KR102561903B1 - AI-based XR content service method using cloud server - Google Patents

AI-based XR content service method using cloud server Download PDF

Info

Publication number
KR102561903B1
KR102561903B1 KR1020220010438A KR20220010438A KR102561903B1 KR 102561903 B1 KR102561903 B1 KR 102561903B1 KR 1020220010438 A KR1020220010438 A KR 1020220010438A KR 20220010438 A KR20220010438 A KR 20220010438A KR 102561903 B1 KR102561903 B1 KR 102561903B1
Authority
KR
South Korea
Prior art keywords
information
model
cloud server
rendering
data
Prior art date
Application number
KR1020220010438A
Other languages
Korean (ko)
Other versions
KR20230114375A (en
Inventor
임완택
Original Assignee
스크린커플스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스크린커플스(주) filed Critical 스크린커플스(주)
Priority to KR1020220010438A priority Critical patent/KR102561903B1/en
Publication of KR20230114375A publication Critical patent/KR20230114375A/en
Application granted granted Critical
Publication of KR102561903B1 publication Critical patent/KR102561903B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 XR 콘텐츠 서비스 방법에 관한 것으로, 체적 3D 비디오(Volumetric 3D Video) 데이터의 실시간 혼합현실 서비스가 가능한 증강현실(AR) 원격 렌더링 (Remote Rendering) 방법을 이용하여, 종래의 AR이나 3D 콘텐츠의 제작 과정에서 수작업으로 인해 발생하는 많은 비용과 시간을 절약할 수 있고, 다양한 문화예술 분야에서 기술적용으로 결과물을 통한 서비스 확장성(활용성)이 매우 용이한 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 제공한다.The present invention relates to an XR content service method, which uses an augmented reality (AR) remote rendering method capable of real-time mixed reality service of volumetric 3D video data, to provide a AI-based XR content service using a cloud server that can save a lot of cost and time caused by manual work in the production process, and is very easy to expand (utilize) the service through technical results in various cultural and artistic fields. provides a way

Description

클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법{AI-based XR content service method using cloud server}AI-based XR content service method using cloud server

본 발명은 XR 콘텐츠 서비스 방법에 관한 것으로, 보다 상세하게는 3D 콘텐츠를 빠르고 효율적으로 제작할 수 있고, 높은 현실감, 현장감 및 인터렉션이 가능한 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에 관한 것이다.The present invention relates to an XR content service method, and more particularly, to an AI-based XR content service method using a cloud server capable of quickly and efficiently producing 3D content and providing high realism, realism and interaction.

최근 혼합현실 (mixed reality)산업이 성장함에 따라 관련 디바이스 보급 및 기술이 제시되고 있다. 특히, 원격 화상회의 등의 실시간 혼합현실 서비스를 위해, 실시간 영상획득-처리-전송의 기술 연구가 요구되고 있다.Recently, as the mixed reality industry has grown, related device supply and technology have been proposed. In particular, for real-time mixed reality services such as remote video conferencing, real-time image acquisition-processing-transmission technology research is required.

AR(증강현실)은 AI, Big-data, 5G Network 등 4차 산업혁명을 이끄는 기술과 결합하여 오감의 무한 확대를 통한 신 서비스를 이끄는 기술이다. 5G 네트워크 인프라 발달로 초고속, 초저지연, 초연결의 AR 서비스 제공이 가능 해짐에 따라 개인화된 실시간 서비스 중심으로 대규모 성장 전망이다.AR (Augmented Reality) is a technology that leads new services through infinite expansion of the five senses by combining with technologies that lead the 4th industrial revolution, such as AI, Big-data, and 5G Network. As the development of 5G network infrastructure makes it possible to provide high-speed, ultra-low latency, and hyper-connected AR services, large-scale growth is expected centering on personalized real-time services.

일반적으로 혼합현실 구현은 클라이언트(client)에 3D 데이터가 저장이 되고, 이를 로딩(loading)하는 방식이다. 이 경우 클라이언트의 사양이 한정되어 있으므로, 3D 데이터의 메쉬 최적화 등을 통해 구현을 한다. 다만, 콘텐츠의 최적화가 요구되므로, 콘텐츠의 품질 손상이 될 수 있다. 다른 방법으로, 서버에 3D 데이터가 저장이 되고 원격지에 있는 클라이언트로 렌더링 하는 방법이 제시되고 있다. 이는 품질을 높이기 위해서 강력한 서버를 사용할 경우, 렌더링(rendering) 품질을 크게 높일 수 있다. 일반적으로 클라우드 렌더링(cloud rendering), 서버 렌더링(server rendering), 원격 렌더링(remote rendering) 등의 용어로 표현 되고 있다.In general, mixed reality implementation is a method in which 3D data is stored in a client and loaded. In this case, since the specifications of the client are limited, it is implemented through mesh optimization of 3D data. However, since optimization of the content is required, the quality of the content may be compromised. As another method, a method of storing 3D data in a server and rendering it to a client in a remote location has been proposed. This can greatly increase the rendering quality when a powerful server is used to increase the quality. Generally, it is expressed in terms such as cloud rendering, server rendering, and remote rendering.

최근 클라우드 기반의 AR 원격 렌더링(Remote Rendering) 기술이 연구되고 있다. 이는 고품질의 대화형 3D 콘텐 츠를 클라우드에서 렌더링 하여 실시간으로 디바이스에 스트리밍 할 수 있는 새로운 혼합 현실 서비스 기술이다. 이때, 3D 데이터 타입(type)에 따른 원격 렌더링(remote rendering) 방식을 아래와 같이 분류할 수 있다.Recently, cloud-based AR remote rendering technology is being researched. This is a new mixed reality service technology that can render high-quality, interactive 3D content in the cloud and stream it to devices in real time. In this case, remote rendering methods according to 3D data types may be classified as follows.

모델 베이스(Model-based) 렌더링은 3D 데이터 (메쉬 또는 포인트 클라우드)를 클라이언트에게 전송하는 방법이다. 이 방법은, 클라이언트가 3D 그래픽 렌더링을 위한 강력한 하드웨어를 필요로 하며, 서버는 3D 데이터 처리 및 생성 계산을 한다. 모델 베이스 렌더링에는 오리지날 모델(Original Model), 부분 모델(Partial Model), 단순화된 모델(Simplified Model), 포인트 클라우드(Point Cloud) 방식이 있다.Model-based rendering is a method of transmitting 3D data (mesh or point cloud) to a client. In this method, the client needs powerful hardware for 3D graphics rendering, and the server does 3D data processing and generation calculations. Model-based rendering includes an original model, a partial model, a simplified model, and a point cloud method.

이미지 베이스(Image-based) 렌더링은 서버에서 모든 3D 모델을 렌더링하고, 이미지들의 정보만을 클라이언트로 보내는 방법이다. 따라서 클라이언트에서는 3D 그래픽 렌더링을 위한 하드웨어는 요구되지 않는다. 이미지 베이스 렌더링에는 멀티 뎁스 이미지(Multiple Depth Images), 뎁스 이미지(Depth Image), 환경 맵(Environment Map), 이미지 포스터(Image Impostor) 방식이 있다.Image-based rendering is a method in which all 3D models are rendered on the server and only image information is sent to the client. Therefore, hardware for 3D graphic rendering is not required in the client. Image-based rendering includes multiple depth images, depth images, environment maps, and image impostors.

상술한 바와 같이, 고품질의 콘텐츠를 제공하기 위해서 모델 베이스(Model-based) 렌더링이 적합하지만 클라이언트에 강력한 3D 그래픽 렌더링을 위한 하드웨어가 요구되는 단점이 있다. 그렇다고 클라이언트의 하드웨어를 고려하여 이미지 베이스 렌더링으로 콘텐츠를 제공하면 품질이 저하되는 문제가 있다. 즉, 클라이언트의 하드웨어 성능과 콘텐츠의 품질 사이에서 양자를 모두 만족시킬 수 있는 방법이 필요하다.As described above, model-based rendering is suitable for providing high-quality content, but has a disadvantage in that a client requires hardware for powerful 3D graphic rendering. However, if the content is provided through image-based rendering in consideration of the hardware of the client, there is a problem of deterioration in quality. That is, a method capable of satisfying both the hardware performance of the client and the quality of content is required.

또한, 종래의 증강현실(AR)이나 3D 콘텐츠의 제작 과정은 수작업으로 이루어지기 때문에 많은 비용 및 인력과 시간이 소요된다는 문제점이 있고, 작업 결과물이 현실감과 현장감이 떨어지고, 종래의 가상현실(VR) 기술이 갖는 인터렉션의 한계가 있다는 문제점이 있다. In addition, since the production process of conventional augmented reality (AR) or 3D content is performed manually, there is a problem that a lot of cost, manpower, and time are required, and the work result is less realistic and realistic, and the conventional virtual reality (VR) There is a problem that the technology has limitations in interaction.

상술한 문제를 해결하고자 하는 본 발명의 과제는 다음과 같다.The object of the present invention to solve the above problems is as follows.

첫째, 본 발명은 3D 콘텐츠를 빠르고 효율적으로 제작할 수 있고, 높은 현실감, 현장감 및 인터렉션이 가능한 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 제공하고자 함이다.First, the present invention is to provide an AI-based XR content service method using a cloud server capable of producing 3D content quickly and efficiently and providing high realism, realism, and interaction.

둘째, 본 발명은 체적 3D 비디오(Volumetric 3D Video) 데이터의 실시간 혼합현실 서비스가 가능한 AR 원격 렌더링 (Remote Rendering)을 통한 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 제공하는 것을 과제로 한다.Second, an object of the present invention is to provide an AI-based XR content service method using a cloud server through AR remote rendering capable of real-time mixed reality service of volumetric 3D video data.

셋째, 문화예술 분야에서 실사 기반의 실감콘텐츠(AR/VR/MR)를 제작하고 서비스하기 위한 360℃ 체적(Volumetric) 영상 캡처 기술과 3D 포즈 추정(Pose Estimation) 방법을 이용하여, 클라우드 서버로부터의 증강현실 렌더링 시스템의 구축을 통해 WebRTC 모바일 웹 브라우저 환경에서의 XR 실감 콘텐츠를 제공하는 서비스 방법을 제공하하는 것을 과제로 한다.Third, by using 360℃ volumetric video capture technology and 3D pose estimation method to produce and service real-life content (AR/VR/MR) based on realism in the field of culture and arts, The task is to provide a service method that provides XR immersive content in the WebRTC mobile web browser environment through the construction of an augmented reality rendering system.

상술한 과제를 해결하기 위한 본 발명의 제1 특징은, 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법으로, (a) 모델링부가 3D 체적 모델링 기술을 이용하여 객체의 3D 모델 탬플릿을 생성하는 단계; (b) 모델링부가 딥러닝 기술을 이용하여 상기 객체의 포즈 추정(Pose Estimation) 데이터를 획득하고, 상기 3D 모델 탬플릿의 뼈대(skeleton)의 움직임을 추정하여 리깅(Rigging) 정보를 획득한 후, 3D 모델 정보 및 3D 모델 동작 정보를 생성하고 3D 모델 데이터베이스에 저장하는 단계; (c) 클라우드 서버가 상기 3D 모델 데이터베이스에 저장된 상기 3D 모델 정보 및 3D 모델 동작 정보를 이용하여 3D 애니메이팅 정보를 렌더링하는 단계; 및 (d) 상기 클라우드 서버가 클라이언트 단말로 상기 렌더링 데이터를 스트리밍하여 XR 콘텐츠를 제공하는 단계를 포함할 수 있다.A first feature of the present invention for solving the above problems is an AI-based XR content service method using a cloud server, (a) generating a 3D model template of an object using a 3D volume modeling technology by a modeling unit; (b) After the modeling unit acquires pose estimation data of the object using deep learning technology and estimates the motion of the skeleton of the 3D model template to obtain rigging information, the 3D Generating model information and 3D model operation information and storing them in a 3D model database; (c) rendering 3D animation information by using the 3D model information and 3D model operation information stored in the 3D model database by a cloud server; and (d) providing XR contents by the cloud server by streaming the rendering data to a client terminal.

여기서, 상기 (a) 단계는, (a1) 다수개의 다시점 카메라를 이용하여 객체에 대한 3D 포토그래매트리(Photogrammetry) 캡쳐 데이터를 생성하는 단계; 및 (a2) 생성된 상기 3D 포토그래매트리(Photogrammetry) 캡처 데이터를 이용하여 상기 객체의 3D 체적(Volumetric) 모델 탬플릿을 생성하는 단계를 포함할 수 있다.Here, the step (a) may include: (a1) generating 3D photogrammetry capture data for an object using a plurality of multi-view cameras; and (a2) generating a 3D volumetric model template of the object using the generated 3D photogrammetry capture data.

또한, 상기 (b) 단계는, (b1) 모델링부가 딥러닝 기술을 이용하여 상기 객체의 포즈 추정(Pose Estimation) 정보를 산출하는 단계; (b1) 모델링부가 상기 3D 모델 탬플릿의 뼈대(skeleton) 사이의 시간적인 움직임 벡터를 획득하고 리깅(Rigging) 정보를 생성하는 단계; 및 (b2) 산출된 상기 포즈 추정 정보를 이용하여 상기 리깅(Rigging) 정보를 보정하고, 보정된 상기 리깅(Rigging) 정보를 이용하여 상기 3D 모델 탬플릿의 동작 정보를 생성하여 상기 3D 모델 데이터베이스에 저장하는 단계를 포함할 수 있다.In addition, the step (b) may include: (b1) a modeling unit calculating pose estimation information of the object using deep learning technology; (b1) obtaining, by a modeling unit, temporal motion vectors between skeletons of the 3D model template and generating rigging information; and (b2) correcting the rigging information using the calculated pose estimation information, generating motion information of the 3D model template using the corrected rigging information, and storing it in the 3D model database. steps may be included.

또한, 상기 (c) 단계는, 상기 3D 애니메이팅 정보의 처리량을 감소시키기 위한 중복된 포인트 데이터와 추가된 포인트 데이터를 구분하여 파싱하여 렌더링하는 단계; 및 상기 클라우드 서버가 상기 클라이언트 단말로부터 수신받은 위치 정보에 기반하여 렌더링하는 단계를 포함할 수 있다.In addition, the step (c) may include parsing and rendering redundant point data and added point data to reduce the processing amount of the 3D animation information; and rendering, by the cloud server, based on location information received from the client terminal.

더하여, 상기 렌더링은, webRTC API 기반 웹 브라우저 스트리밍 방식의 렌더링인 것일 수 있고, 상기 (d) 단계는, 클라이언트 단말에서 상기 스트리밍 데이터를 통해 3D 템플릿에서 리깅(Rigging)된 상기 3D 객체 모델을 증강현실(AR) 환경에서 적용하여 구현하고, 웹 브라우저를 통해 XR 콘텐츠를 제공하는 단계인 것일 수 있다.In addition, the rendering may be a rendering of a web browser streaming method based on a webRTC API, and in the step (d), the client terminal converts the 3D object model rigged from the 3D template to augmented reality through the streaming data. It may be a step of applying and implementing in an (AR) environment and providing XR contents through a web browser.

그리고, 본 발명의 제2 특징은, 컴퓨팅 단말기 또는 서버에 설치되어 컴퓨팅 또는 클라우드 컴퓨팅이 가능하도록 설치되어 상술한 어느 하나의 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 실행시키기 위한 컴퓨터가 판독 가능한 매체에 저장된 컴퓨터프로그램일 수 있다.And, the second feature of the present invention is installed in a computing terminal or server to enable computing or cloud computing, and is computer-readable for executing the AI-based XR content service method using any one of the cloud servers described above. It may be a computer program stored on a medium.

상술한 과제를 해결하는 본 발명의 효과는 다음과 같다.The effects of the present invention to solve the above problems are as follows.

첫째, 본 발명은 체적 3D 비디오(Volumetric 3D Video) 데이터의 실시간 혼합현실 서비스가 가능한 증강현실(AR) 원격 렌더링 (Remote Rendering) 방법을 이용하여, 종래의 AR이나 3D 콘텐츠의 제작 과정에서 수작업으로 인해 발생하는 많은 비용과 시간을 절약할 수 있고, 다양한 문화예술 분야에서 기술적용으로 결과물을 통한 서비스 확장성(활용성)이 매우 용이한 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 제공한다.First, the present invention uses an augmented reality (AR) remote rendering method capable of providing a real-time mixed reality service of volumetric 3D video data, so that manual work in the production process of conventional AR or 3D content can be achieved. It provides an AI-based XR content service method using a cloud server that can save a lot of cost and time, and is very easy to expand (usage) the service through results for technical use in various cultural and artistic fields.

둘째, 본 발명은 포즈 추정(Pose Estimation) 방법 및 포토그래메트리(Photogrammetry) 3D 스캐닝을 통해, 실제 케이팝 가수 등의 3차원 모델 데이터를 다시점 카메라를 통해 촬영하여 3D 메쉬(Mesh) 형태로 추출하고, 최종적으로 360도 체험이 요구되는 가상 및 증강현실 환경에서 본 대상 모델(콘텐츠)을 구현할 수 있는 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 제공한다.Second, the present invention uses a pose estimation method and photogrammetry 3D scanning to capture 3D model data such as actual K-pop singers through a multi-view camera and extract them in the form of a 3D mesh Finally, it provides an AI-based XR content service method using a cloud server that can implement the target model (content) in a virtual and augmented reality environment that requires a 360-degree experience.

셋째, 본 발명은 3D 체적(Volumetric) 기술은 고해상도 화질을 구현하는 다수의 영화촬영용 특수카메라를 이용하여 사람의 움직임을 캡쳐하고, 360도 3D 입체 영상으로 만들어 내는 기술을 이용하여, 기존의 VR 기술이 갖는 인터렉션의 한계를 넘어서고, 그래픽스 기반의 AR 기술이 갖는 사실감의 한계를 넘어설 수 있는 높은 사실감 및 현실감을 구현할 수 있는 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 제공한다.Third, the 3D volumetric technology of the present invention captures human motion using a number of special cinematographic cameras that implement high-resolution image quality and creates a 360-degree 3D stereoscopic image. It provides an AI-based XR content service method using a cloud server that can realize high realism and realism that can overcome the limits of interaction and realism of graphics-based AR technology.

넷째, 본 발명의 실시예에 적용되는 포토그래메트리(Photogrammetry) 기술은 카메라 등 다양한 입력 매체를 이용하여 피사체의 형상을 저장 및 측정하고 해석하여 신뢰할 수 있는 정보를 획득하는 측량 기법으로 기존의 3D 모델링 제작에서 드로잉(Drawing)을 통해 그려내는 정설계 방식의 수작업 디자인 제작으로 많은 비용과 인력, 후처리 시간 등의 소요되는 문제점을 해결할 수 있는 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 제공한다.Fourth, the photogrammetry technology applied to the embodiment of the present invention is a surveying technique that obtains reliable information by storing, measuring, and interpreting the shape of a subject using various input media such as a camera. It provides an AI-based XR content service method using a cloud server that can solve problems such as high cost, manpower, and post-processing time by manual design production of a precise design method drawn from modeling production through drawing. .

도 1은 본 발명의 실시예에 따른 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법의 흐름을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법의 프로세스를 모식화한 개념도이다.
도 3은 본 발명의 실시예에 따른 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법의 블록 구성의 프로세스 연결 모식도이다.
도 4는 본 발명의 실시예에 따른 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에서 3D 모델 탬플릿을 생성하는 단계의 3D 포토그래메트리(Photogrammetry) 캡쳐 시스템의 개념 모식도이다.
도 5는 본 발명의 실시예에 따른 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에 적용되는 고정밀 3D 객체 생성 알고리즘의 개념 모식도이다.
도 6은 본 발명의 실시예에 따른 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에 적용되는 고정밀 3D 포즈 추정 알고리즘의 모식도이다.
도 7은 본 발명의 실시예에 따른 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에 적용되는 조인트 보정 알고리즘의 개념 모식도이다.
도 8은 본 발명의 실시예에 따른 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에 적용되는 렌더링 프로세스의 개념 모식도이다.
도 9는 본 발명의 실시예에 따른 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법이 실행되는 애플리케이션 서비스의 개념 모식도이다.
1 is a diagram showing the flow of an AI-based XR content service method using a cloud server according to an embodiment of the present invention.
2 is a conceptual diagram schematically illustrating a process of an AI-based XR content service method using a cloud server according to an embodiment of the present invention.
3 is a process connection schematic diagram of a block configuration of an AI-based XR content service method using a cloud server according to an embodiment of the present invention.
4 is a conceptual schematic diagram of a 3D photogrammetry capture system in the step of generating a 3D model template in the AI-based XR content service method using a cloud server according to an embodiment of the present invention.
5 is a conceptual schematic diagram of a high-precision 3D object creation algorithm applied to an AI-based XR content service method using a cloud server according to an embodiment of the present invention.
6 is a schematic diagram of a high-precision 3D pose estimation algorithm applied to an AI-based XR content service method using a cloud server according to an embodiment of the present invention.
7 is a conceptual schematic diagram of a joint correction algorithm applied to an AI-based XR content service method using a cloud server according to an embodiment of the present invention.
8 is a conceptual schematic diagram of a rendering process applied to an AI-based XR content service method using a cloud server according to an embodiment of the present invention.
9 is a conceptual schematic diagram of an application service in which an AI-based XR content service method using a cloud server according to an embodiment of the present invention is executed.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.As used throughout the specification, the terms "about", "substantially", etc., are used at or approximating that value when manufacturing and material tolerances inherent in the stated meaning are given, and do not convey an understanding of the present invention. Accurate or absolute figures are used to help prevent exploitation by unscrupulous infringers of the disclosed disclosure. The term "step of (doing)" or "step of" as used throughout the specification of the present invention does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by a terminal, device, or device may be performed instead by a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, apparatus, or device connected to the server.

이하에서 본 발명의 바람직한 실시예를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법의 흐름을 나타낸 도면이다.1 is a diagram showing the flow of an AI-based XR content service method using a cloud server 200 according to an embodiment of the present invention.

도 1에 나타낸 바와 같이, 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 서비스 방법은, (a) 모델링부(100)가 3D 체적(Volummetic) 모델링 기술을 이용하여 객체의 3D 모델 탬플릿을 생성하는 단계(S100); (b) 모델링부(100)가 딥러닝 기술을 이용하여 상기 객체의 포즈 추정(Pose Estimation) 데이터를 획득하고, 상기 3D 모델 탬플릿의 뼈대(skeleton)의 움직임을 추정하여 리깅(Rigging) 정보를 획득한 후, 3D 모델 정보 및 3D 모델 동작 정보를 생성하고 3D 모델 데이터베이스에 저장하는 단계(S200); (c) 클라우드 서버(200)가 상기 3D 모델 데이터베이스에 저장된 상기 3D 모델 정보 및 3D 모델 동작 정보를 이용하여 3D 애니메이팅 정보를 렌더링하는 단계(S300); 및 (d) 상기 클라우드 서버(200)가 클라이언트 단말(300)로 상기 렌더링 데이터를 스트리밍하여 XR 콘텐츠를 제공하는 단계(S400)를 포함할 수 있다.As shown in FIG. 1, in the AI-based XR service method using the cloud server 200 according to an embodiment of the present invention, (a) the modeling unit 100 uses 3D volumetric modeling technology to Generating a 3D model template (S100); (b) The modeling unit 100 obtains pose estimation data of the object using deep learning technology, and obtains rigging information by estimating the movement of a skeleton of the 3D model template Then, generating 3D model information and 3D model operation information and storing them in a 3D model database (S200); (c) rendering 3D animation information by using the 3D model information and 3D model operation information stored in the 3D model database by the cloud server 200 (S300); and (d) the cloud server 200 streaming the rendering data to the client terminal 300 to provide XR content (S400).

여기서 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 적용하기 위한 시스템을 구성을 살펴 보면, 3D 모델링과 애니메이션 데이터를 생성하는 모델링부(100)와, 데이터를 렌더링하고 스트리밍 하는 클라우드 서버(200)와, XR 콘텐츠를 제공하는 클라이언트 단말(300)을 포함하여 구성될 수 있고, 각 구성은 인터넷을 포함하는 네트워크를 통해 유선 또는 무선으로 연결될 수 있다.Here, looking at the configuration of the system for applying the AI-based XR content service method using the cloud server 200 according to the embodiment of the present invention, the modeling unit 100 for generating 3D modeling and animation data, and the data It may be configured to include a cloud server 200 that renders and streams, and a client terminal 300 that provides XR content, and each configuration may be connected wired or wirelessly through a network including the Internet.

모델링부(100) 및 클라우드 서버(200)는 유/무선 통신장치를 구비하고, 컴퓨팅 또는 연산 기능을 수행하는 컴퓨터, 노트북 등의 컴퓨팅 장치일 수 있고, 클라이언트 단말(300)은 무선 통신장치를 구비하는 스마트폰 등과 같은 모바일 기기일 수 있으며, 유선으로 인터넷 연결이 가능한 컴퓨팅 장치일 수 있다.The modeling unit 100 and the cloud server 200 have wired/wireless communication devices and may be computing devices such as computers and laptops that perform computing or arithmetic functions, and the client terminal 300 includes a wireless communication device. It may be a mobile device, such as a smart phone, or a computing device capable of connecting to the Internet through a wired connection.

이처럼 본 발명은 체적 3D 비디오(Volumetric 3D Video) 데이터의 실시간 혼합현실 서비스가 가능한 증강현실(AR) 원격 렌더링 (Remote Rendering) 방법을 이용하여, 종래의 AR이나 3D 콘텐츠의 제작 과정에서 수작업으로 인해 발생하는 많은 비용과 시간을 절약할 수 있고, 다양한 문화예술 분야에서 기술적용으로 결과물을 통한 서비스 확장성(활용성)이 매우 용이한 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 제공한다. As such, the present invention uses an augmented reality (AR) remote rendering method capable of providing real-time mixed reality service of volumetric 3D video data, resulting in manual work in the production process of conventional AR or 3D contents Provides an AI-based XR content service method using a cloud server (200) that can save a lot of cost and time to do, and is very easy to expand (utilize) services through results for technical use in various cultural and artistic fields. .

도 2는 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법의 프로세스를 모식화한 개념도를 도시하고, 도 3은 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법의 블록 구성의 프로세스 연결 모식도를 도시한다.FIG. 2 shows a schematic diagram illustrating a process of an AI-based XR contents service method using a cloud server 200 according to an embodiment of the present invention, and FIG. 3 shows a cloud server 200 according to an embodiment of the present invention. It shows a schematic diagram of the process connection of the block configuration of the AI-based XR content service method using

도 2 및 도 3에 나타낸 바와 같이, 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법은, 먼저 3D 포토그래메트리(Photogrammetry) 캡쳐 또는 체적(Volumetric) 4D 캡쳐 시스템을 이용하여 포토그래메트리(Photogrammetry) 메타 휴먼의 몸, 얼굴 및 의상/소품 등의 객체를 수십 개의 다시점 카메라를 이용하여 360도 방향으로 촬영하여 캡쳐 이미 데이터를 획득하고, 실사 3D 체적 모델을 생성하여 실사 3D 메타휴먼 템플릿을 제작한 후, 실사 3D 메타휴먼 템플릿을 실사 3D 모델 데이터베이스에 저장한다.As shown in FIGS. 2 and 3 , the AI-based XR content service method using the cloud server 200 according to an embodiment of the present invention first captures 3D photogrammetry or captures volumetric 4D Photogrammetry Using the system, objects such as the body, face, and clothing/props of a meta-human are photographed in 360-degree directions using dozens of multi-view cameras to acquire capture image data, and a live-action 3D volume model After creating a live-action 3D metahuman template, the live-action 3D metahuman template is stored in a live-action 3D model database.

여기서, 본 발명의 실시예에 적용되는 3D 체적(Volumetric) 기술은 고해상도 화질을 구현하는 다수의 영화촬영용 특수카메라를 이용하여 사람의 움직임을 캡쳐하고, 360도 3D 입체 영상으로 만들어 내는 기술로서, 기존의 현실감과 현장감을 넘어서기 위한 실사 기반의 체적(Volumetric) 영상 기술이다. 또한, 기존의 VR 기술이 갖는 인터렉션의 한계를 넘어서고, 그래픽스 기반의 AR 기술이 갖는 사실감의 한계를 넘어설 수 있는 높은 사실감 및 현실감을 구현할 수 있는 기술이다.Here, the 3D volumetric technology applied to the embodiment of the present invention is a technology that captures human motion using a plurality of special cinematography cameras that implement high-resolution image quality and creates a 360-degree 3D stereoscopic image. It is a volumetric video technology based on live action to go beyond the realism and realism of the movie. In addition, it is a technology capable of realizing high realism and realism that can overcome the limits of interaction of existing VR technology and the limits of realism of graphics-based AR technology.

그리고, 본 발명의 실시예에 적용되는 포토그래메트리(Photogrammetry) 기술은 카메라 등 다양한 입력 매체를 이용하여 피사체의 형상을 저장 및 측정하고 해성하여 신뢰할 수 있는 정보를 획득하는 측량 기법으로 기존의 3D 모델링 제작에서 드로잉(Drawing)을 통해 그려내는 정설계 방식의 수작업 디자인 제작으로 많은 비용과 인력, 후처리 시간 등의 소요되는 문제점을 해결할 수 있는 기술이다.In addition, the photogrammetry technology applied to the embodiment of the present invention is a surveying technique that obtains reliable information by storing, measuring, and analyzing the shape of a subject using various input media such as a camera. It is a technology that can solve problems such as high cost, manpower, and post-processing time by manual design production in the method of accurate design drawn through drawing in modeling production.

또한, 모델링부(100)는 생성한 3D 체적 모델의 애니메이션 시퀀스를 위해, 3D 포즈 추정(Pose Estimation) 기술을 이용하여 사람 등의 메타 휴먼 모델의 취한 자세를 인식하고 추정하고, 3D 모델 리깅(Rigging) 정보 및 보정정보를 생성하여, 3D 모델의 3D 공간 동작정보를 획득하여 실사 3D 모델 데이터베이스에 저장한다. 여기서, 리깅(Rigging)은 모델링의 기초작업으로 모델의 뼈대(Skeleton0을 만드는 작업을 의미한다. In addition, the modeling unit 100 recognizes and estimates the pose of a metahuman model such as a person using 3D pose estimation technology for the animation sequence of the generated 3D volume model, and rigging the 3D model. ) information and correction information are generated, and 3D spatial operation information of the 3D model is obtained and stored in a real-life 3D model database. Here, rigging means the work of making the skeleton (Skeleton0) of the model as a basic work of modeling.

클라우드 서버(200)는 실사 3D 모델 데이터베이스에 저장된 3D 모델과 3D 동작 정보를 이용하여 3D 애니메이팅 정보를 클라이언트 단말(300)로부터 수신받은 위치정보를 이용하여 WebRTC 방식으로 렌더링하여 모바일 클라이언트로 스트리밍하여 XR 콘텐츠를 제공한다.The cloud server 200 uses the location information received from the client terminal 300 to render the 3D animation information using the 3D model and 3D motion information stored in the real-life 3D model database in the WebRTC method, and streams it to the mobile client to provide XR provide content.

이하에서 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 각 단계별 프로세스를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, the AI-based XR content service method using the cloud server 200 according to an embodiment of the present invention will be described in detail with reference to drawings for each step process.

도 4는 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에서 3D 모델 탬플릿을 생성하는 단계의 3D 포토그래메트리(Photogrammetry) 캡쳐 시스템의 개념 모식도이다.4 is a conceptual schematic diagram of a 3D photogrammetry capture system in the step of generating a 3D model template in the AI-based XR content service method using the cloud server 200 according to an embodiment of the present invention.

도 4에 나타낸 바와 같이, 3D 포토그래메트리(Photogrammetry) 캡쳐 시스템은 크로마키 스크린 배경에 다수개의 다시점 영화 촬영용 카메라를 설치하고, 3D 객체를 고정밀(평균 15mm 이하의 정밀도) 초당 30 프레임으로 촬영을 하고, 체적(Volumetric) 합성 프로그램을 이용하여 3D 모델을 합성한다. 이와 같은 객체 모델을 위한 3D 체적 방식은 동영상 제작에 최적화할 수 있고, 촬영 영역의 크로마키 부분에 그림자 또는 포화영역의 발생을 억제하고, 피사체의 반사에 의한 플리커 현상을 억제하는 조명 환경 제어 기술을 포함할 수 있다.As shown in FIG. 4, the 3D photogrammetry capture system installs a plurality of multi-view movie cameras on a chroma key screen background, and captures 3D objects at high precision (average precision of 15 mm or less) at 30 frames per second. and synthesize a 3D model using a volumetric synthesis program. The 3D volumetric method for object models like this can be optimized for video production, suppresses the occurrence of shadows or saturated areas in the chroma key part of the shooting area, and controls the lighting environment to suppress the flicker phenomenon caused by the reflection of the subject. can include

이와 같은 3D 포토그래메트리(Photogrammetry) 캡쳐 시스템은, 콘텐츠 공연의 내용, 조명, 촬영 공간 세팅에 따른 카메라의 앵글, 조리개, 셔터 스피드 및 ISO를 조정할 수 있고, 입력 영상의 밝기, 노이즈, 모션 블러 및 심도에 따른 초점을 제어할 수 있으며, 다시점 촬영 영상의 전처리 알고리즘을 통한 공연자 결과 최적화할 수 있다는 장점이 있다.Such a 3D photogrammetry capture system can adjust the angle, aperture, shutter speed, and ISO of the camera according to the content, lighting, and shooting space setting of the content performance, and the brightness, noise, and motion blur of the input image. And it is possible to control the focus according to the depth, and it is possible to optimize the result of the performer through the pre-processing algorithm of the multi-view image.

또한, 도 4에서 예시된 3D 포토그래매트리 캡쳐 시스템을 이용하여 촬영된 3D 객체의 이미지 데이터를 이용하여 3D 체적(Volumetric) 모델을 생성할 수 있는데, 40시점 이상의 다시점 카메라 촬영 및 동기화 기술을 통해 영화 제작급의 고정밀의 3D 체적 모델 데이터를 생성할 수 있고, SfM(Structure from Motion) 방식의 영상 합성 기술을 자체 셋업하는 카메라 시스템 및 조명 환경에 최적화함으로써 고품질의 3D 모델의 복원 및 정제 기술을 적용할 수 있으며, 3D 객체 합성 시간 단축을 위한 병렬처리 시스템을 적용할 수 있다.In addition, a 3D volumetric model can be created using image data of a 3D object captured using the 3D photogrammetry capture system illustrated in FIG. High-precision 3D volume model data at the level of film production can be generated through this process, and SfM (Structure from Motion) method video synthesis technology is optimized for the camera system and lighting environment that are set up in-house, so that high-quality 3D model restoration and refinement technology can be restored. It can be applied, and a parallel processing system can be applied to reduce the 3D object synthesis time.

도 5는 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에 적용되는 고정밀 3D 객체 생성 알고리즘의 개념 모식도이다.5 is a conceptual schematic diagram of a high-precision 3D object creation algorithm applied to the AI-based XR content service method using the cloud server 200 according to an embodiment of the present invention.

본 발명의 실시예에서는 체적 비디오의 3D 체적 생성 결과를 정밀하게 만드는 알고리즘을 적용할 수 있는데, 3D 체적 합성 기술의 고도화 방법으로 시공간 특수 필터를 이용하여 스튜디오에 설치된 카메라의 2배 개수의 영상을 이용하여 고정밀의 3D 체적을 구하는 기술을 적용할 수 있다. In the embodiment of the present invention, it is possible to apply an algorithm that precisely makes the 3D volume generation result of volumetric video. As an advanced method of 3D volume synthesis technology, it is possible to use images twice the number of cameras installed in the studio using special spatio-temporal filters. Thus, a technique for obtaining a high-precision 3D volume can be applied.

즉, 도 5에 나탄내 바와 같이, 전술한 3D 포토그래메트리(Photogrammetry) 캡쳐 시스템을 이용하여 촬영된 현재 프래임의 40개 2D 영상과 이전 프레임의 40개 영상을 시공간 필터(Temporal-Spatial filter)를 이용하여 합성하면, 합성된 3D 체적(Volumetric) 모델 결과물을 얻을 수 있다. 또한, 3D 체적 합성의 프로세싱 단계 중‘카메라 위치 추정’알고리즘을 분석 및 제어하여 결과물 품질을 향상시킬 수도 있다.That is, as shown in FIG. 5, 40 2D images of the current frame and 40 images of the previous frame captured using the above-described 3D photogrammetry capture system are subjected to a temporal-spatial filter. When synthesized using , the result of the synthesized 3D volumetric model can be obtained. In addition, the quality of the result can be improved by analyzing and controlling the 'camera position estimation' algorithm during the processing stage of 3D volume synthesis.

도 6은 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에 적용되는 고정밀 3D 포즈 추정 알고리즘의 모식도를 도시하고, 도 7은 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에 적용되는 조인트 보정 알고리즘의 개념 모식도를 도시한다.6 shows a schematic diagram of a high-precision 3D pose estimation algorithm applied to an AI-based XR content service method using a cloud server 200 according to an embodiment of the present invention, and FIG. 7 shows a cloud server according to an embodiment of the present invention. It shows a conceptual diagram of the joint correction algorithm applied to the AI-based XR contents service method using (200).

도 6에 나타낸 바와 같이, 인간 객체의 포즈 추정(Pose Estimation) 데이터를 획득하는 알고리즘은 (a) 단계에서 획득한 체적(Volumentric) 모델 탬플릿에서 인간 객체의 다시점 전신 뼈대를 추출, 뼈대 통합 및 보정, 뼈대 분석 및 얼굴 및 손위치 판별의 프로세스를 진행하는 고정밀 스켈레톤 캡쳐 기술을 적용한다. 그리고, 다시점 고화질 영상을 통해 얼굴 및 손 고해상도 영상을 추출, 손 뼈대 추출, 뼈대 및 특징을 통합하고, 얼굴 및 손 영상을 통해 얼굴 표정을 추출하고 전술한 뼈대 및 특징 통합 과정을 거쳐 3D 모델의 동작을 수행하는 인간 객체의 포즈 추정 데이터를 획득하 수 있다. 여기서 인간 객체의 포즈 추정은 AI 딥러닝을 통해 모션 추정이 가능하고 다시점 동작 분석을 통한 고정밀 모션 캡쳐 결과물을 획득할 수도 있다.As shown in FIG. 6, the algorithm for obtaining pose estimation data of the human object extracts the multi-view whole body skeleton of the human object from the volumetric model template obtained in step (a), integrates and corrects the skeleton , apply high-precision skeleton capture technology that proceeds with the process of bone analysis and face and hand position discrimination. Then, through multi-view high-definition video, high-resolution images of the face and hands are extracted, hand skeletons are extracted, and skeletons and features are integrated. Pose estimation data of a human object performing an operation may be obtained. Here, motion estimation of the human object can be performed through AI deep learning, and high-precision motion capture results can be obtained through multi-view motion analysis.

즉, 다시점의 전신 뼈대(Skeleton)를 추출한 이후에 여러 뼈대를 하나의 뼈대로 통합하고, 동시에 생성된 3D 체적 모델 정보를 이용하여 보정할 수 있고, 보정된 뼈대를 분석하여 얼굴과 손 영역을 검출하고 UHD 영상의 동일 영역에서 고정밀 영상을 추출하여 얼굴과 손의 기하학적 정보를 추출한 이후에 전신 뼈대(Skeleton)과 통합함으로써 통합 모션 캡쳐 결과 생성할 수 있다.In other words, after extracting the multi-view whole body skeleton, several skeletons can be integrated into one skeleton, and correction can be made using the 3D volume model information generated at the same time. After detecting and extracting high-precision images from the same area of the UHD image to extract the geometrical information of the face and hands, integrated motion capture results can be created by integrating them with the full body skeleton.

도 7에 나타낸 바와 같이, 3D 체적 및 인체 정보를 이용한 모션 캡쳐 보정을 위한 조인트 보정 알고리즘은 3차원 공간에서 포인트 클라우드 정보를 이용한 마디 위치의 보정 기술로서, 추출된 뼈대(Skeleton)의 3D 모델을 고려한 포인트 클라우드 클러스터링에서 3차원 공간에서 포인트 클라우드 정보를 이용한 마디 위치의 보정 할 수 있는 알고리즘을 적용할 수 있다. 즉, 전술한 뼈대(Skeleton) 추출을 위한 딥러닝 모델 및 신호처리 기술이 갖는 오차를 3차원 모델의 포인트 클라우드 정보를 이용하여 보정할 수 있는 알고리즘을 적용할 수 있다.As shown in FIG. 7, the joint correction algorithm for motion capture correction using 3D volume and human body information is a technology for correcting the position of nodes using point cloud information in a 3D space, considering the 3D model of the extracted skeleton. In point cloud clustering, an algorithm that can correct the position of nodes using point cloud information in a 3D space can be applied. That is, an algorithm capable of correcting an error of the above-described deep learning model for skeleton extraction and signal processing technology using point cloud information of a 3D model can be applied.

그리고, (b) 단계는, 3D 객체의 포즈 추정 정보를 산출하고, 모델링부(100)가 상기 3D 모델 탬플릿의 뼈대(skeleton) 사이의 시간적인 움직임 벡터를 획득하고 리깅(Rigging) 정보를 생성하는 단계 및 산출된 상기 모션 추정 정보를 이용하여 상기 리깅(Rigging) 정보를 보정하는 단계를 포함할 수 있다.In step (b), pose estimation information of the 3D object is calculated, and the modeling unit 100 obtains a temporal motion vector between skeletons of the 3D model template and generates rigging information. and correcting the rigging information using the calculated motion estimation information.

여기서 리깅(Rigging) 정보를 생성하는 단계는, 추출된 뼈대 사이의 시간적인 움직임 추정을 통해 움직임 벡터를 획득하고, 움직임 벡터 분석 기반의 애니메이팅을 고려한 리깅(Rigging) 정보 분석 기술을 적용할 수 있다. 또한, 고정밀 3D 탬플릿의 애니메이팅과 3D 체적(Volumetric) 모델 탬플릿 시퀀스의 비교 분석을 통한 오차 영역의 보상 및 개선 기술을 적용할 수 있다.Here, in the step of generating rigging information, a motion vector may be obtained through temporal motion estimation between the extracted bones, and a rigging information analysis technique considering animation based on motion vector analysis may be applied. . In addition, it is possible to apply techniques for compensating and improving error areas through high-precision animation of 3D templates and comparative analysis of 3D volumetric model template sequences.

도 8은 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법에 적용되는 렌더링 프로세스의 개념 모식도를 도시한다.8 is a conceptual schematic diagram of a rendering process applied to the AI-based XR content service method using the cloud server 200 according to an embodiment of the present invention.

본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법의 (c) 단계는, 클라우드 서버(200)가 상기 3D 모델 데이터베이스에 저장된 상기 3D 모델 정보 및 3D 모델 동작 정보를 이용하여 3D 애니메이팅 정보를 렌더링하는 단계로서, 3D 애니메이팅 정보의 처리량을 감소시키기 위한 중복된 포인트 데이터와 추가된 포인트 데이터를 구분하여 파싱하여 렌더링하고, 상기 클라우드 서버(200)가 상기 클라이언트 단말(300)로부터 수신받은 위치 정보에 기반하여 렌더링하는 단계일 수 있다.In step (c) of the AI-based XR content service method using the cloud server 200 according to an embodiment of the present invention, the cloud server 200 uses the 3D model information and 3D model operation information stored in the 3D model database. As a step of rendering 3D animation information by using, parsing and rendering redundant point data and added point data to reduce the processing amount of 3D animation information, and the cloud server 200 is the client terminal ( It may be a step of rendering based on the location information received from 300).

즉, 도 8에 나타낸 바와 같이, 모델링부(100)가 (a) 단계로서 포토그래메트리 스캔(Photogrammetry Scan)을 통해 3D 체적 모델 탬플릿을 생성하고, (b) 단계로서 포즈 추정(Pose Estimation)을 통하여 3D 모델 정보 및 3D 모델 동작 정보를 생성한 후 이를 통해 3D 애니메이팅 정보를 생성한다. 그리고 나서 클라우드 서버(200)가 (c) 단계로서, 전술한 3D 애니메이팅 정보를 클라이언트 단말(300)로부터 수신받은 위치정보를 이용하여 WebRTC 방식으로 렌더링할 수 있다. That is, as shown in FIG. 8, the modeling unit 100 generates a 3D volume model template through photogrammetry scan as step (a), and pose estimation as step (b) After generating 3D model information and 3D model motion information through , 3D animation information is generated through this. Then, in step (c), the cloud server 200 may render the above-described 3D animation information in a WebRTC method using location information received from the client terminal 300 .

본 발명의 실시예에 적용되는 클라우드 서버(200)의 렌더링 방식은, WebRTC API 기반 웹 브라우저 스트리밍 방식의 렌더링 방법으로, 데이터 처리량을 감소시키기 위한 중복된 포인트 데이터와 추가된 포인트 데이터를 구분하여 파싱하고, 모바일 클라이언트는 카메라를 사용하여 위치 추적을 수행, 해당 위치를 클라우드 서버(200)에서 수신받아 렌더링하고, (d) 단계로서, 클라우드 서버(200)가 렌더링된 장면 정보를 클라이언트 단말(300)로 스트리밍하여 XR 콘텐츠를 제공하게 된다.The rendering method of the cloud server 200 applied to the embodiment of the present invention is a WebRTC API-based web browser streaming rendering method, which distinguishes and parses duplicated point data and added point data to reduce data throughput, , The mobile client performs location tracking using a camera, receives the location from the cloud server 200 and renders it, and in step (d), the cloud server 200 transmits the rendered scene information to the client terminal 300. Streaming will provide XR content.

여기서, WebRTC(Web Real-Time Communication) API는 웹 브라우저 간에 플러그인의 도움없이 서로 통신할 수 있도록 설계된 API로서, 임의의 데이터를 보내고 받을 수 있는 P2P(peer to peer) 채널을 이용할 수 있다. 그리고, 클라우드 서버(200)는 AR 렌더링 서버로서, 브라우저 실행 및 모바일 클라이언트 위치 정보에 기반을 두어 렌더링 실행하고, 서버 캔버스가 캡쳐(capture) API를 통해 비디오로 캡처되어 모바일 클라이언트로 스트리밍하고, 모바일 클라이언트에서의 서버의 3D 렌더링 비디오 표시하여 XR 콘텐츠를 제공하게 된다.Here, the Web Real-Time Communication (WebRTC) API is an API designed to allow web browsers to communicate with each other without the help of a plug-in, and a peer to peer (P2P) channel capable of sending and receiving arbitrary data can be used. In addition, the cloud server 200 is an AR rendering server, and renders based on browser execution and mobile client location information, and the server canvas is captured as a video through a capture API and streamed to the mobile client. 3D rendered video from the server will be displayed to provide XR content.

도 9는 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법이 실행되는 애플리케이션 서비스의 개념 모식도이다.9 is a conceptual schematic diagram of an application service in which an AI-based XR content service method using the cloud server 200 according to an embodiment of the present invention is executed.

도 9에 나타낸 바와 같이, 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법을 실행하는 애플리케이션은 3D 모델의 증강현실(AR)을 적용하고 웹 브라우저 환경의 애플리케이션으로, 3D 템플릿에서 리깅(Rigging)된 3차원 모델을 AR 환경에서 3D 객체(object) 적용을 구현할수 있고, 공간스캐닝 & 앵커(Anchor) 포인트 지정할 수 있으며, 렌더링 서버의 가상 카메라로부터 수신된 장면 정보를 스트리밍하여 XR 콘텐츠를 제공할 수 있다.As shown in FIG. 9, an application executing an AI-based XR content service method using the cloud server 200 according to an embodiment of the present invention applies augmented reality (AR) of a 3D model and is an application in a web browser environment. , A 3D model rigged from a 3D template can be applied as a 3D object in the AR environment, space scanning & anchor point can be specified, and scene information received from the virtual camera of the rendering server can be implemented. You can deliver XR content by streaming.

또한, AR 플랫폼과 장치 사이의 접근을 위한 표준으로 자리잡고 있는 Open XR SDK를 활용하여 웹 기반의 AR 서비스를 제공할 수 있고, 크로스 플랫폼 Open XR 표준 기반의 XR 콘텐츠 제공 서비스를 구현할 수 있고, 카메라 권한을 가지는 증강현실 웹(모바일 브라우저) 기반 서비스를 구현할 수 있을 뿐만 아니라, 웹 브라우저를 통해 콘텐츠를 제공받는 서비스를 구현할 수 있다.In addition, web-based AR services can be provided by utilizing the Open XR SDK, which is a standard for access between AR platforms and devices, and cross-platform Open XR standards-based XR content provision services can be implemented. Not only can an augmented reality web (mobile browser)-based service with authority be implemented, but also a service in which contents are provided through a web browser can be implemented.

전술한 본 발명의 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 클라우드 서버(200)를 이용한 AI 기반의 XR 콘텐츠 서비스 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The AI-based XR content service method using the cloud server 200 according to the above-described embodiment of the present invention is an application basically installed in a terminal (this may include a program included in a platform or operating system basically installed in the terminal). It can be executed by an application (i.e., a program) directly installed in the master terminal through an application providing server such as an application store server, an application, or a web server related to the corresponding service. In this sense, the AI-based XR contents service method using the cloud server 200 according to an embodiment of the present invention described above is implemented as an application (ie, a program) that is basically installed in a terminal or directly installed by a user, and is implemented as a terminal. It can be recorded on a computer-readable recording medium such as E.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 모델링부
200: 클라우드 서버
300: 클라이언트 단말
100: modeling unit
200: cloud server
300: client terminal

Claims (6)

(a) 모델링부가 3D 체적 모델링 기술을 이용하여 객체의 3D 모델 탬플릿을 생성하는 단계;
(b) 모델링부가 딥러닝 기술을 이용하여 상기 객체의 포즈 추정(Pose Estimation) 데이터를 획득하고, 상기 3D 모델 탬플릿의 뼈대(skeleton)의 움직임을 추정하여 리깅(Rigging) 정보를 획득한 후, 3D 모델 정보 및 3D 모델 동작 정보를 생성하고 3D 모델 데이터베이스에 저장하는 단계;
(c) 클라우드 서버가 상기 3D 모델 데이터베이스에 저장된 상기 3D 모델 정보 및 3D 모델 동작 정보를 이용하여 3D 애니메이팅 정보를 렌더링하는 단계; 및
(d) 상기 클라우드 서버가 클라이언트 단말로 상기 렌더링 데이터를 스트리밍하여 XR 콘텐츠를 제공하는 단계를 포함하되,
상기 (a) 단계는,
(a1) 다수개의 다시점 카메라를 이용하여 객체에 대한 3D 포토그래매트리(Photogrammetry) 캡쳐 데이터를 생성하는 단계; 및 (a2) 생성된 상기 3D 포토그래매트리(Photogrammetry) 캡처 데이터를 이용하여 상기 객체의 3D 체적(Volumetric) 모델 탬플릿을 생성하는 단계를 포함하고,
상기 (c) 단계는,
상기 3D 애니메이팅 정보의 처리량을 감소시키기 위한 중복된 포인트 데이터와 추가된 포인트 데이터를 구분하여 파싱하여 렌더링하는 단계; 및 상기 클라우드 서버가 상기 클라이언트 단말로부터 수신받은 위치 정보에 기반하여 렌더링하는 단계를 포함하는 것을 특징으로 하는 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법.
(a) generating a 3D model template of an object by a modeling unit using 3D volume modeling technology;
(b) After the modeling unit acquires pose estimation data of the object using deep learning technology and estimates the motion of the skeleton of the 3D model template to obtain rigging information, the 3D Generating model information and 3D model operation information and storing them in a 3D model database;
(c) rendering 3D animation information by using the 3D model information and 3D model operation information stored in the 3D model database by a cloud server; and
(d) the cloud server providing XR content by streaming the rendering data to a client terminal,
In step (a),
(a1) generating 3D photogrammetry capture data for an object using a plurality of multi-view cameras; and (a2) generating a 3D volumetric model template of the object using the generated 3D photogrammetry capture data,
In step (c),
dividing, parsing, and rendering redundant point data and added point data to reduce the throughput of the 3D animation information; and rendering, by the cloud server, based on the location information received from the client terminal.
삭제delete 제1항에 있어서,
상기 (b) 단계는,
(b1) 모델링부가 딥러닝 기술을 이용하여 상기 객체의 포즈 추정(Pose Estimation) 정보를 산출하는 단계;
(b1) 모델링부가 상기 3D 모델 탬플릿의 뼈대(skeleton) 사이의 시간적인 움직임 벡터를 획득하고 리깅(Rigging) 정보를 생성하는 단계; 및
(b2) 산출된 상기 포즈 추정 정보를 이용하여 상기 리깅(Rigging) 정보를 보정하고, 보정된 상기 리깅(Rigging) 정보를 이용하여 상기 3D 모델 탬플릿의 동작 정보를 생성하여 상기 3D 모델 데이터베이스에 저장하는 단계를 포함하는 것을 특징으로 하는 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법.
According to claim 1,
In step (b),
(b1) calculating pose estimation (Pose Estimation) information of the object by a modeling unit using deep learning technology;
(b1) obtaining, by a modeling unit, temporal motion vectors between skeletons of the 3D model template and generating rigging information; and
(b2) correcting the rigging information using the calculated pose estimation information, generating motion information of the 3D model template using the corrected rigging information, and storing it in the 3D model database AI-based XR content service method using a cloud server, comprising the steps of:
삭제delete 제1항에 있어서,
상기 렌더링은,
webRTC API 기반 웹 브라우저 스트리밍 방식의 렌더링인 것을 특징으로 하는 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법.
According to claim 1,
The rendering is
AI-based XR content service method using a cloud server, characterized in that the webRTC API-based web browser streaming method rendering.
제1항에 있어서,
상기 (d) 단계는,
클라이언트 단말에서 상기 스트리밍 데이터를 통해 3D 템플릿에서 리깅(Rigging)된 상기 3D 객체 모델을 증강현실(AR) 환경에서 적용하여 구현하고, 웹 브라우저를 통해 XR 콘텐츠를 제공하는 단계인 것을 특징으로 하는 클라우드 서버를 이용한 AI 기반의 XR 콘텐츠 서비스 방법.
According to claim 1,
In step (d),
Cloud server, characterized in that the step of applying and implementing the 3D object model rigged in the 3D template through the streaming data in the client terminal in an augmented reality (AR) environment and providing XR content through a web browser AI-based XR content service method using
KR1020220010438A 2022-01-25 2022-01-25 AI-based XR content service method using cloud server KR102561903B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220010438A KR102561903B1 (en) 2022-01-25 2022-01-25 AI-based XR content service method using cloud server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220010438A KR102561903B1 (en) 2022-01-25 2022-01-25 AI-based XR content service method using cloud server

Publications (2)

Publication Number Publication Date
KR20230114375A KR20230114375A (en) 2023-08-01
KR102561903B1 true KR102561903B1 (en) 2023-08-02

Family

ID=87561762

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220010438A KR102561903B1 (en) 2022-01-25 2022-01-25 AI-based XR content service method using cloud server

Country Status (1)

Country Link
KR (1) KR102561903B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640175A (en) * 2018-06-21 2020-09-08 华为技术有限公司 Object modeling movement method, device and equipment
KR102314782B1 (en) * 2019-10-28 2021-10-19 네이버랩스 주식회사 apparatus and method of displaying three dimensional augmented reality

Also Published As

Publication number Publication date
KR20230114375A (en) 2023-08-01

Similar Documents

Publication Publication Date Title
CN111656407B (en) Fusing, texturing and rendering views of a dynamic three-dimensional model
US10600157B2 (en) Motion blur simulation
US10984583B2 (en) Reconstructing views of real world 3D scenes
US11055915B2 (en) Delivering virtualized content
WO2019173672A1 (en) Methods and systems for producing content in multiple reality environments
KR101547780B1 (en) Method and arrangement for image model construction
US20220385721A1 (en) 3d mesh generation on a server
US10621777B2 (en) Synthesis of composite images having virtual backgrounds
US20170374256A1 (en) Method and apparatus for rolling shutter compensation
US10586378B2 (en) Stabilizing image sequences based on camera rotation and focal length parameters
Zhu et al. SAVE: shared augmented virtual environment for real-time mixed reality applications
JP2023512131A (en) Apparatus for multi-angle screen coverage analysis
KR102558294B1 (en) Device and method for capturing a dynamic image using technology for generating an image at an arbitray viewpoint
US10783704B2 (en) Dense reconstruction for narrow baseline motion observations
KR102561903B1 (en) AI-based XR content service method using cloud server
Eisert et al. Volumetric video–acquisition, interaction, streaming and rendering
KR20170059310A (en) Device for transmitting tele-presence image, device for receiving tele-presence image and system for providing tele-presence image
Fasogbon et al. 3d human model creation on a serverless environment
US11948257B2 (en) Systems and methods for augmented reality video generation
US20230319225A1 (en) Automatic Environment Removal For Human Telepresence
KR20170009809A (en) An imaging photographing device and an imaging photographing method using an video editing
WO2023211735A1 (en) Rendering videos with novel views from near-duplicate photos
CN114723873A (en) End-to-end 3D scene reconstruction and image projection
CN115766972A (en) Method and device for close photographing, electronic equipment and readable medium
CN117830085A (en) Video conversion method and device

Legal Events

Date Code Title Description
GRNT Written decision to grant