KR102343582B1 - Artificial intelligence-based metaverse contents making system for using biometric information - Google Patents

Artificial intelligence-based metaverse contents making system for using biometric information Download PDF

Info

Publication number
KR102343582B1
KR102343582B1 KR1020210115957A KR20210115957A KR102343582B1 KR 102343582 B1 KR102343582 B1 KR 102343582B1 KR 1020210115957 A KR1020210115957 A KR 1020210115957A KR 20210115957 A KR20210115957 A KR 20210115957A KR 102343582 B1 KR102343582 B1 KR 102343582B1
Authority
KR
South Korea
Prior art keywords
character
information
data
module
metaverse
Prior art date
Application number
KR1020210115957A
Other languages
Korean (ko)
Inventor
서보국
김종철
Original Assignee
주식회사 에스에이엠지엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스에이엠지엔터테인먼트 filed Critical 주식회사 에스에이엠지엔터테인먼트
Priority to KR1020210115957A priority Critical patent/KR102343582B1/en
Application granted granted Critical
Publication of KR102343582B1 publication Critical patent/KR102343582B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/9305Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal

Abstract

An artificial intelligence-based metaverse content making system according to the present invention comprises: a metaverse content making device for receiving task instructions from a producer, generating pre-camerawok information according to the task instructions, receiving optimal library data related to the pre-camerawork information, and performing a rendering operation by applying the optimal library data; and a big data library for receiving the pre-camerawork information generated by the metaverse content making device, selecting the optimal library data using the pre-camerawork information, and transmitting the selected optimal library data to the metaverse content making device. The pre-camerawork information includes character motion information including the heart rate of a specific character. The metaverse content making device calculates the blood flow of the character based on the heart rate and performs the rendering of the character using shading data derived using the blood flow. Therefore, provided is an artificial intelligence-based metaverse content making system, wherein a change in motion, sweat output and skin color change are calculated and applied to an animation step or a rendering step to maximize the efficiency of a metaverse content making process.

Description

생체정보를 이용한 인공지능 기반 메타버스 컨텐츠 제작 시스템{Artificial intelligence-based metaverse contents making system for using biometric information} Artificial intelligence-based metaverse contents making system for using biometric information}

본 발명은 생체정보를 이용한 인공지능 기반 메타버스 컨텐츠 제작 시스템에 관한 것이다. 구체적으로, 본 발명은 메타버스 컨텐츠 제작 과정에서 캐릭터와 관련된 생체정보를 기초로 메타버스 캐릭터의 디테일한 움직임(예를 들어, 땀의 반짝임, 또는 클로딩의 마찰력 변화)이나 외형(예를 들어, 혈류량 변화에 따른 피부색 변화)을 자동으로 표현하여, 캐릭터의 리얼리티를 극대화하는 인공지능 기반 메타버스 컨텐츠 제작 시스템에 관한 것이다.The present invention relates to an artificial intelligence-based metaverse content production system using biometric information. Specifically, the present invention relates to detailed movements (eg, glitter of sweat, or change in frictional force of clothing) or appearance (eg, It relates to an artificial intelligence-based metaverse content production system that automatically expresses changes in skin color due to changes in blood flow) to maximize the reality of a character.

메타버스 컨텐츠 제작은 매우 복잡한 절차를 통해서 이루어진다. 종래의 메타버스 컨텐츠 제작의 경우 3D 그래픽을 다루는 DCC(Digital Content Creation tools)을 이용하여 선형적인 방식으로 제작이 이루어진다. 구체적으로, 현재의 메타버스 컨텐츠 제작 방식은 모델링 단계, 애니메이션 단계, 렌더링 단계 및 컴포짓 단계를 순차적으로 수행하여 최종적인 애니메이션 이미지가 생성된다. The production of metaverse content is done through a very complicated procedure. In the case of the conventional metaverse content production, production is performed in a linear manner using Digital Content Creation tools (DCC) handling 3D graphics. Specifically, in the current metaverse content production method, a final animation image is generated by sequentially performing a modeling step, an animation step, a rendering step, and a compositing step.

이러한 방식의 메타버스 컨텐츠 제작 방법에서는 캐릭터의 리얼리티를 살리기 위해 다양한 방식을 이용하고 있다. 가장 대표적으로 복수의 센서를 부착한 연기자의 움직임을 기초로 3D 메쉬를 생성한 뒤, 생성된 3D 메쉬를 캐릭터에 적용함으로써 캐릭터에 생동감을 불러 일으키는 작업을 진행하고 있다.In this method of creating metaverse content, various methods are used to enhance the reality of the character. The most representative work is to create a 3D mesh based on the movement of an actor with multiple sensors, and then apply the generated 3D mesh to the character to bring the character to life.

메타버스 컨텐츠 제작 과정에서는 다양한 캐릭터와 배경이 이용되고, 각 캐릭터와 배경에 대한 설정 및 상황이 다를 수 있다. 다만, 이러한 캐릭터와 배경의 설정 및 상황이 달라질 때마다, 연기자가 새로 연기를 하여 3D 메쉬를 생성하고 적용하는 경우 시간과 비용이 증가되며, 새로운 캐릭터 및 상황에 따른 변화에 대한 즉각적인 적용이 어렵다는 문제가 존재하였다.Various characters and backgrounds are used in the metaverse content production process, and settings and situations for each character and background may be different. However, whenever the settings and circumstances of these characters and backgrounds are changed, time and cost increase when an actor performs a new role and creates and applies a 3D mesh, and it is difficult to immediately apply changes according to new characters and situations was present.

따라서, 캐릭터의 리얼리티를 살리고, 제작비용을 절감하기 위한 다양한 메타버스 컨텐츠 제작의 자동화된 추가적인 처리 과정들이 개발되고 있는 실정이다.Accordingly, automated additional processing processes for the production of various metaverse contents are being developed in order to preserve the reality of the character and reduce the production cost.

공개특허공보 제10-2004-0096799호Laid-open Patent Publication No. 10-2004-0096799

본 발명의 과제는, 메타버스 컨텐츠 제작 과정의 효율성을 극대화하기 위해 기존 캐릭터의 생체정보의 변화에 따른 움직임 변화와 땀 배출량 및 피부색 변화량을 산출하여, 이를 애니메이션 단계 또는 렌더링 단계에 적용하는 인공지능 기반 메타버스 컨텐츠 제작 시스템을 제공하는 것이다.In order to maximize the efficiency of the metaverse content production process, the task of the present invention is based on artificial intelligence that calculates movement changes, sweat output, and skin color changes according to changes in biometric information of existing characters, and applies them to animation or rendering steps. To provide a metaverse content creation system.

또한, 본 발명의 다른 과제는, 캐릭터의 리얼리티를 극대화하기 위해 생체정보를 기초로 캐릭터의 신체 각 부분에 대한 움직임의 변화 및 땀 배출량 등을 도출하고, 캐릭터의 모션 정보, 배경 정보, 설정 정보를 이용하여 캐릭터의 움직임 및 클로딩의 움직임 등 메타버스 컨텐츠의 모션에 대한 리얼리티를 극대화하도록 보정하는 인공지능 기반 메타버스 컨텐츠 제작 시스템을 제공하는 것이다.In addition, another object of the present invention is to derive changes in movement and sweat output for each part of the character's body based on biometric information in order to maximize the reality of the character, and collect the character's motion information, background information, and setting information. It is to provide an artificial intelligence-based metaverse content production system that compensates to maximize the reality of the motion of metaverse content, such as movement of characters and clothing, by using it.

또한, 본 발명의 다른 과제는, 캐릭터의 생체정보를 기초로 산출한 땀 배출량 및/또는 혈류량 등의 데이터를 이용하여 캐릭터의 신체 부위별 땀 반짝임, 피부색 변화 등 메타버스 컨텐츠의 외형에 대한 리얼리티를 극대화하기 위한 인공지능 기반 메타버스 컨텐츠 제작 시스템을 제공하는 것이다.In addition, another object of the present invention is to use data such as sweat output and/or blood flow calculated based on the character's biometric information to determine the reality of the appearance of metaverse content, such as sweat sparkles and skin color changes for each body part of the character. It is to provide an artificial intelligence-based metaverse content creation system for maximization.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은 제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보에 관련된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 렌더링 작업을 수행하는 메타버스 컨텐츠 제작 장치 및 상기 메타버스 컨텐츠 제작 장치에서 생성된 상기 프리 카메라 워크 정보를 제공받고, 상기 프리 카메라 워크 정보를 이용하여 상기 최적 라이브러리 데이터를 선정하고, 상기 선정된 최적 라이브러리 데이터를 상기 메타버스 컨텐츠 제작 장치로 전송하는 빅데이터 라이브러리를 포함하되, 상기 프리 카메라 워크 정보는, 특정 캐릭터의 심박수를 포함하는 캐릭터 모션 정보를 포함하고, 상기 메타버스 컨텐츠 제작 장치는, 상기 심박수를 기초로 상기 캐릭터의 혈류량을 산출하고, 상기 혈류량을 이용하여 도출된 셰이딩 데이터를 이용하여 상기 캐릭터의 렌더링을 수행하는 것을 포함한다.An artificial intelligence-based metaverse content production system according to some embodiments of the present invention for solving the above problems receives a work instruction from a producer, generates pre-camera work information according to the work instruction, and adds the pre-camera work information to the A metaverse content production apparatus for receiving related optimal library data and performing a rendering operation by applying the optimal library data and the free camera work information generated by the metaverse content production apparatus are provided, and the free camera work information and a big data library for selecting the optimal library data using the selected optimal library data and transmitting the selected optimal library data to the metaverse content production device, wherein the free camera work information includes character motion information including a heart rate of a specific character and calculating the blood flow of the character based on the heart rate, and rendering the character by using the shading data derived using the blood flow.

몇몇 실시예에서, 상기 메타버스 컨텐츠 제작 장치는, 상기 최적 라이브러리 데이터에 포함된 배경 정보를 기초로 광량 및 광원위치를 포함하는 광원정보를 산출하고, 상기 산출된 광원정보, 상기 최적 라이브러리 데이터에 포함된 상기 캐릭터 모션 정보, 캐릭터 설정 정보, 배경 정보를 기초로 상기 캐릭터 셰이딩 데이터를 생성하고, 상기 생성된 셰이딩 데이터를 기초로 상기 캐릭터의 렌더링을 수행하는 렌더링 모듈을 포함할 수 있다.In some embodiments, the metaverse content production apparatus calculates light source information including an amount of light and a light source position based on background information included in the optimal library data, and includes the calculated light source information and the optimal library data. and a rendering module that generates the character shading data based on the obtained character motion information, character setting information, and background information, and performs rendering of the character based on the generated shading data.

몇몇 실시예에서, 상기 캐릭터 모션 정보는, 상기 캐릭터의 자세, 피로도, 및 감정 중 적어도 하나와, 상기 캐릭터의 심박수를 포함하고, 상기 배경 정보는, 상기 레이아웃 작업에 이용되는 배경의 온도, 습도, 및 시간대 중 적어도 하나를 포함하고, 상기 캐릭터 설정 정보는, 상기 캐릭터의 성별, 나이, 체형, 사이즈, 피부색, 및 클로딩 중 적어도 하나를 포함할 수 있다.In some embodiments, the character motion information includes at least one of a posture, fatigue, and emotion of the character, and a heart rate of the character, and the background information includes temperature, humidity, and temperature of a background used for the layout work; and time zone, and the character setting information may include at least one of gender, age, body type, size, skin color, and clothing of the character.

몇몇 실시예에서, 상기 렌더링 모듈은, 상기 심박수를 입력받고, 이에 대한 출력으로 상기 혈류량을 출력하는 인공지능 모듈과, 상기 인공지능 모듈에서 출력된 상기 혈류량을 상기 배경 정보 또는 상기 캐릭터 설정 정보를 기초로 보정하여 상기 캐릭터 셰이딩 데이터를 출력하는 셰이더 모듈을 포함할 수 있다.In some embodiments, the rendering module includes an artificial intelligence module that receives the heart rate and outputs the blood flow as an output thereof, and calculates the blood flow output from the artificial intelligence module based on the background information or the character setting information and a shader module for outputting the character shading data by correcting the .

몇몇 실시예에서, 상기 빅데이터 라이브러리는, 적어도 하나의 카메라 워크 라이브러리 데이터를 저장하는 라이브러리 데이터베이스와, 상기 카메라 워크 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 상기 최적 라이브러리 데이터를 선정하는 최적 라이브러리 선정 모듈을 포함할 수 있다.In some embodiments, the big data library includes a library database for storing at least one camera work library data, and an optimal library selection module for selecting the optimal library data by comparing the camera work library data and the free camera work information may include

몇몇 실시예에서, 상기 프리 카메라 워크 정보에 포함된 상기 캐릭터 모션 정보의 유형에 관한 모션 파라미터를 생성하는 파라미터 변환 모듈을 더 포함하고, 상기 최적 라이브러리 선정 모듈은, 상기 모션 파라미터를 통해 상기 카메라 워크 라이브러리 데이터 중 일부를 필터링하여 필터링 데이터를 선정하고, 상기 필터링 데이터 중 상기 프리 카메라 워크 정보와 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정할 수 있다.In some embodiments, the method further comprises a parameter conversion module for generating a motion parameter related to the type of the character motion information included in the pre-camera walk information, wherein the optimal library selection module includes: the camera walk library through the motion parameter Filtering data may be selected by filtering some of the data, and data most similar to the free camera work information among the filtered data may be selected as the optimal library data.

몇몇 실시예에서, 상기 메타버스 컨텐츠 제작 장치는, 상기 심박수를 기초로 상기 캐릭터의 땀 배출량을 산출하고, 상기 혈류량 및 상기 땀 배출량을 이용하여 도출된 셰이딩 데이터를 이용하여 상기 캐릭터의 렌더링을 수행하는 것을 포함할 수 있다.In some embodiments, the metaverse content production apparatus calculates the sweat amount of the character based on the heart rate, and renders the character using the shading data derived using the blood flow amount and the sweat amount. may include

몇몇 실시예에서, 상기 최적 라이브러리 데이터는 캐릭터 모션 정보, 캐릭터 설정 정보 및 배경 정보를 포함하고, 상기 메타버스 컨텐츠 제작 장치는, 인공지능을 기반으로 상기 심박수를 이용하여, 상기 혈류량 및 상기 땀 배출량을 산출하고 상기 혈류량 및 상기 땀 배출량을 상기 배경 정보 또는 상기 캐릭터 설정 정보를 기초로 보정하여 상기 캐릭터 셰이딩 데이터를 도출할 수 있다.In some embodiments, the optimal library data includes character motion information, character setting information, and background information, and the metaverse content production apparatus calculates the blood flow and sweat output by using the heart rate based on artificial intelligence. The character shading data may be derived by calculating and correcting the blood flow amount and the sweat amount based on the background information or the character setting information.

본 발명의 몇몇 실시예에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은, 제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보와 관련된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 애니메이션 작업 및 렌더링 작업을 수행하는 메타버스 컨텐츠 제작 장치 및 상기 프리 카메라 워크 정보를 이용하여, 상기 최적 라이브러리 데이터를 선정하고, 상기 선정된 최적 라이브러리 데이터를 상기 메타버스 컨텐츠 제작 장치로 전송하는 빅데이터 라이브러리를 포함하되, 상기 최적 라이브러리 데이터는, 특정 캐릭터의 심박수를 포함하는 캐릭터 모션 정보를 포함하고, 상기 메타버스 컨텐츠 제작 장치는, 상기 심박수를 기초로 상기 캐릭터의 움직임 변화량을 나타내는 캐릭터 모션 시퀀스, 상기 캐릭터의 땀 배출량 및 상기 캐릭터의 혈류량을 도출하고, 상기 캐릭터 모션 시퀀스 및 상기 땀 배출량을 이용하여 도출된 클로딩 모션 시퀀스를 이용하여 상기 캐릭터가 착용하고 있는 클로딩의 움직임을 표현하고, 상기 혈류량을 이용하여 도출된 캐릭터 셰이딩 데이터를 이용하여 상기 캐릭터의 피부색 변화량을 표현하는 것을 포함한다.The AI-based metaverse content production system according to some embodiments of the present invention receives a work instruction from a producer, generates free camera work information according to the work instruction, and generates optimal library data related to the free camera work information. Receive, select the optimal library data using the metaverse content production apparatus and the pre-camera work information that performs animation work and rendering work by applying the optimal library data, and the selected optimal library data to the meta a big data library transmitted to a bus content production device, wherein the optimal library data includes character motion information including a heart rate of a specific character, and the metaverse content production device includes: The character motion sequence indicating the amount of movement change, the sweat amount of the character, and the blood flow of the character are derived, and the clothing that the character is wearing using the clothing motion sequence derived using the character motion sequence and the sweat amount and expressing the amount of change in skin color of the character using character shading data derived using the blood flow.

몇몇 실시예에서, 상기 메타버스 컨텐츠 제작 장치는, 상기 작업 지시를 기초로 상기 캐릭터와 상기 클로딩을 모델링하는 모델링 모듈과 모델링된 상기 캐릭터 및 상기 클로딩의 움직임을 생성하는 애니메이션 모듈을 포함하되, 상기 애니메이션 모듈은, 상기 캐릭터의 심박수를 추출하고, 상기 심박수에 따른 상기 캐릭터의 폐용적 변화량, 자세 변화량, 신체 각 부위의 모양 변화량 및 상기 땀 배출량을 포함하는 제1 데이터를 도출하고, 상기 제1 데이터를 상기 캐릭터 모션 정보, 배경 정보, 또는 캐릭터 설정 정보를 기초로 보정한 제2 데이터를 도출하고, 상기 제2 데이터를 기초로 상기 캐릭터 모션 시퀀스를 생성하는 것을 포함할 수 있다.In some embodiments, the metaverse content production apparatus includes a modeling module for modeling the character and the clothing based on the work instruction, and an animation module for generating movements of the modeled character and the clothing, The animation module extracts the heart rate of the character, derives first data including a change amount of lung volume of the character according to the heart rate, a change amount of posture, a change amount of shape of each body part, and the amount of sweat, and the first It may include deriving second data obtained by compensating data based on the character motion information, background information, or character setting information, and generating the character motion sequence based on the second data.

본 발명의 인공지능 기반 메타버스 컨텐츠 제작 시스템은, 미리 저장된 빅데이터에서 캐릭터의 생체정보에 따른 움직임 변화를 도출함으로써 캐릭터의 리얼리티를 극대화할 수 있으며, 상황 변화에 따른 연출을 손쉽게 수행할 수 있다.The artificial intelligence-based metaverse content production system of the present invention can maximize the reality of a character by deriving a change in movement according to biometric information of a character from pre-stored big data, and can easily perform directing according to a change in situation.

또한, 이러한 작업의 효율을 위해서 기존의 애니메이션 데이터를 인공지능을 이용하여 모션 파라미터 별로 분류하고, 분류된 모션 파라미터에 맞추어 최적 라이브러리 데이터를 도출함으로써 연산량을 최소화하고 제작 기간을 단축시킬 수 있다.In addition, for the efficiency of such work, existing animation data is classified by motion parameters using artificial intelligence, and optimal library data is derived according to the classified motion parameters, thereby minimizing the amount of computation and shortening the production period.

또한, 본 발명은 생체정보를 기초로 캐릭터 신체의 각 부위별 자세 변화량, 모양 변화량 및 땀 배출량을 도출하고, 캐릭터 설정 정보, 캐릭터 모션 정보 또는 배경 정보에 포함된 복수의 파라미터 중 일부를 이용하여 도출된 데이터들을 보정함으로써, 캐릭터의 움직임 및 캐릭터의 클로딩 움직임 등 메타버스 컨텐츠의 모션에 대한 리얼리티를 극대화할 수 있다.In addition, the present invention derives the amount of change in posture, change in shape, and amount of sweat for each part of the character's body based on biometric information, and derives it using some of a plurality of parameters included in character setting information, character motion information, or background information By correcting the converted data, it is possible to maximize the reality of the motion of the metaverse content, such as the movement of the character and the movement of the character's clothing.

또한, 본 발명은 캐릭터의 생체정보를 기초로 산출한 땀 배출량 및/또는 혈류량 등의 데이터를 이용하여 캐릭터의 피부에 표현되는 땀과 피부색의 변화를 렌더링 단계에서 세밀하게 표현할 수 있다. 제작자는 이러한 캐릭터의 변화를 수작업으로 일일이 정의하고 설정하는 것이 아닌, 작업 지시에 캐릭터의 설정값을 조정하는 것만으로 캐릭터의 디테일한 외관의 변화를 표현할 수 있어, 애니메이션 제작의 편의성 및 작업의 속도를 높일 수 있다.In addition, according to the present invention, changes in sweat and skin color expressed on the skin of the character can be expressed in detail in the rendering step by using data such as the amount of sweat and/or blood flow calculated based on the biometric information of the character. Rather than manually defining and setting these character changes, the creator can express detailed changes in the character's appearance just by adjusting the character's settings in the work order, thereby increasing the convenience and speed of animation production. can be raised

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.The specific effects of the present invention in addition to the above will be described together while explaining the specific details for carrying out the invention below.

도 1은 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 메타버스 컨텐츠 제작 장치를 세부적으로 설명하기 위한 블록도이다.
도 3은 애니메이션 제작의 레이아웃을 설명하기 위한 개념도이다.
도 4는 도 1의 프리 카메라 워크 정보의 구조를 세부적으로 설명하기 위한 개념도이다.
도 5는 도 1의 빅데이터 라이브러리를 세부적으로 설명하기 위한 블록도이다.
도 6은 도 5의 카메라 워크 라이브러리 데이터의 구조를 세부적으로 설명하기 위한 개념도이다.
도 7은 도 6의 캐릭터 상태정보, 배경정보 및 캐릭터 설정정보를 세부적으로 설명하기 위한 개념도이다.
도 8은 도 1의 메타버스 컨텐츠 제작 장치의 개략적인 동작을 설명하기 위한 순서도이다.
도 9는 도 2의 애니메이션 모듈을 설명하기 위한 블록도이다.
도 10은 도 9의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다.
도 11은 도 10에 나타난 각각의 파라미터의 산출 흐름을 설명하기 위한 개념도이다.
도 12는 심박수에 따른 캐릭터 모션 시퀀스의 변화를 설명하기 위한 예시도이다.
도 13은 도 9의 모션 변화 연산 모듈의 세부적인 구조를 설명하기 위한 블록도이다.
도 14은 도 13의 인공지능 훈련 모듈의 동작을 설명하기 위한 순서도이다.
도 15는 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 일 예를 설명하기 위한 순서도이다.
도 16은 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 다른 예를 설명하기 위한 순서도이다.
도 17은 도 2의 애니메이션 모듈의 추가적인 구성을 설명하기 위한 블록도이다.
도 18은 도 17의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다.
도 19는 도 2의 렌더링 모듈을 설명하기 위한 블록도이다.
도 20은 도 19의 렌더링 모듈의 동작 방법을 설명하기 위한 순서도이다.
도 21은 도 20에 나타난 파라미터의 산출 흐름을 설명하기 위한 개념도이다.
1 is a conceptual diagram illustrating an AI-based metaverse content production system according to some embodiments of the present invention.
FIG. 2 is a block diagram illustrating in detail the apparatus for producing metaverse content of FIG. 1 .
3 is a conceptual diagram for explaining the layout of animation production.
4 is a conceptual diagram for explaining in detail the structure of the free camera work information of FIG. 1 .
5 is a block diagram for describing the big data library of FIG. 1 in detail.
6 is a conceptual diagram for explaining in detail the structure of the camera work library data of FIG. 5 .
7 is a conceptual diagram for explaining in detail character state information, background information, and character setting information of FIG. 6 .
FIG. 8 is a flowchart for explaining a schematic operation of the apparatus for producing metaverse content of FIG. 1 .
9 is a block diagram illustrating the animation module of FIG. 2 .
FIG. 10 is a flowchart for explaining an operation method of the animation module of FIG. 9 .
11 is a conceptual diagram for explaining a calculation flow of each parameter shown in FIG. 10 .
12 is an exemplary diagram for explaining a change in a character motion sequence according to a heart rate.
13 is a block diagram illustrating a detailed structure of the motion change calculation module of FIG. 9 .
14 is a flowchart for explaining the operation of the artificial intelligence training module of FIG. 13 .
15 is a flowchart illustrating an example of a method of operating an animation module according to an embodiment of the present invention.
16 is a flowchart illustrating another example of an operation method of an animation module according to an embodiment of the present invention.
FIG. 17 is a block diagram for explaining an additional configuration of the animation module of FIG. 2 .
18 is a flowchart illustrating an operation method of the animation module of FIG. 17 .
19 is a block diagram illustrating the rendering module of FIG. 2 .
20 is a flowchart illustrating an operation method of the rendering module of FIG. 19 .
FIG. 21 is a conceptual diagram for explaining a flow of calculating a parameter shown in FIG. 20 .

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. In accordance with the principle that the inventor can define a term or concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, since the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all the technical spirit of the present invention, they can be substituted at the time of the present application. It should be understood that there may be various equivalents and modifications and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. used in this specification and claims may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term 'and/or' includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. It should be understood that terms such as “comprise” or “have” in the present application do not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification in advance. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not technically contradict each other.

본 발명은 메타버스 컨텐츠 제작 시스템 및 방법에 관한 것으로, '메타버스 컨텐츠 제작'은 '애니메이션 제작'의 범주 안에 포함될 수 있다. 본 명세서에서 '메타버스 컨텐츠'는 애니메이션으로 구현된 가상의 디지털아이돌 캐릭터 및 배경 또는 아케이드 게임의 캐릭터 및 배경을 포함할 수 있다.The present invention relates to a metaverse content production system and method, and 'metaverse content production' may be included in the scope of 'animation production'. In this specification, 'metaverse content' may include characters and backgrounds of virtual digital idols implemented as animations or characters and backgrounds of arcade games.

이하, 도 1 내지 도 21을 참조하여, 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템을 설명한다.Hereinafter, an artificial intelligence-based metaverse content production system according to some embodiments of the present invention will be described with reference to FIGS. 1 to 21 .

도 1은 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an AI-based metaverse content production system according to some embodiments of the present invention.

도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은, 제작자(100)로부터 작업 지시(Wp)를 수신하고, 애니메이션 이미지(Pr)를 제공할 수 있다. 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은 메타버스 컨텐츠 제작 장치(200) 및 빅데이터 라이브러리(300)를 포함한다. Referring to FIG. 1 , an AI-based metaverse content creation system according to some embodiments of the present invention may receive a work instruction Wp from a producer 100 and provide an animation image Pr. An artificial intelligence-based metaverse content production system according to some embodiments of the present invention includes a metaverse content production apparatus 200 and a big data library 300 .

제작자(100)는 메타버스 컨텐츠와 관련된 애니메이션을 제작하는 사람일 수 있다. 이때, 제작자(100)는 1명 이상의 인력일 수 있다. 제작자(100)는 단순히 자연인 뿐만 아니라 기업과 같은 법인체일 수도 있다. 제작자(100)는 메타버스 컨텐츠와 관련된 3D 애니메이션의 제작을 위해서 메타버스 컨텐츠 제작 장치(200)에 작업 지시(Wp)를 전송할 수 있다. 작업 지시(Wp)는 1회성이 아닌 연속적인 지시로 메타버스 컨텐츠 제작 장치(200)에 전송될 수 있다. 다르게 표현하면, 제작자(100)는 메타버스 컨텐츠 제작 장치(200)를 이용하여 애니메이션 이미지(Pr)를 제작할 수 있고, 이를 위해서 수행되는 일련의 작업을 작업 지시(Wp)로 표현할 수 있다.The creator 100 may be a person who creates animations related to metaverse content. In this case, the manufacturer 100 may be one or more personnel. The producer 100 may be a legal entity such as a corporation as well as a simple natural person. The producer 100 may transmit a work instruction Wp to the metaverse content production apparatus 200 to produce a 3D animation related to the metaverse content. The work instruction Wp may be transmitted to the metaverse content production apparatus 200 as a continuous instruction rather than a one-time instruction. In other words, the creator 100 may produce the animation image Pr by using the metaverse content production apparatus 200 , and a series of tasks performed for this may be expressed as a work instruction Wp.

메타버스 컨텐츠 제작 장치(200)는 제작자(100)로부터 작업 지시(Wp)를 수신하고, 빅데이터 라이브러리(300)로 프리 카메라 워크 정보(Ipcw)를 전송할 수 있다. The metaverse content production apparatus 200 may receive the work instruction Wp from the creator 100 and transmit the free camera work information Ipcw to the big data library 300 .

여기에서, 프리 카메라 워크 정보(Ipcw)는 제작자(100)의 작업 지시(Wp)에 의해 러프하게 생성된 카메라 워크에 대한 정보일 수 있다. 프리 카메라 워크 정보(Ipcw)는 세밀하게 계산되어 확정된 카메라 워크가 아니라 애니메이션 장면에서 어떤 방식으로 카메라 연출이 진행될지에 대한 대략적인 지시사항을 포함할 수 있다. 또한, 프리 카메라 워크 정보(Ipcw)는 캐릭터의 움직임 또는 배경의 움직임에 대한 대략적인 지시사항을 포함할 수 있다. 이때, 프리 카메라 워크 정보(Ipcw)는 캐릭터의 초기 설정 정보(예를 들어, 성별, 나이, 체형, 신체 사이즈, 피부색, 캐릭터의 클로딩(clothing)) 뿐만 아니라, 캐릭터의 상태정보(예를 들어, 심박수, 자세, 피로도, 감정)와, 배경의 상태정보(예를 들어, 온도, 습도, 시간대)에 대한 정보를 포함할 수 있다. 프리 카메라 워크 정보(Ipcw)는 텍스트, 이미지 및 영상 중 적어도 하나의 방법으로 형성될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Here, the free camera work information Ipcw may be information about the camera work rough generated by the work instruction Wp of the producer 100 . The free camera work information Ipcw may include rough instructions on how camera direction will be performed in an animation scene, rather than a precisely calculated and determined camera work. In addition, the free camera walk information Ipcw may include rough instructions for movement of a character or movement of a background. At this time, the free camera work information Ipcw includes not only initial setting information of the character (eg, gender, age, body type, body size, skin color, clothing of the character), but also state information of the character (eg, , heart rate, posture, fatigue, emotion) and background state information (eg, temperature, humidity, time zone). The free camera work information Ipcw may be formed by at least one of text, image, and video. However, the present embodiment is not limited thereto.

빅데이터 라이브러리(300)는 내부에 기존에 제작된 애니메이션의 파일이 모두 저장되어 있을 수 있다. 빅데이터 라이브러리(300)는 저장된 애니메이션 파일의 레이아웃 정보를 유형별로 분류하여 카메라 워크 라이브러리 데이터(CamL)로 보유할 수 있다. 이때, 카메라 워크 라이브러리 데이터(CamL)는 연출되는 카메라의 움직임(예를 들어, 카메라의 속도, 위치, 캐릭터와의 거리 등), 또는 캐릭터의 상태정보(예를 들어, 캐릭터의 심박수, 자세, 피로도, 감정 등)를 기초로 유형이 분류되어 이용될 수 있다. 이에 대한 설명은 이하에서 자세히 후술하도록 한다. The big data library 300 may store all of the files of animations that have been previously produced therein. The big data library 300 may classify the layout information of the stored animation file by type and hold it as camera work library data (CamL). At this time, the camera work library data CamL is the camera movement (for example, camera speed, position, distance from the character, etc.), or state information of the character (for example, the character's heart rate, posture, fatigue) , emotions, etc.) can be classified and used. This will be described later in detail below.

빅데이터 라이브러리(300)는 프리 카메라 워크 정보(Ipcw)를 수신하고 그에 대응하는 최적의 레이아웃 데이터 즉, 최적 라이브러리 데이터(CamL_op)를 메타버스 컨텐츠 제작 장치(200)로 전송할 수 있다. The big data library 300 may receive the free camera work information Ipcw and transmit the corresponding optimal layout data, that is, the optimal library data CamL_op, to the metaverse content production apparatus 200 .

이어서, 메타버스 컨텐츠 제작 장치(200)는 최적 라이브러리 데이터(CamL_op)를 수신하고, 이를 이용하여 애니메이션 이미지(Pr)를 생성할 수 있다. 여기에서, 최적 라이브러리 데이터(CamL_op)는 생체정보(예를 들어, 심박수(Ihr))를 포함하는 캐릭터의 모션 정보를 포함할 수 있다. 다만, 본 발명의 생체정보가 심박수에 한정되는 것은 아니며, 혈류량, 맥박수, 호흡량, 혈압, 땀 배출량, 칼로리 소모량 등이 더 포함되어 이용될 수 있음은 물론이다. 다만, 이하에서는 설명의 편의를 위하여 생체정보가 심박수를 포함하는 것을 예로 들어 설명하도록 한다.Subsequently, the metaverse content production apparatus 200 may receive the optimal library data CamL_op and generate an animation image Pr by using it. Here, the optimal library data CamL_op may include motion information of the character including biometric information (eg, heart rate Ihr). However, the biometric information of the present invention is not limited to the heart rate, and it goes without saying that blood flow, pulse rate, respiration, blood pressure, sweat output, calorie consumption, etc. may be further included and used. However, hereinafter, for convenience of explanation, biometric information including a heart rate will be described as an example.

메타버스 컨텐츠 제작 장치(200)는 심박수(Ihr)를 기초로 캐릭터의 움직임 변화량을 나타내는 캐릭터 모션 시퀀스(Scm)를 도출한다. 이어서, 메타버스 컨텐츠 제작 장치(200)는 도출된 캐릭터 모션 시퀀스(Scm)를 이용하여 레이아웃 작업을 수행하고 이를 기초로 애니메이션 이미지(Pr)를 생성할 수 있다. The metaverse content production apparatus 200 derives a character motion sequence (Scm) indicating an amount of change in movement of a character based on a heart rate (Ihr). Subsequently, the metaverse content production apparatus 200 may perform a layout operation using the derived character motion sequence Scm and generate an animation image Pr based on the layout work.

또한, 메타버스 컨텐츠 제작 장치(200)는 심박수(Ihr)를 기초로 캐릭터가 착용하고 있는 클로딩의 움직임 변화량을 나타내는 클로딩 모션 시퀀스(Sclm)를 도출할 수 있다. 이때, 메타버스 컨텐츠 제작 장치(200)는 심박수(Ihr)를 기초로 캐릭터의 땀 배출량(Vw)을 산출하고, 땀 배출량에 따른 캐릭터의 바디와 클로딩 사이의 마찰력(Friction Force; 이하 Ff)을 산출하고, 이러한 마찰력(Ff)의 변화를 클로딩 모션 시퀀스(Sclm)에 반영할 수 있다. 이에 대한 자세한 설명은 이하에서 후술하도록 한다.Also, the metaverse content production apparatus 200 may derive a clothing motion sequence Sclm indicating a movement variation of clothing worn by the character based on the heart rate Ihr. In this case, the metaverse content production apparatus 200 calculates the sweat amount (Vw) of the character based on the heart rate (Ihr), and calculates the friction force (hereinafter, Ff) between the body and clothing of the character according to the sweat amount. It can be calculated, and the change in the friction force Ff can be reflected in the clothing motion sequence Sclm. A detailed description thereof will be provided below.

또한, 메타버스 컨텐츠 제작 장치(200)는 산출된 땀 배출량(Vw)을 기초로 캐릭터의 사실적인 질감을 표현하기 위한 렌더링 단계를 수행할 수 있다. 또한, 메타버스 컨텐츠 제작 장치(200)는 산출된 혈류량(Vbfr)을 기초로 캐릭터의 사실적인 색감을 표현하기 위한 렌더링 단계를 수행할 수 있다. 예를 들어, 메타버스 컨텐츠 제작 장치(200)는 땀 배출량(Vw) 및/또는 혈류량(Vbfr)에 따라 변화되는 캐릭터 셰이딩 데이터(shading data)를 생성하고, 이를 기초로 렌더링을 수행함으로써 애니메이션 이미지(Pr)를 생성할 수 있다. 이에 대한 자세한 설명도 이하에서 후술하도록 한다.Also, the metaverse content production apparatus 200 may perform a rendering step for expressing the realistic texture of the character based on the calculated sweat amount Vw. Also, the metaverse content production apparatus 200 may perform a rendering step for expressing the realistic color of the character based on the calculated blood flow Vbfr. For example, the metaverse content production apparatus 200 generates character shading data that changes according to sweat output (Vw) and/or blood flow (Vbfr), and performs rendering based on the generated character shading data ( Pr) can be produced. A detailed description thereof will also be provided below.

이어서, 메타버스 컨텐츠 제작 장치(200)는 생성된 애니메이션 이미지(Pr)를 제작자(100)에게 전송할 수 있다.Subsequently, the metaverse content production apparatus 200 may transmit the generated animation image Pr to the creator 100 .

전술한 메타버스 컨텐츠 제작 장치(200) 및 빅데이터 라이브러리(300)는 워크스테이션(workstation), 데이터 센터, 인터넷 데이터 센터(internet data center(IDC)), DAS(direct attached storage) 시스템, SAN(storage area network) 시스템, NAS(network attached storage) 시스템 및 RAID(redundant array of inexpensive disks, or redundant array of independent disks) 시스템 중 적어도 하나로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.The aforementioned metaverse content production apparatus 200 and the big data library 300 are a workstation, a data center, an internet data center (IDC), a direct attached storage (DAS) system, and a storage (SAN) system. It may be implemented as at least one of an area network) system, a network attached storage (NAS) system, and a redundant array of inexpensive disks, or redundant array of independent disks (RAID) systems, but the present embodiment is not limited thereto.

메타버스 컨텐츠 제작 장치(200) 및 빅데이터 라이브러리(300)는 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.The metaverse content production apparatus 200 and the big data library 300 may transmit data through a network. The network may include a network based on a wired Internet technology, a wireless Internet technology, and a short-range communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies are, for example, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet) Access), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) and 5G New Radio (NR) technology. However, the present embodiment is not limited thereto.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include However, the present embodiment is not limited thereto.

네트워크를 통해서 통신하는 메타버스 컨텐츠 제작 장치(200) 및 빅데이터 라이브러리(300)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The metaverse content production apparatus 200 and the big data library 300 communicating through the network may comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), and Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO). , at least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) may include However, the present embodiment is not limited thereto.

도 2는 도 1의 메타버스 컨텐츠 제작 장치를 세부적으로 설명하기 위한 블록도이다. 도 3은 애니메이션 제작의 레이아웃을 설명하기 위한 개념도이다. 도 4는 도 1의 프리 카메라 워크 정보의 구조를 세부적으로 설명하기 위한 개념도이다.FIG. 2 is a block diagram illustrating in detail the apparatus for producing metaverse content of FIG. 1 . 3 is a conceptual diagram for explaining the layout of animation production. 4 is a conceptual diagram for explaining in detail the structure of the free camera work information of FIG. 1 .

우선, 도 2를 참조하면, 메타버스 컨텐츠 제작 장치(200)는 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)을 포함할 수 있다. 메타버스 컨텐츠 제작 장치(200)는 예를 들어, DCC(Digital Content Creation tools)일 수 있다. 또는, 메타버스 컨텐츠 제작 장치(200)는 DCC 및 3D 게임 엔진을 포함할 수도 있다. 나아가, 메타버스 컨텐츠 제작 장치(200)는 인공지능 모듈을 통해서 DCC 및 3D 게임 엔진 사이의 데이터 익스포트/임포트(export/import)를 조율할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.First, referring to FIG. 2 , the metaverse content creation apparatus 200 may include a modeling module 210 , an animation module 220 , a rendering module 230 , and a composite module 240 . The metaverse content creation apparatus 200 may be, for example, Digital Content Creation tools (DCC). Alternatively, the metaverse content production apparatus 200 may include a DCC and a 3D game engine. Furthermore, the metaverse content production apparatus 200 may coordinate data export/import between the DCC and the 3D game engine through the artificial intelligence module. However, the present embodiment is not limited thereto.

모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 각각 작업 지시(Wp)를 수신할 수 있다. 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 작업 지시(Wp)에 따라서 각각 모델링 작업, 애니메이션 작업, 렌더링 작업 및 컴포짓 작업을 수행할 수 있다. 이때, 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 서로 다른 하드웨어로 구현될 수도 있고, 동일 혹은 일부가 중복되는 하드웨어에 의해서 각각 구현될 수 있다.The modeling module 210 , the animation module 220 , the rendering module 230 , and the composite module 240 may receive the work instruction Wp, respectively. The modeling module 210 , the animation module 220 , the rendering module 230 , and the composite module 240 may perform a modeling operation, an animation operation, a rendering operation, and a composite operation according to the work instruction Wp, respectively. In this case, the modeling module 210 , the animation module 220 , the rendering module 230 , and the composite module 240 may be implemented by different hardware, or may be implemented by the same or partially overlapping hardware.

구체적으로, 모델링 모듈(210)은 작업 지시(Wp)에 의해서 모델링 작업을 수행할 수 있다. 모델링 작업이란, 메타버스 컨텐츠 제작 장치(200)를 이용하여 캐릭터 및 배경과 같은 오브젝트를 모델링(modeling)하는 것을 의미할 수 있다. 즉, 추후 애니메이션 단계에서 사용하기 위해서 오브젝트의 디자인은 모델링 작업에서 완성되어야 한다. 모델링 모듈(210)은 폴리곤 모델링을 수행할 수 있다. 모델링 모듈(210)은 폴리곤 모델링을 수행한 후에 텍스쳐링 작업을 수행할 수 있다. 텍스쳐링 작업은 오브젝트의 표면의 질감 및 색상을 적용하기 위한 작업일 수 있다. 텍스쳐링 작업은 쉐이더를 이용하여 메티리얼을 적용하는 방식으로 진행될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Specifically, the modeling module 210 may perform the modeling work according to the work instruction Wp. The modeling operation may mean modeling an object such as a character and a background by using the metaverse content production apparatus 200 . That is, the design of the object must be completed in modeling to be used in the subsequent animation stage. The modeling module 210 may perform polygon modeling. The modeling module 210 may perform texturing after polygon modeling. The texturing operation may be an operation for applying the texture and color of the surface of the object. Texturing can be performed by applying a material using a shader. However, the present embodiment is not limited thereto.

이어서, 모델링 모듈(210)은 리깅(rigging)을 수행할 수 있다. 리깅은 모델링된 오브젝트에 뼈를 붙이는 작업을 의미할 수 있다. 리깅을 수행해야 추후 애니메이션 단계를 거친 오브젝트의 움직임이 자연스러울 수 있다. 따라서 모델링 모듈(210)은 움직일 수 있는 관절 부분과 같이 움직여야 하는 뼈 부분을 작업 지시(Wp)에 따라 정의할 수 있다.Subsequently, the modeling module 210 may perform rigging. Rigging may mean attaching bones to a modeled object. After rigging is performed, the motion of an object that has undergone an animation step can be natural. Accordingly, the modeling module 210 may define a bone part to be moved, such as a movable joint part, according to the work instruction Wp.

애니메이션 모듈(220)은 애니메이션 작업을 하기 위해서 레이아웃 작업을 수행할 수 있다. 레이아웃 작업은 카메라 및 캐릭터의 동선을 설정할 수 있다. 이러한 카메라와 캐릭터의 동선은 대략적으로 프리 프로덕션 단계에서 콘티 등에 의해서 대략적으로 정해질 수 있으나, 실제 적용을 위해서는 세세한 부분의 수정이 필요할 수 있다. The animation module 220 may perform a layout operation in order to perform an animation operation. Layout work can set the camera and character movement. The movement of the camera and the character can be roughly determined by the storyline in the pre-production stage, but detailed parts may need to be modified for actual application.

또한, 애니메이션 모듈(220)은 캐릭터의 움직임을 표현할 수 있다. 이때, 애니메이션 모듈(220)은 작업 지시(Wp)에 포함된 캐릭터의 상태정보를 기초로 캐릭터의 움직임을 설정할 수 있다. Also, the animation module 220 may express the movement of the character. In this case, the animation module 220 may set the movement of the character based on the state information of the character included in the work instruction Wp.

구체적으로, 애니메이션 모듈(220)은 작업 지시(Wp)를 수신하고, 작업 지시(Wp)에 따라 프리 카메라 워크 정보(Ipcw)를 생성한 뒤, 프리 카메라 워크 정보(Ipcw)에 대응되는 최적화된 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 이때, 프리 카메라 워크 정보(Ipcw)는 촬영 대상이 되는 캐릭터의 심박수(Ihr)를 포함할 수 있다. 한편, 최적 라이브러리 데이터(CamL_op)는 프리 카메라 워크 정보(Ipcw)에 대응되는 심박수(Ihr)와 관련된 데이터를 포함할 수 있다.Specifically, the animation module 220 receives the work instruction (Wp), generates the free camera work information (Ipcw) according to the work instruction (Wp), and then the optimized optimal corresponding to the free camera work information (Ipcw) Library data (CamL_op) may be received. In this case, the free camera walk information Ipcw may include a heart rate Ihr of a character to be photographed. Meanwhile, the optimal library data CamL_op may include data related to the heart rate Ihr corresponding to the free camera walk information Ipcw.

이때, 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 포함된 심박수(Ihr)를 이용하여 캐릭터의 움직임 변화량을 산출하여 캐릭터 모션 시퀀스(Scm)를 생성한다. 애니메이션 모듈(220)은 생성된 캐릭터 모션 시퀀스(Scm)를 이용하여 시간의 흐름에 따라 변화하는 카메라의 동선 변화와 함께, 심박수(Ihr)에 따른 캐릭터의 섬세한 움직임 변화를 표현할 수 있다.In this case, the animation module 220 generates the character motion sequence Scm by calculating the amount of change in the movement of the character using the heart rate Ihr included in the optimal library data CamL_op. The animation module 220 may use the generated character motion sequence (Scm) to express a change in the movement of the camera that changes over time and a subtle change in movement of the character according to the heart rate (Ihr).

도 3 내지 도 4를 참조하면, 애니메이션 모듈(220)은 카메라(Cam)의 위치, 캐릭터(ch)의 위치, 캐릭터(ch)가 움직이는 제1 경로(M1), 카메라(Cam)가 움직이는 제2 경로(M2) 및 지면과 같은 배경(BG)을 결정할 수 있다. Referring to FIGS. 3 to 4 , the animation module 220 includes a camera (Cam) position, a character position (ch), a first path (M1) in which the character (ch) moves, and a second path (M1) in which the camera (Cam) moves. A path M2 and a background BG such as the ground can be determined.

애니메이션 모듈(220)은 레이아웃이 최종적으로 확정되기 전에 대략적인 카메라 워크에 대한 정보 즉, 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다. 애니메이션 모듈(220)은 작업 지시(Wp)에 의해서 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다. The animation module 220 may generate information about the approximate camera work, that is, the free camera work information Ipcw, before the layout is finally determined. The animation module 220 may generate the free camera work information Ipcw according to the work instruction Wp.

프리 카메라 워크 정보(Ipcw)는 프리 카메라 물리 정보(CPp), 프리 카메라 모션 정보(CMp), 프리 캐릭터 모션 정보(MIp), 프리 배경 정보(BIp) 및 프리 바운딩 박스 정보(BBIp)를 포함할 수 있다.Free camera work information (Ipcw) may include free camera physics information (CPp), free camera motion information (CMp), free character motion information (MIp), free background information (BIp), and pre-bounding box information (BBIp). have.

구체적으로, 프리 카메라 물리 정보(CPp)는 카메라의 물리적 특성에 대한 정보일 수 있다. 예를 들어, 프리 카메라 물리 정보(CPp)는 카메라의 렌즈의 크기, 모양, 개수 및 셔터의 속도 중 적어도 하나를 포함할 수 있다.Specifically, the free camera physical information CPp may be information on physical characteristics of the camera. For example, the pre-camera physical information CPp may include at least one of a size, shape, number, and shutter speed of a camera lens.

프리 카메라 모션 정보(CMp)는 시간에 따른 시계열 데이터일 수 있다. 프리 카메라 모션 정보(CMp)는 시간에 따른 카메라(Cam)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함할 수 있다. 프리 카메라 모션 정보(CMp)는 즉, 카메라(Cam)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.The pre-camera motion information CMp may be time-series data according to time. The free camera motion information CMp may include at least one of a 3D position, direction, rotation direction, and rotation angle of the camera Cam according to time. The pre-camera motion information CMp may be, that is, big data including all absolute motions of the camera.

프리 캐릭터 모션 정보(MIp)도 시간에 따른 시계열 데이터일 수 있다. 프리 캐릭터 모션 정보(MIp)는 시간에 따른 캐릭터(ch)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함할 수 있다. The free character motion information MIp may also be time-series data according to time. The free character motion information MIp may include at least one of a three-dimensional position, a direction, a rotation direction, and a rotation angle of the character ch according to time.

나아가, 프리 캐릭터 모션 정보(MIp)는 단순히 캐릭터(ch)의 대표 좌표의 3차원 위치뿐만 아니라 캐릭터(ch)의 자세(Pose) 및 모양(Shape)을 결정하는 복수의 유효 좌표의 3차원 위치도 포함할 수 있다. 이를 통해서, 프리 캐릭터 모션 정보(MIp)는 캐릭터(ch)의 시간에 따른 위치(Position) 뿐만 아니라 시간에 따른 자세 및 모양도 정의할 수 있다. Furthermore, the free character motion information (MIp) is not only the three-dimensional position of the representative coordinates of the character (ch), but also the three-dimensional position of a plurality of effective coordinates that determine the pose and shape of the character (ch). may include Through this, the free character motion information MIp may define not only the position according to time but also the posture and shape of the character ch according to time.

구체적으로, 프리 캐릭터 모션 정보(MIp)는 캐릭터의 심박수(Ihr), 자세, 피로도 및 감정에 관한 정보를 포함할 수 있다. 이후에 자세히 설명하겠으나, 애니메이션 모듈(220)은 프리 캐릭터 모션 정보(MIp)에 대응되는 캐릭터 모션 정보(MI)를 기초로 캐릭터의 자세 변화량(Vp) 및 신체 각 부위의 모양 변화량(Vs)을 도출하여 캐릭터의 움직임을 세밀하게 표현할 수 있다. 이러한 캐릭터의 움직임의 변화는 캐릭터 모션 시퀀스(Scm)에 포함될 수 있으며, 프리 캐릭터 모션 정보(MIp)는 캐릭터 모션 시퀀스(Scm)를 생성하기 위한 기초 데이터로 이용될 수 있다. 즉, 프리 캐릭터 모션 정보(MIp)는 애니메이션 내에서의 캐릭터(ch)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.Specifically, the free character motion information MIp may include information about a character's heart rate Ihr, posture, fatigue, and emotion. Although it will be described in detail later, the animation module 220 derives the amount of change in the posture of the character (Vp) and the amount of change in the shape of each body part (Vs) based on the character motion information (MI) corresponding to the free character motion information (MIp) In this way, the movement of the character can be expressed in detail. Such a change in movement of the character may be included in the character motion sequence Scm, and the free character motion information MIp may be used as basic data for generating the character motion sequence Scm. That is, the free character motion information MIp may be big data including all absolute movements of the character ch in the animation.

프리 배경 정보(BIp)는 배경(BG)의 위치 및 형상과 시간에 따른 변형에 대한 정보를 포함할 수 있다. 즉, 프리 배경 정보(BIp)도 시간에 따라 달라지는 시계열 데이터일 수 있다. 배경(BG)은 지면, 나무, 바다, 강 및 건물과 같은 구조 중 적어도 하나를 포함할 수 있다. 또한, 프리 배경 정보(BIp)는 배경(BG)에 적용되는 부가적인 파라미터(예를 들어, 온도, 습도, 시간대, 지역 등)가 추가적으로 정의되어 이용될 수 있다.The free background information BIp may include information about the position and shape of the background BG and deformation according to time. That is, the free background information BIp may also be time series data that varies according to time. The background BG may include at least one of a ground, a tree, a sea, a river, and a structure such as a building. In addition, in the free background information BIp, additional parameters (eg, temperature, humidity, time zone, region, etc.) applied to the background BG may be additionally defined and used.

프리 바운딩 박스 정보(BBIp)는 캐릭터(ch)와 같은 오브젝트의 바운딩 박스에 대한 정보일 수 있다. 바운딩 박스란, 3차원 직교 좌표에서 오브젝트의 최대 크기를 규정하기 위한 직육면체 박스를 의미할 수 있다. 즉, 캐릭터(ch)의 바운딩 박스는 캐릭터(ch)가 시간에 따라 변형되어 크기가 커지더라도 항상 캐릭터(ch)를 감쌀 수 있다. 위에서, 바운딩 박스는 직육면체라고 설명하였지만, 본 실시예가 이에 제한되는 것은 아니다. 바운딩 박스의 형태는 필요에 따라 얼마든지 달라질 수 있다.The pre-bounding box information BBIp may be information about a bounding box of an object such as a character ch. The bounding box may mean a cuboid box for defining the maximum size of an object in 3D Cartesian coordinates. That is, the bounding box of the character ch can always surround the character ch even if the character ch is deformed over time and increases in size. In the above, it has been described that the bounding box is a rectangular parallelepiped, but the present embodiment is not limited thereto. The shape of the bounding box may be changed according to need.

애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 따라 카메라(Cam), 캐릭터(ch) 및 배경(BG)의 세부 사항을 세팅할 수 있다. 즉, 최적 라이브러리 데이터(CamL_op)의 내용을 그대로 적용하여 레이아웃 작업을 수행할 수 있다.The animation module 220 may receive the optimal library data CamL_op. The animation module 220 may set the details of the camera (Cam), the character (ch), and the background (BG) according to the optimal library data (CamL_op). That is, the layout operation can be performed by applying the contents of the optimal library data (CamL_op) as it is.

애니메이션 모듈(220)은 모델링 모듈(210)이 생성한 오브젝트의 레이아웃을 세팅한 후에 오브젝트들을 움직이게 할 수 있다. 즉, 애니메이션 모듈(220)은 작업 지시(Wp)에 따라서 레이아웃 작업을 포함하는 애니메이션 단계를 수행할 수 있다. 애니메이션 단계는 오브젝트의 움직이는 포인트 즉, 리깅 단계에서 관절에 해당하는 부분의 전 위치와 후 위치를 정의하는 방식을 사용할 수 있다. 애니메이션 모듈(220)은 시간에 따른 전 위치 및 후 위치를 정의하고, 그 사이의 오브젝트의 움직임을 인터폴레이션을 이용하여 자연스럽게 채울 수 있다. 이에 따라서, 오브젝트의 움직임이 사실적으로 표현될 수 있다.The animation module 220 may make the objects move after setting the layout of the object generated by the modeling module 210 . That is, the animation module 220 may perform an animation step including a layout operation according to the work instruction Wp. The animation stage may use a method of defining the moving point of the object, that is, the front position and the rear position of the part corresponding to the joint in the rigging stage. The animation module 220 may define an anterior position and a posterior position according to time, and naturally fill the motion of an object therebetween using interpolation. Accordingly, the movement of the object may be realistically expressed.

이어서, 다시 도 2를 참조하면, 렌더링 모듈(230)은 작업 지시(Wp)에 따라서 렌더링 작업을 수행할 수 있다. 3D 애니메이션 제작과정에서 렌더링 작업은 오브젝트들의 3D 움직임을 구현하는 애니메이션 작업 이후에 카메라(Cam)에 의해서 촬영되는 2차원적인 영상을 만들어 내는 단계일 수 있다. 이때, 2차원의 의미는 애니메이션 이미지가 2차원이라는 것이 아니라 3차원의 세계를 촬영하여 2차원의 화면에 투사하는 영상물로 제작한다는 의미일 수 있다.Then, referring back to FIG. 2 , the rendering module 230 may perform a rendering operation according to the operation instruction Wp. In the 3D animation production process, the rendering operation may be a step of creating a two-dimensional image photographed by a camera (Cam) after the animation operation for realizing 3D movement of objects. In this case, the meaning of 2D may mean that the animation image is not 2D, but that the 3D world is captured and produced as an image to be projected on the 2D screen.

렌더링 모듈(230)은 애니메이션 작업까지 완료된 오브젝트들의 애니메이션 이미지를 생성해야 하므로, 오브젝트의 배열, 시점, 텍스쳐 매핑, 조명 및 쉐이딩의 세부 단계를 거쳐 렌더링 작업을 수행할 수 있다. 렌더링 모듈(230)은 여러 채널을 이용하여 복수의 레이어로 렌더링을 수행할 수 있다. 멀티 채널 렌더링은 색상의 톤을 맞추거나 대조하여 밝기를 수정하는 작업을 용이하게 할 수 있다. 또한, 멀티 채널 렌더링은 이펙트나 실사합성 같은 작업을 수행하기 위해서 필요할 수 있다. Since the rendering module 230 needs to generate animation images of objects that have been completed until the animation operation, the rendering operation may be performed through detailed steps of object arrangement, viewpoint, texture mapping, lighting, and shading. The rendering module 230 may perform rendering in a plurality of layers using several channels. Multi-channel rendering can facilitate the task of correcting brightness by matching or contrasting the tones of colors. In addition, multi-channel rendering may be required to perform tasks such as effects or photorealistic synthesis.

이때, 렌더링 모듈(230)은 애니메이션 모듈(220)이 수신한 최적 라이브러리 데이터(CamL_op)를 함께 수신하여 이용할 수 있다. In this case, the rendering module 230 may receive and use the optimal library data CamL_op received by the animation module 220 together.

구체적으로, 렌더링 모듈(230)은 전술한 애니메이션 모듈(220)과 마찬가지로 작업 지시(Wp)를 수신하고, 작업 지시(Wp)에 따라 프리 카메라 워크 정보(Ipcw)를 생성한 뒤, 프리 카메라 워크 정보(Ipcw)에 대응되는 최적화된 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 이때, 프리 카메라 워크 정보(Ipcw)는 촬영 대상이 되는 캐릭터의 심박수(Ihr)를 포함할 수 있다. 한편, 최적 라이브러리 데이터(CamL_op)는 프리 카메라 워크 정보(Ipcw)에 대응되는 심박수(Ihr)와 관련된 데이터를 포함할 수 있다.Specifically, the rendering module 230 receives the work instruction (Wp) like the above-described animation module 220, generates the free camera work information (Ipcw) according to the work instruction (Wp), and then the free camera work information Optimized optimal library data CamL_op corresponding to (Ipcw) may be received. In this case, the free camera walk information Ipcw may include a heart rate Ihr of a character to be photographed. Meanwhile, the optimal library data CamL_op may include data related to the heart rate Ihr corresponding to the free camera walk information Ipcw.

렌더링 모듈(230)은 최적 라이브러리 데이터(CamL_op)에 포함된 심박수(Ihr)를 이용하여 캐릭터의 땀 배출량 및/또는 혈류량을 산출하고, 이를 기초로 캐릭터 세이딩 데이터(Dcs)를 생성한다. 렌더링 모듈(230)은 생성된 캐릭터 세이딩 데이터(Dcs)를 이용하여 시간의 흐름에 따라 변화하는 카메라의 동선 변화와 함께, 땀 배출량에 따른 캐릭터의 섬세한 피부질감 또는 재질 변화를 표현하거나, 혈류량에 따른 캐릭터의 신체 부위별 피부색 변화를 표현할 수 있다. 렌더링 모듈(230)은 렌더링이 완료된 이미지를 컴포짓 모듈(240)로 전송할 수 있다.The rendering module 230 calculates the sweat amount and/or blood flow of the character by using the heart rate Ihr included in the optimal library data CamL_op, and generates character shading data DCs based on this. The rendering module 230 uses the generated character shading data (Dcs) to express the delicate skin texture or material change of the character according to the amount of sweat, along with the change in the movement of the camera that changes over time, or to the blood flow. It is possible to express changes in skin color for each body part of the character. The rendering module 230 may transmit the rendered image to the composite module 240 .

컴포짓 모듈(240)은 렌더링된 여러 개의 이미지를 수신하고, 이를 하나의 최종 장면으로 통합하는 컴포짓 작업을 수행할 수 있다. 컴포짓 모듈(240)은 하나의 이미지를 다양한 레이어를 합성하여 완성시킬 수 있다. 예를 들어, 컴포짓 모듈(240)은 하나의 이미지를 각기 다른 속성별로 분류된 여러 장의 레이어를 적층시켜 형성할 수 있다. 이때, 레이어는 캐릭터, 배경, 이펙트, 그림자 및 재질로 나누어질 수 있다. 또한, 재질 레이어는 세부적으로 디퓨즈, 스펙귤러 및 리플렉션으로 나누어질 수 있다.The composite module 240 may receive a plurality of rendered images and perform a composite operation of integrating them into one final scene. The composite module 240 may complete one image by synthesizing various layers. For example, the composite module 240 may form one image by stacking several layers classified according to different properties. In this case, the layer may be divided into a character, a background, an effect, a shadow, and a material. In addition, the material layer can be further divided into diffuse, specular and reflection.

또한, 컴포짓 모듈(240)은 알파채널의 마스크를 이용하여 크로마키, 글자 및 그림을 합성할 수 있다. 이를 통해서, 최종적으로 완성된 애니메이션 이미지(Pr)가 생성될 수 있다. 컴포짓 모듈(240)은 생성된 애니메이션 이미지(Pr)를 제작자(100)에게 전송할 수 있다.Also, the composite module 240 may synthesize a chroma key, a character, and a picture by using the mask of the alpha channel. Through this, the finally completed animation image Pr may be generated. The composite module 240 may transmit the generated animation image Pr to the creator 100 .

도 5는 도 1의 빅데이터 라이브러리를 세부적으로 설명하기 위한 블록도이다. 도 6은 도 5의 카메라 워크 라이브러리 데이터의 구조를 세부적으로 설명하기 위한 개념도이다. 도 7은 도 6의 캐릭터 상태정보, 배경정보 및 캐릭터 설정정보를 세부적으로 설명하기 위한 개념도이다.5 is a block diagram for describing the big data library of FIG. 1 in detail. 6 is a conceptual diagram for explaining in detail the structure of the camera work library data of FIG. 5 . 7 is a conceptual diagram for explaining in detail character state information, background information, and character setting information of FIG. 6 .

우선, 도 5를 참조하면, 빅데이터 라이브러리(300)는 라이브러리 데이터베이스(310), 최적 라이브러리 선정 모듈(320) 및 파라미터 변환 모듈(330)을 포함할 수 있다.First, referring to FIG. 5 , the big data library 300 may include a library database 310 , an optimal library selection module 320 , and a parameter conversion module 330 .

라이브러리 데이터베이스(310)는 기존에 작업된 애니메이션 파일이 모두 저장되어 있을 수 있다. 라이브러리 데이터베이스(310)는 내부에 저장된 모든 애니메이션 파일에 대해서 카메라 워크 정보와 관련된 카메라 워크 라이브러리 데이터(CamL)를 추출할 수 있다. The library database 310 may store all previously worked animation files. The library database 310 may extract camera work library data (CamL) related to camera work information for all animation files stored therein.

도 6 및 도 7을 참조하면, 카메라 워크 라이브러리 데이터(CamL)는 카메라 물리 정보(CP), 카메라 모션 정보(CM), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 바운딩 박스 정보(BBI)를 포함할 수 있다. 이때, 카메라 워크 라이브러리 데이터(CamL)의 각각의 정보(CP, CM, MI, BI, BBI)는 도 4를 참조하여 전술한 프리 카메라 워크 정보(Ipcw)에 포함된 각각의 정보(CPp, CMp, MIp, BIp, BBIp)와 실질적으로 동일한 데이터를 포함할 수 있으므로, 여기에서 중복되는 설명은 생략하도록 한다.6 and 7, the camera work library data (CamL) is camera physical information (CP), camera motion information (CM), character motion information (MI), background information (BI) and bounding box information (BBI) may include At this time, each information (CP, CM, MI, BI, BBI) of the camera work library data (CamL) is each information (CPp, CMp, MIp, BIp, and BBIp) may include substantially the same data, and thus a redundant description thereof will be omitted.

이때, 캐릭터 모션 정보(MI)는 캐릭터의 심박수(Ihr), 자세(I1), 피로도(I2) 및 감정(I3)에 관한 정보를 포함할 수 있다. 각각의 정보(Ihr, I1, I2, I3)는 시계열적으로 이루어진 데이터로 구성될 수 있다. 즉, 캐릭터 모션 정보(MI)는 시간의 흐름에 따른 캐릭터의 심박수의 변화, 자세의 변화, 피로도의 변화 및 감정의 변화를 포함할 수 있다. In this case, the character motion information MI may include information about the character's heart rate Ihr, posture I1, fatigue I2, and emotion I3. Each of the information Ihr, I1, I2, and I3 may be composed of time-series data. That is, the character motion information MI may include a change in heart rate, a change in posture, a change in fatigue, and a change in emotion of the character according to the passage of time.

카메라의 모션 정보(CM)는 캐릭터 모션 정보(MI)의 각 파라미터에 대한 변화에 대응되는 카메라의 동선 및 연출방법을 포함할 수 있다.The camera motion information CM may include a camera movement line and a directing method corresponding to a change in each parameter of the character motion information MI.

배경 정보(BI)는 배경(BG)의 온도(B1), 습도(B2) 및 시간대(B3)를 포함할 수 있다. 마찬가지로, 카메라의 모션 정보(CM)는 배경 정보(BI)의 각 파라미터에 대응되는 카메라의 동선 및 연출방법을 포함할 수 있다.The background information BI may include a temperature B1, a humidity B2, and a time zone B3 of the background BG. Similarly, the motion information CM of the camera may include a movement line and a directing method of the camera corresponding to each parameter of the background information BI.

정리하면, 카메라 워크 라이브러리 데이터(CamL)는 캐릭터 모션 정보(MI) 및 배경 정보(BI)에 따른 카메라 워크에 대한 정보를 포함할 수 있으며, 다양한 캐릭터의 상태 및 배경 상태에 따라 서로 다른 카메라 워크가 정의될 수 있다.In summary, the camera work library data (CamL) may include information about the camera work according to the character motion information (MI) and the background information (BI), and different camera work according to the state of various characters and the background state can be defined.

라이브러리 데이터베이스(310)는 하나 이상의 카메라 워크 라이브러리 데이터(CamL)를 캐릭터 모션의 유형 별로 분류하여 저장할 수 있다. 이때, 캐릭터 모션의 유형은, 캐릭터 모션 정보(MI)에 포함된 심박수, 자세, 피로도 및 감정 중 적어도 하나 이상의 파라미터를 기준으로 구분될 수 있다. 예를 들어, 캐릭터의 심박수를 기초로 캐릭터의 상태는 흥분 상태, 정상 상태, 휴식 상태로 구분될 수 있다. 또한, 캐릭터의 자세는 기립 자세, 앉은 자세, 공격 자세, 방어 자세 등으로 구분될 수 있다. 피로도는 미리 정해진 기준치를 이용하여 활력, 정상, 피로 상태로 구분될 수 있으며, 감정은 기쁨, 슬픔, 흥분, 우울, 감동 등으로 구분될 수 있다.The library database 310 may classify and store one or more camera work library data CamL by type of character motion. In this case, the type of character motion may be classified based on at least one parameter among heart rate, posture, fatigue, and emotion included in the character motion information MI. For example, the state of the character may be divided into an excited state, a normal state, and a resting state based on the character's heart rate. In addition, the posture of the character may be divided into a standing posture, a sitting posture, an attack posture, a defense posture, and the like. Fatigue may be classified into vitality, normality, and fatigue state using a predetermined reference value, and emotions may be classified into joy, sadness, excitement, depression, emotion, and the like.

라이브러리 데이터베이스(310)는 이러한 캐릭터 모션의 유형을 파라미터화 한 모션 파라미터(MP2)를 기초로 카메라 워크 라이브러리 데이터(CamL)를 분류하고 저장할 수 있다.The library database 310 may classify and store the camera work library data CamL based on the motion parameter MP2 parameterized by the type of character motion.

파라미터 변환 모듈(330)은 라이브러리 데이터베이스(310)로부터 카메라 워크 라이브러리 데이터(CamL)를 수신하고, 카메라 워크 라이브러리 데이터(CamL)에 포함된 캐릭터 모션 정보(MI)를 기초로 전술한 모션 파라미터(MP2)를 생성할 수 있다. 모션 파라미터(MP2)는 캐릭터 모션 정보(MI)에 포함된 적어도 하나의 파라미터(예를 들어, 심박수, 자세, 피로도 및 감정 관련)를 기초로 생성되며, 복수의 파라미터의 조합을 기초로 생성될 수 있음은 물론이다.The parameter conversion module 330 receives the camera walk library data (CamL) from the library database 310, and based on the character motion information (MI) included in the camera walk library data (CamL), the above-described motion parameter (MP2) can create The motion parameter MP2 is generated based on at least one parameter (eg, heart rate, posture, fatigue, and emotion related) included in the character motion information MI, and may be generated based on a combination of a plurality of parameters. of course there is

또한, 파라미터 변환 모듈(330)은 애니메이션 모듈(220)로부터 수신한 프리 카메라 워크 정보(Ipcw)에 포함된 프리 캐릭터 모션 정보(MIp)를 기초로 모션 파라미터(MP1)를 생성할 수 있다. 마찬가지로, 모션 파라미터(MP1)는 프리 캐릭터 모션 정보(MIp)에 포함된 적어도 하나의 파라미터(예를 들어, 심박수, 자세, 피로도 및 감정 관련)를 기초로 생성되며, 복수의 파라미터의 조합을 기초로 생성될 수 있음은 물론이다.Also, the parameter conversion module 330 may generate the motion parameter MP1 based on the free character motion information MIp included in the free camera walk information Ipcw received from the animation module 220 . Similarly, the motion parameter MP1 is generated based on at least one parameter (eg, related to heart rate, posture, fatigue, and emotion) included in the free character motion information MIp, and based on a combination of a plurality of parameters Of course, it can be created.

이어서, 최적 라이브러리 선정 모듈(320)은 라이브러리 데이터베이스(130)로부터 카메라 워크 라이브러리 데이터(CamL)를 수신할 수 있다. 또한, 최적 라이브러리 선정 모듈(320)은 메타버스 컨텐츠 제작 장치(200)로부터 프리 카메라 워크 정보(Ipcw)도 수신할 수 있다. 최적 라이브러리 선정 모듈(320)은 프리 카메라 워크 정보(Ipcw)와 카메라 워크 라이브러리 데이터(CamL)를 비교하여 최적 라이브러리 데이터(CamL_op)를 선정할 수 있다. 최적 라이브러리 데이터(CamL_op)는 카메라 워크 라이브러리 데이터(CamL) 중 프리 카메라 워크 정보(Ipcw)와 가장 유사한 데이터일 수 있다.Subsequently, the optimal library selection module 320 may receive the camera work library data CamL from the library database 130 . In addition, the optimal library selection module 320 may also receive free camera work information Ipcw from the metaverse content production apparatus 200 . The optimal library selection module 320 may select the optimal library data CamL_op by comparing the free camera work information Ipcw with the camera work library data CamL. The optimal library data CamL_op may be data most similar to the free camera walk information Ipcw among the camera walk library data CamL.

이때, 최적 라이브러리 선정 모듈(320)은 프리 카메라 워크 정보(Ipcw)의 모션 파라미터(MP1)와 동일한 모션 파라미터(MP2)를 가진 카메라 워크 라이브러리 데이터(CamL)를 필터링할 수 있다. 이를 통해서, 최적 라이브러리 선정 모듈(320)은 프리 카메라 워크 정보(Ipcw)와 카메라 워크 라이브러리 데이터(CamL) 간의 유사성 검토에 필요한 연산량을 대폭 감소시키고, 연산 속도를 향상시킬 수 있다.In this case, the optimal library selection module 320 may filter the camera work library data CamL having the same motion parameter MP2 as the motion parameter MP1 of the free camera walk information Ipcw. Through this, the optimal library selection module 320 can significantly reduce the amount of computation required to review the similarity between the free camera work information (Ipcw) and the camera work library data (CamL), and improve the operation speed.

최적 라이브러리 선정 모듈(320)은 모션 파라미터가 동일한(또는, 가장 유사한) 카메라 워크 라이브러리 데이터(CamL) 중에서 프리 카메라 워크 정보(Ipcw)와 가장 유사한 데이터를 최적 라이브러리 데이터(CamL_op)로 선정할 수 있다.The optimal library selection module 320 may select the most similar data to the free camera walk information Ipcw from among the camera walk library data CamL having the same (or the most similar) motion parameters as the optimal library data CamL_op.

이때, 최적 라이브러리 선정 모듈(320)은 딥러닝 모델을 통해서 유사성을 판단할 수 있다. 최적 라이브러리 선정 모듈(320)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.In this case, the optimal library selection module 320 may determine the similarity through the deep learning model. Optimal library selection module 320, for example, DFN (Deep Feedforward Network), CNN (Convolutional Neural Network), GNN (Graph Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), SVM (Support) vector machine), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN) and SNN (SNN) Spiking Neural Network) may be included. However, the present embodiment is not limited thereto.

도 8은 도 1의 메타버스 컨텐츠 제작 장치의 개략적인 동작을 설명하기 위한 순서도이다. 이하에서는 전술한 내용과 유사한 내용은 생략하고 차이점을 위주로 설명하도록 한다.FIG. 8 is a flowchart for explaining a schematic operation of the apparatus for producing metaverse content of FIG. 1 . Hereinafter, contents similar to those described above will be omitted, and differences will be mainly described.

도 8을 참조하면, 메타버스 컨텐츠 제작 장치(200)는 프리 카메라 워크 정보(Ipcw) 및 빅데이터 라이브러리(300)에 미리 저장된 복수의 카메라 워크 라이브러리 데이터(CamL)를 비교한다. 이어서, 복수의 카메라 워크 라이브러리 데이터(CamL) 중에서 프리 카메라 워크 정보(Ipcw)에 대응되는 최적 라이브러리 데이터(CamL_op)를 선정한다(S10). Referring to FIG. 8 , the metaverse content production apparatus 200 compares free camera work information Ipcw and a plurality of camera work library data CamL stored in advance in the big data library 300 . Next, the optimal library data (CamL_op) corresponding to the free camera work information (Ipcw) is selected from among the plurality of camera work library data (CamL) (S10).

이때, 메타버스 컨텐츠 제작 장치(200)는 프리 카메라 워크 정보(Ipcw)에서 도출한 모션 파라미터를 이용하여 복수의 카메라 워크 라이브러리 데이터(CamL)에 대한 필터링을 수행한다. 메타버스 컨텐츠 제작 장치(200)는 필터링된 카메라 워크 라이브러리 데이터(CamL) 중에서 미리 학습된 딥러닝 모듈을 이용하여 프리 카메라 워크 정보(Ipcw)와 가장 유사한 카메라 워크 라이브러리 데이터(CamL)를 최적 라이브러리 데이터(CamL_op)로 선정한다.In this case, the metaverse content production apparatus 200 performs filtering on the plurality of camera work library data CamL by using the motion parameters derived from the free camera work information Ipcw. The metaverse content production apparatus 200 uses the pre-learned deep learning module among the filtered camera work library data (CamL) to convert the camera work library data (CamL) most similar to the free camera work information (Ipcw) to the optimal library data ( CamL_op).

한편, 메타버스 컨텐츠 제작 장치(200)는 수신된 작업 지시(Wp)를 기초로 모델링 단계를 수행한다(S20).Meanwhile, the metaverse content production apparatus 200 performs a modeling step based on the received work instruction Wp (S20).

이어서, 메타버스 컨텐츠 제작 장치(200)는 선정된 최적 라이브러리 데이터(CamL_op)를 기초로 애니메이션 단계를 수행한다(S30). 구체적으로, 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 포함된 심박수(Ihr)를 이용하여 캐릭터의 움직임 변화량을 산출하여 캐릭터 모션 시퀀스(Scm) 및 클로딩 모션 시퀀스(Sclm)를 생성한다. 애니메이션 모듈(220)은 생성된 캐릭터 모션 시퀀스(Scm) 및 클로딩 모션 시퀀스(Sclm)를 이용하여 시간의 흐름에 따라 변화하는 카메라의 동선 변화와 함께, 심박수(Ihr)에 따른 캐릭터와 클로딩의 섬세한 움직임 변화를 표현할 수 있다.Next, the metaverse content production apparatus 200 performs an animation step based on the selected optimal library data CamL_op ( S30 ). Specifically, the animation module 220 generates a character motion sequence (Scm) and a clothing motion sequence (Sclm) by calculating the amount of change in the movement of the character using the heart rate (Ihr) included in the optimal library data (CamL_op). The animation module 220 uses the generated character motion sequence (Scm) and clothing motion sequence (Sclm) to change the movement of the camera that changes over time, along with the character and clothing according to the heart rate (Ihr). It can express subtle movement changes.

이어서, 메타버스 컨텐츠 제작 장치(200)는 선정된 최적 라이브러리 데이터(CamL_op)를 기초로 렌더링 단계를 수행한다(S40). 구체적으로, 렌더링 모듈(230)은 최적 라이브러리 데이터(CamL_op)에 포함된 심박수(Ihr)를 이용하여 캐릭터의 땀 배출량 및/또는 혈류량을 산출하고, 이를 기초로 생성된 캐릭터 세이딩 데이터(Dcs)를 이용하여 캐릭터의 피부에 표현되는 땀 및/또는 피부색의 변화를 렌더링 단계에서 세밀하게 표현할 수 있다.Next, the metaverse content production apparatus 200 performs a rendering step based on the selected optimal library data CamL_op ( S40 ). Specifically, the rendering module 230 calculates the sweat amount and/or blood flow of the character by using the heart rate (Ihr) included in the optimal library data (CamL_op), and uses the generated character shading data (Dcs) based on this. Sweat and/or changes in skin color expressed on the character's skin can be expressed in detail in the rendering stage.

이어서, 메타버스 컨텐츠 제작 장치(200)는 컴포짓 단계를 수행하여 애니메이션 이미지를 생성한다(S50). 구체적으로, 컴포짓 모듈(240)은 렌더링된 여러 개의 이미지를 수신하고, 이를 하나의 최종 장면으로 통합하는 컴포짓 작업을 수행할 수 있다. 컴포짓 모듈(240)은 하나의 이미지를 다양한 레이어를 합성하여 완성시킬 수 있다. 이를 통해서, 컴포짓 모듈(240)은 애니메이션 이미지(Pr)를 최종적으로 완성할 수 있다.Next, the metaverse content production apparatus 200 generates an animation image by performing a compositing step ( S50 ). Specifically, the composite module 240 may receive a plurality of rendered images and perform a composite operation of integrating them into one final scene. The composite module 240 may complete one image by synthesizing various layers. Through this, the composite module 240 may finally complete the animation image Pr.

이하에서는, 빅데이터 라이브러리(300)에서 수신한 최적 라이브러리 데이터(CamL_op)를 이용하는 애니메이션 모듈(220) 및 렌더링 모듈(230)의 동작을 구체적으로 설명하도록 한다.Hereinafter, operations of the animation module 220 and the rendering module 230 using the optimal library data CamL_op received from the big data library 300 will be described in detail.

도 9는 도 2의 애니메이션 모듈을 설명하기 위한 블록도이다.9 is a block diagram illustrating the animation module of FIG. 2 .

도 9를 참조하면, 애니메이션 모듈(220)에 포함된 모션 변화 연산 모듈(PCM)은 최적 라이브러리 데이터(CamL_op)에 포함된 캐릭터 모션 정보(MI) 및 배경 정보(BI)와, 작업 지시(Wp)에 포함된 캐릭터 설정 정보(CI)를 이용하여 캐릭터 모션 시퀀스(Scm)를 생성한다. Referring to FIG. 9 , the motion change calculation module (PCM) included in the animation module 220 includes character motion information (MI) and background information (BI) included in the optimal library data (CamL_op), and a work instruction (Wp) A character motion sequence (Scm) is generated using the character setting information (CI) included in the .

여기에서, 캐릭터 설정 정보(CI)는 작업 지시(Wp)에 포함된 정보일 수 있다. 구체적으로, 캐릭터 설정 정보(CI)는 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4), 피부색(C5), 및 클로딩(C6)(예를 들어, 캐릭터가 착용하고 있는 의복)를 포함할 수 있다. 다만, 각 항목은 임의적인 것이며, 각 항목은 다르게 변형되어 이용될 수 있음은 물론이다.Here, the character setting information CI may be information included in the work instruction Wp. Specifically, the character setting information (CI) includes the character's gender (C1), age (C2), body type (C3), size (C4), skin color (C5), and clothing (C6) (for example, clothing you are wearing). However, it goes without saying that each item is arbitrary, and each item may be modified and used differently.

모델링 모듈(210)은 캐릭터 설정 정보(CI)를 기초로 캐릭터의 오브젝트를 선정하고 모델링 작업을 진행할 수 있다. 이어서, 애니메이션 모듈(220)은 캐릭터 설정 정보(CI)를 기초로 캐릭터의 움직임 변화량을 도출하거나 보정할 수 있다.The modeling module 210 may select an object of the character based on the character setting information CI and perform modeling. Subsequently, the animation module 220 may derive or correct the amount of change in movement of the character based on the character setting information CI.

캐릭터 모션 시퀀스(Scm)는 시간의 흐름에 따른 캐릭터의 움직임 변화량에 관한 정보를 포함한다. 구체적으로, 캐릭터 모션 시퀀스(Scm)는 캐릭터의 폐용적 변화량, 자세 변화량, 신체 각 부위에 대한 모양 변화량, 신체 각 부위의 땀 배출량을 포함할 수 있다.The character motion sequence (Scm) includes information on the amount of change in the movement of the character over time. Specifically, the character motion sequence Scm may include a change amount of lung volume of the character, a change amount of posture, a change amount of shape for each body part, and a sweat amount of each body part.

이하에서는, 모션 변화 연산 모듈(PCM)에서 수행되는 캐릭터 모션 시퀀스(Scm)의 생성 및 애니메이션 단계의 수행 방법에 대해 설명하도록 한다.Hereinafter, a method of generating a character motion sequence (Scm) and performing an animation step performed in the motion change calculation module (PCM) will be described.

도 10은 도 9의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다. 도 11은 도 10에 나타난 각각의 파라미터의 산출 흐름을 설명하기 위한 개념도이다. 도 12는 심박수에 따른 캐릭터 모션 시퀀스의 변화를 설명하기 위한 예시도이다.FIG. 10 is a flowchart for explaining an operation method of the animation module of FIG. 9 . 11 is a conceptual diagram for explaining a calculation flow of each parameter shown in FIG. 10 . 12 is an exemplary diagram for explaining a change in a character motion sequence according to a heart rate.

도 10 및 도 11을 참조하면, 애니메이션 모듈(220)의 모션 변화 연산 모듈(PCM)은 캐릭터 모션 정보(MI)에 포함된 캐릭터의 심박수(Ihr)를 수신한다(S110). 모션 변화 연산 모듈(PCM)은 수신된 최적 라이브러리 데이터(CamL_op)에서 캐릭터에 대한 심박수(Ihr)를 추출하여 이용할 수 있다.10 and 11 , the motion change calculation module PCM of the animation module 220 receives the heart rate Ihr of the character included in the character motion information MI ( S110 ). The motion change calculation module (PCM) may extract and use the heart rate (Ihr) of the character from the received optimal library data (CamL_op).

이어서, 심박수에 따른 폐용적 변화량(Vl)을 도출한다(S120). 여기에서, 폐용적 변화량(Vl)은 캐릭터의 폐의 크기(lung volume)에 대한 시계열적인 변화량을 의미한다.Next, the lung volume change Vl according to the heart rate is derived (S120). Here, the lung volume change Vl means a time-series change in the lung volume of the character.

이어서, 심박수에 따른 자세 변화량(Vp)을 도출한다(S130). 여기에서, 자세 변화량(Vp)은 캐릭터의 자세(pose)에 대한 시계열적인 변화량을 의미한다. 자세 변화량(Vp)은 캐릭터의 신체의 부위별로 상체 모션 변화량, 어깨 모션 변화량, 팔 모션 변화량 등으로 구분될 수 있다. 또한, 자세 변화량(Vp)은 캐릭터의 움직임을 표현하는 복수의 포인트들의 변화들로 표현될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.Next, a posture change amount Vp according to the heart rate is derived (S130). Here, the posture change amount Vp means a time-series change amount with respect to the character's pose. The posture change amount Vp may be divided into upper body motion change amount, shoulder motion change amount, arm motion change amount, etc. for each body part of the character. In addition, the posture change amount Vp may be expressed as changes of a plurality of points expressing the movement of the character. However, the present invention is not limited thereto.

이어서, 심박수에 따른 신체 각 부위의 모양 변화량(Vs)을 도출한다(S140). 여기에서, 모양 변화량(Vs)은 캐릭터의 신체 모양(Shape)에 대한 시계열적인 변화량을 의미한다. 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다. Then, the amount of change (Vs) in the shape of each part of the body according to the heart rate is derived (S140). Here, the shape change amount Vs means a time-series change amount with respect to the body shape of the character. The shape change Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character.

예를 들어, 심박수가 상대적으로 높은 경우 캐릭터는 흉식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 크게 설정될 수 있다. 반면, 심박수가 상대적으로 낮은 경우 캐릭터는 복식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 작게 설정될 수 있다. 즉, 모양 변화량(Vs)을 기초로 캐릭터의 흉식 호흡과 복식 호흡을 구분하여 표현할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.For example, when the heart rate is relatively high, since the character mainly performs chest breathing, the chest shape change amount may be set to be larger than the abdominal shape change amount. On the other hand, when the heart rate is relatively low, since the character mainly breathes abdominally, the chest shape change amount may be set smaller than the abdominal shape change amount. That is, the character's chest breathing and abdominal breathing can be divided and expressed based on the shape change amount (Vs). However, the present invention is not limited thereto.

이어서, 심박수에 따른 캐릭터의 신체 각 부위의 땀 배출량(Vw)을 도출한다(S150). 땀 배출량(Vw)은 이후 단계에서 캐릭터의 클로딩의 움직임을 표현하는 클로딩 모션 시퀀스(Sclm)를 생성하는데 이용될 수 있다. Next, the sweat amount Vw of each body part of the character according to the heart rate is derived (S150). The sweat amount Vw may be used to generate a clothing motion sequence Sclm that expresses the movement of the character's clothing in a later step.

구체적으로, 도출된 땀 배출량(Vw)이 상대적으로 많은 부위의 경우, 클로딩의 움직임은 캐릭터의 해당 신체 부위에 대한 종속성이 높게 설정되도록 표현될 수 있다. 예를 들어, 땀 배출량(Vw)이 많은 부위는 캐릭터의 신체 부위에 밀착되어 클로딩이 움직이는 것으로 표현될 수 있다.Specifically, in the case of a portion having a relatively large amount of derived sweat discharge Vw, the movement of the clothing may be expressed such that the dependence of the character on the corresponding body portion is set to be high. For example, a portion with a large amount of sweat Vw may be expressed as moving clothing by being in close contact with a body portion of the character.

반면, 도출된 땀 배출량(Vw)이 상대적으로 적은 부위의 경우, 클로딩의 움직임은 캐릭터의 해당 신체 부위의 움직임에 대한 종속성이 낮게 설정되도록 표현될 수 있다. 예를 들어, 땀 배출량(Vw)이 적은 부위는 캐릭터의 신체 부위의 움직임과는 별도로 중력 또는 관성에 대한 종속성이 높도록 클로딩의 움직임이 표현될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.On the other hand, in the case of a portion having a relatively small amount of sweat output (Vw), the movement of the clothing may be expressed such that the dependence on the movement of the corresponding body portion of the character is set to be low. For example, the movement of clothing may be expressed in a region with a small amount of sweat Vw so that the dependence on gravity or inertia is high separately from the movement of the body part of the character. However, the present invention is not limited thereto.

이러한 캐릭터의 신체와 클로딩 사이의 종속성은 클로딩 마찰력(Ff)을 통하여 수치로 환산될 수 있다. 클로딩 마찰력(Ff)은 클로딩 모션 변화량(Vclm)을 산출하는데 반영될 수 있다. 이에 대한 자세한 설명은 이하에서 후술하도록 한다.The dependence between the character's body and the clothing can be converted to a numerical value through the clothing friction force Ff. The clothing friction force Ff may be reflected in calculating the clothing motion variation Vclm. A detailed description thereof will be provided below.

이어서, 심박수를 기초로 도출된 값(Vl, Vp, Vs, Vw)을 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 기초로 보정한다(S160). 예를 들어, 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 캐릭터의 자세(I1), 피로도(I2), 감정(I3)에 따라 변화될 수 있다. 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 캐릭터의 성별(C1), 나이(C2), 체형(C3) 및 사이즈(C4)에 따라 변화될 수 있다. 또한, 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 배경 공간의 온도(B1), 습도(B2), 시간대(B3)에 따라 변화될 수 있다.Then, the values Vl, Vp, Vs, and Vw derived based on the heart rate are corrected based on the character motion information MI, the background information BI, and the character setting information CI ( S160 ). For example, each change amount (Vl, Vp, Vs) of the character may be changed according to the posture (I1), fatigue (I2), and emotion (I3) of the character. Each change amount (Vl, Vp, Vs) of the character may be changed according to the gender (C1), age (C2), body type (C3), and size (C4) of the character. In addition, each change amount (Vl, Vp, Vs) of the character may be changed according to the temperature (B1), humidity (B2), and time period (B3) of the background space.

이때, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)가 각각의 변화량(Vl, Vp, Vs)에 반영되는 비율은 미리 정해진 가중치에 의해 정해질 수 있다. 예를 들어, 캐릭터 모션 정보(MI) 및 캐릭터 설정 정보(CI)는 배경 정보(BI)에 비해 높은 가중치를 두고 각각의 변화량(Vl, Vp, Vs)에 반영될 수 있다.In this case, the ratio at which the character motion information MI, the background information BI, and the character setting information CI are reflected in the respective variation amounts Vl, Vp, and Vs may be determined by a predetermined weight. For example, the character motion information MI and the character setting information CI may be reflected in the respective variation amounts Vl, Vp, and Vs with a higher weight than the background information BI.

이어서, 보정된 각각의 변화량(Vl, Vp, Vs)을 이용하여 캐릭터 모션 시퀀스(Scm)를 생성한다(S170). 생성된 캐릭터 모션 시퀀스(Scm)는 레이아웃 작업 및 애니메이션 작업에 이용될 수 있다.Next, a character motion sequence Scm is generated using each of the corrected variation amounts Vl, Vp, and Vs (S170). The generated character motion sequence (Scm) may be used for layout work and animation work.

예를 들어, 도 12를 참조하면, 심박수에 따른 폐용적 변화량(Vl)은 도 12의 그래프(SC)와 같이 나타낼 수 있다. 이때, 폐용적 변화량(Vl)은 캐릭터의 종류(Type), 성별(Gender) 등에 대한 요소들을 기초로 보정되어 시계열적인 그래프(SC)로 표현될 수 있다. For example, referring to FIG. 12 , the lung volume change Vl according to the heart rate may be represented as in the graph SC of FIG. 12 . In this case, the lung volume change Vl may be corrected based on factors such as the type and gender of the character and expressed as a time-series graph SC.

또한, 폐용적 변화량(Vl)은 자세 변화량(Vp) 및 모양 변화량(Vs)에 반영될 수 있으며, 각각의 변화량(Vl, Vp, Vs)을 기초로 캐릭터의 가슴 움직임(Chest Motion) 및 복부 움직임(Stomach Motion)을 세밀히 표현할 수 있다. 또한, 이들을 종합한 전체 움직임(Overall Motion)이 표현될 수 있음은 물론이다. In addition, the lung volume change (Vl) can be reflected in the posture change amount (Vp) and shape change amount (Vs), and based on each change amount (Vl, Vp, Vs), the character's chest motion and abdominal movement (Stomach Motion) can be expressed in detail. In addition, it goes without saying that an overall motion that combines them can be expressed.

도 13은 도 9의 모션 변화 연산 모듈의 세부적인 구조를 설명하기 위한 블록도이다. 도 14은 도 13의 인공지능 훈련 모듈의 동작을 설명하기 위한 순서도이다. 이하에서는 전술한 내용과 중복되는 내용은 생략하고 차이점을 위주로 설명하도록 한다.13 is a block diagram illustrating a detailed structure of the motion change calculation module of FIG. 9 . 14 is a flowchart for explaining the operation of the artificial intelligence training module of FIG. 13 . Hereinafter, content overlapping with the above will be omitted, and differences will be mainly described.

도 13을 참조하면, 모션 변화 연산 모듈(PCM)은 인공지능 모듈(AIM1), 인공지능 훈련 모듈(ATM) 및 모션 보정 모듈(MAM)을 포함할 수 있다.Referring to FIG. 13 , the motion change calculation module (PCM) may include an artificial intelligence module (AIM1), an artificial intelligence training module (ATM), and a motion compensation module (MAM).

인공지능 모듈(AIM1)은 심박수(Ihr)를 수신한다. 인공지능 모듈(AIM1)은 심박수를 입력받고, 이에 대한 출력으로 캐릭터의 폐용적 변화량(Vl), 자세 변화량(Vp), 심박수에 따른 신체 각 부위의 모양 변화량(Vs), 및 땀 배출량(Vw)을 제공한다. 이때, 인공지능 모듈(AIM1)은 딥러닝 모듈일 수 있다. 인공지능 모듈(AIM1)은 이미 트레이닝 데이터를 이용하여 트레이닝이 완료된 상태일 수 있다. 이때, 인공지능 모듈(AIM1)은 지도 학습을 이용할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니고, 인공지능 모듈(AIM1)은 비지도 학습을 이용할 수도 있다.The artificial intelligence module (AIM1) receives the heart rate (Ihr). The artificial intelligence module (AIM1) receives heart rate as an input, and outputs the character's lung volume change (Vl), posture change (Vp), shape change amount of each body part according to heart rate (Vs), and sweat output (Vw) provides In this case, the artificial intelligence module AIM1 may be a deep learning module. The artificial intelligence module AIM1 may have already been trained using training data. In this case, the artificial intelligence module AIM1 may use supervised learning. However, the present embodiment is not limited thereto, and the artificial intelligence module AIM1 may use unsupervised learning.

인공지능 모듈(AIM1)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Artificial intelligence module (AIM1) is, for example, DFN (Deep Feedforward Network), CNN (Convolutional Neural Network), GNN (Graph Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), SVM (Support vector) machine), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN), and Spiking (SNN) Neural Network) may be included. However, the present embodiment is not limited thereto.

다른 예로, 인공지능 모듈(AIM1)은 심박수(Ihr)와 함께, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 수신할 수 있다. 인공지능 모듈(AIM1)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력받고, 이에 대한 출력으로 캐릭터의 폐용적 변화량(Vl), 자세 변화량(Vp), 신체 각 부위의 모양 변화량(Vs) 및 땀 배출량(Vw)을 출력할 수 있다. As another example, the artificial intelligence module AIM1 may receive the character motion information MI, the background information BI, and the character setting information CI along with the heart rate Ihr. The artificial intelligence module (AIM1) receives heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI), and outputs the character's lung volume change (Vl), posture change amount (Vp), shape change amount (Vs) of each part of the body, and sweat output (Vw) can be output.

이때, 인공지능 모듈(AIM1)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력 노드로 하는 입력 레이어와, 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)을 출력 노드로 하는 출력 레이어와, 상기 입력 레이어와 상기 출력 레이어 사이에 배치되는 하나 이상의 히든 레이어를 포함하고, 상기 입력 노드와 상기 출력 노드 사이의 노드 및 에지의 가중치는 상기 학습부의 학습 과정에 의해 업데이트될 수 있다.At this time, the artificial intelligence module (AIM1) includes an input layer using heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI) as input nodes, lung volume change (Vl), posture an output layer having an amount of change (Vp), a shape change (Vs), and a sweat amount (Vw) as output nodes, and at least one hidden layer disposed between the input layer and the output layer, wherein the input node and the output The weights of nodes and edges between nodes may be updated by a learning process of the learning unit.

모션 보정 모듈(MAM)은 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 기초로, 인공지능 모듈(AIM1)에서 출력된 각각의 변화량(Vl, Vp, Vs)을 보정한다. 모션 보정 모듈(MAM)은 보정된 각각의 값(Vl, Vp, Vs, Vw)들을 포함하는 캐릭터 모션 시퀀스(Scm)를 출력한다.Motion compensation module (MAM) based on the character motion information (MI), background information (BI) and character setting information (CI), each change amount (Vl, Vp, Vs) output from the artificial intelligence module (AIM1) Correct. The motion compensation module MAM outputs a character motion sequence Scm including each of the corrected values Vl, Vp, Vs, and Vw.

한편, 인공지능 훈련 모듈(ATM)은 인공지능 모듈(AIM1)을 훈련시키는 트레이닝 데이터를 생성하고, 생성된 트레이닝 데이터를 인공지능 모듈(AIM1)에 제공한다.On the other hand, the artificial intelligence training module (ATM) generates training data for training the artificial intelligence module (AIM1), and provides the generated training data to the artificial intelligence module (AIM1).

구체적으로, 도 14를 참조하면, 인공지능 훈련 모듈(ATM)은 호흡하는 대상(예를 들어, 복수의 센서를 부착한 연기자)을 스캔한 복수의 3D 메쉬를 수신한다(S210). 예를 들어, 3D 메쉬는 연기자의 심박수(Ihr)에 대한 정보를 포함할 수 있으며, 심박수(Ihr)는 연기자에게 부착된 센서를 통해 얻어질 수 있다(심전도법, 광전 맥파법, 혈압계법, 심음도법 등).Specifically, referring to FIG. 14 , the artificial intelligence training module (ATM) receives a plurality of 3D meshes scanned by a breathing object (eg, a performer with a plurality of sensors) (S210). For example, the 3D mesh may include information on the performer's heart rate (Ihr), and the heart rate (Ihr) may be obtained through a sensor attached to the performer (electrocardiogram, photoelectric pulse wave, blood pressure, and heart sound). projections, etc.).

이어서, 복수의 3D 메쉬(3D Mesh)를 캐릭터 설정 정보(CI)에 포함된 각 파라미터 별로 그룹핑한다(S220). 예를 들어, 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)가 유사한 복수의 3D 메쉬들을 그룹핑한다.Next, a plurality of 3D meshes are grouped for each parameter included in the character setting information CI ( S220 ). For example, a plurality of 3D meshes having similar gender (C1), age (C2), body type (C3), and size (C4) are grouped.

이어서, 미리 저장된 템플릿 메쉬를 이용하여 그룹핑된 3D 메쉬를 정렬한다(S230). 이는 복수의 서로 다른 3D 메쉬의 평균값을 구하기 위한 전처리 과정에 해당한다.Next, the grouped 3D mesh is aligned using the pre-stored template mesh (S230). This corresponds to a pre-processing process to obtain an average value of a plurality of different 3D meshes.

이어서, 각 그룹핑된 3D 메쉬에 대해 심박수(Ihr)에 따른 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)의 평균값을 도출한다(S240). 또한, 그룹핑된 3D 메쉬의 캐릭터 모션 시퀀스(Scm)의 각 파라미터에 대한 평균값도 함께 도출한다.Next, for each grouped 3D mesh, average values of lung volume change (Vl), posture change (Vp), shape change (Vs), and sweat output (Vw) according to heart rate (Ihr) are derived (S240). In addition, the average value of each parameter of the character motion sequence (Scm) of the grouped 3D mesh is also derived.

이어서, 도출된 값(Vl, Vp, Vs, Vw)에 대한 각각의 평균값을 이용하여 인공지능 모듈(AIM1)을 훈련시킨다(S250). 이때, 도출된 값(Vl, Vp, Vs, Vw)과 심박수(Ihr)에 대한 각각의 평균값은 인공지능 모듈(AIM1)의 입력 노드에 인가되고, 이에 대응되는 캐릭터 모션 시퀀스(Scm)는 인공지능 모듈(AIM1)의 출력 노드에 인가된다. 즉, 트레이닝 데이터는 도출된 값(Vl, Vp, Vs, Vw) 및 심박수(Ihr)에 대한 각각의 평균값과, 이에 대응되는 캐릭터 모션 시퀀스(Scm)의 평균값을 포함할 수 있다. 인공지능 훈련 모듈(ATM)은 생성된 트레이닝 데이터를 이용하여 인공지능 모듈(AIM1)을 훈련시킬 수 있다. Next, the artificial intelligence module AIM1 is trained using the average values of the derived values (Vl, Vp, Vs, and Vw) (S250). At this time, each average value of the derived values (Vl, Vp, Vs, Vw) and heart rate (Ihr) is applied to the input node of the artificial intelligence module (AIM1), and the corresponding character motion sequence (Scm) is artificial intelligence It is applied to the output node of module AIM1. That is, the training data may include an average value of each of the derived values (Vl, Vp, Vs, Vw) and a heart rate (Ihr), and an average value of a character motion sequence (Scm) corresponding thereto. The artificial intelligence training module (ATM) may train the artificial intelligence module (AIM1) using the generated training data.

예를 들어, 트레이닝 데이터는 성별(C1)과 나이(C2)가 동일한 복수의 3D 메쉬들의 그룹에 대하여, 심박수(Ihr), 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)의 평균값을 포함할 수 있다. 또한, 트레이닝 데이터는 성별(C1)과 체형(C3)이 기준치보다 유사한 복수의 3D 메쉬들의 그룹에 대하여, 전술한 데이터(Vl, Vp, Vs, Vw, Ihr)에 대한 평균값을 포함할 수 있다. 즉, 트레이닝 데이터는 캐릭터 설정 정보(CI)에 포함된 파라미터들의 서로 다른 조합을 기초로 생성될 수 있다. For example, training data includes, for a group of a plurality of 3D meshes having the same gender (C1) and age (C2), heart rate (Ihr), lung volume change (Vl), posture change amount (Vp), shape change amount (Vs) , may include an average value of the sweat discharge (Vw). In addition, the training data may include an average value of the aforementioned data (Vl, Vp, Vs, Vw, Ihr) for a group of a plurality of 3D meshes having a gender (C1) and a body shape (C3) similar to the reference value. That is, the training data may be generated based on different combinations of parameters included in the character setting information CI.

또한, 본 발명이 이에 한정되는 것은 아니며, 트레이닝 데이터는 캐릭터 모션 정보(MI) 또는 배경 정보(BI)에 포함된 파라미터들의 서로 다른 조합을 기초로 생성되어 인공지능 모듈(AIM1)을 훈련시킬 수 있음은 물론이다.In addition, the present invention is not limited thereto, and training data may be generated based on different combinations of parameters included in character motion information (MI) or background information (BI) to train the artificial intelligence module (AIM1). is of course

이하에서는, 전술한 애니메이션 모듈(220)에서 수행되는 본 발명의 몇몇 실시예에 대해 살펴보도록 한다.Hereinafter, some embodiments of the present invention performed in the above-described animation module 220 will be described.

도 15는 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 일 예를 설명하기 위한 순서도이다.15 is a flowchart illustrating an example of a method of operating an animation module according to an embodiment of the present invention.

도 15를 참조하면, 본 발명의 실시예에 따른 애니메이션 모듈(220)은, 레이아웃 대상이 되는 캐릭터의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다(S310). 여기에서, 호흡량 변화패턴은 심박수를 기초로 생성된 시계열적인 호흡량에 대한 변화를 나타낸다. 호흡량 변화패턴은 실제 사용자로부터 측정한 호흡량의 변화량과 심박수와의 관계를 기초로 생성될 수 있다. 예를 들어, 호흡량 변화패턴은 도 11에 개시된 그래프(SC)와 같이 도시될 수 있다. 또한, 호흡량 변화패턴은 심박수를 기초로 생성된 폐용적 변화량을 기초로 생성될 수 있다. Referring to FIG. 15 , the animation module 220 according to an embodiment of the present invention estimates a respiration rate change pattern according to the heart rate (Ihr) of the character to be laid out (S310). Here, the respiratory volume change pattern represents a change in the time-series respiratory volume generated based on the heart rate. The respiratory volume change pattern may be generated based on the relationship between the respiratory volume change amount measured from an actual user and the heart rate. For example, the respiratory volume change pattern may be shown as the graph SC disclosed in FIG. 11 . Also, the respiratory volume change pattern may be generated based on the lung volume change amount generated based on the heart rate.

이때, 이용되는 심박수(Ihr)는 최적 라이브러리 데이터(CamL_op)에 포함된 캐릭터의 심박수 또는 프리 카메라 워크 정보(Ipcw)에서 설정된 캐릭터의 심박수가 이용될 수 있다.In this case, as the used heart rate Ihr, a heart rate of a character included in the optimal library data CamL_op or a heart rate of a character set in the free camera work information Ipcw may be used.

이어서, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다(S320). 이때, 캐릭터 설정 정보(CI)는 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)를 포함할 수 있다. 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 자세 변화량(Vp)을 도출할 수 있다.Next, the animation module 220 derives the amount of change of the posture Vp for each part of the character's body based on the pattern of breathing change and the character setting information (CI) ( S320 ). In this case, the character setting information CI may include the character's gender (C1), age (C2), body type (C3), and size (C4). The animation module 220 may derive the posture change amount Vp by using the previously learned artificial intelligence module AIM1.

애니메이션 모듈(220)은 심박수(Ihr)를 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 설정 정보(CI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다. 예를 들어, 30세에 키 180cm의 뚱뚱한 체형의 남성에 대한 제1 캐릭터의 제1 보정값은 60세에 키 160cm의 마른 체형의 여성에 대한 제2 캐릭터의 제2 보정값보다 크게 형성될 수 있다.The animation module 220 may operate by first deriving a reference value of the posture change amount Vp based on the heart rate Ihr and correcting detailed numerical values using the character setting information CI. For example, the first correction value of the first character for a fat male with a height of 180 cm at the age of 30 may be greater than the second correction value of the second character for a skinny woman with a height of 160 cm at the age of 60. have.

또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다(S330). 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 모양 변화량(Vs)을 도출할 수 있다. 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다. 예를 들어, 심박수가 상대적으로 높은 경우 캐릭터는 흉식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 크게 설정될 수 있다. 반면, 심박수가 상대적으로 낮은 경우 캐릭터는 복식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 작게 설정될 수 있다.Also, the animation module 220 derives the shape change Vs for each part of the character's body based on the respiration rate change pattern and the character setting information CI (S330). The animation module 220 may derive the shape change amount Vs using the previously learned artificial intelligence module AIM1. The shape change Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character. For example, when the heart rate is relatively high, since the character mainly performs chest breathing, the chest shape change amount may be set to be larger than the abdominal shape change amount. On the other hand, when the heart rate is relatively low, since the character mainly breathes abdominally, the chest shape change amount may be set smaller than the abdominal shape change amount.

또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 땀 배출량(Vw)을 도출한다(S340). 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 캐릭터의 신체 각 부위에 대한 땀 배출량(Vw)을 도출할 수 있다.In addition, the animation module 220 derives the sweat amount (Vw) for each part of the character's body based on the respiratory rate change pattern and the character setting information (CI) (S340). The animation module 220 may derive the sweat amount Vw for each body part of the character by using the previously learned artificial intelligence module AIM1.

이때, S320 단계 내지 S340 단계의 동작순서는 변경되어 수행될 수 있음은 물론이다.In this case, it goes without saying that the operation order of steps S320 to S340 may be changed and performed.

이어서, 애니메이션 모듈(220)은 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 배경 정보(BI)를 기초로 보정한다(S350). 배경 정보(BI)는 배경(BG)의 온도(B1), 습도(B2) 및 시간대(B3)를 포함할 수 있다. 예를 들어, 온도가 상대적으로 높고 낮시간대의 제1 캐릭터의 경우, 온도가 상대적으로 낮고 밤시간대의 제2 캐릭터보다, 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)의 보정량이 클 수 있다. 다만, 이는 하나의 예시에 불과하고 본 발명이 이에 한정되는 것은 아니다.Next, the animation module 220 corrects the derived posture change amount Vp, shape change amount Vs, and sweat amount Vw based on the background information BI ( S350 ). The background information BI may include a temperature B1, a humidity B2, and a time zone B3 of the background BG. For example, in the case of the first character in the daytime with a relatively high temperature, the correction amount of posture change (Vp), shape change (Vs), and sweat output (Vw) compared to the second character in the night time period when the temperature is relatively low This can be large. However, this is only an example and the present invention is not limited thereto.

도 16은 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 다른 예를 설명하기 위한 순서도이다. 이하에서는 전술한 내용과 중복되는 내용은 생략하고 차이점을 위주로 설명하도록 한다.16 is a flowchart illustrating another example of an operation method of an animation module according to an embodiment of the present invention. Hereinafter, content overlapping with the above will be omitted, and differences will be mainly described.

도 16을 참조하면, 본 발명의 실시예에 따른 애니메이션 모듈(220)은, 레이아웃 대상이 되는 캐릭터의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다(S410). Referring to FIG. 16 , the animation module 220 according to an embodiment of the present invention estimates a respiratory rate change pattern according to the heart rate (Ihr) of the character to be laid out (S410).

이어서, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다(S420). 이때, 캐릭터 모션 정보(CI)는 캐릭터의 자세(I1), 피로도(I2) 및 감정(I3)에 관한 정보를 포함할 수 있다. 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 자세 변화량(Vp)을 도출할 수 있다. 애니메이션 모듈(220)은 호흡량 변화패턴을 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 모션 정보(MI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다. 예를 들어, 기립자세로 활력이 넘치는 기쁜 감정상태의 제1 캐릭터의 제1 보정값은, 앉은자세로 피로하고 우울한 제2 캐릭터의 제2 보정값보다 크게 형성될 수 있다.Next, the animation module 220 derives a change amount Vp for each part of the character's body based on the respiratory rate change pattern and the character motion information MI (S420). In this case, the character motion information CI may include information about the character's posture I1 , fatigue I2 , and emotion I3 . The animation module 220 may derive the posture change amount Vp by using the previously learned artificial intelligence module AIM1. The animation module 220 may operate by first deriving a reference value of the posture change amount Vp based on the respiratory rate change pattern, and correcting detailed numerical values using the character motion information MI. For example, the first correction value of the first character in the happy emotional state full of vitality in the standing posture may be greater than the second correction value of the second character in the tired and depressed state in the sitting position.

또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다(S430). 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 모양 변화량(Vs)을 도출할 수 있다. Also, the animation module 220 derives the shape change Vs for each part of the character body based on the respiration rate change pattern and the character motion information MI (S430). The animation module 220 may derive the shape change amount Vs using the previously learned artificial intelligence module AIM1.

또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 땀 배출량(Vw)을 도출한다(S440). 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 캐릭터의 신체 각 부위에 대한 땀 배출량(Vw)을 도출할 수 있다.In addition, the animation module 220 derives the sweat amount (Vw) for each part of the character's body based on the respiratory rate change pattern and the character motion information (MI) (S440). The animation module 220 may derive the sweat amount Vw for each body part of the character by using the previously learned artificial intelligence module AIM1.

이때, S420 단계 내지 S440 단계의 동작순서는 변경되어 수행될 수 있음은 물론이다.In this case, it goes without saying that the operation order of steps S420 to S440 may be changed and performed.

이어서, 애니메이션 모듈(220)은 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 배경 정보(BI)를 기초로 보정한다(S450). Next, the animation module 220 corrects the derived posture change amount Vp, shape change amount Vs, and sweat amount Vw based on the background information BI ( S450 ).

정리하면, 애니메이션 모듈(220)은 심박수(Ihr)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 도출한다. 이어서, 애니메이션 모듈(220)은 캐릭터 설정 정보(CI), 캐릭터 모션 정보(MI), 또는 배경 정보(BI)에 포함된 복수의 파라미터 중 일부를 이용하여, 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 보정할 수 있다. In summary, the animation module 220 derives the amount of change in posture (Vp), the amount of change in shape (Vs), and the amount of sweat (Vw) for each part of the character's body based on the heart rate (Ihr). Next, the animation module 220 uses some of a plurality of parameters included in the character setting information (CI), the character motion information (MI), or the background information (BI) to generate the derived posture change amount (Vp) and shape change amount (Vs), and sweat amount (Vw) can be corrected.

이하에서는, 산출된 캐릭터 모션 시퀀스(Scm)를 기초로 클로딩 모션 시퀀스(Sclm)를 생성하는 애니메이션 모듈(220)의 추가적인 구성에 대해 설명하도록 한다.Hereinafter, an additional configuration of the animation module 220 that generates the clothing motion sequence Sclm based on the calculated character motion sequence Scm will be described.

도 17은 도 2의 애니메이션 모듈의 추가적인 구성을 설명하기 위한 블록도이다. 도 18은 도 17의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다.FIG. 17 is a block diagram for explaining an additional configuration of the animation module of FIG. 2 . 18 is a flowchart illustrating an operation method of the animation module of FIG. 17 .

도 17 및 도 18을 참조하면, 애니메이션 모듈(220)은 클로딩 모션 산출 모듈(CMM) 및 클로딩 모션 보정 모듈(CMAM)을 포함한다. 17 and 18 , the animation module 220 includes a clothing motion calculation module (CMM) and a clothing motion compensation module (CMAM).

클로딩 모션 산출 모듈(CMM)은 캐릭터의 움직임을 나타내는 캐릭터 모션 시퀀스(Scm)를 기초로 프리 클로딩 모션 시퀀스(Sclmp)를 생성하여 출력한다(S510). 여기에서, 프리 클로딩 모션 시퀀스(Sclmp)는 캐릭터가 착용하고 있는 클로딩의 시계열적인 움직임을 나타내는 데이터를 의미한다. 이때, 클로딩 모션 산출 모듈(CMM)은 캐릭터 설정 정보(CI)와 캐릭터 모션 시퀀스(Scm)를 참조하여 프리 클로딩 모션 시퀀스(Sclmp)를 생성할 수 있다. The clothing motion calculation module (CMM) generates and outputs a pre-clothing motion sequence (Sclmp) based on the character motion sequence (Scm) indicating the movement of the character (S510). Here, the pre-clothing motion sequence (Sclmp) means data representing time-series movement of clothing worn by the character. In this case, the clothing motion calculation module CMM may generate the pre-clothing motion sequence Sclmp with reference to the character setting information CI and the character motion sequence Scm.

예를 들어, 클로딩 모션 산출 모듈(CMM)은 캐릭터 설정 정보(CI)에 포함된 캐릭터의 체형(C3), 사이즈(C4), 클로딩(C6)에 관한 데이터를 기초로, 캐릭터 모션 시퀀스(Scm)를 이용하여 클로딩의 움직임을 나타내는 프리 클로딩 모션 시퀀스(Sclmp)를 생성할 수 있다.For example, the clothing motion calculation module (CMM) performs a character motion sequence ( Scm) may be used to generate a pre-clothing motion sequence (Sclmp) indicating the movement of clothing.

클로딩 모션 보정 모듈(CMAM)은 캐릭터의 사실적인 움직임을 부가하기 위해 클로딩 모션 산출 모듈(CMM)에서 출력된 프리 클로딩 모션 시퀀스(Sclmp)를 보정하는 기능을 수행한다. 클로딩 모션 보정 모듈(CMAM)은 전술한 인공지능 모듈(AIM1)에서 출력된 땀 배출량(Vw)을 기초로 프리 클로딩 모션 시퀀스(Sclmp)를 보정하여 클로딩 모션 시퀀스(Sclmp)를 출력할 수 있다.The clothing motion compensation module (CMAM) performs a function of correcting the pre-clothing motion sequence (Sclmp) output from the clothing motion calculation module (CMM) in order to add realistic movement of the character. The clothing motion compensation module (CMAM) can output the clothing motion sequence (Sclmp) by correcting the pre-clothing motion sequence (Sclmp) based on the sweat output (Vw) output from the aforementioned artificial intelligence module (AIM1). have.

구체적으로, 클로딩 모션 보정 모듈(CMAM)은 캐릭터의 땀 배출량(Vw)을 기초로 캐릭터의 바디와 클로딩(C6) 사이의 마찰력(즉, 클로딩 마찰력(Ff))을 산출한다(S520).Specifically, the clothing motion compensation module (CMAM) calculates the frictional force (that is, the clothing frictional force (Ff)) between the character's body and the clothing (C6) based on the character's sweat amount (Vw) (S520) .

이어서, 클로딩 모션 보정 모듈(CMAM)은 산출된 클로딩 마찰력(Ff)을 기초로 프리 클로딩 모션 시퀀스(Sclmp)를 보정한 클로딩 모션 시퀀스(Sclm)를 출력한다(S530). 클로딩 모션 시퀀스(Sclm)는 캐릭터의 클로딩 모션 변화량(Vclm)을 포함한다. Next, the clothing motion compensation module CMAM outputs a clothing motion sequence Sclm obtained by correcting the pre-clothing motion sequence Sclmp based on the calculated clothing friction force Ff (S530). The clothing motion sequence Sclm includes a clothing motion variation Vclm of the character.

구체적으로, 캐릭터의 신체 중에 땀 배출량(Vw)이 상대적으로 많은 부위의 경우, 클로딩 모션 변화량(Vclm)은 캐릭터의 해당 신체 부위에 대한 자세 변화량(Vp) 및 모양 변화량(Vs)의 종속성이 높게 설정되도록 표현될 수 있다. Specifically, in the case of a part of the character's body that has a relatively large amount of sweat (Vw), the clothing motion variation (Vclm) has a high dependence on the character's posture variation (Vp) and shape variation (Vs) for the corresponding body part. It can be expressed to be set.

반면, 캐릭터의 신체 중에 땀 배출량(Vw)이 상대적으로 적은 부위의 경우, 클로딩 모션 변화량(Vclm)은 캐릭터의 해당 신체 부위에 대한 자세 변화량(Vp) 및 모양 변화량(Vs)의 종속성이 낮게 설정되도록 표현될 수 있다. 예를 들어, 땀 배출량(Vw)이 적은 부위는 캐릭터의 신체 부위의 움직임과는 별도로 중력 또는 관성에 대한 종속성이 높도록 클로딩 모션 변화량(Vclm)이 설정될 수 있다. 다만, 이는 하나의 예시에 불과하고, 본 발명이 이에 한정되는 것은 아니다.On the other hand, in the case of a part of the character's body that has a relatively small amount of sweat (Vw), the clothing motion variation (Vclm) has a low dependence on the character's posture variation (Vp) and shape variation (Vs) for the corresponding body part. can be expressed as possible. For example, the clothing motion variation Vclm may be set so that a portion with a small amount of sweat Vw has a high dependence on gravity or inertia separately from the movement of a body part of the character. However, this is only an example, and the present invention is not limited thereto.

클로딩 모션 보정 모듈(CMAM)은 이러한 캐릭터의 움직임과 클로딩 사이의 종속성을 클로딩 마찰력(Ff)을 통하여 수치로 환산할 수 있다. 즉, 클로딩 모션 보정 모듈(CMAM)은 클로딩 모션 변화량(Vclm)을 클로딩 마찰력(Ff)과 캐릭터의 자세 변화량(Vp) 및 모양 변화량(Vs)을 기초로 산출함으로써 클로딩 모션 시퀀스(Sclm)를 생성할 수 있다.The clothing motion compensation module (CMAM) may convert the dependence between the movement of the character and the clothing into a numerical value through the clothing friction force (Ff). That is, the clothing motion compensation module (CMAM) calculates the clothing motion change amount (Vclm) based on the clothing friction force (Ff) and the character's posture change amount (Vp) and shape change amount (Vs) by calculating the clothing motion sequence (Sclm) ) can be created.

이어서, 애니메이션 모듈(220)은 캐릭터 모션 시퀀스(Scm), 클로딩 모션 시퀀스(Sclm), 및 최적 라이브러리 데이터(CamL_op)에 포함된 여러 정보들을 기초로 레이아웃 작업 및 애니메이션 작업을 수행한다.Next, the animation module 220 performs layout work and animation work based on various pieces of information included in the character motion sequence (Scm), the clothing motion sequence (Sclm), and the optimal library data (CamL_op).

이를 통해, 본 발명의 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은 심박수를 기초로 캐릭터의 호흡과 관련된 디테일한 움직임의 변화를 표현함으로써 리얼리티를 극대화할 수 있다.Through this, the artificial intelligence-based metaverse content production system according to embodiments of the present invention can maximize reality by expressing changes in detailed movements related to breathing of a character based on heart rate.

또한, 인공지능을 통해서 기존에 제작된 애니메이션 파일의 캐릭터에 대한 모션과 관련된 파라미터를 유형별로 분류하고, 새로 제작되는 애니메이션에 파라미터의 세부사항을 적용시켜 애니메이션 제작 기간을 대폭 단축시키고, 애니메이션의 품질도 더 향상시킬 수 있다. 나아가, 딥러닝 모듈을 통해서 빅데이터의 유형을 분류하는 작업을 수행하여 인력의 소모를 최소화하고, 높은 효율을 도모할 수 있다. In addition, through artificial intelligence, motion-related parameters for characters in existing animation files are classified by type, and the details of parameters are applied to newly produced animations to significantly shorten the animation production period and improve animation quality. can be further improved. Furthermore, it is possible to minimize the consumption of manpower and promote high efficiency by performing the task of classifying the types of big data through the deep learning module.

이하에서는, 애니메이션 단계에 이어서 렌더링 단계를 수행하는 렌더링 모듈(230)의 구조 및 동작 방법에 대해 설명하도록 한다.Hereinafter, the structure and operation method of the rendering module 230 that performs the rendering step following the animation step will be described.

도 19는 도 2의 렌더링 모듈을 설명하기 위한 블록도이다. 도 20은 도 19의 렌더링 모듈의 동작 방법을 설명하기 위한 순서도이다. 도 21은 도 20에 나타난 파라미터의 산출 흐름을 설명하기 위한 개념도이다.19 is a block diagram illustrating the rendering module of FIG. 2 . 20 is a flowchart illustrating an operation method of the rendering module of FIG. 19 . FIG. 21 is a conceptual diagram for explaining a flow of calculating a parameter shown in FIG. 20 .

도 19 내지 도 21을 참조하면, 렌더링 모듈(230)은 인공지능 모듈(AIM2) 및 셰이더 모듈(SM)을 포함할 수 있다.19 to 21 , the rendering module 230 may include an artificial intelligence module AIM2 and a shader module SM.

인공지능 모듈(AIM2)은 심박수(Ihr)를 수신한다. 인공지능 모듈(AIM2)은 심박수(Ihr)를 입력받고, 이에 대한 출력으로 캐릭터의 신체 각 부위별 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 제공한다. 인공지능 모듈(AIM2)은 딥러닝 모듈일 수 있다. 인공지능 모듈(AIM2)은 이미 트레이닝 데이터를 이용하여 트레이닝이 완료된 상태일 수 있다. 이때, 인공지능 모듈(AIM2)은 지도 학습을 이용할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니고, 인공지능 모듈(AIM2)은 비지도 학습을 이용할 수도 있다.The artificial intelligence module (AIM2) receives the heart rate (Ihr). The artificial intelligence module (AIM2) receives the heart rate (Ihr) and provides the sweat output (Vw) and/or blood flow (Vbfr) for each body part of the character as an output. The artificial intelligence module (AIM2) may be a deep learning module. The artificial intelligence module AIM2 may have already been trained using training data. In this case, the artificial intelligence module (AIM2) may use supervised learning. However, the present embodiment is not limited thereto, and the artificial intelligence module AIM2 may use unsupervised learning.

인공지능 모듈(AIM2)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Artificial intelligence module (AIM2) is, for example, DFN (Deep Feedforward Network), CNN (Convolutional Neural Network), GNN (Graph Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), SVM (Support vector) machine), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN), and Spiking (SNN) Neural Network) may be included. However, the present embodiment is not limited thereto.

다른 예로, 인공지능 모듈(AIM2)은 심박수(Ihr)와 함께, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 수신할 수 있다. 인공지능 모듈(AIM2)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력받고, 이에 대한 출력으로 캐릭터의 신체 각 부위의 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 출력할 수 있다. As another example, the artificial intelligence module AIM2 may receive the character motion information MI, the background information BI, and the character setting information CI along with the heart rate Ihr. The artificial intelligence module (AIM2) receives heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI), and outputs sweat output (Vw) from each part of the character's body. and/or the blood flow Vbfr may be output.

이때, 인공지능 모듈(AIM2)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력 노드로 하는 입력 레이어와, 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 출력 노드로 하는 출력 레이어와, 상기 입력 레이어와 상기 출력 레이어 사이에 배치되는 하나 이상의 히든 레이어를 포함하고, 상기 입력 노드와 상기 출력 노드 사이의 노드 및 에지의 가중치는 상기 학습부의 학습 과정에 의해 업데이트될 수 있다.At this time, the artificial intelligence module (AIM2) includes an input layer using heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI) as input nodes, and sweat output (Vw) and/or an output layer having blood flow (Vbfr) as an output node, and at least one hidden layer disposed between the input layer and the output layer, wherein the weights of nodes and edges between the input node and the output node are determined by the learning unit It can be updated by the learning process.

셰이더 모듈(SM)은 인공지능 모듈(AIM2)에서 출력된 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 기초로, 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 이용하여 레이아웃 대상이 되는 캐릭터의 셰이딩(Shading)을 수행하기 위한 캐릭터 셰이딩 데이터(Dcs)를 생성한다.The shader module (SM) is a layout target using background information (BI) and character setting information (CI) based on sweat discharge (Vw) and/or blood flow (Vbfr) output from the artificial intelligence module (AIM2). Character shading data (Dcs) for performing character shading is generated.

여기에서, 셰이딩(Shading)은 물체와 광원 간의 거리 및 각도에 따라 물체 표면의 조도를 변화시키는 작업을 의미한다. 셰이딩(Shading) 단계에서 캐릭터를 구성하는 각각의 폴리곤의 표면은 광원의 위치 및 밝기, 색깔에 따라 음영이 부가됨으로써 물체에 대한 입체감과 사실감을 표현할 수 있다.Here, shading refers to the operation of changing the illuminance of the object surface according to the distance and angle between the object and the light source. In the shading stage, the surface of each polygon constituting the character is shaded according to the position, brightness, and color of the light source, thereby expressing three-dimensionality and realism of the object.

구체적으로, 도 20을 참조하면, 셰이더 모듈(SM)은 스킨 셰이딩(skin shading), Ÿ‡ 셰이딩(wet shading), 글리터 셰이딩(glitter shading)을 수행할 수 있다. Specifically, referring to FIG. 20 , the shader module SM may perform skin shading, Ÿ‡ shading, and glitter shading.

여기에서, 스킨 셰이딩은 사람의 피부에 가까운 효과를 내기 위한 쉐이딩을 의미한다. 즉, 스킨 셰이딩을 통해 인간의 피부의 색감과 질감은 물론 반사와 투과에 있어서 독특하고 복잡한 구조를 표현할 수 있다. 예를 들어, 피부의 반투명한 효과를 위해 SSS(Sub-Surface Scattering)기법을 이용할 수 있으며, SSS 기법은 피부나 종이 등 반투명 물체들의 표면에 빛이 닿아서 투과하지 못하고 산란되면서 이뤄지는 현상을 표현할 수 있다.Here, the skin shading means shading to produce an effect close to human skin. In other words, through skin shading, it is possible to express a unique and complex structure in reflection and transmission as well as the color and texture of human skin. For example, the SSS (Sub-Surface Scattering) technique can be used for the translucent effect of the skin, and the SSS technique can express the phenomenon that occurs when light hits the surface of a translucent object such as skin or paper, does not transmit, but is scattered. have.

Ÿ‡ 셰이딩은 사람의 피부에 맺힌 땀, 물기 등을 표현하고, 피부의 수분감을 나타내어 피부의 사실감을 강조하기 위한 쉐이딩을 의미한다.Ÿ‡ Shading refers to shading to emphasize the realism of the skin by expressing sweat, moisture, etc. formed on the skin of the person and expressing the moisture of the skin.

글리터 셰이딩은 피부의 수분감으로 인해 반사되거나 반짝이는 효과를 내기 위한 쉐이딩을 의미한다. Glitter shading refers to shading to create a reflective or shiny effect due to the moisture of the skin.

셰이더 모듈(SM)은 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 기초로 스킨 셰이딩, Ÿ‡ 셰이딩 및 글리터 셰이딩 중 적어도 하나 이상을 수행할 수 있다. 스킨 셰이딩, Ÿ‡ 셰이딩, 글리터 셰이딩은 일부가 통합되거나, 별도의 단계로 구분되어 셰이더 모듈(SM)에 의해 수행될 수 있다. 또한, 셰이더 모듈(SM)은 전술한 셰이딩의 일부만을 수행하거나, 추가적인 셰이딩을 수행할 수 있음은 물론이다.The shader module SM may perform at least one of skin shading, Ÿ‡ shading, and glitter shading based on sweat discharge (Vw) and/or blood flow (Vbfr). Skin shading, Ÿ‡ shading, and glitter shading can be partially integrated or divided into separate steps and performed by the shader module (SM). Also, it goes without saying that the shader module SM may perform only a part of the above-described shading or additional shading.

구체적으로, 셰이더 모듈(SM)은 산출된 땀 배출량(Vw)을 기초로, 스킨 셰이딩, Ÿ‡ 셰이딩 및 글리터 셰이딩 중 적어도 하나 이상을 수행할 수 있다. 예를 들어, 셰이더 모듈(SM)은 스킨 셰이딩을 통해, 땀 배출량(Vw)이 상대적으로 많은 부분의 피부에 대한 투과도를 증가시킬 수 있다. 다른 예를 들어, 셰이더 모듈(SM)은 Ÿ‡ 셰이딩을 통해, 땀 배출량(Vw)이 상대적으로 많은 부분의 피부에 수분감을 표현할 수 있다. 또 다른 예를 들어, 셰이더 모듈(SM)은 글리터 셰이딩을 통해, 땀 배출량(Vw)이 상대적으로 많은 부분의 피부에 반사도를 증가시키거나 반짝임 효과를 부여할 수 있다. Specifically, the shader module SM may perform at least one of skin shading, Ÿ‡ shading, and glitter shading based on the calculated sweat amount Vw. For example, the shader module SM may increase the permeability of a portion of the skin having a relatively large amount of sweat output (Vw) through skin shading. As another example, the shader module (SM) can express moisture on the skin in areas with relatively high sweat output (Vw) through Ÿ‡ shading. As another example, the shader module SM may increase reflectivity or impart a shimmering effect to the skin of a portion having a relatively large sweat output (Vw) through glitter shading.

또한, 셰이더 모듈(SM)은 산출된 혈류량(Vbfr)을 기초로, 스킨 셰이딩을 수행하여 캐릭터의 피부색을 조절할 수 있다. 예를 들어, 셰이더 모듈(SM)은 스킨 셰이딩을 통해, 혈류량(Vbfr)이 상대적으로 큰 부분의 피부에 대해 붉은색 계열을 증가시켜, 홍조 효과를 연출함으로서 사실감을 부여할 수 있다.Also, the shader module SM may perform skin shading based on the calculated blood flow Vbfr to adjust the skin color of the character. For example, the shader module SM may increase the red color of the skin in a portion having a relatively large blood flow (Vbfr) through skin shading, thereby creating a redness effect to give realism.

도 21을 참조하면, 렌더링 모듈(230)은 캐릭터의 심박수(Ihr)에 따른 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 산출한다(S610). 이때, 렌더링 모듈(230)은 전술한 인공지능 모듈(AIM2)을 이용하여 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 산출할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.Referring to FIG. 21 , the rendering module 230 calculates a sweat discharge Vw and/or blood flow Vbfr according to the character's heart rate Ihr ( S610 ). In this case, the rendering module 230 may calculate the sweat amount Vw and/or the blood flow Vbfr using the aforementioned artificial intelligence module AIM2, but the present invention is not limited thereto.

이어서, 렌더링 모듈(230)은 배경 정보(BI)에 포함된 시간대(B3)에 관한 정보를 기초로 광원의 위치 및 광량을 포함하는 광원정보를 산출한다(S620). 추가적으로, 렌더링 모듈(230)은 배경 정보(BI)에 포함된 지역에 관한 정보(예를 들어, 위도, 경도, 일조량, 날씨, 구름량 등)를 기초로 미리 정해진 계산식을 통하여 광원정보를 세밀하게 도출할 수 있다. 또한, 광원정보는 미리 정해진 인조광과 자연광으로 구분되어 포함될 수 있다.Next, the rendering module 230 calculates light source information including the position and amount of light of the light source based on the information about the time period B3 included in the background information BI ( S620 ). Additionally, the rendering module 230 refines the light source information through a predetermined calculation formula based on information about the region included in the background information BI (eg, latitude, longitude, amount of sunshine, weather, amount of clouds, etc.) can be derived In addition, the light source information may be divided into predetermined artificial light and natural light and included.

이어서, 렌더링 모듈(230)은 산출된 광원정보 및 캐릭터 설정 정보(CI)와, 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 기초로, 캐릭터 셰이딩 데이터(Dcs)를 생성한다(S630). 캐릭터 셰이딩 데이터(Dcs)는 전술한 스킨 셰이딩, Ÿ‡ 셰이딩 및 글리터 셰이딩 중 적어도 하나 이상을 수행하기 위한 데이터를 의미한다.Next, the rendering module 230 generates character shading data DCs based on the calculated light source information and character setting information CI, and sweat discharge Vw and/or blood flow Vbfr (S630). The character shading data Dcs means data for performing at least one of the aforementioned skin shading, Ÿ‡ shading, and glitter shading.

이어서, 렌더링 모듈(230)은 생성된 캐릭터 셰이딩 데이터(Dcs)를 기초로 캐릭터의 렌더링 단계를 수행한다(S640). Next, the rendering module 230 performs the rendering of the character based on the generated character shading data Dcs (S640).

즉, 본 발명은 캐릭터의 심박수(Ihr)를 기초로 산출한 땀 배출량(Vw), 혈류량(Vbfr) 등의 데이터를 이용하여 캐릭터의 피부에 표현되는 땀, 반짝임 또는 피부색 변화 등을 렌더링 단계에서 세밀하게 표현할 수 있다. 제작자는 이러한 캐릭터의 디테일한 변화를 수작업으로 일일이 정의하고 설정하는 것이 아닌, 작업 지시(Wp)에서 캐릭터 또는 배경의 설정값을 조정하는 것만으로 캐릭터의 디테일한 외관의 변화를 표현할 수 있어, 캐릭터의 리얼리티를 극대화하고, 애니메이션 제작의 편의성 및 작업의 속도를 높일 수 있다.That is, the present invention uses data such as sweat discharge (Vw) and blood flow (Vbfr) calculated based on the character's heart rate (Ihr) to detail sweat, glitter, or skin color change expressed on the character's skin in the rendering stage. can be expressed Rather than manually defining and setting these detailed changes in characters, the creator can express detailed changes in the character's appearance just by adjusting the settings of the character or background in the work instruction (Wp). You can maximize the reality, and increase the convenience of animation production and the speed of work.

또한, 본 발명은 생체정보를 기초로 캐릭터 신체의 각 부위별 자세 변화량, 모양 변화량, 및 땀 배출량을 도출하고, 캐릭터 설정 정보, 캐릭터 모션 정보 또는 배경 정보에 포함된 복수의 파라미터 중 일부를 이용하여 도출된 데이터들을 보정함으로써, 캐릭터의 움직임 및 캐릭터의 클로딩 움직임에 대한 리얼리티를 극대화할 수 있다.In addition, the present invention derives the amount of change in posture, change in shape, and amount of sweat for each part of the character's body based on biometric information, and uses some of a plurality of parameters included in character setting information, character motion information, or background information. By correcting the derived data, it is possible to maximize the reality of the movement of the character and the movement of the character's clothing.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and a person skilled in the art to which this embodiment belongs may make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present embodiment.

Claims (10)

제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보에 관련된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 렌더링 작업을 수행하고, 애니메이션 이미지를 생성하는 메타버스 컨텐츠 제작 장치; 및
상기 메타버스 컨텐츠 제작 장치에서 생성된 상기 프리 카메라 워크 정보를 제공받고, 상기 프리 카메라 워크 정보를 이용하여 상기 최적 라이브러리 데이터를 선정하고, 상기 선정된 최적 라이브러리 데이터를 상기 메타버스 컨텐츠 제작 장치로 전송하는 빅데이터 라이브러리를 포함하되,
상기 프리 카메라 워크 정보는, 캐릭터의 심박수를 포함하는 캐릭터 모션 정보를 포함하고,
상기 메타버스 컨텐츠 제작 장치는,
상기 작업 지시를 기초로 상기 캐릭터와 상기 캐릭터가 착용한 클로딩을 모델링하는 모델링 모듈; 및
모델링된 상기 캐릭터 및 상기 클로딩의 움직임을 생성하는 애니메이션 모듈을 포함하고,
상기 애니메이션 모듈은,
상기 캐릭터의 심박수를 추출하고,
상기 심박수를 기초로 상기 캐릭터의 폐용적 변화량, 자세 변화량, 모양 변화량 및 상기 캐릭터의 신체 부위별 땀 배출량을 포함하는 제1 데이터를 도출하되, 상기 폐용적 변화량은 상기 캐릭터의 폐의 크기에 대한 시계열적인 변화량을 의미하고, 상기 자세 변화량은 상기 캐릭터의 움직임을 표현하는 복수의 포인트들의 시계열적인 변화량을 의미하고, 상기 모양 변화량은 상기 캐릭터의 가슴 모양 변화량 및 복부 모양 변화량을 포함하는 상기 캐릭터의 신체 부위의 모양 변화량을 의미하고,
상기 심박수가 미리 정해진 기준치 보다 높은 경우, 상기 가슴 모양 변화량은 상기 복부 모양 변화량보다 크게 설정되고,
상기 심박수가 미리 정해진 기준치 보다 낮은 경우, 상기 가슴 모양 변화량은 상기 복부 모양 변화량보다 작게 설정되며,
상기 제1 데이터를, 상기 캐릭터 모션 정보, 배경 정보 및 캐릭터 설정 정보를 포함하는 상기 최적 라이브러리 데이터를 기초로 보정한 제2 데이터를 도출하고,
상기 제2 데이터를 기초로, 상기 캐릭터가 착용하고 있는 클로딩의 시계열적인 움직임을 나타내는 프리 클로딩 모션 시퀀스를 생성하고,
상기 프리 클로딩 모션 시퀀스를, 상기 땀 배출량을 기초로 산출된 상기 캐릭터의 바디와 상기 클로딩 사이의 마찰력을 기초로 보정하여 클로딩 모션 시퀀스를 생성하되, 상기 클로딩 모션 시퀀스는 상기 캐릭터에 대한 클로딩 모션 변화량을 포함하고,
상기 클로딩 모션 시퀀스를 기초로 상기 클로딩의 모션 변화를 표현하고,
상기 심박수를 기초로 상기 캐릭터의 혈류량을 더 도출하고,
상기 캐릭터의 땀 배출량 및 상기 캐릭터의 혈류량을 기초로 캐릭터 셰이딩 데이터를 생성하고,
상기 캐릭터 셰이딩 데이터를 이용하여, 상기 캐릭터의 피부색 변화량을 표현하는 것을 포함하는
인공지능 기반 메타버스 컨텐츠 제작 시스템.
Receive a work instruction from a producer, generate free camera work information according to the work instruction, receive optimal library data related to the free camera work information, apply the optimal library data to perform rendering, and an animation image a metaverse content production device that generates and
receiving the free camera work information generated by the metaverse content production apparatus, selecting the optimal library data using the free camera work information, and transmitting the selected optimal library data to the metaverse content production apparatus including a big data library,
The pre-camera walk information includes character motion information including a heart rate of the character,
The metaverse content production device,
a modeling module for modeling the character and the clothing worn by the character based on the work instruction; and
Comprising an animation module for generating the movement of the modeled character and the clothing,
The animation module is
extracting the heart rate of the character;
Based on the heart rate, first data including the amount of change in lung volume of the character, the amount of change in posture, the amount of change in shape, and the amount of sweat per body part of the character are derived, wherein the amount of change in lung volume is a time series of the size of the character's lungs body part of the character including a change in chest shape and a change in abdominal shape of the character, the amount of change in the posture means a change in time series of a plurality of points expressing the movement of the character, and the amount of change in the shape of the character means the amount of change in the shape of
When the heart rate is higher than a predetermined reference value, the chest shape change amount is set to be larger than the abdominal shape change amount,
When the heart rate is lower than a predetermined reference value, the chest shape change amount is set to be smaller than the abdominal shape change amount,
Deriving second data obtained by correcting the first data based on the optimal library data including the character motion information, background information, and character setting information,
Based on the second data, generating a pre-clothing motion sequence representing the time-series movement of the clothing worn by the character,
A clothing motion sequence is generated by correcting the pre-clothing motion sequence based on the friction force between the body of the character and the clothing calculated based on the sweat amount, wherein the clothing motion sequence is for the character. including clothing motion variation,
Expressing a motion change of the clothing based on the clothing motion sequence,
further derive the blood flow of the character based on the heart rate,
generating character shading data based on the character's sweat output and the character's blood flow,
Using the character shading data to express the amount of skin color change of the character
An artificial intelligence-based metaverse content creation system.
제1 항에 있어서,
상기 메타버스 컨텐츠 제작 장치는,
상기 최적 라이브러리 데이터에 포함된 상기 배경 정보를 기초로 광량 및 광원위치를 포함하는 광원정보를 산출하고,
상기 산출된 광원정보, 상기 최적 라이브러리 데이터에 포함된 상기 캐릭터 모션 정보, 상기 캐릭터 설정 정보, 상기 배경 정보를 더 이용하여 상기 캐릭터 셰이딩 데이터를 생성하고,
상기 생성된 캐릭터 셰이딩 데이터를 기초로 상기 캐릭터의 렌더링을 수행하는 렌더링 모듈을 포함하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
According to claim 1,
The metaverse content production device,
Calculate light source information including light quantity and light source position based on the background information included in the optimal library data,
generating the character shading data using the calculated light source information, the character motion information included in the optimal library data, the character setting information, and the background information;
and a rendering module for rendering the character based on the generated character shading data.
제2 항에 있어서,
상기 캐릭터 모션 정보는, 상기 캐릭터의 자세, 피로도, 및 감정 중 적어도 하나와, 상기 캐릭터의 심박수를 포함하고,
상기 배경 정보는, 레이아웃 작업에 이용되는 배경의 온도, 습도, 및 시간대 중 적어도 하나를 포함하고,
상기 캐릭터 설정 정보는, 상기 캐릭터의 성별, 나이, 체형, 사이즈, 피부색, 및 클로딩 중 적어도 하나를 포함하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
3. The method of claim 2,
The character motion information includes at least one of a posture, fatigue, and emotion of the character, and a heart rate of the character,
The background information includes at least one of temperature, humidity, and time zone of the background used for layout work,
The character setting information is an artificial intelligence-based metaverse content creation system including at least one of gender, age, body type, size, skin color, and clothing of the character.
제2 항에 있어서,
상기 렌더링 모듈은,
상기 심박수를 입력받고, 이에 대한 출력으로 상기 혈류량을 출력하는 인공지능 모듈과,
상기 인공지능 모듈에서 출력된 상기 혈류량을 상기 배경 정보 또는 상기 캐릭터 설정 정보를 기초로 보정하여 상기 캐릭터 셰이딩 데이터를 출력하는 셰이더 모듈을 포함하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
3. The method of claim 2,
The rendering module,
an artificial intelligence module that receives the heart rate and outputs the blood flow as an output;
and a shader module outputting the character shading data by correcting the blood flow output from the artificial intelligence module based on the background information or the character setting information.
제1 항에 있어서,
상기 빅데이터 라이브러리는,
적어도 하나의 카메라 워크 라이브러리 데이터를 저장하는 라이브러리 데이터베이스와,
상기 카메라 워크 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 상기 최적 라이브러리 데이터를 선정하는 최적 라이브러리 선정 모듈을 포함하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
According to claim 1,
The big data library is
a library database for storing at least one camera work library data;
and an optimal library selection module for selecting the optimal library data by comparing the camera work library data with the free camera work information.
제5 항에 있어서,
상기 프리 카메라 워크 정보에 포함된 상기 캐릭터 모션 정보의 유형에 관한 모션 파라미터를 생성하는 파라미터 변환 모듈을 더 포함하고,
상기 최적 라이브러리 선정 모듈은,
상기 모션 파라미터를 통해 상기 카메라 워크 라이브러리 데이터 중 일부를 필터링하여 필터링 데이터를 선정하고, 상기 필터링 데이터 중 상기 프리 카메라 워크 정보와 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
6. The method of claim 5,
Further comprising a parameter conversion module for generating a motion parameter related to the type of the character motion information included in the free camera walk information,
The optimal library selection module is
An artificial intelligence-based metaverse content production system that filters some of the camera work library data through the motion parameter to select filtering data, and selects data most similar to the free camera work information among the filtered data as the optimal library data .
삭제delete 삭제delete 삭제delete 삭제delete
KR1020210115957A 2021-08-31 2021-08-31 Artificial intelligence-based metaverse contents making system for using biometric information KR102343582B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210115957A KR102343582B1 (en) 2021-08-31 2021-08-31 Artificial intelligence-based metaverse contents making system for using biometric information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210115957A KR102343582B1 (en) 2021-08-31 2021-08-31 Artificial intelligence-based metaverse contents making system for using biometric information

Publications (1)

Publication Number Publication Date
KR102343582B1 true KR102343582B1 (en) 2021-12-29

Family

ID=79176761

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210115957A KR102343582B1 (en) 2021-08-31 2021-08-31 Artificial intelligence-based metaverse contents making system for using biometric information

Country Status (1)

Country Link
KR (1) KR102343582B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102439122B1 (en) 2022-03-02 2022-09-01 주식회사 파이미디어랩 User location analysis monitoring system in metaverse environment
KR102445134B1 (en) * 2022-03-03 2022-09-19 가천대학교 산학협력단 System And Method For Generating An Avatar Based On A User's Information And Providing An NFT For Avatar
KR102445133B1 (en) * 2022-03-03 2022-09-19 가천대학교 산학협력단 System That Creates An Avatar, Provides It To An External Metaverse Platforms, And Updates The Avatar, And Method Thereof
KR102445135B1 (en) * 2022-03-03 2022-09-20 가천대학교 산학협력단 System And Method For Providing Forgery And Falsification Verification Of Avatar Information For Avatar Generation On The Metaverse Platform
KR102461267B1 (en) * 2022-07-12 2022-11-01 주식회사 에이펀인터렉티브 Metaverse character making system and method for using voice data

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
KR20060032409A (en) * 2004-10-12 2006-04-17 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
JP2008107904A (en) * 2006-10-23 2008-05-08 National Institute Of Information & Communication Technology Text and animation service apparatus, and computer program
KR20170068741A (en) * 2015-12-10 2017-06-20 주식회사 매니아마인드 Method and program for providing virtual fitting service
KR20200071990A (en) * 2018-12-12 2020-06-22 삼성전자주식회사 Electronic device and method for displaying three dimensions image
KR20210112853A (en) * 2020-03-06 2021-09-15 주식회사 어라운드이펙트 Method and Apparatus for automatic placement of animation data Based on Text

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
KR20060032409A (en) * 2004-10-12 2006-04-17 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
JP2008107904A (en) * 2006-10-23 2008-05-08 National Institute Of Information & Communication Technology Text and animation service apparatus, and computer program
KR20170068741A (en) * 2015-12-10 2017-06-20 주식회사 매니아마인드 Method and program for providing virtual fitting service
KR20200071990A (en) * 2018-12-12 2020-06-22 삼성전자주식회사 Electronic device and method for displaying three dimensions image
KR20210112853A (en) * 2020-03-06 2021-09-15 주식회사 어라운드이펙트 Method and Apparatus for automatic placement of animation data Based on Text

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102439122B1 (en) 2022-03-02 2022-09-01 주식회사 파이미디어랩 User location analysis monitoring system in metaverse environment
KR102445134B1 (en) * 2022-03-03 2022-09-19 가천대학교 산학협력단 System And Method For Generating An Avatar Based On A User's Information And Providing An NFT For Avatar
KR102445133B1 (en) * 2022-03-03 2022-09-19 가천대학교 산학협력단 System That Creates An Avatar, Provides It To An External Metaverse Platforms, And Updates The Avatar, And Method Thereof
KR102445135B1 (en) * 2022-03-03 2022-09-20 가천대학교 산학협력단 System And Method For Providing Forgery And Falsification Verification Of Avatar Information For Avatar Generation On The Metaverse Platform
KR102461267B1 (en) * 2022-07-12 2022-11-01 주식회사 에이펀인터렉티브 Metaverse character making system and method for using voice data

Similar Documents

Publication Publication Date Title
KR102343582B1 (en) Artificial intelligence-based metaverse contents making system for using biometric information
US11538216B2 (en) Dynamically estimating light-source-specific parameters for digital images using a neural network
KR102341866B1 (en) System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof
US10846903B2 (en) Single shot capture to animated VR avatar
US10540817B2 (en) System and method for creating a full head 3D morphable model
JP6522060B2 (en) Object recognition device, classification tree learning device and operation method thereof
US8624901B2 (en) Apparatus and method for generating facial animation
US20200151963A1 (en) Training data set generation apparatus and method for machine learning
EP3335195A2 (en) Methods of generating personalized 3d head models or 3d body models
CN108961369A (en) The method and apparatus for generating 3D animation
CN103262126B (en) Image processing apparatus, illumination processing device and method thereof
CN113628327A (en) Head three-dimensional reconstruction method and equipment
CN112784621A (en) Image display method and apparatus
CN106447763A (en) Face image three-dimensional reconstruction method for fusion of sparse deformation model and principal component regression algorithm
Thalmann et al. Modeling of populations
KR102316114B1 (en) Artificial intelligence-based layout system utilizing animatic image and big data and method therefor
Wang et al. Digital twin: Acquiring high-fidelity 3D avatar from a single image
CN116134491A (en) Multi-view neuro-human prediction using implicit differentiable renderers for facial expression, body posture morphology, and clothing performance capture
CN109658508A (en) A kind of landform synthetic method of multiple dimensioned details fusion
KR102343581B1 (en) Artificial intelligence-based digital-idol making system for enhancing character reality using biometric information
KR100889854B1 (en) Method and Apparatus for creating caricature Video
KR102341863B1 (en) Artificial intelligence-based digital-idol contents making system using biometric information
KR102316111B1 (en) Artificial intelligence-based animation layout system utilizing big data and method therefor
US20230050535A1 (en) Volumetric video from an image source
Vladimirov et al. Overview of Methods for 3D Reconstruction of Human Models with Applications in Fashion E-Commerce

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant