KR102343582B1 - Artificial intelligence-based metaverse contents making system for using biometric information - Google Patents
Artificial intelligence-based metaverse contents making system for using biometric information Download PDFInfo
- Publication number
- KR102343582B1 KR102343582B1 KR1020210115957A KR20210115957A KR102343582B1 KR 102343582 B1 KR102343582 B1 KR 102343582B1 KR 1020210115957 A KR1020210115957 A KR 1020210115957A KR 20210115957 A KR20210115957 A KR 20210115957A KR 102343582 B1 KR102343582 B1 KR 102343582B1
- Authority
- KR
- South Korea
- Prior art keywords
- character
- information
- data
- module
- metaverse
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
- H04N5/9305—Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
Abstract
Description
본 발명은 생체정보를 이용한 인공지능 기반 메타버스 컨텐츠 제작 시스템에 관한 것이다. 구체적으로, 본 발명은 메타버스 컨텐츠 제작 과정에서 캐릭터와 관련된 생체정보를 기초로 메타버스 캐릭터의 디테일한 움직임(예를 들어, 땀의 반짝임, 또는 클로딩의 마찰력 변화)이나 외형(예를 들어, 혈류량 변화에 따른 피부색 변화)을 자동으로 표현하여, 캐릭터의 리얼리티를 극대화하는 인공지능 기반 메타버스 컨텐츠 제작 시스템에 관한 것이다.The present invention relates to an artificial intelligence-based metaverse content production system using biometric information. Specifically, the present invention relates to detailed movements (eg, glitter of sweat, or change in frictional force of clothing) or appearance (eg, It relates to an artificial intelligence-based metaverse content production system that automatically expresses changes in skin color due to changes in blood flow) to maximize the reality of a character.
메타버스 컨텐츠 제작은 매우 복잡한 절차를 통해서 이루어진다. 종래의 메타버스 컨텐츠 제작의 경우 3D 그래픽을 다루는 DCC(Digital Content Creation tools)을 이용하여 선형적인 방식으로 제작이 이루어진다. 구체적으로, 현재의 메타버스 컨텐츠 제작 방식은 모델링 단계, 애니메이션 단계, 렌더링 단계 및 컴포짓 단계를 순차적으로 수행하여 최종적인 애니메이션 이미지가 생성된다. The production of metaverse content is done through a very complicated procedure. In the case of the conventional metaverse content production, production is performed in a linear manner using Digital Content Creation tools (DCC) handling 3D graphics. Specifically, in the current metaverse content production method, a final animation image is generated by sequentially performing a modeling step, an animation step, a rendering step, and a compositing step.
이러한 방식의 메타버스 컨텐츠 제작 방법에서는 캐릭터의 리얼리티를 살리기 위해 다양한 방식을 이용하고 있다. 가장 대표적으로 복수의 센서를 부착한 연기자의 움직임을 기초로 3D 메쉬를 생성한 뒤, 생성된 3D 메쉬를 캐릭터에 적용함으로써 캐릭터에 생동감을 불러 일으키는 작업을 진행하고 있다.In this method of creating metaverse content, various methods are used to enhance the reality of the character. The most representative work is to create a 3D mesh based on the movement of an actor with multiple sensors, and then apply the generated 3D mesh to the character to bring the character to life.
메타버스 컨텐츠 제작 과정에서는 다양한 캐릭터와 배경이 이용되고, 각 캐릭터와 배경에 대한 설정 및 상황이 다를 수 있다. 다만, 이러한 캐릭터와 배경의 설정 및 상황이 달라질 때마다, 연기자가 새로 연기를 하여 3D 메쉬를 생성하고 적용하는 경우 시간과 비용이 증가되며, 새로운 캐릭터 및 상황에 따른 변화에 대한 즉각적인 적용이 어렵다는 문제가 존재하였다.Various characters and backgrounds are used in the metaverse content production process, and settings and situations for each character and background may be different. However, whenever the settings and circumstances of these characters and backgrounds are changed, time and cost increase when an actor performs a new role and creates and applies a 3D mesh, and it is difficult to immediately apply changes according to new characters and situations was present.
따라서, 캐릭터의 리얼리티를 살리고, 제작비용을 절감하기 위한 다양한 메타버스 컨텐츠 제작의 자동화된 추가적인 처리 과정들이 개발되고 있는 실정이다.Accordingly, automated additional processing processes for the production of various metaverse contents are being developed in order to preserve the reality of the character and reduce the production cost.
본 발명의 과제는, 메타버스 컨텐츠 제작 과정의 효율성을 극대화하기 위해 기존 캐릭터의 생체정보의 변화에 따른 움직임 변화와 땀 배출량 및 피부색 변화량을 산출하여, 이를 애니메이션 단계 또는 렌더링 단계에 적용하는 인공지능 기반 메타버스 컨텐츠 제작 시스템을 제공하는 것이다.In order to maximize the efficiency of the metaverse content production process, the task of the present invention is based on artificial intelligence that calculates movement changes, sweat output, and skin color changes according to changes in biometric information of existing characters, and applies them to animation or rendering steps. To provide a metaverse content creation system.
또한, 본 발명의 다른 과제는, 캐릭터의 리얼리티를 극대화하기 위해 생체정보를 기초로 캐릭터의 신체 각 부분에 대한 움직임의 변화 및 땀 배출량 등을 도출하고, 캐릭터의 모션 정보, 배경 정보, 설정 정보를 이용하여 캐릭터의 움직임 및 클로딩의 움직임 등 메타버스 컨텐츠의 모션에 대한 리얼리티를 극대화하도록 보정하는 인공지능 기반 메타버스 컨텐츠 제작 시스템을 제공하는 것이다.In addition, another object of the present invention is to derive changes in movement and sweat output for each part of the character's body based on biometric information in order to maximize the reality of the character, and collect the character's motion information, background information, and setting information. It is to provide an artificial intelligence-based metaverse content production system that compensates to maximize the reality of the motion of metaverse content, such as movement of characters and clothing, by using it.
또한, 본 발명의 다른 과제는, 캐릭터의 생체정보를 기초로 산출한 땀 배출량 및/또는 혈류량 등의 데이터를 이용하여 캐릭터의 신체 부위별 땀 반짝임, 피부색 변화 등 메타버스 컨텐츠의 외형에 대한 리얼리티를 극대화하기 위한 인공지능 기반 메타버스 컨텐츠 제작 시스템을 제공하는 것이다.In addition, another object of the present invention is to use data such as sweat output and/or blood flow calculated based on the character's biometric information to determine the reality of the appearance of metaverse content, such as sweat sparkles and skin color changes for each body part of the character. It is to provide an artificial intelligence-based metaverse content creation system for maximization.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은 제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보에 관련된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 렌더링 작업을 수행하는 메타버스 컨텐츠 제작 장치 및 상기 메타버스 컨텐츠 제작 장치에서 생성된 상기 프리 카메라 워크 정보를 제공받고, 상기 프리 카메라 워크 정보를 이용하여 상기 최적 라이브러리 데이터를 선정하고, 상기 선정된 최적 라이브러리 데이터를 상기 메타버스 컨텐츠 제작 장치로 전송하는 빅데이터 라이브러리를 포함하되, 상기 프리 카메라 워크 정보는, 특정 캐릭터의 심박수를 포함하는 캐릭터 모션 정보를 포함하고, 상기 메타버스 컨텐츠 제작 장치는, 상기 심박수를 기초로 상기 캐릭터의 혈류량을 산출하고, 상기 혈류량을 이용하여 도출된 셰이딩 데이터를 이용하여 상기 캐릭터의 렌더링을 수행하는 것을 포함한다.An artificial intelligence-based metaverse content production system according to some embodiments of the present invention for solving the above problems receives a work instruction from a producer, generates pre-camera work information according to the work instruction, and adds the pre-camera work information to the A metaverse content production apparatus for receiving related optimal library data and performing a rendering operation by applying the optimal library data and the free camera work information generated by the metaverse content production apparatus are provided, and the free camera work information and a big data library for selecting the optimal library data using the selected optimal library data and transmitting the selected optimal library data to the metaverse content production device, wherein the free camera work information includes character motion information including a heart rate of a specific character and calculating the blood flow of the character based on the heart rate, and rendering the character by using the shading data derived using the blood flow.
몇몇 실시예에서, 상기 메타버스 컨텐츠 제작 장치는, 상기 최적 라이브러리 데이터에 포함된 배경 정보를 기초로 광량 및 광원위치를 포함하는 광원정보를 산출하고, 상기 산출된 광원정보, 상기 최적 라이브러리 데이터에 포함된 상기 캐릭터 모션 정보, 캐릭터 설정 정보, 배경 정보를 기초로 상기 캐릭터 셰이딩 데이터를 생성하고, 상기 생성된 셰이딩 데이터를 기초로 상기 캐릭터의 렌더링을 수행하는 렌더링 모듈을 포함할 수 있다.In some embodiments, the metaverse content production apparatus calculates light source information including an amount of light and a light source position based on background information included in the optimal library data, and includes the calculated light source information and the optimal library data. and a rendering module that generates the character shading data based on the obtained character motion information, character setting information, and background information, and performs rendering of the character based on the generated shading data.
몇몇 실시예에서, 상기 캐릭터 모션 정보는, 상기 캐릭터의 자세, 피로도, 및 감정 중 적어도 하나와, 상기 캐릭터의 심박수를 포함하고, 상기 배경 정보는, 상기 레이아웃 작업에 이용되는 배경의 온도, 습도, 및 시간대 중 적어도 하나를 포함하고, 상기 캐릭터 설정 정보는, 상기 캐릭터의 성별, 나이, 체형, 사이즈, 피부색, 및 클로딩 중 적어도 하나를 포함할 수 있다.In some embodiments, the character motion information includes at least one of a posture, fatigue, and emotion of the character, and a heart rate of the character, and the background information includes temperature, humidity, and temperature of a background used for the layout work; and time zone, and the character setting information may include at least one of gender, age, body type, size, skin color, and clothing of the character.
몇몇 실시예에서, 상기 렌더링 모듈은, 상기 심박수를 입력받고, 이에 대한 출력으로 상기 혈류량을 출력하는 인공지능 모듈과, 상기 인공지능 모듈에서 출력된 상기 혈류량을 상기 배경 정보 또는 상기 캐릭터 설정 정보를 기초로 보정하여 상기 캐릭터 셰이딩 데이터를 출력하는 셰이더 모듈을 포함할 수 있다.In some embodiments, the rendering module includes an artificial intelligence module that receives the heart rate and outputs the blood flow as an output thereof, and calculates the blood flow output from the artificial intelligence module based on the background information or the character setting information and a shader module for outputting the character shading data by correcting the .
몇몇 실시예에서, 상기 빅데이터 라이브러리는, 적어도 하나의 카메라 워크 라이브러리 데이터를 저장하는 라이브러리 데이터베이스와, 상기 카메라 워크 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 상기 최적 라이브러리 데이터를 선정하는 최적 라이브러리 선정 모듈을 포함할 수 있다.In some embodiments, the big data library includes a library database for storing at least one camera work library data, and an optimal library selection module for selecting the optimal library data by comparing the camera work library data and the free camera work information may include
몇몇 실시예에서, 상기 프리 카메라 워크 정보에 포함된 상기 캐릭터 모션 정보의 유형에 관한 모션 파라미터를 생성하는 파라미터 변환 모듈을 더 포함하고, 상기 최적 라이브러리 선정 모듈은, 상기 모션 파라미터를 통해 상기 카메라 워크 라이브러리 데이터 중 일부를 필터링하여 필터링 데이터를 선정하고, 상기 필터링 데이터 중 상기 프리 카메라 워크 정보와 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정할 수 있다.In some embodiments, the method further comprises a parameter conversion module for generating a motion parameter related to the type of the character motion information included in the pre-camera walk information, wherein the optimal library selection module includes: the camera walk library through the motion parameter Filtering data may be selected by filtering some of the data, and data most similar to the free camera work information among the filtered data may be selected as the optimal library data.
몇몇 실시예에서, 상기 메타버스 컨텐츠 제작 장치는, 상기 심박수를 기초로 상기 캐릭터의 땀 배출량을 산출하고, 상기 혈류량 및 상기 땀 배출량을 이용하여 도출된 셰이딩 데이터를 이용하여 상기 캐릭터의 렌더링을 수행하는 것을 포함할 수 있다.In some embodiments, the metaverse content production apparatus calculates the sweat amount of the character based on the heart rate, and renders the character using the shading data derived using the blood flow amount and the sweat amount. may include
몇몇 실시예에서, 상기 최적 라이브러리 데이터는 캐릭터 모션 정보, 캐릭터 설정 정보 및 배경 정보를 포함하고, 상기 메타버스 컨텐츠 제작 장치는, 인공지능을 기반으로 상기 심박수를 이용하여, 상기 혈류량 및 상기 땀 배출량을 산출하고 상기 혈류량 및 상기 땀 배출량을 상기 배경 정보 또는 상기 캐릭터 설정 정보를 기초로 보정하여 상기 캐릭터 셰이딩 데이터를 도출할 수 있다.In some embodiments, the optimal library data includes character motion information, character setting information, and background information, and the metaverse content production apparatus calculates the blood flow and sweat output by using the heart rate based on artificial intelligence. The character shading data may be derived by calculating and correcting the blood flow amount and the sweat amount based on the background information or the character setting information.
본 발명의 몇몇 실시예에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은, 제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보와 관련된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 애니메이션 작업 및 렌더링 작업을 수행하는 메타버스 컨텐츠 제작 장치 및 상기 프리 카메라 워크 정보를 이용하여, 상기 최적 라이브러리 데이터를 선정하고, 상기 선정된 최적 라이브러리 데이터를 상기 메타버스 컨텐츠 제작 장치로 전송하는 빅데이터 라이브러리를 포함하되, 상기 최적 라이브러리 데이터는, 특정 캐릭터의 심박수를 포함하는 캐릭터 모션 정보를 포함하고, 상기 메타버스 컨텐츠 제작 장치는, 상기 심박수를 기초로 상기 캐릭터의 움직임 변화량을 나타내는 캐릭터 모션 시퀀스, 상기 캐릭터의 땀 배출량 및 상기 캐릭터의 혈류량을 도출하고, 상기 캐릭터 모션 시퀀스 및 상기 땀 배출량을 이용하여 도출된 클로딩 모션 시퀀스를 이용하여 상기 캐릭터가 착용하고 있는 클로딩의 움직임을 표현하고, 상기 혈류량을 이용하여 도출된 캐릭터 셰이딩 데이터를 이용하여 상기 캐릭터의 피부색 변화량을 표현하는 것을 포함한다.The AI-based metaverse content production system according to some embodiments of the present invention receives a work instruction from a producer, generates free camera work information according to the work instruction, and generates optimal library data related to the free camera work information. Receive, select the optimal library data using the metaverse content production apparatus and the pre-camera work information that performs animation work and rendering work by applying the optimal library data, and the selected optimal library data to the meta a big data library transmitted to a bus content production device, wherein the optimal library data includes character motion information including a heart rate of a specific character, and the metaverse content production device includes: The character motion sequence indicating the amount of movement change, the sweat amount of the character, and the blood flow of the character are derived, and the clothing that the character is wearing using the clothing motion sequence derived using the character motion sequence and the sweat amount and expressing the amount of change in skin color of the character using character shading data derived using the blood flow.
몇몇 실시예에서, 상기 메타버스 컨텐츠 제작 장치는, 상기 작업 지시를 기초로 상기 캐릭터와 상기 클로딩을 모델링하는 모델링 모듈과 모델링된 상기 캐릭터 및 상기 클로딩의 움직임을 생성하는 애니메이션 모듈을 포함하되, 상기 애니메이션 모듈은, 상기 캐릭터의 심박수를 추출하고, 상기 심박수에 따른 상기 캐릭터의 폐용적 변화량, 자세 변화량, 신체 각 부위의 모양 변화량 및 상기 땀 배출량을 포함하는 제1 데이터를 도출하고, 상기 제1 데이터를 상기 캐릭터 모션 정보, 배경 정보, 또는 캐릭터 설정 정보를 기초로 보정한 제2 데이터를 도출하고, 상기 제2 데이터를 기초로 상기 캐릭터 모션 시퀀스를 생성하는 것을 포함할 수 있다.In some embodiments, the metaverse content production apparatus includes a modeling module for modeling the character and the clothing based on the work instruction, and an animation module for generating movements of the modeled character and the clothing, The animation module extracts the heart rate of the character, derives first data including a change amount of lung volume of the character according to the heart rate, a change amount of posture, a change amount of shape of each body part, and the amount of sweat, and the first It may include deriving second data obtained by compensating data based on the character motion information, background information, or character setting information, and generating the character motion sequence based on the second data.
본 발명의 인공지능 기반 메타버스 컨텐츠 제작 시스템은, 미리 저장된 빅데이터에서 캐릭터의 생체정보에 따른 움직임 변화를 도출함으로써 캐릭터의 리얼리티를 극대화할 수 있으며, 상황 변화에 따른 연출을 손쉽게 수행할 수 있다.The artificial intelligence-based metaverse content production system of the present invention can maximize the reality of a character by deriving a change in movement according to biometric information of a character from pre-stored big data, and can easily perform directing according to a change in situation.
또한, 이러한 작업의 효율을 위해서 기존의 애니메이션 데이터를 인공지능을 이용하여 모션 파라미터 별로 분류하고, 분류된 모션 파라미터에 맞추어 최적 라이브러리 데이터를 도출함으로써 연산량을 최소화하고 제작 기간을 단축시킬 수 있다.In addition, for the efficiency of such work, existing animation data is classified by motion parameters using artificial intelligence, and optimal library data is derived according to the classified motion parameters, thereby minimizing the amount of computation and shortening the production period.
또한, 본 발명은 생체정보를 기초로 캐릭터 신체의 각 부위별 자세 변화량, 모양 변화량 및 땀 배출량을 도출하고, 캐릭터 설정 정보, 캐릭터 모션 정보 또는 배경 정보에 포함된 복수의 파라미터 중 일부를 이용하여 도출된 데이터들을 보정함으로써, 캐릭터의 움직임 및 캐릭터의 클로딩 움직임 등 메타버스 컨텐츠의 모션에 대한 리얼리티를 극대화할 수 있다.In addition, the present invention derives the amount of change in posture, change in shape, and amount of sweat for each part of the character's body based on biometric information, and derives it using some of a plurality of parameters included in character setting information, character motion information, or background information By correcting the converted data, it is possible to maximize the reality of the motion of the metaverse content, such as the movement of the character and the movement of the character's clothing.
또한, 본 발명은 캐릭터의 생체정보를 기초로 산출한 땀 배출량 및/또는 혈류량 등의 데이터를 이용하여 캐릭터의 피부에 표현되는 땀과 피부색의 변화를 렌더링 단계에서 세밀하게 표현할 수 있다. 제작자는 이러한 캐릭터의 변화를 수작업으로 일일이 정의하고 설정하는 것이 아닌, 작업 지시에 캐릭터의 설정값을 조정하는 것만으로 캐릭터의 디테일한 외관의 변화를 표현할 수 있어, 애니메이션 제작의 편의성 및 작업의 속도를 높일 수 있다.In addition, according to the present invention, changes in sweat and skin color expressed on the skin of the character can be expressed in detail in the rendering step by using data such as the amount of sweat and/or blood flow calculated based on the biometric information of the character. Rather than manually defining and setting these character changes, the creator can express detailed changes in the character's appearance just by adjusting the character's settings in the work order, thereby increasing the convenience and speed of animation production. can be raised
상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.The specific effects of the present invention in addition to the above will be described together while explaining the specific details for carrying out the invention below.
도 1은 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 메타버스 컨텐츠 제작 장치를 세부적으로 설명하기 위한 블록도이다.
도 3은 애니메이션 제작의 레이아웃을 설명하기 위한 개념도이다.
도 4는 도 1의 프리 카메라 워크 정보의 구조를 세부적으로 설명하기 위한 개념도이다.
도 5는 도 1의 빅데이터 라이브러리를 세부적으로 설명하기 위한 블록도이다.
도 6은 도 5의 카메라 워크 라이브러리 데이터의 구조를 세부적으로 설명하기 위한 개념도이다.
도 7은 도 6의 캐릭터 상태정보, 배경정보 및 캐릭터 설정정보를 세부적으로 설명하기 위한 개념도이다.
도 8은 도 1의 메타버스 컨텐츠 제작 장치의 개략적인 동작을 설명하기 위한 순서도이다.
도 9는 도 2의 애니메이션 모듈을 설명하기 위한 블록도이다.
도 10은 도 9의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다.
도 11은 도 10에 나타난 각각의 파라미터의 산출 흐름을 설명하기 위한 개념도이다.
도 12는 심박수에 따른 캐릭터 모션 시퀀스의 변화를 설명하기 위한 예시도이다.
도 13은 도 9의 모션 변화 연산 모듈의 세부적인 구조를 설명하기 위한 블록도이다.
도 14은 도 13의 인공지능 훈련 모듈의 동작을 설명하기 위한 순서도이다.
도 15는 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 일 예를 설명하기 위한 순서도이다.
도 16은 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 다른 예를 설명하기 위한 순서도이다.
도 17은 도 2의 애니메이션 모듈의 추가적인 구성을 설명하기 위한 블록도이다.
도 18은 도 17의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다.
도 19는 도 2의 렌더링 모듈을 설명하기 위한 블록도이다.
도 20은 도 19의 렌더링 모듈의 동작 방법을 설명하기 위한 순서도이다.
도 21은 도 20에 나타난 파라미터의 산출 흐름을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an AI-based metaverse content production system according to some embodiments of the present invention.
FIG. 2 is a block diagram illustrating in detail the apparatus for producing metaverse content of FIG. 1 .
3 is a conceptual diagram for explaining the layout of animation production.
4 is a conceptual diagram for explaining in detail the structure of the free camera work information of FIG. 1 .
5 is a block diagram for describing the big data library of FIG. 1 in detail.
6 is a conceptual diagram for explaining in detail the structure of the camera work library data of FIG. 5 .
7 is a conceptual diagram for explaining in detail character state information, background information, and character setting information of FIG. 6 .
FIG. 8 is a flowchart for explaining a schematic operation of the apparatus for producing metaverse content of FIG. 1 .
9 is a block diagram illustrating the animation module of FIG. 2 .
FIG. 10 is a flowchart for explaining an operation method of the animation module of FIG. 9 .
11 is a conceptual diagram for explaining a calculation flow of each parameter shown in FIG. 10 .
12 is an exemplary diagram for explaining a change in a character motion sequence according to a heart rate.
13 is a block diagram illustrating a detailed structure of the motion change calculation module of FIG. 9 .
14 is a flowchart for explaining the operation of the artificial intelligence training module of FIG. 13 .
15 is a flowchart illustrating an example of a method of operating an animation module according to an embodiment of the present invention.
16 is a flowchart illustrating another example of an operation method of an animation module according to an embodiment of the present invention.
FIG. 17 is a block diagram for explaining an additional configuration of the animation module of FIG. 2 .
18 is a flowchart illustrating an operation method of the animation module of FIG. 17 .
19 is a block diagram illustrating the rendering module of FIG. 2 .
20 is a flowchart illustrating an operation method of the rendering module of FIG. 19 .
FIG. 21 is a conceptual diagram for explaining a flow of calculating a parameter shown in FIG. 20 .
본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. In accordance with the principle that the inventor can define a term or concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, since the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all the technical spirit of the present invention, they can be substituted at the time of the present application. It should be understood that there may be various equivalents and modifications and applicable examples.
본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. used in this specification and claims may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term 'and/or' includes a combination of a plurality of related listed items or any of a plurality of related listed items.
본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. It should be understood that terms such as “comprise” or “have” in the present application do not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification in advance. .
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not technically contradict each other.
본 발명은 메타버스 컨텐츠 제작 시스템 및 방법에 관한 것으로, '메타버스 컨텐츠 제작'은 '애니메이션 제작'의 범주 안에 포함될 수 있다. 본 명세서에서 '메타버스 컨텐츠'는 애니메이션으로 구현된 가상의 디지털아이돌 캐릭터 및 배경 또는 아케이드 게임의 캐릭터 및 배경을 포함할 수 있다.The present invention relates to a metaverse content production system and method, and 'metaverse content production' may be included in the scope of 'animation production'. In this specification, 'metaverse content' may include characters and backgrounds of virtual digital idols implemented as animations or characters and backgrounds of arcade games.
이하, 도 1 내지 도 21을 참조하여, 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템을 설명한다.Hereinafter, an artificial intelligence-based metaverse content production system according to some embodiments of the present invention will be described with reference to FIGS. 1 to 21 .
도 1은 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an AI-based metaverse content production system according to some embodiments of the present invention.
도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은, 제작자(100)로부터 작업 지시(Wp)를 수신하고, 애니메이션 이미지(Pr)를 제공할 수 있다. 본 발명의 몇몇 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은 메타버스 컨텐츠 제작 장치(200) 및 빅데이터 라이브러리(300)를 포함한다. Referring to FIG. 1 , an AI-based metaverse content creation system according to some embodiments of the present invention may receive a work instruction Wp from a
제작자(100)는 메타버스 컨텐츠와 관련된 애니메이션을 제작하는 사람일 수 있다. 이때, 제작자(100)는 1명 이상의 인력일 수 있다. 제작자(100)는 단순히 자연인 뿐만 아니라 기업과 같은 법인체일 수도 있다. 제작자(100)는 메타버스 컨텐츠와 관련된 3D 애니메이션의 제작을 위해서 메타버스 컨텐츠 제작 장치(200)에 작업 지시(Wp)를 전송할 수 있다. 작업 지시(Wp)는 1회성이 아닌 연속적인 지시로 메타버스 컨텐츠 제작 장치(200)에 전송될 수 있다. 다르게 표현하면, 제작자(100)는 메타버스 컨텐츠 제작 장치(200)를 이용하여 애니메이션 이미지(Pr)를 제작할 수 있고, 이를 위해서 수행되는 일련의 작업을 작업 지시(Wp)로 표현할 수 있다.The
메타버스 컨텐츠 제작 장치(200)는 제작자(100)로부터 작업 지시(Wp)를 수신하고, 빅데이터 라이브러리(300)로 프리 카메라 워크 정보(Ipcw)를 전송할 수 있다. The metaverse
여기에서, 프리 카메라 워크 정보(Ipcw)는 제작자(100)의 작업 지시(Wp)에 의해 러프하게 생성된 카메라 워크에 대한 정보일 수 있다. 프리 카메라 워크 정보(Ipcw)는 세밀하게 계산되어 확정된 카메라 워크가 아니라 애니메이션 장면에서 어떤 방식으로 카메라 연출이 진행될지에 대한 대략적인 지시사항을 포함할 수 있다. 또한, 프리 카메라 워크 정보(Ipcw)는 캐릭터의 움직임 또는 배경의 움직임에 대한 대략적인 지시사항을 포함할 수 있다. 이때, 프리 카메라 워크 정보(Ipcw)는 캐릭터의 초기 설정 정보(예를 들어, 성별, 나이, 체형, 신체 사이즈, 피부색, 캐릭터의 클로딩(clothing)) 뿐만 아니라, 캐릭터의 상태정보(예를 들어, 심박수, 자세, 피로도, 감정)와, 배경의 상태정보(예를 들어, 온도, 습도, 시간대)에 대한 정보를 포함할 수 있다. 프리 카메라 워크 정보(Ipcw)는 텍스트, 이미지 및 영상 중 적어도 하나의 방법으로 형성될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Here, the free camera work information Ipcw may be information about the camera work rough generated by the work instruction Wp of the
빅데이터 라이브러리(300)는 내부에 기존에 제작된 애니메이션의 파일이 모두 저장되어 있을 수 있다. 빅데이터 라이브러리(300)는 저장된 애니메이션 파일의 레이아웃 정보를 유형별로 분류하여 카메라 워크 라이브러리 데이터(CamL)로 보유할 수 있다. 이때, 카메라 워크 라이브러리 데이터(CamL)는 연출되는 카메라의 움직임(예를 들어, 카메라의 속도, 위치, 캐릭터와의 거리 등), 또는 캐릭터의 상태정보(예를 들어, 캐릭터의 심박수, 자세, 피로도, 감정 등)를 기초로 유형이 분류되어 이용될 수 있다. 이에 대한 설명은 이하에서 자세히 후술하도록 한다. The
빅데이터 라이브러리(300)는 프리 카메라 워크 정보(Ipcw)를 수신하고 그에 대응하는 최적의 레이아웃 데이터 즉, 최적 라이브러리 데이터(CamL_op)를 메타버스 컨텐츠 제작 장치(200)로 전송할 수 있다. The
이어서, 메타버스 컨텐츠 제작 장치(200)는 최적 라이브러리 데이터(CamL_op)를 수신하고, 이를 이용하여 애니메이션 이미지(Pr)를 생성할 수 있다. 여기에서, 최적 라이브러리 데이터(CamL_op)는 생체정보(예를 들어, 심박수(Ihr))를 포함하는 캐릭터의 모션 정보를 포함할 수 있다. 다만, 본 발명의 생체정보가 심박수에 한정되는 것은 아니며, 혈류량, 맥박수, 호흡량, 혈압, 땀 배출량, 칼로리 소모량 등이 더 포함되어 이용될 수 있음은 물론이다. 다만, 이하에서는 설명의 편의를 위하여 생체정보가 심박수를 포함하는 것을 예로 들어 설명하도록 한다.Subsequently, the metaverse
메타버스 컨텐츠 제작 장치(200)는 심박수(Ihr)를 기초로 캐릭터의 움직임 변화량을 나타내는 캐릭터 모션 시퀀스(Scm)를 도출한다. 이어서, 메타버스 컨텐츠 제작 장치(200)는 도출된 캐릭터 모션 시퀀스(Scm)를 이용하여 레이아웃 작업을 수행하고 이를 기초로 애니메이션 이미지(Pr)를 생성할 수 있다. The metaverse
또한, 메타버스 컨텐츠 제작 장치(200)는 심박수(Ihr)를 기초로 캐릭터가 착용하고 있는 클로딩의 움직임 변화량을 나타내는 클로딩 모션 시퀀스(Sclm)를 도출할 수 있다. 이때, 메타버스 컨텐츠 제작 장치(200)는 심박수(Ihr)를 기초로 캐릭터의 땀 배출량(Vw)을 산출하고, 땀 배출량에 따른 캐릭터의 바디와 클로딩 사이의 마찰력(Friction Force; 이하 Ff)을 산출하고, 이러한 마찰력(Ff)의 변화를 클로딩 모션 시퀀스(Sclm)에 반영할 수 있다. 이에 대한 자세한 설명은 이하에서 후술하도록 한다.Also, the metaverse
또한, 메타버스 컨텐츠 제작 장치(200)는 산출된 땀 배출량(Vw)을 기초로 캐릭터의 사실적인 질감을 표현하기 위한 렌더링 단계를 수행할 수 있다. 또한, 메타버스 컨텐츠 제작 장치(200)는 산출된 혈류량(Vbfr)을 기초로 캐릭터의 사실적인 색감을 표현하기 위한 렌더링 단계를 수행할 수 있다. 예를 들어, 메타버스 컨텐츠 제작 장치(200)는 땀 배출량(Vw) 및/또는 혈류량(Vbfr)에 따라 변화되는 캐릭터 셰이딩 데이터(shading data)를 생성하고, 이를 기초로 렌더링을 수행함으로써 애니메이션 이미지(Pr)를 생성할 수 있다. 이에 대한 자세한 설명도 이하에서 후술하도록 한다.Also, the metaverse
이어서, 메타버스 컨텐츠 제작 장치(200)는 생성된 애니메이션 이미지(Pr)를 제작자(100)에게 전송할 수 있다.Subsequently, the metaverse
전술한 메타버스 컨텐츠 제작 장치(200) 및 빅데이터 라이브러리(300)는 워크스테이션(workstation), 데이터 센터, 인터넷 데이터 센터(internet data center(IDC)), DAS(direct attached storage) 시스템, SAN(storage area network) 시스템, NAS(network attached storage) 시스템 및 RAID(redundant array of inexpensive disks, or redundant array of independent disks) 시스템 중 적어도 하나로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.The aforementioned metaverse
메타버스 컨텐츠 제작 장치(200) 및 빅데이터 라이브러리(300)는 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.The metaverse
무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies are, for example, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet) Access), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) and 5G New Radio (NR) technology. However, the present embodiment is not limited thereto.
근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include However, the present embodiment is not limited thereto.
네트워크를 통해서 통신하는 메타버스 컨텐츠 제작 장치(200) 및 빅데이터 라이브러리(300)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The metaverse
도 2는 도 1의 메타버스 컨텐츠 제작 장치를 세부적으로 설명하기 위한 블록도이다. 도 3은 애니메이션 제작의 레이아웃을 설명하기 위한 개념도이다. 도 4는 도 1의 프리 카메라 워크 정보의 구조를 세부적으로 설명하기 위한 개념도이다.FIG. 2 is a block diagram illustrating in detail the apparatus for producing metaverse content of FIG. 1 . 3 is a conceptual diagram for explaining the layout of animation production. 4 is a conceptual diagram for explaining in detail the structure of the free camera work information of FIG. 1 .
우선, 도 2를 참조하면, 메타버스 컨텐츠 제작 장치(200)는 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)을 포함할 수 있다. 메타버스 컨텐츠 제작 장치(200)는 예를 들어, DCC(Digital Content Creation tools)일 수 있다. 또는, 메타버스 컨텐츠 제작 장치(200)는 DCC 및 3D 게임 엔진을 포함할 수도 있다. 나아가, 메타버스 컨텐츠 제작 장치(200)는 인공지능 모듈을 통해서 DCC 및 3D 게임 엔진 사이의 데이터 익스포트/임포트(export/import)를 조율할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.First, referring to FIG. 2 , the metaverse
모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 각각 작업 지시(Wp)를 수신할 수 있다. 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 작업 지시(Wp)에 따라서 각각 모델링 작업, 애니메이션 작업, 렌더링 작업 및 컴포짓 작업을 수행할 수 있다. 이때, 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 서로 다른 하드웨어로 구현될 수도 있고, 동일 혹은 일부가 중복되는 하드웨어에 의해서 각각 구현될 수 있다.The
구체적으로, 모델링 모듈(210)은 작업 지시(Wp)에 의해서 모델링 작업을 수행할 수 있다. 모델링 작업이란, 메타버스 컨텐츠 제작 장치(200)를 이용하여 캐릭터 및 배경과 같은 오브젝트를 모델링(modeling)하는 것을 의미할 수 있다. 즉, 추후 애니메이션 단계에서 사용하기 위해서 오브젝트의 디자인은 모델링 작업에서 완성되어야 한다. 모델링 모듈(210)은 폴리곤 모델링을 수행할 수 있다. 모델링 모듈(210)은 폴리곤 모델링을 수행한 후에 텍스쳐링 작업을 수행할 수 있다. 텍스쳐링 작업은 오브젝트의 표면의 질감 및 색상을 적용하기 위한 작업일 수 있다. 텍스쳐링 작업은 쉐이더를 이용하여 메티리얼을 적용하는 방식으로 진행될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Specifically, the
이어서, 모델링 모듈(210)은 리깅(rigging)을 수행할 수 있다. 리깅은 모델링된 오브젝트에 뼈를 붙이는 작업을 의미할 수 있다. 리깅을 수행해야 추후 애니메이션 단계를 거친 오브젝트의 움직임이 자연스러울 수 있다. 따라서 모델링 모듈(210)은 움직일 수 있는 관절 부분과 같이 움직여야 하는 뼈 부분을 작업 지시(Wp)에 따라 정의할 수 있다.Subsequently, the
애니메이션 모듈(220)은 애니메이션 작업을 하기 위해서 레이아웃 작업을 수행할 수 있다. 레이아웃 작업은 카메라 및 캐릭터의 동선을 설정할 수 있다. 이러한 카메라와 캐릭터의 동선은 대략적으로 프리 프로덕션 단계에서 콘티 등에 의해서 대략적으로 정해질 수 있으나, 실제 적용을 위해서는 세세한 부분의 수정이 필요할 수 있다. The
또한, 애니메이션 모듈(220)은 캐릭터의 움직임을 표현할 수 있다. 이때, 애니메이션 모듈(220)은 작업 지시(Wp)에 포함된 캐릭터의 상태정보를 기초로 캐릭터의 움직임을 설정할 수 있다. Also, the
구체적으로, 애니메이션 모듈(220)은 작업 지시(Wp)를 수신하고, 작업 지시(Wp)에 따라 프리 카메라 워크 정보(Ipcw)를 생성한 뒤, 프리 카메라 워크 정보(Ipcw)에 대응되는 최적화된 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 이때, 프리 카메라 워크 정보(Ipcw)는 촬영 대상이 되는 캐릭터의 심박수(Ihr)를 포함할 수 있다. 한편, 최적 라이브러리 데이터(CamL_op)는 프리 카메라 워크 정보(Ipcw)에 대응되는 심박수(Ihr)와 관련된 데이터를 포함할 수 있다.Specifically, the
이때, 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 포함된 심박수(Ihr)를 이용하여 캐릭터의 움직임 변화량을 산출하여 캐릭터 모션 시퀀스(Scm)를 생성한다. 애니메이션 모듈(220)은 생성된 캐릭터 모션 시퀀스(Scm)를 이용하여 시간의 흐름에 따라 변화하는 카메라의 동선 변화와 함께, 심박수(Ihr)에 따른 캐릭터의 섬세한 움직임 변화를 표현할 수 있다.In this case, the
도 3 내지 도 4를 참조하면, 애니메이션 모듈(220)은 카메라(Cam)의 위치, 캐릭터(ch)의 위치, 캐릭터(ch)가 움직이는 제1 경로(M1), 카메라(Cam)가 움직이는 제2 경로(M2) 및 지면과 같은 배경(BG)을 결정할 수 있다. Referring to FIGS. 3 to 4 , the
애니메이션 모듈(220)은 레이아웃이 최종적으로 확정되기 전에 대략적인 카메라 워크에 대한 정보 즉, 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다. 애니메이션 모듈(220)은 작업 지시(Wp)에 의해서 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다. The
프리 카메라 워크 정보(Ipcw)는 프리 카메라 물리 정보(CPp), 프리 카메라 모션 정보(CMp), 프리 캐릭터 모션 정보(MIp), 프리 배경 정보(BIp) 및 프리 바운딩 박스 정보(BBIp)를 포함할 수 있다.Free camera work information (Ipcw) may include free camera physics information (CPp), free camera motion information (CMp), free character motion information (MIp), free background information (BIp), and pre-bounding box information (BBIp). have.
구체적으로, 프리 카메라 물리 정보(CPp)는 카메라의 물리적 특성에 대한 정보일 수 있다. 예를 들어, 프리 카메라 물리 정보(CPp)는 카메라의 렌즈의 크기, 모양, 개수 및 셔터의 속도 중 적어도 하나를 포함할 수 있다.Specifically, the free camera physical information CPp may be information on physical characteristics of the camera. For example, the pre-camera physical information CPp may include at least one of a size, shape, number, and shutter speed of a camera lens.
프리 카메라 모션 정보(CMp)는 시간에 따른 시계열 데이터일 수 있다. 프리 카메라 모션 정보(CMp)는 시간에 따른 카메라(Cam)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함할 수 있다. 프리 카메라 모션 정보(CMp)는 즉, 카메라(Cam)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.The pre-camera motion information CMp may be time-series data according to time. The free camera motion information CMp may include at least one of a 3D position, direction, rotation direction, and rotation angle of the camera Cam according to time. The pre-camera motion information CMp may be, that is, big data including all absolute motions of the camera.
프리 캐릭터 모션 정보(MIp)도 시간에 따른 시계열 데이터일 수 있다. 프리 캐릭터 모션 정보(MIp)는 시간에 따른 캐릭터(ch)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함할 수 있다. The free character motion information MIp may also be time-series data according to time. The free character motion information MIp may include at least one of a three-dimensional position, a direction, a rotation direction, and a rotation angle of the character ch according to time.
나아가, 프리 캐릭터 모션 정보(MIp)는 단순히 캐릭터(ch)의 대표 좌표의 3차원 위치뿐만 아니라 캐릭터(ch)의 자세(Pose) 및 모양(Shape)을 결정하는 복수의 유효 좌표의 3차원 위치도 포함할 수 있다. 이를 통해서, 프리 캐릭터 모션 정보(MIp)는 캐릭터(ch)의 시간에 따른 위치(Position) 뿐만 아니라 시간에 따른 자세 및 모양도 정의할 수 있다. Furthermore, the free character motion information (MIp) is not only the three-dimensional position of the representative coordinates of the character (ch), but also the three-dimensional position of a plurality of effective coordinates that determine the pose and shape of the character (ch). may include Through this, the free character motion information MIp may define not only the position according to time but also the posture and shape of the character ch according to time.
구체적으로, 프리 캐릭터 모션 정보(MIp)는 캐릭터의 심박수(Ihr), 자세, 피로도 및 감정에 관한 정보를 포함할 수 있다. 이후에 자세히 설명하겠으나, 애니메이션 모듈(220)은 프리 캐릭터 모션 정보(MIp)에 대응되는 캐릭터 모션 정보(MI)를 기초로 캐릭터의 자세 변화량(Vp) 및 신체 각 부위의 모양 변화량(Vs)을 도출하여 캐릭터의 움직임을 세밀하게 표현할 수 있다. 이러한 캐릭터의 움직임의 변화는 캐릭터 모션 시퀀스(Scm)에 포함될 수 있으며, 프리 캐릭터 모션 정보(MIp)는 캐릭터 모션 시퀀스(Scm)를 생성하기 위한 기초 데이터로 이용될 수 있다. 즉, 프리 캐릭터 모션 정보(MIp)는 애니메이션 내에서의 캐릭터(ch)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.Specifically, the free character motion information MIp may include information about a character's heart rate Ihr, posture, fatigue, and emotion. Although it will be described in detail later, the
프리 배경 정보(BIp)는 배경(BG)의 위치 및 형상과 시간에 따른 변형에 대한 정보를 포함할 수 있다. 즉, 프리 배경 정보(BIp)도 시간에 따라 달라지는 시계열 데이터일 수 있다. 배경(BG)은 지면, 나무, 바다, 강 및 건물과 같은 구조 중 적어도 하나를 포함할 수 있다. 또한, 프리 배경 정보(BIp)는 배경(BG)에 적용되는 부가적인 파라미터(예를 들어, 온도, 습도, 시간대, 지역 등)가 추가적으로 정의되어 이용될 수 있다.The free background information BIp may include information about the position and shape of the background BG and deformation according to time. That is, the free background information BIp may also be time series data that varies according to time. The background BG may include at least one of a ground, a tree, a sea, a river, and a structure such as a building. In addition, in the free background information BIp, additional parameters (eg, temperature, humidity, time zone, region, etc.) applied to the background BG may be additionally defined and used.
프리 바운딩 박스 정보(BBIp)는 캐릭터(ch)와 같은 오브젝트의 바운딩 박스에 대한 정보일 수 있다. 바운딩 박스란, 3차원 직교 좌표에서 오브젝트의 최대 크기를 규정하기 위한 직육면체 박스를 의미할 수 있다. 즉, 캐릭터(ch)의 바운딩 박스는 캐릭터(ch)가 시간에 따라 변형되어 크기가 커지더라도 항상 캐릭터(ch)를 감쌀 수 있다. 위에서, 바운딩 박스는 직육면체라고 설명하였지만, 본 실시예가 이에 제한되는 것은 아니다. 바운딩 박스의 형태는 필요에 따라 얼마든지 달라질 수 있다.The pre-bounding box information BBIp may be information about a bounding box of an object such as a character ch. The bounding box may mean a cuboid box for defining the maximum size of an object in 3D Cartesian coordinates. That is, the bounding box of the character ch can always surround the character ch even if the character ch is deformed over time and increases in size. In the above, it has been described that the bounding box is a rectangular parallelepiped, but the present embodiment is not limited thereto. The shape of the bounding box may be changed according to need.
애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 따라 카메라(Cam), 캐릭터(ch) 및 배경(BG)의 세부 사항을 세팅할 수 있다. 즉, 최적 라이브러리 데이터(CamL_op)의 내용을 그대로 적용하여 레이아웃 작업을 수행할 수 있다.The
애니메이션 모듈(220)은 모델링 모듈(210)이 생성한 오브젝트의 레이아웃을 세팅한 후에 오브젝트들을 움직이게 할 수 있다. 즉, 애니메이션 모듈(220)은 작업 지시(Wp)에 따라서 레이아웃 작업을 포함하는 애니메이션 단계를 수행할 수 있다. 애니메이션 단계는 오브젝트의 움직이는 포인트 즉, 리깅 단계에서 관절에 해당하는 부분의 전 위치와 후 위치를 정의하는 방식을 사용할 수 있다. 애니메이션 모듈(220)은 시간에 따른 전 위치 및 후 위치를 정의하고, 그 사이의 오브젝트의 움직임을 인터폴레이션을 이용하여 자연스럽게 채울 수 있다. 이에 따라서, 오브젝트의 움직임이 사실적으로 표현될 수 있다.The
이어서, 다시 도 2를 참조하면, 렌더링 모듈(230)은 작업 지시(Wp)에 따라서 렌더링 작업을 수행할 수 있다. 3D 애니메이션 제작과정에서 렌더링 작업은 오브젝트들의 3D 움직임을 구현하는 애니메이션 작업 이후에 카메라(Cam)에 의해서 촬영되는 2차원적인 영상을 만들어 내는 단계일 수 있다. 이때, 2차원의 의미는 애니메이션 이미지가 2차원이라는 것이 아니라 3차원의 세계를 촬영하여 2차원의 화면에 투사하는 영상물로 제작한다는 의미일 수 있다.Then, referring back to FIG. 2 , the
렌더링 모듈(230)은 애니메이션 작업까지 완료된 오브젝트들의 애니메이션 이미지를 생성해야 하므로, 오브젝트의 배열, 시점, 텍스쳐 매핑, 조명 및 쉐이딩의 세부 단계를 거쳐 렌더링 작업을 수행할 수 있다. 렌더링 모듈(230)은 여러 채널을 이용하여 복수의 레이어로 렌더링을 수행할 수 있다. 멀티 채널 렌더링은 색상의 톤을 맞추거나 대조하여 밝기를 수정하는 작업을 용이하게 할 수 있다. 또한, 멀티 채널 렌더링은 이펙트나 실사합성 같은 작업을 수행하기 위해서 필요할 수 있다. Since the
이때, 렌더링 모듈(230)은 애니메이션 모듈(220)이 수신한 최적 라이브러리 데이터(CamL_op)를 함께 수신하여 이용할 수 있다. In this case, the
구체적으로, 렌더링 모듈(230)은 전술한 애니메이션 모듈(220)과 마찬가지로 작업 지시(Wp)를 수신하고, 작업 지시(Wp)에 따라 프리 카메라 워크 정보(Ipcw)를 생성한 뒤, 프리 카메라 워크 정보(Ipcw)에 대응되는 최적화된 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 이때, 프리 카메라 워크 정보(Ipcw)는 촬영 대상이 되는 캐릭터의 심박수(Ihr)를 포함할 수 있다. 한편, 최적 라이브러리 데이터(CamL_op)는 프리 카메라 워크 정보(Ipcw)에 대응되는 심박수(Ihr)와 관련된 데이터를 포함할 수 있다.Specifically, the
렌더링 모듈(230)은 최적 라이브러리 데이터(CamL_op)에 포함된 심박수(Ihr)를 이용하여 캐릭터의 땀 배출량 및/또는 혈류량을 산출하고, 이를 기초로 캐릭터 세이딩 데이터(Dcs)를 생성한다. 렌더링 모듈(230)은 생성된 캐릭터 세이딩 데이터(Dcs)를 이용하여 시간의 흐름에 따라 변화하는 카메라의 동선 변화와 함께, 땀 배출량에 따른 캐릭터의 섬세한 피부질감 또는 재질 변화를 표현하거나, 혈류량에 따른 캐릭터의 신체 부위별 피부색 변화를 표현할 수 있다. 렌더링 모듈(230)은 렌더링이 완료된 이미지를 컴포짓 모듈(240)로 전송할 수 있다.The
컴포짓 모듈(240)은 렌더링된 여러 개의 이미지를 수신하고, 이를 하나의 최종 장면으로 통합하는 컴포짓 작업을 수행할 수 있다. 컴포짓 모듈(240)은 하나의 이미지를 다양한 레이어를 합성하여 완성시킬 수 있다. 예를 들어, 컴포짓 모듈(240)은 하나의 이미지를 각기 다른 속성별로 분류된 여러 장의 레이어를 적층시켜 형성할 수 있다. 이때, 레이어는 캐릭터, 배경, 이펙트, 그림자 및 재질로 나누어질 수 있다. 또한, 재질 레이어는 세부적으로 디퓨즈, 스펙귤러 및 리플렉션으로 나누어질 수 있다.The
또한, 컴포짓 모듈(240)은 알파채널의 마스크를 이용하여 크로마키, 글자 및 그림을 합성할 수 있다. 이를 통해서, 최종적으로 완성된 애니메이션 이미지(Pr)가 생성될 수 있다. 컴포짓 모듈(240)은 생성된 애니메이션 이미지(Pr)를 제작자(100)에게 전송할 수 있다.Also, the
도 5는 도 1의 빅데이터 라이브러리를 세부적으로 설명하기 위한 블록도이다. 도 6은 도 5의 카메라 워크 라이브러리 데이터의 구조를 세부적으로 설명하기 위한 개념도이다. 도 7은 도 6의 캐릭터 상태정보, 배경정보 및 캐릭터 설정정보를 세부적으로 설명하기 위한 개념도이다.5 is a block diagram for describing the big data library of FIG. 1 in detail. 6 is a conceptual diagram for explaining in detail the structure of the camera work library data of FIG. 5 . 7 is a conceptual diagram for explaining in detail character state information, background information, and character setting information of FIG. 6 .
우선, 도 5를 참조하면, 빅데이터 라이브러리(300)는 라이브러리 데이터베이스(310), 최적 라이브러리 선정 모듈(320) 및 파라미터 변환 모듈(330)을 포함할 수 있다.First, referring to FIG. 5 , the
라이브러리 데이터베이스(310)는 기존에 작업된 애니메이션 파일이 모두 저장되어 있을 수 있다. 라이브러리 데이터베이스(310)는 내부에 저장된 모든 애니메이션 파일에 대해서 카메라 워크 정보와 관련된 카메라 워크 라이브러리 데이터(CamL)를 추출할 수 있다. The
도 6 및 도 7을 참조하면, 카메라 워크 라이브러리 데이터(CamL)는 카메라 물리 정보(CP), 카메라 모션 정보(CM), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 바운딩 박스 정보(BBI)를 포함할 수 있다. 이때, 카메라 워크 라이브러리 데이터(CamL)의 각각의 정보(CP, CM, MI, BI, BBI)는 도 4를 참조하여 전술한 프리 카메라 워크 정보(Ipcw)에 포함된 각각의 정보(CPp, CMp, MIp, BIp, BBIp)와 실질적으로 동일한 데이터를 포함할 수 있으므로, 여기에서 중복되는 설명은 생략하도록 한다.6 and 7, the camera work library data (CamL) is camera physical information (CP), camera motion information (CM), character motion information (MI), background information (BI) and bounding box information (BBI) may include At this time, each information (CP, CM, MI, BI, BBI) of the camera work library data (CamL) is each information (CPp, CMp, MIp, BIp, and BBIp) may include substantially the same data, and thus a redundant description thereof will be omitted.
이때, 캐릭터 모션 정보(MI)는 캐릭터의 심박수(Ihr), 자세(I1), 피로도(I2) 및 감정(I3)에 관한 정보를 포함할 수 있다. 각각의 정보(Ihr, I1, I2, I3)는 시계열적으로 이루어진 데이터로 구성될 수 있다. 즉, 캐릭터 모션 정보(MI)는 시간의 흐름에 따른 캐릭터의 심박수의 변화, 자세의 변화, 피로도의 변화 및 감정의 변화를 포함할 수 있다. In this case, the character motion information MI may include information about the character's heart rate Ihr, posture I1, fatigue I2, and emotion I3. Each of the information Ihr, I1, I2, and I3 may be composed of time-series data. That is, the character motion information MI may include a change in heart rate, a change in posture, a change in fatigue, and a change in emotion of the character according to the passage of time.
카메라의 모션 정보(CM)는 캐릭터 모션 정보(MI)의 각 파라미터에 대한 변화에 대응되는 카메라의 동선 및 연출방법을 포함할 수 있다.The camera motion information CM may include a camera movement line and a directing method corresponding to a change in each parameter of the character motion information MI.
배경 정보(BI)는 배경(BG)의 온도(B1), 습도(B2) 및 시간대(B3)를 포함할 수 있다. 마찬가지로, 카메라의 모션 정보(CM)는 배경 정보(BI)의 각 파라미터에 대응되는 카메라의 동선 및 연출방법을 포함할 수 있다.The background information BI may include a temperature B1, a humidity B2, and a time zone B3 of the background BG. Similarly, the motion information CM of the camera may include a movement line and a directing method of the camera corresponding to each parameter of the background information BI.
정리하면, 카메라 워크 라이브러리 데이터(CamL)는 캐릭터 모션 정보(MI) 및 배경 정보(BI)에 따른 카메라 워크에 대한 정보를 포함할 수 있으며, 다양한 캐릭터의 상태 및 배경 상태에 따라 서로 다른 카메라 워크가 정의될 수 있다.In summary, the camera work library data (CamL) may include information about the camera work according to the character motion information (MI) and the background information (BI), and different camera work according to the state of various characters and the background state can be defined.
라이브러리 데이터베이스(310)는 하나 이상의 카메라 워크 라이브러리 데이터(CamL)를 캐릭터 모션의 유형 별로 분류하여 저장할 수 있다. 이때, 캐릭터 모션의 유형은, 캐릭터 모션 정보(MI)에 포함된 심박수, 자세, 피로도 및 감정 중 적어도 하나 이상의 파라미터를 기준으로 구분될 수 있다. 예를 들어, 캐릭터의 심박수를 기초로 캐릭터의 상태는 흥분 상태, 정상 상태, 휴식 상태로 구분될 수 있다. 또한, 캐릭터의 자세는 기립 자세, 앉은 자세, 공격 자세, 방어 자세 등으로 구분될 수 있다. 피로도는 미리 정해진 기준치를 이용하여 활력, 정상, 피로 상태로 구분될 수 있으며, 감정은 기쁨, 슬픔, 흥분, 우울, 감동 등으로 구분될 수 있다.The
라이브러리 데이터베이스(310)는 이러한 캐릭터 모션의 유형을 파라미터화 한 모션 파라미터(MP2)를 기초로 카메라 워크 라이브러리 데이터(CamL)를 분류하고 저장할 수 있다.The
파라미터 변환 모듈(330)은 라이브러리 데이터베이스(310)로부터 카메라 워크 라이브러리 데이터(CamL)를 수신하고, 카메라 워크 라이브러리 데이터(CamL)에 포함된 캐릭터 모션 정보(MI)를 기초로 전술한 모션 파라미터(MP2)를 생성할 수 있다. 모션 파라미터(MP2)는 캐릭터 모션 정보(MI)에 포함된 적어도 하나의 파라미터(예를 들어, 심박수, 자세, 피로도 및 감정 관련)를 기초로 생성되며, 복수의 파라미터의 조합을 기초로 생성될 수 있음은 물론이다.The
또한, 파라미터 변환 모듈(330)은 애니메이션 모듈(220)로부터 수신한 프리 카메라 워크 정보(Ipcw)에 포함된 프리 캐릭터 모션 정보(MIp)를 기초로 모션 파라미터(MP1)를 생성할 수 있다. 마찬가지로, 모션 파라미터(MP1)는 프리 캐릭터 모션 정보(MIp)에 포함된 적어도 하나의 파라미터(예를 들어, 심박수, 자세, 피로도 및 감정 관련)를 기초로 생성되며, 복수의 파라미터의 조합을 기초로 생성될 수 있음은 물론이다.Also, the
이어서, 최적 라이브러리 선정 모듈(320)은 라이브러리 데이터베이스(130)로부터 카메라 워크 라이브러리 데이터(CamL)를 수신할 수 있다. 또한, 최적 라이브러리 선정 모듈(320)은 메타버스 컨텐츠 제작 장치(200)로부터 프리 카메라 워크 정보(Ipcw)도 수신할 수 있다. 최적 라이브러리 선정 모듈(320)은 프리 카메라 워크 정보(Ipcw)와 카메라 워크 라이브러리 데이터(CamL)를 비교하여 최적 라이브러리 데이터(CamL_op)를 선정할 수 있다. 최적 라이브러리 데이터(CamL_op)는 카메라 워크 라이브러리 데이터(CamL) 중 프리 카메라 워크 정보(Ipcw)와 가장 유사한 데이터일 수 있다.Subsequently, the optimal
이때, 최적 라이브러리 선정 모듈(320)은 프리 카메라 워크 정보(Ipcw)의 모션 파라미터(MP1)와 동일한 모션 파라미터(MP2)를 가진 카메라 워크 라이브러리 데이터(CamL)를 필터링할 수 있다. 이를 통해서, 최적 라이브러리 선정 모듈(320)은 프리 카메라 워크 정보(Ipcw)와 카메라 워크 라이브러리 데이터(CamL) 간의 유사성 검토에 필요한 연산량을 대폭 감소시키고, 연산 속도를 향상시킬 수 있다.In this case, the optimal
최적 라이브러리 선정 모듈(320)은 모션 파라미터가 동일한(또는, 가장 유사한) 카메라 워크 라이브러리 데이터(CamL) 중에서 프리 카메라 워크 정보(Ipcw)와 가장 유사한 데이터를 최적 라이브러리 데이터(CamL_op)로 선정할 수 있다.The optimal
이때, 최적 라이브러리 선정 모듈(320)은 딥러닝 모델을 통해서 유사성을 판단할 수 있다. 최적 라이브러리 선정 모듈(320)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.In this case, the optimal
도 8은 도 1의 메타버스 컨텐츠 제작 장치의 개략적인 동작을 설명하기 위한 순서도이다. 이하에서는 전술한 내용과 유사한 내용은 생략하고 차이점을 위주로 설명하도록 한다.FIG. 8 is a flowchart for explaining a schematic operation of the apparatus for producing metaverse content of FIG. 1 . Hereinafter, contents similar to those described above will be omitted, and differences will be mainly described.
도 8을 참조하면, 메타버스 컨텐츠 제작 장치(200)는 프리 카메라 워크 정보(Ipcw) 및 빅데이터 라이브러리(300)에 미리 저장된 복수의 카메라 워크 라이브러리 데이터(CamL)를 비교한다. 이어서, 복수의 카메라 워크 라이브러리 데이터(CamL) 중에서 프리 카메라 워크 정보(Ipcw)에 대응되는 최적 라이브러리 데이터(CamL_op)를 선정한다(S10). Referring to FIG. 8 , the metaverse
이때, 메타버스 컨텐츠 제작 장치(200)는 프리 카메라 워크 정보(Ipcw)에서 도출한 모션 파라미터를 이용하여 복수의 카메라 워크 라이브러리 데이터(CamL)에 대한 필터링을 수행한다. 메타버스 컨텐츠 제작 장치(200)는 필터링된 카메라 워크 라이브러리 데이터(CamL) 중에서 미리 학습된 딥러닝 모듈을 이용하여 프리 카메라 워크 정보(Ipcw)와 가장 유사한 카메라 워크 라이브러리 데이터(CamL)를 최적 라이브러리 데이터(CamL_op)로 선정한다.In this case, the metaverse
한편, 메타버스 컨텐츠 제작 장치(200)는 수신된 작업 지시(Wp)를 기초로 모델링 단계를 수행한다(S20).Meanwhile, the metaverse
이어서, 메타버스 컨텐츠 제작 장치(200)는 선정된 최적 라이브러리 데이터(CamL_op)를 기초로 애니메이션 단계를 수행한다(S30). 구체적으로, 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 포함된 심박수(Ihr)를 이용하여 캐릭터의 움직임 변화량을 산출하여 캐릭터 모션 시퀀스(Scm) 및 클로딩 모션 시퀀스(Sclm)를 생성한다. 애니메이션 모듈(220)은 생성된 캐릭터 모션 시퀀스(Scm) 및 클로딩 모션 시퀀스(Sclm)를 이용하여 시간의 흐름에 따라 변화하는 카메라의 동선 변화와 함께, 심박수(Ihr)에 따른 캐릭터와 클로딩의 섬세한 움직임 변화를 표현할 수 있다.Next, the metaverse
이어서, 메타버스 컨텐츠 제작 장치(200)는 선정된 최적 라이브러리 데이터(CamL_op)를 기초로 렌더링 단계를 수행한다(S40). 구체적으로, 렌더링 모듈(230)은 최적 라이브러리 데이터(CamL_op)에 포함된 심박수(Ihr)를 이용하여 캐릭터의 땀 배출량 및/또는 혈류량을 산출하고, 이를 기초로 생성된 캐릭터 세이딩 데이터(Dcs)를 이용하여 캐릭터의 피부에 표현되는 땀 및/또는 피부색의 변화를 렌더링 단계에서 세밀하게 표현할 수 있다.Next, the metaverse
이어서, 메타버스 컨텐츠 제작 장치(200)는 컴포짓 단계를 수행하여 애니메이션 이미지를 생성한다(S50). 구체적으로, 컴포짓 모듈(240)은 렌더링된 여러 개의 이미지를 수신하고, 이를 하나의 최종 장면으로 통합하는 컴포짓 작업을 수행할 수 있다. 컴포짓 모듈(240)은 하나의 이미지를 다양한 레이어를 합성하여 완성시킬 수 있다. 이를 통해서, 컴포짓 모듈(240)은 애니메이션 이미지(Pr)를 최종적으로 완성할 수 있다.Next, the metaverse
이하에서는, 빅데이터 라이브러리(300)에서 수신한 최적 라이브러리 데이터(CamL_op)를 이용하는 애니메이션 모듈(220) 및 렌더링 모듈(230)의 동작을 구체적으로 설명하도록 한다.Hereinafter, operations of the
도 9는 도 2의 애니메이션 모듈을 설명하기 위한 블록도이다.9 is a block diagram illustrating the animation module of FIG. 2 .
도 9를 참조하면, 애니메이션 모듈(220)에 포함된 모션 변화 연산 모듈(PCM)은 최적 라이브러리 데이터(CamL_op)에 포함된 캐릭터 모션 정보(MI) 및 배경 정보(BI)와, 작업 지시(Wp)에 포함된 캐릭터 설정 정보(CI)를 이용하여 캐릭터 모션 시퀀스(Scm)를 생성한다. Referring to FIG. 9 , the motion change calculation module (PCM) included in the
여기에서, 캐릭터 설정 정보(CI)는 작업 지시(Wp)에 포함된 정보일 수 있다. 구체적으로, 캐릭터 설정 정보(CI)는 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4), 피부색(C5), 및 클로딩(C6)(예를 들어, 캐릭터가 착용하고 있는 의복)를 포함할 수 있다. 다만, 각 항목은 임의적인 것이며, 각 항목은 다르게 변형되어 이용될 수 있음은 물론이다.Here, the character setting information CI may be information included in the work instruction Wp. Specifically, the character setting information (CI) includes the character's gender (C1), age (C2), body type (C3), size (C4), skin color (C5), and clothing (C6) (for example, clothing you are wearing). However, it goes without saying that each item is arbitrary, and each item may be modified and used differently.
모델링 모듈(210)은 캐릭터 설정 정보(CI)를 기초로 캐릭터의 오브젝트를 선정하고 모델링 작업을 진행할 수 있다. 이어서, 애니메이션 모듈(220)은 캐릭터 설정 정보(CI)를 기초로 캐릭터의 움직임 변화량을 도출하거나 보정할 수 있다.The
캐릭터 모션 시퀀스(Scm)는 시간의 흐름에 따른 캐릭터의 움직임 변화량에 관한 정보를 포함한다. 구체적으로, 캐릭터 모션 시퀀스(Scm)는 캐릭터의 폐용적 변화량, 자세 변화량, 신체 각 부위에 대한 모양 변화량, 신체 각 부위의 땀 배출량을 포함할 수 있다.The character motion sequence (Scm) includes information on the amount of change in the movement of the character over time. Specifically, the character motion sequence Scm may include a change amount of lung volume of the character, a change amount of posture, a change amount of shape for each body part, and a sweat amount of each body part.
이하에서는, 모션 변화 연산 모듈(PCM)에서 수행되는 캐릭터 모션 시퀀스(Scm)의 생성 및 애니메이션 단계의 수행 방법에 대해 설명하도록 한다.Hereinafter, a method of generating a character motion sequence (Scm) and performing an animation step performed in the motion change calculation module (PCM) will be described.
도 10은 도 9의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다. 도 11은 도 10에 나타난 각각의 파라미터의 산출 흐름을 설명하기 위한 개념도이다. 도 12는 심박수에 따른 캐릭터 모션 시퀀스의 변화를 설명하기 위한 예시도이다.FIG. 10 is a flowchart for explaining an operation method of the animation module of FIG. 9 . 11 is a conceptual diagram for explaining a calculation flow of each parameter shown in FIG. 10 . 12 is an exemplary diagram for explaining a change in a character motion sequence according to a heart rate.
도 10 및 도 11을 참조하면, 애니메이션 모듈(220)의 모션 변화 연산 모듈(PCM)은 캐릭터 모션 정보(MI)에 포함된 캐릭터의 심박수(Ihr)를 수신한다(S110). 모션 변화 연산 모듈(PCM)은 수신된 최적 라이브러리 데이터(CamL_op)에서 캐릭터에 대한 심박수(Ihr)를 추출하여 이용할 수 있다.10 and 11 , the motion change calculation module PCM of the
이어서, 심박수에 따른 폐용적 변화량(Vl)을 도출한다(S120). 여기에서, 폐용적 변화량(Vl)은 캐릭터의 폐의 크기(lung volume)에 대한 시계열적인 변화량을 의미한다.Next, the lung volume change Vl according to the heart rate is derived (S120). Here, the lung volume change Vl means a time-series change in the lung volume of the character.
이어서, 심박수에 따른 자세 변화량(Vp)을 도출한다(S130). 여기에서, 자세 변화량(Vp)은 캐릭터의 자세(pose)에 대한 시계열적인 변화량을 의미한다. 자세 변화량(Vp)은 캐릭터의 신체의 부위별로 상체 모션 변화량, 어깨 모션 변화량, 팔 모션 변화량 등으로 구분될 수 있다. 또한, 자세 변화량(Vp)은 캐릭터의 움직임을 표현하는 복수의 포인트들의 변화들로 표현될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.Next, a posture change amount Vp according to the heart rate is derived (S130). Here, the posture change amount Vp means a time-series change amount with respect to the character's pose. The posture change amount Vp may be divided into upper body motion change amount, shoulder motion change amount, arm motion change amount, etc. for each body part of the character. In addition, the posture change amount Vp may be expressed as changes of a plurality of points expressing the movement of the character. However, the present invention is not limited thereto.
이어서, 심박수에 따른 신체 각 부위의 모양 변화량(Vs)을 도출한다(S140). 여기에서, 모양 변화량(Vs)은 캐릭터의 신체 모양(Shape)에 대한 시계열적인 변화량을 의미한다. 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다. Then, the amount of change (Vs) in the shape of each part of the body according to the heart rate is derived (S140). Here, the shape change amount Vs means a time-series change amount with respect to the body shape of the character. The shape change Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character.
예를 들어, 심박수가 상대적으로 높은 경우 캐릭터는 흉식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 크게 설정될 수 있다. 반면, 심박수가 상대적으로 낮은 경우 캐릭터는 복식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 작게 설정될 수 있다. 즉, 모양 변화량(Vs)을 기초로 캐릭터의 흉식 호흡과 복식 호흡을 구분하여 표현할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.For example, when the heart rate is relatively high, since the character mainly performs chest breathing, the chest shape change amount may be set to be larger than the abdominal shape change amount. On the other hand, when the heart rate is relatively low, since the character mainly breathes abdominally, the chest shape change amount may be set smaller than the abdominal shape change amount. That is, the character's chest breathing and abdominal breathing can be divided and expressed based on the shape change amount (Vs). However, the present invention is not limited thereto.
이어서, 심박수에 따른 캐릭터의 신체 각 부위의 땀 배출량(Vw)을 도출한다(S150). 땀 배출량(Vw)은 이후 단계에서 캐릭터의 클로딩의 움직임을 표현하는 클로딩 모션 시퀀스(Sclm)를 생성하는데 이용될 수 있다. Next, the sweat amount Vw of each body part of the character according to the heart rate is derived (S150). The sweat amount Vw may be used to generate a clothing motion sequence Sclm that expresses the movement of the character's clothing in a later step.
구체적으로, 도출된 땀 배출량(Vw)이 상대적으로 많은 부위의 경우, 클로딩의 움직임은 캐릭터의 해당 신체 부위에 대한 종속성이 높게 설정되도록 표현될 수 있다. 예를 들어, 땀 배출량(Vw)이 많은 부위는 캐릭터의 신체 부위에 밀착되어 클로딩이 움직이는 것으로 표현될 수 있다.Specifically, in the case of a portion having a relatively large amount of derived sweat discharge Vw, the movement of the clothing may be expressed such that the dependence of the character on the corresponding body portion is set to be high. For example, a portion with a large amount of sweat Vw may be expressed as moving clothing by being in close contact with a body portion of the character.
반면, 도출된 땀 배출량(Vw)이 상대적으로 적은 부위의 경우, 클로딩의 움직임은 캐릭터의 해당 신체 부위의 움직임에 대한 종속성이 낮게 설정되도록 표현될 수 있다. 예를 들어, 땀 배출량(Vw)이 적은 부위는 캐릭터의 신체 부위의 움직임과는 별도로 중력 또는 관성에 대한 종속성이 높도록 클로딩의 움직임이 표현될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.On the other hand, in the case of a portion having a relatively small amount of sweat output (Vw), the movement of the clothing may be expressed such that the dependence on the movement of the corresponding body portion of the character is set to be low. For example, the movement of clothing may be expressed in a region with a small amount of sweat Vw so that the dependence on gravity or inertia is high separately from the movement of the body part of the character. However, the present invention is not limited thereto.
이러한 캐릭터의 신체와 클로딩 사이의 종속성은 클로딩 마찰력(Ff)을 통하여 수치로 환산될 수 있다. 클로딩 마찰력(Ff)은 클로딩 모션 변화량(Vclm)을 산출하는데 반영될 수 있다. 이에 대한 자세한 설명은 이하에서 후술하도록 한다.The dependence between the character's body and the clothing can be converted to a numerical value through the clothing friction force Ff. The clothing friction force Ff may be reflected in calculating the clothing motion variation Vclm. A detailed description thereof will be provided below.
이어서, 심박수를 기초로 도출된 값(Vl, Vp, Vs, Vw)을 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 기초로 보정한다(S160). 예를 들어, 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 캐릭터의 자세(I1), 피로도(I2), 감정(I3)에 따라 변화될 수 있다. 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 캐릭터의 성별(C1), 나이(C2), 체형(C3) 및 사이즈(C4)에 따라 변화될 수 있다. 또한, 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 배경 공간의 온도(B1), 습도(B2), 시간대(B3)에 따라 변화될 수 있다.Then, the values Vl, Vp, Vs, and Vw derived based on the heart rate are corrected based on the character motion information MI, the background information BI, and the character setting information CI ( S160 ). For example, each change amount (Vl, Vp, Vs) of the character may be changed according to the posture (I1), fatigue (I2), and emotion (I3) of the character. Each change amount (Vl, Vp, Vs) of the character may be changed according to the gender (C1), age (C2), body type (C3), and size (C4) of the character. In addition, each change amount (Vl, Vp, Vs) of the character may be changed according to the temperature (B1), humidity (B2), and time period (B3) of the background space.
이때, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)가 각각의 변화량(Vl, Vp, Vs)에 반영되는 비율은 미리 정해진 가중치에 의해 정해질 수 있다. 예를 들어, 캐릭터 모션 정보(MI) 및 캐릭터 설정 정보(CI)는 배경 정보(BI)에 비해 높은 가중치를 두고 각각의 변화량(Vl, Vp, Vs)에 반영될 수 있다.In this case, the ratio at which the character motion information MI, the background information BI, and the character setting information CI are reflected in the respective variation amounts Vl, Vp, and Vs may be determined by a predetermined weight. For example, the character motion information MI and the character setting information CI may be reflected in the respective variation amounts Vl, Vp, and Vs with a higher weight than the background information BI.
이어서, 보정된 각각의 변화량(Vl, Vp, Vs)을 이용하여 캐릭터 모션 시퀀스(Scm)를 생성한다(S170). 생성된 캐릭터 모션 시퀀스(Scm)는 레이아웃 작업 및 애니메이션 작업에 이용될 수 있다.Next, a character motion sequence Scm is generated using each of the corrected variation amounts Vl, Vp, and Vs (S170). The generated character motion sequence (Scm) may be used for layout work and animation work.
예를 들어, 도 12를 참조하면, 심박수에 따른 폐용적 변화량(Vl)은 도 12의 그래프(SC)와 같이 나타낼 수 있다. 이때, 폐용적 변화량(Vl)은 캐릭터의 종류(Type), 성별(Gender) 등에 대한 요소들을 기초로 보정되어 시계열적인 그래프(SC)로 표현될 수 있다. For example, referring to FIG. 12 , the lung volume change Vl according to the heart rate may be represented as in the graph SC of FIG. 12 . In this case, the lung volume change Vl may be corrected based on factors such as the type and gender of the character and expressed as a time-series graph SC.
또한, 폐용적 변화량(Vl)은 자세 변화량(Vp) 및 모양 변화량(Vs)에 반영될 수 있으며, 각각의 변화량(Vl, Vp, Vs)을 기초로 캐릭터의 가슴 움직임(Chest Motion) 및 복부 움직임(Stomach Motion)을 세밀히 표현할 수 있다. 또한, 이들을 종합한 전체 움직임(Overall Motion)이 표현될 수 있음은 물론이다. In addition, the lung volume change (Vl) can be reflected in the posture change amount (Vp) and shape change amount (Vs), and based on each change amount (Vl, Vp, Vs), the character's chest motion and abdominal movement (Stomach Motion) can be expressed in detail. In addition, it goes without saying that an overall motion that combines them can be expressed.
도 13은 도 9의 모션 변화 연산 모듈의 세부적인 구조를 설명하기 위한 블록도이다. 도 14은 도 13의 인공지능 훈련 모듈의 동작을 설명하기 위한 순서도이다. 이하에서는 전술한 내용과 중복되는 내용은 생략하고 차이점을 위주로 설명하도록 한다.13 is a block diagram illustrating a detailed structure of the motion change calculation module of FIG. 9 . 14 is a flowchart for explaining the operation of the artificial intelligence training module of FIG. 13 . Hereinafter, content overlapping with the above will be omitted, and differences will be mainly described.
도 13을 참조하면, 모션 변화 연산 모듈(PCM)은 인공지능 모듈(AIM1), 인공지능 훈련 모듈(ATM) 및 모션 보정 모듈(MAM)을 포함할 수 있다.Referring to FIG. 13 , the motion change calculation module (PCM) may include an artificial intelligence module (AIM1), an artificial intelligence training module (ATM), and a motion compensation module (MAM).
인공지능 모듈(AIM1)은 심박수(Ihr)를 수신한다. 인공지능 모듈(AIM1)은 심박수를 입력받고, 이에 대한 출력으로 캐릭터의 폐용적 변화량(Vl), 자세 변화량(Vp), 심박수에 따른 신체 각 부위의 모양 변화량(Vs), 및 땀 배출량(Vw)을 제공한다. 이때, 인공지능 모듈(AIM1)은 딥러닝 모듈일 수 있다. 인공지능 모듈(AIM1)은 이미 트레이닝 데이터를 이용하여 트레이닝이 완료된 상태일 수 있다. 이때, 인공지능 모듈(AIM1)은 지도 학습을 이용할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니고, 인공지능 모듈(AIM1)은 비지도 학습을 이용할 수도 있다.The artificial intelligence module (AIM1) receives the heart rate (Ihr). The artificial intelligence module (AIM1) receives heart rate as an input, and outputs the character's lung volume change (Vl), posture change (Vp), shape change amount of each body part according to heart rate (Vs), and sweat output (Vw) provides In this case, the artificial intelligence module AIM1 may be a deep learning module. The artificial intelligence module AIM1 may have already been trained using training data. In this case, the artificial intelligence module AIM1 may use supervised learning. However, the present embodiment is not limited thereto, and the artificial intelligence module AIM1 may use unsupervised learning.
인공지능 모듈(AIM1)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Artificial intelligence module (AIM1) is, for example, DFN (Deep Feedforward Network), CNN (Convolutional Neural Network), GNN (Graph Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), SVM (Support vector) machine), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN), and Spiking (SNN) Neural Network) may be included. However, the present embodiment is not limited thereto.
다른 예로, 인공지능 모듈(AIM1)은 심박수(Ihr)와 함께, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 수신할 수 있다. 인공지능 모듈(AIM1)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력받고, 이에 대한 출력으로 캐릭터의 폐용적 변화량(Vl), 자세 변화량(Vp), 신체 각 부위의 모양 변화량(Vs) 및 땀 배출량(Vw)을 출력할 수 있다. As another example, the artificial intelligence module AIM1 may receive the character motion information MI, the background information BI, and the character setting information CI along with the heart rate Ihr. The artificial intelligence module (AIM1) receives heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI), and outputs the character's lung volume change (Vl), posture change amount (Vp), shape change amount (Vs) of each part of the body, and sweat output (Vw) can be output.
이때, 인공지능 모듈(AIM1)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력 노드로 하는 입력 레이어와, 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)을 출력 노드로 하는 출력 레이어와, 상기 입력 레이어와 상기 출력 레이어 사이에 배치되는 하나 이상의 히든 레이어를 포함하고, 상기 입력 노드와 상기 출력 노드 사이의 노드 및 에지의 가중치는 상기 학습부의 학습 과정에 의해 업데이트될 수 있다.At this time, the artificial intelligence module (AIM1) includes an input layer using heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI) as input nodes, lung volume change (Vl), posture an output layer having an amount of change (Vp), a shape change (Vs), and a sweat amount (Vw) as output nodes, and at least one hidden layer disposed between the input layer and the output layer, wherein the input node and the output The weights of nodes and edges between nodes may be updated by a learning process of the learning unit.
모션 보정 모듈(MAM)은 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 기초로, 인공지능 모듈(AIM1)에서 출력된 각각의 변화량(Vl, Vp, Vs)을 보정한다. 모션 보정 모듈(MAM)은 보정된 각각의 값(Vl, Vp, Vs, Vw)들을 포함하는 캐릭터 모션 시퀀스(Scm)를 출력한다.Motion compensation module (MAM) based on the character motion information (MI), background information (BI) and character setting information (CI), each change amount (Vl, Vp, Vs) output from the artificial intelligence module (AIM1) Correct. The motion compensation module MAM outputs a character motion sequence Scm including each of the corrected values Vl, Vp, Vs, and Vw.
한편, 인공지능 훈련 모듈(ATM)은 인공지능 모듈(AIM1)을 훈련시키는 트레이닝 데이터를 생성하고, 생성된 트레이닝 데이터를 인공지능 모듈(AIM1)에 제공한다.On the other hand, the artificial intelligence training module (ATM) generates training data for training the artificial intelligence module (AIM1), and provides the generated training data to the artificial intelligence module (AIM1).
구체적으로, 도 14를 참조하면, 인공지능 훈련 모듈(ATM)은 호흡하는 대상(예를 들어, 복수의 센서를 부착한 연기자)을 스캔한 복수의 3D 메쉬를 수신한다(S210). 예를 들어, 3D 메쉬는 연기자의 심박수(Ihr)에 대한 정보를 포함할 수 있으며, 심박수(Ihr)는 연기자에게 부착된 센서를 통해 얻어질 수 있다(심전도법, 광전 맥파법, 혈압계법, 심음도법 등).Specifically, referring to FIG. 14 , the artificial intelligence training module (ATM) receives a plurality of 3D meshes scanned by a breathing object (eg, a performer with a plurality of sensors) (S210). For example, the 3D mesh may include information on the performer's heart rate (Ihr), and the heart rate (Ihr) may be obtained through a sensor attached to the performer (electrocardiogram, photoelectric pulse wave, blood pressure, and heart sound). projections, etc.).
이어서, 복수의 3D 메쉬(3D Mesh)를 캐릭터 설정 정보(CI)에 포함된 각 파라미터 별로 그룹핑한다(S220). 예를 들어, 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)가 유사한 복수의 3D 메쉬들을 그룹핑한다.Next, a plurality of 3D meshes are grouped for each parameter included in the character setting information CI ( S220 ). For example, a plurality of 3D meshes having similar gender (C1), age (C2), body type (C3), and size (C4) are grouped.
이어서, 미리 저장된 템플릿 메쉬를 이용하여 그룹핑된 3D 메쉬를 정렬한다(S230). 이는 복수의 서로 다른 3D 메쉬의 평균값을 구하기 위한 전처리 과정에 해당한다.Next, the grouped 3D mesh is aligned using the pre-stored template mesh (S230). This corresponds to a pre-processing process to obtain an average value of a plurality of different 3D meshes.
이어서, 각 그룹핑된 3D 메쉬에 대해 심박수(Ihr)에 따른 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)의 평균값을 도출한다(S240). 또한, 그룹핑된 3D 메쉬의 캐릭터 모션 시퀀스(Scm)의 각 파라미터에 대한 평균값도 함께 도출한다.Next, for each grouped 3D mesh, average values of lung volume change (Vl), posture change (Vp), shape change (Vs), and sweat output (Vw) according to heart rate (Ihr) are derived (S240). In addition, the average value of each parameter of the character motion sequence (Scm) of the grouped 3D mesh is also derived.
이어서, 도출된 값(Vl, Vp, Vs, Vw)에 대한 각각의 평균값을 이용하여 인공지능 모듈(AIM1)을 훈련시킨다(S250). 이때, 도출된 값(Vl, Vp, Vs, Vw)과 심박수(Ihr)에 대한 각각의 평균값은 인공지능 모듈(AIM1)의 입력 노드에 인가되고, 이에 대응되는 캐릭터 모션 시퀀스(Scm)는 인공지능 모듈(AIM1)의 출력 노드에 인가된다. 즉, 트레이닝 데이터는 도출된 값(Vl, Vp, Vs, Vw) 및 심박수(Ihr)에 대한 각각의 평균값과, 이에 대응되는 캐릭터 모션 시퀀스(Scm)의 평균값을 포함할 수 있다. 인공지능 훈련 모듈(ATM)은 생성된 트레이닝 데이터를 이용하여 인공지능 모듈(AIM1)을 훈련시킬 수 있다. Next, the artificial intelligence module AIM1 is trained using the average values of the derived values (Vl, Vp, Vs, and Vw) (S250). At this time, each average value of the derived values (Vl, Vp, Vs, Vw) and heart rate (Ihr) is applied to the input node of the artificial intelligence module (AIM1), and the corresponding character motion sequence (Scm) is artificial intelligence It is applied to the output node of module AIM1. That is, the training data may include an average value of each of the derived values (Vl, Vp, Vs, Vw) and a heart rate (Ihr), and an average value of a character motion sequence (Scm) corresponding thereto. The artificial intelligence training module (ATM) may train the artificial intelligence module (AIM1) using the generated training data.
예를 들어, 트레이닝 데이터는 성별(C1)과 나이(C2)가 동일한 복수의 3D 메쉬들의 그룹에 대하여, 심박수(Ihr), 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)의 평균값을 포함할 수 있다. 또한, 트레이닝 데이터는 성별(C1)과 체형(C3)이 기준치보다 유사한 복수의 3D 메쉬들의 그룹에 대하여, 전술한 데이터(Vl, Vp, Vs, Vw, Ihr)에 대한 평균값을 포함할 수 있다. 즉, 트레이닝 데이터는 캐릭터 설정 정보(CI)에 포함된 파라미터들의 서로 다른 조합을 기초로 생성될 수 있다. For example, training data includes, for a group of a plurality of 3D meshes having the same gender (C1) and age (C2), heart rate (Ihr), lung volume change (Vl), posture change amount (Vp), shape change amount (Vs) , may include an average value of the sweat discharge (Vw). In addition, the training data may include an average value of the aforementioned data (Vl, Vp, Vs, Vw, Ihr) for a group of a plurality of 3D meshes having a gender (C1) and a body shape (C3) similar to the reference value. That is, the training data may be generated based on different combinations of parameters included in the character setting information CI.
또한, 본 발명이 이에 한정되는 것은 아니며, 트레이닝 데이터는 캐릭터 모션 정보(MI) 또는 배경 정보(BI)에 포함된 파라미터들의 서로 다른 조합을 기초로 생성되어 인공지능 모듈(AIM1)을 훈련시킬 수 있음은 물론이다.In addition, the present invention is not limited thereto, and training data may be generated based on different combinations of parameters included in character motion information (MI) or background information (BI) to train the artificial intelligence module (AIM1). is of course
이하에서는, 전술한 애니메이션 모듈(220)에서 수행되는 본 발명의 몇몇 실시예에 대해 살펴보도록 한다.Hereinafter, some embodiments of the present invention performed in the above-described
도 15는 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 일 예를 설명하기 위한 순서도이다.15 is a flowchart illustrating an example of a method of operating an animation module according to an embodiment of the present invention.
도 15를 참조하면, 본 발명의 실시예에 따른 애니메이션 모듈(220)은, 레이아웃 대상이 되는 캐릭터의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다(S310). 여기에서, 호흡량 변화패턴은 심박수를 기초로 생성된 시계열적인 호흡량에 대한 변화를 나타낸다. 호흡량 변화패턴은 실제 사용자로부터 측정한 호흡량의 변화량과 심박수와의 관계를 기초로 생성될 수 있다. 예를 들어, 호흡량 변화패턴은 도 11에 개시된 그래프(SC)와 같이 도시될 수 있다. 또한, 호흡량 변화패턴은 심박수를 기초로 생성된 폐용적 변화량을 기초로 생성될 수 있다. Referring to FIG. 15 , the
이때, 이용되는 심박수(Ihr)는 최적 라이브러리 데이터(CamL_op)에 포함된 캐릭터의 심박수 또는 프리 카메라 워크 정보(Ipcw)에서 설정된 캐릭터의 심박수가 이용될 수 있다.In this case, as the used heart rate Ihr, a heart rate of a character included in the optimal library data CamL_op or a heart rate of a character set in the free camera work information Ipcw may be used.
이어서, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다(S320). 이때, 캐릭터 설정 정보(CI)는 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)를 포함할 수 있다. 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 자세 변화량(Vp)을 도출할 수 있다.Next, the
애니메이션 모듈(220)은 심박수(Ihr)를 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 설정 정보(CI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다. 예를 들어, 30세에 키 180cm의 뚱뚱한 체형의 남성에 대한 제1 캐릭터의 제1 보정값은 60세에 키 160cm의 마른 체형의 여성에 대한 제2 캐릭터의 제2 보정값보다 크게 형성될 수 있다.The
또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다(S330). 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 모양 변화량(Vs)을 도출할 수 있다. 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다. 예를 들어, 심박수가 상대적으로 높은 경우 캐릭터는 흉식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 크게 설정될 수 있다. 반면, 심박수가 상대적으로 낮은 경우 캐릭터는 복식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 작게 설정될 수 있다.Also, the
또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 땀 배출량(Vw)을 도출한다(S340). 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 캐릭터의 신체 각 부위에 대한 땀 배출량(Vw)을 도출할 수 있다.In addition, the
이때, S320 단계 내지 S340 단계의 동작순서는 변경되어 수행될 수 있음은 물론이다.In this case, it goes without saying that the operation order of steps S320 to S340 may be changed and performed.
이어서, 애니메이션 모듈(220)은 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 배경 정보(BI)를 기초로 보정한다(S350). 배경 정보(BI)는 배경(BG)의 온도(B1), 습도(B2) 및 시간대(B3)를 포함할 수 있다. 예를 들어, 온도가 상대적으로 높고 낮시간대의 제1 캐릭터의 경우, 온도가 상대적으로 낮고 밤시간대의 제2 캐릭터보다, 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)의 보정량이 클 수 있다. 다만, 이는 하나의 예시에 불과하고 본 발명이 이에 한정되는 것은 아니다.Next, the
도 16은 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 다른 예를 설명하기 위한 순서도이다. 이하에서는 전술한 내용과 중복되는 내용은 생략하고 차이점을 위주로 설명하도록 한다.16 is a flowchart illustrating another example of an operation method of an animation module according to an embodiment of the present invention. Hereinafter, content overlapping with the above will be omitted, and differences will be mainly described.
도 16을 참조하면, 본 발명의 실시예에 따른 애니메이션 모듈(220)은, 레이아웃 대상이 되는 캐릭터의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다(S410). Referring to FIG. 16 , the
이어서, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다(S420). 이때, 캐릭터 모션 정보(CI)는 캐릭터의 자세(I1), 피로도(I2) 및 감정(I3)에 관한 정보를 포함할 수 있다. 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 자세 변화량(Vp)을 도출할 수 있다. 애니메이션 모듈(220)은 호흡량 변화패턴을 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 모션 정보(MI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다. 예를 들어, 기립자세로 활력이 넘치는 기쁜 감정상태의 제1 캐릭터의 제1 보정값은, 앉은자세로 피로하고 우울한 제2 캐릭터의 제2 보정값보다 크게 형성될 수 있다.Next, the
또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다(S430). 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 모양 변화량(Vs)을 도출할 수 있다. Also, the
또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 땀 배출량(Vw)을 도출한다(S440). 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 캐릭터의 신체 각 부위에 대한 땀 배출량(Vw)을 도출할 수 있다.In addition, the
이때, S420 단계 내지 S440 단계의 동작순서는 변경되어 수행될 수 있음은 물론이다.In this case, it goes without saying that the operation order of steps S420 to S440 may be changed and performed.
이어서, 애니메이션 모듈(220)은 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 배경 정보(BI)를 기초로 보정한다(S450). Next, the
정리하면, 애니메이션 모듈(220)은 심박수(Ihr)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 도출한다. 이어서, 애니메이션 모듈(220)은 캐릭터 설정 정보(CI), 캐릭터 모션 정보(MI), 또는 배경 정보(BI)에 포함된 복수의 파라미터 중 일부를 이용하여, 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 보정할 수 있다. In summary, the
이하에서는, 산출된 캐릭터 모션 시퀀스(Scm)를 기초로 클로딩 모션 시퀀스(Sclm)를 생성하는 애니메이션 모듈(220)의 추가적인 구성에 대해 설명하도록 한다.Hereinafter, an additional configuration of the
도 17은 도 2의 애니메이션 모듈의 추가적인 구성을 설명하기 위한 블록도이다. 도 18은 도 17의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다.FIG. 17 is a block diagram for explaining an additional configuration of the animation module of FIG. 2 . 18 is a flowchart illustrating an operation method of the animation module of FIG. 17 .
도 17 및 도 18을 참조하면, 애니메이션 모듈(220)은 클로딩 모션 산출 모듈(CMM) 및 클로딩 모션 보정 모듈(CMAM)을 포함한다. 17 and 18 , the
클로딩 모션 산출 모듈(CMM)은 캐릭터의 움직임을 나타내는 캐릭터 모션 시퀀스(Scm)를 기초로 프리 클로딩 모션 시퀀스(Sclmp)를 생성하여 출력한다(S510). 여기에서, 프리 클로딩 모션 시퀀스(Sclmp)는 캐릭터가 착용하고 있는 클로딩의 시계열적인 움직임을 나타내는 데이터를 의미한다. 이때, 클로딩 모션 산출 모듈(CMM)은 캐릭터 설정 정보(CI)와 캐릭터 모션 시퀀스(Scm)를 참조하여 프리 클로딩 모션 시퀀스(Sclmp)를 생성할 수 있다. The clothing motion calculation module (CMM) generates and outputs a pre-clothing motion sequence (Sclmp) based on the character motion sequence (Scm) indicating the movement of the character (S510). Here, the pre-clothing motion sequence (Sclmp) means data representing time-series movement of clothing worn by the character. In this case, the clothing motion calculation module CMM may generate the pre-clothing motion sequence Sclmp with reference to the character setting information CI and the character motion sequence Scm.
예를 들어, 클로딩 모션 산출 모듈(CMM)은 캐릭터 설정 정보(CI)에 포함된 캐릭터의 체형(C3), 사이즈(C4), 클로딩(C6)에 관한 데이터를 기초로, 캐릭터 모션 시퀀스(Scm)를 이용하여 클로딩의 움직임을 나타내는 프리 클로딩 모션 시퀀스(Sclmp)를 생성할 수 있다.For example, the clothing motion calculation module (CMM) performs a character motion sequence ( Scm) may be used to generate a pre-clothing motion sequence (Sclmp) indicating the movement of clothing.
클로딩 모션 보정 모듈(CMAM)은 캐릭터의 사실적인 움직임을 부가하기 위해 클로딩 모션 산출 모듈(CMM)에서 출력된 프리 클로딩 모션 시퀀스(Sclmp)를 보정하는 기능을 수행한다. 클로딩 모션 보정 모듈(CMAM)은 전술한 인공지능 모듈(AIM1)에서 출력된 땀 배출량(Vw)을 기초로 프리 클로딩 모션 시퀀스(Sclmp)를 보정하여 클로딩 모션 시퀀스(Sclmp)를 출력할 수 있다.The clothing motion compensation module (CMAM) performs a function of correcting the pre-clothing motion sequence (Sclmp) output from the clothing motion calculation module (CMM) in order to add realistic movement of the character. The clothing motion compensation module (CMAM) can output the clothing motion sequence (Sclmp) by correcting the pre-clothing motion sequence (Sclmp) based on the sweat output (Vw) output from the aforementioned artificial intelligence module (AIM1). have.
구체적으로, 클로딩 모션 보정 모듈(CMAM)은 캐릭터의 땀 배출량(Vw)을 기초로 캐릭터의 바디와 클로딩(C6) 사이의 마찰력(즉, 클로딩 마찰력(Ff))을 산출한다(S520).Specifically, the clothing motion compensation module (CMAM) calculates the frictional force (that is, the clothing frictional force (Ff)) between the character's body and the clothing (C6) based on the character's sweat amount (Vw) (S520) .
이어서, 클로딩 모션 보정 모듈(CMAM)은 산출된 클로딩 마찰력(Ff)을 기초로 프리 클로딩 모션 시퀀스(Sclmp)를 보정한 클로딩 모션 시퀀스(Sclm)를 출력한다(S530). 클로딩 모션 시퀀스(Sclm)는 캐릭터의 클로딩 모션 변화량(Vclm)을 포함한다. Next, the clothing motion compensation module CMAM outputs a clothing motion sequence Sclm obtained by correcting the pre-clothing motion sequence Sclmp based on the calculated clothing friction force Ff (S530). The clothing motion sequence Sclm includes a clothing motion variation Vclm of the character.
구체적으로, 캐릭터의 신체 중에 땀 배출량(Vw)이 상대적으로 많은 부위의 경우, 클로딩 모션 변화량(Vclm)은 캐릭터의 해당 신체 부위에 대한 자세 변화량(Vp) 및 모양 변화량(Vs)의 종속성이 높게 설정되도록 표현될 수 있다. Specifically, in the case of a part of the character's body that has a relatively large amount of sweat (Vw), the clothing motion variation (Vclm) has a high dependence on the character's posture variation (Vp) and shape variation (Vs) for the corresponding body part. It can be expressed to be set.
반면, 캐릭터의 신체 중에 땀 배출량(Vw)이 상대적으로 적은 부위의 경우, 클로딩 모션 변화량(Vclm)은 캐릭터의 해당 신체 부위에 대한 자세 변화량(Vp) 및 모양 변화량(Vs)의 종속성이 낮게 설정되도록 표현될 수 있다. 예를 들어, 땀 배출량(Vw)이 적은 부위는 캐릭터의 신체 부위의 움직임과는 별도로 중력 또는 관성에 대한 종속성이 높도록 클로딩 모션 변화량(Vclm)이 설정될 수 있다. 다만, 이는 하나의 예시에 불과하고, 본 발명이 이에 한정되는 것은 아니다.On the other hand, in the case of a part of the character's body that has a relatively small amount of sweat (Vw), the clothing motion variation (Vclm) has a low dependence on the character's posture variation (Vp) and shape variation (Vs) for the corresponding body part. can be expressed as possible. For example, the clothing motion variation Vclm may be set so that a portion with a small amount of sweat Vw has a high dependence on gravity or inertia separately from the movement of a body part of the character. However, this is only an example, and the present invention is not limited thereto.
클로딩 모션 보정 모듈(CMAM)은 이러한 캐릭터의 움직임과 클로딩 사이의 종속성을 클로딩 마찰력(Ff)을 통하여 수치로 환산할 수 있다. 즉, 클로딩 모션 보정 모듈(CMAM)은 클로딩 모션 변화량(Vclm)을 클로딩 마찰력(Ff)과 캐릭터의 자세 변화량(Vp) 및 모양 변화량(Vs)을 기초로 산출함으로써 클로딩 모션 시퀀스(Sclm)를 생성할 수 있다.The clothing motion compensation module (CMAM) may convert the dependence between the movement of the character and the clothing into a numerical value through the clothing friction force (Ff). That is, the clothing motion compensation module (CMAM) calculates the clothing motion change amount (Vclm) based on the clothing friction force (Ff) and the character's posture change amount (Vp) and shape change amount (Vs) by calculating the clothing motion sequence (Sclm) ) can be created.
이어서, 애니메이션 모듈(220)은 캐릭터 모션 시퀀스(Scm), 클로딩 모션 시퀀스(Sclm), 및 최적 라이브러리 데이터(CamL_op)에 포함된 여러 정보들을 기초로 레이아웃 작업 및 애니메이션 작업을 수행한다.Next, the
이를 통해, 본 발명의 실시예들에 따른 인공지능 기반 메타버스 컨텐츠 제작 시스템은 심박수를 기초로 캐릭터의 호흡과 관련된 디테일한 움직임의 변화를 표현함으로써 리얼리티를 극대화할 수 있다.Through this, the artificial intelligence-based metaverse content production system according to embodiments of the present invention can maximize reality by expressing changes in detailed movements related to breathing of a character based on heart rate.
또한, 인공지능을 통해서 기존에 제작된 애니메이션 파일의 캐릭터에 대한 모션과 관련된 파라미터를 유형별로 분류하고, 새로 제작되는 애니메이션에 파라미터의 세부사항을 적용시켜 애니메이션 제작 기간을 대폭 단축시키고, 애니메이션의 품질도 더 향상시킬 수 있다. 나아가, 딥러닝 모듈을 통해서 빅데이터의 유형을 분류하는 작업을 수행하여 인력의 소모를 최소화하고, 높은 효율을 도모할 수 있다. In addition, through artificial intelligence, motion-related parameters for characters in existing animation files are classified by type, and the details of parameters are applied to newly produced animations to significantly shorten the animation production period and improve animation quality. can be further improved. Furthermore, it is possible to minimize the consumption of manpower and promote high efficiency by performing the task of classifying the types of big data through the deep learning module.
이하에서는, 애니메이션 단계에 이어서 렌더링 단계를 수행하는 렌더링 모듈(230)의 구조 및 동작 방법에 대해 설명하도록 한다.Hereinafter, the structure and operation method of the
도 19는 도 2의 렌더링 모듈을 설명하기 위한 블록도이다. 도 20은 도 19의 렌더링 모듈의 동작 방법을 설명하기 위한 순서도이다. 도 21은 도 20에 나타난 파라미터의 산출 흐름을 설명하기 위한 개념도이다.19 is a block diagram illustrating the rendering module of FIG. 2 . 20 is a flowchart illustrating an operation method of the rendering module of FIG. 19 . FIG. 21 is a conceptual diagram for explaining a flow of calculating a parameter shown in FIG. 20 .
도 19 내지 도 21을 참조하면, 렌더링 모듈(230)은 인공지능 모듈(AIM2) 및 셰이더 모듈(SM)을 포함할 수 있다.19 to 21 , the
인공지능 모듈(AIM2)은 심박수(Ihr)를 수신한다. 인공지능 모듈(AIM2)은 심박수(Ihr)를 입력받고, 이에 대한 출력으로 캐릭터의 신체 각 부위별 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 제공한다. 인공지능 모듈(AIM2)은 딥러닝 모듈일 수 있다. 인공지능 모듈(AIM2)은 이미 트레이닝 데이터를 이용하여 트레이닝이 완료된 상태일 수 있다. 이때, 인공지능 모듈(AIM2)은 지도 학습을 이용할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니고, 인공지능 모듈(AIM2)은 비지도 학습을 이용할 수도 있다.The artificial intelligence module (AIM2) receives the heart rate (Ihr). The artificial intelligence module (AIM2) receives the heart rate (Ihr) and provides the sweat output (Vw) and/or blood flow (Vbfr) for each body part of the character as an output. The artificial intelligence module (AIM2) may be a deep learning module. The artificial intelligence module AIM2 may have already been trained using training data. In this case, the artificial intelligence module (AIM2) may use supervised learning. However, the present embodiment is not limited thereto, and the artificial intelligence module AIM2 may use unsupervised learning.
인공지능 모듈(AIM2)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Artificial intelligence module (AIM2) is, for example, DFN (Deep Feedforward Network), CNN (Convolutional Neural Network), GNN (Graph Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), SVM (Support vector) machine), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN), and Spiking (SNN) Neural Network) may be included. However, the present embodiment is not limited thereto.
다른 예로, 인공지능 모듈(AIM2)은 심박수(Ihr)와 함께, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 수신할 수 있다. 인공지능 모듈(AIM2)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력받고, 이에 대한 출력으로 캐릭터의 신체 각 부위의 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 출력할 수 있다. As another example, the artificial intelligence module AIM2 may receive the character motion information MI, the background information BI, and the character setting information CI along with the heart rate Ihr. The artificial intelligence module (AIM2) receives heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI), and outputs sweat output (Vw) from each part of the character's body. and/or the blood flow Vbfr may be output.
이때, 인공지능 모듈(AIM2)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력 노드로 하는 입력 레이어와, 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 출력 노드로 하는 출력 레이어와, 상기 입력 레이어와 상기 출력 레이어 사이에 배치되는 하나 이상의 히든 레이어를 포함하고, 상기 입력 노드와 상기 출력 노드 사이의 노드 및 에지의 가중치는 상기 학습부의 학습 과정에 의해 업데이트될 수 있다.At this time, the artificial intelligence module (AIM2) includes an input layer using heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI) as input nodes, and sweat output (Vw) and/or an output layer having blood flow (Vbfr) as an output node, and at least one hidden layer disposed between the input layer and the output layer, wherein the weights of nodes and edges between the input node and the output node are determined by the learning unit It can be updated by the learning process.
셰이더 모듈(SM)은 인공지능 모듈(AIM2)에서 출력된 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 기초로, 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 이용하여 레이아웃 대상이 되는 캐릭터의 셰이딩(Shading)을 수행하기 위한 캐릭터 셰이딩 데이터(Dcs)를 생성한다.The shader module (SM) is a layout target using background information (BI) and character setting information (CI) based on sweat discharge (Vw) and/or blood flow (Vbfr) output from the artificial intelligence module (AIM2). Character shading data (Dcs) for performing character shading is generated.
여기에서, 셰이딩(Shading)은 물체와 광원 간의 거리 및 각도에 따라 물체 표면의 조도를 변화시키는 작업을 의미한다. 셰이딩(Shading) 단계에서 캐릭터를 구성하는 각각의 폴리곤의 표면은 광원의 위치 및 밝기, 색깔에 따라 음영이 부가됨으로써 물체에 대한 입체감과 사실감을 표현할 수 있다.Here, shading refers to the operation of changing the illuminance of the object surface according to the distance and angle between the object and the light source. In the shading stage, the surface of each polygon constituting the character is shaded according to the position, brightness, and color of the light source, thereby expressing three-dimensionality and realism of the object.
구체적으로, 도 20을 참조하면, 셰이더 모듈(SM)은 스킨 셰이딩(skin shading), 셰이딩(wet shading), 글리터 셰이딩(glitter shading)을 수행할 수 있다. Specifically, referring to FIG. 20 , the shader module SM may perform skin shading, Ÿ‡ shading, and glitter shading.
여기에서, 스킨 셰이딩은 사람의 피부에 가까운 효과를 내기 위한 쉐이딩을 의미한다. 즉, 스킨 셰이딩을 통해 인간의 피부의 색감과 질감은 물론 반사와 투과에 있어서 독특하고 복잡한 구조를 표현할 수 있다. 예를 들어, 피부의 반투명한 효과를 위해 SSS(Sub-Surface Scattering)기법을 이용할 수 있으며, SSS 기법은 피부나 종이 등 반투명 물체들의 표면에 빛이 닿아서 투과하지 못하고 산란되면서 이뤄지는 현상을 표현할 수 있다.Here, the skin shading means shading to produce an effect close to human skin. In other words, through skin shading, it is possible to express a unique and complex structure in reflection and transmission as well as the color and texture of human skin. For example, the SSS (Sub-Surface Scattering) technique can be used for the translucent effect of the skin, and the SSS technique can express the phenomenon that occurs when light hits the surface of a translucent object such as skin or paper, does not transmit, but is scattered. have.
셰이딩은 사람의 피부에 맺힌 땀, 물기 등을 표현하고, 피부의 수분감을 나타내어 피부의 사실감을 강조하기 위한 쉐이딩을 의미한다.Ÿ‡ Shading refers to shading to emphasize the realism of the skin by expressing sweat, moisture, etc. formed on the skin of the person and expressing the moisture of the skin.
글리터 셰이딩은 피부의 수분감으로 인해 반사되거나 반짝이는 효과를 내기 위한 쉐이딩을 의미한다. Glitter shading refers to shading to create a reflective or shiny effect due to the moisture of the skin.
셰이더 모듈(SM)은 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 기초로 스킨 셰이딩, 셰이딩 및 글리터 셰이딩 중 적어도 하나 이상을 수행할 수 있다. 스킨 셰이딩, 셰이딩, 글리터 셰이딩은 일부가 통합되거나, 별도의 단계로 구분되어 셰이더 모듈(SM)에 의해 수행될 수 있다. 또한, 셰이더 모듈(SM)은 전술한 셰이딩의 일부만을 수행하거나, 추가적인 셰이딩을 수행할 수 있음은 물론이다.The shader module SM may perform at least one of skin shading, Ÿ‡ shading, and glitter shading based on sweat discharge (Vw) and/or blood flow (Vbfr). Skin shading, Ÿ‡ shading, and glitter shading can be partially integrated or divided into separate steps and performed by the shader module (SM). Also, it goes without saying that the shader module SM may perform only a part of the above-described shading or additional shading.
구체적으로, 셰이더 모듈(SM)은 산출된 땀 배출량(Vw)을 기초로, 스킨 셰이딩, 셰이딩 및 글리터 셰이딩 중 적어도 하나 이상을 수행할 수 있다. 예를 들어, 셰이더 모듈(SM)은 스킨 셰이딩을 통해, 땀 배출량(Vw)이 상대적으로 많은 부분의 피부에 대한 투과도를 증가시킬 수 있다. 다른 예를 들어, 셰이더 모듈(SM)은 셰이딩을 통해, 땀 배출량(Vw)이 상대적으로 많은 부분의 피부에 수분감을 표현할 수 있다. 또 다른 예를 들어, 셰이더 모듈(SM)은 글리터 셰이딩을 통해, 땀 배출량(Vw)이 상대적으로 많은 부분의 피부에 반사도를 증가시키거나 반짝임 효과를 부여할 수 있다. Specifically, the shader module SM may perform at least one of skin shading, Ÿ‡ shading, and glitter shading based on the calculated sweat amount Vw. For example, the shader module SM may increase the permeability of a portion of the skin having a relatively large amount of sweat output (Vw) through skin shading. As another example, the shader module (SM) can express moisture on the skin in areas with relatively high sweat output (Vw) through Ÿ‡ shading. As another example, the shader module SM may increase reflectivity or impart a shimmering effect to the skin of a portion having a relatively large sweat output (Vw) through glitter shading.
또한, 셰이더 모듈(SM)은 산출된 혈류량(Vbfr)을 기초로, 스킨 셰이딩을 수행하여 캐릭터의 피부색을 조절할 수 있다. 예를 들어, 셰이더 모듈(SM)은 스킨 셰이딩을 통해, 혈류량(Vbfr)이 상대적으로 큰 부분의 피부에 대해 붉은색 계열을 증가시켜, 홍조 효과를 연출함으로서 사실감을 부여할 수 있다.Also, the shader module SM may perform skin shading based on the calculated blood flow Vbfr to adjust the skin color of the character. For example, the shader module SM may increase the red color of the skin in a portion having a relatively large blood flow (Vbfr) through skin shading, thereby creating a redness effect to give realism.
도 21을 참조하면, 렌더링 모듈(230)은 캐릭터의 심박수(Ihr)에 따른 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 산출한다(S610). 이때, 렌더링 모듈(230)은 전술한 인공지능 모듈(AIM2)을 이용하여 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 산출할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.Referring to FIG. 21 , the
이어서, 렌더링 모듈(230)은 배경 정보(BI)에 포함된 시간대(B3)에 관한 정보를 기초로 광원의 위치 및 광량을 포함하는 광원정보를 산출한다(S620). 추가적으로, 렌더링 모듈(230)은 배경 정보(BI)에 포함된 지역에 관한 정보(예를 들어, 위도, 경도, 일조량, 날씨, 구름량 등)를 기초로 미리 정해진 계산식을 통하여 광원정보를 세밀하게 도출할 수 있다. 또한, 광원정보는 미리 정해진 인조광과 자연광으로 구분되어 포함될 수 있다.Next, the
이어서, 렌더링 모듈(230)은 산출된 광원정보 및 캐릭터 설정 정보(CI)와, 땀 배출량(Vw) 및/또는 혈류량(Vbfr)을 기초로, 캐릭터 셰이딩 데이터(Dcs)를 생성한다(S630). 캐릭터 셰이딩 데이터(Dcs)는 전술한 스킨 셰이딩, 셰이딩 및 글리터 셰이딩 중 적어도 하나 이상을 수행하기 위한 데이터를 의미한다.Next, the
이어서, 렌더링 모듈(230)은 생성된 캐릭터 셰이딩 데이터(Dcs)를 기초로 캐릭터의 렌더링 단계를 수행한다(S640). Next, the
즉, 본 발명은 캐릭터의 심박수(Ihr)를 기초로 산출한 땀 배출량(Vw), 혈류량(Vbfr) 등의 데이터를 이용하여 캐릭터의 피부에 표현되는 땀, 반짝임 또는 피부색 변화 등을 렌더링 단계에서 세밀하게 표현할 수 있다. 제작자는 이러한 캐릭터의 디테일한 변화를 수작업으로 일일이 정의하고 설정하는 것이 아닌, 작업 지시(Wp)에서 캐릭터 또는 배경의 설정값을 조정하는 것만으로 캐릭터의 디테일한 외관의 변화를 표현할 수 있어, 캐릭터의 리얼리티를 극대화하고, 애니메이션 제작의 편의성 및 작업의 속도를 높일 수 있다.That is, the present invention uses data such as sweat discharge (Vw) and blood flow (Vbfr) calculated based on the character's heart rate (Ihr) to detail sweat, glitter, or skin color change expressed on the character's skin in the rendering stage. can be expressed Rather than manually defining and setting these detailed changes in characters, the creator can express detailed changes in the character's appearance just by adjusting the settings of the character or background in the work instruction (Wp). You can maximize the reality, and increase the convenience of animation production and the speed of work.
또한, 본 발명은 생체정보를 기초로 캐릭터 신체의 각 부위별 자세 변화량, 모양 변화량, 및 땀 배출량을 도출하고, 캐릭터 설정 정보, 캐릭터 모션 정보 또는 배경 정보에 포함된 복수의 파라미터 중 일부를 이용하여 도출된 데이터들을 보정함으로써, 캐릭터의 움직임 및 캐릭터의 클로딩 움직임에 대한 리얼리티를 극대화할 수 있다.In addition, the present invention derives the amount of change in posture, change in shape, and amount of sweat for each part of the character's body based on biometric information, and uses some of a plurality of parameters included in character setting information, character motion information, or background information. By correcting the derived data, it is possible to maximize the reality of the movement of the character and the movement of the character's clothing.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and a person skilled in the art to which this embodiment belongs may make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present embodiment.
Claims (10)
상기 메타버스 컨텐츠 제작 장치에서 생성된 상기 프리 카메라 워크 정보를 제공받고, 상기 프리 카메라 워크 정보를 이용하여 상기 최적 라이브러리 데이터를 선정하고, 상기 선정된 최적 라이브러리 데이터를 상기 메타버스 컨텐츠 제작 장치로 전송하는 빅데이터 라이브러리를 포함하되,
상기 프리 카메라 워크 정보는, 캐릭터의 심박수를 포함하는 캐릭터 모션 정보를 포함하고,
상기 메타버스 컨텐츠 제작 장치는,
상기 작업 지시를 기초로 상기 캐릭터와 상기 캐릭터가 착용한 클로딩을 모델링하는 모델링 모듈; 및
모델링된 상기 캐릭터 및 상기 클로딩의 움직임을 생성하는 애니메이션 모듈을 포함하고,
상기 애니메이션 모듈은,
상기 캐릭터의 심박수를 추출하고,
상기 심박수를 기초로 상기 캐릭터의 폐용적 변화량, 자세 변화량, 모양 변화량 및 상기 캐릭터의 신체 부위별 땀 배출량을 포함하는 제1 데이터를 도출하되, 상기 폐용적 변화량은 상기 캐릭터의 폐의 크기에 대한 시계열적인 변화량을 의미하고, 상기 자세 변화량은 상기 캐릭터의 움직임을 표현하는 복수의 포인트들의 시계열적인 변화량을 의미하고, 상기 모양 변화량은 상기 캐릭터의 가슴 모양 변화량 및 복부 모양 변화량을 포함하는 상기 캐릭터의 신체 부위의 모양 변화량을 의미하고,
상기 심박수가 미리 정해진 기준치 보다 높은 경우, 상기 가슴 모양 변화량은 상기 복부 모양 변화량보다 크게 설정되고,
상기 심박수가 미리 정해진 기준치 보다 낮은 경우, 상기 가슴 모양 변화량은 상기 복부 모양 변화량보다 작게 설정되며,
상기 제1 데이터를, 상기 캐릭터 모션 정보, 배경 정보 및 캐릭터 설정 정보를 포함하는 상기 최적 라이브러리 데이터를 기초로 보정한 제2 데이터를 도출하고,
상기 제2 데이터를 기초로, 상기 캐릭터가 착용하고 있는 클로딩의 시계열적인 움직임을 나타내는 프리 클로딩 모션 시퀀스를 생성하고,
상기 프리 클로딩 모션 시퀀스를, 상기 땀 배출량을 기초로 산출된 상기 캐릭터의 바디와 상기 클로딩 사이의 마찰력을 기초로 보정하여 클로딩 모션 시퀀스를 생성하되, 상기 클로딩 모션 시퀀스는 상기 캐릭터에 대한 클로딩 모션 변화량을 포함하고,
상기 클로딩 모션 시퀀스를 기초로 상기 클로딩의 모션 변화를 표현하고,
상기 심박수를 기초로 상기 캐릭터의 혈류량을 더 도출하고,
상기 캐릭터의 땀 배출량 및 상기 캐릭터의 혈류량을 기초로 캐릭터 셰이딩 데이터를 생성하고,
상기 캐릭터 셰이딩 데이터를 이용하여, 상기 캐릭터의 피부색 변화량을 표현하는 것을 포함하는
인공지능 기반 메타버스 컨텐츠 제작 시스템.
Receive a work instruction from a producer, generate free camera work information according to the work instruction, receive optimal library data related to the free camera work information, apply the optimal library data to perform rendering, and an animation image a metaverse content production device that generates and
receiving the free camera work information generated by the metaverse content production apparatus, selecting the optimal library data using the free camera work information, and transmitting the selected optimal library data to the metaverse content production apparatus including a big data library,
The pre-camera walk information includes character motion information including a heart rate of the character,
The metaverse content production device,
a modeling module for modeling the character and the clothing worn by the character based on the work instruction; and
Comprising an animation module for generating the movement of the modeled character and the clothing,
The animation module is
extracting the heart rate of the character;
Based on the heart rate, first data including the amount of change in lung volume of the character, the amount of change in posture, the amount of change in shape, and the amount of sweat per body part of the character are derived, wherein the amount of change in lung volume is a time series of the size of the character's lungs body part of the character including a change in chest shape and a change in abdominal shape of the character, the amount of change in the posture means a change in time series of a plurality of points expressing the movement of the character, and the amount of change in the shape of the character means the amount of change in the shape of
When the heart rate is higher than a predetermined reference value, the chest shape change amount is set to be larger than the abdominal shape change amount,
When the heart rate is lower than a predetermined reference value, the chest shape change amount is set to be smaller than the abdominal shape change amount,
Deriving second data obtained by correcting the first data based on the optimal library data including the character motion information, background information, and character setting information,
Based on the second data, generating a pre-clothing motion sequence representing the time-series movement of the clothing worn by the character,
A clothing motion sequence is generated by correcting the pre-clothing motion sequence based on the friction force between the body of the character and the clothing calculated based on the sweat amount, wherein the clothing motion sequence is for the character. including clothing motion variation,
Expressing a motion change of the clothing based on the clothing motion sequence,
further derive the blood flow of the character based on the heart rate,
generating character shading data based on the character's sweat output and the character's blood flow,
Using the character shading data to express the amount of skin color change of the character
An artificial intelligence-based metaverse content creation system.
상기 메타버스 컨텐츠 제작 장치는,
상기 최적 라이브러리 데이터에 포함된 상기 배경 정보를 기초로 광량 및 광원위치를 포함하는 광원정보를 산출하고,
상기 산출된 광원정보, 상기 최적 라이브러리 데이터에 포함된 상기 캐릭터 모션 정보, 상기 캐릭터 설정 정보, 상기 배경 정보를 더 이용하여 상기 캐릭터 셰이딩 데이터를 생성하고,
상기 생성된 캐릭터 셰이딩 데이터를 기초로 상기 캐릭터의 렌더링을 수행하는 렌더링 모듈을 포함하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
According to claim 1,
The metaverse content production device,
Calculate light source information including light quantity and light source position based on the background information included in the optimal library data,
generating the character shading data using the calculated light source information, the character motion information included in the optimal library data, the character setting information, and the background information;
and a rendering module for rendering the character based on the generated character shading data.
상기 캐릭터 모션 정보는, 상기 캐릭터의 자세, 피로도, 및 감정 중 적어도 하나와, 상기 캐릭터의 심박수를 포함하고,
상기 배경 정보는, 레이아웃 작업에 이용되는 배경의 온도, 습도, 및 시간대 중 적어도 하나를 포함하고,
상기 캐릭터 설정 정보는, 상기 캐릭터의 성별, 나이, 체형, 사이즈, 피부색, 및 클로딩 중 적어도 하나를 포함하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
3. The method of claim 2,
The character motion information includes at least one of a posture, fatigue, and emotion of the character, and a heart rate of the character,
The background information includes at least one of temperature, humidity, and time zone of the background used for layout work,
The character setting information is an artificial intelligence-based metaverse content creation system including at least one of gender, age, body type, size, skin color, and clothing of the character.
상기 렌더링 모듈은,
상기 심박수를 입력받고, 이에 대한 출력으로 상기 혈류량을 출력하는 인공지능 모듈과,
상기 인공지능 모듈에서 출력된 상기 혈류량을 상기 배경 정보 또는 상기 캐릭터 설정 정보를 기초로 보정하여 상기 캐릭터 셰이딩 데이터를 출력하는 셰이더 모듈을 포함하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
3. The method of claim 2,
The rendering module,
an artificial intelligence module that receives the heart rate and outputs the blood flow as an output;
and a shader module outputting the character shading data by correcting the blood flow output from the artificial intelligence module based on the background information or the character setting information.
상기 빅데이터 라이브러리는,
적어도 하나의 카메라 워크 라이브러리 데이터를 저장하는 라이브러리 데이터베이스와,
상기 카메라 워크 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 상기 최적 라이브러리 데이터를 선정하는 최적 라이브러리 선정 모듈을 포함하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
According to claim 1,
The big data library is
a library database for storing at least one camera work library data;
and an optimal library selection module for selecting the optimal library data by comparing the camera work library data with the free camera work information.
상기 프리 카메라 워크 정보에 포함된 상기 캐릭터 모션 정보의 유형에 관한 모션 파라미터를 생성하는 파라미터 변환 모듈을 더 포함하고,
상기 최적 라이브러리 선정 모듈은,
상기 모션 파라미터를 통해 상기 카메라 워크 라이브러리 데이터 중 일부를 필터링하여 필터링 데이터를 선정하고, 상기 필터링 데이터 중 상기 프리 카메라 워크 정보와 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정하는 인공지능 기반 메타버스 컨텐츠 제작 시스템.
6. The method of claim 5,
Further comprising a parameter conversion module for generating a motion parameter related to the type of the character motion information included in the free camera walk information,
The optimal library selection module is
An artificial intelligence-based metaverse content production system that filters some of the camera work library data through the motion parameter to select filtering data, and selects data most similar to the free camera work information among the filtered data as the optimal library data .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210115957A KR102343582B1 (en) | 2021-08-31 | 2021-08-31 | Artificial intelligence-based metaverse contents making system for using biometric information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210115957A KR102343582B1 (en) | 2021-08-31 | 2021-08-31 | Artificial intelligence-based metaverse contents making system for using biometric information |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102343582B1 true KR102343582B1 (en) | 2021-12-29 |
Family
ID=79176761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210115957A KR102343582B1 (en) | 2021-08-31 | 2021-08-31 | Artificial intelligence-based metaverse contents making system for using biometric information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102343582B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102439122B1 (en) | 2022-03-02 | 2022-09-01 | 주식회사 파이미디어랩 | User location analysis monitoring system in metaverse environment |
KR102445134B1 (en) * | 2022-03-03 | 2022-09-19 | 가천대학교 산학협력단 | System And Method For Generating An Avatar Based On A User's Information And Providing An NFT For Avatar |
KR102445133B1 (en) * | 2022-03-03 | 2022-09-19 | 가천대학교 산학협력단 | System That Creates An Avatar, Provides It To An External Metaverse Platforms, And Updates The Avatar, And Method Thereof |
KR102445135B1 (en) * | 2022-03-03 | 2022-09-20 | 가천대학교 산학협력단 | System And Method For Providing Forgery And Falsification Verification Of Avatar Information For Avatar Generation On The Metaverse Platform |
KR102461267B1 (en) * | 2022-07-12 | 2022-11-01 | 주식회사 에이펀인터렉티브 | Metaverse character making system and method for using voice data |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040096799A (en) | 2004-06-30 | 2004-11-17 | 주식회사 연세교육미디어 | On/off line integrate education system using interactive publication and embodiment method thereof |
KR20060032409A (en) * | 2004-10-12 | 2006-04-17 | 삼성전자주식회사 | Method and apparatus of generating avata for representing state of health |
JP2008107904A (en) * | 2006-10-23 | 2008-05-08 | National Institute Of Information & Communication Technology | Text and animation service apparatus, and computer program |
KR20170068741A (en) * | 2015-12-10 | 2017-06-20 | 주식회사 매니아마인드 | Method and program for providing virtual fitting service |
KR20200071990A (en) * | 2018-12-12 | 2020-06-22 | 삼성전자주식회사 | Electronic device and method for displaying three dimensions image |
KR20210112853A (en) * | 2020-03-06 | 2021-09-15 | 주식회사 어라운드이펙트 | Method and Apparatus for automatic placement of animation data Based on Text |
-
2021
- 2021-08-31 KR KR1020210115957A patent/KR102343582B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040096799A (en) | 2004-06-30 | 2004-11-17 | 주식회사 연세교육미디어 | On/off line integrate education system using interactive publication and embodiment method thereof |
KR20060032409A (en) * | 2004-10-12 | 2006-04-17 | 삼성전자주식회사 | Method and apparatus of generating avata for representing state of health |
JP2008107904A (en) * | 2006-10-23 | 2008-05-08 | National Institute Of Information & Communication Technology | Text and animation service apparatus, and computer program |
KR20170068741A (en) * | 2015-12-10 | 2017-06-20 | 주식회사 매니아마인드 | Method and program for providing virtual fitting service |
KR20200071990A (en) * | 2018-12-12 | 2020-06-22 | 삼성전자주식회사 | Electronic device and method for displaying three dimensions image |
KR20210112853A (en) * | 2020-03-06 | 2021-09-15 | 주식회사 어라운드이펙트 | Method and Apparatus for automatic placement of animation data Based on Text |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102439122B1 (en) | 2022-03-02 | 2022-09-01 | 주식회사 파이미디어랩 | User location analysis monitoring system in metaverse environment |
KR102445134B1 (en) * | 2022-03-03 | 2022-09-19 | 가천대학교 산학협력단 | System And Method For Generating An Avatar Based On A User's Information And Providing An NFT For Avatar |
KR102445133B1 (en) * | 2022-03-03 | 2022-09-19 | 가천대학교 산학협력단 | System That Creates An Avatar, Provides It To An External Metaverse Platforms, And Updates The Avatar, And Method Thereof |
KR102445135B1 (en) * | 2022-03-03 | 2022-09-20 | 가천대학교 산학협력단 | System And Method For Providing Forgery And Falsification Verification Of Avatar Information For Avatar Generation On The Metaverse Platform |
KR102461267B1 (en) * | 2022-07-12 | 2022-11-01 | 주식회사 에이펀인터렉티브 | Metaverse character making system and method for using voice data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102343582B1 (en) | Artificial intelligence-based metaverse contents making system for using biometric information | |
US11538216B2 (en) | Dynamically estimating light-source-specific parameters for digital images using a neural network | |
KR102341866B1 (en) | System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof | |
US10846903B2 (en) | Single shot capture to animated VR avatar | |
US10540817B2 (en) | System and method for creating a full head 3D morphable model | |
JP6522060B2 (en) | Object recognition device, classification tree learning device and operation method thereof | |
US8624901B2 (en) | Apparatus and method for generating facial animation | |
US20200151963A1 (en) | Training data set generation apparatus and method for machine learning | |
EP3335195A2 (en) | Methods of generating personalized 3d head models or 3d body models | |
CN108961369A (en) | The method and apparatus for generating 3D animation | |
CN103262126B (en) | Image processing apparatus, illumination processing device and method thereof | |
CN113628327A (en) | Head three-dimensional reconstruction method and equipment | |
CN112784621A (en) | Image display method and apparatus | |
CN106447763A (en) | Face image three-dimensional reconstruction method for fusion of sparse deformation model and principal component regression algorithm | |
Thalmann et al. | Modeling of populations | |
KR102316114B1 (en) | Artificial intelligence-based layout system utilizing animatic image and big data and method therefor | |
Wang et al. | Digital twin: Acquiring high-fidelity 3D avatar from a single image | |
CN116134491A (en) | Multi-view neuro-human prediction using implicit differentiable renderers for facial expression, body posture morphology, and clothing performance capture | |
CN109658508A (en) | A kind of landform synthetic method of multiple dimensioned details fusion | |
KR102343581B1 (en) | Artificial intelligence-based digital-idol making system for enhancing character reality using biometric information | |
KR100889854B1 (en) | Method and Apparatus for creating caricature Video | |
KR102341863B1 (en) | Artificial intelligence-based digital-idol contents making system using biometric information | |
KR102316111B1 (en) | Artificial intelligence-based animation layout system utilizing big data and method therefor | |
US20230050535A1 (en) | Volumetric video from an image source | |
Vladimirov et al. | Overview of Methods for 3D Reconstruction of Human Models with Applications in Fashion E-Commerce |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |