KR102341863B1 - Artificial intelligence-based digital-idol contents making system using biometric information - Google Patents

Artificial intelligence-based digital-idol contents making system using biometric information Download PDF

Info

Publication number
KR102341863B1
KR102341863B1 KR1020210112684A KR20210112684A KR102341863B1 KR 102341863 B1 KR102341863 B1 KR 102341863B1 KR 1020210112684 A KR1020210112684 A KR 1020210112684A KR 20210112684 A KR20210112684 A KR 20210112684A KR 102341863 B1 KR102341863 B1 KR 102341863B1
Authority
KR
South Korea
Prior art keywords
character
information
module
change
idol
Prior art date
Application number
KR1020210112684A
Other languages
Korean (ko)
Inventor
서보국
김종철
Original Assignee
주식회사 에스에이엠지엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스에이엠지엔터테인먼트 filed Critical 주식회사 에스에이엠지엔터테인먼트
Priority to KR1020210112684A priority Critical patent/KR102341863B1/en
Application granted granted Critical
Publication of KR102341863B1 publication Critical patent/KR102341863B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

An artificial intelligence-based digital idol content making system using biometric information according to the present invention comprises: a digital idol making device for receiving task instructions from a producer, generating precamera work information according to the task instructions, receiving optimal library data optimized for the pre-camerawork information, performing a layout operation by applying the optimal library data, and generating an animation image; and a big data library for finding the optimal library data through the determination of similarity with the pre-camerawork information and transmitting the same to the digital idol making device. The pre-camerawork information includes character motion information including the heart rate of a specific character. The digital idol making device derives a character motion sequence representing a change in the motion of the character based on the heart rate and performs the layout operation using the derived character motion sequence.

Description

생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템{Artificial intelligence-based digital-idol contents making system using biometric information} Artificial intelligence-based digital-idol contents making system using biometric information}

본 발명은 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템에 관한 것이다. 구체적으로, 본 발명은 디지털아이돌 컨텐츠 제작 과정에서 캐릭터와 관련된 생체정보를 기초로 캐릭터의 디테일한 움직임을 자동으로 표현하는 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템에 관한 것이다.The present invention relates to an artificial intelligence-based digital idol content production system using biometric information. Specifically, the present invention relates to an artificial intelligence-based digital idol content production system that automatically expresses detailed movements of a character based on biometric information related to the character in the digital idol content production process.

디지털아이돌 컨텐츠 제작은 매우 복잡한 절차를 통해서 이루어진다. 종래의 디지털아이돌 컨텐츠 제작의 경우 3D 그래픽을 다루는 DCC(Digital Content Creation tools)을 이용하여 선형적인 방식으로 제작이 이루어진다. 구체적으로, 현재의 디지털아이돌 컨텐츠 제작 방식은 모델링 단계, 애니메이션 단계, 렌더링 단계 및 컴포짓 단계를 순차적으로 수행하여 최종적인 애니메이션 이미지가 생성된다. Digital idol content production is done through a very complicated procedure. In the case of the conventional digital idol content production, the production is made in a linear manner using DCC (Digital Content Creation tools) that deal with 3D graphics. Specifically, the current digital idol content production method sequentially performs a modeling step, an animation step, a rendering step, and a compositing step to generate a final animation image.

이러한 방식의 디지털아이돌 컨텐츠 제작 방법에서는 캐릭터의 리얼리티를 살리기 위해 다양한 방식을 이용하고 있다. 가장 대표적으로 복수의 센서를 부착한 연기자의 움직임을 기초로 3D 메쉬를 생성한 뒤, 생성된 3D 메쉬를 캐릭터에 적용함으로써 캐릭터에 생동감을 불러 일으키는 작업을 진행하고 있다.In this type of digital idol content production method, various methods are used to bring out the reality of the character. The most representative work is to create a 3D mesh based on the movement of an actor with multiple sensors, and then apply the generated 3D mesh to the character to bring the character to life.

디지털아이돌 컨텐츠 제작 과정에서는 다양한 캐릭터와 배경이 이용되고, 각 캐릭터와 배경에 대한 설정 및 상황이 다를 수 있다. 다만, 이러한 캐릭터와 배경의 설정 및 상황이 달라질 때마다, 연기자가 새로 연기를 하여 3D 메쉬를 생성하고 적용하는 경우 시간과 비용이 증가되며, 새로운 캐릭터 및 상황에 따른 변화에 대한 즉각적인 적용이 어렵다는 문제가 존재하였다.Various characters and backgrounds are used in the digital idol content creation process, and settings and situations for each character and background may be different. However, whenever the settings and circumstances of these characters and backgrounds are changed, time and cost increase when an actor performs a new role and creates and applies a 3D mesh, and it is difficult to immediately apply changes according to new characters and situations was present.

따라서, 캐릭터의 리얼리티를 살리고, 제작비용을 절감하기 위한 다양한 애니메이션 제작의 추가적인 처리 과정들이 개발되고 있는 실정이다.Accordingly, additional processing processes for various animation productions are being developed in order to preserve the reality of the character and reduce production costs.

공개특허공보 제10-2004-0096799호Laid-open Patent Publication No. 10-2004-0096799

본 발명의 과제는, 디지털아이돌 컨텐츠 제작 과정의 효율성을 극대화하기 위해 기존 캐릭터의 3D 메쉬와 생체정보의 변화에 따른 움직임 변화를 산출하여, 이를 애니메이션 단계에 적용하는 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템을 제공하는 것이다.An object of the present invention is to create an artificial intelligence-based digital idol content production system that calculates movement changes according to changes in the 3D mesh and biometric information of existing characters and applies them to the animation stage in order to maximize the efficiency of the digital idol content production process. will provide

또한, 본 발명의 다른 과제는, 캐릭터의 리얼리티를 극대화하기 위해 생체정보를 기초로 캐릭터의 신체 각 부분에 대한 움직임의 변화를 도출하고, 캐릭터의 모션 정보, 배경 정보, 설정 정보를 이용하여 캐릭터의 움직임을 보정하는 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템을 제공하는 것이다.In addition, another object of the present invention is to derive a change in movement for each part of the character's body based on biometric information in order to maximize the character's reality, and use the character's motion information, background information, and setting information to It is to provide an artificial intelligence-based digital idol content creation system that corrects movement.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템은, 제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보에 최적화된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 레이아웃 작업을 수행하고, 애니메이션 이미지를 생성하는 디지털아이돌 제작 장치 및 상기 프리 카메라 워크 정보와의 유사성 판단을 통해서, 상기 최적 라이브러리 데이터를 찾아 상기 디지털아이돌 제작 장치로 전송하는 빅데이터 라이브러리를 포함하되, 상기 프리 카메라 워크 정보는, 특정 캐릭터의 심박수를 포함하는 캐릭터 모션 정보를 포함하고, 상기 디지털아이돌 제작 장치는, 상기 심박수를 기초로 상기 캐릭터의 움직임 변화량을 나타내는 캐릭터 모션 시퀀스를 도출하고, 도출된 상기 캐릭터 모션 시퀀스를 이용하여 상기 레이아웃 작업을 수행하는 것을 포함한다.An artificial intelligence-based digital idol content production system using biometric information according to some embodiments of the present invention for solving the above problems receives a work instruction from a producer, generates free camera work information according to the work instruction, and Through a digital idol production apparatus that receives optimal library data optimized for free camera work information, performs layout work by applying the optimal library data, and generates an animation image, and determines similarity with the free camera work information, the a big data library that finds optimal library data and transmits it to the digital idol production device, wherein the free camera work information includes character motion information including a heart rate of a specific character, and wherein the digital idol production device includes: and deriving a character motion sequence indicating the amount of change in motion of the character based on , and performing the layout operation using the derived character motion sequence.

또한, 상기 디지털아이돌 제작 장치는, 상기 작업 지시를 기초로 캐릭터를 모델링하는 모델링 모듈과, 상기 모델링된 캐릭터의 움직임을 생성하는 애니메이션 모듈을 포함하되, 상기 애니메이션 모듈은, 상기 최적 라이브러리 데이터에 포함된 상기 캐릭터 모션 정보, 배경 정보 및 캐릭터 설정 정보를 이용하여 상기 캐릭터 모션 시퀀스를 도출할 수 있다.In addition, the digital idol production apparatus includes a modeling module for modeling a character based on the work instruction, and an animation module for generating the movement of the modeled character, wherein the animation module includes: The character motion sequence may be derived using the character motion information, the background information, and the character setting information.

또한, 상기 캐릭터 모션 정보는, 상기 캐릭터의 자세, 피로도 및 감정 중 적어도 하나와, 상기 캐릭터의 심박수를 포함하고, 상기 배경 정보는, 상기 레이아웃 작업에 이용되는 배경의 온도, 습도 및 시간대 중 적어도 하나를 포함하고, 상기 캐릭터 설정 정보는, 상기 캐릭터의 성별, 나이, 체형 및 사이즈 중 적어도 하나를 포함할 수 있다.In addition, the character motion information includes at least one of a posture, fatigue, and emotion of the character, and a heart rate of the character, and the background information includes at least one of temperature, humidity, and time zone of a background used for the layout work. and, the character setting information may include at least one of gender, age, body type, and size of the character.

또한, 상기 애니메이션 모듈은, 상기 캐릭터의 심박수를 추출하고, 상기 심박수에 따른 상기 캐릭터의 폐용적 변화량, 자세 변화량 및 신체 각 부위의 모양 변화량을 도출하고, 상기 도출된 각각의 변화량을 상기 캐릭터 모션 정보, 상기 배경 정보, 또는 상기 캐릭터 설정 정보를 기초로 보정하고, 상기 보정된 각각의 변화량을 이용하여 상기 캐릭터 모션 시퀀스를 생성하는 것을 포함할 수 있다.In addition, the animation module extracts the heart rate of the character, derives the amount of change in lung volume, the amount of change in posture, and the amount of change in the shape of each body part of the character according to the heart rate, and uses the derived amount of each change as the character motion information , correcting based on the background information or the character setting information, and generating the character motion sequence using the corrected amount of each change.

또한, 상기 애니메이션 모듈은, 상기 심박수를 입력받고, 이에 대한 출력으로 상기 폐용적 변화량, 상기 자세 변화량 및 신체 각 부위의 상기 모양 변화량을 제공하는 인공지능 모듈과, 상기 인공지능 모듈에서 출력된 상기 각각의 변화량을 상기 캐릭터 모션 정보, 상기 배경 정보, 또는 상기 캐릭터 설정 정보를 기초로 보정하여 상기 캐릭터 모션 시퀀스를 출력하는 모션 보정 모듈을 포함할 수 있다.In addition, the animation module includes an artificial intelligence module that receives the heart rate and provides the lung volume change amount, the posture change amount, and the shape change amount of each body part as outputs; and a motion compensation module configured to output the character motion sequence by correcting a change amount of ? based on the character motion information, the background information, or the character setting information.

또한, 상기 인공지능 모듈은, 상기 캐릭터 모션 정보, 상기 배경 정보, 또는 상기 캐릭터 설정 정보를 추가로 입력받고, 이에 대한 출력으로 상기 폐용적 변화량, 상기 자세 변화량 및 신체 각 부위의 상기 모양 변화량을 출력하는 것을 포함할 수 있다.In addition, the artificial intelligence module receives the character motion information, the background information, or the character setting information as an additional input, and outputs the lung volume change amount, the posture change amount, and the shape change amount of each body part as outputs. may include doing

또한, 호흡하는 대상을 스캔한 복수의 3D 메쉬를 수신하고, 상기 복수의 3D 메쉬를 상기 캐릭터 설정 정보에 포함된 각 파라미터 별로 그룹핑하고, 각 그룹핑된 3D 메쉬에 대해 상기 각각의 변화량에 대한 평균값을 도출하고, 상기 도출된 평균값을 이용하여 상기 인공지능 모듈을 학습시키는 인공지능 훈련 모듈을 더 포함할 수 있다.In addition, receiving a plurality of 3D meshes scanned for a breathing object, grouping the plurality of 3D meshes for each parameter included in the character setting information, and the average value for each change amount for each grouped 3D mesh It may further include an artificial intelligence training module for deriving and learning the artificial intelligence module using the derived average value.

또한, 상기 빅데이터 라이브러리는, 적어도 하나의 카메라 워크 라이브러리 데이터를 저장하는 라이브러리 데이터베이스와, 상기 카메라 워크 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 유사성을 기반으로 최적 라이브러리 데이터를 선정하는 최적 라이브러리 선정 모듈을 포함할 수 있다.In addition, the big data library, a library database for storing at least one camera work library data, and an optimal library selection module for selecting the optimal library data based on similarity by comparing the camera work library data and the free camera work information may include

또한, 상기 프리 카메라 워크 정보에 포함된 상기 캐릭터 모션 정보의 유형에 관한 모션 파라미터를 생성하는 파라미터 변환 모듈을 더 포함하고, 상기 최적 라이브러리 선정 모듈은, 상기 모션 파라미터를 통해서 상기 카메라 워크 라이브러리 데이터 중 동일한 유형의 필터링 데이터를 선정하고, 상기 필터링 데이터 중 상기 프리 카메라 워크 정보와 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정할 수 있다.In addition, further comprising a parameter conversion module for generating a motion parameter related to the type of the character motion information included in the pre-camera walk information, the optimal library selection module, the same of the camera walk library data through the motion parameter A type of filtering data may be selected, and data most similar to the free camera work information among the filtering data may be selected as the optimal library data.

또한, 상기 모션 파라미터는, 상기 캐릭터 모션 정보에 포함된 캐릭터의 심박수, 자세, 피로도 및 감정 중 적어도 하나 이상의 파라미터를 기준으로 구분될 수 있다.In addition, the motion parameter may be classified based on at least one parameter among a heart rate, posture, fatigue, and emotion of a character included in the character motion information.

본 발명의 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템 및 그 방법은, 미리 저장된 빅데이터에서 캐릭터의 생체정보에 따른 움직임 변화를 도출함으로써 캐릭터의 리얼리티를 극대화할 수 있으며, 상황 변화에 따른 연출을 손쉽게 수행할 수 있다.The AI-based digital idol content production system and method using biometric information of the present invention can maximize the reality of a character by deriving a change in movement according to the character's biometric information from pre-stored big data, and directing according to a change in situation can be easily performed.

또한, 이러한 작업의 효율을 위해서 기존의 애니메이션 데이터를 인공지능을 이용하여 모션 파라미터 별로 분류하고, 분류된 모션 파라미터에 맞추어 최적 라이브러리 데이터를 도출함으로써 연산량을 최소화하고 제작 기간을 단축시킬 수 있다.In addition, for the efficiency of such work, existing animation data is classified by motion parameters using artificial intelligence, and optimal library data is derived according to the classified motion parameters, thereby minimizing the amount of computation and shortening the production period.

또한, 본 발명은 생체정보를 기초로 캐릭터 신체의 각 부위별 자세 변화량 및 모양 변화량을 도출하고, 캐릭터 설정 정보, 캐릭터 모션 정보 또는 배경 정보(BI)에 포함된 복수의 파라미터 중 일부를 이용하여 도출된 자세 변화량 및 모양 변화량을 보정함으로써, 캐릭터의 움직임에 대한 리얼리티를 극대화할 수 있다.In addition, the present invention derives the amount of change in posture and shape of each part of the character's body based on biometric information, and derives it using some of a plurality of parameters included in character setting information, character motion information, or background information (BI) By correcting the amount of change in posture and shape, it is possible to maximize the reality of the character's movement.

또한, 본 발명은 캐릭터 설정 정보, 캐릭터 모션 정보, 또는 배경 정보에 포함된 각 파라미터를 고려하여, 캐릭터의 현재 상태를 반영하는 움직임의 변화를 세밀하게 표현할 수 있다. 제작자는 이러한 캐릭터의 움직임의 변화를 수작업으로 일일이 정의하고 설정하는 것이 아닌, 작업 지시에 캐릭터의 설정값을 조정하는 것만으로 캐릭터의 디테일한 움직임의 변화를 표현할 수 있어, 애니메이션 제작의 편의성 및 작업의 속도를 높일 수 있다.Also, according to the present invention, a change in movement reflecting the current state of a character can be expressed in detail in consideration of each parameter included in character setting information, character motion information, or background information. Rather than manually defining and setting the changes in the movement of these characters, the creator can express the changes in the detailed movements of the character just by adjusting the setting values of the characters in the work instructions, so that the convenience of animation production and work you can speed up

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.The specific effects of the present invention in addition to the above will be described together while explaining the specific details for carrying out the invention below.

도 1은 본 발명의 몇몇 실시예들에 따른 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 디지털아이돌 제작 장치를 세부적으로 설명하기 위한 블록도이다.
도 3은 애니메이션 제작의 레이아웃을 설명하기 위한 개념도이다.
도 4는 도 1의 프리 카메라 워크 정보의 구조를 세부적으로 설명하기 위한 개념도이다.
도 5는 도 1의 빅데이터 라이브러리를 세부적으로 설명하기 위한 블록도이다.
도 6은 도 5의 카메라 워크 라이브러리 데이터의 구조를 세부적으로 설명하기 위한 개념도이다.
도 7은 도 6의 캐릭터 상태정보, 배경정보 및 캐릭터 설정정보를 세부적으로 설명하기 위한 개념도이다.
도 8은 도 2의 애니메이션 모듈의 동작을 설명하기 위한 블록도이다.
도 9는 도 8의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다.
도 10은 도 9에 나타난 각각의 파라미터의 산출 흐름을 설명하기 위한 개념도이다.
도 11은 심박수에 따른 캐릭터 모션 시퀀스의 변화를 설명하기 위한 예시도이다.
도 12는 도 8의 자세 변화 연산 모듈의 세부적인 구조를 설명하기 위한 블록도이다.
도 13은 도 12의 인공지능 훈련 모듈의 동작을 설명하기 위한 순서도이다.
도 14는 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 일 예를 설명하기 위한 순서도이다.
도 15는 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 다른 예를 설명하기 위한 순서도이다.
도 16은 도 2의 렌더링 모듈과 컴포짓 모듈의 동작을 설명하기 위한 순서도이다.
1 is a conceptual diagram for explaining an artificial intelligence-based digital idol content production system using biometric information according to some embodiments of the present invention.
FIG. 2 is a block diagram for explaining the digital idol production apparatus of FIG. 1 in detail.
3 is a conceptual diagram for explaining the layout of animation production.
4 is a conceptual diagram for explaining in detail the structure of the free camera work information of FIG. 1 .
5 is a block diagram for describing the big data library of FIG. 1 in detail.
6 is a conceptual diagram for explaining in detail the structure of the camera work library data of FIG. 5 .
7 is a conceptual diagram for explaining in detail character state information, background information, and character setting information of FIG. 6 .
FIG. 8 is a block diagram for explaining the operation of the animation module of FIG. 2 .
9 is a flowchart illustrating an operation method of the animation module of FIG. 8 .
FIG. 10 is a conceptual diagram for explaining the calculation flow of each parameter shown in FIG. 9 .
11 is an exemplary diagram for explaining a change in a character motion sequence according to a heart rate.
12 is a block diagram illustrating a detailed structure of the posture change calculation module of FIG. 8 .
13 is a flowchart for explaining the operation of the artificial intelligence training module of FIG. 12 .
14 is a flowchart illustrating an example of a method of operating an animation module according to an embodiment of the present invention.
15 is a flowchart illustrating another example of an operation method of an animation module according to an embodiment of the present invention.
FIG. 16 is a flowchart for explaining operations of the rendering module and the composite module of FIG. 2 .

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. In accordance with the principle that the inventor can define a term or concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, since the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all the technical spirit of the present invention, they can be substituted at the time of the present application. It should be understood that there may be various equivalents and modifications and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. used in this specification and claims may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term 'and/or' includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. It should be understood that terms such as “comprise” or “have” in the present application do not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification in advance. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not technically contradict each other.

본 발명은 디지털아이돌 컨텐츠 제작 시스템 및 방법에 관한 것으로, '디지털아이돌 컨텐츠 제작'는 '애니메이션 제작'의 범주 안에 포함될 수 있다. 본 명세서에서 '디지털아이돌 컨텐츠'는 애니메이션으로 구현된 가상의 캐릭터 및 가상의 배경을 포함하는 컨텐츠를 의미한다.The present invention relates to a digital idol content production system and method, and 'digital idol content production' may be included in the scope of 'animation production'. As used herein, 'digital idol content' refers to content including a virtual character implemented as an animation and a virtual background.

이하, 도 1 내지 도 16을 참조하여, 본 발명의 몇몇 실시예들에 따른 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템을 설명한다.Hereinafter, an artificial intelligence-based digital idol content production system using biometric information according to some embodiments of the present invention will be described with reference to FIGS. 1 to 16 .

도 1은 본 발명의 몇몇 실시예들에 따른 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining an artificial intelligence-based digital idol content production system using biometric information according to some embodiments of the present invention.

도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템은, 제작자(100)로부터 작업 지시(Wp)를 수신하고, 애니메이션 이미지(Pr)를 제공할 수 있다. 본 발명의 몇몇 실시예들에 따른 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템은 디지털아이돌 제작 장치(200) 및 빅데이터 라이브러리(300)를 포함한다. Referring to FIG. 1 , an artificial intelligence-based digital idol content production system using biometric information according to some embodiments of the present invention receives a work instruction (Wp) from a producer (100) and provides an animation image (Pr) can do. The artificial intelligence-based digital idol content production system using biometric information according to some embodiments of the present invention includes a digital idol production device 200 and a big data library 300 .

제작자(100)는 디지털아이돌 컨텐츠와 관련된 애니메이션을 제작하는 사람일 수 있다. 이때, 제작자(100)는 1명 이상의 인력일 수 있다. 제작자(100)는 단순히 자연인 뿐만 아니라 기업과 같은 법인체일 수도 있다. 제작자(100)는 3D 애니메이션의 제작을 위해서 디지털아이돌 제작 장치(200)에 작업 지시(Wp)를 전송할 수 있다. 작업 지시(Wp)는 1회성이 아닌 연속적인 지시로 디지털아이돌 제작 장치(200)에 전송될 수 있다. 다르게 표현하면, 제작자(100)는 디지털아이돌 제작 장치(200)를 이용하여 애니메이션 이미지(Pr)를 제작할 수 있고, 이를 위해서 수행되는 일련의 작업을 작업 지시(Wp)로 표현할 수 있다.The producer 100 may be a person who creates animations related to digital idol contents. In this case, the manufacturer 100 may be one or more personnel. The producer 100 may be a legal entity such as a corporation as well as a simple natural person. The producer 100 may transmit a work instruction Wp to the digital idol production apparatus 200 for production of 3D animation. The work instruction Wp may be transmitted to the digital idol production apparatus 200 as a continuous instruction rather than a one-time instruction. In other words, the producer 100 may use the digital idol production apparatus 200 to produce the animation image Pr, and a series of tasks performed for this may be expressed as a work instruction Wp.

디지털아이돌 제작 장치(200)는 제작자(100)로부터 작업 지시(Wp)를 수신하고, 빅데이터 라이브러리(300)로 프리 카메라 워크 정보(Ipcw)를 전송할 수 있다. The digital idol production apparatus 200 may receive the work instruction Wp from the producer 100 and transmit the free camera work information Ipcw to the big data library 300 .

여기에서, 프리 카메라 워크 정보(Ipcw)는 제작자(100)의 작업 지시(Wp)에 의해 러프하게 생성된 카메라 워크에 대한 정보일 수 있다. 프리 카메라 워크 정보(Ipcw)는 세밀하게 계산되어 확정된 카메라 워크가 아니라 애니메이션 장면에서 어떤 방식으로 카메라 연출이 진행될지에 대한 대략적인 지시사항을 포함할 수 있다. 또한, 프리 카메라 워크 정보(Ipcw)는 캐릭터의 움직임 또는 배경의 움직임에 대한 대략적인 지시사항을 포함할 수 있다. 이때, 프리 카메라 워크 정보(Ipcw)는 캐릭터의 초기 설정 정보(예를 들어, 성별, 나이, 체형, 사이즈) 뿐만 아니라, 캐릭터의 상태정보(예를 들어, 심박수, 자세, 피로도, 감정)와, 배경의 상태정보(예를 들어, 온도, 습도, 시간대)에 대한 정보를 포함할 수 있다. 프리 카메라 워크 정보(Ipcw)는 텍스트, 이미지 및 영상 중 적어도 하나의 방법으로 형성될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Here, the free camera work information Ipcw may be information about the camera work rough generated by the work instruction Wp of the producer 100 . The free camera work information Ipcw may include rough instructions on how camera direction will be performed in an animation scene, rather than a precisely calculated and determined camera work. In addition, the free camera walk information Ipcw may include rough instructions for movement of a character or movement of a background. At this time, the free camera work information (Ipcw) includes not only the initial setting information of the character (eg, gender, age, body type, size), but also the state information of the character (eg, heart rate, posture, fatigue, emotion) and, It may include information on status information (eg, temperature, humidity, time zone) of the background. The free camera work information Ipcw may be formed by at least one of text, image, and video. However, the present embodiment is not limited thereto.

빅데이터 라이브러리(300)는 내부에 기존에 제작된 애니메이션의 파일이 모두 저장되어 있을 수 있다. 빅데이터 라이브러리(300)는 저장된 애니메이션 파일의 레이아웃 정보를 유형별로 분류하여 카메라 워크 라이브러리 데이터(CamL)로 보유할 수 있다. 이때, 카메라 워크 라이브러리 데이터(CamL)는 연출되는 카메라의 움직임(예를 들어, 카메라의 속도, 위치, 캐릭터와의 거리 등), 또는 캐릭터의 상태정보(예를 들어, 캐릭터의 심박수, 자세, 피로도, 감정 등)를 기초로 유형이 분류되어 이용될 수 있다. 이에 대한 설명은 이하에서 자세히 후술하도록 한다. The big data library 300 may store all of the files of animations that have been previously produced therein. The big data library 300 may classify the layout information of the stored animation file by type and hold it as camera work library data (CamL). At this time, the camera work library data CamL is the camera movement (for example, camera speed, position, distance from the character, etc.), or state information of the character (for example, the character's heart rate, posture, fatigue) , emotions, etc.) can be classified and used. This will be described later in detail below.

빅데이터 라이브러리(300)는 프리 카메라 워크 정보(Ipcw)를 수신하고 그에 대응하는 최적의 레이아웃 데이터 즉, 최적 라이브러리 데이터(CamL_op)를 디지털아이돌 제작 장치(200)로 전송할 수 있다. The big data library 300 may receive the free camera work information Ipcw and transmit the corresponding optimal layout data, that is, the optimal library data CamL_op, to the digital idol production apparatus 200 .

디지털아이돌 제작 장치(200)는 최적 라이브러리 데이터(CamL_op)를 수신하고, 이를 이용하여 애니메이션 이미지(Pr)를 생성할 수 있다. 여기에서, 최적 라이브러리 데이터(CamL_op)는 생체정보(예를 들어, 심박수(Ihr))를 포함하는 캐릭터의 상태정보를 포함할 수 있다. 다만, 본 발명의 생체정보가 심박수에 한정되는 것은 아니며, 혈류량, 맥박수, 호흡량, 혈압, 칼로리 소모량 등이 더 포함되어 이용될 수 있음은 물론이다. 다만, 이하에서는 설명의 편의를 위하여 생체정보가 심박수를 포함하는 것을 예로 들어 설명하도록 한다.The digital idol production apparatus 200 may receive the optimal library data CamL_op and generate an animation image Pr by using it. Here, the optimal library data CamL_op may include character status information including biometric information (eg, heart rate Ihr). However, the biometric information of the present invention is not limited to the heart rate, and it goes without saying that blood flow, pulse rate, respiration amount, blood pressure, calorie consumption, etc. may be further included and used. However, hereinafter, for convenience of explanation, biometric information including a heart rate will be described as an example.

이때, 디지털아이돌 제작 장치(200)는 심박수(Ihr)를 기초로 캐릭터의 움직임 변화량을 나타내는 캐릭터 모션 시퀀스(Scm)를 도출한다. 이어서, 디지털아이돌 제작 장치(200)는 도출된 캐릭터 모션 시퀀스(Scm)를 이용하여 레이아웃 작업을 수행하고 이를 기초로 애니메이션 이미지(Pr)를 생성할 수 있다. 이에 대한 자세한 설명도 이하에서 함께 후술하도록 한다.At this time, the digital idol production apparatus 200 derives a character motion sequence (Scm) indicating the amount of change in the movement of the character based on the heart rate (Ihr). Subsequently, the digital idol production apparatus 200 may perform a layout operation using the derived character motion sequence Scm and generate an animation image Pr based on the layout work. A detailed description thereof will also be provided below.

이어서, 디지털아이돌 제작 장치(200)는 생성된 애니메이션 이미지(Pr)를 제작자(100)에게 전송할 수 있다.Subsequently, the digital idol production apparatus 200 may transmit the generated animation image Pr to the creator 100 .

전술한 디지털아이돌 제작 장치(200) 및 빅데이터 라이브러리(300)는 워크스테이션(workstation), 데이터 센터, 인터넷 데이터 센터(internet data center(IDC)), DAS(direct attached storage) 시스템, SAN(storage area network) 시스템, NAS(network attached storage) 시스템 및 RAID(redundant array of inexpensive disks, or redundant array of independent disks) 시스템 중 적어도 하나로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.The digital idol production apparatus 200 and the big data library 300 described above include a workstation, a data center, an internet data center (IDC), a direct attached storage (DAS) system, and a storage area (SAN). It may be implemented as at least one of a network) system, a network attached storage (NAS) system, and a redundant array of inexpensive disks, or redundant array of independent disks (RAID) systems, but the present embodiment is not limited thereto.

디지털아이돌 제작 장치(200) 및 빅데이터 라이브러리(300)는 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.The digital idol production apparatus 200 and the big data library 300 may transmit data through a network. The network may include a network based on a wired Internet technology, a wireless Internet technology, and a short-range communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies are, for example, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet) Access), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) and 5G New Radio (NR) technology. However, the present embodiment is not limited thereto.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include However, the present embodiment is not limited thereto.

네트워크를 통해서 통신하는 디지털아이돌 제작 장치(200) 및 빅데이터 라이브러리(300)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The digital idol production device 200 and the big data library 300 that communicate through the network may comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), and Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO). , at least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) may include However, the present embodiment is not limited thereto.

도 2는 도 1의 디지털아이돌 제작 장치를 세부적으로 설명하기 위한 블록도이다.FIG. 2 is a block diagram for explaining the digital idol production apparatus of FIG. 1 in detail.

도 2를 참조하면, 디지털아이돌 제작 장치(200)는 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)을 포함할 수 있다. 디지털아이돌 제작 장치(200)는 예를 들어, DCC(Digital Content Creation tools)일 수 있다. 또는, 디지털아이돌 제작 장치(200)는 DCC 및 3D 게임 엔진을 포함할 수도 있다. 나아가, 디지털아이돌 제작 장치(200)는 인공지능 모듈을 통해서 DCC 및 3D 게임 엔진 사이의 데이터 익스포트/임포트(export/import)를 조율할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Referring to FIG. 2 , the digital idol production apparatus 200 may include a modeling module 210 , an animation module 220 , a rendering module 230 , and a composite module 240 . The digital idol production apparatus 200 may be, for example, Digital Content Creation tools (DCC). Alternatively, the digital idol production apparatus 200 may include a DCC and a 3D game engine. Furthermore, the digital idol production apparatus 200 may coordinate data export/import between the DCC and the 3D game engine through the AI module. However, the present embodiment is not limited thereto.

모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 각각 작업 지시(Wp)를 수신할 수 있다. 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 작업 지시(Wp)에 따라서 각각 모델링 작업, 애니메이션 작업, 렌더링 작업 및 컴포짓 작업을 수행할 수 있다. 이때, 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 서로 다른 하드웨어로 구현될 수도 있고, 동일 혹은 일부가 중복되는 하드웨어에 의해서 각각 구현될 수 있다.The modeling module 210 , the animation module 220 , the rendering module 230 , and the composite module 240 may receive the work instruction Wp, respectively. The modeling module 210 , the animation module 220 , the rendering module 230 , and the composite module 240 may perform a modeling operation, an animation operation, a rendering operation, and a composite operation according to the work instruction Wp, respectively. In this case, the modeling module 210 , the animation module 220 , the rendering module 230 , and the composite module 240 may be implemented by different hardware, or may be implemented by the same or partially overlapping hardware.

구체적으로, 모델링 모듈(210)은 작업 지시(Wp)에 의해서 모델링 작업을 수행할 수 있다. 모델링 작업이란, 디지털아이돌 제작 장치(200)를 이용하여 캐릭터 및 배경과 같은 오브젝트를 모델링(modeling)하는 것을 의미할 수 있다. 즉, 추후 애니메이션 단계에서 사용하기 위해서 오브젝트의 디자인은 모델링 작업에서 완성되어야 한다. 모델링 모듈(210)은 폴리곤 모델링을 수행할 수 있다. 모델링 모듈(210)은 폴리곤 모델링을 수행한 후에 텍스쳐링 작업을 수행할 수 있다. 텍스쳐링 작업은 오브젝트의 표면의 질감 및 색상을 적용하기 위한 작업일 수 있다. 텍스쳐링 작업은 쉐이더를 이용하여 메티리얼을 적용하는 방식으로 진행될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Specifically, the modeling module 210 may perform the modeling work according to the work instruction Wp. The modeling operation may mean modeling an object such as a character and a background using the digital idol production apparatus 200 . That is, the design of the object must be completed in modeling to be used in the subsequent animation stage. The modeling module 210 may perform polygon modeling. The modeling module 210 may perform texturing after polygon modeling. The texturing operation may be an operation for applying the texture and color of the surface of the object. Texturing can be performed by applying a material using a shader. However, the present embodiment is not limited thereto.

이어서, 모델링 모듈(210)은 리깅(rigging)을 수행할 수 있다. 리깅은 모델링된 오브젝트에 뼈를 붙이는 작업을 의미할 수 있다. 리깅을 수행해야 추후 애니메이션 단계를 거친 오브젝트의 움직임이 자연스러울 수 있다. 따라서 모델링 모듈(210)은 움직일 수 있는 관절 부분과 같이 움직여야 하는 뼈 부분을 작업 지시(Wp)에 따라 정의할 수 있다.Subsequently, the modeling module 210 may perform rigging. Rigging may mean attaching bones to a modeled object. After rigging is performed, the motion of an object that has undergone an animation step can be natural. Accordingly, the modeling module 210 may define a bone part to be moved, such as a movable joint part, according to the work instruction Wp.

애니메이션 모듈(220)은 애니메이션 작업을 하기 위해서 레이아웃 작업을 수행할 수 있다. 레이아웃 작업은 카메라 및 캐릭터의 동선을 설정할 수 있다. 이러한 카메라와 캐릭터의 동선은 대략적으로 프리 프로덕션 단계에서 콘티 등에 의해서 대략적으로 정해질 수 있으나, 실제 적용을 위해서는 세세한 부분의 수정이 필요할 수 있다. The animation module 220 may perform a layout operation in order to perform an animation operation. Layout work can set the camera and character movement. The movement of the camera and the character can be roughly determined by the storyline in the pre-production stage, but detailed parts may need to be modified for actual application.

또한, 애니메이션 모듈(220)은 캐릭터의 움직임을 표현할 수 있다. 이때, 애니메이션 모듈(220)은 작업 지시(Wp)에 포함된 캐릭터의 상태정보를 기초로 캐릭터의 움직임을 설정할 수 있다. Also, the animation module 220 may express the movement of the character. In this case, the animation module 220 may set the movement of the character based on the state information of the character included in the work instruction Wp.

구체적으로, 애니메이션 모듈(220)은 작업 지시(Wp)를 수신하고, 작업 지시(Wp)에 따라 프리 카메라 워크 정보(Ipcw)를 생성한 뒤, 프리 카메라 워크 정보(Ipcw)에 대응되는 최적화된 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 이때, 프리 카메라 워크 정보(Ipcw)는 촬영 대상이 되는 캐릭터의 심박수를 포함할 수 있다. 한편, 최적 라이브러리 데이터(CamL_op)는 프리 카메라 워크 정보(Ipcw)에 대응되는 심박수(Ihr)와 관련된 데이터를 포함할 수 있다.Specifically, the animation module 220 receives the work instruction (Wp), generates the free camera work information (Ipcw) according to the work instruction (Wp), and then the optimized optimal corresponding to the free camera work information (Ipcw) Library data (CamL_op) may be received. In this case, the free camera walk information Ipcw may include a heart rate of a character to be photographed. Meanwhile, the optimal library data CamL_op may include data related to the heart rate Ihr corresponding to the free camera walk information Ipcw.

이때, 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 포함된 심박수(Ihr)를 이용하여 캐릭터의 움직임 변화량을 산출하여 캐릭터 모션 시퀀스(Scm)를 생성한다. 애니메이션 모듈(220)은 생성된 캐릭터 모션 시퀀스(Scm)를 이용하여 시간의 흐름에 따라 변화하는 카메라의 동선 변화와 함께, 심박수(Ihr)에 따른 캐릭터의 섬세한 움직임 변화를 표현할 수 있다.In this case, the animation module 220 generates the character motion sequence Scm by calculating the amount of change in the movement of the character using the heart rate Ihr included in the optimal library data CamL_op. The animation module 220 may use the generated character motion sequence (Scm) to express a change in the movement of the camera that changes over time and a subtle change in movement of the character according to the heart rate (Ihr).

도 3은 애니메이션 제작의 레이아웃을 설명하기 위한 개념도이다. 도 4는 도 1의 프리 카메라 워크 정보의 구조를 세부적으로 설명하기 위한 개념도이다.3 is a conceptual diagram for explaining the layout of animation production. 4 is a conceptual diagram for explaining in detail the structure of the free camera work information of FIG. 1 .

도 2 내지 도 4를 참조하면, 애니메이션 모듈(220)은 카메라(Cam)의 위치, 캐릭터(ch)의 위치, 카메라(Cam)가 움직이는 제1 경로(M1), 캐릭터(ch)가 움직이는 제2 경로(M2) 및 지면과 같은 배경(BG)을 결정할 수 있다. 2 to 4 , the animation module 220 includes a position of a camera (Cam), a position of a character (ch), a first path (M1) in which the camera (Cam) moves, and a second path (M1) in which the character (ch) moves. A path M2 and a background BG such as the ground can be determined.

애니메이션 모듈(220)은 레이아웃이 최종적으로 확정되기 전에 대략적인 카메라 워크에 대한 정보 즉, 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다. 애니메이션 모듈(220)은 작업 지시(Wp)에 의해서 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다. The animation module 220 may generate information about the approximate camera work, that is, the free camera work information Ipcw, before the layout is finally determined. The animation module 220 may generate the free camera work information Ipcw according to the work instruction Wp.

프리 카메라 워크 정보(Ipcw)는 프리 카메라 물리 정보(CPp), 프리 카메라 모션 정보(CMp), 프리 캐릭터 모션 정보(MIp), 프리 배경 정보(BIp) 및 프리 바운딩 박스 정보(BBIp)를 포함할 수 있다.Free camera work information (Ipcw) may include free camera physics information (CPp), free camera motion information (CMp), free character motion information (MIp), free background information (BIp), and pre-bounding box information (BBIp). have.

구체적으로, 프리 카메라 물리 정보(CPp)는 카메라의 물리적 특성에 대한 정보일 수 있다. 예를 들어, 프리 카메라 물리 정보(CPp)는 카메라의 렌즈의 크기, 모양, 개수 및 셔터의 속도 중 적어도 하나를 포함할 수 있다.Specifically, the free camera physical information CPp may be information on physical characteristics of the camera. For example, the pre-camera physical information CPp may include at least one of a size, shape, number, and shutter speed of a camera lens.

프리 카메라 모션 정보(CMp)는 시간에 따른 시계열 데이터일 수 있다. 프리 카메라 모션 정보(CMp)는 시간에 따른 카메라(Cam)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함할 수 있다. 프리 카메라 모션 정보(CMp)는 즉, 카메라(Cam)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.The pre-camera motion information CMp may be time-series data according to time. The free camera motion information CMp may include at least one of a 3D position, direction, rotation direction, and rotation angle of the camera Cam according to time. The pre-camera motion information CMp may be, that is, big data including all absolute motions of the camera.

프리 캐릭터 모션 정보(MIp)도 시간에 따른 시계열 데이터일 수 있다. 프리 캐릭터 모션 정보(MIp)는 시간에 따른 캐릭터(ch)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함할 수 있다. The free character motion information MIp may also be time-series data according to time. The free character motion information MIp may include at least one of a three-dimensional position, a direction, a rotation direction, and a rotation angle of the character ch according to time.

나아가, 프리 캐릭터 모션 정보(MIp)는 단순히 캐릭터(ch)의 대표 좌표의 3차원 위치뿐만 아니라 캐릭터(ch)의 자세(Pose) 및 모양(Shape)을 결정하는 복수의 유효 좌표의 3차원 위치도 포함할 수 있다. 이를 통해서, 프리 캐릭터 모션 정보(MIp)는 캐릭터(ch)의 시간에 따른 위치(Position) 뿐만 아니라 시간에 따른 자세 및 모양도 정의할 수 있다. Furthermore, the free character motion information (MIp) is not only the three-dimensional position of the representative coordinates of the character (ch), but also the three-dimensional position of a plurality of effective coordinates that determine the pose and shape of the character (ch). may include Through this, the free character motion information MIp may define not only the position according to time but also the posture and shape of the character ch according to time.

구체적으로, 프리 캐릭터 모션 정보(MIp)는 캐릭터의 심박수(Ihr), 자세, 피로도 및 감정에 관한 정보를 포함할 수 있다. 이후에 자세히 설명하겠으나, 애니메이션 모듈(220)은 프리 캐릭터 모션 정보(MIp)에 대응되는 캐릭터 모션 정보(MI)를 기초로 캐릭터의 자세 변화량(Vp) 및 신체 각 부위의 모양 변화량(Vs)을 도출하여 캐릭터의 움직임을 세밀하게 표현할 수 있다. 이러한 캐릭터의 움직임의 변화는 캐릭터 모션 시퀀스(Scm)에 포함될 수 있으며, 프리 캐릭터 모션 정보(MIp)는 캐릭터 모션 시퀀스(Scm)를 생성하기 위한 기초 데이터로 이용될 수 있다. 즉, 프리 캐릭터 모션 정보(MIp)는 애니메이션 내에서의 캐릭터(ch)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.Specifically, the free character motion information MIp may include information about a character's heart rate Ihr, posture, fatigue, and emotion. Although it will be described in detail later, the animation module 220 derives the amount of change in the posture of the character (Vp) and the amount of change in the shape of each body part (Vs) based on the character motion information (MI) corresponding to the free character motion information (MIp) In this way, the movement of the character can be expressed in detail. Such a change in movement of the character may be included in the character motion sequence Scm, and the free character motion information MIp may be used as basic data for generating the character motion sequence Scm. That is, the free character motion information MIp may be big data including all absolute movements of the character ch in the animation.

프리 배경 정보(BIp)는 배경(BG)의 위치 및 형상과 시간에 따른 변형에 대한 정보를 포함할 수 있다. 즉, 프리 배경 정보(BIp)도 시간에 따라 달라지는 시계열 데이터일 수 있다. 배경(BG)은 지면, 나무, 바다, 강 및 건물과 같은 구조 중 적어도 하나를 포함할 수 있다. 또한, 프리 배경 정보(BIp)는 배경(BG)에 적용되는 부가적인 파라미터(예를 들어, 온도, 습도, 시간대, 지역 등)가 추가적으로 정의되어 이용될 수 있다.The free background information BIp may include information about the position and shape of the background BG and deformation according to time. That is, the free background information BIp may also be time series data that varies according to time. The background BG may include at least one of a ground, a tree, a sea, a river, and a structure such as a building. In addition, in the free background information BIp, additional parameters (eg, temperature, humidity, time zone, region, etc.) applied to the background BG may be additionally defined and used.

프리 바운딩 박스 정보(BBIp)는 캐릭터(ch)와 같은 오브젝트의 바운딩 박스에 대한 정보일 수 있다. 바운딩 박스란, 3차원 직교 좌표에서 오브젝트의 최대 크기를 규정하기 위한 직육면체 박스를 의미할 수 있다. 즉, 캐릭터(ch)의 바운딩 박스는 캐릭터(ch)가 시간에 따라 변형되어 크기가 커지더라도 항상 캐릭터(ch)를 감쌀 수 있다. 위에서, 바운딩 박스는 직육면체라고 설명하였지만, 본 실시예가 이에 제한되는 것은 아니다. 바운딩 박스의 형태는 필요에 따라 얼마든지 달라질 수 있다.The pre-bounding box information BBIp may be information about a bounding box of an object such as a character ch. The bounding box may mean a cuboid box for defining the maximum size of an object in 3D Cartesian coordinates. That is, the bounding box of the character ch can always surround the character ch even if the character ch is deformed over time and increases in size. In the above, it has been described that the bounding box is a rectangular parallelepiped, but the present embodiment is not limited thereto. The shape of the bounding box may be changed according to need.

애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 따라 카메라(Cam), 캐릭터(ch) 및 배경(BG)의 세부 사항을 세팅할 수 있다. 즉, 최적 라이브러리 데이터(CamL_op)의 내용을 그대로 적용하여 레이아웃 작업을 수행할 수 있다.The animation module 220 may receive the optimal library data CamL_op. The animation module 220 may set the details of the camera (Cam), the character (ch), and the background (BG) according to the optimal library data (CamL_op). That is, the layout operation can be performed by applying the contents of the optimal library data (CamL_op) as it is.

애니메이션 모듈(220)은 모델링 모듈(210)이 생성한 오브젝트의 레이아웃을 세팅한 후에 오브젝트들을 움직이게 할 수 있다. 즉, 애니메이션 모듈(220)은 작업 지시(Wp)에 따라서 레이아웃 작업을 포함하는 애니메이션 단계를 수행할 수 있다. 애니메이션 단계는 오브젝트의 움직이는 포인트 즉, 리깅 단계에서 관절에 해당하는 부분의 전 위치와 후 위치를 정의하는 방식을 사용할 수 있다. 애니메이션 모듈(220)은 시간에 따른 전 위치 및 후 위치를 정의하고, 그 사이의 오브젝트의 움직임을 인터폴레이션을 이용하여 자연스럽게 채울 수 있다. 이에 따라서, 오브젝트의 움직임이 사실적으로 표현될 수 있다.The animation module 220 may make the objects move after setting the layout of the object generated by the modeling module 210 . That is, the animation module 220 may perform an animation step including a layout operation according to the work instruction Wp. The animation stage may use a method of defining the moving point of the object, that is, the front position and the rear position of the part corresponding to the joint in the rigging stage. The animation module 220 may define an anterior position and a posterior position according to time, and naturally fill the motion of an object therebetween using interpolation. Accordingly, the movement of the object may be realistically expressed.

다시 도 2를 참조하면, 렌더링 모듈(230)은 작업 지시(Wp)에 따라서 렌더링 작업을 수행할 수 있다. 3D 애니메이션 제작과정에서 렌더링 작업은 오브젝트들의 3D 움직임을 구현하는 애니메이션 작업 이후에 카메라(Cam)에 의해서 촬영되는 2차원적인 영상을 만들어 내는 단계일 수 있다. 이때, 2차원의 의미는 애니메이션 이미지가 2차원이라는 것이 아니라 3차원의 세계를 촬영하여 2차원의 화면에 투사하는 영상물로 제작한다는 의미일 수 있다.Referring back to FIG. 2 , the rendering module 230 may perform a rendering operation according to the operation instruction Wp. In the 3D animation production process, the rendering operation may be a step of creating a two-dimensional image photographed by a camera (Cam) after the animation operation for realizing 3D movement of objects. In this case, the meaning of 2D may mean that the animation image is not 2D, but that the 3D world is captured and produced as an image to be projected on the 2D screen.

렌더링 모듈(230)은 즉, 애니메이션 작업까지 완료된 오브젝트들의 애니메이션 이미지를 생성해야 하므로, 오브젝트의 배열, 시점, 텍스쳐 매핑, 조명 및 쉐이딩의 세부 단계를 거쳐 렌더링 작업을 수행할 수 있다. 렌더링 모듈(230)은 여러 채널을 이용하여 복수의 레이어로 렌더링을 수행할 수 있다. 멀티 채널 렌더링은 색상의 톤을 맞추거나 대조하여 밝기를 수정하는 작업을 용이하게 할 수 있다. 또한, 멀티 채널 렌더링은 이펙트나 실사합성 같은 작업을 수행하기 위해서 필요할 수 있다. 렌더링 모듈(230)은 렌더링이 완료된 이미지를 컴포짓 모듈(240)로 전송할 수 있다.Since the rendering module 230 needs to generate animation images of objects that have been completed until the animation operation, the rendering operation may be performed through detailed steps of object arrangement, viewpoint, texture mapping, lighting, and shading. The rendering module 230 may perform rendering in a plurality of layers using several channels. Multi-channel rendering can facilitate the task of correcting brightness by matching or contrasting the tones of colors. In addition, multi-channel rendering may be required to perform tasks such as effects or photorealistic synthesis. The rendering module 230 may transmit the rendered image to the composite module 240 .

컴포짓 모듈(240)은 렌더링된 여러 개의 이미지를 수신하고, 이를 하나의 최종 장면으로 통합하는 컴포짓 작업을 수행할 수 있다. 컴포짓 모듈(240)은 하나의 이미지를 다양한 레이어를 합성하여 완성시킬 수 있다. 예를 들어, 컴포짓 모듈(240)은 하나의 이미지를 각기 다른 속성별로 분류된 여러 장의 레이어를 적층시켜 형성할 수 있다. 이때, 레이어는 캐릭터, 배경, 이펙트, 그림자 및 재질로 나누어질 수 있다. 또한, 재질 레이어는 세부적으로 디퓨즈, 스펙귤러 및 리플렉션으로 나누어질 수 있다.The composite module 240 may receive a plurality of rendered images and perform a composite operation of integrating them into one final scene. The composite module 240 may complete one image by synthesizing various layers. For example, the composite module 240 may form one image by stacking several layers classified according to different properties. In this case, the layer may be divided into a character, a background, an effect, a shadow, and a material. In addition, the material layer can be further divided into diffuse, specular and reflection.

또한, 컴포짓 모듈(240)은 알파채널의 마스크를 이용하여 크로마키, 글자 및 그림을 합성할 수 있다. 이를 통해서, 최종적으로 완성된 애니메이션 이미지(Pr)가 생성될 수 있다. 컴포짓 모듈(240)은 생성된 애니메이션 이미지(Pr)를 제작자(100)에게 전송할 수 있다.Also, the composite module 240 may synthesize a chroma key, a character, and a picture by using the mask of the alpha channel. Through this, the finally completed animation image Pr may be generated. The composite module 240 may transmit the generated animation image Pr to the creator 100 .

도 5는 도 1의 빅데이터 라이브러리를 세부적으로 설명하기 위한 블록도이다. 도 6은 도 5의 카메라 워크 라이브러리 데이터의 구조를 세부적으로 설명하기 위한 개념도이다. 도 7은 도 6의 캐릭터 상태 정보, 배경 정보 및 캐릭터 설정 정보를 세부적으로 설명하기 위한 개념도이다.5 is a block diagram for describing the big data library of FIG. 1 in detail. 6 is a conceptual diagram for explaining in detail the structure of the camera work library data of FIG. 5 . 7 is a conceptual diagram for describing in detail character state information, background information, and character setting information of FIG. 6 .

우선, 도 5를 참조하면, 빅데이터 라이브러리(300)는 라이브러리 데이터베이스(310), 최적 라이브러리 선정 모듈(320) 및 파라미터 변환 모듈(330)을 포함할 수 있다.First, referring to FIG. 5 , the big data library 300 may include a library database 310 , an optimal library selection module 320 , and a parameter conversion module 330 .

라이브러리 데이터베이스(310)는 기존에 작업된 애니메이션 파일이 모두 저장되어 있을 수 있다. 라이브러리 데이터베이스(310)는 내부에 저장된 모든 애니메이션 파일에 대해서 카메라 워크 정보와 관련된 카메라 워크 라이브러리 데이터(CamL)를 추출할 수 있다. The library database 310 may store all previously worked animation files. The library database 310 may extract camera work library data (CamL) related to camera work information for all animation files stored therein.

도 6 및 도 7을 참조하면, 카메라 워크 라이브러리 데이터(CamL)는 카메라 물리 정보(CP), 카메라 모션 정보(CM), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 바운딩 박스 정보(BBI)를 포함할 수 있다. 이때, 카메라 워크 라이브러리 데이터(CamL)의 각각의 정보(CP, CM, MI, BI, BBI)는 도 4를 참조하여 전술한 프리 카메라 워크 정보(Ipcw)에 포함된 각각의 정보(CPp, CMp, MIp, BIp, BBIp)와 실질적으로 동일한 데이터를 포함할 수 있으므로, 여기에서 중복되는 설명은 생략하도록 한다.6 and 7, the camera work library data (CamL) is camera physical information (CP), camera motion information (CM), character motion information (MI), background information (BI) and bounding box information (BBI) may include At this time, each information (CP, CM, MI, BI, BBI) of the camera work library data (CamL) is each information (CPp, CMp, MIp, BIp, and BBIp) may include substantially the same data, and thus a redundant description thereof will be omitted.

이때, 캐릭터 모션 정보(MI)는 캐릭터의 심박수(Ihr), 자세(I1), 피로도(I2) 및 감정(I3)에 관한 정보를 포함할 수 있다. 각각의 정보(Ihr, I1, I2, I3)는 시계열적으로 이루어진 데이터로 구성될 수 있다. 즉, 캐릭터 모션 정보(MI)는 시간의 흐름에 따른 캐릭터의 심박수의 변화, 자세의 변화, 피로도의 변화 및 감정의 변화를 포함할 수 있다. In this case, the character motion information MI may include information about the character's heart rate Ihr, posture I1, fatigue I2, and emotion I3. Each of the information Ihr, I1, I2, and I3 may be composed of time-series data. That is, the character motion information MI may include a change in heart rate, a change in posture, a change in fatigue, and a change in emotion of the character according to the passage of time.

카메라의 모션 정보(CM)는 캐릭터 모션 정보(MI)의 각 파라미터에 대한 변화에 대응되는 카메라의 동선 및 연출방법을 포함할 수 있다.The camera motion information CM may include a camera movement line and a directing method corresponding to a change in each parameter of the character motion information MI.

배경 정보(BI)는 배경(BG)의 온도(B1), 습도(B2) 및 시간대(B3)를 포함할 수 있다. 마찬가지로, 카메라의 모션 정보(CM)는 배경 정보(BI)의 각 파라미터에 대응되는 카메라의 동선 및 연출방법을 포함할 수 있다.The background information BI may include a temperature B1, a humidity B2, and a time zone B3 of the background BG. Similarly, the motion information CM of the camera may include a movement line and a directing method of the camera corresponding to each parameter of the background information BI.

정리하면, 카메라 워크 라이브러리 데이터(CamL)는 캐릭터 모션 정보(MI) 및 배경 정보(BI)에 따른 카메라 워크에 대한 정보를 포함할 수 있으며, 다양한 캐릭터의 상태 및 배경 상태에 따라 서로 다른 카메라 워크가 정의될 수 있다.In summary, the camera work library data (CamL) may include information about the camera work according to the character motion information (MI) and the background information (BI), and different camera work according to the state of various characters and the background state can be defined.

라이브러리 데이터베이스(310)는 하나 이상의 카메라 워크 라이브러리 데이터(CamL)를 캐릭터 모션의 유형 별로 분류하여 저장할 수 있다. 이때, 캐릭터 모션의 유형은, 캐릭터 모션 정보(MI)에 포함된 심박수, 자세, 피로도 및 감정 중 적어도 하나 이상의 파라미터를 기준으로 구분될 수 있다. 예를 들어, 캐릭터의 심박수를 기초로 캐릭터의 상태는 흥분 상태, 정상 상태, 휴식 상태로 구분될 수 있다. 또한, 캐릭터의 자세는 기립 자세, 앉은 자세, 공격 자세, 방어 자세 등으로 구분될 수 있다. 피로도는 미리 정해진 기준치를 이용하여 활력, 정상, 피로 상태로 구분될 수 있으며, 감정은 기쁨, 슬픔, 흥분, 우울, 감동 등으로 구분될 수 있다.The library database 310 may classify and store one or more camera work library data CamL by type of character motion. In this case, the type of character motion may be classified based on at least one parameter among heart rate, posture, fatigue, and emotion included in the character motion information MI. For example, the state of the character may be divided into an excited state, a normal state, and a resting state based on the character's heart rate. In addition, the posture of the character may be divided into a standing posture, a sitting posture, an attack posture, a defense posture, and the like. Fatigue may be classified into vitality, normality, and fatigue state using a predetermined reference value, and emotions may be classified into joy, sadness, excitement, depression, emotion, and the like.

라이브러리 데이터베이스(310)는 이러한 캐릭터 모션의 유형을 파라미터화 한 모션 파라미터(MP2)를 기초로 카메라 워크 라이브러리 데이터(CamL)를 분류하고 저장할 수 있다.The library database 310 may classify and store the camera work library data CamL based on the motion parameter MP2 parameterized by the type of character motion.

파라미터 변환 모듈(330)은 라이브러리 데이터베이스(310)로부터 카메라 워크 라이브러리 데이터(CamL)를 수신하고, 카메라 워크 라이브러리 데이터(CamL)에 포함된 캐릭터 모션 정보(MI)를 기초로 전술한 모션 파라미터(MP2)를 생성할 수 있다. 모션 파라미터(MP2)는 캐릭터 모션 정보(MI)에 포함된 적어도 하나의 파라미터(예를 들어, 심박수, 자세, 피로도 및 감정 관련)를 기초로 생성되며, 복수의 파라미터의 조합을 기초로 생성될 수 있음은 물론이다.The parameter conversion module 330 receives the camera walk library data (CamL) from the library database 310, and based on the character motion information (MI) included in the camera walk library data (CamL), the above-described motion parameter (MP2) can create The motion parameter MP2 is generated based on at least one parameter (eg, heart rate, posture, fatigue, and emotion related) included in the character motion information MI, and may be generated based on a combination of a plurality of parameters. of course there is

또한, 파라미터 변환 모듈(330)은 애니메이션 모듈(220)로부터 수신한 프리 카메라 워크 정보(Ipcw)에 포함된 프리 캐릭터 모션 정보(MIp)를 기초로 모션 파라미터(MP1)를 생성할 수 있다. 마찬가지로, 모션 파라미터(MP1)는 프리 캐릭터 모션 정보(MIp)에 포함된 적어도 하나의 파라미터(예를 들어, 심박수, 자세, 피로도 및 감정 관련)를 기초로 생성되며, 복수의 파라미터의 조합을 기초로 생성될 수 있음은 물론이다.Also, the parameter conversion module 330 may generate the motion parameter MP1 based on the free character motion information MIp included in the free camera walk information Ipcw received from the animation module 220 . Similarly, the motion parameter MP1 is generated based on at least one parameter (eg, related to heart rate, posture, fatigue, and emotion) included in the free character motion information MIp, and based on a combination of a plurality of parameters Of course, it can be created.

이어서, 최적 라이브러리 선정 모듈(320)은 라이브러리 데이터베이스(130)로부터 카메라 워크 라이브러리 데이터(CamL)를 수신할 수 있다. 또한, 최적 라이브러리 선정 모듈(320)은 디지털아이돌 제작 장치(200)로부터 프리 카메라 워크 정보(Ipcw)도 수신할 수 있다. 최적 라이브러리 선정 모듈(320)은 프리 카메라 워크 정보(Ipcw)와 카메라 워크 라이브러리 데이터(CamL)를 비교하여 최적 라이브러리 데이터(CamL_op)를 선정할 수 있다. 최적 라이브러리 데이터(CamL_op)는 카메라 워크 라이브러리 데이터(CamL) 중 프리 카메라 워크 정보(Ipcw)와 가장 유사한 데이터일 수 있다.Subsequently, the optimal library selection module 320 may receive the camera work library data CamL from the library database 130 . In addition, the optimal library selection module 320 may also receive free camera work information Ipcw from the digital idol production apparatus 200 . The optimal library selection module 320 may select the optimal library data CamL_op by comparing the free camera work information Ipcw with the camera work library data CamL. The optimal library data CamL_op may be data most similar to the free camera walk information Ipcw among the camera walk library data CamL.

이때, 최적 라이브러리 선정 모듈(320)은 프리 카메라 워크 정보(Ipcw)의 모션 파라미터(MP1)와 동일한 모션 파라미터(MP2)를 가진 카메라 워크 라이브러리 데이터(CamL)를 필터링할 수 있다. 이를 통해서, 최적 라이브러리 선정 모듈(320)은 프리 카메라 워크 정보(Ipcw)와 카메라 워크 라이브러리 데이터(CamL) 간의 유사성 검토에 필요한 연산량을 대폭 감소시키고, 연산 속도를 향상시킬 수 있다.In this case, the optimal library selection module 320 may filter the camera work library data CamL having the same motion parameter MP2 as the motion parameter MP1 of the free camera walk information Ipcw. Through this, the optimal library selection module 320 can significantly reduce the amount of computation required to review the similarity between the free camera work information (Ipcw) and the camera work library data (CamL), and improve the operation speed.

최적 라이브러리 선정 모듈(320)은 모션 파라미터가 동일한 카메라 워크 라이브러리 데이터(CamL) 중에서 프리 카메라 워크 정보(Ipcw)와 가장 유사한 데이터를 최적 라이브러리 데이터(CamL_op)로 선정할 수 있다.The optimal library selection module 320 may select data most similar to the free camera walk information Ipcw from among the camera walk library data CamL having the same motion parameters as the optimal library data CamL_op.

이때, 최적 라이브러리 선정 모듈(320)은 딥러닝 모델을 통해서 유사성을 판단할 수 있다. 최적 라이브러리 선정 모듈(320)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.In this case, the optimal library selection module 320 may determine the similarity through the deep learning model. Optimal library selection module 320, for example, DFN (Deep Feedforward Network), CNN (Convolutional Neural Network), GNN (Graph Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), SVM (Support) vector machine), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN) and SNN (SNN) Spiking Neural Network) may be included. However, the present embodiment is not limited thereto.

이하에서는, 빅데이터 라이브러리(300)에서 수신한 최적 라이브러리 데이터(CamL_op)를 이용하는 애니메이션 모듈(220)의 동작을 구체적으로 설명하도록 한다.Hereinafter, the operation of the animation module 220 using the optimal library data CamL_op received from the big data library 300 will be described in detail.

도 8은 도 2의 애니메이션 모듈의 동작을 설명하기 위한 블록도이다. FIG. 8 is a block diagram for explaining the operation of the animation module of FIG. 2 .

도 8을 참조하면, 애니메이션 모듈(220)에 포함된 모션 변화 연산 모듈(PCM)은 최적 라이브러리 데이터(CamL_op)에 포함된 캐릭터 모션 정보(MI) 및 배경 정보(BI)와, 작업 지시(Wp)에 포함된 캐릭터 설정 정보(CI)를 이용하여 캐릭터 모션 시퀀스(Scm)를 생성한다. Referring to FIG. 8 , the motion change calculation module (PCM) included in the animation module 220 includes character motion information (MI) and background information (BI) included in the optimal library data (CamL_op), and a work instruction (Wp) A character motion sequence (Scm) is generated using the character setting information (CI) included in the .

여기에서, 캐릭터 설정 정보(CI)는 작업 지시(Wp)에 포함된 정보일 수 있다. 구체적으로, 캐릭터 설정 정보(CI)는 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)를 포함할 수 있다. 다만, 각 항목은 임의적인 것이며, 각 항목은 다르게 변형되어 이용될 수 있음은 물론이다.Here, the character setting information CI may be information included in the work instruction Wp. Specifically, the character setting information CI may include a gender (C1), an age (C2), a body type (C3), and a size (C4) of the character. However, it goes without saying that each item is arbitrary, and each item may be modified and used differently.

모델링 모듈(210)은 캐릭터 설정 정보(CI)를 기초로 캐릭터의 오브젝트를 선정하고 모델링 작업을 진행할 수 있다. 이어서, 애니메이션 모듈(220)은 캐릭터 설정 정보(CI)를 기초로 캐릭터의 움직임 변화량을 도출하거나 보정할 수 있다.The modeling module 210 may select an object of the character based on the character setting information CI and perform modeling. Subsequently, the animation module 220 may derive or correct the amount of change in movement of the character based on the character setting information CI.

캐릭터 모션 시퀀스(Scm)는 시간의 흐름에 따른 캐릭터의 움직임 변화량에 관한 정보를 포함한다. 구체적으로, 캐릭터 모션 시퀀스(Scm)는 캐릭터의 폐용적 변화량, 자세 변화량, 신체의 각 부위에 대한 모양 변화량을 포함할 수 있다.The character motion sequence (Scm) includes information on the amount of change in the movement of the character over time. Specifically, the character motion sequence Scm may include a change amount of lung volume of the character, a change amount of posture, and a change amount of shape for each part of the body.

이하에서는, 모션 변화 연산 모듈(PCM)에서 수행되는 캐릭터 모션 시퀀스(Scm)의 생성 방법에 대해 설명하도록 한다.Hereinafter, a method of generating a character motion sequence (Scm) performed in the motion change calculation module (PCM) will be described.

도 9는 도 8의 애니메이션 모듈의 동작 방법을 설명하기 위한 순서도이다. 도 10은 도 9에 나타난 각각의 파라미터의 산출 흐름을 설명하기 위한 개념도이다. 도 11은 심박수에 따른 캐릭터 모션 시퀀스의 변화를 설명하기 위한 예시도이다.9 is a flowchart illustrating an operation method of the animation module of FIG. 8 . FIG. 10 is a conceptual diagram for explaining the calculation flow of each parameter shown in FIG. 9 . 11 is an exemplary diagram for explaining a change in a character motion sequence according to a heart rate.

도 9를 참조하면, 애니메이션 모듈(220)의 모션 변화 연산 모듈(PCM)은 캐릭터 모션 정보(MI)에 포함된 캐릭터의 심박수(Ihr)를 수신한다(S110). 모션 변화 연산 모듈(PCM)은 수신된 최적 라이브러리 데이터(CamL_op)에서 캐릭터에 대한 심박수를 추출하여 이용할 수 있다.Referring to FIG. 9 , the motion change calculation module PCM of the animation module 220 receives the heart rate Ihr of the character included in the character motion information MI ( S110 ). The motion change calculation module (PCM) may extract and use the heart rate of the character from the received optimal library data (CamL_op).

이어서, 심박수에 따른 폐용적 변화량(Vl)을 도출한다(S120). 여기에서, 폐용적 변화량(Vl)은 캐릭터의 폐의 크기(lung volume)에 대한 시계열적인 변화량을 의미한다.Next, the lung volume change Vl according to the heart rate is derived (S120). Here, the lung volume change Vl means a time-series change in the lung volume of the character.

이어서, 심박수에 따른 자세 변화량(Vp)을 도출한다(S130). 여기에서, 자세 변화량(Vp)은 캐릭터의 자세(pose)에 대한 시계열적인 변화량을 의미한다. 자세 변화량(Vp)은 캐릭터의 신체의 부위별로 상체 모션 변화량, 어깨 모션 변화량, 팔 모션 변화량 등으로 구분될 수 있다. 또한, 자세 변화량(Vp)은 캐릭터의 움직임을 표현하는 복수의 포인트들의 변화들로 표현될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.Next, a posture change amount Vp according to the heart rate is derived (S130). Here, the posture change amount Vp means a time-series change amount with respect to the character's pose. The posture change amount Vp may be divided into upper body motion change amount, shoulder motion change amount, arm motion change amount, etc. for each body part of the character. In addition, the posture change amount Vp may be expressed as changes of a plurality of points expressing the movement of the character. However, the present invention is not limited thereto.

이어서, 심박수에 따른 신체 각 부위의 모양 변화량(Vs)을 도출한다(S140). 여기에서, 모양 변화량(Vs)은 캐릭터의 신체 모양(Shape)에 대한 시계열적인 변화량을 의미한다. 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다. Then, the amount of change (Vs) in the shape of each part of the body according to the heart rate is derived (S140). Here, the shape change amount Vs means a time-series change amount with respect to the body shape of the character. The shape change Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character.

예를 들어, 심박수가 상대적으로 높은 경우 캐릭터는 흉식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 크게 설정될 수 있다. 반면, 심박수가 상대적으로 낮은 경우 캐릭터는 복식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 작게 설정될 수 있다. 즉, 모양 변화량(Vs)을 기초로 캐릭터의 흉식 호흡과 복식 호흡을 구분하여 표현할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.For example, when the heart rate is relatively high, since the character mainly performs chest breathing, the chest shape change amount may be set to be larger than the abdominal shape change amount. On the other hand, when the heart rate is relatively low, since the character mainly breathes abdominally, the chest shape change amount may be set smaller than the abdominal shape change amount. That is, the character's chest breathing and abdominal breathing can be divided and expressed based on the shape change amount (Vs). However, the present invention is not limited thereto.

이어서, 도출된 각각의 변화량(Vl, Vp, Vs)을 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 기초로 보정한다(S150). 예를 들어, 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 캐릭터의 자세(I1), 피로도(I2), 감정(I3)에 따라 변화될 수 있다. 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 캐릭터의 성별(C1), 나이(C2), 체형(C3) 및 사이즈(C4)에 따라 변화될 수 있다. 또한, 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 배경 공간의 온도(B1), 습도(B2), 시간대(B3)에 따라 변화될 수 있다.Then, each of the derived variations Vl, Vp, and Vs is corrected based on the character motion information MI, the background information BI, and the character setting information CI (S150). For example, each change amount (Vl, Vp, Vs) of the character may be changed according to the posture (I1), fatigue (I2), and emotion (I3) of the character. Each change amount (Vl, Vp, Vs) of the character may be changed according to the gender (C1), age (C2), body type (C3), and size (C4) of the character. In addition, each change amount (Vl, Vp, Vs) of the character may be changed according to the temperature (B1), humidity (B2), and time period (B3) of the background space.

이때, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)가 각각의 변화량(Vl, Vp, Vs)에 반영되는 비율은 미리 정해진 가중치에 의해 정해질 수 있다. 예를 들어, 캐릭터 모션 정보(MI) 및 캐릭터 설정 정보(CI)는 배경 정보(BI)에 비해 높은 가중치를 두고 각각의 변화량(Vl, Vp, Vs)에 반영될 수 있다.In this case, the ratio at which the character motion information MI, the background information BI, and the character setting information CI are reflected in the respective variation amounts Vl, Vp, and Vs may be determined by a predetermined weight. For example, the character motion information MI and the character setting information CI may be reflected in the respective variation amounts Vl, Vp, and Vs with a higher weight than the background information BI.

이어서, 보정된 각각의 변화량(Vl, Vp, Vs)을 이용하여 캐릭터 모션 시퀀스(Scm)을 생성한다(S160). 생성된 캐릭터 모션 시퀀스(Scm)는 레이아웃 작업 및 애니메이션 작업에 이용될 수 있다.Next, a character motion sequence Scm is generated using each of the corrected variation amounts Vl, Vp, and Vs (S160). The generated character motion sequence (Scm) may be used for layout work and animation work.

예를 들어, 도 11을 참조하면, 심박수에 따른 폐용적 변화량(Vl)은 도 11의 그래프(SC)와 같이 나타낼 수 있다. 이때, 폐용적 변화량(Vl)은 캐릭터의 종류, 성별 등에 대한 요소들을 기초로 보정되어 시계열적인 그래프(SC)로 표현될 수 있다. For example, referring to FIG. 11 , the lung volume change Vl according to the heart rate may be expressed as the graph SC of FIG. 11 . In this case, the lung volume change Vl may be expressed as a time-series graph SC by being corrected based on factors such as the type and gender of the character.

또한, 폐용적 변화량(Vl)은 자세 변화량(Vp) 및 모양 변화량(Vs)에 반영될 수 있으며, 각각의 변화량(Vl, Vp, Vs)을 기초로 캐릭터의 가슴 움직임(Chest Motion) 및 복부 움직임(Stomach Motion)을 세밀히 표현할 수 있다. 또한, 이들을 종합한 전체 움직임(Overall Motion)이 표현될 수 있음은 물론이다. In addition, the lung volume change (Vl) may be reflected in the posture change amount (Vp) and shape change amount (Vs), and based on each change amount (Vl, Vp, Vs), the character's chest motion and abdominal movement (Stomach Motion) can be expressed in detail. In addition, it goes without saying that an overall motion that combines them can be expressed.

도 12는 도 8의 자세 변화 연산 모듈의 세부적인 구조를 설명하기 위한 블록도이다. 도 13은 도 12의 인공지능 훈련 모듈의 동작을 설명하기 위한 순서도이다. 이하에서는 전술한 내용과 중복되는 내용은 생략하고 차이점을 위주로 설명하도록 한다.12 is a block diagram illustrating a detailed structure of the posture change calculation module of FIG. 8 . 13 is a flowchart for explaining the operation of the artificial intelligence training module of FIG. 12 . Hereinafter, content overlapping with the above will be omitted, and differences will be mainly described.

도 12를 참조하면, 모션 변화 연산 모듈(PCM)은 인공지능 모듈(AIM), 인공지능 훈련 모듈(ATM) 및 모션 보정 모듈(MAM)을 포함할 수 있다.12 , the motion change calculation module (PCM) may include an artificial intelligence module (AIM), an artificial intelligence training module (ATM), and a motion compensation module (MAM).

인공지능 모듈(AIM)은 심박수(Ihr)를 수신한다. 인공지능 모듈(AIM)은 심박수를 입력받고, 이에 대한 출력으로 캐릭터의 폐용적 변화량(Vl), 자세 변화량(Vp) 및 심박수에 따른 신체 각 부위의 모양 변화량(Vs)을 제공한다. 이때, 인공지능 모듈(AIM)은 딥러닝 모듈일 수 있다. 인공지능 모듈(AIM)은 이미 트레이닝 데이터를 이용하여 트레이닝이 완료된 상태일 수 있다. 이때, 인공지능 모듈(AIM)은 지도 학습을 이용할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니고, 인공지능 모듈(AIM)은 비지도 학습을 이용할 수도 있다.The artificial intelligence module (AIM) receives the heart rate (Ihr). The artificial intelligence module (AIM) receives the heart rate and provides as outputs the change in lung volume (Vl), the change in posture (Vp), and the change in the shape of each body part according to the heart rate (Vs) as outputs. In this case, the artificial intelligence module (AIM) may be a deep learning module. The artificial intelligence module (AIM) may have already been trained using training data. In this case, the artificial intelligence module (AIM) may use supervised learning. However, the present embodiment is not limited thereto, and the artificial intelligence module (AIM) may use unsupervised learning.

인공지능 모듈(AIM)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Artificial intelligence module (AIM) is, for example, Deep Feedforward Network (DFN), Convolutional Neural Network (CNN), Graph Neural Network (GNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Support Vector (SVM) machine), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN), and Spiking (SNN) Neural Network) may be included. However, the present embodiment is not limited thereto.

다른 예로, 인공지능 모듈(AIM)은 심박수(Ihr)와 함께, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 수신할 수 있다. 인공지능 모듈(AIM)은 심박수, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력받고, 이에 대한 출력으로 캐릭터의 폐용적 변화량(Vl), 자세 변화량(Vp) 및 신체 각 부위의 모양 변화량(Vs)을 출력할 수 있다. As another example, the artificial intelligence module (AIM) may receive the character motion information (MI), the background information (BI), and the character setting information (CI) along with the heart rate (Ihr). The artificial intelligence module (AIM) receives heart rate, character motion information (MI), background information (BI), and character setting information (CI) as inputs, and outputs the character's lung volume change (Vl) and posture change (Vp) and a shape change amount (Vs) of each part of the body may be output.

이때, 인공지능 모듈(AIM)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력 노드로 하는 입력 레이어와, 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs)을 출력 노드로 하는 출력 레이어와, 상기 입력 레이어와 상기 출력 레이어 사이에 배치되는 하나 이상의 히든 레이어를 포함하고, 상기 입력 노드와 상기 출력 노드 사이의 노드 및 에지의 가중치는 상기 학습부의 학습 과정에 의해 업데이트될 수 있다.At this time, the artificial intelligence module (AIM) includes an input layer using heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI) as input nodes, lung volume change (Vl), and posture an output layer having a change amount Vp and a shape change amount Vs as an output node, and at least one hidden layer disposed between the input layer and the output layer, wherein a node and an edge between the input node and the output node The weight of may be updated by the learning process of the learning unit.

모션 보정 모듈(MAM)은 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 기초로, 인공지능 모듈(AIM)에서 출력된 각각의 변화량(Vl, Vp, Vs)을 보정한다. 모션 보정 모듈(MAM)은 보정된 각각의 변화량(Vl, Vp, Vs)을 포함하는 캐릭터 모션 시퀀스(Scm)를 출력한다.Motion compensation module (MAM) based on the character motion information (MI), background information (BI) and character setting information (CI), each change amount (Vl, Vp, Vs) output from the artificial intelligence module (AIM) Correct. The motion compensation module (MAM) outputs a character motion sequence (Scm) including each corrected amount of change (Vl, Vp, Vs).

한편, 인공지능 훈련 모듈(ATM)은 인공지능 모듈(AIM)을 훈련시키는 트레이닝 데이터를 생성하고, 생성된 트레이닝 데이터를 인공지능 모듈(AIM)에 제공한다.On the other hand, the artificial intelligence training module (ATM) generates training data for training the artificial intelligence module (AIM), and provides the generated training data to the artificial intelligence module (AIM).

구체적으로, 도 13을 참조하면, 인공지능 훈련 모듈(ATM)은 호흡하는 대상(예를 들어, 복수의 센서를 부착한 연기자)을 스캔한 복수의 3D 메쉬를 수신한다(S210).Specifically, referring to FIG. 13 , the artificial intelligence training module (ATM) receives a plurality of 3D meshes scanned by a breathing object (eg, a performer with a plurality of sensors) ( S210 ).

이어서, 복수의 3D 메쉬(3D Mesh)를 캐릭터 설정 정보(CI)에 포함된 각 파라미터 별로 그룹핑한다(S220). 예를 들어, 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)가 유사한 복수의 3D 메쉬들을 그룹핑한다.Next, a plurality of 3D meshes are grouped for each parameter included in the character setting information CI ( S220 ). For example, a plurality of 3D meshes having similar gender (C1), age (C2), body type (C3), and size (C4) are grouped.

이어서, 미리 저장된 템플릿 메쉬를 이용하여 그룹핑된 3D 메쉬를 정렬한다(S230). 이는 복수의 서로 다른 3D 메쉬의 평균값을 구하기 위한 전처리 과정에 해당한다.Next, the grouped 3D mesh is aligned using the pre-stored template mesh (S230). This corresponds to a pre-processing process to obtain an average value of a plurality of different 3D meshes.

이어서, 각 그룹핑된 3D 메쉬에 대해 심박수(Ihr)에 따른 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs)의 평균값을 도출한다(S240). 또한, 그룹핑된 3D 메쉬의 캐릭터 모션 시퀀스(Scm)에 대한 평균값도 함께 도출한다.Then, for each grouped 3D mesh, average values of lung volume change Vl, posture change Vp, and shape change Vs according to heart rate Ihr are derived (S240). In addition, the average value for the character motion sequence (Scm) of the grouped 3D mesh is also derived.

이어서, 도출된 각각의 변화량(Vl, Vp, Vs)의 평균값을 이용하여 인공지능 모듈(AIM)을 훈련시킨다(S250). 이때, 도출된 각각의 변화량(Vl, Vp, Vs)과 심박수(Ihr)의 평균값은 인공지능 모듈(AIM)의 입력 노드에 인가되고, 이에 대응되는 캐릭터 모션 시퀀스(Scm)는 인공지능 모듈(AIM)의 출력 노드에 인가된다. 즉, 트레이닝 데이터는 도출된 각각의 변화량(Vl, Vp, Vs)과 심박수(Ihr)의 평균값과, 이에 대응되는 캐릭터 모션 시퀀스(Scm)의 평균값을 포함할 수 있다. 인공지능 훈련 모듈(ATM)은 생성된 트레이닝 데이터를 이용하여 인공지능 모듈(AIM)를 훈련시킬 수 있다. Then, the artificial intelligence module (AIM) is trained using the average value of each of the derived amounts of change (Vl, Vp, Vs) (S250). At this time, the derived average value of each variation (Vl, Vp, Vs) and heart rate (Ihr) is applied to the input node of the artificial intelligence module (AIM), and the corresponding character motion sequence (Scm) is generated by the artificial intelligence module (AIM) ) is applied to the output node of That is, the training data may include an average value of each of the derived variation amounts (Vl, Vp, Vs) and a heart rate (Ihr), and an average value of a character motion sequence (Scm) corresponding thereto. The artificial intelligence training module (ATM) may train the artificial intelligence module (AIM) using the generated training data.

이하에서는, 전술한 애니메이션 모듈(220)에서 수행되는 본 발명의 몇몇 실시예에 대해 살펴보도록 한다.Hereinafter, some embodiments of the present invention performed in the above-described animation module 220 will be described.

도 14는 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 일 예를 설명하기 위한 순서도이다.14 is a flowchart illustrating an example of a method of operating an animation module according to an embodiment of the present invention.

도 14를 참조하면, 본 발명의 실시예에 따른 애니메이션 모듈(220)은, 레이아웃 대상이 되는 캐릭터의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다(S310). 여기에서, 호흡량 변화패턴은 심박수를 기초로 생성된 시계열적인 호흡량에 대한 변화를 나타낸다. 호흡량 변화패턴은 실제 사용자로부터 측정한 호흡량의 변화량과 심박수와의 관계를 기초로 생성될 수 있다. 예를 들어, 호흡량 변화패턴은 도 11에 개시된 그래프(SC)와 같이 도시될 수 있다. 또한, 호흡량 변화패턴은 심박수를 기초로 생성된 폐용적 변화량을 기초로 생성될 수 있다. Referring to FIG. 14 , the animation module 220 according to the embodiment of the present invention estimates a respiratory rate change pattern according to the heart rate (Ihr) of the character to be laid out (S310). Here, the respiratory volume change pattern represents a change in the time-series respiratory volume generated based on the heart rate. The respiratory volume change pattern may be generated based on the relationship between the respiratory volume change amount measured from an actual user and the heart rate. For example, the respiratory volume change pattern may be shown as the graph SC disclosed in FIG. 11 . Also, the respiratory volume change pattern may be generated based on the lung volume change amount generated based on the heart rate.

이때, 이용되는 심박수(Ihr)는 최적 라이브러리 데이터(CamL_op)에 포함된 캐릭터의 심박수 또는 프리 카메라 워크 정보(Ipcw)에서 설정된 캐릭터의 심박수가 이용될 수 있다.In this case, as the used heart rate Ihr, a heart rate of a character included in the optimal library data CamL_op or a heart rate of a character set in the free camera work information Ipcw may be used.

이어서, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다(S320). 이때, 캐릭터 설정 정보(CI)는 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)를 포함할 수 있다. 이때, 애니메이션 모듈(220)은 호흡량 변화패턴을 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 설정 정보(CI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다. 예를 들어, 30세에 키 180cm의 뚱뚱한 체형의 남성에 대한 제1 캐릭터의 제1 보정값은 60세에 키 160cm의 마른 체형의 여성에 대한 제2 캐릭터의 제2 보정값보다 크게 형성될 수 있다.Next, the animation module 220 derives the amount of change of the posture Vp for each part of the character's body based on the pattern of breathing change and the character setting information (CI) ( S320 ). In this case, the character setting information CI may include the character's gender (C1), age (C2), body type (C3), and size (C4). In this case, the animation module 220 may operate by first deriving a reference value of the posture change amount Vp based on the respiratory rate change pattern and correcting detailed numerical values using the character setting information CI. For example, the first correction value of the first character for a fat male with a height of 180 cm at the age of 30 may be greater than the second correction value of the second character for a skinny woman with a height of 160 cm at the age of 60. have.

또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다(S330). 예를 들어, 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다. 예를 들어, 심박수가 상대적으로 높은 경우 캐릭터는 흉식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 크게 설정될 수 있다. 반면, 심박수가 상대적으로 낮은 경우 캐릭터는 복식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 작게 설정될 수 있다.Also, the animation module 220 derives the shape change Vs for each part of the character's body based on the respiration rate change pattern and the character setting information CI (S330). For example, the shape change Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character. For example, when the heart rate is relatively high, since the character mainly performs chest breathing, the chest shape change amount may be set to be larger than the abdominal shape change amount. On the other hand, when the heart rate is relatively low, since the character mainly breathes abdominally, the chest shape change amount may be set smaller than the abdominal shape change amount.

이때, S320 단계 및 S330 단계의 동작순서는 변경되어 수행될 수 있음은 물론이다.In this case, it goes without saying that the operation order of steps S320 and S330 may be changed and performed.

또한, 애니메이션 모듈(220)은 도출된 자세 변화량(Vp) 및 모양 변화량(Vs)을 배경 정보(BI)를 기초로 보정한다(S340). 배경 정보(BI)는 배경(BG)의 온도(B1), 습도(B2) 및 시간대(B3)를 포함할 수 있다. 예를 들어, 온도가 상대적으로 높고 낮시간대의 제1 캐릭터의 경우, 온도가 상대적으로 낮고 밤시간대의 제2 캐릭터보다, 자세 변화량(Vp) 및 모양 변화량(Vs)의 보정량이 클 수 있다. 다만, 이는 하나의 예시에 불과하고 본 발명이 이에 한정되는 것은 아니다.Also, the animation module 220 corrects the derived attitude change amount Vp and shape change amount Vs based on the background information BI (S340). The background information BI may include a temperature B1, a humidity B2, and a time zone B3 of the background BG. For example, in the case of a first character having a relatively high temperature and a daytime period, the correction amount of the posture change amount Vp and the shape change amount Vs may be greater than that of the second character having a relatively low temperature and night time period. However, this is only an example and the present invention is not limited thereto.

도 15는 본 발명의 실시예에 따른 애니메이션 모듈의 동작 방법의 다른 예를 설명하기 위한 순서도이다. 이하에서는 전술한 내용과 중복되는 내용은 생략하고 차이점을 위주로 설명하도록 한다.15 is a flowchart illustrating another example of an operation method of an animation module according to an embodiment of the present invention. Hereinafter, content overlapping with the above will be omitted, and differences will be mainly described.

도 15를 참조하면, 본 발명의 실시예에 따른 애니메이션 모듈(220)은, 레이아웃 대상이 되는 캐릭터의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다(S410). Referring to FIG. 15 , the animation module 220 according to an embodiment of the present invention estimates a respiratory rate change pattern according to a heart rate (Ihr) of a character to be laid out (S410).

이어서, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다(S420). 이때, 캐릭터 모션 정보(CI)는 캐릭터의 자세(I1), 피로도(I2) 및 감정(I3)에 관한 정보를 포함할 수 있다. 이때, 애니메이션 모듈(220)은 호흡량 변화패턴을 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 모션 정보(MI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다. 예를 들어, 기립자세로 활력이 넘치는 기쁜 감정상태의 제1 캐릭터의 제1 보정값은, 앉은자세로 피로하고 우울한 제2 캐릭터의 제2 보정값보다 크게 형성될 수 있다.Next, the animation module 220 derives a change amount Vp for each part of the character's body based on the respiratory rate change pattern and the character motion information MI (S420). In this case, the character motion information CI may include information about the character's posture I1 , fatigue I2 , and emotion I3 . In this case, the animation module 220 may operate by first deriving a reference value of the posture change amount Vp based on the respiratory rate change pattern, and correcting detailed numerical values using the character motion information MI. For example, the first correction value of the first character in the happy emotional state full of vitality in the standing posture may be greater than the second correction value of the second character in the tired and depressed state in the sitting position.

또한, 애니메이션 모듈(220)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다(S430). 이때, 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다. 이때, S420 단계 및 S430 단계의 동작순서는 변경되어 수행될 수 있음은 물론이다.Also, the animation module 220 derives the shape change Vs for each part of the character body based on the respiration rate change pattern and the character motion information MI (S430). In this case, the shape change amount Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character. In this case, it goes without saying that the operation order of steps S420 and S430 may be changed and performed.

또한, 애니메이션 모듈(220)은 도출된 자세 변화량(Vp) 및 모양 변화량(Vs)을 배경 정보(BI)를 기초로 보정한다(S440). Also, the animation module 220 corrects the derived attitude change amount Vp and shape change amount Vs based on the background information BI ( S440 ).

이어서, 애니메이션 모듈(220)은 보정된 캐릭터의 자세 변화량(Vp) 및 모양 변화량(Vs)을 포함하는 캐릭터 모션 시퀀스(Scm)와 최적 라이브러리 데이터(CamL_op)에 포함된 여러 정보들을 기초로 레이아웃 작업 및 애니메이션 작업을 수행한다.Next, the animation module 220 performs layout work and Perform animation work.

정리하면, 애니메이션 모듈(220)은 심박수(Ihr)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp) 및 모양 변화량(Vs)을 도출한다. 이어서, 애니메이션 모듈(220)은 캐릭터 설정 정보(CI), 캐릭터 모션 정보(MI), 또는 배경 정보(BI)에 포함된 복수의 파라미터 중 일부를 이용하여, 도출된 자세 변화량(Vp) 및 모양 변화량(Vs)를 보정한다. In summary, the animation module 220 derives the amount of change in posture (Vp) and change in shape (Vs) for each part of the character's body based on the heart rate (Ihr). Subsequently, the animation module 220 uses some of a plurality of parameters included in the character setting information (CI), the character motion information (MI), or the background information (BI) to generate the derived posture change amount (Vp) and shape change amount (Vs) is corrected.

이를 통해, 애니메이션 모듈(220)은, 캐릭터 설정 정보(CI), 캐릭터 모션 정보(MI), 또는 배경 정보(BI)에 포함된 각 파라미터를 고려하여, 캐릭터의 현재 상태를 반영하는 움직임의 변화를 세밀하게 표현할 수 있다. 제작자(100)는 이러한 캐릭터의 움직임의 변화를 수작업으로 일일이 정의하고 설정하는 것이 아닌, 작업 지시(Wp)에 캐릭터의 설정값을 조정하는 것만으로 캐릭터의 디테일한 움직임의 변화를 표현할 수 있어, 애니메이션 제작의 편의성 및 작업의 속도를 높일 수 있다.Through this, the animation module 220 considers each parameter included in the character setting information (CI), the character motion information (MI), or the background information (BI), and changes the movement reflecting the current state of the character. can be expressed in detail. The creator 100 can express the detailed movement of the character by adjusting the setting value of the character in the work instruction (Wp), rather than manually defining and setting these changes in the movement of the character individually. Convenience of production and speed of work can be increased.

도 16은 도 2의 렌더링 모듈과 컴포짓 모듈의 동작을 설명하기 위한 순서도이다.FIG. 16 is a flowchart for explaining operations of the rendering module and the composite module of FIG. 2 .

도 16을 참조하면, 디지털아이돌 제작 장치(200)는 애니메이션 단계에 이어서 렌더링 단계를 수행한다(S510).Referring to FIG. 16 , the digital idol production apparatus 200 performs a rendering step following the animation step ( S510 ).

구체적으로, 도 2를 참조하면, 렌더링 모듈(230)은 작업 지시(Wp)에 따라서 렌더링 작업을 수행할 수 있다. 3D 애니메이션 제작과정에서 렌더링 작업은 오브젝트들의 3D 움직임을 구현하는 애니메이션 작업 이후에 카메라(Cam)에 의해서 촬영되는 2차원적인 영상을 만들어 내는 단계일 수 있다.Specifically, referring to FIG. 2 , the rendering module 230 may perform a rendering operation according to the operation instruction Wp. In the 3D animation production process, the rendering operation may be a step of creating a two-dimensional image photographed by a camera (Cam) after the animation operation for realizing 3D movement of objects.

렌더링 모듈(230)은 즉, 애니메이션 작업까지 완료된 오브젝트들의 애니메이션 이미지를 생성해야 하므로, 오브젝트의 배열 및 움직임, 시점, 텍스쳐 매핑, 조명 및 쉐이딩의 세부 단계를 거쳐 렌더링 작업을 수행할 수 있다. 렌더링 모듈(230)은 여러 채널을 이용하여 복수의 레이어로 렌더링을 수행할 수 있다.Since the rendering module 230 needs to generate animation images of objects that have been completed until the animation operation, the rendering operation may be performed through detailed steps of object arrangement and movement, viewpoint, texture mapping, lighting, and shading. The rendering module 230 may perform rendering in a plurality of layers using several channels.

다시, 도 16을 참조하면, 디지털아이돌 제작 장치(200)는 컴포짓 단계를 수행하여 애니메이션 이미지를 생성한다(S520).Again, referring to FIG. 16 , the digital idol production apparatus 200 generates an animation image by performing a compositing step ( S520 ).

구체적으로, 도 2를 참조하면, 컴포짓 모듈(240)은 렌더링된 여러 개의 이미지를 수신하고, 이를 하나의 최종 장면으로 통합하는 컴포짓 작업을 수행할 수 있다. 컴포짓 모듈(240)은 하나의 이미지를 다양한 레이어를 합성하여 완성시킬 수 있다. 이를 통해서, 컴포짓 모듈(240)은 애니메이션 이미지(Pr)를 최종적으로 완성할 수 있다.Specifically, referring to FIG. 2 , the composite module 240 may receive a plurality of rendered images and perform a composite operation of integrating them into one final scene. The composite module 240 may complete one image by synthesizing various layers. Through this, the composite module 240 may finally complete the animation image Pr.

본 발명의 몇몇 실시예들에 따른 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템은 심박수를 기초로 캐릭터의 호흡과 관련된 디테일한 움직임의 변화를 표현함으로써 리얼리티를 극대화 할 수 있다.The artificial intelligence-based digital idol content creation system using biometric information according to some embodiments of the present invention can maximize reality by expressing changes in detailed movements related to breathing of a character based on heart rate.

또한, 인공지능을 통해서 기존에 제작된 애니메이션 파일의 캐릭터에 대한 모션과 관련된 파라미터를 유형별로 분류하고, 새로 제작되는 애니메이션에 파라미터의 세부사항을 적용시켜 애니메이션 제작 기간을 대폭 단축시키고, 애니메이션의 품질도 더 향상시킬 수 있다. 나아가, 딥러닝 모듈을 통해서 빅데이터의 유형을 분류하는 작업을 수행하여 인력의 소모를 최소화하고, 높은 효율을 도모할 수 있다. In addition, through artificial intelligence, motion-related parameters for characters in existing animation files are classified by type, and the details of parameters are applied to newly produced animations to significantly shorten the animation production period and improve animation quality. can be further improved. Furthermore, it is possible to minimize the consumption of manpower and promote high efficiency by performing the task of classifying the types of big data through the deep learning module.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and a person skilled in the art to which this embodiment belongs may make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present embodiment.

Claims (10)

제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보에 최적화된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 애니메이션 이미지를 생성하는 디지털아이돌 제작 장치; 및
상기 프리 카메라 워크 정보와의 유사성 판단을 통해서, 상기 최적 라이브러리 데이터를 찾아 상기 디지털아이돌 제작 장치로 전송하는 빅데이터 라이브러리를 포함하되,
상기 프리 카메라 워크 정보는, 특정 캐릭터의 심박수를 포함하는 캐릭터 모션 정보를 포함하고,
상기 디지털아이돌 제작 장치는,
상기 작업 지시를 기초로 캐릭터를 모델링하는 모델링 모듈; 및
상기 모델링된 캐릭터의 움직임을 생성하는 애니메이션 모듈을 포함하고,
상기 애니메이션 모듈은,
상기 최적 라이브러리 데이터에 포함된 상기 캐릭터 모션 정보, 배경 정보 및 캐릭터 설정 정보를 이용하여 상기 캐릭터 모션 시퀀스를 도출하되, 상기 심박수를 기초로 상기 캐릭터의 움직임 변화량을 나타내는 상기 캐릭터 모션 시퀀스를 도출하는 단계와,
도출된 상기 캐릭터 모션 시퀀스를 이용하여 상기 애니메이션 이미지를 생성하는 단계를 수행하는 것을 포함하되,
상기 캐릭터 모션 시퀀스를 도출하는 단계는,
상기 캐릭터의 심박수를 추출하고,
상기 심박수에 따른 상기 캐릭터의 폐용적 변화량, 자세 변화량 신체 각 부위의 모양 변화량을 각각 도출하되, 상기 폐용적 변화량은 상기 캐릭터의 폐의 크기에 대한 시계열적인 변화량을 의미하고, 상기 자세 변화량은 상기 캐릭터의 움직임을 표현하는 복수의 포인트들의 시계열적인 변화량을 의미하고, 상기 모양 변화량은 상기 캐릭터의 가슴모양 변화량 및 복부모양 변화량을 포함하는 신체 각 부위의 변화량을 의미하고,
도출된 상기 폐용적 변화량, 상기 자세 변화량, 및 상기 모양 변화량을, 상기 캐릭터 모션 정보, 상기 배경 정보, 및 상기 캐릭터 설정 정보를 기초로 보정하고,
보정된 상기 상기 폐용적 변화량, 상기 자세 변화량, 및 상기 신체 각 부위의 모양 변화량을 이용하여 상기 캐릭터 모션 시퀀스를 도출하는 것을 포함하되,
상기 심박수가 미리 정해진 기준치 보다 높은 경우, 상기 가슴모양 변화량은 상기 복부모양 변화량보다 크게 설정되고,
상기 상기 심박수가 미리 정해진 기준치 보다 낮은 경우, 상기 가슴모양 변화량은 상기 복부모양 변화량보다 작게 설정되며,
상기 애니메이션 모듈은,
상기 심박수를 입력받고, 이에 대한 출력으로 상기 폐용적 변화량, 상기 자세 변화량 및 신체 각 부위의 상기 모양 변화량을 제공하는 인공지능 모듈;
미리 스캔된 복수의 3D 메쉬를 상기 캐릭터 설정 정보에 포함된 파라미터 중 어느 하나로 그룹핑하고, 미리 저장된 템플릿 메쉬를 이용하여 그룹핑된 상기 복수의 3D 메쉬를 정렬하고, 정렬된 상기 복수의 3D 메쉬의 폐용적 변화량, 자세 변화량, 신체 각 부위의 모양 변화량의 평균값을 도출하고, 도출된 평균값을 이용하여 상기 인공지능 모듈을 훈련시키는 인공지능 훈련 모듈; 및
상기 인공지능 모듈에서 출력된 상기 각각의 변화량을 상기 캐릭터 모션 정보, 상기 배경 정보, 및 상기 캐릭터 설정 정보를 기초로 보정하여 상기 캐릭터 모션 시퀀스를 출력하는 모션 보정 모듈을 포함하되,
상기 캐릭터 모션 정보는, 상기 캐릭터의 자세, 피로도 및 감정 중 적어도 하나와, 상기 캐릭터의 심박수를 포함하고,
상기 배경 정보는, 상기 애니메이션 이미지의 생성 작업에 이용되는 배경의 온도, 습도 및 시간대 중 적어도 하나를 포함하고,
상기 캐릭터 설정 정보는, 상기 캐릭터의 성별, 나이, 체형 및 사이즈 중 적어도 하나를 포함하는
생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템.
A digital idol that receives a work instruction from a producer, generates free camera work information according to the work instruction, receives optimal library data optimized for the free camera work information, and creates an animation image by applying the optimal library data production device; and
and a big data library that finds the optimal library data and transmits it to the digital idol production device by determining the similarity with the free camera work information,
The free camera walk information includes character motion information including a heart rate of a specific character,
The digital idol production device,
a modeling module for modeling a character based on the work instruction; and
Including an animation module for generating the movement of the modeled character,
The animation module is
deriving the character motion sequence by using the character motion information, background information, and character setting information included in the optimal library data, and deriving the character motion sequence representing the amount of change in motion of the character based on the heart rate; ,
Comprising performing the step of generating the animation image by using the derived character motion sequence,
The step of deriving the character motion sequence comprises:
extracting the heart rate of the character;
A change in lung volume, a change in posture, and a change in shape of each body part of the character according to the heart rate are respectively derived, wherein the change in lung volume means a time-series change in the size of the character's lungs, and the amount of change in the posture is the It means the amount of change in time series of a plurality of points expressing the movement of the character, and the amount of change in the shape means the amount of change in each part of the body including the amount of change in the chest shape of the character and the amount of change in the abdominal shape,
Correcting the derived lung volume change amount, the posture change amount, and the shape change amount based on the character motion information, the background information, and the character setting information,
Including deriving the character motion sequence using the corrected amount of change in lung volume, the amount of change in posture, and the amount of change in shape of each part of the body,
When the heart rate is higher than a predetermined reference value, the chest shape change amount is set to be larger than the abdominal shape change amount,
When the heart rate is lower than a predetermined reference value, the chest shape change amount is set to be smaller than the abdominal shape change amount,
The animation module is
an artificial intelligence module that receives the heart rate and provides the change amount of the lung volume, the posture change amount, and the shape change amount of each body part as outputs;
Group a plurality of pre-scanned 3D meshes by any one of parameters included in the character setting information, align the grouped 3D meshes using a pre-stored template mesh, and waste volumes of the aligned 3D meshes an artificial intelligence training module for deriving an average value of change amount, posture change amount, and shape change amount of each body part, and training the artificial intelligence module using the derived average value; and
Comprising a motion compensation module for outputting the character motion sequence by correcting each change amount output from the artificial intelligence module based on the character motion information, the background information, and the character setting information,
The character motion information includes at least one of a posture, fatigue, and emotion of the character, and a heart rate of the character,
The background information includes at least one of temperature, humidity, and time zone of the background used for the creation of the animation image,
The character setting information includes at least one of gender, age, body type, and size of the character
Artificial intelligence-based digital idol content creation system using biometric information.
삭제delete 삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 인공지능 모듈은,
상기 캐릭터 모션 정보, 상기 배경 정보, 또는 상기 캐릭터 설정 정보를 추가로 입력받고, 이에 대한 출력으로 상기 폐용적 변화량, 상기 자세 변화량 및 신체 각 부위의 상기 모양 변화량을 출력하는 것을 포함하는 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템.
According to claim 1,
The artificial intelligence module is
Using biometric information comprising receiving the character motion information, the background information, or the character setting information as additional input, and outputting the lung volume change amount, the posture change amount, and the shape change amount of each body part as outputs AI-based digital idol content creation system.
삭제delete 제1 항에 있어서,
상기 빅데이터 라이브러리는,
적어도 하나의 카메라 워크 라이브러리 데이터를 저장하는 라이브러리 데이터베이스와,
상기 카메라 워크 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 유사성을 기반으로 최적 라이브러리 데이터를 선정하는 최적 라이브러리 선정 모듈을 포함하는 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템.
According to claim 1,
The big data library is
a library database for storing at least one camera work library data;
An artificial intelligence-based digital idol content production system using biometric information, comprising an optimal library selection module for selecting optimal library data based on similarity by comparing the camera work library data with the free camera work information.
제8 항에 있어서,
상기 프리 카메라 워크 정보에 포함된 상기 캐릭터 모션 정보의 유형에 관한 모션 파라미터를 생성하는 파라미터 변환 모듈을 더 포함하고,
상기 최적 라이브러리 선정 모듈은,
상기 모션 파라미터를 통해서 상기 카메라 워크 라이브러리 데이터 중 동일한 유형의 필터링 데이터를 선정하고, 상기 필터링 데이터 중 상기 프리 카메라 워크 정보와 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정하는 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템.
9. The method of claim 8,
Further comprising a parameter conversion module for generating a motion parameter related to the type of the character motion information included in the free camera walk information,
The optimal library selection module is
Artificial intelligence-based digital idol using biometric information that selects the same type of filtering data among the camera work library data through the motion parameter, and selects the most similar data to the free camera work information among the filtered data as the optimal library data content creation system.
제9 항에 있어서,
상기 모션 파라미터는,
상기 캐릭터 모션 정보에 포함된 캐릭터의 심박수, 자세, 피로도 및 감정 중 적어도 하나 이상의 파라미터를 기준으로 구분되는 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템.
10. The method of claim 9,
The motion parameters are
An artificial intelligence-based digital idol content production system using biometric information classified based on at least one parameter among a heart rate, posture, fatigue, and emotion of a character included in the character motion information.
KR1020210112684A 2021-08-25 2021-08-25 Artificial intelligence-based digital-idol contents making system using biometric information KR102341863B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210112684A KR102341863B1 (en) 2021-08-25 2021-08-25 Artificial intelligence-based digital-idol contents making system using biometric information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210112684A KR102341863B1 (en) 2021-08-25 2021-08-25 Artificial intelligence-based digital-idol contents making system using biometric information

Publications (1)

Publication Number Publication Date
KR102341863B1 true KR102341863B1 (en) 2021-12-22

Family

ID=79164218

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210112684A KR102341863B1 (en) 2021-08-25 2021-08-25 Artificial intelligence-based digital-idol contents making system using biometric information

Country Status (1)

Country Link
KR (1) KR102341863B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
KR20060032409A (en) * 2004-10-12 2006-04-17 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
KR20200071990A (en) * 2018-12-12 2020-06-22 삼성전자주식회사 Electronic device and method for displaying three dimensions image
KR20210006662A (en) * 2019-07-09 2021-01-19 (사)한국애니메이션제작자협회 Animaiton contents resource service system and method based on intelligent informatin technology

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
KR20060032409A (en) * 2004-10-12 2006-04-17 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
KR20200071990A (en) * 2018-12-12 2020-06-22 삼성전자주식회사 Electronic device and method for displaying three dimensions image
KR20210006662A (en) * 2019-07-09 2021-01-19 (사)한국애니메이션제작자협회 Animaiton contents resource service system and method based on intelligent informatin technology

Similar Documents

Publication Publication Date Title
KR102343582B1 (en) Artificial intelligence-based metaverse contents making system for using biometric information
US11538216B2 (en) Dynamically estimating light-source-specific parameters for digital images using a neural network
US10540817B2 (en) System and method for creating a full head 3D morphable model
EP3381017B1 (en) Face reconstruction from a learned embedding
KR102341866B1 (en) System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof
US8624901B2 (en) Apparatus and method for generating facial animation
KR101635730B1 (en) Apparatus and method for generating montage, recording medium for performing the method
US20200151963A1 (en) Training data set generation apparatus and method for machine learning
Rosales et al. SurfaceBrush: from virtual reality drawings to manifold surfaces
US11727617B2 (en) Single image-based real-time body animation
CN108961369A (en) The method and apparatus for generating 3D animation
EP3335195A2 (en) Methods of generating personalized 3d head models or 3d body models
US20210012550A1 (en) Additional Developments to the Automatic Rig Creation Process
US20230044644A1 (en) Large-scale generation of photorealistic 3d models
CN113628327A (en) Head three-dimensional reconstruction method and equipment
US11403800B1 (en) Image generation from 3D model using neural network
KR102316114B1 (en) Artificial intelligence-based layout system utilizing animatic image and big data and method therefor
Wang et al. Digital twin: Acquiring high-fidelity 3D avatar from a single image
KR102341863B1 (en) Artificial intelligence-based digital-idol contents making system using biometric information
KR100889854B1 (en) Method and Apparatus for creating caricature Video
KR102343581B1 (en) Artificial intelligence-based digital-idol making system for enhancing character reality using biometric information
KR102316111B1 (en) Artificial intelligence-based animation layout system utilizing big data and method therefor
EP4275179A1 (en) Volumetric video from an image source
CN114373033A (en) Image processing method, image processing apparatus, image processing device, storage medium, and computer program
KR102316112B1 (en) Artificial intelligence-based multi object layout system utilizing big data and method therefor

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant