KR102341866B1 - System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof - Google Patents

System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof Download PDF

Info

Publication number
KR102341866B1
KR102341866B1 KR1020210115960A KR20210115960A KR102341866B1 KR 102341866 B1 KR102341866 B1 KR 102341866B1 KR 1020210115960 A KR1020210115960 A KR 1020210115960A KR 20210115960 A KR20210115960 A KR 20210115960A KR 102341866 B1 KR102341866 B1 KR 102341866B1
Authority
KR
South Korea
Prior art keywords
character
motion
data
idol
digital
Prior art date
Application number
KR1020210115960A
Other languages
Korean (ko)
Inventor
서보국
김종철
Original Assignee
주식회사 에스에이엠지엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스에이엠지엔터테인먼트 filed Critical 주식회사 에스에이엠지엔터테인먼트
Priority to KR1020210115960A priority Critical patent/KR102341866B1/en
Application granted granted Critical
Publication of KR102341866B1 publication Critical patent/KR102341866B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0217Discounts or incentives, e.g. coupons or rebates involving input on products or services in exchange for incentives or rewards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Abstract

The present invention relates to a system and a method for providing an artificial intelligence-based platform implementing a metaverse digital idol. The system includes: a metaverse implementing server receiving motion data and biometric data from a user and generating metaverse data generated by synchronization between the real-world user and a metaverse digital idol, in which the metaverse data is executed using the biometric data and the motion data; and an electronic device receiving the metaverse data from the metaverse implementing server and displaying the metaverse data. The metaverse implementing server includes: a digital idol database storing digital idol information; a motion change calculation unit generating a character motion sequence defining the motion of the digital idol using the motion data and the digital idol information; a shading change calculation unit generating character shading data defining the appearance of the digital idol using the biometric data and the digital idol information; and a graphic processing unit generating the metaverse data including graphic data on the digital idol synchronized with the user through the character motion sequence and the character shading data.

Description

메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템 및 그 방법{System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof} System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof

본 발명은 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템 및 그 방법에 관한 것이다. 구체적으로, 본 발명은 현실 세계의 사용자와 메타버스의 디지털아이돌을 동기화시켜 컨텐츠를 생성하는 시스템 및 방법에 관한 것이다.The present invention relates to an artificial intelligence-based platform providing system and method for implementing a metaverse digital idol. Specifically, the present invention relates to a system and method for generating content by synchronizing a digital idol of a metaverse with a user in the real world.

디지털아이돌 컨텐츠 제작은 매우 복잡한 절차를 통해서 이루어진다. 종래의 디지털아이돌 컨텐츠 제작의 경우 3D 그래픽을 다루는 DCC(Digital Content Creation tools)을 이용하여 선형적인 방식으로 제작이 이루어진다. 구체적으로, 현재의 디지털아이돌 컨텐츠 제작 방식은 모델링 단계, 애니메이션 단계, 렌더링 단계 및 컴포짓 단계를 순차적으로 수행하여 최종적인 애니메이션 이미지가 생성된다. Digital idol content production is done through a very complicated procedure. In the case of the conventional digital idol content production, the production is made in a linear manner using DCC (Digital Content Creation tools) that deal with 3D graphics. Specifically, the current digital idol content production method sequentially performs a modeling step, an animation step, a rendering step, and a compositing step to generate a final animation image.

이러한 방식의 디지털아이돌 컨텐츠 제작 방법에서는 캐릭터의 리얼리티를 살리기 위해 다양한 방식을 이용하고 있다. 가장 대표적으로 복수의 센서를 부착한 연기자의 움직임을 기초로 3D 메쉬를 생성한 뒤, 생성된 3D 메쉬를 캐릭터에 적용함으로써 캐릭터에 생동감을 불러 일으키는 작업을 진행하고 있다.In this type of digital idol content production method, various methods are used to bring out the reality of the character. The most representative work is to create a 3D mesh based on the movement of an actor with multiple sensors, and then apply the generated 3D mesh to the character to bring the character to life.

디지털아이돌 컨텐츠 제작 과정에서는 다양한 캐릭터와 배경이 이용되고, 각 캐릭터와 배경에 대한 설정 및 상황이 다를 수 있다. 다만, 이러한 캐릭터와 배경의 설정 및 상황이 달라질 때마다, 연기자가 새로 연기를 하여 3D 메쉬를 생성하고 적용하는 경우 시간과 비용이 증가되며, 새로운 캐릭터 및 상황에 따른 변화에 대한 즉각적인 적용이 어렵다는 문제가 존재하였다.Various characters and backgrounds are used in the digital idol content creation process, and settings and situations for each character and background may be different. However, whenever the settings and circumstances of these characters and backgrounds are changed, time and cost increase when an actor performs a new role and creates and applies a 3D mesh, and it is difficult to immediately apply changes according to new characters and situations was present.

따라서, 캐릭터의 리얼리티를 살리고, 제작비용을 절감하기 위한 다양한 디지털아이돌 컨텐츠 제작의 자동화된 추가적인 처리 과정들이 개발되고 있는 실정이다.Accordingly, automated additional processing processes for the production of various digital idol contents are being developed in order to preserve the reality of the character and reduce the production cost.

공개특허공보 제10-2004-0096799호Laid-open Patent Publication No. 10-2004-0096799

본 발명의 과제는, 사용자의 생체 데이터와 모션 데이터를 이용하여 사용자와 디지털아이돌의 동기화를 수행하는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템을 제공하는 것이다.An object of the present invention is to provide an artificial intelligence-based platform providing system that implements a metaverse digital idol that synchronizes a user and a digital idol by using the user's biometric data and motion data.

또한, 본 발명의 다른 과제는, 사용자의 생체 데이터와 모션 데이터를 이용하여 사용자와 디지털아이돌의 동기화를 수행하는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 방법을 제공하는 것이다.Another object of the present invention is to provide an artificial intelligence-based platform providing method that implements a metaverse digital idol that synchronizes a user and a digital idol using the user's biometric data and motion data.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템은, 사용자로부터 모션 데이터 및 생체 데이터를 수신하고, 현실 세계의 사용자와 메타버스의 디지털아이돌을 동기화하여 생성된 메타버스 데이터를 생성하고, 상기 메타버스 데이터는 상기 생체 데이터 및 상기 모션 데이터를 이용하여 수행되는 메타버스 구현 서버 및 상기 메타버스 구현 서버로부터 상기 메타버스 데이터를 수신하여 표시하는 전자 장치를 포함하되, 상기 메타버스 구현 서버는, 디지털아이돌 정보를 저장하는 디지털아이돌 데이터베이스와, 상기 모션 데이터와 상기 디지털아이돌 정보를 이용하여 상기 디지털아이돌의 움직임을 정의하는 캐릭터 모션 시퀀스를 생성하는 모션 변화 연산부와, 상기 생체 데이터와 상기 디지털아이돌 정보를 이용하여 상기 디지털아이돌의 외관을 정의하는 캐릭터 셰이딩 데이터를 생성하는 셰이딩 변화 연산부와, 상기 캐릭터 모션 시퀀스 및 상기 캐릭터 셰이딩 데이터를 통해서 상기 사용자와 동기화된 상기 디지털아이돌의 그래픽 데이터를 포함하는 상기 메타버스 데이터를 생성하는 그래픽 처리부를 포함한다.In order to solve the above problems, an artificial intelligence-based platform providing system implementing a metaverse digital idol according to some embodiments of the present invention receives motion data and biometric data from a user, and a digital idol of the metaverse and a user in the real world. an electronic device that generates metaverse data generated by synchronizing the metaverse data and receives and displays the metaverse data from a metaverse realization server that is performed using the biometric data and the motion data and the metaverse realization server A motion change that includes an apparatus, wherein the metaverse implementation server generates a digital idol database that stores digital idol information, and a character motion sequence that defines the movement of the digital idol using the motion data and the digital idol information. a calculation unit, a shading change calculation unit generating character shading data defining the appearance of the digital idol by using the biometric data and the digital idol information; and the user synchronized with the user through the character motion sequence and the character shading data and a graphic processing unit that generates the metaverse data including graphic data of a digital idol.

또한, 상기 메타버스 구현 서버는 상기 메타버스 데이터를 통한 디지털아이돌 컨텐츠를 생성하고, 상기 디지털아이돌 컨텐츠를 수신하여 SNS(Social Networking Service)에 업로드하고, 유저들의 선호도를 수집하여 레이팅 점수를 산출하는 SNS 서버와, 상기 레이팅 점수를 수신하고, 상기 레이팅 점수에 상응하는 보상을 상기 메타버스 내의 상기 사용자의 계정에 반영하게 하는 보상 정보를 생성하는 메타버스 관리 서버를 더 포함할 수 있다.In addition, the metaverse implementation server generates digital idol content through the metaverse data, receives the digital idol content, uploads it to SNS (Social Networking Service), and collects users' preferences to calculate a rating score. The method may further include a server, and a metaverse management server that receives the rating score and generates reward information that allows a reward corresponding to the rating score to be reflected in the user's account in the metaverse.

또한, 상기 메타버스 관리 서버는 상기 사용자로부터 구매 정보를 수신하고, 상기 보상 정보는 상기 보상 정보 및 상기 레이팅 점수에 기초하여 생성될 수 있다.Also, the metaverse management server may receive purchase information from the user, and the reward information may be generated based on the reward information and the rating score.

또한, 상기 구매 정보는 구매 완구 및/또는 구매 컨텐츠로부터 획득한 구매인증 정보를 통해서 생성될 수 있다.In addition, the purchase information may be generated through purchase authentication information obtained from purchased toys and/or purchased contents.

또한, 상기 구매인증 정보는 바코드, QR코드, 시리얼 넘버 중 적어도 하나를 인식하여 생성될 수 있다.In addition, the purchase authentication information may be generated by recognizing at least one of a barcode, a QR code, and a serial number.

또한, 상기 모션 변화 연산부는 상기 생체 데이터를 통해서 상기 디지털아이돌의 바디와 상기 디지털아이돌의 의상 사이의 마찰을 계산하여 상기 디지털아이돌의 의상의 움직임을 정의하는 클로딩 모션 시퀀스를 생성할 수 있다.In addition, the motion change calculating unit may generate a clothing motion sequence that defines the movement of the digital idol's clothes by calculating friction between the digital idol's body and the digital idol's clothes through the biometric data.

또한, 상기 메타버스 구현 서버는, 상기 모션 데이터를 정규화하여 모션 정규 데이터를 생성하는 모션 데이터 수신부와, 상기 생체 데이터를 정규화하여 생체 정규 데이터를 생성하는 생체 데이터 수신부를 더 포함하고, 상기 모션 변화 연산부 및 상기 셰이딩 변화 연산부는 각각 상기 모션 정규 데이터 및 상기 생체 정규 데이터를 수신할 수 있다.In addition, the metaverse implementation server further comprises: a motion data receiving unit for generating normal motion data by normalizing the motion data; and the shading change calculating unit may receive the motion normal data and the bionormal data, respectively.

상기 다른 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 방법은, 사용자로부터 모션 데이터 및 생체 데이터를 수신하고, 상기 모션 데이터를 정규화하여 모션 정규 데이터를 생성하고, 상기 생체 데이터를 정규화하여 생체 정규 데이터를 생성하고, 디지털아이돌 정보, 상기 모션 정규 데이터 및 상기 생체 정규 데이터를 통해서 캐릭터 모션 시퀀스를 생성하고, 상기 디지털아이돌 정보, 상기 모션 정규 데이터 및 상기 생체 정규 데이터를 통해서 캐릭터 셰이딩 데이터를 생성하고, 상기 캐릭터 모션 시퀀스 및 상기 캐릭터 셰이딩 데이터를 통해서 캐릭터 그래픽 처리를 하여 현실 세계의 상기 사용자와 동기화된 메타버스의 디지털아이돌을 구현하는 메타버스 데이터를 생성하는 것을 포함한다.An artificial intelligence-based platform providing method for implementing a metaverse digital idol according to some embodiments of the present invention for solving the above other problems, receives motion data and biometric data from a user, and normalizes the motion data to obtain normal motion data generating, normalizing the biometric data to generate bionormal data, generating a character motion sequence using digital idol information, the motion normal data and the bionormal data, and generating the digital idol information, the motion normal data and the Generating character shading data through normal biometric data, and performing character graphic processing through the character motion sequence and the character shading data to create metaverse data that implements a digital idol of the metaverse synchronized with the user in the real world include that

또한, 상기 메타버스 데이터를 이용하여 디지털아이돌 컨텐츠를 생성하고, 상기 디지털아이돌 컨텐츠를 SNS에 업로드하여 레이팅 점수를 산출하고, 상기 레이팅 점수에 따라 보상 점수를 생성하여 상기 메타버스 내의 상기 사용자의 계정에 연동하는 것을 더 포함할 수 있다.In addition, digital idol content is generated using the metaverse data, the digital idol content is uploaded to SNS to calculate a rating score, and a reward score is generated according to the rating score to the user's account in the metaverse. It may further include interlocking.

또한, 상기 디지털아이돌 정보, 상기 캐릭터 모션 정규 데이터, 상기 생체 정규 데이터 및 상기 캐릭터 모션 시퀀스를 통해 클로딩 모션 시퀀스를 생성하는 것을 더 포함할 수 있다.The method may further include generating a clothing motion sequence through the digital idol information, the character motion normal data, the bionormal data, and the character motion sequence.

본 발명의 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템 및 그 방법은, 현실 세계의 사용자와 메타버스의 디지털아이돌을 동기화시켜 사용자가 디지털아이돌의 입장에서 메타버스를 체험할 수 있다.The artificial intelligence-based platform providing system and method for implementing the metaverse digital idol of the present invention synchronize the digital idol of the metaverse with a user in the real world so that the user can experience the metaverse from the position of a digital idol.

또한, 체험의 리얼리티를 극대화하기 위해서 사용자의 모션 데이터 및 생체 데이터를 메타버스의 디지털아이돌에 적용하여 정밀한 동기화를 수행할 수 있다.In addition, in order to maximize the reality of the experience, the user's motion data and biometric data can be applied to the digital idol of the metaverse to perform precise synchronization.

나아가, 사용자에 의해서 생성된 디지털아이돌 컨텐츠를 SNS(Social Network Service)에 업로드하고, 다수의 사용자의 선호도에 기초한 레이팅 점수를 기초로 메타버스 내의 보상을 제공하여 사용자들의 참여 및 경쟁을 유도할 수 있다.Furthermore, users can induce participation and competition by uploading digital idol contents created by users to SNS (Social Network Service) and providing rewards in the metaverse based on rating scores based on the preferences of multiple users. .

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.The specific effects of the present invention in addition to the above will be described together while explaining the specific details for carrying out the invention below.

도 1은 본 발명의 몇몇 실시예들에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 생체 데이터를 설명하기 위한 개념도이다.
도 3은 현실 세계의 사용자와 메타버스의 디지털아이돌의 동기화를 설명하기 위한 도면이다.
도 4는 도 1의 메타버스 구현 서버를 세부적으로 설명하기 위한 블록도이다.
도 5는 도 4의 모션 변화 연산부를 세부적으로 설명하기 위한 블록도이다.
도 6은 도 5의 캐릭터 모션 정보, 배경 정보 및 캐릭터 설정 정보를 설명하기 위한 도면이다.
도 7은 도 5의 파라미터 산출 흐름을 설명하기 위한 개념도이다.
도 8은 심박수에 따른 캐릭터 모션 시퀀스의 변화를 설명하기 위한 예시도이다.
도 9는 도 5의 모션 변화 연산 모듈을 세부적으로 설명하기 위한 블록도이다.
도 10은 도 9의 인공지능 훈련 모듈의 동작을 설명하기 위한 순서도이다.
도 11은 도 5의 클로딩 모션 변화 연산 모듈을 세부적으로 설명하기 위한 블록도이다.
도 12는 도 4의 셰이딩 변화 연산부를 세부적으로 설명하기 위한 블록도이다.
도 13은 도 12의 셰이딩 변화 연산 모듈을 세부적으로 설명하기 위한 블록도이다.
도 14는 도 12의 파라미터 산출 흐름을 설명하기 위한 개념도이다.
도 15는 도 1의 구매 정보를 획득하는 과정을 설명하기 위한 개념도이다.
도 16은 본 발명의 몇몇 실시예들에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 방법을 설명하기 위한 순서도이다.
도 17은 도 16의 캐릭터 모션 시퀀스 및 클로딩 모션 시퀀스를 생성하는 단계를 세부적으로 설명하기 위한 순서도이다.
도 18은 도 17의 신체 각 부위의 땀 배출량을 도출하는 단계의 일 예를 세부적으로 설명하기 위한 순서도이다.
도 19는 도 17의 신체 각 부위의 땀 배출량을 도출하는 단계의 다른 예를 세부적으로 설명하기 위한 순서도이다.
도 20은 도 17의 클로딩 모션 시퀀스를 생성하는 단계를 세부적으로 설명하기 위한 순서도이다.
도 21은 도 16의 캐릭터 셰이딩 데이터를 생성하는 단계를 세부적으로 설명하기 위한 순서도이다.
도 22는 도 16의 메타버스 데이터를 생성하는 단계를 세부적으로 설명하기 위한 순서도이다.
1 is a conceptual diagram for explaining an artificial intelligence-based platform providing system that implements a metaverse digital idol according to some embodiments of the present invention.
FIG. 2 is a conceptual diagram for explaining the biometric data of FIG. 1 .
3 is a diagram for explaining the synchronization of a digital idol in the metaverse with a user in the real world.
FIG. 4 is a block diagram for explaining the metaverse implementation server of FIG. 1 in detail.
FIG. 5 is a block diagram for explaining in detail the motion change calculator of FIG. 4 .
FIG. 6 is a diagram for explaining character motion information, background information, and character setting information of FIG. 5 .
7 is a conceptual diagram for explaining the parameter calculation flow of FIG. 5 .
8 is an exemplary diagram for explaining a change in a character motion sequence according to a heart rate.
9 is a block diagram for explaining in detail the motion change calculation module of FIG. 5 .
10 is a flowchart for explaining the operation of the artificial intelligence training module of FIG.
11 is a block diagram for explaining in detail the clothing motion change calculation module of FIG. 5 .
12 is a block diagram for explaining in detail the shading change calculating unit of FIG. 4 .
13 is a block diagram for explaining in detail the shading change calculation module of FIG. 12 .
14 is a conceptual diagram for explaining a parameter calculation flow of FIG. 12 .
15 is a conceptual diagram for explaining a process of acquiring purchase information of FIG. 1 .
16 is a flowchart illustrating a method of providing an artificial intelligence-based platform for implementing a metaverse digital idol according to some embodiments of the present invention.
17 is a flowchart for explaining in detail the steps of generating the character motion sequence and the clothing motion sequence of FIG. 16 .
FIG. 18 is a flowchart for explaining in detail an example of a step of deriving the amount of sweat from each part of the body of FIG. 17 .
FIG. 19 is a flowchart for explaining in detail another example of a step of deriving the amount of sweat from each part of the body of FIG. 17 .
FIG. 20 is a flowchart for explaining in detail a step of generating the clothing motion sequence of FIG. 17 .
21 is a flowchart for explaining in detail a step of generating the character shading data of FIG. 16 .
22 is a flowchart for explaining in detail a step of generating metaverse data of FIG. 16 .

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. In accordance with the principle that the inventor can define a term or concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, since the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all the technical spirit of the present invention, they can be substituted at the time of the present application. It should be understood that there may be various equivalents and modifications and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. used in this specification and claims may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term 'and/or' includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. It should be understood that terms such as “comprise” or “have” in the present application do not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification in advance. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not technically contradict each other.

이하, 도 1 내지 도 15를 참조하여, 본 발명의 몇몇 실시예들에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템을 설명한다.Hereinafter, an artificial intelligence-based platform providing system for implementing a metaverse digital idol according to some embodiments of the present invention will be described with reference to FIGS. 1 to 15 .

도 1은 본 발명의 몇몇 실시예들에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining an artificial intelligence-based platform providing system that implements a metaverse digital idol according to some embodiments of the present invention.

도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템은 사용자(100)로부터 모션 데이터(D_mot), 생체 데이터(D_bio) 및 구매 정보(Ipur)를 제공받을 수 있다. 본 발명의 몇몇 실시예들에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템은 메타버스 구현 서버(200), 전자 장치(300), SNS 서버(400) 및 메타버스 관리 서버(500)를 포함한다. Referring to FIG. 1 , an artificial intelligence-based platform providing system implementing a metaverse digital idol according to some embodiments of the present invention provides motion data (D_mot), biometric data (D_bio) and purchase information (Ipur) from a user 100 . ) can be provided. A system for providing an artificial intelligence-based platform for implementing a metaverse digital idol according to some embodiments of the present invention includes a metaverse implementation server 200 , an electronic device 300 , an SNS server 400 , and a metaverse management server 500 . includes

사용자(100)는 본 발명의 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템을 사용하는 사람일 수 있다. 사용자(100)는 다양한 센서를 통해서 본인의 모션 데이터(D_mot) 및 생체 데이터(D_bio)를 메타버스 구현 서버(200)로 전송할 수 있다. 또한, 사용자(100)는 관련된 완구나 컨텐츠를 구매하여 구매 정보(Ipur)를 메타버스 관리 서버(500)로 전송할 수 있다. 이에 대해서는 추후 더 자세히 설명한다.The user 100 may be a person who uses an artificial intelligence-based platform providing system that implements the metaverse digital idol of the present invention. The user 100 may transmit his/her motion data (D_mot) and biometric data (D_bio) to the metaverse implementation server 200 through various sensors. In addition, the user 100 may purchase related toys or contents and transmit purchase information Ipur to the metaverse management server 500 . This will be described in more detail later.

모션 데이터(D_mot)는 사용자(100)의 움직임에 대한 정보일 수 있다. 모션 데이터(D_mot)는 사용자(100)가 취하는 자세나 동작에 대한 정보일 수 있다. 모션 데이터(D_mot)는 예를 들어, 사용자(100)가 춤을 추는 경우 그에 대한 정보일 수 있다.The motion data D_mot may be information about the movement of the user 100 . The motion data D_mot may be information on a posture or motion taken by the user 100 . The motion data D_mot may be, for example, information about when the user 100 dances.

도 2는 도 1의 생체 데이터를 설명하기 위한 개념도이다.FIG. 2 is a conceptual diagram for explaining the biometric data of FIG. 1 .

도 1 및 도 2를 참조하면, 생체 데이터(D_bio)는 사용자(100)의 신체에서 수집되는 데이터일 수 있다. 예를 들어, 생체 데이터(D_bio)는 심박수 정보(Ihr_u), 페이스 이미지 정보(If), 혈류량 정보(Ibf), 호흡량 정보(Ir) 및 땀 배출량 정보(Isw) 중 적어도 하나를 포함할 수 있다. 1 and 2 , the biometric data D_bio may be data collected from the body of the user 100 . For example, the biometric data D_bio may include at least one of heart rate information Ihr_u, pace image information If, blood flow information Ibf, respiration amount information Ir, and sweat discharge information Isw.

이때, 심박수 정보(Ihr_u)는 사용자(100)가 착용한 센서에 의해서 수집될 수 있다. 심박수 정보(Ihr_u)는 다른 생체 데이터(D_bio) 즉, 혈류량 정보(Ibf), 호흡량 정보(Ir) 및 땀 배출량 정보(Isw)를 산출하기 위한 기초 데이터로서 활용될 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.In this case, the heart rate information Ihr_u may be collected by a sensor worn by the user 100 . The heart rate information Ihr_u may be used as basic data for calculating other biometric data D_bio, that is, blood flow information Ibf, respiration amount information Ir, and sweat discharge information Isw. However, the present embodiment is not limited thereto.

즉, 사용자(100)가 착용한 센서에 의해서 수집되는 것은 혈류량 정보(Ibf)이고, 심박수 정보(Ihr_u)도 이러한 혈류량 정보(Ibf)를 통해서 산출될 수도 있다. 생체 데이터(D_bio)는 다양한 방식으로 측정 및 산출될 수 있다.That is, the blood flow information Ibf is collected by the sensor worn by the user 100 , and the heart rate information Ihr_u may also be calculated through the blood flow information Ibf. The biometric data D_bio may be measured and calculated in various ways.

페이스 이미지 정보(If)는 카메라와 같은 이미지 센서에 의해서 수집될 수 있다. 페이스 이미지 정보(If)는 모션 데이터(D_mot)의 큰 동작과는 달리 얼굴의 동작이나 표정을 수집하기 위한 데이터일 수 있다. 예를 들어, 페이스 이미지 정보(If)는 눈 깜박임이나 입모양의 시계열 정보를 포함할 수 있다.The face image information If may be collected by an image sensor such as a camera. Unlike the large motion of the motion data D_mot, the face image information If may be data for collecting facial motions or expressions. For example, the face image information If may include time series information of eye blinks or mouth shapes.

도 3은 현실 세계의 사용자와 메타버스의 디지털아이돌의 동기화를 설명하기 위한 도면이다.3 is a diagram for explaining the synchronization of a digital idol in the metaverse with a user in the real world.

도 1 및 도 3을 참조하면, 메타버스 구현 서버(200)는 사용자(100)의 모션 데이터(D_mot) 및 생체 데이터(D_bio)를 수신하고, 현실 세계(Rw)의 사용자(100)와 메타버스(MV)의 디지털아이돌(100a)을 동기화(Sync)하여 메타버스 데이터(D_mv)를 생성할 수 있다. 메타버스 데이터(D_mv)는 현실 세계와 대응하는 온라인 상의 세계를 구현하는 데이터로서, 메타버스(MV)에서는 사용자(100)는 디지털아이돌(100a)로서 주변을 체험할 수 있다.1 and 3, the metaverse implementation server 200 receives the motion data (D_mot) and biometric data (D_bio) of the user 100, the user 100 in the real world (Rw) and the metaverse Metaverse data D_mv can be generated by synchronizing the digital idol 100a of (MV). The metaverse data D_mv is data that implements an online world corresponding to the real world. In the metaverse MV, the user 100 can experience the surroundings as a digital idol 100a.

메타버스 구현 서버(200)는 생성된 메타버스 데이터(D_mv)를 전자 장치(300)로 전송하여 사용자(100)가 체험하게 할 수 있다. 전자 장치(300)는 디스플레이, 가상 현실 구현 장비 및 증강 현실 구현 장비 중 적어도 하나를 포함할 수 있다. 사용자(100)는 전자 장치(300)를 통해서 메타버스(MV)와 메타버스(MV) 내의 디지털아이돌(100a)을 감각적으로 느낄 수 있다.The metaverse implementation server 200 may transmit the generated metaverse data D_mv to the electronic device 300 so that the user 100 can experience it. The electronic device 300 may include at least one of a display, virtual reality implementation equipment, and augmented reality implementation equipment. The user 100 can sense the metaverse MV and the digital idol 100a in the metaverse MV through the electronic device 300 .

메타버스 구현 서버(200)는 메타버스 데이터(D_mv)를 통해서 디지털아이돌 컨텐츠(Cmv)를 생성할 수 있다. 디지털아이돌 컨텐츠(Cmv)는 사용자(100)의 움직임과 표정 등이 반영된 디지털아이돌(100a)의 움직임이 기록된 이미지나 영상일 수 있다. 즉, 디지털아이돌 컨텐츠(Cmv)는 춤이나 포즈와 같이 사용자(100)가 디지털아이돌(100a)로서 생성해내는 이미지나 영상물을 컨텐츠화한 것일 수 있다. 이에 따라서, 디지털아이돌 컨텐츠(Cmv)는 사용자(100)별로 생성될 수 있다. 즉, 복수의 사용자 계정이 메타버스(MV)에 있는 경우 각각의 사용자 계정 별로 디지털아이돌 컨텐츠(Cmv)가 생성될 수 있다. 메타버스 구현 서버(200)는 디지털아이돌 컨텐츠(Cmv)를 SNS 서버(400)로 전송할 수 있다.The metaverse implementation server 200 may generate digital idol content (Cmv) through metaverse data (D_mv). The digital idol content Cmv may be an image or video in which the movement of the digital idol 100a in which the movement and facial expression of the user 100 are reflected. That is, the digital idol content (Cmv) may be an image or video material generated by the user 100 as the digital idol 100a, such as a dance or a pose, into content. Accordingly, digital idol contents Cmv may be generated for each user 100 . That is, when a plurality of user accounts exist in the metaverse MV, digital idol contents Cmv may be generated for each user account. The metaverse implementation server 200 may transmit digital idol content (Cmv) to the SNS server 400 .

SNS 서버(400)는 SNS를 운영하는 서버일 수 있다. SNS 서버(400)는 디지털아이돌 컨텐츠(Cmv)를 수신하고, 이를 SNS 상에 업로드할 수 있다. SNS 서버(400)는 디지털아이돌 컨텐츠(Cmv)에 대한 레이팅 점수(S_Rat)를 수집할 수 있다. 레이팅 점수(S_Rat)란, 디지털아이돌 컨텐츠(Cmv)의 조회수, 선호도 점수 및 SNS 상의 사용자(100)의 계정에 대한 구독 횟수 중 적어도 하나를 이용하여 산출될 수 있다. 레이팅 점수(S_Rat)는 다른 여러 사용자들이 평가한 디지털아이돌 컨텐츠(Cmv)의 선호도 점수라고 정의할 수 있다. SNS 서버(400)는 레이팅 점수(S_Rat)를 메타버스 관리 서버(500)로 전송할 수 있다.The SNS server 400 may be a server operating an SNS. The SNS server 400 may receive the digital idol content (Cmv) and upload it on the SNS. The SNS server 400 may collect a rating score (S_Rat) for the digital idol content (Cmv). The rating score (S_Rat) may be calculated using at least one of the number of views of the digital idol content (Cmv), the preference score, and the number of subscriptions to the account of the user 100 on the SNS. The rating score (S_Rat) can be defined as a preference score for digital idol content (Cmv) evaluated by several other users. The SNS server 400 may transmit the rating score (S_Rat) to the metaverse management server 500 .

메타버스 관리 서버(500)는 SNS 서버(400)로부터 레이팅 점수(S_Rat)를 수신할 수 있다. 메타버스 관리 서버(500)는 사용자(100)로부터 구매 정보(Ipur)를 수신할 수 있다. 구매 정보(Ipur)는 사용자(100)가 디지털아이돌(100a)과 관련된 상품을 구매한 경우 그에 대한 정보일 수 있다.The metaverse management server 500 may receive a rating score (S_Rat) from the SNS server 400 . The metaverse management server 500 may receive purchase information Ipur from the user 100 . The purchase information Ipur may be information about when the user 100 purchases a product related to the digital idol 100a.

메타버스 관리 서버(500)는 레이팅 점수(S_Rat) 및/또는 구매 정보(Ipur)를 이용하여 보상 정보(Irw)를 생성할 수 있다. 보상 정보(Irw)는 사용자(100)에 대한 메타버스(MV) 내의 보상에 대한 정보일 수 있다. 즉, 디지털아이돌 컨텐츠(Cmv)의 레이팅 점수(S_Rat)가 높을수록 메타버스(MV) 내의 보상이 커질 수 있다. 또한, 사용자(100)가 디지털아이돌(100a)에 대한 상품을 구매한 경우 메타버스(MV) 내의 보상이 주어질 수 있다. 이를 통해서, 메타버스 관리 서버(500)는 사용자(100)의 참여 및 경쟁을 유도할 수 있고, 상품의 판매를 촉진시킬 수 있다.The metaverse management server 500 may generate the reward information Irw using the rating score S_Rat and/or the purchase information Ipur. The reward information Irw may be information about a reward in the metaverse MV for the user 100 . That is, the higher the rating score (S_Rat) of the digital idol content (Cmv), the greater the reward in the metaverse (MV). Also, when the user 100 purchases a product for the digital idol 100a, a reward in the metaverse MV may be given. Through this, the metaverse management server 500 may induce participation and competition of the user 100 and may promote product sales.

이때, 메타버스 구현 서버(200), SNS 서버(400) 및 메타버스 관리 서버(500)는 워크스테이션(workstation), 데이터 센터, 인터넷 데이터 센터(internet data center(IDC)), DAS(direct attached storage) 시스템, SAN(storage area network) 시스템, NAS(network attached storage) 시스템 및 RAID(redundant array of inexpensive disks, or redundant array of independent disks) 시스템 중 적어도 하나로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.In this case, the metaverse implementation server 200 , the SNS server 400 , and the metaverse management server 500 are a workstation, a data center, an internet data center (IDC), and a direct attached storage (DAS). ) system, a storage area network (SAN) system, a network attached storage (NAS) system, and a RAID (redundant array of inexpensive disks, or redundant array of independent disks) system may be implemented as at least one, but the present embodiment is limited thereto no.

사용자(100), 전자 장치(300), 메타버스 구현 서버(200), SNS 서버(400) 및 메타버스 관리 서버(500)는 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.The user 100 , the electronic device 300 , the metaverse implementation server 200 , the SNS server 400 , and the metaverse management server 500 may transmit data through a network. The network may include a network based on a wired Internet technology, a wireless Internet technology, and a short-range communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies are, for example, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet) Access), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) and 5G New Radio (NR) technology. However, the present embodiment is not limited thereto.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include However, the present embodiment is not limited thereto.

네트워크를 통해서 통신하는 사용자(100), 전자 장치(300), 메타버스 구현 서버(200), SNS 서버(400) 및 메타버스 관리 서버(500)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The user 100 , the electronic device 300 , the metaverse implementation server 200 , the SNS server 400 , and the metaverse management server 500 communicating through the network complies with the technical standards and standard communication methods for mobile communication. can do. For example, standard communication methods include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), and Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO). , at least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) may include However, the present embodiment is not limited thereto.

도 4는 도 1의 메타버스 구현 서버를 세부적으로 설명하기 위한 블록도이다.FIG. 4 is a block diagram for explaining the metaverse implementation server of FIG. 1 in detail.

도 3 및 도 4를 참조하면, 메타버스 구현 서버(200)는 모션 데이터 수신부(210), 생체 데이터 수신부(220), 디지털아이돌 데이터베이스(230), 모션 변화 연산부(240), 셰이딩 변화 연산부(250), 계정 정보 관리부(260) 및 그래픽 처리부(270)를 포함할 수 있다.3 and 4 , the metaverse implementation server 200 includes a motion data receiver 210 , a biometric data receiver 220 , a digital idol database 230 , a motion change calculator 240 , and a shading change calculator 250 . ), an account information management unit 260 and a graphic processing unit 270 .

모션 데이터 수신부(210)는 모션 데이터(D_mot)를 수신하고, 이를 정규화할 수 있다. 이때, 정규화란 다양한 센서 장치에서 수집되어 다양한 포맷으로 전송되는 데이터를 하나의 일관된 포맷으로 일치시키는 작업을 의미할 수 있다. 모션 데이터 수신부(210)는 모션 데이터(D_mot)를 정규화하여 모션 정규 데이터(Dn_mot)를 생성할 수 있다.The motion data receiver 210 may receive the motion data D_mot and normalize it. In this case, normalization may refer to an operation of matching data collected from various sensor devices and transmitted in various formats into one consistent format. The motion data receiver 210 may generate the motion normal data Dn_mot by normalizing the motion data D_mot.

생체 데이터 수신부(220)는 생체 데이터(D_bio)를 수신하고, 이를 정규화할 수 있다. 생체 데이터 수신부(220)는 생체 데이터(D_bio)를 정규화하여 생체 정규 데이터(Dn_bio)를 생성할 수 있다.The biometric data receiver 220 may receive the biometric data D_bio and normalize it. The biometric data receiver 220 may normalize the biometric data D_bio to generate the normal biometric data Dn_bio.

디지털아이돌 데이터베이스(230)는 디지털아이돌(100a)에 대한 정보 즉, 디지털아이돌 정보(Did)를 저장할 수 있다. 디지털아이돌 정보(Did)는 디지털아이돌(100a)의 외형, 의상, 움직임, 목소리, 포즈 등 디지털아이돌(100a)에 대한 세부적인 사항을 모두 포함할 수 있다.The digital idol database 230 may store information about the digital idol 100a, that is, digital idol information Did. The digital idol information (Did) may include all detailed information about the digital idol 100a, such as the appearance, clothes, movement, voice, and pose of the digital idol 100a.

모션 변화 연산부(240)는 모션 정규 데이터(Dn_mot), 생체 정규 데이터(Dn_bio) 및 디지털아이돌 정보(Did)를 수신하고, 캐릭터 모션 시퀀스(Scm) 및 클로딩 모션 시퀀스(Sclm)를 생성할 수 있다. 캐릭터 모션 시퀀스(Scm)는 디지털아이돌(100a)의 움직임에 대한 데이터이고, 클로딩 모션 시퀀스(Sclm)는 디지털아이돌(100a)의 의상의 움직임에 대한 데이터일 수 있다.The motion change operation unit 240 may receive the motion normal data (Dn_mot), the normal biometric data (Dn_bio), and the digital idol information (Did), and generate a character motion sequence (Scm) and a clothing motion sequence (Sclm). . The character motion sequence (Scm) may be data on the movement of the digital idol 100a, and the clothing motion sequence (Sclm) may be data on the movement of the clothes of the digital idol 100a.

셰이딩 변화 연산부(250)는 모션 정규 데이터(Dn_mot), 생체 정규 데이터(Dn_bio) 및 디지털아이돌 정보(Did)를 수신하고, 캐릭터 셰이딩 데이터(Dcs)를 생성할 수 있다. 캐릭터 셰이딩 데이터(Dcs)는 디지털아이돌(100a)의 셰이딩에 대한 데이터일 수 있다.The shading change calculating unit 250 may receive the motion normal data Dn_mot, the normal biometric data Dn_bio, and the digital idol information Did, and generate character shading data Dcs. The character shading data Dcs may be data for shading of the digital idol 100a.

계정 정보 관리부(260)는 보상 정보(Irw)를 수신하고, 이를 사용자(100)의 계정에 반영할 수 있다. 계정 정보 관리부(260)는 보상 정보(Irw)에 따라 사용자(100)의 계정의 재화 정보(Dc)를 업데이트할 수 있다.The account information management unit 260 may receive the reward information Irw and reflect it in the user's 100 account. The account information management unit 260 may update the goods information Dc of the user 100's account according to the compensation information Irw.

그래픽 처리부(270)는 캐릭터 모션 시퀀스(Scm), 클로딩 모션 시퀀스(Sclm), 캐릭터 셰이딩 데이터(Dcs) 및 재화 정보(Dc)를 수신하여 메타버스 데이터(D_mv)를 생성할 수 있다. 그래픽 처리부(270)는 디지털아이돌(100a)의 움직임과, 디지털아이돌(100a)의 의상의 움직임과, 디지털아이돌(100a)의 외형 및 사용자(100)가 메타버스(MV) 내에서 사용할 수 있는 재화에 대한 그래픽 처리를 통해 메타버스 데이터(D_mv)를 생성할 수 있다.The graphic processing unit 270 may receive the character motion sequence Scm, the clothing motion sequence Sclm, the character shading data Dcs, and the goods information Dc to generate metaverse data D_mv. The graphic processing unit 270 includes the movement of the digital idol 100a, the movement of the clothes of the digital idol 100a, the appearance of the digital idol 100a, and goods that the user 100 can use in the metaverse (MV). Metaverse data (D_mv) can be generated through graphic processing for .

도 5는 도 4의 모션 변화 연산부를 세부적으로 설명하기 위한 블록도이다.FIG. 5 is a block diagram for explaining in detail the motion change calculator of FIG. 4 .

도 5를 참조하면, 모션 변화 연산부(240)는 제1 입력 정보 연산 모듈(241), 모션 변화 연산 모듈(242) 및 클로딩 모션 변화 연산 모듈(243)을 포함할 수 있다.Referring to FIG. 5 , the motion change operation unit 240 may include a first input information operation module 241 , a motion change operation module 242 , and a clothing motion change operation module 243 .

제1 입력 정보 연산 모듈(241)은 모션 정규 데이터(Dn_mot), 생체 정규 데이터(Dn_bio) 및 디지털아이돌 정보(Did)를 수신할 수 있다. 제1 입력 정보 연산 모듈(241)은 모션 정규 데이터(Dn_mot), 생체 정규 데이터(Dn_bio) 및 디지털아이돌 정보(Did)를 기초로 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 생성할 수 있다.The first input information calculation module 241 may receive motion normal data Dn_mot, bionormal data Dn_bio, and digital idol information Did. The first input information calculation module 241 provides character motion information (MI), background information (BI) and character setting information ( CI) can be created.

도 6은 도 5의 캐릭터 모션 정보, 배경 정보 및 캐릭터 설정 정보를 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining character motion information, background information, and character setting information of FIG. 5 .

도 1, 도 5 및 도 6을 참조하면, 캐릭터 모션 정보(MI)는 디지털아이돌(100a)의 심박수(Ihr), 자세(I1), 피로도(I2) 및 감정(I3)에 관한 정보를 포함할 수 있다. 각각의 정보(Ihr, I1, I2, I3)는 시계열적으로 이루어진 데이터로 구성될 수 있다. 즉, 캐릭터 모션 정보(MI)는 시간의 흐름에 따른 디지털아이돌(100a)의 심박수의 변화, 자세의 변화, 피로도의 변화 및 감정의 변화를 포함할 수 있다. 1, 5 and 6, the character motion information (MI) may include information on the heart rate (Ihr), posture (I1), fatigue (I2), and emotion (I3) of the digital idol 100a. can Each of the information Ihr, I1, I2, and I3 may be composed of time-series data. That is, the character motion information MI may include changes in heart rate, posture, fatigue, and emotions of the digital idol 100a over time.

이러한 캐릭터 모션 정보(MI)는 사용자(100)의 모션 정규 데이터(Dn_mot), 생체 정규 데이터(Dn_bio) 및 디지털아이돌 정보(Did)를 통해서 생성될 수 있다. 예를 들어, 동기화(Sync)를 통해서 사용자(100)의 생체 정규 데이터(Dn_bio)가 그대로 디지털아이돌(100a)의 캐릭터 모션 정보(MI)로 사용될 수 있다. 즉, 사용자(100)의 심박수 정보(Ihr_u)가 그대로 디지털아이돌(100a)의 심박수(Ihr)로 사용될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니고, 사용자(100)의 심박수 정보(Ihr_u)가 디지털아이돌 정보(Did)에 따라 일정한 변환을 거쳐 심박수(Ihr)로 사용될 수도 있다.Such character motion information MI may be generated through the user 100's motion normal data Dn_mot, bioregular data Dn_bio, and digital idol information Did. For example, the normal biometric data Dn_bio of the user 100 may be used as the character motion information MI of the digital idol 100a through synchronization. That is, the heart rate information Ihr_u of the user 100 may be used as the heart rate Ihr of the digital idol 100a as it is. However, the present embodiment is not limited thereto, and the heart rate information Ihr_u of the user 100 may be used as the heart rate Ihr through a certain conversion according to the digital idol information Did.

배경 정보(BI)는 배경의 온도(B1), 습도(B2) 및 시간대(B3)를 포함할 수 있다. 캐릭터 모션의 유형은, 캐릭터 모션 정보(MI)에 포함된 심박수, 자세, 피로도 및 감정 중 적어도 하나 이상의 파라미터를 기준으로 구분될 수 있다. 예를 들어, 캐릭터의 심박수를 기초로 캐릭터의 상태는 흥분 상태, 정상 상태, 휴식 상태로 구분될 수 있다. 또한, 캐릭터의 자세는 기립 자세, 앉은 자세, 공격 자세, 방어 자세 등으로 구분될 수 있다. 피로도는 미리 정해진 기준치를 이용하여 활력, 정상, 피로 상태로 구분될 수 있으며, 감정은 기쁨, 슬픔, 흥분, 우울, 감동 등으로 구분될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The background information BI may include a temperature B1, a humidity B2, and a time zone B3 of the background. The type of character motion may be classified based on at least one parameter of heart rate, posture, fatigue, and emotion included in the character motion information MI. For example, the state of the character may be divided into an excited state, a normal state, and a resting state based on the character's heart rate. In addition, the posture of the character may be divided into a standing posture, a sitting posture, an attack posture, a defense posture, and the like. Fatigue may be classified into vitality, normality, and fatigue state using a predetermined reference value, and emotions may be classified into joy, sadness, excitement, depression, emotion, and the like. However, the present embodiment is not limited thereto.

캐릭터 설정 정보(CI)는 디지털아이돌 정보(Did)에 포함된 정보일 수 있다. 구체적으로, 캐릭터 설정 정보(CI)는 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4), 피부색(C5), 및 클로딩(C6)(예를 들어, 캐릭터가 착용하고 있는 의상)를 포함할 수 있다. 다만, 각 항목은 임의적인 것이며, 각 항목은 다르게 변형되어 이용될 수 있음은 물론이다.The character setting information CI may be information included in the digital idol information Did. Specifically, the character setting information (CI) includes the character's gender (C1), age (C2), body type (C3), size (C4), skin color (C5), and clothing (C6) (for example, clothes you are wearing). However, it goes without saying that each item is arbitrary, and each item may be modified and used differently.

도 7은 도 5의 파라미터 산출 흐름을 설명하기 위한 개념도이다.7 is a conceptual diagram for explaining the parameter calculation flow of FIG. 5 .

도 5 및 도 7을 참조하면, 모션 변화 연산 모듈(242)은 캐릭터 모션 정보(MI)에 포함된 캐릭터의 심박수(Ihr)를 수신할 수 있다. 이어서, 모션 변화 연산 모듈(242)은 심박수(Ihr)에 따른 폐용적 변화량(Vl)을 도출한다. 여기에서, 폐용적 변화량(Vl)은 캐릭터의 폐의 크기(lung volume)에 대한 시계열적인 변화량을 의미한다.5 and 7 , the motion change calculation module 242 may receive the heart rate Ihr of the character included in the character motion information MI. Then, the motion change calculation module 242 derives the lung volume change Vl according to the heart rate Ihr. Here, the lung volume change Vl means a time-series change in the lung volume of the character.

이어서, 모션 변화 연산 모듈(242)은 심박수에 따른 자세 변화량(Vp)을 도출한다. 여기에서, 자세 변화량(Vp)은 캐릭터의 자세(pose)에 대한 시계열적인 변화량을 의미한다. 자세 변화량(Vp)은 캐릭터의 신체의 부위별로 상체 모션 변화량, 어깨 모션 변화량, 팔 모션 변화량 등으로 구분될 수 있다. 또한, 자세 변화량(Vp)은 캐릭터의 움직임을 표현하는 복수의 포인트들의 변화들로 표현될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.Next, the motion change calculation module 242 derives the posture change amount Vp according to the heart rate. Here, the posture change amount Vp means a time-series change amount with respect to the character's pose. The posture change amount Vp may be divided into upper body motion change amount, shoulder motion change amount, arm motion change amount, etc. for each body part of the character. In addition, the posture change amount Vp may be expressed as changes of a plurality of points expressing the movement of the character. However, the present invention is not limited thereto.

이어서, 모션 변화 연산 모듈(242)은 심박수에 따른 신체 각 부위의 모양 변화량(Vs)을 도출한다. 여기에서, 모양 변화량(Vs)은 캐릭터의 신체 모양(Shape)에 대한 시계열적인 변화량을 의미한다. 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다. Next, the motion change calculation module 242 derives the shape change Vs of each body part according to the heart rate. Here, the shape change amount Vs means a time-series change amount with respect to the body shape of the character. The shape change Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character.

예를 들어, 심박수가 상대적으로 높은 경우 캐릭터는 흉식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 크게 설정될 수 있다. 반면, 심박수가 상대적으로 낮은 경우 캐릭터는 복식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 작게 설정될 수 있다. 즉, 모양 변화량(Vs)을 기초로 캐릭터의 흉식 호흡과 복식 호흡을 구분하여 표현할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.For example, when the heart rate is relatively high, since the character mainly performs chest breathing, the chest shape change amount may be set to be larger than the abdominal shape change amount. On the other hand, when the heart rate is relatively low, since the character mainly breathes abdominally, the chest shape change amount may be set smaller than the abdominal shape change amount. That is, the character's chest breathing and abdominal breathing can be divided and expressed based on the shape change amount (Vs). However, the present invention is not limited thereto.

이어서, 모션 변화 연산 모듈(242)은 심박수에 따른 캐릭터의 신체 각 부위의 땀 배출량(Vw)을 도출한다. 땀 배출량(Vw)은 이후 단계에서 캐릭터의 클로딩의 움직임을 표현하는 클로딩 모션 시퀀스(Sclm)를 생성하는데 이용될 수 있다. Next, the motion change calculation module 242 derives the sweat amount Vw of each body part of the character according to the heart rate. The sweat amount Vw may be used to generate a clothing motion sequence Sclm that expresses the movement of the character's clothing in a later step.

구체적으로, 도출된 땀 배출량(Vw)이 상대적으로 많은 부위의 경우, 클로딩의 움직임은 캐릭터의 해당 신체 부위에 대한 종속성이 높게 설정되도록 표현될 수 있다. 예를 들어, 땀 배출량(Vw)이 많은 부위는 캐릭터의 신체 부위에 밀착되어 클로딩이 움직이는 것으로 표현될 수 있다.Specifically, in the case of a portion having a relatively large amount of derived sweat discharge Vw, the movement of the clothing may be expressed such that the dependence of the character on the corresponding body portion is set to be high. For example, a portion with a large amount of sweat Vw may be expressed as moving clothing by being in close contact with a body portion of the character.

반면, 도출된 땀 배출량(Vw)이 상대적으로 적은 부위의 경우, 클로딩의 움직임은 캐릭터의 해당 신체 부위의 움직임에 대한 종속성이 낮게 설정되도록 표현될 수 있다. 예를 들어, 땀 배출량(Vw)이 적은 부위는 캐릭터의 신체 부위의 움직임과는 별도로 중력 또는 관성에 대한 종속성이 높도록 클로딩의 움직임이 표현될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.On the other hand, in the case of a portion having a relatively small amount of sweat output (Vw), the movement of the clothing may be expressed such that the dependence on the movement of the corresponding body portion of the character is set to be low. For example, the movement of clothing may be expressed in a region with a small amount of sweat Vw so that the dependence on gravity or inertia is high separately from the movement of the body part of the character. However, the present invention is not limited thereto.

이러한 캐릭터의 신체와 클로딩 사이의 종속성은 클로딩 마찰력(Ff)을 통하여 수치로 환산될 수 있다. 클로딩 마찰력(Ff)은 클로딩 모션 변화량(Vclm)을 산출하는데 반영될 수 있다. 이에 대한 자세한 설명은 이하에서 후술하도록 한다.The dependence between the character's body and the clothing can be converted to a numerical value through the clothing friction force Ff. The clothing friction force Ff may be reflected in calculating the clothing motion variation Vclm. A detailed description thereof will be provided below.

이어서, 모션 변화 연산 모듈(242)은 심박수를 기초로 도출된 값(Vl, Vp, Vs, Vw)을 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 기초로 보정한다. 예를 들어, 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 캐릭터의 자세(I1), 피로도(I2), 감정(I3)에 따라 변화될 수 있다. 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 캐릭터의 성별(C1), 나이(C2), 체형(C3) 및 사이즈(C4)에 따라 변화될 수 있다. 또한, 캐릭터의 각각의 변화량(Vl, Vp, Vs)은 배경 공간의 온도(B1), 습도(B2), 시간대(B3)에 따라 변화될 수 있다.Then, the motion change calculation module 242 corrects the values (Vl, Vp, Vs, Vw) derived based on the heart rate based on the character motion information (MI), the background information (BI), and the character setting information (CI) do. For example, each change amount (Vl, Vp, Vs) of the character may be changed according to the posture (I1), fatigue (I2), and emotion (I3) of the character. Each change amount (Vl, Vp, Vs) of the character may be changed according to the gender (C1), age (C2), body type (C3), and size (C4) of the character. In addition, each change amount (Vl, Vp, Vs) of the character may be changed according to the temperature (B1), humidity (B2), and time period (B3) of the background space.

이때, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)가 각각의 변화량(Vl, Vp, Vs)에 반영되는 비율은 미리 정해진 가중치에 의해 정해질 수 있다. 예를 들어, 캐릭터 모션 정보(MI) 및 캐릭터 설정 정보(CI)는 배경 정보(BI)에 비해 높은 가중치를 두고 각각의 변화량(Vl, Vp, Vs)에 반영될 수 있다.In this case, the ratio at which the character motion information MI, the background information BI, and the character setting information CI are reflected in the respective variation amounts Vl, Vp, and Vs may be determined by a predetermined weight. For example, the character motion information MI and the character setting information CI may be reflected in the respective variation amounts Vl, Vp, and Vs with a higher weight than the background information BI.

이어서, 모션 변화 연산 모듈(242)은 보정된 각각의 변화량(Vl, Vp, Vs)을 이용하여 캐릭터 모션 시퀀스(Scm)을 생성한다. 생성된 캐릭터 모션 시퀀스(Scm)는 레이아웃 작업 및 애니메이션 작업에 이용될 수 있다.Then, the motion change calculation module 242 generates a character motion sequence Scm by using each of the corrected variation amounts Vl, Vp, and Vs. The generated character motion sequence (Scm) may be used for layout work and animation work.

도 8은 심박수에 따른 캐릭터 모션 시퀀스의 변화를 설명하기 위한 예시도이다.8 is an exemplary diagram for explaining a change in a character motion sequence according to a heart rate.

도 8를 참조하면, 심박수에 따른 폐용적 변화량(Vl)은 도 8의 그래프(SC)와 같이 나타낼 수 있다. 이때, 폐용적 변화량(Vl)은 캐릭터의 종류(Type), 성별(Gender) 등에 대한 요소들을 기초로 보정되어 시계열적인 그래프(SC)로 표현될 수 있다. Referring to FIG. 8 , the lung volume change Vl according to the heart rate may be represented as shown in the graph SC of FIG. 8 . In this case, the lung volume change Vl may be corrected based on factors such as the type and gender of the character and expressed as a time-series graph SC.

또한, 폐용적 변화량(Vl)은 자세 변화량(Vp) 및 모양 변화량(Vs)에 반영될 수 있으며, 각각의 변화량(Vl, Vp, Vs)을 기초로 캐릭터의 가슴 움직임(Chest Motion) 및 복부 움직임(Stomach Motion)을 세밀히 표현할 수 있다. 또한, 이들을 종합한 전체 움직임(Overall Motion)이 표현될 수 있음은 물론이다. In addition, the lung volume change (Vl) may be reflected in the posture change amount (Vp) and shape change amount (Vs), and based on each change amount (Vl, Vp, Vs), the character's chest motion and abdominal movement (Stomach Motion) can be expressed in detail. In addition, it goes without saying that an overall motion that combines them can be expressed.

도 9는 도 5의 모션 변화 연산 모듈을 세부적으로 설명하기 위한 블록도이다.9 is a block diagram for explaining in detail the motion change calculation module of FIG. 5 .

도 9를 참조하면, 모션 변화 연산 모듈(242)은 인공지능 모듈(AIM1), 인공지능 훈련 모듈(ATM) 및 모션 보정 모듈(MAM)을 포함할 수 있다.Referring to FIG. 9 , the motion change calculation module 242 may include an artificial intelligence module (AIM1), an artificial intelligence training module (ATM), and a motion compensation module (MAM).

인공지능 모듈(AIM1)은 심박수(Ihr)를 수신한다. 인공지능 모듈(AIM1)은 심박수(Ihr)를 입력받고, 이에 대한 출력으로 캐릭터의 폐용적 변화량(Vl), 자세 변화량(Vp), 심박수에 따른 신체 각 부위의 모양 변화량(Vs), 및 땀 배출량(Vw)을 제공한다. 이때, 인공지능 모듈(AIM1)은 딥러닝 모듈일 수 있다. 인공지능 모듈(AIM1)은 이미 트레이닝 데이터를 이용하여 트레이닝이 완료된 상태일 수 있다. 이때, 인공지능 모듈(AIM1)은 지도 학습을 이용할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니고, 인공지능 모듈(AIM1)은 비지도 학습을 이용할 수도 있다.The artificial intelligence module (AIM1) receives the heart rate (Ihr). The artificial intelligence module (AIM1) receives heart rate (Ihr) as an input, and outputs the character's lung volume change (Vl), posture change (Vp), shape change of each body part according to heart rate (Vs), and sweat output. (Vw) is provided. In this case, the artificial intelligence module AIM1 may be a deep learning module. The artificial intelligence module AIM1 may have already been trained using training data. In this case, the artificial intelligence module AIM1 may use supervised learning. However, the present embodiment is not limited thereto, and the artificial intelligence module AIM1 may use unsupervised learning.

인공지능 모듈(AIM1)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Artificial intelligence module (AIM1) is, for example, DFN (Deep Feedforward Network), CNN (Convolutional Neural Network), GNN (Graph Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), SVM (Support vector) machine), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN), and Spiking (SNN) Neural Network) may be included. However, the present embodiment is not limited thereto.

다른 예로, 인공지능 모듈(AIM1)은 심박수(Ihr)와 함께, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 수신할 수 있다. 인공지능 모듈(AIM1)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력받고, 이에 대한 출력으로 캐릭터의 폐용적 변화량(Vl), 자세 변화량(Vp), 신체 각 부위의 모양 변화량(Vs) 및 땀 배출량(Vw)을 출력할 수 있다. As another example, the artificial intelligence module AIM1 may receive the character motion information MI, the background information BI, and the character setting information CI along with the heart rate Ihr. The artificial intelligence module (AIM1) receives heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI), and outputs the character's lung volume change (Vl), posture change amount (Vp), shape change amount (Vs) of each part of the body, and sweat output (Vw) can be output.

이때, 인공지능 모듈(AIM1)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력 노드로 하는 입력 레이어와, 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)을 출력 노드로 하는 출력 레이어와, 상기 입력 레이어와 상기 출력 레이어 사이에 배치되는 하나 이상의 히든 레이어를 포함하고, 상기 입력 노드와 상기 출력 노드 사이의 레이어의 가중치는 학습 과정에 의해 업데이트될 수 있다.At this time, the artificial intelligence module (AIM1) includes an input layer using heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI) as input nodes, lung volume change (Vl), posture an output layer having an amount of change (Vp), a shape change (Vs), and a sweat amount (Vw) as output nodes, and at least one hidden layer disposed between the input layer and the output layer, wherein the input node and the output The weights of layers between nodes may be updated by a learning process.

모션 보정 모듈(MAM)은 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 기초로, 인공지능 모듈(AIM1)에서 출력된 각각의 변화량(Vl, Vp, Vs)을 보정한다. 모션 보정 모듈(MAM)은 보정된 각각의 값(Vl, Vp, Vs, Vw)들을 포함하는 캐릭터 모션 시퀀스(Scm)를 출력한다.Motion compensation module (MAM) based on the character motion information (MI), background information (BI) and character setting information (CI), each change amount (Vl, Vp, Vs) output from the artificial intelligence module (AIM1) Correct. The motion compensation module MAM outputs a character motion sequence Scm including each of the corrected values Vl, Vp, Vs, and Vw.

도 10은 도 9의 인공지능 훈련 모듈의 동작을 설명하기 위한 순서도이다.10 is a flowchart for explaining the operation of the artificial intelligence training module of FIG.

도 9 및 도 10을 참조하면, 인공지능 훈련 모듈(ATM)은 인공지능 모듈(AIM1)을 훈련시키는 트레이닝 데이터를 생성하고, 생성된 트레이닝 데이터를 인공지능 모듈(AIM1)에 제공한다.9 and 10 , the artificial intelligence training module (ATM) generates training data for training the artificial intelligence module (AIM1), and provides the generated training data to the artificial intelligence module (AIM1).

구체적으로, 도 10을 참조하면, 인공지능 훈련 모듈(ATM)은 호흡하는 대상(예를 들어, 복수의 센서를 부착한 연기자)을 스캔한 복수의 3D 메쉬를 수신한다(S1100).Specifically, referring to FIG. 10 , the artificial intelligence training module (ATM) receives a plurality of 3D meshes scanned by a breathing object (eg, a performer with a plurality of sensors) ( S1100 ).

이어서, 복수의 3D 메쉬(3D Mesh)를 캐릭터 설정 정보(CI)에 포함된 각 파라미터 별로 그룹핑한다(S1200). 예를 들어, 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)가 유사한 복수의 3D 메쉬들을 그룹핑한다.Next, a plurality of 3D meshes are grouped for each parameter included in the character setting information CI ( S1200 ). For example, a plurality of 3D meshes having similar gender (C1), age (C2), body type (C3), and size (C4) are grouped.

이어서, 미리 저장된 템플릿 메쉬를 이용하여 그룹핑된 3D 메쉬를 정렬한다(S1300). 이는 복수의 서로 다른 3D 메쉬의 평균값을 구하기 위한 전처리 과정에 해당한다.Next, the grouped 3D mesh is aligned using the pre-stored template mesh (S1300). This corresponds to a pre-processing process to obtain an average value of a plurality of different 3D meshes.

이어서, 각 그룹핑된 3D 메쉬에 대해 심박수(Ihr)에 따른 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)의 평균값을 도출한다(S1400). 또한, 그룹핑된 3D 메쉬의 캐릭터 모션 시퀀스(Scm)의 각 파라미터에 대한 평균값도 함께 도출한다.Then, for each grouped 3D mesh, average values of lung volume change (Vl), posture change (Vp), shape change (Vs), and sweat output (Vw) according to heart rate (Ihr) are derived (S1400). In addition, the average value of each parameter of the character motion sequence (Scm) of the grouped 3D mesh is also derived.

이어서, 도출된 값(Vl, Vp, Vs, Vw)에 대한 각각의 평균값을 이용하여 인공지능 모듈(AIM1)을 훈련시킨다(S1500). 이때, 도출된 값(Vl, Vp, Vs, Vw)과 심박수(Ihr)에 대한 각각의 평균값은 인공지능 모듈(AIM1)의 입력 노드에 인가되고, 이에 대응되는 캐릭터 모션 시퀀스(Scm)는 인공지능 모듈(AIM1)의 출력 노드에 인가된다. 즉, 트레이닝 데이터는 도출된 값(Vl, Vp, Vs, Vw) 및 심박수(Ihr)에 대한 각각의 평균값과, 이에 대응되는 캐릭터 모션 시퀀스(Scm)의 평균값을 포함할 수 있다. 인공지능 훈련 모듈(ATM)은 생성된 트레이닝 데이터를 이용하여 인공지능 모듈(AIM1)를 훈련시킬 수 있다. Next, the artificial intelligence module AIM1 is trained using the average values of the derived values Vl, Vp, Vs, and Vw (S1500). At this time, each average value of the derived values (Vl, Vp, Vs, Vw) and heart rate (Ihr) is applied to the input node of the artificial intelligence module (AIM1), and the corresponding character motion sequence (Scm) is artificial intelligence It is applied to the output node of module AIM1. That is, the training data may include an average value of each of the derived values (Vl, Vp, Vs, Vw) and a heart rate (Ihr), and an average value of a character motion sequence (Scm) corresponding thereto. The artificial intelligence training module (ATM) may train the artificial intelligence module (AIM1) using the generated training data.

예를 들어, 트레이닝 데이터는 성별(C1)과 나이(C2)가 동일한 복수의 3D 메쉬들의 그룹에 대하여, 심박수(Ihr), 폐용적 변화량(Vl), 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)의 평균값을 포함할 수 있다. 또한, 트레이닝 데이터는 성별(C1)과 체형(C3)이 기준치보다 유사한 복수의 3D 메쉬들의 그룹에 대하여, 전술한 데이터(Vl, Vp, Vs, Vw, Ihr)에 대한 평균값을 포함할 수 있다. 즉, 트레이닝 데이터는 캐릭터 설정 정보(CI)에 포함된 파라미터들의 서로 다른 조합을 기초로 생성될 수 있다. For example, training data includes, for a group of a plurality of 3D meshes having the same gender (C1) and age (C2), heart rate (Ihr), lung volume change (Vl), posture change amount (Vp), shape change amount (Vs) , may include an average value of the sweat discharge (Vw). In addition, the training data may include an average value of the aforementioned data (Vl, Vp, Vs, Vw, Ihr) for a group of a plurality of 3D meshes having a gender (C1) and a body shape (C3) similar to the reference value. That is, the training data may be generated based on different combinations of parameters included in the character setting information CI.

또한, 본 발명이 이에 한정되는 것은 아니며, 트레이닝 데이터는 캐릭터 모션 정보(MI) 또는 배경 정보(BI)에 포함된 파라미터들의 서로 다른 조합을 기초로 생성되어 인공지능 모듈(AIM1)을 훈련시킬 수 있음은 물론이다.In addition, the present invention is not limited thereto, and training data may be generated based on different combinations of parameters included in character motion information (MI) or background information (BI) to train the artificial intelligence module (AIM1). is of course

다시, 도 9를 참조하면, 인공지능 모듈(AIM1)은 디지털아이돌(100a)의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다. 여기에서, 호흡량 변화패턴은 심박수를 기초로 생성된 시계열적인 호흡량에 대한 변화를 나타낸다. 호흡량 변화패턴은 미리 측정한 호흡량의 변화량과 심박수와의 관계를 기초로 생성될 수 있다. 예를 들어, 호흡량 변화패턴은 도 8에 개시된 그래프(SC)와 같이 도시될 수 있다. 또한, 호흡량 변화패턴은 심박수를 기초로 생성된 폐용적 변화량을 기초로 생성될 수 있다. Again, referring to FIG. 9 , the artificial intelligence module AIM1 estimates the respiratory rate change pattern according to the heart rate Ihr of the digital idol 100a. Here, the respiratory volume change pattern represents a change in the time-series respiratory volume generated based on the heart rate. The respiratory volume change pattern may be generated based on the relationship between the previously measured amount of respiratory volume change and the heart rate. For example, the respiratory volume change pattern may be shown as in the graph SC disclosed in FIG. Also, the respiratory volume change pattern may be generated based on the lung volume change amount generated based on the heart rate.

이어서, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다. 이때, 캐릭터 설정 정보(CI)는 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)를 포함할 수 있다. 인공지능 모듈(AIM1)은 이를 통해 자세 변화량(Vp)을 도출할 수 있다.Next, the artificial intelligence module (AIM1) derives the amount of change of posture (Vp) for each part of the character's body based on the pattern of change of respiration rate and the character setting information (CI). In this case, the character setting information CI may include the character's gender (C1), age (C2), body type (C3), and size (C4). The artificial intelligence module (AIM1) may derive the posture change amount (Vp) through this.

인공지능 모듈(AIM1)은 심박수(Ihr)를 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 설정 정보(CI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다. 예를 들어, 30세에 키 180cm의 뚱뚱한 체형의 남성에 대한 제1 캐릭터의 제1 보정값은 60세에 키 160cm의 마른 체형의 여성에 대한 제2 캐릭터의 제2 보정값보다 크게 형성될 수 있다.The artificial intelligence module AIM1 may operate by first deriving a reference value of the posture change amount Vp based on the heart rate Ihr and correcting detailed numerical values using the character setting information CI. For example, the first correction value of the first character for a fat male with a height of 180 cm at the age of 30 may be greater than the second correction value of the second character for a skinny woman with a height of 160 cm at the age of 60. have.

또한, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다. 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 모양 변화량(Vs)을 도출할 수 있다. 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다. 예를 들어, 심박수가 상대적으로 높은 경우 캐릭터는 흉식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 크게 설정될 수 있다. 반면, 심박수가 상대적으로 낮은 경우 캐릭터는 복식호흡을 주로 하게 되므로 가슴모양 변화량은 복부모양 변화량 보다 작게 설정될 수 있다.In addition, the artificial intelligence module (AIM1) derives the shape change (Vs) for each part of the character's body based on the respiratory rate change pattern and the character setting information (CI). The animation module 220 may derive the shape change amount Vs using the previously learned artificial intelligence module AIM1. The shape change Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character. For example, when the heart rate is relatively high, since the character mainly performs chest breathing, the chest shape change amount may be set to be larger than the abdominal shape change amount. On the other hand, when the heart rate is relatively low, since the character mainly breathes abdominally, the chest shape change amount may be set smaller than the abdominal shape change amount.

또한, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 땀 배출량(Vw)을 도출한다. 이때, 자세 변화량(Vp), 모양 변화량(Vs) 및 땀 배출량(Vw)의 산출순서는 변경되어 수행될 수 있음은 물론이다.In addition, the artificial intelligence module (AIM1) derives the sweat amount (Vw) for each part of the character's body based on the respiratory rate change pattern and character setting information (CI). In this case, it goes without saying that the calculation order of the posture change amount Vp, the shape change amount Vs, and the sweat amount Vw may be changed and performed.

이어서, 모션 보정 모듈(MAM)은 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 배경 정보(BI)를 기초로 보정한다. 배경 정보(BI)는 배경(BG)의 온도(B1), 습도(B2) 및 시간대(B3)를 포함할 수 있다. 예를 들어, 온도가 상대적으로 높고 낮시간대의 제1 캐릭터의 경우, 온도가 상대적으로 낮고 밤시간대의 제2 캐릭터보다, 자세 변화량(Vp), 모양 변화량(Vs), 땀 배출량(Vw)의 보정량이 클 수 있다. 다만, 이는 하나의 예시에 불과하고 본 발명이 이에 한정되는 것은 아니다.Then, the motion compensation module MAM corrects the derived posture change amount Vp, shape change amount Vs, and sweat amount Vw based on the background information BI. The background information BI may include a temperature B1, a humidity B2, and a time zone B3 of the background BG. For example, in the case of the first character in the daytime with a relatively high temperature, the correction amount of posture change (Vp), shape change (Vs), and sweat output (Vw) compared to the second character in the night time period when the temperature is relatively low This can be large. However, this is only an example and the present invention is not limited thereto.

이하, 다른 방식의 실시예를 설명한다.Hereinafter, another embodiment of the method will be described.

인공지능 모듈(AIM1)은, 레이아웃 대상이 되는 캐릭터의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다. The artificial intelligence module (AIM1) estimates the respiratory volume change pattern according to the heart rate (Ihr) of the character to be laid out.

이어서, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다. 이때, 캐릭터 모션 정보(CI)는 캐릭터의 자세(I1), 피로도(I2) 및 감정(I3)에 관한 정보를 포함할 수 있다. 인공지능 모듈(AIM1)은 호흡량 변화패턴을 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 모션 정보(MI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다. 예를 들어, 기립자세로 활력이 넘치는 기쁜 감정상태의 제1 캐릭터의 제1 보정값은, 앉은자세로 피로하고 우울한 제2 캐릭터의 제2 보정값보다 크게 형성될 수 있다.Next, the artificial intelligence module (AIM1) derives the amount of change of posture (Vp) for each part of the character's body based on the respiratory rate change pattern and the character motion information (MI). In this case, the character motion information CI may include information about the character's posture I1 , fatigue I2 , and emotion I3 . The artificial intelligence module (AIM1) may operate by first deriving a reference value of the posture change amount (Vp) based on the respiratory rate change pattern, and then correcting detailed numerical values using the character motion information (MI). For example, the first correction value of the first character in the happy emotional state full of vitality in the standing posture may be greater than the second correction value of the second character in the tired and depressed state in the sitting position.

또한, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다. 또한, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 땀 배출량(Vw)을 도출한다. 이때, 자세 변화량(Vp), 모양 변화량(Vs) 및 땀 배출량(Vw)의 산출순서는 변경되어 수행될 수 있음은 물론이다.In addition, the artificial intelligence module (AIM1) derives the shape change (Vs) for each part of the character's body based on the respiratory rate change pattern and the character motion information (MI). In addition, the artificial intelligence module (AIM1) derives the sweat amount (Vw) for each part of the character's body based on the respiratory rate change pattern and the character motion information (MI). In this case, it goes without saying that the calculation order of the posture change amount Vp, the shape change amount Vs, and the sweat amount Vw may be changed and performed.

이어서, 모션 보정 모듈(MAM)은 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 배경 정보(BI)를 기초로 보정한다. 정리하면, 인공지능 모듈(AIM1)은 심박수(Ihr)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 도출한다. 이어서, 모션 보정 모듈(MAM)은 캐릭터 설정 정보(CI), 캐릭터 모션 정보(MI), 또는 배경 정보(BI)에 포함된 복수의 파라미터 중 일부를 이용하여, 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)를 보정할 수 있다. Then, the motion compensation module MAM corrects the derived posture change amount Vp, shape change amount Vs, and sweat amount Vw based on the background information BI. In summary, the artificial intelligence module (AIM1) derives the amount of change in posture (Vp), change in shape (Vs), and amount of sweat (Vw) for each part of the character's body based on the heart rate (Ihr). Then, the motion compensation module (MAM) uses some of the plurality of parameters included in the character setting information (CI), the character motion information (MI), or the background information (BI), the derived posture change amount (Vp), the shape A change amount (Vs) and a sweat amount (Vw) may be corrected.

도 11은 도 5의 클로딩 모션 변화 연산 모듈을 세부적으로 설명하기 위한 블록도이다.11 is a block diagram for explaining in detail the clothing motion change calculation module of FIG. 5 .

도 5 및 도 11을 참조하면, 클로딩 모션 변화 연산 모듈(243)은 클로딩 모션 산출 모듈(CMM) 및 클로딩 모션 보정 모듈(CMAM)을 포함한다. 5 and 11 , the clothing motion change calculation module 243 includes a clothing motion calculation module (CMM) and a clothing motion compensation module (CMAM).

클로딩 모션 산출 모듈(CMM)은 캐릭터의 움직임을 나타내는 캐릭터 모션 시퀀스(Scm)을 기초로 프리 클로딩 모션 시퀀스(Sclmp)를 생성하여 출력한다. 여기에서, 프리 클로딩 모션 시퀀스(Sclmp)는 캐릭터가 착용하고 있는 클로딩의 시계열적인 움직임을 나타내는 데이터를 의미한다. 이때, 클로딩 모션 산출 모듈(CMM)은 캐릭터 설정 정보(CI)와 캐릭터 모션 시퀀스(Scm)를 참조하여 프리 클로딩 모션 시퀀스(Sclmp)를 생성할 수 있다. The clothing motion calculation module (CMM) generates and outputs the pre-clothing motion sequence (Sclmp) based on the character motion sequence (Scm) indicating the movement of the character. Here, the pre-clothing motion sequence (Sclmp) means data representing time-series movement of clothing worn by the character. In this case, the clothing motion calculation module CMM may generate the pre-clothing motion sequence Sclmp with reference to the character setting information CI and the character motion sequence Scm.

예를 들어, 클로딩 모션 산출 모듈(CMM)은 캐릭터 설정 정보(CI)에 포함된 캐릭터의 체형(C3), 사이즈(C4), 클로딩(C6)에 관한 데이터를 기초로, 캐릭터 모션 시퀀스(Scm)를 이용하여 클로딩의 움직임을 나타내는 프리 클로딩 모션 시퀀스(Sclmp)을 생성할 수 있다.For example, the clothing motion calculation module (CMM) performs a character motion sequence ( Scm) may be used to generate a pre-clothing motion sequence (Sclmp) indicating the movement of clothing.

클로딩 모션 보정 모듈(CMAM)은 캐릭터의 사실적인 움직임을 부가하기 위해 클로딩 모션 산출 모듈(CMM)에서 출력된 프리 클로딩 모션 시퀀스(Sclmp)를 보정하는 기능을 수행한다. 클로딩 모션 보정 모듈(CMAM)은 전술한 인공지능 모듈(AIM1)에서 출력된 땀 배출량(Vw)을 기초로 프리 클로딩 모션 시퀀스(Sclmp)을 보정하여 클로딩 모션 시퀀스(Sclmp)를 출력할 수 있다.The clothing motion compensation module (CMAM) performs a function of correcting the pre-clothing motion sequence (Sclmp) output from the clothing motion calculation module (CMM) in order to add realistic movement of the character. The clothing motion compensation module (CMAM) can output the clothing motion sequence (Sclmp) by correcting the pre-clothing motion sequence (Sclmp) based on the sweat output (Vw) output from the aforementioned artificial intelligence module (AIM1). have.

구체적으로, 클로딩 모션 보정 모듈(CMAM)은 캐릭터의 땀 배출량(Vw)을 기초로 캐릭터의 바디와 클로딩(C6) 사이의 마찰력(즉, 클로딩 마찰력(Ff))을 산출한다.Specifically, the clothing motion compensation module CMAM calculates the frictional force (ie, the clothing frictional force Ff) between the character's body and the clothing C6 based on the character's sweat discharge Vw.

이어서, 클로딩 모션 보정 모듈(CMAM)은 산출된 클로딩 마찰력(Ff)을 기초로 프리 클로딩 모션 시퀀스(Sclmp)을 보정한 클로딩 모션 시퀀스(Sclm)를 출력한다. 클로딩 모션 시퀀스(Sclm)는 캐릭터의 클로딩 모션 변화량(Vclm)을 포함한다. Next, the clothing motion compensation module CMAM outputs a clothing motion sequence Sclm obtained by correcting the pre-clothing motion sequence Sclmp based on the calculated clothing friction force Ff. The clothing motion sequence Sclm includes a clothing motion variation Vclm of the character.

구체적으로, 캐릭터의 신체 중에 땀 배출량(Vw)이 상대적으로 많은 부위의 경우, 클로딩 모션 변화량(Vclm)은 캐릭터의 해당 신체 부위에 대한 자세 변화량(Vp) 및 모양 변화량(Vs)의 종속성이 높게 설정되도록 표현될 수 있다. Specifically, in the case of a part of the character's body that has a relatively large amount of sweat (Vw), the clothing motion variation (Vclm) has a high dependence on the character's posture variation (Vp) and shape variation (Vs) for the corresponding body part. It can be expressed to be set.

반면, 캐릭터의 신체 중에 땀 배출량(Vw)이 상대적으로 적은 부위의 경우, 클로딩 모션 변화량(Vclm)은 캐릭터의 해당 신체 부위에 대한 자세 변화량(Vp) 및 모양 변화량(Vs)의 종속성이 낮게 설정되도록 표현될 수 있다. 예를 들어, 땀 배출량(Vw)이 적은 부위는 캐릭터의 신체 부위의 움직임과는 별도로 중력 또는 관성에 대한 종속성이 높도록 클로딩 모션 변화량(Vclm)이 설정될 수 있다. 다만, 이는 하나의 예시에 불과하고, 본 발명이 이에 한정되는 것은 아니다.On the other hand, in the case of a part of the character's body that has a relatively small amount of sweat (Vw), the clothing motion variation (Vclm) has a low dependence on the character's posture variation (Vp) and shape variation (Vs) for the corresponding body part. can be expressed as possible. For example, the clothing motion variation Vclm may be set so that a portion with a small amount of sweat Vw has a high dependence on gravity or inertia separately from the movement of a body part of the character. However, this is only an example, and the present invention is not limited thereto.

클로딩 모션 보정 모듈(CMAM)은 이러한 캐릭터의 움직임과 클로딩 사이의 종속성을 클로딩 마찰력(Ff)을 통하여 수치로 환산할 수 있다. 즉, 클로딩 모션 보정 모듈(CMAM)은 클로딩 모션 변화량(Vclm)을 클로딩 마찰력(Ff)과 캐릭터의 자세 변화량(Vp) 및 모양 변화량(Vs)을 기초로 산출함으로써 클로딩 모션 시퀀스(Sclm)를 생성할 수 있다.The clothing motion compensation module (CMAM) may convert the dependence between the movement of the character and the clothing into a numerical value through the clothing friction force (Ff). That is, the clothing motion compensation module (CMAM) calculates the clothing motion change amount (Vclm) based on the clothing friction force (Ff) and the character's posture change amount (Vp) and shape change amount (Vs) by calculating the clothing motion sequence (Sclm) ) can be created.

이를 통해, 본 발명의 몇몇 실시예들에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템은 심박수를 기초로 캐릭터의 호흡과 관련된 디테일한 움직임의 변화를 표현함으로써 리얼리티를 극대화할 수 있다. 특히, 단순히 디지털아이돌(100a)의 신체의 움직임뿐만 아니라 클로딩(의상)의 움직임마저 제어하여 사용자(100)의 체험이 더욱 사실적으로 느껴질 수 있다.Through this, the artificial intelligence-based platform providing system for implementing the metaverse digital idol according to some embodiments of the present invention can maximize reality by expressing the change in detailed movement related to the breathing of the character based on the heart rate. In particular, by controlling not only the movement of the body of the digital idol 100a but also the movement of the clothing (clothes), the user 100's experience can be felt more realistically.

도 12는 도 4의 셰이딩 변화 연산부를 세부적으로 설명하기 위한 블록도이다.12 is a block diagram for explaining in detail the shading change calculating unit of FIG. 4 .

도 12를 참조하면, 셰이딩 변화 연산 모듈(252)은 제2 입력 정보 연산 모듈(251) 및 셰이딩 변화 연산 모듈(252)을 포함할 수 있다.12 , the shading change calculation module 252 may include a second input information calculation module 251 and a shading change calculation module 252 .

제2 입력 정보 연산 모듈(251)은 모션 정규 데이터(Dn_mot), 생체 정규 데이터(Dn_bio) 및 디지털아이돌 정보(Did)를 수신할 수 있다. 제2 입력 정보 연산 모듈(251)은 모션 정규 데이터(Dn_mot), 생체 정규 데이터(Dn_bio) 및 디지털아이돌 정보(Did)를 기초로 심박수(Ihr), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 생성할 수 있다.The second input information calculation module 251 may receive motion normal data Dn_mot, bionormal data Dn_bio, and digital idol information Did. The second input information calculation module 251 provides a heart rate (Ihr), background information (BI) and character setting information (CI) based on motion normal data (Dn_mot), bionormal data (Dn_bio), and digital idol information (Did). can create

도 13은 도 12의 셰이딩 변화 연산 모듈을 세부적으로 설명하기 위한 블록도이다.13 is a block diagram for explaining in detail the shading change calculation module of FIG. 12 .

도 13을 참조하면, 셰이딩 변화 연산 모듈(252)은 인공지능 모듈(AIM2) 및 셰이더 모듈(SM)을 포함할 수 있다.Referring to FIG. 13 , the shading change calculation module 252 may include an artificial intelligence module AIM2 and a shader module SM.

인공지능 모듈(AIM2)은 심박수(Ihr)를 수신한다. 인공지능 모듈(AIM2)은 심박수(Ihr)를 입력받고, 이에 대한 출력으로 캐릭터의 신체 각 부위별 땀 배출량(Vw) 및 혈류량(Vbf)을 제공한다. 인공지능 모듈(AIM2)은 딥러닝 모듈일 수 있다. 인공지능 모듈(AIM2)은 이미 트레이닝 데이터를 이용하여 트레이닝이 완료된 상태일 수 있다. 이때, 인공지능 모듈(AIM2)은 지도 학습을 이용할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니고, 인공지능 모듈(AIM2)은 비지도 학습을 이용할 수도 있다.The artificial intelligence module (AIM2) receives the heart rate (Ihr). The artificial intelligence module (AIM2) receives the heart rate (Ihr) and provides the sweat output (Vw) and blood flow (Vbf) for each body part of the character as outputs. The artificial intelligence module (AIM2) may be a deep learning module. The artificial intelligence module AIM2 may have already been trained using training data. In this case, the artificial intelligence module (AIM2) may use supervised learning. However, the present embodiment is not limited thereto, and the artificial intelligence module AIM2 may use unsupervised learning.

이때, 혈류량(Vbf)은 심박수를 통해서 산출될 수도 있지만, 미리 측정된 사용자(100)의 혈류량 정보(Ibf)를 통해서 미리 설정될 수도 있다.In this case, the blood flow Vbf may be calculated based on the heart rate or may be preset based on previously measured blood flow information Ibf of the user 100 .

인공지능 모듈(AIM2)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Artificial intelligence module (AIM2) is, for example, DFN (Deep Feedforward Network), CNN (Convolutional Neural Network), GNN (Graph Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), SVM (Support vector) machine), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN), and Spiking (SNN) Neural Network) may be included. However, the present embodiment is not limited thereto.

다른 예로, 인공지능 모듈(AIM2)은 심박수(Ihr)와 함께, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 수신할 수 있다. 인공지능 모듈(AIM2)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력받고, 이에 대한 출력으로 캐릭터의 신체 각 부위의 땀 배출량(Vw) 및 혈류량(Vbf)을 출력할 수 있다. As another example, the artificial intelligence module AIM2 may receive the character motion information MI, the background information BI, and the character setting information CI along with the heart rate Ihr. The artificial intelligence module (AIM2) receives heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI), and outputs sweat output (Vw) from each part of the character's body. and a blood flow Vbf.

이때, 인공지능 모듈(AIM2)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력 노드로 하는 입력 레이어와, 땀 배출량(Vw) 및 혈류량(Vbf)을 출력 노드로 하는 출력 레이어와, 상기 입력 레이어와 상기 출력 레이어 사이에 배치되는 하나 이상의 히든 레이어를 포함하고, 상기 입력 노드와 상기 출력 노드 사이의 레이어의 가중치는 학습 과정에 의해 업데이트될 수 있다.At this time, the artificial intelligence module (AIM2) has an input layer using heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI) as input nodes, and sweat output (Vw) and blood flow ( Vbf) as an output node, and at least one hidden layer disposed between the input layer and the output layer, wherein the weight of the layer between the input node and the output node may be updated by a learning process. have.

셰이더 모듈(SM)은 인공지능 모듈(AIM2)에서 출력된 땀 배출량(Vw) 및 혈류량(Vbf)을 기초로, 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 이용하여 레이아웃 대상이 되는 캐릭터의 셰이딩(Shading)을 수행하기 위한 캐릭터 셰이딩 데이터(Dcs)를 생성한다.The shader module (SM) uses the background information (BI) and character setting information (CI) based on the sweat output (Vw) and blood flow (Vbf) output from the artificial intelligence module (AIM2). Generates character shading data (Dcs) for performing shading.

여기에서, 셰이딩(Shading)은 물체와 광원 간의 거리 및 각도에 따라 물체 표면의 조도를 변화시키는 작업을 의미한다. 셰이딩(Shading) 단계에서 캐릭터를 구성하는 각각의 폴리곤의 표면은 광원의 위치 및 밝기, 색깔에 따라 음영이 부가됨으로써 물체에 대한 입체감과 사실감을 표현할 수 있다.Here, shading refers to the operation of changing the illuminance of the object surface according to the distance and angle between the object and the light source. In the shading stage, the surface of each polygon constituting the character is shaded according to the position, brightness, and color of the light source, thereby expressing three-dimensionality and realism of the object.

도 14는 도 12의 파라미터 산출 흐름을 설명하기 위한 개념도이다.14 is a conceptual diagram for explaining a parameter calculation flow of FIG. 12 .

도 13 및 도 14를 참조하면, 셰이더 모듈(SM)은 스킨 셰이딩(skin shading), Ÿ‡ 셰이딩(wet shading), 글리터 셰이딩(glitter shading)을 수행할 수 있다. 13 and 14 , the shader module SM may perform skin shading, Ÿ‡ shading, and glitter shading.

여기에서, 스킨 셰이딩은 사람의 피부에 가까운 효과를 내기 위한 쉐이딩을 의미한다. 특히, 인간의 피부는 색감과 질감은 물론 반사와 투과에 있어서 독특하고 복잡한 구조를 가지고 있다. 피부의 반투명한 효과를 위해 SSS(Sub-Surface Scattering) 기법을 이용할 수 있으며, SSS 기법은 피부나 종이 등 반투명 물체들의 표면에 빛이 닿아서 투과하지 못하고 산란되면서 이뤄지는 현상을 표현할 수 있다. 또한, 혈류량(Vbf)이 높을수록 붉은 톤이 피부를 통해서 반영되므로 전체적인 피부톤의 변화도 나타낼 수 있다.Here, the skin shading means shading to produce an effect close to human skin. In particular, human skin has a unique and complex structure in terms of color and texture, as well as reflection and transmission. For the translucent effect of the skin, the SSS (Sub-Surface Scattering) technique can be used, and the SSS technique can express a phenomenon that occurs when light hits the surface of a translucent object such as skin or paper and is scattered without being transmitted. In addition, as the blood flow (Vbf) is higher, the red tone is reflected through the skin, and thus the overall skin tone may be changed.

Ÿ‡ 셰이딩은 사람의 피부에 맺힌 땀, 물기 등을 표현하고, 피부의 수분감을 나타내어 피부의 사실감을 강조하기 위한 쉐이딩을 의미한다. 글리터 셰이딩은 피부의 수분감으로 인해 반사되거나 반짝이는 효과를 내기 위한 쉐이딩을 의미한다. Ÿ‡ Shading refers to shading to emphasize the realism of the skin by expressing sweat, moisture, etc. formed on the skin of the person and expressing the moisture of the skin. Glitter shading refers to shading to create a reflective or shiny effect due to the moisture of the skin.

셰이더 모듈(SM)은 땀 배출량(Vw) 및 혈류량(Vbf)을 기초로 스킨 셰이딩, Ÿ‡ 셰이딩 및 글리터 셰이딩 중 적어도 하나 이상을 수행할 수 있다. 스킨 셰이딩, Ÿ‡ 셰이딩, 글리터 셰이딩은 일부가 통합되거나, 별도의 단계로 구분되어 셰이더 모듈(SM)에 의해 수행될 수 있다. 또한, 셰이더 모듈(SM)은 전술한 셰이딩의 일부만을 수행하거나, 추가적인 셰이딩을 수행할 수 있음은 물론이다.The shader module SM may perform at least one of skin shading, Ÿ‡ shading, and glitter shading based on sweat discharge (Vw) and blood flow (Vbf). Skin shading, Ÿ‡ shading, and glitter shading can be partially integrated or divided into separate steps and performed by the shader module (SM). Also, it goes without saying that the shader module SM may perform only a part of the above-described shading or additional shading.

인공지능 모듈(AIM2)은 캐릭터의 심박수(Ihr)에 따른 땀 배출량(Vw) 및 혈류량(Vbf)을 산출한다. 이어서, 인공지능 모듈(AIM2)은 배경 정보(BI)에 포함된 시간대(B3)에 관한 정보를 기초로 광원의 위치 및 광량을 포함하는 광원정보를 산출한다. 추가적으로, 인공지능 모듈(AIM2)은 배경 정보(BI)에 포함된 지역에 관한 정보(예를 들어, 위도, 경도, 일조량, 날씨, 구름량 등)를 기초로 미리 정해진 계산식을 통하여 광원정보를 세밀하게 도출할 수 있다. 또한, 광원정보는 미리 정해진 인조광과 자연광으로 구분되어 포함될 수 있다.The artificial intelligence module (AIM2) calculates sweat discharge (Vw) and blood flow (Vbf) according to the character's heart rate (Ihr). Next, the artificial intelligence module AIM2 calculates light source information including the position of the light source and the amount of light based on the information about the time zone B3 included in the background information BI. Additionally, the artificial intelligence module (AIM2) refines the light source information through a predetermined calculation formula based on the area information (eg, latitude, longitude, sunshine, weather, cloudiness, etc.) included in the background information (BI). can be derived In addition, the light source information may be divided into predetermined artificial light and natural light and included.

이어서, 셰이더 모듈(SM)은 산출된 광원정보와, 캐릭터 설정 정보(CI), 땀 배출량(Vw) 및 혈류량(Vbf)을 기초로, 캐릭터 셰이딩 데이터(Dcs)를 생성한다. 캐릭터 셰이딩 데이터(Dcs)는 전술한 스킨 셰이딩, Ÿ‡ 셰이딩 및 글리터 셰이딩 중 적어도 하나 이상을 수행하기 위한 데이터를 의미한다.Next, the shader module SM generates character shading data DCs based on the calculated light source information, character setting information CI, sweat discharge Vw, and blood flow Vbf. The character shading data Dcs means data for performing at least one of the aforementioned skin shading, Ÿ‡ shading, and glitter shading.

즉, 본 발명은 캐릭터의 심박수(Ihr)를 기초로 산출한 땀 배출량(Vw) 및 혈류량(Vbf) 등의 데이터를 이용하여 캐릭터의 피부에 표현되는 땀, 반짝임 또는 혈류량의 붉은 톤 등의 변화를 렌더링 단계에서 세밀하게 표현할 수 있다. 제작자는 이러한 캐릭터의 디테일한 변화를 수작업으로 일일이 정의하고 설정하는 것이 아닌, 캐릭터 또는 배경의 설정값을 조정하는 것만으로 캐릭터의 디테일한 외관의 변화를 표현할 수 있어, 캐릭터의 리얼리티를 극대화하고, 디지털아이돌 컨텐츠 제작의 편의성 및 작업의 속도를 높일 수 있다.That is, the present invention uses data such as sweat output (Vw) and blood flow (Vbf) calculated based on the character's heart rate (Ihr) to detect changes in sweat, glitter, or red tone of blood flow expressed on the character's skin. It can be expressed in detail in the rendering stage. Rather than manually defining and setting the detailed changes of these characters, the creator can express the detailed changes in the character's appearance just by adjusting the setting values of the character or background, maximizing the character's reality, digital It is possible to increase the convenience of creating idol contents and the speed of work.

또한, 본 발명은 생체정보를 기초로 캐릭터 신체의 각 부위별 자세 변화량, 모양 변화량, 및 땀 배출량을 도출하고, 캐릭터 설정 정보, 캐릭터 모션 정보 또는 배경 정보에 포함된 복수의 파라미터 중 일부를 이용하여 도출된 데이터들을 보정함으로써, 캐릭터의 움직임 및 캐릭터의 클로딩 움직임에 대한 리얼리티를 극대화할 수 있다.In addition, the present invention derives the amount of change in posture, change in shape, and amount of sweat for each part of the character's body based on biometric information, and uses some of a plurality of parameters included in character setting information, character motion information, or background information. By correcting the derived data, it is possible to maximize the reality of the movement of the character and the movement of the character's clothing.

도 15는 도 1의 구매 정보를 획득하는 과정을 설명하기 위한 개념도이다.15 is a conceptual diagram for explaining a process of acquiring purchase information of FIG. 1 .

도 1, 도 3 및 도 15를 참조하면, 사용자(100)는 메타버스(MV)의 디지털아이돌(100a)과 관련된 상품을 구매할 수 있다. 상품은 예를 들어, 메타버스(MV)의 디지털아이돌(100a)의 완구나 음악이나 영상과 같은 컨텐츠를 포함할 수 있다.1, 3, and 15 , the user 100 may purchase a product related to the digital idol 100a of the metaverse MV. The product may include, for example, a toy of the digital idol 100a of the metaverse MV, or content such as music or video.

사용자(100)는 실물로서, 구매 완구(Toy_m)를 구매할 수 있다. 이 경우, 사용자(100)는 구매 완구(Toy_m)로부터 구매인증 정보(Iv)를 획득할 수 있다. 구매인증 정보(Iv)는 구매 완구(Toy_m)에 부착된, 인증 코드를 통해서 획득될 수 있다. 인증 코드는 예를 들어, 바코드, QR코드 및 시리얼 넘버 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The user 100 may purchase the purchased toy Toy_m as a real thing. In this case, the user 100 may obtain the purchase authentication information Iv from the purchased toy Toy_m. The purchase authentication information Iv may be obtained through an authentication code attached to the purchased toy Toy_m. The authentication code may include, for example, at least one of a barcode, a QR code, and a serial number. However, the present embodiment is not limited thereto.

유사하게, 사용자(100)는 구매 컨텐츠(Con_m)를 구매할 수 있다. 이 경우, 사용자(100)는 구매 컨텐츠(Con_m)로부터 구매인증 정보(Iv)를 획득할 수 있다. Similarly, the user 100 may purchase the purchased content Con_m. In this case, the user 100 may obtain the purchase authentication information Iv from the purchase content Con_m.

사용자(100)는 구매인증 정보(Iv)를 모두 통합하여 생성된 구매 정보(Ipur)를 메타버스 관리 서버(500)로 전송할 수 있다. 이에 따라서, 메타버스 관리 서버(500)는 그에 상응하는 보상 정보(Irw)를 생성할 수 있다. 즉, 사용자(100)의 실물 혹은 컨텐츠 상품 구매에 따라서 메타버스 관리 서버(500)는 메타버스(MV) 내의 재화와 관련된 보상을 제공할 수 있다. 이에 따라서, 사용자(100)는 관련 상품의 구매에 대한 동기를 가질 수 있어 상품의 판매가 촉진될 수 있다.The user 100 may transmit the purchase information Ipur generated by integrating all the purchase authentication information Iv to the metaverse management server 500 . Accordingly, the metaverse management server 500 may generate the corresponding compensation information Irw. That is, the metaverse management server 500 may provide a reward related to goods in the metaverse MV according to the user 100's purchase of a real or content product. Accordingly, the user 100 may have a motivation for purchasing the related product, and thus the sale of the product may be promoted.

본 실시예는 이를 통해서, 사용자(100)가 메타버스(MV)의 디지털아이돌(100a)과의 일체감을 더욱 높게 가지고, 사용자(100)로 하여금 생생한 체험을 가지게 하여 서비스 사용의 시간과 빈도를 높일 수 있다. In this embodiment, the user 100 has a higher sense of unity with the digital idol 100a of the metaverse MV, and the user 100 has a vivid experience to increase the time and frequency of service use. can

나아가, 사용자(100)의 모션 데이터(D_mot) 및 생체 데이터(D_bio)가 디지털아이돌(100a)에 그대로 반영되어 표현되므로 사용자(100)가 느끼는 리얼리티가 극대화될 수 있다.Furthermore, since the motion data D_mot and the biometric data D_bio of the user 100 are reflected and expressed in the digital idol 100a as they are, the reality felt by the user 100 can be maximized.

이하, 도 1 내지 도 22를 참조하여, 본 발명의 몇몇 실시예들에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 방법을 설명한다. 상술한 실시예와 중복되는 부분은 간략히 하거나 생략한다.Hereinafter, an artificial intelligence-based platform providing method for implementing a metaverse digital idol according to some embodiments of the present invention will be described with reference to FIGS. 1 to 22 . Parts overlapping with the above-described embodiment will be simplified or omitted.

도 16은 본 발명의 몇몇 실시예들에 따른 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 방법을 설명하기 위한 순서도이고, 도 17은 도 16의 캐릭터 모션 시퀀스 및 클로딩 모션 시퀀스를 생성하는 단계를 세부적으로 설명하기 위한 순서도이다. 도 18은 도 17의 신체 각 부위의 땀 배출량을 도출하는 단계의 일 예를 세부적으로 설명하기 위한 순서도이고, 도 19는 도 17의 신체 각 부위의 땀 배출량을 도출하는 단계의 다른 예를 세부적으로 설명하기 위한 순서도이다. 도 20은 도 17의 클로딩 모션 시퀀스를 생성하는 단계를 세부적으로 설명하기 위한 순서도이고, 도 21은 도 16의 캐릭터 셰이딩 데이터를 생성하는 단계를 세부적으로 설명하기 위한 순서도이다. 도 22는 도 16의 메타버스 데이터를 생성하는 단계를 세부적으로 설명하기 위한 순서도이다.16 is a flowchart for explaining a method for providing an artificial intelligence-based platform for implementing a metaverse digital idol according to some embodiments of the present invention, and FIG. 17 is a step of generating the character motion sequence and clothing motion sequence of FIG. 16 It is a flowchart for explaining in detail. 18 is a flowchart for explaining in detail an example of the step of deriving the sweat amount of each body part of FIG. 17 , and FIG. 19 is another example of the step of deriving the sweat amount of each body part of FIG. 17 in detail It is a flowchart for explanation. FIG. 20 is a flowchart for explaining in detail the step of generating the clothing motion sequence of FIG. 17 , and FIG. 21 is a flowchart for explaining in detail the step of generating the character shading data of FIG. 16 . 22 is a flowchart for explaining in detail a step of generating metaverse data of FIG. 16 .

먼저, 도 16을 참조하면, 모션 데이터 및 생체 데이터를 수신한다(S100).First, referring to FIG. 16 , motion data and biometric data are received ( S100 ).

구체적으로, 도 1 및 도 2를 참조하면, 메타버스 구현 서버(200)는 사용자(100)의 모션 데이터(D_mot) 및 생체 데이터(D_bio)를 수신할 수 있다. 모션 데이터(D_mot)는 사용자(100)의 움직임에 대한 정보일 수 있다. 모션 데이터(D_mot)는 사용자(100)가 취하는 자세나 동작에 대한 정보일 수 있다. 생체 데이터(D_bio)는 사용자(100)의 신체에서 수집되는 데이터일 수 있다. 예를 들어, 생체 데이터(D_bio)는 심박수 정보(Ihr_u), 페이스 이미지 정보(If), 혈류량 정보(Ibf), 호흡량 정보(Ir) 및 땀 배출량 정보(Isw) 중 적어도 하나를 포함할 수 있다.Specifically, referring to FIGS. 1 and 2 , the metaverse implementation server 200 may receive motion data D_mot and biometric data D_bio of the user 100 . The motion data D_mot may be information about the movement of the user 100 . The motion data D_mot may be information on a posture or motion taken by the user 100 . The biometric data D_bio may be data collected from the body of the user 100 . For example, the biometric data D_bio may include at least one of heart rate information Ihr_u, pace image information If, blood flow information Ibf, respiration amount information Ir, and sweat discharge information Isw.

다시, 도 16을 참조하면, 모션 정규 데이터 및 생체 정규 데이터를 생성한다(S200).Again, referring to FIG. 16 , motion normal data and bionormal data are generated ( S200 ).

구체적으로, 도 4를 참조하면, 모션 데이터 수신부(210)는 모션 데이터(D_mot)를 수신하고, 이를 정규화할 수 있다. 모션 데이터 수신부(210)는 모션 데이터(D_mot)를 정규화하여 모션 정규 데이터(Dn_mot)를 생성할 수 있다. 생체 데이터 수신부(220)는 생체 데이터(D_bio)를 수신하고, 이를 정규화할 수 있다. 생체 데이터 수신부(220)는 생체 데이터(D_bio)를 정규화하여 생체 정규 데이터(Dn_bio)를 생성할 수 있다.Specifically, referring to FIG. 4 , the motion data receiver 210 may receive the motion data D_mot and normalize it. The motion data receiver 210 may generate the motion normal data Dn_mot by normalizing the motion data D_mot. The biometric data receiver 220 may receive the biometric data D_bio and normalize it. The biometric data receiver 220 may normalize the biometric data D_bio to generate the normal biometric data Dn_bio.

다시, 도 16을 참조하면, 캐릭터 모션 시퀀스 및 클로딩 모션 시퀀스를 생성한다(S300).Again, referring to FIG. 16 , a character motion sequence and a clothing motion sequence are generated ( S300 ).

세부적으로 도 17을 참조하면, 캐릭터의 심박수를 수신한다(S310).Referring to FIG. 17 in detail, the heart rate of the character is received (S310).

구체적으로, 도 5 및 도 7을 참조하면, 모션 변화 연산 모듈(242)은 캐릭터 모션 정보(MI)에 포함된 캐릭터의 심박수(Ihr)를 수신할 수 있다.Specifically, referring to FIGS. 5 and 7 , the motion change calculation module 242 may receive the heart rate Ihr of the character included in the character motion information MI.

다시, 도 17을 참조하면, 심박수에 따른 폐용적 변화량을 도출한다(S320).Again, referring to FIG. 17 , a change in lung volume according to the heart rate is derived ( S320 ).

구체적으로, 도 5 및 도 7을 참조하면, 모션 변화 연산 모듈(242)은 심박수(Ihr)에 따른 폐용적 변화량(Vl)을 도출한다. 여기에서, 폐용적 변화량(Vl)은 캐릭터의 폐의 크기에 대한 시계열적인 변화량을 의미한다.Specifically, referring to FIGS. 5 and 7 , the motion change calculation module 242 derives the lung volume change Vl according to the heart rate Ihr. Here, the lung volume change Vl means a time-series change amount with respect to the size of the character's lungs.

다시, 도 17을 참조하면, 심박수에 따른 자세 변화량을 도출한다(S330).Again, referring to FIG. 17 , an amount of change in posture according to the heart rate is derived ( S330 ).

구체적으로, 도 5 및 도 7을 참조하면, 모션 변화 연산 모듈(242)은 심박수에 따른 자세 변화량(Vp)을 도출한다. 여기에서, 자세 변화량(Vp)은 캐릭터의 자세에 대한 시계열적인 변화량을 의미한다. 자세 변화량(Vp)은 캐릭터의 신체의 부위별로 상체 모션 변화량, 어깨 모션 변화량, 팔 모션 변화량 등으로 구분될 수 있다. 또한, 자세 변화량(Vp)은 캐릭터의 움직임을 표현하는 복수의 포인트들의 변화들로 표현될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.Specifically, referring to FIGS. 5 and 7 , the motion change calculation module 242 derives a posture change amount Vp according to a heart rate. Here, the posture change amount Vp means a time-series change amount with respect to the posture of the character. The posture change amount Vp may be divided into upper body motion change amount, shoulder motion change amount, arm motion change amount, etc. for each body part of the character. In addition, the posture change amount Vp may be expressed as changes of a plurality of points expressing the movement of the character. However, the present invention is not limited thereto.

다시, 도 17을 참조하면, 심박수에 따른 각 부위의 모양 변화량을 도출한다(S340).Again, referring to FIG. 17 , the amount of change in shape of each part according to the heart rate is derived ( S340 ).

구체적으로, 도 5 및 도 7을 참조하면, 모션 변화 연산 모듈(242)은 심박수에 따른 신체 각 부위의 모양 변화량(Vs)을 도출한다. 여기에서, 모양 변화량(Vs)은 캐릭터의 신체 모양에 대한 시계열적인 변화량을 의미한다. 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다.Specifically, referring to FIGS. 5 and 7 , the motion change calculation module 242 derives the shape change Vs of each body part according to the heart rate. Here, the shape change amount Vs means a time-series change amount with respect to the body shape of the character. The shape change Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character.

다시, 도 17을 참조하면, 심박수에 따른 각 부위의 땀 배출량을 도출한다(S350).Again, referring to FIG. 17 , the sweat amount of each part according to the heart rate is derived ( S350 ).

세부적으로, 도 18을 참조하면, 심박수에 따라 호흡량 변화패턴을 추정한다(S351).In detail, referring to FIG. 18 , a pattern of change in respiration volume is estimated according to the heart rate ( S351 ).

구체적으로, 도 9를 참조하면, 인공지능 모듈(AIM1)은 디지털아이돌(100a)의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다. 여기에서, 호흡량 변화패턴은 심박수를 기초로 생성된 시계열적인 호흡량에 대한 변화를 나타낸다.Specifically, referring to FIG. 9 , the artificial intelligence module AIM1 estimates the respiratory rate change pattern according to the heart rate Ihr of the digital idol 100a. Here, the respiratory volume change pattern represents a change in the time-series respiratory volume generated based on the heart rate.

다시, 도 18을 참조하면, 호흡량 변화패턴과 나이, 성별, 체형 및 사이즈를 포함하는 캐릭터 설정 정보를 기초로 각 부위별 자세 변화량을 도출한다(S352).Again, referring to FIG. 18 , the amount of change in posture for each part is derived based on the respiratory rate change pattern and character setting information including age, gender, body type, and size ( S352 ).

구체적으로, 도 9를 참조하면, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다. 이때, 캐릭터 설정 정보(CI)는 캐릭터의 성별(C1), 나이(C2), 체형(C3), 사이즈(C4)를 포함할 수 있다. 인공지능 모듈(AIM1)은 이를 통해 자세 변화량(Vp)을 도출할 수 있다.Specifically, referring to FIG. 9 , the artificial intelligence module AIM1 derives the amount of change of posture Vp for each part of the character's body based on the respiratory rate change pattern and the character setting information CI. In this case, the character setting information CI may include the character's gender (C1), age (C2), body type (C3), and size (C4). The artificial intelligence module (AIM1) may derive the posture change amount (Vp) through this.

인공지능 모듈(AIM1)은 심박수(Ihr)를 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 설정 정보(CI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다.The artificial intelligence module AIM1 may operate by first deriving a reference value of the posture change amount Vp based on the heart rate Ihr and correcting detailed numerical values using the character setting information CI.

다시, 도 18을 참조하면, 호흡량 변화패턴과 캐릭터 설정 정보를 기초로 각 부위별 모양 변화량을 도출한다(S353).Again, referring to FIG. 18 , the shape change amount for each part is derived based on the respiratory amount change pattern and character setting information ( S353 ).

구체적으로, 도 9를 참조하면, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다. 애니메이션 모듈(220)은 전술한 미리 학습된 인공지능 모듈(AIM1)을 이용하여 모양 변화량(Vs)을 도출할 수 있다. 모양 변화량(Vs)은 캐릭터의 신체의 부위별로 가슴모양 변화량, 복부모양 변화량으로 구분될 수 있다.Specifically, referring to FIG. 9 , the artificial intelligence module AIM1 derives the shape change Vs for each part of the character's body based on the respiratory rate change pattern and the character setting information CI. The animation module 220 may derive the shape change amount Vs using the previously learned artificial intelligence module AIM1. The shape change Vs may be divided into a chest shape change amount and an abdominal shape change amount for each body part of the character.

다시, 도 18을 참조하면, 호흡량 변화패턴과 캐릭터 설정 정보를 기초로 각 부위별 땀 배출량을 도출한다(S354).Again, referring to FIG. 18 , the sweat amount for each part is derived based on the respiratory rate change pattern and character setting information (S354).

구체적으로, 도 9를 참조하면, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 설정 정보(CI)를 기초로 캐릭터 신체의 각 부위별 땀 배출량(Vw)을 도출한다.Specifically, referring to FIG. 9 , the artificial intelligence module AIM1 derives the sweat amount Vw for each part of the character's body based on the respiratory rate change pattern and the character setting information CI.

이때, 위의 S352, S353 및 S354 단계의 순서는 얼마든지 달라질 수 있다.In this case, the order of steps S352, S353, and S354 above may be changed at any time.

다시, 도 18을 참조하면, 도출된 자세 변화량, 모양 변화량 및 땀 배출량을 온도, 습도 및 시간대를 포함하는 배경정보를 기초로 보정한다(S355).Again, referring to FIG. 18 , the derived attitude change amount, shape change amount, and sweat amount are corrected based on background information including temperature, humidity, and time period ( S355 ).

구체적으로, 도 9를 참조하면, 모션 보정 모듈(MAM)은 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 배경 정보(BI)를 기초로 보정한다. 배경 정보(BI)는 배경(BG)의 온도(B1), 습도(B2) 및 시간대(B3)를 포함할 수 있다.Specifically, referring to FIG. 9 , the motion compensation module MAM corrects the derived posture change amount Vp, shape change amount Vs, and sweat amount Vw based on the background information BI. The background information BI may include a temperature B1, a humidity B2, and a time zone B3 of the background BG.

이하 도 19를 참조하여 도 18과 다른 실시예를 설명한다. 도 19도 도 17의 S350 단계를 세부적으로 설명한다.Hereinafter, an embodiment different from that of FIG. 18 will be described with reference to FIG. 19 . 19 and S350 of FIG. 17 will be described in detail.

도 19를 참조하면, 심박수에 따라 호흡량 변화패턴을 추정한다(S351a).Referring to FIG. 19 , a pattern of change in respiration volume is estimated according to the heart rate (S351a).

구체적으로, 도 9를 참조하면, 인공지능 모듈(AIM1)은 디지털아이돌(100a)의 심박수(Ihr)에 따라 호흡량 변화패턴을 추정한다. Specifically, referring to FIG. 9 , the artificial intelligence module AIM1 estimates the respiratory rate change pattern according to the heart rate Ihr of the digital idol 100a.

다시, 도 19를 참조하면, 호흡량 변화패턴과 자세, 피로도 및 감정을 포함하는 캐릭터 모션 정보를 기초로 각 부위별 자세 변화량을 도출한다(S352a).Again, referring to FIG. 19 , the amount of change in posture for each part is derived based on the character motion information including the respiratory rate change pattern and posture, fatigue, and emotion ( S352a ).

구체적으로, 도 9를 참조하면, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 자세 변화량(Vp)을 도출한다. 이때, 캐릭터 모션 정보(CI)는 캐릭터의 자세(I1), 피로도(I2) 및 감정(I3)에 관한 정보를 포함할 수 있다. 인공지능 모듈(AIM1)은 호흡량 변화패턴을 기초로 자세 변화량(Vp)의 기준값을 먼저 도출하고, 캐릭터 모션 정보(MI)를 이용하여 세부 수치를 보정하는 방식으로 동작할 수 있다.Specifically, referring to FIG. 9 , the artificial intelligence module (AIM1) derives the amount of change of posture (Vp) for each part of the character's body based on the respiratory rate change pattern and the character motion information (MI). In this case, the character motion information CI may include information about the character's posture I1 , fatigue I2 , and emotion I3 . The artificial intelligence module (AIM1) may operate by first deriving a reference value of the posture change amount (Vp) based on the respiratory rate change pattern, and then correcting detailed numerical values using the character motion information (MI).

다시, 도 19를 참조하면, 호흡량 변화패턴과 캐릭터 모션 정보를 기초로 각 부위별 모양 변화량을 도출한다(S353a).Again, referring to FIG. 19 , the shape change amount for each part is derived based on the respiratory amount change pattern and character motion information (S353a).

구체적으로, 도 9를 참조하면, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 모양 변화량(Vs)을 도출한다.Specifically, referring to FIG. 9 , the artificial intelligence module AIM1 derives the shape change Vs for each part of the character's body based on the respiratory rate change pattern and the character motion information MI.

다시, 도 19를 참조하면, 호흡량 변화패턴과 캐릭터 모션 정보를 기초로 각 부위별 땀 배출량을 도출한다(S354a).Again, referring to FIG. 19 , the sweat amount for each part is derived based on the respiratory rate change pattern and character motion information (S354a).

구체적으로, 도 9를 참조하면, 인공지능 모듈(AIM1)은 호흡량 변화패턴과 캐릭터 모션 정보(MI)를 기초로 캐릭터 신체의 각 부위별 땀 배출량(Vw)을 도출한다.Specifically, referring to FIG. 9 , the artificial intelligence module AIM1 derives the sweat amount Vw for each part of the character's body based on the respiratory rate change pattern and the character motion information MI.

이때, 위의 S352a, S353a 및 S354a 단계의 순서는 얼마든지 달라질 수 있다.In this case, the order of the steps S352a, S353a, and S354a above may be changed freely.

다시, 도 19를 참조하면, 도출된 자세 변화량, 모양 변화량 및 땀 배출량을 온도, 습도 및 시간대를 포함하는 배경정보를 기초로 보정한다(S355a).Again, referring to FIG. 19 , the derived attitude change amount, shape change amount, and sweat amount are corrected based on background information including temperature, humidity, and time period (S355a).

구체적으로, 도 9를 참조하면, 모션 보정 모듈(MAM)은 도출된 자세 변화량(Vp), 모양 변화량(Vs), 및 땀 배출량(Vw)을 배경 정보(BI)를 기초로 보정한다.Specifically, referring to FIG. 9 , the motion compensation module MAM corrects the derived posture change amount Vp, shape change amount Vs, and sweat amount Vw based on the background information BI.

다시, 도 17을 참조하면, 심박수를 기초로 도출된 값을 캐릭터 모션 정보, 배경 정보 또는 캐릭터 설정 정보를 기초로 보정한다(S360).Again, referring to FIG. 17 , a value derived based on the heart rate is corrected based on character motion information, background information, or character setting information ( S360 ).

구체적으로, 도 9를 참조하면, 모션 보정 모듈(MAM)은 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 기초로, 인공지능 모듈(AIM1)에서 출력된 각각의 변화량(Vl, Vp, Vs)을 보정한다. 모션 보정 모듈(MAM)은 보정된 각각의 값(Vl, Vp, Vs, Vw)들을 포함하는 캐릭터 모션 시퀀스(Scm)를 출력한다. 위의 S355 및 S355a 단계가 본 단계에 일부 포함될 수 있다.Specifically, referring to FIG. 9 , the motion compensation module (MAM) performs each of the output from the artificial intelligence module (AIM1) based on the character motion information (MI), the background information (BI) and the character setting information (CI). The change amount (Vl, Vp, Vs) is corrected. The motion compensation module MAM outputs a character motion sequence Scm including each of the corrected values Vl, Vp, Vs, and Vw. Steps S355 and S355a above may be partially included in this step.

다시, 도 17을 참조하면, 보정된 값들을 기초로 캐릭터 모션 시퀀스를 생성한다(S370).Again, referring to FIG. 17, a character motion sequence is generated based on the corrected values (S370).

구체적으로, 도 9를 참조하면, 모션 보정 모듈(MAM)은 보정된 각각의 값(Vl, Vp, Vs, Vw)들을 포함하는 캐릭터 모션 시퀀스(Scm)를 출력한다.Specifically, referring to FIG. 9 , the motion compensation module MAM outputs a character motion sequence Scm including each of the corrected values Vl, Vp, Vs, and Vw.

다시, 도 17을 참조하면, 캐릭터 모션 시퀀스를 기초로 클로딩 모션 시퀀스를 생성한다(S380).Again, referring to FIG. 17, a clothing motion sequence is generated based on the character motion sequence (S380).

세부적으로 도 20을 참조하면, 캐릭터 모션 시퀀스를 기초로 캐릭터의 프리 클로딩 모션 시퀀스를 산출한다(S381).Referring to FIG. 20 in detail, a pre-clothing motion sequence of the character is calculated based on the character motion sequence (S381).

구체적으로, 도 11을 참조하면, 클로딩 모션 산출 모듈(CMM)은 캐릭터의 움직임을 나타내는 캐릭터 모션 시퀀스(Scm)을 기초로 프리 클로딩 모션 시퀀스(Sclmp)를 생성하여 출력한다. 여기에서, 프리 클로딩 모션 시퀀스(Sclmp)는 캐릭터가 착용하고 있는 클로딩의 시계열적인 움직임을 나타내는 데이터를 의미한다. 이때, 클로딩 모션 산출 모듈(CMM)은 캐릭터 설정 정보(CI)와 캐릭터 모션 시퀀스(Scm)를 참조하여 프리 클로딩 모션 시퀀스(Sclmp)를 생성할 수 있다.Specifically, referring to FIG. 11 , the clothing motion calculation module (CMM) generates and outputs the pre-clothing motion sequence Sclmp based on the character motion sequence Scm indicating the movement of the character. Here, the pre-clothing motion sequence (Sclmp) means data representing time-series movement of clothing worn by the character. In this case, the clothing motion calculation module CMM may generate the pre-clothing motion sequence Sclmp with reference to the character setting information CI and the character motion sequence Scm.

다시, 도 20을 참조하면, 캐릭터의 땀 배출량을 기초로 캐릭터의 바디와 클로딩 간 마찰력을 산출한다(S382).Again, referring to FIG. 20 , the frictional force between the character's body and the clothing is calculated based on the character's sweat amount (S382).

구체적으로, 도 11을 참조하면, 클로딩 모션 보정 모듈(CMAM)은 캐릭터의 땀 배출량(Vw)을 기초로 캐릭터의 바디와 클로딩(C6) 사이의 마찰력(즉, 클로딩 마찰력(Ff))을 산출한다.Specifically, referring to FIG. 11 , the clothing motion compensation module (CMAM) calculates the frictional force between the character's body and the clothing C6 based on the character's sweat output (Vw) (ie, the clothing frictional force (Ff)). to calculate

다시, 도 20을 참조하면, 산출된 마찰력을 기초로 프리 클로딩 모션 시퀀스를 보정한다(S382).Again, referring to FIG. 20, the pre-clothing motion sequence is corrected based on the calculated friction force (S382).

구체적으로, 도 11을 참조하면, 클로딩 모션 보정 모듈(CMAM)은 산출된 클로딩 마찰력(Ff)을 기초로 프리 클로딩 모션 시퀀스(Sclmp)을 보정한 클로딩 모션 시퀀스(Sclm)를 출력한다. 클로딩 모션 시퀀스(Sclm)는 캐릭터의 클로딩 모션 변화량(Vclm)을 포함한다.Specifically, referring to FIG. 11 , the clothing motion compensation module CMAM outputs a clothing motion sequence Sclm obtained by correcting the pre-clothing motion sequence Sclmp based on the calculated clothing friction force Ff. . The clothing motion sequence Sclm includes a clothing motion variation Vclm of the character.

다시, 도 16을 참조하면, 캐릭터 셰이딩 데이터를 생성한다(S400).Again, referring to FIG. 16 , character shading data is generated ( S400 ).

세부적으로, 도 21을 참조하면, 캐릭터의 심박수에 따른 땀 배출량 및 혈류량을 산출한다(S410).In detail, referring to FIG. 21 , the amount of sweat and blood flow according to the heart rate of the character is calculated ( S410 ).

구체적으로, 도 13 및 도 14를 참조하면, 인공지능 모듈(AIM2)은 심박수(Ihr)와 함께, 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 수신할 수 있다. 인공지능 모듈(AIM2)은 심박수(Ihr), 캐릭터 모션 정보(MI), 배경 정보(BI) 및 캐릭터 설정 정보(CI)를 입력받고, 이에 대한 출력으로 캐릭터의 신체 각 부위의 땀 배출량(Vw) 및 혈류량(Vbf)을 출력할 수 있다. 이때, 혈류량(Vbf)은 심박수를 통해서 산출될 수도 있지만, 미리 측정된 사용자(100)의 혈류량 정보(Ibf)를 통해서 미리 설정될 수도 있다.Specifically, referring to FIGS. 13 and 14 , the artificial intelligence module AIM2 may receive the character motion information MI, the background information BI, and the character setting information CI along with the heart rate Ihr. . The artificial intelligence module (AIM2) receives heart rate (Ihr), character motion information (MI), background information (BI), and character setting information (CI), and outputs sweat output (Vw) from each part of the character's body. and a blood flow Vbf. In this case, the blood flow Vbf may be calculated based on the heart rate or may be preset based on previously measured blood flow information Ibf of the user 100 .

다시, 도 21을 참조하면, 배경 정보에 포함된 시간대를 기초로 광량 및 광원위치를 포함하는 광원정보를 산출한다(S420).Again, referring to FIG. 21 , light source information including the amount of light and the light source position is calculated based on the time period included in the background information ( S420 ).

구체적으로, 도 13을 참조하면, 인공지능 모듈(AIM2)은 배경 정보(BI)에 포함된 시간대(B3)에 관한 정보를 기초로 광원의 위치 및 광량을 포함하는 광원정보를 산출한다. 추가적으로, 인공지능 모듈(AIM2)은 배경 정보(BI)에 포함된 지역에 관한 정보(예를 들어, 위도, 경도, 일조량, 날씨, 구름량 등)를 기초로 미리 정해진 계산식을 통하여 광원정보를 세밀하게 도출할 수 있다. 또한, 광원정보는 미리 정해진 인조광과 자연광으로 구분되어 포함될 수 있다.Specifically, referring to FIG. 13 , the artificial intelligence module AIM2 calculates light source information including the position of the light source and the amount of light based on the information about the time zone B3 included in the background information BI. Additionally, the artificial intelligence module (AIM2) refines the light source information through a predetermined calculation formula based on the area information (eg, latitude, longitude, sunshine, weather, cloudiness, etc.) included in the background information (BI). can be derived In addition, the light source information may be divided into predetermined artificial light and natural light and included.

다시, 도 21을 참조하면, 산출된 광원정보와, 캐릭터 설정 정보, 땀 배출량 및 혈류량을 기초로 캐릭터 셰이딩 데이터를 생성한다(S430).Again, referring to FIG. 21 , character shading data is generated based on the calculated light source information, character setting information, sweat amount and blood flow ( S430 ).

구체적으로, 도 13을 참조하면, 셰이더 모듈(SM)은 산출된 광원정보와, 캐릭터 설정 정보(CI), 땀 배출량(Vw) 및 혈류량(Vbf)을 기초로, 캐릭터 셰이딩 데이터(Dcs)를 생성한다. 캐릭터 셰이딩 데이터(Dcs)는 전술한 스킨 셰이딩, Ÿ‡ 셰이딩 및 글리터 셰이딩 중 적어도 하나 이상을 수행하기 위한 데이터를 의미한다.Specifically, referring to FIG. 13 , the shader module SM generates character shading data (Dcs) based on the calculated light source information, character setting information (CI), sweat discharge (Vw), and blood flow (Vbf). do. The character shading data Dcs means data for performing at least one of the aforementioned skin shading, Ÿ‡ shading, and glitter shading.

다시, 도 16을 참조하면, 캐릭터 그래픽 처리를 통해 메타버스 데이터를 생성한다(S500).Again, referring to FIG. 16 , metaverse data is generated through character graphic processing ( S500 ).

세부적으로, 도 22를 참조하면, 캐릭터 모션 시퀀스, 클로딩 모션 시퀀스 및 캐릭터 셰이딩 데이터를 통해 캐릭터 그래픽을 처리한다(S510).In detail, referring to FIG. 22 , character graphics are processed through a character motion sequence, a clothing motion sequence, and character shading data ( S510 ).

구체적으로, 도 4를 참조하면, 그래픽 처리부(270)는 캐릭터 모션 시퀀스(Scm), 클로딩 모션 시퀀스(Sclm) 및 캐릭터 셰이딩 데이터(Dcs)를 수신하여 메타버스 데이터(D_mv)를 생성할 수 있다. 그래픽 처리부(270)는 디지털아이돌(100a)의 움직임과, 디지털아이돌(100a)의 의상의 움직임과, 디지털아이돌(100a)의 외형에 대한 그래픽 처리를 수행할 수 있다.Specifically, referring to FIG. 4 , the graphic processing unit 270 may receive a character motion sequence (Scm), a clothing motion sequence (Sclm), and character shading data (Dcs) to generate metaverse data (D_mv). . The graphic processing unit 270 may perform graphic processing on the movement of the digital idol 100a, the movement of the clothes of the digital idol 100a, and the appearance of the digital idol 100a.

다시, 도 22를 참조하면, 구매 정보 및 레이팅 점수를 이용하여 보상 정보를 생성한다(S520).Again, referring to FIG. 22 , reward information is generated using the purchase information and the rating score ( S520 ).

구체적으로, 도 1을 참조하면, 메타버스 관리 서버(500)는 SNS 서버(400)로부터 레이팅 점수(S_Rat)를 수신할 수 있다. 메타버스 관리 서버(500)는 사용자(100)로부터 구매 정보(Ipur)를 수신할 수 있다. 구매 정보(Ipur)는 사용자(100)가 디지털아이돌(100a)과 관련된 상품을 구매한 경우 그에 대한 정보일 수 있다.Specifically, referring to FIG. 1 , the metaverse management server 500 may receive a rating score (S_Rat) from the SNS server 400 . The metaverse management server 500 may receive purchase information Ipur from the user 100 . The purchase information Ipur may be information about when the user 100 purchases a product related to the digital idol 100a.

메타버스 관리 서버(500)는 레이팅 점수(S_Rat) 및/또는 구매 정보(Ipur)를 이용하여 보상 정보(Irw)를 생성할 수 있다. 보상 정보(Irw)는 사용자(100)에 대한 메타버스(MV) 내의 보상에 대한 정보일 수 있다. 즉, 디지털아이돌 컨텐츠(Cmv)의 레이팅 점수(S_Rat)가 높을수록 메타버스(MV) 내의 보상이 커질 수 있다. 또한, 사용자(100)가 디지털아이돌(100a)에 대한 상품을 구매한 경우 메타버스(MV) 내의 보상이 주어질 수 있다. 이를 통해서, 메타버스 관리 서버(500)는 사용자(100)의 참여 및 경쟁을 유도할 수 있고, 상품의 판매를 촉진시킬 수 있다.The metaverse management server 500 may generate the reward information Irw using the rating score S_Rat and/or the purchase information Ipur. The reward information Irw may be information about a reward in the metaverse MV for the user 100 . That is, the higher the rating score (S_Rat) of the digital idol content (Cmv), the greater the reward in the metaverse (MV). Also, when the user 100 purchases a product for the digital idol 100a, a reward in the metaverse MV may be given. Through this, the metaverse management server 500 may induce participation and competition of the user 100 and may promote product sales.

다시, 도 22를 참조하면, 보상 정보를 사용자 계정에 반영하여 재화 정보를 생성한다(S530).Again, referring to FIG. 22, the reward information is reflected in the user account to generate the goods information (S530).

구체적으로, 도 4를 참조하면, 계정 정보 관리부(260)는 보상 정보(Irw)를 수신하고, 이를 사용자(100)의 계정에 반영할 수 있다. 계정 정보 관리부(260)는 보상 정보(Irw)에 따라 사용자(100)의 계정의 재화 정보(Dc)를 업데이트할 수 있다.Specifically, referring to FIG. 4 , the account information management unit 260 may receive the reward information Irw and reflect it in the user's 100 account. The account information management unit 260 may update the goods information Dc of the user 100's account according to the compensation information Irw.

다시, 도 22를 참조하면, 캐릭터 그래픽과 재화 정보를 반영하여 메타버스 데이터를 완성한다(S540).Again, referring to FIG. 22 , the metaverse data is completed by reflecting the character graphic and the goods information ( S540 ).

구체적으로, 도 4를 참조하면, 그래픽 처리부(270)는 디지털아이돌(100a)의 움직임과, 디지털아이돌(100a)의 의상의 움직임과, 디지털아이돌(100a)의 외형 및 사용자(100)가 메타버스(MV) 내에서 사용할 수 있는 재화에 대한 그래픽 처리를 통해 메타버스 데이터(D_mv)를 생성할 수 있다.Specifically, referring to FIG. 4 , the graphic processing unit 270 performs the movement of the digital idol 100a, the movement of the clothes of the digital idol 100a, the appearance of the digital idol 100a, and the metaverse of the user 100 Metaverse data (D_mv) can be generated through graphic processing for goods that can be used in (MV).

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and a person skilled in the art to which this embodiment belongs may make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present embodiment.

Claims (10)

사용자로부터 모션 데이터 및 생체 데이터를 수신하고, 현실 세계의 사용자와 메타버스의 디지털아이돌을 동기화하여 생성된 메타버스 데이터를 생성하고, 상기 메타버스 데이터는 상기 생체 데이터 및 상기 모션 데이터를 이용하여 수행되는 메타버스 구현 서버; 및
상기 메타버스 구현 서버로부터 상기 메타버스 데이터를 수신하여 표시하는 전자 장치를 포함하되,
상기 메타버스 구현 서버는,
디지털아이돌 정보를 저장하는 디지털아이돌 데이터베이스와,
상기 모션 데이터와 상기 디지털아이돌 정보를 이용하여 상기 디지털아이돌의 움직임을 정의하는 캐릭터 모션 시퀀스를 생성하는 모션 변화 연산부와,
상기 생체 데이터와 상기 디지털아이돌 정보를 이용하여 상기 디지털아이돌의 외관을 정의하는 캐릭터 셰이딩 데이터를 생성하는 셰이딩 변화 연산부와,
상기 캐릭터 모션 시퀀스 및 상기 캐릭터 셰이딩 데이터를 통해서 상기 사용자와 동기화된 상기 디지털아이돌의 그래픽 데이터를 포함하는 상기 메타버스 데이터를 생성하는 그래픽 처리부를 포함하되,
상기 메타버스 구현 서버는,
상기 모션 데이터를 정규화하여 모션 정규 데이터를 생성하는 모션 데이터 수신부와,
상기 생체 데이터를 정규화하여 생체 정규 데이터를 생성하는 생체 데이터 수신부를 더 포함하고,
상기 모션 변화 연산부 및 상기 셰이딩 변화 연산부는 각각 상기 모션 정규 데이터 및 상기 생체 정규 데이터를 수신하고,
상기 모션 변화 연산부는,
상기 모션 정규 데이터, 상기 생체 데이터 및 디지털아이돌 정보를 기초로 캐릭터 모션 정보, 배경 정보 및 캐릭터 설정 정보를 생성하는 제1 입력 정보 연산 모듈로서, 상기 캐릭터 모션 정보는 상기 디지털아이돌의 심박수 정보를 포함하는 제1 입력 정보 연산 모듈과,
상기 심박수에 따른 상기 디지털아이돌의 폐용적 변화량, 자세 변화량, 신체 각 부위의 모양 변화량 및 땀 배출량을 도출하고, 캐릭터 모션 시퀀스를 생성하는 모션 변화 연산 모듈과,
상기 캐릭터 모션 시퀀스를 이용하여 프리 클로딩 모션 시퀀스를 생성하고, 상기 땀 배출량을 기초로 상기 캐릭터의 바디와 클로딩 사이의 마찰력을 산출하고, 상기 마찰력을 기초로 상기 프리 클로딩 모션 시퀀스를 보정하여 클로딩 모션 시퀀스를 출력하는 클로딩 모션 변화 연산 모듈을 포함하고,
상기 폐용적 변화량은 상기 캐릭터의 폐의 크기에 대한 시계열적인 변화량을 의미하고, 상기 자세 변화량은 상기 캐릭터의 움직임을 표현하는 복수의 포인트들의 시계열적인 변화량을 의미하고, 상기 모양 변화량은 상기 캐릭터의 가슴모양 변화량 및 복부모양 변화량을 포함하고,
상기 심박수가 미리 정해진 기준치 보다 높은 경우, 상기 가슴모양 변화량은 상기 복부모양 변화량보다 크게 설정되고,
상기 심박수가 미리 정해진 기준치 보다 낮은 경우, 상기 가슴모양 변화량은 상기 복부모양 변화량보다 작게 설정되며,
상기 모션 변화 연산 모듈은,
상기 심박수를 입력받고, 이에 대한 출력으로 상기 폐용적 변화량, 상기 자세 변화량 및 신체 각 부위의 상기 모양 변화량을 제공하는 인공지능 모듈과,
상기 인공지능 모듈에서 출력된 상기 폐용적 변화량, 상기 자세 변화량 및 신체 각 부위의 상기 모양 변화량을 상기 캐릭터 모션 정보, 상기 배경 정보 및 상기 캐릭터 설정 정보를 기초로 보정하여 상기 캐릭터 모션 시퀀스를 출력하는 모션 보정 모듈과,
미리 스캔된 복수의 3D 메쉬를 상기 캐릭터 설정 정보에 포함된 파라미터 중 어느 하나로 그룹핑하고, 미리 저장된 템플릿 메쉬를 이용하여 그룹핑된 상기 복수의 3D 메쉬를 정렬하고, 정렬된 상기 복수의 3D 메쉬의 폐용적 변화량, 자세 변화량, 신체 각 부위의 모양 변화량의 평균값을 도출하고, 도출된 평균값을 이용하여 상기 인공지능을 훈련시키는 트레이닝 데이터를 생성하는 인공지능 훈련 모듈을 포함하되,
상기 캐릭터 모션 정보는, 상기 캐릭터의 자세, 피로도 및 감정 중 적어도 하나와, 상기 캐릭터의 심박수를 포함하고,
상기 배경 정보는, 배경의 온도, 습도 및 시간대 중 적어도 하나를 포함하고,
상기 캐릭터 설정 정보는, 상기 캐릭터의 성별, 나이, 체형 및 사이즈 중 적어도 하나를 포함하는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템.
It receives motion data and biometric data from a user, and generates metaverse data generated by synchronizing a digital idol of a metaverse with a user in the real world, and the metaverse data is performed using the biometric data and the motion data. metaverse implementation server; and
an electronic device for receiving and displaying the metaverse data from the metaverse implementation server;
The metaverse implementation server,
a digital idol database that stores digital idol information;
a motion change calculator for generating a character motion sequence defining the movement of the digital idol by using the motion data and the digital idol information;
a shading change calculating unit for generating character shading data defining an appearance of the digital idol by using the biometric data and the digital idol information;
a graphic processing unit for generating the metaverse data including graphic data of the digital idol synchronized with the user through the character motion sequence and the character shading data;
The metaverse implementation server,
a motion data receiving unit normalizing the motion data to generate motion normal data;
Further comprising a biometric data receiving unit for normalizing the biometric data to generate the biometric data,
The motion change calculating unit and the shading change calculating unit receive the motion normal data and the bionormal data, respectively,
The motion change calculating unit,
A first input information calculation module for generating character motion information, background information, and character setting information based on the motion regular data, the biometric data, and the digital idol information, wherein the character motion information includes heart rate information of the digital idol a first input information calculation module;
a motion change calculation module for deriving the amount of change in lung volume, the amount of change in posture, the amount of change in shape of each body part, and the amount of sweat output of the digital idol according to the heart rate, and generating a character motion sequence;
A pre-clothing motion sequence is generated using the character motion sequence, a friction force between the body and clothing of the character is calculated based on the sweat amount, and the pre-clothing motion sequence is corrected based on the friction force. A clothing motion change calculation module for outputting a clothing motion sequence,
The lung volume change amount means a time-series change amount with respect to the size of the character's lungs, the posture change amount means a time-series change amount of a plurality of points expressing the movement of the character, and the shape change amount means the character's chest including the amount of change in shape and the amount of change in the shape of the abdomen;
When the heart rate is higher than a predetermined reference value, the chest shape change amount is set to be larger than the abdominal shape change amount,
When the heart rate is lower than a predetermined reference value, the chest shape change amount is set to be smaller than the abdominal shape change amount,
The motion change calculation module,
an artificial intelligence module that receives the heart rate and provides the change amount of the lung volume, the posture change amount, and the shape change amount of each body part as an output;
Motion for outputting the character motion sequence by correcting the amount of change in lung volume, the amount of change in posture, and the amount of change in shape of each body part output from the artificial intelligence module based on the character motion information, the background information, and the character setting information a calibration module;
Group a plurality of pre-scanned 3D meshes by any one of parameters included in the character setting information, align the grouped plurality of 3D meshes using a pre-stored template mesh, and waste volume of the aligned plurality of 3D meshes An artificial intelligence training module that derives the average value of the change amount, the posture change amount, and the shape change amount of each body part, and generates training data for training the artificial intelligence using the derived average value,
The character motion information includes at least one of a posture, fatigue, and emotion of the character, and a heart rate of the character,
The background information includes at least one of temperature, humidity, and time zone of the background,
The character setting information is an artificial intelligence-based platform providing system for implementing a metaverse digital idol including at least one of gender, age, body type, and size of the character.
제1 항에 있어서,
상기 메타버스 구현 서버는 상기 메타버스 데이터를 통한 디지털아이돌 컨텐츠를 생성하고,
상기 디지털아이돌 컨텐츠를 수신하여 SNS(Social Networking Service)에 업로드하고, 유저들의 선호도를 수집하여 레이팅 점수를 산출하는 SNS 서버와,
상기 레이팅 점수를 수신하고, 상기 레이팅 점수에 상응하는 보상을 상기 메타버스 내의 상기 사용자의 계정에 반영하게 하는 보상 정보를 생성하는 메타버스 관리 서버를 더 포함하는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템.
According to claim 1,
The metaverse implementation server generates digital idol content through the metaverse data,
an SNS server that receives the digital idol content, uploads it to a social networking service (SNS), collects users' preferences, and calculates a rating score;
AI-based for implementing a metaverse digital idol further comprising a metaverse management server that receives the rating score and generates reward information for reflecting the reward corresponding to the rating score on the user's account in the metaverse platform delivery system.
제2 항에 있어서,
상기 메타버스 관리 서버는 상기 사용자로부터 구매 정보를 수신하고,
상기 보상 정보는 상기 구매 정보 및 상기 레이팅 점수에 기초하여 생성되는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템.
3. The method of claim 2,
The metaverse management server receives purchase information from the user,
The reward information is an artificial intelligence-based platform providing system that implements a metaverse digital idol generated based on the purchase information and the rating score.
제3 항에 있어서,
상기 구매 정보는 구매 완구 및/또는 구매 컨텐츠로부터 획득한 구매인증 정보를 통해서 생성되는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템.
4. The method of claim 3,
The purchase information is an artificial intelligence-based platform providing system that implements a metaverse digital idol generated through purchase authentication information obtained from purchased toys and/or purchased contents.
제4 항에 있어서,
상기 구매인증 정보는 바코드, QR코드, 시리얼 넘버 중 적어도 하나를 인식하여 생성되는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 시스템.
5. The method of claim 4,
The purchase authentication information is an artificial intelligence-based platform providing system that implements a metaverse digital idol generated by recognizing at least one of a barcode, a QR code, and a serial number.
삭제delete 삭제delete 사용자로부터 모션 데이터 및 생체 데이터를 수신하고,
상기 모션 데이터를 정규화하여 모션 정규 데이터를 생성하고,
상기 생체 데이터를 정규화하여 생체 정규 데이터를 생성하고,
디지털아이돌 정보, 상기 모션 정규 데이터 및 상기 생체 정규 데이터를 통해서 캐릭터 모션 시퀀스를 생성하고,
상기 디지털아이돌 정보, 상기 모션 정규 데이터 및 상기 생체 정규 데이터를 통해서 캐릭터 셰이딩 데이터를 생성하고,
상기 캐릭터 모션 시퀀스 및 상기 캐릭터 셰이딩 데이터를 통해서 캐릭터 그래픽 처리를 하여 현실 세계의 상기 사용자와 동기화된 메타버스의 디지털아이돌을 구현하는 메타버스 데이터를 생성하는 것을 포함하되,
상기 캐릭터 모션 시퀀스를 생성하는 것은,
상기 모션 정규 데이터, 상기 생체 데이터 및 디지털아이돌 정보를 기초로 캐릭터 모션 정보, 배경 정보 및 캐릭터 설정 정보를 생성하고, 상기 캐릭터 모션 정보는 디지털아이돌의 심박수 정보를 포함하고,
인공지능 모듈에 의해서 상기 심박수에 따른 상기 디지털아이돌의 폐용적 변화량, 자세 변화량, 신체 각 부위의 모양 변화량 및 땀 배출량을 도출하고,
상기 디지털아이돌의 폐용적 변화량, 자세 변화량 및 신체 각 부위의 모양 변화량을 상기 캐릭터 모션 정보, 상기 배경 정보 및 상기 캐릭터 설정 정보를 기초로 보정하여 캐릭터 모션 시퀀스를 생성하고,
상기 캐릭터 모션 시퀀스를 이용하여 프리 클로딩 모션 시퀀스를 생성하고,
상기 땀 배출량을 기초로 상기 캐릭터의 바디와 클로딩 사이의 마찰력을 산출하고,
상기 마찰력을 기초로 상기 프리 클로딩 모션 시퀀스를 보정하여 클로딩 모션 시퀀스를 생성하고,
상기 폐용적 변화량은 상기 캐릭터의 폐의 크기에 대한 시계열적인 변화량을 의미하고, 상기 자세 변화량은 상기 캐릭터의 움직임을 표현하는 복수의 포인트들의 시계열적인 변화량을 의미하고, 상기 모양 변화량은 상기 캐릭터의 가슴모양 변화량 및 복부모양 변화량을 포함하되,
상기 심박수가 미리 정해진 기준치 보다 높은 경우, 상기 가슴모양 변화량은 상기 복부모양 변화량보다 크게 설정되고,
상기 심박수가 미리 정해진 기준치 보다 낮은 경우, 상기 가슴모양 변화량은 상기 복부모양 변화량보다 작게 설정되며,
상기 인공지능 모듈은 인공지능 훈련 모듈에 의해서 훈련되고,
상기 인공지능 훈련 모듈은 미리 스캔된 복수의 3D 메쉬를 상기 캐릭터 설정 정보에 포함된 파라미터 중 어느 하나로 그룹핑하고, 미리 저장된 템플릿 메쉬를 이용하여 그룹핑된 상기 복수의 3D 메쉬를 정렬하고, 정렬된 상기 복수의 3D 메쉬의 폐용적 변화량, 자세 변화량, 신체 각 부위의 모양 변화량의 평균값을 도출하고, 도출된 평균값을 이용하여 상기 인공지능 모듈을 훈련시키고,
상기 캐릭터 모션 정보는, 상기 캐릭터의 자세, 피로도 및 감정 중 적어도 하나와, 상기 캐릭터의 심박수를 포함하고,
상기 배경 정보는, 배경의 온도, 습도 및 시간대 중 적어도 하나를 포함하고,
상기 캐릭터 설정 정보는, 상기 캐릭터의 성별, 나이, 체형 및 사이즈 중 적어도 하나를 포함하는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 방법.
Receive motion data and biometric data from a user,
Normalizing the motion data to generate motion normal data,
Normalizing the biometric data to generate bionormal data,
A character motion sequence is generated using digital idol information, the motion normal data, and the normal biometric data,
generating character shading data using the digital idol information, the motion normal data, and the normal biometric data;
and generating metaverse data for implementing a digital idol of a metaverse synchronized with the user in the real world by processing character graphics through the character motion sequence and the character shading data,
Generating the character motion sequence comprises:
generate character motion information, background information, and character setting information based on the motion regular data, the biometric data, and the digital idol information, wherein the character motion information includes heart rate information of the digital idol;
The digital idol's lung volume change amount, posture change amount, shape change amount of each body part, and sweat amount are derived by the artificial intelligence module according to the heart rate,
generating a character motion sequence by correcting the amount of change in lung volume, posture, and shape of each body part of the digital idol based on the character motion information, the background information, and the character setting information;
generating a pre-clothing motion sequence using the character motion sequence;
Calculate the friction force between the character's body and clothing based on the sweat amount,
Compensating the pre-clothing motion sequence based on the friction force to generate a clothing motion sequence,
The lung volume change amount means a time-series change amount with respect to the size of the character's lungs, the posture change amount means a time-series change amount of a plurality of points expressing the movement of the character, and the shape change amount means the character's chest Including the amount of change in shape and the amount of change in the shape of the abdomen,
When the heart rate is higher than a predetermined reference value, the chest shape change amount is set to be larger than the abdominal shape change amount,
When the heart rate is lower than a predetermined reference value, the chest shape change amount is set to be smaller than the abdominal shape change amount,
The artificial intelligence module is trained by an artificial intelligence training module,
The artificial intelligence training module groups a plurality of pre-scanned 3D meshes by any one of parameters included in the character setting information, aligns the grouped plurality of 3D meshes using a pre-stored template mesh, and the aligned plurality of 3D meshes Derive the average value of the amount of change in lung volume of the 3D mesh, the amount of change in posture, and the amount of change in the shape of each body part, and train the artificial intelligence module using the derived average value,
The character motion information includes at least one of a posture, fatigue, and emotion of the character, and a heart rate of the character,
The background information includes at least one of temperature, humidity, and time zone of the background,
The character setting information is an artificial intelligence-based platform providing method for implementing a metaverse digital idol including at least one of gender, age, body type, and size of the character.
제8 항에 있어서,
상기 메타버스 데이터를 이용하여 디지털아이돌 컨텐츠를 생성하고,
상기 디지털아이돌 컨텐츠를 SNS에 업로드하여 레이팅 점수를 산출하고,
상기 레이팅 점수에 따라 보상 점수를 생성하여 상기 메타버스 내의 상기 사용자의 계정에 연동하는 것을 더 포함하는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 방법.
9. The method of claim 8,
Create digital idol contents using the metaverse data,
By uploading the digital idol contents to SNS, the rating score is calculated,
The method of providing an artificial intelligence-based platform for implementing a metaverse digital idol further comprising generating a reward score according to the rating score and linking it to the user's account in the metaverse.
제8 항에 있어서,
상기 디지털아이돌 정보, 상기 모션 정규 데이터, 상기 생체 정규 데이터 및 상기 캐릭터 모션 시퀀스를 통해 클로딩 모션 시퀀스를 생성하는 것을 더 포함하는 메타버스 디지털아이돌을 구현하는 인공지능 기반 플랫폼 제공 방법.
9. The method of claim 8,
The method for providing an artificial intelligence-based platform for implementing a metaverse digital idol further comprising generating a clothing motion sequence through the digital idol information, the motion normal data, the bionormal data, and the character motion sequence.
KR1020210115960A 2021-08-31 2021-08-31 System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof KR102341866B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210115960A KR102341866B1 (en) 2021-08-31 2021-08-31 System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210115960A KR102341866B1 (en) 2021-08-31 2021-08-31 System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof

Publications (1)

Publication Number Publication Date
KR102341866B1 true KR102341866B1 (en) 2021-12-22

Family

ID=79164043

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210115960A KR102341866B1 (en) 2021-08-31 2021-08-31 System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof

Country Status (1)

Country Link
KR (1) KR102341866B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102469274B1 (en) * 2022-06-30 2022-11-22 주식회사 에이펀인터렉티브 Metaverse character making system and method for using biometric information
KR102493882B1 (en) * 2022-08-31 2023-02-01 주식회사 에이펀인터렉티브 Metaverse character making system for using image analysis
KR102493097B1 (en) * 2022-08-01 2023-02-01 주식회사 에이펀인터렉티브 Metaverse character making system and method for image analysis data
KR102495136B1 (en) * 2022-09-23 2023-02-06 주식회사 에이펀인터렉티브 Metaverse character making system for using user tracking and image analysis
KR102509449B1 (en) * 2022-05-25 2023-03-14 주식회사 투바앤 Digital content providing method and server including counterpart custom character control
KR102517395B1 (en) * 2022-06-22 2023-04-04 주식회사 에이펀인터렉티브 Metaverse character making system and method for using biometric information
KR102563699B1 (en) * 2022-08-25 2023-08-03 보잉 자오 System and method for experiencing luxuries based on metaverse
WO2023163314A1 (en) * 2022-02-28 2023-08-31 주식회사 마블러스 Metaverse system for providing evolvable avatar on basis of artificial intelligence model, and method for generating nft for evolvable avatar
KR20230171488A (en) 2022-06-13 2023-12-21 주식회사 코아소프트 Behavioral synchronization apparatus for virtual character of metaverse

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
KR20060032409A (en) * 2004-10-12 2006-04-17 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
KR20120011772A (en) * 2010-07-20 2012-02-08 삼성전자주식회사 Apparatus and method for operating virtual world using vital information
JP2014006874A (en) * 2012-05-30 2014-01-16 Konami Digital Entertainment Co Ltd Server device, avatar information processing method and program
KR20170068741A (en) * 2015-12-10 2017-06-20 주식회사 매니아마인드 Method and program for providing virtual fitting service
KR20200071990A (en) * 2018-12-12 2020-06-22 삼성전자주식회사 Electronic device and method for displaying three dimensions image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
KR20060032409A (en) * 2004-10-12 2006-04-17 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
KR20120011772A (en) * 2010-07-20 2012-02-08 삼성전자주식회사 Apparatus and method for operating virtual world using vital information
JP2014006874A (en) * 2012-05-30 2014-01-16 Konami Digital Entertainment Co Ltd Server device, avatar information processing method and program
KR20170068741A (en) * 2015-12-10 2017-06-20 주식회사 매니아마인드 Method and program for providing virtual fitting service
KR20200071990A (en) * 2018-12-12 2020-06-22 삼성전자주식회사 Electronic device and method for displaying three dimensions image

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023163314A1 (en) * 2022-02-28 2023-08-31 주식회사 마블러스 Metaverse system for providing evolvable avatar on basis of artificial intelligence model, and method for generating nft for evolvable avatar
KR102509449B1 (en) * 2022-05-25 2023-03-14 주식회사 투바앤 Digital content providing method and server including counterpart custom character control
KR20230171488A (en) 2022-06-13 2023-12-21 주식회사 코아소프트 Behavioral synchronization apparatus for virtual character of metaverse
KR102517395B1 (en) * 2022-06-22 2023-04-04 주식회사 에이펀인터렉티브 Metaverse character making system and method for using biometric information
KR102469274B1 (en) * 2022-06-30 2022-11-22 주식회사 에이펀인터렉티브 Metaverse character making system and method for using biometric information
KR102493097B1 (en) * 2022-08-01 2023-02-01 주식회사 에이펀인터렉티브 Metaverse character making system and method for image analysis data
KR102563699B1 (en) * 2022-08-25 2023-08-03 보잉 자오 System and method for experiencing luxuries based on metaverse
KR102493882B1 (en) * 2022-08-31 2023-02-01 주식회사 에이펀인터렉티브 Metaverse character making system for using image analysis
KR102495136B1 (en) * 2022-09-23 2023-02-06 주식회사 에이펀인터렉티브 Metaverse character making system for using user tracking and image analysis

Similar Documents

Publication Publication Date Title
KR102341866B1 (en) System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof
US11688120B2 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
US11406899B2 (en) Virtual character generation from image or video data
US10997787B2 (en) 3D hand shape and pose estimation
Bancroft Creating characters with personality
US11798261B2 (en) Image face manipulation
KR102343582B1 (en) Artificial intelligence-based metaverse contents making system for using biometric information
US20160026926A1 (en) Clothing matching system and method
CN108510437A (en) A kind of virtual image generation method, device, equipment and readable storage medium storing program for executing
KR20220066366A (en) Predictive individual 3D body model
US11836862B2 (en) External mesh with vertex attributes
US11663792B2 (en) Body fitted accessory with physics simulation
KR20230173638A (en) Method, system, and non-transitory computer-readable recording medium for authoring an animation
Brooks Draw with jazza-creating characters: fun and easy guide to drawing cartoons and comics
KR102343581B1 (en) Artificial intelligence-based digital-idol making system for enhancing character reality using biometric information
KR102341863B1 (en) Artificial intelligence-based digital-idol contents making system using biometric information
US11836905B2 (en) Image reenactment with illumination disentanglement
KR102493097B1 (en) Metaverse character making system and method for image analysis data
US20240087266A1 (en) Deforming real-world object using image warping
US20240127563A1 (en) Stylizing a whole-body of a person
Wang A Framework for Realistic Clothed Avatar Reconstruction and Animation
Huang Development of Human-Computer Interaction for Holographic AIs
KR20230124828A (en) A method of providing digital content using metabus platform-based user data and a marketing system linked the thereto
Paweroi et al. 3D Avatar Animation Optimization in Metaverse by Differential Evolution Algorithm
KR20230156268A (en) System for processing information using collective intelligence and method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant