KR102493097B1 - Metaverse character making system and method for image analysis data - Google Patents

Metaverse character making system and method for image analysis data Download PDF

Info

Publication number
KR102493097B1
KR102493097B1 KR1020220095231A KR20220095231A KR102493097B1 KR 102493097 B1 KR102493097 B1 KR 102493097B1 KR 1020220095231 A KR1020220095231 A KR 1020220095231A KR 20220095231 A KR20220095231 A KR 20220095231A KR 102493097 B1 KR102493097 B1 KR 102493097B1
Authority
KR
South Korea
Prior art keywords
data
user
character
motion
metaverse
Prior art date
Application number
KR1020220095231A
Other languages
Korean (ko)
Inventor
권도균
유한
양정석
Original Assignee
주식회사 에이펀인터렉티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이펀인터렉티브 filed Critical 주식회사 에이펀인터렉티브
Priority to KR1020220095231A priority Critical patent/KR102493097B1/en
Application granted granted Critical
Publication of KR102493097B1 publication Critical patent/KR102493097B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0803Recording apparatus specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Cardiology (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • Pulmonology (AREA)
  • Remote Sensing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)

Abstract

Provided is a system and method for creating a metaverse character using image data. The system and method for creating a metaverse character using image data according to the embodiment comprises: a motion capture device for generating motion data by sensing the user's movements; an image generating device for generating image data which captures the user's movements; a biometric information measuring device for measuring the user's biometric information and generating biometric information; a data correction device for generating character motion data associated with the motion of a metaverse character and character rendering data associated with a rendering effect of the metaverse character using the motion data, the image data, and the biometric information data; and a metaverse character implementation device for generating the metaverse character using the character motion data and the character rendering data. Accordingly, the present invention can maximize the reality of characters.

Description

영상 데이터를 이용한 메타버스 캐릭터 제작 시스템 및 방법{Metaverse character making system and method for image analysis data} Metaverse character making system and method for image analysis data}

본 발명은 영상 데이터를 이용한 메타버스 캐릭터 제작 시스템 및 방법에 관한 것이다. 구체적으로, 본 발명은 메타버스 캐릭터 제작 과정에서 연기하는 배우(actor)를 촬영하여 생성된 영상 데이터를 기초로 메타버스 캐릭터의 움직임과 연출 효과를 추가적으로 보정함으로써, 캐릭터의 리얼리티를 극대화하는 메타버스 캐릭터 제작 시스템 및 방법에 관한 것이다.The present invention relates to a metaverse character production system and method using image data. Specifically, the present invention is a metaverse character that maximizes the reality of the character by additionally correcting the motion and directing effect of the metaverse character based on the video data generated by filming the actor acting in the metaverse character production process It relates to a manufacturing system and method.

메타버스 캐릭터 제작은 매우 복잡한 절차를 통해서 이루어진다. 종래의 메타버스 캐릭터 제작의 경우 2D나 3D 컴퓨터 그래픽 영상은 제작자가 동작들을 일일이 수작업으로 만들기 때문에, 시간적/경제적으로 많은 비용이 소요되었으며, 또한 동작간 리얼리티가 부족하다는 단점이 있다.Creating metaverse characters is done through a very complicated process. In the case of conventional metaverse character production, 2D or 3D computer graphic images require a lot of time and money because producers manually make movements one by one, and there is a disadvantage in that reality between movements is insufficient.

그러나, 최근 메타버스 캐릭터 제작 시스템에서는 캐릭터의 리얼리티를 살리기 위해 다양한 방식을 이용하고 있다. 가장 대표적으로 복수의 마커를 부착한 연기자의 움직임을 센싱하여 골격을 생성하고, 미리 구현한 캐릭터 이미지에 생성된 골격을 리깅함으로써 캐릭터에 생동감을 불러 일으키는 작업을 진행하고 있다.However, in the recent metaverse character creation system, various methods are used to bring out the reality of the character. Most representatively, a skeleton is created by sensing the movement of an actor with a plurality of markers attached, and a work of bringing life to a character is in progress by rigging the skeleton created in a previously implemented character image.

최근 메타버스 캐릭터 제작 시스템은 캐릭터의 리얼리티를 살리고, 제작비용을 절감하기 위한 다양한 메타버스 캐릭터 제작의 자동화된 추가적인 처리 과정들이 개발되고 있다.Recently, the metaverse character production system is developing various automated additional processing processes for creating various metaverse characters to save the reality of the character and reduce production costs.

공개특허공보 제10-2004-0096799호Publication No. 10-2004-0096799

본 발명의 과제는, 메타버스 캐릭터의 리얼리티를 극대화하기 위해, 배우의 영상 데이터를 이용하여, 메타버스 캐릭터의 움직임 및 연출 효과를 보정하는 메타버스 제작 시스템을 제공하는 것이다. An object of the present invention, in order to maximize the reality of the metaverse character, using the image data of the actor, to provide a metaverse production system that corrects the motion and directing effect of the metaverse character.

또한, 본 발명의 과제는, 메타버스 캐릭터의 리얼리티를 극대화하기 위해, 연기 도중 변화되는 배우의 운동 상태 및 감정 상태를 반영하여, 메타버스 캐릭터의 움직임 및 연출 효과를 보정하는 메타버스 제작 시스템을 제공하는 것이다. In addition, the subject of the present invention, in order to maximize the reality of the metaverse character, reflects the movement state and emotional state of the actor that changes during acting, and corrects the movement and directing effect of the metaverse character. Provide a production system for the metaverse is to do

또한, 본 발명의 과제는, 메타버스 캐릭터의 리얼리티를 극대화하기 위해, 배우의 영상 데이터를 이용하여, 메타버스 캐릭터의 움직임 및 연출 효과를 보정하는 메타버스 제작 방법을 제공하는 것이다.In addition, an object of the present invention, in order to maximize the reality of the metaverse character, using the video data of the actor, to provide a metaverse production method for correcting the movement and directing effects of the metaverse character.

또한, 본 발명의 과제는, 메타버스 캐릭터의 리얼리티를 극대화하기 위해, 연기 도중 변화되는 배우의 운동 상태 및 감정 상태를 반영하여, 메타버스 캐릭터의 움직임 및 연출 효과를 보정하는 메타버스 제작 방법을 제공하는 것이다. In addition, an object of the present invention is to reflect the movement state and emotional state of the actor that changes during acting in order to maximize the reality of the metaverse character, and correct the movement and directing effect of the metaverse character Provide a method for producing the metaverse is to do

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned above can be understood by the following description and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations indicated in the claims.

본 발명의 실시예에 따른 메타버스 캐릭터 제작 시스템은 사용자의 움직임을 센싱하여 모션 데이터를 생성하는 모션 캡쳐 장치; 상기 사용자의 움직임을 촬영한 영상 데이터를 생성하는 영상 생성 장치; 상기 사용자의 생체 정보를 측정하여 생체 정보 데이터를 생성하는 생체 정보 측정 장치; 상기 모션 데이터, 상기 영상 데이터 및 상기 생체 정보 데이터를 이용하여 메타버스 캐릭터의 모션과 연관된 캐릭터 모션 데이터 및 상기 메타버스 캐릭터의 연출 효과와 연관된 캐릭터 연출 데이터를 생성하는 데이터 보정 장치; 및 상기 캐릭터 모션 데이터 및 상기 캐릭터 연출 데이터를 이용하여, 상기 메타버스 캐릭터를 생성하는 메타버스 캐릭터 구현 장치를 포함한다. A metaverse character production system according to an embodiment of the present invention includes a motion capture device that senses a user's motion and generates motion data; an image generating device for generating image data obtained by photographing the motion of the user; a biometric information measurement device configured to measure biometric information of the user and generate biometric information data; a data correction device for generating character motion data related to the motion of the metaverse character and character directing data related to the directing effect of the metaverse character by using the motion data, the image data, and the biometric information data; And a metaverse character implementation device for generating the metaverse character using the character motion data and the character directing data.

또한, 상기 데이터 보정 장치는 상기 영상 데이터 및 상기 생체 정보 데이터를 이용하여, 상기 사용자의 감정 상태를 결정하는 감정 상태 결정부; 상기 사용자의 운동량에 따른 생체 정보 데이터를 포함하는 생체 정보 기록 데이터를 생성하는 생체 정보 라이브러리; 상기 생체 정보 기록 데이터 및 상기 생체 정보 데이터를 이용하여, 상기 사용자의 운동 상태를 결정하는 운동 상태 결정부; 및 상기 사용자의 감정 상태와 상기 사용자의 운동 상태 중 적어도 하나를 이용하여, 상기 모션 데이터를 보정하여 모션 보정 데이터를 생성하는 모션 보정부를 포함하고, 상기 모션 보정부는 상기 모션 보정 데이터에 기초하여 상기 캐릭터 모션 데이터를 생성할 수 있다. The data correction device may include an emotional state determining unit configured to determine an emotional state of the user by using the image data and the biometric information data; a biometric information library generating biometric information recording data including biometric information data according to the amount of exercise of the user; an exercise state determiner configured to determine an exercise state of the user using the biometric information recording data and the biometric information data; and a motion compensating unit correcting the motion data and generating motion compensating data using at least one of the user's emotional state and the user's athletic state, wherein the motion compensating unit determines the character based on the motion compensating data. Motion data can be generated.

또한, 상기 데이터 보정 장치는 상기 사용자의 운동 상태와, 상기 사용자의 감정 상태 중 적어도 하나를 이용하여, 상기 캐릭터 연출 데이터를 생성하는 효과 보정부를 더 포함할 수 있다.The data correction device may further include an effect correction unit generating the character presentation data using at least one of the user's motion state and the user's emotional state.

또한, 상기 생체 정보 측정 장치는 사용자의 하나 이상의 신체 위치에 대한 체온을 측정하는 체온 측정 모듈; 압력 변화에 따라 상기 사용자의 호흡을 측정하는 호흡 측정 모듈; 및 상기 사용자의 심박을 측정하는 심박 측정 모듈을 포함할 수 있다.In addition, the biometric information measurement device may include a body temperature measurement module for measuring body temperature at one or more body positions of the user; Respiration measurement module for measuring the user's respiration according to the pressure change; and a heart rate measurement module that measures the heart rate of the user.

또한, 상기 생체 정보 데이터는 상기 사용자의 하나 이상의 신체 위치에 대한 체온, 상기 사용자의 호흡 및 상기 사용자의 심박을 포함하며, 상기 체온 측정 모듈, 상기 호흡 측정 모듈 및 상기 심박 측정 모듈은 의류의 형태로 구현되고, 상기 체온 측정 모듈은 상기 사용자의 얼굴, 몸, 팔 및 다리에 대한 체온을 측정하기 위한 전자 섬유 온도 센서를 포함할 수 있다.In addition, the biometric information data includes body temperature for one or more body positions of the user, respiration of the user, and heart rate of the user, and the body temperature measurement module, the respiration measurement module, and the heart rate measurement module are in the form of clothing. implemented, and the body temperature measurement module may include an electronic fiber temperature sensor for measuring the body temperature of the user's face, body, arms and legs.

또한, 상기 감정 상태 결정부는 상기 영상 데이터를 이용하여, 상기 사용자의 감정을 결정하는 제1 감정 분석 모듈; 및 상기 사용자의 생체 정보 데이터를 기초로 상기 사용자의 감정 레벨을 결정하는 제2 감정 분석 모듈을 포함하며, 상기 감정 상태는 상기 사용자의 감정 및 상기 사용자의 감정 레벨을 포함하고, 상기 모션 보정부는 상기 사용자의 감정 및 상기 사용자의 감정 레벨을 고려하여 상기 모션 데이터를 보정하여 상기 모션 보정 데이터를 생성할 수 있다.The emotional state determining unit may include a first emotion analysis module configured to determine the user's emotion using the image data; and a second emotion analysis module for determining an emotion level of the user based on the biometric information data of the user, wherein the emotion state includes the user's emotion and the user's emotion level, and wherein the motion correction unit determines the user's emotion level. The motion compensation data may be generated by correcting the motion data in consideration of the user's emotion and the user's emotion level.

또한, 상기 제1 감정 분석 모듈은 미리 학습된 딥러닝 기반의 감정 분석 모델을 포함하고, 상기 감정 분석 모델을 통해 입력된 영상 데이터를 분석하여 상기 영상 데이터에 포함된 사용자의 감정을 결정하며, 상기 감정 분석 모델은 콘볼루션 신경망 기반의 추출부 및 양방향 콘볼루션 LSTM 기반의 분석부를 포함할 수 있다.In addition, the first emotion analysis module includes a pre-learned deep learning-based emotion analysis model, analyzes image data input through the emotion analysis model, and determines a user's emotion included in the image data; The emotion analysis model may include a convolutional neural network-based extraction unit and a bidirectional convolutional LSTM-based analysis unit.

또한, 상기 감정 상태 결정부는 상기 감정 분석 모델에서 상기 사용자의 감정을 결정하는 것과 연관된 정보를 시각화한 클래스 활성화 맵을 제공하는 데이터 시각화 모듈을 더 포함할 수 있다.The emotional state determination unit may further include a data visualization module providing a class activation map visualizing information related to determining the user's emotion in the emotion analysis model.

또한, 상기 캐릭터 모션 데이터를 수신하고, 상기 캐릭터 모션 데이터를 이용하여 상기 메타버스 캐릭터의 골격 데이터를 생성하는 골격 생성 장치; 및 상기 골격 데이터를 수신하고, 상기 메타버스 캐릭터의 이미지에 상기 골격 데이터를 리깅하여, 캐릭터 리깅 데이터를 생성하는 리타겟 장치를 더 포함하고, 상기 메타버스 캐릭터 구현 장치는 상기 캐릭터 리깅 데이터를 이용하여 상기 메타버스 캐릭터의 모션을 구현하고, 상기 캐릭터 연출 데이터를 이용하여 상기 메타버스 캐릭터의 연출 효과를 구현할 수 있다. In addition, a skeleton generating device for receiving the character motion data and generating skeleton data of the metaverse character using the character motion data; And a retarget device that receives the skeleton data and rigs the skeleton data to the image of the metaverse character to generate character rigging data, wherein the metaverse character implementation device uses the character rigging data It is possible to implement the motion of the metaverse character and implement the directing effect of the metaverse character using the character directing data.

본 발명의 다른 실시예에 따른 메타버스 캐릭터 제작 방법은 사용자의 운동량에 따른 생체 정보 데이터를 포함하는 생체 정보 기록 데이터를 생성하는 단계; 상기 사용자의 움직임을 센싱하여 모션 데이터를 수집하고, 상기 사용자의 생체 정보를 측정하여 생체 정보 데이터를 수집하며, 상기 사용자의 움직임을 촬영한 영상 데이터를 생성하는 단계; 상기 영상 데이터 및 상기 생체 정보 데이터를 이용하여, 상기 사용자의 감정 상태를 결정하는 단계; 상기 생체 정보 기록 데이터 및 상기 생체 정보 데이터를 이용하여, 상기 사용자의 운동 상태를 결정하는 단계; 상기 사용자의 운동 상태 및 상기 사용자의 감정 상태 중 적어도 하나를 이용하여, 메타버스 캐릭터의 모션과 연관된 캐릭터 모션 데이터와 상기 메타버스 캐릭터의 연출 효과와 연관된 캐릭터 연출 데이터를 생성하는 단계; 및 상기 캐릭터 모션 데이터와 상기 캐릭터 연출 데이터를 이용하여, 메타버스 캐릭터를 구현하는 단계를 포함할 수 있다. A metaverse character production method according to another embodiment of the present invention includes generating biometric information recording data including biometric information data according to a user's momentum; sensing motion of the user to collect motion data, measuring biometric information of the user to collect biometric information data, and generating image data obtained by photographing the motion of the user; determining an emotional state of the user using the image data and the biometric information data; determining an exercise state of the user using the biometric information recording data and the biometric information data; Generating character motion data associated with the motion of the metaverse character and character directing data associated with the directing effect of the metaverse character, using at least one of the user's motion state and the user's emotional state; and implementing a metaverse character using the character motion data and the character directing data.

본 발명의 메타버스 캐릭터 제작 시스템은, 연기를 수행하는 사용자의 현재 상태를 반영하여, 메타버스 캐릭터의 움직임과 연출 효과에 적용하므로 캐릭터의 리얼리티를 극대화할 수 있다.The metaverse character production system of the present invention reflects the current state of the user performing the acting and applies it to the movement and directing effect of the metaverse character, so that the reality of the character can be maximized.

또한, 사용자의 현재 상태는 지속적으로 갱신되므로, 상황 변화에 따른 연출을 손쉽게 수행할 수 있다.In addition, since the current state of the user is continuously updated, it is possible to easily perform production according to the situation change.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above description, specific effects of the present invention will be described together while explaining specific details for carrying out the present invention.

도 1은 본 발명의 몇몇 실시예에 따른 영상 데이터를 이용한 메타버스 캐릭터 제작 시스템을 개략적으로 설명하기 위한 도면이다.
도 2는 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치의 구성을 설명하기 위한 예시적인 도면이다.
도 3은 본 발명의 몇몇 실시예에 따른 생체 정보 측정 장치의 구성을 설명하기 위한 예시적인 도면이다.
도 4는 본 발명의 몇몇 실시예에 따른 데이터 보정 장치의 구성을 설명하기 위한 예시적인 도면이다.
도 5는 몇몇 실시예에 따른 감정 상태 결정부의 구성을 도시한 블록도이다.
도 6은 감정 분석 모델을 설명하기 위한 예시도이다.
도 7은 본 발명의 몇몇 실시예에 따른 사용자의 체온 측정 위치를 설명하기 위한 도면이다.
도 8은 매핑 테이블로 구성된 감정 레벨 분석 모델을 예시적으로 나타내는 도면이다.
도 9는 본 발명의 몇몇 실시예에 따른 생체 정보 기록 데이터에 대해 운동 상태 구간을 정의하는 과정을 설명하기 위한 예시적인 도면이다.
도 10은 본 발명의 몇몇 실시예에 따른 모션 보정부의 구성을 설명하기 위한 예시적인 도면이다.
도 11은 본 발명의 몇몇 실시예에 따른 효과 보정부의 구성을 설명하기 위한 예시적인 도면이다.
도 12는 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터의 제작 방법에 대해 설명하기 위한 도면이다.
1 is a diagram for schematically explaining a metaverse character production system using image data according to some embodiments of the present invention.
2 is an exemplary diagram for explaining the configuration of a motion capture device according to some embodiments of the present invention.
3 is an exemplary diagram for explaining the configuration of a device for measuring biometric information according to some embodiments of the present invention.
4 is an exemplary diagram for explaining a configuration of a data compensating apparatus according to some embodiments of the present invention.
5 is a block diagram illustrating the configuration of an emotional state determining unit according to some embodiments.
6 is an exemplary diagram for explaining an emotion analysis model.
7 is a diagram for explaining a user's body temperature measurement position according to some embodiments of the present invention.
8 is a diagram exemplarily illustrating an emotion level analysis model composed of a mapping table.
9 is an exemplary diagram for explaining a process of defining an exercise state section for biometric information recording data according to some embodiments of the present invention.
10 is an exemplary diagram for explaining the configuration of a motion compensation unit according to some embodiments of the present invention.
11 is an exemplary diagram for explaining the configuration of an effect correction unit according to some embodiments of the present invention.
12 is a diagram for explaining a method of producing a metaverse character according to some embodiments of the present invention.

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. According to the principle that an inventor may define a term or a concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical spirit of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all of the technical spirit of the present invention, so they can be replaced at the time of the present application. It should be understood that there may be many equivalents and variations and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in this specification and claims may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The term 'and/or' includes a combination of a plurality of related recited items or any one of a plurality of related recited items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. It should be understood that terms such as "include" or "having" in this application do not exclude in advance the possibility of existence or addition of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, it should not be interpreted in an ideal or excessively formal meaning. don't

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not contradict each other technically.

본 발명은 메타버스 캐릭터 제작 시스템 및 방법에 관한 것으로, '메타버스 캐릭터 제작'은 메타버스, 가상현실, 증강현실 혹은 확장현실에서 이용되는 메타버스 캐릭터의 움직임 및 연출 효과를 포함하는 동적 이미지의 제작을 의미할 수 있다. 다시 말해서, 본 명세서에서 '메타버스 캐릭터'는 2D 또는 3D로 구현된 가상의 디지털 아이돌 캐릭터, 게임 캐릭터 등을 포함할 수 있다.The present invention relates to a metaverse character production system and method, and 'metaverse character production' is the production of dynamic images including movement and directing effects of metaverse characters used in metaverse, virtual reality, augmented reality or expanded reality. can mean In other words, in this specification, a 'metaverse character' may include a virtual digital idol character implemented in 2D or 3D, a game character, and the like.

이하, 도 1 내지 도 12를 참조하여, 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터 제작 시스템 및 방법을 설명한다.Hereinafter, with reference to FIGS. 1 to 12, a metaverse character production system and method according to some embodiments of the present invention will be described.

도 1은 본 발명의 몇몇 실시예에 따른 영상 데이터를 이용한 메타버스 캐릭터 제작 시스템을 개략적으로 설명하기 위한 도면이다. 1 is a diagram for schematically explaining a metaverse character production system using image data according to some embodiments of the present invention.

도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 영상 데이터를 이용한 메타버스 캐릭터 제작 시스템(1)은 모션 캡쳐 장치(100), 생체 정보 측정 장치(200), 영상 생성 장치(300), 데이터 보정 장치(400), 골격 생성 장치(500), 리타겟 장치(600), 메타버스 캐릭터 구현 장치(700) 및 데이터 백업 장치(800)를 포함할 수 있다. Referring to FIG. 1, the metaverse character production system 1 using image data according to some embodiments of the present invention includes a motion capture device 100, a biometric information measuring device 200, an image generating device 300, data It may include a calibration device 400, a skeleton generating device 500, a retarget device 600, a metaverse character implementation device 700, and a data backup device 800.

메타버스 캐릭터 제작 시스템(1)은 모션 캡쳐 장치(100)를 통해 연기를 수행하는 사용자의 움직임에 따라 모션 데이터(MC_Data)를 생성할 수 있다. 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)는 데이터 보정 장치(400) 및 데이터 백업 장치(800)에 제공될 수 있다. 생체 정보 측정 장치(200)는 연기를 수행하는 사용자에게 부착되고, 연기를 수행하는 사용자의 생체 정보를 측정하여, 생체 정보 데이터(BM_Data)를 생성할 수 있다. 생체 정보 데이터(BM_Data)는 데이터 보정 장치(400) 및 데이터 백업 장치(800)에 제공될 수 있다. 영상 생성 장치(300)는 연기를 수행하는 사용자를 촬영하여 영상 데이터(VD_Data)를 생성할 수 있다. 영상 생성 장치(300)는 사용자의 움직임을 촬영한 영상 데이터(VD_Data)를 생성할 수 있다. 데이터 보정 장치(400)는 모션 데이터(MC_Data), 영상 데이터(VD_Data) 및 생체 정보 데이터(BM_Data)를 이용하여, 캐릭터 모션 데이터(CB_Data#1) 및 캐릭터 연출 데이터(CB_Data#2)를 생성할 수 있다. 캐릭터 모션 데이터(CB_Data#1)는 골격 생성 장치(500)에 제공되고, 골격 생성 장치(500)은 캐릭터 모션 데이터(CB_Data#1)를 이용하여 골격 데이터(SK_Data)를 생성할 수 있다. 골격 생성 장치(500)에서 생성된 골격 데이터(SK_Data)는 리타겟 장치(600)에 제공되고, 리타겟 장치(600)은 골격 데이터(SK_Data)를 미리 설정한 메타버스 캐릭터에 리깅하여, 메타버스 캐릭터 리깅 데이터(CR_Data)를 생성할 수 있다. 메타버스 캐릭터 리깅 데이터(CR_Data)는 메타버스 캐릭터 구현 장치(700)에 제공되고, 메타버스 캐릭터 구현 장치(700)은 메타버스 캐릭터 리깅 데이터(CR_Data)를 이용하여, 메타버스 캐릭터(M_C)를 생성할 수 있다.The metaverse character creation system 1 may generate motion data (MC_Data) according to the motion of the user who performs acting through the motion capture device 100 . Motion data MC_Data generated by the motion capture device 100 may be provided to the data correction device 400 and the data backup device 800 . The biometric information measuring device 200 may be attached to a user performing a performance, measure biometric information of a user performing a performance, and generate biometric information data BM_Data. Biometric information data BM_Data may be provided to the data correction device 400 and the data backup device 800 . The video generating device 300 may generate video data VD_Data by photographing a user performing a performance. The image generating device 300 may generate image data VD_Data obtained by photographing a user's motion. The data correction device 400 may generate character motion data (CB_Data#1) and character directing data (CB_Data#2) using motion data (MC_Data), video data (VD_Data), and biometric information data (BM_Data). there is. The character motion data CB_Data#1 is provided to the skeleton generating device 500, and the skeleton generating device 500 may generate the skeleton data SK_Data using the character motion data CB_Data#1. Skeleton data (SK_Data) generated by the skeleton generation device 500 is provided to the retarget device 600, and the retarget device 600 rigs the skeleton data (SK_Data) to a preset metaverse character, metaverse Character rigging data (CR_Data) can be created. The metaverse character rigging data (CR_Data) is provided to the metaverse character implementation device 700, and the metaverse character implementation device 700 uses the metaverse character rigging data (CR_Data) to generate a metaverse character (M_C). can do.

몇몇 실시예에 따르면, 모션 캡쳐 장치(100), 생체 정보 측정 장치(200), 영상 생성 장치(300), 데이터 보정 장치(400), 골격 생성 장치(500), 리타겟 장치(600), 메타버스 캐릭터 구현 장치(700) 및 데이터 백업 장치(800)은 네트워크를 통해 서로 데이터를 교환할 수 있다. 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.According to some embodiments, a motion capture device 100, a biometric information measuring device 200, an image generating device 300, a data correction device 400, a skeleton generating device 500, a retargeting device 600, a meta The bus character implementation device 700 and the data backup device 800 may exchange data with each other through a network. Data can be transmitted over the network. The network may include a network based on wired Internet technology, wireless Internet technology, and short-range communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies include, for example, Wireless LAN (WLAN), Digital Living Network Alliance (DLNA), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), and High Speed Downlink Packet (HSDPA). Access), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) And it may include at least one of 5G New Radio (NR) technology. However, this embodiment is not limited thereto.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) can include However, this embodiment is not limited thereto.

네트워크를 통해서 통신하는 영상 데이터를 이용한 메타버스 캐릭터 제작 시스템(1)은 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The metaverse character production system 1 using image data that communicates through a network can comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only) At least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) can include However, this embodiment is not limited thereto.

모션 캡쳐 장치(100)는 연기를 수행하는 사용자(이하, 사용자)의 몸에 센서 및/또는 마커를 부착하여, 사용자의 움직임을 데이터로 기록할 수 있다. 다시 말해서, 모션 캡쳐 장치(100)는 사용자의 움직임을 센싱하여, 모션 데이터(MC_Data)를 생성할 수 있다. 모션 데이터(MC_Data)는 사용자의 골격의 움직임을 표현하는 데이터일 수 있다.The motion capture device 100 may attach a sensor and/or a marker to the body of a user performing a performance (hereinafter referred to as a user) and record the movement of the user as data. In other words, the motion capture device 100 may sense the user's motion and generate motion data MC_Data. The motion data MC_Data may be data representing motion of the user's skeleton.

예를 들어, 모션 캡쳐 장치(100)는 광학식, 자기식 및/또는 관성식 모션 캡쳐 장치로 구현될 수 있다. 광학식 모션 캡쳐 장치는, 마커 및 카메라를 포함할 수 있다. 광학식 모션 캡쳐 장치는 마커를 부착한 사용자의 움직임을 하나 이상의 카메라로 촬상하고, 삼각측량법을 통해 사용자에게 부착된 마커의 삼차원적 좌표를 역산하여 모션 데이터(MC_Data)를 생성하는 장치일 수 있다. 자기식 모션 캡쳐 장치는 사용자의 관절 등에 자기장을 계측할 수 있는 센서를 부착한 뒤 자기장 발생 장치 근처에서 각 센서의 자기장 변화량을 계산하여 움직임을 측정함으로써 모션 데이터(MC_Data)를 생성하는 장치일 수 있다. 관성식 모션 캡쳐 장치는 가속도 센서, 자이로 센서 및 지자기센서를 포함하는 관성 센서를 사용자의 관절 등에 부착하여, 사용자의 움직임, 회전 및/또는 방향을 읽어내어 모션 데이터(MC_Data)를 생성하는 장치일 수 있다. 다만, 상술한 광학식, 자기식 및 관성식 모션 캡쳐 장치는, 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치(100)가 구현될 수 있는 일례를 설명한 것일 뿐, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 모션 캡쳐 장치(100)는 인공지능을 이용한 영상 처리 기술을 이용하거나, 이를 광학식, 자기식 및/또는 관성식 모션 캡쳐 장치(100)와 병행하여 모션 데이터(MC_Data)를 생성할 수도 있을 것이다. 이하에서는, 설명의 편의를 위해, 모션 캡쳐 장치(100)는 마커 및 카메라를 포함하는 광학식 모션 캡쳐 장치인 것을 가정하여 설명한다.For example, the motion capture device 100 may be implemented as an optical, magnetic, and/or inertial motion capture device. An optical motion capture device may include a marker and a camera. The optical motion capture device may be a device that captures a motion of a user attached with a marker using one or more cameras and generates motion data MC_Data by inverting the three-dimensional coordinates of the marker attached to the user through triangulation. The magnetic motion capture device may be a device that generates motion data (MC_Data) by attaching a sensor capable of measuring a magnetic field to a user's joint, etc., and then measuring a movement by calculating the amount of change in the magnetic field of each sensor near the magnetic field generating device. . An inertial motion capture device may be a device that attaches an inertial sensor including an acceleration sensor, a gyro sensor, and a geomagnetic sensor to a user's joint, reads the user's movement, rotation, and/or direction and generates motion data (MC_Data). there is. However, the above-described optical, magnetic, and inertial motion capture devices are merely examples in which the motion capture device 100 according to some embodiments of the present invention can be implemented, and the embodiments are not limited thereto. For example, the motion capture device 100 may generate motion data (MC_Data) by using an image processing technology using artificial intelligence or in parallel with the optical, magnetic, and/or inertial motion capture device 100. There will be. Hereinafter, for convenience of description, it is assumed that the motion capture device 100 is an optical motion capture device including a marker and a camera.

몇몇 실시예에 따르면, 모션 캡쳐 장치(100)는 사용자의 행동을 센싱하거나, 사용자의 표정 변화를 센싱하거나, 사용자의 손 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 예시적인 설명을 위해, 도 2를 더 참조한다.According to some embodiments, the motion capture device 100 may generate motion data MC_Data by sensing a user's action, a user's facial expression change, or a user's hand movement. For illustrative explanation, further reference is made to FIG. 2 .

도 2는 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치의 구성을 설명하기 위한 예시적인 도면이다. 2 is an exemplary diagram for explaining the configuration of a motion capture device according to some embodiments of the present invention.

도 2를 참조하면, 모션 캡쳐 장치(100)는 바디 캡쳐 모듈(110), 페이셜 캡쳐 모듈(120) 및 핸드 캡쳐 모듈(130)을 포함할 수 있다. 바디 캡쳐 모듈(110)은 사용자의 행동을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 다시 말해서, 바디 캡쳐 모듈(110)은 머리, 목, 팔, 몸, 다리 등 사용자의 신체의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 예를 들어, 바디 캡쳐 모듈(110)은 사용자가 특정 행동(걷기, 뛰기, 기기, 앉기, 서기, 눕기, 춤추기, 싸우기, 발길질하기, 팔 휘두르기 등)을 할 때의 머리, 목, 팔, 몸, 다리 등의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 바디 캡쳐 모듈(110)은 예를 들어, 사용자의 신체에 마커를 부착하고, 이를 센싱하여 모션 데이터(MC_Data)를 생성할 수 있으나, 실시예가 이에 제한되는 것은 아니다. Referring to FIG. 2 , the motion capture device 100 may include a body capture module 110 , a facial capture module 120 and a hand capture module 130 . The body capture module 110 may generate motion data MC_Data by sensing a user's action. In other words, the body capture module 110 may generate motion data MC_Data by sensing movements of the user's body such as the head, neck, arms, body, and legs. For example, the body capture module 110 captures the head, neck, arms, and legs when a user performs a specific action (walking, running, crawling, sitting, standing, lying down, dancing, fighting, kicking, arm swinging, etc.). Motion data (MC_Data) may be generated by sensing movements of the body, legs, and the like. For example, the body capture module 110 may attach a marker to the user's body and generate motion data MC_Data by sensing the marker, but the embodiment is not limited thereto.

페이셜 캡쳐 모듈(120)은 사용자의 표정 변화를 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 다시 말해서, 페이셜 캡쳐 모듈(120)은 사용자의 얼굴의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 예를 들어, 페이셜 캡쳐 모듈(120)은 사용자의 특정 표정(우는 표정, 웃는 표정, 놀란 표정, 화난 표정, 경멸하는 표정, 아쉬운 표정, 사랑스러운 표정, 혐오하는 표정 등)에서의 얼굴의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 페이셜 캡쳐 모듈(120)은 예를 들어, 사용자의 얼굴에 마커를 부착하고 이를 센싱한 데이터와, 사용자의 얼굴 표정에 대한 영상 처리 기술을 추가적으로 이용하여 모션 데이터(MC_Data)를 생성할 수 있으나, 실시예가 이에 제한되는 것은 아니다.The facial capture module 120 may generate motion data MC_Data by sensing a change in facial expression of the user. In other words, the facial capture module 120 may generate motion data MC_Data by sensing the movement of the user's face. For example, the facial capture module 120 captures facial movements in a user's specific facial expression (a crying expression, a smiling expression, a surprised expression, an angry expression, a contemptuous expression, a regretful expression, a loving expression, a disgusting expression, etc.) Motion data (MC_Data) may be generated by sensing. The facial capture module 120 may generate motion data (MC_Data) by additionally using data obtained by attaching a marker to the user's face and sensing the marker and an image processing technology for the user's facial expression, for example. Examples are not limited thereto.

핸드 캡쳐 모듈(130)은 사용자의 손 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 다시 말해서, 핸드 캡쳐 모듈(130)은 사용자의 손 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 예를 들어, 핸드 캡쳐 모듈(130)은 사용자의 손 동작(손가락 오므리기, 손가락 펴기 등)에서의 손가락 마디의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 핸드 캡쳐 모듈(130)은 예를 들어, 손가락 관절의 움직임을 센싱할 수 있는 특수 장갑 또는 웨어러블 장치로 구현될 수 있으나, 실시예가 이에 제한되는 것은 아니다.The hand capture module 130 may generate motion data MC_Data by sensing the motion of the user's hand. In other words, the hand capture module 130 may generate motion data MC_Data by sensing the motion of the user's hand. For example, the hand capture module 130 may generate motion data MC_Data by sensing a motion of a finger joint in a user's hand motion (clamping a finger, extending a finger, etc.). The hand capture module 130 may be implemented as, for example, a special glove or a wearable device capable of sensing motion of a finger joint, but the embodiment is not limited thereto.

다시 도 1을 참조하면, 생체 정보 측정 장치(200)는 사용자의 생체 정보를 측정할 수 있다. 생체 정보는 예를 들어, 심박수, 호흡수 및/또는 체온을 포함할 수 있다. 생체 정보 측정 장치(200)는 측정한 사용자의 생체 정보를 기록하여, 생체 정보 데이터(BM_Data)를 생성할 수 있다. 다시 말해서, 생체 정보 측정 장치(200)는 사용자의 심박, 호흡 및/또는 체온을 측정하여, 이를 생체 정보 데이터(BM_Data)로 생성할 수 있다. 생체 정보 데이터(BM_Data)는 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)를 보정하는데 이용될 수 있다. 예시적인 설명을 위해 도 3을 더 참조한다.Referring back to FIG. 1 , the biometric information measurement device 200 may measure the user's biometric information. Biometric information may include, for example, heart rate, respiratory rate, and/or body temperature. The biometric information measuring device 200 may generate biometric information data BM_Data by recording the measured user's biometric information. In other words, the biometric information measurement device 200 may measure the user's heartbeat, respiration, and/or body temperature and generate the biometric information data BM_Data. The biometric information data BM_Data may be used to correct the motion data MC_Data generated by the motion capture device 100 . Further reference is made to FIG. 3 for illustrative explanation.

도 3은 본 발명의 몇몇 실시예에 따른 생체 정보 측정 장치의 구성을 설명하기 위한 예시적인 도면이다. 3 is an exemplary diagram for explaining the configuration of a device for measuring biometric information according to some embodiments of the present invention.

도 3을 참조하면, 본 발명의 몇몇 실시예에 따른 생체 정보 측정 장치(200)는 체온 측정 모듈(210), 호흡 측정 모듈(220) 및 심박 측정 모듈(230)을 포함할 수 있다.Referring to FIG. 3 , the biometric information measurement device 200 according to some embodiments of the present invention may include a body temperature measurement module 210, a respiration measurement module 220, and a heart rate measurement module 230.

몇몇 실시예에 따르면, 체온 측정 모듈(210)은 전자섬유 온도 센서를 포함할 수 있다. 체온 측정 모듈(210)은 사용자의 하나 이상의 신체 위치에 대한 체온을 측정할 수 있다. 예를 들어, 체온 측정 모듈(210)은 전자섬유 온도 센서를 포함하므로, 사용자의 행동에 제약을 최소화하는 의류 형태, 장갑 형태, 양말 형태 등으로 구현될 수 있다.According to some embodiments, the body temperature measuring module 210 may include an electronic fiber temperature sensor. The body temperature measurement module 210 may measure the body temperature of one or more body positions of the user. For example, since the body temperature measurement module 210 includes an electronic fiber temperature sensor, it may be implemented in the form of clothes, gloves, socks, etc. that minimize restrictions on user's actions.

몇몇 실시예에 따르면, 호흡 측정 모듈(220)은 전자섬유 압력 센서 또는 실리콘 기반의 액체금속 센서를 포함할 수 있다. 호흡 측정 모듈(220)은 사용자의 가슴 부위에 부착될 수 있다. 사용자는 흡기 시 흉부의 부피가 커져 가슴 부위에 부착된 호흡 측정 모듈(220)에 압력을 가할 수 있고, 호기 시 흉부의 부피가 작아져 호흡 측정 모듈(220)에 전달되는 압력이 감소할 수 있다. 따라서, 사용자의 가슴 부위에 부착된 호흡 측정 모듈(220)은 센싱되는 압력의 차이를 기초로, 사용자의 호기 및 흡기를 인식할 수 있으며, 이에 따라 사용자의 호흡수를 측정할 수 있다. 예를 들어, 호흡 측정 모듈(220)은 의류 형태 또는 가슴 보호대 형태로 구현될 수 있다. According to some embodiments, the respiration measurement module 220 may include an electronic fiber pressure sensor or a silicon-based liquid metal sensor. Respiration measurement module 220 may be attached to the user's chest area. The user can apply pressure to the respiration measurement module 220 attached to the chest as the volume of the chest increases during inhalation, and the volume of the chest decreases during expiration, thereby reducing the pressure transmitted to the respiration measurement module 220. . Accordingly, the respiration measurement module 220 attached to the user's chest may recognize the user's exhalation and inspiration based on the difference in the sensed pressure, and accordingly measure the user's respiratory rate. For example, the breathing measurement module 220 may be implemented in the form of clothing or a chest protector.

몇몇 실시예에 따르면, 심박 측정 모듈(230)은 심전도법, 광전 맥파법, 혈압계법 또는 심음도법에 따라 사용자의 심박수를 측정할 수 있다. 예를 들어, 심박 측정 모듈(230)은 사용자의 행동에 제약을 최소화하도록, 손목 시계 또는 손목 밴드형 웨어러블 장치로 구현될 수 있다. 다른 예를 들어, 심박 측정 모듈(230)은 전자섬유 심박 센서를 이용한 의류 형태로 구현될 수 있다.According to some embodiments, the heart rate measurement module 230 may measure the user's heart rate according to an electrocardiogram method, a photoelectric pulse wave method, a sphygmomanometer method, or an echocardiogram method. For example, the heart rate measurement module 230 may be implemented as a wristwatch or a wristband-type wearable device to minimize restrictions on a user's behavior. For another example, the heart rate measurement module 230 may be implemented in the form of clothing using an electronic fiber heart rate sensor.

몇몇 실시예에 따르면, 생체 정보 측정 장치(200)는 의류 형태로 구현될 수 있다. 이때, 의류 형태의 생체 정보 측정 장치(200)는, 의류의 가슴 부위에 호흡 측정 모듈(220)이 위치하고, 의류의 손목 부위에 심박 측정 모듈(230)이 위치하고, 사용자의 신체의 제1 위치 내지 제4 위치에 대응하여 체온 측정 모듈(210)이 위치할 수 있다. According to some embodiments, the biometric information measuring device 200 may be implemented in the form of clothing. At this time, the biometric information measurement device 200 in the form of clothing has a respiration measurement module 220 located on the chest of the clothing, a heart rate measurement module 230 located on the wrist of the clothing, and a first position of the user's body Corresponding to the fourth position, the body temperature measurement module 210 may be located.

생체 정보 측정 장치(200)가 의류 형태로 구현되는 경우, 모션 캡쳐 장치(100)에 포함된 마커는, 생체 정보 측정 장치(200) 상에 부착될 수 있다. 다시 말해서, 의류 형태의 생체 정보 측정 장치(200) 상에 마커가 부착될 수 있다. When the biometric information measuring device 200 is implemented in the form of clothing, a marker included in the motion capture device 100 may be attached to the biometric information measuring device 200 . In other words, a marker may be attached to the clothing-type biometric information measurement device 200 .

이상, 체온 측정 모듈(210), 호흡 측정 모듈(220) 및 심박 측정 모듈(230)의 구현예에 대해 설명하였으나, 이는 단순히 예시적인 것일 뿐 실시예가 이에 제한되는 것은 아니다. 본 발명의 기술 분야에서 통상의 지식을 가진 자는 본 발명의 범위를 벗어나지 않고, 상술한 방식 외의 다른 기술을 통해 체온 측정 모듈(210), 호흡 측정 모듈(220) 및 심박 측정 모듈(230)을 구현할 수 있을 것이다. Above, the implementation of the body temperature measurement module 210, respiration measurement module 220, and heart rate measurement module 230 has been described, but this is merely exemplary and the embodiments are not limited thereto. Those skilled in the art can implement the body temperature measuring module 210, the respiration measuring module 220, and the heart rate measuring module 230 through techniques other than the above-described method without departing from the scope of the present invention. You will be able to.

다시 도 1을 참조하면, 영상 생성 장치(300)는 사용자의 움직임을 촬영한 영상 데이터(VD_Data)를 생성할 수 있다. 영상 생성 장치(300)는 이미지 센서 기반의 카메라를 포함하여 사용자를 촬영한 영상 데이터(VD_Data)를 생성할 수 있다. 모션 캡쳐 장치(100)를 착용하고 연기를 수행하는 사용자의 움직임을 촬영하여 영상 데이터(VD_Data)를 생성할 수 있다. 여기서, 사용자의 움직임은 사용자의 신체 변화 및 표정 변화 중 적어도 하나를 포함할 수 있다. 예를 들어, 영상 생성 장치(300)는 사용자의 신체 변화를 전체적으로 확인할 수 있도록, 사용자 신체 모두가 영상 생성 장치(300)의 카메라의 화각에 포함되도록 설정하여 영상 데이터(VD_Data)를 생성할 수 있다. 다만, 이에 한정되는 것은 아니며, 영상 생성 장치(300)는 사용자의 표정 변화를 구체적으로 확인할 수 있도록, 사용자의 얼굴만이 영상 생성 장치(300)의 카메라의 화각에 포함되도록 설정하여 영상 데이터(VD_Data)를 생성할 수 있다. 영상 생성 장치(300)를 통해 연기를 수행하는 사용자의 움직임을 영상으로 기록할 수 있게 되며, 연기를 수행하는 사용자의 감정을 더욱 정확하게 분석할 수 있는 데이터가 수집되게 된다. Referring back to FIG. 1 , the image generating device 300 may generate image data VD_Data obtained by photographing a user's motion. The image generating device 300 may generate image data (VD_Data) photographing a user by including an image sensor-based camera. Video data (VD_Data) may be generated by photographing a motion of a user wearing the motion capture device 100 and performing a performance. Here, the movement of the user may include at least one of a change in the user's body and a change in facial expression. For example, the image generating device 300 may generate the image data VD_Data by setting the entire body of the user to be included in the angle of view of the camera of the image generating device 300 so as to check the change of the user's body as a whole. . However, it is not limited thereto, and the image generating device 300 sets only the user's face to be included in the angle of view of the camera of the image generating device 300 so that the user's facial expression change can be confirmed in detail, and the image data (VD_Data ) can be created. Through the video generating device 300, the movement of the user performing the performance can be recorded as an image, and data that can more accurately analyze the user's emotion performing the performance is collected.

데이터 보정 장치(400)는 모션 캡쳐 장치(100)로부터 모션 데이터(MC_Data)를 수신할 수 있다. 또한, 데이터 보정 장치(400)는 생체 정보 측정 장치(200)로부터 생체 정보 데이터(BM_Data)를 수신할 수 있다. 또한, 데이터 보정 장치(300)는 영상 생성 장치(300)로부터 영상 데이터(VD_Data)를 수신할 수 있다.The data correction device 400 may receive motion data MC_Data from the motion capture device 100 . Also, the data compensating device 400 may receive biometric information data BM_Data from the biometric information measuring device 200 . Also, the data compensating device 300 may receive image data VD_Data from the image generating device 300 .

데이터 보정 장치(400)는 모션 데이터, 영상 데이터 및 생체 정보 데이터를 이용하여 메타버스 캐릭터의 모션과 연관된 캐릭터 모션 데이터 및 상기 메타버스 캐릭터의 연출 효과와 연관된 캐릭터 연출 데이터를 생성할 수 있다. The data correction device 400 may generate character motion data related to the motion of the metaverse character and character presentation data related to the directing effect of the metaverse character by using motion data, image data, and biometric information data.

몇몇 실시예에 따르면, 데이터 보정 장치(400)는 수신한 생체 정보 데이터(BM_Data) 및 영상 데이터(VD_Data) 중 적어도 하나를 기초로, 모션 데이터(MC_Data)를 보정할 수 있다. 다시 말해서, 데이터 보정 장치(400)는 생체 정보 데이터(BM_Data) 및 영상 데이터(VD_Data) 중 적어도 하나를 이용하여 모션 데이터(MC_Data)의 적어도 일부를 보정하여, 모션 보정 데이터를 생성할 수 있다. 모션 보정 데이터를 기초로 캐릭터 모션 데이터(CB_Data#1)가 생성될 수 있다. 캐릭터 모션 데이터(CB_Data#1)는 골격 생성 장치(500)에 제공되어, 사실감과 생동감 있는 메타버스 캐릭터의 골격 움직임을 생성하는데 이용될 수 있다.According to some embodiments, the data correction device 400 may correct motion data MC_Data based on at least one of received biometric information data BM_Data and image data VD_Data. In other words, the data correction device 400 may generate motion correction data by correcting at least a part of the motion data MC_Data using at least one of the biometric information data BM_Data and the image data VD_Data. Character motion data (CB_Data#1) may be generated based on the motion compensation data. The character motion data (CB_Data#1) is provided to the skeleton generating device 500 and can be used to generate realistic and lively skeleton movements of the metaverse character.

또한, 몇몇 실시예에 따르면, 데이터 보정 장치(400)는 수신한 생체 정보 데이터(BM_Data) 및 영상 데이터(VD_Data) 중 적어도 하나를 기초로, 메타버스 캐릭터 구현 장치(700)에서의 캐릭터 효과를 보정하기 위한 캐릭터 연출 데이터(CB_Data#2)를 생성할 수 있다. 캐릭터 연출 데이터(CB_Data#2)는 메타버스 캐릭터 구현 장치(700)에서의 사실감과 생동감 있는 캐릭터 연출 효과(예를 들어, 피부 색 등)를 추가적으로 보정하는데 이용될 수 있다. In addition, according to some embodiments, the data correction device 400 corrects the character effect in the metaverse character implementation device 700 based on at least one of the received biometric information data (BM_Data) and image data (VD_Data). Character presentation data (CB_Data#2) for this can be created. The character directing data (CB_Data#2) can be used to additionally correct realism and lively character directing effects (eg, skin color, etc.) in the metaverse character implementation device 700 .

이하, 도 4 내지 도 10을 참조하여, 데이터 보정 장치(400)의 구체적인 동작, 캐릭터 모션 데이터(CB_Data#1)와 캐릭터 연출 데이터(CB_Data#2)의 생성 과정에 대해 더욱 상세히 설명하도록 한다.Hereinafter, with reference to FIGS. 4 to 10 , a specific operation of the data correction device 400 and a process of generating character motion data (CB_Data#1) and character presentation data (CB_Data#2) will be described in more detail.

도 4는 본 발명의 몇몇 실시예에 따른 데이터 보정 장치의 구성을 설명하기 위한 예시적인 도면이다. 도 5는 몇몇 실시예에 따른 감정 상태 결정부의 구성을 도시한 블록도이다. 도 6은 감정 분석 모델을 설명하기 위한 예시도이다. 도 7은 본 발명의 몇몇 실시예에 따른 사용자의 체온 측정 위치를 설명하기 위한 도면이다. 도 8은 매핑 테이블로 구성된 감정 레벨 분석 모델을 예시적으로 나타내는 도면이다. 도 9는 본 발명의 몇몇 실시예에 따른 생체 정보 기록 데이터에 대해 운동 상태 구간을 정의하는 과정을 설명하기 위한 예시적인 도면이다. 도 10은 본 발명의 몇몇 실시예에 따른 모션 보정부의 구성을 설명하기 위한 예시적인 도면이다. 도 11은 본 발명의 몇몇 실시예에 따른 효과 보정부의 구성을 설명하기 위한 예시적인 도면이다.4 is an exemplary diagram for explaining a configuration of a data compensating apparatus according to some embodiments of the present invention. 5 is a block diagram illustrating the configuration of an emotional state determining unit according to some embodiments. 6 is an exemplary diagram for explaining an emotion analysis model. 7 is a diagram for explaining a user's body temperature measurement position according to some embodiments of the present invention. 8 is a diagram exemplarily illustrating an emotion level analysis model composed of a mapping table. 9 is an exemplary diagram for explaining a process of defining an exercise state section for biometric information recording data according to some embodiments of the present invention. 10 is an exemplary diagram for explaining the configuration of a motion compensation unit according to some embodiments of the present invention. 11 is an exemplary diagram for explaining the configuration of an effect correction unit according to some embodiments of the present invention.

도 4를 참조하면, 데이터 보정 장치(400)는 감정 상태 결정부(410), 생체 정보 라이브러리(420), 운동 상태 결정부(430), 모션 보정부(440), 효과 보정부(450) 및 메타버스 캐릭터 설정부(460)를 포함한다.Referring to FIG. 4 , the data calibration device 400 includes an emotional state determination unit 410, a biometric information library 420, an exercise state determination unit 430, a motion compensation unit 440, an effect compensation unit 450, and It includes a metaverse character setting unit 460.

감정 상태 결정부(410)는 사용자의 영상 데이터 및 사용자의 생체 정보 데이터에 기초하여 감정 상태를 결정할 수 있다. 여기서, 감정 상태는 사용자가 어떠한 감정인지 여부와 해당 감정에 사용자가 얼마나 몰입하였는지 여부를 나타내는 감정 레벨을 모두 포함할 수 있다. 또한, 실시예에서, 감정 상태는 사용자의 영상 데이터에서 사용자의 감정을 결정하는 것에 기초가 된 사용자의 신체 부위(또는 얼굴 영역)를 나타내는 클래스 활성화 맵을 포함할 수 있다. 감정 상태 결정부(410)는 사용자의 감정, 감정 레벨, 클래스 활성화 맵을 포함한 감정 상태를 생성할 수 있으며, 생성된 감정 상태를 모션 보정부(440) 및 효과 보정부(450)로 제공할 수 있다.The emotional state determination unit 410 may determine an emotional state based on the user's image data and the user's biometric information data. Here, the emotional state may include both an emotion level indicating what kind of emotion the user has and how much the user is immersed in the corresponding emotion. Also, in an embodiment, the emotional state may include a class activation map indicating a user's body part (or face region) based on determining the user's emotion in the user's image data. The emotional state determining unit 410 may generate an emotional state including the user's emotion, emotional level, and class activation map, and may provide the generated emotional state to the motion correcting unit 440 and the effect correcting unit 450. there is.

도 5를 참조하면 감정 상태 결정부(410)는 제1 감정 분석 모듈(412), 데이터 시각화 모듈(414), 제2 감정 분석 모듈(416) 및 감정 상태 분석 모듈(418)를 포함한다. Referring to FIG. 5 , the emotional state determination unit 410 includes a first emotion analysis module 412 , a data visualization module 414 , a second emotion analysis module 416 and an emotional state analysis module 418 .

제1 감정 분석 모듈(412)는 사용자의 영상 데이터를 분석하여 영상 데이터에 포함된 사용자의 감정을 결정할 수 있다. 제1 감정 분석 모듈(412)은 딥러닝 기반의 미리 학습된 감정 분석 모델을 포함할 수 있으며, 감정 분석 모델을 통해 입력된 영상 데이터에서 동작을 수행하는 사용자가 나타내는 대표적인 감정을 결정할 수 있다. 실시예에서, 사용자의 판단되는 감정은 “Anger”, “Fear”, “Happiness”, “Sadness”, “Pride” 중 어느 하나로 결정될 수 있으나, 이에 한정되는 것은 아니다. The first emotion analysis module 412 may analyze the user's image data to determine the user's emotion included in the image data. The first emotion analysis module 412 may include a deep learning-based emotion analysis model pretrained, and may determine a representative emotion represented by a user performing an operation in image data input through the emotion analysis model. In an embodiment, the user's determined emotion may be determined as one of “Anger”, “Fear”, “Happiness”, “Sadness”, and “Pride”, but is not limited thereto.

제1 감정 분석 모듈(412)은 입력된 영상 데이터에서 복수의 영상 이미지를 선택하는 전처리 과정을 수행할 수 있다. 예시적인 실시예에서, 제1 감정 분석 모듈(412)은 N개의 영상 이미지를 선택하는 전처리 과정을 수행할 수 있다. 여기서, N은 2이상의 자연수를 의미할 수 있다. 선택된 복수의 영상 이미지는 동일한 프레임 간격을 가질 수 있으며, 하나의 영상 데이터를 구성하는 이미지로서 시계열적인 특징을 공유할 수 있다. 또한, 제1 감정 분석 모듈(412)은 선택된 복수의 영상 이미지를 네트워크 입력에 적합한 크기로 크롭핑하고, 해상도를 조절하는 전처리를 더 수행할 수 있다.The first emotion analysis module 412 may perform a preprocessing process of selecting a plurality of video images from input video data. In an exemplary embodiment, the first emotion analysis module 412 may perform a pre-processing process of selecting N video images. Here, N may mean a natural number of 2 or more. The selected plurality of video images may have the same frame interval and may share time-sequential characteristics as images constituting one video data. In addition, the first emotion analysis module 412 may further perform preprocessing of cropping the selected plurality of video images to a size appropriate for the network input and adjusting the resolution.

도 6을 참조하면, 감정 분석 모델은 선택된 복수의 영상 이미지의 특징 벡터를 추출하는 추출부(412a)와 추출된 특징 벡터 사이의 시계열적인 관계를 분석하여 사용자의 Anger 확률, 사용자의 Fear 확률, 사용자의 Happiness 확률, 사용자의 Sadness 확률, 사용자의 Pride 확률을 각각 결정하도록 구성되는 분석부(412b)를 포함할 수 있다. Referring to FIG. 6 , the emotion analysis model analyzes the time-series relationship between the extraction unit 412a for extracting feature vectors of a plurality of selected video images and the extracted feature vectors, and the user's Anger probability, the user's Fear probability, and the user's It may include an analyzer 412b configured to determine the probability of Happiness, the probability of Sadness of the user, and the probability of Pride of the user, respectively.

여기서, 추출부(412a)는 이미지 데이터와 같은 2차원 데이터의 학습에 적합한 콘볼루션 신경망(Convolution Neural Network, CNN)을 이용하여 구현될 수 있다. 영상 데이터는 시계열적으로 연결된 정지 이미지에 해당하는 복수의 영상 이미지로 구성된다. 이러한, 복수의 영상 이미지, 정지 이미지를 기준으로 분석이 수행될 수 있다. 추출부(412a)를 구성하는 CNN의 개수에 대응하는 개수로 입력되는 영상 이미지에서 영상 이미지가 선택될 수 있다.Here, the extraction unit 412a may be implemented using a convolutional neural network (CNN) suitable for learning two-dimensional data such as image data. Video data is composed of a plurality of video images corresponding to still images connected in time series. Analysis may be performed based on the plurality of video images and still images. A video image may be selected from video images input with a number corresponding to the number of CNNs constituting the extraction unit 412a.

추출부(412a)의 CNN에서 추출된 특징 벡터는 분석부로 입력될 수 있다. 분석부(412b)는 양방향 콘볼루션 LSTM 계층을 포함하도록 구성될 수 있으며, 양방향 콘볼루션 LSTM 계층에서 출력되는 결과에 따라, 사용자의 Anger 확률, 사용자의 Fear 확률, 사용자의 Happiness 확률, 사용자의 Sadness 확률, 사용자의 Pride 확률을 각각 출력할 수 있다. The feature vector extracted from the CNN of the extraction unit 412a may be input to the analysis unit. The analysis unit 412b may be configured to include a bidirectional convolutional LSTM layer, and according to the result output from the bidirectional convolutional LSTM layer, the user's Anger probability, the user's fear probability, the user's happiness probability, and the user's sadness probability , the user's Pride probability can be output respectively.

도 6을 참조하면, 선택된 12개의 영상 이미지가 각각의 콘볼루션 신경망(CNN)에 입력되며, 각 이미지의 특징 벡터가 추출되어 양방향 콘볼루션 LSTM 계층(Bi-directional LSTM)으로 입력되는 것을 알 수 있다. LSTM 계층 또한 입력되는 특징 벡터의 수에 대응하는 복수의 LSTM 셀을 포함할 수 있다. Referring to FIG. 6, it can be seen that 12 selected video images are input to each convolutional neural network (CNN), and feature vectors of each image are extracted and input to a bi-directional LSTM layer. . The LSTM layer may also include a plurality of LSTM cells corresponding to the number of input feature vectors.

LSTM 계층은 이전 LSTM 셀에서 출력된 출력 값은 다음 LSTM 셀이 입력으로 수신하도록 구성된 구조이다. 즉, 이전 단계에서의 LSTM 셀의 출력 값이 다음 단계의 LSTM 셀로 입력되므로 복수의 특징 벡터들의 시계열적인 특징이 추출될 수 있다. 여기서, 본 실시예에 따른 분석부는 양방향 콘볼루션 LSTM 계층으로 구성되므로, 도 4에 도시된 바와 같이, 상술한 순방향과 반대인 역방향을 따라 연결된 LSTM 셀을 더 포함할 수 있다. 즉, 복수의 특징 벡터는 순방향에 따른 LSTM 셀과 역방향에 따른 LSTM 셀에 순차적으로 입력될 수 있으며, 이전 LSTM 셀의 출력 값도 입력받을 수 있다. 최종적으로, N개의 LSTM 셀이 구성된 경우, 순방향의 t번째 LSTM 셀과 역방향의 N-t 번째 LSTM 셀의 출력이 조합(concatenation)되어 특징맵으로 출력될 수 있다. The LSTM layer is a structure configured so that the output value output from the previous LSTM cell is received as an input by the next LSTM cell. That is, since the output value of the LSTM cell in the previous step is input to the LSTM cell in the next step, time-series features of the plurality of feature vectors can be extracted. Here, since the analysis unit according to the present embodiment is composed of a bidirectional convolutional LSTM layer, as shown in FIG. 4 , it may further include LSTM cells connected along a backward direction opposite to the forward direction described above. That is, a plurality of feature vectors may be sequentially input to an LSTM cell in a forward direction and an LSTM cell in a backward direction, and an output value of a previous LSTM cell may also be input. Finally, when N LSTM cells are configured, outputs of the t-th LSTM cell in the forward direction and the outputs of the N-t LSTM cell in the backward direction may be concatenated and output as a feature map.

분석부는 양방향 콘볼루션 LSTM 계층에서 출력된 특징맵을 입력받고 이의 공간을 축소하여 결과를 출력하는 글로벌 평균 풀링 계층(Global average pooling), 글로벌 평균 풀링 계층에서 출력되는 결과를 기초로 클래스를 분류하는 전연결층(Fully connected layer) 및 전연결층과 연결되어 사용자의 Anger 확률, 사용자의 Fear 확률, 사용자의 Happiness 확률, 사용자의 Sadness 확률, 사용자의 Pride 확률을 각각 출력 각각 출력하는 활성화 함수 계층(Softmax function)을 포함한다. 활성화 함수 계층에서 가장 높은 값을 가진 클래스가 사용자의 영상 데이터를 통해 예측된 사용자의 감정에 해당한다. The analysis unit receives the feature map output from the bidirectional convolutional LSTM layer and outputs the result by reducing the space of the global average pooling layer, and the global average pooling layer classifies the class based on the output result. An activation function layer (Softmax function layer) that is connected to the fully connected layer and fully connected layer and outputs the user's Anger probability, the user's Fear probability, the user's Happiness probability, the user's Sadness probability, and the user's Pride probability, respectively. ). The class with the highest value in the activation function layer corresponds to the user's emotion predicted through the user's video data.

감정 분석 모델은 예측하고자 하는 클래스의 이미지를 추정하도록 파라미터가 최적화된 상태일 수 있다. 예시적으로, 감정 분석 모델은 교차 엔트로피 손실(Cross Entropy Loss) 함수와 RMSprop 최적화(Root Mean Square Propagation)을 통해 학습될 수 있다.The emotion analysis model may be in a state in which parameters are optimized to estimate an image of a class to be predicted. For example, the sentiment analysis model may be learned through a cross entropy loss function and RMSprop optimization (Root Mean Square Propagation).

제2 감정 분석 모듈(416)는 상기 사용자의 생체 정보 데이터를 기초로 상기 사용자의 감정 레벨을 결정할 수 있다. 실시예에서, 사용자의 생체 정보 데이터는 사용자의 신체 위치별 체온 변화량일 수 있다. 즉, 제2 감정 분석 모듈(416)은 상기 사용자의 얼굴, 몸, 팔 및 다리에 대한 체온 변화량을 기초로, 상기 사용자의 감정 레벨을 결정할 수 있다. 사용자의 신체 위치별 체온 변화량은 생체 측정 장치(200)로부터 수집할 수 있다. The second emotion analysis module 416 may determine the user's emotion level based on the user's biometric information data. In an embodiment, the user's biometric information data may be a change in body temperature for each body position of the user. That is, the second emotion analysis module 416 may determine the user's emotion level based on the change in body temperature of the user's face, body, arms and legs. The change in body temperature for each body position of the user may be collected from the biometric measurement device 200 .

도 7을 참조하면, 생체 정보 측정 장치(200)는 제1 위치 내지 제4 위치에서, 사용자의 체온을 측정할 수 있다. 예를 들어, 생체 정보 측정 장치(200)는 전자섬유 온도 센서를 이용하여, 제1 위치 내지 제4 위치의 체온을 측정할 수 있다.Referring to FIG. 7 , the biometric information measuring device 200 may measure the user's body temperature at first to fourth positions. For example, the biometric information measuring device 200 may measure the body temperature at the first to fourth positions using an electronic fiber temperature sensor.

먼저, 생체 정보 측정 장치(200)는 제1 위치에서 제1 체온(Temp#1)을 측정할 수 있다. 제1 위치는 사용자의 얼굴 부위일 수 있다. 예를 들어, 제1 위치의 제1 체온(Temp#1)을 측정하기 위한 생체 정보 측정 장치(200)는 모자 또는 머리 밴드 형태로 제작된 전자섬유 온도 센서를 포함할 수 있다. First, the biometric information measuring device 200 may measure a first body temperature (Temp#1) at a first location. The first location may be a user's face. For example, the biometric information measuring device 200 for measuring the first body temperature (Temp#1) at the first location may include an electronic fiber temperature sensor manufactured in the form of a hat or headband.

또한, 생체 정보 측정 장치(200)는 제2 위치에서 제2 체온(Temp#2)을 측정할 수 있다. 제2 위치는 사용자의 몸통 부위일 수 있다. 예를 들어, 제2 위치의 제2 체온(Temp#2)을 측정하기 위한 생체 정보 측정 장치(200)는 의류 형태로 제작된 전자섬유 온도 센서를 포함할 수 있다. Also, the biometric information measuring device 200 may measure a second body temperature (Temp#2) at a second location. The second location may be the user's torso. For example, the biometric information measuring device 200 for measuring the second body temperature (Temp#2) at the second location may include an electronic fiber temperature sensor manufactured in the form of clothing.

또한, 생체 정보 측정 장치(200)는 제3 위치에서 제3 체온(Temp#3)을 측정할 수 있다. 제3 위치는 사용자의 팔 부위일 수 있다. 예를 들어, 제3 위치에서 제3 체온(Temp#3)을 측정하기 위한 생체 정보 측정 장치(200)는 제2 체온(Temp#2)을 측정하기 위해 의류 형태로 제작된 전자섬유 온도 센서와 일체화된, 의류 형태의 전자섬유 온도 센서를 포함할 수 있다. 다른 예시에서, 제3 위치에서 제3 체온(Temp#3)을 측정하기 위한 생체 정보 측정 장치(200)는 토시 또는 장갑 형태로 제작된 전자 섬유 온도 센서를 포함할 수 있다.Also, the biometric information measuring device 200 may measure a third body temperature (Temp#3) at a third location. The third location may be the user's arm. For example, the biometric information measuring device 200 for measuring a third body temperature (Temp#3) at a third location includes an electronic textile temperature sensor manufactured in the form of clothing to measure a second body temperature (Temp#2) and An integrated, clothing-type electronic fiber temperature sensor may be included. In another example, the biometric information measuring device 200 for measuring the third body temperature (Temp#3) at the third location may include an electronic fiber temperature sensor manufactured in the form of a sleeve or glove.

또한, 생체 정보 측정 장치(200)는 제4 위치에서 제4 체온(Temp#4)을 측정할 수 있다. 제4 위치는 사용자의 다리 부위일 수 있다. 예를 들어, 제4 위치에서 제4 체온(Temp#4)을 측정하기 위한 생체 정보 측정 장치(200)는 의류 형태의 전자섬유 온도 센서를 포함할 수 있다. Also, the biometric information measuring device 200 may measure a fourth body temperature (Temp#4) at a fourth location. The fourth location may be the user's leg. For example, the biometric information measurement device 200 for measuring a fourth body temperature (Temp#4) at a fourth location may include a clothing-type electronic fiber temperature sensor.

몇몇 실시예에 따르면, 제2 감정 분석 모듈(416)는 제1 위치 내지 제4 위치에서 측정된 제1 체온(Temp#1)의 변화량 내지 제4 체온(Temp#4)의 변화량과 제1 감정 분석 모듈(412)에서 판단된 감정에 기초하여 사용자의 감정 레벨을 판단할 수 있다. 여기서, 사용자의 감정 레벨은 사용자아가 해당 감정에 얼마나 몰입하였는지 여부를 나타내는 정도를 의미한다. 사용자가 특정 감정에 빠진 경우, 사용자의 몰입 여부에 따른 신체 변화가 나타날 수 있다. 즉, Anger 감정의 경우, 화가 난 정도에 따라 신체의 체온 변화가 함께 변화될 수 있다. 실시예에서 따른 제2 감정 분석 모듈(416)은 사용자의 체온 변화량을 관측하여 감정 레벨을 결정하도록 구성될 수 있다. According to some embodiments, the second emotion analysis module 416 may determine the amount of change in the first body temperature (Temp#1) to the fourth body temperature (Temp#4) measured at the first to fourth locations and the first emotion. An emotion level of the user may be determined based on the emotion determined by the analysis module 412 . Here, the user's emotion level means a degree indicating how much the user is immersed in the corresponding emotion. When a user is immersed in a specific emotion, physical changes may appear depending on whether or not the user is immersed. That is, in the case of Anger emotion, the change in body temperature may also change according to the degree of anger. The second emotion analysis module 416 according to the embodiment may be configured to determine the emotion level by observing the amount of change in the user's body temperature.

즉, 제2 감정 분석 모듈(416)은 제1 감정 분석 모듈(412)에서 판단된 사용자의 감정을 해당 사용자의 제1 체온(Temp#1)의 변화량 내지 제4 체온(Temp#4)의 변화량에 따라 복수의 단계로 판단할 수 있다. 예시적으로, 사용자의 감정 레벨은 사용자의 감정 몰입 정도에 따라 제1 내지 제3 단계로 구분될 수 있다. 제1 단계는 다른 단계들보다 상대적으로 낮은 감정 몰입 레벨에 해당하며, 제3 단계는 다른 단계들보다 상대적으로 높은 감정 몰입 레벨에 해당하고, 제2 단계가 제1 단계와 제3 단계의 중간 단계에 해당할 수 있다.That is, the second emotion analysis module 416 determines the user's emotion determined in the first emotion analysis module 412 by the amount of change in the first body temperature (Temp#1) or the change in the fourth body temperature (Temp#4) of the user. It can be judged in a plurality of steps according to. Exemplarily, the user's emotional level may be divided into first to third stages according to the user's emotional immersion level. The first stage corresponds to a relatively lower emotional immersion level than the other stages, the third stage corresponds to a relatively higher emotional immersion level than the other stages, and the second stage corresponds to an intermediate stage between the first and third stages. may correspond to

제2 감정 분석 모듈(416)는 제1 체온(Temp#1)에 대한 제1 체온 변화량(Temp variation#1), 제2 체온(Temp#2)에 대한 제2 체온 변화량(Temp variation#2), 제3 체온(Temp#3)에 대한 제3 체온 변화량(Temp variation#3) 및 제4 체온(Temp#4)에 대한 제4 체온 변화량(Temp variation#4)을 기초로, 사용자의 감정 레벨을 결정할 수 있다.The second emotion analysis module 416 determines the first body temperature variation (Temp variation#1) with respect to the first body temperature (Temp#1) and the second body temperature variation (Temp variation#2) with respect to the second body temperature (Temp#2). , Based on the third body temperature variation (Temp variation#3) with respect to the third body temperature (Temp#3) and the fourth body temperature variation (Temp variation#4) with respect to the fourth body temperature (Temp#4), the user's emotion level can determine

제2 감정 분석 모듈(416)은 각 체온 변화량에 따른 감정 레벨을 판단하는 감정 레벨 분석 모델을 포함할 수 있다. 감정 레벨 분석 모델은 각 체온 변화량에 따른 감정 레벨이 결정되도록 미리 구성된 모델일 수 있다. 감정 레벨 분석 모델은 회귀 분석 모델 또는 딥러닝 기반의 인공지능 학습 모델을 통해 구성될 수 있다. 즉, 제1 감정 분석 모듈(412)에서 결정된 사용자의 감정, 제1 체온(Temp#1)에 대한 제1 체온 변화량(Temp variation#1), 제2 체온(Temp#2)에 대한 제2 체온 변화량(Temp variation#2), 제3 체온(Temp#3)에 대한 제3 체온 변화량(Temp variation#3) 및 제4 체온(Temp#4)에 대한 제4 체온 변화량(Temp variation#4)이 입력값으로 감정 레벨 분석 모델에 입력되고, 사용자의 감정 레벨이 출력값으로 출력되는 인공지능 학습 모델 또는 회귀 분석 모델을 제2 감정 분석 모듈(416)은 포함할 수 있다. 다만 이에 한정되는 것은 아니며, 일 실시예에서, 감정 레벨 분석 모델은 각 체온 변화량을 3단계(높음[high], 중간[mid], 낮음[low])로 정의하고, 정의된 각 체온 변화량의 단계에 따라 감정 레벨이 매핑된 매핑 테이블로 구성될 수 있다.The second emotion analysis module 416 may include an emotion level analysis model for determining an emotion level according to each change in body temperature. The emotion level analysis model may be a model configured in advance to determine an emotion level according to each change in body temperature. The emotion level analysis model can be configured through a regression analysis model or a deep learning-based artificial intelligence learning model. That is, the user's emotion determined by the first emotion analysis module 412, the first body temperature change (Temp variation#1) with respect to the first body temperature (Temp#1), and the second body temperature with respect to the second body temperature (Temp#2) The variation (Temp variation#2), the third body temperature variation (Temp variation#3) for the third body temperature (Temp#3), and the fourth body temperature variation (Temp variation#4) for the fourth body temperature (Temp#4) The second emotion analysis module 416 may include an artificial intelligence learning model or a regression analysis model that is input to the emotion level analysis model as an input value and outputs the user's emotion level as an output value. However, it is not limited thereto, and in one embodiment, the emotion level analysis model defines each body temperature change amount as three stages (high [high], middle [mid], and low [low]), and each defined stage of body temperature change amount It can be composed of a mapping table to which emotion levels are mapped according to.

도 8을 참조하면, 제2 감정 분석 모듈(416)는 제1 감정 분석 모듈(412)에서 판단된 감정이 Anger이고, 제1 체온 변화량(Temp variation#1) 내지 제4 체온 변화량(Temp variation#3)이 중간(Mid)인 경우, 감정 레벨을 제1 단계(level 1)로 판단할 수 있다. 또한, 제2 감정 분석 모듈(416)는 제1 감정 분석 모듈(412)에서 판단된 감정이 Anger이고, 제1 체온 변화량(Temp variation#1), 제3 체온 변화량(Temp variation#3) 및 제4 체온 변화량(Temp variation#4)이 중간(mid)이고, 제2 체온 변화량(Temp variation#2)이 상대적으로 높은(high) 경우, 감정 레벨을 제2 단계(level 2)로 판단할 수 있다. 다만, 이러한 설명은 예시적인 것이며, 실시예들이 이에 제한되는 것은 아니다. Referring to FIG. 8 , the second emotion analysis module 416 determines that the emotion determined by the first emotion analysis module 412 is Anger, and the first to fourth body temperature variations (Temp variation#) When 3) is mid, the emotion level may be determined as the first level (level 1). In addition, the second emotion analysis module 416 determines that the emotion determined by the first emotion analysis module 412 is Anger, the first body temperature change amount (Temp variation#1), the third body temperature change amount (Temp variation#3), and the second emotion analysis module 416. 4 When the body temperature variation (Temp variation#4) is mid and the second body temperature variation (Temp variation#2) is relatively high, the emotional level can be determined as the second level (level 2). . However, this description is exemplary, and the embodiments are not limited thereto.

몇몇 실시예에 따르면, 체온 변화량이 상대적으로 높은지, 중간인지, 낮은지 여부는 미리 결정된 기준에 따를 수 있다. 이때, 제1 체온 변화량(Temp variation#1) 내지 제4 체온 변화량(Temp variation#4)에 대한 기준은 서로 다를 수도 있고, 적어도 일부가 동일할 수도 있다. 예를 들어, 제1 체온 변화량(Temp variation#1)이 제1 기준보다 낮은 경우, 제1 체온 변화량(Temp variation#1)은 상대적으로 낮은 것으로 결정될 수 있다. 또한, 제1 체온 변화량(Temp variation#1)이 제1 기준 이상이고, 제2 기준 미만인 경우, 제2 체온 변화량(Temp variation#2)은 중간으로 결정될 수 있다. 또한, 제1 체온 변화량(Temp variation#1)이 제2 기준 이상인 경우, 제2 체온 변화량(Temp variation#2)은 상대적으로 높은 것으로 결정될 수 있다. 한편, 제2 체온 변화량(Temp variation#2)이 제3 기준보다 낮은 경우, 제2 체온 변화량(Temp variation#2)은 상대적으로 낮은 것으로 결정될 수 있다. 또한, 제2 체온 변화량(Temp variation#2)이 제3 기준 이상이고, 제4 기준 미만인 경우, 제2 체온 변화량(Temp variation#2)은 중간으로 결정될 수 있다. 또한, 제2 체온 변화량(Temp variation#2)이 제4 기준 이상인 경우, 제2 체온 변화량(Temp variation#2)은 상대적으로 높은 것으로 결정될 수 있다. 이때, 제1 기준과 제3 기준, 제2 기준과 제4 기준은 서로 다를 수도 있고, 적어도 일부가 동일할 수도 있다. 다시 말해서, 사용자의 신체 부위에 따라, 체온 변화량을 결정하기 위한 임계값은 서로 다르거나, 적어도 일부가 동일할 수 있다.According to some embodiments, whether the change in body temperature is relatively high, medium, or low may be based on a predetermined criterion. In this case, the criteria for the first body temperature change amount (Temp variation#1) to the fourth body temperature change amount (Temp variation#4) may be different from each other, or at least part of them may be the same. For example, when the first body temperature variation (Temp variation#1) is lower than the first reference, the first body temperature variation (Temp variation#1) may be determined to be relatively low. Also, when the first body temperature change amount (Temp variation#1) is greater than or equal to the first standard and less than the second standard, the second body temperature change amount (Temp variation#2) may be determined to be medium. In addition, when the first body temperature change amount (Temp variation#1) is equal to or greater than the second standard, the second body temperature change amount (Temp variation#2) may be determined to be relatively high. Meanwhile, when the second body temperature variation (Temp variation#2) is lower than the third criterion, the second body temperature variation (Temp variation#2) may be determined to be relatively low. Also, when the second body temperature change amount (Temp variation#2) is greater than the third standard and less than the fourth standard, the second body temperature change amount (Temp variation#2) may be determined to be medium. In addition, when the second body temperature variation (Temp variation#2) is equal to or greater than the fourth standard, the second body temperature variation (Temp variation#2) may be determined to be relatively high. In this case, the first criterion and the third criterion, and the second criterion and the fourth criterion may be different from each other or at least partially the same. In other words, depending on the user's body part, the threshold values for determining the change in body temperature may be different or at least partially the same.

데이터 시각화 모듈(414)은 감정 분석 모델에서 상기 사용자의 감정을 결정하는 것과 연관된 정보를 시각화한 클래스 활성화 맵을 제공할 수 있다. 구체적으로, 데이터 시각화 모듈(414)은 사용자의 Anger 확률, 사용자의 Fear 확률, 사용자의 Happiness 확률, 사용자의 Sadness 확률, 사용자의 Pride 확률을 각각 산출하는 것과 연관된 정보를 시각화한 클래스 활성화 맵을 제공할 수 있다. 데이터 시각화 모듈(414)은 감정 분석 모델의 추출부(412a)와 분석부(412b)가 결과를 얻기 위해 특정 레이어의 어떤 위치에 있는 특징들을 이용했는지 확인한 정보를 시각화하여 제공할 수 있다. 데이터 시각화 모듈(414)은 결과 값(class score)과 추출부의 최종 피처 맵 사이의 변화량을 추적하여, 입력된 심장 초음파 영상과 동일한 크기를 갖는 히트맵(heatmap)을 생성할 수 있으며, 생성된 히트맵을 영상 이미지와 함께 표시한 클래스 활성화 맵(CAM, Class Activation Map)을 시각화한 정보로 제공할 수 있다. 일 실시예에서, 데이터 시각화 모듈(414)은 Grad-CAM(Gradient-weighted class activation mapping)을 통해 히트맵을 생성할 수 있다. Grad-CAM은 신경망이 결과를 얻기 위해 특정 레이어의 어떤 위치에 있는 특징들을 이용했는지 확인할 수 있는 시각화 방법으로서, 그래디언트(gradients)를 사용하여 컨볼루션 레이어들에서 활성화된 공간 영역(spatial region)을 나타낼 수 있다. 상술한 과정을 통해 생성된 히트맵에서 강조되는 영역은 컨볼루션 레이어들에서 활성화된 공간 영역에 해당한다. 예시적으로, 히트맵은 활성화된 공간 영역을 적색으로 표시할 수 있으며, 비활성화된 공간 영역을 청색으로 나타낼 수 있으며, 이의 사이 영역은 적색과 청색 사이의 색상 그라데이션을 나타낼 수 있다. 생성된 히트맵을 원본 영상 데이터와 함께 표시한 클래스 활성화 맵(CAM, Class Activation Map)을 통해 원본 영상 데이터에서 신경망이 중요하게 고려하는 영역의 확인이 가능하다. 이러한 클래스 활성화 맵을 통해 원본 영상에서 활성화되는 사용자의 신체 영역(또는 얼굴 영역)이 확인될 수 있으며, 모션 보정부(440) 및 효과 보정부(450)는 클래스 활성화 맵에서 확인되는 활성화 영역을 기초로 후술하는 보정을 제공할 수 있다.The data visualization module 414 may provide a class activation map visualizing information related to determining the user's emotion in the emotion analysis model. Specifically, the data visualization module 414 provides a class activation map visualizing information related to calculating the user's Anger probability, the user's Fear probability, the user's Happiness probability, the user's Sadness probability, and the user's Pride probability, respectively. can The data visualization module 414 may visualize and provide information obtained by confirming which positions of features in a specific layer were used by the extraction unit 412a and the analysis unit 412b of the emotion analysis model to obtain a result. The data visualization module 414 may generate a heatmap having the same size as the input echocardiography image by tracking the amount of change between the result value (class score) and the final feature map of the extraction unit, and generate a heatmap. A class activation map (CAM, Class Activation Map) in which the map is displayed together with a video image may be provided as visualized information. In one embodiment, the data visualization module 414 may generate a heat map through gradient-weighted class activation mapping (Grad-CAM). Grad-CAM is a visualization method that can check where the features in a specific layer are used to obtain a result by a neural network. It uses gradients to indicate spatial regions that are activated in convolutional layers. can An area highlighted in the heat map generated through the above process corresponds to a spatial area activated in the convolutional layers. For example, in the heat map, an activated spatial region may be displayed in red, and an inactive spatial region may be displayed in blue, and an area between them may represent a color gradation between red and blue. Through the Class Activation Map (CAM), which displays the generated heat map together with the original image data, it is possible to check the areas considered important by the neural network in the original image data. Through this class activation map, the user's body region (or face region) that is activated in the original image can be confirmed, and the motion correction unit 440 and the effect correction unit 450 are based on the activation area identified in the class activation map. As a result, the correction described below can be provided.

정리하면, 감정 상태 결정부(410)는 제1 감정 분석 모듈(412)을 통해 사용자의 영상 데이터를 분석하여 사용자의 감정을 결정하고, 데이터 시각화 모듈(414)을 통해 클래스 활성화 맵을 생성하며, 제2 감정 분석 모듈(416)을 통해 사용자의 감정 레벨을 결정할 수 있다. 감정 상태 결정부(410)는 사용자의 감정, 클래스 활성화 맵, 사용자의 감정 레벨을 감정 상태로 정의하여 모션 보정부(440) 및 효과 보정부(450)로 제공할 수 있다.In summary, the emotional state determination unit 410 analyzes the user's image data through the first emotion analysis module 412 to determine the user's emotion, and generates a class activation map through the data visualization module 414, A user's emotion level may be determined through the second emotion analysis module 416 . The emotional state determination unit 410 may define the user's emotion, the class activation map, and the user's emotional level as an emotional state, and provide the defined emotions to the motion correction unit 440 and the effect correction unit 450 .

생체 정보 라이브러리(420)는 사용자마다 측정된 운동량에 따른 생체 정보 데이터(BM_Data)를 포함할 수 있다. 몇몇 실시예에 따르면, 제1 사용자는 전술한 생체 정보 측정 장치(200)을 이용하여, 운동량에 따른 생체 정보 데이터(BM_Data)를 측정할 수 있다. 이때, 제1 사용자의 운동량에 따른 생체 정보 데이터(BM_Data)는 생체 정보 라이브러리(420)에 저장될 수 있다. 이와 유사하게, 제2 사용자는 생체 정보 측정 장치(200)을 이용하여, 운동량에 따른 생체 정보 데이터(BM_Data)를 측정할 수 있다. 이때, 제2 사용자의 운동량에 따른 생체 정보 데이터(BM_Data)는 생체 정보 라이브러리(420)에 저장될 수 있다.The biometric information library 420 may include biometric information data BM_Data according to the amount of exercise measured for each user. According to some embodiments, the first user may measure biometric information data BM_Data according to the amount of exercise using the biometric information measuring device 200 described above. In this case, the biometric information data BM_Data according to the amount of exercise of the first user may be stored in the biometric information library 420 . Similarly, the second user may measure the biometric information data BM_Data according to the amount of exercise using the biometric information measuring device 200 . In this case, biometric information data BM_Data according to the amount of exercise of the second user may be stored in the biometric information library 420 .

예를 들어, 제1 사용자는 운동량을 서서히 늘려가면서, 미리 정한 시간 간격으로 또는 연속적으로 제1 사용자의 생체 정보 데이터(BM_Data)를 생성하고, 이를 생체 정보 라이브러리(420)에 기록할 수 있다. 또한, 제2 사용자는 운동량을 서서히 늘려가면서, 미리 정한 시간 간격으로 또는 연속적으로 제2 사용자의 생체 정보 데이터(BM_Data)를 생성하고, 이를 생체 정보 라이브러리(420)에 기록할 수 있다. 제1 사용자는 제2 사용자와 체중, 골격근량, 체지방량 등이 모두 상이하기 때문에, 사용자별로 최대 운동량은 서로 다를 수 있다. 뿐만 아니라, 사용자별로 생체 정보 최소치, 평균치 및 최대치는 서로 상이하기 때문에, 특정 운동 구간에서의 생체 정보 데이터(BM_Data)는 사용자별로 상이할 수 있다. 따라서, 사용자별 운동량에 따른 생체 정보 데이터(BM_Data)를 생체 정보 라이브러리(420)에 미리 기록해 두고, 이를 운동 상태 결정부(430)에서 사용자의 운동 상태를 구획하는 기초 자료로 이용할 수 있다. 이하에서는 설명의 편의를 위해, 생체 정보 라이브러리(420)에 저장된 사용자별 운동량에 따른 생체 정보 데이터(BM_Data)를 사용자별 생체 정보 기록 데이터로 명명한다. 다시 말해서, 생체 정보 라이브러리(420)는 제1 사용자의 제1 생체 정보 기록 데이터와, 제2 사용자의 제2 생체 정보 기록 데이터를 포함할 수 있다.For example, the first user may generate biometric information data BM_Data of the first user at predetermined time intervals or continuously while gradually increasing the amount of exercise, and record the biometric information data BM_Data in the biometric information library 420 . In addition, the second user may generate the second user's biometric information data BM_Data at predetermined time intervals or continuously while gradually increasing the amount of exercise, and record it in the biometric information library 420 . Since the first user has a different weight, skeletal muscle mass, and body fat mass than the second user, the maximum amount of exercise may be different for each user. In addition, since the minimum value, the average value, and the maximum value of biometric information are different for each user, the biometric information data (BM_Data) in a specific exercise section may be different for each user. Therefore, biometric information data (BM_Data) according to each user's exercise amount may be previously recorded in the biometric information library 420 and used as basic data for segmenting the user's exercise state in the exercise state determination unit 430 . Hereinafter, for convenience of description, the biometric information data BM_Data according to the amount of exercise for each user stored in the biometric information library 420 is referred to as biometric information recording data for each user. In other words, the biometric information library 420 may include first biometric information recorded data of a first user and second biometric information recorded data of a second user.

몇몇 실시예에 따르면, 생체 정보 라이브러리(420)는 사용자별 생체 정보 기록 데이터를 이용하여, 사용자별로 제1 운동 상태 구간 내지 제3 운동 상태 구간을 정의할 수 있다. According to some embodiments, the biometric information library 420 may define first to third exercise state sections for each user by using biometric information recording data for each user.

도 9를 참조하면, 생체 정보 라이브러리(420)는 사용자별 생체 정보 기록 데이터를 포함할 수 있다. 여기서, 생체 정보 기록 데이터에 포함된 체온은 도 8의 제1 체온(Temp#1) 내지 제4 체온(Temp#4)의 평균값일 수도 있고, 제1 체온(Temp#1) 내지 제4 체온(Temp#4) 중 특정 체온을 의미할 수도 있다. 다만, 이러한 설명은 예시적인 것이며, 실시예들이 이에 제한되는 것은 아니다. Referring to FIG. 9 , the biometric information library 420 may include biometric information recording data for each user. Here, the body temperature included in the biometric information recording data may be an average value of the first body temperature (Temp#1) to the fourth body temperature (Temp#4) in FIG. 8, or the first body temperature (Temp#1) to the fourth body temperature ( Temp#4) may mean a specific body temperature. However, this description is exemplary, and the embodiments are not limited thereto.

예컨대, 도 9는 제1 사용자에 대한 제1 생체 정보 기록 데이터일 수 있다. 생체 정보 라이브러리(420)는 사용자의 생체 정보 기록 데이터를 이용하여, 사용자의 운동 상태를 제1 운동 상태 구간(S1), 제2 운동 상태 구간(S2) 및 제3 운동 상태 구간(S3)으로 구획할 수 있다. For example, FIG. 9 may be first biometric information recording data for a first user. The biometric information library 420 divides the user's exercise state into a first exercise state section (S1), a second exercise state section (S2), and a third exercise state section (S3) by using the user's biometric information recording data. can do.

먼저, 생체 정보 라이브러리(420)는 사용자의 생체 정보 기록 데이터를 참고하여, 사용자의 심박수의 증가폭은 상대적으로 크고, 사용자의 호흡수의 증가폭은 상대적으로 작고, 사용자의 체온이 증가하고 있는 구간을 제1 운동 상태 구간(S1)으로 구획할 수 있다. 다시 말해서, 제1 운동 상태 구간(S1)은 사용자의 심박수의 증가폭이 사용자의 호흡수보다 상대적으로 높은 상태를 의미하며, 제1 운동 상태 구간(S1)은 체온이 비교적 일정한 폭으로 증가하는 구간일 수 있다. 즉, 제1 운동 상태 구간(S1)은 사용자의 심박수가 사용자의 호흡수 및 사용자의 체온보다 더 높은 고려 요소로 작용되는 구간일 수 있다.First, the biometric information library 420 refers to the user's biometric information record data, and determines a section in which the user's heart rate increase rate is relatively large, the user's respiratory rate increase rate is relatively small, and the user's body temperature increases. It can be divided into 1 exercise state section (S1). In other words, the first exercise state section (S1) means a state in which the user's heart rate increase is relatively higher than the user's respiratory rate, and the first exercise state section (S1) is a section in which the body temperature increases at a relatively constant width. can That is, the first exercise state section S1 may be a section in which the user's heart rate acts as a higher consideration factor than the user's respiratory rate and the user's body temperature.

또한, 생체 정보 라이브러리(420)는 사용자의 생체 정보 기록 데이터를 참고하여, 사용자의 심박수의 증가폭은 상대적으로 작고, 사용자의 호흡수의 증가폭은 상대적으로 크고, 사용자의 체온이 증가하고 있는 구간을 제2 운동 상태 구간(S2)으로 구획할 수 있다. 제2 운동 상태 구간(S2)은 예를 들어, 중간 운동 상태를 의미할 수 있다. 다시 말해서, 제2 운동 상태 구간(S2)은 사용자의 호흡수의 증가폭이 사용자의 심박수보다 상대적으로 높은 상태를 의미하며, 제2 운동 상태 구간(S2)은 체온이 비교적 일정한 폭으로 증가하는 구간일 수 있다. 즉, 제2 운동 상태 구간(S2)은 사용자의 호흡수가 사용자의 심박수 및 사용자의 체온보다 더 높은 고려 요소로 작용되는 구간일 수 있다. In addition, the biometric information library 420 refers to the user's biometric information record data, and determines a section in which the user's heart rate increase rate is relatively small, the user's respiratory rate increase rate is relatively large, and the user's body temperature increases. It can be divided into 2 exercise state sections (S2). The second exercise state section S2 may mean, for example, an intermediate exercise state. In other words, the second exercise state section (S2) means a state in which the user's respiratory rate increase is relatively higher than the user's heart rate, and the second exercise state section (S2) is a section in which the body temperature increases at a relatively constant width. can That is, the second exercise state section S2 may be a section in which the user's respiratory rate acts as a higher consideration factor than the user's heart rate and the user's body temperature.

또한, 생체 정보 라이브러리(420)는 사용자의 생체 정보 기록 데이터를 참고하여, 사용자의 심박수의 증가폭은 상대적으로 작고, 사용자의 호흡수의 증가폭은 상대적으로 작고, 사용자의 체온은 상대적으로 높으나, 체온이 미세하게 감소하거나 일정하게 유지되는 구간을 제3 운동 상태 구간(S3)으로 구획할 수 있다. 제3 운동 상태 구간(S3)은 예를 들어, 강한 운동 상태를 의미할 수 있다. 사용자의 체온은 항상성으로 인해, 체온이 최대치로 증가한 이후부터는 체온을 유지하거나 오히려 체온이 감소될 수 있다. 다시 말해서, 제3 운동 상태 구간(S3)은 사용자의 체온이 사용자의 심박수 및 사용자의 호흡수보다 더 높은 고려 요소로 작용되는 구간일 수 있다.In addition, the biometric information library 420 refers to the user's biometric information record data, the user's heart rate increase rate is relatively small, the user's respiratory rate increase rate is relatively small, and the user's body temperature is relatively high. A section that decreases slightly or remains constant may be divided into a third exercise state section S3. The third exercise state section S3 may mean, for example, a strong exercise state. Due to homeostasis, the body temperature of the user may be maintained after the body temperature increases to a maximum value or, rather, the body temperature may decrease. In other words, the third exercise state section S3 may be a section in which the user's body temperature acts as a higher consideration factor than the user's heart rate and the user's respiratory rate.

다시 도 4를 참조하면, 운동 상태 결정부(430)는 생체 정보 측정 장치(200)에서 생성된 사용자의 생체 정보 데이터(BM_Data)와, 생체 정보 라이브러리(420)에 저장된 생체 정보 기록 데이터를 이용하여, 사용자의 운동 상태를 결정할 수 있다. 다시 말해서, 운동 상태 결정부(430)는 생체 정보 측정 장치(200)에서 생성되는 생체 정보 데이터(BM_Data)로부터, 사용자가 현재 어떤 운동 상태인지 여부를 결정할 수 있다. 예를 들어, 생체 정보 측정 장치(200)에서 생성된 제1 사용자의 생체 정보 데이터(BM_Data)가, 제1 사용자에 대하여 미리 구획된 제1 운동 상태 구간(S1) 내에 포함된 경우, 운동 상태 결정부(430)는 제1 사용자의 운동 상태를 제1 운동 상태로 결정할 수 있다. 제1 운동 상태는 예를 들어, 약한 운동 상태를 의미할 수 있다. 또한, 예를 들어, 생체 정보 측정 장치(200)에서 생성된 제1 사용자의 생체 정보 데이터(BM_Data)가, 제1 사용자에 대하여 미리 구획된 제2 운동 상태 구간(S2) 내에 포함된 경우, 운동 상태 결정부(430)는 제1 사용자의 운동 상태를 제2 운동 상태로 결정할 수 있다. 제2 운동 상태는 예를 들어, 중간 운동 상태를 의미할 수 있다. 또한, 예를 들어, 생체 정보 측정 장치(200)에서 생성된 제1 사용자의 생체 정보 데이터(BM_Data)가, 제1 사용자에 대하여 미리 구획된 제3 운동 상태 구간(S3) 내에 포함된 경우, 운동 상태 결정부(430)는 제1 사용자의 운동 상태를 제3 운동 상태로 결정할 수 있다. 제3 운동 상태는 예를 들어, 강한 운동 상태를 의미할 수 있다.Referring back to FIG. 4 , the exercise state determining unit 430 uses the user's biometric information data (BM_Data) generated by the biometric information measuring device 200 and the biometric information recording data stored in the biometric information library 420 , it is possible to determine the user's exercise state. In other words, the exercise state determination unit 430 may determine the current exercise state of the user from the biometric information data BM_Data generated by the biometric information measuring device 200 . For example, when the first user's biometric information data BM_Data generated by the biometric information measuring device 200 is included in the first exercise state section S1 pre-divided for the first user, the exercise state is determined. The unit 430 may determine the exercise state of the first user as the first exercise state. The first exercise state may mean, for example, a weak exercise state. In addition, for example, when the first user's biometric information data BM_Data generated by the biometric information measuring device 200 is included in the second exercise state section S2 pre-divided for the first user, exercise The state determiner 430 may determine the exercise state of the first user as the second exercise state. The second exercise state may mean, for example, an intermediate exercise state. In addition, for example, when the first user's biometric information data BM_Data generated by the biometric information measurement device 200 is included in the third exercise state section S3 predefined for the first user, exercise The state determiner 430 may determine the exercise state of the first user as a third exercise state. The third exercise state may mean, for example, a strong exercise state.

운동 상태 결정부(430)는 주기적/비주기적, 혹은 실시간으로 생체 정보 측정 장치(200)에서 생성되는 사용자의 생체 정보 데이터(BM_Data)를 확인하여, 사용자의 운동 상태를 갱신할 수 있다. 몇몇 실시예에 따르면, 운동 상태 결정부(430)는 사용자의 생체 정보 데이터(BM_Data)의 데이터 값을 기초로, 사용자의 운동 상태를 갱신할 수 있다. 예를 들어, 운동 상태 결정부(430)는 제1 운동 상태 구간(S1) 내에 포함되어 있던 사용자의 생체 정보 데이터(BM_Data)가 변화하여, 제2 운동 상태 구간(S2)에 진입한 경우, 사용자의 운동 상태를 제2 운동 상태로 결정할 수 있다. The exercise state determiner 430 may check the user's biometric information data (BM_Data) generated by the biometric information measuring device 200 periodically/non-periodically or in real time to update the user's exercise state. According to some embodiments, the exercise state determiner 430 may update the user's exercise state based on the data value of the user's biometric information data BM_Data. For example, when the user's biometric information data (BM_Data) included in the first exercise state section S1 changes and enters the second exercise state section S2, the exercise state determination unit 430 determines that the user The movement state of may be determined as the second movement state.

또한, 몇몇 실시예에 따르면, 운동 상태 결정부(430)는 사용자의 생체 정보 데이터(BM_Data)가 특정 운동 상태 구간 내에 유지된 시간을 기초로, 사용자의 운동 상태를 갱신할 수 있다. 예를 들어, 운동 상태 결정부(430)는 사용자의 생체 정보 데이터(BM_Data)가 제1 운동 상태 구간(S1) 내에 포함되어 유지된 시간이, 미리 정한 제1 시간 이상인 경우, 사용자의 운동 상태를 제2 운동 상태로 갱신할 수 있다. 다시 말해서, 사용자의 운동 상태가 특정 운동 상태에서 제1 시간 이상 지속되는 경우, 운동 상태 결정부(430)는 사용자의 운동 상태를 다음 운동 상태로 갱신할 수 있다. Also, according to some embodiments, the exercise state determination unit 430 may update the user's exercise state based on the time that the user's biometric information data BM_Data is maintained within a specific exercise state section. For example, the exercise state determining unit 430 determines the user's exercise state when the user's biometric information data BM_Data is included and maintained in the first exercise state section S1 for a predetermined first time or longer. It can be updated to the second motion state. In other words, when the user's exercise state lasts longer than the first time in a specific exercise state, the exercise state determination unit 430 may update the user's exercise state to the next exercise state.

다시 도 4를 참조하면, 모션 보정부(440)는 감정 상태 결정부(410) 및 운동 상태 결정부(430)에서 결정된 사용자의 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 기초로, 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. Referring back to FIG. 4 , the motion compensating unit 440 determines the motion capture device based on at least one of the user's motion state and the user's emotional state determined by the emotional state determination unit 410 and the movement state determination unit 430. The motion data MC_Data generated in step 100 may be corrected.

도 10을 참조하면, 모션 보정부(440)는 모션 데이터 보정 가중치 결정부(441) 및 모션 데이터 보정부(442)를 포함할 수 있다.Referring to FIG. 10 , the motion compensation unit 440 may include a motion data compensation weight determination unit 441 and a motion data compensation unit 442 .

모션 데이터 보정 가중치 결정부(441)는 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)를 보정하기 위한 가중치를 결정할 수 있다. 다시 말해서, 모션 데이터 보정 가중치 결정부(441)는 사용자의 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 기초로, 모션 데이터(MC_Data)에 대한 보정을 얼마나 수행할지 여부를 결정할 수 있다.The motion data correction weight determination unit 441 may determine weights for correcting the motion data MC_Data generated by the motion capture device 100 . In other words, the motion data correction weight determiner 441 may determine how much to correct for the motion data MC_Data based on at least one of the user's athletic state and the user's emotional state.

몇몇 실시예에 따르면, 모션 데이터 보정 가중치 결정부(441)는 사용자의 운동 상태에 따른 가중치 및 사용자의 감정 상태에 따른 가중치를 각각 결정할 수도 있다. 즉, 각 상태별로 모션 데이터(MC_Data)에 대한 보정 정도가 상이하도록 미리 설정될 수 있으나, 이에 한정되는 것은 아니다. According to some embodiments, the motion data correction weight determiner 441 may determine a weight according to the user's exercise state and a weight according to the user's emotional state, respectively. That is, the degree of correction of the motion data MC_Data for each state may be previously set to be different, but is not limited thereto.

몇몇 실시예에 따르면, 모션 데이터 보정 가중치 결정부(441)는 사용자의 감정 상태에 포함된 감정 레벨에 따라 가중치를 달리 결정할 수 있다. 즉, 후술하는 모션 데이터 보정부(442)는 감정에 따라 사용자의 모션 데이터에 대한 보정을 수행하게 되며, 각 감정에 따른 보정의 정도는 모션 데이터 보정 가중치 결정부(441)에서 결정된 감정 레벨에 따른 가중치에 따라 결정될 수 있다. 즉, 제1 단계 Anger 감정보다 제2 단계 Anger 감정이 해당 감정에 대한 사용자의 감정 몰입이 더욱 상세히 표현되도록 가중치가 결정될 수 있다.According to some embodiments, the motion data correction weight determiner 441 may determine different weights according to the emotional level included in the user's emotional state. That is, the motion data correction unit 442, which will be described later, corrects the motion data of the user according to the emotion, and the degree of correction according to each emotion depends on the emotion level determined by the motion data correction weight determination unit 441. It can be determined according to weight. That is, the weight of the second-stage Anger emotion may be determined so that the user's emotional immersion in the corresponding emotion is expressed in more detail than the first-stage Anger emotion.

모션 데이터 보정부(442)는 사용자의 운동 상태 및/또는 사용자의 감정 상태와 결정된 각 상태별 가중치에 따라 모션 데이터(MC_Data)에 대한 보정을 수행하여 보정 모션 데이터를 생성할 수 있다.The motion data correction unit 442 may generate corrected motion data by performing correction on the motion data MC_Data according to the user's exercise state and/or the user's emotional state and the determined weight for each state.

또한, 모션 데이터 보정부(442)는 감정 상태 결정부(410)에서 결정된 사용자의 감정 상태를 이용하여, 모션 데이터(MC_Data)를 보정할 수 있다. 즉, 모션 데이터 보정부(442)는 사용자의 감정에 따른 특징이 강조될 수 있도록 모션 데이터에 대한 보정을 수행할 수 있다. 사용자의 감정에 따라 모션 데이터를 보정하는 방식이 상이하게 적용될 수 있다.Also, the motion data correction unit 442 may correct the motion data MC_Data using the user's emotional state determined by the emotional state determination unit 410 . That is, the motion data correction unit 442 may perform correction on motion data so that characteristics according to the user's emotions can be emphasized. Different methods of correcting motion data may be applied according to the user's emotion.

실시예에서, 감정 상태는 클래스 활성화 맵을 포함할 수 있으며, 모션 데이터 보정부(442)는 클래스 활성화 맵과 모션 데이터를 매칭하여 클래스 활성화 맵의 활성화 영역과 대응되는 모션 데이터의 모션 영역을 결정할 수 있다. 결정된 모션 영역은 모션 데이터에서 보정이 수행되는 영역일 수 있다. 사용자의 감정 변화에 따라 나타내는 신체적 변화는 클래스 활성화 맵에서 활성화 영역으로 판단될 수 있으며, 이러한 활성화 영역에 대응하는 모션 영역을 보정함에 따라 사용자의 감정이 모션 데이터에 적절하게 반영되게 된다. In an embodiment, the emotional state may include a class activation map, and the motion data correction unit 442 may determine a motion region of the motion data corresponding to an activation region of the class activation map by matching the class activation map and the motion data. there is. The determined motion area may be an area where correction is performed on motion data. The physical change indicated by the user's emotional change can be determined as an activation area in the class activation map, and the user's emotion is appropriately reflected in the motion data by correcting the motion area corresponding to the activation area.

예를 들어, 감정 상태 결정부(410)에서 결정된 사용자의 감정이 'Anger'인 경우, 모션 데이터 보정부(442)는 생체 정보 데이터(BM_Data)에 포함된 사용자의 호기 및 흡기에 따라 메타버스 캐릭터의 상체가 흔들리도록 바디 캡쳐 모듈(110)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. 다른 예시에서, 감정 상태 결정부(410)에서 결정된 사용자의 감정이 'Anger'인 경우, 모션 데이터 보정부(442)는 메타버스 캐릭터의 미간이 좁혀지고, 눈꼬리가 올라가고, 입이 쳐지도록 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. 또한, 감정 레벨에 따라 달리 결정된 가중치에 따라 캐릭터의 모션 데이터(MC_Data)의 보정 정도는 다르게 적용될 수 있다.For example, when the user's emotion determined by the emotional state determination unit 410 is 'Anger', the motion data correction unit 442 performs a metaverse character according to the user's expiration and inspiration included in the biometric information data BM_Data. Motion data (MC_Data) generated by the body capture module 110 may be corrected so that the upper body of the body shakes. In another example, when the user's emotion determined by the emotional state determination unit 410 is 'Anger', the motion data correction unit 442 performs facial capture such that the eyebrows of the metaverse character are narrowed, the tails of the eyes are raised, and the mouth is lowered. Motion data MC_Data generated in module 120 may be corrected. In addition, the degree of correction of the motion data (MC_Data) of the character may be differently applied according to the weight determined differently according to the emotional level.

몇몇 실시예에 따르면, 모션 데이터 보정부(442)는 운동 상태 결정부(430)에서 결정된 사용자의 운동 상태에 기초하여, 모션 데이터(MC_Data)를 보정할 수 있다. According to some embodiments, the motion data correction unit 442 may correct the motion data MC_Data based on the user's motion status determined by the motion status determination unit 430 .

예를 들어, 운동 상태 결정부(430)에서 결정된 사용자의 운동 상태가 제1 운동 상태인 경우, 모션 데이터 보정부(442)는 생체 정보 데이터(BM_Data)에 포함된 사용자의 호기 및 흡기에 따라 메타버스 캐릭터의 상체가 상대적으로 약하게 흔들리도록 모션 데이터(MC_Data)를 보정할 수 있다. For example, when the user's exercise state determined by the exercise state determination unit 430 is the first exercise state, the motion data compensator 442 metabolizes the user's exhalation and inspiration included in the biometric information data BM_Data. The motion data (MC_Data) can be corrected so that the upper body of the bus character shakes relatively weakly.

또한, 예를 들어, 운동 상태 결정부(430)에서 결정된 사용자의 운동 상태가 제2 운동 상태인 경우, 모션 데이터 보정부(442)는 생체 정보 데이터(BM_Data)에 포함된 사용자의 호기 및 흡기에 따라 메타버스 캐릭터의 상체가 상대적으로 약하게 흔들리도록 모션 데이터(MC_Data)를 보정하고, 사용자의 호기 및 흡기에 따라 메타버스 캐릭터의 복부가 상대적으로 적게 팽창/수축하도록 모션 데이터(MC_Data)를 보정할 수 있다. In addition, for example, when the user's exercise state determined by the exercise state determination unit 430 is the second exercise state, the motion data corrector 442 determines the user's expiration and inspiration values included in the biometric information data BM_Data. Accordingly, the motion data (MC_Data) can be corrected so that the upper body of the metaverse character shakes relatively weakly, and the motion data (MC_Data) can be corrected so that the metaverse character's abdomen expands/contracts relatively little according to the user's exhalation and inhalation. there is.

또한, 예를 들어, 운동 상태 결정부(430)에서 결정된 사용자의 운동 상태가 제3 운동 상태인 경우, 모션 데이터 보정부(442)는 생체 정보 데이터(BM_Data)에 포함된 사용자의 호기 및 흡기에 따라, 메타버스 캐릭터의 상체가 상대적으로 강하게 흔들리도록 모션 데이터(MC_Data)를 보정하고, 사용자의 호기 및 흡기에 따라, 메타버스 캐릭터의 복부가 상대적으로 많이 팽창/수축하도록 모션 데이터(MC_Data)를 보정할 수 있다. In addition, for example, when the user's exercise state determined by the exercise state determination unit 430 is the third exercise state, the motion data corrector 442 determines the user's expiration and inspiration values included in the biometric information data BM_Data. Accordingly, the motion data (MC_Data) is corrected so that the metaverse character's upper body shakes relatively strongly, and the motion data (MC_Data) is corrected so that the metaverse character's abdomen expands/contracts relatively a lot according to the user's exhalation and inhalation. can do.

모션 데이터 보정부(442)는 모션 데이터 보정 가중치 결정부(441)의 보정 가중치에 따라, 사용자의 운동 상태 및 감정 상태 중 적어도 하나를 이용하여, 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)를 보정하여, 모션 보정 데이터를 생성할 수 있다. The motion data correction unit 442 uses at least one of the user's motion state and emotional state according to the correction weight of the motion data correction weight determination unit 441 to generate motion data (MC_Data) generated by the motion capture device 100. ) to generate motion compensation data.

여기서, 모션 데이터 보정부(442)는 보정된 모션 보정 데이터에 기초하여 캐릭터 모션 데이터(CB_Data#1)를 생성할 수 있다. 캐릭터 모션 데이터(CB_Data#1)는 메타버스 캐릭터 생성을 위해 골격 생성 장치(500)로 제공되는 데이터를 의미할 수 있다. Here, the motion data correction unit 442 may generate character motion data CB_Data#1 based on the corrected motion correction data. The character motion data (CB_Data#1) may refer to data provided to the skeleton generating device 500 for metaverse character creation.

실시예에서, 모션 데이터 보정부(442)는 모션 보정 데이터에 기초하여 캐릭터 모션 데이터를 바로 생성할 수 있으나, 이에 한정되는 것은 아니다. 몇몇 실시예에 따른 메타버스 캐릭터 제작 시스템(1)은 사용자에게 제작 환경을 표시하는 출력부(미도시) 및 사용자의 명령을 입력받는 입력부(미도시)를 더 포함할 수 있다. 모션 데이터 보정부(442)는 모션 데이터, 모션 보정 데이터 및 영상 데이터를 하나의 화면으로 출력부(미도시)를 통해 사용자에게 제공할 수 있다. 사용자는 출력부를 통해 제공되는 화면을 통해 모션 데이터(MC_Data), 보정된 보정 모션 데이터, 영상 데이터를 서로 비교할 수 있으며, 모션 데이터(MC_Data)에서 어떤 영역이 보정이 되었는 지를 확인할 수 있게 된다. 또한, 모션 데이터 보정부(442)는 상기 화면에서 보정 모션 데이터를 사용자의 명령에 따라 수정하는 기능을 제공할 수 있다. 즉, 입력부를 통해 제공되는 사용자의 명령에 따라 보정 모션 데이터는 보정 정도, 보정 영역 및 보정 방식 중 적어도 하나가 조절될 수 있다. 따라서, 사용자는 상기 화면에서 제공되는 인터페이스를 통해 캐릭터 모션 데이터(CB_Data#1)로 제공될 데이터를 결정할 수 있다. 사용자는 상기 화면에서 제공되는 비교 화면 및 조절 기능을 활용하여 캐릭터의 구현에 가장 적합한 모션 데이터를 캐릭터 모션 데이터(CB_Data#1)로 결정할 수 있다. 예시적으로, 사용자는 보정 모션 데이터를 캐릭터 모션 데이터로 결정하는 명령을 입력할 수 있으나, 이에 한정되는 것은 아니다. 사용자는 보정 모션 데이터를 일부 보정하고 보정된 상태를 캐릭터 모션 데이터(CB_Data#1)로 결정할 수도 있다. In an embodiment, the motion data correction unit 442 may directly generate character motion data based on the motion correction data, but is not limited thereto. The metaverse character creation system 1 according to some embodiments may further include an output unit (not shown) for displaying a production environment to a user and an input unit (not shown) for receiving a user's command. The motion data correction unit 442 may provide motion data, motion correction data, and image data to a user through an output unit (not shown) on a single screen. The user can compare the motion data (MC_Data), corrected motion data, and image data through the screen provided through the output unit, and can confirm which area of the motion data (MC_Data) has been corrected. In addition, the motion data correction unit 442 may provide a function of correcting correction motion data on the screen according to a user's command. That is, according to a user's command provided through the input unit, at least one of a correction degree, a correction area, and a correction method may be adjusted in the corrected motion data. Accordingly, the user can determine data to be provided as the character motion data (CB_Data#1) through the interface provided on the screen. The user can determine the most suitable motion data for character implementation as character motion data (CB_Data#1) by utilizing the comparison screen and control function provided on the screen. Exemplarily, the user may input a command for determining corrected motion data as character motion data, but is not limited thereto. The user may partially correct the corrected motion data and determine the corrected state as the character motion data (CB_Data#1).

정리하면, 캐릭터 모션 데이터(CB_Data#1)는 사용자의 운동 상태 및 감정 상태 중 적어도 하나를 고려하여 재구성된 모션 데이터(MC_Data)에 기초하여 결정될 수 있으며, 결정된 캐릭터 모션 데이터(CB_Data#1)는 골격 생성 장치(500)로 제공될 수 있다.In summary, the character motion data (CB_Data#1) may be determined based on motion data (MC_Data) reconstructed in consideration of at least one of the user's motion state and emotional state, and the determined character motion data (CB_Data#1) is the skeleton It may be provided to the generating device 500 .

다시 도 4를 참조하면, 효과 보정부(450)는 운동 상태 결정부(430) 및 감정 상태 결정부(410)에서 결정된 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 기초로, 메타버스 캐릭터에 제공될 연출 효과를 결정할 수 있다. Referring back to FIG. 4 , the effect correction unit 450 provides the metaverse character based on at least one of the user's emotional state and the athletic state determined by the athletic state determination unit 430 and the emotional state determination unit 410. You can decide what effect to produce.

도 11을 참조하면, 효과 보정부(450)는 효과 데이터 보정 가중치 결정부(451) 및 효과 데이터 보정부(452)를 포함할 수 있다. Referring to FIG. 11 , the effect correction unit 450 may include an effect data correction weight determination unit 451 and an effect data correction unit 452 .

효과 데이터 보정 가중치 결정부(451)는 사용자의 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 기초로 결정되는 메타버스 캐릭터의 연출 효과 보정을 위한 가중치를 결정할 수 있다. 다시 말해서, 효과 데이터 보정 가중치 결정부(451)는 사용자의 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 기초로, 메타버스 캐릭터의 연출 효과 보정을 얼마나 수행할지 여부를 결정할 수 있다. The effect data correction weight determination unit 451 may determine a weight for correcting the production effect of the metaverse character, which is determined based on at least one of the user's motion state and the user's emotional state. In other words, the effect data correction weight determiner 451 may determine how much to correct the directing effect of the metaverse character based on at least one of the user's motion state and the user's emotional state.

몇몇 실시예에 따르면, 효과 데이터 보정 가중치 결정부(451)는 사용자의 운동 상태에 따른 가중치 및 사용자의 감정 상태에 따른 가중치를 각각 결정할 수도 있고, 사용자의 운동 상태에 따른 가중치와 사용자의 감정 상태에 따른 가중치를 통합하여 하나로 결정할 수도 있다. According to some embodiments, the effect data correction weight determining unit 451 may determine a weight according to the user's exercise state and a weight according to the user's emotional state. It may be determined as one by integrating the weights according to the weight.

몇몇 실시예에 따르면, 효과 데이터 보정 가중치 결정부(451)는 사용자의 감정 상태에 포함된 감정 레벨에 따라 가중치를 달리 결정할 수 있다. 즉, 후술하는 효과 데이터 보정부(452)는 감정에 따라 사용자의 모션 데이터에 대한 보정을 수행하게 되며, 각 감정에 따른 보정의 정도는 효과 데이터 보정 가중치 결정부(451)에서 결정된 감정 레벨에 따른 가중치에 따라 결정될 수 있다. 즉, 제1 단계 Anger 감정보다 제2 단계 Anger 감정이 해당 감정에 대한 사용자의 감정 몰입이 더욱 상세히 표현되도록 가중치가 결정될 수 있다.According to some embodiments, the effect data correction weight determiner 451 may determine different weights according to the emotion level included in the user's emotional state. That is, the effect data compensating unit 452, which will be described later, corrects the user's motion data according to the emotion, and the degree of correction according to each emotion depends on the emotional level determined by the effect data correction weight determining unit 451. It can be determined according to weight. That is, the weight of the second-stage Anger emotion may be determined so that the user's emotional immersion in the corresponding emotion is expressed in more detail than the first-stage Anger emotion.

효과 데이터 보정부(452)는 사용자의 운동 상태 및/또는 사용자의 감정 상태에 따라, 메타버스 캐릭터에 부여되는 연출 효과를 결정할 수 있다. The effect data correction unit 452 may determine a production effect given to the metaverse character according to the user's athletic state and/or the user's emotional state.

또한, 효과 데이터 보정부(452)는 감정 상태 결정부(410)에서 결정된 사용자의 감정 상태를 이용하여, 메타버스 캐릭터에 부여되는 연출 효과를 결정할 수 있다. 즉, 모션 데이터 보정부(442)는 사용자의 감정에 따른 특징이 강조될 수 있도록 연출 효과를 결정할 수 있으며, 감정에 따라 캐릭터에 적용되는 연출 효과가 상이할 수 있다.In addition, the effect data correction unit 452 may determine a directing effect given to the metaverse character by using the user's emotional state determined by the emotional state determination unit 410 . That is, the motion data compensator 442 may determine a directing effect so that a feature according to the user's emotion may be emphasized, and a directing effect applied to the character may be different depending on the emotion.

효과 데이터 보정부(452)는 클래스 활성화 맵의 활성화 영역에 따라 메타버스 캐릭터의 효과 영역을 결정할 수 있다. 결정된 효과 영역은 메타버스 캐릭터의 신체에서 연출 효과가 부여되는 영역일 수 있다. 사용자의 감정 변화에 따라 나타내는 신체적 변화는 클래스 활성화 맵에서 활성화 영역으로 판단될 수 있으며, 이러한 활성화 영역에 대응하는 메타버스 캐릭터 신체를 효과 영역으로 정의하고, 효과 영역에 대해 연출 효과를 부여함에 따라 사용자의 감정이 효과 데이터에 적절하게 반영되게 된다.The effect data correction unit 452 may determine the effect area of the metaverse character according to the activation area of the class activation map. The determined effect area may be an area where directing effects are given on the body of the metaverse character. The physical change indicated by the user's emotional change can be determined as an activation area in the class activation map. The emotion of is appropriately reflected in the effect data.

효과 데이터 보정부(452)는 감정 상태 결정부(410)에서 결정된 사용자의 감정이 'Anger'인 경우, 메타버스 캐릭터의 이마에 힘줄 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다. 또한, 효과 데이터 보정부(452)는 감정 상태 결정부(410)에서 결정된 사용자의 감정 상태가 'Sadness'인 경우, 메타버스 캐릭터의 눈동자 반사도 증가(눈물 맺힘) 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다. 또한, 감정 레벨에 따라 달리 결정된 가중치에 따라 캐릭터에 적용되는 연출 효과의 정도가 다르게 적용될 수 있다.When the user's emotion determined by the emotional state determination unit 410 is 'Anger', the effect data correction unit 452 may generate effect data for giving a tendon directing effect to the metaverse character's forehead. In addition, when the user's emotional state determined by the emotional state determination unit 410 is 'Sadness', the effect data correction unit 452 generates effect data for giving a directing effect of increasing the reflectivity of the eyes of the metaverse character (tear formation). can create In addition, the degree of directing effect applied to the character may be differently applied according to the weight determined differently according to the emotional level.

몇몇 실시예에 따르면, 효과 데이터 보정부(452)는 운동 상태 결정부(430)에서 결정된 사용자의 운동 상태를 이용하여, 메타버스 캐릭터에 부여되는 연출 효과를 결정할 수 있다. According to some embodiments, the effect data correction unit 452 may determine a directing effect given to the metaverse character by using the user's motion state determined by the motion state determination unit 430 .

예를 들어, 효과 데이터 보정부(452)는 사용자의 운동 상태가 제1 운동 상태인 경우, 메타버스 캐릭터에 대한 특별한 효과 데이터를 생성하지 않을 수 있다. 또한, 효과 데이터 보정부(452)는 사용자의 운동 상태가 제2 운동 상태인 경우, 메타버스 캐릭터의 옆머리 반사도 증가 연출 효과, 메타버스 캐릭터의 인중, 눈가 및 이마의 반사도 상승 및 맺혀 있는 땀 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다. 또한, 효과 데이터 보정부(452)는 사용자의 운동 상태가 제3 운동 상태인 경우, 메타버스 캐릭터의 헤어 형태의 변경 연출 효과, 메타버스 캐릭터의 헤어 재질의 변경 연출 효과(땀에 의한 반사도 및 컬러 변경), 메타버스 캐릭터의 인중, 눈가, 이마 및 광대에 흐르는 땀 연출 효과 및 메타버스 캐릭터의 피부 반사도 증가 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다. For example, when the user's exercise state is the first exercise state, the effect data correction unit 452 may not generate special effect data for the metaverse character. In addition, when the user's exercise state is the second exercise state, the effect data correction unit 452 produces an effect of increasing the reflectivity of the side hair of the metaverse character, an increase in the reflectivity of the metaverse character's philtrum, eyes and forehead, and directing sweat. Effect data for giving an effect can be created. In addition, when the user's exercise state is the third exercise state, the effect data correction unit 452 is a change directing effect of the metaverse character's hair shape, a change directing effect of the metaverse character's hair material (reflectivity and color due to sweat) change), effect data for giving the metaverse character's philtrum, eyes, forehead, and cheeks a sweat directing effect and a metaverse character's skin reflectivity increasing directing effect can be generated.

정리하면, 효과 데이터 보정부(452)는 효과 데이터 보정 가중치 결정부(451)의 보정 가중치에 따라, 사용자의 운동 상태 및 감정 상태 중 적어도 하나를 이용하여, 메타버스 캐릭터에 적용하기 위한 효과 데이터, 즉 캐릭터 연출 데이터(CB_Data#2)를 생성할 수 있다. 다시 말해서, 캐릭터 연출 데이터(CB_Data#2)는 사용자의 운동 상태 및 감정 상태 중 적어도 하나를 고려하여, 메타버스 캐릭터에 반영될 추가적인 연출 효과에 대한 데이터를 의미할 수 있다. In summary, the effect data correction unit 452 uses at least one of the user's motion state and emotional state according to the correction weight of the effect data correction weight determination unit 451, effect data for applying to the metaverse character, That is, character directing data (CB_Data#2) can be generated. In other words, the character directing data (CB_Data#2) may mean data for additional directing effects to be reflected on the metaverse character in consideration of at least one of the user's athletic state and emotional state.

다시 도 4를 참조하면, 메타버스 캐릭터 설정부(460)는 메타버스 캐릭터의 기본 설정을 결정할 수 있다. 메타버스 캐릭터 설정부(460)는 메타버스 캐릭터의 기본 설정, 예를 들어 땀이 많은 메타버스 캐릭터, 안면 홍조가 있는 메타버스 캐릭터, 운동량이 높은 메타버스 캐릭터 등 메타버스 캐릭터의 특징을 설정할 수 있다. 메타버스 캐릭터 설정부(460)에서 설정된 메타버스 캐릭터의 기본 설정값은 모션 보정부(440) 및 효과 보정부(450) 중 적어도 하나에 제공될 수 있다. Referring back to FIG. 4 , the metaverse character setting unit 460 may determine the basic settings of the metaverse character. The metaverse character setting unit 460 may set the basic settings of the metaverse character, for example, the characteristics of the metaverse character, such as a metaverse character with a lot of sweat, a metaverse character with facial flushing, and a metaverse character with high momentum. . The basic setting value of the metaverse character set in the metaverse character setting unit 460 may be provided to at least one of the motion correction unit 440 and the effect correction unit 450 .

모션 보정부(440)는 제공받은 메타버스 캐릭터의 기본 설정값을 이용하여, 모션 데이터 보정 가중치를 추가적으로 조절할 수 있다. 예를 들어, 메타버스 캐릭터가 과체중인 경우, 모션 보정부(440)는 운동 상태에 따른 모션 데이터 보정 가중치를 증가시켜, 메타버스 캐릭터의 상체 및 복부가 더 많이 흔들리도록 보정할 수 있다.The motion correction unit 440 may additionally adjust the motion data correction weight by using the provided default setting value of the metaverse character. For example, if the metaverse character is overweight, the motion correction unit 440 may correct the upper body and abdomen of the metaverse character to shake more by increasing the motion data correction weight according to the exercise state.

이와 유사하게, 효과 보정부(450)는 제공받은 메타버스 캐릭터의 기본 설정값을 이용하여, 효과 데이터를 추가적으로 조절할 수 있다. 예를 들어, 메타버스 캐릭터가 과체중인 경우, 효과 보정부(450)는 운동 상태에 따른 효과 데이터의 가중치를 증가시켜, 메타버스 캐릭터의 안면 반사도를 더 증가시킬 수 있다.Similarly, the effect correction unit 450 may additionally adjust the effect data using the basic setting values of the provided metaverse characters. For example, if the metaverse character is overweight, the effect correction unit 450 may increase the weight of the effect data according to the exercise state to further increase the facial reflectivity of the metaverse character.

다시 도 1을 참조하면, 데이터 보정 장치(400)에서 생성된 캐릭터 모션 데이터(CB_Data#1)는 골격 생성 장치(500)에 제공될 수 있다. 다시 말해서, 생체 정보 측정 장치(200)에서 생성된 생체 정보 데이터(BM_Data)에 의해 보정된 모션 데이터(MC_Data), 즉 캐릭터 모션 데이터(CB_Data#1)는 골격 생성 장치(500)에 제공될 수 있다. 골격 생성 장치(500)은 캐릭터 모션 데이터(CB_Data#1)를 이용하여, 모션에 대한 정보를 포함하는 메타버스 캐릭터의 골격 데이터(SK_Data)를 생성할 수 있다.Referring back to FIG. 1 , the character motion data CB_Data#1 generated by the data calibration device 400 may be provided to the skeleton generating device 500 . In other words, the motion data MC_Data corrected by the biometric information data BM_Data generated by the biometric information measurement device 200, that is, the character motion data CB_Data#1, may be provided to the skeleton generating device 500. . The skeleton generating device 500 may generate skeleton data (SK_Data) of a metaverse character including information about motion by using the character motion data (CB_Data#1).

골격 생성 장치(500)에서 생성된 골격 데이터(SK_Data)는 리타겟 장치(600)에 제공될 수 있다. 리타겟 장치(600)은 골격 데이터(SK_Data)를 이용하여, 캐릭터 리깅 데이터(CR_Data)를 생성할 수 있다. 캐릭터 리깅 데이터(CR_Data)는 미리 디자인된 메타버스 캐릭터 이미지에, 모션에 대한 정보를 포함하는 메타버스 캐릭터의 골격 데이터(SK_Data)가 결합된 데이터일 수 있다. The skeleton data SK_Data generated by the skeleton generating device 500 may be provided to the retarget device 600 . The retarget device 600 may generate character rigging data CR_Data using the skeleton data SK_Data. The character rigging data (CR_Data) may be data obtained by combining a pre-designed metaverse character image with the metaverse character skeleton data (SK_Data) including motion information.

리타겟 장치(600)에서 생성된 캐릭터 리깅 데이터(CR_Data)는 메타버스 캐릭터 구현 장치(700)에 제공될 수 있다. 메타버스 캐릭터 구현 장치(700)은 예를 들어, 게임 엔진일 수 있다. 또한, 데이터 보정 장치(400)에서 생성된 캐릭터 연출 데이터(CB_Data#2)는 메타버스 캐릭터 구현 장치(700)에 제공될 수 있다. 메타버스 캐릭터 구현 장치(700)은 캐릭터 리깅 데이터(CR_Data) 및 캐릭터 연출 데이터(CB_Data#2)를 이용하여 랜더링을 수행함으로써 메타버스 캐릭터(M_C)를 생성할 수 있다. 메타버스 캐릭터 구현 장치(700)은 메타버스 캐릭터(M_C)를 실시간으로 생성할 수 있으나, 실시예들이 이에 제한되는 것은 아니다.The character rigging data (CR_Data) generated by the retarget device 600 may be provided to the metaverse character implementation device 700. The metaverse character implementation device 700 may be, for example, a game engine. In addition, the character directing data (CB_Data#2) generated by the data correction device 400 may be provided to the metaverse character implementation device 700. The metaverse character implementation device 700 may generate the metaverse character M_C by performing rendering using the character rigging data CR_Data and the character directing data CB_Data#2. The metaverse character implementation device 700 may generate the metaverse character M_C in real time, but the embodiments are not limited thereto.

모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data), 생체 정보 측정 장치(200)에서 생성된 생체 정보 데이터(BM_Data) 및 사용자의 움직임을 촬영하는 영상 생성 장치(300)에서 생성된 영상 데이터는 데이터 백업 장치(800)에 저장될 수 있다. 이때, 데이터 백업 장치(800)에 저장되는 모션 데이터(MC_Data), 생체 정보 데이터(BM_Data) 및 사용자의 움직임을 촬영하는 영상 생성 장치(300)에서 생성된 영상 데이터의 싱크가 서로 동기화되어 저장될 수 있다. 다시 말해서, 모션 데이터(MC_Data), 생체 정보 데이터(BM_Data) 및 사용자의 움직임을 촬영하는 영상 생성 장치(300)에서 생성된 영상 데이터는 생성 시점이 서로 동기화되어, 데이터 백업 장치(800)에 저장될 수 있다. 몇몇 실시예에 따르면, 보정 가중치를 추가적으로 조절할 필요가 있는 경우, 데이터 백업 장치(800)에 저장된 모션 데이터(MC_Data) 및 생체 정보 데이터(BM_Data)를 다시 데이터 보정 장치(400)로 로드하여, 보정 가중치를 조절할 수 있다. 다시 말해서, 메타버스 캐릭터 구현 장치(700)은 데이터 백업 장치(800)에 저장된 모션 데이터(MC_Data) 및 생체 정보 데이터(BM_Data)를 로드 및 리테이크(retake)하여 메타버스 캐릭터(M_C)를 재생성할 수 있다.Motion data (MC_Data) generated by the motion capture device 100, biometric information data (BM_Data) generated by the biometric information measuring device 200, and image data generated by the image generating device 300 that captures the motion of the user are It may be stored in the data backup device 800. In this case, the motion data (MC_Data) stored in the data backup device 800, the biometric information data (BM_Data), and the sync of the image data generated by the image generating device 300 that captures the motion of the user may be synchronized and stored. there is. In other words, the motion data (MC_Data), the biometric data (BM_Data), and the image data generated by the video generating device 300 that captures the user's movements are synchronized at the time of creation and stored in the data backup device 800. can According to some embodiments, when it is necessary to additionally adjust the correction weight, the motion data (MC_Data) and the biometric information data (BM_Data) stored in the data backup device 800 are loaded into the data correction device 400 again to compensate for the correction weight. can be adjusted. In other words, the metaverse character implementation device 700 loads and retakes the motion data (MC_Data) and biometric information data (BM_Data) stored in the data backup device 800 to regenerate the metaverse character (M_C) can

몇몇 실시예에 따르면, 메타버스 캐릭터 제작 시스템(1)은 사용자의 움직임을 측정하는 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)와, 사용자의 생체 정보를 측정하는 생체 정보 측정 장치(200)에서 생성된 생체 정보 데이터, 사용자의 움직임을 촬영하는 영상 생성 장치(300)에서 생성된 영상 데이터를 이용하여, 메타버스 캐릭터(M_C)를 생성할 수 있다. 더욱 구체적으로, 메타버스 캐릭터 제작 시스템(1)은 모션 데이터(MC_Data)를 영상 데이터를 분석하여 결정된 감정 상태 및 사용자의 생체 정보를 반영하여 캐릭터 모션 데이터(CB_Data#1)를 생성하고, 사용자의 생체 정보를 반영한 캐릭터 효과에 대한 캐릭터 연출 데이터(CB_Data#2)를 생성하여 메타버스 캐릭터(M_C)를 구현할 수 있다. 따라서, 단순히 사용자의 움직임에만 국한되는 것이 아니라, 사용자의 현재 상태(운동 상태 및 감정 상태)를 모두 반영하여, 이를 메타버스 캐릭터(M_C)에 적용하기 때문에, 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터 제작 시스템(1)은 메타버스 캐릭터(M_C)의 리얼리티를 극대화할 수 있다는 장점이 있다. 또한, 사용자의 현재 상태는 상황에 따라 지속적으로 갱신되기 때문에, 메타버스 캐릭터 제작 시스템(1)에서 생성되는 메타버스 캐릭터(M_C)는 상황 변화에 따라 변경되는 연출을 쉽게 반영할 수 있다는 장점이 있다. 이하에서는, 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터 제작 방법에 대해 설명한다.According to some embodiments, the metaverse character production system 1 includes motion data (MC_Data) generated by the motion capture device 100 that measures a user's motion, and biometric information measurement device 200 that measures user's biometric information. ) and the image data generated by the image generating device 300 that captures the motion of the user, the metaverse character M_C can be created. More specifically, the metaverse character production system 1 generates character motion data (CB_Data#1) by reflecting the motion data (MC_Data) determined by analyzing the video data and the user's biometric information, and the user's biometric information. The metaverse character (M_C) can be implemented by generating character presentation data (CB_Data#2) for character effects reflecting information. Therefore, it is not limited to simply the user's movement, but reflects all of the user's current state (exercise state and emotional state) and applies it to the metaverse character (M_C), so the metaverse according to some embodiments of the present invention The character creation system 1 has the advantage of maximizing the reality of the metaverse character M_C. In addition, since the user's current status is continuously updated according to the situation, the metaverse character (M_C) created in the metaverse character production system 1 has the advantage of being able to easily reflect the direction that changes according to the situation. . Hereinafter, a metaverse character production method according to some embodiments of the present invention will be described.

도 12는 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터의 제작 방법에 대해 설명하기 위한 도면이다. 도 12에 따른 메타버스 캐릭터 제작 방법은 상술한 도 1 내지 도 11에 따른 메타버스 캐릭터 제작 시스템(1)에서 수행될 수 있다. 본 실시예에 따른 제작 방법의 설명을 위해 도 1 내지 도 11과 관련된 설명이 참조될 수 있다. 12 is a diagram for explaining a method of producing a metaverse character according to some embodiments of the present invention. The metaverse character creation method according to FIG. 12 may be performed in the metaverse character creation system 1 according to FIGS. 1 to 11 described above. For a description of the manufacturing method according to the present embodiment, reference may be made to descriptions related to FIGS. 1 to 11 .

도 12를 참조하면, 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터의 제작 방법은 사용자의 운동량에 따른 생체 정보 데이터를 포함하는 생체 정보 기록 데이터를 생성하는 단계(S100); 사용자의 움직임을 센싱하여 모션 데이터를 수집하고, 사용자의 생체 정보를 측정하여 생체 정보 데이터를 수집하며, 사용자의 움직임을 촬영한 영상 데이터를 생성하는 단계(S110); 영상 데이터 및 생체 정보 데이터를 이용하여, 사용자의 감정 상태를 결정하는 단계(S120); 생체 정보 기록 데이터 및 생체 정보 데이터를 이용하여, 사용자의 운동 상태를 결정하는 단계(S130); 사용자의 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 이용하여, 메타버스 캐릭터의 모션과 연관된 캐릭터 모션 데이터와 상기 메타버스 캐릭터의 연출 효과와 연관된 캐릭터 연출 데이터를 생성하는 단계(S140); 및 캐릭터 모션 데이터와 캐릭터 연출 데이터를 이용하여, 메타버스 캐릭터를 구현하는 단계(S150)를 포함한다. Referring to FIG. 12, a method of manufacturing a metaverse character according to some embodiments of the present invention includes generating biometric information recording data including biometric information data according to a user's momentum (S100); Sensing the user's motion to collect motion data, measuring the user's biometric information to collect biometric information data, and generating image data obtained by photographing the user's motion (S110); Determining a user's emotional state using image data and biometric information data (S120); determining an exercise state of the user using the biometric information recording data and the biometric information data (S130); Using at least one of the user's motion state and the user's emotional state, generating character motion data associated with the motion of the metaverse character and character directing data associated with the directing effect of the metaverse character (S140); and implementing a metaverse character using the character motion data and character directing data (S150).

단계(S100)에서, 사용자별 생체 정보 기록 데이터를 이용하여, 사용자별로 제1 운동 상태 구간 내지 제3 운동 상태 구간이 정의될 수 있다. 생체 정보 라이브러리(420)는 사용자의 생체 정보 기록 데이터를 이용하여, 사용자의 운동 상태를 제1 운동 상태 구간(S1), 제2 운동 상태 구간(S2) 및 제3 운동 상태 구간(S3)으로 구획할 수 있다. 생체 정보 라이브러리(420)는 사용자의 생체 정보 기록 데이터를 참고하여, 사용자의 심박수의 증가폭은 상대적으로 크고, 사용자의 호흡수의 증가폭은 상대적으로 작고, 사용자의 체온이 증가하고 있는 구간을 제1 운동 상태 구간(S1)으로 구획할 수 있다. 또한, 생체 정보 라이브러리(420)는 사용자의 생체 정보 기록 데이터를 참고하여, 사용자의 심박수의 증가폭은 상대적으로 작고, 사용자의 호흡수의 증가폭은 상대적으로 크고, 사용자의 체온이 증가하고 있는 구간을 제2 운동 상태 구간(S2)으로 구획할 수 있다. 또한, 생체 정보 라이브러리(420)는 사용자의 생체 정보 기록 데이터를 참고하여, 사용자의 심박수의 증가폭은 상대적으로 작고, 사용자의 호흡수의 증가폭은 상대적으로 작고, 사용자의 체온은 상대적으로 높으나, 체온이 미세하게 감소하거나 일정하게 유지되는 구간을 제3 운동 상태 구간(S3)으로 구획할 수 있다.In step S100, a first exercise state section to a third exercise state section may be defined for each user using biometric information recording data for each user. The biometric information library 420 divides the user's exercise state into a first exercise state section (S1), a second exercise state section (S2), and a third exercise state section (S3) by using the user's biometric information recording data. can do. The biometric information library 420 references the user's biometric information record data, and sets a section in which the user's heart rate is relatively large, the user's respiratory rate is relatively small, and the user's body temperature is increasing as a first exercise. It can be divided into state intervals (S1). In addition, the biometric information library 420 refers to the user's biometric information record data, and determines a section in which the user's heart rate increase rate is relatively small, the user's respiratory rate increase rate is relatively large, and the user's body temperature increases. It can be divided into 2 exercise state sections (S2). In addition, the biometric information library 420 refers to the user's biometric information record data, the user's heart rate increase rate is relatively small, the user's respiratory rate increase rate is relatively small, and the user's body temperature is relatively high. A section that decreases slightly or remains constant may be divided into a third exercise state section S3.

단계(S110)에서, 모션 캡쳐 장치(100)를 통해 상기 사용자의 움직임을 센싱하여 모션 데이터를 수집하고, 생체 정보 측정 장치(200)를 통해 상기 사용자의 생체 정보가 측정되어 생체 정보 데이터를 수집될 수 있다. 생체 정보 측정 장치(200)는 사용자의 심박, 호흡, 및/또는 체온을 측정하여, 이를 생체 정보 데이터(BM_Data)로 생성할 수 있다. In step S110, the user's motion is sensed through the motion capture device 100 to collect motion data, and the user's biometric information is measured through the biometric information measurement device 200 to collect biometric data. can The biometric information measurement device 200 may measure the user's heartbeat, respiration, and/or body temperature and generate the biometric information data BM_Data.

단계(S110)는, 사용자의 하나 이상의 신체 위치에 대한 체온을 체온 측정 모듈을 통해 측정하는 단계; 압력 변화에 따라 상기 사용자의 호흡을 호흡 측정 모듈을 통해 측정하는 단계; 및 상기 사용자의 심박을 심박 측정 모듈을 통해 측정하는 단계를 포함할 수 있다. Step (S110) may include measuring body temperature at one or more body positions of the user through a body temperature measuring module; Measuring the user's respiration through a respiration measurement module according to the pressure change; and measuring the user's heart rate through a heart rate measurement module.

상기 생체 정보 데이터는 상기 사용자의 하나 이상의 신체 위치에 대한 체온, 상기 사용자의 호흡 및 상기 사용자의 심박을 포함하며, 상기 체온 측정 모듈, 상기 호흡 측정 모듈 및 상기 심박 측정 모듈은 의류의 형태로 구현되고, 상기 체온 측정 모듈은 상기 사용자의 얼굴, 몸, 팔 및 다리에 대한 체온을 측정하기 위한 전자 섬유 온도 센서를 포함할 수 있다. The biometric information data includes body temperature for one or more body positions of the user, respiration of the user, and heart rate of the user, and the body temperature measurement module, the respiration measurement module, and the heart rate measurement module are implemented in the form of clothing. , The body temperature measurement module may include an electronic fiber temperature sensor for measuring the body temperature of the user's face, body, arms and legs.

또한, 단계(S110)에서, 영상 생성 장치(300)를 통해 사용자의 움직임을 촬영하여 영상 데이터를 생성할 수 있다. Also, in step S110, the user's movement may be photographed through the image generating device 300 to generate image data.

단계(S120)에서, 영상 데이터 및 생체 정보 데이터를 이용하여, 사용자의 감정 상태를 결정할 수 있다. In step S120, the user's emotional state may be determined using the image data and biometric information data.

감정 상태 결정부(410)는 사용자의 영상 데이터 및 사용자의 생체 정보 데이터에 기초하여 감정 상태를 결정할 수 있다. 여기서, 감정 상태는 사용자가 어떠한 감정인지 여부와 해당 감정에 사용자가 얼마나 몰입하였는지 여부를 나타내는 감정 레벨을 모두 포함할 수 있다. 또한, 실시예에서, 감정 상태는 사용자의 영상 데이터에서 사용자의 감정을 결정하는 것에 기초가 된 사용자의 신체 부위(또는 얼굴 영역)를 나타내는 클래스 활성화 맵을 포함할 수 있다. 감정 상태 결정부(410)는 사용자의 감정, 감정 레벨, 클래스 활성화 맵을 포함한 감정 상태를 생성할 수 있다. The emotional state determination unit 410 may determine an emotional state based on the user's image data and the user's biometric information data. Here, the emotional state may include both an emotion level indicating what kind of emotion the user has and how much the user is immersed in the corresponding emotion. Also, in an embodiment, the emotional state may include a class activation map indicating a user's body part (or face region) based on determining the user's emotion in the user's image data. The emotional state determiner 410 may generate an emotional state including the user's emotion, emotion level, and class activation map.

단계(S120)는, 상기 영상 데이터를 이용하여, 상기 사용자의 감정을 결정하는 단계; 및 상기 사용자의 얼굴, 몸, 팔 및 다리에 대한 체온 변화량을 기초로, 상기 사용자의 감정 레벨을 결정하는 단계를 포함할 수 있다. Step S120 may include determining the user's emotion using the image data; and determining an emotion level of the user based on changes in body temperature of the user's face, body, arms, and legs.

상기 사용자의 감정을 결정하는 단계는 미리 학습된 딥러닝 기반의 감정 분석 모델을 통해 입력된 영상 데이터를 분석하여 상기 영상 데이터에 포함된 사용자의 감정을 결정하는 것을 포함하며, 상기 감정 분석 모델은 콘볼루션 신경망 기반의 추출부 및 양방향 콘볼루션 LSTM 기반의 분석부를 포함할 수 있다.The step of determining the user's emotion includes determining the user's emotion included in the image data by analyzing input video data through a pre-learned deep learning-based emotion analysis model, wherein the emotion analysis model is convoluted. An extraction unit based on a convolutional neural network and an analysis unit based on a bidirectional convolutional LSTM may be included.

단계(S120)는, 상기 감정 분석 모델에서 상기 사용자의 감정을 결정하는 것과 연관된 정보를 시각화한 클래스 활성화 맵을 제공하는 단계를 더 포함할 수 있다. Step S120 may further include providing a class activation map visualizing information related to determining the user's emotion in the emotion analysis model.

단계(S130)에서, 운동 상태 결정부(430)는 사용자가 현재 어떤 운동 상태인지 여부를 결정할 수 있다. 운동 상태 결정부(430)는 생체 정보 측정 장치(200)에서 생성된 제1 사용자의 생체 정보 데이터(체온, 호흡수, 심박수)가, 제1 사용자에 대하여 미리 구획된 제1 운동 상태 구간(S1) 내에 포함된 경우, 운동 상태 결정부(430)는 제1 사용자의 운동 상태를 제1 운동 상태로 결정할 수 있다. 또한, 예를 들어, 생체 정보 측정 장치(200)에서 생성된 제1 사용자의 생체 정보 데이터(체온, 호흡수, 심박수)가, 제1 사용자에 대하여 미리 구획된 제2 운동 상태 구간(S2) 내에 포함된 경우, 운동 상태 결정부(430)는 제1 사용자의 운동 상태를 제2 운동 상태로 결정할 수 있다. 또한, 예를 들어, 생체 정보 측정 장치(200)에서 생성된 제1 사용자의 생체 정보 데이터(체온, 호흡수, 심박수)가, 제1 사용자에 대하여 미리 구획된 제3 운동 상태 구간(S3) 내에 포함된 경우, 운동 상태 결정부(430)는 제1 사용자의 운동 상태를 제3 운동 상태로 결정할 수 있다.In step S130, the exercise state determination unit 430 may determine whether the user is currently in any exercise state. The exercise state determining unit 430 determines that the first user's biometric information data (body temperature, respiration rate, heart rate) generated by the biometric information measurement device 200 is pre-divided for the first user in a first exercise state section (S1). ), the exercise state determination unit 430 may determine the exercise state of the first user as the first exercise state. In addition, for example, the first user's biometric information data (body temperature, respiration rate, heart rate) generated by the biometric information measuring device 200 is within the second exercise state section S2 pre-divided for the first user. If included, the exercise state determining unit 430 may determine the exercise state of the first user as the second exercise state. In addition, for example, the first user's biometric information data (body temperature, respiration rate, heart rate) generated by the biometric information measuring device 200 is within the third exercise state section S3 pre-divided for the first user. If included, the exercise state determination unit 430 may determine the exercise state of the first user as a third exercise state.

단계(S140)에서, 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 기초로, 메타버스 캐릭터의 모션과 연관된 캐릭터 모션 데이터와 상기 메타버스 캐릭터의 연출 효과와 연관된 캐릭터 연출 데이터를 생성될 수 있다. In step S140, based on at least one of the motion state and the user's emotional state, character motion data associated with the motion of the metaverse character and character directing data associated with the directing effect of the metaverse character may be generated.

단계(S140)에서, 모션 보정부는 사용자의 감정 상태와 상기 사용자의 운동 상태 중 적어도 하나를 이용하여, 상기 모션 데이터를 보정하여 모션 보정 데이터를 생성할 수 있다. 또한, 모션 보정부는 상기 모션 보정 데이터에 기초하여 상기 캐릭터 모션 데이터를 생성할 수 있다.In step S140, the motion compensation unit may generate motion compensation data by correcting the motion data using at least one of the user's emotional state and the user's movement state. Also, the motion compensation unit may generate the character motion data based on the motion compensation data.

단계(S140)에서, 사용자의 감정 상태를 이용하여, 모션 데이터(MC_Data)가 보정될 수 있다. 즉, 사용자의 감정에 따른 특징이 강조될 수 있도록 모션 데이터에 대한 보정이 수행될 수 있다. 사용자의 감정에 따라 모션 데이터를 보정하는 방식이 상이하게 적용될 수 있다.In step S140, the motion data MC_Data may be corrected using the user's emotional state. That is, motion data may be corrected so that a feature according to the user's emotion can be emphasized. Different methods of correcting motion data may be applied according to the user's emotion.

단계(S140)에서, 감정 상태는 클래스 활성화 맵을 포함할 수 있으며, 클래스 활성화 맵과 모션 데이터가 매칭되어 클래스 활성화 맵의 활성화 영역과 대응되는 모션 데이터의 모션 영역이 결정될 수 있다. 결정된 모션 영역은 모션 데이터에서 보정이 수행되는 영역일 수 있다. 사용자의 감정 변화에 따라 나타내는 신체적 변화는 클래스 활성화 맵에서 활성화 영역으로 판단될 수 있으며, 이러한 활성화 영역에 대응하는 모션 영역을 보정함에 따라 사용자의 감정이 모션 데이터에 적절하게 반영되게 된다. In operation S140 , the emotional state may include a class activation map, and a motion region of the motion data corresponding to an activation region of the class activation map may be determined by matching the class activation map with the motion data. The determined motion area may be an area where correction is performed on motion data. The physical change indicated by the user's emotional change can be determined as an activation area in the class activation map, and the user's emotion is appropriately reflected in the motion data by correcting the motion area corresponding to the activation area.

예를 들어, 결정된 사용자의 감정이 'Anger'인 경우, 생체 정보 데이터(BM_Data)에 포함된 사용자의 호기 및 흡기에 따라 메타버스 캐릭터의 상체가 흔들리도록 모션 데이터(MC_Data)가 보정될 수 있다. 다른 예시에서, 결정된 사용자의 감정이 'Anger'인 경우, 모션 데이터 보정부(442)는 메타버스 캐릭터의 미간이 좁혀지고, 눈꼬리가 올라가고, 입이 쳐지도록 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)가 보정될 수 있다. 또한, 감정 레벨에 따라 달리 결정된 가중치에 따라 캐릭터의 모션 데이터(MC_Data)의 보정 정도는 다르게 적용될 수 있다.For example, when the determined user's emotion is 'Anger', the motion data (MC_Data) may be corrected so that the upper body of the metaverse character shakes according to the user's exhalation and inhalation included in the biometric information data (BM_Data). In another example, when the determined user's emotion is 'Anger', the motion data correction unit 442 uses the motion generated by the facial capture module 120 such that the eyebrows of the metaverse character are narrowed, the eyebrows are raised, and the mouth is drooped. Data (MC_Data) may be corrected. In addition, the degree of correction of the motion data (MC_Data) of the character may be applied differently according to the weight determined differently according to the emotion level.

또한, 단계(S140)에서, 결정된 사용자의 운동 상태가 제1 운동 상태인 경우, 생체 정보 데이터(BM_Data)에 포함된 사용자의 호기 및 흡기에 따라 메타버스 캐릭터의 상체가 상대적으로 약하게 흔들리도록 모션 데이터(MC_Data)가 보정될 수 있다. 결정된 사용자의 운동 상태가 제2 운동 상태인 경우, 생체 정보 데이터(BM_Data)에 포함된 사용자의 호기 및 흡기에 따라 메타버스 캐릭터의 상체가 상대적으로 약하게 흔들리도록 모션 데이터(MC_Data)가 보정되고, 사용자의 호기 및 흡기에 따라 메타버스 캐릭터의 복부가 상대적으로 적게 팽창/수축하도록 모션 데이터(MC_Data)가 보정될 수 있다. 또한, 결정된 사용자의 운동 상태가 제3 운동 상태인 경우, 생체 정보 데이터(BM_Data)에 포함된 사용자의 호기 및 흡기에 따라, 메타버스 캐릭터의 상체가 상대적으로 강하게 흔들리도록 모션 데이터(MC_Data)가 보정되고, 사용자의 호기 및 흡기에 따라, 메타버스 캐릭터의 복부가 상대적으로 많이 팽창/수축하도록 모션 데이터(MC_Data)가 보정될 수 있다. In addition, in step S140, when the determined user's exercise state is the first exercise state, motion data such that the upper body of the metaverse character shakes relatively weakly according to the user's expiration and inspiration included in the biometric information data (BM_Data) (MC_Data) can be corrected. When the determined user's exercise state is the second exercise state, the motion data (MC_Data) is corrected so that the upper body of the metaverse character shakes relatively weakly according to the user's expiration and inspiration included in the biometric information data (BM_Data). Motion data (MC_Data) may be corrected so that the abdomen of the metaverse character expands/contracts relatively little according to the exhalation and inhalation of the . In addition, when the determined user's exercise state is the third exercise state, the motion data (MC_Data) is corrected so that the upper body of the metaverse character shakes relatively strongly according to the user's expiration and inspiration included in the biometric information data (BM_Data). In addition, the motion data (MC_Data) may be corrected so that the abdomen of the metaverse character expands/contracts relatively a lot according to the user's exhalation and inhalation.

또한, 단계(S140)에서, 결정된 사용자의 감정 상태를 이용하여, 메타버스 캐릭터에 부여되는 연출 효과를 결정할 수 있다. 즉, 사용자의 감정에 따른 특징이 강조될 수 있도록 연출 효과가 결정될 수 있으며, 감정에 따라 캐릭터에 적용되는 연출 효과가 상이할 수 있다.In addition, in step (S140), using the determined emotional state of the user, it is possible to determine the directing effect given to the metaverse character. That is, a directing effect may be determined so that a feature according to the user's emotion may be emphasized, and a directing effect applied to the character may be different according to the emotion.

단계(S140)에서, 클래스 활성화 맵의 활성화 영역에 따라 메타버스 캐릭터의 효과 영역이 결정될 수 있다. 결정된 효과 영역은 메타버스 캐릭터의 신체에서 연출 효과가 부여되는 영역일 수 있다. 사용자의 감정 변화에 따라 나타내는 신체적 변화는 클래스 활성화 맵에서 활성화 영역으로 판단될 수 있으며, 이러한 활성화 영역에 대응하는 메타버스 캐릭터 신체를 효과 영역으로 정의하고, 효과 영역에 대해 연출 효과를 부여함에 따라 사용자의 감정이 효과 데이터에 적절하게 반영되게 된다.In step S140, the effect area of the metaverse character may be determined according to the activation area of the class activation map. The determined effect area may be an area where directing effects are given on the body of the metaverse character. The physical change indicated by the user's emotional change can be determined as an activation area in the class activation map. The emotion of is appropriately reflected in the effect data.

예시적으로, 결정된 사용자의 감정이 'Anger'인 경우, 메타버스 캐릭터의 이마에 힘줄 연출 효과를 부여하기 위한 효과 데이터가 생성될 수 있다. 또한, 결정된 사용자의 감정 상태가 'Sadness'인 경우, 메타버스 캐릭터의 눈동자 반사도 증가(눈물 맺힘) 연출 효과를 부여하기 위한 효과 데이터가 생성될 수 있다. 또한, 감정 레벨에 따라 달리 결정된 가중치에 따라 캐릭터에 적용되는 연출 효과의 정도가 다르게 적용될 수 있다.Illustratively, when the determined user's emotion is 'Anger', effect data for giving a tendon directing effect to the forehead of the metaverse character may be generated. In addition, when the determined emotional state of the user is 'sadness', effect data for giving a production effect of increasing the reflectivity of the eyes of the metaverse character (tear formation) may be generated. In addition, the degree of directing effect applied to the character may be differently applied according to the weight determined differently according to the emotional level.

또한, 상기 단계(S160)에서, 사용자의 운동 상태가 제1 운동 상태인 경우, 메타버스 캐릭터에 대한 특별한 효과 데이터를 생성하지 않을 수 있다. 또한, 사용자의 운동 상태가 제2 운동 상태인 경우, 메타버스 캐릭터의 옆머리 반사도 증가 연출 효과, 메타버스 캐릭터의 인중, 눈가 및 이마의 반사도 상승 및 맺혀 있는 땀 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다. 또한, 사용자의 운동 상태가 제3 운동 상태인 경우, 메타버스 캐릭터의 헤어 형태의 변경 연출 효과, 메타버스 캐릭터의 헤어 재질의 변경 연출 효과(땀에 의한 반사도 및 컬러 변경), 메타버스 캐릭터의 인중, 눈가, 이마 및 광대에 흐르는 땀 연출 효과 및 메타버스 캐릭터의 피부 반사도 증가 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다.In addition, in the step S160, when the user's exercise state is the first exercise state, special effect data for the metaverse character may not be generated. In addition, when the user's exercise state is the second exercise state, the effect data for giving the effect of increasing the reflectivity of the metaverse character's side head, the increase of the reflectivity of the metaverse character's philtrum, the eyes and forehead, and the sweat production effect can create In addition, when the user's exercise state is the third exercise state, the effect of changing the shape of the metaverse character's hair, the effect of changing the material of the metaverse character's hair (change in reflectivity and color due to sweat), and the weight of the metaverse character , It is possible to generate effect data for giving a directing effect of sweat flowing on the eyes, forehead and cheeks and an effect of increasing the skin reflectivity of the metaverse character.

단계(S150)는, 상기 캐릭터 모션 데이터를 수신하고, 상기 캐릭터 모션 데이터를 이용하여 상기 메타버스 캐릭터의 골격 데이터를 생성하는 단계; 상기 골격 데이터를 수신하고, 상기 메타버스 캐릭터의 이미지에 상기 골격 데이터를 리깅하여, 캐릭터 리깅 데이터를 생성하는 단계; 및 상기 캐릭터 리깅 데이터를 이용하여 상기 메타버스 캐릭터의 모션을 구현하고, 상기 캐릭터 연출 데이터를 이용하여 상기 메타버스 캐릭터의 연출 효과를 구현하는 단계를 포함한다.Step (S150) includes receiving the character motion data and generating skeleton data of the metaverse character using the character motion data; Receiving the skeletal data and rigging the skeletal data to the image of the metaverse character, generating character rigging data; And implementing the motion of the metaverse character using the character rigging data, and implementing a directing effect of the metaverse character using the character directing data.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예는 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present embodiment, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present embodiment. Therefore, this embodiment is not intended to limit the technical idea of this embodiment, but to explain, and the scope of the technical idea of this embodiment is not limited by this embodiment. The scope of protection of this embodiment should be construed according to the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of rights of this embodiment.

Claims (10)

사용자의 움직임을 센싱하여 모션 데이터를 생성하는 모션 캡쳐 장치;
상기 사용자의 움직임을 촬영한 영상 데이터를 생성하는 영상 생성 장치;
상기 사용자의 생체 정보를 측정하여 생체 정보 데이터를 생성하는 생체 정보 측정 장치;
상기 모션 데이터, 상기 영상 데이터 및 상기 생체 정보 데이터를 이용하여 메타버스 캐릭터의 모션과 연관된 캐릭터 모션 데이터 및 상기 메타버스 캐릭터의 연출 효과와 연관된 캐릭터 연출 데이터를 생성하는 데이터 보정 장치; 및
상기 캐릭터 모션 데이터 및 상기 캐릭터 연출 데이터를 이용하여, 상기 메타버스 캐릭터를 생성하는 메타버스 캐릭터 구현 장치를 포함하고,
상기 데이터 보정 장치는,
딥러닝 기반의 미리 학습된 감정 분석 모델을 이용하여 상기 영상 데이터를 분석하여 상기 사용자의 감정을 결정하는 제1 감정 분석 모듈 및 상기 생체 정보 데이터에 포함된 상기 사용자의 제1 위치의 제1 체온의 변화량, 상기 사용자의 제2 위치의 제2 체온의 변화량, 상기 사용자의 제3 위치의 제3 체온의 변화량 및 상기 사용자의 제4 위치의 제4 체온의 변화량을 기초로, 상기 영상 데이터를 분석하여 결정된 상기 사용자의 감정에 대한 감정 레벨을 결정하는 제2 감정 분석 모듈을 포함하고, 상기 결정된 감정과 상기 결정된 감정 레벨을 이용하여 상기 사용자의 감정 상태를 결정하는 감정 상태 결정부;
상기 사용자의 운동량에 따른 생체 정보 데이터를 포함하는 생체 정보 기록 데이터를 생성하는 생체 정보 라이브러리;
상기 사용자의 운동량의 증가에 따라, 상기 생체 정보 측정 장치를 이용하여, 미리 정한 시간 간격 또는 연속적으로 기록된 상기 사용자의 생체 정보 기록 데이터를 포함하는 생체 정보 라이브러리, 상기 사용자의 생체 정보 기록 데이터를 이용하여 상기 사용자의 운동 상태 구간을 구획하고, 상기 구획된 사용자의 운동 상태 구간과 상기 사용자의 생체 정보 데이터를 이용하여 상기 사용자의 운동 상태를 결정하는 운동 상태 결정부; 및
상기 사용자의 감정 상태와 상기 사용자의 운동 상태 중 적어도 하나를 이용하여, 상기 모션 데이터를 보정하여 모션 보정 데이터를 생성하고, 상기 모션 보정 데이터를 기초로 상기 캐릭터 모션 데이터를 생성하는 모션 보정부를 포함하는,
메타버스 캐릭터 제작 시스템.
a motion capture device that senses a user's motion and generates motion data;
an image generating device for generating image data obtained by photographing the motion of the user;
a biometric information measuring device configured to measure biometric information of the user and generate biometric information data;
a data correction device for generating character motion data related to the motion of the metaverse character and character directing data related to the directing effect of the metaverse character by using the motion data, the image data, and the biometric information data; and
A metaverse character implementation device for generating the metaverse character using the character motion data and the character directing data,
The data correction device,
A first emotion analysis module for determining the user's emotion by analyzing the image data using a deep learning-based pre-learned emotion analysis model and a first body temperature of the user's first location included in the biometric information data The image data is analyzed based on the amount of change, the amount of change in the second body temperature at the second location of the user, the amount of change in the third body temperature at the third location of the user, and the amount of change in the fourth body temperature at the fourth location of the user an emotional state determining unit including a second emotion analysis module for determining an emotion level for the determined emotion of the user, and determining an emotional state of the user using the determined emotion and the determined emotion level;
a biometric information library generating biometric information recording data including biometric information data according to the amount of exercise of the user;
As the user's exercise amount increases, the biometric information library including the biometric information recording data of the user recorded at a predetermined time interval or continuously using the biometric information measuring device, using the user's biometric information recording data an exercise state determining unit that partitions the user's exercise state section and determines the user's exercise state by using the user's exercise state section and the user's biometric information data; and
A motion compensating unit generating motion compensation data by correcting the motion data by using at least one of the user's emotional state and the user's athletic state, and generating the character motion data based on the motion compensation data. ,
Metaverse character creation system.
삭제delete 제1 항에 있어서,
상기 데이터 보정 장치는,
상기 사용자의 운동 상태와, 상기 사용자의 감정 상태 중 적어도 하나를 이용하여, 상기 캐릭터 연출 데이터를 생성하는 효과 보정부를 더 포함하는,
메타버스 캐릭터 제작 시스템.
According to claim 1,
The data correction device,
Further comprising an effect correction unit for generating the character directing data using at least one of the user's motion state and the user's emotional state,
Metaverse character creation system.
제1 항에 있어서,
상기 생체 정보 측정 장치는,
사용자의 하나 이상의 신체 위치에 대한 체온을 측정하는 체온 측정 모듈; 압력 변화에 따라 상기 사용자의 호흡을 측정하는 호흡 측정 모듈; 및 상기 사용자의 심박을 측정하는 심박 측정 모듈을 포함하는,
메타버스 캐릭터 제작 시스템.
According to claim 1,
The biometric information measurement device,
a body temperature measurement module for measuring body temperature for one or more body positions of a user; Respiration measurement module for measuring the user's respiration according to the pressure change; And a heart rate measurement module for measuring the heart rate of the user.
Metaverse character creation system.
제4 항에 있어서,
상기 생체 정보 데이터는 상기 사용자의 하나 이상의 신체 위치에 대한 체온, 상기 사용자의 호흡 및 상기 사용자의 심박을 포함하며,
상기 체온 측정 모듈, 상기 호흡 측정 모듈 및 상기 심박 측정 모듈은 의류의 형태로 구현되고,
상기 체온 측정 모듈은 상기 사용자의 얼굴, 몸, 팔 및 다리에 대한 체온을 측정하기 위한 전자 섬유 온도 센서를 포함하는,
메타버스 캐릭터 제작 시스템.
According to claim 4,
The biometric information data includes body temperature for one or more body positions of the user, respiration of the user, and heart rate of the user;
The body temperature measurement module, the respiration measurement module, and the heart rate measurement module are implemented in the form of clothing,
The body temperature measurement module includes an electronic fiber temperature sensor for measuring the body temperature of the user's face, body, arms and legs,
Metaverse character creation system.
삭제delete 제1 항에 있어서,
상기 감정 분석 모델은 콘볼루션 신경망 기반의 추출부 및 양방향 콘볼루션 LSTM 기반의 분석부를 포함하는,
메타버스 캐릭터 제작 시스템.
According to claim 1,
The emotion analysis model includes a convolutional neural network-based extraction unit and a bidirectional convolutional LSTM-based analysis unit.
Metaverse character creation system.
제7 항에 있어서,
상기 감정 상태 결정부는,
상기 감정 분석 모델에서 상기 사용자의 감정을 결정하는 것과 연관된 정보를 시각화한 클래스 활성화 맵을 제공하는 데이터 시각화 모듈을 더 포함하는,
메타버스 캐릭터 제작 시스템.
According to claim 7,
The emotional state determining unit,
Further comprising a data visualization module providing a class activation map visualizing information related to determining the user's emotion in the emotion analysis model.
Metaverse character creation system.
제1 항에 있어서,
상기 캐릭터 모션 데이터를 수신하고, 상기 캐릭터 모션 데이터를 이용하여 상기 메타버스 캐릭터의 골격 데이터를 생성하는 골격 생성 장치; 및
상기 골격 데이터를 수신하고, 상기 메타버스 캐릭터의 이미지에 상기 골격 데이터를 리깅하여, 캐릭터 리깅 데이터를 생성하는 리타겟 장치를 더 포함하고,
상기 메타버스 캐릭터 구현 장치는 상기 캐릭터 리깅 데이터를 이용하여 상기 메타버스 캐릭터의 모션을 구현하고, 상기 캐릭터 연출 데이터를 이용하여 상기 메타버스 캐릭터의 연출 효과를 구현하는,
메타버스 캐릭터 제작 시스템.
According to claim 1,
a skeleton generating device that receives the character motion data and generates skeleton data of the metaverse character using the character motion data; and
Further comprising a retarget device for receiving the skeleton data, rigging the skeleton data to the image of the metaverse character, and generating character rigging data;
The metaverse character implementation device implements the motion of the metaverse character using the character rigging data, and implements the directing effect of the metaverse character using the character directing data.
Metaverse character creation system.
삭제delete
KR1020220095231A 2022-08-01 2022-08-01 Metaverse character making system and method for image analysis data KR102493097B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220095231A KR102493097B1 (en) 2022-08-01 2022-08-01 Metaverse character making system and method for image analysis data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220095231A KR102493097B1 (en) 2022-08-01 2022-08-01 Metaverse character making system and method for image analysis data

Publications (1)

Publication Number Publication Date
KR102493097B1 true KR102493097B1 (en) 2023-02-01

Family

ID=85213131

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220095231A KR102493097B1 (en) 2022-08-01 2022-08-01 Metaverse character making system and method for image analysis data

Country Status (1)

Country Link
KR (1) KR102493097B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
JP2009502335A (en) * 2005-07-26 2009-01-29 ヴィヴォメトリクス・インク Computer interface with physiologically guided avatar
KR20140015679A (en) * 2012-07-06 2014-02-07 (주)에스엔 3d health avatar service system using emotion-complex sensor
KR20200035887A (en) * 2018-09-27 2020-04-06 삼성전자주식회사 Method and system for providing an interactive interface
KR102341866B1 (en) * 2021-08-31 2021-12-22 주식회사 에스에이엠지엔터테인먼트 System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
JP2009502335A (en) * 2005-07-26 2009-01-29 ヴィヴォメトリクス・インク Computer interface with physiologically guided avatar
KR20140015679A (en) * 2012-07-06 2014-02-07 (주)에스엔 3d health avatar service system using emotion-complex sensor
KR20200035887A (en) * 2018-09-27 2020-04-06 삼성전자주식회사 Method and system for providing an interactive interface
KR102341866B1 (en) * 2021-08-31 2021-12-22 주식회사 에스에이엠지엔터테인먼트 System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof

Similar Documents

Publication Publication Date Title
US10813559B2 (en) Detecting respiratory tract infection based on changes in coughing sounds
US10667697B2 (en) Identification of posture-related syncope using head-mounted sensors
US11430169B2 (en) Animating virtual avatar facial movements
US11798261B2 (en) Image face manipulation
US11103140B2 (en) Monitoring blood sugar level with a comfortable head-mounted device
US20210280322A1 (en) Wearable-based certification of a premises as contagion-safe
JP5468047B2 (en) System and method for animating a digital face model
CN114981844A (en) 3D body model generation
US11836862B2 (en) External mesh with vertex attributes
US11663792B2 (en) Body fitted accessory with physics simulation
JP7278724B2 (en) Information processing device, information processing method, and information processing program
KR102343582B1 (en) Artificial intelligence-based metaverse contents making system for using biometric information
KR102469274B1 (en) Metaverse character making system and method for using biometric information
KR102373606B1 (en) Electronic apparatus and method for image formation, and program stored in computer readable medium performing the same
KR101913811B1 (en) A method for analysing face information, and an appratus for analysing face information to present faces, identify mental status or compensate it
US20210182554A1 (en) Method and system for performing eye tracking using an off-axis camera
KR102495136B1 (en) Metaverse character making system for using user tracking and image analysis
US11430168B2 (en) Method and apparatus for rigging 3D scanned human models
KR102493097B1 (en) Metaverse character making system and method for image analysis data
KR102247481B1 (en) Device and method for generating job image having face to which age transformation is applied
US20230154084A1 (en) Messaging system with augmented reality makeup
KR102493882B1 (en) Metaverse character making system for using image analysis
KR102517396B1 (en) Metaverse character making system using biometric information measured using an electronic fiber sensor
WO2023035725A1 (en) Virtual prop display method and apparatus
KR102517395B1 (en) Metaverse character making system and method for using biometric information

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant