KR102493882B1 - Metaverse character making system for using image analysis - Google Patents

Metaverse character making system for using image analysis Download PDF

Info

Publication number
KR102493882B1
KR102493882B1 KR1020220109967A KR20220109967A KR102493882B1 KR 102493882 B1 KR102493882 B1 KR 102493882B1 KR 1020220109967 A KR1020220109967 A KR 1020220109967A KR 20220109967 A KR20220109967 A KR 20220109967A KR 102493882 B1 KR102493882 B1 KR 102493882B1
Authority
KR
South Korea
Prior art keywords
data
metaverse
user
character
motion
Prior art date
Application number
KR1020220109967A
Other languages
Korean (ko)
Inventor
권도균
유한
양정석
Original Assignee
주식회사 에이펀인터렉티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이펀인터렉티브 filed Critical 주식회사 에이펀인터렉티브
Priority to KR1020220109967A priority Critical patent/KR102493882B1/en
Application granted granted Critical
Publication of KR102493882B1 publication Critical patent/KR102493882B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0803Recording apparatus specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pulmonology (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Educational Technology (AREA)
  • Computer Graphics (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to a metaverse character production system using image analysis. The system includes: a motion capture device generating motion data by sensing the facial movement of a user; a photographing device generating image data by photographing the face of the user; a data correction module comparing the facial expression of a metaverse character created using the motion data with a facial expression of the user included in the image data, thereby correcting the motion data to generate first correction data; and a metaverse character creation module creating metaverse content including the metaverse character by using the first correction data. Therefore, the present invention is capable of producing a metaverse character more properly reflecting the acting of an actor.

Description

영상 분석을 이용한 메타버스 캐릭터 제작 시스템{Metaverse character making system for using image analysis} Metaverse character making system for using image analysis}

본 발명은 영상 분석을 이용한 메타버스 캐릭터 제작 시스템에 관한 것이다. 구체적으로, 본 발명은 영상 분석을 통해 배우의 연기를 촬영한 영상과, 배우의 연기로 인해 생성된 모션 데이터를 기초로 생성된 메타버스 캐릭터의 영상을 비교하여, 모션 데이터를 보정하는 메타버스 캐릭터 제작 시스템에 관한 것이다. The present invention relates to a metaverse character production system using image analysis. Specifically, the present invention is a metaverse character that corrects motion data by comparing an image of an actor's performance through image analysis and a metaverse character image generated based on motion data generated by the actor's performance. It's about the crafting system.

메타버스 캐릭터 제작은 매우 복잡한 절차를 통해서 이루어진다. 종래의 메타버스 캐릭터 제작의 경우 2D나 3D 컴퓨터 그래픽 영상은 제작자가 동작들을 일일이 수작업으로 만들기 때문에, 시간적/경제적으로 많은 비용이 소요되었으며, 또한 동작간 리얼리티가 부족하다는 단점이 있다.Creating metaverse characters is done through a very complicated process. In the case of conventional metaverse character production, 2D or 3D computer graphic images require a lot of time and money because producers manually make movements one by one, and there is a disadvantage in that reality between movements is insufficient.

그러나, 최근 메타버스 캐릭터 제작 시스템에서는 캐릭터의 리얼리티를 살리기 위해 다양한 방식을 이용하고 있다. 가장 대표적으로 복수의 마커를 부착한 연기자의 움직임을 센싱하여 골격을 생성하고, 미리 구현한 캐릭터 이미지에 생성된 골격을 리깅함으로써 캐릭터에 생동감을 불러 일으키는 작업을 진행하고 있다.However, in the recent metaverse character creation system, various methods are used to bring out the reality of the character. Most representatively, a skeleton is created by sensing the movement of an actor with a plurality of markers attached, and a work of bringing life to a character is in progress by rigging the skeleton created in a previously implemented character image.

최근 메타버스 캐릭터 제작 시스템은 캐릭터의 리얼리티를 살리고, 제작비용을 절감하기 위한 다양한 메타버스 캐릭터 제작의 자동화된 추가적인 처리 과정들이 개발되고 있다.Recently, the metaverse character production system is developing various automated additional processing processes for creating various metaverse characters to save the reality of the character and reduce production costs.

공개특허공보 제10-2004-0096799호Publication No. 10-2004-0096799

본 발명의 과제는, 메타버스 캐릭터의 리얼리티를 극대화하기 위해, 배우의 생체 정보를 이용하여, 메타버스 캐릭터의 움직임 및 연출 효과를 보정하는 메타버스 제작 시스템을 제공하는 것이다. An object of the present invention is to provide a metaverse production system that corrects the movement and production effect of a metaverse character by using biometric information of an actor in order to maximize the reality of a metaverse character.

또한, 본 발명의 과제는, 메타버스 캐릭터의 리얼리티를 극대화하기 위해, 연기 도중 변화되는 배우의 운동 상태 및 감정 상태를 반영하여, 메타버스 캐릭터의 움직임 및 연출 효과를 보정하는 메타버스 제작 시스템을 제공하는 것이다. In addition, the subject of the present invention, in order to maximize the reality of the metaverse character, reflects the movement state and emotional state of the actor that changes during acting, and corrects the movement and directing effect of the metaverse character. Provide a production system for the metaverse is to do

또한, 본 발명의 과제는, 메타버스 캐릭터를 생성하기 위해 수행하는 배우의 연기를 메타버스 캐릭터의 표정에 보다 적절하게 반영하기 위해, 배우의 연기 영상과 메타버스 캐릭터의 영상을 비교 분석함으로써, 배우의 연기에 의해 생성된 모션 데이터를 추가적으로 보정하는 메타버스 제작 시스템을 제공하는 것이다. In addition, the object of the present invention is to more appropriately reflect the acting of the actor performed to create the metaverse character to the expression of the metaverse character, by comparing and analyzing the actor's acting video and the image of the metaverse character, It is to provide a metaverse production system that additionally corrects the motion data generated by the acting of.

또한, 본 발명의 과제는, 배우의 감정 상태 결정을 위해, 배우의 연기를 촬영한 영상을 분석한 결과를 추가적으로 이용하는 메타버스 제작 시스템을 제공하는 것이다. In addition, an object of the present invention is to provide a metaverse production system that additionally uses a result of analyzing an image of an actor's performance in order to determine the actor's emotional state.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned above can be understood by the following description and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations indicated in the claims.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 메타버스 제작 시스템은 사용자의 얼굴 움직임을 센싱하여 모션 데이터를 생성하는 모션 캡쳐 장치, 상기 사용자의 얼굴을 촬영하여 영상 데이터를 생성하는 촬영 장치, 상기 모션 데이터를 이용하여 생성된 메타버스 캐릭터의 얼굴 표정과, 상기 영상 데이터에 포함된 상기 사용자의 얼굴 표정을 비교하여, 상기 모션 데이터를 보정하여 제1 보정 데이터를 생성하는 데이터 보정 모듈 및 상기 제1 보정 데이터를 이용하여 상기 메타버스 캐릭터를 포함하는 메타버스 컨텐츠를 구현하는 메타버스 캐릭터 구현 모듈을 포함한다. A metaverse production system according to some embodiments of the present invention for solving the above problems is a motion capture device for generating motion data by sensing a motion of a user's face, a photographing device for generating image data by photographing the user's face, A data correction module for generating first correction data by comparing a facial expression of a metaverse character generated using the motion data with a facial expression of the user included in the image data and correcting the motion data; and 1 includes a metaverse character implementation module that implements metaverse content including the metaverse character using correction data.

몇몇 실시예에 따르면, 상기 데이터 보정 모듈은, 상기 모션 데이터를 이용하여 생성된 제1 메타버스 캐릭터 영상과, 상기 제1 보정 데이터를 이용하여 생성된 제2 메타버스 캐릭터 영상을 디스플레이하는 디스플레이부 및 상기 제1 메타버스 캐릭터 영상 및 상기 제2 메타버스 캐릭터 영상 중 어느 하나를 선택하는 입력 신호를 생성하는 입력부를 포함할 수 있다. According to some embodiments, the data correction module, a display unit for displaying a first metaverse character image generated using the motion data and a second metaverse character image generated using the first correction data, and It may include an input unit for generating an input signal for selecting any one of the first metaverse character image and the second metaverse character image.

몇몇 실시예에 따르면, 상기 메타버스 컨텐츠는 특정 구간마다 입력되는 상기 입력 신호에 따라, 상기 제1 메타버스 캐릭터 영상 및 상기 제2 메타버스 캐릭터 영상 중 어느 하나를 이용하여 구현될 수 있다. According to some embodiments, the metaverse content may be implemented using any one of the first metaverse character image and the second metaverse character image according to the input signal input for each specific section.

몇몇 실시예에 따르면, 상기 모션 데이터를 이용하여 제1 골격 데이터를 생성하고, 상기 제1 보정 데이터를 이용하여 제2 골격 데이터를 생성하는 골격 생성 모듈 및 상기 메타버스 캐릭터의 이미지에 상기 제1 골격 데이터를 리깅하여, 상기 제1 메타버스 캐릭터 영상을 생성하고, 상기 메타버스 캐릭터의 이미지에 상기 제2 골격 데이터를 리깅하여, 상기 제2 메타버스 캐릭터 영상을 생성하는 리타겟 모듈을 더 포함할 수 있다. According to some embodiments, a skeleton generation module for generating first skeleton data using the motion data and generating second skeleton data using the first correction data, and the first skeleton in the image of the metaverse character. A retarget module for generating the first metaverse character image by rigging data and generating the second metaverse character image by rigging the second skeleton data to the image of the metaverse character May further include there is.

몇몇 실시예에 따르면, 상기 데이터 보정 모듈은, 상기 영상 데이터에 포함된 상기 사용자의 표정과, 상기 모션 데이터를 이용하여 생성된 제1 메타버스 캐릭터 영상에 포함된 상기 메타버스 캐릭터의 표정을 비교하여, 상기 모션 데이터를 보정하여 상기 제1 보정 데이터를 생성하는 모션 데이터 보정부를 포함할 수 있다. According to some embodiments, the data correction module compares the expression of the user included in the image data with the expression of the metaverse character included in the first metaverse character image generated using the motion data , and a motion data corrector configured to generate the first correction data by correcting the motion data.

몇몇 실시예에 따르면, 상기 모션 데이터 보정부는, 인공지능 분석을 통해 상기 영상 데이터에 포함된 상기 사용자의 표정을 분석하여, 상기 사용자의 표정에 포함된 제1 감정 요소와, 상기 제1 감정 요소에 대응되는 제1 감정 비율을 결정하고, 인공지능 분석을 통해 상기 제1 메타버스 캐릭터 영상에 포함된 상기 메타버스 캐릭터의 표정을 분석하여, 상기 메타버스 캐릭터의 표정에 포함된 제2 감정 요소와, 상기 제2 감정 요소에 대응되는 제2 감정 비율을 결정하고, 상기 제1 감정 요소, 상기 제2 감정 요소, 상기 제1 감정 비율 및 상기 제2 감정 비율을 비교하여 상기 모션 데이터를 보정하여 상기 제1 보정 데이터를 생성할 수 있다.According to some embodiments, the motion data correction unit analyzes the user's expression included in the image data through artificial intelligence analysis, and determines a first emotion element included in the user's expression and the first emotion element. A second emotion element included in the expression of the metaverse character by determining a corresponding first emotion ratio, analyzing the expression of the metaverse character included in the first metaverse character image through artificial intelligence analysis, and A second emotion rate corresponding to the second emotion factor is determined, and the motion data is corrected by comparing the first emotion factor, the second emotion factor, the first emotion rate, and the second emotion rate, 1 Can generate correction data.

몇몇 실시예에 따르면, 상기 사용자의 생체 정보를 측정하여 생체 정보 데이터를 생성하는 생체 정보 측정 장치를 더 포함하고, 상기 데이터 보정 모듈은, 상기 생체 정보 데이터를 이용하여, 상기 사용자의 운동 상태를 결정하는 운동 상태 결정부 및 상기 생체 정보 데이터와 상기 영상 데이터를 이용하여, 상기 사용자의 감정 상태를 결정하는 감정 상태 결정부를 포함하고, 상기 제1 보정 데이터를 생성하기 위해, 상기 사용자의 운동 상태와 상기 사용자의 감정 상태를 더 이용할 수 있다.According to some embodiments, the method further includes a biometric information measuring device configured to measure biometric information of the user and generate biometric information data, and wherein the data correcting module determines an exercise state of the user using the biometric information data. and an emotional state determining unit configured to determine an emotional state of the user using the biometric information data and the image data, and to generate the first correction data, The user's emotional state may be further utilized.

몇몇 실시예에 따르면, 상기 데이터 보정 모듈은, 상기 사용자의 운동 상태 및 상기 사용자의 감정 상태를 이용하여, 상기 메타버스 캐릭터의 연출 효과와 관련된 제2 보정 데이터를 더 생성할 수 있다.According to some embodiments, the data correction module may further generate second correction data related to the directing effect of the metaverse character by using the user's athletic state and the user's emotional state.

몇몇 실시예에 따르면, 상기 데이터 보정 모듈은 상기 사용자의 운동량의 증가에 따라, 상기 생체 정보 측정 장치를 이용하여, 미리 정한 시간 간격 또는 연속적으로 기록된 사용자의 생체 정보 기록 데이터를 포함하는 생체 정보 라이브러리, 상기 사용자의 생체 정보 기록 데이터를 이용하여 상기 사용자의 운동 상태 구간을 구획하고, 상기 구획된 사용자의 운동 상태 구간과 상기 사용자의 생체 정보 데이터를 이용하여 상기 사용자의 운동 상태를 결정하는 운동 상태 결정부, 상기 사용자의 제1 신체 부위의 체온 변화량이 제1 기준 이상인지 여부 및 상기 사용자의 상기 제1 신체 부위와 다른 제2 신체 부위의 체온 변화량이 제2 기준 이상인지 여부를 기초로 상기 사용자의 감정 상태를 결정하는 감정 상태 결정부를 포함할 수 있다. According to some embodiments, the data correction module may include a biometric information library including biometric information recording data of a user recorded at a predetermined time interval or continuously using the biometric information measuring device according to an increase in the user's exercise amount. , Exercise state determination that partitions the user's exercise state section using the user's biometric information record data, and determines the user's exercise state using the user's exercise state section and the user's biometric information data based on whether the change in body temperature of the first body part of the user is equal to or greater than a first reference value and whether the change in body temperature of a second part of the body different from the first part of the user is greater than or equal to a second reference value; An emotional state determining unit for determining an emotional state may be included.

몇몇 실시예에 따르면, 상기 운동 상태 결정부는 상기 사용자의 생체 정보 기록 데이터를 참고하여, 상기 사용자의 심박수의 증가폭은 상대적으로 크고, 상기 사용자의 호흡수의 증가폭은 상대적으로 작고, 상기 사용자의 체온이 증가하는 구간을 제1 운동 상태 구간으로 결정하고, 상기 사용자의 심박수의 증가폭은 상대적으로 작고, 상기 사용자의 호흡수의 증가폭은 상대적으로 크고, 상기 사용자의 체온이 증가하는 구간을 제2 운동 상태 구간으로 결정하고, 상기 사용자의 심박수의 증가폭은 상대적으로 작고, 상기 사용자의 호흡수의 증가폭은 상대적으로 작고, 상기 사용자의 체온은 상대적으로 높고, 상기 사용자의 체온이 감소하거나 일정하게 유지되는 구간을 제3 운동 상태 구간으로 결정할 수 있다. According to some embodiments, the exercise state determination unit refers to the user's biometric information recording data, the user's heart rate increase rate is relatively large, the user's respiratory rate increase rate is relatively small, and the user's body temperature is An increasing interval is determined as a first exercise state interval, and an interval in which the user's heart rate increase is relatively small, the user's respiration rate is relatively large, and the user's body temperature increases is the second exercise state interval. Determines an interval in which the increase of the user's heart rate is relatively small, the increase of the user's respiratory rate is relatively small, the user's body temperature is relatively high, and the user's body temperature decreases or is maintained constant. 3 It can be determined as an exercise state section.

본 발명의 메타버스 캐릭터 제작 시스템은, 연기를 수행하는 사용자의 현재 상태를 반영하여, 메타버스 캐릭터의 움직임과 연출 효과에 적용하므로 캐릭터의 리얼리티를 극대화할 수 있다. The metaverse character production system of the present invention reflects the current state of the user performing the acting and applies it to the movement and directing effect of the metaverse character, so that the reality of the character can be maximized.

또한, 본 발명의 메타버스 캐릭터 제작 시스템은 사용자의 현재 상태를 지속적으로 갱신하여, 상황 변화에 따른 연출을 손쉽게 수행할 수 있다.In addition, the metaverse character production system of the present invention continuously updates the user's current status, so that directing according to situation changes can be easily performed.

또한, 본 발명의 메타버스 캐릭터 제작 시스템은 실제 배우의 연기를 촬영한 영상과, 배우의 연기에 의해 생성된 모션 데이터를 이용하여 생성된 메타버스 캐릭터의 영상을 비교 분석함으로써, 모션 데이터를 추가적으로 보정함으로써, 배우의 연기를 보다 더 적절하게 반영한 메타버스 캐릭터를 제작할 수 있다. In addition, the metaverse character production system of the present invention additionally corrects the motion data by comparing and analyzing the image of the metaverse character created using the motion data generated by the actor's performance and the image of the actual actor's performance. By doing so, it is possible to produce a metaverse character that more appropriately reflects the actor's performance.

또한, 본 발명의 메타버스 캐릭터 제작 시스템은 생체 정보 데이터 뿐만 아니라, 배우의 표정을 추가적으로 분석하여 배우의 감정 상태를 파악하므로, 배우의 감정 상태를 보다 정확하게 판단할 수 있어, 배우의 상태를 보다 적절히 반영하는 메타버스 캐릭터를 제작할 수 있다. In addition, the metaverse character production system of the present invention additionally analyzes the actor's expression as well as the biometric data to determine the actor's emotional state, so the actor's emotional state can be more accurately determined, and the actor's state is more appropriately You can create a metaverse character that reflects it.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above description, specific effects of the present invention will be described together while explaining specific details for carrying out the present invention.

도 1은 본 발명의 몇몇 실시예에 따른 영상 분석을 이용한 메타버스 캐릭터 제작 시스템을 개략적으로 설명하기 위한 도면이다.
도 2는 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치의 구성을 설명하기 위한 예시적인 도면이다.
도 3은 본 발명의 몇몇 실시예에 따른 생체 정보 측정 장치의 구성을 설명하기 위한 예시적인 도면이다.
도 4는 본 발명의 몇몇 실시예에 따른 데이터 보정 모듈의 구성을 설명하기 위한 예시적인 도면이다.
도 5는 본 발명의 몇몇 실시예에 따른 생체 정보 기록 데이터에 대해 운동 상태 구간을 정의하는 과정을 설명하기 위한 예시적인 도면이다.
도 6은 본 발명의 몇몇 실시예에 따른 사용자의 체온 측정 위치를 설명하기 위한 도면이다.
도 7은 본 발명의 몇몇 실시예에 따른 감정 상태 결정부가 사용자의 생체 정보 데이터를 기초로 사용자의 감정 상태를 결정하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 몇몇 실시예에 따른 모션 보정부의 구성을 설명하기 위한 예시적인 도면이다.
도 9는 본 발명의 몇몇 실시예에 따른 모션 데이터 보정부의 구성을 설명하기 위한 도면이다.
도 10은 본 발명의 몇몇 실시예에 따른 표정 비교부의 구성을 설명하기 위한 도면이다.
도 11은 본 발명의 몇몇 실시예에 따른 디스플레이부를 설명하기 위한 예시적인 도면이다.
도 12는 본 발명의 몇몇 실시예에 따른 효과 보정부의 구성을 설명하기 위한 예시적인 도면이다.
도 13 내지 도 15는 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터의 제작 방법에 대해 설명하기 위한 도면이다.
1 is a diagram for schematically explaining a metaverse character production system using image analysis according to some embodiments of the present invention.
2 is an exemplary diagram for explaining the configuration of a motion capture device according to some embodiments of the present invention.
3 is an exemplary diagram for explaining the configuration of a device for measuring biometric information according to some embodiments of the present invention.
4 is an exemplary diagram for explaining the configuration of a data correction module according to some embodiments of the present invention.
5 is an exemplary diagram for explaining a process of defining an exercise state section for biometric information recording data according to some embodiments of the present invention.
6 is a diagram for explaining a user's body temperature measurement position according to some embodiments of the present invention.
7 is a diagram for explaining a process of determining a user's emotional state based on user's biometric information data by an emotional state determining unit according to some embodiments of the present invention.
8 is an exemplary diagram for explaining the configuration of a motion compensation unit according to some embodiments of the present invention.
9 is a diagram for explaining the configuration of a motion data correction unit according to some embodiments of the present invention.
10 is a diagram for explaining the configuration of a facial expression comparison unit according to some embodiments of the present invention.
11 is an exemplary diagram for explaining a display unit according to some embodiments of the present invention.
12 is an exemplary diagram for explaining the configuration of an effect correction unit according to some embodiments of the present invention.
13 to 15 are views for explaining a method of producing a metaverse character according to some embodiments of the present invention.

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. According to the principle that an inventor may define a term or a concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical spirit of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all of the technical spirit of the present invention, so they can be replaced at the time of the present application. It should be understood that there may be many equivalents and variations and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in this specification and claims may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The term 'and/or' includes a combination of a plurality of related recited items or any one of a plurality of related recited items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. It should be understood that terms such as "include" or "having" in this application do not exclude in advance the possibility of existence or addition of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, it should not be interpreted in an ideal or excessively formal meaning. don't

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not contradict each other technically.

본 발명은 메타버스 캐릭터 제작 시스템에 관한 것으로, '메타버스 캐릭터 제작'은 메타버스, 가상현실, 증강현실 혹은 확장현실에서 이용되는 메타버스 캐릭터의 움직임 및 연출 효과를 포함하는 이미지의 제작을 의미할 수 있다. 다시 말해서, 본 명세서에서 '메타버스 캐릭터'는 2D 또는 3D로 구현된 가상의 디지털 아이돌 캐릭터, 게임 캐릭터 등을 포함할 수 있다. 또한, '메타버스 컨텐츠'라 함은 메타버스 캐릭터를 포함하는 이미지로서, 메타버스 캐릭터 뿐만 아니라, 메타버스 배경, 구조물 등을 모두 포함하는 이미지를 의미할 수 있다. The present invention relates to a metaverse character production system, and 'metaverse character production' means the production of images including movement and directing effects of metaverse characters used in metaverse, virtual reality, augmented reality, or expanded reality. can In other words, in this specification, a 'metaverse character' may include a virtual digital idol character implemented in 2D or 3D, a game character, and the like. In addition, 'metaverse content' is an image including a metaverse character, and may mean an image including not only a metaverse character, but also a metaverse background, structure, and the like.

이하, 도 1 내지 도 15를 참조하여, 본 발명의 몇몇 실시예에 따른 영상 분석을 이용한 메타버스 캐릭터 제작 시스템 및 방법을 설명한다.Hereinafter, with reference to FIGS. 1 to 15, a metaverse character production system and method using image analysis according to some embodiments of the present invention will be described.

도 1은 본 발명의 몇몇 실시예에 따른 영상 분석을 이용한 메타버스 캐릭터 제작 시스템을 개략적으로 설명하기 위한 도면이다. 1 is a diagram for schematically explaining a metaverse character production system using image analysis according to some embodiments of the present invention.

도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 영상 분석을 이용한 메타버스 캐릭터 제작 시스템(1)은 모션 캡쳐 장치(100), 생체 정보 측정 장치(200), 데이터 보정 모듈(300), 골격 생성 모듈(400), 리타겟 모듈(500), 메타버스 캐릭터 구현 모듈(600), 데이터 백업 모듈(700) 및 촬영 장치(800)를 포함할 수 있다. 1, the metaverse character production system 1 using image analysis according to some embodiments of the present invention includes a motion capture device 100, a biometric information measurement device 200, a data correction module 300, a skeleton It may include a generation module 400, a retarget module 500, a metaverse character implementation module 600, a data backup module 700, and a photographing device 800.

모션 캡쳐 장치(100)는 연기를 수행하는 사용자(즉, 배우)의 움직임에 따라 모션 데이터(MC_Data)를 생성할 수 있다. 모션 캡쳐 장치(100)는 사용자의 움직임을 센싱할 수 있는 센싱 수단과, 센싱된 값을 이용하여 데이터를 생성하는 수단을 포함할 수 있다. 이에 대한 예시적인 설명은 후술한다. 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)는 데이터 보정 모듈(300), 골격 생성 모듈(400) 및 데이터 백업 모듈(700)에 제공될 수 있다. The motion capture device 100 may generate motion data MC_Data according to the movement of a user (ie, an actor) performing a performance. The motion capture device 100 may include a sensing unit capable of sensing a user's motion and a unit generating data using the sensed value. Exemplary explanations for this will be given later. Motion data MC_Data generated by the motion capture device 100 may be provided to the data correction module 300 , the skeleton generation module 400 , and the data backup module 700 .

생체 정보 측정 장치(200)는 연기를 수행하는 사용자에게 부착되고, 연기를 수행하는 사용자의 생체 정보를 측정하여, 생체 정보 데이터(BM_Data)를 생성할 수 있다. 생체 정보 데이터(BM_Data)는 데이터 보정 모듈(300) 및 데이터 백업 모듈(700)에 제공될 수 있다. The biometric information measuring device 200 may be attached to a user performing a performance, measure biometric information of a user performing a performance, and generate biometric information data BM_Data. Biometric information data BM_Data may be provided to the data correction module 300 and the data backup module 700 .

데이터 보정 모듈(300)은 모션 데이터(MC_Data) 및 생체 정보 데이터(BM_Data)를 이용하여, 제1 보정 데이터(CB_Data#1) 및 제2 보정 데이터(CB_Data#2)를 생성할 수 있다. 몇몇 실시예에 따르면, 데이터 보정 모듈(300)은 생체 정보 데이터(BM_Data)를 이용하여 모션 데이터(MC_Data)를 보정함으로써 제1 보정 데이터(CB_Data#1)를 생성할 수 있다. 또한, 데이터 보정 모듈(300)은 생체 정보 데이터(BM_Data)를 이용하여 메타버스 컨텐츠의 연출 효과와 관련된 제2 보정 데이터(CB_Data#2)를 생성할 수 있다.The data correction module 300 may generate first correction data CB_Data#1 and second correction data CB_Data#2 by using the motion data MC_Data and biometric information data BM_Data. According to some embodiments, the data correction module 300 may generate first correction data CB_Data#1 by correcting the motion data MC_Data using the biometric information data BM_Data. In addition, the data correction module 300 may generate second correction data (CB_Data#2) related to the directing effect of the metaverse content by using the biometric information data (BM_Data).

몇몇 실시예에 따르면, 데이터 보정 모듈(300)은 제1 보정 데이터(CB_Data#1)를 생성하기 위해, 촬영 장치(800)에서 생성된 영상 데이터(IMG_Data)와, 리타겟 모듈(500)에서 생성된 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 더 이용할 수 있다. 이에 대한 구체적인 설명은 후술한다. According to some embodiments, the data correction module 300 uses the image data IMG_Data generated by the photographing device 800 and the image data IMG_Data generated by the retarget module 500 to generate the first correction data CB_Data#1. The second metaverse character rigging data (CR_Data#2) may be further used. A detailed description of this will be given later.

제1 보정 데이터(CB_Data#1)는 골격 생성 모듈(400)에 제공되고, 골격 생성 모듈(400)은 제1 보정 데이터(CB_Data#1)를 이용하여 제1 골격 데이터(SK_Data#1)를 생성할 수 있다. 제1 보정 데이터(CB_Data#1)는 전술한 바와 같이, 데이터 보정 모듈(300)에 의해 보정된 모션 데이터(MC_Data)일 수 있다. The first correction data CB_Data#1 is provided to the skeleton generation module 400, and the skeleton generation module 400 generates the first skeleton data SK_Data#1 using the first correction data CB_Data#1. can do. As described above, the first correction data CB_Data#1 may be motion data MC_Data corrected by the data correction module 300 .

몇몇 실시예에 따르면, 모션 데이터(MC_Data)는 데이터 보정 모듈(300)을 거치지 않고 바로 골격 생성 모듈(400)에 제공될 수도 있다. 골격 생성 모듈(400)은 모션 데이터(MC_Data)를 이용하여, 제2 골격 데이터(SK_Data#2)를 생성할 수 있다. 다시 말해서, 골격 생성 모듈(400)은 제1 보정 데이터(CB_Data#1)를 이용하여 제1 골격 데이터(SK_Data#1)를 생성하고, 모션 데이터(MC_Data)를 이용하여 제2 골격 데이터(SK_Data#2)를 생성할 수 있다.According to some embodiments, the motion data MC_Data may be directly provided to the skeleton generation module 400 without going through the data correction module 300 . The skeleton generation module 400 may generate second skeleton data SK_Data#2 by using the motion data MC_Data. In other words, the skeleton generation module 400 generates the first skeleton data SK_Data#1 using the first correction data CB_Data#1, and generates the second skeleton data SK_Data# using the motion data MC_Data. 2) can be created.

골격 생성 모듈(400)에서 생성된 제1 골격 데이터(SK_Data#1)와 제2 골격 데이터(SK_Data#2)는 리타겟 모듈(500)에 제공될 수 있다. 리타겟 모듈(500)은 제1 골격 데이터(SK_Data#1)와 제2 골격 데이터(SK_Data#2)를 미리 설정한 메타버스 캐릭터 이미지에 리깅하여, 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)와 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 생성할 수 있다. 다시 말해서, 메타버스 캐릭터 리깅 데이터는 메타버스 캐릭터의 이미지와 움직임을 포함하는 메타버스 캐릭터 영상을 의미할 수 있다. The first skeleton data (SK_Data#1) and the second skeleton data (SK_Data#2) generated by the skeleton generation module 400 may be provided to the retarget module 500 . The retarget module 500 rigs the first skeleton data (SK_Data#1) and the second skeleton data (SK_Data#2) to a preset metaverse character image, and the first metaverse character rigging data (CR_Data#1) and second metaverse character rigging data (CR_Data#2). In other words, the metaverse character rigging data may refer to a metaverse character image including images and motions of the metaverse character.

몇몇 실시예에 따르면, 리타겟 모듈(500)은 제1 골격 데이터(SK_Data#1)를 이용하여 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)를 생성하고, 제2 골격 데이터(SK_Data#2)를 이용하여 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 생성할 수 있다. 리타겟 모듈(500)은 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)를 메타버스 캐릭터 구현 모듈(600)에 제공할 수 있다. 또한, 리타겟 모듈(500)은 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 데이터 보정 모듈(300)에 제공할 수 있다. According to some embodiments, the retarget module 500 generates first metaverse character rigging data (CR_Data#1) using the first skeleton data (SK_Data#1), and uses the second skeleton data (SK_Data#2) It is possible to generate the second metaverse character rigging data (CR_Data#2) using. The retarget module 500 may provide the first metaverse character rigging data (CR_Data#1) to the metaverse character implementation module 600. In addition, the retarget module 500 may provide the second metaverse character rigging data (CR_Data#2) to the data correction module 300.

다시 말해서, 데이터 보정 모듈(300)을 거치지 않은 모션 데이터(MC_Data)를 이용하여 생성된 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)는 데이터 보정 모듈(300)에 제공될 수 있다. 데이터 보정 모듈(300)은 제1 보정 데이터(CB_Data#1)를 생성하는데 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 이용할 수 있다. 즉, 데이터 보정 모듈(300)은 제1 보정 데이터(CB_Data#1)를 생성하기 위해 원본 상태인 모션 데이터(MC_Data)를 이용하여 생성된 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 이용할 수 있다. 보다 구체적으로, 데이터 보정 모듈(300)은 촬영 장치(800)에서 촬영된 사용자의 얼굴 표정을 포함하는 영상과, 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 비교한 결과를 이용하여, 제1 보정 데이터(CB_Data#1)를 생성할 수 있다. 이에 대한 구체적 설명은 후술한다.In other words, the second metaverse character rigging data (CR_Data#2) generated using motion data (MC_Data) that has not passed through the data correction module 300 may be provided to the data correction module 300. The data correction module 300 may use the second metaverse character rigging data (CR_Data#2) to generate the first correction data (CB_Data#1). That is, the data correction module 300 may use the second metaverse character rigging data (CR_Data#2) generated using the original motion data (MC_Data) to generate the first correction data (CB_Data#1). there is. More specifically, the data correction module 300 uses the result of comparing the image including the user's facial expression captured by the photographing device 800 with the second metaverse character rigging data (CR_Data#2), 1 correction data (CB_Data#1) can be created. A detailed description of this will be given later.

제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)는 메타버스 캐릭터 구현 모듈(600)에 제공될 수 있다. 메타버스 캐릭터 구현 모듈(600)은 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)를 이용하여, 메타버스 캐릭터 영상(M_C)을 생성할 수 있다. The first metaverse character rigging data (CR_Data#1) may be provided to the metaverse character implementation module 600. The metaverse character implementation module 600 may generate a metaverse character image (M_C) using the first metaverse character rigging data (CR_Data#1).

몇몇 실시예에 따르면, 모션 캡쳐 장치(100), 생체 정보 측정 장치(200), 데이터 보정 모듈(300), 골격 생성 모듈(400), 리타겟 모듈(500), 메타버스 캐릭터 구현 모듈(600), 데이터 백업 모듈(700) 및 촬영 장치(800)는 네트워크를 통해 서로 데이터를 교환할 수 있다. 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.According to some embodiments, a motion capture device 100, a biometric information measurement device 200, a data correction module 300, a skeleton generation module 400, a retarget module 500, a metaverse character implementation module 600 , The data backup module 700 and the photographing device 800 may exchange data with each other through a network. Data can be transmitted over the network. The network may include a network based on wired Internet technology, wireless Internet technology, and short-range communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies include, for example, Wireless LAN (WLAN), Digital Living Network Alliance (DLNA), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), and High Speed Downlink Packet (HSDPA). Access), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) And it may include at least one of 5G New Radio (NR) technology. However, this embodiment is not limited thereto.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, Near Field Communication: At least one of NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) can include However, this embodiment is not limited thereto.

네트워크를 통해서 통신하는 영상 분석을 이용한 메타버스 캐릭터 제작 시스템(1)은 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The metaverse character production system 1 using image analysis communicating through a network can comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only) At least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) can include However, this embodiment is not limited thereto.

몇몇 실시예에 따르면, 모션 캡쳐 장치(100)는 연기를 수행하는 사용자(이하, 사용자)의 몸에 센서 및/또는 마커를 부착하여, 사용자의 움직임을 데이터로 기록할 수 있다. 다시 말해서, 모션 캡쳐 장치(100)는 사용자의 움직임을 센싱하여, 모션 데이터(MC_Data)를 생성할 수 있다. 모션 데이터(MC_Data)는 사용자의 골격의 움직임을 표현하는 데이터일 수 있다. According to some embodiments, the motion capture device 100 may attach sensors and/or markers to the body of a user performing a performance (hereinafter referred to as a user) to record the user's movement as data. In other words, the motion capture device 100 may sense the user's motion and generate motion data MC_Data. The motion data MC_Data may be data representing motion of the user's skeleton.

예를 들어, 모션 캡쳐 장치(100)는 광학식, 자기식 및/또는 관성식 모션 캡쳐 장치로 구현될 수 있다. 광학식 모션 캡쳐 장치는, 마커 및 카메라를 포함할 수 있다. 광학식 모션 캡쳐 장치는 마커를 부착한 사용자의 움직임을 하나 이상의 카메라로 촬상하고, 삼각측량법을 통해 사용자에게 부착된 마커의 삼차원적 좌표를 역산하여 모션 데이터(MC_Data)를 생성하는 장치일 수 있다. 자기식 모션 캡쳐 장치는 사용자의 관절 등에 자기장을 계측할 수 있는 센서를 부착한 뒤 자기장 발생 장치 근처에서 각 센서의 자기장 변화량을 계산하여 움직임을 측정함으로써 모션 데이터(MC_Data)를 생성하는 장치일 수 있다. 관성식 모션 캡쳐 장치는 가속도 센서, 자이로 센서 및 지자기센서를 포함하는 관성 센서를 사용자의 관절 등에 부착하여, 사용자의 움직임, 회전 및/또는 방향을 읽어내어 모션 데이터(MC_Data)를 생성하는 장치일 수 있다. 다만, 상술한 광학식, 자기식 및 관성식 모션 캡쳐 장치는, 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치(100)가 구현될 수 있는 일례를 설명한 것일 뿐, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 모션 캡쳐 장치(100)는 인공지능을 이용한 영상 처리 기술을 이용하거나, 이를 광학식, 자기식 및/또는 관성식 모션 캡쳐 장치(100)와 병행하여 모션 데이터(MC_Data)를 생성할 수도 있을 것이다. 이하에서는, 설명의 편의를 위해, 모션 캡쳐 장치(100)는 마커 및 카메라를 포함하는 광학식 모션 캡쳐 장치인 것을 가정하여 설명한다.For example, the motion capture device 100 may be implemented as an optical, magnetic, and/or inertial motion capture device. An optical motion capture device may include a marker and a camera. The optical motion capture device may be a device that captures a motion of a user attached with a marker using one or more cameras and generates motion data MC_Data by inverting the three-dimensional coordinates of the marker attached to the user through triangulation. The magnetic motion capture device may be a device that generates motion data (MC_Data) by attaching a sensor capable of measuring a magnetic field to a user's joint, etc., and then measuring a movement by calculating the amount of change in the magnetic field of each sensor near the magnetic field generating device. . An inertial motion capture device may be a device that attaches an inertial sensor including an acceleration sensor, a gyro sensor, and a geomagnetic sensor to a user's joint, reads the user's movement, rotation, and/or direction and generates motion data (MC_Data). there is. However, the above-described optical, magnetic, and inertial motion capture devices are merely examples in which the motion capture device 100 according to some embodiments of the present invention can be implemented, and the embodiments are not limited thereto. For example, the motion capture device 100 may generate motion data (MC_Data) by using an image processing technology using artificial intelligence or in parallel with the optical, magnetic, and/or inertial motion capture device 100. There will be. Hereinafter, for convenience of description, it is assumed that the motion capture device 100 is an optical motion capture device including a marker and a camera.

몇몇 실시예에 따르면, 모션 캡쳐 장치(100)는 사용자의 행동을 센싱하거나, 사용자의 표정 변화를 센싱하거나, 사용자의 손 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 예시적인 설명을 위해, 도 2를 더 참조한다. According to some embodiments, the motion capture device 100 may generate motion data MC_Data by sensing a user's action, a user's facial expression change, or a user's hand movement. For illustrative explanation, further reference is made to FIG. 2 .

도 2는 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치의 구성을 설명하기 위한 예시적인 도면이다. 2 is an exemplary diagram for explaining the configuration of a motion capture device according to some embodiments of the present invention.

도 2를 참조하면, 모션 캡쳐 장치(100)는 바디 캡쳐 모듈(110), 페이셜 캡쳐 모듈(120) 및 핸드 캡쳐 모듈(130)을 포함할 수 있다. 바디 캡쳐 모듈(110)은 사용자의 행동을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 다시 말해서, 바디 캡쳐 모듈(110)은 머리, 목, 팔, 몸, 다리 등 사용자의 신체의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 예를 들어, 바디 캡쳐 모듈(110)은 사용자가 특정 행동(걷기, 뛰기, 기기, 앉기, 서기, 눕기, 춤추기, 싸우기, 발길질하기, 팔 휘두르기 등)을 할 때의 머리, 목, 팔, 몸, 다리 등의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 바디 캡쳐 모듈(110)은 예를 들어, 사용자의 신체에 마커를 부착하고, 이를 센싱하여 모션 데이터(MC_Data)를 생성할 수 있으나, 실시예가 이에 제한되는 것은 아니다. Referring to FIG. 2 , the motion capture device 100 may include a body capture module 110 , a facial capture module 120 and a hand capture module 130 . The body capture module 110 may generate motion data MC_Data by sensing a user's action. In other words, the body capture module 110 may generate motion data MC_Data by sensing movements of the user's body such as the head, neck, arms, body, and legs. For example, the body capture module 110 captures the head, neck, arms, and legs when a user performs a specific action (walking, running, crawling, sitting, standing, lying down, dancing, fighting, kicking, arm swinging, etc.). Motion data (MC_Data) may be generated by sensing movements of the body, legs, and the like. For example, the body capture module 110 may attach a marker to the user's body and generate motion data MC_Data by sensing the marker, but the embodiment is not limited thereto.

페이셜 캡쳐 모듈(120)은 사용자의 표정 변화를 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 다시 말해서, 페이셜 캡쳐 모듈(120)은 사용자의 얼굴의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 예를 들어, 페이셜 캡쳐 모듈(120)은 사용자의 특정 표정(우는 표정, 웃는 표정, 놀란 표정, 화난 표정, 경멸하는 표정, 아쉬운 표정, 사랑스러운 표정, 혐오하는 표정 등)에서의 얼굴의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 페이셜 캡쳐 모듈(120)은 예를 들어, 사용자의 얼굴에 마커를 부착하고 이를 센싱한 데이터와, 사용자의 얼굴 표정에 대한 영상 처리 기술을 추가적으로 이용하여 모션 데이터(MC_Data)를 생성할 수 있으나, 실시예가 이에 제한되는 것은 아니다.The facial capture module 120 may generate motion data MC_Data by sensing a change in facial expression of the user. In other words, the facial capture module 120 may generate motion data MC_Data by sensing the movement of the user's face. For example, the facial capture module 120 captures facial movements in a user's specific facial expression (a crying expression, a smiling expression, a surprised expression, an angry expression, a contemptuous expression, a regretful expression, a loving expression, a disgusting expression, etc.) Motion data (MC_Data) may be generated by sensing. The facial capture module 120 may generate motion data (MC_Data) by additionally using data obtained by attaching a marker to the user's face and sensing the marker and an image processing technology for the user's facial expression, for example. Examples are not limited thereto.

핸드 캡쳐 모듈(130)은 사용자의 손 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 다시 말해서, 핸드 캡쳐 모듈(130)은 사용자의 손 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 예를 들어, 핸드 캡쳐 모듈(130)은 사용자의 손 동작(손가락 오므리기, 손가락 펴기 등)에서의 손가락 마디의 움직임을 센싱하여 모션 데이터(MC_Data)를 생성할 수 있다. 핸드 캡쳐 모듈(130)은 예를 들어, 손가락 관절의 움직임을 센싱할 수 있는 특수 장갑 또는 웨어러블 장치로 구현될 수 있으나, 실시예가 이에 제한되는 것은 아니다. The hand capture module 130 may generate motion data MC_Data by sensing the motion of the user's hand. In other words, the hand capture module 130 may generate motion data MC_Data by sensing the motion of the user's hand. For example, the hand capture module 130 may generate motion data MC_Data by sensing a motion of a finger joint in a user's hand motion (clamping a finger, extending a finger, etc.). The hand capture module 130 may be implemented as, for example, a special glove or a wearable device capable of sensing motion of a finger joint, but the embodiment is not limited thereto.

다시 도 1을 참조하면, 생체 정보 측정 장치(200)는 사용자의 생체 정보를 측정할 수 있다. 생체 정보는 예를 들어, 심박수, 호흡수 및/또는 체온을 포함할 수 있다. 생체 정보 측정 장치(200)는 측정한 사용자의 생체 정보를 기록하여, 생체 정보 데이터(BM_Data)를 생성할 수 있다. 다시 말해서, 생체 정보 측정 장치(200)는 사용자의 심박, 호흡 및/또는 체온을 측정하여, 이를 생체 정보 데이터(BM_Data)로 생성할 수 있다. 생체 정보 데이터(BM_Data)는 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)를 보정하는데 이용될 수 있다. 예시적인 설명을 위해 도 3을 더 참조한다. Referring back to FIG. 1 , the biometric information measurement device 200 may measure the user's biometric information. Biometric information may include, for example, heart rate, respiratory rate, and/or body temperature. The biometric information measuring device 200 may generate biometric information data BM_Data by recording the measured user's biometric information. In other words, the biometric information measurement device 200 may measure the user's heartbeat, respiration, and/or body temperature and generate the biometric information data BM_Data. The biometric information data BM_Data may be used to correct the motion data MC_Data generated by the motion capture device 100 . Further reference is made to FIG. 3 for illustrative explanation.

도 3은 본 발명의 몇몇 실시예에 따른 생체 정보 측정 장치의 구성을 설명하기 위한 예시적인 도면이다. 3 is an exemplary diagram for explaining the configuration of a device for measuring biometric information according to some embodiments of the present invention.

도 3을 참조하면, 본 발명의 몇몇 실시예에 따른 생체 정보 측정 장치(200)는 체온 측정 모듈(210), 호흡 측정 모듈(220) 및 심박 측정 모듈(230)을 포함할 수 있다. Referring to FIG. 3 , the biometric information measurement device 200 according to some embodiments of the present invention may include a body temperature measurement module 210, a respiration measurement module 220, and a heart rate measurement module 230.

몇몇 실시예에 따르면, 체온 측정 모듈(210)은 전자섬유 온도 센서를 포함할 수 있다. 체온 측정 모듈(210)은 사용자의 하나 이상의 신체 위치에 대한 체온을 측정할 수 있다. 예를 들어, 체온 측정 모듈(210)은 전자섬유 온도 센서를 포함하므로, 사용자의 행동에 제약을 최소화하는 의류 형태, 장갑 형태, 양말 형태 등으로 구현될 수 있다. According to some embodiments, the body temperature measuring module 210 may include an electronic fiber temperature sensor. The body temperature measurement module 210 may measure the body temperature of one or more body positions of the user. For example, since the body temperature measurement module 210 includes an electronic fiber temperature sensor, it may be implemented in the form of clothes, gloves, socks, etc. that minimize restrictions on user's actions.

몇몇 실시예에 따르면, 호흡 측정 모듈(220)은 전자섬유 압력 센서 또는 실리콘 기반의 액체금속 센서를 포함할 수 있다. 호흡 측정 모듈(220)은 사용자의 가슴 부위에 부착될 수 있다. 사용자는 흡기 시 흉부의 부피가 커져 가슴 부위에 부착된 호흡 측정 모듈(220)에 압력을 가할 수 있고, 호기 시 흉부의 부피가 작아져 호흡 측정 모듈(220)에 전달되는 압력이 감소할 수 있다. 따라서, 사용자의 가슴 부위에 부착된 호흡 측정 모듈(220)은 센싱되는 압력의 차이를 기초로, 사용자의 호기 및 흡기를 인식할 수 있으며, 이에 따라 사용자의 호흡수를 측정할 수 있다. 예를 들어, 호흡 측정 모듈(220)은 의류 형태 또는 가슴 보호대 형태로 구현될 수 있다. According to some embodiments, the respiration measurement module 220 may include an electronic fiber pressure sensor or a silicon-based liquid metal sensor. Respiration measurement module 220 may be attached to the user's chest area. The user can apply pressure to the respiration measurement module 220 attached to the chest as the volume of the chest increases during inhalation, and the volume of the chest decreases during expiration, thereby reducing the pressure transmitted to the respiration measurement module 220. . Accordingly, the respiration measurement module 220 attached to the user's chest may recognize the user's exhalation and inspiration based on the difference in the sensed pressure, and accordingly measure the user's respiratory rate. For example, the breathing measurement module 220 may be implemented in the form of clothing or a chest protector.

몇몇 실시예에 따르면, 심박 측정 모듈(230)은 심전도법, 광전 맥파법, 혈압계법 또는 심음도법에 따라 사용자의 심박수를 측정할 수 있다. 예를 들어, 심박 측정 모듈(230)은 사용자의 행동에 제약을 최소화하도록, 손목 시계 또는 손목 밴드형 웨어러블 장치로 구현될 수 있다. 다른 예를 들어, 심박 측정 모듈(230)은 전자섬유 심박 센서를 이용한 의류 형태로 구현될 수 있다.According to some embodiments, the heart rate measurement module 230 may measure the user's heart rate according to an electrocardiogram method, a photoelectric pulse wave method, a sphygmomanometer method, or an echocardiogram method. For example, the heart rate measurement module 230 may be implemented as a wristwatch or a wristband-type wearable device to minimize restrictions on a user's behavior. For another example, the heart rate measurement module 230 may be implemented in the form of clothing using an electronic fiber heart rate sensor.

몇몇 실시예에 따르면, 생체 정보 측정 장치(200)는 의류 형태로 구현될 수 있다. 이때, 의류 형태의 생체 정보 측정 장치(200)는, 의류의 가슴 부위에 호흡 측정 모듈(220)이 위치하고, 의류의 손목 부위에 심박 측정 모듈(230)이 위치하고, 사용자의 신체의 제1 위치 내지 제4 위치에 대응하여 체온 측정 모듈(210)이 위치할 수 있다. According to some embodiments, the biometric information measuring device 200 may be implemented in the form of clothing. At this time, the biometric information measurement device 200 in the form of clothing has a respiration measurement module 220 located on the chest of the clothing, a heart rate measurement module 230 located on the wrist of the clothing, and a first position of the user's body Corresponding to the fourth position, the body temperature measurement module 210 may be located.

생체 정보 측정 장치(200)가 의류 형태로 구현되는 경우, 모션 캡쳐 장치(100)에 포함된 마커는, 생체 정보 측정 장치(200) 상에 부착될 수 있다. 다시 말해서, 의류 형태의 생체 정보 측정 장치(200) 상에 마커가 부착될 수 있다.When the biometric information measuring device 200 is implemented in the form of clothing, a marker included in the motion capture device 100 may be attached to the biometric information measuring device 200 . In other words, a marker may be attached to the clothing-type biometric information measurement device 200 .

이상, 체온 측정 모듈(210), 호흡 측정 모듈(220) 및 심박 측정 모듈(230)의 구현예에 대해 설명하였으나, 이는 단순히 예시적인 것일 뿐 실시예가 이에 제한되는 것은 아니다. 본 발명의 기술 분야에서 통상의 지식을 가진 자는 본 발명의 범위를 벗어나지 않고, 상술한 방식 외의 다른 기술을 통해 체온 측정 모듈(210), 호흡 측정 모듈(220) 및 심박 측정 모듈(230)을 구현할 수 있을 것이다. Above, the implementation of the body temperature measurement module 210, respiration measurement module 220, and heart rate measurement module 230 has been described, but this is merely exemplary and the embodiments are not limited thereto. Those skilled in the art can implement the body temperature measuring module 210, the respiration measuring module 220, and the heart rate measuring module 230 through techniques other than the above-described method without departing from the scope of the present invention. You will be able to.

다시 도 1을 참조하면, 데이터 보정 모듈(300)은 모션 캡쳐 장치(100)로부터 모션 데이터(MC_Data)를 수신할 수 있다. 또한, 데이터 보정 모듈(300)은 생체 정보 측정 장치(200)로부터 생체 정보 데이터(BM_Data)를 수신할 수 있다. Referring back to FIG. 1 , the data correction module 300 may receive motion data MC_Data from the motion capture device 100 . Also, the data correction module 300 may receive biometric information data BM_Data from the biometric information measurement device 200 .

몇몇 실시예에 따르면, 데이터 보정 모듈(300)은 수신한 생체 정보 데이터(BM_Data)를 기초로, 모션 데이터(MC_Data)를 보정할 수 있다. 다시 말해서, 데이터 보정 모듈(300)은 생체 정보 데이터(BM_Data)를 이용하여 모션 데이터(MC_Data)의 적어도 일부를 보정하여, 제1 보정 데이터(CB_Data#1)를 생성할 수 있다. 제1 보정 데이터(CB_Data#1)는 골격 생성 모듈(400)에 제공되어, 사실감과 생동감 있는 메타버스 캐릭터의 골격 움직임을 생성하는데 이용될 수 있다.According to some embodiments, the data correction module 300 may correct the motion data MC_Data based on the received biometric information data BM_Data. In other words, the data correction module 300 may generate first correction data CB_Data#1 by correcting at least a part of the motion data MC_Data using the biometric information data BM_Data. The first correction data (CB_Data#1) is provided to the skeleton generation module 400 and can be used to generate realistic and lively skeleton movements of the metaverse character.

또한, 몇몇 실시예에 따르면, 데이터 보정 모듈(300)은 촬영 장치(800)에서 생성된 영상 데이터(IMG_Data)와, 리타겟 모듈(500)에서 생성된 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 더 이용하여 제1 보정 데이터(CB_Data#1)를 생성할 수 있다. 예를 들어, 데이터 보정 모듈(300)은 영상 데이터(IMG_Data)와 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 비교하여, 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. 이에 대한 구체적인 설명은 후술한다.In addition, according to some embodiments, the data correction module 300 includes the image data (IMG_Data) generated by the photographing device 800 and the second metaverse character rigging data (CR_Data#2) generated by the retarget module 500. ) may be further used to generate the first correction data CB_Data#1. For example, the data correction module 300 compares the image data (IMG_Data) and the second metaverse character rigging data (CR_Data#2) to correct the motion data (MC_Data) generated by the facial capture module 120. can A detailed description of this will be given later.

또한, 몇몇 실시예에 따르면, 데이터 보정 모듈(300)은 수신한 생체 정보 데이터(BM_Data)를 기초로, 메타버스 캐릭터 구현 모듈(600)에서의 캐릭터 효과를 보정하기 위한 제2 보정 데이터(CB_Data#2)를 생성할 수 있다. 제2 보정 데이터(CB_Data#2)는 메타버스 캐릭터 구현 모듈(600)에서의 사실감과 생동감 있는 캐릭터 연출 효과(예를 들어, 피부 색 등)를 추가적으로 보정하는데 이용될 수 있다. 제1 보정 데이터(CB_Data#1)와 제2 보정 데이터(CB_Data#2)에 대한 구체적 설명은 후술한다. 데이터 보정 모듈(300)에 대한 예시적인 설명을 위해, 도 4를 더 참조한다. In addition, according to some embodiments, the data correction module 300 based on the received biometric information data (BM_Data), the second correction data (CB_Data# for correcting the character effect in the metaverse character implementation module 600) 2) can be created. The second correction data (CB_Data#2) may be used to additionally correct realism and lively character directing effects (eg, skin color, etc.) in the metaverse character implementation module 600 . A detailed description of the first correction data CB_Data#1 and the second correction data CB_Data#2 will be described later. For an illustrative description of the data correction module 300, further reference is made to FIG.

도 4는 본 발명의 몇몇 실시예에 따른 데이터 보정 모듈의 구성을 설명하기 위한 예시적인 도면이다. 4 is an exemplary diagram for explaining the configuration of a data correction module according to some embodiments of the present invention.

도 4를 참조하면, 데이터 보정 모듈(300)은 생체 정보 라이브러리(310), 운동 상태 결정부(320), 운동 상태 갱신부(330), 감정 상태 결정부(340), 감정 상태 갱신부(350), 모션 보정부(360), 효과 보정부(370) 및 메타버스 캐릭터 설정부(380)를 포함할 수 있다. Referring to FIG. 4 , the data correction module 300 includes a biometric information library 310, an exercise state determiner 320, an exercise state updater 330, an emotional state determiner 340, and an emotion state updater 350. ), a motion correction unit 360, an effect correction unit 370, and a metaverse character setting unit 380 may be included.

생체 정보 라이브러리(310)는 사용자마다 측정된 운동량에 따른 생체 정보 데이터(BM_Data)를 포함할 수 있다. 몇몇 실시예에 따르면, 제1 사용자는 전술한 생체 정보 측정 장치(200)를 이용하여, 운동량에 따른 생체 정보 데이터(BM_Data)를 측정할 수 있다. 이때, 제1 사용자의 운동량에 따른 생체 정보 데이터(BM_Data)는 생체 정보 라이브러리(310)에 저장될 수 있다. 이와 유사하게, 제2 사용자는 생체 정보 측정 장치(200)를 이용하여, 운동량에 따른 생체 정보 데이터(BM_Data)를 측정할 수 있다. 이때, 제2 사용자의 운동량에 따른 생체 정보 데이터(BM_Data)는 생체 정보 라이브러리(310)에 저장될 수 있다. The biometric information library 310 may include biometric information data BM_Data according to the amount of exercise measured for each user. According to some embodiments, the first user may measure biometric information data BM_Data according to the amount of exercise using the biometric information measurement device 200 described above. In this case, biometric information data BM_Data according to the amount of exercise of the first user may be stored in the biometric information library 310 . Similarly, the second user may use the biometric information measurement device 200 to measure biometric information data BM_Data according to the amount of exercise. In this case, biometric information data BM_Data according to the amount of exercise of the second user may be stored in the biometric information library 310 .

예를 들어, 제1 사용자는 운동량을 서서히 늘려가면서, 미리 정한 시간 간격으로 또는 연속적으로 제1 사용자의 생체 정보 데이터(BM_Data)를 생성하고, 이를 생체 정보 라이브러리(310)에 기록할 수 있다. 또한, 제2 사용자는 운동량을 서서히 늘려가면서, 미리 정한 시간 간격으로 또는 연속적으로 제2 사용자의 생체 정보 데이터(BM_Data)를 생성하고, 이를 생체 정보 라이브러리(310)에 기록할 수 있다. 제1 사용자는 제2 사용자와 체중, 골격근량, 체지방량 등이 모두 상이하기 때문에, 사용자별로 최대 운동량은 서로 다를 수 있다. 뿐만 아니라, 사용자별로 생체 정보 최소치, 평균치 및 최대치는 서로 상이하기 때문에, 특정 운동 구간에서의 생체 정보 데이터(BM_Data)는 사용자별로 상이할 수 있다. 따라서, 사용자별 운동량에 따른 생체 정보 데이터(BM_Data)를 생체 정보 라이브러리(310)에 미리 기록해 두고, 이를 운동 상태 결정부(320)에서 사용자의 운동 상태를 구획하는 기초 자료로 이용할 수 있다. 이하에서는 설명의 편의를 위해, 생체 정보 라이브러리(310)에 저장된 사용자별 운동량에 따른 생체 정보 데이터(BM_Data)를 사용자별 생체 정보 기록 데이터로 명명한다. 다시 말해서, 생체 정보 라이브러리(310)는 제1 사용자의 제1 생체 정보 기록 데이터와, 제2 사용자의 제2 생체 정보 기록 데이터를 포함할 수 있다.For example, the first user may generate biometric information data BM_Data of the first user at predetermined time intervals or continuously while gradually increasing the amount of exercise, and record the biometric information data BM_Data in the biometric information library 310 . In addition, the second user may generate the second user's biometric information data BM_Data at predetermined time intervals or continuously while gradually increasing the amount of exercise, and record it in the biometric information library 310 . Since the first user has a different weight, skeletal muscle mass, and body fat mass than the second user, the maximum amount of exercise may be different for each user. In addition, since the minimum value, the average value, and the maximum value of biometric information are different for each user, the biometric information data (BM_Data) in a specific exercise section may be different for each user. Therefore, biometric information data (BM_Data) according to each user's exercise amount may be previously recorded in the biometric information library 310 and used as basic data for segmenting the user's exercise state in the exercise state determination unit 320 . Hereinafter, for convenience of explanation, the biometric information data BM_Data according to the amount of exercise for each user stored in the biometric information library 310 is referred to as biometric information recording data for each user. In other words, the biometric information library 310 may include first biometric information recorded data of a first user and second biometric information recorded data of a second user.

몇몇 실시예에 따르면, 생체 정보 라이브러리(310)는 사용자별 생체 정보 기록 데이터를 이용하여, 사용자별로 제1 운동 상태 구간 내지 제3 운동 상태 구간을 정의할 수 있다. 예시적인 설명을 위해, 도 5를 더 참조한다. According to some embodiments, the biometric information library 310 may define first to third exercise state sections for each user by using biometric information recording data for each user. For illustrative explanation, further reference is made to FIG. 5 .

도 5는 본 발명의 몇몇 실시예에 따른 생체 정보 기록 데이터에 대해 운동 상태 구간을 정의하는 과정을 설명하기 위한 예시적인 도면이다. 5 is an exemplary diagram for explaining a process of defining an exercise state section for biometric information recording data according to some embodiments of the present invention.

도 4 및 도 5를 참조하면, 생체 정보 라이브러리(310)는 사용자별 생체 정보 기록 데이터를 포함할 수 있다. 예컨대, 도 5는 제1 사용자에 대한 제1 생체 정보 기록 데이터일 수 있다. 생체 정보 라이브러리(310)는 사용자의 생체 정보 기록 데이터를 이용하여, 사용자의 운동 상태를 제1 운동 상태 구간(S1), 제2 운동 상태 구간(S2) 및 제3 운동 상태 구간(S3)으로 구획할 수 있다. Referring to FIGS. 4 and 5 , the biometric information library 310 may include biometric information recording data for each user. For example, FIG. 5 may be first biometric information recording data for a first user. The biometric information library 310 divides the user's exercise state into a first exercise state section (S1), a second exercise state section (S2), and a third exercise state section (S3) by using the user's biometric information recording data. can do.

먼저, 생체 정보 라이브러리(310)는 사용자의 생체 정보 기록 데이터를 참고하여, 사용자의 심박수의 증가폭은 상대적으로 크고, 사용자의 호흡수의 증가폭은 상대적으로 작고, 사용자의 체온이 증가하고 있는 구간을 제1 운동 상태 구간(S1)으로 구획할 수 있다. 다시 말해서, 제1 운동 상태 구간(S1)은 사용자의 심박수의 증가폭이 사용자의 호흡수보다 상대적으로 높은 상태를 의미하며, 제1 운동 상태 구간(S1)은 체온이 비교적 일정한 폭으로 증가하는 구간일 수 있다. 즉, 제1 운동 상태 구간(S1)은 사용자의 심박수가 사용자의 호흡수 및 사용자의 체온보다 더 높은 고려 요소로 작용되는 구간일 수 있다. First, the biometric information library 310 refers to the user's biometric information record data, and determines a section in which the user's heart rate increase rate is relatively large, the user's respiratory rate increase rate is relatively small, and the user's body temperature increases. It can be divided into 1 exercise state section (S1). In other words, the first exercise state section (S1) means a state in which the user's heart rate increase is relatively higher than the user's respiratory rate, and the first exercise state section (S1) is a section in which the body temperature increases at a relatively constant width. can That is, the first exercise state section S1 may be a section in which the user's heart rate acts as a higher consideration factor than the user's respiratory rate and the user's body temperature.

또한, 생체 정보 라이브러리(310)는 사용자의 생체 정보 기록 데이터를 참고하여, 사용자의 심박수의 증가폭은 상대적으로 작고, 사용자의 호흡수의 증가폭은 상대적으로 크고, 사용자의 체온이 증가하고 있는 구간을 제2 운동 상태 구간(S2)으로 구획할 수 있다. 제2 운동 상태 구간(S2)은 예를 들어, 중간 운동 상태를 의미할 수 있다. 다시 말해서, 제2 운동 상태 구간(S2)은 사용자의 호흡수의 증가폭이 사용자의 심박수보다 상대적으로 높은 상태를 의미하며, 제2 운동 상태 구간(S2)은 체온이 비교적 일정한 폭으로 증가하는 구간일 수 있다. 즉, 제2 운동 상태 구간(S2)은 사용자의 호흡수가 사용자의 심박수 및 사용자의 체온보다 더 높은 고려 요소로 작용되는 구간일 수 있다. In addition, the biometric information library 310 refers to the user's biometric information record data, and determines a section in which the user's heart rate increase rate is relatively small, the user's respiratory rate increase rate is relatively large, and the user's body temperature increases. It can be divided into 2 exercise state sections (S2). The second exercise state section S2 may mean, for example, an intermediate exercise state. In other words, the second exercise state section (S2) means a state in which the user's respiratory rate increase is relatively higher than the user's heart rate, and the second exercise state section (S2) is a section in which the body temperature increases at a relatively constant width. can That is, the second exercise state section S2 may be a section in which the user's respiratory rate acts as a higher consideration factor than the user's heart rate and the user's body temperature.

또한, 생체 정보 라이브러리(310)는 사용자의 생체 정보 기록 데이터를 참고하여, 사용자의 심박수의 증가폭은 상대적으로 작고, 사용자의 호흡수의 증가폭은 상대적으로 작고, 사용자의 체온은 상대적으로 높으나, 체온이 미세하게 감소하거나 일정하게 유지되는 구간을 제3 운동 상태 구간(S3)으로 구획할 수 있다. 제3 운동 상태 구간(S3)은 예를 들어, 강한 운동 상태를 의미할 수 있다. 사용자의 체온은 항상성으로 인해, 체온이 최대치로 증가한 이후부터는 체온을 유지하거나 오히려 체온이 감소될 수 있다. 다시 말해서, 제3 운동 상태 구간(S3)은 사용자의 체온이 사용자의 심박수 및 사용자의 호흡수보다 더 높은 고려 요소로 작용되는 구간일 수 있다. In addition, the biometric information library 310 refers to the user's biometric information record data, the user's heart rate increase rate is relatively small, the user's respiratory rate increase rate is relatively small, and the user's body temperature is relatively high. A section that decreases slightly or remains constant may be divided into a third exercise state section S3. The third exercise state section S3 may mean, for example, a strong exercise state. Due to homeostasis, the body temperature of the user may be maintained after the body temperature increases to a maximum value or, rather, the body temperature may decrease. In other words, the third exercise state section S3 may be a section in which the user's body temperature acts as a higher consideration factor than the user's heart rate and the user's respiratory rate.

다시 도 4를 참조하면, 운동 상태 결정부(320)는 생체 정보 측정 장치(200)에서 생성된 사용자의 생체 정보 데이터(BM_Data)와, 생체 정보 라이브러리(310)에 저장된 생체 정보 기록 데이터를 이용하여, 사용자의 운동 상태를 결정할 수 있다. 다시 말해서, 운동 상태 결정부(320)는 생체 정보 측정 장치(200)에서 생성되는 생체 정보 데이터(BM_Data)로부터, 사용자가 현재 어떤 운동 상태인지 여부를 결정할 수 있다. 예를 들어, 생체 정보 측정 장치(200)에서 생성된 제1 사용자의 생체 정보 데이터(BM_Data)가, 제1 사용자에 대하여 미리 구획된 제1 운동 상태 구간(S1) 내에 포함된 경우, 운동 상태 결정부(320)는 제1 사용자의 운동 상태를 제1 운동 상태로 결정할 수 있다. 제1 운동 상태는 예를 들어, 약한 운동 상태를 의미할 수 있다. 또한, 예를 들어, 생체 정보 측정 장치(200)에서 생성된 제1 사용자의 생체 정보 데이터(BM_Data)가, 제1 사용자에 대하여 미리 구획된 제2 운동 상태 구간(S2) 내에 포함된 경우, 운동 상태 결정부(320)는 제1 사용자의 운동 상태를 제2 운동 상태로 결정할 수 있다. 제2 운동 상태는 예를 들어, 중간 운동 상태를 의미할 수 있다. 또한, 예를 들어, 생체 정보 측정 장치(200)에서 생성된 제1 사용자의 생체 정보 데이터(BM_Data)가, 제1 사용자에 대하여 미리 구획된 제3 운동 상태 구간(S3) 내에 포함된 경우, 운동 상태 결정부(320)는 제1 사용자의 운동 상태를 제3 운동 상태로 결정할 수 있다. 제3 운동 상태는 예를 들어, 강한 운동 상태를 의미할 수 있다.Referring back to FIG. 4 , the exercise state determination unit 320 uses the user's biometric information data (BM_Data) generated by the biometric information measuring device 200 and the biometric information recording data stored in the biometric information library 310 , it is possible to determine the user's exercise state. In other words, the exercise state determiner 320 may determine the user's current exercise state from the biometric information data BM_Data generated by the biometric information measuring device 200 . For example, when the biometric information data BM_Data of the first user generated by the biometric information measuring device 200 is included in the first exercise state section S1 pre-divided for the first user, the exercise state is determined. The unit 320 may determine the exercise state of the first user as the first exercise state. The first exercise state may mean, for example, a weak exercise state. In addition, for example, when the first user's biometric information data BM_Data generated by the biometric information measuring device 200 is included in the second exercise state section S2 predefined for the first user, exercise The state determiner 320 may determine the exercise state of the first user as the second exercise state. The second exercise state may mean, for example, an intermediate exercise state. In addition, for example, when the first user's biometric information data BM_Data generated by the biometric information measurement device 200 is included in the third exercise state section S3 predefined for the first user, exercise The state determiner 320 may determine the exercise state of the first user as a third exercise state. The third exercise state may mean, for example, a strong exercise state.

운동 상태 갱신부(330)는 주기적/비주기적, 혹은 실시간으로 생체 정보 측정 장치(200)에서 생성되는 사용자의 생체 정보 데이터(BM_Data)를 확인하여, 사용자의 운동 상태를 갱신할 수 있다. 몇몇 실시예에 따르면, 운동 상태 갱신부(330)는 사용자의 생체 정보 데이터(BM_Data)의 데이터 값을 기초로, 사용자의 운동 상태를 갱신할 수 있다. 예를 들어, 운동 상태 갱신부(330)는 제1 운동 상태 구간(S1) 내에 포함되어 있던 사용자의 생체 정보 데이터(BM_Data)가 변화하여, 제2 운동 상태 구간(S2)에 진입한 경우, 사용자의 운동 상태를 제2 운동 상태로 결정할 수 있다. The exercise state updating unit 330 may check the user's biometric information data (BM_Data) generated by the biometric information measuring device 200 periodically/non-periodically or in real time to update the user's exercise state. According to some embodiments, the exercise state updater 330 may update the user's exercise state based on the data value of the user's biometric information data BM_Data. For example, the exercise state updater 330 changes the user's biometric information data BM_Data included in the first exercise state section S1 and enters the second exercise state section S2, the user The movement state of may be determined as the second movement state.

또한, 몇몇 실시예에 따르면, 운동 상태 갱신부(330)는 사용자의 생체 정보 데이터(BM_Data)가 특정 운동 상태 구간 내에 유지된 시간을 기초로, 사용자의 운동 상태를 갱신할 수 있다. 예를 들어, 운동 상태 갱신부(330)는 사용자의 생체 정보 데이터(BM_Data)가 제1 운동 상태 구간(S1) 내에 포함되어 유지된 시간이, 미리 정한 제1 시간 이상인 경우, 사용자의 운동 상태를 제2 운동 상태로 갱신할 수 있다. 다시 말해서, 사용자의 운동 상태가 특정 운동 상태에서 제1 시간 이상 지속되는 경우, 운동 상태 갱신부(330)는 사용자의 운동 상태를 다음 운동 상태로 갱신할 수 있다. Also, according to some embodiments, the exercise state updater 330 may update the user's exercise state based on the time that the user's biometric information data BM_Data is maintained within a specific exercise state section. For example, the exercise state updater 330 determines the user's exercise state when the time for which the user's biometric information data BM_Data is included and maintained in the first exercise state section S1 is equal to or longer than a first predetermined time. It can be updated to the second motion state. In other words, when the user's exercise state lasts longer than the first time in a specific exercise state, the exercise state updater 330 may update the user's exercise state to the next exercise state.

감정 상태 결정부(340)는 생체 정보 측정 장치(200)에서 생성된 사용자의 생체 정보 데이터(BM_Data)를 기초로, 사용자의 감정 상태를 결정할 수 있다. 몇몇 실시예에 따르면, 감정 상태 결정부(340)는 사용자의 신체 위치별 체온 변화량에 기초하여, 사용자의 감정 상태를 결정할 수 있다. 예시적인 설명을 위해 도 6 및 도 7을 더 참조한다.The emotional state determination unit 340 may determine the user's emotional state based on the user's biometric information data (BM_Data) generated by the biometric information measuring device 200 . According to some embodiments, the emotional state determination unit 340 may determine the user's emotional state based on the change in body temperature for each body position of the user. Further reference is made to FIGS. 6 and 7 for illustrative explanation.

도 6은 본 발명의 몇몇 실시예에 따른 사용자의 체온 측정 위치를 설명하기 위한 도면이다. 도 7은 본 발명의 몇몇 실시예에 따른 감정 상태 결정부가 사용자의 생체 정보 데이터를 기초로 사용자의 감정 상태를 결정하는 과정을 설명하기 위한 도면이다.6 is a diagram for explaining a user's body temperature measurement position according to some embodiments of the present invention. 7 is a diagram for explaining a process of determining a user's emotional state based on user's biometric information data by an emotional state determining unit according to some embodiments of the present invention.

도 6을 참조하면, 생체 정보 측정 장치(200)는 제1 위치 내지 제4 위치에서, 사용자의 체온을 측정할 수 있다. 예를 들어, 생체 정보 측정 장치(200)는 전자섬유 온도 센서를 이용하여, 제1 위치 내지 제4 위치의 체온을 측정할 수 있다. Referring to FIG. 6 , the biometric information measuring device 200 may measure the user's body temperature at first to fourth positions. For example, the biometric information measuring device 200 may measure the body temperature at the first to fourth positions using an electronic fiber temperature sensor.

먼저, 생체 정보 측정 장치(200)는 제1 위치에서 제1 체온(Temp#1)을 측정할 수 있다. 제1 위치는 사용자의 얼굴 부위일 수 있다. 예를 들어, 제1 위치의 제1 체온(Temp#1)을 측정하기 위한 생체 정보 측정 장치(200)는 모자 또는 머리 밴드 형태로 제작된 전자섬유 온도 센서를 포함할 수 있다. First, the biometric information measuring device 200 may measure a first body temperature (Temp#1) at a first location. The first location may be a user's face. For example, the biometric information measuring device 200 for measuring the first body temperature (Temp#1) at the first location may include an electronic fiber temperature sensor manufactured in the form of a hat or headband.

또한, 생체 정보 측정 장치(200)는 제2 위치에서 제2 체온(Temp#2)을 측정할 수 있다. 제2 위치는 사용자의 몸통 부위일 수 있다. 예를 들어, 제2 위치의 제2 체온(Temp#2)을 측정하기 위한 생체 정보 측정 장치(200)는 의류 형태로 제작된 전자섬유 온도 센서를 포함할 수 있다. Also, the biometric information measuring device 200 may measure a second body temperature (Temp#2) at a second location. The second location may be the user's torso. For example, the biometric information measuring device 200 for measuring the second body temperature (Temp#2) at the second location may include an electronic fiber temperature sensor manufactured in the form of clothing.

또한, 생체 정보 측정 장치(200)는 제3 위치에서 제3 체온(Temp#3)을 측정할 수 있다. 제3 위치는 사용자의 팔 부위일 수 있다. 예를 들어, 제3 위치에서 제3 체온(Temp#3)을 측정하기 위한 생체 정보 측정 장치(200)는 제2 체온(Temp#2)을 측정하기 위해 의류 형태로 제작된 전자섬유 온도 센서와 일체화된, 의류 형태의 전자섬유 온도 센서를 포함할 수 있다. 다른 예를 들어, 제3 위치에서 제3 체온(Temp#3)을 측정하기 위한 생체 정보 측정 장치(200)는 토시 또는 장갑 형태로 제작된 전자 섬유 온도 센서를 포함할 수 있다.Also, the biometric information measuring device 200 may measure a third body temperature (Temp#3) at a third location. The third location may be the user's arm. For example, the biometric information measuring device 200 for measuring a third body temperature (Temp#3) at a third location includes an electronic textile temperature sensor manufactured in the form of clothing to measure a second body temperature (Temp#2) and An integrated, clothing-type electronic fiber temperature sensor may be included. As another example, the biometric information measuring device 200 for measuring the third body temperature (Temp#3) at the third location may include an electronic fiber temperature sensor manufactured in the form of a glove or glove.

또한, 생체 정보 측정 장치(200)는 제4 위치에서 제4 체온(Temp#4)을 측정할 수 있다. 제4 위치는 사용자의 다리 부위일 수 있다. 예를 들어, 제4 위치에서 제4 체온(Temp#4)을 측정하기 위한 생체 정보 측정 장치(200)는 의류 형태의 전자섬유 온도 센서를 포함할 수 있다. Also, the biometric information measuring device 200 may measure a fourth body temperature (Temp#4) at a fourth location. The fourth location may be the user's leg. For example, the biometric information measurement device 200 for measuring a fourth body temperature (Temp#4) at a fourth location may include a clothing-type electronic fiber temperature sensor.

몇몇 실시예에 따르면, 감정 상태 결정부(340)는 제1 위치 내지 제4 위치에서 측정된 제1 체온(Temp#1) 내지 제4 체온(Temp#4)의 변화량을 기초로, 사용자의 감정 상태를 결정할 수 있다. 예시적인 설명을 위해, 도 7을 더 참조한다.According to some embodiments, the emotional state determination unit 340 determines the user's emotion based on the change in the first body temperature (Temp#1) to the fourth body temperature (Temp#4) measured at the first to fourth locations. status can be determined. For illustrative explanation, further reference is made to FIG. 7 .

감정 상태 결정부(340)는 제1 체온(Temp#1)에 대한 제1 체온 변화량(Temp variation#1), 제2 체온(Temp#2)에 대한 제2 체온 변화량(Temp variation#2), 제3 체온(Temp#3)에 대한 제3 체온 변화량(Temp variation#3) 및 제4 체온(Temp#4)에 대한 제4 체온 변화량(Temp variation#4)을 기초로, 사용자의 감정 상태를 결정할 수 있다. The emotional state determination unit 340 includes a first body temperature variation (Temp variation#1) with respect to the first body temperature (Temp#1), a second body temperature variation (Temp variation#2) with respect to the second body temperature (Temp#2), Based on the third body temperature variation (Temp variation#3) with respect to the third body temperature (Temp#3) and the fourth body temperature variation (Temp variation#4) with respect to the fourth body temperature (Temp#4), the user's emotional state is determined. can decide

예를 들어, 감정 상태 결정부(340)는 제1 체온 변화량(Temp variation#1) 내지 제3 체온 변화량(Temp variation#3)이 상대적으로 높고, 제4 체온 변화량(Temp variation#4)이 중간인 경우, 사용자의 감정 상태를 'Anger' 상태로 결정할 수 있다. 또한, 감정 상태 결정부(340)는 제1 체온 변화량(Temp variation#1), 제3 체온 변화량(Temp variation#3) 및 제4 체온 변화량(Temp variation#4)이 중간이고, 제2 체온 변화량(Temp variation#2)이 상대적으로 높은 경우, 사용자의 감정 상태를 'Fear' 상태로 결정할 수 있다. 또한, 감정 상태 결정부(340)는 제1 체온 변화량(Temp variation#1) 내지 제4 체온 변화량(Temp variation#4)이 상대적으로 높은 경우, 사용자의 감정 상태를 'Happiness' 상태로 결정할 수 있다. 또한, 감정 상태 결정부(340)는 제1 체온 변화량(Temp variation#1)이 중간이고, 제2 체온 변화량(Temp variation#2)이 상대적으로 높고, 제3 체온 변화량(Temp variation#3) 및 제4 체온 변화량(Temp variation#4)이 상대적으로 낮은 경우, 사용자의 감정 상태를 'Sadness' 상태로 결정할 수 있다. 또한, 감정 상태 결정부(340)는 제1 체온 변화량(Temp variation#1) 및 제2 체온 변화량(Temp variation#2)이 상대적으로 높고, 제3 체온 변화량(Temp variation#3) 및 제4 체온 변화량(Temp variation#4)이 중간인 경우, 사용자의 감정 상태를 'Pride' 상태로 결정할 수 있다. 다만, 이러한 설명은 예시적인 것이며, 실시예들이 이에 제한되는 것은 아니다. For example, the emotional state determination unit 340 has a relatively high first to third body temperature variation (Temp variation#3) and a medium fourth body temperature variation (Temp variation#4). In this case, the user's emotional state may be determined as an 'Anger' state. In addition, the emotional state determination unit 340 determines that the first body temperature change amount (Temp variation#1), the third body temperature change amount (Temp variation#3), and the fourth body temperature change amount (Temp variation#4) are medium, and the second body temperature change amount When (Temp variation #2) is relatively high, the user's emotional state may be determined as a 'Fear' state. In addition, the emotional state determination unit 340 may determine the user's emotional state as a 'happiness' state when the first to fourth body temperature variation (Temp variation#1) to fourth body temperature variation (Temp variation#4) are relatively high. . In addition, the emotional state determination unit 340 determines that the first body temperature variation (Temp variation#1) is medium, the second body temperature variation (Temp variation#2) is relatively high, and the third body temperature variation (Temp variation#3) is When the fourth body temperature variation (Temp variation#4) is relatively low, the user's emotional state may be determined as a 'sadness' state. In addition, the emotional state determination unit 340 determines that the first body temperature change amount (Temp variation#1) and the second body temperature change amount (Temp variation#2) are relatively high, and the third body temperature change amount (Temp variation#3) and the fourth body temperature change amount are relatively high. When the amount of change (Temp variation #4) is medium, the user's emotional state may be determined as a 'Pride' state. However, this description is exemplary, and the embodiments are not limited thereto.

몇몇 실시예에 따르면, 체온 변화량이 상대적으로 높은지, 중간인지, 낮은지 여부는 미리 결정된 기준에 따를 수 있다. 이때, 제1 체온 변화량(Temp variation#1) 내지 제4 체온 변화량(Temp variation#4)에 대한 기준은 서로 다를 수도 있고, 적어도 일부가 동일할 수도 있다. 예를 들어, 제1 체온 변화량(Temp variation#1)이 제1 기준보다 낮은 경우, 제1 체온 변화량(Temp variation#1)은 상대적으로 낮은 것으로 결정될 수 있다. 또한, 제1 체온 변화량(Temp variation#1)이 제1 기준 이상이고, 제2 기준 미만인 경우, 제2 체온 변화량(Temp variation#2)은 중간으로 결정될 수 있다. 또한, 제1 체온 변화량(Temp variation#1)이 제2 기준 이상인 경우, 제2 체온 변화량(Temp variation#2)은 상대적으로 높은 것으로 결정될 수 있다. 한편, 제2 체온 변화량(Temp variation#2)이 제3 기준보다 낮은 경우, 제2 체온 변화량(Temp variation#2)은 상대적으로 낮은 것으로 결정될 수 있다. 또한, 제2 체온 변화량(Temp variation#2)이 제3 기준 이상이고, 제4 기준 미만인 경우, 제2 체온 변화량(Temp variation#2)은 중간으로 결정될 수 있다. 또한, 제2 체온 변화량(Temp variation#2)이 제4 기준 이상인 경우, 제2 체온 변화량(Temp variation#2)은 상대적으로 높은 것으로 결정될 수 있다. 이때, 제1 기준과 제3 기준, 제2 기준과 제4 기준은 서로 다를 수도 있고, 적어도 일부가 동일할 수도 있다. 다시 말해서, 사용자의 신체 부위에 따라, 체온 변화량을 결정하기 위한 임계값은 서로 다르거나, 적어도 일부가 동일할 수 있다.According to some embodiments, whether the change in body temperature is relatively high, medium, or low may be based on a predetermined criterion. In this case, the criteria for the first body temperature change amount (Temp variation#1) to the fourth body temperature change amount (Temp variation#4) may be different from each other, or at least part of them may be the same. For example, when the first body temperature variation (Temp variation#1) is lower than the first reference, the first body temperature variation (Temp variation#1) may be determined to be relatively low. Also, when the first body temperature change amount (Temp variation#1) is greater than or equal to the first standard and less than the second standard, the second body temperature change amount (Temp variation#2) may be determined to be medium. In addition, when the first body temperature change amount (Temp variation#1) is equal to or greater than the second standard, the second body temperature change amount (Temp variation#2) may be determined to be relatively high. Meanwhile, when the second body temperature variation (Temp variation#2) is lower than the third criterion, the second body temperature variation (Temp variation#2) may be determined to be relatively low. Also, when the second body temperature change amount (Temp variation#2) is greater than the third standard and less than the fourth standard, the second body temperature change amount (Temp variation#2) may be determined to be medium. In addition, when the second body temperature variation (Temp variation#2) is equal to or greater than the fourth standard, the second body temperature variation (Temp variation#2) may be determined to be relatively high. In this case, the first criterion and the third criterion, and the second criterion and the fourth criterion may be different from each other or at least partially the same. In other words, depending on the user's body part, the threshold values for determining the change in body temperature may be different or at least partially the same.

도 5를 이용하여 설명한 사용자의 생체 정보 기록 데이터의 체온은, 도 6의 제1 체온(Temp#1) 내지 제4 체온(Temp#4)의 평균값일 수도 있고, 제1 체온(Temp#1) 내지 제4 체온(Temp#4) 중 특정 체온을 의미할 수도 있다. 다만, 이러한 설명은 예시적인 것이며, 실시예들이 이에 제한되는 것은 아니다. The body temperature of the biometric information recording data of the user described with reference to FIG. 5 may be the average value of the first body temperature (Temp#1) to the fourth body temperature (Temp#4) of FIG. 6, or the first body temperature (Temp#1) It may also mean a specific body temperature among the fourth body temperature (Temp#4). However, this description is exemplary, and the embodiments are not limited thereto.

다시 도 4를 참조하면, 몇몇 실시예에 따르면 감정 상태 결정부(340)는 사용자의 감정 상태를 결정하기 위해, 제1 표정 분석부(ANA_1)에서 생성된 제1 표정 분석 데이터(ANA_Data#1)를 더 이용할 수 있다. 제1 표정 분석 데이터(ANA_Data#1)에 대한 구체적인 설명은 후술한다. Referring back to FIG. 4 , according to some embodiments, the emotional state determining unit 340 uses the first facial expression analysis data ANA_Data#1 generated by the first facial expression analyzing unit ANA_1 to determine the user's emotional state. can use more. A detailed description of the first facial expression analysis data (ANA_Data#1) will be described later.

감정 상태 갱신부(350)는 주기적/비주기적, 혹은 실시간으로 생체 정보 측정 장치(200)에서 생성되는 사용자의 생체 정보 데이터(BM_Data)를 확인하여, 사용자의 감정 상태를 갱신할 수 있다. 몇몇 실시예에 따르면, 감정 상태 갱신부(350)는 제1 체온 변화량(Temp variation#1) 내지 제4 체온 변화량(Temp variation#4)의 데이터 값을 기초로, 사용자의 감정 상태를 갱신할 수 있다. 예를 들어, 'Anger' 상태인 사용자의 제1 체온 변화량(Temp variation#1) 및 제3 체온 변화량(Temp variation#3)이 중간이 되는 경우, 감정 상태 갱신부(350)는 사용자의 감정 상태를 'Fear' 상태로 갱신할 수 있다. The emotional state updating unit 350 may check the user's biometric information data (BM_Data) generated by the biometric information measuring device 200 periodically/non-periodically or in real time to update the user's emotional state. According to some embodiments, the emotional state updater 350 may update the user's emotional state based on data values of the first to fourth body temperature variations (Temp variation#1) to fourth body temperature variations (Temp variation#4). there is. For example, when the first body temperature variation (Temp variation#1) and the third body temperature variation (Temp variation#3) of the user in the 'Anger' state are intermediate, the emotional state updater 350 determines the user's emotional state can be updated to 'Fear' status.

또한, 몇몇 실시예에 따르면, 감정 상태 갱신부(350)는 주기적/비주기적, 혹은 실시간으로 제1 표정 분석 데이터(ANA_Data#1)를 더 참고하여, 사용자의 감정 상태를 갱신할 수 있다. Also, according to some embodiments, the emotional state updater 350 may update the user's emotional state by further referring to the first facial expression analysis data ANA_Data#1 periodically/non-periodically or in real time.

모션 보정부(360)는 운동 상태 결정부(320), 운동 상태 갱신부(330), 감정 상태 결정부(340) 및 감정 상태 갱신부(350)에서 결정된 사용자의 운동 상태, 사용자의 감정 상태 및 보정 서포트 데이터(CS_Data)를 기초로, 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)를 보정하여 제1 보정 데이터(CB_Data#1)를 생성할 수 있다. 모션 보정부(360)에 대한 예시적인 설명을 위해, 도 8을 더 참조한다. The motion compensator 360 determines the user's exercise state determined by the exercise state determiner 320, the exercise state updater 330, the emotional state determiner 340, and the emotional state updater 350, the user's emotional state, and Based on the correction support data CS_Data, the motion data MC_Data generated by the motion capture device 100 may be corrected to generate first correction data CB_Data#1. For an exemplary description of the motion compensator 360, further reference is made to FIG.

도 8은 본 발명의 몇몇 실시예에 따른 모션 보정부의 구성을 설명하기 위한 예시적인 도면이다. 8 is an exemplary diagram for explaining the configuration of a motion compensation unit according to some embodiments of the present invention.

도 8을 참조하면, 모션 보정부(360)는 모션 데이터 보정 가중치 결정부(361), 모션 데이터 보정부(362), 디스플레이부(363) 및 입력부(364)를 포함할 수 있다. Referring to FIG. 8 , the motion compensation unit 360 may include a motion data compensation weight determination unit 361 , a motion data compensation unit 362 , a display unit 363 and an input unit 364 .

모션 데이터 보정 가중치 결정부(361)는 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)를 보정하기 위한 가중치를 결정할 수 있다. 다시 말해서, 모션 데이터 보정 가중치 결정부(361)는 사용자의 운동 상태, 사용자의 감정 상태 및 보정 서포트 데이터(CS_Data)를 기초로, 모션 데이터(MC_Data)에 대한 보정을 얼마나 수행할지 여부를 결정할 수 있다. 몇몇 실시예에 따르면, 모션 데이터 보정 가중치 결정부(361)는 사용자의 운동 상태에 따른 가중치, 사용자의 감정 상태에 따른 가중치 및 보정 서포트 데이터(CS_Data)에 따른 가중치를 각각 결정할 수도 있고, 사용자의 운동 상태에 따른 가중치, 사용자의 감정 상태에 따른 가중치 및 보정 서포트 데이터(CS_Data)에 따른 가중치를 통합하여 하나로 결정할 수도 있다. The motion data correction weight determiner 361 may determine weights for correcting the motion data MC_Data generated by the motion capture device 100 . In other words, the motion data correction weight determiner 361 may determine how much to correct for the motion data MC_Data based on the user's exercise state, the user's emotional state, and the correction support data CS_Data. . According to some embodiments, the motion data correction weight determination unit 361 may determine a weight according to the user's exercise state, a weight according to the user's emotional state, and a weight according to the correction support data (CS_Data), respectively, and the user's movement The weight according to the state, the weight according to the user's emotional state, and the weight according to the correction support data (CS_Data) may be integrated and determined as one.

모션 데이터 보정부(362)는 사용자의 운동 상태, 사용자의 감정 상태 및 보정 서포트 데이터(CS_Data)에 따라, 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)를 보정하여 제1 보정 데이터(CB_Data#1)를 생성할 수 있다. 보다 구체적으로, 모션 데이터 보정부(362)는 사용자의 운동 상태 및 사용자의 감정 상태에 따라 바디 캡쳐 모듈(110)에서 생성된 모션 데이터(MC_Data)를 보정하고, 사용자의 운동 상태, 사용자의 감정 상태 및 보정 서포트 데이터(CS_Data)에 따라 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)를 보정함으로써, 제1 보정 데이터(CB_Data#1)를 생성할 수 있다. 보다 구체적인 설명을 위해 도 9를 더 참조한다.The motion data compensator 362 corrects the motion data MC_Data generated by the motion capture device 100 according to the user's motion state, the user's emotional state, and the correction support data CS_Data to correct the first correction data CB_Data. #1) can be created. More specifically, the motion data correction unit 362 corrects the motion data MC_Data generated by the body capture module 110 according to the user's motion state and the user's emotional state, and the user's movement state and the user's emotional state. The first correction data CB_Data#1 may be generated by correcting the motion data MC_Data generated by the facial capture module 120 according to the correction support data CS_Data. Further reference is made to FIG. 9 for a more detailed explanation.

도 9는 본 발명의 몇몇 실시예에 따른 모션 데이터 보정부의 구성을 설명하기 위한 도면이다. 9 is a diagram for explaining the configuration of a motion data correction unit according to some embodiments of the present invention.

도 9를 참조하면, 모션 데이터 보정부(362)는 바디 모션 데이터 보정부(BM_C), 표정 비교부(FC_C) 및 페이셜 모션 데이터 보정부(FM_C)를 포함할 수 있다. Referring to FIG. 9 , the motion data correction unit 362 may include a body motion data correction unit BM_C, a facial expression comparison unit FC_C, and a facial motion data correction unit FM_C.

바디 모션 데이터 보정부(BM_C)는 바디 캡쳐 모듈(110)에서 생성된 모션 데이터(MC_Data)에 대한 보정을 수행할 수 있다. 바디 모션 데이터 보정부(BM_C)는 운동 상태 결정부(320) 및/또는 운동 상태 갱신부(330)에서 결정된 사용자의 운동 상태(ST_EXE)를 이용하여, 바디 캡쳐 모듈(110)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. The body motion data correction unit BM_C may perform correction on the motion data MC_Data generated by the body capture module 110 . The body motion data correction unit BM_C uses the motion state ST_EXE of the user determined by the motion state determination unit 320 and/or the movement state updating unit 330 to generate motion data from the body capture module 110. (MC_Data) can be corrected.

예를 들어, 운동 상태 결정부(320)에서 결정된 사용자의 운동 상태가 제1 운동 상태인 경우, 바디 모션 데이터 보정부(BM_C)는 메타버스 캐릭터의 상체가 상대적으로 약하게 흔들리도록 모션 데이터(MC_Data)를 보정할 수 있다. 또한, 예를 들어, 운동 상태 결정부(320)에서 결정된 사용자의 운동 상태가 제2 운동 상태인 경우, 모션 데이터 보정부(362)는 메타버스 캐릭터의 상체가 상대적으로 약하게 흔들리도록 모션 데이터(MC_Data)를 보정하고, 메타버스 캐릭터의 복부가 상대적으로 적게 팽창/수축하도록 모션 데이터(MC_Data)를 보정할 수 있다. 또한, 예를 들어, 운동 상태 결정부(320)에서 결정된 사용자의 운동 상태가 제3 운동 상태인 경우, 모션 데이터 보정부(362)는 메타버스 캐릭터의 상체가 상대적으로 강하게 흔들리도록 모션 데이터(MC_Data)를 보정하고, 메타버스 캐릭터의 복부가 상대적으로 많이 팽창/수축하도록 모션 데이터(MC_Data)를 보정할 수 있다. For example, when the user's motion state determined by the motion state determination unit 320 is the first motion state, the body motion data correction unit BM_C generates motion data MC_Data so that the upper body of the metaverse character shakes relatively weakly. can be corrected. In addition, for example, when the user's motion state determined by the motion state determination unit 320 is the second motion state, the motion data correction unit 362 performs motion data (MC_Data) so that the upper body of the metaverse character shakes relatively weakly. ), and the motion data (MC_Data) can be corrected so that the abdomen of the metaverse character expands/contracts relatively little. In addition, for example, when the user's motion state determined by the motion state determination unit 320 is the third motion state, the motion data correction unit 362 performs motion data (MC_Data) so that the upper body of the metaverse character shakes relatively strongly. ), and the motion data (MC_Data) can be corrected so that the abdomen of the metaverse character expands/contracts relatively much.

또한, 바디 모션 데이터 보정부(BM_C)는 감정 상태 결정부(340) 및/또는 감정 상태 갱신부(350)에서 결정된 사용자의 감정 상태(ST_EMO)를 이용하여, 모션 데이터(MC_Data)를 보정할 수 있다. 예를 들어, 감정 상태 결정부(340)에서 결정된 사용자의 감정 상태(ST_EMO)가 'Anger'인 경우, 모션 데이터 보정부(362)는 메타버스 캐릭터의 상체가 흔들리도록 바디 캡쳐 모듈(110)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. In addition, the body motion data correction unit BM_C may correct the motion data MC_Data using the emotional state ST_EMO of the user determined by the emotional state determination unit 340 and/or the emotional state updating unit 350. there is. For example, when the emotional state (ST_EMO) of the user determined by the emotional state determining unit 340 is 'Anger', the motion data correction unit 362 uses the body capture module 110 to shake the upper body of the metaverse character. The generated motion data (MC_Data) can be corrected.

페이셜 모션 데이터 보정부(FM_C)는 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)에 대한 보정을 수행할 수 있다. 페이셜 모션 데이터 보정부(FM_C)는 운동 상태 결정부(320) 및/또는 운동 상태 갱신부(330)에서 결정된 사용자의 운동 상태(ST_EXE)를 이용하여, 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. 예를 들어, 운동 상태 결정부(320)에서 결정된 사용자의 운동 상태(ST_EXE)가 제3 운동 상태인 경우, 페이셜 모션 데이터 보정부(FM_C)는 메타버스 캐릭터의 눈 크기가 작아지고, 입이 커지도록 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. The facial motion data correction unit FM_C may perform correction on the motion data MC_Data generated by the facial capture module 120 . The facial motion data correction unit FM_C uses the motion state ST_EXE of the user determined by the motion state determination unit 320 and/or the movement state updating unit 330 to generate motion data from the facial capture module 120. (MC_Data) can be corrected. For example, when the user's motion state (ST_EXE) determined by the motion state determination unit 320 is the third motion state, the facial motion data corrector (FM_C) reduces the size of the eyes of the metaverse character and increases the mouth. Motion data MC_Data generated by the facial capture module 120 may be corrected.

또한, 페이셜 모션 데이터 보정부(FM_C)는 감정 상태 결정부(340) 및/또는 감정 상태 갱신부(350)에서 결정된 사용자의 감정 상태(ST_EMO)를 이용하여, 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. 예를 들어, 감정 상태 결정부(340)에서 결정된 사용자의 감정 상태(ST_EMO)가 'Anger'인 경우, 페이셜 모션 데이터 보정부(FM_C)는 메타버스 캐릭터의 미간이 좁혀지고, 눈꼬리가 올라가고, 입이 쳐지도록 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다.In addition, the facial motion data correction unit FM_C uses the user's emotional state ST_EMO determined by the emotional state determination unit 340 and/or the emotional state updating unit 350 to generate the facial motion data generated by the facial capture module 120. Motion data (MC_Data) can be corrected. For example, when the emotional state (ST_EMO) of the user determined by the emotional state determining unit 340 is 'Anger', the facial motion data correcting unit FM_C narrows the eyebrows of the metaverse character, the tail of the eyes rises, and the mouth Motion data (MC_Data) generated in the facial capture module 120 may be corrected so as to be skewed.

또한, 페이셜 모션 데이터 보정부(FM_C)는 표정 비교부(FC_C)에서 생성된 보정 서포트 데이터(CS_Data)에 따라 페이셜 캡쳐 모듈(120)에서 생성된 모션 데이터(MC_Data)를 보정할 수 있다. 표정 비교부(FC_C)는 사용자의 연기를 촬영하여 생성된 영상 데이터(IMG_Data)와 리타겟 모듈(500)에서 생성된 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 비교 및 분석하여 보정 서포트 데이터(CS_Data)를 생성할 수 있다. 영상 데이터(IMG_Data)는 사용자의 연기를 촬영한 이미지를 포함할 수 있다. 보다 구체적으로, 영상 데이터(IMG_Data)는 사용자가 연기를 수행할 때의 표정을 촬영한 이미지를 포함할 수 있다. 다시 말해서, 영상 데이터(IMG_Data)는 연기를 수행하는 사용자의 표정을 포함할 수 있다. 표정 비교부(FC_C)에 대한 보다 구체적인 설명을 위해, 도 10을 더 참조한다.Also, the facial motion data correction unit FM_C may correct the motion data MC_Data generated by the facial capture module 120 according to the correction support data CS_Data generated by the facial expression comparison unit FC_C. The facial expression comparator (FC_C) compares and analyzes the image data (IMG_Data) generated by photographing the user's performance and the second metaverse character rigging data (CR_Data#2) generated by the retarget module 500 to obtain correction support data (CS_Data) can be created. The image data IMG_Data may include an image of a user's performance. More specifically, the video data IMG_Data may include an image of a user's facial expression when performing an act. In other words, the image data IMG_Data may include a facial expression of a user performing a performance. For a more detailed description of the facial expression comparison unit FC_C, further reference is made to FIG. 10 .

도 10은 본 발명의 몇몇 실시예에 따른 표정 비교부의 구성을 설명하기 위한 도면이다. 10 is a diagram for explaining the configuration of a facial expression comparison unit according to some embodiments of the present invention.

도 10을 참조하면, 표정 비교부(FC_C)는 제1 표정 분석부(ANA_1), 제2 표정 분석부(ANA_2) 및 보정 서포트 데이터 생성부(CSG)를 포함할 수 있다. Referring to FIG. 10 , the expression comparison unit FC_C may include a first expression analysis unit ANA_1, a second expression analysis unit ANA_2, and a correction support data generation unit CSG.

제1 표정 분석부(ANA_1)는 영상 데이터(IMG_Data)를 수신할 수 있다. 제1 표정 분석부(ANA_1)는 영상 데이터(IMG_Data)에 포함된 사용자의 표정을 분석하여, 제1 표정 분석 데이터(ANA_Data#1)를 생성할 수 있다. 제1 표정 분석 데이터(ANA_Data#1)는 영상 데이터(IMG_Data)에 포함된 사용자의 표정에 나타나 있는 제1 감정 요소와, 제1 감정 요소에 대한 제1 감정 비율을 포함할 수 있다. 사용자의 표정은 복합적인 감정 요소를 포함할 수 있다. 감정 요소는 기쁨, 슬픔, 놀람, 반가움, 화남 등 구분되는 단어로 표현될 수 있는 요소를 의미한다. 즉, 표정은 단순히 특정 감정 상태를 나타내는 것이 아니라, 하나 이상의 복합적인 감정 상태를 포함할 수 있다. 예를 들어, 사용자의 특정 표정에는 '화남'의 감정과, '놀람'의 감정을 포함할 수 있으며, 그 중 '화남'의 비율이 80%, '놀람'의 비율이 20%로 구성될 수 있다. 이때, '화남' 및 '놀람'은 제1 감정 요소이며, 80%, 20%는 각각의 제1 감정 요소에 대응하는 제1 감정 비율이다. 다시 말해서, 제1 표정 분석부(ANA_1)는 사용자가 연기를 수행하는 동안 형성되는 사용자의 표정을 분석하여, 이를 하나 이상의 제1 감정 요소와, 제1 감정 요소에 대한 제1 감정 비율을 생성할 수 있다. The first expression analyzer ANA_1 may receive image data IMG_Data. The first facial expression analyzer ANA_1 may analyze the user's facial expression included in the image data IMG_Data to generate first facial expression analysis data ANA_Data#1. The first facial expression analysis data ANA_Data#1 may include a first emotion factor expressed in a user's facial expression included in the image data IMG_Data and a first emotion ratio with respect to the first emotion factor. A user's facial expression may include complex emotional elements. Emotion elements refer to elements that can be expressed in distinct words such as joy, sadness, surprise, joy, and anger. That is, the facial expression does not simply represent a specific emotional state, but may include one or more complex emotional states. For example, a user's specific facial expression may include an emotion of 'angry' and an emotion of 'surprise', of which the percentage of 'angry' is 80% and the percentage of 'surprise' is 20%. there is. In this case, 'angry' and 'surprise' are first emotion factors, and 80% and 20% are first emotion ratios corresponding to the respective first emotion factors. In other words, the first facial expression analyzer ANA_1 analyzes the user's facial expression formed while the user is performing an act, and generates one or more first emotion factors and a first emotion ratio with respect to the first emotion factors. can

제2 표정 분석부(ANA_2)는 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 수신할 수 있다. 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)는 모션 데이터(MC_Data)에 의해 생성된 메타버스 캐릭터의 골격에 캐릭터 이미지가 리깅된 데이터일 수 있다. 제2 표정 분석부(ANA_2)는 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)에서, 메타버스 캐릭터의 표정 부분을 구분하고, 메타버스 캐릭터의 표정을 분석하여, 제2 표정 분석 데이터(ANA_Data#2)를 생성할 수 있다. 제2 표정 분석 데이터(ANA_Data#2)는 메타버스 캐릭터의 표정에 나타나 있는 제2 감정 요소와, 제2 감정 요소에 대한 제2 감정 비율을 포함할 수 있다. The second expression analysis unit ANA_2 may receive the second metaverse character rigging data CR_Data#2. The second metaverse character rigging data (CR_Data#2) may be data in which a character image is rigged to the skeleton of a metaverse character created by the motion data (MC_Data). The second facial expression analysis unit ANA_2 classifies the expression part of the metaverse character in the second metaverse character rigging data (CR_Data#2), analyzes the expression of the metaverse character, and analyzes the second expression analysis data (ANA_Data# 2) can be created. The second facial expression analysis data (ANA_Data#2) may include a second emotion factor displayed in the expression of the metaverse character and a second emotion ratio with respect to the second emotion factor.

몇몇 실시예에 따르면, 제1 표정 분석부(ANA_1)와 제2 표정 분석부(ANA_2)는 머신 러닝, 딥 러닝 등의 인공지능 분석을 통해 감정 요소와 감정 비율을 생성할 수 있다. 제1 표정 분석부(ANA_1)와 제2 표정 분석부(ANA_2)는 사용자의 메타버스 캐릭터의 표정 분석을 위해 다양한 공지의 인공지능 모델을 이용할 수 있다. According to some embodiments, the first expression analyzer ANA_1 and the second expression analyzer ANA_2 may generate emotion factors and emotion ratios through artificial intelligence analysis such as machine learning and deep learning. The first expression analysis unit ANA_1 and the second expression analysis unit ANA_2 may use various known artificial intelligence models to analyze the expression of the user's metaverse character.

제1 표정 분석부(ANA_1)에서 생성된 제1 표정 분석 데이터(ANA_Data#1)와, 제2 표정 분석부(ANA_2)에서 생성된 제2 표정 분석 데이터(ANA_Data#2)는 보정 서포트 데이터 생성부(CSG)에 제공될 수 있다. 보정 서포트 데이터 생성부(CSG)는 제1 표정 분석 데이터(ANA_Data#1)와 제2 표정 분석 데이터(ANA_Data#2)를 이용하여 보정 서포트 데이터(CS_Data)를 생성할 수 있다. 보정 서포트 데이터 생성부(CSG)는 제1 표정 분석 데이터(ANA_Data#1)에 포함된 제1 감정 요소와, 제2 표정 분석 데이터(ANA_Data#2)에 포함된 제2 감정 요소를 비교하고, 제1 표정 분석 데이터(ANA_Data#1)에 포함된 제1 감정 비율과, 제2 표정 분석 데이터(ANA_Data#2)에 포함된 제2 감정 비율을 비교하여 보정 서포트 데이터(CS_Data)를 생성할 수 있다. The first facial expression analysis data ANA_Data#1 generated by the first facial expression analysis unit ANA_1 and the second facial expression analysis data ANA_Data#2 generated by the second facial expression analysis unit ANA_2 are the correction support data generator (CSG). The correction support data generator CSG may generate correction support data CS_Data using the first expression analysis data ANA_Data#1 and the second expression analysis data ANA_Data#2. The correction support data generation unit CSG compares the first emotion factor included in the first expression analysis data ANA_Data#1 with the second emotion factor included in the second expression analysis data ANA_Data#2, and The correction support data CS_Data may be generated by comparing the first emotion ratio included in 1 facial expression analysis data ANA_Data#1 and the second emotion ratio included in the second facial expression analysis data ANA_Data#2.

보정 서포트 데이터(CS_Data)는 제2 표정 분석 데이터(ANA_Data#2)가 제1 표정 분석 데이터(ANA_Data#1)에 가까워지는 방향으로의 보정을 포함할 수 있다. 예를 들어, 제1 감정 요소는 '화남' 및 '놀람'이고, 제2 감정 요소는 '화남'인 경우, 보정 서포트 데이터 생성부(CSG)는 모션 데이터(MC_Data)가 '놀람'의 감정 요소를 더 반영할 수 있는 방향으로 보정되도록 하는 보정 서포트 데이터(CS_Data)를 생성할 수 있다. '놀람'의 감정 요소를 더 반영할 수 있는 방향이란, 메타버스 캐릭터의 눈의 크기가 더 커지고, 입의 크기가 더 커지는 등에 대한 보정을 의미할 수 있으나, 실시예들이 이에 제한되는 것은 아니다. 다른 예를 들어, 제1 감정 요소는 '화남' 및 '놀람'이고, 제1 감정 비율은 각각 80%, 20%이고, 제2 감정 요소는 '화남' 및 '놀람'이고, 제2 감정 비율은 각각 50%, 50%인 경우, 보정 서포트 데이터 생성부(CSG)는 모션 데이터(MC_Data)가 '화남'의 감정 요소를 더 반영할 수 있는 방향으로 보정되도록 하는 보정 서포트 데이터(CS_Data)를 생성할 수 있다. '화남'의 감정 요소를 더 반영할 수 있는 방향이란, 메타버스 캐릭터의 미간 사이가 좁아지고, 입이 더 쳐지는 등에 대한 보정을 의미할 수 있으나, 실시예들이 이에 제한되는 것은 아니다.The correction support data CS_Data may include correction in a direction in which the second facial expression analysis data ANA_Data#2 becomes closer to the first facial expression analysis data ANA_Data#1. For example, when the first emotion factor is 'angry' and 'surprise' and the second emotion factor is 'angry', the correction support data generator CSG determines that the motion data MC_Data is an emotion factor of 'surprise'. It is possible to generate correction support data (CS_Data) to be corrected in a direction that can further reflect . The direction that can further reflect the emotional element of 'surprise' may mean correction for the metaverse character's eyes to become larger and mouth to become larger, but the embodiments are not limited thereto. For another example, the first emotion factors are 'angry' and 'surprise', the first emotion rates are 80% and 20%, respectively, the second emotion factors are 'angry' and 'surprise', and the second emotion rate is 50% and 50%, respectively, the correction support data generation unit CSG generates correction support data CS_Data that allows the motion data MC_Data to be corrected in a direction that can further reflect the emotional element of 'angry'. can do. A direction that can further reflect the emotional element of 'angry man' may mean a correction for a narrowing of the metaverse character's forehead, further drooping of the mouth, etc., but the embodiments are not limited thereto.

다시 말해서, 표정 비교부(FC_C)는 사용자의 표정을 포함하는 영상 데이터(IMG_Data)와, 메타버스 캐릭터의 표정을 포함하는 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 비교하여, 메타버스 캐릭터의 표정이 사용자의 표정을 더 반영할 수 있도록 보정 서포트 데이터(CS_Data)를 생성할 수 있다. 즉, 모션 캡쳐 장치(100)를 통해 생성된 모션 데이터(MC_Data)는 측정 오차 및 측정 한계로 인해 사용자의 표정을 그대로 반영하기에 무리가 있을 수 있다. 따라서, 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터 제작 시스템(1)은 사용자의 연기를 촬영한 영상 데이터(IMG_Data)를 이용하여, 메타버스 캐릭터의 모션 데이터(MC_Data)를 추가적으로 보정하는데 이용될 수 있다. 이를 통해, 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터 제작 시스템(1)은 사용자가 연기를 통해 표현하고자 하는 바를 더욱 잘 표현할 수 있으며, 상황에 따라 더욱 더 적절한 표정을 갖는 메타버스 캐릭터를 생성할 수 있다. In other words, the expression comparison unit FC_C compares the image data (IMG_Data) including the user's expression with the second metaverse character rigging data (CR_Data#2) including the expression of the metaverse character, Correction support data (CS_Data) may be generated so that the facial expression of the user may further reflect the facial expression of the user. That is, the motion data MC_Data generated through the motion capture device 100 may be difficult to reflect the user's facial expression as it is due to measurement errors and measurement limitations. Therefore, the metaverse character production system 1 according to some embodiments of the present invention can be used to additionally correct the motion data (MC_Data) of the metaverse character using the image data (IMG_Data) of the user's performance. there is. Through this, the metaverse character production system 1 according to some embodiments of the present invention can better express what the user wants to express through acting, and can create a metaverse character with a more appropriate expression depending on the situation. can

다시 도 9를 참조하여 정리하면, 모션 데이터 보정부(362)는 사용자의 운동 상태(ST_EXE)와 사용자의 감정 상태(ST_EMO)를 이용하여 바디 캡쳐 모듈(110)에 의해 생성된 모션 데이터(MC_Data)를 보정하고, 사용자의 운동 상태(ST_EXE), 사용자의 감정 상태(ST_EMO) 및 표정 비교부(FC_C)에서 생성된 보정 서포트 데이터(CS_Data)를 이용하여 페이셜 캡쳐 모듈(120)에 의해 생성된 모션 데이터(MC_Data)를 보정함으로써, 제1 보정 데이터(CB_Data#1)를 생성할 수 있다. Referring again to FIG. 9 , the motion data correction unit 362 generates motion data (MC_Data) generated by the body capture module 110 using the user's motion state (ST_EXE) and the user's emotional state (ST_EMO). and motion data generated by the facial capture module 120 using the user's movement state (ST_EXE), the user's emotional state (ST_EMO), and the correction support data (CS_Data) generated by the facial expression comparison unit (FC_C). By correcting (MC_Data), the first correction data (CB_Data#1) can be generated.

다시 도 8을 참조하면, 디스플레이부(363)는 영상 데이터(IMG_Data), 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1) 및 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 디스플레이할 수 있다. 입력부(364)는 데이터 보정 모듈(300)의 보정 가중치를 결정하고, 특정 구간에서 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1) 및 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2) 중 어떤 것을 이용하여 메타버스 컨텐츠를 제작할 지 결정하는 입력 신호를 생성할 수 있다. 다시 말해서, 입력부(364)는 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)와 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2) 중 어느 하나를 선택하는 입력 신호를 생성할 수 있다. 즉, 메타버스 컨텐츠는 특정 구간마다 입력되는 입력 신호에 따라, 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1) 및 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2) 중 어느 하나를 선택하여 제작될 수 있다. 예시적인 설명을 위해, 도 11을 더 참조한다. Referring back to FIG. 8 , the display unit 363 may display image data IMG_Data, first metaverse character rigging data CR_Data#1, and second metaverse character rigging data CR_Data#2. The input unit 364 determines the correction weight of the data correction module 300, and uses any of the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) in a specific section. Thus, an input signal that determines whether to produce metaverse contents can be generated. In other words, the input unit 364 may generate an input signal for selecting one of the first metaverse character rigging data CR_Data#1 and the second metaverse character rigging data CR_Data#2. That is, the metaverse content can be produced by selecting any one of the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) according to the input signal input for each specific section. there is. For illustrative explanation, further reference is made to FIG. 11 .

도 11은 본 발명의 몇몇 실시예에 따른 디스플레이부를 설명하기 위한 예시적인 도면이다. 11 is an exemplary diagram for explaining a display unit according to some embodiments of the present invention.

도 11을 참조하면, 디스플레이부(363)는 제1 윈도우(WD_1), 제2 윈도우(WD_2) 및 제3 윈도우(WD_3)를 포함할 수 있다. 제1 윈도우(WD_1)는 영상 데이터(IMG_Data)가 디스플레이될 수 있다. 제2 윈도우(WD_2)는 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2), 즉 원본 데이터인 모션 데이터(MC_Data)를 이용하여 생성된 메타버스 캐릭터의 영상을 디스플레이할 수 있다. 제3 윈도우(WD_3)는 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1), 즉 제1 보정 데이터(CB_Data#1)를 이용하여 생성된 메타버스 캐릭터의 영상을 디스플레이할 수 있다. 이때, 제1 윈도우(WD_1) 내지 제3 윈도우(WD_3)에서 디스플레이되는 영상 데이터(IMG_Data), 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1) 및 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)는 서로 동기화될 수 있다. 다시 말해서, 제2 윈도우(WD_2) 및 제3 윈도우(WD_3)에 디스플레이되는 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1) 및 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)는, 제1 윈도우(WD_1)에 디스플레이되는 영상 데이터(IMG_Data)가 생성될 당시에 생성된 모션 데이터(MC_Data)를 이용하여 생성된 것일 수 있다. Referring to FIG. 11 , the display unit 363 may include a first window WD_1, a second window WD_2, and a third window WD_3. The first window WD_1 may display image data IMG_Data. The second window WD_2 may display an image of a metaverse character generated using second metaverse character rigging data CR_Data#2, that is, original data, motion data MC_Data. The third window WD_3 may display an image of a metaverse character generated using the first metaverse character rigging data CR_Data#1, that is, the first correction data CB_Data#1. At this time, the image data (IMG_Data), the first metaverse character rigging data (CR_Data#1), and the second metaverse character rigging data (CR_Data#2) displayed in the first window (WD_1) to the third window (WD_3) are can be synchronized with each other. In other words, the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) displayed on the second window (WD_2) and the third window (WD_3) are It may be generated using motion data MC_Data generated when the image data IMG_Data displayed on WD_1) is generated.

메타버스 컨텐츠의 편집자 또는 감독은 디스플레이부(363)에 디스플레이되는 영상 데이터(IMG_Data), 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1) 및 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 한눈에 비교하여, 연기를 수행하는 사용자(즉, 배우)의 표정이 메타버스 캐릭터에 얼마나 잘 반영이 되었는지 비교할 수 있다. 이를 통해 메타버스 컨텐츠의 편집자 또는 감독은 특정 구간(예를 들어, 특정 프레임)에서 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1) 및 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2) 중 어떤 캐릭터 리깅 데이터를 이용하여 메타버스 컨텐츠를 제작할 지 결정할 수 있다. 즉, 경우에 따라 보정이 수행된 제1 보정 데이터(CB_Data#1)를 이용하여 생성된 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)가 사용자의 연기를 더욱 더 잘 반영할 수도 있고, 원본 데이터인 모션 데이터(MC_Data)를 이용하여 생성된 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)가 사용자의 연기를 더욱 더 잘 반영할 수도 있다. 따라서, 메타버스 컨텐츠의 편집자 또는 감독은 선호에 따라 적절한 메타버스 캐릭터의 영상을 선택하고, 이를 이용하여 메타버스 컨텐츠를 제작할 수 있다.The editor or director of the metaverse content can view the image data (IMG_Data), the first metaverse character rigging data (CR_Data#1), and the second metaverse character rigging data (CR_Data#2) displayed on the display unit 363 at a glance. By comparison, it is possible to compare how well the expression of the user (ie, the actor) performing the performance is reflected in the metaverse character. Through this, the editor or director of the metaverse content can rig any character of the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) in a specific period (eg, a specific frame). You can decide whether to create metaverse contents using data. That is, in some cases, the first metaverse character rigging data (CR_Data#1) generated using the corrected first correction data (CB_Data#1) may better reflect the user's performance, and the original data The second metaverse character rigging data (CR_Data#2) generated using the in-motion data (MC_Data) may better reflect the user's performance. Therefore, the editor or director of metaverse content can select an appropriate image of a metaverse character according to preference and produce metaverse content using it.

또한, 디스플레이부(363)는 보정 가중치를 결정하기 위한 화면을 함께 디스플레이할 수 있다. 메타버스 컨텐츠의 편집자 또는 감독은 보정 가중치를 조절하여, 보정이 수행됨에 따라 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)가 어떻게 변화되는지 디스플레이부(363)를 통해 쉽게 확인할 수 있으며, 이를 통해 보정 가중치를 보다 쉽게 결정할 수 있다.Also, the display unit 363 may display a screen for determining the correction weight. The editor or director of the metaverse content can easily check through the display unit 363 how the first metaverse character rigging data (CR_Data#1) changes as the correction is performed by adjusting the correction weight, through which the correction is made. Weights can be determined more easily.

다시 도 4를 참조하면, 효과 보정부(370)는 운동 상태 결정부(320), 운동 상태 갱신부(330), 감정 상태 결정부(340) 및 감정 상태 갱신부(350)에서 결정된 사용자의 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 기초로, 메타버스 캐릭터에 제공될 연출 효과를 결정할 수 있다. 효과 보정부(370)에 대한 예시적인 설명을 위해, 도 12를 더 참조한다.Referring back to FIG. 4 , the effect compensator 370 determines the motion of the user determined by the exercise state determiner 320, the exercise state updater 330, the emotional state determiner 340, and the emotional state updater 350. Based on at least one of the state and the user's emotional state, a directing effect to be provided to the metaverse character may be determined. For an exemplary description of the effect compensator 370 , further reference is made to FIG. 12 .

도 12는 본 발명의 몇몇 실시예에 따른 효과 보정부의 구성을 설명하기 위한 예시적인 도면이다.12 is an exemplary diagram for explaining the configuration of an effect correction unit according to some embodiments of the present invention.

도 12를 참조하면, 효과 보정부(370)는 효과 데이터 보정 가중치 결정부(371) 및 효과 데이터 보정부(372)를 포함할 수 있다. Referring to FIG. 12 , the effect correction unit 370 may include an effect data correction weight determination unit 371 and an effect data correction unit 372 .

효과 데이터 보정 가중치 결정부(371)는 사용자의 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 기초로 결정되는 메타버스 캐릭터의 연출 효과 보정을 위한 가중치를 결정할 수 있다. 다시 말해서, 효과 데이터 보정 가중치 결정부(371)는 사용자의 운동 상태 및 사용자의 감정 상태 중 적어도 하나를 기초로, 메타버스 캐릭터의 연출 효과 보정을 얼마나 수행할지 여부를 결정할 수 있다. 몇몇 실시예에 따르면, 효과 데이터 보정 가중치 결정부(371)는 사용자의 운동 상태에 따른 가중치 및 사용자의 감정 상태에 따른 가중치를 각각 결정할 수도 있고, 사용자의 운동 상태에 따른 가중치와 사용자의 감정 상태에 따른 가중치를 통합하여 하나로 결정할 수도 있다. The effect data correction weight determining unit 371 may determine a weight for correcting the production effect of the metaverse character, which is determined based on at least one of the user's motion state and the user's emotional state. In other words, the effect data correction weight determination unit 371 may determine how much to correct the directing effect of the metaverse character based on at least one of the user's motion state and the user's emotional state. According to some embodiments, the effect data correction weight determination unit 371 may determine a weight according to the user's exercise state and a weight according to the user's emotional state. It may be determined as one by integrating the weights according to the weight.

효과 데이터 보정부(372)는 사용자의 운동 상태 및/또는 사용자의 감정 상태에 따라, 메타버스 캐릭터에 부여되는 연출 효과를 결정할 수 있다. 몇몇 실시예에 따르면, 효과 데이터 보정부(372)는 운동 상태 결정부(320) 및/또는 운동 상태 갱신부(330)에서 결정된 사용자의 운동 상태를 이용하여, 메타버스 캐릭터에 부여되는 연출 효과를 결정할 수 있다. 예를 들어, 효과 데이터 보정부(372)는 사용자의 운동 상태가 제1 운동 상태인 경우, 메타버스 캐릭터에 대한 특별한 효과 데이터를 생성하지 않을 수 있다. 또한, 효과 데이터 보정부(372)는 사용자의 운동 상태가 제2 운동 상태인 경우, 메타버스 캐릭터의 옆머리 반사도 증가 연출 효과, 메타버스 캐릭터의 인중, 눈가 및 이마의 반사도 상승 및 맺혀있는 땀 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다. 또한, 효과 데이터 보정부(372)는 사용자의 운동 상태가 제3 운동 상태인 경우, 메타버스 캐릭터의 헤어 형태의 변경 연출 효과, 메타버스 캐릭터의 헤어 재질의 변경 연출 효과(땀에 의한 반사도 및 컬러 변경), 메타버스 캐릭터의 인중, 눈가, 이마 및 광대에 흐르는 땀 연출 효과 및 메타버스 캐릭터의 피부 반사도 증가 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다. The effect data correction unit 372 may determine a production effect given to the metaverse character according to the user's athletic state and/or the user's emotional state. According to some embodiments, the effect data correction unit 372 uses the user's motion state determined by the motion state determination unit 320 and/or the movement state update unit 330 to produce a production effect given to the metaverse character. can decide For example, when the user's exercise state is the first exercise state, the effect data correction unit 372 may not generate special effect data for the metaverse character. In addition, when the user's exercise state is the second exercise state, the effect data correction unit 372 produces an effect of increasing the reflectivity of the side hair of the metaverse character, an increase in the reflectivity of the metaverse character's philtrum, eyes and forehead, and directing sweat. Effect data for giving an effect can be created. In addition, when the user's exercise state is the third exercise state, the effect data correction unit 372 is a change directing effect of the metaverse character's hair shape, a change directing effect of the metaverse character's hair material (reflectivity and color due to sweat) change), effect data for giving the metaverse character's philtrum, eyes, forehead, and cheeks a sweat directing effect and a metaverse character's skin reflectivity increasing directing effect can be generated.

또한, 효과 데이터 보정부(372)는 감정 상태 결정부(340) 및/또는 감정 상태 갱신부(350)에서 결정된 사용자의 감정 상태를 이용하여, 메타버스 캐릭터에 부여되는 연출 효과를 결정할 수 있다. 예를 들어, 효과 데이터 보정부(372)는 감정 상태 결정부(340)에서 결정된 사용자의 감정 상태가 'Anger'인 경우, 메타버스 캐릭터의 이마에 힘줄 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다. 또한, 효과 데이터 보정부(372)는 감정 상태 결정부(340)에서 결정된 사용자의 감정 상태가 'Sadness'인 경우, 메타버스 캐릭터의 눈동자 반사도 증가(눈물 맺힘) 연출 효과를 부여하기 위한 효과 데이터를 생성할 수 있다. In addition, the effect data correction unit 372 may determine a directing effect given to the metaverse character by using the user's emotional state determined by the emotional state determination unit 340 and/or the emotional state updating unit 350. For example, when the user's emotional state determined by the emotional state determination unit 340 is 'Anger', the effect data correction unit 372 generates effect data for giving a tendon directing effect to the metaverse character's forehead. can In addition, when the emotional state of the user determined by the emotional state determination unit 340 is 'sadness', the effect data correction unit 372 generates effect data for giving an effect of increasing the reflectivity of the pupils of the metaverse character (tears). can create

정리하면, 효과 데이터 보정부(372)는 효과 데이터 보정 가중치 결정부(371)의 보정 가중치에 따라, 사용자의 운동 상태 및 감정 상태 중 적어도 하나를 이용하여, 메타버스 캐릭터에 적용하기 위한 효과 데이터, 즉 제2 보정 데이터(CB_Data#2)를 생성할 수 있다. 다시 말해서, 제2 보정 데이터(CB_Data#2)는 사용자의 운동 상태 및 감정 상태 중 적어도 하나를 고려하여, 메타버스 캐릭터에 반영될 추가적인 연출 효과에 대한 데이터를 의미할 수 있다. In summary, the effect data correction unit 372 uses at least one of the user's motion state and emotional state according to the correction weight of the effect data correction weight determination unit 371, effect data for applying to the metaverse character, That is, the second correction data CB_Data#2 can be generated. In other words, the second correction data CB_Data#2 may refer to data for an additional directing effect to be reflected on the metaverse character in consideration of at least one of the user's athletic state and emotional state.

다시 도 4를 참조하면, 메타버스 캐릭터 설정부(380)는 메타버스 캐릭터의 기본 설정을 결정할 수 있다. 메타버스 캐릭터 설정부(380)는 메타버스 캐릭터의 기본 설정, 예를 들어 땀이 많은 메타버스 캐릭터, 안면 홍조가 있는 메타버스 캐릭터, 운동량이 높은 메타버스 캐릭터 등 메타버스 캐릭터의 특징을 설정할 수 있다. 메타버스 캐릭터 설정부(380)에서 설정된 메타버스 캐릭터의 기본 설정값은 모션 보정부(360) 및 효과 보정부(370) 중 적어도 하나에 제공될 수 있다. Referring back to FIG. 4 , the metaverse character setting unit 380 may determine the basic settings of the metaverse character. The metaverse character setting unit 380 may set the basic settings of the metaverse character, for example, the characteristics of the metaverse character, such as a metaverse character with a lot of sweat, a metaverse character with facial flushing, and a metaverse character with high momentum. . The basic setting value of the metaverse character set in the metaverse character setting unit 380 may be provided to at least one of the motion correction unit 360 and the effect correction unit 370 .

모션 보정부(360)는 제공받은 메타버스 캐릭터의 기본 설정값을 이용하여, 모션 데이터 보정 가중치를 추가적으로 조절할 수 있다. 예를 들어, 메타버스 캐릭터가 과체중인 경우, 모션 보정부(360)는 운동 상태에 따른 모션 데이터 보정 가중치를 증가시켜, 메타버스 캐릭터의 상체 및 복부가 더 많이 흔들리도록 보정할 수 있다. The motion correction unit 360 may additionally adjust the motion data correction weight by using the provided basic setting value of the metaverse character. For example, if the metaverse character is overweight, the motion correction unit 360 may correct the upper body and abdomen of the metaverse character to shake more by increasing the motion data correction weight according to the exercise state.

이와 유사하게, 효과 보정부(370)는 제공받은 메타버스 캐릭터의 기본 설정값을 이용하여, 효과 데이터를 추가적으로 조절할 수 있다. 예를 들어, 메타버스 캐릭터가 과체중인 경우, 효과 보정부(370)는 운동 상태에 따른 효과 데이터의 가중치를 증가시켜, 메타버스 캐릭터의 안면 반사도를 더 증가시킬 수 있다. Similarly, the effect correction unit 370 may additionally adjust the effect data using the provided basic setting values of the metaverse character. For example, if the metaverse character is overweight, the effect correction unit 370 may increase the weight of the effect data according to the exercise state to further increase the facial reflectivity of the metaverse character.

다시 도 1을 참조하면, 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)와 데이터 보정 모듈(300)에서 생성된 제1 보정 데이터(CB_Data#1)는 골격 생성 모듈(400)에 제공될 수 있다. 골격 생성 모듈(400)은 제1 보정 데이터(CB_Data#1)를 이용하여, 모션에 대한 정보를 포함하는 메타버스 캐릭터의 제1 골격 데이터(SK_Data#1)를 생성할 수 있다. 또한, 골격 생성 모듈(400)은 모션 데이터(MC_Data)를 이용하여, 모션에 대한 정보를 포함하는 메타버스 캐릭터의 제2 골격 데이터(SK_Data#2)를 생성할 수 있다. Referring back to FIG. 1 , the motion data MC_Data generated by the motion capture device 100 and the first correction data CB_Data#1 generated by the data correction module 300 are provided to the skeleton generation module 400. can The skeleton generation module 400 may generate first skeleton data (SK_Data#1) of a metaverse character including motion information using the first correction data (CB_Data#1). In addition, the skeleton generation module 400 may generate second skeleton data (SK_Data#2) of the metaverse character including information on motion using the motion data (MC_Data).

골격 생성 모듈(400)에서 생성된 제1 골격 데이터(SK_Data#1)와 제2 골격 데이터(SK_Data#2)는 리타겟 모듈(500)에 제공될 수 있다. 리타겟 모듈(500)은 제1 골격 데이터(SK_Data#1)를 이용하여 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)를 생성할 수 있다. 또한, 리타겟 모듈(500)은 제2 골격 데이터(SK_Data#2)를 이용하여 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 생성할 수 있다. 캐릭터 리깅 데이터(CR_Data#1, CR_Data#2)는 미리 디자인된 메타버스 캐릭터 이미지에, 모션에 대한 정보를 포함하는 메타버스 캐릭터의 골격 데이터(SK_Data#1, SK_Data#2)가 결합된 데이터일 수 있다. The first skeleton data (SK_Data#1) and the second skeleton data (SK_Data#2) generated by the skeleton generation module 400 may be provided to the retarget module 500 . The retarget module 500 may generate first metaverse character rigging data (CR_Data#1) using the first skeleton data (SK_Data#1). In addition, the retarget module 500 may generate second metaverse character rigging data (CR_Data#2) using the second skeleton data (SK_Data#2). The character rigging data (CR_Data#1, CR_Data#2) may be data in which a pre-designed metaverse character image and metaverse character skeletal data (SK_Data#1, SK_Data#2) including motion information are combined. there is.

리타겟 모듈(500)에서 생성된 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)와 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)는 데이터 보정 모듈(300)에 제공될 수 있다. 데이터 보정 모듈(300)에 제공된 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)는 전술한 바와 같이, 제1 보정 데이터(CB_Data#1)를 생성하는데 이용될 수 있다. 또한, 전술한 바와 같이, 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)와 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)는 데이터 보정 모듈(300)의 디스플레이부(363)에 제공되어, 메타버스 컨텐츠의 편집자 또는 감독은 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)와 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2) 중 어느 하나를 선택할 수 있다. 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)와 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2) 중 선택된 어느 하나는 메타버스 캐릭터 구현 모듈(600)에 제공될 수 있다. 메타버스 캐릭터 구현 모듈(600)은 예를 들어, 게임 엔진일 수 있다. The first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) generated by the retarget module 500 may be provided to the data correction module 300. As described above, the second metaverse character rigging data (CR_Data#2) provided to the data correction module 300 may be used to generate the first correction data (CB_Data#1). In addition, as described above, the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) are provided to the display unit 363 of the data correction module 300, An editor or director of bus content may select one of the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2). Selected one of the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) may be provided to the metaverse character implementation module 600. The metaverse character implementation module 600 may be, for example, a game engine.

또한, 데이터 보정 모듈(300)에서 생성된 제2 보정 데이터(CB_Data#2)는 메타버스 캐릭터 구현 모듈(600)에 제공될 수 있다. 메타버스 캐릭터 구현 모듈(600)은 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1)와 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2) 중 선택된 어느 하나와, 제2 보정 데이터(CB_Data#2)를 이용하여 랜더링을 수행함으로써 메타버스 캐릭터 영상(M_C)을 생성할 수 있다. 메타버스 캐릭터 구현 모듈(600)은 메타버스 캐릭터 영상(M_C)을 실시간으로 생성할 수 있으나, 실시예들이 이에 제한되는 것은 아니다.In addition, the second correction data (CB_Data#2) generated by the data correction module 300 may be provided to the metaverse character implementation module 600. The metaverse character implementation module 600 selects any one of the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) and the second correction data (CB_Data#2). It is possible to generate a metaverse character image (M_C) by performing rendering using. The metaverse character implementation module 600 may generate the metaverse character image M_C in real time, but the embodiments are not limited thereto.

모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)와, 생체 정보 측정 장치(200)에서 생성된 생체 정보 데이터(BM_Data)와, 촬영 장치(800)에서 생성된 영상 데이터(IMG_Data)는 데이터 백업 모듈(700)에 저장될 수 있다. 이때, 데이터 백업 모듈(700)에 저장되는 모션 데이터(MC_Data)와 생체 정보 데이터(BM_Data), 그리고 영상 데이터(IMG_Data)의 싱크는 서로 동기화되어 저장될 수 있다. 다시 말해서, 모션 데이터(MC_Data), 생체 정보 데이터(BM_Data) 및 영상 데이터(IMG_Data)는 생성 시점이 서로 동기화되어, 데이터 백업 모듈(700)에 저장될 수 있다. 몇몇 실시예에 따르면, 보정 가중치를 추가적으로 조절할 필요가 있는 경우, 데이터 백업 모듈(700)에 저장된 모션 데이터(MC_Data), 생체 정보 데이터(BM_Data) 및 영상 데이터(IMG_Data)를 다시 데이터 보정 모듈(300)로 로드하여, 보정 가중치를 조절할 수 있다. 다시 말해서, 메타버스 캐릭터 구현 모듈(600)은 데이터 백업 모듈(700)에 저장된 모션 데이터(MC_Data), 생체 정보 데이터(BM_Data) 및 영상 데이터(IMG_Data)를 로드 및 리테이크(retake)하여 메타버스 캐릭터 영상(M_C)을 재생성할 수 있다.Motion data (MC_Data) generated by the motion capture device 100, biometric information data (BM_Data) generated by the biometric information measurement device 200, and image data (IMG_Data) generated by the photographing device 800 are data backed up. may be stored in module 700 . At this time, the synchronization of motion data (MC_Data), biometric information data (BM_Data), and image data (IMG_Data) stored in the data backup module 700 may be stored in synchronization with each other. In other words, the motion data MC_Data, the biometric information data BM_Data, and the image data IMG_Data may be stored in the data backup module 700 with their generation points synchronized with each other. According to some embodiments, if it is necessary to additionally adjust the correction weight, the motion data (MC_Data), biometric information data (BM_Data), and image data (IMG_Data) stored in the data backup module 700 are returned to the data correction module 300. By loading it into , you can adjust the correction weight. In other words, the metaverse character implementation module 600 loads and retakes the motion data (MC_Data), biometric information data (BM_Data) and image data (IMG_Data) stored in the data backup module 700 to create a metaverse character The image M_C can be reproduced.

촬영 장치(800)는 사용자의 연기를 촬영하여, 영상 데이터(IMG_Data)를 생성할 수 있다. 촬영 장치(800)는 카메라, 캠코더 등을 포함할 수 있다. The photographing device 800 may generate image data IMG_Data by photographing the user's performance. The photographing device 800 may include a camera, a camcorder, and the like.

몇몇 실시예에 따르면, 메타버스 캐릭터 제작 시스템(1)은 사용자의 움직임을 측정하는 모션 캡쳐 장치(100)에서 생성된 모션 데이터(MC_Data)와, 사용자의 생체 정보를 측정하는 생체 정보 측정 장치(200)에서 생성된 생체 정보 데이터(BM_Data), 그리고 촬영 장치(800)에서 생성된 영상 데이터(IMG_Data)를 이용하여, 메타버스 캐릭터 영상(M_C)을 생성할 수 있다. 더욱 구체적으로, 메타버스 캐릭터 제작 시스템(1)은 모션 데이터(MC_Data), 생체 정보 데이터(BM_Data) 및 영상 데이터(IMG_Data)를 이용하여, 사용자의 생체 정보를 반영하고, 영상 분석을 이용하여 캐릭터 모션에 대한 제1 보정 데이터(CB_Data#1)를 생성할 수 있다. 또한, 메타버스 캐릭터 제작 시스템(1)은 모션 데이터(MC_Data) 및 생체 정보 데이터(BM_Data)를 이용하여 사용자의 생체 정보를 반영한 캐릭터 효과에 대한 제2 보정 데이터(CB_Data#2)를 생성할 수 있다. 따라서, 단순히 사용자의 움직임에만 국한되는 것이 아니라, 사용자의 현재 상태(운동 상태 및 감정 상태)를 모두 반영하고, 사용자의 표정과 메타버스 캐릭터의 표정을 비교 분석하여 이를 메타버스 캐릭터 영상(M_C)에 적용하기 때문에, 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터 제작 시스템(1)은 메타버스 캐릭터 영상(M_C)의 리얼리티를 극대화할 수 있다는 장점이 있다. 또한, 사용자의 현재 상태는 상황에 따라 지속적으로 갱신되기 때문에, 메타버스 캐릭터 제작 시스템(1)에서 생성되는 메타버스 캐릭터 영상(M_C)는 상황 변화에 따라 변경되는 연출을 쉽게 반영할 수 있다는 장점이 있다. 이하에서는, 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터 제작 방법에 대해 설명한다. According to some embodiments, the metaverse character production system 1 includes motion data (MC_Data) generated by the motion capture device 100 that measures a user's motion, and biometric information measurement device 200 that measures user's biometric information. ) and the image data (IMG_Data) generated by the photographing device 800, the metaverse character image M_C may be generated. More specifically, the metaverse character production system 1 reflects the user's biometric information using motion data (MC_Data), biometric information data (BM_Data), and image data (IMG_Data), and character motion using image analysis. It is possible to generate the first correction data (CB_Data#1) for . In addition, the metaverse character production system 1 may generate second correction data (CB_Data#2) for character effects reflecting the user's biometric information using motion data (MC_Data) and biometric information data (BM_Data). . Therefore, it is not limited to simply the user's movement, but reflects all of the user's current state (kinetic state and emotional state), compares and analyzes the user's expression and the expression of the metaverse character, and puts it into the metaverse character image (M_C) Because of application, the metaverse character production system 1 according to some embodiments of the present invention has the advantage of maximizing the reality of the metaverse character image M_C. In addition, since the user's current status is continuously updated according to the situation, the metaverse character image (M_C) generated in the metaverse character production system 1 has the advantage of being able to easily reflect the direction that changes according to the situation. there is. Hereinafter, a metaverse character production method according to some embodiments of the present invention will be described.

도 13 내지 도 15는 본 발명의 몇몇 실시예에 따른 메타버스 캐릭터의 제작 방법에 대해 설명하기 위한 도면이다. 13 to 15 are views for explaining a method of producing a metaverse character according to some embodiments of the present invention.

도 1 내지 도 13을 참조하면, 사용자별 생체 정보 기록 데이터를 생성하고 운동 상태 구간을 결정할 수 있다(S100). 생체 정보 측정 장치(200)는 사용자의 운동량을 서서히 증가시키면서, 사용자의 생체 정보 데이터(BM_Data)의 범위 및 변화량을 측정하여 생체 정보 기록 데이터를 생성할 수 있다. 데이터 보정 모듈(300)은 생체 정보 기록 데이터에 기록된 생체 정보 데이터의 값 및 데이터 변화량에 따라 사용자의 운동 상태 구간을 구획할 수 있다. Referring to FIGS. 1 to 13 , biometric information recording data for each user may be generated and an exercise state section may be determined (S100). The biometric information measurement device 200 may generate biometric information recording data by measuring the range and variation of the user's biometric information data (BM_Data) while gradually increasing the user's exercise amount. The data correction module 300 may divide the exercise state section of the user according to the value of the biometric information data recorded in the biometric information recording data and the amount of change in the data.

도 14를 참조하면, 데이터 보정 모듈(300)은 사용자의 심박수의 증가폭은 상대적으로 크고, 호흡수의 증가폭은 상대적으로 작고, 체온이 증가하고 있는 구간을 제1 운동 상태 구간(S1)으로 결정할 수 있다(S110). Referring to FIG. 14 , the data correction module 300 may determine, as the first exercise state section S1, a section in which the user's heart rate increase is relatively large, the respiratory rate is relatively small, and the body temperature is increasing. Yes (S110).

또한, 데이터 보정 모듈(300)은 사용자의 심박수의 증가폭은 상대적으로 작고, 호흡수의 증가폭은 상대적으로 크고, 체온이 증가하고 있는 구간을 제2 운동 상태 구간(S2)으로 결정할 수 있다(S120). In addition, the data correction module 300 may determine, as the second exercise state section S2, a section in which the user's heart rate increase rate is relatively small, respiration rate increase rate is relatively large, and body temperature is increasing (S120). .

또한, 데이터 보정 모듈(300)은 심박수의 증가폭과 호흡수의 증가폭은 상대적으로 작고, 체온은 상대적으로 높으나, 체온이 미세하게 감소하거나 일정하게 유지되는 구간을 제3 운동 상태 구간(S3)으로 결정할 수 있다(S130). In addition, the data correction module 300 determines, as the third exercise state section S3, a section in which the increase in heart rate and respiration rate is relatively small and the body temperature is relatively high, but the body temperature is slightly decreased or maintained constant. It can (S130).

전술한 바와 같이, 제1 운동 상태 구간(S1)은 사용자가 약한 운동을 수행하고 있는 구간일 수 있고, 제2 운동 상태 구간(S2)은 사용자가 중간 운동을 수행하고 있는 구간일 수 있고, 제3 운동 상태 구간(S3)은 사용자가 강한 운동을 수행하고 있는 구간일 수 있다. As described above, the first exercise state section S1 may be a section in which the user is performing a weak exercise, the second exercise state section S2 may be a section in which the user is performing a moderate exercise, and the second exercise state section S2 may be a section in which the user is performing a moderate exercise. The 3 exercise state section S3 may be a section in which the user is performing a strong exercise.

다시 도 13을 참조하면, 데이터 보정 모듈(300)은 사용자의 생체 정보 데이터(BM_Data)를 기초로, 사용자의 운동 상태를 결정할 수 있다(S200). 데이터 보정 모듈(300)은 생체 정보 측정 장치(200)에서 측정된 사용자의 생체 정보 데이터(BM_Data)와, 미리 정한 제1 운동 상태 구간(S1) 내지 제3 운동 상태 구간(S3)을 이용하여, 사용자의 운동 상태를 결정할 수 있다. 예를 들어, 생체 정보 측정 장치(200)에서 측정된 사용자의 생체 정보 데이터(BM_Data)가 제1 운동 상태 구간(S1)에 포함되는 경우, 데이터 보정 모듈(300)은 사용자의 운동 상태를 제1 운동 상태로 결정할 수 있다. 또한, 생체 정보 측정 장치(200)에서 측정된 사용자의 생체 정보 데이터(BM_Data)가 제2 운동 상태 구간(S2)에 포함되는 경우, 데이터 보정 모듈(300)은 사용자의 운동 상태를 제2 운동 상태로 결정할 수 있다. 또한, 생체 정보 측정 장치(200)에서 측정된 사용자의 생체 정보 데이터(BM_Data)가 제3 운동 상태 구간(S3)에 포함되는 경우, 데이터 보정 모듈(300)은 사용자의 운동 상태를 제3 운동 상태로 결정할 수 있다. 한편, 생체 정보 측정 장치(200)에서 측정된 사용자의 생체 정보 데이터(BM_Data)가 제1 운동 상태 구간(S1)에서 제1 시간 이상 유지된 경우, 데이터 보정 모듈(300)은 사용자의 운동 상태를 제2 운동 상태로 결정할 수 있다. 또한, 생체 정보 측정 장치(200)에서 측정된 사용자의 생체 정보 데이터(BM_Data)가 제2 운동 상태 구간(S2)에서 제2 시간 이상 유지된 경우, 데이터 보정 모듈(300)은 사용자의 운동 상태를 제3 운동 상태로 결정할 수 있다. 몇몇 실시예에 따르면, 사용자의 운동 상태는 실시간으로, 주기적으로 또는 비주기적으로 갱신될 수 있다. Referring back to FIG. 13 , the data correction module 300 may determine the user's exercise state based on the user's biometric information data (BM_Data) (S200). The data correction module 300 uses the user's biometric information data (BM_Data) measured by the biometric information measurement device 200 and a predefined first exercise state section S1 to third exercise state section S3, The user's exercise state may be determined. For example, when the user's biometric information data BM_Data measured by the biometric information measurement device 200 is included in the first exercise state section S1, the data correction module 300 determines the user's exercise state as the first exercise state. It can be determined by motion. In addition, when the user's biometric information data BM_Data measured by the biometric information measurement device 200 is included in the second exercise state section S2, the data correction module 300 determines the user's exercise state as the second exercise state. can be determined by In addition, when the user's biometric information data BM_Data measured by the biometric information measuring device 200 is included in the third exercise state section S3, the data correction module 300 determines the user's exercise state as the third exercise state. can be determined by Meanwhile, when the user's biometric information data (BM_Data) measured by the biometric information measuring device 200 is maintained for a first time or longer in the first exercise state section S1, the data correction module 300 calculates the user's exercise state. It can be determined as the second motion state. In addition, when the user's biometric information data (BM_Data) measured by the biometric information measurement device 200 is maintained for a second time period or more in the second exercise state section S2, the data correction module 300 determines the user's exercise state. It can be determined as the third motion state. According to some embodiments, the user's exercise status may be updated in real time, periodically or non-periodically.

데이터 보정 모듈(300)은 사용자의 신체별 체온 변화량 및 제1 표정 분석 데이터(ANA_Data#1)를 기초로, 사용자의 감정 상태를 결정할 수 있다(S300). 데이터 보정 모듈(300)은 사용자의 신체별 체온 변화량이 상대적으로 높은지, 중간인지, 상대적으로 낮은지를 기초로, 사용자의 감정 상태를 결정할 수 있다. 또한, 데이터 보정 모듈(300)은 사용자의 표정에 대한 영상 데이터(IMG_Data) 분석을 통해, 사용자의 표정에 포함되어 있는 제1 감정 요소 및 제1 감정 비율을 생성하고, 이를 이용하여 사용자의 감정 상태를 결정할 수 있다. 예를 들어, 또한, 데이터 보정 모듈(300)은 제1 체온 변화량(Temp variation#1), 제3 체온 변화량(Temp variation#3) 및 제4 체온 변화량(Temp variation#4)이 중간이고, 제2 체온 변화량(Temp variation#2)이 상대적으로 높은 경우, 사용자의 감정 상태를 'Fear' 상태로 결정할 수 있다. 또한, 데이터 보정 모듈(300)은 제1 체온 변화량(Temp variation#1) 내지 제4 체온 변화량(Temp variation#4)이 상대적으로 높은 경우, 사용자의 감정 상태를 'Happiness' 상태로 결정할 수 있다. 또한, 데이터 보정 모듈(300)은 제1 체온 변화량(Temp variation#1)이 중간이고, 제2 체온 변화량(Temp variation#2)이 상대적으로 높고, 제3 체온 변화량(Temp variation#3) 및 제4 체온 변화량(Temp variation#4)이 상대적으로 낮은 경우, 사용자의 감정 상태를 'Sadness' 상태로 결정할 수 있다. 또한, 데이터 보정 모듈(300)은 제1 체온 변화량(Temp variation#1) 및 제2 체온 변화량(Temp variation#2)이 상대적으로 높고, 제3 체온 변화량(Temp variation#3) 및 제4 체온 변화량(Temp variation#4)이 중간인 경우, 사용자의 감정 상태를 'Pride' 상태로 결정할 수 있다. 몇몇 실시예에 따르면, 사용자의 감정 상태는 실시간으로, 주기적으로 또는 비주기적으로 갱신될 수 있다. 또한, 예를 들어, 제1 표정 분석 데이터(ANA_Data#1)에 포함된 제1 감정 요소 중 제1 감정 비율이 가장 높은 감정을 사용자의 감정 상태로 결정할 수 있다. The data correction module 300 may determine the user's emotional state based on the change in body temperature for each body of the user and the first facial expression analysis data (ANA_Data#1) (S300). The data correction module 300 may determine the emotional state of the user based on whether the change in body temperature for each body of the user is relatively high, medium, or relatively low. In addition, the data correction module 300 analyzes the image data (IMG_Data) of the user's facial expression to generate a first emotion factor and a first emotion ratio included in the user's facial expression, and uses them to generate the user's emotional state. can decide For example, the data correction module 300 also determines that the first body temperature variation (Temp variation#1), the third body temperature variation (Temp variation#3), and the fourth body temperature variation (Temp variation#4) are intermediate, and 2 When the temperature variation #2 is relatively high, the user's emotional state may be determined as a 'fear' state. In addition, the data correction module 300 may determine the user's emotional state as a 'happiness' state when the first to fourth body temperature variation (Temp variation#1) to fourth body temperature variation (Temp variation#4) are relatively high. In addition, the data correction module 300 has a first body temperature variation (Temp variation#1) is medium, a second body temperature variation (Temp variation#2) is relatively high, a third body temperature variation (Temp variation#3) and a second body temperature variation (Temp variation#3). 4 When the temperature variation #4 is relatively low, the user's emotional state may be determined as a 'sadness' state. In addition, the data correction module 300 determines that the first body temperature variation (Temp variation#1) and the second body temperature variation (Temp variation#2) are relatively high, and the third body temperature variation (Temp variation#3) and the fourth body temperature variation are relatively high. When (Temp variation #4) is medium, the user's emotional state may be determined as a 'Pride' state. According to some embodiments, the user's emotional state may be updated in real time, periodically or non-periodically. Also, for example, among the first emotion factors included in the first facial expression analysis data ANA_Data#1, an emotion having the highest first emotion rate may be determined as the user's emotional state.

데이터 보정 모듈(300)은 영상 데이터(IMG_Data)와 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 비교하여 보정 서포트 데이터(CS_Data)를 생성할 수 있다(S400). The data correction module 300 may generate correction support data CS_Data by comparing the image data IMG_Data and the second metaverse character rigging data CR_Data#2 (S400).

도 15를 참조하면, 데이터 보정 모듈(300)은 영상 데이터(IMG_Data)를 분석하여, 사용자의 표정에 포함된 제1 감정 요소와 제1 감정 요소에 대한 제1 감정 비율을 생성할 수 있다. 또한, 데이터 보정 모듈(300)은 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2)를 분석하여, 메타버스 캐릭터의 표정에 포함된 제2 감정 요소와 제2 감정 요소에 대한 제2 감정 비율을 생성할 수 있다(S420). 이어서, 데이터 보정 모듈(300)은 제1 감정 요소, 제1 감정 비율, 제2 감정 요소 및 제2 감정 비율을 비교하여, 보정 서포트 데이터(CS_Data)를 생성할 수 있다(S430). Referring to FIG. 15 , the data correction module 300 may analyze the image data IMG_Data to generate a first emotion factor included in the user's facial expression and a first emotion ratio with respect to the first emotion factor. In addition, the data correction module 300 analyzes the second metaverse character rigging data (CR_Data#2) to generate a second emotion factor included in the expression of the metaverse character and a second emotion ratio for the second emotion factor. It can (S420). Subsequently, the data correction module 300 may generate correction support data CS_Data by comparing the first emotion factor, the first emotion ratio, the second emotion factor, and the second emotion ratio (S430).

다시 도 13을 참조하면, 데이터 보정 모듈(300)은 사용자의 운동 상태, 감정 상태 및 보정 서포트 데이터(CS_Data)를 이용하여, 모션 데이터(MC_Data)를 보정함으로써 제1 보정 데이터(CB_Data#1)를 생성할 수 있다(S500). Referring back to FIG. 13 , the data correction module 300 corrects the motion data MC_Data using the user's exercise state, emotional state, and correction support data CS_Data to obtain the first correction data CB_Data#1. It can be created (S500).

또한, 데이터 보정 모듈(300)은 사용자의 운동 상태 및 사용자의 감정 상태를 이용하여, 메타버스 캐릭터의 연출 효과를 보정하여 제2 보정 데이터(CB_Data#2)를 생성할 수 있다(S600). In addition, the data correction module 300 may generate second correction data (CB_Data#2) by correcting the directing effect of the metaverse character using the user's motion state and the user's emotional state (S600).

데이터 보정 모듈(300)은 메타버스 컨텐츠의 편집자 또는 감독으로부터의 선택에 따라 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1) 및 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2) 중 어느 하나를 선택하고, 제1 메타버스 캐릭터 리깅 데이터(CR_Data#1) 및 제2 메타버스 캐릭터 리깅 데이터(CR_Data#2) 중 선택된 어느 하나와, 제2 보정 데이터(CB_Data#2)를 이용하여 메타버스 캐릭터 영상(M_C)을 생성할 수 있다(S700). The data correction module 300 selects any one of the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) according to the selection from the editor or director of the metaverse content, , Metaverse character image (M_C) using any one selected from the first metaverse character rigging data (CR_Data#1) and the second metaverse character rigging data (CR_Data#2) and the second correction data (CB_Data#2) ) can be generated (S700).

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예는 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present embodiment, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present embodiment. Therefore, this embodiment is not intended to limit the technical idea of this embodiment, but to explain, and the scope of the technical idea of this embodiment is not limited by this embodiment. The scope of protection of this embodiment should be construed according to the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of rights of this embodiment.

Claims (11)

사용자의 얼굴 움직임을 센싱하여 모션 데이터를 생성하는 모션 캡쳐 장치;
상기 사용자의 얼굴을 촬영하여 영상 데이터를 생성하는 촬영 장치;
상기 사용자에 대한 상기 모션 데이터를 이용하여 생성된 메타버스 캐릭터의 얼굴 표정과, 상기 사용자에 대한 상기 영상 데이터에 포함된 상기 사용자의 얼굴 표정을 비교하여, 상기 모션 데이터를 보정하여 보정 데이터를 생성하는 데이터 보정 모듈; 및
상기 보정 데이터를 이용하여 상기 메타버스 캐릭터를 포함하는 메타버스 컨텐츠를 구현하는 메타버스 캐릭터 구현 모듈을 포함하고,
상기 데이터 보정 모듈은,
상기 영상 데이터 중 제1 프레임에 대응되는 제1 영상 데이터에 포함된 상기 사용자의 표정을 인공지능 분석을 통해 분석하여, 상기 사용자의 표정에 포함된 제1 감정 요소와, 상기 제1 감정 요소에 대응되는 제1 감정 비율을 결정하고,
상기 모션 데이터 중 상기 제1 프레임에 대응되는 제1 모션 데이터를 이용하여 생성된, 상기 제1 프레임에 대한 제1 메타버스 캐릭터 리깅 데이터에 포함된 상기 메타버스 캐릭터의 표정을 인공지능 분석을 통해 분석하여, 상기 메타버스 캐릭터의 표정에 포함된 제2 감정 요소와, 상기 제2 감정 요소에 대응되는 제2 감정 비율을 결정하고,
상기 제1 감정 요소, 상기 제2 감정 요소, 상기 제1 감정 비율 및 상기 제2 감정 비율을 비교하여 상기 제1 모션 데이터를 보정하여, 상기 제1 프레임에 대한 제1 보정 데이터를 생성하고,
상기 제1 프레임에 대한 상기 제1 메타버스 캐릭터 리깅 데이터, 및 상기 제1 프레임에 대한 상기 제1 보정 데이터를 이용하여 생성된 상기 제1 프레임에 대한 제2 메타버스 캐릭터 리깅 데이터를 디스플레이하고,
상기 제1 프레임에서, 상기 제1 메타버스 캐릭터 리깅 데이터 및 상기 제2 메타버스 캐릭터 리깅 데이터 중 어느 하나를 선택하는 제1 입력 신호를 수신하고,
상기 제1 입력 신호에 기초하여 선택된 상기 제1 메타버스 캐릭터 리깅 데이터 및 상기 제2 메타버스 캐릭터 리깅 데이터 중 어느 하나를 이용하여 상기 제1 프레임에 대한 상기 메타버스 컨텐츠를 구현하는
영상 분석을 이용한 메타버스 캐릭터 제작 시스템.
a motion capture device that senses a user's facial movement and generates motion data;
a photographing device generating image data by photographing the user's face;
Comparing the facial expression of the metaverse character generated using the motion data for the user with the facial expression of the user included in the image data for the user, correcting the motion data to generate correction data data correction module; and
A metaverse character implementation module for implementing metaverse content including the metaverse character using the correction data;
The data correction module,
The user's expression included in the first image data corresponding to the first frame among the image data is analyzed through artificial intelligence analysis, and the first emotion element included in the user's expression and the corresponding first emotion element Determining the first emotion ratio to be,
Analysis of the expression of the metaverse character included in the first metaverse character rigging data for the first frame, generated using the first motion data corresponding to the first frame among the motion data, through artificial intelligence analysis Thus, determining a second emotion factor included in the expression of the metaverse character and a second emotion ratio corresponding to the second emotion factor,
Compensating the first motion data by comparing the first emotion factor, the second emotion factor, the first emotion ratio, and the second emotion ratio to generate first correction data for the first frame;
Displaying second metaverse character rigging data for the first frame generated using the first metaverse character rigging data for the first frame and the first correction data for the first frame;
In the first frame, receiving a first input signal for selecting one of the first metaverse character rigging data and the second metaverse character rigging data,
Implementing the metaverse content for the first frame using any one of the first metaverse character rigging data and the second metaverse character rigging data selected based on the first input signal
Metaverse character creation system using image analysis.
제1 항에 있어서,
상기 데이터 보정 모듈은,
상기 제1 메타버스 캐릭터 리깅 데이터와, 상기 제2 메타버스 캐릭터 리깅 데이터를 디스플레이하는 디스플레이부; 및
상기 제1 입력 신호를 생성하는 입력부를 포함하는,
영상 분석을 이용한 메타버스 캐릭터 제작 시스템.
According to claim 1,
The data correction module,
a display unit displaying the first metaverse character rigging data and the second metaverse character rigging data; and
Including an input unit for generating the first input signal,
Metaverse character creation system using image analysis.
삭제delete 제2 항에 있어서,
상기 제1 모션 데이터를 이용하여 제1 골격 데이터를 생성하고, 상기 제1 보정 데이터를 이용하여 제2 골격 데이터를 생성하는 골격 생성 모듈; 및
상기 메타버스 캐릭터의 이미지에 상기 제1 골격 데이터를 리깅하여, 상기 제1 메타버스 캐릭터 리깅 데이터를 생성하고, 상기 메타버스 캐릭터의 이미지에 상기 제2 골격 데이터를 리깅하여, 상기 제2 메타버스 캐릭터 리깅 데이터를 생성하는 리타겟 모듈을 더 포함하는,
영상 분석을 이용한 메타버스 캐릭터 제작 시스템.
According to claim 2,
a skeleton generating module configured to generate first skeleton data using the first motion data and second skeleton data using the first correction data; and
By rigging the first skeleton data to the image of the metaverse character, generating the first metaverse character rigging data, and by rigging the second skeleton data to the image of the metaverse character, the second metaverse character Further comprising a retarget module for generating rigging data,
Metaverse character creation system using image analysis.
삭제delete 삭제delete 제1 항에 있어서,
상기 사용자의 생체 정보를 측정하여 생체 정보 데이터를 생성하는 생체 정보 측정 장치를 더 포함하고,
상기 데이터 보정 모듈은,
상기 생체 정보 데이터를 이용하여, 상기 사용자의 운동 상태를 결정하는 운동 상태 결정부; 및
상기 생체 정보 데이터와 상기 영상 데이터를 이용하여, 상기 사용자의 감정 상태를 결정하는 감정 상태 결정부를 포함하고,
상기 제1 보정 데이터를 생성하기 위해, 상기 사용자의 운동 상태와 상기 사용자의 감정 상태를 더 이용하는,
영상 분석을 이용한 메타버스 캐릭터 제작 시스템.
According to claim 1,
Further comprising a biometric information measurement device for measuring the user's biometric information and generating biometric data;
The data correction module,
an exercise state determiner configured to determine an exercise state of the user using the biometric information data; and
an emotional state determining unit configured to determine an emotional state of the user using the biometric information data and the image data;
further using the user's athletic state and the user's emotional state to generate the first correction data;
Metaverse character creation system using image analysis.
제7 항에 있어서,
상기 데이터 보정 모듈은, 상기 사용자의 운동 상태 및 상기 사용자의 감정 상태를 이용하여, 상기 메타버스 캐릭터의 연출 효과와 관련된 제2 보정 데이터를 더 생성하는,
영상 분석을 이용한 메타버스 캐릭터 제작 시스템.
According to claim 7,
The data correction module further generates second correction data related to the directing effect of the metaverse character using the user's athletic state and the user's emotional state,
Metaverse character creation system using image analysis.
제7 항에 있어서,
상기 데이터 보정 모듈은 상기 사용자의 운동량의 증가에 따라, 상기 생체 정보 측정 장치를 이용하여, 미리 정한 시간 간격 또는 연속적으로 기록된 사용자의 생체 정보 기록 데이터를 포함하는 생체 정보 라이브러리, 상기 사용자의 생체 정보 기록 데이터를 이용하여 상기 사용자의 운동 상태 구간을 구획하고, 상기 구획된 사용자의 운동 상태 구간과 상기 사용자의 생체 정보 데이터를 이용하여 상기 사용자의 운동 상태를 결정하는 운동 상태 결정부, 상기 사용자의 제1 신체 부위의 체온 변화량이 제1 기준 이상인지 여부 및 상기 사용자의 상기 제1 신체 부위와 다른 제2 신체 부위의 체온 변화량이 제2 기준 이상인지 여부를 기초로 상기 사용자의 감정 상태를 결정하는 감정 상태 결정부를 포함하는,
영상 분석을 이용한 메타버스 캐릭터 제작 시스템.
According to claim 7,
The data correction module may include a biometric information library including biometric information recording data of the user recorded at predetermined time intervals or continuously using the biometric information measurement device according to an increase in the amount of exercise of the user, and the biometric information of the user An exercise state determination unit for partitioning the user's exercise state section using recorded data and determining the user's exercise state using the partitioned user's exercise state section and the user's biometric information data; Emotion for determining the emotional state of the user based on whether a change in body temperature of one body part is equal to or greater than a first reference value and whether a change in body temperature of a second body part of the user is equal to or greater than a second reference value Including a state determination unit,
Metaverse character creation system using image analysis.
제9 항에 있어서,
상기 운동 상태 결정부는 상기 사용자의 생체 정보 기록 데이터를 참고하여, 상기 사용자의 심박수의 증가폭은 상대적으로 크고, 상기 사용자의 호흡수의 증가폭은 상대적으로 작고, 상기 사용자의 체온이 증가하는 구간을 제1 운동 상태 구간으로 결정하고, 상기 사용자의 심박수의 증가폭은 상대적으로 작고, 상기 사용자의 호흡수의 증가폭은 상대적으로 크고, 상기 사용자의 체온이 증가하는 구간을 제2 운동 상태 구간으로 결정하고, 상기 사용자의 심박수의 증가폭은 상대적으로 작고, 상기 사용자의 호흡수의 증가폭은 상대적으로 작고, 상기 사용자의 체온은 상대적으로 높고, 상기 사용자의 체온이 감소하거나 일정하게 유지되는 구간을 제3 운동 상태 구간으로 결정하는,
영상 분석을 이용한 메타버스 캐릭터 제작 시스템.
According to claim 9,
The exercise state determination unit refers to the biometric information record data of the user, and sets a period in which the user's heart rate increase rate is relatively large, the user's respiratory rate increase rate is relatively small, and the user's body temperature increases. determining an exercise state interval, determining an interval in which the user's heart rate increase is relatively small, the user's respiratory rate increase is relatively large, and the user's body temperature increases, as the second exercise state interval, and the user An interval in which the increase in heart rate is relatively small, the increase in respiratory rate of the user is relatively small, the user's body temperature is relatively high, and the user's body temperature decreases or remains constant is determined as the third exercise state interval. doing,
Metaverse character creation system using image analysis.
제1 항에 있어서,
상기 데이터 보정 모듈은,
상기 영상 데이터 중 제2 프레임에 대응되는 제2 영상 데이터에 포함된 상기 사용자의 표정을 인공지능 분석을 통해 분석하여, 상기 사용자의 표정에 포함된 제3 감정 요소와, 상기 제3 감정 요소에 대응되는 제3 감정 비율을 결정하고,
상기 모션 데이터 중 상기 제2 프레임에 대응되는 제2 모션 데이터를 이용하여 생성된, 상기 제1 프레임에 대한 제3 메타버스 캐릭터 리깅 데이터에 포함된 상기 메타버스 캐릭터의 표정을 인공지능 분석을 통해 분석하여, 상기 메타버스 캐릭터의 표정에 포함된 제4 감정 요소와, 상기 제4 감정 요소에 대응되는 제4 감정 비율을 결정하고,
상기 제3 감정 요소, 상기 제4 감정 요소, 상기 제3 감정 비율 및 상기 제4 감정 비율을 비교하여 상기 제2 모션 데이터를 보정하여, 상기 제2 프레임에 대한 제2 보정 데이터를 생성하고,
상기 제2 프레임에 대한 상기 제3 메타버스 캐릭터 리깅 데이터, 및 상기 제2 프레임에 대한 상기 제2 보정 데이터를 이용하여 생성된 상기 제2 프레임에 대한 제4 메타버스 캐릭터 리깅 데이터를 디스플레이하고,
상기 제2 프레임에서, 상기 제3 메타버스 캐릭터 리깅 데이터 및 상기 제4 메타버스 캐릭터 리깅 데이터 중 어느 하나를 선택하는 제2 입력 신호를 수신하고,
상기 제2 입력 신호에 기초하여 선택된 상기 제3 메타버스 캐릭터 리깅 데이터 및 상기 제4 메타버스 캐릭터 리깅 데이터 중 어느 하나를 이용하여 상기 제2 프레임에 대한 상기 메타버스 컨텐츠를 구현하는
영상 분석을 이용한 메타버스 캐릭터 제작 시스템.

According to claim 1,
The data correction module,
The user's facial expression included in the second image data corresponding to the second frame among the image data is analyzed through artificial intelligence analysis, and a third emotion element included in the user's expression and corresponding to the third emotion element Determine the third emotion ratio that becomes,
Analysis of the expression of the metaverse character included in the third metaverse character rigging data for the first frame, generated using the second motion data corresponding to the second frame among the motion data, through artificial intelligence analysis Thus, determining a fourth emotion factor included in the expression of the metaverse character and a fourth emotion ratio corresponding to the fourth emotion factor,
Compensating the second motion data by comparing the third emotion factor, the fourth emotion factor, the third emotion ratio, and the fourth emotion ratio to generate second correction data for the second frame;
Displaying fourth metaverse character rigging data for the second frame generated using the third metaverse character rigging data for the second frame and the second correction data for the second frame;
In the second frame, receiving a second input signal for selecting one of the third metaverse character rigging data and the fourth metaverse character rigging data,
Implementing the metaverse content for the second frame using any one of the third metaverse character rigging data and the fourth metaverse character rigging data selected based on the second input signal
Metaverse character creation system using image analysis.

KR1020220109967A 2022-08-31 2022-08-31 Metaverse character making system for using image analysis KR102493882B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220109967A KR102493882B1 (en) 2022-08-31 2022-08-31 Metaverse character making system for using image analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220109967A KR102493882B1 (en) 2022-08-31 2022-08-31 Metaverse character making system for using image analysis

Publications (1)

Publication Number Publication Date
KR102493882B1 true KR102493882B1 (en) 2023-02-01

Family

ID=85213139

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220109967A KR102493882B1 (en) 2022-08-31 2022-08-31 Metaverse character making system for using image analysis

Country Status (1)

Country Link
KR (1) KR102493882B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
KR101925440B1 (en) * 2018-04-23 2018-12-05 이정도 Method for providing vr based live video chat service using conversational ai
KR20190101834A (en) * 2018-02-23 2019-09-02 삼성전자주식회사 Electronic device for displaying an avatar performed a motion according to a movement of a feature point of a face and method of operating the same
KR20200005964A (en) * 2018-07-09 2020-01-17 에스케이텔레콤 주식회사 Method and apparatus for processing face image
KR102341866B1 (en) * 2021-08-31 2021-12-22 주식회사 에스에이엠지엔터테인먼트 System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof
KR20190101834A (en) * 2018-02-23 2019-09-02 삼성전자주식회사 Electronic device for displaying an avatar performed a motion according to a movement of a feature point of a face and method of operating the same
KR101925440B1 (en) * 2018-04-23 2018-12-05 이정도 Method for providing vr based live video chat service using conversational ai
KR20200005964A (en) * 2018-07-09 2020-01-17 에스케이텔레콤 주식회사 Method and apparatus for processing face image
KR102341866B1 (en) * 2021-08-31 2021-12-22 주식회사 에스에이엠지엔터테인먼트 System for providing artificial intelligence-based platform implementing metaverse digital idol and Method thereof

Similar Documents

Publication Publication Date Title
US11915365B2 (en) 3D body model generation
US11798261B2 (en) Image face manipulation
US10776981B1 (en) Entertaining mobile application for animating a single image of a human body and applying effects
US20200380594A1 (en) Virtual try-on system, virtual try-on method, computer program product, and information processing device
KR20240063071A (en) Electronic device providing image including 3d avatar in which motion of face is reflected by using 3d avatar corresponding to face and method for operating thefeof
US11836862B2 (en) External mesh with vertex attributes
CN110021061A (en) Collocation model building method, dress ornament recommended method, device, medium and terminal
US11663792B2 (en) Body fitted accessory with physics simulation
KR102469274B1 (en) Metaverse character making system and method for using biometric information
KR20120005587A (en) Method and apparatus for generating face animation in computer system
CN111435433A (en) Information processing apparatus, information processing method, and storage medium
JP2013190974A (en) Information processing apparatus, information processing method, and program
KR102495136B1 (en) Metaverse character making system for using user tracking and image analysis
KR101913811B1 (en) A method for analysing face information, and an appratus for analysing face information to present faces, identify mental status or compensate it
US20220165012A1 (en) Personalized avatar for movement analysis and coaching
JPWO2019049298A1 (en) 3D data system and 3D data processing method
KR102493882B1 (en) Metaverse character making system for using image analysis
US11430168B2 (en) Method and apparatus for rigging 3D scanned human models
WO2023035725A1 (en) Virtual prop display method and apparatus
KR102517396B1 (en) Metaverse character making system using biometric information measured using an electronic fiber sensor
KR102517395B1 (en) Metaverse character making system and method for using biometric information
KR102493097B1 (en) Metaverse character making system and method for image analysis data
US20230154084A1 (en) Messaging system with augmented reality makeup
KR20210019182A (en) Device and method for generating job image having face to which age transformation is applied
KR102288001B1 (en) Device for generating job image having face to which age transformation is applied and photo booth including the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant