KR102610267B1 - Method for analyzing status of specific user corresponding to specific avatar by referring to interactions between the specific avatar and other avatars in the metaverse world and providing service to the specific user and device using the same - Google Patents

Method for analyzing status of specific user corresponding to specific avatar by referring to interactions between the specific avatar and other avatars in the metaverse world and providing service to the specific user and device using the same Download PDF

Info

Publication number
KR102610267B1
KR102610267B1 KR1020230090830A KR20230090830A KR102610267B1 KR 102610267 B1 KR102610267 B1 KR 102610267B1 KR 1020230090830 A KR1020230090830 A KR 1020230090830A KR 20230090830 A KR20230090830 A KR 20230090830A KR 102610267 B1 KR102610267 B1 KR 102610267B1
Authority
KR
South Korea
Prior art keywords
specific
avatar
vector
reaction
mth
Prior art date
Application number
KR1020230090830A
Other languages
Korean (ko)
Inventor
김태정
김창현
정덕환
최선우
Original Assignee
주식회사 마인즈에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 마인즈에이아이 filed Critical 주식회사 마인즈에이아이
Priority to KR1020230090830A priority Critical patent/KR102610267B1/en
Application granted granted Critical
Publication of KR102610267B1 publication Critical patent/KR102610267B1/en

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Resources & Organizations (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Physiology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Psychiatry (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)

Abstract

본 발명은 메타버스 내의 아바타 간의 인터랙션을 참조하여 특정 아바타에 대응되는 특정 사용자의 상태를 분석하고 서비스를 제공하는 방법에 있어서, (a) 컴퓨팅 장치가, 특정 아바타 및 타 아바타 중 적어도 일부에게 제1 트리거링 벡터 내지 제m 트리거링 벡터를 각각 입력하도록 하여, (i) 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부 및 (ii) 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부를 데이터베이스에 기록하는 단계; 및 (b) 컴퓨팅 장치가, 특정 아바타에게 제1 트리거링 벡터 내지 제m 트리거링 벡터 중 적어도 일부를 제공하고, 특정 아바타가 반응한 벡터에 해당되는 특정 제1 반응 벡터 내지 특정 제m 반응 벡터 중 적어도 일부를 획득하고, 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 특정 제1 반응 벡터 내지 특정 제m 반응 벡터 중 적어도 일부를 비교하여, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 데이터베이스에 기록하는 단계;를 포함하는, 방법을 제공한다.The present invention relates to a method for analyzing the status of a specific user corresponding to a specific avatar and providing a service by referring to interactions between avatars in the metaverse, wherein (a) a computing device sends a first message to at least some of the specific avatar and other avatars; Triggering vectors to the mth triggering vectors are input respectively, so that (i) at least a portion of the first to mth response vector sets and (ii) at least a portion of the first to mth normal response vector ranges recording in a database; and (b) the computing device provides at least a portion of the first to the mth triggering vectors to a specific avatar, and at least a portion of the specific first to mth reaction vectors corresponding to the vectors to which the specific avatar reacted. Obtaining and comparing at least a portion of the first normal response vector range to the mth normal response vector range with at least a portion of the specific first response vector to the specific mth response vector to form a first response vector gap to the mth response vector. Obtaining at least some of the gaps and recording them in a database.

Description

메타버스 내의 아바타 간의 인터랙션을 참조하여 특정 아바타에 대응되는 특정 사용자의 상태를 분석하고 서비스를 제공하는 방법 및 장치{METHOD FOR ANALYZING STATUS OF SPECIFIC USER CORRESPONDING TO SPECIFIC AVATAR BY REFERRING TO INTERACTIONS BETWEEN THE SPECIFIC AVATAR AND OTHER AVATARS IN THE METAVERSE WORLD AND PROVIDING SERVICE TO THE SPECIFIC USER AND DEVICE USING THE SAME}Method and device for analyzing the status of a specific user corresponding to a specific avatar and providing a service by referring to the interaction between avatars in the metaverse AVATARS IN THE METAVERSE WORLD AND PROVIDING SERVICE TO THE SPECIFIC USER AND DEVICE USING THE SAME}

본 발명은 메타버스 내의 아바타 간의 인터랙션을 참조하여 특정 아바타에 대응되는 특정 사용자의 상태를 분석하고 서비스를 제공하는 방법 및 장치에 관한 것이다.The present invention relates to a method and device for analyzing the status of a specific user corresponding to a specific avatar and providing a service by referring to interactions between avatars in the metaverse.

2021년 보건복지부 보도자료에 따르면 정신질환 및 정신과적 문제로 의료서비스를 이용한 환자 수는 2009년 약 207만명에서 2019년 약 312만명으로 연평균 약 4.2% 증가한 것으로 조사되었다. 또한, 2021년 보건복지부의 '코로나 19 국민 정신건강 실태 조사'에 따르면, 2018년 대비 2021년 우울감 위험군은 6배, 자살생각비율은 3.5배 증가한 것으로 나타났다. 따라서, 코로나 19로 인한 정신과적 문제를 해결하기 위해 비대면 정신건강관리가 필요한 실정이다.According to a press release from the Ministry of Health and Welfare in 2021, the number of patients using medical services due to mental illness and psychiatric problems increased by about 4.2% on average per year from about 2.07 million in 2009 to about 3.12 million in 2019. In addition, according to the 2021 Ministry of Health and Welfare's 'COVID-19 National Mental Health Survey', the risk group for depression increased 6 times and the rate of suicidal thoughts increased 3.5 times in 2021 compared to 2018. Therefore, non-face-to-face mental health care is needed to resolve psychiatric problems caused by COVID-19.

그러나, 국내에서는 정신과적 치료에 대한 거부감으로 인해 정신건강서비스 이용률이 22.2%에 그치고 있으므로(보건복지부, 국립정신건강현황 보고서 2020, 2021), 정신과적 치료에 대한 거부감을 낮추며 서비스 이용을 적극 독려할 수 있도록 비대면 정신건강관리 서비스의 개발이 필요하다.However, in Korea, the mental health service utilization rate is only 22.2% due to resistance to psychiatric treatment (Ministry of Health and Welfare, National Mental Health Status Report 2020, 2021), so it is necessary to reduce resistance to psychiatric treatment and actively encourage service use. There is a need for the development of non-face-to-face mental health care services.

이런 상황에서, 스마트폰 어플리케이션 등을 통하여 간단한 정보 등을 제공하거나 사용자가 간단한 정보 값을 입력하는 정도의 비대면 정신건강관리 서비스가 개발되었으나, 이러한 스마트폰 어플리케이션 기반의 서비스는 개인 맞춤으로 진행이 어려우며, 환자가 치료를 오래 지속하지 못하고 중도 탈락하는 비율이 높은 문제점이 있다.In this situation, non-face-to-face mental health management services have been developed that provide simple information through smartphone applications or allow users to enter simple information values, but these smartphone application-based services are difficult to personalize. , there is a problem that patients are unable to continue treatment for a long time and have a high dropout rate.

따라서, 메타버스를 활용하여 환자와 보다 체계적인 인터랙션을 수행하고 인터랙션 과정 중에 산출된 데이터에 대한 분석을 통해 환자에게 정밀한 솔루션을 제공하기 위한 방법 및 장치가 필요하게 되었다.Therefore, methods and devices are needed to perform more systematic interactions with patients using the metaverse and provide precise solutions to patients through analysis of data generated during the interaction process.

한국공개특허 제10-2022-0125766호Korean Patent Publication No. 10-2022-0125766

본 발명은 상술한 문제점을 해결하는 것을 그 목적으로 한다. The purpose of the present invention is to solve the above-mentioned problems.

본 발명은, 제1 트리거링 벡터 내지 제m 트리거링 벡터 중 적어도 일부, 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부를 참조로 하여 결정된 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 비교하여, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 데이터베이스에 기록하여, 사용자에게 보다 정확한 서비스를 제공하는 것을 다른 목적으로 한다.The present invention provides, among the first normal response vector range to the mth normal response vector range determined with reference to at least a part of the first to mth triggering vectors and at least a part of the first to mth response vector sets. By comparing at least a part of the specific first reaction vector to at least a part of the specific m-th reaction vector, at least a part of the first reaction vector gap to the m-th reaction vector gap is obtained and recorded in the database to provide more information to the user. Another purpose is to provide accurate services.

상기한 바와 같이 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한, 본 발명의 특징적인 구성은 하기와 같다.In order to achieve the purpose of the present invention as described above and realize the characteristic effects of the present invention described later, the characteristic configuration of the present invention is as follows.

본 발명의 일 태양에 따르면, 메타버스 내의 아바타 간의 인터랙션을 참조하여 특정 아바타에 대응되는 특정 사용자의 상태를 분석하고 서비스를 제공하는 방법에 있어서, (a) 컴퓨팅 장치가, 제1 메타데이터 트리거링 아바타 그룹 내지 제n 메타데이터 트리거링 아바타 그룹 중 적어도 일부에 대응되는 적어도 하나의 트리거링 아바타로 하여금, 상기 특정 아바타 및 타 아바타 중 적어도 일부에게 제1 트리거링 벡터 내지 제m 트리거링 벡터를 각각 입력하도록 하여, (i) 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터에 대하여 상기 특정 아바타 및 상기 타 아바타가 반응한 벡터에 해당되는 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부 및 (ii) 상기 제1 반응 벡터 세트 내지 상기 제m 반응 벡터 세트 중 적어도 일부를 참조로 하여 결정된 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부를 데이터베이스에 기록하는 단계; 및 (b) 상기 컴퓨팅 장치가, 상기 특정 아바타에게 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터 중 적어도 일부를 제공하고, 이에 대하여 상기 특정 아바타가 반응한 벡터에 해당되는 특정 제1 반응 벡터 내지 특정 제m 반응 벡터 중 적어도 일부를 획득하고, 상기 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 비교하여, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 상기 데이터베이스에 기록하는 단계;를 포함하는, 방법이 개시된다.According to one aspect of the present invention, in a method of analyzing the status of a specific user corresponding to a specific avatar and providing a service by referring to the interaction between avatars in the metaverse, (a) a computing device, the first metadata triggering avatar By causing at least one triggering avatar corresponding to at least some of the group to the nth metadata triggering avatar group to input the first to the mth triggering vectors to at least some of the specific avatar and other avatars, respectively, (i ) At least a portion of the first reaction vector set to the mth reaction vector set corresponding to vectors in which the specific avatar and the other avatar reacted to the first triggering vector to the mth triggering vector, and (ii) the first reaction recording in a database at least a portion of a first normal response vector range to an mth normal response vector range determined with reference to at least a portion of the vector set or the mth response vector set; and (b) the computing device provides at least a portion of the first triggering vector to the mth triggering vector to the specific avatar, and provides a specific first response vector to a specific vector corresponding to a vector to which the specific avatar reacts. Obtaining at least a portion of the mth response vector, and comparing at least a portion of the first normal response vector range to the mth normal response vector range with at least a portion of the specific first response vector to the specific mth response vector, A method comprising obtaining at least a portion of the first to mth reaction vector gaps and recording them in the database is disclosed.

일례로서, 각각의 벡터는, (i) 각각의 벡터를 표출하는 주체 - 상기 주체는 상기 특정 아바타, 상기 트리거링 아바타 및 상기 타 아바타에 포함되는 임의의 아바타임 - 의 표정에 대응되는 표정 벡터 데이터 - 상기 표정 벡터 데이터는 제1 감정 카테고리 내지 제p 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제p 표정 컴포넌트를 성분으로 가짐 - 및 (ii) 상기 주체의 행동에 대응되는 행동 벡터 데이터 - 상기 행동 벡터 데이터는 상기 제1 감정 카테고리 내 상기 제p 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제p 행동 컴포넌트를 성분으로 가짐 - 을 각각 포함하여 기록되는, 방법이 개시된다.As an example, each vector is: (i) facial expression vector data corresponding to the facial expression of a subject expressing each vector - the subject is a random avatar included in the specific avatar, the triggering avatar, and the other avatar - The facial expression vector data has as components a first facial expression component to a p facial expression component for representing each of the first emotional category to p th emotional category - and (ii) behavior vector data corresponding to the subject's behavior - the behavior A method is disclosed, wherein vector data is recorded including a first behavioral component to a p-th behavioral component as components, respectively, for representing each of the p-th emotional categories within the first emotional category.

일례로서, 상기 컴퓨팅 장치는 학습 장치를 포함하고, 상기 (b) 단계를 수행하기 전에, (b0) 상기 컴퓨팅 장치가, 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터 중 적어도 일부에 대하여 상기 특정 아바타가 반응할 것으로 예측되는 제1 예측 반응 벡터 내지 제m 예측 반응 벡터를 산출하는 단계를 더 포함하고, 상기 (b) 단계에서, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터가 획득되면, 상기 컴퓨팅 장치가, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터와, 상기 제1 예측 반응 벡터 내지 상기 제m 예측 반응 벡터를 비교하여, 상기 특정 아바타에 대해 제1 반응 로스 내지 제m 반응 로스를 획득하고, 상기 제1 반응 로스 내지 상기 제m 반응 로스를 사용하여 백프로퍼게이션을 수행하는 것을 특징으로 하는, 방법이 개시된다.As an example, the computing device includes a learning device, and before performing step (b), (b0) the computing device: It further includes calculating a first to mth predicted reaction vector predicted to react, and in step (b), when the specific first to mth specific reaction vectors are obtained, The computing device compares the specific first response vector to the specific mth response vector with the first predicted response vector to the mth predicted response vector, and produces a first response loss to an mth response for the specific avatar. A method is disclosed, characterized in that obtaining a loss and performing backpropagation using the first reaction loss to the mth reaction loss.

일례로서, 상기 (b) 단계에서, 상기 컴퓨팅 장치가, 상기 트리거링 아바타로 하여금 상기 특정 아바타에게 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터를 입력하도록 할 때, 각각의 트리거링 벡터에 대해 상기 특정 사용자의 특정 사용자 생체 데이터, 상기 특정 사용자를 촬영한 특정 사용자 영상 데이터 및 상기 특정 사용자의 반응을 녹음한 특정 사용자 음성 데이터 중 적어도 일부를 각각 획득하고, 상기 특정 사용자 생체 데이터, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부를 각각 참조하여 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 조정함으로써, 특정 조정 제1 반응 벡터 내지 특정 조정 제m 반응 벡터 중 적어도 일부를 결정하며, 상기 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 조정 제1 반응 벡터 내지 상기 특정 조정 제m 반응 벡터 중 적어도 일부를 비교하여, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 상기 데이터베이스에 기록하는 것을 특징으로 하는, 방법이 개시된다.As an example, in step (b), when the computing device causes the triggering avatar to input the first to the mth triggering vectors to the specific avatar, the specific user for each triggering vector Obtaining at least some of the specific user biometric data, the specific user image data captured by the specific user, and the specific user voice data recorded the reaction of the specific user, respectively, the specific user biometric data, the specific user image data, and Determining at least some of the specific adjusted first response vector to the specific adjusted mth response vector by adjusting at least some of the specific first to the specific mth response vectors with reference to at least some of the specific user voice data, respectively; , Comparing at least a portion of the first normal response vector range to the mth normal response vector range with at least a portion of the specific adjusted first response vector to the specific adjusted mth response vector, to determine the first response vector gap to the A method is disclosed, characterized in that obtaining at least some of the mth response vector gaps and recording them in the database.

일례로서, 상기 컴퓨팅 장치가, 상기 특정 아바타로부터 특정 아바타 생태순간평가(EMA, ecological momentary assessment) 및 특정 아바타 디지털 피노타입(digital phenotype)을 추가로 획득하고, 상기 특정 사용자로부터 특정 사용자 생태순간평가 및 특정 사용자 디지털 피노타입을 추가로 획득한 상태에서, 상기 (b) 단계 이전에, (b1) 상기 컴퓨팅 장치가, (i) 상기 특정 사용자 생태순간평가, 상기 특정 사용자 디지털 피노타입, 상기 특정 사용자 생체 데이터, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부와, (ii) 상기 특정 아바타 생태순간평가, 상기 특정 아바타 디지털 피노타입 중 적어도 일부를 참조하여, 상기 특정 사용자와 상기 특정 아바타의 모드 일치율을 획득하는 단계를 더 포함하고, 상기 (b) 단계에서, 상기 모드 일치율을 참조로 하여, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부의 가중치를 조정하여 상기 특정 조정 제1 반응 벡터 내지 상기 특정 조정 제m 반응 벡터를 결정하는 것을 특징으로 하는, 방법이 개시된다.As an example, the computing device further obtains a specific avatar ecological momentary assessment (EMA) and a specific avatar digital phenotype from the specific avatar, and obtains a specific user ecological momentary assessment (EMA) and a specific avatar digital phenotype from the specific user. In a state in which a specific user digital pinotype is additionally acquired, before step (b), (b1) the computing device, (i) the specific user ecological instantaneous assessment, the specific user digital pinotype, and the specific user biometric mode of the specific user and the specific avatar, with reference to at least some of the data, the specific user video data and the specific user voice data, and (ii) the specific avatar ecological instantaneous assessment and the specific avatar digital phenotype. Further comprising the step of obtaining a matching rate, wherein in step (b), with reference to the mode matching rate, the weight of at least a portion of the specific user video data and the specific user voice data is adjusted to obtain the specific adjusted first response. A method is disclosed, characterized in that determining the vector to the specific adjusted mth reaction vector.

일례로서, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 각각에 대응되는 제1 가상 전문가 모듈 내지 제m 가상 전문가 모듈 - 상기 제1 가상 전문가 모듈 내지 상기 제m 가상 전문가 모듈 각각은, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 각각에 대응되는 상담 컨텐츠를 제공하도록 구성됨 - 각각이 매칭되어 상기 데이터베이스에 기록된 상태에서, 상기 (b) 단계 이후에, (c) 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 중 제k 반응 벡터 갭이 제1 임계치를 초과하면, 상기 컴퓨팅 장치가, 상기 제1 가상 전문가 모듈 내지 상기 제m 가상 전문가 모듈 중 상기 제k 반응 벡터 갭에 대응되는 제k 가상 전문가 모듈로 하여금, 상기 특정 아바타에게 상기 제k 반응 벡터 갭에 대응되는 제k 상담 컨텐츠를 제공하고, 상기 특정 아바타가 상기 제k 상담 컨텐츠에 대한 만족도를 입력한 제k 특정 아바타 만족도를 상기 데이터베이스에 기록하는 단계;를 더 포함하는, 방법이 개시된다.As an example, a first virtual expert module to an m-th virtual expert module corresponding to each of the first to the m-th reaction vector gap - each of the first to the m-th virtual expert modules is the first to the m-th virtual expert module, Configured to provide counseling content corresponding to each of the first response vector gap to the mth response vector gap - with each being matched and recorded in the database, after step (b), (c) the first response vector When the k-th reaction vector gap among the gap to the m-th reaction vector gap exceeds a first threshold, the computing device selects a response vector gap corresponding to the k-th reaction vector gap among the first virtual expert module to the m-th virtual expert module. The k-th virtual expert module provides the k-th consultation content corresponding to the k-th response vector gap to the specific avatar, and provides the k-th specific avatar satisfaction with the k-th consultation content input by the specific avatar. A method is disclosed, further comprising: recording in the database.

일례로서, 상기 (b) 단계 이전에, (b2) 상기 컴퓨팅 장치가, 상기 타 아바타 중 상기 특정 아바타와의 유사도가 제2 임계치보다 높은 유사도를 가지는 소정의 타 아바타를 적어도 하나의 유사 아바타로 결정하는 단계; (b3) 상기 컴퓨팅 장치가, 상기 데이터베이스로부터 상기 유사 아바타에 대응되어 기록되어 있는 제1 유사 아바타 반응 벡터 갭 내지 제m 유사 아바타 반응 벡터 갭 중에서 제k 유사 아바타 반응 벡터 갭이 제3 임계치를 초과하는 소정 유사 아바타에 대한 정보를 획득하는 단계; 및 (b4) 상기 컴퓨팅 장치가, 상기 특정 아바타에게 상기 소정 유사 아바타에게 제공되었던 제k 유사 아바타 상담 컨텐츠를 제공하고, 상기 소정 유사 아바타가 상기 제k 유사 아바타 상담 컨텐츠에 대한 만족도를 입력한 제k 유사 아바타 만족도를 제공하는 단계;를 더 포함하는, 방법이 개시된다.As an example, before step (b), (b2) the computing device determines at least one similar avatar as a similar avatar among the other avatars, the similarity of which is higher than a second threshold with the specific avatar. steps; (b3) the computing device determines that the kth similar avatar reaction vector gap among the first similar avatar reaction vector gaps to the mth similar avatar reaction vector gaps recorded in the database corresponding to the similar avatar exceeds a third threshold. Obtaining information about a predetermined similar avatar; and (b4) the computing device provides the k-th similar avatar counseling content that was provided to the predetermined similar avatar to the specific avatar, and the k-th similar avatar inputs satisfaction with the k-th similar avatar counseling content. A method is disclosed, further comprising providing similar avatar satisfaction.

일례로서, 상기 (b) 단계에서, 상기 컴퓨팅 장치가, 상기 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부를 상기 데이터베이스로부터 추출하고, 상기 제1 특정 반응 벡터로부터 상기 제1 특정 반응 벡터의 시퀀스인 제1_1 특정 반응 벡터 시퀀스 내지 제1_z 특정 반응 벡터 시퀀스 중 적어도 일부를 추출하며, 상기 (c) 단계에서, 상기 컴퓨팅 장치가, 상기 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부와, 상기 제1_1 특정 반응 벡터 시퀀스 내지 상기 제1_z 특정 벡터 이벤트 시퀀스 중 적어도 일부를 비교하여, 제1 벡터 시퀀스 갭 내지 제z 벡터 시퀀스 갭을 획득하고, 상기 가상 전문가 모듈에게 상기 제1 벡터 시퀀스 갭 내지 상기 제z 벡터 시퀀스 갭을 전달하여, 상기 가상 전문가 모듈이 상기 제k 상담 컨텐츠를 조정하도록 지원하는, 방법이 개시된다.As an example, in step (b), the computing device extracts at least a portion of the 1_1 reaction vector sequence set to the 1_z reaction vector sequence set included in the first reaction vector set from the database, and At least a portion of a 1_1 specific reaction vector sequence to a 1_z specific reaction vector sequence, which is a sequence of the first specific reaction vector, is extracted from a specific reaction vector, and in step (c), the computing device, the first reaction vector By comparing at least a part of the 1_1 reaction vector sequence set to the 1_z reaction vector sequence set included in the set with at least a part of the 1_1 specific reaction vector sequence to the 1_z specific vector event sequence, a first vector sequence gap or Disclosed is a method of obtaining a zth vector sequence gap and transmitting the first vector sequence gap to the zth vector sequence gap to the virtual expert module, thereby assisting the virtual expert module to adjust the kth consultation content. do.

본 발명의 다른 일 태양에 따르면, 메타버스 내의 아바타 간의 인터랙션을 참조하여 특정 아바타에 대응되는 특정 사용자의 상태를 분석하고 서비스를 제공하는 장치에 있어서, 인스트럭션들을 저장하는 적어도 하나의 메모리; 및 상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서;를 포함하고, (I) 프로세서가, 제1 메타데이터 트리거링 아바타 그룹 내지 제n 메타데이터 트리거링 아바타 그룹 중 적어도 일부에 대응되는 적어도 하나의 트리거링 아바타로 하여금, 상기 특정 아바타 및 타 아바타 중 적어도 일부에게 제1 트리거링 벡터 내지 제m 트리거링 벡터를 각각 입력하도록 하여, (i) 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터에 대하여 상기 특정 아바타 및 상기 타 아바타가 반응한 벡터에 해당되는 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부 및 (ii) 상기 제1 반응 벡터 세트 내지 상기 제m 반응 벡터 세트 중 적어도 일부를 참조로 하여 결정된 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부를 데이터베이스에 기록하는 프로세스; 및 (II) 상기 특정 아바타에게 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터 중 적어도 일부를 제공하고, 이에 대하여 상기 특정 아바타가 반응한 벡터에 해당되는 특정 제1 반응 벡터 내지 특정 제m 반응 벡터 중 적어도 일부를 획득하고, 상기 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 비교하여, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 상기 데이터베이스에 기록하는 프로세스;를 수행하는, 장치가 개시된다.According to another aspect of the present invention, an apparatus for analyzing the status of a specific user corresponding to a specific avatar and providing a service by referring to interactions between avatars in the metaverse, comprising: at least one memory storing instructions; and at least one processor configured to execute the instructions, wherein (I) the processor is configured to use at least one triggering avatar corresponding to at least some of the first metadata triggering avatar group to the nth metadata triggering avatar group. By causing at least some of the specific avatar and other avatars to input a first to the mth triggering vector, respectively, (i) the specific avatar and the other avatar with respect to the first to the mth triggering vectors at least a portion of the first to mth reaction vector sets corresponding to the vectors reacted, and (ii) a first normal reaction determined with reference to at least a portion of the first to mth reaction vector sets. A process of recording at least a portion of the vector range to the mth normal response vector range into a database; and (II) providing at least a portion of the first to the mth triggering vectors to the specific avatar, among the specific first to mth reaction vectors corresponding to vectors to which the specific avatar reacted. obtain at least a portion, and compare at least a portion of the first normal response vector range to the mth normal response vector range with at least a portion of the specific first response vector to the specific mth response vector to form a first response vector gap. An apparatus is disclosed that performs a process of obtaining at least some of the to mth response vector gaps and recording them in the database.

일례로서, 각각의 벡터는, (i) 각각의 벡터를 표출하는 주체 - 상기 주체는 상기 특정 아바타, 상기 트리거링 아바타 및 상기 타 아바타에 포함되는 임의의 아바타임 - 의 표정에 대응되는 표정 벡터 데이터 - 상기 표정 벡터 데이터는 제1 감정 카테고리 내지 제p 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제p 표정 컴포넌트를 성분으로 가짐 - 및 (ii) 상기 주체의 행동에 대응되는 행동 벡터 데이터 - 상기 행동 벡터 데이터는 상기 제1 감정 카테고리 내 상기 제p 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제p 행동 컴포넌트를 성분으로 가짐 - 을 각각 포함하여 기록되는, 장치가 개시된다.As an example, each vector is: (i) facial expression vector data corresponding to the facial expression of a subject expressing each vector - the subject is a random avatar included in the specific avatar, the triggering avatar, and the other avatar - The facial expression vector data has as components a first facial expression component to a p facial expression component for representing each of the first emotional category to p th emotional category - and (ii) behavior vector data corresponding to the subject's behavior - the behavior An apparatus is disclosed, wherein vector data is recorded including a first behavioral component to a p-th behavioral component as components, respectively, for representing each of the pth emotional categories within the first emotional category.

일례로서, 상기 컴퓨팅 장치는 학습 장치를 포함하고, 상기 (II) 프로세스를 수행하기 전에, (II0) 상기 프로세서가, 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터 중 적어도 일부에 대하여 상기 특정 아바타가 반응할 것으로 예측되는 제1 예측 반응 벡터 내지 제m 예측 반응 벡터를 산출하는 프로세스를 더 수행하고, 상기 (II) 프로세스에서, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터가 획득되면, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터와, 상기 제1 예측 반응 벡터 내지 상기 제m 예측 반응 벡터를 비교하여, 상기 특정 아바타에 대해 제1 반응 로스 내지 제m 반응 로스를 획득하고, 상기 제1 반응 로스 내지 상기 제m 반응 로스를 사용하여 백프로퍼게이션을 수행하는 것을 특징으로 하는, 장치가 개시된다.As an example, the computing device includes a learning device, and before performing the process (II), (II0) the processor determines whether the specific avatar is A process of calculating a first predicted reaction vector to an m-th predicted reaction vector predicted to react is further performed, and in the process (II), when the specific first to m-th predicted reaction vectors are obtained, Compare a specific first to the mth reaction vector with the first to the mth predicted reaction vector to obtain first to mth reaction losses for the specific avatar, An apparatus is disclosed, characterized in that backpropagation is performed using a first reaction loss to the mth reaction loss.

일례로서, 상기 (II) 프로세스에서, 상기 프로세서가, 상기 트리거링 아바타로 하여금 상기 특정 아바타에게 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터를 입력하도록 할 때, 각각의 트리거링 벡터에 대해 상기 특정 사용자의 특정 사용자 생체 데이터, 상기 특정 사용자를 촬영한 특정 사용자 영상 데이터 및 상기 특정 사용자의 반응을 녹음한 특정 사용자 음성 데이터 중 적어도 일부를 각각 획득하고, 상기 특정 사용자 생체 데이터, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부를 각각 참조하여 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 조정함으로써, 특정 조정 제1 반응 벡터 내지 특정 조정 제m 반응 벡터 중 적어도 일부를 결정하며, 상기 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 조정 제1 반응 벡터 내지 상기 특정 조정 제m 반응 벡터 중 적어도 일부를 비교하여, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 상기 데이터베이스에 기록하는 것을 특징으로 하는, 장치가 개시된다.As an example, in the process (II), when the processor causes the triggering avatar to input the first to the mth triggering vectors to the specific avatar, for each triggering vector, the specific user's Obtaining at least some of specific user biometric data, specific user image data captured by the specific user, and specific user voice data recorded by recording a reaction of the specific user, respectively, the specific user biometric data, the specific user image data, and the specific user voice data Determining at least some of the specific first adjusted response vector to the specific mth adjusted response vector by adjusting at least some of the specific first to the specific mth response vectors with reference to at least some of the user voice data, respectively; By comparing at least a portion of the first normal response vector range to the mth normal response vector range with at least a portion of the specific adjusted first response vector to the specific adjusted mth response vector, the first response vector gap to the An apparatus is disclosed, characterized in that it obtains at least some of the m response vector gaps and records them in the database.

일례로서, 상기 프로세서가, 상기 특정 아바타로부터 특정 아바타 생태순간평가(EMA, ecological momentary assessment) 및 특정 아바타 디지털 피노타입(digital phenotype)을 추가로 획득하고, 상기 특정 사용자로부터 특정 사용자 생태순간평가 및 특정 사용자 디지털 피노타입을 추가로 획득한 상태에서, 상기 (II) 프로세스 이전에, (II1) (i) 상기 특정 사용자 생태순간평가, 상기 특정 사용자 디지털 피노타입, 상기 특정 사용자 생체 데이터, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부와, (ii) 상기 특정 아바타 생태순간평가, 상기 특정 아바타 디지털 피노타입 중 적어도 일부를 참조하여, 상기 특정 사용자와 상기 특정 아바타의 모드 일치율을 획득하는 프로세스를 더 수행하고, 상기 (II) 프로세스에서, 상기 모드 일치율을 참조로 하여, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부의 가중치를 조정하여 상기 특정 조정 제1 반응 벡터 내지 상기 특정 조정 제m 반응 벡터를 결정하는 것을 특징으로 하는, 장치가 개시된다.As an example, the processor further obtains a specific avatar ecological momentary assessment (EMA) and a specific avatar digital phenotype from the specific avatar, and obtains a specific avatar ecological momentary assessment (EMA) and a specific avatar digital phenotype from the specific user. In the state in which the user digital pinotype is additionally acquired, before the process (II), (II1) (i) the specific user ecological momentary assessment, the specific user digital pinotype, the specific user biometric data, and the specific user image A process of obtaining a mode matching rate between the specific user and the specific avatar by referring to at least some of the data and the specific user voice data, and (ii) the specific avatar ecological momentary assessment and the specific avatar digital phenotype. Further, in the process (II), with reference to the mode matching rate, the weight of at least some of the specific user video data and the specific user voice data is adjusted to adjust the specific adjustment first response vector to the specific adjustment second response vector. An apparatus is disclosed, characterized in that it determines m response vectors.

일례로서, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 각각에 대응되는 제1 가상 전문가 모듈 내지 제m 가상 전문가 모듈 - 상기 제1 가상 전문가 모듈 내지 상기 제m 가상 전문가 모듈 각각은, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 각각에 대응되는 상담 컨텐츠를 제공하도록 구성됨 - 각각이 매칭되어 상기 데이터베이스에 기록된 상태에서, 상기 (II) 프로세스 이후에, (III) 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 중 제k 반응 벡터 갭이 제1 임계치를 초과하면, 상기 제1 가상 전문가 모듈 내지 상기 제m 가상 전문가 모듈 중 상기 제k 반응 벡터 갭에 대응되는 제k 가상 전문가 모듈로 하여금, 상기 특정 아바타에게 상기 제k 반응 벡터 갭에 대응되는 제k 상담 컨텐츠를 제공하고, 상기 특정 아바타가 상기 제k 상담 컨텐츠에 대한 만족도를 입력한 제k 특정 아바타 만족도를 상기 데이터베이스에 기록하는 프로세스;를 더 수행하는, 장치가 개시된다.As an example, a first virtual expert module to an m-th virtual expert module corresponding to each of the first to the m-th reaction vector gap - each of the first to the m-th virtual expert modules is the first to the m-th virtual expert module, configured to provide counseling content corresponding to each of the first response vector gap to the mth response vector gap - with each being matched and recorded in the database, after the process (II), (III) the first response vector If the kth reaction vector gap among the gap to the mth response vector gap exceeds a first threshold, the kth virtual expert module corresponding to the kth response vector gap among the first virtual expert module to the mth virtual expert module Providing the k-th counseling content corresponding to the k-th response vector gap to the specific avatar, and recording the k-th specific avatar satisfaction input by the specific avatar with the k-th counseling content in the database An apparatus for further performing a process is disclosed.

일례로서, 상기 (II) 프로세스 이전에, (II2) 상기 타 아바타 중 상기 특정 아바타와의 유사도가 제2 임계치보다 높은 유사도를 가지는 소정의 타 아바타를 적어도 하나의 유사 아바타로 결정하는 프로세스; (II3) 상기 데이터베이스로부터 상기 유사 아바타에 대응되어 기록되어 있는 제1 유사 아바타 반응 벡터 갭 내지 제m 유사 아바타 반응 벡터 갭 중에서 제k 유사 아바타 반응 벡터 갭이 제3 임계치를 초과하는 소정 유사 아바타에 대한 정보를 획득하는 프로세스; 및 (II4) 상기 특정 아바타에게 상기 소정 유사 아바타에게 제공되었던 제k 유사 아바타 상담 컨텐츠를 제공하고, 상기 소정 유사 아바타가 상기 제k 유사 아바타 상담 컨텐츠에 대한 만족도를 입력한 제k 유사 아바타 만족도를 제공하는 프로세스;를 더 수행하는, 장치가 개시된다.As an example, before the process (II), (II2) a process of determining, among the other avatars, a predetermined avatar whose similarity with the specific avatar is higher than a second threshold as at least one similar avatar; (II3) for a predetermined similar avatar whose kth similar avatar response vector gap exceeds the third threshold among the first to mth similar avatar response vector gaps recorded in correspondence with the similar avatar from the database; The process of obtaining information; and (II4) providing the specific avatar with the k-th similar avatar counseling content that was provided to the predetermined similar avatar, and providing the k-th similar avatar satisfaction in which the predetermined similar avatar inputs the satisfaction with the k-th similar avatar counseling content. A device for further performing a process is disclosed.

일례로서, 상기 (II) 프로세스에서, 상기 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부를 상기 데이터베이스로부터 추출하고, 상기 제1 특정 반응 벡터로부터 상기 제1 특정 반응 벡터의 시퀀스인 제1_1 특정 반응 벡터 시퀀스 내지 제1_z 특정 반응 벡터 시퀀스 중 적어도 일부를 추출하며, 상기 (III) 프로세스에서, 상기 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부와, 상기 제1_1 특정 반응 벡터 시퀀스 내지 상기 제1_z 특정 벡터 이벤트 시퀀스 중 적어도 일부를 비교하여, 제1 벡터 시퀀스 갭 내지 제z 벡터 시퀀스 갭을 획득하고, 상기 가상 전문가 모듈에게 상기 제1 벡터 시퀀스 갭 내지 상기 제z 벡터 시퀀스 갭을 전달하여, 상기 가상 전문가 모듈이 상기 제k 상담 컨텐츠를 조정하도록 지원하는, 장치가 개시된다.As an example, in the process (II), at least a portion of the 1_1 reaction vector sequence set to the 1_z reaction vector sequence set included in the first reaction vector set is extracted from the database, and the first specific reaction vector is extracted from the first specific reaction vector. At least a portion of a 1_1 specific reaction vector sequence to a 1_z specific reaction vector sequence, which is a sequence of a first specific reaction vector, is extracted, and in the process (III), a 1_1 reaction vector sequence set included in the first reaction vector set By comparing at least a portion of the 1_z reaction vector sequence set with at least a portion of the 1_1 specific reaction vector sequence to the 1_z specific vector event sequence, a first vector sequence gap to a z-th vector sequence gap are obtained, An apparatus is disclosed, which supports the virtual expert module to adjust the k-th consultation content by transmitting the first to the z-th vector sequence gap to a virtual expert module.

본 발명은, 제1 트리거링 벡터 내지 제m 트리거링 벡터 중 적어도 일부, 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부를 참조로 하여 결정된 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 비교하여, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 데이터베이스에 기록하여, 사용자에게 보다 정확한 서비스를 제공하는 효과가 있다.The present invention provides, among the first normal response vector range to the mth normal response vector range determined with reference to at least a part of the first to mth triggering vectors and at least a part of the first to mth response vector sets. By comparing at least a part of the specific first reaction vector to at least a part of the specific m-th reaction vector, at least a part of the first reaction vector gap to the m-th reaction vector gap is obtained and recorded in the database to provide more information to the user. It is effective in providing accurate service.

본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자(이하 "통상의 기술자")에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 있어서, 제1 실시예 내지 제3 실시예를 구현하기 위한 장치를 개략적으로 나타내는 도면이다.
도 2는 본 발명의 제1 실시예에 따라, 메타버스를 활용하여 환자와 보다 체계적인 인터랙션을 수행하고 인터랙션 과정 중에 산출된 데이터에 대한 분석을 통해 환자에게 정밀한 솔루션을 제공하기 위한 방법에서 수행되는 과정을 개략적으로 도시한 흐름도이다.
도 3은 본 발명의 제2 실시예에 따라, 메타버스를 활용하여 환자와 보다 체계적인 인터랙션을 수행하고 인터랙션 과정 중에 산출된 데이터에 대한 분석을 통해 환자에게 정밀한 솔루션을 제공하기 위한 방법에서 수행되는 과정을 개략적으로 도시한 흐름도이다.
도 4는 본 발명의 제2 실시예에 따라, 트리거링 아바타와 특정 아바타 사이의 인터랙션이 이루어지는 상태에서 트리거링 아바타로부터 생성되는 트리거링 벡터와 특정 아바타로부터 생성되는 특정 반응 벡터의 예를 나타내는 도면이다.
도 5는 본 발명의 제3 실시예에 따라, 메타버스를 활용하여 환자와 보다 체계적인 인터랙션을 수행하고 인터랙션 과정 중에 산출된 데이터에 대한 분석을 통해 환자에게 정밀한 솔루션을 제공하기 위한 방법에서 수행되는 과정을 개략적으로 도시한 흐름도이다.
도 6은 본 발명의 제3 실시예에 따라, 메타버스 내에서 특정 아바타가 모범 반응 벡터를 관측하는 것을 개략적으로 도시한 도면이다.
The following drawings attached for use in explaining embodiments of the present invention are only some of the embodiments of the present invention, and to those skilled in the art (hereinafter “those skilled in the art”), the invention Other drawings can be obtained based on these drawings without further work being done.
1 is a diagram schematically showing a device for implementing first to third embodiments of the present invention.
Figure 2 shows a process performed in a method for performing a more systematic interaction with a patient using the metaverse and providing a precise solution to the patient through analysis of data calculated during the interaction process, according to the first embodiment of the present invention. This is a flow chart schematically showing.
Figure 3 shows a process performed in a method for performing a more systematic interaction with a patient using the metaverse and providing a precise solution to the patient through analysis of data calculated during the interaction process, according to the second embodiment of the present invention. This is a flow chart schematically showing.
FIG. 4 is a diagram illustrating an example of a triggering vector generated from a triggering avatar and a specific response vector generated from a specific avatar in a state in which an interaction between a triggering avatar and a specific avatar occurs, according to a second embodiment of the present invention.
Figure 5 shows a process performed in a method for performing a more systematic interaction with a patient using the metaverse and providing a precise solution to the patient through analysis of data calculated during the interaction process, according to the third embodiment of the present invention. This is a flow chart schematically showing.
Figure 6 is a diagram schematically showing a specific avatar observing a model response vector within the metaverse, according to a third embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced to make clear the objectives, technical solutions and advantages of the present invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.

또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐, "포함하다"라는 단어 및 그것의 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다.Additionally, throughout the description and claims, the word “comprise” and variations thereof are not intended to exclude other technical features, attachments, components or steps. Other objects, advantages and features of the invention will appear to those skilled in the art, partly from this description and partly from practice of the invention. The examples and drawings below are provided by way of example and are not intended to limit the invention.

더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.Moreover, the present invention encompasses all possible combinations of the embodiments shown herein. It should be understood that the various embodiments of the present invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, in order to enable those skilled in the art to easily practice the present invention, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명에 따라, 메타버스를 활용하여 환자와 보다 체계적인 인터랙션을 수행하고 인터랙션 과정 중에 산출된 데이터에 대한 분석을 통해 환자에게 정밀한 솔루션을 제공하기 위한 장치를 개략적으로 도시한 것이다.Figure 1 schematically shows a device for performing a more systematic interaction with a patient using the metaverse and providing a precise solution to the patient through analysis of data calculated during the interaction process, according to the present invention.

도 1을 참조하면, 본 발명의 제1 실시예 내지 제3 실시예에 대한 특정 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)를 도시하였으며, 컴퓨팅 장치(100)는 메모리(101), 프로세서(102)를 포함할 수 있다. 이때, 컴퓨팅 장치(100)는 추가적으로 디스플레이(103)을 추가적으로 포함할 수 있으나, 컴퓨팅 장치(100)에 포함되지 않고 별도로 구성될 수도 있을 것이다.Referring to FIG. 1, a computing device 100 is shown for providing specific content for the first to third embodiments of the present invention, and the computing device 100 includes a memory 101 and a processor 102. may include. At this time, the computing device 100 may additionally include a display 103, but it may also be configured separately rather than included in the computing device 100.

메타버스를 활용하여 환자와 보다 체계적인 인터랙션을 수행하고 인터랙션 과정 중에 산출된 데이터에 대한 분석을 통해 환자에게 정밀한 솔루션을 제공하기 위한 컴퓨팅 장치(100)의 메모리(101)는 프로세서(102)에 의해 수행될 인스트럭션들을 저장할 수 있는데, 구체적으로, 인스트럭션들은 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)로 하여금 특정의 방식으로 기능하게 하기 위한 목적으로 생성되는 코드로서, 컴퓨터 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장될 수 있다. 인스트럭션들은 본 발명의 명세서에서 설명되는 기능들을 실행하기 위한 프로세스들을 수행할 수 있다.The memory 101 of the computing device 100 is operated by the processor 102 to perform a more systematic interaction with the patient using the metaverse and to provide a precise solution to the patient through analysis of data generated during the interaction process. Instructions may be stored. Specifically, the instructions are codes generated for the purpose of enabling the computing device 100 to provide content to function in a specific manner, and may be directed to computers or other programmable data processing equipment. It may be stored in computer-usable or computer-readable memory. Instructions may perform processes to execute functions described in the specification of the present invention.

본 발명에서 컨텐츠란 가상현실로 구현되는 컨텐츠를 상정하여 설명할 것이지만, 이에 한정되는 것이 아님은 물론이라 할 것이다.In the present invention, content will be explained assuming content implemented in virtual reality, but it is of course not limited thereto.

그리고, 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)의 프로세서(102)는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 컴퓨팅 장치(100)는 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor 102 of the computing device 100 for providing content has a hardware configuration such as a Micro Processing Unit (MPU) or Central Processing Unit (CPU), cache memory, and data bus. It can be included. Additionally, the computing device 100 may further include an operating system and a software component of an application that performs a specific purpose.

또한, 특정 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)는 데이터베이스(110)와 연동될 수 있다. 여기서, 데이터베이스(110)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있으며, 이에 한정되지 않으며 데이터를 저장할 수 있는 모든 매체를 포함할 수 있다. 또한, 데이터베이스(110)는 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)와 분리되어 설치되거나, 이와는 달리 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)의 내부에 설치되어 데이터를 전송하거나 수신되는 데이터를 기록할 수도 있고, 도시된 바와 달리 둘 이상으로 분리되어 구현될 수도 있으며, 이는 발명의 실시 조건에 따라 달라질 수 있다.Additionally, the computing device 100 to provide specific content may be linked to the database 110. Here, the database 110 includes a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory), At least one of RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (ReadOnly Memory), EEPROM (Electrically Erasable Programmable ReadOnly Memory), PROM (Programmable ReadOnly Memory), magnetic memory, magnetic disk, and optical disk. It may include one type of storage medium, but is not limited to this and may include all media capable of storing data. In addition, the database 110 may be installed separately from the computing device 100 for providing content, or alternatively, may be installed inside the computing device 100 for providing content to transmit data or record received data. Alternatively, as shown, it may be implemented separately into two or more parts, which may vary depending on the implementation conditions of the invention.

또한, 디스플레이(103)는, 컴퓨팅 장치(100)에 있는 메모리(101) 및 프로세서(102)와 서로 별개의 장치로서 분리되어 있을 수도 있을 것이다.Additionally, the display 103 may be separate from the memory 101 and processor 102 in the computing device 100 as a separate device.

또한, 컴퓨팅 장치(100)는 HMD와 같은 사용자 단말일 수도 있고, 가상현실 서비스를 제공하기 위한 서버일 수도 있다. 후자의 경우에는 서버가 별도의 HMD와 같은 사용자 단말(미도시)과 연동될 수 있다.Additionally, the computing device 100 may be a user terminal such as an HMD, or may be a server for providing a virtual reality service. In the latter case, the server may be linked to a user terminal (not shown) such as a separate HMD.

먼저, 도 2를 참조하여 본 발명의 제1 실시예에 따른 방법을 설명하도록 한다.First, the method according to the first embodiment of the present invention will be described with reference to FIG. 2.

도 2는 본 발명의 제1 실시예에 따라, 메타버스를 활용하여 환자와 보다 체계적인 인터랙션을 수행하고 인터랙션 과정 중에 산출된 데이터에 대한 분석을 통해 환자에게 정밀한 솔루션을 제공하기 위한 방법에서 수행되는 과정을 개략적으로 도시한 흐름도이다.Figure 2 shows a process performed in a method for performing a more systematic interaction with a patient using the metaverse and providing a precise solution to the patient through analysis of data calculated during the interaction process, according to the first embodiment of the present invention. This is a flow chart schematically showing.

도 2를 참조하면, 컴퓨팅 장치(100)가, 첫번째 단계로, 트리거링 아바타의 제1 트리거링 이벤트 내지 제n 트리거링 이벤트 중 적어도 일부에 대하여 특정 아바타 및 타 아바타 중 적어도 일부가 반응한 데이터에 해당되는 각각의 제1 반응 이벤트 세트 내지 제n 반응 이벤트 세트 중 적어도 일부가 데이터베이스에 저장된 상태에서, 메타버스 내의 특정 아바타로부터 특정 가상 생태순간평가(EMA, ecological momentary assessment) 및 특정 가상 디지털 피노타입(digital phenotype) 중 적어도 일부를 획득할 수 있다(S201).Referring to FIG. 2, in the first step, the computing device 100 generates data corresponding to the response of at least some of the specific avatar and other avatars to at least some of the first to nth triggering events of the triggering avatar. With at least a portion of the first reaction event set to the nth reaction event set stored in the database, a specific virtual ecological momentary assessment (EMA) and a specific virtual digital phenotype are generated from a specific avatar in the metaverse. At least some of them can be obtained (S201).

여기서, 트리거링 아바타는 특정 아바타와는 별개의 아바타이며, 컴퓨팅 장치(100)는 메타버스 내에서 특정 아바타 및 타 아바타 중 적어도 일부에게 트리거링 아바타를 통해 소정의 트리거링 이벤트를 입력하도록 지원할 수 있다. 이때, 트리거링 아바타는 컴퓨팅 장치(100)에 의해 생성된 아바타이거나, 특정 사용자와는 별개의 사용자가 조작하는 아바타일 수 있다. '트리거링 이벤트'는, 특정 아바타의 반응 이벤트를 이끌어낼 수 있는 광범위한 이벤트일 수 있다. 예를 들어, 특정 아바타에 대해 자리를 비켜줄 것을 요구하여 심리적 압박을 가하는 이벤트일 수 있으나, 이에 제한되는 것은 아니다. 또한, '트리거링 이벤트'가 컴퓨팅 장치(100)에 의해 생성된 트리거링 아바타에 의해 제공되는 경우에는 컴퓨팅 장치(100)에 의해 소정의 벡터 값으로서 제공될 수 있도록 프로그래밍되어 있을 수도 있다. 벡터에 대한 구체적인 예시는 제2 실시예에 자세히 언급되어 있으나, 제1 실시예에도 적용될 수 있음은 물론이라 할 것이다. 물론, 제1 실시예의 각종 이벤트가 벡터 값으로 구현되어야만 하는 것은 아니다.Here, the triggering avatar is an avatar that is separate from the specific avatar, and the computing device 100 may support inputting a predetermined triggering event to at least some of the specific avatar and other avatars within the metaverse through the triggering avatar. At this time, the triggering avatar may be an avatar created by the computing device 100 or an avatar operated by a user separate from the specific user. A 'triggering event' may be a wide range of events that can elicit a reaction event from a specific avatar. For example, it may be an event that applies psychological pressure to a specific avatar by asking them to leave their seat, but it is not limited to this. Additionally, when a 'triggering event' is provided by a triggering avatar created by the computing device 100, it may be programmed to be provided as a predetermined vector value by the computing device 100. Specific examples of vectors are described in detail in the second embodiment, but it goes without saying that they can also be applied to the first embodiment. Of course, the various events of the first embodiment do not have to be implemented as vector values.

또한, '생태순간평가'란 일상적인 상황에서 실시간으로 피험자의 행동 및 경험을 반복 수집한 데이터일 수 있다. 예를 들어, 매일 정해진 시간에 피험자에게 '현재 기분이 어떤지' 등을 조사한 데이터이거나, 매일 정해진 시간에 피험자가 반복하는 행동 등을 조사한 데이터일 수 있으나, 이에 제한되는 것은 아니다. 또한, 특정 가상 생태순간평가는 메타버스 내의 특정 아바타의 생태순간평가이며, 이는 특정 아바타에 대응되는 특정 실제 사용자의 생태순간평가와는 다를 수도 있다. 예를 들어, 메타버스 내의 특정 아바타는 매일 오후 6시의 설문에 대해 스트레스를 거의 받지 않는 것으로 조사되는 반면에, 메타버스 외부의 특정 사용자는 동일한 시간대의 설문에 대해 높은 스트레스를 받는 것으로 조사될 수도 있을 것이다. Additionally, 'ecological instantaneous assessment' may be data that repeatedly collects the subject's behavior and experience in real time in everyday situations. For example, it may be data that surveys subjects on 'how they currently feel' at a set time every day, or it may be data that surveys subjects' repeated actions at a set time every day, but is not limited to this. In addition, a specific virtual ecological instantaneous evaluation is an ecological instantaneous evaluation of a specific avatar in the metaverse, which may be different from the ecological instantaneous evaluation of a specific actual user corresponding to a specific avatar. For example, a specific avatar within the metaverse may be found to have little stress when asked to take a survey at 6 PM every day, while a specific user outside the metaverse may be found to be highly stressed when asked to take a survey at the same time. There will be.

그리고, '디지털 피노타입'이란, 온라인 서비스의 사용 패턴(사용 장소, 시간의 다양성, 집에 머무는 시간, 규칙성, 온라인 서비스를 사용하며 움직인 거리 등)을 포함하는 정보일 수 있다. 여기서, 메타버스 내의 특정 아바타의 특정 가상 디지털 피노타입과 메타버스 외부의 특정 실제 사용자의 특정 실제 디지털 피노타입이 상이할 수도 있다. 예를 들어, 메타버스 내에서는 특정 아바타가 활발하게 이동하며 온라인 서비스(메타버스 내의 채팅 서비스 등)을 이용하지만, 메타버스 외에서는 집에서 거의 이동하지 않는 상태에서 온라인 서비스(SNS 서비스, 전화 등)을 이용하는 것으로 조사될 수도 있을 것이다.In addition, the 'digital pinotype' may be information including the usage pattern of online services (location of use, diversity of time, time spent at home, regularity, distance traveled while using online services, etc.). Here, the specific virtual digital pinotype of a specific avatar within the metaverse may be different from the specific actual digital pinotype of a specific real user outside the metaverse. For example, within the metaverse, a specific avatar actively moves around and uses online services (chat services within the metaverse, etc.), but outside of the metaverse, they rarely move from home and use online services (SNS services, phone calls, etc.) It may be investigated as using .

이후, 컴퓨팅 장치가, 제1 트리거링 이벤트 내지 제n 트리거링 이벤트 중 적어도 일부에 대하여 특정 아바타가 반응한 데이터에 해당되는 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트 중 적어도 일부를 획득하고, 제1 반응 이벤트 세트 내지 제n 반응 이벤트 세트 중 적어도 일부를 참조로 하여 결정된 제1 정상 반응 범위 내지 제n 정상 반응 범위 중 적어도 일부와, 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트 중 적어도 일부를 비교하여, 제1 반응 갭 내지 제n 반응 갭 중 적어도 일부를 획득하고, 제1 반응 갭 내지 제n 반응 갭 중 적어도 일부를 참조로 하여 특정 아바타 위험도를 산출(S202)할 수 있다.Thereafter, the computing device acquires at least some of a specific first reaction event to a specific n-th reaction event corresponding to data in which a specific avatar reacted to at least some of the first triggering event to the n-th triggering event, and generates a first reaction By comparing at least a portion of the first normal response range to the nth normal response range determined with reference to at least a portion of the event set to the nth reaction event set, and at least a portion of the specific first reaction event to the specific nth reaction event, At least a portion of the first to n-th reaction gaps may be obtained, and a specific avatar risk may be calculated with reference to at least a portion of the first to n-th reaction gaps (S202).

여기서, 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트는, (i) 특정 가상 생태순간평가, (ii) 특정 가상 디지털 피노타입 및 (iii) 특정 아바타의 제1 트리거링 이벤트 내지 제n 트리거링 이벤트에 대하여 특정 아바타가 실시간으로 반응한 특정 제1 실시간 반응 내지 특정 제n 실시간 반응 중 적어도 일부를 참조하여 결정될 수 있다. 여기서, 특정 아바타가 실시간으로 반응한 특정 제1 실시간 반응 내지 특정 제n 실시간 반응은 특정 아바타에 의해 출력되는 메타버스 상에서의 벡터 값을 분석하여 획득될 수도 있을 것이나, 이에 한정되는 것은 아니며, 경우에 따라 특정 아바타를 조작하는 사용자의 얼굴 표정, 제스처, 목소리에 대한 분석 등을 통해 획득될 수도 있을 것이다.Here, the specific first reaction event to the specific n-th reaction event refers to (i) a specific virtual ecological momentary assessment, (ii) a specific virtual digital phenotype, and (iii) the first to n-th triggering event of a specific avatar. It may be determined by referring to at least some of a specific first real-time reaction to a specific n-th real-time reaction that a specific avatar reacted to in real time. Here, the specific first real-time reaction to the specific n-th real-time reaction that a specific avatar reacted to in real time may be obtained by analyzing the vector value on the metaverse output by the specific avatar, but is not limited to this. Accordingly, it may be obtained through analysis of the facial expressions, gestures, and voices of users operating a specific avatar.

이후, 특정 아바타 위험도가 제1 임계치를 초과하면, 컴퓨팅 장치가, 제1 반응 갭 내지 제n 반응 갭 중 적어도 일부를 참조로 하여 제1 반응 갭 내지 제n 반응 갭 각각에 대응되는 제1 질문 세트 내지 제n 질문 세트 각각의 가중치를 변경한 조정 질문 세트를 결정하고, 가상 전문가를 통하여 특정 아바타에게 조정 질문 세트를 제공(S203)할 수 있다.Thereafter, when the specific avatar risk exceeds the first threshold, the computing device asks at least a portion of the first to nth reaction gaps a first set of questions corresponding to each of the first to nth reaction gaps. An adjustment question set in which the weights of each of the through to nth question sets are changed may be determined, and the adjustment question set may be provided to a specific avatar through a virtual expert (S203).

이때, 가상 전문가는 컴퓨팅 장치에 의해 제어되는 메타버스 내의 아바타 형태로 존재할 수 있고, 해당 가상 전문가는 특정 분야에서 지적으로 박식한 수준으로 학습된 상태일 수도 있다. 여기서, 해당 가상 전문가는 제1 실시예 내지 제3 실시예 중 적어도 일부의 과정을 통해 입력 및 출력되는 데이터들을 이용하여 학습되었거나 추가적으로 학습을 수행할 수 있을 것이다. At this time, the virtual expert may exist in the form of an avatar within the metaverse controlled by a computing device, and the virtual expert may be trained to an intellectually knowledgeable level in a specific field. Here, the virtual expert may have been trained or may be able to perform additional learning using data input and output through at least some of the processes of the first to third embodiments.

S203 단계로 다시 돌아오면, 특정 아바타 위험도가 제1 임계치를 초과하는 경우, 메타버스 내에서 가상 전문가가 특정 아바타에게 접근하여, 조정 질문 세트를 제공할 수 있다.Returning to step S203, if the risk of a specific avatar exceeds the first threshold, a virtual expert within the metaverse may approach the specific avatar and provide a set of adjustment questions.

다음으로, 조정 질문 세트에 대한 특정 아바타의 특정 아바타 답변 세트를 참조로 하여 특정 아바타 위험도를 조정하고, 특정 아바타 위험도가 제2 임계치를 초과하면, 특정 아바타에게 실제 전문가와의 인터랙션을 지원(S204)할 수 있다.Next, the specific avatar risk is adjusted with reference to the specific avatar's specific avatar answer set to the adjustment question set, and if the specific avatar risk exceeds the second threshold, the specific avatar is supported to interact with a real expert (S204). can do.

예를 들어, 특정 아바타 답변 세트를 참조한 결과 특정 아바타 위험도가 전혀 줄어들지 않았거나 오히려 증가하는 경우라면, 실제 전문가와의 인터랙션을 지원하도록 할 수 있다. 이때, 컴퓨팅 장치는 실제 전문가에게 긴급 신호를 발송하여 신속하게 특정 아바타와의 인터랙션을 수행하도록 지원할 수 있다.For example, if the risk of a specific avatar does not decrease at all or actually increases as a result of referring to a specific avatar answer set, interaction with an actual expert can be supported. At this time, the computing device can send an emergency signal to an actual expert to quickly perform an interaction with a specific avatar.

본 발명의 방법에서, S201 단계 이전에, 특정 아바타 및 타 아바타 각각은, 제1 카테고리 내지 제m 카테고리 중 적어도 하나의 카테고리에 포함될 수 있으며, 가령 특정 아바타는 제1 카테고리 내지 제m 카테고리 중 제k 카테고리에 포함되어 있는 경우를 상정할 수 있다. 여기서 각각의 카테고리는 연령, 성별 및 직업 등 다양한 분류기준에 의해 나뉘어질 수 있으며, 각각의 아바타는 여러 개의 카테고리에 대응될 수도 있다.In the method of the present invention, before step S201, each of the specific avatar and the other avatar may be included in at least one category among the first to mth categories, for example, the specific avatar may be included in the kth category among the first to mth categories. It can be assumed that it is included in the category. Here, each category can be divided by various classification criteria such as age, gender, and occupation, and each avatar may correspond to multiple categories.

이때, 특정 아바타 및 타 아바타 중 제k 카테고리에 속해 있는 적어도 하나의 제k 타 아바타 중 적어도 일부가 반응한 데이터에 해당되는 제k_1 반응 이벤트 세트 내지 제k_n 반응 이벤트 세트 각각을 제1 반응 이벤트 세트 내지 제n 반응 이벤트 세트 각각으로부터 선별하여 데이터베이스에 저장할 수 있다. 즉, 제k 카테고리에 속해 있는 많은 아바타들의 (제1 트리거링 이벤트 내지 제n 트리거링 이벤트에 대응한 결과로 생성된) 제k_1 반응 이벤트 세트 내지 제k_n 반응 이벤트 세트 각각의 벡터 값들은 해당 아바타의 행동, 표정 등으로부터 산출될 수도 있지만, 가상생태순간평가, 가상 디지털 피노타입 등에 포함된 정보를 참조로 하여 산출될 수도 있고, 경우에 따라서는 해당 아바타들을 조종하는 실제 사용자들의 실제 생태순간평가, 실제 디지털 피노타입, 생체 데이터 등 중 적어도 일부를 참조로 하여 산출될 수도 있다.At this time, each of the k_1th reaction event set to the k_nth reaction event set corresponding to the data to which at least some of the kth other avatars belonging to the kth category among the specific avatar and other avatars responded to the first reaction event set to the first reaction event set. Each nth reaction event set can be selected and stored in a database. That is, the vector values of each of the k_1th reaction event set to the k_nth reaction event set (generated as a result of responding to the first to nth triggering events) of many avatars belonging to the kth category are the behavior of the corresponding avatar, It may be calculated from facial expressions, etc., but it may also be calculated with reference to information included in virtual ecological instantaneous evaluation, virtual digital pinotype, etc., and in some cases, actual ecological instantaneous evaluation of actual users controlling the avatars, actual digital pinotype, etc. It may be calculated with reference to at least some of the type, biometric data, etc.

이후, S202 단계에서, 제k_1 반응 이벤트 세트 내지 제k_n 반응 이벤트 세트 중 적어도 일부를 참조로 하여 결정된 제k_1 정상 반응 범위 내지 제k_n 정상 반응 범위 중 적어도 일부와, 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트 중 적어도 일부를 비교하여, 제k_1 반응 갭 내지 제k_n 반응 갭 중 적어도 일부를 획득하고, 제k_1 반응 갭 내지 제k_n 반응 갭 중 적어도 일부를 참조로 하여 특정 아바타 위험도를 산출할 수 있다. 즉, 제k 카테고리에 속해 있는 많은 아바타들의 (제1 트리거링 이벤트 내지 제n 트리거링 이벤트에 대응한 결과로 생성된) 제k_1 반응 이벤트 세트 내지 제k_n 반응 이벤트 세트를 참조로 하여 제k 카테고리에 속해 있는 많은 아바타들의 제k_1 정상 반응 범위 내지 제k_n 정상 반응 범위 각각을 구하여 데이터베이스에 기록하는 것을 상정할 수 있을 것이며, 특정 사용자의 (제1 트리거링 이벤트 내지 제n 트리거링 이벤트에 대응한 결과로 생성된) 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트 각각이 이와 같이 데이터베이스에 기록되어 있는 제k_1 정상 반응 범위 내지 제k_n 정상 반응 범위 각각으로부터 얼마나 벗어나 있는지를 판단하고자 하는 것이다.Thereafter, in step S202, at least a portion of the k_1th normal reaction range to the k_nth normal reaction range determined with reference to at least a portion of the k_1th reaction event set to the k_nth reaction event set, and a specific first reaction event to a specific nth reaction event set. By comparing at least a portion of the reaction events, at least a portion of the k_1th reaction gap to the k_nth reaction gap may be obtained, and a specific avatar risk may be calculated with reference to at least a portion of the k_1th reaction gap to the k_nth reaction gap. That is, with reference to the k_1th reaction event set to the k_nth reaction event set (generated as a result of responding to the first to nth triggering events) of many avatars belonging to the kth category, It can be assumed that each of the k_1th normal reaction range to the k_nth normal reaction range of many avatars is obtained and recorded in a database, and the specific user's specific (generated as a result of responding to the first to nth triggering event) The purpose is to determine how much each of the first reaction event or the specific nth reaction event deviates from the k_1th normal reaction range to the k_nth normal reaction range recorded in the database.

다음으로, S203 단계에서, 특정 아바타 위험도가 제1 임계치를 초과하면, 컴퓨팅 장치가, 제k_1 반응 갭 내지 제k_n 반응 갭 중 적어도 일부를 참조로 하여 제k_1 반응 갭 내지 제k_n 반응 갭 각각에 대응되도록 제1 질문 세트 내지 제n 질문 세트 각각의 가중치를 변경하여 조정 질문 세트를 결정하고, 가상 전문가를 통하여 특정 아바타에게 조정 질문 세트를 제공할 수 있다. 즉, 정상범위로부터 벗어난 정도가 큰 반응 이벤트 세트에 대해서는 보다 추가적으로 질문 세트를 배정하여 정밀 분석을 수행하고자 하는 것이다.Next, in step S203, if the specific avatar risk exceeds the first threshold, the computing device corresponds to each of the k_1th reaction gap to the k_nth reaction gap with reference to at least a portion of the k_1th reaction gap to the k_nth reaction gap. The adjusted question set can be determined by changing the weight of each of the first to nth question sets as much as possible, and the adjusted question set can be provided to a specific avatar through a virtual expert. In other words, for a set of reaction events that deviate significantly from the normal range, an additional set of questions is assigned to perform a detailed analysis.

한편, 이하에서는 본 발명의 장치가 학습 장치(미도시)를 포함하며, 학습 장치를 사용하여 학습하는 과정에 대한 예시를 설명하도록 한다.Meanwhile, in the following, the device of the present invention includes a learning device (not shown), and an example of a learning process using the learning device will be described.

우선, S202 단계를 수행하기 전에, 컴퓨팅 장치(100)가, 제1 트리거링 이벤트 내지 제n 트리거링 이벤트 중 적어도 일부에 대하여 특정 아바타가 반응할 것으로 예측되는 제1 예측 반응 이벤트 내지 제n 예측 반응 이벤트를 산출할 수 있다. 이를 위해 학습 장치는, 이미 데이터베이스에 기록된 과거의 다양한 아바타 사이에서의 인터랙션, 가령, 제1 트리거링 이벤트 내지 제n 트리거링 이벤트의 제공 정보 및 이에 따른 제1 반응 이벤트 세트 내지 제n 반응 이벤트 세트 정보, 과거의 다양한 아바타 각각의 속성 등을 학습 데이터로서 입력 받아 어느 정도 학습된 상태일 수 있을 것이다.First, before performing step S202, the computing device 100 generates a first to nth predicted reaction event in which a specific avatar is predicted to react to at least some of the first to nth triggering events. It can be calculated. For this purpose, the learning device includes interactions between various past avatars already recorded in the database, such as provision information of the first to nth triggering events and the corresponding first to nth reaction event set information, The attributes of each of the various past avatars may be input as learning data and may have been learned to some extent.

이후, S202 단계에서, 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트가 획득되면, 컴퓨팅 장치(100)가, 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트와, 제1 예측 반응 이벤트 내지 제n 예측 반응 이벤트를 비교하여, 특정 아바타에 대해 제1 반응 로스 내지 제n 반응 로스를 획득하고, 제1 반응 로스 내지 제n 반응 로스를 사용하여 백프로퍼게이션을 수행할 수 있다. 백프로퍼게이션을 수행하는 과정은 반복될 수 있으며, 백프로퍼게이션을 반복함으로써 학습 장치가 예측 반응 이벤트를 더 정확하게 산출할 수 있을 것이다.Thereafter, in step S202, when a specific first reaction event to a specific n-th reaction event is obtained, the computing device 100 generates a specific first reaction event to a specific n-th reaction event and a first predicted reaction event to an n-th prediction. By comparing reaction events, the first to nth reaction losses can be obtained for a specific avatar, and backpropagation can be performed using the first to nth reaction losses. The process of performing backpropagation can be repeated, and by repeating backpropagation, the learning device will be able to more accurately calculate the predicted response event.

다음으로, 특정 실제 사용자로부터 획득한 데이터와 특정 아바타로부터 획득한 데이터를 사용하여 특정 반응 이벤트(보다 정확히는 특정 반응 이벤트에 포함되는 벡터 값)를 조정하는 방법에 대해 설명하도록 한다.Next, we will explain how to adjust a specific reaction event (more precisely, a vector value included in a specific reaction event) using data obtained from a specific actual user and data obtained from a specific avatar.

컴퓨팅 장치(100)가, 특정 실제 사용자로부터 특정 실제 사용자 생체 데이터, 특정 실제 생태순간평가 및 특정 실제 디지털 피노타입을 추가로 획득한 상태에서, S202 단계 이전에, 컴퓨팅 장치(100)가, (i) 특정 가상 생태순간평가 및 특정 가상 디지털 피노타입 중 적어도 일부와, (ii) 특정 실제 생태순간평가, 특정 실제 디지털 피노타입 및 특정 실제 사용자 생체 데이터 중 적어도 일부를 참조하여, 특정 실제 사용자와 특정 아바타의 모드 일치율을 획득할 수 있다. 여기서, 특정 실제 사용자 생체 데이터는 특정 실제 사용자의 심박수, 심박변이도, 호흡률 등을 포함할 수 있으나, 이에 제한되는 것은 아니다.In a state in which the computing device 100 additionally acquires specific real user biometric data, a specific real ecological momentary assessment, and a specific real digital pinotype from a specific real user, before step S202, the computing device 100, (i ) with reference to at least some of a specific virtual eco-moment assessment and a specific virtual digital phenotype, and (ii) at least some of a specific real-world eco-moment assessment, a specific real-world digital phenotype and a specific real-world user biometric data, with reference to a specific real-world user and a specific avatar; A mode matching rate of . Here, the specific actual user biometric data may include, but is not limited to, the specific actual user's heart rate, heart rate variability, and breathing rate.

이후, S202 단계에서, 모드 일치율을 참조로 하여 특정 가상 생태순간평가 및 특정 가상 디지털 피노타입 중 적어도 일부의 가중치를 조정하여 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트를 결정할 수 있다. 즉, 모드 일치율이 낮은 경우(특정 아바타에 대해 획득된 데이터와 특정 실제 사용자에 대해 획득된 데이터가 크게 다른 경우), 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트에 반영되는 특정 가상 생태순간평가 및 특정 가상 디지털 피노타입의 가중치를 낮춰 특정 실제 사용자에 대해 획득된 데이터가 더 반영되도록 할 수 있다.Thereafter, in step S202, a specific first reaction event to a specific n-th reaction event may be determined by adjusting the weights of at least some of the specific virtual ecological instantaneous assessment and the specific virtual digital pinotype with reference to the mode coincidence rate. That is, when the mode match rate is low (when the data obtained for a specific avatar and the data obtained for a specific real user are significantly different), a specific virtual ecological momentary evaluation reflected in a specific first reaction event to a specific nth reaction event, and The weight of a specific virtual digital pinotype can be lowered to better reflect the data obtained for a specific real user.

그리고, 본 발명에 따른 장치는 특정 아바타와 유사한 유사 아바타에 대한 정보를 데이터베이스에 획득한 상태에서, 유사 아바타에게 제공되었던 서비스를 특정 아바타에게 제공할 수 있다. 아래에서 그 과정을 상세히 설명하도록 한다.Additionally, the device according to the present invention can provide services that were provided to similar avatars to a specific avatar while obtaining information about similar avatars similar to a specific avatar in a database. The process is explained in detail below.

먼저, 본 발명에 따른 방법은, S201 단계 이전에, 타 아바타 중 특정 아바타와의 유사도가 제3 임계치보다 높은 유사도를 가지는 소정의 타 아바타를 유사 아바타로 설정할 수 있다. First, in the method according to the present invention, before step S201, a certain other avatar whose similarity to a specific avatar among other avatars is higher than the third threshold can be set as a similar avatar.

이후, 트리거링 아바타의 제1 트리거링 이벤트 내지 제n 트리거링 이벤트 중 적어도 일부에 대하여 특정 아바타 및 타 아바타 중 적어도 일부가 반응한 데이터에 해당되는 각각의 제1 반응 이벤트 세트 내지 제n 반응 이벤트 세트 중 적어도 일부를 데이터베이스에 저장한 상태에서, 컴퓨팅 장치(100)가, 메타버스 내의 유사 아바타로부터 유사 아바타 가상 생태순간평가 및 유사 아바타 가상 디지털 피노타입 중 적어도 일부를 획득할 수 있다.Thereafter, at least a portion of each of the first to nth reaction event sets corresponding to data on the reaction of at least some of the specific avatar and other avatars to at least some of the first to nth triggering events of the triggering avatar. With stored in the database, the computing device 100 may obtain at least some of the similar avatar virtual ecological momentary assessment and the similar avatar virtual digital pinotype from the similar avatar in the metaverse.

다음으로, 컴퓨팅 장치(100)가, 제1 트리거링 이벤트 내지 제n 트리거링 이벤트 중 적어도 일부에 대하여 유사 아바타가 반응한 데이터에 해당되는 제1 유사 아바타 반응 이벤트 내지 제n 유사 아바타 반응 이벤트 중 적어도 일부를 획득하고, 제1 반응 이벤트 세트 내지 제n 반응 이벤트 세트 중 적어도 일부를 참조로 하여 결정된 제1 정상 반응 범위 내지 제n 정상 반응 범위 중 적어도 일부와, 제1 유사 아바타 반응 이벤트 내지 제n 유사 아바타 반응 이벤트 중 적어도 일부를 비교하여, 제1 유사 아바타 반응 갭 내지 제n 유사 아바타 반응 갭 중 적어도 일부를 획득하고, 제1 유사 아바타 반응 갭 내지 제n 유사 아바타 반응 갭 중 적어도 일부를 참조로 하여 유사 아바타 위험도를 산출할 수 있다. 이는 해당 아바타와 유사한 타 아바타들이 어떠한 자극에 어떠한 벡터 값을 가지는 반응 이벤트를 출력했는지에 대한 정보를 분석하여 해당 아바타와 동일 또는 유사한 성향을 가지고 있는 타 아바타들에 특화된 정상 범위를 산출함으로써, 일률적으로 정해진 정상 범위를 비교 대상으로 삼는 것이 아니라, 유사한 성향을 대상으로 산출된 정상 범위를 비교 대상으로 삼을 수도 있다는 것을 의미한다. 여기서, 제1 유사 아바타 반응 이벤트 내지 제n 유사 아바타 반응 이벤트는, (i) 유사 아바타 가상 생태순간평가, (ii) 유사 아바타 가상 디지털 피노타입 및 (iii) 유사 아바타의 제1 트리거링 이벤트 내지 제n 트리거링 이벤트에 대하여 유사 아바타가 실시간으로 반응한 제1 유사 아바타 실시간 반응 내지 제n 유사 아바타 실시간 반응 중 적어도 일부를 참조하여 결정될 수 있다.Next, the computing device 100 generates at least some of the first to nth similar avatar reaction events corresponding to data in which the similar avatar reacted to at least some of the first to nth triggering events. Obtaining, and at least a portion of the first normal reaction range to the nth normal reaction range determined with reference to at least a portion of the first to nth reaction event sets, and the first to nth similar avatar reaction events, Compare at least some of the events to obtain at least a portion of the first similar avatar response gap to the nth similar avatar response gap, and use at least a portion of the first similar avatar response gap to the nth similar avatar response gap to obtain a similar avatar response gap. The risk can be calculated. This is done by analyzing information on which avatars similar to the relevant avatar output response events with which vector values to which stimuli and calculating the normal range specialized for other avatars with the same or similar tendencies as the relevant avatar. This means that rather than using a set normal range as the object of comparison, the normal range calculated for similar tendencies can be used as the object of comparison. Here, the first to nth similar avatar reaction events are (i) the similar avatar virtual ecological instantaneous evaluation, (ii) the similar avatar virtual digital phenotype, and (iii) the first to nth similar avatar triggering events. The decision may be made by referring to at least some of the first similar avatar real-time response to the nth similar avatar real-time response to the triggering event.

이후, 유사 아바타 위험도가 제1 임계치를 초과하면, 컴퓨팅 장치(100)가, 제1 유사 아바타 반응 갭 내지 제n 유사 아바타 반응 갭 중 적어도 일부를 참조로 하여 제1 유사 아바타 반응 갭 내지 제n 유사 아바타 반응 갭 각각에 대응되는 제1 유사 아바타 질문 세트 내지 제n 유사 아바타 질문 세트 각각의 가중치를 변경하여 유사 아바타 조정 질문 세트를 결정하고, 가상 전문가를 통하여 유사 아바타에게 유사 아바타 조정 질문 세트를 제공할 수 있다. 즉, 정상범위로부터 크게 벗어난 이벤트 세트에 대해서는 보다 추가적으로 질문 세트를 배정하여 정밀 분석을 수행할 수 있을 것이다.Thereafter, when the similar avatar risk exceeds the first threshold, the computing device 100 determines the first similar avatar reaction gap to the nth similar avatar response gap with reference to at least a portion of the first similar avatar reaction gap to the nth similar avatar reaction gap. A similar avatar adjustment question set is determined by changing the weight of each of the first to nth similar avatar question sets corresponding to each avatar response gap, and the similar avatar adjustment question set is provided to the similar avatar through a virtual expert. You can. In other words, for event sets that deviate significantly from the normal range, a detailed analysis can be performed by assigning an additional set of questions.

다음으로, 조정 질문 세트에 대한 유사 아바타의 유사 아바타 답변 세트를 참조로 하여 유사 아바타 위험도를 조정하고, 유사 아바타 위험도가 제2 임계치를 초과하면, 유사 아바타에게 실제 전문가와의 인터랙션을 지원할 수 있다. 이후, 유사 아바타 조정 질문 세트, 유사 아바타 답변 세트 및 기 유사 아바타의 실제 전문가와의 인터랙션은 데이터베이스에 저장될 수 있다.Next, the similar avatar risk is adjusted with reference to the similar avatar's answer set to the adjustment question set, and if the similar avatar risk exceeds the second threshold, the similar avatar can be supported to interact with a real expert. Thereafter, the similar avatar adjustment question set, the similar avatar answer set, and the previous similar avatar's interaction with the actual expert may be stored in the database.

이때, 유사 아바타와 실제 전문가와의 인터랙션을 제공하기까지의 모든 단계는, S201 단계가 수행되기 이전에 수행될 수 있을 것이다. 즉, 특정 아바타에 대해 트리거링 아바타가 제1 트리거링 이벤트 내지 제n 트리거링 이벤트를 입력하기 이전에 유사 아바타와 실제 전문가와의 인터랙션을 제공하기까지의 모든 단계가 수행된 상태일 수 있다.At this time, all steps required to provide interaction between a similar avatar and an actual expert may be performed before step S201. That is, before the triggering avatar inputs the first to nth triggering event for a specific avatar, all steps required to provide interaction between the similar avatar and the actual expert may have been performed.

다시 도 2를 참조하면, 이후, S204 단계에서, 가상 전문가와의 인터랙션을 통해 산출된 특정 아바타 답변 세트를 참조한 결과 특정 아바타 위험도가 제1 개선 정도만큼 감소하고, 특정 아바타에게 실제 전문가와의 인터랙션을 지원한 결과 특정 아바타 위험도가 제2 개선 정도만큼 감소되었을 때, 제1 개선 정도 및 제2 개선 정도 중 적어도 하나가 제4 임계치보다 낮은 경우, 유사 아바타 조정 질문 세트, 유사 아바타 답변 세트 및 유사 아바타의 실제 전문가와의 인터랙션에 대한 정보 중 적어도 일부를 특정 아바타에게 제공하여 참고하도록 함으로써 치료의 극대화를 도모할 수 있다.Referring to FIG. 2 again, in step S204, as a result of referring to the specific avatar answer set calculated through interaction with the virtual expert, the specific avatar risk is reduced by the first improvement degree, and the specific avatar is provided with interaction with the real expert. As a result of the application, when the risk of a specific avatar is reduced by the second improvement degree, and at least one of the first improvement degree and the second improvement degree is lower than the fourth threshold, the similar avatar adjustment question set, the similar avatar answer set, and the similar avatar Treatment can be maximized by providing at least some of the information about interactions with actual experts to a specific avatar for reference.

즉, 특정 아바타가 가상 전문가와의 인터랙션을 수행한 이후의 특정 아바타 위험도 및 특정 아바타가 실제 전문가와의 인터랙션을 수행한 이후의 특정 아바타 위험도가 모두 제4 임계치보다 낮은 경우, 가상 전문가와의 인터랙션 및 실제 전문가와의 인터랙션의 치료 효과가 부족한 것으로 간주할 수 있다. 이러한 경우, 유사 아바타가 먼저 경험한 유사 아바타 조정 질문 세트, 유사 아바타 답변 세트 및 유사 아바타의 실제 전문가와의 인터랙션에 대한 정보 를 특정 아바타에게 제공하여, 부족한 치료 효과를 보충할 수 있을 것이다.That is, if the specific avatar risk after the specific avatar interacts with the virtual expert and the specific avatar risk after the specific avatar interacts with the real expert are both lower than the fourth threshold, the interaction with the virtual expert and The therapeutic effect of interaction with an actual expert can be considered insufficient. In this case, a set of similar avatar adjustment questions previously experienced by the similar avatar, a set of similar avatar answers, and information about the similar avatar's interaction with an actual expert may be provided to the specific avatar, thereby making up for the insufficient treatment effect.

다음으로, 가상 전문가가 제1 질문 세트 내지 제n 질문 세트를 조정하여 조정 질문 세트를 결정하도록 지원하는 단계를 상세히 설명하도록 한다.Next, the steps for supporting the virtual expert to determine the adjusted question set by adjusting the first to nth question sets will be described in detail.

S203 단계에서, 제1 반응 갭 내지 제n 반응 갭 중 적어도 일부를 참조로 하여 가상 전문가가 선택되면, 컴퓨팅 장치(100)가, 특정 아바타의 특정 제1 반응 이벤트 내지 특정 제n 반응 이벤트를 가상 전문가에게 전달하여, 가상 전문가로 하여금 제1 반응 갭 내지 제n 반응 갭 각각에 대응되는 제1 질문 세트 내지 제n 질문 세트 각각의 가중치를 변경하여 조정 질문 세트를 결정하도록 지원할 수 있다. 즉, 복수의 가상 전문가 중 어느 가상 전문가를 배정할지 결정하기 위해서는, 제1 반응 갭 내지 제n 반응 갭 중 적어도 일부에 대한 갭의 크기가 얼마나 큰지(즉, 어느 반응 갭이 얼마나 정상에서 벗어나 있는지)를 참고로 하여 중증 정도를 판단하여 가령 중증에 특화된 가상 전문가를 배정할 수도 있고, 제1 반응 갭 내지 제n 반응 갭 중 어느 반응 갭(소위 특정 반응 갭)이 특히 정상에서 벗어나 있는지를 판단하여 특정 반응 갭과 관련되어 학습된 가상 전문가를 배정할 수도 있을 것이다. 여기서, 특정 반응 갭이란 앞서 설명한 바에 따라 유추할 수 있듯이, 제1 트리거링 이벤트 내지 제n 트리거링 이벤트 중 특정 트리거링 이벤트에 대해 특정 반응 이벤트가 출력되었다고 할 때 특정 트리거링 이벤트 및 특정 반응 이벤트와 관련된 특정 증세와 관련하여 정상에서 벗어난 정도가 크다는 것을 의미할 수 있으므로, 특정 증세와 관련되어 전문적으로 학습된 특정 가상 전문가를 배정할 수도 있는 것이다. 예를 들어, 특정 제1 반응 이벤트에서는 정상 반응 범위에 비해 스트레스를 크게 받아 제1 반응 갭이 크게 측정되고, 특정 제2 반응 이벤트에서는 정상 반응 범위와 비슷하게 스트레스를 받아 제2 반응 갭이 작게 측정된 경우, 제1 반응 갭에 대응되는 가상 전문가가 선택될 수 있다.In step S203, when a virtual expert is selected with reference to at least a portion of the first reaction gap to the nth reaction gap, the computing device 100 selects a specific first reaction event to a specific nth reaction event of a specific avatar to the virtual expert. , it is possible to support the virtual expert in determining an adjusted question set by changing the weights of each of the first to nth question sets corresponding to the first to nth response gaps, respectively. That is, in order to determine which virtual expert to assign among a plurality of virtual experts, how large is the gap size for at least some of the first to nth reaction gaps (i.e., how much does a reaction gap deviate from normal)? By judging the degree of severity with reference to, for example, a virtual expert specialized in severe cases may be assigned, and which response gap (so-called specific response gap) among the first response gap to the nth response gap is particularly deviant from normal can be determined to determine a specific response gap. It would also be possible to assign a trained virtual expert to the response gap. Here, the specific response gap, as can be inferred from the above description, refers to a specific symptom related to a specific triggering event and a specific reaction event when a specific reaction event is output for a specific triggering event among the first to nth triggering events. Since this may mean that the degree of deviation from normal is large, it is possible to assign a specific virtual expert who has specialized training in relation to a specific symptom. For example, in a specific first reaction event, the stress is greater than the normal response range and the first response gap is measured to be large, and in a specific second response event, the stress is similar to the normal response range and the second response gap is measured to be small. In this case, a virtual expert corresponding to the first response gap may be selected.

또한, S203 단계에서, 컴퓨팅 장치(100)가, 제1 특정 반응 이벤트로부터 제1 특정 반응 이벤트의 시퀀스인 제1_1 특정 반응 이벤트 시퀀스 내지 제1_z 특정 반응 이벤트 시퀀스 중 적어도 일부를 추출할 수 있다. 여기서, '이벤트 시퀀스'란 반응 이벤트를 시계열적으로 여러 단계로 나눈 것을 의미한다. 예를 들어, '트리거링 아바타가 특정 아바타에게 화를 낸다'는 트리거링 이벤트에 대해, '특정 아바타가 트리거링 아바타에게 화를 가장 높은 강도로 낸다'는 제1 특정 반응 이벤트가 출력된다고 하면, '특정 아바타가 트리거링 아바타에게 다가감', '특정 아바타가 트리거링 아바타와 눈을 마주침' 및 '특정 아바타가 트리거링 아바타에게 최대 볼륨으로 큰 소리를 냄'과 같이 다수의 '반응 이벤트 시퀀스'가 존재할 수 있다. Additionally, in step S203, the computing device 100 may extract at least a portion of a 1_1 specific reaction event sequence to a 1_z specific reaction event sequence, which is a sequence of the first specific reaction event, from the first specific reaction event. Here, ‘event sequence’ means dividing the reaction event into several stages in time series. For example, if the first specific reaction event is output as 'the specific avatar gets angry at the triggering avatar with the highest intensity' for the triggering event 'the triggering avatar gets angry at the specific avatar', then 'the specific avatar' There may be multiple 'response event sequences', such as 'approaches the triggering avatar', 'a specific avatar makes eye contact with the triggering avatar', and 'a specific avatar makes a loud sound at maximum volume to the triggering avatar'.

이후, 컴퓨팅 장치(100)가, 데이터베이스로부터 획득된, 제1 반응 이벤트 세트에 포함된 제1_1 반응 시퀀스 세트 내지 제1_z 반응 시퀀스 세트 중 적어도 일부와, 제1_1 특정 반응 이벤트 시퀀스 내지 제1_z 특정 반응 이벤트 시퀀스 중 적어도 일부를 비교하여, 제1 시퀀스 갭 내지 제z 시퀀스 갭을 획득하고, 가상 전문가에게 제1 시퀀스 갭 내지 제z 시퀀스 갭을 전달하여, 가상 전문가가 제1 질문 세트 내지 제n 질문 세트 각각의 가중치를 변경한 조정 질문 세트를 결정하도록 지원할 수 있다.Thereafter, the computing device 100, at least some of the 1_1 reaction sequence set to 1_z reaction sequence set included in the first reaction event set, obtained from the database, and the 1_1 specific reaction event sequence to 1_z specific reaction event Compare at least some of the sequences to obtain first to z-th sequence gaps, and pass the first to z-th sequence gaps to the virtual expert, so that the virtual expert asks the first to n-th question sets, respectively. It can assist in determining a set of adjustment questions that change the weights of .

또한, 앞서 언급한 바와 유사하게, 본 발명의 방법은, S202 단계 이전에, 특정 실제 사용자로부터 특정 실제 사용자 생체 데이터, 특정 실제 생태순간평가 및 특정 실제 디지털 피노타입을 추가로 획득한 상태에서, 컴퓨팅 장치(100)가, (i) 특정 가상 생태순간평가 및 특정 가상 디지털 피노타입 중 적어도 일부와, (ii) 특정 실제 생태순간평가, 특정 실제 디지털 피노타입 및 특정 실제 사용자 생체 데이터 중 적어도 일부를 참조하여, 특정 실제 사용자와 특정 아바타의 모드 일치율을 획득하는 단계를 더 포함할 수 있고, 이후, S204 단계에서, (i) 특정 가상 생태순간평가 및 특정 가상 디지털 피노타입, (ii) 특정 실제 생태순간평가, 특정 실제 디지털 피노타입 및 특정 실제 사용자 생체 데이터, (iii) 특정 실제 사용자와 특정 아바타의 모드 일치율 및 (iv) 제1 시퀀스 갭 내지 제z 시퀀스 갭 중 적어도 일부를 참조하여, 실제 전문가와의 인터랙션을 지원할 수도 있을 것이다.In addition, similar to the above-mentioned, the method of the present invention, prior to step S202, computes specific real-user biometric data, specific real-world ecological momentary assessment, and specific real-world digital pinotypes from a specific real-life user. Device 100 refers to (i) at least some of a specific virtual eco-momentum assessment and a specific virtual digital pinotype, and (ii) at least some of a specific real-world biometric assessment, a specific real-world digital pinotype, and specific real-world user biometric data. Thus, it may further include the step of obtaining a mode matching rate between a specific real user and a specific avatar, and then, in step S204, (i) a specific virtual ecological moment evaluation and a specific virtual digital phenotype, (ii) a specific real ecological moment Evaluation, with reference to at least some of the specific real digital pinotype and specific real user biometric data, (iii) the mode match rate of the specific real user and the specific avatar, and (iv) the first sequence gap to the z sequence gap, with real experts. It may also support interaction.

다음으로, 도 3을 참조하여 본 발명의 제2 실시예에 따른 방법을 설명하도록 한다.Next, the method according to the second embodiment of the present invention will be described with reference to FIG. 3.

도 3은 본 발명의 제2 실시예에 따라, 메타버스를 활용하여 환자와 보다 체계적인 인터랙션을 수행하고 인터랙션 과정 중에 산출된 데이터에 대한 분석을 통해 환자에게 정밀한 솔루션을 제공하기 위한 방법에서 수행되는 과정을 개략적으로 도시한 흐름도이다. 이하에서는 제1 실시예와 유사한 단어에 대한 정의 및 설명은 제1 실시예에서의 정의 및 설명으로 갈음하도록 한다.Figure 3 shows a process performed in a method for performing a more systematic interaction with a patient using the metaverse and providing a precise solution to the patient through analysis of data calculated during the interaction process, according to the second embodiment of the present invention. This is a flow chart schematically showing. Hereinafter, definitions and descriptions of words similar to those in the first embodiment will be replaced with definitions and descriptions in the first embodiment.

도 3을 참조하면, 컴퓨팅 장치(100)가, 제1 메타데이터 트리거링 아바타 그룹 내지 제n 메타데이터 트리거링 아바타 그룹 중 적어도 일부에 대응되는 적어도 하나의 트리거링 아바타로 하여금, 특정 아바타 및 타 아바타 중 적어도 일부에게 제1 트리거링 벡터 내지 제m 트리거링 벡터를 각각 입력하도록 하여, (i) 제1 트리거링 벡터 내지 제m 트리거링 벡터에 대하여 특정 아바타 및 타 아바타가 반응한 벡터에 해당되는 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부 및 (ii) 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부를 참조로 하여 결정된 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부를 데이터베이스에 기록(S301)할 수 있다. 여기서, 제1 메타데이터 트리거링 아바타 그룹 내지 제n 메타데이터 트리거링 아바타 그룹 각각은 하나의 메타데이터에 대응되며, 이때 메타데이터는 성별, 연령, 성향, 직업, 육체적 특징, 정신적 특징 등 다양한 메타데이터를 포함할 수 있다.Referring to FIG. 3, the computing device 100 causes at least one triggering avatar corresponding to at least some of the first metadata triggering avatar group to the nth metadata triggering avatar group to trigger at least some of the specific avatar and other avatars. to input the first to mth triggering vectors respectively, (i) a set of first to mth reaction vectors corresponding to the vectors in which a specific avatar and other avatars reacted to the first to mth triggering vectors; At least a portion of the reaction vector set and (ii) at least a portion of the first to mth normal reaction vector ranges determined with reference to the first to mth reaction vector sets are recorded in the database ( S301) You can. Here, each of the first metadata triggering avatar group to the nth metadata triggering avatar group corresponds to one metadata, and at this time, the metadata includes various metadata such as gender, age, disposition, occupation, physical characteristics, and mental characteristics. can do.

이후, 컴퓨팅 장치(100)가, 특정 아바타에게 제1 트리거링 벡터 내지 제m 트리거링 벡터 중 적어도 일부를 제공하고, 이에 대하여 특정 아바타가 반응한 벡터에 해당되는 특정 제1 반응 벡터 내지 특정 제m 반응 벡터 중 적어도 일부를 획득하고, 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 특정 제1 반응 벡터 내지 특정 제m 반응 벡터 중 적어도 일부를 비교하여, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 데이터베이스에 기록(S302)할 수 있다. Thereafter, the computing device 100 provides at least some of the first to mth triggering vectors to a specific avatar, and the specific first to mth reaction vectors corresponding to the vectors to which the specific avatar reacted. Obtaining at least a part of the first normal response vector range to the mth normal response vector range and comparing at least a part of the specific first response vector to the specific mth reaction vector to form a first response vector gap to the mth normal response vector range. At least some of the m response vector gaps may be obtained and recorded in the database (S302).

여기서, 도 4를 참조하여'벡터'개념을 설명하도록 한다.Here, the 'vector' concept will be explained with reference to FIG. 4.

도 4는 본 발명의 일 실시예에 따라, 트리거링 아바타와 특정 아바타 사이의 인터랙션이 이루어지는 상태에서 트리거링 아바타로부터 입력되는 벡터(소위, 자극 벡터)와 특정 아바타로부터 출력되는 벡터(소위, 반응 벡터)의 예를 나타내는 도면이다.Figure 4 shows a vector input from the triggering avatar (the so-called stimulus vector) and a vector output from the specific avatar (the so-called response vector) in a state in which an interaction between the triggering avatar and a specific avatar occurs, according to an embodiment of the present invention. This is a drawing showing an example.

먼저, 각각의 벡터는 제1 벡터 컴포넌트 내지 제p 벡터 컴포넌트를 포함할 수 있다. 즉, 임의의 트리거링 벡터는 제1 트리거링 벡터 컴포넌트 내지 제p 트리거링 벡터 컴포넌트를 포함할 수 있고, 임의의 특정 반응 벡터는 특정 제1 반응 벡터 컴포넌트 내지 특정 제p 반응 벡터 컴포넌트를 포함할 수 있다.First, each vector may include a first to a p-th vector component. That is, any triggering vector may include a first triggering vector component to a p-th triggering vector component, and any specific response vector may include a specific first response vector component to a specific p-th response vector component.

도 4를 참조하면, 컴퓨팅 장치(100)는, 트리거링 아바타(좌측 아바타)와 특정 아바타(우측 아바타) 사이의 인터랙션이 이루어지는 상태에서, 트리거링 아바타로부터 입력되는 제1 트리거링 벡터 컴포넌트 내지 제p 트리거링 벡터 컴포넌트에 응답하여 특정 아바타로부터 출력되는 특정 제1 반응 벡터 컴포넌트 내지 특정 제p 반응 벡터 컴포넌트를 획득할 수 있으며, 도 4 에서 p 는 7 인 경우를 예시적으로 설명하고 있다. 물론, 여기서 특정 아바타로부터 출력되는 특정 제1 반응 벡터 컴포넌트 내지 특정 제p 반응 벡터 컴포넌트라는 것은, 특정 아바타가 행하는 행동, 표정, 가상 생태순간평가, 가상 디지털 피노타입 등을 수치화하여 획득될 수도 있으나, 특정 아바타를 조작하는 사용자의 얼굴 표정, 제스처, 목소리에 대한 분석 등을 수치화하여 획득될 수도 있을 것이다.Referring to FIG. 4, the computing device 100, in a state where an interaction between a triggering avatar (left avatar) and a specific avatar (right avatar) occurs, first to pth triggering vector components input from the triggering avatar. In response to , a specific first response vector component to a specific pth response vector component output from a specific avatar can be obtained. In FIG. 4, the case where p is 7 is exemplarily explained. Of course, here, the specific first reaction vector component or the specific pth reaction vector component output from a specific avatar may be obtained by quantifying the actions, facial expressions, virtual ecological instantaneous evaluation, virtual digital pinotype, etc. performed by the specific avatar. It may also be obtained by quantifying the analysis of facial expressions, gestures, and voices of users operating a specific avatar.

도 4에서와 같이, 컴퓨팅 장치(100)는, 트리거링 아바타에 대응되는 제1 트리거링 벡터 컴포턴트 밸류 내지 제7 트리거링 벡터 컴포넌트 밸류를 결정할 수 있다. 이때, 컴퓨팅 장치(100)는 특정 아바타와 인터랙션 하는 트리거링 아바타의 상태를 정확하게 구현하기 위한 제1 트리거링 벡터 컴포턴트 밸류 내지 제7 트리거링 벡터 컴포넌트 밸류를 결정할 수 있고, 경우에 따라 이러한 밸류들의 시간에 따른 변화율도 결정할 수 있을 것이다. 제1 실시예에서 설명 한 바와 같이 트리거링 아바타는 컴퓨팅 장치(100)에 의해 생성된 아바타이거나, 특정 사용자와는 별개의 사용자가 조작하는 아바타일 수 있으나, 아래의 예시에서는 전자의 경우를 상정하여 설명하도록 하겠다.As shown in FIG. 4 , the computing device 100 may determine first to seventh triggering vector component values corresponding to the triggering avatar. At this time, the computing device 100 may determine the first to seventh triggering vector component values to accurately implement the state of the triggering avatar interacting with a specific avatar, and in some cases, these values may be adjusted according to time. The rate of change may also be determined. As described in the first embodiment, the triggering avatar may be an avatar created by the computing device 100 or an avatar operated by a user separate from the specific user. However, the example below assumes the former case. I will do it.

도 4를 다시 참조로 하면, 제1 트리거링 벡터 컴포넌트 내지 제7 트리거링 벡터 컴포넌트는 "희노애락애오욕"에 대한 벡터 성분값에 해당된다. 즉, 기쁨, 노여움, 슬픔, 즐거움, 사랑, 미움, 욕심 각각에 대한 벡터 성분값에 해당된다. Referring again to FIG. 4, the first to seventh triggering vector components correspond to vector component values for “happiness, anger, anger, sadness, and desire.” In other words, it corresponds to the vector component values for each of joy, anger, sadness, joy, love, hate, and greed.

도 4에서와 같이, (기쁨, 노여움, 슬픔, 즐거움, 사랑, 미움, 욕심) = (0, 0.6, 0.2, 0, 0, 0.1, 0.2)가 트리거링 벡터 컴포넌트 값으로서 입력되면(즉, 특정 아바타에게 자극을 주면), 컴퓨팅 장치(100)는, 트리거링 아바타에 의해 표출된 (기쁨, 노여움, 슬픔, 즐거움, 사랑, 미움, 욕심) = (0, 0.6, 0.2, 0, 0, 0.1, 0.2)에 반응하는 특정 아바타의 특정 제1 반응 벡터 컴포넌트 내지 특정 제7 반응 벡터 컴포넌트를 획득할 수 있다. 도 4를 참조하면, 이로부터 결정되는 특정 제1 반응 벡터 컴포넌트 밸류 내지 특정 제7 반응 벡터 컴포넌트 밸류는 (기쁨, 노여움, 슬픔, 즐거움, 사랑, 미움, 욕심) = (0.1, 0.3, 0.3, 0.1, 0.1, 0.8, 0.1) 일 수 있다.As shown in Figure 4, when (joy, anger, sadness, joy, love, hate, greed) = (0, 0.6, 0.2, 0, 0, 0.1, 0.2) is input as the triggering vector component value (i.e., a specific avatar (when stimulated), the computing device 100 is (joy, anger, sadness, joy, love, hate, greed) expressed by the triggering avatar = (0, 0.6, 0.2, 0, 0, 0.1, 0.2) A specific first reaction vector component to a specific seventh reaction vector component of a specific avatar that reacts can be obtained. Referring to FIG. 4, the specific first reaction vector component value to the specific seventh reaction vector component value determined therefrom is (joy, anger, sadness, joy, love, hate, greed) = (0.1, 0.3, 0.3, 0.1) , 0.1, 0.8, 0.1).

이때, 각각의 벡터는, (i) 각각의 벡터를 표출하는 주체(주체는 특정 아바타, 트리거링 아바타 및 타 아바타에 포함되는 임의의 아바타임)의 표정에 대응되는 표정 벡터 데이터 및 (ii) 주체의 행동에 대응되는 행동 벡터 데이터를 각각 포함하여 기록될 수 있다. 표정 벡터 데이터 및 행동 벡터 데이터는, 벡터 컴포넌트 내에 포함된 값일 수 있다. 경우에 따라서는, 아바타의 표정과 행동을 식별하기 어려운 경우에는 특정 아바타의 가상 생태순간평가, 가상 디지털 피노타입 등을 수치화하여 참고로 할 수도 있고, 특정 아바타를 조작하는 사용자의 얼굴 표정, 제스처, 목소리에 대한 분석 등을 수치화하여 참고로 할 수도 있을 것이다.At this time, each vector is (i) facial expression vector data corresponding to the facial expression of the subject expressing each vector (the subject is a specific avatar, a triggering avatar, and an arbitrary avatar included in other avatars) and (ii) the subject's facial expression. Each action may be recorded including action vector data corresponding to the action. Expression vector data and action vector data may be values included in a vector component. In some cases, when it is difficult to identify the avatar's expressions and actions, the virtual ecological instantaneous evaluation of the specific avatar, virtual digital phenotype, etc. can be quantified and used as a reference, and the facial expressions, gestures, and Analysis of voices, etc. can be quantified and used as a reference.

여기서, 표정 벡터 데이터는 제1 감정 카테고리 내지 제p 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제p 표정 컴포넌트를 성분으로 가질 수 있으며, 행동 벡터 데이터는 제1 감정 카테고리 내 제p 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제p 행동 컴포넌트를 성분으로 가질 수 있다.Here, the facial expression vector data may have as components a first facial expression component to a p-th facial expression component for representing each of the first to p-th emotional categories, and the action vector data may have components for each of the p-th emotional categories in the first emotional category. It may have as components a first action component to a p-th action component to represent .

한편, 제2 실시예에 따른 본 발명의 방법에 대해서도 학습을 수행할 수 있다.Meanwhile, learning can also be performed on the method of the present invention according to the second embodiment.

제2 실시예에 따른 본 발명의 컴퓨팅 장치(100)는 학습 장치를 포함하고, S302 단계를 수행하기 전에, 컴퓨팅 장치(100)가, 제1 트리거링 벡터 내지 제m 트리거링 벡터 중 적어도 일부에 대하여 특정 아바타가 반응할 것으로 예측되는 제1 예측 반응 벡터 내지 제m 예측 반응 벡터를 산출하는 단계를 더 포함할 수 있다.The computing device 100 of the present invention according to the second embodiment includes a learning device, and before performing step S302, the computing device 100 specifies at least some of the first to mth triggering vectors. The method may further include calculating a first to mth predicted response vector through which the avatar is predicted to react.

이후, S302 단계에서, 특정 제1 반응 벡터 내지 특정 제m 반응 벡터가 획득되면, 컴퓨팅 장치(100)가, 특정 제1 반응 벡터 내지 특정 제m 반응 벡터와, 제1 예측 반응 벡터 내지 제m 예측 반응 벡터를 비교하여, 특정 아바타에 대해 제1 반응 로스 내지 제m 반응 로스를 획득하고, 제1 반응 로스 내지 제m 반응 로스를 사용하여 백프로퍼게이션을 수행할 수 있다. 백프로퍼게이션을 수행하는 과정은 반복될 수 있으며, 백프로퍼게이션을 반복함으로써 학습 장치가 예측 반응 벡터를 더 정확하게 산출할 수 있을 것이다.Thereafter, in step S302, when the specific first reaction vector to the specific m-th reaction vector is obtained, the computing device 100 generates the specific first reaction vector to the specific m-th reaction vector and the first predicted reaction vector to the m-th prediction. By comparing reaction vectors, the first to mth reaction losses can be obtained for a specific avatar, and backpropagation can be performed using the first to mth reaction losses. The process of performing backpropagation can be repeated, and by repeating backpropagation, the learning device will be able to more accurately calculate the predicted response vector.

또한, 앞에서 간단히 언급했듯이, S302 단계에서 컴퓨팅 장치(100)가, 트리거링 아바타로 하여금 특정 아바타에게 제1 트리거링 벡터 내지 제m 트리거링 벡터를 입력하도록 할 때, 각각의 트리거링 벡터에 대해 특정 사용자의 특정 사용자 생체 데이터, 특정 사용자를 촬영한 특정 사용자 영상 데이터 및 특정 사용자의 반응을 녹음한 특정 사용자 음성 데이터 중 적어도 일부를 각각 획득할 수 있는데, 이와 같이 획득한 특정 사용자 생체 데이터, 특정 사용자 영상 데이터 및 특정 사용자 음성 데이터 중 적어도 일부를 각각 참조하여 특정 제1 반응 벡터 내지 특정 제m 반응 벡터 중 적어도 일부를 조정함으로써, 특정 조정 제1 반응 벡터 내지 특정 조정 제m 반응 벡터 중 적어도 일부를 결정할 수 있으며, 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 특정 조정 제1 반응 벡터 내지 특정 조정 제m 반응 벡터 중 적어도 일부를 비교하여, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 데이터베이스에 기록할 수 있다.In addition, as briefly mentioned above, when the computing device 100 causes the triggering avatar to input the first to mth triggering vectors to a specific avatar in step S302, a specific user of a specific user for each triggering vector. At least some of biometric data, specific user video data captured by a specific user, and specific user voice data recorded by recording the reaction of a specific user may be obtained. By adjusting at least some of the specific first to specific m-th reaction vectors with reference to at least some of the audio data, at least some of the specific first to specific m-th reaction vectors can be determined, Comparing at least a part of the normal reaction vector range to the mth normal reaction vector range with at least a part of the specific adjusted first reaction vector to the specific adjusted mth reaction vector, and at least a portion of the first to mth reaction vector gaps can be obtained and recorded in the database.

여기서, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 각각은, 제1 표정 컴포넌트 갭 내지 제p 표정 컴포넌트 갭을 성분으로 가질 수 있으며, 제1 행동 컴포넌트 갭 내지 제p 행동 컴포넌트 갭을 성분으로 가질 수 있을 것이다. 즉, 제1 반응 벡터 갭에 대해서는 제1_1 표정 컴포넌트 갭 내지 제1_p 표정 컴포넌트 갭 및 제1_1 행동 컴포넌트 갭 내지 제1_p 행동 컴포넌트 갭을 성분으로 가질 수 있다. 제2 반응 벡터 갭 내지 제m 반응 벡터 갭 각각 또한 동일하게 표정 컴포넌트 갭 및 행동 컴포넌트 갭을 성분으로 가질 수 있을 것이다. 물론, 이에 한정되는 것은 아니며, 표정 컴포넌트와 행동 컴포넌트로의 구분 없이 통으로 반응 벡터 갭을 관리할 수도 있음은 물론이라 할 것이다.Here, each of the first reaction vector gap to the mth reaction vector gap may have the first facial expression component gap to the pth facial expression component gap as a component, and may have the first behavioral component gap to the pth behavioral component gap as a component. There will be. That is, the first reaction vector gap may have as components a 1_1 facial expression component gap to a 1_p facial expression component gap and a 1_1 behavioral component gap to 1_p behavioral component gap. Each of the second to mth reaction vector gaps may also have the same facial expression component gap and action component gap as components. Of course, it is not limited to this, and it goes without saying that the response vector gap can be managed through the facial expression component and the behavioral component.

또한, 앞서 언급하였듯이, 컴퓨팅 장치(100)가, 특정 아바타로부터 특정 아바타 생태순간평가 및 특정 아바타 디지털 피노타입을 추가로 획득하고, 특정 사용자로부터 특정 사용자 생태순간평가 및 특정 사용자 디지털 피노타입을 추가로 획득할 수 있는데, 이를 이용하여 다음과 같은 과정을 통해 모드 일치율을 획득할 수 있다.In addition, as mentioned above, the computing device 100 additionally acquires a specific avatar ecological instantaneous assessment and a specific avatar digital pinotype from a specific avatar, and additionally obtains a specific user ecological instantaneous assessment and a specific user digital pinotype from a specific user. Using this, you can obtain the mode coincidence rate through the following process.

즉, S302 단계 이전에, 컴퓨팅 장치(100)가, (i) 특정 사용자 생태순간평가, 특정 사용자 디지털 피노타입, 특정 사용자 생체 데이터, 특정 사용자 영상 데이터 및 특정 사용자 음성 데이터 중 적어도 일부와, (ii) 특정 아바타 생태순간평가, 특정 아바타 디지털 피노타입 중 적어도 일부를 참조하여, 특정 사용자와 특정 아바타의 모드 일치율을 획득할 수 있고, S302 단계에서, 모드 일치율을 참조로 하여, 특정 사용자 영상 데이터 및 특정 사용자 음성 데이터 중 적어도 일부의 가중치를 조정하여 특정 조정 제1 반응 벡터 내지 특정 조정 제m 반응 벡터를 결정할 수 있다.That is, before step S302, the computing device 100, (i) at least some of the specific user ecological instantaneous assessment, specific user digital pinotype, specific user biometric data, specific user image data, and specific user voice data, (ii) ) The mode matching rate of a specific user and a specific avatar can be obtained by referring to at least some of the specific avatar ecological instantaneous evaluation and the specific avatar digital pinotype, and in step S302, with reference to the mode matching rate, specific user video data and specific avatar A specific adjusted first response vector to a specific adjusted mth response vector may be determined by adjusting the weight of at least some of the user voice data.

또한, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 각각에 대응되는 제1 가상 전문가 모듈 내지 제m 가상 전문가 모듈 각각이 매칭되어 데이터베이스에 기록될 수 있다. 여기서, 제1 가상 전문가 모듈 내지 제m 가상 전문가 모듈 각각은, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 각각에 대응되는 상담 컨텐츠를 제공하도록 구성된다. 또한, 별 다른 언급이 없어도 제1 실시예에서 가상 전문가 관련하여 언급했던 내용이 당연히 제2 실시예 등에도 적용될 수 있음은 물론이라 할 것이다.Additionally, each of the first to mth virtual expert modules corresponding to the first to mth response vector gaps may be matched and recorded in the database. Here, each of the first to mth virtual expert modules is configured to provide consultation content corresponding to each of the first to mth response vector gaps. In addition, it goes without saying that what was mentioned regarding the virtual expert in the first embodiment can also be applied to the second embodiment, etc., even if there is no special mention.

이 상태에서, S302 단계 이후에, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 제k 반응 벡터 갭이 제1 임계치를 초과하면, 컴퓨팅 장치(100)가, 제1 가상 전문가 모듈 내지 제m 가상 전문가 모듈 중 제k 반응 벡터 갭에 대응되는 제k 가상 전문가 모듈로 하여금, 특정 아바타에게 제k 반응 벡터 갭에 대응되는 제k 상담 컨텐츠를 제공하고, 특정 아바타가 제k 상담 컨텐츠에 대한 만족도를 입력한 제k 특정 아바타 만족도를 데이터베이스에 기록할 수 있다.In this state, after step S302, if the kth reaction vector gap among the first to mth reaction vector gaps exceeds the first threshold, the computing device 100 selects the first to mth virtual expert modules. Among the expert modules, the kth virtual expert module corresponding to the kth response vector gap provides the kth consultation content corresponding to the kth response vector gap to a specific avatar, and the specific avatar inputs satisfaction with the kth consultation content. As long as k, the satisfaction level of a specific avatar can be recorded in the database.

여기서, 제k 특정 아바타 만족도가 임의의 임계치 이상으로 기록된 경우, 특정 아바타와 유사한 소정 유사 아바타에게 제k 상담 컨텐츠를 제공하도록 구성될 수도 있고, 제k 특정 아바타 만족도가 임의의 임계치 미만으로 기록된 경우, 유사 아바타가 임계치 이상으로 만족도를 가졌던 것으로 판단된 상담 컨텐츠를 특정 아바타에게 제공할 수도 있을 것이다. 후자에 대해서는 아래에서 자세히 설명하도록 한다.Here, when the k-th specific avatar satisfaction is recorded above a certain threshold, it may be configured to provide the k-th counseling content to a predetermined similar avatar similar to the specific avatar, and when the k-th specific avatar satisfaction is recorded below a certain threshold. In this case, counseling content that is determined to have satisfied similar avatars above a threshold may be provided to a specific avatar. The latter will be explained in detail below.

제2 실시예에 따른 본 발명의 방법에서, S302 단계 이전에, 컴퓨팅 장치(100)가, 타 아바타 중 특정 아바타와의 유사도가 제2 임계치보다 높은 유사도를 가지는 소정의 타 아바타를 적어도 하나의 유사 아바타로 결정할 수 있다.In the method of the present invention according to the second embodiment, before step S302, the computing device 100 selects at least one other avatar whose similarity to a specific avatar among other avatars is higher than the second threshold. You can decide with your avatar.

이후, 컴퓨팅 장치(100)가, 데이터베이스로부터 유사 아바타에 대응되어 기록되어 있는 제1 유사 아바타 반응 벡터 갭 내지 제m 유사 아바타 반응 벡터 갭 중에서 제k 유사 아바타 반응 벡터 갭이 제3 임계치를 초과하는 소정 유사 아바타에 대한 정보를 획득할 수 있다.Thereafter, the computing device 100 determines that the kth similar avatar reaction vector gap among the first similar avatar reaction vector gaps to the mth similar avatar reaction vector gap recorded in correspondence with the similar avatar from the database exceeds the third threshold. You can obtain information about similar avatars.

다음으로, 컴퓨팅 장치(100)가, 특정 아바타에게 소정 유사 아바타에게 제공되었던 제k 유사 아바타 상담 컨텐츠를 제공하고, 소정 유사 아바타가 제k 유사 아바타 상담 컨텐츠에 대한 만족도를 입력한 제k 유사 아바타 만족도에 대한 정보 역시 특정 아바타에게 제공할 수 있다. 따라서, 특정 아바타는 자신과 유사한 유사 아바타가 이미 진행한 상담 컨텐츠 및 유사 아바타의 상담 컨텐츠에 대한 만족도를 동시에 제공받을 수 있다.Next, the computing device 100 provides the k-th similar avatar counseling content that was provided to the predetermined similar avatar to a specific avatar, and the k-th similar avatar satisfaction level in which the predetermined similar avatar inputs the satisfaction with the k-th similar avatar counseling content. Information about can also be provided to a specific avatar. Accordingly, a specific avatar can simultaneously receive satisfaction with the counseling content of similar avatars and counseling content that has already been conducted by similar avatars similar to the avatar.

또한, 제2 실시예에 따른 본 발명의 방법은, S302 단계에서, 컴퓨팅 장치(100)가, 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부를 데이터베이스로부터 추출하고, 제1 특정 반응 벡터로부터 제1 특정 반응 벡터의 시퀀스인 제1_1 특정 반응 벡터 시퀀스 내지 제1_z 특정 반응 벡터 시퀀스 중 적어도 일부를 추출할 수 있다.In addition, in the method of the present invention according to the second embodiment, in step S302, the computing device 100 selects at least a portion of the 1_1 response vector sequence set to the 1_z response vector sequence set included in the first response vector set. It is possible to extract from the database, and extract at least a portion of the 1_1 specific reaction vector sequence to the 1_z specific reaction vector sequence, which is the sequence of the first specific reaction vector, from the first specific reaction vector.

제1 실시예에서 언급하였듯이, '벡터 시퀀스'란 반응 벡터를 여러 단계로 나눈 것을 의미한다. 예를 들어, 소정의 트리거링 벡터에 대해, 소정의 반응 벡터가 출력된다고 하면, 제1 반응 벡터 시퀀스, 제2 반응 벡터 시퀀스 및 제3 반응 벡터 시퀀스와 같이 다수의 '반응 벡터 시퀀스'가 존재할 수 있다. 이때, 제1 반응 벡터 시퀀스, 제2 반응 벡터 시퀀스 및 제3 반응 벡터 시퀀스의 합은 반응 벡터와 동일할 수 있다. As mentioned in the first embodiment, 'vector sequence' means dividing the reaction vector into several steps. For example, if a certain response vector is output for a certain triggering vector, there may be multiple 'reaction vector sequences' such as a first response vector sequence, a second response vector sequence, and a third response vector sequence. . At this time, the sum of the first reaction vector sequence, the second reaction vector sequence, and the third reaction vector sequence may be equal to the reaction vector.

이후, S303 단계에서, 컴퓨팅 장치(100)가, 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부와, 제1_1 특정 반응 벡터 시퀀스 내지 제1_z 특정 벡터 이벤트 시퀀스 중 적어도 일부를 비교하여, 제1 벡터 시퀀스 갭 내지 제z 벡터 시퀀스 갭을 획득하고, 가상 전문가 모듈에게 제1 벡터 시퀀스 갭 내지 제z 벡터 시퀀스 갭을 전달하여, 가상 전문가 모듈이 제k 상담 컨텐츠를 조정하도록 지원할 수 있다.Thereafter, in step S303, the computing device 100, at least a portion of the 1_1 reaction vector sequence set to the 1_z reaction vector sequence set included in the first reaction vector set, the 1_1 specific reaction vector sequence to the 1_z specific vector Compare at least some of the event sequences to obtain the first vector sequence gap to the z-th vector sequence gap, and transmit the first vector sequence gap to the z-th vector sequence gap to the virtual expert module, so that the virtual expert module provides the k-th consultation. We can help you coordinate content.

다음으로, 도 5를 참조하여 본 발명의 제3 실시예에 따른 방법을 설명하도록 한다.Next, the method according to the third embodiment of the present invention will be described with reference to FIG. 5.

도 5는 본 발명의 제3 실시예에 따른 방법에서 수행되는 과정을 개략적으로 도시한 흐름도이다.Figure 5 is a flowchart schematically showing the process performed in the method according to the third embodiment of the present invention.

도 5를 참조하면, 컴퓨팅 장치(100)가, 제1 메타데이터 트리거링 아바타 그룹 내지 제n 메타데이터 트리거링 아바타 그룹 중 적어도 일부에 대응되는 적어도 하나의 트리거링 아바타로 하여금, 특정 아바타 및 타 아바타 중 적어도 일부에게 제1 트리거링 벡터 내지 제m 트리거링 벡터를 각각 입력하도록 하여, (i) 제1 트리거링 벡터 내지 제m 트리거링 벡터에 대하여 특정 아바타 및 타 아바타 중 적어도 일부가 반응한 벡터에 해당되는 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부 및 (ii) 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 각각을 출력한 후의 스트레스 레벨 감소율 세트인 제1 스트레스 레벨 감소율 세트 내지 제m 스트레스 레벨 감소율 세트 중 적어도 일부를 데이터베이스에 기록(S501)할 수 있다. 이는 S502 단계 이후의 서비스를 제공하기 위한 데이터베이스 구축 단계로 보면 될 것이다.Referring to FIG. 5, the computing device 100 causes at least one triggering avatar corresponding to at least some of the first metadata triggering avatar group to the nth metadata triggering avatar group to trigger at least some of the specific avatar and other avatars. by inputting the first to the mth triggering vectors respectively, (i) a set of first reaction vectors corresponding to vectors to which at least some of the specific avatar and other avatars reacted to the first to mth triggering vectors; at least a portion of the to mth reaction vector sets, and (ii) at least a portion of the first to mth stress level reduction rate sets, which are stress level reduction rate sets after outputting each of the first to mth reaction vector sets. can be recorded in the database (S501). This can be viewed as a database construction stage to provide services beyond the S502 stage.

이후, 실세계에서 특정 사용자가 트리거링 사용자와의 실세계 인터랙션에 의해 특정 사용자의 스트레스 레벨이 제1 임계치를 초과하는 경우, 컴퓨팅 장치(100)가, 실세계 인터랙션을 참조하여, 가상세계에서 특정 아바타에게 적용될 제k 트리거링 벡터를 제1 트리거링 벡터 내지 제m 트리거링 벡터 중에서 결정(S502)할 수 있다. 즉, 데이터베이스에 입력된 제1 트리거링 벡터 내지 제m 트리거링 벡터 중, 실세계 인터랙션과 가장 유사한 트리거링 벡터를 제k 트리거링 벡터로서 결정하는 모사를 하겠다는 것이다. 위에서 설명된 벡터의 정의를 사용하여 예를 들면, 실세계 인터랙션의 벡터가 (기쁨, 노여움, 슬픔, 즐거움, 사랑, 미움, 욕심) = (0, 0.6, 0.2, 0, 0, 0.1, 0.2)라고 할 때, 제1 트리거링 벡터가 (0.3, 0.3, 0.5, 0.2, 0.2, 0.1, 0.2)이고, 제2 트리거링 벡터가 (0, 0.6, 0.3, 0.1, 0, 0.3, 0.2)이며 제3 트리거링 벡터가 (0.7, 0.4, 0.5, 0, 0.5, 0, 0)이라면, 실세계 인터랙션의 벡터와 가장 오차가 적은 제2 트리거링 벡터를 제k 트리거링 벡터로서 결정할 수 있을 것이다. 여기서, 이를 단순히 제k 트리거링 벡터로서 결정하는 것이 아니라, 데이터베이스에 기록된 제k 트리거링 벡터 후보군들 중에서 스트레스 레벨 감소율이 가장 낮은 또는 임계치 이상 낮은 것을 선택하여 제k 트리거링 벡터로서 결정할 수도 있음은 물론이라 할 것이다.Thereafter, when the stress level of a specific user in the real world exceeds the first threshold due to a real-world interaction with the triggering user, the computing device 100 refers to the real-world interaction and creates a stress level to be applied to the specific avatar in the virtual world. The k triggering vector may be determined from the first to mth triggering vectors (S502). In other words, among the first to mth triggering vectors input to the database, a simulation will be performed to determine the triggering vector most similar to the real world interaction as the kth triggering vector. For example, using the definition of vectors described above, we can say that the vectors of real-world interactions are (happy, angry, sad, joy, love, hate, greed) = (0, 0.6, 0.2, 0, 0, 0.1, 0.2) When, the first triggering vector is (0.3, 0.3, 0.5, 0.2, 0.2, 0.1, 0.2), the second triggering vector is (0, 0.6, 0.3, 0.1, 0, 0.3, 0.2), and the third triggering vector is If is (0.7, 0.4, 0.5, 0, 0.5, 0, 0), the second triggering vector with the smallest error from the real-world interaction vector can be determined as the kth triggering vector. Here, rather than simply determining this as the kth triggering vector, it can be determined as the kth triggering vector by selecting the one with the lowest stress level reduction rate or lower than the threshold among the kth triggering vector candidates recorded in the database. will be.

다음으로, 컴퓨팅 장치(100)가, 트리거링 아바타로 하여금, 특정 아바타에게 제k 트리거링 벡터를 입력하도록 하고, 제k 트리거링 벡터에 대하여 (i) 특정 아바타가 반응한 벡터에 해당되는 특정 제k 반응 벡터 및 (ii) 특정 아바타가 특정 제k 반응 벡터를 출력한 후의 특정 아바타의 특정 아바타 스트레스 레벨 감소율을 획득(S503)할 수 있다.Next, the computing device 100 causes the triggering avatar to input the kth triggering vector to a specific avatar, and for the kth triggering vector, (i) a specific kth reaction vector corresponding to the vector to which the specific avatar reacted; and (ii) the reduction rate of the specific avatar's stress level after the specific avatar outputs the specific kth response vector can be obtained (S503).

또한, 제3 실시예에 따른 본 발명의 방법에서는, S504 단계(미도시)로서, 특정 아바타 스트레스 레벨 감소율이 제2 임계치보다 낮은 경우, 컴퓨팅 장치(100)가, 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 제k 트리거링 벡터에 대응되는 제k 반응 벡터 세트를 데이터베이스에서 추출하고, 제k 반응 벡터 세트에 대응되는 제k 스트레스 레벨 감소율 세트를 데이터베이스에서 추출하며, 제k 스트레스 레벨 감소율 세트 중 제2 임계치보다 높은 적어도 하나의 제k_x 스트레스 레벨 감소율 컴포넌트 및 제k_x 스트레스 레벨 감소율 컴포넌트에 대응되는 제k_x 반응 벡터 컴포넌트를 획득하고, 특정 아바타에게 제k_x 반응 벡터 컴포넌트 및 제k_x 스트레스 레벨 감소율 컴포넌트를 제공할 수 있다.Additionally, in the method of the present invention according to the third embodiment, in step S504 (not shown), when the specific avatar stress level reduction rate is lower than the second threshold, the computing device 100 selects the first to mth response vector sets. Among the reaction vector sets, the kth reaction vector set corresponding to the kth triggering vector is extracted from the database, the kth stress level reduction rate set corresponding to the kth reaction vector set is extracted from the database, and the kth stress level reduction rate set is extracted from the database. 2 Obtain at least one k_x stress level reduction rate component and a k_x response vector component corresponding to the k_x stress level reduction rate component higher than the threshold, and provide the k_x response vector component and the k_x stress level reduction rate component to the specific avatar. You can.

다시 말하면, 특정 아바타의 스트레스 레벨 감소율이 충분하지 않은 경우(즉, 스트레스 레벨이 충분히 줄어들지 않은 경우), 데이터베이스로부터 충분한 스트레스 레벨 감소율을 가지는 반응 벡터 컴포넌트를 획득하여, (i) 제k 트리거링 벡터에 대응되며 스트레스 감소율이 제2 임계치보다 높은 제k_x 반응 벡터 컴포넌트 및 (ii) 제k_x 반응 벡터 컴포넌트에 대응되는 제k_x 스트레스 레벨 감소율 컴포넌트를 제공할 수 있다.In other words, if the stress level reduction rate of a specific avatar is not sufficient (i.e., the stress level is not sufficiently reduced), a response vector component with a sufficient stress level reduction rate is obtained from the database, and (i) corresponds to the kth triggering vector. (ii) a k_x response vector component whose stress reduction rate is higher than the second threshold; and (ii) a k_x stress level reduction rate component corresponding to the k_x response vector component.

예를 들어, 특정 아바타 및 타 아바타가 총 3개 존재하는 경우, 제1 트리거링 벡터에 대하여, 제1 반응 벡터 세트(제1_1 반응 벡터 컴포넌트 내지 제1_3 반응 벡터 컴포넌트를 포함함) 및 이에 대응되는 제1 스트레스 레벨 감소율 세트(제1_1 스트레스 레벨 감소율 컴포넌트 내지 제1_3 스트레스 레벨 감소율 컴포넌트를 포함함)가 데이터베이스로부터 추출될 수 있을 것이다. 이때, 제1_1 스트레스 레벨 감소율 컴포넌트가 30, 제1_2 스트레스 레벨 감소율 컴포넌트가 70, 제1_3 스트레스 레벨 감소율 컴포넌트가 10이고, 특정 아바타의 스트레스 레벨 감소율이 40인 경우, 제1_2 스트레스 레벨 감소율 컴포넌트 및 제1_2 반응 벡터 컴포넌트가 제공될 수 있을 것이다. For example, when there are a total of three specific avatars and other avatars, for the first triggering vector, the first reaction vector set (including the 1_1 reaction vector component to the 1_3 reaction vector component) and the corresponding first reaction vector set 1 set of stress level reduction rates (including the 1_1st stress level reduction rate component to the 1_3rd stress level reduction rate component) may be extracted from the database. At this time, if the 1_1 stress level reduction rate component is 30, the 1_2 stress level reduction rate component is 70, the 1_3 stress level reduction rate component is 10, and the stress level reduction rate of a specific avatar is 40, the 1_2 stress level reduction rate component and the 1_2 A response vector component may be provided.

또한, 본 발명의 제3 실시예에 따른 방법에서, S505 단계(미도시)로서, 특정 아바타가, k_x 반응 벡터 컴포넌트 및 k_x 스트레스 레벨 감소율 컴포넌트를 제공받은 이후, 특정 아바타 스트레스 레벨 감소율이 제3 임계치보다 높은 경우, 컴퓨팅 장치(100)가, 특정 아바타로 하여금 제k 트리거링 벡터에 대하여 k_x 반응 벡터 컴포넌트를 출력하도록 유도하는 컨텐츠를 제공할 수 있다.Additionally, in the method according to the third embodiment of the present invention, in step S505 (not shown), after the specific avatar is provided with the k_x response vector component and the k_x stress level reduction rate component, the specific avatar stress level reduction rate is set to the third threshold. In higher cases, the computing device 100 may provide content that induces a specific avatar to output a k_x response vector component for the kth triggering vector.

예를 들어, 특정 아바타의 스트레스 레벨 감소율이 제3 임계치보다 높은 것을 확인한 이후, 특정 아바타의 정면에 "k_x 반응 벡터 컴포넌트를 출력해 보시겠습니까?"와 같은 안내문구와 함께 수락 버튼을 제공하는 UI를 표시할 수 있을 것이다.For example, after confirming that the stress level reduction rate of a specific avatar was higher than the third threshold, a UI was created on the front of the specific avatar that provided an acceptance button along with a message such as “Would you like to print the k_x response vector component?” It will be possible to display it.

다음으로, 도 6을 참조하여 특정 아바타가 모범 반응 아바타를 관측하도록 하는 방법에 대해서 설명하도록 한다.Next, with reference to FIG. 6, a method of allowing a specific avatar to observe a model response avatar will be described.

도 6은 본 발명의 일 실시예에 따라, 메타버스 내에서 특정 아바타가 모범 반응 벡터를 관찰하는 것을 개략적으로 도시한 도면이다.Figure 6 is a diagram schematically showing a specific avatar observing a model response vector within the metaverse, according to an embodiment of the present invention.

도 6을 참조하면, 특정 아바타는 반응 벡터를 출력하지 않고, 모범 반응 아바타와 트리거링 아바타 사이의 인터랙션으로부터 정보를 제공받는 것이 도시되어 있다.Referring to FIG. 6, it is shown that a specific avatar does not output a response vector, but receives information from the interaction between the exemplary response avatar and the triggering avatar.

이를 위해, 도 5에서 설명했던 S501 단계에서, 메타버스 내에 위치하는 모범 반응 아바타 각각에 대해, 모범 스코어를 데이터베이스에 추가적으로 기록할 수 있다.To this end, in step S501 described in FIG. 5, a model score may be additionally recorded in the database for each model response avatar located in the metaverse.

여기서, 모범 반응 아바타는, 실제 모범 사용자와 연동되는 적어도 하나의 제1 타입 모범 반응 아바타 및 실제 모범 사용자와 연동되지 않는 적어도 하나의 제2 타입 모범 반응 아바타를 포함할 수 있다. 이때, 제2 타입 모범 반응 아바타는 컴퓨팅 장치(100)에 의해 생성되고 제어될 수 있으나, 이에 제한되는 것은 아니다.Here, the exemplary response avatar may include at least one first type exemplary response avatar that is linked to the actual exemplary user and at least one second type exemplary response avatar that is not linked to the actual exemplary user. At this time, the second type exemplary response avatar may be created and controlled by the computing device 100, but is not limited thereto.

또한, 모범 스코어는, 제1 트리거링 벡터 내지 제m 트리거링 벡터에 대해, 임의의 모범 반응 아바타가 반응한 벡터에 해당되는 제1 모범 반응 벡터 내지 제m 모범 반응 벡터 및 이에 대응되는 제1 모범 반응 스트레스 레벨 감소율 내지 제m 모범 반응 스트레스 레벨 감소율을 획득하고, 제1 모범 반응 스트레스 레벨 감소율 내지 제m 모범 반응 스트레스 레벨 감소율 중 제4 임계치보다 높은 모범 반응 스트레스 레벨 감소율이 획득되는 비율 또는 횟수일 수 있다. 즉, 모범 스코어가 높은 모범 반응 아바타일수록 스트레스 레벨 감소율이 높은 모범 반응을 보인 확률이 높을 수 있을 것이다.In addition, the exemplar score is, for the first to mth triggering vectors, the first to mth exemplar reaction vectors corresponding to the vectors to which any exemplar reaction avatar reacted, and the first exemplar reaction stress corresponding thereto. It may be the rate or number of times that the level reduction rate to the mth exemplary reaction stress level reduction rate is obtained, and the exemplary reaction stress level reduction rate higher than the fourth threshold among the first exemplary reaction stress level reduction rate to the mth exemplary reaction stress level reduction rate is obtained. In other words, the higher the exemplary response avatar has, the higher the probability that it will show an exemplary response with a high stress level reduction rate.

그리고, 컴퓨팅 장치(100)는 적어도 하나의 모범 반응 아바타 각각의 모범 반응 획득률을 제공하여 특정 아바타로 하여금 적어도 하나의 모범 반응 아바타 중 특정 모범 반응 아바타를 선택하도록 지원하고, 특정 아바타가 선택한 특정 모범 반응 아바타에 대응되는 특정 반응 벡터 컴포넌트 및 특정 스트레스 레벨 감소율 컴포넌트를 제k_x 반응 벡터 컴포넌트 및 제k_x 스트레스 레벨 감소율 컴포넌트로서 제공할 수 있다. 즉, 도 6에 도시된 '정보제공'에서, 특정 아바타가 제공받는 정보는 '제k_x 반응 벡터 컴포넌트' 및 '제k_x 스트레스 레벨 감소율 컴포넌트'일 수 있다.In addition, the computing device 100 provides an exemplary response acquisition rate for each of the at least one exemplary response avatar, supports a specific avatar to select a specific exemplary response avatar among the at least one exemplary response avatar, and supports the specific exemplary response avatar selected by the specific avatar. A specific reaction vector component and a specific stress level reduction rate component corresponding to the reaction avatar may be provided as the k_x reaction vector component and the k_x stress level reduction rate component. That is, in 'information provision' shown in FIG. 6, the information provided to a specific avatar may be 'k_x response vector component' and 'k_x stress level reduction rate component'.

또한, 본 발명의 제3 실시예에 따른 방법에서, S503 단계에서, 컴퓨팅 장치(100)가, 트리거링 아바타로 하여금 특정 아바타에게 제k 트리거링 벡터를 입력하도록 할 때, 특정 사용자의 특정 사용자 생체 데이터, 특정 사용자의 동작을 감지하는 자이로스코프 데이터, 특정 사용자를 촬영한 특정 사용자 영상 데이터 및 특정 사용자의 반응을 녹음한 특정 사용자 음성 데이터 중 적어도 일부를 각각 획득할 수 있음은 당연하다 할 것이며 모든 실시예에 적용된다 할 것이다.Additionally, in the method according to the third embodiment of the present invention, in step S503, when the computing device 100 causes the triggering avatar to input the kth triggering vector to a specific avatar, the specific user's biometric data, It is natural that at least some of the gyroscope data that detects the motion of a specific user, the specific user video data that records the specific user, and the specific user voice data that records the specific user's reaction can be obtained, and in all embodiments, It will be applied.

이후, 특정 사용자 생체 데이터, 자이로스코프 데이터, 특정 사용자 영상 데이터 및 특정 사용자 음성 데이터 중 적어도 일부를 각각 참조하여 특정 제k 반응 벡터를 조정함으로써, 특정 조정 제k 반응 벡터를 결정할 수 있다. 여기서, 특정 사용자 생체 데이터는 특정 사용자의 심박수, 호흡수 및 혈압 등의 정보를 포함할 수 있으나, 이에 제한되는 것은 아니다. 즉, 특정 제k 반응 벡터는, 메타버스 내의 특정 아바타의 반응 뿐만아니라 특정 사용자가 출력한 실세계의 반응도 일정 부분 고려하여 결정될 수 있다.Thereafter, a specific adjusted k-th response vector may be determined by adjusting the specific k-th response vector by referring to at least some of the specific user biometric data, gyroscope data, specific user image data, and specific user voice data. Here, the specific user biometric data may include information such as the specific user's heart rate, respiratory rate, and blood pressure, but is not limited thereto. In other words, the specific k-th reaction vector can be determined by considering not only the reaction of a specific avatar in the metaverse but also the real-world reaction output by a specific user to a certain extent.

또한, 본 발명의 제3 실시예에 따른 방법에서, 컴퓨팅 장치(100)가, 특정 아바타로부터 특정 아바타 생태순간평가 및 특정 아바타 디지털 피노타입을 추가로 획득하고, 특정 사용자로부터 특정 사용자 생태순간평가 및 특정 사용자 디지털 피노타입을 추가로 획득할 수 있다.In addition, in the method according to the third embodiment of the present invention, the computing device 100 additionally obtains a specific avatar ecological instantaneous evaluation and a specific avatar digital phenotype from a specific avatar, and obtains a specific user ecological instantaneous evaluation and a specific avatar digital phenotype from a specific user. You can additionally acquire specific user digital pinotypes.

이러한 상태에서, S503 단계에서, 컴퓨팅 장치(100)가, (i) 특정 사용자 생태순간평가, 특정 사용자 디지털 피노타입, 특정 사용자 생체 데이터, 자이로스코프 데이터, 특정 사용자 영상 데이터 및 특정 사용자 음성 데이터 중 적어도 일부와, (ii) 특정 아바타 생태순간평가, 특정 아바타 디지털 피노타입 중 적어도 일부를 참조하여, 특정 사용자와 특정 아바타의 모드 일치율을 획득하고, 모드 일치율을 참조로 하여, 특정 사용자 영상 데이터 및 특정 사용자 음성 데이터 중 적어도 일부의 가중치를 조정하여 특정 조정 제k 반응 벡터를 결정할 수 있다.In this state, in step S503, the computing device 100, (i) at least one of the specific user ecological instantaneous assessment, the specific user digital pinotype, the specific user biometric data, the gyroscope data, the specific user image data, and the specific user voice data; and (ii) obtaining a mode matching rate between a specific user and a specific avatar by referring to at least some of the specific avatar ecological instantaneous evaluation and a specific avatar digital pinotype, and using the mode matching rate as a reference to obtain specific user video data and a specific user A specific adjusted kth response vector can be determined by adjusting the weight of at least some of the voice data.

또한, 본 발명의 제3 실시예에 따른 방법에서, 제1 트리거링 벡터 내지 제m 트리거링 벡터 각각 및 제1 반응 벡터 세트 내지 제m 반응 벡터 세트에 포함된 각각의 반응 벡터는, (i) 제1 트리거링 벡터 내지 제m 트리거링 벡터 각각 및 제1 반응 벡터 세트 내지 제m 반응 벡터 세트에 포함된 각각의 반응 벡터를 표출하는 주체의 표정에 대응되는 표정 벡터 및 (ii) 주체의 행동에 대응되는 행동 벡터 데이터를 각각 포함하여 기록될 수 있다.In addition, in the method according to the third embodiment of the present invention, each of the first to mth triggering vectors and each reaction vector included in the first to mth reaction vector sets are: (i) the first (ii) an expression vector corresponding to the facial expression of the subject expressing each of the triggering vectors to the mth triggering vectors and each of the reaction vectors included in the first to mth reaction vector sets, and (ii) an action vector corresponding to the subject's behavior. Data can be recorded, including each.

이때, 각각의 벡터는, (i) 각각의 벡터를 표출하는 주체(주체는 특정 아바타, 트리거링 아바타 및 타 아바타에 포함되는 임의의 아바타임)의 표정에 대응되는 표정 벡터 데이터 및 (ii) 주체의 행동에 대응되는 행동 벡터 데이터를 각각 포함하여 기록될 수 있다. 표정 벡터 데이터 및 행동 벡터 데이터는, 벡터 컴포넌트 내에 포함된 값일 수 있다.At this time, each vector is (i) facial expression vector data corresponding to the facial expression of the subject expressing each vector (the subject is a specific avatar, a triggering avatar, and an arbitrary avatar included in other avatars) and (ii) the subject's facial expression. Each action can be recorded including action vector data corresponding to the action. Expression vector data and action vector data may be values included in a vector component.

여기서, 표정 벡터 데이터는 제1 감정 카테고리 내지 제p 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제p 표정 컴포넌트를 성분으로 가질 수 있으며, 행동 벡터 데이터는 제1 감정 카테고리 내 제p 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제p 행동 컴포넌트를 성분으로 가질 수 있다.Here, the facial expression vector data may have as components a first facial expression component to a p-th facial expression component for representing each of the first to p-th emotional categories, and the action vector data may have components for each of the p-th emotional categories in the first emotional category. It may have as components a first action component to a p-th action component to represent .

이와 같은 표정 및 행동 관련 제반 설명들은 제2 실시예에 언급된 내용을 참고로 할 수 있을 것이므로 설명을 생략한다.Since all descriptions related to facial expressions and actions can refer to the content mentioned in the second embodiment, descriptions are omitted.

한편, 본 발명의 제3 실시예에 따른 방법에서, 컴퓨팅 장치(100)는 학습 장치를 포함하고, S503 단계 이전에, 컴퓨팅 장치(100)는, (i) 제1 메타데이터 트리거링 아바타 그룹 내지 제n 메타데이터 트리거링 아바타 그룹 중 적어도 일부가 특정 아바타 및 타 아바타 중 적어도 일부에게 입력한 제1 트리거링 벡터 내지 제m 트리거링 벡터 중 적어도 일부, (ii) 제1 트리거링 벡터 내지 제m 트리거링 벡터에 대하여 특정 아바타 및 타 아바타 중 적어도 일부가 반응한 벡터에 해당되는 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부 및 (iii) 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 각각을 출력한 후의 스트레스 레벨 감소율 세트인 제1 스트레스 레벨 감소율 세트 내지 제m 스트레스 레벨 감소율 세트 중 적어도 일부를 학습 장치로 입력하여 학습을 수행할 수 있다.Meanwhile, in the method according to the third embodiment of the present invention, the computing device 100 includes a learning device, and before step S503, the computing device 100: (i) the first metadata triggering avatar group to the first metadata triggering avatar group n metadata At least some of the first to mth triggering vectors input by at least some of the avatar group to a specific avatar and at least some of the other avatars, (ii) a specific avatar with respect to the first to mth triggering vectors; and at least some of the first to mth reaction vector sets corresponding to vectors to which at least some of the other avatars reacted, and (iii) the stress level reduction rate after outputting each of the first to mth reaction vector sets. Learning may be performed by inputting at least a portion of the first stress level reduction rate set to the mth stress level reduction rate set into the learning device.

이후, S503 단계에서, 학습 장치로 하여금, 특정 아바타의 제k 트리거링 벡터에 대한 예측 제k 반응 벡터를 계산하고, 예측 제k 반응 벡터에 대응되는 예측 스트레스 레벨 감소율을 계산하며, 예측 제k 반응 벡터와 특정 제k 반응 벡터의 차이를 참조로 하여 결정되는 제k 반응 벡터 로스 및 예측 스트레스 레벨 감소율과 특정 아바타 스트레스 레벨 감소율의 차이를 참조로 하여 결정되는 스트레스 레벨 감소율 로스 중 적어도 일부를 사용하여 백프로퍼게이션을 수행할 수 있다. 백프로퍼게이션을 수행하는 과정은 반복될 수 있으며, 백프로퍼게이션을 반복함으로써 학습 장치가 예측 반응 벡터 및 예측 스트레스 레벨 감소율을 더 정확하게 산출할 수 있을 것이다.Thereafter, in step S503, the learning device calculates a predicted k-th reaction vector for the k-th triggering vector of a specific avatar, calculates a predicted stress level reduction rate corresponding to the predicted k-th reaction vector, and calculates a predicted k-th reaction vector. Backproper using at least a portion of the k-th reaction vector loss determined with reference to the difference between the k-th reaction vector and the stress level reduction rate loss determined with reference to the difference between the predicted stress level reduction rate and the specific avatar stress level reduction rate Gating can be performed. The process of performing backpropagation can be repeated, and by repeating backpropagation, the learning device will be able to more accurately calculate the predicted response vector and predicted stress level reduction rate.

또한, 이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magnetooptical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Additionally, the embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. A computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on a computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. , and hardware devices specifically configured to store and perform program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform processing according to the invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described with specific details such as specific components and limited embodiments and drawings, but this is only provided to facilitate a more general understanding of the present invention, and the present invention is not limited to the embodiments. Anyone skilled in the art to which the present invention pertains can make various modifications and variations from this description.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and the scope of the patent claims described below as well as all modifications equivalent to or equivalent to the scope of the claims fall within the scope of the spirit of the present invention. something to do.

Claims (16)

메타버스 내의 아바타 간의 인터랙션을 참조하여 특정 아바타에 대응되는 특정 사용자의 상태를 분석하고 서비스를 제공하는 방법에 있어서,
(a) 컴퓨팅 장치가, 제1 메타데이터 트리거링 아바타 그룹 내지 제n 메타데이터 트리거링 아바타 그룹 중 적어도 일부에 대응되는 적어도 하나의 트리거링 아바타로 하여금, 상기 특정 아바타 및 타 아바타 중 적어도 일부에게 제1 트리거링 벡터 내지 제m 트리거링 벡터를 각각 입력하도록 하여, (i) 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터에 대하여 상기 특정 아바타 및 상기 타 아바타가 반응한 벡터에 해당되는 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부 및 (ii) 상기 제1 반응 벡터 세트 내지 상기 제m 반응 벡터 세트 중 적어도 일부를 참조로 하여 결정된 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부를 데이터베이스에 기록하는 단계; 및
(b) 상기 컴퓨팅 장치가, 상기 특정 아바타에게 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터 중 적어도 일부를 제공하고, 이에 대하여 상기 특정 아바타가 반응한 벡터에 해당되는 특정 제1 반응 벡터 내지 특정 제m 반응 벡터 중 적어도 일부를 획득하고, 상기 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 비교하여, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 상기 데이터베이스에 기록하는 단계;
를 포함하는, 방법.
In a method of analyzing the status of a specific user corresponding to a specific avatar and providing a service by referring to the interaction between avatars in the metaverse,
(a) The computing device causes at least one triggering avatar corresponding to at least some of the first metadata triggering avatar group to the nth metadata triggering avatar group to send a first triggering vector to at least some of the specific avatar and other avatars. By inputting the through mth triggering vectors, respectively, (i) a set of first through mth reaction vectors corresponding to vectors in which the specific avatar and the other avatar reacted to the first through mth triggering vectors; Recording at least a portion of the vector set and (ii) at least a portion of the first normal response vector range to the mth normal response vector range determined with reference to at least a portion of the first to mth response vector sets in the database. steps; and
(b) The computing device provides at least a portion of the first triggering vector to the mth triggering vector to the specific avatar, and a specific first response vector to a specific first response vector corresponding to the vector to which the specific avatar reacts. Obtaining at least a portion of the m response vectors, and comparing at least a portion of the first normal response vector range to the mth normal response vector range with at least a portion of the specific first response vector to the specific mth response vector, Obtaining at least a portion of the first to mth reaction vector gaps and recording them in the database;
Method, including.
제1항에 있어서,
각각의 벡터는, (i) 각각의 벡터를 표출하는 주체 - 상기 주체는 상기 특정 아바타, 상기 트리거링 아바타 및 상기 타 아바타에 포함되는 임의의 아바타임 - 의 표정에 대응되는 표정 벡터 데이터 - 상기 표정 벡터 데이터는 제1 감정 카테고리 내지 제p 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제p 표정 컴포넌트를 성분으로 가짐 - 및 (ii) 상기 주체의 행동에 대응되는 행동 벡터 데이터 - 상기 행동 벡터 데이터는 상기 제1 감정 카테고리 내 상기 제p 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제p 행동 컴포넌트를 성분으로 가짐 - 을 각각 포함하여 기록되는, 방법.
According to paragraph 1,
Each vector is: (i) expression vector data corresponding to the expression of the subject expressing each vector - the subject is an arbitrary avatar included in the specific avatar, the triggering avatar, and the other avatar - the expression vector The data has as components a first to a p-th facial expression component to represent each of the first to p-th emotional categories - and (ii) action vector data corresponding to the subject's behavior - the action vector data is The method is recorded to include, respectively, a first behavioral component to a p-th behavioral component for representing each of the p-th emotional categories within the first emotional category.
제1항에 있어서,
상기 컴퓨팅 장치는 학습 장치를 포함하고,
상기 (b) 단계를 수행하기 전에,
(b0) 상기 컴퓨팅 장치가, 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터 중 적어도 일부에 대하여 상기 특정 아바타가 반응할 것으로 예측되는 제1 예측 반응 벡터 내지 제m 예측 반응 벡터를 산출하는 단계를 더 포함하고,
상기 (b) 단계에서,
상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터가 획득되면, 상기 컴퓨팅 장치가, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터와, 상기 제1 예측 반응 벡터 내지 상기 제m 예측 반응 벡터를 비교하여, 상기 특정 아바타에 대해 제1 반응 로스 내지 제m 반응 로스를 획득하고, 상기 제1 반응 로스 내지 상기 제m 반응 로스를 사용하여 백프로퍼게이션을 수행하는 것을 특징으로 하는, 방법.
According to paragraph 1,
The computing device includes a learning device,
Before performing step (b) above,
(b0) calculating, by the computing device, a first to mth predicted response vector in which the specific avatar is predicted to react to at least some of the first to the mth triggering vectors. Contains,
In step (b) above,
When the specific first response vector to the specific m-th reaction vector is obtained, the computing device, the specific first response vector to the specific m-th response vector, and the first predicted response vector to the m-th predicted response vector. By comparing , the first to mth reaction losses are obtained for the specific avatar, and backpropagation is performed using the first to mth reaction losses.
제1항에 있어서,
상기 (b) 단계에서,
상기 컴퓨팅 장치가, 상기 트리거링 아바타로 하여금 상기 특정 아바타에게 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터를 입력하도록 할 때, 각각의 트리거링 벡터에 대해 상기 특정 사용자의 특정 사용자 생체 데이터, 상기 특정 사용자를 촬영한 특정 사용자 영상 데이터 및 상기 특정 사용자의 반응을 녹음한 특정 사용자 음성 데이터 중 적어도 일부를 각각 획득하고,
상기 특정 사용자 생체 데이터, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부를 각각 참조하여 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 조정함으로써, 특정 조정 제1 반응 벡터 내지 특정 조정 제m 반응 벡터 중 적어도 일부를 결정하며,
상기 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 조정 제1 반응 벡터 내지 상기 특정 조정 제m 반응 벡터 중 적어도 일부를 비교하여, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 상기 데이터베이스에 기록하는 것을 특징으로 하는, 방법.
According to paragraph 1,
In step (b) above,
When the computing device causes the triggering avatar to input the first to the mth triggering vectors to the specific avatar, it collects specific user biometric data of the specific user and the specific user for each triggering vector. Obtaining at least some of the captured specific user video data and the specific user voice data recording the specific user's reaction, respectively,
By adjusting at least some of the specific first response vector to the specific mth response vector with reference to at least some of the specific user biometric data, the specific user video data, and the specific user voice data, respectively, a specific adjusted first response vector to determine at least some of the specific coordination m reaction vectors,
By comparing at least a portion of the first normal response vector range to the mth normal response vector range with at least a portion of the specific adjusted first response vector to the specific adjusted mth response vector, the first response vector gap to the Method, characterized in that obtaining at least some of the m response vector gaps and recording them in the database.
제4항에 있어서,
상기 컴퓨팅 장치가, 상기 특정 아바타로부터 특정 아바타 생태순간평가(EMA, ecological momentary assessment) 및 특정 아바타 디지털 피노타입(digital phenotype)을 추가로 획득하고, 상기 특정 사용자로부터 특정 사용자 생태순간평가 및 특정 사용자 디지털 피노타입을 추가로 획득한 상태에서,
상기 (b) 단계 이전에,
(b1) 상기 컴퓨팅 장치가, (i) 상기 특정 사용자 생태순간평가, 상기 특정 사용자 디지털 피노타입, 상기 특정 사용자 생체 데이터, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부와, (ii) 상기 특정 아바타 생태순간평가, 상기 특정 아바타 디지털 피노타입 중 적어도 일부를 참조하여, 상기 특정 사용자와 상기 특정 아바타의 모드 일치율을 획득하는 단계를 더 포함하고,
상기 (b) 단계에서,
상기 모드 일치율을 참조로 하여, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부의 가중치를 조정하여 상기 특정 조정 제1 반응 벡터 내지 상기 특정 조정 제m 반응 벡터를 결정하는 것을 특징으로 하는, 방법.
According to paragraph 4,
The computing device further acquires a specific avatar ecological momentary assessment (EMA) and a specific avatar digital phenotype from the specific avatar, and obtains a specific user ecological momentary assessment (EMA) and a specific user digital phenotype from the specific user. With additional Pinotypes acquired,
Before step (b) above,
(b1) the computing device, (i) at least some of the specific user ecological instantaneous assessment, the specific user digital pinotype, the specific user biometric data, the specific user video data, and the specific user voice data, and (ii) Referring to at least some of the specific avatar ecological instantaneous evaluation and the specific avatar digital phenotype, it further includes obtaining a mode matching rate between the specific user and the specific avatar,
In step (b) above,
Characterized in that, with reference to the mode coincidence rate, the weight of at least some of the specific user video data and the specific user voice data is adjusted to determine the specific adjusted first response vector to the specific adjusted mth response vector, method.
제1항에 있어서,
상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 각각에 대응되는 제1 가상 전문가 모듈 내지 제m 가상 전문가 모듈 - 상기 제1 가상 전문가 모듈 내지 상기 제m 가상 전문가 모듈 각각은, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 각각에 대응되는 상담 컨텐츠를 제공하도록 구성됨 - 각각이 매칭되어 상기 데이터베이스에 기록된 상태에서,
상기 (b) 단계 이후에,
(c) 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 중 제k 반응 벡터 갭이 제1 임계치를 초과하면, 상기 컴퓨팅 장치가, 상기 제1 가상 전문가 모듈 내지 상기 제m 가상 전문가 모듈 중 상기 제k 반응 벡터 갭에 대응되는 제k 가상 전문가 모듈로 하여금, 상기 특정 아바타에게 상기 제k 반응 벡터 갭에 대응되는 제k 상담 컨텐츠를 제공하고, 상기 특정 아바타가 상기 제k 상담 컨텐츠에 대한 만족도를 입력한 제k 특정 아바타 만족도를 상기 데이터베이스에 기록하는 단계;를 더 포함하는, 방법.
According to paragraph 1,
A first virtual expert module to an m-th virtual expert module corresponding to each of the first response vector gap to the m-th response vector gap - each of the first virtual expert module to the m-th virtual expert module has the first response vector. Configured to provide counseling content corresponding to each gap to the mth response vector gap - with each being matched and recorded in the database,
After step (b) above,
(c) When the kth response vector gap of the first to the mth reaction vector gaps exceeds a first threshold, the computing device, among the first to the mth virtual expert modules, The k-th virtual expert module corresponding to the k-th response vector gap provides the k-th consultation content corresponding to the k-th response vector gap to the specific avatar, and determines the satisfaction of the specific avatar with the k-th consultation content. The method further comprising: recording the input kth specific avatar satisfaction in the database.
제6항에 있어서,
상기 (b) 단계 이전에,
(b2) 상기 컴퓨팅 장치가, 상기 타 아바타 중 상기 특정 아바타와의 유사도가 제2 임계치보다 높은 유사도를 가지는 소정의 타 아바타를 적어도 하나의 유사 아바타로 결정하는 단계;
(b3) 상기 컴퓨팅 장치가, 상기 데이터베이스로부터 상기 유사 아바타에 대응되어 기록되어 있는 제1 유사 아바타 반응 벡터 갭 내지 제m 유사 아바타 반응 벡터 갭 중에서 제k 유사 아바타 반응 벡터 갭이 제3 임계치를 초과하는 소정 유사 아바타에 대한 정보를 획득하는 단계; 및
(b4) 상기 컴퓨팅 장치가, 상기 특정 아바타에게 상기 소정 유사 아바타에게 제공되었던 제k 유사 아바타 상담 컨텐츠를 제공하고, 상기 소정 유사 아바타가 상기 제k 유사 아바타 상담 컨텐츠에 대한 만족도를 입력한 제k 유사 아바타 만족도를 제공하는 단계;를 더 포함하는, 방법.
According to clause 6,
Before step (b) above,
(b2) determining, by the computing device, a predetermined other avatar whose similarity to the specific avatar among the other avatars is higher than a second threshold as at least one similar avatar;
(b3) the computing device determines that the kth similar avatar reaction vector gap among the first similar avatar reaction vector gaps to the mth similar avatar reaction vector gaps recorded in the database corresponding to the similar avatar exceeds a third threshold. Obtaining information about a predetermined similar avatar; and
(b4) the computing device provides the k-th similar avatar counseling content that was provided to the predetermined similar avatar to the specific avatar, and the k-th similar avatar inputs satisfaction with the k-th similar avatar counseling content; A method further comprising providing avatar satisfaction.
제6항에 있어서,
상기 (b) 단계에서,
상기 컴퓨팅 장치가, 상기 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부를 상기 데이터베이스로부터 추출하고, 상기 특정 제1 반응 벡터로부터 상기 특정 제1 반응 벡터의 시퀀스인 제1_1 특정 반응 벡터 시퀀스 내지 제1_z 특정 반응 벡터 시퀀스 중 적어도 일부를 추출하며,
상기 (c) 단계에서,
상기 컴퓨팅 장치가, 상기 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부와, 상기 제1_1 특정 반응 벡터 시퀀스 내지 상기 제1_z 특정 벡터 이벤트 시퀀스 중 적어도 일부를 비교하여, 제1 벡터 시퀀스 갭 내지 제z 벡터 시퀀스 갭을 획득하고, 상기 가상 전문가 모듈에게 상기 제1 벡터 시퀀스 갭 내지 상기 제z 벡터 시퀀스 갭을 전달하여, 상기 가상 전문가 모듈이 상기 제k 상담 컨텐츠를 조정하도록 지원하는, 방법.
According to clause 6,
In step (b) above,
The computing device extracts at least a portion of a 1_1 reaction vector sequence set to a 1_z reaction vector sequence set included in the first reaction vector set from the database, and extracts the specific first reaction vector from the specific first reaction vector. Extracting at least a portion of the 1_1 specific reaction vector sequence to the 1_z specific reaction vector sequence, which is a sequence of,
In step (c) above,
The computing device, at least a portion of the 1_1 reaction vector sequence set to the 1_z reaction vector sequence set included in the first reaction vector set, and at least a portion of the 1_1 specific reaction vector sequence to the 1_z specific vector event sequence By comparing, obtain the first vector sequence gap to the z-th vector sequence gap, and transmit the first vector sequence gap to the z-th vector sequence gap to the virtual expert module, so that the virtual expert module provides the k-th consultation. Methods to help you moderate content.
메타버스 내의 아바타 간의 인터랙션을 참조하여 특정 아바타에 대응되는 특정 사용자의 상태를 분석하고 서비스를 제공하는 컴퓨팅 장치에 있어서,
인스트럭션들을 저장하는 적어도 하나의 메모리; 및
상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서;를 포함하고,
(I) 프로세서가, 제1 메타데이터 트리거링 아바타 그룹 내지 제n 메타데이터 트리거링 아바타 그룹 중 적어도 일부에 대응되는 적어도 하나의 트리거링 아바타로 하여금, 상기 특정 아바타 및 타 아바타 중 적어도 일부에게 제1 트리거링 벡터 내지 제m 트리거링 벡터를 각각 입력하도록 하여, (i) 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터에 대하여 상기 특정 아바타 및 상기 타 아바타가 반응한 벡터에 해당되는 제1 반응 벡터 세트 내지 제m 반응 벡터 세트 중 적어도 일부 및 (ii) 상기 제1 반응 벡터 세트 내지 상기 제m 반응 벡터 세트 중 적어도 일부를 참조로 하여 결정된 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부를 데이터베이스에 기록하는 프로세스; 및 (II) 상기 특정 아바타에게 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터 중 적어도 일부를 제공하고, 이에 대하여 상기 특정 아바타가 반응한 벡터에 해당되는 특정 제1 반응 벡터 내지 특정 제m 반응 벡터 중 적어도 일부를 획득하고, 상기 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 비교하여, 제1 반응 벡터 갭 내지 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 상기 데이터베이스에 기록하는 프로세스;를 수행하는, 컴퓨팅 장치.
A computing device that analyzes the status of a specific user corresponding to a specific avatar and provides services by referring to interactions between avatars in the metaverse,
at least one memory storing instructions; and
At least one processor configured to execute the instructions,
(I) The processor causes at least one triggering avatar corresponding to at least some of the first metadata triggering avatar group to the nth metadata triggering avatar group to send a first triggering vector to at least some of the specific avatar and other avatars. By inputting the mth triggering vector, respectively, (i) a set of first to mth reaction vectors corresponding to vectors in which the specific avatar and the other avatar reacted to the first to mth triggering vectors; at least a portion of the set and (ii) recording in a database at least a portion of the first normal response vector range to the mth normal response vector range determined with reference to at least a portion of the first to the mth response vector set. process; and (II) providing at least a portion of the first to the mth triggering vectors to the specific avatar, among the specific first to mth reaction vectors corresponding to vectors to which the specific avatar reacted. obtain at least a portion, and compare at least a portion of the first normal response vector range to the mth normal response vector range with at least a portion of the specific first response vector to the specific mth response vector to form a first response vector gap. A computing device that performs a process of obtaining at least some of the to mth response vector gaps and recording them in the database.
제9항에 있어서,
각각의 벡터는, (i) 각각의 벡터를 표출하는 주체 - 상기 주체는 상기 특정 아바타, 상기 트리거링 아바타 및 상기 타 아바타에 포함되는 임의의 아바타임 - 의 표정에 대응되는 표정 벡터 데이터 - 상기 표정 벡터 데이터는 제1 감정 카테고리 내지 제p 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제p 표정 컴포넌트를 성분으로 가짐 - 및 (ii) 상기 주체의 행동에 대응되는 행동 벡터 데이터 - 상기 행동 벡터 데이터는 상기 제1 감정 카테고리 내 상기 제p 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제p 행동 컴포넌트를 성분으로 가짐 - 을 각각 포함하여 기록되는, 컴퓨팅 장치.
According to clause 9,
Each vector is: (i) expression vector data corresponding to the expression of the subject expressing each vector - the subject is an arbitrary avatar included in the specific avatar, the triggering avatar, and the other avatar - the expression vector The data has as components a first to a p-th facial expression component to represent each of the first to p-th emotional categories - and (ii) action vector data corresponding to the subject's behavior - the action vector data is A computing device, each recorded including a first behavioral component to a p-th behavioral component for representing each of the p-th emotional categories within the first emotional category.
제9항에 있어서,
상기 컴퓨팅 장치는 학습 장치를 포함하고,
상기 (II) 프로세스를 수행하기 전에,
(II0) 상기 프로세서가, 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터 중 적어도 일부에 대하여 상기 특정 아바타가 반응할 것으로 예측되는 제1 예측 반응 벡터 내지 제m 예측 반응 벡터를 산출하는 프로세스를 더 수행하고,
상기 (II) 프로세스에서,
상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터가 획득되면, 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터와, 상기 제1 예측 반응 벡터 내지 상기 제m 예측 반응 벡터를 비교하여, 상기 특정 아바타에 대해 제1 반응 로스 내지 제m 반응 로스를 획득하고, 상기 제1 반응 로스 내지 상기 제m 반응 로스를 사용하여 백프로퍼게이션을 수행하는 것을 특징으로 하는, 컴퓨팅 장치.
According to clause 9,
The computing device includes a learning device,
Before carrying out process (II) above,
(II0) The processor further performs a process of calculating first to mth predicted response vectors in which the specific avatar is predicted to react to at least some of the first to mth triggering vectors. do,
In process (II) above,
When the specific first reaction vector to the specific m-th reaction vector is obtained, the specific first reaction vector to the m-th reaction vector is compared with the first predicted reaction vector to the m-th predicted reaction vector, A computing device, characterized in that: obtaining first to mth reaction losses for a specific avatar, and performing backpropagation using the first to mth reaction losses.
제9항에 있어서,
상기 (II) 프로세스에서,
상기 프로세서가, 상기 트리거링 아바타로 하여금 상기 특정 아바타에게 상기 제1 트리거링 벡터 내지 상기 제m 트리거링 벡터를 입력하도록 할 때, 각각의 트리거링 벡터에 대해 상기 특정 사용자의 특정 사용자 생체 데이터, 상기 특정 사용자를 촬영한 특정 사용자 영상 데이터 및 상기 특정 사용자의 반응을 녹음한 특정 사용자 음성 데이터 중 적어도 일부를 각각 획득하고,
상기 특정 사용자 생체 데이터, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부를 각각 참조하여 상기 특정 제1 반응 벡터 내지 상기 특정 제m 반응 벡터 중 적어도 일부를 조정함으로써, 특정 조정 제1 반응 벡터 내지 특정 조정 제m 반응 벡터 중 적어도 일부를 결정하며,
상기 제1 정상 반응 벡터 범위 내지 제m 정상 반응 벡터 범위 중 적어도 일부와, 상기 특정 조정 제1 반응 벡터 내지 상기 특정 조정 제m 반응 벡터 중 적어도 일부를 비교하여, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 중 적어도 일부를 획득하고 이를 상기 데이터베이스에 기록하는 것을 특징으로 하는, 컴퓨팅 장치.
According to clause 9,
In process (II) above,
When the processor causes the triggering avatar to input the first to mth triggering vectors to the specific avatar, the processor captures the specific user's biometric data and the specific user for each triggering vector. Obtaining at least a portion of video data for a specific user and voice data for a specific user recording a reaction of the specific user,
By adjusting at least some of the specific first response vector to the specific mth response vector with reference to at least some of the specific user biometric data, the specific user video data, and the specific user voice data, respectively, a specific adjusted first response vector to determine at least some of the specific coordination m reaction vectors,
By comparing at least a portion of the first normal response vector range to the mth normal response vector range with at least a portion of the specific adjusted first response vector to the specific adjusted mth response vector, the first response vector gap to the Computing device, characterized in that obtaining at least some of the m response vector gaps and recording them in the database.
제12항에 있어서,
상기 프로세서가, 상기 특정 아바타로부터 특정 아바타 생태순간평가(EMA, ecological momentary assessment) 및 특정 아바타 디지털 피노타입(digital phenotype)을 추가로 획득하고, 상기 특정 사용자로부터 특정 사용자 생태순간평가 및 특정 사용자 디지털 피노타입을 추가로 획득한 상태에서,
상기 (II) 프로세스 이전에,
(II1) (i) 상기 특정 사용자 생태순간평가, 상기 특정 사용자 디지털 피노타입, 상기 특정 사용자 생체 데이터, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부와, (ii) 상기 특정 아바타 생태순간평가, 상기 특정 아바타 디지털 피노타입 중 적어도 일부를 참조하여, 상기 특정 사용자와 상기 특정 아바타의 모드 일치율을 획득하는 프로세스를 더 수행하고,
상기 (II) 프로세스에서,
상기 모드 일치율을 참조로 하여, 상기 특정 사용자 영상 데이터 및 상기 특정 사용자 음성 데이터 중 적어도 일부의 가중치를 조정하여 상기 특정 조정 제1 반응 벡터 내지 상기 특정 조정 제m 반응 벡터를 결정하는 것을 특징으로 하는, 컴퓨팅 장치.
According to clause 12,
The processor further acquires a specific avatar ecological momentary assessment (EMA) and a specific avatar digital phenotype from the specific avatar, and obtains a specific user ecological momentary assessment (EMA) and a specific user digital phenotype from the specific user. With additional types acquired,
Prior to process (II) above,
(II1) (i) at least a portion of the specific user eco-moment assessment, the specific user digital phenotype, the specific user biometric data, the specific user video data, and the specific user voice data, and (ii) the specific avatar eco-moment Further performing an evaluation process of obtaining a mode matching rate between the specific user and the specific avatar by referring to at least some of the specific avatar digital phenotype,
In process (II) above,
Characterized in that, with reference to the mode coincidence rate, the weight of at least some of the specific user video data and the specific user voice data is adjusted to determine the specific adjusted first response vector to the specific adjusted mth response vector, Computing device.
제9항에 있어서,
상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 각각에 대응되는 제1 가상 전문가 모듈 내지 제m 가상 전문가 모듈 - 상기 제1 가상 전문가 모듈 내지 상기 제m 가상 전문가 모듈 각각은, 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 각각에 대응되는 상담 컨텐츠를 제공하도록 구성됨 - 각각이 매칭되어 상기 데이터베이스에 기록된 상태에서,
상기 (II) 프로세스 이후에,
(III) 상기 제1 반응 벡터 갭 내지 상기 제m 반응 벡터 갭 중 제k 반응 벡터 갭이 제1 임계치를 초과하면, 상기 제1 가상 전문가 모듈 내지 상기 제m 가상 전문가 모듈 중 상기 제k 반응 벡터 갭에 대응되는 제k 가상 전문가 모듈로 하여금, 상기 특정 아바타에게 상기 제k 반응 벡터 갭에 대응되는 제k 상담 컨텐츠를 제공하고, 상기 특정 아바타가 상기 제k 상담 컨텐츠에 대한 만족도를 입력한 제k 특정 아바타 만족도를 상기 데이터베이스에 기록하는 프로세스;를 더 수행하는, 컴퓨팅 장치.
According to clause 9,
A first virtual expert module to an m-th virtual expert module corresponding to each of the first response vector gap to the m-th response vector gap - each of the first virtual expert module to the m-th virtual expert module has the first response vector. Configured to provide counseling content corresponding to each gap to the mth response vector gap - with each being matched and recorded in the database,
After process (II) above,
(III) If the k-th reaction vector gap among the first response vector gap to the m-th response vector gap exceeds a first threshold, the k-th response vector gap among the first virtual expert module to the m-th virtual expert module The kth virtual expert module corresponding to provides the kth consultation content corresponding to the kth response vector gap to the specific avatar, and the kth specific avatar inputs satisfaction with the kth consultation content. A computing device further performing a process of recording avatar satisfaction in the database.
제14항에 있어서,
상기 (II) 프로세스 이전에,
(II2) 상기 타 아바타 중 상기 특정 아바타와의 유사도가 제2 임계치보다 높은 유사도를 가지는 소정의 타 아바타를 적어도 하나의 유사 아바타로 결정하는 프로세스;
(II3) 상기 데이터베이스로부터 상기 유사 아바타에 대응되어 기록되어 있는 제1 유사 아바타 반응 벡터 갭 내지 제m 유사 아바타 반응 벡터 갭 중에서 제k 유사 아바타 반응 벡터 갭이 제3 임계치를 초과하는 소정 유사 아바타에 대한 정보를 획득하는 프로세스; 및
(II4) 상기 특정 아바타에게 상기 소정 유사 아바타에게 제공되었던 제k 유사 아바타 상담 컨텐츠를 제공하고, 상기 소정 유사 아바타가 상기 제k 유사 아바타 상담 컨텐츠에 대한 만족도를 입력한 제k 유사 아바타 만족도를 제공하는 프로세스;를 더 수행하는, 컴퓨팅 장치.
According to clause 14,
Prior to process (II) above,
(II2) a process of determining, among the other avatars, a predetermined other avatar whose similarity with the specific avatar is higher than a second threshold as at least one similar avatar;
(II3) for a predetermined similar avatar whose kth similar avatar response vector gap exceeds the third threshold among the first to mth similar avatar response vector gaps recorded in correspondence with the similar avatar from the database; The process of obtaining information; and
(II4) Providing to the specific avatar the k-th similar avatar counseling content that was provided to the predetermined similar avatar, and providing satisfaction with the k-th similar avatar where the predetermined similar avatar inputs satisfaction with the k-th similar avatar counseling content. A computing device that further performs a process;
제14항에 있어서,
상기 (II) 프로세스에서,
상기 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부를 상기 데이터베이스로부터 추출하고, 상기 특정 제1 반응 벡터로부터 상기 특정 제1 반응 벡터의 시퀀스인 제1_1 특정 반응 벡터 시퀀스 내지 제1_z 특정 반응 벡터 시퀀스 중 적어도 일부를 추출하며,
상기 (III) 프로세스에서,
상기 제1 반응 벡터 세트에 포함된 제1_1 반응 벡터 시퀀스 세트 내지 제1_z 반응 벡터 시퀀스 세트 중 적어도 일부와, 상기 제1_1 특정 반응 벡터 시퀀스 내지 상기 제1_z 특정 벡터 이벤트 시퀀스 중 적어도 일부를 비교하여, 제1 벡터 시퀀스 갭 내지 제z 벡터 시퀀스 갭을 획득하고, 상기 가상 전문가 모듈에게 상기 제1 벡터 시퀀스 갭 내지 상기 제z 벡터 시퀀스 갭을 전달하여, 상기 가상 전문가 모듈이 상기 제k 상담 컨텐츠를 조정하도록 지원하는, 컴퓨팅 장치.
According to clause 14,
In process (II) above,
At least a portion of the 1_1 reaction vector sequence set to the 1_z reaction vector sequence set included in the first reaction vector set is extracted from the database, and a 1_1 sequence of the specific first reaction vector is extracted from the specific first reaction vector. Extracting at least a portion of a specific reaction vector sequence or a 1_z specific reaction vector sequence,
In process (III) above,
By comparing at least a part of the 1_1 reaction vector sequence set to the 1_z reaction vector sequence set included in the first reaction vector set with at least a part of the 1_1 specific reaction vector sequence to the 1_z specific vector event sequence, Obtaining the 1st vector sequence gap to the zth vector sequence gap, and transmitting the first vector sequence gap to the zth vector sequence gap to the virtual expert module to support the virtual expert module to adjust the kth consultation content. A computing device that does.
KR1020230090830A 2023-07-13 2023-07-13 Method for analyzing status of specific user corresponding to specific avatar by referring to interactions between the specific avatar and other avatars in the metaverse world and providing service to the specific user and device using the same KR102610267B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230090830A KR102610267B1 (en) 2023-07-13 2023-07-13 Method for analyzing status of specific user corresponding to specific avatar by referring to interactions between the specific avatar and other avatars in the metaverse world and providing service to the specific user and device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230090830A KR102610267B1 (en) 2023-07-13 2023-07-13 Method for analyzing status of specific user corresponding to specific avatar by referring to interactions between the specific avatar and other avatars in the metaverse world and providing service to the specific user and device using the same

Publications (1)

Publication Number Publication Date
KR102610267B1 true KR102610267B1 (en) 2023-12-07

Family

ID=89163290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230090830A KR102610267B1 (en) 2023-07-13 2023-07-13 Method for analyzing status of specific user corresponding to specific avatar by referring to interactions between the specific avatar and other avatars in the metaverse world and providing service to the specific user and device using the same

Country Status (1)

Country Link
KR (1) KR102610267B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102415719B1 (en) * 2021-11-16 2022-07-04 주식회사 엠쓰리솔루션 Metaverse server for displaying avatar status information for virtual counseling envuronment
KR102438836B1 (en) * 2022-04-22 2022-08-31 김가영 Mental health care system using metaverse
KR20220125766A (en) 2021-03-05 2022-09-14 (주) 비비비 System and method for diagnosing and treating mental disorders in an untact manner
KR20220127471A (en) * 2021-03-11 2022-09-20 정선경 Device, Method and program for providing psychological counseling using VR

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220125766A (en) 2021-03-05 2022-09-14 (주) 비비비 System and method for diagnosing and treating mental disorders in an untact manner
KR20220127471A (en) * 2021-03-11 2022-09-20 정선경 Device, Method and program for providing psychological counseling using VR
KR102415719B1 (en) * 2021-11-16 2022-07-04 주식회사 엠쓰리솔루션 Metaverse server for displaying avatar status information for virtual counseling envuronment
KR102438836B1 (en) * 2022-04-22 2022-08-31 김가영 Mental health care system using metaverse

Similar Documents

Publication Publication Date Title
JP7208224B2 (en) Selection of Audio Features to Build a Model to Detect Medical Conditions
Garcia-Garcia et al. Multimodal affective computing to enhance the user experience of educational software applications
WO2021081649A1 (en) Method and system for an interface to provide activity recommendations
CN110383389A (en) Psychotherapy classification method
KR102533467B1 (en) Information provision method for diagnosing mood episode(depressive, manic) using analysis of voice activity
Yannakakis Preference learning for affective modeling
Bai et al. Predicting dominance in multi-person videos.
Trabelsi et al. The emotional machine: A machine learning approach to online prediction of user's emotion and intensity
Tayarani et al. What an “ehm” leaks about you: mapping fillers into personality traits with quantum evolutionary feature selection algorithms
KR102610267B1 (en) Method for analyzing status of specific user corresponding to specific avatar by referring to interactions between the specific avatar and other avatars in the metaverse world and providing service to the specific user and device using the same
KR102610262B1 (en) Method for providing counseling service to specific avatar of the specific real user in the metaverse world and device using the same
KR102610273B1 (en) Method for providing contents capable of allowing specific avatar of specific user to interact with a triggering avatar in the metaverse world and device using the same
CN112997166A (en) Method and system for neuropsychological performance testing
AU2022361223A1 (en) Mental health intervention using a virtual environment
WO2022018453A1 (en) Context aware assessment
Eeswar et al. Better you: Automated tool that evaluates mental health and provides guidance for university students
KR102578849B1 (en) Method for providing specific content to user to assess social cognitive abilities and computing device using the same
KR102648226B1 (en) Method for providing specific content to predict and reduce other persons' negative emotions and computing device using the same
KR102670492B1 (en) Method and apparatus for psychological counselingusing artificial intelligence
KR102648227B1 (en) Method for providing specific content to reduce user's negative emotions and computing device using the same
Sopov et al. Self-configuring ensemble of neural network classifiers for emotion recognition in the intelligent human-machine interaction
US20230197279A1 (en) Psychological state analysis method, psychological state analysis apparatus and program
US20240177523A1 (en) System and Methods of Predicting Personality and Morals through Facial Emotion Recognition
US20220040532A1 (en) Utilizing machine learning and cognitive state analysis to track user performance
US11900327B2 (en) Evaluation adjustment factoring for bias

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant