KR102648226B1 - Method for providing specific content to predict and reduce other persons' negative emotions and computing device using the same - Google Patents

Method for providing specific content to predict and reduce other persons' negative emotions and computing device using the same Download PDF

Info

Publication number
KR102648226B1
KR102648226B1 KR1020230073828A KR20230073828A KR102648226B1 KR 102648226 B1 KR102648226 B1 KR 102648226B1 KR 1020230073828 A KR1020230073828 A KR 1020230073828A KR 20230073828 A KR20230073828 A KR 20230073828A KR 102648226 B1 KR102648226 B1 KR 102648226B1
Authority
KR
South Korea
Prior art keywords
specific
user
emotion
vector data
level
Prior art date
Application number
KR1020230073828A
Other languages
Korean (ko)
Inventor
김태정
김재기
박하윤
Original Assignee
주식회사 메디마인드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디마인드 filed Critical 주식회사 메디마인드
Priority to KR1020230073828A priority Critical patent/KR102648226B1/en
Application granted granted Critical
Publication of KR102648226B1 publication Critical patent/KR102648226B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training

Abstract

상대방의 부정적 감정을 예측하여 줄이도록 하기 위한 특정 컨텐츠를 제공하는 방법에 있어서, (a) 컴퓨팅 장치가, 상기 특정 컨텐츠의 사전 설정 조건으로서 (i-1) 상기 사용자가 상기 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터 및 (i-2) 상기 특정 객체에 대한 특정 상태 데이터를 결정하고, 상기 특정 컨텐츠의 가변 설정 조건으로서 (ii-1) 상기 상대방의 표정에 대응되는 특정 표정 벡터 데이터 - 상기 특정 표정 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제n 표정 컴포넌트를 성분으로 가짐 - 및 (ii-2) 상기 상대방의 행동에 대응되는 특정 행동 벡터 데이터 - 상기 특정 행동 벡터 데이터는 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제n 행동 컴포넌트를 성분으로 가짐 - 중 적어도 일부를 상기 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 상기 사전 설정 조건으로서의 상기 특정 객체 데이터 및 상기 특정 상태 데이터와, 상기 가변 설정 조건으로서의 상기 특정 표정 벡터 데이터, 및 상기 특정 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 상기 특정 컨텐츠를 제공하는 단계; (b) 상기 특정 표정 벡터 데이터 및 상기 특정 행동 벡터 데이터가 제공되면, 상기 컴퓨팅 장치가, 상기 사용자로 하여금, 상기 특정 표정 벡터 데이터에 포함된 상기 제1 표정 컴포넌트 내지 상기 제n 표정 컴포넌트 중 기설정된 표정 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 상기 특정 행동 벡터 데이터에 포함된 상기 제1 행동 컴포넌트 내지 상기 제n 행동 컴포넌트 중 기설정된 행동 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행하는 단계; 및 (c) 상기 사용자에 의해 상기 제i 표정 컴포넌트에 대응되는 상기 제i 상대방 감정 카테고리의 존재 여부 및 상기 제j 행동 컴포넌트에 대응되는 상기 제j 상대방 감정 카테고리의 존재 여부가 예측된 상태에서, 상기 사용자에 의해 상기 제i 상대방 감정 카테고리에 대응되는 상기 상대방의 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 카테고리에 대응되는 상기 상대방의 제j 상대방 감정 레벨 중 적어도 일부의 감정 레벨의 크기를 조정하기 위한 특정 사용자 대응 행동이 입력되면, 상기 컴퓨팅 장치가, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제i 상대방 조정 감정 레벨 및 제j 상대방 조정 감정 레벨을 노출하는 단계;를 포함하는 방법 및 이를 이용한 컴퓨팅 장치가 개시된다.In the method of providing specific content to predict and reduce the negative emotions of the other person, (a) a computing device, as a preset condition for the specific content, (i-1) at least one of the user's appearances in the specific content. Determining specific object data for at least one specific object as an object for interaction with one other party and (i-2) specific state data for the specific object, and (ii-1) as a variable setting condition for the specific content Specific expression vector data corresponding to the other person's facial expression - The specific facial expression vector data has as components a first to nth facial expression component for representing each of the first to nth counterpart emotion categories - and ( ii-2) Specific behavior vector data corresponding to the other party's behavior - The specific behavior vector data includes a first to nth behavior component for representing each of the first to the nth counterpart's emotion category. - Determines at what timing of the specific content to expose at least some of the components, the specific object data and the specific state data as the preset conditions, the specific facial expression vector data as the variable setting conditions, and the specific providing the specific content with reference to at least some of the behavior vector data; (b) When the specific expression vector data and the specific action vector data are provided, the computing device causes the user to select a preset of the first to nth expression components included in the specific expression vector data. A process for predicting the presence or absence of an i-th other person's emotion category corresponding to at least one ith facial expression component corresponding to an expression threshold or higher, and the first to n-th behavior components included in the specific behavior vector data. performing a process to support predicting the presence or absence of a jth opponent's emotion category corresponding to at least one jth behavior component corresponding to a preset behavior threshold or higher; and (c) in a state in which the presence or absence of the i-th counterpart emotion category corresponding to the i-th facial expression component and the presence or absence of the j-th counterpart emotion category corresponding to the j behavior component are predicted by the user, For adjusting the size of the emotional level of at least some of the i-th emotional level of the other party corresponding to the i-th other-party emotion category and the j-th emotional level of the other party corresponding to the j-th counterpart emotional category by the user. When a specific user response action is input, the computing device generates an i-th partner adjusted emotion level, which is an emotional level adjusted to correspond to each of the i-th partner emotion level and the j-th partner emotion level with reference to the specific user response behavior. and exposing the jth counterpart's adjusted emotional level. A method and a computing device using the same are disclosed.

Description

상대방의 부정적 감정을 예측하여 줄이도록 하기 위한 특정 컨텐츠를 제공하는 방법 및 이를 이용한 컴퓨팅 장치{METHOD FOR PROVIDING SPECIFIC CONTENT TO PREDICT AND REDUCE OTHER PERSONS' NEGATIVE EMOTIONS AND COMPUTING DEVICE USING THE SAME}A method of providing specific content to predict and reduce the other person's negative emotions and a computing device using the same {METHOD FOR PROVIDING SPECIFIC CONTENT TO PREDICT AND REDUCE OTHER PERSONS' NEGATIVE EMOTIONS AND COMPUTING DEVICE USING THE SAME}

본 발명은 상대방의 부정적 감정을 예측하여 줄이도록 하기 위한 특정 컨텐츠를 제공하는 방법 및 이를 이용한 컴퓨팅 장치에 관한 것이다.The present invention relates to a method of providing specific content to predict and reduce the other person's negative emotions, and a computing device using the same.

사회인지능력이란 사회적 상호작용과 관련된 인지능력의 일부로서, 개인이 사회적 환경에서 다른 사람들과 상호작용하고 이해하는 능력을 말한다. 사회인지능력은 대화, 소통, 감정 인식, 상황 파악, 문제 해결, 및 협력 등을 포함하며, 사회적 규칙, 행동 양식, 문화적 차이 등을 이해하고 적절하게 대응하는 능력을 필요로 한다.Social cognitive ability is a part of cognitive ability related to social interaction and refers to the ability of an individual to interact with and understand other people in a social environment. Social cognitive abilities include conversation, communication, emotional recognition, situational awareness, problem solving, and cooperation, and require the ability to understand and respond appropriately to social rules, behavioral patterns, and cultural differences.

그러나, 평균 수명이 증가함에 따라 신체능력뿐만 아니라 인지기능에도 문제가 있는 노인이 증가하고 있으며, 사회인지능력이 떨어지는 노인들이 겪을 수 있는 문제는 사회적 고립과 의사소통의 어려움 등이 있을 수 있다. 이때, 사회적 고립은 사회적인 연결성의 감소로 인해 외로움과 우울감을 유발할 수 있으며, 의사소통의 어려움은 대화, 감정 표현, 상황 이해 등에 대한 어려움을 겪어 사회적인 활동에 제약을 받을 수 있다는 문제점이 있다.However, as the average lifespan increases, the number of elderly people with problems not only in physical ability but also in cognitive function is increasing, and problems that elderly people with poor social cognitive ability may experience include social isolation and communication difficulties. At this time, social isolation can cause loneliness and depression due to a decrease in social connectivity, and communication difficulties have the problem of limiting social activities due to difficulties in conversation, expressing emotions, and understanding situations.

따라서, 상기의 문제점을 해결하기 위한 개선 방안이 요구되는 실정이다.Therefore, an improvement plan to solve the above problems is required.

본 발명은 상술한 문제점을 모두 해결하는 것을 목적으로 한다.The present invention aims to solve all of the above-mentioned problems.

또한, 본 발명은 사전 설정 조건으로서의 특정 객체에 대한 특정 객체 데이터, 및 특정 상태 데이터와 가변 설정 조건으로서의 상대방에 대한 특정 표정 벡터 데이터, 및 특정 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 사용자에게 특정 컨텐츠를 제공하는 것을 목적으로 한다.In addition, the present invention refers to at least some of specific object data for a specific object as a preset condition, specific state data, specific facial expression vector data for the other person as a variable setting condition, and specific action vector data, and provides a specific data to the user. The purpose is to provide content.

또한, 본 발명은 컴퓨팅 장치가, 사용자로 하여금, 특정 표정 벡터 데이터에 포함된 제1 표정 컴포넌트 내지 제n 표정 컴포넌트 중 기설정된 표정 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 특정 행동 벡터 데이터에 포함된 제1 행동 컴포넌트 내지 제n 행동 컴포넌트 중 기설정된 행동 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행하는 것을 또 다른 목적으로 한다.In addition, the present invention allows a computing device to cause a user to use an i-th facial expression component corresponding to at least one i-th facial expression component corresponding to a preset expression threshold or higher among the first to n-th facial expression components included in specific facial expression vector data. The jth corresponding to at least one jth behavior component corresponding to a preset behavior threshold or higher among the first to nth behavior components included in the process and specific behavior vector data that support predicting the existence of the other person's emotional category. Another purpose is to perform a process that supports predicting the existence of the other person's emotion category.

또한, 본 발명은, 사용자에 의해 특정 사용자 대응 행동이 입력되면, 컴퓨팅 장치가, 특정 사용자 대응 행동을 참조로 하여 제i 상대방 감정 레벨 및 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제i 상대방 조정 감정 레벨 및 제j 상대방 조정 감정 레벨을 노출하는 것을 또 다른 목적으로 한다.In addition, the present invention provides that, when a specific user response action is input by a user, the computing device provides a first emotional level adjusted to correspond to each of the ith opponent's emotional level and the jth opponent's emotional level with reference to the specific user responsive action. Another purpose is to expose the i counterpart's adjusted emotion level and the j's counterpart's adjusted emotion level.

상기한 바와 같이 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한, 본 발명의 특징적인 구성은 하기와 같다.In order to achieve the purpose of the present invention as described above and realize the characteristic effects of the present invention described later, the characteristic configuration of the present invention is as follows.

본 발명의 일태양에 따르면, 상대방의 부정적 감정을 예측하여 줄이도록 하기 위한 특정 컨텐츠를 제공하는 방법에 있어서, (a) 컴퓨팅 장치가, 상기 특정 컨텐츠의 사전 설정 조건으로서 (i-1) 상기 사용자가 상기 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터 및 (i-2) 상기 특정 객체에 대한 특정 상태 데이터를 결정하고, 상기 특정 컨텐츠의 가변 설정 조건으로서 (ii-1) 상기 상대방의 표정에 대응되는 특정 표정 벡터 데이터 - 상기 특정 표정 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제n 표정 컴포넌트를 성분으로 가짐 - 및 (ii-2) 상기 상대방의 행동에 대응되는 특정 행동 벡터 데이터 - 상기 특정 행동 벡터 데이터는 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제n 행동 컴포넌트를 성분으로 가짐 - 중 적어도 일부를 상기 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 상기 사전 설정 조건으로서의 상기 특정 객체 데이터 및 상기 특정 상태 데이터와, 상기 가변 설정 조건으로서의 상기 특정 표정 벡터 데이터, 및 상기 특정 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 상기 특정 컨텐츠를 제공하는 단계; (b) 상기 특정 표정 벡터 데이터 및 상기 특정 행동 벡터 데이터가 제공되면, 상기 컴퓨팅 장치가, 상기 사용자로 하여금, 상기 특정 표정 벡터 데이터에 포함된 상기 제1 표정 컴포넌트 내지 상기 제n 표정 컴포넌트 중 기설정된 표정 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 상기 특정 행동 벡터 데이터에 포함된 상기 제1 행동 컴포넌트 내지 상기 제n 행동 컴포넌트 중 기설정된 행동 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행하는 단계; 및 (c) 상기 사용자에 의해 상기 제i 표정 컴포넌트에 대응되는 상기 제i 상대방 감정 카테고리의 존재 여부 및 상기 제j 행동 컴포넌트에 대응되는 상기 제j 상대방 감정 카테고리의 존재 여부가 예측된 상태에서, 상기 사용자에 의해 상기 제i 상대방 감정 카테고리에 대응되는 상기 상대방의 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 카테고리에 대응되는 상기 상대방의 제j 상대방 감정 레벨 중 적어도 일부의 감정 레벨의 크기를 조정하기 위한 특정 사용자 대응 행동이 입력되면, 상기 컴퓨팅 장치가, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제i 상대방 조정 감정 레벨 및 제j 상대방 조정 감정 레벨을 노출하는 단계;를 포함하는 방법이 개시된다.According to one aspect of the present invention, in the method of providing specific content to predict and reduce the negative emotions of the other person, (a) a computing device sets the specific content as a preset condition for (i-1) the user. determines specific object data for at least one specific object as an object for interaction with at least one other party appearing in the specific content and (i-2) specific state data for the specific object, and determines the variable of the specific content As a setting condition, (ii-1) specific expression vector data corresponding to the other person's facial expression - the specific facial expression vector data is a first to nth facial expression component for representing each of the first to nth counterpart's emotion categories. Having a component as an element - and (ii-2) specific behavior vector data corresponding to the other party's behavior - the specific behavior vector data is a first for representing each of the first counterpart's emotion category to the nth counterpart's emotion category. Having a behavior component to an n-th behavior component as components - determining at what timing of the specific content to expose at least some of the specific object data and the specific state data as the preset conditions, and the variable setting conditions as the specific object data and the specific state data providing the specific content with reference to at least some of the specific facial expression vector data and the specific behavior vector data; (b) When the specific expression vector data and the specific action vector data are provided, the computing device causes the user to select a preset of the first to nth expression components included in the specific expression vector data. A process for predicting the presence or absence of an i-th other person's emotion category corresponding to at least one ith facial expression component corresponding to an expression threshold or higher, and the first to n-th behavior components included in the specific behavior vector data. performing a process to support predicting the presence or absence of a jth opponent's emotion category corresponding to at least one jth behavior component corresponding to a preset behavior threshold or higher; and (c) in a state in which the presence or absence of the i-th counterpart emotion category corresponding to the i-th facial expression component and the presence or absence of the j-th counterpart emotion category corresponding to the j behavior component are predicted by the user, For adjusting the size of the emotional level of at least some of the i-th emotional level of the other party corresponding to the i-th other-party emotion category and the j-th emotional level of the other party corresponding to the j-th counterpart emotional category by the user. When a specific user response action is input, the computing device generates an i-th partner adjusted emotion level, which is an emotional level adjusted to correspond to each of the i-th partner emotion level and the j-th partner emotion level with reference to the specific user response behavior. and exposing the jth counterpart's adjusted emotional level.

일례로서, (d) 상기 컴퓨팅 장치가, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨을 노출한 상태에서, 상기 특정 사용자 대응 행동으로 인해 사용자 감정 벡터 데이터 - 상기 사용자 감정 벡터 데이터는 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 각각에 대한 제1 사용자 감정 레벨 내지 제n 사용자 감정 레벨을 나타냄 - 중 적어도 일부인 제m 사용자 감정 카테고리에 대한 제m 사용자 감정 레벨이 기설정된 변동 임계치 이상 변화된 것으로 감지되면, 상기 제m 사용자 감정 카테고리 및 이에 대응되는 변동 정보를 기록하는 단계를 더 포함하는 것을 특징으로 하는 방법이 개시된다.As an example, (d) the computing device, the ith counterpart adjusted emotion level, which is an emotional level adjusted to correspond to each of the ith counterpart emotion level and the jth counterpart emotion level with reference to the specific user response behavior, and In a state in which the jth counterpart's adjusted emotion level is exposed, user emotion vector data due to the specific user response action - the user emotion vector data is the first user emotion level for each of the first user emotion category to the nth user emotion category Indicates to the nth user emotion level - when it is detected that the mth user emotion level for the mth user emotion category, which is at least part of the mth user emotion level, has changed more than a preset change threshold, the mth user emotion category and the corresponding change information are recorded. A method is disclosed, characterized in that it further comprises the step:

일례로서, 상기 제m 사용자 감정 카테고리가 상기 기설정된 변동 임계치 이상 변화된 것으로 감지되면, 상기 컴퓨팅 장치가, 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 중 상기 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제a 상대방 감정 카테고리를 나타내기 위한 제a 표정 컴포넌트의 표정 레벨의 크기를 기설정된 표정 벡터 크기인 제1 크기만큼 증가시켜 상기 사용자에게 노출하는 프로세스 및 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 중 상기 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제b 상대방 감정 카테고리를 나타내기 위한 제b 행동 컴포넌트의 행동 레벨의 크기를 기설정된 행동 벡터 크기인 제2 크기만큼 증가시켜 상기 사용자에게 노출하는 프로세스 중 적어도 일부의 프로세스를 수행함으로써 상기 사용자의 상기 기설정된 변동 임계치 이상 변화된 상기 제m 사용자 감정 카테고리에 대한 상기 제m 사용자 감정 레벨을 상기 기설정된 변동 임계치 미만으로 낮추기 위한 보상 컨텐츠를 추가적으로 제공하는 것을 특징으로 하는 방법이 개시된다.As an example, when it is detected that the mth user emotion category has changed by more than the preset change threshold, the computing device selects an emotion category corresponding to the other party's positive emotion among the first counterpart emotion category and the nth counterpart emotion category. A process of increasing the size of the expression level of the a-th facial expression component for representing the a-th emotional category, which is at least part of the n Increase the size of the action level of the b action component for representing the b other person emotion category, which is at least some of the emotion categories corresponding to the other person's positive emotions, by the second size, which is the size of the preset action vector. Compensation content for lowering the mth user emotion level for the mth user emotion category that has changed more than the preset change threshold of the user to less than the preset change threshold by performing at least some of the processes exposed to the user. A method characterized by additionally being provided is disclosed.

일례로서, 상기 컴퓨팅 장치가, (i) 상기 사용자에 대한 정보 및 상기 사용자와 기설정된 임계치 이상의 유사도를 가지는 적어도 하나의 타 사용자에 대한 정보, (ii) 상기 특정 표정 벡터 데이터 및 이에 대응되는 상기 타 사용자에게 노출되었던 타 표정 벡터 데이터, (iii) 상기 특정 행동 벡터 데이터 및 이에 대응되는 상기 타 사용자에게 노출되었던 타 행동 벡터 데이터, 및 (iv) 상기 특정 사용자 대응 행동, 상기 타 사용자에 의해 입력되었던 타 사용자 대응 행동 및 이에 대응되는 특정 사용자 정답 대응 행동과 타 사용자 정답 대응 행동 중 적어도 일부를 학습 장치에 입력하여, 상기 학습 장치로 하여금, 상기 사용자 및 상기 타 사용자의 상기 특정 사용자 대응 행동 및 상기 타 사용자 대응 행동 중 적어도 일부의 정확도를 높이기 위한, 최적의 특정 표정 벡터 데이터, 최적의 타 표정 벡터 데이터, 최적의 특정 행동 벡터 데이터 및 최적의 타 행동 벡터 데이터 중 적어도 일부를 학습하도록 하는 것을 특징으로 하는 방법이 개시된다.As an example, the computing device may include: (i) information about the user and information about at least one other user having a similarity to the user greater than a preset threshold, (ii) the specific facial expression vector data and the other user corresponding thereto. other facial expression vector data that was exposed to the user, (iii) the specific action vector data and other action vector data corresponding thereto that was exposed to the other user, and (iv) the specific user corresponding action, the other action vector data that was input by the other user. At least some of the user response behavior and the corresponding specific user correct response behavior and the other user's correct response response behavior are input to the learning device to cause the learning device to: A method characterized by learning at least some of optimal specific expression vector data, optimal other expression vector data, optimal specific action vector data, and optimal other action vector data to increase the accuracy of at least some of the corresponding actions. This begins.

일례로서, 상기 (a) 단계에서, 상기 컴퓨팅 장치가, 상기 특정 컨텐츠의 상기 가변 설정 조건으로서 (ii-3) 상기 상대방의 발화에 대응되는 특정 언어 벡터 데이터 - 상기 특정 언어 벡터 데이터는 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 언어 컴포넌트 내지 제n 언어 컴포넌트를 성분으로 가짐 - 를 추가적으로 상기 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 상기 가변 설정 조건으로서의 상기 특정 언어 벡터 데이터를 추가적으로 참조하여 상기 특정 컨텐츠를 제공하고, 상기 (b) 단계에서, 상기 특정 언어 벡터 데이터가 추가적으로 제공되면, 상기 컴퓨팅 장치가, 상기 사용자로 하여금, 상기 특정 언어 벡터 데이터에 포함된 상기 제1 언어 컴포넌트 내지 상기 제n 언어 컴포넌트 중 기설정된 언어 임계치 이상에 해당되는 적어도 하나의 제k 언어 컴포넌트에 대응되는 제k 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 추가적으로 수행하며, 상기 (c) 단계에서, 상기 사용자에 의해 상기 제k 언어 컴포넌트에 대응되는 상기 제k 상대방 감정 카테고리의 존재 여부가 추가적으로 예측된 상태에서, 상기 사용자에 의해 상기 제k 상대방 감정 카테고리에 대응되는 상기 상대방의 제k 상대방 감정 레벨의 크기를 추가적으로 조정하기 위한 상기 특정 사용자 대응 행동이 입력되면, 상기 컴퓨팅 장치가, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제k 상대방 감정 레벨에 대응되어 조정된 감정 레벨인 제k 상대방 조정 감정 레벨을 추가적으로 노출하는 것을 특징으로 하는 방법이 개시된다.As an example, in step (a), the computing device, as the variable setting condition of the specific content, (ii-3) specific language vector data corresponding to the other party's utterance - the specific language vector data is the first Having as components a first language component to an n-th language component for representing each of the other person's emotion categories and the n-th other person's emotional category - additionally determines at which timing of the specific content to be exposed, and the specific content as the variable setting condition The specific content is provided by additionally referring to language vector data, and in step (b), when the specific language vector data is additionally provided, the computing device causes the user to include the specific content included in the specific language vector data. Additional processes are performed to support predicting the presence or absence of a k-th counterpart emotion category corresponding to at least one k-th language component corresponding to a preset language threshold or more among the first language component to the n-th language component, wherein the ( In step c), in a state where the presence or absence of the k-th counterpart emotion category corresponding to the k-th language component is additionally predicted by the user, the presence or absence of the k-th counterpart emotion category corresponding to the k-th language component is additionally predicted by the user. When the specific user response action for additionally adjusting the size of the k opponent's emotional level is input, the computing device generates a kth emotional level adjusted to correspond to the kth opponent's emotional level with reference to the specific user response action. A method characterized by additionally exposing the other party's adjusted emotional level is disclosed.

일례로서, (e) 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨이 각각 기설정된 안정 레벨인 제i 상대방 안정 감정 레벨 및 제j 상대방 안정 감정 레벨을 만족하는 것으로 확인되면, 상기 컴퓨팅 장치가, 상기 특정 컨텐츠의 상기 사전 설정 조건으로서의 상기 특정 객체 데이터 및 상기 특정 상태 데이터를 조정하는 프로세스 및 상기 가변 설정 조건으로서의 상기 특정 표정 벡터 데이터 및 상기 특정 행동 벡터 데이터와 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨을 조정하는 프로세스 중 적어도 일부의 프로세스를 수행하여 상기 특정 컨텐츠를 조정한 조정 컨텐츠를 제공하는 단계를 더 포함하는 것을 특징으로 하는 방법이 개시된다.As an example, (e) with reference to the specific user response behavior, the i-th opponent's adjusted emotion level and the j-th opponent's adjustment, which are emotional levels adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level. When it is confirmed that the emotion level satisfies the ith opponent's stable emotion level and the jth opponent's stable emotion level, respectively, which are preset stable levels, the computing device determines the specific object data and the specific object data as the preset conditions of the specific content. By performing at least some of the processes of adjusting state data and adjusting the specific expression vector data and the specific action vector data as the variable setting conditions and the ith opponent's emotion level and the jth opponent's emotion level, A method is disclosed that further includes the step of providing coordinated content that adjusts specific content.

일례로서, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨이 각각 기설정된 안정 레벨인 상기 제i 상대방 안정 감정 레벨 및 상기 제j 상대방 안정 감정 레벨을 만족하는 것으로 확인되면, 상기 컴퓨팅 장치가, 상기 사용자에게 상기 특정 사용자 대응 행동에 대한 정답 대응 행동이 복수 솔루션으로서 존재하도록 상기 사전 설정 조건 및 상기 가변 설정 조건 중 적어도 일부를 조정하여 상기 조정 컨텐츠를 제공하는 것을 특징으로 하는 방법이 개시된다.As an example, with reference to the specific user response behavior, the i-th opponent's adjusted emotion level and the j-th opponent's adjusted emotion level are emotional levels adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level. If it is confirmed that the ith counterpart's stable emotion level and the jth counterpart's stable emotion level, which are respectively preset stability levels, are satisfied, the computing device provides the user with the correct response behavior for the specific user response behavior as a plurality of solutions. A method is disclosed, wherein the adjusted content is provided by adjusting at least some of the preset conditions and the variable setting conditions to exist.

일례로서, 상기 컴퓨팅 장치가, 상기 제i 상대방 감정 카테고리 및 상기 제j 상대방 감정 카테고리를 상기 상대방의 부정적 감정을 나타내기 위한 감정 카테고리에서 선택하여 노출하는 것을 특징으로 하는 방법이 개시된다.As an example, a method is disclosed wherein the computing device selects and displays the i-th counterpart emotion category and the j-th counterpart emotion category from emotion categories representing negative emotions of the other party.

또한, 본 발명의 다른 일 태양에 따르면, 상대방의 부정적 감정을 예측하여 줄이도록 하기 위한 특정 컨텐츠를 제공하는 컴퓨팅 장치에 있어서, 인스트럭션들을 저장하는 적어도 하나의 메모리; 및 상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서를 포함하되, 상기 프로세서는, (I) 상기 특정 컨텐츠의 사전 설정 조건으로서 (i-1) 상기 사용자가 상기 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터 및 (i-2) 상기 특정 객체에 대한 특정 상태 데이터를 결정하고, 상기 특정 컨텐츠의 가변 설정 조건으로서 (ii-1) 상기 상대방의 표정에 대응되는 특정 표정 벡터 데이터 - 상기 특정 표정 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제n 표정 컴포넌트를 성분으로 가짐 - 및 (ii-2) 상기 상대방의 행동에 대응되는 특정 행동 벡터 데이터 - 상기 특정 행동 벡터 데이터는 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제n 행동 컴포넌트를 성분으로 가짐 - 중 적어도 일부를 상기 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 상기 사전 설정 조건으로서의 상기 특정 객체 데이터 및 상기 특정 상태 데이터와, 상기 가변 설정 조건으로서의 상기 특정 표정 벡터 데이터, 및 상기 특정 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 상기 특정 컨텐츠를 제공하는 프로세스; (II) 상기 특정 표정 벡터 데이터 및 상기 특정 행동 벡터 데이터가 제공되면, 상기 사용자로 하여금, 상기 특정 표정 벡터 데이터에 포함된 상기 제1 표정 컴포넌트 내지 상기 제n 표정 컴포넌트 중 기설정된 표정 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 상기 특정 행동 벡터 데이터에 포함된 상기 제1 행동 컴포넌트 내지 상기 제n 행동 컴포넌트 중 기설정된 행동 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행하는 프로세스; 및 (III) 상기 사용자에 의해 상기 제i 표정 컴포넌트에 대응되는 상기 제i 상대방 감정 카테고리의 존재 여부 및 상기 제j 행동 컴포넌트에 대응되는 상기 제j 상대방 감정 카테고리의 존재 여부가 예측된 상태에서, 상기 사용자에 의해 상기 제i 상대방 감정 카테고리에 대응되는 상기 상대방의 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 카테고리에 대응되는 상기 상대방의 제j 상대방 감정 레벨 중 적어도 일부의 감정 레벨의 크기를 조정하기 위한 특정 사용자 대응 행동이 입력되면, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제i 상대방 조정 감정 레벨 및 제j 상대방 조정 감정 레벨을 노출하는 프로세스;를 수행하는 것을 특징으로 하는 컴퓨팅 장치가 개시된다.Additionally, according to another aspect of the present invention, a computing device that provides specific content for predicting and reducing negative emotions of another person, comprising: at least one memory storing instructions; and at least one processor configured to execute the instructions, wherein the processor determines (I) as a preset condition for the specific content, (i-1) the user with at least one other party appearing in the specific content; Determining specific object data for at least one specific object as an object for interaction and (i-2) specific state data for the specific object, and (ii-1) the other party's facial expression as a variable setting condition for the specific content specific expression vector data corresponding to - the specific expression vector data has as components a first to nth expression component for representing each of the first to nth counterpart emotion categories - and (ii-2) Specific behavior vector data corresponding to the other party's behavior - The specific behavior vector data has as components a first behavior component to an nth behavior component for representing each of the first to nth counterpart emotion categories - determining at what timing of the specific content to expose at least some of the specific content, the specific object data and the specific state data as the preset conditions, the specific facial expression vector data as the variable setting conditions, and the specific action vector data. A process of providing the specific content, at least in part with reference to the content; (II) When the specific expression vector data and the specific action vector data are provided, the user is asked to make one of the first to nth expression components included in the specific expression vector data correspond to a preset expression threshold or higher. a process for predicting the presence or absence of the ith other person's emotion category corresponding to at least one ith facial expression component, and a preset behavior threshold among the first to nth behavior components included in the specific behavior vector data. A process for performing a process that supports predicting the presence or absence of the jth opponent's emotion category corresponding to at least one jth behavior component corresponding to the above; and (III) in a state in which the presence or absence of the i-th counterpart emotion category corresponding to the i-th facial expression component and the presence or absence of the j-th counterpart emotion category corresponding to the j behavior component are predicted by the user, For adjusting the size of the emotional level of at least some of the i-th emotional level of the other party corresponding to the i-th other-party emotion category and the j-th emotional level of the other party corresponding to the j-th counterpart emotional category by the user. When a specific user response action is input, the i-th opponent adjustment emotion level and the j-th opponent adjustment are emotional levels adjusted to correspond to each of the i-th opponent emotion level and the j-th opponent emotion level with reference to the specific user response action. A computing device is disclosed, characterized in that it performs a process of exposing an emotional level.

일례로서, 상기 프로세서가, (IV) 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨을 노출한 상태에서, 상기 특정 사용자 대응 행동으로 인해 사용자 감정 벡터 데이터 - 상기 사용자 감정 벡터 데이터는 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 각각에 대한 제1 사용자 감정 레벨 내지 제n 사용자 감정 레벨을 나타냄 - 중 적어도 일부인 제m 사용자 감정 카테고리에 대한 제m 사용자 감정 레벨이 기설정된 변동 임계치 이상 변화된 것으로 감지되면, 상기 제m 사용자 감정 카테고리 및 이에 대응되는 변동 정보를 기록하는 프로세스를 더 수행하는 것을 특징으로 하는 컴퓨팅 장치가 개시된다.As an example, the processor may: (IV) set the i-th opponent's adjusted emotion level, which is an emotion level adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level, with reference to the specific user response behavior; In a state where the jth opponent's adjusted emotion level is exposed, the user emotion vector data is generated due to the specific user response action - the user emotion vector data is the first user emotion level for each of the first user emotion category to the nth user emotion category. Indicates the nth user emotion level - a process of recording the mth user emotion category and corresponding change information when the mth user emotion level for at least a part of the mth user emotion category is detected to have changed by more than a preset change threshold. A computing device is disclosed, characterized in that it further performs.

일례로서, 상기 프로세서가, 상기 제m 사용자 감정 카테고리가 상기 기설정된 변동 임계치 이상 변화된 것으로 감지되면, 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 중 상기 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제a 상대방 감정 카테고리를 나타내기 위한 제a 표정 컴포넌트의 표정 레벨의 크기를 기설정된 표정 벡터 크기인 제1 크기만큼 증가시켜 상기 사용자에게 노출하는 프로세스 및 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 중 상기 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제b 상대방 감정 카테고리를 나타내기 위한 제b 행동 컴포넌트의 행동 레벨의 크기를 기설정된 행동 벡터 크기인 제2 크기만큼 증가시켜 상기 사용자에게 노출하는 프로세스 중 적어도 일부의 프로세스를 수행함으로써 상기 사용자의 상기 기설정된 변동 임계치 이상 변화된 상기 제m 사용자 감정 카테고리에 대한 상기 제m 사용자 감정 레벨을 상기 기설정된 변동 임계치 미만으로 낮추기 위한 보상 컨텐츠를 추가적으로 제공하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치가 개시된다.As an example, when the processor detects that the mth user emotion category has changed by more than the preset change threshold, one of the emotion categories corresponding to the other party's positive emotion among the first counterpart emotion category to the nth counterpart emotion category A process of increasing the size of the expression level of the a-th facial expression component for representing at least a part of the a-th emotional category by a first size, which is the size of a preset facial expression vector, and exposing it to the user, and the first through the n-th emotional categories. The user increases the size of the action level of the b action component for representing the b other person's emotion category, which is at least part of the emotion category corresponding to the other person's positive emotion among the other person's emotion categories, by the second size, which is the size of the preset action vector. Additional compensation content for lowering the mth user's emotion level for the mth user's emotion category that has changed more than the preset variation threshold of the user to less than the preset variation threshold by performing at least some of the processes of exposing to the user A computing device characterized in that it performs a process provided is disclosed.

일례로서, 상기 프로세서가, (i) 상기 사용자에 대한 정보 및 상기 사용자와 기설정된 임계치 이상의 유사도를 가지는 적어도 하나의 타 사용자에 대한 정보, (ii) 상기 특정 표정 벡터 데이터 및 이에 대응되는 상기 타 사용자에게 노출되었던 타 표정 벡터 데이터, (iii) 상기 특정 행동 벡터 데이터 및 이에 대응되는 상기 타 사용자에게 노출되었던 타 행동 벡터 데이터, 및 (iv) 상기 특정 사용자 대응 행동, 상기 타 사용자에 의해 입력되었던 타 사용자 대응 행동 및 이에 대응되는 특정 사용자 정답 대응 행동과 타 사용자 정답 대응 행동 중 적어도 일부를 학습 장치에 입력하여, 상기 학습 장치로 하여금, 상기 사용자 및 상기 타 사용자의 상기 특정 사용자 대응 행동 및 상기 타 사용자 대응 행동 중 적어도 일부의 정확도를 높이기 위한, 최적의 특정 표정 벡터 데이터, 최적의 타 표정 벡터 데이터, 최적의 특정 행동 벡터 데이터 및 최적의 타 행동 벡터 데이터 중 적어도 일부를 학습하도록 하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치가 개시된다.As an example, the processor may be configured to: (i) information about the user and information about at least one other user having a similarity level of more than a preset threshold to the user, (ii) the specific facial expression vector data and the other user corresponding thereto. other facial expression vector data that was exposed to the other user, (iii) the specific action vector data and the corresponding other action vector data that was exposed to the other user, and (iv) the specific user's corresponding action, the other user that was entered by the other user. At least some of the corresponding behavior and the corresponding specific user correct response behavior and the other user's correct response behavior are input to the learning device to cause the learning device to: Characterized by performing a process of learning at least some of optimal specific expression vector data, optimal other expression vector data, optimal specific action vector data, and optimal other action vector data in order to increase the accuracy of at least some of the actions. A computing device is disclosed.

일례로서, 상기 (I) 프로세스에서, 상기 프로세서가, 상기 특정 컨텐츠의 상기 가변 설정 조건으로서 (ii-3) 상기 상대방의 발화에 대응되는 특정 언어 벡터 데이터 - 상기 특정 언어 벡터 데이터는 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 언어 컴포넌트 내지 제n 언어 컴포넌트를 성분으로 가짐 - 를 추가적으로 상기 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 상기 가변 설정 조건으로서의 상기 특정 언어 벡터 데이터를 추가적으로 참조하여 상기 특정 컨텐츠를 제공하고, 상기 (II) 프로세스에서, 상기 특정 언어 벡터 데이터가 추가적으로 제공되면, 상기 사용자로 하여금, 상기 특정 언어 벡터 데이터에 포함된 상기 제1 언어 컴포넌트 내지 상기 제n 언어 컴포넌트 중 기설정된 언어 임계치 이상에 해당되는 적어도 하나의 제k 언어 컴포넌트에 대응되는 제k 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 추가적으로 수행하며, 상기 (III) 프로세스에서, 상기 사용자에 의해 상기 제k 언어 컴포넌트에 대응되는 상기 제k 상대방 감정 카테고리의 존재 여부가 추가적으로 예측된 상태에서, 상기 사용자에 의해 상기 제k 상대방 감정 카테고리에 대응되는 상기 상대방의 제k 상대방 감정 레벨의 크기를 추가적으로 조정하기 위한 상기 특정 사용자 대응 행동이 입력되면, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제k 상대방 감정 레벨에 대응되어 조정된 감정 레벨인 제k 상대방 조정 감정 레벨을 추가적으로 노출하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치가 개시된다.As an example, in the process (I), the processor, as the variable setting condition of the specific content, (ii-3) specific language vector data corresponding to the utterance of the other party - the specific language vector data is provided to the first counterpart Having as components a first language component to an n-th language component for representing each of the emotional categories and the n-th emotional category of the other party - additionally determining at which timing of the specific content to be exposed, and the specific language as the variable setting condition The specific content is provided by additionally referring to vector data, and in the process (II), when the specific language vector data is additionally provided, the user is provided with the first language component included in the specific language vector data. A process is additionally performed to support predicting the presence or absence of a k-th opponent's emotion category corresponding to at least one k-th language component corresponding to a preset language threshold or more among the n-th language components, and in the process (III), In a state in which the existence of the k-th counterpart emotion category corresponding to the k-th language component is additionally predicted by the user, the size of the k-th counterpart emotion level of the other party corresponding to the k-th counterpart emotion category by the user When the specific user response action for additional adjustment is input, a process of additionally exposing the kth opponent's adjusted emotion level, which is an emotional level adjusted in correspondence to the kth opponent's emotion level, is performed with reference to the specific user response action. Disclosed is a computing device characterized in that:

일례로서, 상기 프로세서가, (V) 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨이 각각 기설정된 안정 레벨인 제i 상대방 안정 감정 레벨 및 제j 상대방 안정 감정 레벨을 만족하는 것으로 확인되면, 상기 특정 컨텐츠의 상기 사전 설정 조건으로서의 상기 특정 객체 데이터 및 상기 특정 상태 데이터를 조정하는 프로세스 및 상기 가변 설정 조건으로서의 상기 특정 표정 벡터 데이터 및 상기 특정 행동 벡터 데이터와 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨을 조정하는 프로세스 중 적어도 일부의 프로세스를 수행하여 상기 특정 컨텐츠를 조정한 조정 컨텐츠를 제공하는 프로세스를 더 수행하는 것을 특징으로 하는 컴퓨팅 장치가 개시된다.As an example, the processor may: (V) adjust the i-th opponent's adjusted emotion level, which is an emotion level adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level with reference to the specific user response behavior; When it is confirmed that the jth counterpart's adjusted emotion level satisfies the ith counterpart's stable emotion level and the jth counterpart's stable emotion level, which are preset stable levels, respectively, the specific object data and the specific state as the preset conditions of the specific content By performing at least some of the process of adjusting data and the process of adjusting the specific expression vector data and the specific action vector data as the variable setting conditions and the ith opponent's emotion level and the jth opponent's emotion level, A computing device is disclosed, characterized in that it further performs a process of providing coordinated content and providing coordinated content.

일례로서, 상기 프로세서가, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨이 각각 기설정된 안정 레벨인 상기 제i 상대방 안정 감정 레벨 및 상기 제j 상대방 안정 감정 레벨을 만족하는 것으로 확인되면, 상기 사용자에게 상기 특정 사용자 대응 행동에 대한 정답 대응 행동이 복수 솔루션으로서 존재하도록 상기 사전 설정 조건 및 상기 가변 설정 조건 중 적어도 일부를 조정하여 상기 조정 컨텐츠를 제공하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치가 개시된다. As an example, the processor adjusts the i-th opponent's adjusted emotion level and the j-th opponent, which are emotional levels adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level with reference to the specific user response behavior. If it is confirmed that the adjusted emotion level satisfies the i-th counterpart's stable emotion level and the j-th counterpart's stable emotion level, which are respectively preset stable levels, the correct response behavior for the specific user response behavior exists as a plurality of solutions for the user. A computing device is disclosed, characterized in that it performs a process of providing the adjusted content by adjusting at least some of the preset conditions and the variable setting conditions so as to do so.

일례로서, 상기 프로세서가, 상기 제i 상대방 감정 카테고리 및 상기 제j 상대방 감정 카테고리를 상기 상대방의 부정적 감정을 나타내기 위한 감정 카테고리에서 선택하여 노출하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치가 개시된다.As an example, a computing device is disclosed, wherein the processor performs a process of selecting and exposing the i-th counterpart emotion category and the j-th counterpart emotion category from emotion categories for indicating negative emotions of the other party. .

본 발명은 사전 설정 조건으로서의 특정 객체에 대한 특정 객체 데이터, 및 특정 상태 데이터와 가변 설정 조건으로서의 상대방에 대한 특정 표정 벡터 데이터, 및 특정 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 사용자에게 특정 컨텐츠를 제공하는 효과가 있다.The present invention refers to at least some of specific object data for a specific object as a preset condition, specific state data, specific facial expression vector data for the other person as a variable setting condition, and specific action vector data, and provides specific content to the user. It has an effect.

또한, 본 발명은 컴퓨팅 장치가, 사용자로 하여금, 특정 표정 벡터 데이터에 포함된 제1 표정 컴포넌트 내지 제n 표정 컴포넌트 중 기설정된 표정 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 특정 행동 벡터 데이터에 포함된 제1 행동 컴포넌트 내지 제n 행동 컴포넌트 중 기설정된 행동 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행하는 효과가 있다.In addition, the present invention allows a computing device to cause a user to use an i-th facial expression component corresponding to at least one i-th facial expression component corresponding to a preset expression threshold or higher among the first to n-th facial expression components included in specific facial expression vector data. The jth corresponding to at least one jth behavior component corresponding to a preset behavior threshold or higher among the first to nth behavior components included in the process and specific behavior vector data that support predicting the existence of the other person's emotional category. It has the effect of performing a process that supports predicting the existence of the other person's emotional category.

또한, 본 발명은, 사용자에 의해 특정 사용자 대응 행동이 입력되면, 컴퓨팅 장치가, 특정 사용자 대응 행동을 참조로 하여 제i 상대방 감정 레벨 및 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제i 상대방 조정 감정 레벨 및 제j 상대방 조정 감정 레벨을 노출하는 효과가 있다.In addition, the present invention provides that, when a specific user response action is input by a user, the computing device provides a first emotion level adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level with reference to the specific user response action. It has the effect of exposing the i other party's adjusted emotional level and the j other party's adjusted emotional level.

본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자(이하 "통상의 기술자")에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 따라, 사용자의 사회인지능력을 평가하기 위한 특정 컨텐츠를 제공하는 컴퓨팅 장치를 개략적으로 도시한 것이다.
도 2는 본 발명의 제1 실시예에 따라, 사용자의 사회인지능력을 평가하기 위한 특정 컨텐츠를 제공하는 과정을 개략적으로 도시한 것이다.
도 3은 본 발명의 제1 실시예에 따라, 사용자에게 제공되는 특정 컨텐츠의 설정 조건을 참조로 하여 사용자로부터 획득한 예측값과 기설정된 정답값을 대응되도록 기록해 놓은 데이터베이스를 개략적으로 도시한 것이다.
도 4는 본 발명의 제2 실시예에 따라, 상대방의 부정적 감정을 예측하고 줄이도록 하기 위한 특정 컨텐츠를 제공하는 과정을 개략적으로 도시한 것이다.
도 5는 본 발명의 제2 실시예에 따라, 사용자에게 제공되는 특정 컨텐츠의 설정 조건을 참조로 하여 특정 사용자 대응 행동, 특정 사용자 대응 행동에 대응하여 변화되는 상대방에 대한 감정 상태 및 사용자에 대한 감정 상태를 기록해놓은 데이터베이스를 개략적으로 도시한 것이다.
도 6은 본 발명의 제3 실시예에 따라, 사용자의 부정적 감정을 감소시키기 위한 특정 컨텐츠를 제공하는 과정을 개략적으로 도시한 것이다.
도 7은 본 발명의 제3 실시예에 따라, 사용자에게 제공되는 특정 컨텐츠의 설정 조건을 참조로 하여 특정 사용자 액션, 특정 사용자 액션에 대응되는 특정 상대방 액션, 및 특정 상대방 대응 액션에 따라 변화하는 사용자에 대한 감정 상태 변화를 기록해놓은 데이터베이스를 개략적으로 도시한 것이다.
도 8a 및 도 8b는 본 발명에 따라, 특정 컨텐츠 중 상대방의 부정적 감정을 예측하고 줄이도록 하기 위한 컨텐츠인 제1 컨텐츠 중 일부를 개략적으로 도시한 것이다.
도 9a 및 도 9b는 본 발명에 따라, 특정 컨텐츠 중 사용자의 부정적 감정을 줄이기 위한 컨텐츠인 제2 컨텐츠 중 일부를 개략적으로 도시한 것이다.
The following drawings attached for use in explaining embodiments of the present invention are only some of the embodiments of the present invention, and to those skilled in the art (hereinafter “those skilled in the art”), the invention Other drawings can be obtained based on these drawings without further work being done.
Figure 1 schematically illustrates a computing device that provides specific content for evaluating a user's social cognitive ability, according to the present invention.
Figure 2 schematically shows a process for providing specific content for evaluating a user's social cognitive ability, according to the first embodiment of the present invention.
Figure 3 schematically shows a database in which predicted values obtained from the user and preset correct values are recorded in correspondence with the setting conditions of specific content provided to the user, according to the first embodiment of the present invention.
Figure 4 schematically shows a process for providing specific content to predict and reduce the other person's negative emotions, according to a second embodiment of the present invention.
5 shows a specific user response behavior, an emotional state toward the other party that changes in response to a specific user response behavior, and feelings toward the user, with reference to the setting conditions of specific content provided to the user, according to a second embodiment of the present invention. This is a schematic illustration of the database that records the status.
Figure 6 schematically shows a process for providing specific content to reduce negative emotions of a user, according to a third embodiment of the present invention.
7 shows a specific user action, a specific opponent's action corresponding to a specific user action, and a user that changes according to the specific opponent's corresponding action with reference to the setting conditions of specific content provided to the user, according to the third embodiment of the present invention. This is a schematic illustration of a database that records changes in emotional states.
Figures 8a and 8b schematically show some of the first content, which is content for predicting and reducing the other person's negative emotions among specific content, according to the present invention.
9A and 9B schematically show some of the second content, which is content for reducing the user's negative emotions, among specific content, according to the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced to make clear the objectives, technical solutions and advantages of the present invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.

또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐, "포함하다"라는 단어 및 그것의 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다.Additionally, throughout the description and claims, the word “comprise” and variations thereof are not intended to exclude other technical features, attachments, components or steps. Other objects, advantages and features of the invention will appear to those skilled in the art, partly from this description and partly from practice of the invention. The examples and drawings below are provided by way of example and are not intended to limit the invention.

더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.Moreover, the present invention encompasses all possible combinations of the embodiments shown herein. It should be understood that the various embodiments of the invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, in order to enable those skilled in the art to easily practice the present invention, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명에 따라, 사용자의 사회인지능력을 평가하기 위한 특정 컨텐츠를 제공하는 컴퓨팅 장치를 개략적으로 도시한 것이다.Figure 1 schematically illustrates a computing device that provides specific content for evaluating a user's social cognitive ability, according to the present invention.

도 1을 참조하면, 본 발명의 제1 실시예 내지 제3 실시예에 대한 특정 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)를 도시하였으며, 컴퓨팅 장치(100)는 메모리(101), 프로세서(102)를 포함할 수 있다. 이때, 컴퓨팅 장치(100)는 추가적으로 디스플레이(103)을 추가적으로 포함할 수 있으나, 컴퓨팅 장치(100)에 포함되지 않고 별도로 구성될 수도 있을 것이다.Referring to FIG. 1, a computing device 100 is shown for providing specific content for the first to third embodiments of the present invention, and the computing device 100 includes a memory 101 and a processor 102. may include. At this time, the computing device 100 may additionally include a display 103, but it may also be configured separately rather than included in the computing device 100.

사용자의 사회인지능력을 평가하기 위한 특정 컨텐츠를 제공하는 컴퓨팅 장치(100)의 메모리(101)는 프로세서(102)에 의해 수행될 인스트럭션들을 저장할 수 있는데, 구체적으로, 인스트럭션들은 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)로 하여금 특정의 방식으로 기능하게 하기 위한 목적으로 생성되는 코드로서, 컴퓨터 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장될 수 있다. 인스트럭션들은 본 발명의 명세서에서 설명되는 기능들을 실행하기 위한 프로세스들을 수행할 수 있다.The memory 101 of the computing device 100 that provides specific content for evaluating the user's social cognitive ability may store instructions to be performed by the processor 102. Specifically, the instructions are computing instructions for providing content. Code generated for the purpose of causing device 100 to function in a particular manner may be stored in computer-usable or computer-readable memory capable of being directed to a computer or other programmable data processing equipment. Instructions may perform processes to execute functions described in the specification of the present invention.

본 발명에서 컨텐츠란 가상현실로 구현되는 컨텐츠를 상정하여 설명할 것이지만, 이에 한정되는 것이 아님은 물론이라 할 것이다.In the present invention, content will be explained assuming content implemented in virtual reality, but it is of course not limited thereto.

그리고, 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)의 프로세서(102)는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 컴퓨팅 장치(100)는 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor 102 of the computing device 100 for providing content has a hardware configuration such as a Micro Processing Unit (MPU) or Central Processing Unit (CPU), cache memory, and data bus. It can be included. Additionally, the computing device 100 may further include an operating system and a software component of an application that performs a specific purpose.

또한, 특정 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)는 데이터베이스(110)와 연동될 수 있다. 여기서, 데이터베이스(110)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있으며, 이에 한정되지 않으며 데이터를 저장할 수 있는 모든 매체를 포함할 수 있다. 또한, 데이터베이스(110)는 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)와 분리되어 설치되거나, 이와는 달리 컨텐츠를 제공하기 위한 컴퓨팅 장치(100)의 내부에 설치되어 데이터를 전송하거나 수신되는 데이터를 기록할 수도 있고, 도시된 바와 달리 둘 이상으로 분리되어 구현될 수도 있으며, 이는 발명의 실시 조건에 따라 달라질 수 있다.Additionally, the computing device 100 to provide specific content may be linked to the database 110. Here, the database 110 includes a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory), At least one of RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (ReadOnly Memory), EEPROM (Electrically Erasable Programmable ReadOnly Memory), PROM (Programmable ReadOnly Memory), magnetic memory, magnetic disk, and optical disk. It may include one type of storage medium, but is not limited to this and may include all media capable of storing data. In addition, the database 110 may be installed separately from the computing device 100 for providing content, or alternatively, may be installed inside the computing device 100 for providing content to transmit data or record received data. Alternatively, as shown, it may be implemented separately into two or more parts, which may vary depending on the implementation conditions of the invention.

또한, 디스플레이(103)는, 컴퓨팅 장치(100)에 있는 메모리(101) 및 프로세서(102)와 서로 별개의 장치로서 분리되어 있을 수도 있을 것이다.Additionally, the display 103 may be separate from the memory 101 and processor 102 in the computing device 100 as a separate device.

또한, 컴퓨팅 장치(100)는 HMD와 같은 사용자 단말일 수도 있고, 가상현실 서비스를 제공하기 위한 서버일 수도 있다. 후자의 경우에는 서버가 별도의 HMD와 같은 사용자 단말(미도시)과 연동될 수 있다.Additionally, the computing device 100 may be a user terminal such as an HMD, or may be a server for providing a virtual reality service. In the latter case, the server may be linked to a user terminal (not shown) such as a separate HMD.

도 2는 본 발명의 제1 실시예에 따라, 사용자의 사회인지능력을 평가하기 위한 특정 컨텐츠를 제공하는 과정을 개략적으로 도시한 것이다.Figure 2 schematically shows a process for providing specific content for evaluating a user's social cognitive ability, according to the first embodiment of the present invention.

먼저, 도 2의 특정 컨텐츠를 제공하는 제1 실시예는 특정 컨텐츠 중 하나인 제1 컨텐츠를 위주로 설명하겠다. 이때, 특정 컨텐츠 중 하나인 제2 컨텐츠 또한 제1 실시예에 적용될 수 있을 것이나, 제3 실시예에서 제2 컨텐츠에 대하여 자세히 서술하므로 설명을 생략하겠다.First, the first embodiment of providing the specific contents of FIG. 2 will be described focusing on the first content, which is one of the specific contents. At this time, the second content, which is one of the specific contents, may also be applied to the first embodiment, but since the second content is described in detail in the third embodiment, the description will be omitted.

도 2를 참조하면, 먼저, 사용자의 사회인지능력을 평가하기 위해, 컴퓨팅 장치(100)가, 특정 컨텐츠의 사전 설정 조건으로서 (i-1) 사용자(820)가 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터 및 (i-2) 특정 객체에 대한 특정 상태 데이터를 결정하고, 특정 컨텐츠의 가변 설정 조건으로서 (ii-1) 상대방의 표정에 대응되는 특정 표정 벡터 데이터(특정 표정 벡터 데이터는 제1 감정 카테고리 내지 제n 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제n 표정 컴포넌트를 성분으로 가짐) 및 (ii-2) 상대방의 행동에 대응되는 특정 행동 벡터 데이터(특정 행동 벡터 데이터는 상기 제1 감정 카테고리 내지 상기 제n 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제n 행동 컴포넌트를 성분으로 가짐) 중 적어도 일부를 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 사전 설정 조건으로서의 특정 객체 데이터 및 특정 상태 데이터와, 가변 설정 조건으로서의 특정 표정 벡터 데이터, 및 특정 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 특정 컨텐츠를 제공(S201)할 수 있다.Referring to FIG. 2, first, in order to evaluate the user's social cognitive ability, the computing device 100 determines (i-1) at least one user 820 that appears in the specific content as a preset condition for the specific content. Determine specific object data for at least one specific object as an object for interaction with the other party and (i-2) specific state data for the specific object, and (ii-1) determine the specific state data for the specific object as a variable setting condition for the specific content, and (ii-1) determine the facial expression of the other party. Corresponding specific expression vector data (specific expression vector data has as components a first expression component to an nth expression component for representing each of the first to nth emotion categories) and (ii-2) the other person's behavior At least part of the corresponding specific behavior vector data (the specific behavior vector data has as components a first behavior component to an n-th behavior component for representing each of the first emotion category to the n-th emotion category) is stored in some part of the specific content. Determine whether to expose at the timing, and provide specific content (S201) with reference to at least some of specific object data and specific state data as preset conditions, specific expression vector data as variable setting conditions, and specific action vector data. You can.

이때, 도 8a를 참조하면, 공원의 벤치에서 커플인 상대방(810)에게 자리를 양보해주는 미션을 통해 상대방(810)의 부정적 감정을 예측하고 줄이도록 하기 위한 제1 컨텐츠에서, 사용자(820)가 앞에 있는 상대방의 표정, 행동, 및 언어를 보고 듣는 상황을 나타낸 것이다. 사용자(820)는 특정 컨텐츠 내에 설정되어 있는 조건들과 상대방(810)의 표정, 행동, 및 언어를 보고 상대방이 원하는 것을 파악하여 적절한 대응 행동을 수행할 수 있다. 또한, 도 8a 및 도 8b의 사용자(820)는 제1 실시예의 특정 사용자를 의미할 수 있다. 한편, 도 8a 및 도 8b 에서는 3인칭 시점으로 사용자(820) 등이 보이도록 하는 것을 상정하였으나, 좀더 실감나게 하기 위해서는 1인칭 시점으로 사용자(820)가 아예 보이지 않거나 사용자(820)의 신체의 일부만이 보이도록 할 수도 있을 것이며, 이는 후술할 도 9a 및 도 9b에도 적용 가능할 것이다.At this time, referring to FIG. 8A, in the first content to predict and reduce the negative emotions of the other person 810 through the mission of giving up a seat to the other person 810, who is a couple, on a bench in the park, the user 820 It represents a situation where you see and hear the facial expressions, actions, and language of the other person in front of you. The user 820 can determine what the other party wants by looking at the conditions set within the specific content and the facial expression, behavior, and language of the other party 810 and perform appropriate response actions. Additionally, the user 820 in FIGS. 8A and 8B may refer to a specific user in the first embodiment. Meanwhile, in FIGS. 8A and 8B, it is assumed that the user 820 is visible from a third-person perspective, but in order to make it more realistic, the user 820 is not visible at all or only a part of the user's body is visible from a first-person perspective. may be visible, and this may also be applied to FIGS. 9A and 9B, which will be described later.

여기서, 사전 설정 조건은, 사용자에게 특정 컨텐츠를 제공하기 전 사용자의 나이, 성별, 사회인지능력 저하 정도, 이전의 특정 컨텐츠 이용 이력 등 사용자에 대한 정보를 참조로 하여 결정되는, 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터와 특정 객체에 대한 특정 상태 데이터를 의미할 수 있다.Here, the preset condition is determined by referring to information about the user, such as the user's age, gender, degree of social cognitive decline, and previous history of using specific content, before providing specific content to the user. It may mean specific object data for at least one specific object as an object for interaction with at least one other party and specific state data for the specific object.

여기서, 상대방은, 사용자와 인터랙션하기 위한 대상으로서 실제의 인물이 아니라, 특정 컨텐츠 내에 등장하는 가상의 인물인 것을 상정하나 이에 한정되는 것은 아니다.Here, it is assumed that the other party is not an actual person as an object of interaction with the user, but a virtual person appearing in specific content, but is not limited to this.

가령, 제1 실시예에서의 특정 객체는 특정 컨텐츠 내에 사용자가 앉아 있는 3인용 벤치를 의미하고, 특정 객체 데이터는 특정 객체인 벤치의 개수를 의미하며, 특정 상태 데이터는 특정 객체인 벤치의 점유율을 의미할 수 있으나 사전설정조건의 예시는 이에 한정되는 것이 아니라 다양한 변형이 가능할 것이다.For example, in the first embodiment, the specific object refers to a three-person bench on which a user is sitting within specific content, the specific object data refers to the number of benches that are a specific object, and the specific state data refers to the occupancy rate of the bench that is a specific object. However, examples of preset conditions are not limited to this, and various modifications may be possible.

그리고, 가변 설정 조건은, 사용자에게 특정 컨텐츠를 제공하는 도중에, 사용자 반응을 참조로 하여 조정될 수 있는 조건으로서, 상대방의 표정에 대응되는 특정 표정 벡터 데이터와 상대방의 행동에 대응되는 특정 행동 벡터 데이터일 수 있다.In addition, the variable setting condition is a condition that can be adjusted with reference to the user's reaction while providing specific content to the user, and is specific expression vector data corresponding to the other person's facial expression and specific action vector data corresponding to the other person's behavior. You can.

이때, 특정 표정 벡터 데이터는 제1 감정 카테고리 내지 제n 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제n 표정 컴포넌트를 성분으로 가지며, 제1 실시예에서 제1 감정 카테고리 내지 제n 감정 카테고리는 설명의 편의상 사람의 기본 감정인 희(기쁨), 노(분노), 애(슬픔), 락(즐거움), 애(사랑), 오(미움), 욕(욕심)에 대한 감정 카테고리로서 설명하겠다. 가령, 제1 감정 카테고리는 기쁨의 감정인 희를 나타내는 감정이고, 제2 감정 카테고리는 분노를 나타내는 감정이며, 제7 감정 카테고리는 욕심을 나타내는 감정으로 상정하여 설명할 수 있을 것이다. 또한, 특정 행동 벡터 데이터도 제1 감정 카테고리 내지 제7 감정 카테고리를 특정 표정 벡터와 마찬가지로 7가지의 기본 감정 대응시킬 수 있을 것이다. 그리고, 제1 감정 카테고리 내지 제7 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제7 표정 컴포넌트는 각각의 감정 카테고리의 감정을 나타내기 위해 사용자에게 노출하는 상대방의 표정일 수 있으며, 제1 감정 카테고리 내지 제7 감정 카테고리를 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제7 행동 컴포넌트는 각각의 감정 카테고리의 감정을 나타내기 위해 사용자에게 노출하는 상대방의 행동일 수 있다. 여기서는 제1 실시예에 대해 희(기쁨), 노(분노), 애(슬픔), 락(즐거움), 애(사랑), 오(미움), 욕(욕심)에 대한 감정 카테고리를 상정하여 예시적으로 설명하였지만, 뒤에 나오는 제2 실시예 및 제3 실시예도 이와 마찬가지로 상정하여 설명하고자 한다At this time, the specific facial expression vector data has first to n-th facial expression components as components to represent each of the first to n-th emotional categories, and in the first embodiment, the first to n-th emotional categories are For convenience of explanation, I will explain the basic human emotions of joy, anger, sadness, joy, love, hate, and greed as emotional categories. For example, the first emotional category can be explained by assuming that the first emotional category is an emotion that represents joy, the second emotional category is an emotion that represents anger, and the seventh emotional category is an emotion that represents greed. In addition, specific action vector data may be able to correspond to the first to seventh emotional categories with seven basic emotions, similar to specific facial expression vectors. In addition, the first to seventh facial expression components for representing each of the first to seventh emotional categories may be the other person's facial expressions exposed to the user to represent the emotions of each emotional category, and the first emotion The first to seventh action components for representing each of the categories to the seventh emotion category may be the other party's actions exposed to the user to represent the emotions of each emotion category. Here, for the first embodiment, emotional categories for joy, anger, sorrow, joy, love, hate, and greed are illustrative. Although it has been explained as follows, the second and third embodiments that follow will also be explained assuming the same.

한편, 도 3을 참조하면, 사전 설정 조건으로서의 특정 객체에 대한 특정 객체 데이터, 및 특정 상태 데이터와, 가변 설정 조건으로서의 상대방에 대한 특정 표정 벡터 데이터, 및 특정 행동 벡터 데이터가 데이터베이스(110)에 저장되어 있는 것을 알 수 있다. 여기서, 데이터베이스(110)에 저장된 값들은 설명의 편의상, 특정한 사용자인 사용자 1(이하, 특정 사용자라고 함)에 대한 정보들을 저장한 것으로 상정하였으나, 데이터베이스(110)에 저장되는 데이터들은 이에 한정되는 것이 아니라 다수의 사람에 대한 데이터를 저장할 수 있을 것임은 물론이라 할 것이다.Meanwhile, referring to FIG. 3, specific object data and specific state data for a specific object as preset conditions, specific expression vector data for the other person as variable set conditions, and specific action vector data are stored in the database 110. You can see that it has been done. Here, for convenience of explanation, the values stored in the database 110 are assumed to store information about a specific user, User 1 (hereinafter referred to as a specific user), but the data stored in the database 110 is limited to this. Of course, it will be possible to store data about many people.

그리고, 데이터베이스(110)에 저장된 특정 객체 데이터, 및 특정 상태 데이터는 각각 객체 종류: 3인용 벤치 & 객체 개수: 1개, 좌석 점유율: 33% & 점유 위치: 가운데 자리인 것을 알 수 있다. 물론, 벤치의 개수가 더 많은 경우도 상정할 수도 있으며, 이 경우에는 특정 사용자가 선택할 수 있는 옵션이 여러 가지로 늘어나므로 특정 컨텐츠의 난이도가 올라갈 수도 있을 것이다.In addition, it can be seen that the specific object data and specific state data stored in the database 110 are object type: bench for 3 & number of objects: 1, seat occupancy: 33% & occupied location: center seat. Of course, it can also be assumed that the number of benches is greater, and in this case, the number of options a specific user can select increases, so the difficulty of specific content may increase.

또한, 가변 설정 조건인 특정 표정 벡터 데이터의 성분인 제1 감정 카테고리 내지 제7 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제7 표정 컴포넌트의 값이 (0.1, 0.3, 0.6, 0.2, 0.2, 0.4, 0.4)인 것을 알 수 있다. 그리고, 또 다른 가변 설정 조건인 특정 행동 벡터 데이터의 성분인 제1 감정 카테고리 내지 제7 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제7 행동 컴포넌트의 값이 (0.2, 0.3, 0.5, 0.1, 0.1, 0.7, 0.5)인 것을 알 수 있다. 즉, 특정 사용자에게 제공되는 제1 컨텐츠에 등장하는 상대방의 표정과 행동을 어느 강도로 노출할지에 대한 데이터가 벡터 형태로 기록되어 있다고 보면 된다.In addition, the values of the first to seventh expression components for representing each of the first to seventh emotion categories, which are components of specific expression vector data that are variable setting conditions, are (0.1, 0.3, 0.6, 0.2, 0.2, It can be seen that it is 0.4, 0.4). In addition, the values of the first to seventh action components to represent each of the first to seventh emotion categories, which are components of specific action vector data, which is another variable setting condition, are (0.2, 0.3, 0.5, 0.1, It can be seen that it is 0.1, 0.7, 0.5). In other words, it can be said that data on the intensity with which the facial expressions and actions of the other person appearing in the first content provided to a specific user will be exposed is recorded in vector form.

다시 본론으로 돌아와, 컴퓨팅 장치(100)는 사전 설정 조건으로서의 특정 객체 데이터 및 특정 상태 데이터와 가변 설정 조건으로서의 특정 표정 벡터 데이터, 및 특정 행동 벡터 데이터 중 적어도 일부를 특정 컨텐츠의 어느 타이밍에 노출할지 결정할 수 있다. 이때, 사전 설정 조건 및 가변 설정 조건 중 적어도 일부는 사용자와 인터랙션하는 타이밍이라면 언제든 노출될 수 있을 것이다.Returning to the main topic, the computing device 100 determines at which timing of specific content to expose at least some of specific object data and specific state data as preset conditions, specific facial expression vector data as variable setting conditions, and specific action vector data. You can. At this time, at least some of the preset conditions and variable setting conditions may be exposed at any time when the user interacts with the user.

다음으로, 다시 도 2를 참조하면, 특정 표정 벡터 데이터 및 특정 행동 벡터 데이터가 제공되면, 컴퓨팅 장치(100)가, 사용자로 하여금, 특정 표정 벡터 데이터에 포함된 제1 표정 컴포넌트 내지 제n 표정 컴포넌트 중 기설정된 제1 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 특정 행동 벡터 데이터에 포함된 제1 행동 컴포넌트 내지 제n 행동 컴포넌트 중 기설정된 제2 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행(S202)할 수 있다.Next, referring again to FIG. 2, when specific expression vector data and specific action vector data are provided, the computing device 100 causes the user to select the first to nth expression components included in the specific expression vector data. A process that supports predicting the presence or absence of the ith emotion category corresponding to at least one ith facial expression component corresponding to a preset first threshold or more, and the first to nth action components included in the specific action vector data. A process that supports predicting the presence or absence of the jth emotion category corresponding to at least one jth behavior component that is greater than or equal to a preset second threshold may be performed (S202).

여기서, i와 j는 같은 값으로 지정되어 동일한 감정을 나타내는 표정과 행동으로서 노출할 수도 있고, 다른 값으로 지정되어 다른 감정을 나타내는 표정과 행동을 복합적으로 노출할 수도 있을 것이며, 제i 표정 컴포넌트 및 제j 행동 컴포넌트는 하나의 컴포넌트가 아니라 복수 개의 컴포넌트를 의미할 수도 있을 것이다.Here, i and j may be specified as the same value and exposed as facial expressions and actions representing the same emotion, or may be specified as different values and may be exposed in combination with facial expressions and actions representing different emotions, and the ith facial expression component and The jth behavioral component may mean not one component but multiple components.

다시 도 3을 참조하면, 컴퓨팅 장치(100)는 특정 표정 벡터 데이터에 포함된 제1 표정 컴포넌트 내지 제7 표정 컴포넌트 중 슬픔의 감정을 나타내는 제3 표정 컴포넌트를 기설정된 제1 임계치 이상으로 설정하여 특정 사용자에게 제공할 수 있다. 여기서, 제1 임계치는, 제1 표정 컴포넌트 내지 제7 표정 컴포넌트 중 적어도 일부를 특정 사용자가 인지하도록 하기 위한 기설정된 설정값을 의미할 수 있다. 즉, 제1 임계치를 0.5로 설정하였을 때, 특정 사용자에게 노출되는 제1 표정 컴포넌트 내지 제7 표정 컴포넌트의 값이 (0.1, 0.3, 0.6, 0.1, 0.2, 0.4, 0.4)이므로, 제1 임계치 이상의 값을 가지는 컴포넌트는 제3 표정 컴포넌트인 것을 알 수 있다. 이는, 상대방이 하나뿐인 벤치에 커플과 함께 앉고 싶지만, 특정 사용자가 이미 가운데 자리에 앉아 있기 때문에 나란히 앉지 못하는 슬픔의 감정을 표정으로써 특정 사용자에게 노출하고 있는 상황을 나타낸 것이다. Referring again to FIG. 3, the computing device 100 sets the third facial expression component representing the emotion of sadness among the first to seventh facial expression components included in the specific facial expression vector data to a preset first threshold or more to determine a specific facial expression component. It can be provided to the user. Here, the first threshold may mean a preset setting value for allowing a specific user to recognize at least some of the first to seventh facial expression components. That is, when the first threshold is set to 0.5, the values of the first to seventh expression components exposed to a specific user are (0.1, 0.3, 0.6, 0.1, 0.2, 0.4, 0.4), so the values are higher than the first threshold. It can be seen that the component with the value is the third facial expression component. This represents a situation where the couple wants to sit together on a bench where there is only one other person, but the sadness of not being able to sit side by side because the specific user is already sitting in the middle is being expressed to a specific user through facial expressions.

그리고, 컴퓨팅 장치(100)는 특정 행동 벡터 데이터에 포함된 제1 행동 컴포넌트 내지 제7 행동 컴포넌트 중 미움의 감정을 나타내는 제6 행동 컴포넌트를 기설정된 제2 임계치 이상으로 설정하여 특정 사용자에게 제공할 수 있다. 여기서, 제2 임계치는, 제1 행동 컴포넌트 내지 제7 행동 컴포넌트 중 적어도 일부를 특정 사용자가 인지하도록 하기 위한 기설정된 설정값을 의미할 수 있다. 즉, 제2 임계치를 0.6으로 설정하였을 때, 특정 사용자에게 노출되는 제1 행동 컴포넌트 내지 제7 행동 컴포넌트의 값이 (0.2, 0.4, 0.4, 0.1, 0.1, 0.7, 0.5)이므로, 제2 임계치 이상의 값을 가지는 컴포넌트는 제6 표정 컴포넌트인 것을 알 수 있다. 이는, 상대방이 하나뿐인 벤치에 커플과 함께 앉고 싶지만, 특정 사용자가 이미 가운데 자리에 앉아 있기 때문에 나란히 앉지 못하는 미움의 감정을 행동으로 특정 사용자에게 노출하고 있는 상황을 나타낸 것이다. In addition, the computing device 100 may set the sixth behavior component representing the emotion of hatred among the first to seventh behavior components included in the specific behavior vector data to a preset second threshold or more and provide it to a specific user. there is. Here, the second threshold may mean a preset setting value for allowing a specific user to recognize at least some of the first to seventh behavior components. That is, when the second threshold is set to 0.6, the values of the first to seventh behavior components exposed to a specific user are (0.2, 0.4, 0.4, 0.1, 0.1, 0.7, 0.5), so the value is higher than the second threshold. It can be seen that the component with the value is the sixth facial expression component. This represents a situation in which the couple wants to sit together on a bench where the other person is the only one, but cannot sit side by side because the specific user is already sitting in the middle seat, and the feelings of hatred are being exposed to a specific user through actions.

이 경우, 컴퓨팅 장치(100)는 특정 사용자로 하여금, 제3 표정 컴포넌트에 대응되는 제3 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 제6 행동 컴포넌트에 대응되는 제6 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행할 수 있을 것이다.In this case, the computing device 100 processes a specific user to predict the presence or absence of a third emotion category corresponding to a third facial expression component and determines the presence or absence of a sixth emotion category corresponding to a sixth behavior component. You will be able to carry out a process that supports prediction.

다음으로, 다시 도 2를 참조하면, 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부에 대한 제i 표정 유래 감정 예측값 및 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부에 대한 제j 행동 유래 감정 예측값이 입력되면, 컴퓨팅 장치(100)가, 사용자의 사회인지능력에 대한 결과 데이터로서의 제i 표정 유래 감정 예측값 및 제j 행동 유래 감정 예측값에 대한 정보 각각을, 이에 대응되는 제i 표정 유래 감정 정답값 및 제j 행동 유래 감정 정답값과 대응시켜 기록하고 관리(S203)할 수 있다.Next, referring again to FIG. 2, the i-th facial expression-derived emotion prediction value for the presence or absence of the i-th emotion category corresponding to the i-th facial expression component and the j-th emotion prediction value for the presence or absence of the j-th emotion category corresponding to the j-th behavioral component When the j action-derived emotion prediction value is input, the computing device 100 provides information about the i-th facial expression-derived emotion prediction value and the j-th action-derived emotion prediction value as result data on the user's social cognitive ability, respectively, and the corresponding i-th emotion prediction value. It can be recorded and managed (S203) by matching the correct answer value of the emotion derived from the facial expression and the correct answer value of the emotion derived from the jth action.

가령, 도 3을 참조하면, 특정 사용자는 제3 감정 카테고리의 존재 여부에 대한 제3 표정 유래 감정 예측값 및 제6 감정 카테고리의 존재 여부에 대한 제6 행동 유래 감정 예측값을 각각 YES OR NO로 입력하도록 한 결과(물론, 도 3에서는 생략되었지만, 제3 감정 카테고리의 존재 여부 및 제6 감정 카테고리의 존재 여부 이외의 감정 카테고리의 존재 여부에 대해서도 YES OR NO를 입력하도록 지원할 수도 있을 것이다), 특정 사용자는 제3 표정 유래 감정 예측값 및 제6 행동 유래 감정 예측값을 각각 Y(YES)로 입력한 것을 알 수 있다. 그리고, 컴퓨팅 장치(100)는 특정 사용자의 사회인지능력에 대한 결과 데이터로서의 제3 표정 유래 감정 예측값 및 제6 행동 유래 감정 예측값에 대한 정보 각각을, 이에 대응되는 제3 표정 유래 감정 정답값 및 제6 행동 유래 감정 정답값과 대응시켜 데이터베이스(110)에 기록하고 관리할 수 있다.For example, referring to FIG. 3, a specific user inputs the third facial expression-derived emotion prediction value regarding the presence or absence of the third emotion category and the sixth action-derived emotion prediction value regarding the presence or absence of the sixth emotion category as YES OR NO, respectively. As a result (of course, it is omitted in FIG. 3, it may be possible to support entering YES OR NO regarding the presence of emotion categories other than the presence or absence of the third emotion category and the presence of the sixth emotion category), a specific user It can be seen that the third emotion prediction value derived from the facial expression and the sixth emotion prediction value derived from the behavior are each input as Y (YES). In addition, the computing device 100 provides information on the third expression-derived emotion prediction value and the sixth behavior-derived emotion prediction value as result data on the social cognitive ability of a specific user, respectively, and the third expression-derived emotion correct answer value and the sixth behavior-derived emotion prediction value, respectively. 6 It can be recorded and managed in the database 110 by matching it with the correct behavior-derived emotion value.

한편, 상기 S202 단계에서, 특정 표정 벡터 데이터 및 특정 행동 벡터 데이터가 제공되면, 컴퓨팅 장치(100)가, 특정 사용자로 하여금, 특정 표정 벡터 데이터에 포함된 제1 표정 컴포넌트 내지 제n 표정 컴포넌트 중 기설정된 제1 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부에 대한 표정 레벨을 제i_1 표정 레벨로서 예측하도록 지원하는 프로세스 및 특정 행동 벡터 데이터에 포함된 제1 행동 컴포넌트 내지 제n 행동 컴포넌트 중 기설정된 제2 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부에 대한 행동 레벨을 제j_1 행동 레벨로서 예측하도록 지원하는 프로세스를 추가적으로 수행할 수도 있다.Meanwhile, in step S202, when specific expression vector data and specific action vector data are provided, the computing device 100 causes the specific user to select one of the first to nth facial expression components included in the specific facial expression vector data. A process for supporting predicting the expression level for the presence or absence of the ith emotion category corresponding to at least one ith facial expression component corresponding to a set first threshold or more as the i_1 expression level, and the first expression included in the specific action vector data A process that supports predicting the behavior level of the presence or absence of the jth emotion category corresponding to at least one jth behavior component that is higher than a preset second threshold among the behavior components to the nth behavior component as the j_1th behavior level. It can also be performed additionally.

가령, 도 3을 참조하면, 제i_1 표정 레벨 및 제j_1 행동 레벨은 각각 제3 표정 유래 감정 예측값 및 제6 행동 유래 감정 예측값과 같은 감정 카테고리인 표정 레벨 및 행동 레벨인 예측값일 수 있으며, 특정 사용자는 제3 표정 유래 감정 예측값 및 제6 행동 유래 감정 예측값으로서 YES OR NO를 입력하는 것에 추가하여 해당 감정 카테고리의 레벨을 예측하여 각각 제3_1 표정 레벨은 0.6 및 제6_1 행동 레벨은 0.7 등으로 추가적으로 입력할 수 있다. 물론, 특정 사용자에게 이와 같이 구체적인 수치를 입력하도록 하지 않고, 상/중/하 와 같은 식으로 선택하도록 지원할 수도 있을 것이다.For example, referring to Figure 3, the i_1th expression level and the j_1th action level may be prediction values that are the expression level and action level that are the same emotion category as the third expression-derived emotion prediction value and the sixth action-derived emotion prediction value, respectively, and may be prediction values that are the expression level and action level, respectively, In addition to entering YES OR NO as the 3rd expression-derived emotion prediction value and the 6th action-derived emotion prediction value, predict the level of the corresponding emotion category and additionally input 0.6 for the 3_1 expression level and 0.7 for the 6_1 action level, respectively. can do. Of course, it would be possible to support a specific user to select something like high/middle/low rather than having them enter specific numbers like this.

또한, 상기 S203 단계에서, 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부에 대한 제i_1 표정 레벨 및 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부에 대한 제j_1 행동 레벨이 입력되면, 컴퓨팅 장치(100)가, 특정 사용자의 사회인지능력에 대한 결과 데이터로서의 제i_1 표정 레벨 및 제j_1 행동 레벨에 대한 정보 각각을, 이에 대응되는 정답값으로서의 제i_2 표정 레벨 및 제j_2 행동 레벨과 대응시켜 추가적으로 기록하고 관리할 수 있다.In addition, in step S203, the i_1th expression level regarding the presence or absence of the ith emotion category corresponding to the ith expression component and the j_1th action level regarding the presence or absence of the jth emotion category corresponding to the jth behavior component are input. Then, the computing device 100 provides information about the i_1th expression level and j_1th action level as result data about the social cognitive ability of a specific user, respectively, and the i_2th expression level and j_2th action level as the corresponding correct answer values. It can be additionally recorded and managed by matching with.

가령, 도 3을 참조하면, 제i_2 표정 레벨 및 제j_2 행동 레벨은 각각 제3 표정 유래 감정 정답값 및 제6 행동 유래 감정 정답값과 같은 감정 카테고리인 표정 레벨 및 행동 레벨에 대한 정답값일 수 있으며, 컴퓨팅 장치(100)는 제3 표정 유래 감정 정답값 및 제6 행동 유래 감정 정답값으로서 YES OR NO를 설정하는 것에 추가하여, 해당 감정 카테고리의 레벨을 특정 사용자로 하여금 예측하도록 한 예측값인 제3_1 표정 레벨 및 제6_1 행동 레벨 각각에 대응되도록, 제3_2 표정 레벨 및 제6_2 행동 레벨이 기록되어 있을 수 있다.For example, referring to Figure 3, the i_2th expression level and the j_2th action level may be the correct value for the expression level and action level, which are the same emotion categories as the third expression-derived emotion correct value and the sixth behavior-derived emotion correct value, respectively. In addition to setting YES OR NO as the third facial expression-derived emotion correct answer value and the sixth behavior-derived emotion correct answer value, the computing device 100 sets 3_1, which is a predicted value that allows a specific user to predict the level of the corresponding emotion category, The 3_2 expression level and the 6_2 behavior level may be recorded to correspond to the expression level and the 6_1 behavior level, respectively.

한편, 상기 S201단계에서, 컴퓨팅 장치(100)가, 특정 컨텐츠의 가변 설정 조건으로서 (ii-3) 상대방의 발화에 대응되는 특정 언어 벡터 데이터(특정 언어 벡터 데이터는 제1 감정 카테고리 내지 제n 감정 카테고리 각각을 나타내기 위한 제1 언어 컴포넌트 내지 제n 언어 컴포넌트를 성분으로 가짐)를 추가적으로 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 가변 설정 조건으로서의 특정 언어 벡터 데이터를 추가적으로 참조하여 상기 특정 컨텐츠를 제공할 수 있다. 여기서, 특정 언어 벡터 데이터도 위에서 언급한 특정 표정 벡터 데이터 및 특정 행동 벡터 데이터와 마찬가지로 희, 노, 애, 락, 애, 오, 욕의 감정 상태를 나타내는 언어 컴포넌트를 성분으로 가질 수 있다.Meanwhile, in step S201, the computing device 100 uses (ii-3) specific language vector data corresponding to the other party's utterance as a variable setting condition for specific content (specific language vector data includes the first emotion category to the nth emotion). It additionally determines at what timing of specific content to expose the first language component to the nth language component to represent each category, and provides the specific content by additionally referring to specific language vector data as a variable setting condition. can do. Here, the specific language vector data, like the specific facial expression vector data and specific action vector data mentioned above, may have language components representing emotional states of joy, anger, sadness, joy, sadness, anger, and swearing as components.

그리고, 특정 언어 벡터 데이터가 추가적으로 제공되면, 컴퓨팅 장치(100)가, 사용자로 하여금, 특정 언어 벡터 데이터에 포함된 제1 언어 컴포넌트 내지 제n 언어 컴포넌트 중 기설정된 제3 임계치 이상에 해당되는 적어도 하나의 제k 언어 컴포넌트에 대응되는 제k 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 추가적으로 수행할 수 있다. 가령, 컴퓨팅 장치(100)는, 사용자로 하여금, 7개의 언어 컴포넌트 중 기설정된 제3 임계치 이상에 해당되는 적어도 하나의 감정인 분노(k는 희로애락애오욕 중 2번째 감정인 노에 해당하는 것으로 예를 들어 가정함)의 감정 상태를 표현하는 제2 언어 컴포넌트에 대응되는 제2 감정 카테고리의 존재 여부를 추가적으로 예측하도록 지원할 수 있다.And, when specific language vector data is additionally provided, the computing device 100 causes the user to select at least one of the first to nth language components included in the specific language vector data that is equal to or higher than a preset third threshold. A process that supports predicting the presence or absence of the kth emotion category corresponding to the kth language component of can be additionally performed. For example, the computing device 100 allows the user to express at least one emotion that is higher than a preset third threshold among the seven language components: anger (k corresponds to anger, which is the second emotion among the joys, sorrows, sorrows, and desires. For example, It can be supported to additionally predict the existence of a second emotional category corresponding to a second language component expressing the emotional state (assumed).

다음으로, 제2 언어 컴포넌트에 대응되는 제2 감정 카테고리의 존재 여부에 대한 제2 언어 유래 감정 예측값이 입력되면, 컴퓨팅 장치(100)가, 사용자의 사회인지능력에 대한 결과 데이터로서의 제2 언어 유래 감정 예측값에 대한 정보를, 이에 대응되는 제2 언어 유래 감정 정답값과 대응시켜 추가적으로 기록하고 관리할 수 있다.Next, when the second language-derived emotion prediction value regarding the presence or absence of the second emotion category corresponding to the second language component is input, the computing device 100 generates the second language-derived emotion prediction value as result data about the user's social cognitive ability. Information about the predicted emotion value can be additionally recorded and managed by matching it with the corresponding emotion correct value derived from the second language.

또한, 특정 언어 벡터 데이터가 추가적으로 제공되면, 컴퓨팅 장치(100)가, 사용자로 하여금, 특정 언어 벡터 데이터에 포함된 제1 언어 컴포넌트 내지 제n 언어 컴포넌트 중 기설정된 제3 임계치 이상에 해당되는 적어도 하나의 제2 언어 컴포넌트에 대응되는 제2 감정 카테고리의 존재 여부에 대한 언어 레벨을 제2_1 언어 레벨로서 예측하도록 지원하는 프로세스를 추가적으로 수행할 수 있다.In addition, when specific language vector data is additionally provided, the computing device 100 causes the user to select at least one of the first to nth language components included in the specific language vector data that is equal to or higher than a preset third threshold. A process to support predicting the language level for the presence or absence of the second emotion category corresponding to the second language component as the 2_1 language level may be additionally performed.

그리고, 제2 언어 컴포넌트에 대응되는 제2 감정 카테고리의 존재 여부에 대한 제2_1 언어 레벨이 입력되면, 컴퓨팅 장치(100)가, 사용자의 사회인지능력에 대한 결과 데이터로서의 제2_1 언어 레벨에 대한 정보를, 이에 대응되는 정답값으로서의 제2_2 언어 레벨과 대응시켜 추가적으로 기록하고 관리할 수 있다.And, when the 2_1 language level regarding the presence or absence of the second emotion category corresponding to the second language component is input, the computing device 100 provides information about the 2_1 language level as result data about the user's social cognitive ability. can be additionally recorded and managed by matching it with the 2_2 language level as the corresponding correct answer value.

이때, 도 3에서 가변 설정 조건으로서의 특정 언어 벡터 데이터에 대한 정보들은 생략되어 있으나, 이는 데이터베이스(110)가 특정 언어 벡터 데이터에 대한 정보를 포함하지 않는다는 것은 아니다.At this time, information about specific language vector data as variable setting conditions is omitted in FIG. 3, but this does not mean that the database 110 does not include information about specific language vector data.

그리고, 제1 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부에 대한 제 i 표정 유래 감정 예측값과 제i 표정 유래 감정 정답값이 다를 경우, 컴퓨팅 장치(100)가, 제1 표정 컴포넌트 내지 제 n 표정 컴포넌트 중 기설정된 제1 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부에 대한 표정 레벨을 제1 소정 크기만큼 증가시킨 상태로 특정 컨텐츠를 조정한 제1 조정 컨텐츠를 제공하는 프로세스를 수행할 수 있다. And, when the i-th facial expression-derived emotion prediction value and the ith facial expression-derived emotion correct answer value for the presence or absence of the i-th emotion category corresponding to at least one ith facial expression component corresponding to the first threshold or higher are different, the computing device (100 ) increases the expression level for the presence or absence of the i-th emotion category corresponding to at least one i-th expression component corresponding to a preset first threshold or more among the first to n-th expression components by a first predetermined size. A process of providing first adjusted content in which specific content has been adjusted can be performed.

여기서, 제1 임계치(0.5) 이상에 해당되는 제3 표정 컴포넌트에 대응되는 제3 감정 카테고리의 존재 여부에 대한 제3 표정 유래 감정 예측값이 제3 표정 유래 감정 정답값과 다르다는 것은, 특정 사용자가 제3 표정 유래 감정 예측값을 N(NO)로 입력하여 제3 감정 카테고리를 인지하지 못했다는 것을 의미할 수 있다. 그러면 컴퓨팅 장치(100)는 특정 표정 벡터 데이터의 성분 중 기설정된 제1 임계치 이상의 성분인 제3 표정 컴포넌트에 대응되는 표정 레벨, 즉 슬픈 감정을 나타내는 표정의 값을 0.6에서 0.7로 증가시켜 특정 사용자에게 다시 노출할 수 있다. Here, the fact that the third facial expression-derived emotion prediction value for the presence or absence of the third emotion category corresponding to the third facial expression component corresponding to the first threshold (0.5) or more is different from the third facial expression-derived emotion correct value means that the specific user is 3 Entering the facial expression-derived emotion prediction value as N(NO) may mean that the third emotion category was not recognized. Then, the computing device 100 increases the expression level corresponding to the third expression component, which is a component above the preset first threshold among the components of the specific expression vector data, that is, the value of the expression indicating a sad emotion, from 0.6 to 0.7 to provide the specific user You can expose it again.

이와는 달리, 화난 감정을 나타내는 제2 표정 컴포넌트에 대응되는 표정 레벨이나, 미움 감정을 나타내는 제6 표정 컴포넌트에 대응되는 표정 레벨 등 부정적 감정을 나타내는 타 표정 컴포넌트의 표정 레벨을 소정 크기 조정함으로써 특정 사용자로 하여금 제3 표정 컴포넌트에 대응되는 표정 레벨의 값을 예측하도록 할 수도 있을 것이나 이에 한정되는 것은 아니다.In contrast, by adjusting the expression level of other facial expression components indicating negative emotions, such as the facial expression level corresponding to the second facial expression component indicating an angry emotion, or the facial expression level corresponding to the sixth facial expression component indicating a hateful emotion, to a specific user. It may be possible to predict the value of the expression level corresponding to the third expression component, but it is not limited to this.

다음으로, 제2 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부에 대한 제j 행동 유래 감정 예측값과 제j 행동 유래 감정 정답값이 다를 경우, 컴퓨팅 장치가, 제1 행동 컴포넌트 내지 제 n 행동 컴포넌트 중 기설정된 제2 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부에 대한 행동 레벨을 제2 소정 크기만큼 증가시킨 상태로 특정 컨텐츠를 조정한 제2 조정 컨텐츠를 제공하는 프로세스를 수행할 수 있다.Next, if the jth behavior-derived emotion prediction value and the jth behavior-derived emotion correct answer value for the presence or absence of the jth emotion category corresponding to at least one jth behavior component corresponding to the second threshold are different, the computing device , A state in which the action level for the presence or absence of the jth emotion category corresponding to at least one jth action component that is higher than a preset second threshold among the first to nth action components is increased by a second predetermined amount. A process of providing second adjusted content by adjusting specific content can be performed.

여기서, 제2 임계치(0.6) 이상에 해당되는 제6 행동 컴포넌트에 대응되는 제6 감정 카테고리의 존재 여부에 대한 제6 행동 유래 감정 예측값이 제6 행동 유래 감정 정답값과 다르다는 것은, 특정 사용자가 제6 표정 유래 감정 예측값을 N(NO)로 입력하여 제6 감정 카테고리를 인지하지 못했다는 것을 의미할 수 있다. 그러면 컴퓨팅 장치(100)는 특정 행동 벡터 데이터의 성분 중 기설정된 제2 임계치 이상의 성분인 제6 행동 컴포넌트에 대응되는 행동 레벨, 즉 미움 감정을 나타내는 행동의 값을 0.7에서 0.8로 증가시켜 특정 사용자에게 다시 노출할 수 있다. Here, the fact that the sixth behavior-derived emotion predicted value for the presence or absence of the sixth emotion category corresponding to the sixth behavior component corresponding to the second threshold (0.6) or higher is different from the sixth behavior-derived emotion correct value means that the specific user 6 The expression-derived emotion prediction value was entered as N(NO), which may mean that the sixth emotion category was not recognized. Then, the computing device 100 increases the action level corresponding to the sixth action component, which is a component above the preset second threshold among the components of the specific action vector data, that is, the value of the action indicating the emotion of hate from 0.7 to 0.8, and increases the action level corresponding to the sixth action component, which is a component above the preset second threshold, from 0.7 to 0.8. You can expose it again.

이와는 달리, 화난 감정을 나타내는 제2 행동 컴포넌트에 대응되는 행동 레벨이나, 슬픈 감정을 나타내는 제3 행동 컴포넌트에 대응되는 행동 레벨 등 부정적 감정을 나타내는 타 행동 컴포넌트의 행동 레벨을 소정 크기 조정함으로써 특정 사용자로 하여금 제6 행동 컴포넌트에 대응되는 행동 레벨의 값을 예측하도록 할 수도 있을 것이나 이에 한정되는 것은 아니다.In contrast, the behavior level of other behavior components indicating negative emotions, such as the behavior level corresponding to the second behavior component indicating angry emotions or the behavior level corresponding to the third behavior component indicating sad emotions, is adjusted to a certain size to a specific user. It may be possible to predict the value of the action level corresponding to the sixth action component, but it is not limited to this.

그리고, 예측값으로서의 제i_1 표정 레벨과 이에 대응되는 정답값으로서의 제i_2 표정 레벨이 일치하였음이 감지되고, 예측값으로서의 제j_1 행동 레벨과 이에 대응되는 정답값으로서의 제j_2 행동 레벨이 일치하였음이 감지된 상태에서, 특정 사용자에 의해 제 i_1 표정 레벨 및 제j_1 행동 레벨을 참조로 제1 사용자 대응 액션 내지 제m 사용자 대응 액션 중 어느 하나인 제u사용자 대응 액션이 선택되었음이 감지되면, 컴퓨팅 장치(100)가, 특정 사용자의 사회인지능력에 대한 결과 데이터로서의 제u 사용자 대응 액션을 제i_1 표정 레벨 및 제j_1 행동 레벨과 대응시켜 추가적으로 기록하고 관리할 수 있다.In addition, it is detected that the i_1th expression level as the predicted value and the i_2th expression level as the corresponding correct answer value match, and the j_1th behavior level as the predicted value and the j_2th behavioral level as the corresponding correct answer value are detected to match. When it is detected that the u-th user-corresponding action, which is one of the first user-corresponding action to the m-th user-corresponding action, has been selected by a specific user with reference to the i_1-th facial expression level and the j_1-th behavioral level, the computing device 100 First, the u-th user response action, which is the result data on the social cognitive ability of a specific user, can be additionally recorded and managed by matching it with the i_1th facial expression level and j_1th behavior level.

즉, 특정 사용자가 예측한 값인 제3_1 표정 레벨과 정답값인 제3_2 표정 레벨이 일치하고, 특정 사용자가 예측한 값인 제6_1 행동 레벨과 정답값인 제6_2 행동 레벨이 일치하였음이 감지된 상태에서, 특정 사용자는 자신이 선택한 제3_1 표정 레벨 및 제6_1 행동 레벨을 참조로 하여 상대방에게 특정 대응 행동인 제u 사용자 대응 액션을 수행할 수 있다. 여기서 특정 대응 행동이란 제1 사용자 대응 액션 내지 제m 사용자 대응 액션 중 어떤 액션을 선택해야 상대방의 부정적 감정을 감소시킬 수 있는지에 대하여 특정 사용자가 수행한 액션일 수 있다. In other words, when it is detected that the 3_1 expression level, which is the value predicted by a specific user, and the 3_2 expression level, which is the correct answer, match, and the 6_1 behavior level, which is the value predicted by a specific user, and the 6_2 behavior level, which is the correct answer value, match, , a specific user can perform a u-th user response action, which is a specific response action, to the other person with reference to the 3_1st expression level and 6_1th action level selected by the user. Here, the specific response action may be an action performed by a specific user regarding which action to select from the first user response action to the mth user response action to reduce the other person's negative emotions.

이때, 제1 사용자 대응 액션 내지 제m 사용자 대응 액션의 예시로서, 1. 자리를 한칸 옆으로 옮긴다. 2. 남자에게 자신의 오른쪽에 앉을 것을 권한다. 3. 모른척 한다. 4. 여자를 진심으로 위로해준다. 등이 있을 수 있으며, 여기서 특정 사용자는 적절한 대응 액션으로서 1번 선택지를 제1 사용자 대응 액션으로 선택할 수 있다. 그러면, 컴퓨팅 장치(100)는, 특정 사용자의 사회인지능력에 대한 결과 데이터로서의 제1 사용자 대응 액션을 제3_1 표정 레벨 및 제6_1 행동 레벨과 대응시켜 추가적으로 기록하고 관리할 수 있다.At this time, as examples of the first to mth user response actions, 1. Move the seat one space to the side. 2. Invite the man to sit on his right. 3. Pretend not to know. 4. Comfort the woman sincerely. etc., where a specific user may select option 1 as the first user response action as an appropriate response action. Then, the computing device 100 may additionally record and manage the first user response action as result data on the social cognitive ability of a specific user by matching it with the 3_1 facial expression level and the 6_1 behavioral level.

한편, 이하에서는 컴퓨팅 장치(100)가 학습 장치(미도시)를 포함하며, 학습 장치를 사용하여 학습하는 과정에 대한 예시를 설명하도록 한다.Meanwhile, in the following, the computing device 100 includes a learning device (not shown), and an example of a learning process using the learning device will be described.

우선, 컴퓨팅 장치(100)는, (i) 사용자에 대한 정보 및 사용자와 기설정된 임계치 이상의 유사도를 가지는 적어도 하나의 타 사용자에 대한 정보, (ii) 특정 표정 벡터 데이터 및 이에 대응되는 타 사용자에게 노출되었던 타 표정 벡터 데이터, (iii) 특정 행동 벡터 데이터 및 이에 대응되는 타 사용자에게 노출되었던 타 행동 벡터 데이터, 및 (iv) 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부에 대한 제i 표정 유래 감정 예측값, 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부에 대한 제j 행동 유래 감정 예측값, 타 사용자에 의해 입력되었던 타 표정 유래 감정 예측값, 타 행동 유래 감정 예측값 및 이에 대응되는 제i 표정 유래 감정 정답값, 제j 행동 유래 감정 정답값, 타 표정 유래 감정 정답값, 및 타 행동 유래 감정 정답값 중 적어도 일부를 학습 장치에 입력할 수 있다. 이때, (i) 사용자에 대한 정보는 나이, 성별, mbti, 심박수, 호흡수 등을 포함할 수 있으나 이에 한정되는 것은 아니며, 타 사용자에 대한 정보는 이전에 특정 컨텐츠를 이용했던 사람들 중 사용자에 대한 정보 및 사용자가 입력한 예측값과 기설정된 임계치 이상의 유사도를 가지는 사람을 의미할 수 있다. 이와 같은 방식으로, (ii), (iii), (iv)에서 사용자에게 노출되었던 표정이나 행동에 대한 벡터 데이터, 타 사용자에게 노출되었던 표정이나 행동에 대한 벡터 데이터, 사용자 또는 타 사용자에 의해 입력되었던 상대방의 표정 및 행동에 대한 예측값, 및 이에 대응되는 상대방의 표정 및 행동에 대한 정답값 등을 학습 장치에 입력할 수 있다.First, the computing device 100 exposes (i) information about the user and information about at least one other user having a similarity to the user greater than a preset threshold, (ii) specific facial expression vector data and corresponding information to other users. other facial expression vector data, (iii) specific behavior vector data and corresponding other behavior vector data exposed to other users, and (iv) i-th facial expression regarding the presence or absence of the i-th emotion category corresponding to the i-th facial expression component. Emotion predicted value derived from the jth action, emotion predicted value derived from the jth action regarding the presence or absence of the jth emotion category corresponding to the jth action component, emotion predicted value derived from another facial expression entered by another user, emotion predicted value derived from another action and the ith corresponding thereto. At least some of the emotion correct value derived from the facial expression, the emotion correct value derived from the jth action, the emotion correct value derived from another facial expression, and the emotion correct value derived from the other behavior can be input to the learning device. At this time, (i) information about the user may include, but is not limited to, age, gender, mbti, heart rate, respiratory rate, etc., and information about other users includes information about the user among those who have previously used specific content. It may refer to a person who has a similarity between the information and the predicted value entered by the user above a preset threshold. In this way, in (ii), (iii), and (iv), vector data about the facial expression or behavior exposed to the user, vector data about the facial expression or behavior exposed to other users, or input by the user or other users Predicted values for the other person's expression and behavior, and corresponding correct answer values for the other person's expression and behavior, etc. can be input into the learning device.

컴퓨팅 장치(100)는, 이와 같은 데이터들을 학습 장치에 입력하여, 학습 장치로 하여금, 사용자 및 타 사용자의 제i 표정 유래 감정 예측값, 제j 행동 유래 감정 예측값, 타 표정 유래 감정 예측값, 및 타 행동 유래 감정 예측값 중 적어도 일부의 정확도를 높이기 위한, 최적 특정 표정 벡터 데이터, 최적 타 표정 벡터 데이터, 최적 특정 행동 벡터 데이터 및 최적 타 행동 벡터 데이터 중 적어도 일부를 학습하도록 할 수 있다.The computing device 100 inputs such data into the learning device, and causes the learning device to calculate the emotion prediction value derived from the ith facial expression of the user and other users, the emotion prediction value derived from the jth behavior, the emotion prediction value derived from other facial expressions, and other behaviors. In order to increase the accuracy of at least some of the derived emotion prediction values, at least some of optimal specific expression vector data, optimal other facial expression vector data, optimal specific behavior vector data, and optimal other behavior vector data may be learned.

여기서, 컴퓨팅 장치(100)는 학습 장치로 하여금, 최적 특정 표정 벡터 데이터, 최적 타 표정 벡터 데이터, 최적 특정 행동 벡터 데이터 및 최적 타 행동 벡터 데이터 중 적어도 일부를 학습하도록 함으로써, 사용자 및 타 사용자가 상대방의 표정이나 행동을 보고 상대방의 감정을 파악할 확률을 높이도록 할 수 있을 것이다. 여기서, 감정을 파악할 확률을 높이는 것의 개념은, 말 그대로 상대방의 감정을 파악할 확률 수치가 높은 것을 의미할 수도 있으나, 본 컨텐츠에 대한 시청을 통해 감정을 파악할 능력이 종전보다 개선되는 정도의 수치를 포함할 수도 있다.Here, the computing device 100 causes the learning device to learn at least some of the optimal specific expression vector data, optimal other facial expression vector data, optimal specific behavior vector data, and optimal other behavior vector data, so that the user and other users can interact with each other. You can increase the probability of understanding the other person's emotions by looking at their facial expressions or actions. Here, the concept of increasing the probability of identifying emotions may literally mean that the probability of identifying the other person's emotions is high, but it also includes the level of improvement in the ability to understand emotions through watching this content compared to before. You may.

또한, 컴퓨팅 장치(100)는, 마찬가지로, (i) 사용자에 대한 정보 및 사용자와 기설정된 임계치 이상의 유사도를 가지는 적어도 하나의 타 사용자에 대한 정보, (ii) 특정 표정 벡터 데이터 및 이에 대응되는 타 사용자에게 노출되었던 타 표정 벡터 데이터, (iii) 특정 행동 벡터 데이터 및 이에 대응되는 타 사용자에게 노출되었던 타 행동 벡터 데이터, 및 (iv) 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부에 대한 제i 표정 유래 감정 예측값, 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부에 대한 제j 행동 유래 감정 예측값, 타 사용자에 의해 입력되었던 타 표정 유래 감정 예측값, 타 행동 유래 감정 예측값 및 이에 대응되는 제i 표정 유래 감정 정답값, 제j 행동 유래 감정 정답값, 타 표정 유래 감정 정답값, 및 타 행동 유래 감정 정답값 중 적어도 일부를 학습 장치에 입력할 수 있다. 이때, (i) 사용자에 대한 정보는 나이, 성별, mbti, 심박수, 호흡수 등을 포함할 수 있으나 이에 한정되는 것은 아니며, 타 사용자에 대한 정보는 이전에 특정 컨텐츠를 이용했던 사람들 중 사용자에 대한 정보 및 사용자가 입력한 예측값과 기설정된 임계치 이상의 유사도를 가지는 사람을 의미할 수 있다. 이와 같은 방식으로, (ii), (iii), (iv)에서 사용자에게 노출되었던 표정이나 행동에 대한 벡터 데이터, 타 사용자에게 노출되었던 표정이나 행동에 대한 벡터 데이터, 사용자 또는 타 사용자에 의해 입력되었던 상대방의 표정 및 행동에 대한 예측값, 및 이에 대응되는 상대방의 표정 및 행동에 대한 정답값 등을 학습 장치에 입력할 수 있다.In addition, the computing device 100, similarly, includes (i) information about the user and information about at least one other user having a similarity to the user greater than a preset threshold, (ii) specific expression vector data and other users corresponding thereto. Other facial expression vector data that has been exposed to other users, (iii) specific behavior vector data and corresponding other behavior vector data that has been exposed to other users, and (iv) information on the existence of the i-th emotion category corresponding to the i-th facial expression component. i expression-derived emotion prediction value, j-th action-derived emotion prediction value regarding the presence or absence of the j-th emotion category corresponding to the j-th action component, other facial expression-derived emotion prediction value entered by another user, other behavior-derived emotion prediction value and its corresponding At least some of the emotion correct value derived from the ith facial expression, the emotion correct value derived from the j action, the emotion correct value derived from another facial expression, and the emotion correct value derived from another behavior can be input to the learning device. At this time, (i) information about the user may include, but is not limited to, age, gender, mbti, heart rate, respiratory rate, etc., and information about other users includes information about the user among those who have previously used specific content. It may refer to a person who has a similarity between the information and the predicted value entered by the user above a preset threshold. In this way, in (ii), (iii), and (iv), vector data about the facial expression or behavior exposed to the user, vector data about the facial expression or behavior exposed to other users, or input by the user or other users Predicted values for the other person's expression and behavior, and corresponding correct answer values for the other person's expression and behavior, etc. can be input into the learning device.

컴퓨팅 장치(100)는, 이와 같은 데이터들을 학습 장치에 입력하여, 학습 장치로 하여금, 사용자 및 타 사용자의 제i 표정 유래 감정 예측값, 제j 행동 유래 감정 예측값, 타 표정 유래 감정 예측값, 및 타 행동 유래 감정 예측값 중 적어도 일부의 정확도를 높이기 위한, 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부에 대한 표정 레벨의 제1 최적값 및, 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부에 대한 행동 레벨의 제2 최적값 중 적어도 일부를 학습하도록 할 수 있다.The computing device 100 inputs such data into the learning device, and causes the learning device to calculate the emotion prediction value derived from the ith facial expression of the user and other users, the emotion prediction value derived from the jth behavior, the emotion prediction value derived from other facial expressions, and other behaviors. A first optimal value of the expression level for the presence or absence of the ith emotion category corresponding to the ith expression component, and the existence of the jth emotion category corresponding to the jth behavior component, to increase the accuracy of at least some of the derived emotion prediction values. It is possible to learn at least some of the second optimal values of the action level.

여기서, 제1 최적값 및 제2 최적값은 특정 사용자가 상대방의 감정을 잘 파악하도록 하기 위해 학습될 수 있으며, 이는 상대방의 감정을 나타내는 표정 및 행동에서 특정 감정 카테고리의 성분의 레벨에 대한 최적의 값을 의미할 수 있다.Here, the first optimal value and the second optimal value can be learned to enable a specific user to better understand the other person's emotions, which is the optimal value for the level of components of a specific emotional category in facial expressions and actions that express the other person's emotions. It can mean value.

그러면, 컴퓨팅 장치(100)는 학습 장치로 하여금, 제i 표정 컴포넌트에 대응되는 제i 감정 카테고리의 존재 여부에 대한 표정 레벨의 제1 최적값 및, 제j 행동 컴포넌트에 대응되는 제j 감정 카테고리의 존재 여부에 대한 행동 레벨의 제2 최적값 중 적어도 일부를 학습하도록 함으로써, 사용자 및 타 사용자의 제i 표정 유래 감정 예측값, 제j 행동 유래 감정 예측값, 타 표정 유래 감정 예측값, 및 타 행동 유래 감정 예측값 중 적어도 일부의 정확도를 높일 수 있을 것이다.Then, the computing device 100 causes the learning device to determine the first optimal value of the expression level for the presence or absence of the ith emotion category corresponding to the ith expression component and the jth emotion category corresponding to the jth behavior component. By learning at least some of the second optimal values of the action level for presence or absence, the emotion predicted value derived from the ith facial expression of the user and other users, the emotion predicted value derived from the jth behavior, the emotion predicted value derived from another facial expression, and the emotion predicted value derived from the other behavior. It will be possible to increase the accuracy of at least some of them.

이때, 도 8b을 참조하면, 마지막으로, 사용자(820)가 입력한 예측값인 상대방(810)의 제3 표정 컴포넌트에 대응되는 제3 감정 카테고리의 존재 여부에 대한 제3 표정 유래 감정 예측값, 상대방(810)의 제6 행동 컴포넌트에 대응되는 제6 감정 카테고리의 존재 여부에 대한 제6 행동 유래 감정 예측값이 각각 제3 감정 카테고리의 존재 여부에 대한 정답값인 제3 표정 유래 감정 정답값, 제6 감정 카테고리의 존재 여부에 대한 정답값인 제6 행동 유래 감정 정답값과 일치하는 것으로 확인되고, 제3 감정 카테고리의 존재 여부에 대한 표정 레벨의 예측값인 제3_1 표정 레벨, 제6 감정 카테고리의 존재 여부에 대한 행동 레벨의 예측값인 제6_1 행동 레벨이 각각 제3 감정 카테고리의 존재 여부에 대한 표정 레벨의 정답값인 제3_2 표정 레벨, 제6 감정 카테고리의 존재 여부에 대한 행동 레벨의 정답값인 제6_2 행동 레벨이 일치하는 것으로 확인되어, 최종적으로 사용자(820)가 특정 컨텐츠의 미션을 완료하여 커플인 상대방(810)에게 자리를 양보하여 함께 자리에 앉아 있는 상황을 나타낸 것이다.At this time, referring to FIG. 8B, finally, the third expression-derived emotion prediction value for the presence or absence of the third emotion category corresponding to the third expression component of the other party 810, which is the prediction value input by the user 820, the other party ( 810), the sixth behavior-derived emotion prediction value for the presence or absence of the sixth emotion category corresponding to the sixth behavior component is the correct answer value for the presence or absence of the third emotion category, respectively, the third facial expression-derived emotion correct value, and the sixth emotion. It was confirmed to be consistent with the 6th action-derived emotion correct value, which is the correct value for the existence of the category, and the 3_1 facial expression level, which is the predicted value of the facial expression level for the presence of the 3rd emotional category, and the 6th emotional category. The 6_1 behavior level, which is the predicted value of the behavior level for It is confirmed that the levels match, and finally, the user 820 completes the mission of the specific content and gives up his or her seat to the other person 810, who is a couple, and sits together.

도 4는 본 발명의 제2 실시예에 따라, 상대방의 부정적 감정을 예측하고 줄이도록 하기 위한 특정 컨텐츠를 제공하는 과정을 개략적으로 도시한 것이다.Figure 4 schematically shows a process for providing specific content to predict and reduce the other person's negative emotions, according to a second embodiment of the present invention.

이때, 제2 실시예는 상대방의 부정적 감정을 줄이기 위해, 사용자가 대응(선택)해야 하는 정답, 가령, 사용자가 벤치에 앉아 있을 때, 자리를 비켜주는 행위가 정답 행동인 컨텐츠를 제공하는 것을 기본으로 상정하여 설명할 것이나 이에 한정되는 것은 아니다.At this time, the second embodiment is based on providing content where the correct answer to which the user must respond (select), for example, when the user is sitting on a bench, is to move away from the seat in order to reduce the other person's negative emotions. It will be explained assuming that, but it is not limited to this.

도 4를 참조하면, 먼저, 사용자가 상대방의 부정적 감정을 예측하여 줄이도록 하기 위해, 컴퓨팅 장치(100)가, 특정 컨텐츠의 사전 설정 조건으로서 (i-1) 사용자가 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터 및 (i-2) 특정 객체에 대한 특정 상태 데이터를 결정하고, 특정 컨텐츠의 가변 설정 조건으로서 (ii-1) 상대방의 표정에 대응되는 특정 표정 벡터 데이터 - 특정 표정 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제n 표정 컴포넌트를 성분으로 가짐 - 및 (ii-2) 상대방의 행동에 대응되는 특정 행동 벡터 데이터 - 특정 행동 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제n 행동 컴포넌트를 성분으로 가짐 - 중 적어도 일부를 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 사전 설정 조건으로서의 특정 객체 데이터 및 특정 상태 데이터와, 가변 설정 조건으로서의 특정 표정 벡터 데이터, 및 특정 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 특정 컨텐츠를 제공(S401)할 수 있다.Referring to FIG. 4, first, in order for the user to predict and reduce the other person's negative emotions, the computing device 100 sets (i-1) at least one item in which the user appears in the specific content as a preset condition for the specific content. Determining specific object data for at least one specific object as an object for interaction with the other party and (i-2) specific state data for the specific object, and (ii-1) the other party's facial expression as a variable setting condition for the specific content specific expression vector data corresponding to - the specific expression vector data has as components a first to nth expression component for representing each of the first to nth counterpart emotion categories - and (ii-2) the other party specific behavior vector data corresponding to the behavior - the specific behavior vector data has as components a first behavior component to an nth behavior component for representing each of the first partner's emotion category to the nth partner's emotion category - specifying at least some of the Determine at what timing the content will be exposed, and provide specific content with reference to at least some of the specific object data and specific state data as preset conditions, specific expression vector data as variable setting conditions, and specific action vector data ( S401) You can.

다시, 도 8a를 참조하면, 공원의 벤치에서 커플인 상대방(810)에게 자리를 양보해주는 미션을 통해 상대방(810)의 부정적 감정을 예측하고 줄이도록 하기 위한 제1 컨텐츠에서, 사용자(820)가 앞에 있는 상대방의 표정, 행동을 보는 상황을 나타낸 것이다. 사용자(820)는 특정 컨텐츠 내에 설정되어 있는 조건들과 상대방(810)의 표정, 행동을 보고 상대방이 원하는 것을 파악하여 적절한 대응 행동을 수행할 수 있다. 또한, 도 8a 및 도 8b의 사용자(820)는 제2 실시예의 특정 사용자를 의미할 수 있다. Again, referring to FIG. 8A, in the first content to predict and reduce the negative emotions of the other person 810 through a mission to give up a seat to the other person 810, a couple, on a bench in the park, the user 820 It represents a situation where you see the facial expressions and actions of the other person in front of you. The user 820 can determine what the other party wants by looking at the conditions set within the specific content and the facial expression and behavior of the other party 810 and perform appropriate response actions. Additionally, the user 820 in FIGS. 8A and 8B may refer to a specific user in the second embodiment.

여기서, 사전 설정 조건은, 특정 사용자에게 특정 컨텐츠를 제공하기 전 사용자의 나이, 성별, 사회인지능력 저하 정도, 이전의 특정 컨텐츠 이용 이력 등 특정 사용자에 대한 정보를 참조로 하여 결정되는, 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터와 특정 객체에 대한 특정 상태 데이터를 의미할 수 있다.Here, the preset conditions are determined by referring to information about a specific user, such as the user's age, gender, degree of social cognitive decline, and previous history of using specific content, before providing specific content to a specific user. It may mean specific object data for at least one specific object as an object for interaction with at least one other party that appears and specific state data for the specific object.

여기서, 상대방은, 특정 사용자와 인터랙션하기 위한 대상으로서 실제의 인물이 아니라, 특정 컨텐츠 내에 등장하는 가상의 인물인 것을 상정하나 이에 한정되는 것은 아니다.Here, it is assumed that the other party is not an actual person as an object of interaction with a specific user, but a virtual person appearing in specific content, but is not limited to this.

가령, 제2 실시예에서의 특정 객체는 특정 컨텐츠 내에 특정 사용자가 앉아 있는 3인용 벤치를 의미하고, 특정 객체 데이터는 특정 객체인 벤치의 개수를 의미하며, 특정 상태 데이터는 특정 객체인 벤치의 점유율을 의미할 수 있으나 사전 설정 조건의 예시는 이에 한정되는 것이 아니라 다양한 변형이 가능할 것이다.For example, in the second embodiment, the specific object refers to a three-person bench on which a specific user is sitting within specific content, the specific object data refers to the number of benches that are a specific object, and the specific state data refers to the occupancy rate of the bench that is a specific object. However, examples of preset conditions are not limited to this and various modifications may be possible.

그리고, 가변 설정 조건은, 특정 사용자에게 특정 컨텐츠를 제공하는 도중에, 특정 사용자 반응을 참조로 하여 조정될 수 있는 조건으로서, 상대방의 표정에 대응되는 특정 표정 벡터 데이터와 상대방의 행동에 대응되는 특정 행동 벡터 데이터일 수 있다.And, the variable setting condition is a condition that can be adjusted with reference to a specific user's reaction while providing specific content to a specific user, and includes specific expression vector data corresponding to the other person's facial expression and specific action vector corresponding to the other person's behavior. It could be data.

이때, 특정 표정 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제n 표정 컴포넌트를 성분으로 가지며, 제2 실시예에서 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리는 설명의 편의상 사람의 기본 감정인 희(기쁨), 노(분노), 애(슬픔), 락(즐거움), 애(사랑), 오(미움), 욕(욕심)에 대한 감정 카테고리로서 설명하겠다. 가령, 제1 상대방 감정 카테고리는 기쁨의 감정인 희를 나타내는 감정이고, 제2 상대방 감정 카테고리는 분노를 나타내는 감정이며, 제7 상대방 감정 카테고리는 욕심을 나타내는 감정으로 상정하여 설명할 수 있을 것이다. 또한, 특정 행동 벡터 데이터도 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리를 특정 표정 벡터 데이터와 마찬가지로 7가지의 기본 감정 대응시킬 수 있을 것이다. 그리고, 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제7 표정 컴포넌트는 각각의 상대방 감정 카테고리의 감정을 나타내기 위해 사용자에게 노출하는 상대방의 표정일 수 있으며, 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리를 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제7 행동 컴포넌트는 각각의 상대방 감정 카테고리의 감정을 나타내기 위해 특정 사용자에게 노출하는 상대방의 행동일 수 있다.At this time, the specific facial expression vector data has as components a first facial expression component to an n-th facial expression component for representing each of the first to n-th emotional categories, and in the second embodiment, the first to n-th emotional categories. For convenience of explanation, the other person's emotion category is an emotion category for the basic human emotions of joy, anger, sadness, joy, love, hate, and greed. Let me explain. For example, it can be explained by assuming that the first emotion category is an emotion representing joy, the second emotion category is an emotion representing anger, and the seventh emotion category is an emotion representing greed. In addition, the specific action vector data may be able to correspond to the first through seventh emotional categories of the other person to seven basic emotions, similar to the specific facial expression vector data. In addition, the first to seventh facial expression components for representing each of the first to seventh partner emotion categories may be the other person's facial expressions exposed to the user to represent the emotions of each of the other partner's emotional categories, The first to seventh behavior components for representing the first to seventh counterpart emotion categories, respectively, may be the other party's actions exposed to a specific user to express the emotions of each other party's emotion category.

한편, 도 5를 참조하면, 사전 설정 조건으로서의 특정 객체에 대한 특정 객체 데이터, 및 특정 상태 데이터와, 가변 설정 조건으로서의 상대방에 대한 특정 표정 벡터 데이터, 및 특정 행동 벡터 데이터가 데이터베이스(110)에 저장되어 있는 것을 알 수 있다. 여기서, 데이터베이스(110)에 저장된 값들은 설명의 편의상, 특정한 사용자인 사용자 1(이하, 특정 사용자라고 함)에 대한 정보들을 저장한 것으로 상정하였으나, 데이터베이스(110)에 저장되는 데이터들은 이에 한정되는 것이 아니라 다수의 사람에 대한 데이터를 저장할 수 있을 것임은 물론이라 할 것이다.Meanwhile, referring to FIG. 5, specific object data and specific state data for a specific object as preset conditions, specific facial expression vector data for the other person as variable setting conditions, and specific action vector data are stored in the database 110. You can see that it has been done. Here, for convenience of explanation, the values stored in the database 110 are assumed to store information about a specific user, User 1 (hereinafter referred to as a specific user), but the data stored in the database 110 is limited to this. Of course, it will be possible to store data about many people.

그리고, 데이터베이스(110)에 저장된 특정 객체 데이터, 및 특정 상태 데이터는 각각 객체 종류: 3인용 벤치 & 객체 개수: 1개, 좌석 점유율: 33% & 점유 위치: 가운데 자리인 것을 알 수 있다. 물론, 벤치의 개수가 더 많은 경우도 상정할 수도 있으며, 이 경우에는 특정 사용자가 선택할 수 있는 옵션이 여러 가지로 늘어나므로 특정 컨텐츠의 난이도가 올라갈 수도 있을 것이다. In addition, it can be seen that the specific object data and specific state data stored in the database 110 are object type: bench for 3 people & number of objects: 1, seat occupancy rate: 33%, and occupied position: center seat. Of course, it can also be assumed that the number of benches is greater, and in this case, the number of options a specific user can select increases, so the difficulty of specific content may increase.

또한, 가변 설정 조건인 특정 표정 벡터 데이터의 성분인 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제7 표정 컴포넌트의 값이 (0.1, 0.3, 0.6, 0.2, 0.2, 0.4, 0.4)인 것을 알 수 있다. 그리고, 또 다른 가변 설정 조건인 특정 행동 벡터 데이터의 성분인 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제7 행동 컴포넌트의 값이 (0.2, 0.3, 0.5, 0.1, 0.1, 0.7, 0.5)인 것을 알 수 있다. 즉, 특정 사용자에게 제공되는 제1 컨텐츠에 등장하는 상대방의 표정과 행동을 어느 강도로 노출할지에 대한 데이터가 벡터 형태로 기록되어 있다고 보면 된다.In addition, the values of the first to seventh expression components for representing each of the first to seventh opponent emotion categories, which are components of the specific expression vector data that is a variable setting condition, are (0.1, 0.3, 0.6, 0.2, It can be seen that it is 0.2, 0.4, 0.4). In addition, the values of the first to seventh action components to represent each of the first to seventh opponent emotion categories, which are components of specific action vector data, which is another variable setting condition, are (0.2, 0.3, 0.5, It can be seen that it is 0.1, 0.1, 0.7, 0.5). In other words, it can be said that data on the intensity with which the facial expressions and actions of the other person appearing in the first content provided to a specific user will be exposed is recorded in vector form.

다시 본론으로 돌아와, 컴퓨팅 장치(100)는 사전 설정 조건으로서의 특정 객체 데이터 및 특정 상태 데이터와 가변 설정 조건으로서의 특정 표정 벡터 데이터, 및 특정 행동 벡터 데이터 중 적어도 일부를 특정 컨텐츠의 어느 타이밍에 노출할지 결정할 수 있다. 이때, 사전 설정 조건 및 가변 설정 조건 중 적어도 일부는 특정 사용자와 인터랙션하는 타이밍이라면 언제든 노출될 수 있을 것이다.Returning to the main topic, the computing device 100 determines at which timing of specific content to expose at least some of specific object data and specific state data as preset conditions, specific facial expression vector data as variable setting conditions, and specific action vector data. You can. At this time, at least some of the preset conditions and variable setting conditions may be exposed at any time when interacting with a specific user.

다음으로, 다시 도 4를 참조하면, 특정 표정 벡터 데이터 및 특정 행동 벡터 데이터가 제공되면, 컴퓨팅 장치(100)가, 사용자로 하여금, 특정 표정 벡터 데이터에 포함된 제1 표정 컴포넌트 내지 제n 표정 컴포넌트 중 기설정된 표정 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 특정 행동 벡터 데이터에 포함된 제1 행동 컴포넌트 내지 제n 행동 컴포넌트 중 기설정된 행동 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행(S402)할 수 있다.Next, referring again to FIG. 4, when specific expression vector data and specific action vector data are provided, the computing device 100 causes the user to select the first to nth expression components included in the specific expression vector data. A process that supports predicting the presence or absence of the ith other person's emotion category corresponding to at least one ith facial expression component corresponding to a preset facial expression threshold or more, and the first to nth behavioral components included in the specific behavior vector data. A process that supports predicting the presence or absence of the jth other party's emotion category corresponding to at least one jth behavior component that is greater than or equal to a preset behavior threshold may be performed (S402).

여기서, i와 j는 같은 값으로 지정되어 동일한 감정을 나타내는 표정과 행동으로서 노출할 수도 있고, 다른 값으로 지정되어 다른 감정을 나타내는 표정과 행동을 복합적으로 노출할 수도 있을 것이며, 제i 표정 컴포넌트 및 제j 행동 컴포넌트는 하나의 컴포넌트가 아니라 복수 개의 컴포넌트를 의미할 수도 있을 것이다. 또한, 컴퓨팅 장치(100)는 제i 상대방 감정 카테고리 및 제j 상대방 감정 카테고리를 상대방의 부정적 감정을 나타내기 위한 감정 카테고리에서 선택하여 노출할 수 있다.Here, i and j may be specified as the same value and exposed as facial expressions and actions representing the same emotion, or may be specified as different values and may be exposed in combination with facial expressions and actions representing different emotions, and the ith facial expression component and The jth behavioral component may mean not one component but multiple components. Additionally, the computing device 100 may select and display the i-th counterpart's emotion category and the j-th counterpart's emotion category from the emotion categories for indicating the other party's negative emotions.

다시, 도 5를 참조하면, 컴퓨팅 장치(100)는 특정 표정 벡터 데이터에 포함된 제1 표정 컴포넌트 내지 제7 표정 컴포넌트 중 슬픔의 감정을 나타내는 제3 표정 컴포넌트를 기설정된 표정 임계치 이상으로 설정하여 특정 사용자에게 제공할 수 있다. 여기서, 표정 임계치는, 제1 표정 컴포넌트 내지 제7 표정 컴포넌트 중 적어도 일부의 특정 표정 컴포넌트를 특정 사용자가 인지하도록 하기 위한 기설정된 설정값을 의미할 수 있다. 즉, 표정 임계치를 0.5로 설정하였을 때, 특정 사용자에게 노출되는 제1 표정 컴포넌트 내지 제7 표정 컴포넌트의 값이 (0.1, 0.3, 0.6, 0.1, 0.2, 0.4, 0.4)이므로, 표정 임계치 이상의 값을 가지는 컴포넌트는 제3 표정 컴포넌트인 것을 알 수 있다. 이는, 상대방이 하나뿐인 벤치에 커플과 함께 앉고 싶지만, 특정 사용자가 이미 가운데 자리에 앉아 있기 때문에 나란히 앉지 못하는 슬픔의 감정을 표정으로 특정 사용자에게 노출하고 있는 상황을 나타낸 것이다. Again, referring to FIG. 5, the computing device 100 sets the third facial expression component representing the emotion of sadness among the first to seventh facial expression components included in the specific facial expression vector data to a specific expression threshold or higher. It can be provided to the user. Here, the facial expression threshold may mean a preset setting value for allowing a specific user to recognize at least some specific facial expression components among the first to seventh facial expression components. That is, when the expression threshold is set to 0.5, the values of the first to seventh expression components exposed to a specific user are (0.1, 0.3, 0.6, 0.1, 0.2, 0.4, 0.4), so the values above the expression threshold are It can be seen that the branch component is the third facial expression component. This represents a situation where the couple wants to sit together on a bench where there is only one other person, but the sadness of not being able to sit side by side because the specific user is already sitting in the middle is being expressed to a specific user through facial expressions.

그리고, 컴퓨팅 장치(100)는 특정 행동 벡터 데이터에 포함된 제1 행동 컴포넌트 내지 제7 행동 컴포넌트 중 미움의 감정을 나타내는 제6 행동 컴포넌트를 기설정된 행동 임계치 이상으로 설정하여 특정 사용자에게 제공할 수 있다. 여기서, 행동 임계치는, 제1 행동 컴포넌트 내지 제7 행동 컴포넌트 중 적어도 일부의 특정 행동 컴포넌트를 특정 사용자가 인지하도록 하기 위한 기설정된 설정값을 의미할 수 있다. 즉, 행동 임계치를 0.6으로 설정하였을 때, 특정 사용자에게 노출되는 제1 행동 컴포넌트 내지 제7 행동 컴포넌트의 값이 (0.2, 0.4, 0.4, 0.1, 0.1, 0.7, 0.5)이므로, 제2 임계치 이상의 값을 가지는 컴포넌트는 제6 표정 컴포넌트인 것을 알 수 있다. 이는, 상대방이 하나뿐인 벤치에 커플과 함께 앉고 싶지만, 특정 사용자가 이미 가운데 자리에 앉아 있기 때문에 나란히 앉지 못하는 미움의 감정을 행동으로 특정 사용자에게 노출하고 있는 상황을 나타낸 것이다. 여기서, 특정 사용자에게 노출하는 표정 및 행동은 제3 표정 컴포넌트 및 제6 행동 컴포넌트의 레벨을 임계치 이상의 값으로 설정하였지만, 이에 한정되는 것이 아니라, 상대방의 부정적 감정을 나타낼 수 있는 감정 카테고리에 대응되는 표정 컴포넌트라면 해당 표정 컴포넌트의 레벨을 임계치 이상으로 설정하여 노출할 수 있을 것이며, 마찬 가지로 상대방의 부정적 감정을 나타낼 수 있는 감정 카테고리에 대응되는 행동 컴포넌트라면 해당 행동 컴포넌트의 레벨을 임계치 이상으로 설정하여 노출할 수 있을 것이다.In addition, the computing device 100 may set the sixth behavior component indicating an emotion of hatred among the first to seventh behavior components included in the specific behavior vector data to a value greater than or equal to a preset behavior threshold and provide the sixth behavior component to a specific user. . Here, the behavior threshold may mean a preset setting value for allowing a specific user to recognize at least some specific behavior components among the first to seventh behavior components. In other words, when the behavior threshold is set to 0.6, the values of the first to seventh behavior components exposed to a specific user are (0.2, 0.4, 0.4, 0.1, 0.1, 0.7, 0.5), so the values are above the second threshold. It can be seen that the component having is the sixth facial expression component. This represents a situation in which the couple wants to sit together on a bench where the other person is the only one, but cannot sit side by side because the specific user is already sitting in the middle seat, and the feelings of hatred are being exposed to a specific user through actions. Here, the expressions and actions exposed to a specific user are not limited to this, although the levels of the third facial expression component and the sixth behavioral component are set to values above the threshold, and are not limited to facial expressions corresponding to the emotion category that can express the other person's negative emotions. If it is a component, it can be exposed by setting the level of the facial expression component above the threshold, and similarly, if it is a behavioral component that corresponds to an emotional category that can express the other person's negative emotions, it can be exposed by setting the level of the behavioral component in question above the threshold. You can do it.

다음으로, 컴퓨팅 장치(100)는 특정 사용자로 하여금, 제3 표정 컴포넌트에 대응되는 제3 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 제6 행동 컴포넌트에 대응되는 제6 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행할 수 있을 것이다.Next, the computing device 100 performs a process for supporting a specific user to predict the presence or absence of a third counterpart emotion category corresponding to the third facial expression component and the presence of a sixth counterpart emotion category corresponding to the sixth behavioral component. You will be able to perform a process that supports predicting whether or not.

다음으로, 다시 도 4를 참조하면, 사용자에 의해 제i 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부 및 제j 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부가 예측된 상태에서, 사용자에 의해 제i 상대방 감정 카테고리에 대응되는 상대방의 제i 상대방 감정 레벨 및 제j 상대방 감정 카테고리에 대응되는 상대방의 제j 상대방 감정 레벨 중 적어도 일부의 감정 레벨의 크기를 조정하기 위한 특정 사용자 대응 행동이 입력되면, 컴퓨팅 장치(100)가, 특정 사용자 대응 행동을 참조로 하여 제i 상대방 감정 레벨 및 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제i 상대방 조정 감정 레벨 및 제j 상대방 조정 감정 레벨을 노출(S403)할 수 있다.Next, referring again to FIG. 4, in a state in which the presence or absence of the ith other person's emotion category corresponding to the ith facial expression component and the existence of the jth other person's emotional category corresponding to the jth behavioral component are predicted by the user, A specific user action for adjusting the magnitude of the emotional level of at least some of the i-th emotional level of the other party corresponding to the i-th counterpart emotional category and the j-th counterpart emotional level of the other party corresponding to the j-th counterpart emotional category by the user. When this is input, the computing device 100 adjusts the i-th opponent's adjustment emotion level and the j-th opponent's adjustment, which are emotional levels adjusted to correspond to the i-th opponent's emotion level and the j-th opponent's emotion level, respectively, with reference to the specific user response behavior. The emotional level can be exposed (S403).

가령, 도 5를 참조하면, 특정 사용자는 제3 상대방 감정 카테고리의 존재 여부에 대한 예측값 및 제6 상대방 감정 카테고리의 존재 여부에 대한 예측값을 각각 YES OR NO로 입력한 결과(물론, 도 5에서는 생략되었지만, 제3 상대방 감정 카테고리의 존재 여부 및 제6 상대방 감정 카테고리의 존재 여부 이외의 상대방 감정 카테고리의 존재 여부에 대해서도 YES OR NO를 입력하도록 지원할 수도 있을 것이다), 특정 사용자는 제3 상대방 감정 카테고리의 존재 여부에 대한 예측값 및 제6 상대방 감정 카테고리의 존재 여부에 대한 예측값을 각각 Y(YES)로 입력한 것을 알 수 있다. For example, referring to Figure 5, a specific user enters the predicted value for the presence or absence of the third partner's emotion category and the predicted value for the presence or absence of the sixth partner's emotion category as YES OR NO (of course, omitted in Figure 5). However, it may be possible to support entering YES OR NO regarding the existence of other party emotion categories other than the existence of the third party emotion category and the sixth party emotion category), and a specific user may select the third party emotion category. It can be seen that the predicted value for the presence or absence of the other party's emotion category and the predicted value for the presence or absence of the sixth opponent's emotion category were each entered as Y (YES).

다음으로, 특정 사용자에 의해 제3 표정 컴포넌트에 대응되는 제3 상대방 감정 카테고리의 존재 여부 및 제6 행동 컴포넌트에 대응되는 제6 상대방 감정 카테고리의 존재 여부가 예측된 상태에서, 특정 사용자에 의해 제3 상대방 감정 카테고리에 대응되는 상대방의 제3 상대방 감정 레벨 및 제6 상대방 감정 카테고리에 대응되는 상대방의 제6 상대방 감정 레벨 중 적어도 일부의 감정 레벨의 크기를 조정하기 위한 특정 사용자 대응 행동이 입력될 수 있다.Next, in a state where the presence or absence of a third counterpart emotion category corresponding to the third facial expression component and the presence or absence of a sixth counterpart emotion category corresponding to the sixth behavior component are predicted by a specific user, the third counterpart emotion category is predicted by a specific user. A specific user response action may be input to adjust the size of at least some of the third emotional level of the other party corresponding to the other emotional category and the sixth emotional level of the other party corresponding to the sixth emotional category. .

가령, 특정 사용자는 상대방이 표정이나 행동으로 표현하고 있는 슬픔(제3 상대방 감정 카테고리) 또는 미움(제6 상대방 감정 카테고리)에 대한 감정을 인지한 상태에서, 상대방의 슬픔이나 미움에 대한 감정을 줄이기 위해 '상대방을 위해 옆으로 한칸 이동해서 앉는다'를 특정 사용자 대응 행동으로서 입력할 수 있다. 그러면, 컴퓨팅 장치(100)는 특정 사용자 대응 행동을 참조로 하여 제3 상대방 감정 레벨 및 제6 상대방 감정 레벨 각각을 제3 상대방 조정 감정 레벨 및 제6 상대방 조정 감정 레벨로 변경하여 사용자에게 노출할 수 있다.For example, when a specific user recognizes the other person's feelings of sadness (the third emotion category) or hatred (the sixth emotion category) that the other person is expressing through facial expressions or actions, they try to reduce the other person's feelings of sadness or hatred. For this purpose, 'Move one space to the side and sit down for the other person' can be entered as a specific user response action. Then, the computing device 100 may change each of the third party emotion level and the sixth party emotion level into the third party adjustment emotion level and the sixth party adjustment emotion level with reference to the specific user response behavior and expose them to the user. there is.

즉, 특정 사용자가 옆으로 한칸 이동하는 행동을 입력하면, 상대방(커플)은 나란히 함께 앉을 수 있게 되므로, 상대방의 표정을 통해 노출되는 슬픔(제3 상대방 감정 카테고리) 또는 행동을 통해 노출되는 미움(제6 상대방 감정 카테고리)에 대한 감정 레벨을 감소시킬 수 있으며, 감소된 감정 레벨인 제3 상대방 조정 감정 레벨 및 제6 상대방 조정 감정 레벨을 사용자에게 노출할 수 있다.In other words, when a specific user enters an action to move one space to the side, the other person (couple) can sit side by side, so sadness exposed through the other person's facial expression (third partner emotion category) or hate exposed through the action ( The emotional level for the sixth partner's emotional category) can be reduced, and the reduced emotional levels, the third partner's adjusted emotional level and the sixth partner's adjusted emotional level, can be exposed to the user.

이때 도 5를 참조하면, 제3 상대방 감정 레벨 및 제6 상대방 감정 레벨이 각각 0.6, 0.7로 설정되어 사용자에게 노출된 상태에서, 특정 사용자에 의해 입력된 특정 사용자 대응 행동으로 인해, 제3 상대방 감정 레벨 및 제6 상대방 감정 레벨이 각각 0.3, 0.4로 감소된 제3 상대방 조정 감정 레벨 및 제6 상대방 조정 감정 레벨이 데이터베이스(110)에 저장될 수 있다.At this time, referring to FIG. 5, when the third party's emotion level and the sixth party's emotion level are set to 0.6 and 0.7, respectively, and are exposed to the user, due to a specific user response action input by a specific user, the third party's emotion The third opponent's adjusted emotion level and the sixth opponent's adjusted emotion level, in which the level and the sixth opponent's emotion level are reduced to 0.3 and 0.4, respectively, may be stored in the database 110.

다음으로, 특정 사용자 대응 행동을 참조로 하여 제3 상대방 감정 레벨 및 제6 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제3 상대방 조정 감정 레벨 및 제6 상대방 조정 감정 레벨을 사용자에게 노출한 상태에서, 특정 사용자 대응 행동으로 인해 사용자 감정 벡터 데이터(사용자 감정 벡터 데이터는 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 각각에 대한 제1 사용자 감정 레벨 내지 제n 사용자 감정 레벨을 나타냄) 중 적어도 일부인 제m 사용자 감정 카테고리에 대한 제m 사용자 감정 레벨이 기설정된 변동 임계치 이상 변화된 것으로 감지되면, 컴퓨팅 장치(100)는 제m 사용자 감정 카테고리 및 이에 대응되는 변동 정보를 기록할 수 있다. 이때, 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리와 동일한 감정 카테고리일 수 있으나 이에 한정되는 것은 아니다.Next, with reference to specific user response actions, the third party's adjusted emotion level and the sixth party's adjusted emotion level, which are emotional levels adjusted to correspond to each of the third party's emotion level and the sixth party's emotion level, are exposed to the user. In, at least part of the user emotion vector data (the user emotion vector data represents the first user emotion level to the nth user emotion level for each of the first to nth user emotion categories) due to a specific user response action. When it is detected that the m-th user's emotion level for the m-user emotion category has changed by more than a preset change threshold, the computing device 100 may record the m-th user's emotion category and the change information corresponding thereto. At this time, the first user emotion category to the nth user emotion category may be the same emotion category as the first to nth opponent emotion category, but is not limited thereto.

예를 들어, 특정 사용자가 상대방의 슬픔 또는 미움의 감정을 줄이기 위해 특정 사용자 대응 행동을 입력한 다음, 특정 사용자 대응 행동으로 인해 특정 사용자가 분노 또는 슬픔의 감정을 보일 수 있다. 이때, 특정 사용자의 분노 또는 슬픔의 감정 상태가 사용자 감정 벡터 데이터 중 적어도 일부인 제m 사용자 감정 카테고리에 해당될 수 있으며, 설명의 편의상 제m 사용자 감정 카테고리를 분노의 감정 상태인 제2 사용자 감정 카테고리로서 설명하겠다.For example, a specific user may input a specific user response behavior to reduce the other person's feelings of sadness or hate, and then the specific user response behavior may cause the specific user to show feelings of anger or sadness. At this time, the emotional state of anger or sadness of a specific user may correspond to the mth user emotion category, which is at least part of the user emotion vector data. For convenience of explanation, the mth user emotion category is referred to as the second user emotion category, which is the emotional state of anger. Let me explain.

다음으로, 제2 사용자 감정 카테고리가, 특정 사용자 대응 행동으로 인해 기설정된 변동 임계치 이상 변화된 것으로 감지될 수 있다.Next, it may be detected that the second user emotion category has changed more than a preset change threshold due to a specific user response action.

이때, 도 5를 참조하면, 특정 사용자에 대한 감정 상태로서 특정 사용자 대응 행동 이전의 사용자 감정 벡터 데이터는 (0.2, 0.2, 0.2, 0.2, 0.2, 0.2, 0.2)라고 가정해보자. 그리고, 특정 사용자 대응 행동이 입력되어 제2 사용자 감정 카테고리의 제2 사용자 감정 레벨이 기설정된 변동 임계치(본 예시에서는 0.5로 설정) 이상으로 변동되어 사용자 감정 벡터 데이터는 (0.2, 0.7, 0.2, 0.2, 0.2, 0.2, 0.2)이 될 수 있다. 즉, 사용자는 특정 사용자 대응 행동을 통해 상대방의 슬픔, 미움의 감정은 줄이는데 성공하였지만, 본인(특정 사용자)의 부정적 감정(분노) 성분이 증가된 것이다.At this time, referring to FIG. 5, let us assume that the user emotion vector data before a specific user response action as the emotional state for a specific user is (0.2, 0.2, 0.2, 0.2, 0.2, 0.2, 0.2). Then, a specific user response action is input, and the second user emotion level of the second user emotion category fluctuates above the preset fluctuation threshold (set to 0.5 in this example), so the user emotion vector data is (0.2, 0.7, 0.2, 0.2) , 0.2, 0.2, 0.2). In other words, the user succeeded in reducing the other person's feelings of sadness and hatred through specific user response actions, but the user's (specific user's) negative emotion (anger) component increased.

다시 본론으로 돌아와, 제2 사용자 감정 카테고리가 기설정된 변동 임계치 이상으로 변화된 것으로 감지되면, 컴퓨팅 장치(100)가 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 중 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제a 상대방 감정 카테고리를 나타내기 위한 제a 표정 컴포넌트의 표정 레벨의 크기를 기설정된 표정 벡터 크기인 제1 크기만큼 증가시켜 특정 사용자에게 노출하는 프로세스 및 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 중 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제b 상대방 감정 카테고리를 나타내기 위한 제b 행동 컴포넌트의 행동 레벨의 크기를 기설정된 행동 벡터 크기인 제2 크기만큼 증가시켜 특정 사용자에게 노출하는 프로세스 중 적어도 일부의 프로세스를 수행함으로써 특정 사용자의 기설정된 변동 임계치 이상 변화된 제m 사용자 감정 카테고리에 대한 제m 사용자 감정 레벨을 기설정된 변동 임계치 미만으로 낮추기 위한 보상 컨텐츠를 추가적으로 제공할 수 있다.Returning to the main topic, when it is detected that the second user emotion category has changed by more than a preset fluctuation threshold, the computing device 100 selects one of the emotion categories corresponding to the other party's positive emotion among the first other party emotion category to the nth other party emotion category. A process of increasing the size of the expression level of the a-th expression component for representing at least a part of the a-th other emotion category by the first size, which is the size of a preset expression vector, and exposing it to a specific user, and the first other person's emotion category to the n-th other person's emotion The size of the action level of the b action component to represent the b other person's emotion category, which is at least part of the emotion category corresponding to the other person's positive emotions among the categories, is increased by the second size, which is the size of the preset action vector, and exposed to a specific user. By performing at least part of the process, compensation content for lowering the mth user's emotion level for the mth user's emotion category that has changed more than the preset change threshold of a specific user to less than the preset change threshold can be additionally provided.

다시 말하면, 컴퓨팅 장치는 사용자의 제2 사용자 감정 카테고리의 제2 사용자 감정 레벨을 줄이기 위해, 상대방의 긍정적 감정 카테고리인 나타내는 제a 표정 컴포넌트의 표정 레벨의 크기를 더욱 크게 설정하여 특정 사용자에게 노출하거나, 상대방의 긍정적 감정 카테고리인 나타내는 제b 행동 컴포넌트의 행동 레벨의 크기를 더욱 크게 설정하여 특정 사용자에게 노출할 수 있다. 여기서, 제a 표정 컴포넌트 또는 제b 행동 컴포넌트는 각각 희로애락애오욕 중 긍정적 성분인 희, 애, 락 등에 해당되는 감정 카테고리의 컴포넌트일 수 있으나 이에 한정되는 것은 아니다. 이때, 특정 사용자는 특정 사용자 대응 행동에 대응하여, 긍정적 성분(가령, 긍정적 표정이나, 행동 컴포넌트의 레벨)을 더욱 크게 증가시킨 상대방의 피드백을 경험함으로써 제2 사용자 감정 레벨의 감소가 이루어질 수 있을 것이다.In other words, in order to reduce the second user emotion level of the user's second user emotion category, the computing device sets the size of the expression level of the ath expression component representing the other person's positive emotion category to be larger and exposes it to a specific user, or The size of the behavior level of the behavior component representing the other person's positive emotion category can be set larger and exposed to a specific user. Here, the a-th facial expression component or the b-th action component may be components of an emotional category corresponding to joy, sorrow, and joy, which are positive components of joy, sorrow, sorrow, etc., but are not limited thereto. At this time, the specific user may experience feedback from the other user that further increases the positive component (e.g., positive facial expression or level of behavioral component) in response to the specific user response behavior, thereby reducing the second user's emotional level. .

한편, 상기 S401단계에서, 컴퓨팅 장치(100)는, 특정 컨텐츠의 가변 설정 조건으로서 (ii-3) 상대방의 발화에 대응되는 특정 언어 벡터 데이터(특정 언어 벡터 데이터는 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 언어 컴포넌트 내지 제n 언어 컴포넌트를 성분으로 가짐)를 추가적으로 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 가변 설정 조건으로서의 특정 언어 벡터 데이터를 추가적으로 참조하여 특정 컨텐츠를 제공할 수 있다. 여기서, 특정 언어 벡터 데이터도 위에서 언급한 특정 표정 벡터 데이터 및 특정 행동 벡터 데이터와 마찬가지로 희, 노, 애, 락, 애, 오, 욕의 감정 상태를 나타내는 언어 컴포넌트를 성분으로 가질 수 있다.Meanwhile, in step S401, the computing device 100 uses (ii-3) specific language vector data corresponding to the other party's utterance as a variable setting condition for specific content (the specific language vector data includes the first opponent emotion category to the first opponent emotion category). (having as components the first language component to the nth language component to represent each of the other person's emotional categories) is additionally determined at what timing of the specific content to be exposed, and the specific content is additionally referred to by referring to the specific language vector data as a variable setting condition. can be provided. Here, the specific language vector data, like the specific facial expression vector data and specific action vector data mentioned above, may have language components representing emotional states of joy, anger, sadness, joy, sadness, anger, and swearing as components.

그리고, 특정 언어 벡터 데이터가 추가적으로 제공되면, 컴퓨팅 장치(100)가, 사용자로 하여금, 특정 언어 벡터 데이터에 포함된 제1 언어 컴포넌트 내지 제n 언어 컴포넌트 중 기설정된 언어 임계치 이상에 해당되는 적어도 하나의 제k 언어 컴포넌트에 대응되는 제k 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 추가적으로 수행할 수 있다. 가령, 컴퓨팅 장치(100)는 사용자로 하여금, 7개의 언어 컴포넌트 중 기설정된 제3 임계치 이상에 해당되는 적어도 하나의 감정인 분노k는 희노애락애오욕 중 2번째 감정인 노에 해당하는 것으로 예를 들어 가정함)의 감정 상태를 표현하는 제2 언어 컴포넌트에 대응되는 제2 상대방 감정 카테고리의 존재 여부를 추가적으로 예측하도록 지원할 수 있다.And, when specific language vector data is additionally provided, the computing device 100 causes the user to select at least one language component that is higher than a preset language threshold among the first to nth language components included in the specific language vector data. A process that supports predicting the presence or absence of the kth other person's emotion category corresponding to the kth language component may be additionally performed. For example, the computing device 100 assumes, for example, that anger k, which is at least one emotion corresponding to a preset third threshold or higher among the seven language components, corresponds to anger, which is the second emotion among joy, anger, sadness, and greed, by allowing the user to do so. ) can be supported to additionally predict the existence of a second opponent's emotional category corresponding to the second language component expressing the emotional state of ).

다음으로, 사용자에 의해 제k 언어 컴포넌트에 대응되는 제k 상대방 감정 카테고리의 존재 여부가 추가적으로 예측된 상태에서, 사용자에 의해 제k 상대방 감정 카테고리에 대응되는 상대방의 제k 상대방 감정 레벨의 크기를 추가적으로 조정하기 위한 특정 사용자 대응 행동이 입력되면, 컴퓨팅 장치(100)가, 특정 사용자 대응 행동을 참조로 하여 제k 상대방 감정 레벨에 대응되어 조정된 감정 레벨인 제k 상대방 조정 감정 레벨을 추가적으로 노출할 수 있다.Next, with the existence of the kth opponent's emotion category corresponding to the kth language component additionally predicted by the user, the size of the kth opponent's emotion level of the other person corresponding to the kth opponent's emotion category is additionally predicted by the user. When a specific user response behavior for adjustment is input, the computing device 100 may additionally expose the kth counterparty adjusted emotion level, which is an emotional level adjusted in response to the kth counterparty emotion level, with reference to the specific user response behavior. there is.

이때, 도 5에서 가변 설정 조건으로서의 특정 언어 벡터 데이터에 대한 정보들은 생략되어 있으나, 이는 데이터베이스(110)가 특정 언어 벡터 데이터에 대한 정보를 포함하지 않는다는 것은 아니다.At this time, information about specific language vector data as variable setting conditions is omitted in FIG. 5 , but this does not mean that the database 110 does not include information about specific language vector data.

다음으로, 특정 사용자 대응 행동을 참조로 하여 제i 상대방 감정 레벨 및 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제i 상대방 조정 감정 레벨 및 제j 상대방 조정 감정 레벨이 각각 기설정된 안정 레벨인 제i 상대방 안정 감정 레벨 및 제j 상대방 안정 감정 레벨을 만족하는 것으로 확인되면, 컴퓨팅 장치(100)가, 특정 컨텐츠의 사전 설정 조건으로서의 특정 객체 데이터 및 특정 상태 데이터를 조정하는 프로세스 및 가변 설정 조건으로서의 특정 표정 벡터 데이터 및 특정 행동 벡터 데이터와 제i 상대방 감정 레벨 및 제j 상대방 감정 레벨을 조정하는 프로세스 중 적어도 일부의 프로세스를 수행하여 특정 컨텐츠를 조정한 조정 컨텐츠를 제공할 수 있다.Next, with reference to a specific user response behavior, the i-th opponent's emotion level and the j-th opponent's emotion level, which are adjusted emotion levels corresponding to each of the i-th opponent's emotion level and the j-th opponent's emotion level, are respectively preset stable levels. If it is confirmed that the ith other party stable emotion level and the jth other party stable emotion level are satisfied, the computing device 100 performs a process of adjusting specific object data and specific state data as preset conditions for specific content and variable setting conditions. Adjusted content obtained by adjusting the specific content can be provided by performing at least part of the process of adjusting the specific expression vector data and the specific action vector data and the ith opponent's emotional level and the jth opponent's emotional level.

여기서, 조정 컨텐츠는 특정 사용자가 특정 사용자 대응 행동을 통해 상대방의 부정적 감정을 줄이는데 성공하면, 컴퓨팅 장치(100)가 컨텐츠의 설정 조건을 조정함으로써 컨텐츠의 난이도를 더욱 높게 하여 특정 사용자에게 제공하는 것을 의미할 수 있다. 가령, 특정 컨텐츠에서 슬픔을 표현하는 제3 상대방 감정 카테고리의 존재 여부를 특정 사용자가 예측하는 것에 성공했다면, 조정 컨텐츠에서는 분노를 표현하는 제2 상대방 감정 카테고리, 슬픔을 표현하는 제3 상대방 감정 카테고리 각각에 대응되는 제2 표정 컴포넌트 및 제3 표정 컴포넌트를 기설정된 표정 임계치 이상으로 설정하여 함께 노출함으로써 특정 사용자로 하여금, 상대방의 특정 표정 벡터 데이터에서 복수 개의 부정적 감정의 존재 여부를 예측하도록 할 수 있을 것이다. 물론, 경우에 따라서는 제2 표정 컴포넌트 및 제3 표정 컴포넌트를 기설정된 표정 임계치 미만으로 설정하여 함께 노출함으로써 특정 사용자로 하여금, 상대방의 특정 표정 벡터 데이터에서 복수 개의 부정적 감정의 존재 여부를 예측하도록 하는 것이 난이도가 높은 것일 수도 있을 것이다.Here, adjusted content means that if a specific user succeeds in reducing the negative emotions of the other person through specific user response actions, the computing device 100 adjusts the setting conditions of the content to further increase the difficulty of the content and provide it to the specific user. can do. For example, if a specific user succeeds in predicting the existence of a third-party emotion category that expresses sadness in a specific content, in the adjusted content, the second-party emotion category that expresses anger and the third-party emotion category that expresses sadness, respectively. By setting the second and third facial expression components corresponding to above a preset facial expression threshold and exposing them together, it will be possible to enable a specific user to predict the presence or absence of a plurality of negative emotions in the other person's specific facial expression vector data. . Of course, in some cases, the second and third facial expression components are set below a preset facial expression threshold and exposed together to enable a specific user to predict the presence or absence of a plurality of negative emotions in the other person's specific facial expression vector data. It may be that the level of difficulty is high.

이때, 컴퓨팅 장치(100)는, 특정 사용자에게 특정 사용자 대응 행동에 대한 정답 대응 행동이 복수 솔루션으로서 존재하도록 사전 설정 조건 및 가변 설정 조건 중 적어도 일부를 조정하여 조정 컨텐츠를 제공할 수 있다. 여기서, 특정 컨텐츠에서는 정답 대응 행동이 '상대방을 위해 옆으로 한칸 이동해서 앉는다'로 1개였지만, 조정 컨텐츠에서는, 사전 설정 조건 및 가변 설정 조건을 조정함으로써 정답 대응 행동이 복수 개 존재하도록 설정하여 조정 컨텐츠를 제공할 수 있다. 가령, 벤치의 개수를 늘리거나, 벤치의 점유율을 조정하여 컨텐츠의 난이도를 올릴 수 있으며, 이를 통해 '상대방을 위해 옆으로 한칸 이동해서 앉는다' 뿐만 아니라, '저기, 다른 벤치에도 자리가 있어요' 등의 정답 대응 행동이 존재 할 수 있으나 이에 한정되는 것은 아니다.At this time, the computing device 100 may provide adjusted content by adjusting at least some of the preset conditions and variable setting conditions so that the correct response behavior for the specific user response behavior exists as a plurality of solutions to the specific user. Here, in specific content, there was only one action to respond to the correct answer, 'Move one space to the side for the other person and sit down', but in the adjusted content, by adjusting the preset conditions and variable setting conditions, the action to respond to the correct answer was set so that there were multiple actions. Content can be provided. For example, you can increase the difficulty of the content by increasing the number of benches or adjusting the occupancy rate of the bench. This allows you to not only 'move one space to the side and sit down for the other person', but also 'there is a seat on the other bench over there', etc. There may be actions to respond to the correct answer, but it is not limited to this.

한편, 이하에서는 컴퓨팅 장치(100)가 학습 장치(미도시)를 포함하며, 학습 장치를 사용하여 학습하는 과정에 대한 예시를 설명하도록 한다.Meanwhile, in the following, the computing device 100 includes a learning device (not shown), and an example of a learning process using the learning device will be described.

그리고, 컴퓨팅 장치(100)는, (i) 사용자에 대한 정보 및 사용자와 기설정된 임계치 이상의 유사도를 가지는 적어도 하나의 타 사용자에 대한 정보, (ii) 특정 표정 벡터 데이터 및 이에 대응되는 타 사용자에게 노출되었던 타 표정 벡터 데이터, (iii) 특정 행동 벡터 데이터 및 이에 대응되는 타 사용자에게 노출되었던 타 행동 벡터 데이터, 및 (iv) 특정 사용자 대응 행동, 타 사용자에 의해 입력되었던 타 사용자 대응 행동 및 이에 대응되는 특정 사용자 정답 대응 행동과 타 사용자 정답 대응 행동 중 적어도 일부를 학습 장치에 입력할 수 있다.And, the computing device 100 exposes (i) information about the user and information about at least one other user having a similarity to the user greater than a preset threshold, (ii) specific expression vector data and corresponding information to other users. other facial expression vector data, (iii) specific action vector data and corresponding other action vector data exposed to other users, and (iv) specific user response actions, other user response actions entered by other users and corresponding actions thereto. At least some of the behavior corresponding to a specific user's correct answer and the behavior corresponding to the correct answer of another user can be input into the learning device.

이때, (i) 사용자에 대한 정보는 나이, 성별, mbti, 심박수, 호흡수 등을 포함할 수 있으나 이에 한정되는 것은 아니며, 타 사용자에 대한 정보는 이전에 특정 컨텐츠를 이용했던 사람들 중 사용자에 대한 정보 및 사용자가 입력한 예측값과 기설정된 임계치 이상의 유사도를 가지는 사람을 의미할 수 있다. 이와 같은 방식으로, (ii), (iii), (iv)에서 사용자에게 노출되었던 표정이나 행동에 대한 벡터 데이터, 타 사용자에게 노출되었던 표정이나 행동에 대한 벡터 데이터, 상대방의 부정적 감정을 감소시키기 위해 사용자 또는 타 사용자에 의해 입력되었던 특정 사용자 대응 행동, 타 사용자 대응 행동 및 이에 대응되는 특정 사용자 정답 대응 행동, 타 사용자 정답 대응 행동 등을 학습 장치에 입력할 수 있다.At this time, (i) information about the user may include, but is not limited to, age, gender, mbti, heart rate, respiratory rate, etc., and information about other users includes information about the user among those who have previously used specific content. It may refer to a person who has a similarity between the information and the predicted value entered by the user above a preset threshold. In this way, in (ii), (iii), and (iv), vector data about the facial expressions or actions exposed to the user, vector data about the facial expressions or actions exposed to other users, to reduce the other person's negative emotions. Specific user response behavior, other user response behavior, corresponding specific user correct response behavior, and other user correct response response behavior inputted by the user or other users may be input to the learning device.

그러면, 컴퓨팅 장치(100)는 이와 같은 데이터들을 학습 장치에 입력하여, 학습 장치로 하여금, 사용자 및 타 사용자의 특정 사용자 대응 행동 및 타 사용자 대응 행동 중 적어도 일부의 정확도를 높이기 위한, 최적 특정 표정 벡터 데이터, 최적 타 표정 벡터 데이터, 최적 특정 행동 벡터 데이터 및 최적 타 행동 벡터 데이터 중 적어도 일부를 학습하도록 할 수 있다.Then, the computing device 100 inputs such data into the learning device to enable the learning device to obtain an optimal specific facial expression vector to increase the accuracy of at least some of the specific user response behavior and other user response behavior of the user and other users. At least some of the data, optimal other facial expression vector data, optimal specific action vector data, and optimal other action vector data may be learned.

여기서, 컴퓨팅 장치(100)는 학습 장치로 하여금, 최적 특정 표정 벡터 데이터, 최적 타 표정 벡터 데이터, 최적 특정 행동 벡터 데이터 및 최적 타 행동 벡터 데이터 중 적어도 일부를 학습하도록 함으로써, 사용자 및 타 사용자가 상대방의 표정이나 행동을 보고 상대방의 감정을 파악할 확률을 높이도록 할 수 있을 것이다. 여기서, 감정을 파악할 확률을 높이는 것의 개념은, 말 그대로 상대방의 감정을 파악할 확률 수치가 높은 것을 의미할 수도 있으나, 본 컨텐츠에 대한 시청을 통해 감정을 파악할 능력이 종전보다 개선되는 정도의 수치를 포함할 수도 있다.Here, the computing device 100 causes the learning device to learn at least some of the optimal specific expression vector data, optimal other facial expression vector data, optimal specific behavior vector data, and optimal other behavior vector data, so that the user and other users can interact with each other. You can increase the probability of understanding the other person's emotions by looking at their facial expressions or actions. Here, the concept of increasing the probability of identifying emotions may literally mean that the probability of identifying the other person's emotions is high, but it also includes the level of improvement in the ability to understand emotions through watching this content compared to before. You may.

이때, 도 8b를 참조하면, 마지막으로, 사용자(820)의 특정 사용자 대응 행동으로 인해 상대방에 대한 감정 상태인 제3 상대방 감정 카테고리에 대응되는 제3 상대방 감정 레벨 및 제6 상대방 감정 카테고리에 대응되는 제6 상대방 감정 레벨이 각각 제3 상대방 조정 감정 레벨 및 제6 상대방 조정 감정 레벨로 조정되어 최종적으로 사용자가 특정 컨텐츠의 미션을 완료하고 커플인 상대방(810)에게 자리를 양보하여 함께 앉아 있는 것을 나타낸 것이다.At this time, referring to FIG. 8B, finally, the third opponent's emotion level corresponding to the third opponent's emotion category, which is the emotional state toward the other party due to the specific user response behavior of the user 820, and the third opponent's emotion level corresponding to the sixth opponent's emotion category The sixth partner's emotional level is adjusted to the third partner's adjusted emotional level and the sixth partner's adjusted emotional level, respectively, and finally, the user completes the mission of the specific content and gives up his/her seat to the couple's partner (810) to sit together. will be.

도 6은 본 발명의 제3 실시예에 따라, 사용자의 부정적 감정을 감소시키기 위한 특정 컨텐츠를 제공하는 과정을 개략적으로 도시한 것이다.Figure 6 schematically shows a process for providing specific content to reduce negative emotions of a user, according to a third embodiment of the present invention.

이때, 도 6의 특정 컨텐츠를 제공하는 제3 실시예는 특정 컨텐츠 중 하나인 제2 컨텐츠를 위주로 설명하겠다. 이때, 제3 실시예는 사용자의 부정적 감정을 감소시키기 위해, 복수의 정답이 존재할 수 있는 특정 컨텐츠를 제공하는 것으로 상정하고 설명하겠다. 가령, 최초 상대방 행동이나 표정을 보고 사용자가 특정 행동을 취했을 때, 사용자가 드는 감정은 사람의 성향마다 다를 수 있다. 또한, 사용자의 특정 행동으로 인해 상대방의 감정이나, 상대방의 특정 대응 행동(사용자의 특정 행동에 반응하는 상대방의 대응 행동을 의미함)도 다양한 형태가 있을 수 있으며, 이로 인해 사용자의 최종 감정 상태를 안정적으로 만들어주기 위해 복수의 정답이 있을 수 있으나 이에 한정되는 것은 아니다.At this time, the third embodiment of providing the specific content of FIG. 6 will be described focusing on the second content, which is one of the specific contents. At this time, the third embodiment will be assumed and explained as providing specific content in which multiple correct answers may exist in order to reduce the user's negative emotions. For example, when a user takes a specific action after first seeing the other person's actions or facial expressions, the emotions the user feels may vary depending on the person's personality. In addition, due to the user's specific actions, the other person's emotions or the other person's specific response behavior (refers to the other person's response behavior in response to the user's specific action) may also take various forms, which may determine the user's final emotional state. There may be multiple correct answers to make it stable, but it is not limited to this.

여기서, 제2 컨텐츠는, 사용자가 카페, 식당 등의 공공장소에서 키오스크 사용에 어려움을 겪어 불안함을 느끼지만, 적절한 행동을 수행함으로써 사용자의 불안도를 낮추도록 유도하기 위한 컨텐츠일 수 있다.Here, the second content may be content that induces the user to feel anxious due to difficulty using a kiosk in a public place such as a cafe or restaurant, but to reduce the user's anxiety by performing appropriate actions.

도 6을 참조하면, 먼저, 사용자의 부정적 감정을 감소시키기 위한 특정 컨텐츠를 제공하는 방법에 있어서, 컴퓨팅 장치(100)가, 특정 컨텐츠의 사전 설정 조건으로서 (i-1) 사용자가 상기 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터 및 (i-2) 특정 객체에 대한 특정 상태 데이터를 결정하고, 특정 컨텐츠의 가변 설정 조건으로서 (ii-1) 상대방의 표정에 대응되는 특정 상대방 최초 표정 벡터 데이터(특정 상대방 최초 표정 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 상대방 표정 컴포넌트 내지 제n 상대방 표정 컴포넌트를 성분으로 가짐) 및 (ii-2) 상대방의 행동에 대응되는 특정 상대방 최초 행동 벡터 데이터(특정 상대방 최초 행동 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 상대방 행동 컴포넌트 내지 제n 상대방 행동 컴포넌트를 성분으로 가짐) 중 적어도 일부를 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 사전 설정 조건으로서의 특정 객체 데이터 및 특정 상태 데이터와, 가변 설정 조건으로서의 특정 상대방 최초 표정 벡터 데이터, 및 특정 상대방 최초 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 특정 컨텐츠를 제공(S601)할 수 있다.Referring to FIG. 6, first, in a method of providing specific content to reduce a user's negative emotions, the computing device 100 sets the user to (i-1) the specific content as a preset condition for the specific content. Determining specific object data for at least one specific object as an object for interaction with at least one counterpart appearing and (i-2) specific state data for the specific object, and (ii-1) as a variable setting condition for specific content ) The specific opponent's initial expression vector data corresponding to the other party's expression (the specific opponent's initial expression vector data consists of the first opponent's expression component to the nth opponent's expression component to represent each of the first opponent's emotion category to the nth opponent's emotion category) ) and (ii-2) specific opponent's initial behavior vector data corresponding to the opponent's behavior (the specific opponent's initial action vector data is a first opponent's behavior component for representing each of the first opponent's emotion category to the nth opponent's emotion category) to nth opponent's behavior component as a component) determines at what timing of the specific content to be exposed, specific object data and specific state data as preset conditions, and specific opponent's initial expression vector data as variable setting conditions, And, specific content may be provided (S601) by referring to at least part of the specific counterpart's initial action vector data.

이때, 도 9a를 참조하면, 사람이 많은 식당, 카페 등의 공공장소에서 사용자(920)가 키오스크의 사용법을 모르는 상황을 가정하였다. 그러는 와중에 키오스크 사용을 기다리는 사람들의 대기줄은 길어지고 사용자(920)는 사용자 본인의 불안 감정을 컨트롤하며 제한시간 내에 상대방(910)의 기분을 상하지 않도록 예의바르게 키오스크 사용법을 질문하는 미션을 수행해야 하는 제2 컨텐츠 중 일부를 나타낸 것이다. 또한, 도 9a 및 도 9b의 사용자(920)는 제3 실시예의 특정 사용자를 의미할 수 있다.At this time, referring to FIG. 9A, it is assumed that the user 920 does not know how to use the kiosk in a public place such as a restaurant or cafe with many people. Meanwhile, the waiting line of people waiting to use the kiosk becomes longer, and the user (920) must perform the mission of controlling the user's own anxiety and politely asking questions about how to use the kiosk so as not to offend the other person (910) within the time limit. This shows part of the second content. Additionally, the user 920 in FIGS. 9A and 9B may refer to a specific user in the third embodiment.

여기서, 사전 설정 조건은, 사용자에게 특정 컨텐츠를 제공하기 전 사용자의 나이, 성별, 사회인지능력 저하 정도, 이전의 특정 컨텐츠 이용 이력 등 사용자에 대한 정보를 참조로 하여 결정되는, 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터와 특정 객체에 대한 특정 상태 데이터를 의미할 수 있다. Here, the preset condition is determined by referring to information about the user, such as the user's age, gender, degree of social cognitive decline, and previous history of using specific content, before providing specific content to the user. It may mean specific object data for at least one specific object as an object for interaction with at least one other party and specific state data for the specific object.

여기서, 상대방은, 사용자와 인터랙션하기 위한 대상으로서 실제의 인물이 아니라, 특정 컨텐츠 내에 등장하는 가상의 인물인 것을 상정하나 이에 한정되는 것은 아니다.Here, it is assumed that the other party is not an actual person as an object of interaction with the user, but a virtual person appearing in specific content, but is not limited to this.

가령, 제3 실시예에서의 특정 객체는 식당, 카페 등 공공장소에서 사용자가 이용하는 키오스크를 의미하고, 특정 객체 데이터는 특정 객체인 키오스크의 개수를 의미하며, 특정 상태 데이터는 특정 객체인 키오스크의 사용 제한 시간을 의미할 수 있으나 사전 설정 조건의 예시는 이에 한정되는 것이 아니라 다양한 변형이 가능할 것이다.For example, in the third embodiment, a specific object refers to a kiosk used by a user in a public place such as a restaurant or cafe, specific object data refers to the number of kiosks that are a specific object, and specific state data refers to the use of a kiosk that is a specific object. It may mean a time limit, but examples of preset conditions are not limited to this and various variations are possible.

또한, 특정 컨텐츠 내에서 사용자의 불안 감정을 조성하기 위한 추가적인 환경으로서 장소 내 인원, 장소 내 소음 정도 등을 조정해가며 특정 사용자에게 적합한 환경을 노출할 수도 있을 것이다.In addition, as an additional environment to create users' feelings of anxiety within specific content, an environment suitable for specific users can be exposed by adjusting the number of people in the place, the level of noise in the place, etc.

그리고, 가변 설정 조건은, 사용자에게 특정 컨텐츠를 제공하는 도중에, 사용자의 반응을 참조로 하여 조정될 수 있는 조건으로서, 상대방의 표정에 대응되는 특정 상대방 최초 표정 벡터 데이터와 상대방의 행동에 대응되는 특정 상대방 최초 행동 벡터 데이터일 수 있다.In addition, the variable setting condition is a condition that can be adjusted with reference to the user's reaction while providing specific content to the user, and includes the specific opponent's initial expression vector data corresponding to the other person's expression and the specific opponent's behavior corresponding to the other person's behavior. It may be initial action vector data.

이때, 특정 상대방 최초 표정 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 상대방 표정 컴포넌트 내지 제n 상대방 표정 컴포넌트를 성분으로 가지며, 제3 실시예에서 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리는 설명의 편의상 사람의 기본 감정인 희(기쁨), 노(분노), 애(슬픔), 락(즐거움), 애(사랑), 오(미움), 욕(욕심)에 대한 감정 카테고리로서 설명하겠다. 가령, 제1 상대방 감정 카테고리는 기쁨의 감정인 희를 나타내는 감정이고, 제2 상대방 감정 카테고리는 분노를 나타내는 감정이며, 제7 상대방 감정 카테고리는 욕심을 나타내는 감정으로 상정하여 설명할 수 있을 것이다. 또한, 특정 상대방 최초 행동 벡터 데이터도 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리를 특정 상대방 최초 표정 벡터 데이터와 마찬가지로 7가지의 기본 감정 대응시킬 수 있을 것이다. 그리고, 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리 각각을 나타내기 위한 제1 상대방 표정 컴포넌트 내지 제7 상대방 표정 컴포넌트는 각각의 상대방 감정 카테고리의 감정을 나타내기 위해 사용자에게 노출하는 상대방의 표정일 수 있으며, 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리를 각각을 나타내기 위한 제1 상대방 행동 컴포넌트 내지 제7 상대방 행동 컴포넌트는 각각의 상대방 감정 카테고리의 감정을 나타내기 위해 사용자에게 노출하는 상대방의 행동일 수 있다. At this time, the specific opponent's initial expression vector data has as components a first opponent's expression component to an n-th opponent's expression component to represent each of the first opponent's emotion category to the nth opponent's emotion category, and in the third embodiment, the first opponent's emotion is For convenience of explanation, the nth emotional category of the other person is divided into the basic human emotions of joy, anger, sadness, pleasure, love, hate, and greed. I will explain it as an emotional category. For example, it can be explained by assuming that the first emotion category is an emotion representing joy, the second emotion category is an emotion representing anger, and the seventh emotion category is an emotion representing greed. In addition, the specific opponent's first action vector data may be able to correspond to the first to seventh opponent emotion categories to seven basic emotions, similar to the specific opponent's first facial expression vector data. In addition, the first to seventh opponent's expression components for representing each of the first to seventh opponent's emotion categories may be the other's facial expressions exposed to the user to represent the emotions of each of the other's emotion categories. The first to seventh counterpart behavior components for representing each of the first to seventh counterpart emotion categories are the counterpart's behavior exposed to the user to represent the emotions of each counterpart's emotion category. You can.

이때, 특정 상대방 최초 표정 벡터 데이터 및 특정 상대방 최초 행동 벡터 데이터는, 사용자가 키오스크를 이용하는 동안에 인터랙션하기 위한 상대방의 감정 상태를 반영한 최초 표정 및 최초 행동일 수 있으며, 사용자는 이러한 상대방의 최초 표정 및 최초 행동을 보고, 자신의 불안 감정을 컨트롤해가며 상대방에게 키오스크 사용법에 대해 질문할 수 있을 것이다.At this time, the specific other person's first expression vector data and the specific other person's first action vector data may be the first expression and first action that reflect the emotional state of the other person for interaction while the user uses the kiosk, and the user may use the other person's first expression and first action. By watching the behavior and controlling your own anxiety, you will be able to ask the other person how to use the kiosk.

한편, 도 7을 참조하면, 사전 설정 조건으로서의 특정 객체에 대한 특정 객체 데이터, 및 특정 상태 데이터와, 가변 설정 조건으로서의 상대방에 대한 특정 상대방 최초 표정 벡터 데이터 및 특정 상대방 최초 행동 벡터 데이터가 데이터베이스(110)에 저장되어 있는 것을 알 수 있다. 여기서, 데이터베이스(110)에 저장된 값들은 설명의 편의상, 특정한 사용자인 사용자 1(이하, 특정 사용자라고 함)에 대한 정보들을 저장한 것으로 상정하였으나, 데이터베이스(110)에 저장되는 데이터들은 이에 한정되는 것이 아니라 다수의 사람에 대한 데이터를 저장할 수 있을 것임은 물론이라 할 것이다.Meanwhile, referring to FIG. 7, specific object data and specific state data for a specific object as preset conditions, specific opponent's initial expression vector data and specific opponent's initial action vector data for the other party as variable setting conditions are stored in the database (110). ), you can see that it is stored in . Here, for convenience of explanation, the values stored in the database 110 are assumed to store information about a specific user, User 1 (hereinafter referred to as a specific user), but the data stored in the database 110 is limited to this. Of course, it will be possible to store data about multiple people.

그리고, 데이터베이스(110)에 저장된 특정 객체 데이터, 및 특정 상태 데이터는 각각 객체 종류: 키오스크 & 객체 개수: 1개, 사용 제한 시간: 60초 인 것을 알 수 있다.In addition, it can be seen that the specific object data and specific status data stored in the database 110 are object type: kiosk & object number: 1, use time limit: 60 seconds, respectively.

또한, 가변 설정 조건인 특정 상대방 최초 표정 벡터 데이터의 성분인 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리 각각을 나타내기 위한 제1 상대방 표정 컴포넌트 내지 제7 표정 컴포넌트의 값이 (0.7, 0.1, 0.3, 0.5, 0.2, 0.1, 0.2)인 것을 알 수 있다. 그리고, 또 다른 가변 설정 조건인 특정 상대방 행동 벡터 데이터의 성분인 제1 상대방 감정 카테고리 내지 제7 상대방 감정 카테고리 각각을 나타내기 위한 제1 상대방 행동 컴포넌트 내지 제7 상대방 행동 컴포넌트의 값이 (0.4, 0.2, 0.1, 0.6, 0.2, 0.1, 0.2)인 것을 알 수 있다.In addition, the values of the first opponent's expression component to the seventh facial expression component to represent each of the first opponent's emotion category to the seventh opponent's emotion category, which are components of the specific opponent's initial expression vector data, which is a variable setting condition, are (0.7, 0.1, 0.3 , 0.5, 0.2, 0.1, 0.2). In addition, the values of the first to seventh opponent behavior components to represent each of the first to seventh opponent emotion categories, which are components of specific opponent behavior vector data, which is another variable setting condition, are (0.4, 0.2) , 0.1, 0.6, 0.2, 0.1, 0.2).

다시 본론으로 돌아와, 컴퓨팅 장치(100)는 사전 설정 조건으로서의 특정 객체 데이터 및 특정 상태 데이터와 가변 설정 조건으로서의 특정 상대방 최초 표정 벡터 데이터, 및 특정 상대방 최초 행동 벡터 데이터 중 적어도 일부를 특정 컨텐츠의 어느 타이밍에 노출할지 결정할 수 있다. 이때, 사전 설정 조건 및 가변 설정 조건 중 적어도 일부는 특정 사용자와 인터랙션하는 타이밍이라면 언제든 노출될 수 있을 것이다.Returning to the main topic, the computing device 100 uses at least some of the specific object data and specific state data as preset conditions, the specific opponent's initial expression vector data as variable setting conditions, and the specific opponent's initial action vector data at a certain timing of specific content. You can decide whether to expose it to . At this time, at least some of the preset conditions and variable setting conditions may be exposed at any time when interacting with a specific user.

다음으로, 다시 도 6을 참조하면, 특정 상대방 최초 표정 벡터 데이터 및 특정 상대방 최초 행동 벡터 데이터가 제공되면, 컴퓨팅 장치(100)가, 사용자로 하여금, 특정 상대방 최초 표정 벡터 데이터에 포함된 제1 상대방 표정 컴포넌트 내지 제n 상대방 표정 컴포넌트 중 기설정된 표정 임계치 이상에 해당되는 적어도 하나의 제i 상대방 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 특정 상대방 최초 행동 벡터 데이터에 포함된 제1 상대방 행동 컴포넌트 내지 제n 상대방 행동 컴포넌트 중 기설정된 행동 임계치 이상에 해당되는 적어도 하나의 제j 상대방 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행(S602)할 수 있다.Next, referring again to FIG. 6, when the specific opponent's initial expression vector data and the specific opponent's initial action vector data are provided, the computing device 100 causes the user to select the first opponent included in the specific opponent's initial expression vector data. A process that supports predicting the presence or absence of the i-th opponent's emotion category corresponding to at least one i-th opponent's expression component that is higher than a preset expression threshold among the facial expression components and the n-th opponent's facial expression components and the specific opponent's initial action vector data Performing a process to support predicting the presence or absence of the jth opponent's emotion category corresponding to at least one jth opponent's behavior component that is greater than a preset behavior threshold among the included first to nth opponent's behavior components ( S602) You can.

여기서, i와 j는 같은 값으로 지정되어 동일한 감정을 나타내는 표정과 행동으로서 노출할 수도 있고, 다른 값으로 지정되어 다른 감정을 나타내는 표정과 행동을 복합적으로 노출할 수도 있을 것이며, 제i 상대방 표정 컴포넌트 및 제j 상대방 행동 컴포넌트는 하나의 컴포넌트가 아니라 복수 개의 컴포넌트를 의미할 수도 있을 것이다. 또한, 컴퓨팅 장치(100)는 제i 상대방 감정 카테고리 및 제j 상대방 감정 카테고리를 상대방의 긍정적 감정을 나타내기 위한 감정 카테고리에서 선택하여 노출할 수 있으나, 특정 컨텐츠의 난이도 조정을 위해 경우에 따라 상대방의 부정적 감정을 나타내기 위한 감정 카테고리에서 선택하여 노출할 수도 있을 것이다.Here, i and j may be specified as the same value and exposed as facial expressions and actions representing the same emotion, or may be specified as different values and may be exposed in combination with facial expressions and actions representing different emotions, and the ith opponent's facial expression component And the jth counterpart behavior component may mean not a single component but a plurality of components. In addition, the computing device 100 may select and display the i-th opponent's emotion category and the j-th opponent's emotion category from the emotion categories to indicate the other party's positive emotions, but in some cases, the other party's emotion category may be used to adjust the difficulty of specific content. You may be able to select and expose negative emotions from emotion categories.

다시, 도 7을 참조하면, 컴퓨팅 장치(100)는 특정 상대방 최초 표정 벡터 데이터에 포함된 제1 상대방 표정 컴포넌트 내지 제7 상대방 표정 컴포넌트 중 기쁨의 감정을 나타내는 제1 상대방 표정 컴포넌트를 기설정된 표정 임계치 이상으로 설정하여 특정 사용자에게 제공할 수 있다. 여기서, 표정 임계치는, 제1 상대방 표정 컴포넌트 내지 제7 상대방 표정 컴포넌트 중 적어도 일부의 특정 상대방 표정 컴포넌트를 특정 사용자가 인지하도록 하기 위한 기설정된 설정값을 의미할 수 있다. 즉, 표정 임계치를 0.6으로 설정하였을 때, 사용자에게 노출되는 제1 표정 컴포넌트 내지 제7 표정 컴포넌트의 값이 (0.7, 0.1, 0.3, 0.5, 0.2, 0.1, 0.2)이므로, 표정 임계치 이상의 값을 가지는 컴포넌트는 제1 상대방 표정 컴포넌트인 것을 알 수 있다. 이는 상대방이 지인들과 즐거운 대화를 하며 키오스크의 사용을 기다리면서, 기쁨의 감정을 표정으로 특정 사용자에게 노출하고 있는 상황을 나타낸 것이다. 이때, 특정 사용자에게 노출되는 상대방 감정의 부정적 성분을 소정 크기 증가시킴으로써 특정 사용자가 체감하는 특정 컨텐츠의 난이도를 올릴 수도 있을 것이다.Again, referring to FIG. 7, the computing device 100 sets the first opponent's expression component representing the emotion of joy among the first to seventh opponent's facial expression components included in the specific opponent's initial expression vector data to a preset facial expression threshold. You can set it above and provide it to specific users. Here, the facial expression threshold may mean a preset setting value for allowing a specific user to recognize at least some of the specific facial expression components of the first to seventh facial expression components. That is, when the facial expression threshold is set to 0.6, the values of the first to seventh facial expression components exposed to the user are (0.7, 0.1, 0.3, 0.5, 0.2, 0.1, 0.2), so they have values higher than the facial expression threshold. It can be seen that the component is the first opponent's facial expression component. This represents a situation where the other person is having a pleasant conversation with acquaintances, waiting to use the kiosk, and expressing feelings of joy to a specific user through facial expressions. At this time, the difficulty of specific content experienced by a specific user may be increased by increasing the negative components of the other person's emotions exposed to the specific user by a predetermined amount.

그리고, 컴퓨팅 장치(100)는 특정 상대방 최초 행동 벡터 데이터에 포함된 제1 상대방 행동 컴포넌트 내지 제7 상대방 행동 컴포넌트 중 즐거움의 감정을 나타내는 제4 행동 컴포넌트를 기설정된 행동 임계치 이상으로 설정하여 특정 사용자에게 제공할 수 있다. 여기서, 행동 임계치는, 제1 상대방 행동 컴포넌트 내지 제7 상대방 행동 컴포넌트 중 적어도 일부의 특정 상대방 행동 컴포넌트를 특정 사용자가 인지하도록 하기 위한 기설정된 설정값을 의미할 수 있다. 즉, 행동 임계치를 0.5으로 설정하였을 때, 특정 사용자에게 노출되는 제1 상대방 행동 컴포넌트 내지 제7 상대방 행동 컴포넌트의 값이 (0.4, 0.2, 0.1, 0.6, 0.2, 0.1, 0.2)이므로, 행동 임계치 이상의 값을 가지는 컴포넌트는 제4 상대방 행동 컴포넌트인 것을 알 수 있다. 이는 상대방이 지인들과 즐거운 대화를 하며 키오스크의 사용을 기다리면서, 즐거움의 감정을 표정으로 특정 사용자에게 노출하고 있는 상황을 나타낸 것이다. 이때, 특정 사용자에게 노출되는 상대방 감정의 부정적 성분을 소정 크기 증가시킴으로써 특정 사용자가 체감하는 특정 컨텐츠의 난이도를 올릴 수도 있을 것이다.In addition, the computing device 100 sets the fourth behavior component representing the emotion of enjoyment among the first to seventh counterpart behavior components included in the specific counterpart's initial behavior vector data to more than a preset behavior threshold to provide the specific user with can be provided. Here, the behavior threshold may mean a preset setting value for allowing a specific user to recognize at least some specific counterpart behavior components among the first to seventh counterpart behavior components. In other words, when the behavior threshold is set to 0.5, the values of the first to seventh counterpart behavior components exposed to a specific user are (0.4, 0.2, 0.1, 0.6, 0.2, 0.1, 0.2), so the behavior threshold is higher than the behavior threshold. It can be seen that the component with the value is the fourth opponent's behavior component. This represents a situation where the other person is having a pleasant conversation with acquaintances, waiting to use the kiosk, and expressing feelings of enjoyment to a specific user through facial expressions. At this time, the difficulty of specific content experienced by a specific user may be increased by increasing the negative components of the other person's emotions exposed to the specific user by a predetermined amount.

여기서, 특정 사용자에게 노출하는 표정 및 행동은 제1 상대방 표정 컴포넌트 및 제4 상대방 행동 컴포넌트의 레벨을 임계치 이상의 값으로 설정하였지만, 이에 한정되는 것이 아니라, 상대방의 긍정적 감정을 나타낼 수 있는 감정 카테고리에 대응되는 상대방 표정 컴포넌트라면 해당 상대방 표정 컴포넌트의 레벨을 임계치 이상으로 설정하여 노출할 수 있을 것이며, 마찬 가지로 상대방의 긍정적 감정을 나타낼 수 있는 감정 카테고리에 대응되는 상대방 행동 컴포넌트라면 해당 상대방 행동 컴포넌트의 레벨을 임계치 이상으로 설정하여 노출할 수 있을 것이다.Here, the expressions and actions exposed to a specific user are not limited to this, although the levels of the first opponent's expression component and the fourth opponent's behavior component are set to values above the threshold, and correspond to an emotion category that can express the other person's positive emotions. If it is the other person's facial expression component, it can be exposed by setting the level of the other person's facial expression component above the threshold, and similarly, if it is an opponent's behavior component that corresponds to an emotion category that can express the other person's positive emotions, the level of the other person's behavior component can be set. You may be able to expose it by setting it above the threshold.

다음으로, 컴퓨팅 장치(100)는 특정 사용자로 하여금, 제1 표정 컴포넌트에 대응되는 제1 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 제4 행동 컴포넌트에 대응되는 제4 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행할 수 있을 것이다.Next, the computing device 100 performs a process for supporting a specific user to predict the presence or absence of a first counterpart emotion category corresponding to a first facial expression component and the presence of a fourth counterpart emotion category corresponding to a fourth behavioral component. You will be able to perform a process that supports predicting whether or not.

다음으로, 다시 도 6을 참조하면, 사용자에 의해 특정 사용자 표정 벡터 데이터(특정 사용자 표정 벡터 데이터는 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 각각을 나타내기 위한 제1 사용자 표정 컴포넌트 내지 제n 사용자 표정 컴포넌트를 성분으로 가짐) 중 제a 사용자 감정 카테고리를 나타내기 위한 제a 사용자 표정 컴포넌트, 및 특정 사용자 행동 벡터 데이터(특정 사용자 행동 벡터 데이터는 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 각각을 나타내기 위한 제1 사용자 행동 컴포넌트 내지 제n 사용자 행동 컴포넌트를 성분으로 가짐) 중 제b 사용자 감정 카테고리를 나타내기 위한 제b 사용자 표정 컴포넌트 중 적어도 일부를 포함하는 특정 사용자 액션이 입력되면, 컴퓨팅 장치(100)가, 특정 사용자 액션을 참조로 하여, 제a 사용자 표정 컴포넌트에 대응되는 제a' 상대방 표정 컴포넌트를 성분으로 가지는 특정 상대방 대응 표정 벡터 데이터, 및 제b 사용자 행동 컴포넌트에 대응되는 제b' 상대방 행동 컴포넌트를 성분으로 가지는 특정 상대방 대응 행동 벡터 데이터 중 적어도 일부를 포함하는 특정 상대방 대응 액션을 노출(S603)할 수 있다.Next, referring again to FIG. 6, specific user expression vector data (specific user expression vector data is a first user expression component to represent each of the first user emotion category to the nth user emotion category) by the user. an a-th user expression component for representing the a-th user emotion category among the facial expression components), and specific user behavior vector data (the specific user behavior vector data represents each of the first to n-th user emotion categories) When a specific user action including at least a portion of the b user facial expression component for indicating the b user emotion category among the first user behavior component for bet to the n th user behavior component as a component is input, the computing device 100 ), with reference to a specific user action, a specific opponent's expression vector data having as a component a'th opponent's expression component corresponding to a'th user's expression component, and b'th opponent's action corresponding to b'th user's action component. A specific opponent response action that includes at least part of the specific opponent response action vector data that has components as components may be exposed (S603).

다시 도 7을 참조하면, 특정 사용자는 제a 사용자 감정 카테고리를 나타내기 위한 제a 사용자 표정 컴포넌트를 긍정적 감정을 나타내는 성분 중 기쁨의 감정을 나타내는 제1 사용자 표정 컴포넌트로서 입력하고, 제b 사용자 감정 카테고리를 나타내기 위한 제b 사용자 행동 컴포넌트를 긍정적 감정을 나타내는 성분 중 즐거움의 감정을 나타내는 제4 사용자 행동 컴포넌트로서 입력할 수 있다. Referring again to FIG. 7, the specific user inputs the a-th user facial expression component to represent the a-th user emotion category as the first user facial expression component representing the emotion of joy among the components representing positive emotions, and the b-th user emotion category. The b user behavior component for representing can be input as the fourth user behavior component representing the emotion of enjoyment among the components representing positive emotions.

일 예로, 도 7을 참조하면, 특정 사용자는 불안한 감정을 가지고 있지만, 제1 사용자 표정 컴포넌트(기쁨)의 레벨을 0.6으로 다소 높게 설정하고, 제4 사용자 행동 컴포넌트(즐거움)의 레벨을 0.5로 다소 높게 설정하여 특정 사용자 액션을 입력함으로써, 예의 바르고 긍정적인 느낌을 가지고 상대방에게 키오스크의 사용법을 질문할 수 있을 것이다.As an example, referring to Figure 7, although a specific user has anxious feelings, the level of the first user facial expression component (joy) is set somewhat high at 0.6, and the level of the fourth user behavior component (joy) is set somewhat high at 0.5. By setting it high and entering a specific user action, you will be able to ask the other person how to use the kiosk in a polite and positive manner.

다음으로, 컴퓨팅 장치(100)는 특정 사용자 액션을 참조로 하여, 제1 사용자 표정 컴포넌트에 대응되는 제1'상대방 표정 컴포넌트를 성분으로 가지는 특정 상대방 대응 표정 벡터 데이터, 및 제4 사용자 행동 컴포넌트에 대응되는 제4'상대방 행동 컴포넌트를 성분으로 가지는 특정 상대방 대응 행동 벡터 데이터 중 적어도 일부를 포함하는 특정 상대방 대응 액션을 노출할 수 있다. 여기서, 특정 사용자가 긍정적 감정인 제1 사용자 표정 컴포넌트 및 제4 사용자 행동 컴포넌트를 포함한 상태로 상대방에게 질문을 하였기 때문에, 컴퓨팅 장치(100)는 이에 대응되는 제1'상대방 표정 컴포넌트 및 제4'상대방 행동 컴포넌트를 포함한 상태로 특정 사용자에게 답변을 제공할 수 있을 것이다.Next, the computing device 100 refers to a specific user action, and generates specific opponent-corresponding expression vector data having as a component a first 'opponent expression component corresponding to the first user expression component, and a fourth user action component. A specific opponent response action that includes at least a portion of specific opponent response action vector data having the fourth 'opponent action component as an element may be exposed. Here, because a specific user asked a question to the other person while including a first user expression component and a fourth user behavior component that are positive emotions, the computing device 100 asks the other person a question corresponding to the first 'other person expression component and the fourth user behavior component. You will be able to provide answers to specific users while including components.

일 예로, 도 7을 참조하면, 특정 상대방 대응 액션에 포함되는 제1' 상대방 표정 컴포넌트 및 제4'상대방 행동 컴포넌트의 레벨은 각각 0.5, 0.4인 것을 알 수 있으나 수치는 당연히 변동될 수 있을 것이다. 가령, 제3 실시예에서는 제1 사용자 표정 컴포넌트(0.6) 및 제4 사용자 행동 컴포넌트(0.5) 각각에 대응되는 제1'상대방 표정 컴포넌트 및 제4'상대방 행동 컴포넌트를 0.5 및 0.4로 제1 사용자 표정 컴포넌트 및 제4 사용자 행동 컴포넌트보다 낮게 설정하여 노출하였지만, 불안 감정을 더 잘 느끼는 사용자에게는 더욱 긍정적인 대답으로 피드백해주기 위해 제1'상대방 표정 컴포넌트 및 제4'상대방 행동 컴포넌트를 제1 사용자 표정 컴포넌트 및 제4 사용자 행동 컴포넌트보다 높게 설정하여 노출할 수도 있을 것이다.As an example, referring to FIG. 7, it can be seen that the levels of the first' opponent's facial expression component and the fourth' opponent's behavior component included in a specific opponent response action are 0.5 and 0.4, respectively, but the values may naturally vary. For example, in the third embodiment, the first 'counterpart expression component and the fourth 'opponent behavior component corresponding to the first user expression component (0.6) and the fourth user behavior component (0.5) are set to 0.5 and 0.4, respectively. Although it was exposed by setting it lower than the component and the fourth user behavior component, in order to provide feedback with a more positive answer to users who are more prone to anxiety, the first 'counterpart expression component' and the fourth 'counterpart behavior component' were combined with the first user expression component and the fourth 'opponent behavior component. It may be exposed by setting it higher than the fourth user behavior component.

이때, 컴퓨팅 장치(100)는 특정 컨텐츠가 제공되는 도중에 획득되는, 사용자 생체 데이터, 사용자에 대한 영상 데이터, 및 특정 사용자에 의해 발화된 음성 데이터 중 적어도 일부를 참조로 하여 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 중 제a 사용자 감정 카테고리를 나타내기 위한 제a 사용자 표정 컴포넌트, 및 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 중 제b 사용자 감정 카테고리를 나타내기 위한 제b 사용자 행동 컴포넌트 중 적어도 일부를 획득할 수 있다. 여기서, 사용자 생체 데이터는 심전도, 심박수, 혈압 등일 수 있고, 사용자에 대한 영상 데이터는 특정 컨텐츠를 이용하는 사용자의 표정, 행동 등을 촬영한 데이터일 수 있으며, 특정 사용자에 의해 발화된 음성 데이터는, 특정 사용자의 음성 높낮이, 음성의 떨림 등을 감지한 데이터일 수 있으나 이에 한정되는 것은 아니다.At this time, the computing device 100 refers to at least some of the user biometric data, video data for the user, and voice data uttered by the specific user, which are acquired while the specific content is being provided, to determine the first user emotion category to the second user emotion category. At least some of the a-th user expression component for representing the a-th user emotion category among the n-th user emotion categories, and the b-th user behavior component for representing the b-th user emotion category among the first to n-th user emotion categories. can be obtained. Here, the user's biometric data may be electrocardiogram, heart rate, blood pressure, etc., the image data for the user may be data that captures the facial expressions, actions, etc. of the user using specific content, and the voice data uttered by a specific user may be a specific This may be data that detects the user's voice pitch, voice tremor, etc., but is not limited to this.

한편, 상기 S401단계에서, 컴퓨팅 장치(100)는, 특정 컨텐츠의 가변 설정 조건으로서 (ii-3) 상기 상대방의 발화에 대응되는 특정 상대방 최초 언어 벡터 데이터(특정 상대방 최초 언어 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 상대방 언어 컴포넌트 내지 제n 상대방 언어 컴포넌트를 성분으로 가짐)를 추가적으로 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 가변 설정 조건으로서의 특정 상대방 최초 언어 벡터 데이터를 추가적으로 참조하여 특정 컨텐츠를 제공할 수 있다. 여기서, 특정 상대방 최초 언어 벡터 데이터도 위에서 언급한 특정 상대방 최초 표정 벡터 데이터 및 특정 상대방 최초 행동 벡터 데이터와 마찬가지로 희, 노, 애, 락, 애, 오, 욕의 감정 상태를 나타내는 상대방 언어 컴포넌트를 성분으로 가질 수 있다.Meanwhile, in step S401, the computing device 100 uses (ii-3) the specific opponent's initial language vector data corresponding to the other party's utterance (the specific opponent's initial language vector data is the first opponent's first language vector data) as a variable setting condition for the specific content. It is additionally determined at what timing of the specific content to be exposed (having the first opponent's language component to the nth opponent's language component to represent each of the emotional category or the nth opponent's emotional category), and the specific opponent's first language as a variable setting condition. Specific content can be provided by additionally referencing vector data. Here, the specific opponent's first language vector data, like the specific opponent's first facial expression vector data and the specific opponent's first action vector data mentioned above, consists of the opponent's language components representing the emotional states of joy, anger, sadness, joy, love, oh, and swearing. You can have it.

그리고, 특정 상대방 최초 언어 벡터 데이터가 추가적으로 제공되면, 컴퓨팅 장치(100)가, 사용자로 하여금, 특정 상대방 언어 벡터 데이터에 포함된 제1 상대방 언어 컴포넌트 내지 제n 상대방 언어 컴포넌트 중 기설정된 언어 임계치 이상에 해당되는 적어도 하나의 제k 상대방 언어 컴포넌트에 대응되는 제k 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 추가적으로 수행할 수 있다. 가령, 컴퓨팅 장치(100)는 사용자로 하여금, 7개의 상대방 언어 컴포넌트 중 기설정된 언어 임계치 이상에 해당되는 적어도 하나의 감정인 사랑(k는 희로애락애오욕 중 5번째 감정인 애에 해당하는 것으로 예를 들어 가정함)의 감정 상태를 표현하는 제5 상대방 언어 컴포넌트에 대응되는 제5 상대방 감정 카테고리의 존재 여부를 추가적으로 예측하도록 지원할 수 있다.And, when the specific counterpart's initial language vector data is additionally provided, the computing device 100 causes the user to use the first to the nth counterpart's language components included in the specific counterpart's language vector data above a preset language threshold. A process to support predicting the presence or absence of the kth counterpart's emotion category corresponding to at least one corresponding kth counterpart's language component may be additionally performed. For example, the computing device 100 causes the user to select at least one emotion, love, that corresponds to a preset language threshold or higher among the seven other language components (assuming, for example, that k corresponds to the fifth emotion, love, among the joys, sorrows, sorrows, and desires). It is possible to support additional prediction of the existence of the fifth partner's emotional category corresponding to the fifth partner's language component expressing the emotional state of the user.

다음으로, 특정 사용자에 의해 제k 상대방 언어 컴포넌트에 대응되는 제k 상대방 감정 카테고리의 존재 여부가 추가적으로 예측된 상태에서, 특정 사용자에 의해 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 중 제c 사용자 감정 카테고리를 나타내기 위한 제c 사용자 언어 컴포넌트를 성분으로 가지는 특정 사용자 언어 벡터 데이터를 포함하는 특정 사용자 액션이 추가적으로 입력되면, 컴퓨팅 장치(100)가, 특정 사용자 액션을 참조로 하여, 제c 사용자 표정 컴포넌트에 대응되는 제c' 상대방 표정 컴포넌트를 성분으로 가지는 특정 상대방 대응 언어 벡터 데이터를 포함하는 특정 상대방 대응 액션을 추가적으로 노출할 수 있다.Next, in a state in which the existence of the kth opponent's emotion category corresponding to the kth opponent's language component is additionally predicted by a specific user, the cth user's emotion among the first to nth user's emotion categories is determined by the specific user. When a specific user action including specific user language vector data having as a component a c-th user language component for representing a category is additionally input, the computing device 100 generates the c-th user facial expression component with reference to the specific user action. It is possible to additionally expose a specific opponent-corresponding action that includes specific opponent-corresponding language vector data that has the 'c' opponent facial expression component corresponding to as a component.

이때, 도 7에서 가변 설정 조건으로서의 특정 상대방 최초 언어 벡터 데이터 및 특정 상대방 대응 언어 벡터 데이터에 대한 정보들은 생략되어 있으나, 이는 데이터베이스(110)가 이에 대한 정보를 포함하지 않는다는 것은 아니다.At this time, in FIG. 7, information on the specific counterpart's initial language vector data and the specific counterpart's corresponding language vector data as variable setting conditions are omitted, but this does not mean that the database 110 does not include information on this.

다음으로, 특정 상대방 대응 액션을 참조로 하여, 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 중 부정적 감정 카테고리인 적어도 하나의 제m 사용자 감정 카테고리에 대한 제m 사용자 감정 레벨이 기설정된 최종 불안도 수치 이하인 것으로 확인되면, 컴퓨팅 장치(100)가, 특정 컨텐츠의 사전 설정 조건으로서의 특정 객체 데이터 및 특정 상태 데이터를 조정하는 프로세스 및 가변 설정 조건으로서의 특정 상대방 최초 표정 벡터 데이터 및 특정 상대방 최초 행동 벡터 데이터를 조정하는 프로세스 중 적어도 일부의 프로세스를 수행하여 특정 컨텐츠를 조정한 조정 컨텐츠를 제공할 수 있다.Next, with reference to the specific counterpart response action, the final anxiety level at which the m-th user emotion level for at least one m-th user emotion category, which is a negative emotion category among the first to n-th user emotion categories, is preset. If it is confirmed that it is the following, the computing device 100 adjusts the specific object data and specific state data as preset conditions of the specific content and the specific opponent's initial expression vector data and the specific opponent's initial action vector data as variable setting conditions. Adjusted content that adjusts specific content can be provided by performing at least some of the processes.

여기서, 제m 사용자 감정 카테고리는 특정 컨텐츠를 이용하는 도중에 사용자의 불안 감정을 나타내는 감정 카테고리일 수 있으며, 설명의 편의상 제m 사용자 감정 카테고리 및 제m 사용자 감정 레벨은 부정적 감정 중 슬픔의 감정인 제3 사용자 감정 카테고리 및 제3 사용자 감정 레벨로 상정하여 설명하겠다. 또한, 기설정된 최종 불안도 수치는 특정 사용자가 성공적으로 특정 컨텐츠의 최종 미션인 긍정적인 감정을 담아 질문하기를 성공하여 슬픔의 감정 레벨을 스스로 감소시킨 수치를 의미할 수 있으며, 본 발명에서는 최종 불안도 수치를 0.2로 상정하여 설명하겠다.Here, the mth user emotion category may be an emotion category that represents the user's anxiety while using specific content, and for convenience of explanation, the mth user emotion category and the mth user emotion level are the third user emotion, which is the emotion of sadness among negative emotions. This will be explained assuming categories and third user emotion levels. In addition, the preset final anxiety level may refer to the level at which a specific user successfully reduces the emotional level of sadness by successfully asking a question with positive emotions, which is the final mission of specific content. In the present invention, the final anxiety level is I will explain by assuming that the figure is 0.2.

이때, 도 7을 참조하면, 최종 미션을 수행한 사용자의 제3 사용자 감정 레벨이 0.7에서 0.2로 감소한 것을 알 수 있다.At this time, referring to FIG. 7, it can be seen that the third user emotion level of the user who performed the final mission decreased from 0.7 to 0.2.

여기서, 조정 컨텐츠는 사용자가 특정 사용자 액션을 통해 특정 사용자의 부정적 감정을 줄이는데 성공하면, 컴퓨팅 장치(100)가 컨텐츠의 설정 조건을 조정함으로써 컨텐츠의 난이도를 더욱 높게 하여 특정 사용자에게 제공하는 것을 의미할 수 있다. 가령, 특정 컨텐츠에서 슬픔을 표현하는 제3 사용자 감정 카테고리의 제3 사용자 감정 레벨을 감소시키는 것에 성공했다면, 조정 컨텐츠에서는 특정 사용자에게 노출되는 제1' 상대방 표정 컴포넌트, 및 제4' 상대방 행동 컴포넌트의 레벨의 크기를 소정 크기 감소시켜 다시 노출할 수 있다. 즉, 특정 사용자는 상대방의 약해진 긍정적 감정 상태를 포함하는 특정 상대방 대응 액션으로 인해 사용자 자신의 불안 감정을 감소시키는데 다소 어려움을 느끼도록 함으로써 조정 컨텐츠의 난이도를 상승시킬 수도 있을 것이다.Here, adjusted content means that if the user succeeds in reducing the negative emotions of a specific user through a specific user action, the computing device 100 adjusts the setting conditions of the content to further increase the difficulty of the content and provide it to the specific user. You can. For example, if it is successful in reducing the third user's emotion level of the third user's emotion category expressing sadness in a specific content, in the adjusted content, the first' opponent's expression component and the fourth' opponent's behavior component exposed to the specific user are reduced. You can reduce the size of the level by a certain amount and expose it again. In other words, the difficulty of the adjusted content may be increased by causing a specific user to experience some difficulty in reducing the user's own anxiety due to a specific counterpart's response action that includes the other's weakened positive emotional state.

또한, 컴퓨팅 장치(100)는 특정 상대방 대응 액션을 참조로 하여, 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 중 적어도 하나의 제m 사용자 감정 카테고리에 대한 제m 사용자 감정 레벨이 기설정된 최종 불안도 수치 이하인 것으로 확인되면, 특정 사용자에게 특정 사용자 액션에 대한 정답 액션이 복수 솔루션으로서 존재하도록 사전 설정 조건 및 가변 설정 조건 중 적어도 일부를 조정하여 조정 컨텐츠를 제공할 수 있다. 여기서, 특정 컨텐츠에서는 특정 사용자 액션에 대한 정답 액션이 '예의 바르게 상대방에게 키오스크의 사용법에 대한 질문을 한다'로 1개였지만, 조정 컨텐츠에서는, 사전 설정 조건 및 가변 설정 조건을 조정함으로써 정답 액션이 복수 개 존재하도록 설정하여 조정 컨텐츠를 제공할 수 있다. 가령, 키오스크의 개수를 늘리거나, 키오스크의 사용 제한 시간을 조정하여 컨텐츠의 난이도를 올릴 수 있으며, '예의 바르게 상대방에게 키오스크의 사용법에 대한 질문을 한다' 뿐만 아니라, '먼저 사용하세요, 사용하시는 것을 보고 이용하겠습니다' 등의 정답 액션이 존재할 수 있으나 이에 한정되는 것은 아니다.In addition, the computing device 100 determines the m-th user emotion level for at least one m-th user emotion category among the first to n-th user emotion categories, with reference to a specific counterpart response action, to a preset final anxiety level. If it is confirmed that it is below the value, adjusted content may be provided by adjusting at least some of the preset conditions and variable setting conditions so that the correct action for the specific user action exists as multiple solutions for the specific user. Here, in specific content, there was only one correct action for a specific user action, 'politely ask the other person how to use the kiosk', but in adjusted content, there were multiple correct actions by adjusting the preset conditions and variable setting conditions. You can provide coordinated content by setting it to exist. For example, you can increase the difficulty of the content by increasing the number of kiosks or adjusting the usage time limit of the kiosk. In addition to 'asking the other person politely how to use the kiosk', 'Use it first, use it carefully'. There may be a correct answer action such as 'I will use it after seeing it', but it is not limited to this.

다음으로, 도 9b를 참조하면, 사용자(920)는 제1 사용자 표정 컴포넌트 및 제4 사용자 행동 컴포넌트의 레벨을 높인 상태로 특정 사용자 액션을 입력하고, 상대방(910)은 특정 사용자 액션에 대응하여 제1' 상대방 표정 컴포넌트 및 제4' 상대방 행동 컴포넌트의 레벨을 높인 상태로 특정 상대방 액션을 노출하여 대응함으로써 사용자(920)에 대한 감정 상태가 안정된 상태로 변화하여 최종적으로 특정 컨텐츠의 상대방(910)에게 예의바르게 키오스크의 사용법을 질문하는 미션을 성공적으로 완료한 상황을 나타낸 것이다.Next, referring to FIG. 9B, the user 920 inputs a specific user action with the level of the first user expression component and the fourth user action component raised, and the other party 910 inputs a specific user action in response to the specific user action. By exposing and responding to a specific opponent's action with the level of the 1' opponent's facial expression component and the 4th' opponent's behavior component raised, the emotional state toward the user 920 changes to a stable state, and finally, the specific content is provided to the opponent 910. This shows a situation where the mission of politely asking how to use the kiosk was successfully completed.

다음으로, 특정 컨텐츠를 이용한 사용자의 불안 감정 심각도를 제k 불안 감정 심각도 레벨이라고 하고, 제k 불안 감정 심각도 레벨보다 더 심각한 정도가 높은 불안 감정 심각도를 제(k+1) 불안 감정 심각도 레벨이라고 할 때, 컴퓨팅 장치(100)가, 사용자가 제k 불안 감정 심각도 레벨에 해당되는 경우에 노출되는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 중에서 긍정적 감정 카테고리에 해당되는 상대방 감정 레벨에 대한, 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 중에서 부정적 감정 카테고리에 해당되는 상대방 감정 레벨의 비율인 r1의 값을, 사용자가 상기 제(k+1) 불안 감정 심각도 레벨에 해당되는 경우에 노출되는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 중에서 긍정적 감정 카테고리에 해당되는 상대방 감정 레벨에 대한, 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 중에서 부정적 감정 카테고리에 해당되는 상대방 감정 레벨의 비율인 r2의 값보다 크게 설정할 수 있다. Next, the anxiety emotion severity of the user using specific content will be referred to as the kth anxiety emotion severity level, and the anxiety emotion severity level that is more severe than the kth anxiety emotion severity level will be referred to as the (k+1)th anxiety emotion severity level. At this time, the computing device 100, when the user corresponds to the kth anxiety emotion severity level, the first counterpart emotion level corresponding to the positive emotion category among the first to nth counterpart emotion categories exposed, The value of r1, which is the ratio of the other person's emotional level corresponding to the negative emotional category among the other person's emotional category or the nth other person's emotional category, is set to the first opponent exposed when the user falls under the (k+1)th anxiety emotion severity level. Greater than the value of r2, which is the ratio of the opponent's emotional level corresponding to the negative emotional category among the first and nth emotional categories of the emotional category to the emotional level of the positive emotional category among the emotional categories and the nth emotional category of the other emotional category. You can set it.

이때, 불안 감정 심각도는, 제1 불안 감정 심각도 레벨부터 제10 불안 감정 심각도 레벨까지 있으며, 제1 불안 감정 심각도 레벨부터 제10 불안 감정 심각도 레벨로 올라갈수록 불안 감정에 대한 제어가 힘든 상태를 의미할 수 있다. 따라서, 특정 사용자의 불안 감정 심각도가 제3 불안 감정 심각도 레벨인 경우와 제4 불안 감정 심각도 레벨인 경우를 비교하였을 때, 제3 불안 감정 심각도 레벨인 경우가 제4 불안 감정 심각도 레벨인 경우보다 긍정적 감정 카테고리에 해당되는 상대방 감정 레벨에 대한 부정적 감정 카테고리에 해당되는 상대방 감정 레벨의 비율이 더욱 높게 설정해야 할 수 있다. 왜냐하면, 불안 심각도 레벨이 높은 경우 불안 감정을 더욱 잘 느끼기 때문에, 그러한 특정 사용자에게는 특정 컨텐츠에 등장하는 상대방의 감정의 긍정적 성분을 더욱 높여서 노출시킴으로써 특정 컨텐츠의 난이도를 조정해야 할 수 있다. At this time, the anxiety emotion severity ranges from the first anxiety emotion severity level to the tenth anxiety emotion severity level, and as it increases from the first anxiety emotion severity level to the tenth anxiety emotion severity level, it means that it is difficult to control the anxiety emotion. You can. Therefore, when comparing the case where the anxiety emotion severity of a specific user is the third anxiety emotion severity level and the case where the anxiety emotion severity level is the fourth anxiety emotion severity level, the case of the third anxiety emotion severity level is more positive than the case of the fourth anxiety emotion severity level. The ratio of the other person's emotional level corresponding to the negative emotion category to the other person's emotional level corresponding to the emotional category may need to be set higher. Because, when the anxiety severity level is high, anxiety emotions are felt more easily, so the difficulty of specific content may need to be adjusted by exposing the positive components of the other person's emotions that appear in the specific content to a higher level to such specific users.

한편, 이하에서는 컴퓨팅 장치(100)가 학습 장치(미도시)를 포함하며, 학습 장치를 사용하여 학습하는 과정에 대한 예시를 설명하도록 한다.Meanwhile, in the following, the computing device 100 includes a learning device (not shown), and an example of a learning process using the learning device will be described.

다음으로, 컴퓨팅 장치(100)가, (i) 사용자에 대한 정보 및 사용자와 기설정된 임계치 이상의 유사도를 가지는 적어도 하나의 타 사용자에 대한 정보, (ii) 특정 상대방 최초 표정 벡터 데이터, 및 이에 대응되는 타 사용자에게 노출되었던 타 상대방 최초 표정 벡터 데이터, (iii) 특정 상대방 최초 행동 벡터 데이터 및 이에 대응되는 타 사용자에게 노출되었던 타 상대방 최초 행동 벡터 데이터, (iv) 특정 사용자 액션 및 이에 대응되는 타 사용자에 의해 입력되었던 타 사용자 액션 중 적어도 일부를 학습 장치에 입력할 수 있다.Next, the computing device 100 includes (i) information about the user and information about at least one other user having a similarity to the user greater than a preset threshold, (ii) initial facial expression vector data of a specific opponent, and corresponding Other user's first facial expression vector data that was exposed to other users, (iii) specific user's first action vector data and corresponding other user's first action vector data that was exposed to other user, (iv) specific user's action and corresponding other user's action vector data At least some of the actions of other users that were input by the user may be input to the learning device.

이때, 사용자에 대한 정보는 나이, 성별, mbti, 심박수, 호흡수 등을 포함할 수 있으나 이에 한정되는 것은 아니며, 타 사용자에 대한 정보는 이전에 특정 컨텐츠를 이용했던 사람들 중 사용자에 대한 정보 및 사용자가 입력한 예측값과 기설정된 임계치 이상의 유사도를 가지는 사람을 의미할 수 있다. At this time, information about the user may include, but is not limited to, age, gender, mbti, heart rate, respiratory rate, etc., and information about other users includes information about users among those who have previously used specific content. This may mean a person who has a similarity between the input predicted value and a preset threshold or higher.

그러면 컴퓨팅 장치(100)는 이와 같은 데이터들을 학습 장치에 입력하여, 학습 장치로 하여금, 사용자 및 타 사용자의 특정 사용자 액션 및 타 사용자 액션 중 적어도 일부에 대한 수행 성공율을 높이기 위한, 최적 특정 상대방 최초 표정 벡터 데이터, 최적 타 상대방 최초 표정 벡터 데이터, 최적 특정 상대방 최초 행동 벡터 데이터 및 최적 타 상대방 최초 행동 벡터 데이터 중 적어도 일부를 학습하도록 할 수 있다.Then, the computing device 100 inputs such data into the learning device to enable the learning device to determine the optimal initial facial expression for a specific opponent to increase the success rate of performing at least some of the specific user actions and other user actions of the user and other users. At least some of the vector data, optimal other opponent's initial facial expression vector data, optimal specific opponent's initial action vector data, and optimal other opponent's initial action vector data may be learned.

여기서, 컴퓨팅 장치(100)는 학습 장치로 하여금, 최적 특정 상대방 최초 표정 벡터 데이터, 최적 타 상대방 최초 표정 벡터 데이터, 최적 특정 상대방 최초 행동 벡터 데이터 및 최적 타 상대방 최초 행동 벡터 데이터 중 적어도 일부를 학습하도록 함으로써, 사용자 및 타 사용자가 상대방의 최초 표정이나 행동을 보고 사용자의 불안 감정을 감소시키기 위한 특정 사용자 액션을 입력할 확률을 높이도록 할 수 있을 것이다. 여기서, 특정 사용자 액션을 입력할 확률을 높이는 것의 개념은, 말 그대로 사용자의 불안 감정을 감소시키기 위한 특정 사용자 액션을 입력할 확률 수치가 높은 것을 의미할 수도 있으나, 본 컨텐츠에 대한 시청을 통해 특정 사용자 액션을 입력할 확률이 종전보다 개선되는 정도의 수치를 포함할 수도 있다.Here, the computing device 100 causes the learning device to learn at least some of the optimal specific opponent's initial expression vector data, the optimal other opponent's initial expression vector data, the optimal specific opponent's initial action vector data, and the optimal other opponent's initial action vector data. By doing so, it will be possible to increase the probability that the user and other users will see the other person's initial expression or action and input a specific user action to reduce the user's anxiety. Here, the concept of increasing the probability of entering a specific user action may literally mean that the probability of entering a specific user action to reduce the user's anxiety is high, but through viewing this content, a specific user It may also include a measure of the degree to which the probability of entering an action is improved compared to before.

그리고, 특정 상대방 대응 액션을 참조로 하여, 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 중 부정적 감정 카테고리인 적어도 하나의 제m 사용자 감정 카테고리에 대한 제m 사용자 감정 레벨이 추가적으로 획득된 상태에서, 컴퓨팅 장치(100)가, (i) 사용자에 대한 정보 및 사용자와 기설정된 임계치 이상의 유사도를 가지는 적어도 하나의 타 사용자에 대한 정보, (ii) 특정 상대방 최초 표정 벡터 데이터, 및 이에 대응되는 타 사용자에게 노출되었던 타 상대방 최초 표정 벡터 데이터, (iii) 특정 상대방 최초 행동 벡터 데이터 및 이에 대응되는 타 사용자에게 노출되었던 타 상대방 최초 행동 벡터 데이터, (iv) 특정 사용자 표정 벡터 데이터, 및 이에 대응되는 타 사용자에 의해 입력되었던 타 사용자 표정 벡터 데이터, (vi) 특정 사용자 행동 벡터 데이터, 및 이에 대응되는 타 사용자에 의해 입력되었던 타 사용자 행동 벡터 데이터, (v) 제a 사용자 표정 컴포넌트에 대응되는 제a' 상대방 표정 컴포넌트를 성분으로 가지는 특정 상대방 대응 표정 벡터 데이터, 및 이에 대응되는 타 사용자에게 노출되었던 제a 타 사용자 표정 컴포넌트에 대응되는 제a' 타 상대방 표정 컴포넌트를 성분으로 가지는 타 상대방 대응 표정 벡터 데이터, (vi) 제b 사용자 행동 컴포넌트에 대응되는 제b' 상대방 행동 컴포넌트를 성분으로 가지는 특정 상대방 대응 행동 벡터 데이터, 및 이에 대응되는 타 사용자에게 노출되었던 제b 타 사용자 행동 컴포넌트에 대응되는 제b' 타 상대방 행동 컴포넌트를 성분으로 가지는 타 상대방 대응 행동 벡터 데이터, 및 (vii) 추가적으로 획득된 제m 사용자 감정 레벨, 및 이에 대응되는 타 사용자로부터 추가적으로 획득된 제m 타 사용자 감정 레벨 중 적어도 일부를 학습 장치에 입력할 수 있다.And, with reference to a specific counterpart response action, computing with the m-th user emotion level for at least one m-th user emotion category that is a negative emotion category among the first to n-th user emotion categories additionally obtained. The device 100 exposes (i) information about the user and information about at least one other user having a similarity to the user equal to or greater than a preset threshold, (ii) initial facial expression vector data of a specific opponent, and corresponding information to other users. (iii) the first facial expression vector data of a specific user and the first behavioral vector data of a specific user that was exposed to other users, (iv) the facial expression vector data of a specific user, and the vector data of the specific user's facial expressions that were exposed to other users Other user expression vector data that was input, (vi) specific user behavior vector data, and other user behavior vector data that was input by the other user corresponding thereto, (v) a'th other user's expression component corresponding to the ath user's expression component. Expression vector data corresponding to a specific opponent having as a component, and facial expression vector data corresponding to another opponent having as a component a'th other opponent's expression component corresponding to the a'th other user's facial expression component that was exposed to the corresponding other user, (vi) Specific counterpart-corresponding behavior vector data having the 'b' counterpart behavior component as an element corresponding to the 'b' user behavior component, and the 'b' other-party behavior component corresponding to the 'b' other user behavior component that was exposed to other users corresponding thereto. At least a portion of the other counterpart's corresponding behavior vector data having as a component, and (vii) the additionally acquired mth user's emotion level, and the mth other user's emotion level additionally acquired from the other user corresponding thereto, can be input to the learning device. there is.

그러면 컴퓨팅 장치(100)가, 학습 장치로 하여금, 사용자 및 타 사용자의 제m 사용자 감정 레벨 및 제m 타 사용자 감정 레벨 중 적어도 일부의 최종 불안도 수치를 낮추기 위한, 최적 특정 상대방 최초 표정 벡터 데이터, 최적 타 상대방 최초 표정 벡터 데이터, 최적 특정 상대방 최초 행동 벡터 데이터, 최적 타 상대방 최초 행동 벡터 데이터, 최적 특정 상대방 대응 표정 벡터 데이터, 최적 타 상대방 대응 표정 벡터 데이터, 최적 특정 상대방 대응 행동 벡터 데이터, 및 최적 타 상대방 대응 행동 벡터 데이터 중 적어도 일부를 학습하도록 할 수 있다.Then, the computing device 100 causes the learning device to provide optimal specific opponent initial facial expression vector data for lowering the final anxiety level of at least some of the mth user emotion level and the mth other user emotion level of the user and other users, Optimal other opponent's initial expression vector data, optimal specific opponent's initial action vector data, optimal other opponent's initial action vector data, optimal specific opponent's corresponding expression vector data, optimal other opponent's corresponding facial expression vector data, optimal specific opponent's corresponding action vector data, and optimal It is possible to learn at least some of the other opponent's corresponding action vector data.

이때, 컴퓨팅 장치(100)는 학습 장치로 하여금, 특정 컨텐츠 내의 초반 상황에서 노출되는 상대방의 최초 표정 및 최초 행동에 대한 벡터 데이터와 특정 사용자 액션에 대응하여 노출되는 상대방의 대응 표정 및 대응 행동에 대한 벡터 데이터 중 적어도 일부를 학습하도록 함으로써, 사용자 및 타 사용자의 최종 불안도 수치를 낮추는 확률을 높이도록 할 수 있을 것이다. 여기서, 최종 불안도 수치를 낮추는 확률을 높이는 것의 개념은, 말 그대로 사용자의 불안 감정을 낮출 확률 수치가 높은 것을 의미할 수도 있으나, 본 컨텐츠에 대한 시청을 통해 최종 불안도 수치를 낮추는 능력이 종전보다 개선되는 정도의 수치를 포함할 수도 있다.At this time, the computing device 100 causes the learning device to provide vector data about the other person's initial expression and initial action exposed in the initial situation within the specific content and the other person's corresponding expression and corresponding action exposed in response to the specific user action. By learning at least some of the vector data, it will be possible to increase the probability of lowering the final anxiety level of the user and other users. Here, the concept of increasing the probability of lowering the final anxiety level may literally mean that the probability of lowering the user's anxiety level is high, but the ability to lower the final anxiety level through viewing this content is greater than before. It may also include a measure of the degree of improvement.

또한, 이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magnetooptical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Additionally, the embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. , and hardware devices specifically configured to store and perform program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the invention and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described with specific details such as specific components and limited embodiments and drawings, but this is only provided to facilitate a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , a person skilled in the art to which the present invention pertains can make various modifications and variations from this description.

Claims (16)

사용자에게 제공되는 특정 컨텐츠 내에 등장하는 상대방의 부정적 감정을 예측하여 줄이도록 하기 위한 방법에 있어서,
(a) 컴퓨팅 장치가, 상기 특정 컨텐츠의 사전 설정 조건으로서 (i-1) 상기 사용자가 상기 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터 및 (i-2) 상기 특정 객체에 대한 특정 상태 데이터를 결정하고, 상기 특정 컨텐츠의 가변 설정 조건으로서 (ii-1) 상기 상대방의 표정에 대응되는 특정 표정 벡터 데이터 - 상기 특정 표정 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제n 표정 컴포넌트를 성분으로 가짐 - 및 (ii-2) 상기 상대방의 행동에 대응되는 특정 행동 벡터 데이터 - 상기 특정 행동 벡터 데이터는 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제n 행동 컴포넌트를 성분으로 가짐 - 중 적어도 일부를 상기 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 상기 사전 설정 조건으로서의 상기 특정 객체 데이터 및 상기 특정 상태 데이터와, 상기 가변 설정 조건으로서의 상기 특정 표정 벡터 데이터, 및 상기 특정 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 상기 특정 컨텐츠를 제공하는 단계;
(b) 상기 특정 표정 벡터 데이터 및 상기 특정 행동 벡터 데이터가 제공되면, 상기 컴퓨팅 장치가, 상기 사용자로 하여금, 상기 특정 표정 벡터 데이터에 포함된 상기 제1 표정 컴포넌트 내지 상기 제n 표정 컴포넌트 중 기설정된 표정 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 상기 특정 행동 벡터 데이터에 포함된 상기 제1 행동 컴포넌트 내지 상기 제n 행동 컴포넌트 중 기설정된 행동 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행하는 단계; 및
(c) 상기 사용자에 의해 상기 제i 표정 컴포넌트에 대응되는 상기 제i 상대방 감정 카테고리의 존재 여부 및 상기 제j 행동 컴포넌트에 대응되는 상기 제j 상대방 감정 카테고리의 존재 여부가 예측된 상태에서, 상기 사용자에 의해 상기 제i 상대방 감정 카테고리에 대응되는 상기 상대방의 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 카테고리에 대응되는 상기 상대방의 제j 상대방 감정 레벨 중 적어도 일부의 감정 레벨의 크기를 조정하기 위한 특정 사용자 대응 행동이 입력되면, 상기 컴퓨팅 장치가, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제i 상대방 조정 감정 레벨 및 제j 상대방 조정 감정 레벨을 노출하는 단계;
를 포함하는 방법.
In a method for predicting and reducing the negative emotions of others appearing in specific content provided to users,
(a) The computing device, as a preset condition for the specific content, (i-1) specific object data for at least one specific object as an object for the user to interact with at least one other party appearing in the specific content, and (i-2) determining specific state data for the specific object, and (ii-1) specific expression vector data corresponding to the facial expression of the other party as a variable setting condition for the specific content - the specific facial expression vector data is the first Contains as components a first facial expression component to an n-th facial expression component for representing each of the opponent's emotion categories and the nth opponent's emotion category - and (ii-2) specific behavior vector data corresponding to the opponent's behavior - the specific behavior vector Data has as components a first behavioral component to an n-th behavioral component for representing each of the first emotional category to the nth emotional category; determining at what timing of the specific content to expose at least a portion of the data; providing the specific content with reference to at least some of the specific object data and the specific state data as the preset conditions, the specific expression vector data as the variable setting conditions, and the specific action vector data;
(b) When the specific expression vector data and the specific action vector data are provided, the computing device causes the user to select a preset of the first to nth expression components included in the specific expression vector data. A process for predicting the presence or absence of an i-th other person's emotion category corresponding to at least one ith facial expression component corresponding to an expression threshold or higher, and the first to n-th behavior components included in the specific behavior vector data. performing a process to support predicting the presence or absence of a jth opponent's emotion category corresponding to at least one jth behavior component corresponding to a preset behavior threshold or higher; and
(c) In a state in which the user predicts the existence of the ith other person's emotion category corresponding to the ith facial expression component and the existence of the jth other person's emotional category corresponding to the jth behavioral component, the user A specific method for adjusting the size of the emotional level of at least some of the i-th emotional level of the other party corresponding to the ith emotional category and the j-th emotional level of the other party corresponding to the j-th emotional category When a user response action is input, the computing device, with reference to the specific user response action, sets an i-th partner adjusted emotion level, which is an emotional level adjusted to correspond to each of the i-th partner emotion level and the j-th partner emotion level, and jth step of exposing the other party's adjusted emotional level;
How to include .
제1항에 있어서,
(d) 상기 컴퓨팅 장치가, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨을 노출한 상태에서, 상기 특정 사용자 대응 행동으로 인해 사용자 감정 벡터 데이터 - 상기 사용자 감정 벡터 데이터는 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 각각에 대한 제1 사용자 감정 레벨 내지 제n 사용자 감정 레벨을 나타냄 - 중 적어도 일부인 제m 사용자 감정 카테고리에 대한 제m 사용자 감정 레벨이 기설정된 변동 임계치 이상 변화된 것으로 감지되면, 상기 제m 사용자 감정 카테고리 및 이에 대응되는 변동 정보를 기록하는 단계를 더 포함하는 것을 특징으로 하는 방법.
According to paragraph 1,
(d) the computing device adjusts the ith counterpart's adjusted emotional level and the jth emotional level, which are emotional levels adjusted to correspond to each of the ith counterpart's emotional level and the j'th counterpart's emotional level with reference to the specific user response behavior. In a state where the other party's adjusted emotion level is exposed, user emotion vector data due to the specific user response action - the user emotion vector data is the first to nth user emotion levels for each of the first to nth user emotion categories Indicates user emotion level - when it is detected that the mth user emotion level for at least a part of the mth user emotion category has changed by more than a preset change threshold, a step of recording the mth user emotion category and change information corresponding thereto is further performed. A method characterized by comprising:
제2항에 있어서,
상기 제m 사용자 감정 카테고리가 상기 기설정된 변동 임계치 이상 변화된 것으로 감지되면, 상기 컴퓨팅 장치가, 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 중 상기 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제a 상대방 감정 카테고리를 나타내기 위한 제a 표정 컴포넌트의 표정 레벨의 크기를 기설정된 표정 벡터 크기인 제1 크기만큼 증가시켜 상기 사용자에게 노출하는 프로세스 및 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 중 상기 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제b 상대방 감정 카테고리를 나타내기 위한 제b 행동 컴포넌트의 행동 레벨의 크기를 기설정된 행동 벡터 크기인 제2 크기만큼 증가시켜 상기 사용자에게 노출하는 프로세스 중 적어도 일부의 프로세스를 수행함으로써 상기 사용자의 상기 기설정된 변동 임계치 이상 변화된 상기 제m 사용자 감정 카테고리에 대한 상기 제m 사용자 감정 레벨을 상기 기설정된 변동 임계치 미만으로 낮추기 위한 보상 컨텐츠를 추가적으로 제공하는 것을 특징으로 하는 방법.
According to paragraph 2,
When it is detected that the mth user emotion category has changed by more than the preset change threshold, the computing device selects at least some of the emotion categories corresponding to the positive emotion of the other person among the first other person's emotion category and the nth other person's emotion category. A process of increasing the size of the expression level of the a-th expression component for representing the a-th other person's emotion category by a first size, which is the size of a preset expression vector, and exposing it to the user, and the first other person's emotion category to the n-th other person's emotion. Increase the size of the action level of the b action component for representing the b other person emotion category, which is at least part of the emotion category corresponding to the positive emotion of the other person among the categories, by the second size, which is the size of the preset action vector, and expose it to the user. Additionally providing compensation content for lowering the m-th user emotion level for the m-th user emotion category that has changed more than the pre-set change threshold of the user to less than the pre-set change threshold by performing at least some of the processes. A method characterized by:
제1항에 있어서,
상기 컴퓨팅 장치가, (i) 상기 사용자에 대한 정보 및 상기 사용자와 기설정된 임계치 이상의 유사도를 가지는 적어도 하나의 타 사용자에 대한 정보, (ii) 상기 특정 표정 벡터 데이터 및 이에 대응되는 상기 타 사용자에게 노출되었던 타 표정 벡터 데이터, (iii) 상기 특정 행동 벡터 데이터 및 이에 대응되는 상기 타 사용자에게 노출되었던 타 행동 벡터 데이터, 및 (iv) 상기 특정 사용자 대응 행동, 상기 타 사용자에 의해 입력되었던 타 사용자 대응 행동 및 이에 대응되는 특정 사용자 정답 대응 행동과 타 사용자 정답 대응 행동 중 적어도 일부를 학습 장치에 입력하여, 상기 학습 장치로 하여금, 상기 사용자 및 상기 타 사용자의 상기 특정 사용자 대응 행동 및 상기 타 사용자 대응 행동 중 적어도 일부의 정확도를 기설정된 임계치 이상으로 높이기 위한, 최적의 특정 표정 벡터 데이터, 최적의 타 표정 벡터 데이터, 최적의 특정 행동 벡터 데이터 및 최적의 타 행동 벡터 데이터 중 적어도 일부를 학습하도록 하는 것을 특징으로 하는 방법.
According to paragraph 1,
The computing device exposes (i) information about the user and information about at least one other user having a similarity to the user greater than a preset threshold, (ii) the specific facial expression vector data and corresponding information to the other user. other facial expression vector data, (iii) the specific action vector data and the corresponding other action vector data exposed to the other user, and (iv) the specific user corresponding action, the other user corresponding action input by the other user. and inputting at least some of the specific user's correct answer response behavior and the other user's correct response response behavior corresponding thereto into the learning device, thereby causing the learning device to select among the specific user response behavior and the other user response behavior of the user and the other user. Characterized by learning at least some of optimal specific expression vector data, optimal other expression vector data, optimal specific action vector data, and optimal other action vector data in order to increase at least some of the accuracy above a preset threshold. How to.
제1항에 있어서,
상기 (a) 단계에서,
상기 컴퓨팅 장치가, 상기 특정 컨텐츠의 상기 가변 설정 조건으로서 (ii-3) 상기 상대방의 발화에 대응되는 특정 언어 벡터 데이터 - 상기 특정 언어 벡터 데이터는 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 언어 컴포넌트 내지 제n 언어 컴포넌트를 성분으로 가짐 - 를 추가적으로 상기 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 상기 가변 설정 조건으로서의 상기 특정 언어 벡터 데이터를 추가적으로 참조하여 상기 특정 컨텐츠를 제공하고,
상기 (b) 단계에서,
상기 특정 언어 벡터 데이터가 추가적으로 제공되면, 상기 컴퓨팅 장치가, 상기 사용자로 하여금, 상기 특정 언어 벡터 데이터에 포함된 상기 제1 언어 컴포넌트 내지 상기 제n 언어 컴포넌트 중 기설정된 언어 임계치 이상에 해당되는 적어도 하나의 제k 언어 컴포넌트에 대응되는 제k 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 추가적으로 수행하며,
상기 (c) 단계에서,
상기 사용자에 의해 상기 제k 언어 컴포넌트에 대응되는 상기 제k 상대방 감정 카테고리의 존재 여부가 추가적으로 예측된 상태에서, 상기 사용자에 의해 상기 제k 상대방 감정 카테고리에 대응되는 상기 상대방의 제k 상대방 감정 레벨의 크기를 추가적으로 조정하기 위한 상기 특정 사용자 대응 행동이 입력되면, 상기 컴퓨팅 장치가, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제k 상대방 감정 레벨에 대응되어 조정된 감정 레벨인 제k 상대방 조정 감정 레벨을 추가적으로 노출하는 것을 특징으로 하는 방법.
According to paragraph 1,
In step (a) above,
The computing device, as the variable setting condition of the specific content, (ii-3) specific language vector data corresponding to the other party's utterance - the specific language vector data includes the first counterpart emotion category to the nth counterpart emotion category Having as components a first language component to an n-th language component to represent each - additionally determines at which timing of the specific content to be exposed, and additionally refers to the specific language vector data as the variable setting condition to display the specific content. provide,
In step (b) above,
When the specific language vector data is additionally provided, the computing device causes the user to use at least one of the first language component to the n-th language component included in the specific language vector data that is equal to or higher than a preset language threshold. Additional processes are performed to support predicting the existence of the k-th emotional category corresponding to the k-th language component of
In step (c) above,
In a state in which the existence of the k-th counterpart emotion category corresponding to the k-th language component is additionally predicted by the user, the k-th counterpart emotion level of the other party corresponding to the k-th counterpart emotion category is predicted by the user. When the specific user response action for additionally adjusting the size is input, the computing device determines the kth opponent adjusted emotion level, which is an emotional level adjusted corresponding to the kth opponent emotion level, with reference to the specific user response action. A method characterized by additional exposure.
제1항에 있어서,
(e) 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨이 각각 기설정된 안정 레벨인 제i 상대방 안정 감정 레벨 및 제j 상대방 안정 감정 레벨을 만족하는 것으로 확인되면, 상기 컴퓨팅 장치가, 상기 특정 컨텐츠의 상기 사전 설정 조건으로서의 상기 특정 객체 데이터 및 상기 특정 상태 데이터를 조정하는 프로세스 및 상기 가변 설정 조건으로서의 상기 특정 표정 벡터 데이터 및 상기 특정 행동 벡터 데이터와 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨을 조정하는 프로세스 중 적어도 일부의 프로세스를 수행하여 상기 특정 컨텐츠를 조정한 조정 컨텐츠를 제공하는 단계를 더 포함하는 것을 특징으로 하는 방법.
According to paragraph 1,
(e) With reference to the specific user response behavior, the i-th opponent's adjusted emotion level and the j-th opponent's adjusted emotion level are emotional levels adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level. If it is confirmed that the ith opponent's stable emotion level and the jth opponent's stable emotion level, which are respectively preset stability levels, are satisfied, the computing device collects the specific object data and the specific state data as the preset conditions of the specific content. By performing at least some of the process of adjusting and the process of adjusting the specific expression vector data and the specific action vector data as the variable setting conditions and the ith opponent's emotion level and the jth opponent's emotion level, the specific content The method further comprising providing coordinated content.
제6항에 있어서,
상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨이 각각 기설정된 안정 레벨인 상기 제i 상대방 안정 감정 레벨 및 상기 제j 상대방 안정 감정 레벨을 만족하는 것으로 확인되면, 상기 컴퓨팅 장치가, 상기 사용자에게 상기 특정 사용자 대응 행동에 대한 정답 대응 행동이 복수 솔루션으로서 존재하도록 상기 사전 설정 조건 및 상기 가변 설정 조건 중 적어도 일부를 조정하여 상기 조정 컨텐츠를 제공하는 것을 특징으로 하는 방법.
According to clause 6,
With reference to the specific user response behavior, the i-th opponent's emotion level and the j-th opponent's emotion level are preset, which are emotion levels adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level. If it is confirmed that the ith counterpart stable emotion level and the jth counterpart stable emotion level, which are stable levels, are satisfied, the computing device tells the user that the correct response behavior for the specific user response behavior exists as a plurality of solutions. A method characterized in that the adjusted content is provided by adjusting at least some of the preset conditions and the variable setting conditions.
제1항에 있어서,
상기 컴퓨팅 장치가, 상기 제i 상대방 감정 카테고리 및 상기 제j 상대방 감정 카테고리를 상기 상대방의 부정적 감정을 나타내기 위한 감정 카테고리에서 선택하여 노출하는 것을 특징으로 하는 방법.
According to paragraph 1,
A method characterized in that the computing device selects and displays the i-th counterpart emotion category and the j-th counterpart emotion category from emotion categories representing negative emotions of the other party.
사용자에게 제공되는 특정 컨텐츠 내에 등장하는 상대방의 부정적 감정을 예측하여 줄이도록 하기 위한 컴퓨팅 장치에 있어서,
인스트럭션들을 저장하는 적어도 하나의 메모리; 및
상기 인스트럭션들을 실행하기 위해 구성된 적어도 하나의 프로세서를 포함하되,
상기 프로세서는, (I) 상기 특정 컨텐츠의 사전 설정 조건으로서 (i-1) 상기 사용자가 상기 특정 컨텐츠에 등장하는 적어도 하나의 상대방과 인터랙션하기 위한 대상으로서의 적어도 하나의 특정 객체에 대한 특정 객체 데이터 및 (i-2) 상기 특정 객체에 대한 특정 상태 데이터를 결정하고, 상기 특정 컨텐츠의 가변 설정 조건으로서 (ii-1) 상기 상대방의 표정에 대응되는 특정 표정 벡터 데이터 - 상기 특정 표정 벡터 데이터는 제1 상대방 감정 카테고리 내지 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 표정 컴포넌트 내지 제n 표정 컴포넌트를 성분으로 가짐 - 및 (ii-2) 상기 상대방의 행동에 대응되는 특정 행동 벡터 데이터 - 상기 특정 행동 벡터 데이터는 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 행동 컴포넌트 내지 제n 행동 컴포넌트를 성분으로 가짐 - 중 적어도 일부를 상기 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 상기 사전 설정 조건으로서의 상기 특정 객체 데이터 및 상기 특정 상태 데이터와, 상기 가변 설정 조건으로서의 상기 특정 표정 벡터 데이터, 및 상기 특정 행동 벡터 데이터 중 적어도 일부를 참조로 하여, 상기 특정 컨텐츠를 제공하는 프로세스; (II) 상기 특정 표정 벡터 데이터 및 상기 특정 행동 벡터 데이터가 제공되면, 상기 사용자로 하여금, 상기 특정 표정 벡터 데이터에 포함된 상기 제1 표정 컴포넌트 내지 상기 제n 표정 컴포넌트 중 기설정된 표정 임계치 이상에 해당되는 적어도 하나의 제i 표정 컴포넌트에 대응되는 제i 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스 및 상기 특정 행동 벡터 데이터에 포함된 상기 제1 행동 컴포넌트 내지 상기 제n 행동 컴포넌트 중 기설정된 행동 임계치 이상에 해당되는 적어도 하나의 제j 행동 컴포넌트에 대응되는 제j 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 수행하는 프로세스; 및 (III) 상기 사용자에 의해 상기 제i 표정 컴포넌트에 대응되는 상기 제i 상대방 감정 카테고리의 존재 여부 및 상기 제j 행동 컴포넌트에 대응되는 상기 제j 상대방 감정 카테고리의 존재 여부가 예측된 상태에서, 상기 사용자에 의해 상기 제i 상대방 감정 카테고리에 대응되는 상기 상대방의 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 카테고리에 대응되는 상기 상대방의 제j 상대방 감정 레벨 중 적어도 일부의 감정 레벨의 크기를 조정하기 위한 특정 사용자 대응 행동이 입력되면, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 제i 상대방 조정 감정 레벨 및 제j 상대방 조정 감정 레벨을 노출하는 프로세스;를 수행하는 것을 특징으로 하는 컴퓨팅 장치.
In a computing device for predicting and reducing the negative emotions of others appearing in specific content provided to the user,
at least one memory storing instructions; and
At least one processor configured to execute the instructions,
The processor may include (I) as a preset condition for the specific content, (i-1) specific object data for at least one specific object as an object for the user to interact with at least one other party appearing in the specific content, and (i-2) determining specific state data for the specific object, and (ii-1) specific expression vector data corresponding to the facial expression of the other party as a variable setting condition for the specific content - the specific facial expression vector data is the first Contains as components a first facial expression component to an n-th facial expression component for representing each of the opponent's emotion categories and the nth opponent's emotion category - and (ii-2) specific behavior vector data corresponding to the opponent's behavior - the specific behavior vector Data has as components a first behavioral component to an n-th behavioral component for representing each of the first emotional category to the nth emotional category; determining at what timing of the specific content to expose at least a portion of the data; A process of providing the specific content with reference to at least some of the specific object data and the specific state data as the preset conditions, the specific facial expression vector data, and the specific action vector data as the variable setting conditions; (II) When the specific expression vector data and the specific action vector data are provided, the user is asked to make one of the first to nth expression components included in the specific expression vector data correspond to a preset expression threshold or higher. a process for predicting the presence or absence of the ith other person's emotion category corresponding to at least one ith facial expression component, and a preset behavior threshold among the first to nth behavior components included in the specific behavior vector data. A process for performing a process that supports predicting the presence or absence of the jth opponent's emotion category corresponding to at least one jth behavior component corresponding to the above; and (III) in a state in which the presence or absence of the i-th counterpart emotion category corresponding to the i-th facial expression component and the presence or absence of the j-th counterpart emotion category corresponding to the j behavior component are predicted by the user, For adjusting the size of the emotional level of at least some of the i-th emotional level of the other party corresponding to the i-th other-party emotion category and the j-th emotional level of the other party corresponding to the j-th counterpart emotional category by the user. When a specific user response action is input, the i-th opponent adjustment emotion level and the j-th opponent adjustment are emotional levels adjusted to correspond to each of the i-th opponent emotion level and the j-th opponent emotion level with reference to the specific user response action. A computing device characterized in that it performs a process of exposing emotional levels.
제9항에 있어서,
상기 프로세서가,
(IV) 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨을 노출한 상태에서, 상기 특정 사용자 대응 행동으로 인해 사용자 감정 벡터 데이터 - 상기 사용자 감정 벡터 데이터는 제1 사용자 감정 카테고리 내지 제n 사용자 감정 카테고리 각각에 대한 제1 사용자 감정 레벨 내지 제n 사용자 감정 레벨을 나타냄 - 중 적어도 일부인 제m 사용자 감정 카테고리에 대한 제m 사용자 감정 레벨이 기설정된 변동 임계치 이상 변화된 것으로 감지되면, 상기 제m 사용자 감정 카테고리 및 이에 대응되는 변동 정보를 기록하는 프로세스를 더 수행하는 것을 특징으로 하는 컴퓨팅 장치.
According to clause 9,
The processor,
(IV) With reference to the specific user response behavior, the i-th opponent's adjusted emotion level and the j-th opponent's adjusted emotion level, which are emotional levels adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level. In the exposed state, user emotion vector data due to the specific user response action - the user emotion vector data represents the first user emotion level to the nth user emotion level for each of the first user emotion category to the nth user emotion category. - When it is detected that the m-th user emotion level for at least a part of the m-th user emotion category has changed by more than a preset change threshold, further performing a process of recording the m-th user emotion category and corresponding change information. A computing device that does.
제10항에 있어서,
상기 프로세서가,
상기 제m 사용자 감정 카테고리가 상기 기설정된 변동 임계치 이상 변화된 것으로 감지되면, 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 중 상기 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제a 상대방 감정 카테고리를 나타내기 위한 제a 표정 컴포넌트의 표정 레벨의 크기를 기설정된 표정 벡터 크기인 제1 크기만큼 증가시켜 상기 사용자에게 노출하는 프로세스 및 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 중 상기 상대방의 긍정적 감정에 해당되는 감정 카테고리 중 적어도 일부인 제b 상대방 감정 카테고리를 나타내기 위한 제b 행동 컴포넌트의 행동 레벨의 크기를 기설정된 행동 벡터 크기인 제2 크기만큼 증가시켜 상기 사용자에게 노출하는 프로세스 중 적어도 일부의 프로세스를 수행함으로써 상기 사용자의 상기 기설정된 변동 임계치 이상 변화된 상기 제m 사용자 감정 카테고리에 대한 상기 제m 사용자 감정 레벨을 상기 기설정된 변동 임계치 미만으로 낮추기 위한 보상 컨텐츠를 추가적으로 제공하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치.
According to clause 10,
The processor,
When it is detected that the mth user's emotion category has changed by more than the preset change threshold, the ath other person's emotion category is at least some of the emotion categories corresponding to the positive emotion of the other person among the first to the nth other person's emotion categories. A process of increasing the size of the expression level of the a-th expression component to indicate a first size, which is a preset expression vector size, and exposing it to the user; At least part of the process of increasing the size of the action level of the action component for representing the emotion category of the other person, which is at least part of the emotion category corresponding to a positive emotion, by the second size, which is the size of the preset action vector, and exposing it to the user. Performing a process of additionally providing compensation content for lowering the mth user emotion level for the mth user emotion category that has changed more than the preset variation threshold of the user to less than the preset variation threshold by performing the process of A computing device characterized by:
제9항에 있어서,
상기 프로세서가, (i) 상기 사용자에 대한 정보 및 상기 사용자와 기설정된 임계치 이상의 유사도를 가지는 적어도 하나의 타 사용자에 대한 정보, (ii) 상기 특정 표정 벡터 데이터 및 이에 대응되는 상기 타 사용자에게 노출되었던 타 표정 벡터 데이터, (iii) 상기 특정 행동 벡터 데이터 및 이에 대응되는 상기 타 사용자에게 노출되었던 타 행동 벡터 데이터, 및 (iv) 상기 특정 사용자 대응 행동, 상기 타 사용자에 의해 입력되었던 타 사용자 대응 행동 및 이에 대응되는 특정 사용자 정답 대응 행동과 타 사용자 정답 대응 행동 중 적어도 일부를 학습 장치에 입력하여, 상기 학습 장치로 하여금, 상기 사용자 및 상기 타 사용자의 상기 특정 사용자 대응 행동 및 상기 타 사용자 대응 행동 중 적어도 일부의 정확도를 기설정된 임계치 이상으로 높이기 위한, 최적의 특정 표정 벡터 데이터, 최적의 타 표정 벡터 데이터, 최적의 특정 행동 벡터 데이터 및 최적의 타 행동 벡터 데이터 중 적어도 일부를 학습하도록 하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치.
According to clause 9,
The processor is configured to: (i) information about the user and information about at least one other user having similarity to the user greater than a preset threshold, (ii) the specific facial expression vector data and the information corresponding thereto that has been exposed to the other user. Other facial expression vector data, (iii) the specific action vector data and corresponding other action vector data exposed to the other user, and (iv) the specific user corresponding action, the other user corresponding action input by the other user, and At least some of the specific user's correct answer response behavior and the other user's correct response response behavior corresponding thereto are input to the learning device, thereby causing the learning device to: at least one of the specific user response behavior and the other user response behavior of the user and the other user Performing a process of learning at least some of the optimal specific expression vector data, optimal other expression vector data, optimal specific action vector data, and optimal other action vector data in order to increase some of the accuracy above a preset threshold. A computing device characterized in that.
제9항에 있어서,
상기 프로세스 (I)에서,
상기 프로세서가,
상기 특정 컨텐츠의 상기 가변 설정 조건으로서 (ii-3) 상기 상대방의 발화에 대응되는 특정 언어 벡터 데이터 - 상기 특정 언어 벡터 데이터는 상기 제1 상대방 감정 카테고리 내지 상기 제n 상대방 감정 카테고리 각각을 나타내기 위한 제1 언어 컴포넌트 내지 제n 언어 컴포넌트를 성분으로 가짐 - 를 추가적으로 상기 특정 컨텐츠의 어느 타이밍에 노출할지 결정하고, 상기 가변 설정 조건으로서의 상기 특정 언어 벡터 데이터를 추가적으로 참조하여 상기 특정 컨텐츠를 제공하고,
상기 프로세스 (II)에서,
상기 특정 언어 벡터 데이터가 추가적으로 제공되면, 상기 사용자로 하여금, 상기 특정 언어 벡터 데이터에 포함된 상기 제1 언어 컴포넌트 내지 상기 제n 언어 컴포넌트 중 기설정된 언어 임계치 이상에 해당되는 적어도 하나의 제k 언어 컴포넌트에 대응되는 제k 상대방 감정 카테고리의 존재 여부를 예측하도록 지원하는 프로세스를 추가적으로 수행하며,
상기 프로세스 (III)에서,
상기 사용자에 의해 상기 제k 언어 컴포넌트에 대응되는 상기 제k 상대방 감정 카테고리의 존재 여부가 추가적으로 예측된 상태에서, 상기 사용자에 의해 상기 제k 상대방 감정 카테고리에 대응되는 상기 상대방의 제k 상대방 감정 레벨의 크기를 추가적으로 조정하기 위한 상기 특정 사용자 대응 행동이 입력되면, 상기 특정 사용자 대응 행동을 참조로 하여 상기 제k 상대방 감정 레벨에 대응되어 조정된 감정 레벨인 제k 상대방 조정 감정 레벨을 추가적으로 노출하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치.
According to clause 9,
In process (I) above,
The processor,
As the variable setting condition of the specific content, (ii-3) specific language vector data corresponding to the other party's utterance - the specific language vector data is for representing each of the first counterpart emotion category to the nth counterpart emotion category. Having a first language component to an nth language component as components - additionally determines at what timing the specific content will be exposed, and provides the specific content by additionally referring to the specific language vector data as the variable setting condition,
In process (II) above,
When the specific language vector data is additionally provided, the user is prompted to select at least one k-th language component corresponding to a preset language threshold or higher among the first language component to the n-th language component included in the specific language vector data. Additional processes are performed to support predicting the existence of the kth counterpart's emotion category corresponding to
In process (III) above,
In a state in which the existence of the k-th counterpart emotion category corresponding to the k-th language component is additionally predicted by the user, the k-th counterpart emotion level of the other party corresponding to the k-th counterpart emotion category is predicted by the user. When the specific user response action for additionally adjusting the size is input, a process of additionally exposing the kth opponent's adjusted emotion level, which is an emotional level adjusted in correspondence to the kth opponent's emotion level, with reference to the specific user response action. A computing device characterized in that:
제9항에 있어서,
상기 프로세서가,
(V) 상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨이 각각 기설정된 안정 레벨인 제i 상대방 안정 감정 레벨 및 제j 상대방 안정 감정 레벨을 만족하는 것으로 확인되면, 상기 특정 컨텐츠의 상기 사전 설정 조건으로서의 상기 특정 객체 데이터 및 상기 특정 상태 데이터를 조정하는 프로세스 및 상기 가변 설정 조건으로서의 상기 특정 표정 벡터 데이터 및 상기 특정 행동 벡터 데이터와 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨을 조정하는 프로세스 중 적어도 일부의 프로세스를 수행하여 상기 특정 컨텐츠를 조정한 조정 컨텐츠를 제공하는 프로세스를 더 수행하는 것을 특징으로 하는 컴퓨팅 장치.
According to clause 9,
The processor,
(V) With reference to the specific user response behavior, the i-th opponent's adjusted emotion level and the j-th opponent's adjusted emotion level are emotional levels adjusted corresponding to each of the i-th opponent's emotion level and the j-th opponent's emotion level. A process of adjusting the specific object data and the specific state data as the preset conditions of the specific content when it is confirmed that the ith opponent's stable emotion level and the jth opponent's stable emotion level, respectively, which are preset stability levels, are satisfied; Adjusted content obtained by adjusting the specific content by performing at least part of the process of adjusting the specific expression vector data and the specific action vector data as variable setting conditions, the ith opponent's emotion level, and the jth opponent's emotion level. A computing device characterized in that it further performs the process provided.
제14항에 있어서,
상기 프로세서가,
상기 특정 사용자 대응 행동을 참조로 하여 상기 제i 상대방 감정 레벨 및 상기 제j 상대방 감정 레벨 각각에 대응되어 조정된 감정 레벨인 상기 제i 상대방 조정 감정 레벨 및 상기 제j 상대방 조정 감정 레벨이 각각 기설정된 안정 레벨인 상기 제i 상대방 안정 감정 레벨 및 상기 제j 상대방 안정 감정 레벨을 만족하는 것으로 확인되면, 상기 사용자에게 상기 특정 사용자 대응 행동에 대한 정답 대응 행동이 복수 솔루션으로서 존재하도록 상기 사전 설정 조건 및 상기 가변 설정 조건 중 적어도 일부를 조정하여 상기 조정 컨텐츠를 제공하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치.
According to clause 14,
The processor,
With reference to the specific user response behavior, the i-th opponent's emotion level and the j-th opponent's emotion level are preset, which are emotion levels adjusted to correspond to each of the i-th opponent's emotion level and the j-th opponent's emotion level. If it is confirmed that the ith counterpart stable emotion level and the jth counterpart stable emotion level, which are stable levels, are satisfied, the preset condition and the above so that the correct response behavior for the specific user response behavior exists as multiple solutions to the user. A computing device characterized in that it performs a process of providing the adjusted content by adjusting at least some of the variable setting conditions.
제9항에 있어서,
상기 프로세서가,
상기 제i 상대방 감정 카테고리 및 상기 제j 상대방 감정 카테고리를 상기 상대방의 부정적 감정을 나타내기 위한 감정 카테고리에서 선택하여 노출하는 프로세스를 수행하는 것을 특징으로 하는 컴퓨팅 장치.
According to clause 9,
The processor,
A computing device characterized in that it performs a process of selecting and exposing the i-th counterpart's emotion category and the j-th counterpart's emotion category from emotion categories representing negative emotions of the other party.
KR1020230073828A 2023-06-08 2023-06-08 Method for providing specific content to predict and reduce other persons' negative emotions and computing device using the same KR102648226B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230073828A KR102648226B1 (en) 2023-06-08 2023-06-08 Method for providing specific content to predict and reduce other persons' negative emotions and computing device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230073828A KR102648226B1 (en) 2023-06-08 2023-06-08 Method for providing specific content to predict and reduce other persons' negative emotions and computing device using the same

Publications (1)

Publication Number Publication Date
KR102648226B1 true KR102648226B1 (en) 2024-03-15

Family

ID=90272612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230073828A KR102648226B1 (en) 2023-06-08 2023-06-08 Method for providing specific content to predict and reduce other persons' negative emotions and computing device using the same

Country Status (1)

Country Link
KR (1) KR102648226B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200062843A (en) * 2018-11-27 2020-06-04 에스케이텔레콤 주식회사 Apparatus for recommending contents based on facial expression, method thereof and computer recordable medium storing program to perform the method
KR20210032550A (en) * 2015-03-18 2021-03-24 아바타 머저 서브 Ii, 엘엘씨 Emotion recognition in video conferencing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210032550A (en) * 2015-03-18 2021-03-24 아바타 머저 서브 Ii, 엘엘씨 Emotion recognition in video conferencing
KR20200062843A (en) * 2018-11-27 2020-06-04 에스케이텔레콤 주식회사 Apparatus for recommending contents based on facial expression, method thereof and computer recordable medium storing program to perform the method
KR20210087923A (en) * 2018-11-27 2021-07-13 에스케이텔레콤 주식회사 Apparatus for recommending contents based on facial expression, method thereof and computer recordable medium storing program to perform the method

Similar Documents

Publication Publication Date Title
US20210082302A1 (en) Context-aware adaptive data processing application
US20230385555A1 (en) Systems and methods for dynamic user interaction for improving mental health
CN110998725B (en) Generating a response in a dialog
US7797261B2 (en) Consultative system
JP5997261B2 (en) A language learning system configured to customize language learning for individual users
KR102532908B1 (en) Device, method and program for providing psychological counseling using deep learning and virtual reality
US10559305B2 (en) Information processing system, and information processing method
KR102381972B1 (en) Method and device for supporting addict of addictive preferred item to perform proper adaptive behavior on antisocially preferred item
US20170340256A1 (en) Requesting assistance based on user state
US10140882B2 (en) Configuring a virtual companion
CN111133403A (en) Dynamic user interaction system and method for enhancing happiness
CN116578731B (en) Multimedia information processing method, system, computer device and storage medium
CN117541444B (en) Interactive virtual reality talent expression training method, device, equipment and medium
KR102648226B1 (en) Method for providing specific content to predict and reduce other persons' negative emotions and computing device using the same
Liu et al. Buddy: A virtual life coaching system for children and adolescents with high functioning autism
McNaney et al. StammerApp: Designing a Mobile Application to Support Self-Reflection and Goal Setting for People Who Stammer
KR102578849B1 (en) Method for providing specific content to user to assess social cognitive abilities and computing device using the same
CN111654752B (en) Multimedia information playing method and device, electronic equipment and storage medium
KR102648227B1 (en) Method for providing specific content to reduce user's negative emotions and computing device using the same
KR20170028752A (en) Apparatus and method for providing psychotherapy using virtual experience content
KR102325506B1 (en) Virtual reality-based communication improvement system and method
KR102610273B1 (en) Method for providing contents capable of allowing specific avatar of specific user to interact with a triggering avatar in the metaverse world and device using the same
KR102610262B1 (en) Method for providing counseling service to specific avatar of the specific real user in the metaverse world and device using the same
KR102610267B1 (en) Method for analyzing status of specific user corresponding to specific avatar by referring to interactions between the specific avatar and other avatars in the metaverse world and providing service to the specific user and device using the same
US20200335079A1 (en) Dialogue system and method for controlling the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant