KR20240005419A - Digital content providing method and server supporting counterpart custom character motion control - Google Patents

Digital content providing method and server supporting counterpart custom character motion control Download PDF

Info

Publication number
KR20240005419A
KR20240005419A KR1020220082489A KR20220082489A KR20240005419A KR 20240005419 A KR20240005419 A KR 20240005419A KR 1020220082489 A KR1020220082489 A KR 1020220082489A KR 20220082489 A KR20220082489 A KR 20220082489A KR 20240005419 A KR20240005419 A KR 20240005419A
Authority
KR
South Korea
Prior art keywords
user
character
information
movement
digital content
Prior art date
Application number
KR1020220082489A
Other languages
Korean (ko)
Inventor
김광용
Original Assignee
주식회사 투바앤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 투바앤 filed Critical 주식회사 투바앤
Priority to KR1020220082489A priority Critical patent/KR20240005419A/en
Publication of KR20240005419A publication Critical patent/KR20240005419A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버 및 방법이 제공된다. 실시예에 따른 서버는 제1 사용자에 대응하는 제1 캐릭터와 제2 사용자에 대응하는 제2 캐릭터가 가상 공간에서 상호 작용하는 디지털 컨텐츠를 제공하는 서버로, 상기 제1 사용자의 제1 사용자 움직임 정보를 수신하는 사용자 데이터 수집부; 상기 제1 캐릭터의 제1 캐릭터 정보를 저장하는 캐릭터 데이터 베이스; 상기 제1 사용자 움직임 정보를 상기 제1 캐릭터 움직임 정보를 변환하는 움직임 정보 변환부; 상기 제1 캐릭터 움직임 정보 및 상기 제1 캐릭터 정보에 기초하여 상기 제1 캐릭터의 움직임을 상기 가상 공간에 구현하는 컨텐츠 생성부; 상기 제1 캐릭터를 포함하는 제1 디지털 컨텐츠에 대한 제2 사용자의 피드백 데이터를 수집하고, 상기 수집된 피드백 데이터에 기초하여 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성하는 선호 정보 수집부; 및 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 상기 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 캐릭터 움직임 추천부를 포함한다.A digital content provision server and method supporting an opponent's customized character movement control are provided. The server according to the embodiment is a server that provides digital content in which a first character corresponding to a first user and a second character corresponding to a second user interact in a virtual space, and first user movement information of the first user a user data collection unit that receives; a character database storing first character information of the first character; a motion information conversion unit that converts the first user motion information into the first character motion information; a content generator that implements movement of the first character in the virtual space based on the first character movement information and the first character information; a preference information collection unit that collects a second user's feedback data on the first digital content including the first character and generates the second user's preference movement information for the first character based on the collected feedback data; and a character motion recommendation unit that provides first character recommended motion information to the first user based on the first character preference motion information of the second user.

Description

상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법 및 서버{Digital content providing method and server supporting counterpart custom character motion control}Digital content providing method and server supporting counterpart custom character motion control}

본 발명은 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법 및 서버에 관한 것이다. 구체적으로, 본 발명은 디지털 컨텐츠를 함께 이용하는 상대방 사용자의 선호 정보에 따른 선호 자세를 사용자가 자연스럽게 취하는 것을 지원하여 상대방 사용자의 관심과 흥미를 유발할 수 있는 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법 및 서버에 관한 것이다.The present invention relates to a method and server for providing digital content that supports control of character movements customized to the opponent. Specifically, the present invention is a method of providing digital content that supports customized character movement control that can arouse the interest and interest of the other user by supporting the user to naturally assume a preferred posture according to the preference information of the other user using digital content together. and servers.

4차 산업 혁명과 함께 디지털 기술이 더욱 발전되어, 소비자들은 더욱 다양한 컨텐츠를 디지털 수단을 통해 즐길 수 있게 되었다. 예전에는 오락, 게임, 놀이 컨텐츠가 디지털 컨텐츠의 대부분을 차지하였으나, 현재는 공연과 같은 문화 컨텐츠를 온라인으로 관람하거나, 학교 수업을 온라인으로 진행하는 등 점차 오프라인 체험 컨텐츠가 온라인으로 이동하는 추세가 점점 늘어가고 있는 실정이다. 이러한 디지털 컨텐츠의 영역 확장은 3차원 가상 공간, 특히, 메타버스(meta-verse)와 같은 혼합 현실 환경을 통해 더욱 확대될 전망이다.With the Fourth Industrial Revolution, digital technology has developed further, allowing consumers to enjoy a wider variety of content through digital means. In the past, entertainment, games, and play content accounted for most of the digital content, but now, offline experience content is gradually moving online, such as watching cultural content such as performances online or conducting school classes online. It is increasing. This expansion of the realm of digital content is expected to further expand through three-dimensional virtual space, especially mixed reality environments such as meta-verse.

메타버스 또는 디지털 컨텐츠가 제공되는 가상 공간에서, 사용자들은 본인의 캐릭터를 통해 다른 캐릭터와 상호 작용을 하게 된다. 가상 공간에서의 상호 작용은 오프라인보다 더욱 적극적이고 확장된 형태로 수행될 수 있다. 즉, 오프라인에서 수행될 수 없는 과장된 포즈, 표정을 가상 공간의 캐릭터를 통해 상대방에게 전달할 수 있으며, 상대방의 흥미, 관심을 더욱 유발하여 상대방이 상호 작용에 더욱 집중하도록 유도할 수 있다. In the metaverse or a virtual space where digital content is provided, users interact with other characters through their characters. Interaction in virtual space can be performed in a more active and expanded form than offline. In other words, exaggerated poses and facial expressions that cannot be performed offline can be conveyed to the other party through a character in a virtual space, and by further arousing the other party's interest and interest, it is possible to induce the other party to focus more on the interaction.

이러한 상대방의 흥미, 관심 유발은 보육자(선생님 또는 부모)와 아동 사이의 교육을 가상 공간에서 수행하는 경우, 매우 중요한 요소에 해당한다. 가상 공간은 오프라인보다 더욱 자유도가 높은 공간에 해당한다. 따라서, 아동이 교육 활동에 집중하지 못하고 교육 활동에 대한 관심이 분산되는 경우, 교육의 효과가 떨어지게 되는 문제가 발생하게 된다. Arousing the other party's interest and interest is a very important factor when conducting education between a caregiver (teacher or parent) and a child in a virtual space. Virtual space corresponds to a space with a higher degree of freedom than offline space. Therefore, when children are unable to concentrate on educational activities and their interest in educational activities is dispersed, a problem arises in which the effectiveness of education decreases.

따라서, 상호 작용(교육)이 진행되는 동안 보육자 캐릭터는 아동이 선호하는 동작, 표정 등을 적절히 수행하여 아동의 관심과 흥미가 계속 유지되도록 하고 아동이 교육 활동에 계속 집중할 수 있도록 유도할 수 있어야 하며, 이러한 보육자(사용자)를 지원할 수 있는 방법 및 장치가 요구되고 있는 설정이다.Therefore, while interaction (education) is in progress, the caregiver character must be able to appropriately perform the child's preferred movements, facial expressions, etc. to maintain the child's interest and interest and encourage the child to continue to focus on educational activities. , a setting in which methods and devices that can support such caregivers (users) are required.

공개특허공보 제10-2004-0096799호Public Patent Publication No. 10-2004-0096799

본 발명의 과제는, 사용자의 움직임에 대응하도록 캐릭터를 제어하되, 디지털 컨텐츠를 함께 이용하는 상대방 사용자의 선호 정보에 따라 캐릭터의 모션을 추천하여 사용자가 상대방 사용자의 선호하는 캐릭터 동작을 취하는 것을 지원할 수 있는 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법 및 서버를 제공하는 것이다.The object of the present invention is to control a character to correspond to the user's movements, and recommend the character's motion according to the preference information of the other user who also uses digital content, thereby supporting the user to take the other user's preferred character movements. The goal is to provide a digital content provision method and server that supports the opponent's customized character movement control.

또한, 본 발명의 다른 과제는, 인공 지능 기반의 감정 분석 모델을 통해 사용자를 촬영한 사용자 영상을 분석하여 사용자의 선호 정보 및 움직임 추천 시점을 출력할 수 있는 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법 및 서버를 제공하는 것이다.In addition, another task of the present invention is a digital content that supports character movement control customized to the opponent, which can output the user's preference information and movement recommendation timing by analyzing user images taken of the user through an artificial intelligence-based emotion analysis model. The provision method and server are provided.

또한, 본 발명의 다른 과제는, 사용자가 상대방 사용자의 선호 캐릭터 동작을 취하는 것을 지원할 수 있는 사용자 환경을 제공할 수 있는 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법 및 서버를 제공하는 것이다.In addition, another object of the present invention is to provide a digital content providing method and server that supports control of character movements customized to the other user, which can provide a user environment that can support the user taking the actions of the other user's preferred character.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버는 제1 사용자에 대응하는 제1 캐릭터와 제2 사용자에 대응하는 제2 캐릭터가 가상 공간에서 상호 작용하는 디지털 컨텐츠를 제공하는 서버로, 상기 제1 사용자의 제1 사용자 움직임 정보를 수신하는 사용자 데이터 수집부; 상기 제1 캐릭터의 제1 캐릭터 정보를 저장하는 캐릭터 데이터 베이스; 상기 제1 사용자 움직임 정보를 상기 제1 캐릭터 움직임 정보를 변환하는 움직임 정보 변환부; 상기 제1 캐릭터 움직임 정보 및 상기 제1 캐릭터 정보에 기초하여 상기 제1 캐릭터의 움직임을 상기 가상 공간에 구현하는 컨텐츠 생성부; 상기 제1 캐릭터를 포함하는 제1 디지털 컨텐츠에 대한 제2 사용자의 피드백 데이터를 수집하고, 상기 수집된 피드백 데이터에 기초하여 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성하는 선호 정보 수집부; 및 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 상기 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 캐릭터 움직임 추천부를 포함한다.In order to solve the above problem, a digital content providing server supporting customized character movement control according to some embodiments of the present invention provides a first character corresponding to the first user and a second character corresponding to the second user in a virtual space. A server that provides interactive digital content, comprising: a user data collection unit that receives first user movement information of the first user; a character database storing first character information of the first character; a motion information conversion unit that converts the first user motion information into the first character motion information; a content generator that implements movement of the first character in the virtual space based on the first character movement information and the first character information; a preference information collection unit that collects a second user's feedback data on the first digital content including the first character and generates the second user's preference movement information for the first character based on the collected feedback data; and a character motion recommendation unit that provides first character recommended motion information to the first user based on the first character preference motion information of the second user.

또한, 상기 캐릭터 움직임 추천부는 상기 제1 캐릭터의 동작 화면과 구분되는 자세 지원 보조 화면으로 상기 제1 캐릭터 추천 움직임 정보를 상기 제1 사용자에게 제공하며, 상기 제1 캐릭터 추천 움직임 정보는 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 따른 가이드 움직임 정보를 포함할 수 있다. In addition, the character motion recommendation unit provides recommended motion information for the first character to the first user through a posture support auxiliary screen that is distinct from the motion screen for the first character, and the recommended motion information for the first character is provided to the second user. It may include guide movement information according to the first character preference movement information.

또한, 상기 캐릭터 움직임 추천부는 상기 자세 지원 보조 화면에 상기 가이드 움직임 정보와 상기 제1 사용자 움직임 정보를 함께 표시하고, 상기 캐릭터 움직임 추천부는 상기 제1 사용자 움직임 정보와 상기 가이드 움직임 정보의 일치 여부를 판단하고, 상기 제1 사용자 움직임 정보와 상기 가이드 움직임 정보가 일치되는 경우, 상기 자세 지원 보조 화면을 상기 제1 사용자에게 제공하는 것을 종료할 수 있다.In addition, the character motion recommendation unit displays the guide motion information and the first user motion information together on the posture support auxiliary screen, and the character motion recommendation unit determines whether the first user motion information matches the guide motion information. And, when the first user movement information and the guide movement information match, providing the posture support auxiliary screen to the first user may be terminated.

또한, 상기 캐릭터 움직임 추천부는 제2 사용자의 제1 캐릭터 선호 움직임 정보가 복수로 구성된 경우, 제2 사용자의 복수의 제1 캐릭터 선호 움직임 정보 중 현재 제1 사용자의 움직임 정보에서 움직임 변화 정도가 다른 제1 캐릭터 선호 움직임보다 상대적으로 적은 제1 캐릭터 선호 움직임 정보를 결정하고, 상기 결정된 제1 캐릭터 선호 움직임 정보에 대응하는 가이드 움직임 정보를 생성하여 상기 제1 캐릭터 추천 움직임 정보로 제공할 수 있다. In addition, when the second user's first character preference motion information consists of a plurality of pieces, the character motion recommendation unit provides a plurality of first character preference motion information of the second user with a different degree of motion change in the current first user's motion information. First character preference motion information that is relatively smaller than one character's preference motion information may be determined, and guide motion information corresponding to the determined first character preference motion information may be generated and provided as the first character recommendation motion information.

또한, 상기 선호 정보 수집부는 상기 제1 디지털 컨텐츠를 이용하는 제2 사용자가 촬영된 제2 사용자 영상을 상기 피드백 데이터로 수집하는 사용자 영상 수집 모듈; 상기 제2 사용자 영상에서 상기 제2 사용자의 감정 정보를 딥러닝 기반의 미리 학습된 감정 분석 모델을 이용하여 생성하는 사용자 감정 분석 모듈; 상기 제2 사용자의 감정 정보에서 적어도 하나의 분석 이미지를 결정하는 분석 이미지 결정 모듈; 상기 분석 이미지의 출력 시점에 대응되는 제1 디지털 컨텐츠에서 제1 캐릭터의 움직임 정보를 수집하여 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성하는 캐릭터 선호 움직임 결정 모듈; 및 상기 제2 사용자의 감정 정보에 기초하여 움직임 추천 시점을 결정하는 움직임 추천 시점 결정 모듈을 포함할 수 있다.Additionally, the preference information collection unit may include a user image collection module that collects a second user image captured by a second user using the first digital content as the feedback data; a user emotion analysis module that generates emotion information of the second user from the second user image using a deep learning-based pre-trained emotion analysis model; an analysis image determination module that determines at least one analysis image from the emotional information of the second user; a character preference motion determination module that collects motion information of the first character from the first digital content corresponding to the output time of the analysis image and generates first character preference motion information of the second user; and a motion recommendation timing determination module that determines a motion recommendation timing based on the emotion information of the second user.

또한, 상기 감정 분석 모델은 상기 제2 사용자 영상에서 상기 제2 사용자의 움직임 변화를 프레임별로 분석하여 상기 제2 사용자의 감정 클래스를 프레임 이미지별로 결정하도록 학습된 컨볼루션 신경망 기반의 분류 모델이며, 상기 감정 클래스는 긍정 감정 또는 부정 감정에 해당할 수 있다.In addition, the emotion analysis model is a classification model based on a convolutional neural network learned to determine the emotion class of the second user for each frame image by analyzing the movement change of the second user in the second user image for each frame, An emotion class may correspond to a positive emotion or a negative emotion.

또한, 상기 제2 사용자의 감정 정보는 상기 프레임 이미지별로 감정 클래스가 부여된 복수의 프레임 이미지가 시간에 따라 정렬되어 구성되며, 상기 움직임 추천 시점 결정 모듈은 상기 제2 사용자의 감정 정보에서 제2 사용자의 감정 변화를 식별하여 움직임 추천 시점을 결정할 수 있다. In addition, the second user's emotion information is composed of a plurality of frame images to which an emotion class is assigned for each frame image arranged according to time, and the motion recommendation timing determination module determines the second user's emotion information from the second user's emotion information. By identifying emotional changes, you can determine when to recommend movement.

또한, 상기 감정 분석 모델은 Yolo(You Only Look Once) 네트워크로 구성되며, 상기 감정 분석 모델은 상기 제2 사용자 영상에서 제2 사용자 얼굴의 주요 부위 및 신체의 주요 부위 중 적어도 하나를 식별하고, 상기 식별된 얼굴의 주요 부위 및 신체 주요 부위 중 적어도 하나의 변화에 기초하여 제2 사용자의 감정 클래스를 긍정 감정 또는 부정 감정으로 결정하고, 결정된 클래스에 대한 확신값(confidence)을 함께 출력하며, 상기 분석 이미지 결정 모듈은 긍정 감정으로 클래스가 판단된 프레임 이미지를 먼저 추출하고, 추출된 프레임 이미지에서 미리 설정된 임계값 이상의 확신값이 부여된 프레임 이미지를 추출하여 상기 적어도 하나의 분석 이미지를 결정할 수 있다. In addition, the emotion analysis model is composed of a Yolo (You Only Look Once) network, and the emotion analysis model identifies at least one of the main part of the second user's face and the main part of the body in the second user image, Based on a change in at least one of the identified main parts of the face and the main part of the body, the second user's emotion class is determined as a positive emotion or a negative emotion, and a confidence value for the determined class is also output, and the analysis is performed. The image determination module may first extract a frame image whose class is determined to be a positive emotion, and extract a frame image for which a confidence value greater than a preset threshold is given from the extracted frame image to determine the at least one analysis image.

본 발명의 몇몇 실시예에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법은 제1 사용자에 대응하는 제1 캐릭터와 제2 사용자에 대응하는 제2 캐릭터가 가상 공간에서 상호 작용하는 디지털 컨텐츠를 제공하는 방법으로, 상기 제1 사용자의 제1 사용자 움직임 정보를 수신하는 단계; 상기 제1 사용자 움직임 정보를 상기 제1 캐릭터 움직임 정보를 변환하는 단계; 상기 제1 캐릭터 움직임 정보 및 상기 제1 캐릭터 정보에 기초하여 상기 제1 캐릭터의 움직임을 상기 가상 공간에 구현하는 단계; 및 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 상기 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 단계를 포함하되, 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보는 상기 제1 캐릭터를 포함하는 제1 디지털 컨텐츠에 대한 제2 사용자의 피드백 데이터를 수집하고, 상기 수집된 피드백 데이터에 기초하여 생성된다.A method of providing digital content supporting customized character movement control according to some embodiments of the present invention provides digital content in which a first character corresponding to a first user and a second character corresponding to a second user interact in a virtual space. A method comprising: receiving first user movement information of the first user; converting the first user motion information into the first character motion information; implementing movement of the first character in the virtual space based on the first character movement information and the first character information; and providing first character recommended motion information to the first user based on the first character preference motion information of the second user, wherein the first character preference motion information of the second user is the first character preference motion information. The second user's feedback data for the first digital content including is collected, and is generated based on the collected feedback data.

본 발명의 몇몇 실시예에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 시스템은 제1 사용자의 제1 사용자 움직임 정보를 생성하는 제1 사용자 장치; 제2 사용자의 제2 사용자 움직임 정보를 생성하는 제2 사용자 장치; 및 상기 제1 사용자에 대응하는 제1 캐릭터와 상기 제2 사용자에 대응하는 제2 캐릭터가 가상 공간에서 상호 작용하는 디지털 컨텐츠를 생성하는 서버를 포함하되, 상기 서버는 상기 제1 사용자의 제1 사용자 움직임 정보를 수신하는 사용자 데이터 수집부; 상기 제1 캐릭터의 제1 캐릭터 정보를 저장하는 캐릭터 데이터 베이스; 상기 제1 사용자 움직임 정보를 상기 제1 캐릭터 움직임 정보를 변환하는 움직임 정보 변환부; 상기 제1 캐릭터 움직임 정보 및 상기 제1 캐릭터 정보에 기초하여 상기 제1 캐릭터의 움직임을 상기 가상 공간에 구현하는 컨텐츠 생성부; 상기 제1 캐릭터를 포함하는 제1 디지털 컨텐츠에 대한 제2 사용자의 피드백 데이터를 수집하고, 상기 수집된 피드백 데이터에 기초하여 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성하는 선호 정보 수집부; 및 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 상기 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 캐릭터 움직임 추천부를 포함한다.A digital content providing system supporting a counterpart's customized character movement control according to some embodiments of the present invention includes a first user device that generates first user movement information of a first user; a second user device generating second user movement information of a second user; and a server that generates digital content in which a first character corresponding to the first user and a second character corresponding to the second user interact in a virtual space, wherein the server generates digital content that interacts with the first character of the first user. a user data collection unit that receives movement information; a character database storing first character information of the first character; a motion information conversion unit that converts the first user motion information into the first character motion information; a content generator that implements movement of the first character in the virtual space based on the first character movement information and the first character information; a preference information collection unit that collects a second user's feedback data on the first digital content including the first character and generates the second user's preference movement information for the first character based on the collected feedback data; and a character motion recommendation unit that provides first character recommended motion information to the first user based on the first character preference motion information of the second user.

상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법 및 서버는 사용자의 움직임에 대응하도록 캐릭터를 제어하되, 디지털 컨텐츠를 함께 이용하는 상대방 사용자의 선호 정보에 따라 캐릭터 모션을 추천하여 사용자가 상대방 사용자의 선호하는 캐릭터 동작을 취하는 것을 지원할 수 있다. 이에 따라, 상대방 사용자가 디지털 컨텐츠 상에서의 상호 작용에 계속해서 집중하는 것을 지원할 수 있으며, 상대방 사용자의 관심과 흥미를 유발할 수 있어, 디지털 컨텐츠에서의 상호 작용 효과를 극대화할 수 있다.A method of providing digital content that supports the other user's customized character movement control, and the server controls the character to respond to the user's movements, but recommends character motion according to the preference information of the other user using the digital content together, so that the user can match the other user's preference. It can support taking character actions. Accordingly, it is possible to support the other user to continue to focus on the interaction on the digital content, and to stimulate the interest and interest of the other user, thereby maximizing the effect of the interaction in the digital content.

또한, 사용자를 촬영한 사용자 영상을 분석하여 사용자의 선호 정보 및 움직임 추천 시점을 결정할 수 있으며, 적절한 시점에 상대방 사용자가 선호하는 캐릭터의 동작을 취하는 것이 지원될 수 있다. In addition, the user's preference information and movement recommendation timing can be determined by analyzing the user's captured video, and the other user's preferred character's movements can be supported at an appropriate time.

또한, 실시예에 따른 사용자 환경은 사용자가 가이드 동작을 따라 상대방 사용자의 선호 캐릭터 동작을 취하는 것을 지원하여 사용자가 더욱 용이하게 상대방이 선호하는 캐릭터 자세를 취하는 것이 지원될 수 있다.In addition, the user environment according to the embodiment supports the user to take the other user's preferred character posture by following the guide motion, so that the user can more easily take the other user's preferred character posture.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described content, specific effects of the present invention are described below while explaining specific details for carrying out the invention.

도 1은 본 발명의 몇몇 실시예들에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 시스템을 설명하기 위한 개념도이다.
도 2는 센싱 장치가 사용자의 정보를 센싱하는 상황을 예시적으로 나타낸다.
도 3 및 도 4는 이미지 센서를 통해 센싱된 정보가 캐릭터에 반영되어 출력되는 화면을 예시적으로 나타낸다.
도 5는 제1 사용자의 제1 캐릭터의 움직임 제어를 설명하기 위한 예시도이다.
도 6은 본 발명의 몇몇 실시예에 따른 서버의 구성을 도시한다.
도 7은 실시예에 따른 선호 정보 수집부의 주요 구성을 도시하는 블록도이다.
도 8은 제1 디지털 컨텐츠를 이용하는 제2 사용자를 촬영하는 제2 사용자 영상을 생성하는 상황을 예시적으로 나타낸다.
도 9는 감정 분석 모델의 입력 데이터와 출력 데이터를 예시적으로 나타낸다.
도 10은 제2 사용자의 감정 정보에 따라 결정된 분석 이미지를 예시적으로 나타낸다.
도 11은 움직임 추천 시점을 결정하는 과정을 설명하기 위한 예시도이다.
도 12는 자세 지원 보조 화면이 제1 사용자 동작 화면에 출력되는 예시적인 화면이다.
도 13 및 도 14는 자세 지원 보조 화면을 통해 제1 캐릭터 추천 움직임 정보가 제공되는 예시적인 화면이다.
도 15는 본 발명의 몇몇 실시예들에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법의 순서도이다.
FIG. 1 is a conceptual diagram illustrating a digital content provision system that supports character movement control customized to another party according to some embodiments of the present invention.
Figure 2 exemplarily shows a situation in which a sensing device senses user information.
Figures 3 and 4 exemplarily show screens where information sensed through an image sensor is reflected in a character and output.
Figure 5 is an example diagram for explaining movement control of a first character of a first user.
Figure 6 shows the configuration of a server according to some embodiments of the present invention.
Figure 7 is a block diagram showing the main configuration of a preference information collection unit according to an embodiment.
FIG. 8 exemplarily shows a situation in which a second user image is generated by photographing a second user using the first digital content.
Figure 9 exemplarily shows input data and output data of an emotion analysis model.
Figure 10 exemplarily shows an analysis image determined according to emotional information of a second user.
Figure 11 is an example diagram for explaining the process of determining a motion recommendation point.
Figure 12 is an example screen in which a posture support auxiliary screen is output on the first user operation screen.
13 and 14 are exemplary screens in which first character recommended movement information is provided through a posture support auxiliary screen.
Figure 15 is a flowchart of a method of providing digital content that supports character movement control customized to the other party according to some embodiments of the present invention.

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and patent claims should not be construed as limited to their general or dictionary meaning. According to the principle that the inventor can define terms or word concepts in order to explain his or her invention in the best way, it should be interpreted with a meaning and concept consistent with the technical idea of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment of the present invention and do not completely represent the technical idea of the present invention, so they cannot be replaced at the time of filing the present application. It should be understood that there may be various equivalents, variations, and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in the present specification and claims may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term 'and/or' includes any of a plurality of related stated items or a combination of a plurality of related stated items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the specification and claims are merely used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "include" or "have" should be understood as not precluding the existence or addition possibility of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.Additionally, each configuration, process, process, or method included in each embodiment of the present invention may be shared within the scope of not being technically contradictory to each other.

이하, 도 1 내지 도 15를 참조하여, 본 발명의 몇몇 실시예들에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 시스템을 설명한다.Hereinafter, with reference to FIGS. 1 to 15, a digital content providing system supporting customized character movement control according to some embodiments of the present invention will be described.

도 1은 본 발명의 몇몇 실시예들에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 시스템을 설명하기 위한 개념도이다. 도 2는 센싱 장치가 사용자의 정보를 센싱하는 상황을 예시적으로 나타낸다. 도 3 및 도 4는 이미지 센서를 통해 센싱된 정보가 캐릭터에 반영되어 출력되는 화면을 예시적으로 나타낸다. 도 5는 제1 사용자의 제1 캐릭터의 움직임 제어를 설명하기 위한 예시도이다.FIG. 1 is a conceptual diagram illustrating a digital content provision system that supports character movement control customized to another party according to some embodiments of the present invention. Figure 2 exemplarily shows a situation in which a sensing device senses user information. Figures 3 and 4 exemplarily show screens where information sensed through an image sensor is reflected in a character and output. Figure 5 is an example diagram for explaining movement control of a first character of a first user.

디지털 컨텐츠 제공 시스템(10)은 복수의 사용자에게 디지털 컨텐츠를 제공할 수 있다. 여기서, 디지털 컨텐츠는 3차원 가상 공간에 구현된 가상의 캐릭터 및 가상의 배경을 포함하는 컨텐츠를 의미한다. 복수의 사용자는 각자의 캐릭터를 생성하여 생성된 캐릭터를 통해 디지털 컨텐츠에 참여할 수 있으며, 캐릭터를 통해 서로 상호작용을 할 수 있다. 디지털 컨텐츠는 복수의 사용자가 가상 공간에서 특정 목적을 달성하기 위해 함께 참여하는 컨텐츠일 수 있다. 예를 들어, 디지털 컨텐츠는 가상 공간에서 아동의 학습 및 교육을 위해 교육자와 아동이 함께 참여하는 컨텐츠일 수 있다. 또한, 디지털 컨텐츠는 가상 공간에서 가수가 관객에게 공연을 제공하고, 관객이 가수의 공연을 즐기는 컨텐츠일 수 있다. 디지털 컨텐츠는 메타 버스(metaverse) 형태로 구성되어 둘 이상의 사용자가 생성한 캐릭터들이 참여할 수 있으며, 현실 세계와 같은 사회, 경제, 문화 활동을 수행할 수 있는 3차원 가상 세계를 복수의 사용자에게 제공하도록 구성될 수 있다.The digital content provision system 10 can provide digital content to a plurality of users. Here, digital content refers to content including virtual characters and virtual backgrounds implemented in a three-dimensional virtual space. Multiple users can create their own characters, participate in digital content through the created characters, and interact with each other through the characters. Digital content may be content in which multiple users participate together to achieve a specific purpose in a virtual space. For example, digital content may be content in which educators and children participate together for children's learning and education in a virtual space. Additionally, digital content may be content in which a singer provides a performance to an audience in a virtual space and the audience enjoys the singer's performance. Digital content is structured in the form of a metaverse to provide multiple users with a three-dimensional virtual world in which characters created by two or more users can participate and perform social, economic, and cultural activities similar to the real world. It can be configured.

도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 디지털 컨텐츠 제공 시스템(10)은 서버(100), 복수의 사용자 장치(200)를 포함한다.Referring to FIG. 1, a digital content providing system 10 according to some embodiments of the present invention includes a server 100 and a plurality of user devices 200.

서버(100)는 디지털 컨텐츠를 이용할 수 있는 서비스 환경을 복수의 사용자 장치(200)에 제공할 수 있다. 서버(100)와 복수의 사용자 장치(200)는 서버-클라이언트 시스템으로 구현될 수 있다. 실시예에서, 서버(100)는 복수의 사용자 장치(200) 각각에 설치된 서비스 어플리케이션을 통해 서비스 환경을 사용자에게 제공할 수 있다. 여기에서, 서비스 어플리케이션은 서비스 환경을 제공하기 위한 전용 어플리케이션이거나, 웹 페이지를 통해 제공하기 위한 웹 브라우징 어플리케이션일 수 있다.The server 100 may provide a service environment in which digital content can be used to a plurality of user devices 200. The server 100 and the plurality of user devices 200 may be implemented as a server-client system. In an embodiment, the server 100 may provide a service environment to users through a service application installed on each of the plurality of user devices 200. Here, the service application may be a dedicated application for providing a service environment, or a web browsing application for providing through a web page.

사용자 장치(200)는 유무선 통신 환경에서 서비스 어플리케이션을 동작 시킬 수 있는 사용자 단말(210)을 포함한다. 예시적인 실시예에서, 사용자 단말(210)은 퍼스널 컴퓨터(PC)일 수 있지만, 본 발명이 이에 제한되는 것은 아니며, 상술한 바와 같이 서비스 어플리케이션을 탑재할 수 있는 장치에 제한없이 적용될 수 있다. 예를 들어, 사용자 단말(210)은 스마트폰(smart phone), 노트북, 태블릿, 휴대폰, 스마트폰, 웨어러블 디바이스(예를 들어, 워치형 단말기) 등의 다양한 형태의 전자 장치를 포함할 수 있다.The user device 200 includes a user terminal 210 capable of operating a service application in a wired or wireless communication environment. In an exemplary embodiment, the user terminal 210 may be a personal computer (PC), but the present invention is not limited thereto, and may be applied without limitation to a device capable of mounting a service application as described above. For example, the user terminal 210 may include various types of electronic devices, such as a smart phone, a laptop, a tablet, a mobile phone, a smart phone, or a wearable device (eg, a watch-type terminal).

사용자 단말(210)은 디지털 컨텐츠를 서버(100)로부터 수신하는 통신부, 수신된 디지털 컨텐츠가 저장되는 저장부, 수신된 디지털 컨텐츠를 표시하는 표시부, 사용자 입력을 입력받는 입력부, 상기 구성을 제어하는 제어부를 각각 포함할 수 있다.The user terminal 210 includes a communication unit that receives digital content from the server 100, a storage unit that stores the received digital content, a display unit that displays the received digital content, an input unit that receives user input, and a control unit that controls the configuration. may include each.

서버(100)는 워크스테이션(workstation), 데이터 센터, 인터넷 데이터 센터(internet data center(IDC)), DAS(direct attached storage) 시스템, SAN(storage area network) 시스템, NAS(network attached storage) 시스템 및 RAID(redundant array of inexpensive disks, or redundant array of independent disks) 시스템 중 적어도 하나로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.The server 100 is a workstation, a data center, an internet data center (IDC), a direct attached storage (DAS) system, a storage area network (SAN) system, a network attached storage (NAS) system, and It may be implemented as at least one of a RAID (redundant array of inexpensive disks, or redundant array of independent disks) system, but the present embodiment is not limited thereto.

한편, 통신망(300)은 서버(100)와 사용자 단말(210)를 연결하는 역할을 수행한다. 즉, 통신망(300)은 사용자 단말(210)들이 서버(100)에 접속한 후 데이터를 송수신할 수 있도록 접속 경로를 제공하는 네트워크를 의미한다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다. Meanwhile, the communication network 300 serves to connect the server 100 and the user terminal 210. In other words, the communication network 300 refers to a network that provides a connection path so that user terminals 210 can transmit and receive data after connecting to the server 100. Networks may include networks based on wired Internet technology, wireless Internet technology, and short-distance communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies include, for example, Wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet). Access), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS) and 5G NR (New Radio) technology. However, this embodiment is not limited to this.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication. At least one of NFC), Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include. However, this embodiment is not limited to this.

네트워크를 통해서 통신하는 서버(100) 및 사용자 단말(210)은 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The server 100 and the user terminal 210 that communicate through the network can comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), and EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only). , at least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) may include. However, this embodiment is not limited to this.

디지털 컨텐츠에서, 캐릭터의 움직임은 사용자의 움직임이 반영되어 구현될 수 있다. 사용자 장치(200)는 사용자의 움직임을 감지하는 센싱 장치(220)를 포함할 수 있다. 센싱 장치(220)는 사용자의 움직임 정보를 생성할 수 있다. 센싱 장치(220)는 사용자의 표정 변화 및 사용자의 포즈 변화를 감지할 수 있다. 센싱 장치(220)는 사용자의 신체의 적어도 일부를 실시간으로 촬영하는 카메라와 같은 이미지 센서(220A) 및 사용자의 신체의 적어도 일부에 부착된 자이로 센서와 같은 위치 센서(220B)를 포함할 수 있다. In digital content, the character's movement can be implemented by reflecting the user's movement. The user device 200 may include a sensing device 220 that detects the user's movement. The sensing device 220 may generate user movement information. The sensing device 220 can detect changes in the user's facial expression and changes in the user's pose. The sensing device 220 may include an image sensor 220A, such as a camera that photographs at least a portion of the user's body in real time, and a position sensor 220B, such as a gyro sensor attached to at least a portion of the user's body.

도 2를 참조하면, 이미지 센서(220A)는 사용자의 얼굴의 움직임이나 표정 변화를 수집할 수 있는 표정 변화 정보를 생성할 수 있다. 이미지 센서(220A)는 사용자의 얼굴을 실시간으로 촬영하고, 촬영된 영상에서 사용자의 얼굴 영역을 인식하며, 인식된 얼굴 영역을 복수의 포인트과 매핑할 수 있다. 사용자의 얼굴의 움직임 또는 표정 변화에 따라 변화되는 포인트가 변화될 수 있으며, 이미지 센서(220A)는 포인트 변화를 추적하여 표정 변화 정보를 생성할 수 있다. 즉, 시간에 따른 눈 깜박임이나 입 모양 변화와 같은 얼굴의 주요 부위의 변화를 확인할 수 있는 시계열 정보인 표정 변화 정보가 이미지 센서(220A)를 통해 수집될 수 있다.Referring to FIG. 2, the image sensor 220A can generate facial expression change information that can collect movement or facial expression changes of the user's face. The image sensor 220A can photograph the user's face in real time, recognize the user's face area in the captured image, and map the recognized face area with a plurality of points. The changing point may change according to the movement or expression change of the user's face, and the image sensor 220A may track the point change and generate expression change information. That is, facial expression change information, which is time series information that can confirm changes in major parts of the face, such as eye blinking or mouth shape changes over time, can be collected through the image sensor 220A.

또한, 도 2에 도시된 바와 같이, 위치 센서(220B)는 사용자의 신체의 일부에 부착될 수 있다. 즉, 위치 센서(220B)는 사용자의 주요 신체 부위, 팔, 발목, 골반, 가슴 등에 부착될 수 있으며, 사용자의 신체의 위치 변화를 인식하여 사용자의 포즈 변화 정보를 생성할 수 있다. 즉, 시간에 따른 신체의 주요 부위의 위치 변화를 확인할 수 있는 시계열 정보인 포즈 변화 정보가 위치 센서(220B)를 통해 수집될 수 있다.Additionally, as shown in FIG. 2, the position sensor 220B may be attached to a part of the user's body. That is, the position sensor 220B may be attached to the user's major body parts, arms, ankles, pelvis, chest, etc., and may recognize changes in the position of the user's body to generate user's pose change information. That is, pose change information, which is time series information that can confirm changes in the positions of major parts of the body over time, can be collected through the position sensor 220B.

센싱 장치(220)와 사용자 단말(210)은 데이터의 교환이 가능하도록 연결될 수 있다. 실시예에서, 센싱 장치(220)와 사용자 단말(210)은 근거리 무선 통신을 통해 데이터를 교환하도록 구성될 수 있으나, 이에 한정되는 것은 아니다. 센싱 장치(220)를 통해 생성되는 표정 변화 정보 및 포즈 변화 정보는 움직임 정보로 사용자 단말(210)을 통해 서버(100)로 제공될 수 있다. 서버(100)는 움직임 정보를 통해 대응되는 캐릭터의 움직임을 생성할 수 있다. 즉, 표정 변화 정보에 기초하여 캐릭터의 표정이 변화되고, 포즈 변화 정보에 기초하여 캐릭터의 포즈가 변화될 수 있다. 도 3 및 도 4를 참조하면, 실시간으로 수집되는 사용자의 움직임 정보에 기초하여 캐릭터의 표정이 구현되는 것을 알 수 있으며, 사용자의 움직임 정보의 변화에 따라 캐릭터의 표정도 변화하는 것을 알 수 있다.The sensing device 220 and the user terminal 210 may be connected to enable data exchange. In an embodiment, the sensing device 220 and the user terminal 210 may be configured to exchange data through short-range wireless communication, but are not limited thereto. The facial expression change information and pose change information generated through the sensing device 220 may be provided to the server 100 through the user terminal 210 as motion information. The server 100 may generate the movement of the corresponding character through the movement information. That is, the character's facial expression may change based on the facial expression change information, and the character's pose may change based on the pose change information. Referring to Figures 3 and 4, it can be seen that the character's facial expression is implemented based on the user's movement information collected in real time, and the character's facial expression also changes according to the change in the user's motion information.

본 발명의 실시예에 따른 서버(100)는 사용자의 움직임에 따라 사용자에 대응되는 캐릭터를 동작 시킬 수 있다. 따라서, 가상 공간에서 복수의 캐릭터 사이의 상호 작용은 현실 세계의 사용자들의 움직임에 기초하여 수행되게 된다. The server 100 according to an embodiment of the present invention can operate a character corresponding to the user according to the user's movements. Accordingly, interaction between a plurality of characters in virtual space is performed based on the movements of users in the real world.

도 5를 참조하면, 교육자, 부모에 해당하는 제1 사용자의 제1 캐릭터와 학생, 아동에 해당하는 제2 사용자의 제2 캐릭터가 디지털 컨텐츠 내에서 상호 작용(예를 들어, 학습)을 진행할 수 있다. 제1 사용자와 제2 사용자는 각각 제1 캐릭터와 제2 캐릭터를 생성할 수 있다. 제1 사용자는 제2 사용자가 학습 활동에 관심과 흥미를 더 가질 수 있도록 제2 사용자와 심리적인 상호 신뢰 관계(라포, rapport)가 형성된 캐릭터를 제1 캐릭터로 선택할 수 있다. Referring to Figure 5, a first character of a first user corresponding to an educator or a parent and a second character of a second user corresponding to a student or child may interact (e.g., learn) within digital content. there is. The first user and the second user can create a first character and a second character, respectively. The first user may select as the first character a character with whom a psychological mutual trust relationship (rapport) has been formed with the second user so that the second user may have more interest and interest in learning activities.

여기서, 제1 캐릭터는 제1 사용자의 움직임에 기초하여 움직이게 된다. 서버(100)는 제1 사용자가 제2 사용자가 선호하는 제1 캐릭터의 움직임을 수행하는 것을 지원할 수 있다. 즉, 서버(100)는 제2 사용자가 선호하는 제1 캐릭터의 동작, 표정을 제1 사용자가 수행하는 것을 지원할 수 있으며, 제2 사용자가 제1 캐릭터에 더욱 몰입하고 집중하도록 유도하여, 가상 공간에서의 상호 작용의 효과가 더욱 극대화되는 것을 지원할 수 있다.Here, the first character moves based on the movement of the first user. The server 100 may support a first user performing movements of a first character preferred by a second user. In other words, the server 100 can support the first user to perform the movements and facial expressions of the first character preferred by the second user, and induce the second user to become more immersed and focused on the first character, thereby creating a virtual space. It can support further maximizing the effect of interaction.

이하, 서버(100)에서 수행되는 캐릭터 움직임 제어 지원 과정에 대해 더욱 상세히 설명하도록 한다. 또한, 이하의 설명은 교육자(부모)에 해당하는 제1 사용자와 학생(아동)에 해당하는 제2 사용자 사이의 상호 작용에서, 제2 사용자의 선호 정보에 따른 움직임을 제1 사용자에게 추천하기 위한 과정 및 이를 위한 데이터 처리 과정을 설명하도록 한다. 다만, 이는 단지 예시에 불과하며, 본 발명의 사용자, 사용자의 수 및 사용자 사이의 상호 작용에 따른 데이터 처리 과정이 이에 한정되는 것은 아니다.Hereinafter, the character movement control support process performed by the server 100 will be described in more detail. In addition, the following description is for recommending to the first user a movement according to the second user's preference information in the interaction between the first user corresponding to the educator (parent) and the second user corresponding to the student (child). Explain the process and the data processing process for it. However, this is only an example, and the data processing process according to the users, number of users, and interactions between users of the present invention is not limited to this.

도 6은 본 발명의 몇몇 실시예에 따른 서버의 구성을 도시한다. Figure 6 shows the configuration of a server according to some embodiments of the present invention.

도 6을 참조하면, 서버(100)는 사용자 데이터 수집부(110), 캐릭터 데이터베이스(120), 움직임 정보 변환부(130), 캐릭터 움직임 추천부(140), 선호 정보 수집부(150) 및 컨텐츠 생성부(160)를 포함한다.Referring to FIG. 6, the server 100 includes a user data collection unit 110, a character database 120, a motion information conversion unit 130, a character movement recommendation unit 140, a preference information collection unit 150, and content. Includes a generating unit 160.

사용자 데이터 수집부(110)는 복수의 사용자 장치(200)로부터 사용자 데이터를 각각 수신할 수 있다. 실시예에서, 사용자 데이터는 각 사용자 장치에서 수집된 움직임 정보를 포함할 수 있다. 여기서, 움직임 정보는 각 사용자의 표정 변화 정보와 포즈 변화 정보를 포함할 수 있다. 실시예에서, 사용자 데이터 수집부(110)는 제1 사용자 장치로부터 제1 움직임 정보를 수신할 수 있다.The user data collection unit 110 may receive user data from each of the plurality of user devices 200 . In embodiments, user data may include movement information collected from each user device. Here, the motion information may include facial expression change information and pose change information of each user. In an embodiment, the user data collection unit 110 may receive first motion information from a first user device.

여기에서, 사용자 데이터 수집부(110)는 수신된 사용자 데이터의 정규화를 수행할 수 있다. 정규화란 다양한 센서 장치에서 수집되어 다양한 포맷으로 전송되는 데이터를 하나의 일관된 포맷으로 일치시키는 작업을 의미할 수 있다. Here, the user data collection unit 110 may perform normalization of the received user data. Normalization can refer to the task of matching data collected from various sensor devices and transmitted in various formats into one consistent format.

사용자 데이터 수집부(110)에서 각 사용자에 대응하여 수집되고, 정규화된 사용자 움직임 정보는 각 사용자에 대응되는 캐릭터의 생성에 활용되게 된다. 즉, 제1 움직임 정보에 기초하여 제1 사용자의 제1 캐릭터가 생성되고 움직임이 제어되게 된다.The user data collection unit 110 collects and normalizes user movement information for each user and uses it to create a character corresponding to each user. That is, based on the first movement information, the first character of the first user is created and the movement is controlled.

캐릭터 데이터베이스(120)는 캐릭터에 대한 정보 즉, 캐릭터 정보를 저장할 수 있다. 실시예에 따른 디지털 컨텐츠는 복수의 캐릭터를 제공할 수 있다. 복수의 사용자 각각은 캐릭터의 성별, 나이, 외형, 사이즈, 피부색, 의상, 기본 움직임, 음성 프로파일 등 캐릭터에 대한 세부적인 사항을 결정하여 각각 캐릭터를 생성한 상태일 수 있다. 복수의 사용자에 대응하는 캐릭터 각각에 대한 캐릭터 정보가 캐릭터 데이터베이스(120)에 저장될 수 있다. 즉, 제1 사용자의 제1 캐릭터 정보, 제2 사용자의 제2 캐릭터 정보가 캐릭터 데이터베이스(120)에 각각 저장될 수 있다. 여기서, 캐릭터는 다양한 종류로 준비될 수 있다. 예시적으로 캐릭터는 인간을 묘사하는 캐릭터일 수 있으나, 이에 한정되는 것은 아니며, 동물 캐릭터 또는 재미있는 형상을 가진 창작 캐릭터일 수 있다. 또한, 캐릭터는 적어도 가상 공간을 이동할 수 있는 신체와 캐릭터의 감정이 표시될 수 있는 얼굴을 가지도록 구성될 수 있다. 실시예에서, 사용자의 표정 변화 및 포즈 변화는 대응되는 캐릭터의 얼굴 변화 및 신체 변화에 반영될 수 있다.The character database 120 may store information about characters, that is, character information. Digital content according to an embodiment may provide a plurality of characters. Each of the plurality of users may have created a character by determining detailed information about the character, such as gender, age, appearance, size, skin color, clothing, basic movement, and voice profile. Character information for each character corresponding to a plurality of users may be stored in the character database 120. That is, the first character information of the first user and the second character information of the second user may be respectively stored in the character database 120. Here, characters can be prepared in various types. By way of example, the character may be a character depicting a human, but is not limited thereto, and may be an animal character or a creative character with an interesting shape. Additionally, the character may be configured to have at least a body that can move in virtual space and a face that can display the character's emotions. In embodiments, changes in the user's facial expression and pose may be reflected in facial changes and body changes of the corresponding character.

움직임 정보 변환부(130)는 사용자별로 사용자 움직임 정보 및 캐릭터 정보를 수신하고, 각 사용자에 대응하는 캐릭터의 캐릭터 움직임 정보를 생성할 수 있다. 캐릭터 움직임 정보는 캐릭터의 움직임에 대한 데이터로, 사용자의 움직임 정보를 캐릭터의 특성을 반영하여 변환한 데이터일 수 있다. 캐릭터 움직임 정보는 복수의 사용자별로, 즉, 복수의 사용자 각각에 대응하는 캐릭터별로 생성될 수 있다. 예시적으로, 움직임 정보 변환부(130)는 제1 사용자 움직임 정보 및 제1 캐릭터 정보를 수신하고, 제1 캐릭터의 움직임을 나타낸 제1 캐릭터 움직임 정보를 생성할 수 있다. The motion information conversion unit 130 may receive user motion information and character information for each user, and generate character motion information for the character corresponding to each user. Character movement information is data about the character's movement, and may be data converted from the user's movement information to reflect the character's characteristics. Character movement information may be generated for each plurality of users, that is, for each character corresponding to each of the plurality of users. As an example, the motion information conversion unit 130 may receive first user motion information and first character information, and generate first character motion information indicating the movement of the first character.

캐릭터 움직임 추천부(140)는 제1 캐릭터 움직임 정보와 상대방 사용자인 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공할 수 있다. The character motion recommendation unit 140 may provide first character recommendation motion information to the first user based on the first character motion information and the first character preference motion information of the second user, which is the other user.

제2 사용자의 제1 캐릭터 선호 움직임 정보는 선호 정보 수집부(150)에서 생성될 수 있다. 선호 정보 수집부(150)는 사용자별로 특정 캐릭터에 대한 선호 움직임 정보를 수집할 수 있다. 선호 정보 수집부(150)에서 제2 사용자의 제1 캐릭터 추천 움직임 정보를 생성하는 과정 및 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 과정에 대해서도 더욱 상세히 후술하도록 한다. The second user's first character preference movement information may be generated in the preference information collection unit 150. The preference information collection unit 150 may collect preference movement information for a specific character for each user. The process of generating recommended movement information for the first character for the second user in the preference information collection unit 150 and providing the recommended movement information for the first character to the first user will be described in more detail later.

컨텐츠 생성부(160)는 캐릭터 보정 움직임 정보 및 캐릭터 정보에 기초하여 캐릭터 모션 시퀀스를 생성할 수 있다. 여기서, 캐릭터 정보는 캐릭터의 성별, 나이, 외형, 사이즈, 피부색, 의상 등에 해당하며, 이러한 캐릭터 정보와 캐릭터 보정 움직임 정보를 통해 캐릭터의 모션 시퀀스를 생성한다. The content generator 160 may generate a character motion sequence based on character correction movement information and character information. Here, the character information corresponds to the character's gender, age, appearance, size, skin color, clothing, etc., and the character's motion sequence is created through this character information and character compensation movement information.

또한, 컨텐츠 생성부(160)는 캐릭터 정보와 캐릭터 보정 움직임 정보, 배경 정보를 고려하여 캐릭터 셰이딩 시퀀스를 생성하게 된다. 배경 정보는 미리 설정된 캐릭터가 움직이게 되는 가상 공간의 배경을 구성하기 위한 정보를 의미한다. 컨텐츠 생성부(160)는 배경 정보에 포함된 가상 공간에 관한 정보(예를 들어, 일조량, 날씨, 구름량 등)를 기초로 미리 정해진 계산식을 통하여 광원 정보를 도출할 수 있으며, 도출된 광원 정보에 기초하여 셰이딩 시퀀스가 생성될 수 있다. Additionally, the content creation unit 160 generates a character shading sequence by considering character information, character correction movement information, and background information. Background information refers to information for configuring the background of a virtual space in which a preset character moves. The content generator 160 may derive light source information through a predetermined calculation formula based on information about the virtual space (e.g., amount of sunlight, weather, amount of clouds, etc.) included in the background information, and the derived light source information. A shading sequence can be generated based on .

여기에서, 셰이딩(Shading)은 물체와 광원 간의 거리 및 각도에 따라 물체 표면의 조도를 변화시키는 작업을 의미한다. 셰이딩(Shading) 시퀀스에서 캐릭터를 구성하는 각각의 폴리곤의 표면은 배경 정보에 따른 광원의 위치 및 밝기, 색깔에 따라 음영이 부가됨으로써 물체에 대한 입체감과 사실감이 표현되게 된다.Here, shading refers to the operation of changing the illuminance of the surface of an object depending on the distance and angle between the object and the light source. In the shading sequence, the surface of each polygon that makes up the character is shaded according to the location, brightness, and color of the light source according to the background information, thereby expressing three-dimensionality and realism for the object.

상술한 과정과 같이 캐릭터의 움직임과 캐릭터의 외형에 대한 그래픽 처리가 수행된 캐릭터는 캐릭터에 따른 음성을 출력하도록 구성되게 된다. 컨텐츠 생성부(160)는 캐릭터의 모션 시퀀스, 캐릭터 셰이딩 시퀀스 및 캐릭터 음성 프로파일에 기초하여 캐릭터를 생성하고, 디지털 컨텐츠를 생성할 수 있다. As in the above-described process, the character on which graphic processing of the character's movements and appearance has been performed is configured to output a voice according to the character. The content creation unit 160 may create a character and generate digital content based on the character's motion sequence, character shading sequence, and character voice profile.

디지털 컨텐츠는 제1 사용자의 사용자 장치 및 제2 사용자의 사용자 장치를 통해 각각 출력되며, 제1 사용자와 제2 사용자는 제1 캐릭터와 제2 캐릭터를 통해 상호 작용을 수행하게 된다. 제1 사용자에게는 제1 캐릭터를 기준으로 디지털 컨텐츠가 출력되는 제1 캐릭터의 동작 화면이 제1 사용자의 사용자 장치를 통해 출력되며, 제2 사용자에게는 제2 캐릭터를 기준으로 디지털 컨텐츠가 출력되는 제2 캐릭터의 동작 화면이 제2 사용자의 사용자 장치를 통해 출력될 수 있다. 제1 캐릭터의 동작 화면에는 제1 캐릭터뿐만 아니라, 상호 작용 중인 제2 캐릭터도 함께 출력될 수 있다. Digital content is output through the first user's user device and the second user's user device, respectively, and the first user and the second user interact through the first character and the second character. To the first user, the operation screen of the first character, in which digital content is output based on the first character, is output through the first user's user device, and to the second user, the digital content is output based on the second character. The character's action screen may be output through the second user's user device. Not only the first character but also the second character being interacted with may be displayed on the first character's action screen.

이러한, 제1 사용자와 제2 사용자와의 디지털 컨텐츠를 통한 상호 과정 중, 캐릭터 움직임 추천부(140)는 제1 캐릭터 움직임 정보와 상대방 사용자인 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공할 수 있다. 이러한, 제2 사용자의 제1 캐릭터 선호 움직임 정보는 선호 정보 수집부(150)에서 생성될 수 있다.During this interaction process between the first user and the second user through digital content, the character movement recommendation unit 140 provides a recommendation based on the first character movement information and the first character preference movement information of the second user, the other user. 1 First character recommended movement information may be provided to the user. This first character preference movement information of the second user may be generated in the preference information collection unit 150.

이하, 선호 정보 수집부(150)에서 수행되는 캐릭터 선호 정보의 수집 과정 및 캐릭터 움직임 추천부(140)에서 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 과정에 대해 상세히 설명하도록 한다. 특히, 이하의 설명은 제2 사용자의 제1 캐릭터 선호 정보를 수집하고, 제1 캐릭터 추천 움직임 정보가 제1 사용자에게 제공되는 과정을 서술하나, 본 발명의 실시예가 이에 한정되는 것은 아니며, 다른 사용자 및 캐릭터에 물론 동일하게 적용될 수 있다.Hereinafter, the process of collecting character preference information performed by the preference information collection unit 150 and the process of providing the first character recommendation movement information to the first user by the character movement recommendation unit 140 will be described in detail. In particular, the following description describes a process of collecting the first character preference information of the second user and providing the first character recommended movement information to the first user, but the embodiment of the present invention is not limited thereto, and other users Of course, the same can be applied to characters.

도 7은 실시예에 따른 선호 정보 수집부의 주요 구성을 도시하는 블록도이다. 도 8은 제1 디지털 컨텐츠를 이용하는 제2 사용자를 촬영하는 제2 사용자 영상을 생성하는 상황을 예시적으로 나타낸다. 도 9는 감정 분석 모델의 입력 데이터와 출력 데이터를 예시적으로 나타낸다. 도 10은 제2 사용자의 감정 정보에 따라 결정된 분석 이미지를 예시적으로 나타낸다. 도 11은 움직임 추천 시점을 결정하는 과정을 설명하기 위한 예시도이다. 도 12는 자세 지원 보조 화면이 제1 사용자 동작 화면에 출력되는 예시적인 화면이다. 도 13 및 도 14는 자세 지원 보조 화면을 통해 제1 캐릭터 추천 움직임 정보가 제공되는 예시적인 화면이다. Figure 7 is a block diagram showing the main configuration of a preference information collection unit according to an embodiment. FIG. 8 exemplarily shows a situation in which a second user image is generated by photographing a second user using the first digital content. Figure 9 exemplarily shows input data and output data of an emotion analysis model. Figure 10 exemplarily shows an analysis image determined according to emotional information of a second user. Figure 11 is an example diagram for explaining the process of determining a motion recommendation point. Figure 12 is an example screen in which a posture support auxiliary screen is output on the first user operation screen. 13 and 14 are exemplary screens in which first character recommended movement information is provided through a posture support auxiliary screen.

도 7을 참조하면, 선호 정보 수집부(150)는 사용자 영상 수집 모듈(151), 사용자 감정 분석 모듈(152), 분석 이미지 결정 모듈(153), 캐릭터 선호 움직임 결정 모듈(154), 움직임 추천 시점 결정 모듈(155)을 포함한다. Referring to FIG. 7, the preference information collection unit 150 includes a user image collection module 151, a user emotion analysis module 152, an analysis image determination module 153, a character preference movement determination module 154, and a movement recommendation timing. Includes a decision module 155.

사용자 영상 수집 모듈(151)는 디지털 컨텐츠를 이용하는 사용자가 촬영된 사용자 영상을 수집할 수 있다. 이러한 사용자 영상은 사용자의 선호 정보를 분석하기 위한 사용자의 피드백 데이터에 해당한다. The user image collection module 151 may collect user images captured by users using digital content. These user videos correspond to user feedback data for analyzing user preference information.

실시예에서, 디지털 컨텐츠가 출력되는 상황에서 사용자 장치(200)는 디지털 컨텐츠를 이용하는 사용자를 실시간으로 모니터링할 수 있으며, 이미지 센서(220A)를 통해 사용자를 촬영하여 사용자 영상을 생성할 수 있다. 다만, 이에 한정되는 것은 아니며, 몇몇 실시예에서, 서버(100)는 사용자의 캐릭터 선호 정보를 수집하기 위한 캐릭터별 디지털 컨텐츠를 포함할 수 있으며, 사용자의 캐릭터 선호 정보 수집을 위해 해당 디지털 컨텐츠를 사용자에게 제공하여, 사용자의 피드백 데이터인 사용자 영상을 생성할 수 있다. 사용자 영상 수집 모듈(151)은 복수의 사용자의 사용자 장치(200)로부터 사용자 영상을 제공받을 수 있다. In an embodiment, in a situation where digital content is output, the user device 200 may monitor the user using the digital content in real time and may generate a user image by photographing the user through the image sensor 220A. However, it is not limited to this, and in some embodiments, the server 100 may include digital content for each character to collect the user's character preference information, and may provide the corresponding digital content to the user to collect the user's character preference information. A user image, which is the user's feedback data, can be generated. The user image collection module 151 may receive user images from the user devices 200 of a plurality of users.

도 8을 참조하면, 제2 사용자는 표시부를 통해 출력되는 제1 디지털 컨텐츠를 이용할 수 있다. 여기서, 제1 디지털 컨텐츠는 제1 캐릭터가 포함되는 디지털 컨텐츠에 해당하며, 제1 캐릭터에 대한 제2 사용자의 선호 정보를 수집하기 위해 준비된 컨텐츠일 수 있다. 제2 사용자는 제1 디지털 컨텐츠에 출력되는 내용에 따라 다양한 감정 변화가 나타날 수 있다. 기쁨, 사랑, 자신감, 존중 또는 안정과 같은 긍정 감정, 수치, 두려움, 분노, 증오, 슬픔 또는 불안과 같은 부정 감정이 나타날 수 있다. 이러한 제2 사용자의 감정의 변화는 제1 디지털 컨텐츠 특히, 제1 캐릭터의 변화에 의해 발생한 것으로, 제2 사용자의 표정 변화 및 포즈 변화가 동반되어 나타날 수 있다. 사용자 장치(200)의 이미지 센서(220A)를 통해 생성된 제2 사용자 영상은 제2 사용자의 표정 변화 및 포즈 변화를 포함할 수 있다. 즉, 제2 사용자 영상을 통해 확인되는 제2 사용자의 감정을 통해 사용자가 선호하는 움직임 정보가 판단될 수 있다.Referring to FIG. 8, the second user can use the first digital content output through the display unit. Here, the first digital content corresponds to digital content including the first character, and may be content prepared to collect the second user's preference information for the first character. The second user may experience various emotional changes depending on the content displayed in the first digital content. Positive emotions, such as joy, love, confidence, respect, or security, and negative emotions, such as shame, fear, anger, hatred, sadness, or anxiety, may appear. This change in the second user's emotion is caused by a change in the first digital content, particularly the first character, and may be accompanied by a change in the second user's facial expression and pose. The second user image generated through the image sensor 220A of the user device 200 may include changes in the second user's facial expression and pose. That is, the user's preferred movement information can be determined through the second user's emotions confirmed through the second user image.

사용자 감정 분석 모듈(152)은 디지털 컨텐츠를 이용하는 사용자 영상에서 사용자의 감정 변화를 분석하여 사용자의 감정 클래스를 결정할 수 있다. 사용자 감정 분석 모듈(152)은 미리 학습된 감정 분석 모델을 포함할 수 있으며, 감정 분석 모델을 통해 사용자 영상을 분석할 수 있다. The user emotion analysis module 152 may determine the user's emotion class by analyzing changes in the user's emotion in the user's image using digital content. The user emotion analysis module 152 may include a pre-learned emotion analysis model and may analyze user images through the emotion analysis model.

도 9를 참조하면, 감정 분석 모델은 제2 사용자 영상에서 제2 사용자의 표정 변화 및 포즈 변화를 프레임 이미지 별로 분석하여 제2 사용자의 감정 클래스를 결정할 수 있다. 제2 사용자 영상은 프레임에 따라 복수의 프레임 이미지로 분할될 수 있으며, 순차적으로 감정 분석 모델에 입력될 수 있다. 순차적으로 입력되는 프레임 이미지 각각에 대응하여 제2 사용자의 감정 클래스가 결정되게 된다. 감정 클래스가 결정된 프레임 이미지들이 취합되어 감정 정보를 구성하게 된다. Referring to FIG. 9, the emotion analysis model may determine the emotion class of the second user by analyzing the change in facial expression and pose of the second user for each frame image in the second user image. The second user image may be divided into a plurality of frame images according to the frame, and may be sequentially input to the emotion analysis model. The emotion class of the second user is determined in response to each sequentially input frame image. Frame images with determined emotion classes are collected to form emotional information.

여기서, 감정 클래스는 긍정 감정 또는 부정 감정에 해당한다. 실시예에서, 긍정 감정은 제2 사용자가 즐거움, 기쁨, 사랑, 자신감, 존중 또는 안정 상태인 것을 의미할 수 있으며, 부정 감정은 제2 사용자가 지루함, 짜증, 수치, 두려움, 분노, 증오, 슬픔 또는 불안 상태인 것을 의미할 수 있다. 프레임 이미지별로 디지털 컨텐츠를 이용하는 제2 사용자의 감정이 긍정 감정인지 또는 부정 감정인지 여부가 판단되게 된다.Here, the emotion class corresponds to positive emotion or negative emotion. In embodiments, a positive emotion may mean that the second user is in a state of joy, joy, love, confidence, respect, or stability, and a negative emotion may mean that the second user is bored, annoyed, ashamed, fearful, angry, hateful, or sad. Or it may mean being in a state of anxiety. For each frame image, it is determined whether the emotion of the second user using the digital content is a positive emotion or a negative emotion.

실시예에서, 감정 분석 모델은 딥러닝 기반의 학습 모델을 통해 구축될 수 있다. 예를 들어, 감정 분석 모델은 DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 이용하여 구축될 수 있으나, 이에 한정되는 것은 아니다.In embodiments, the emotion analysis model may be built through a deep learning-based learning model. For example, sentiment analysis models include Deep Feedforward Network (DFN), Convolutional Neural Network (CNN), Graph Neural Network (GNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Support vector machine (SVM), Artificial Neural Network (ANN), Long Short-Term Memory (LSTM), Gated Recurrent Units (GRU), Deep Residual Network (DRN), Generative Adversarial Network (GAN), Graph Convolutional Network (GCN), and Spiking Neural Network (SNN). It may be constructed using at least one of the following, but is not limited to this.

몇몇 실시예에서, 감정 분석 모델은 컨볼루션 신경망(Convolutional Neural Network) 기반의 영상 분석 모델로 구성될 수 있다. 특히, 감정 분석 모델은 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델 중 객체 검출에 적합한 one-stage 검출 네트워크로 구성될 수 있다. 여기서, one-stage 검출 네트워크는 사물 검출(Regional Proposal)과 클래스 분류(Classification)가 동시에 수행되는 검출 네트워크를 의미한다. 즉, 네트워크의 최종 출력단에서 객체 경계 박스를 찾는 작업과 클래스를 분류하는 작업이 동시에 수행될 수 있다. In some embodiments, the emotion analysis model may be comprised of a convolutional neural network-based image analysis model. In particular, the emotion analysis model may be composed of a one-stage detection network suitable for object detection among machine learning models based on a convolutional neural network. Here, the one-stage detection network refers to a detection network in which object detection (Regional Proposal) and class classification are performed simultaneously. In other words, the task of finding the object boundary box and classifying the class can be performed simultaneously at the final output stage of the network.

예시적으로, 감정 분석 모델은 Yolo(You Only Look Once) 네트워크 또는 CenterNet과 같은 one-stage 검출 네트워크로 구성될 수 있으나, 이에 한정되는 것은 아니다. 실시예에서, 감정 분석 모델은 Yolo 네트워크로 구성되어 사용자의 신체 주요 부위 및 얼굴의 주요 부위 중 적어도 하나를 검출하도록 학습되며, 검출된 신체 주요 부위 및 얼굴의 주요 부위의 변화에 기반하여 사용자의 감정 클래스를 판별할 수 있다. 예시적으로, 감정 분석 모델은 눈, 입, 얼굴 전체, 머리, 손, 다리, 어깨, 신체 전체 중 적어도 하나를 검출하도록 학습되며, 검출된 부위의 변화에 따라 사용자의 감정 클래스를 분류할 수 있다.Illustratively, the emotion analysis model may be composed of a one-stage detection network such as a Yolo (You Only Look Once) network or CenterNet, but is not limited thereto. In an embodiment, the emotion analysis model is configured with a Yolo network and is trained to detect at least one of the main body part and the main part of the user's face, and the emotion of the user based on changes in the detected main body part and the main part of the face. The class can be determined. As an example, the emotion analysis model is trained to detect at least one of eyes, mouth, entire face, head, hand, leg, shoulder, and entire body, and can classify the user's emotion class according to changes in the detected part. .

실시예에서, 감정 분석 모델은 실시간 사물 검출 인식 모델인 YOLO(You only look once)에 이용하여 제2 사용자 영상에서 제2 사용자의 얼굴의 주요 부위 및 신체의 주요 부위 중 적어도 하나를 식별하고, 식별된 얼굴의 주요 부위 및 신체 주요 부위 중 적어도 하나의 변화에 기초하여 제2 사용자의 감정 클래스를 긍정 감정 또는 부정 감정으로 결정하고, 결정된 클래스에 대한 확신값(confidence)을 결정된 클래스와 함께 출력하도록 구성될 수 있다. 도 10과 같이, 제2 사용자의 감정 분석을 통해 결정된 긍정 감정 클래스와 확신값(confidence)이 부여될 수 있다.In an embodiment, the emotion analysis model identifies at least one of the main part of the face and the main part of the body of the second user in the second user image using YOLO (You only look once), a real-time object detection recognition model, and identifies Configured to determine the emotion class of the second user as a positive emotion or negative emotion based on a change in at least one of the main parts of the face and the main part of the body, and output the confidence value for the determined class together with the determined class. It can be. As shown in Figure 10, a positive emotion class and confidence value determined through emotion analysis of the second user may be assigned.

사용자 감정 분석 모듈(152)은 프레임 이미지별로 제2 사용자의 감정 클래스를 판단하게 되며, 프레임 이미지별로 감정 클래스를 부여된 복수의 프레임 이미지를 시간에 따라 정렬한 제2 사용자의 감정 정보를 구성할 수 있다. 실시예에서, 복수의 프레임 이미지 각각은 결정된 감정 클래스 및 감정 클래스에 대한 확신값을 더 포함하도록 구성될 수도 있다.The user emotion analysis module 152 determines the emotion class of the second user for each frame image, and can configure the emotion information of the second user by arranging a plurality of frame images to which emotion classes are assigned for each frame image according to time. there is. In an embodiment, each of the plurality of frame images may be configured to further include a determined emotion class and a confidence value for the emotion class.

분석 이미지 결정 모듈(153)은 사용자의 감정 정보에서 분석 이미지를 결정할 수 있다. 사용자의 감정 정보는 긍정 감정 클래스로 판단된 복수의 프레임 이미지와 부정 감정 클래스로 판단된 나머지 프레임 이미지로 구성될 수 있다. 예시적으로, 분석 이미지 결정 모듈(153)은 제2 사용자의 감정 정보에서 분석 이미지를 선별할 수 있다. 분석 이미지 결정 모듈(153)은 제2 사용자의 감정 정보에서 긍정 감정으로 클래스가 판단된 프레임 이미지를 1차적으로 추출할 수 있으며, 미리 설정된 임계값 이상의 확신값이 부여된 프레임 이미지를 2차적으로 추출하여 적어도 하나의 분석 이미지를 결정할 수 있다. 도 10의 이미지에 포함된 제2 사용자는 긍정 감정에 대한 확신값이 95로, 해당 이미지는 분석 이미지로 결정될 수 있다.The analysis image determination module 153 may determine an analysis image from the user's emotional information. The user's emotional information may be composed of a plurality of frame images determined to be positive emotion classes and the remaining frame images determined to be negative emotion classes. As an example, the analysis image determination module 153 may select an analysis image from the emotional information of the second user. The analysis image determination module 153 may primarily extract a frame image whose class is determined to be a positive emotion from the second user's emotion information, and secondarily extract a frame image given a confidence value greater than a preset threshold. Thus, at least one analysis image can be determined. The second user included in the image of FIG. 10 has a confidence value of 95 for positive emotion, and the image may be determined to be an analysis image.

캐릭터 선호 움직임 결정 모듈(154)은 분석 이미지의 출력 시점에 대응되는 제1 디지털 컨텐츠에서 제1 캐릭터의 움직임 정보를 판단할 수 있다. 캐릭터 선호 움직임 결정 모듈(154)은 분석 이미지의 출력 시점에 대응되는 제1 디지털 컨텐츠에서 제1 캐릭터의 움직임 정보를 수집하여 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성할 수 있다. 분석 이미지 결정 모듈(153)에서 분석 이미지가 복수로 결정되는 경우, 캐릭터 선호 움직임 결정 모듈(154)은 복수의 분석 이미지 각각에 대응하는 제1 캐릭터의 움직임 정보를 수집하게 된다.The character preference movement determination module 154 may determine movement information of the first character in the first digital content corresponding to the output time of the analysis image. The character preference movement determination module 154 may collect movement information of the first character from the first digital content corresponding to the output time of the analysis image and generate preference movement information of the first character of the second user. When the analysis image determination module 153 determines that there are multiple analysis images, the character preference movement determination module 154 collects movement information of the first character corresponding to each of the plurality of analysis images.

움직임 추천 시점 결정 모듈(155)은 제2 사용자의 감정 정보에 기초하여 움직임 추천 시점을 결정할 수 있다. 제2 사용자의 감정 정보는 프레임 이미지별로 감정 클래스가 부여된 복수의 프레임 이미지가 시간에 따라 정렬되어 구성될 수 있다. 움직임 추천 시점 결정 모듈(155)는 제2 사용자의 감정 정보에서 사용자의 감정 변화를 식별하여 움직임 추천 시점을 결정할 수 있다.The motion recommendation timing determination module 155 may determine the motion recommendation timing based on the emotion information of the second user. The second user's emotion information may be composed of a plurality of frame images to which an emotion class is assigned to each frame image, arranged according to time. The motion recommendation time determination module 155 may determine a motion recommendation time by identifying a change in the user's emotion from the second user's emotional information.

움직임 추천 시점 결정 모듈(155)은 긍정 감정 클래스에 해당하는 프레임 이미지에서 부정 감정 클래스에 해당하는 프레임 이미지로 변화되는 시점을 움직임 추천 시점으로 결정할 수 있다. 제2 사용자가 디지털 컨텐츠에 대한 상호 작용에 지루함과 집중도를 잃게 되는 시점에 적절한 자극이 제2 사용자에게 제공된다면 제2 사용자는 계속해서 상호 작용에 대한 집중도를 유지하고, 지루함을 덜 느끼게 될 수 있다. 움직임 추천 시점 결정 모듈(155)은 제2 사용자의 감정 변화, 특히, 긍정 감정에서 부정 감정으로 변화되는 시점을 제2 사용자의 감정 정보에서 분석할 수 있으며, 상기 시점을 움직임 추천 시점으로 결정할 수 있다. 도 11을 참조하면, 제8, 제9 프레임 이미지는 긍정 감정으로 클래스가 분류된 상태이며, 이후 연속되는 제10, 제11 프레임 이미지는 부정 감정으로 클래스가 분류된 것을 알 수 있다. 움직임 추천 시점 결정 모듈(155)은 제10 프레임 이미지가 출력되는 시점을 움직임 추천 시점으로 결정할 수 있다. 결정된 움직임 추천 시점은 제1 디지털 컨텐츠와 제2 사용자가 상호 작용을 시작 시점으로부터 경과된 적어도 하나의 시간 정보에 해당할 수 있다. 예를 들어, 시작 시점으로부터 15분 10초, 24분 25초, 30분 45초와 같이 시간 정보가 움직임 추천 시점으로 결정될 수 있다. The motion recommendation timing determination module 155 may determine the timing at which a frame image corresponding to a positive emotion class changes to a frame image corresponding to a negative emotion class as the motion recommendation timing. If appropriate stimulation is provided to the second user at the point when the second user becomes bored and loses concentration in interacting with digital content, the second user can continue to maintain concentration in the interaction and feel less bored. . The motion recommendation time determination module 155 may analyze a change in the emotion of the second user, in particular, a change in emotion from a positive emotion to a negative emotion, from the emotion information of the second user, and determine the time point as the motion recommendation time. . Referring to FIG. 11, it can be seen that the 8th and 9th frame images are classified as positive emotions, and the subsequent 10th and 11th frame images are classified as negative emotions. The motion recommendation timing determination module 155 may determine the timing at which the 10th frame image is output as the motion recommendation timing. The determined motion recommendation time point may correspond to at least one piece of time information elapsed from the time when the first digital content and the second user start interacting. For example, time information such as 15 minutes 10 seconds, 24 minutes 25 seconds, or 30 minutes 45 seconds from the start point may be determined as the movement recommendation point.

캐릭터 선호 움직임 결정 모듈(154)은 수집된 제1 캐릭터의 움직임 정보를 제2 사용자의 제1 캐릭터 선호 움직임 정보로 생성하며, 움직임 추천 시점 결정 모듈(155)에서 결정된 움직임 추천 시점에 제2 사용자가 선호하는 제1 캐릭터의 움직임이 제1 사용자에 의해 제공될 수 있어 제2 사용자가 디지털 컨텐츠에 대한 상호 작용에 계속 집중하는 것이 지원될 수 있다.The character preference movement determination module 154 generates the collected movement information of the first character as the first character preference movement information of the second user, and the second user Movements of the preferred first character may be provided by the first user to assist the second user in remaining focused on interacting with the digital content.

캐릭터 움직임 추천부(140)는 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공할 수 있다. 캐릭터 움직임 추천부(140)는 디지털 컨텐츠에서 제1 캐릭터와 제2 캐릭터가 상호 작용을 수행하는 도중에, 제2 사용자가 선호하는 제1 캐릭터 추천 움직임을 제1 사용자가 구현하는 것을 제1 캐릭터 추천 움직임 정보를 제공함으로써 지원할 수 있다. 제1 캐릭터 추천 움직임 정보는 제1 캐릭터의 동작 화면과 구분되는 자세 지원 보조 화면을 통해 제공될 수 있다.The character motion recommendation unit 140 may provide first character recommendation motion information to the first user based on the first character preference motion information of the second user. The character movement recommendation unit 140 monitors the first user to implement the first character recommendation movement preferred by the second user while the first character and the second character are interacting in the digital content. You can support by providing information. The first character recommended movement information may be provided through a posture support auxiliary screen that is distinct from the first character's motion screen.

캐릭터 움직임 추천부(140)는 제1 캐릭터 추천 움직임 정보를 자세 지원 보조 화면을 통해 제1 사용자에게 출력할 수 있다. 자세 지원 보조 화면은 제1 사용자에게 출력되는 제1 캐릭터의 동작 화면과 구분되는 화면으로 제공될 수 있다. 자세 지원 보조 화면은 도 12와 같이, PIP(Picture In Picture)로 제공될 수 있으나, 이에 한정되는 것은 아니다. The character movement recommendation unit 140 may output the first character recommendation movement information to the first user through the posture support auxiliary screen. The posture support auxiliary screen may be provided as a screen that is separate from the first character's action screen displayed to the first user. The posture support auxiliary screen may be provided as PIP (Picture In Picture), as shown in FIG. 12, but is not limited thereto.

캐릭터 움직임 추천부(140)는 움직임 추천 시점을 기초로 제1 캐릭터 추천 움직임 정보를 제1 사용자에게 출력할 수 있다. 예를 들어, 움직임 추천 시점이 15분 10초, 24분 25초, 30분 45초와 같이 시간 정보로 결정된 경우, 캐릭터 움직임 추천부(140)는 제1 사용자와 제2 사용자 사이의 상호 작용이 시작된 시점을 기점으로 기산된 15분 10초, 24분 25초, 30분 45초 각각에 제1 캐릭터 추천 움직임 정보를 제1 사용자에게 제공할 수 있다. 캐릭터 움직임 추천부(140)는 제2 사용자가 지루함을 느낄 수 있는 시점에 제1 사용자에게 제2 사용자가 선호하는 제1 캐릭터 움직임이 제공되도록 추천을 수행할 수 있다. The character motion recommendation unit 140 may output first character recommendation motion information to the first user based on the motion recommendation time point. For example, if the motion recommendation point is determined by time information such as 15 minutes 10 seconds, 24 minutes 25 seconds, or 30 minutes 45 seconds, the character movement recommendation unit 140 recommends the interaction between the first user and the second user. The first character recommended movement information may be provided to the first user at 15 minutes 10 seconds, 24 minutes 25 seconds, and 30 minutes 45 seconds, respectively, calculated from the start time. The character movement recommendation unit 140 may perform a recommendation so that the first character movement preferred by the second user is provided to the first user at a time when the second user may feel bored.

도 12를 참조하면, 자세 지원 보조 화면은 움직임 추천 시점에 안내 멘트와 함께 활성화되어 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공할 수 있다. 자세 지원 보조 화면에 표시되는 제1 캐릭터 추천 움직임 정보는 제2 사용자의 제1 캐릭터 선호 움직임 정보에 따른 가이드 움직임 정보를 포함할 수 있다. 가이드 움직임 정보는 제2 사용자가 선호하는 제1 캐릭터의 움직임을 제1 사용자가 취할 수 있도록 제1 사용자의 자세를 가이드하도록 개략적으로 나타낸 이미지에 해당한다. 특정 자세를 취하는 사람 형상의 이미지가 가이드 움직임 정보를 통해 제공되어 제1 사용자가 해당 자세를 취하는 것을 지원할 수 있다. Referring to FIG. 12, the posture support auxiliary screen may be activated along with a guidance comment at the time of movement recommendation to provide first character recommended movement information to the first user. The first character recommended movement information displayed on the posture support auxiliary screen may include guide movement information according to the second user's first character preferred movement information. The guide movement information corresponds to an image schematically shown to guide the first user's posture so that the first user can take the movement of the first character preferred by the second user. An image of a person assuming a specific posture may be provided through guide movement information to assist the first user in assuming the corresponding posture.

가이드 움직임 정보는 제2 사용자의 제1 캐릭터 선호 움직임 정보에 따라 구성될 수 있다. 캐릭터 움직임 추천부(140)는 제2 사용자의 제1 캐릭터 선호 움직임 정보가 복수로 구성된 경우, 제2 사용자의 복수의 제1 캐릭터 선호 움직임 정보 중 현재 제1 사용자의 움직임 정보에서 움직임 변화 정도가 다른 제1 캐릭터 선호 움직임보다 상대적으로 적은 제1 캐릭터 선호 움직임 정보를 결정할 수 있으며, 결정된 제1 캐릭터 선호 움직임 정보에 대응하는 가이드 움직임 정보를 생성하여 제1 캐릭터 추천 움직임 정보로 제공할 수 있다.The guide movement information may be configured according to the first character preference movement information of the second user. When the second user's first character preference motion information consists of a plurality of pieces, the character motion recommendation unit 140 may determine a different degree of motion change in the current first user's motion information among the plurality of first character preference motion information of the second user. First character preference motion information that is relatively smaller than the first character preference motion information may be determined, and guide motion information corresponding to the determined first character preference motion information may be generated and provided as the first character recommendation motion information.

여기서, 캐릭터 움직임 추천부(140)는 자세 지원 보조 화면에 가이드 움직임 정보와 함께 제1 사용자 움직임 정보를 함께 표시할 수 있다. 도 13을 참조하면, 자세 지원 보조 화면에 가이드 움직임 정보와 함께 제1 사용자 움직임 정보가 더 표시된 것을 알 수 있다. 자세 지원 보조 화면에서, 가이드 움직임 정보는 점선으로 표시되고, 제1 사용자 움직임 정보는 실선으로 표시될 수 있으나, 이에 한정되는 것은 아니다.Here, the character movement recommendation unit 140 may display the first user movement information along with the guide movement information on the posture support auxiliary screen. Referring to FIG. 13, it can be seen that the first user movement information is further displayed along with the guide movement information on the posture support auxiliary screen. In the posture support auxiliary screen, guide movement information may be displayed as a dotted line and first user movement information may be displayed as a solid line, but the information is not limited thereto.

제1 사용자는 자세 지원 보조 화면을 통해 본인의 움직임과 가이드 움직임 정보를 함께 확인할 수 있으며, 가이드 움직임 정보에 대응하는 자세를 취하도록 본인의 움직임을 변화시킬 수 있다. 즉, 제1 사용자는 가이드 움직임 정보에 대응되도록 자세를 변화시킬 수 있으며, 이에 따라 제1 사용자의 움직임 정보와 가이드 움직임 정보가 일치될 수 있다. The first user can check his or her own movement and guide movement information through the posture support auxiliary screen, and can change his or her movement to assume a posture corresponding to the guide movement information. That is, the first user can change his or her posture to correspond to the guide motion information, and thus the first user's motion information and the guide motion information can match.

도 14를 참조하면, 제1 사용자의 움직임 정보와 가이드 움직임 정보가 일치된 상태가 된 것을 알 수 있다. 제1 사용자의 움직임 정보가 가이드 움직임 정보와 일치됨에 따라, 제1 사용자의 움직임 정보에 대응되는 제1 캐릭터의 움직임 정보가 변화될 수 있으며, 제1 캐릭터는 제2 사용자가 선호하는 움직임 또는 포즈를 취하게 된다. 이에 따라, 제2 사용자는 제1 캐릭터와의 상호 작용에 집중력이 유지될 수 있게 된다. Referring to FIG. 14, it can be seen that the first user's motion information and the guide motion information are matched. As the motion information of the first user matches the guide motion information, the motion information of the first character corresponding to the motion information of the first user may change, and the first character may perform the movement or pose preferred by the second user. I get drunk. Accordingly, the second user can maintain concentration on interaction with the first character.

실시예에서, 캐릭터 움직임 추천부(140)는 제1 사용자 움직임 정보와 가이드 움직임 정보의 일치 여부를 판단하고, 제1 사용자 움직임 정보와 가이드 움직임 정보가 일치되는 경우, 자세 지원 보조 화면을 제1 사용자에게 제공하는 것을 종료할 수 있다. 즉, 캐릭터 움직임 추천부(140)는 제1 사용자가 제2 사용자가 선호하는 제1 캐릭터 움직임을 자연스럽게 취하는 것이 지원한 이후, 제1 사용자에게 제1 캐릭터의 동작 화면만이 제공되도록 제어할 수 있다. In an embodiment, the character motion recommendation unit 140 determines whether the first user motion information and the guide motion information match, and if the first user motion information and the guide motion information match, displays the posture support auxiliary screen to the first user. You may terminate providing it to . In other words, the character movement recommendation unit 140 may control the first user to provide only the first character's movement screen after the first user naturally takes the first character's movement preferred by the second user. .

본 발명의 실시예에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버는 사용자의 움직임에 대응하도록 캐릭터를 제어하되, 디지털 컨텐츠를 함께 이용하는 상대방 사용자의 선호 정보에 따라 캐릭터 모션을 추천하여 사용자가 상대방 사용자의 선호하는 캐릭터 동작을 취하는 것을 지원할 수 있어, 상대방 사용자가 디지털 컨텐츠 상에서의 상호 작용에 계속해서 집중하는 것을 지원할 수 있으며, 상대방 사용자의 관심과 흥미를 유발할 수 있어, 디지털 컨텐츠에서의 상호 작용 효과를 극대화할 수 있다. 또한, 사용자를 촬영한 사용자 영상을 분석하여 사용자의 선호 정보 및 움직임 추천 시점을 결정할 수 있으며, 적절한 시점에 상대방 사용자가 선호하는 캐릭터의 동작을 취하는 것이 지원될 수 있다. 또한, 실시예에 따른 사용자 환경은 사용자가 가이드 동작을 따라 상대방 사용자의 선호 캐릭터 동작을 취하는 것을 지원하여 사용자가 더욱 용이하게 상대방이 선호하는 캐릭터 자세를 취하는 것이 지원될 수 있다.The digital content providing server that supports the other party's customized character movement control according to an embodiment of the present invention controls the character to correspond to the user's movement, and recommends character motion according to the preference information of the other user who also uses the digital content so that the user can It can support the other user's preferred character actions, allowing the other user to continue to focus on the interaction on digital content, and can arouse the other user's interest and interest, thereby increasing interaction in digital content. The effect can be maximized. In addition, the user's preference information and movement recommendation timing can be determined by analyzing the user's captured video, and the other user's preferred character's movements can be supported at an appropriate time. In addition, the user environment according to the embodiment supports the user to take the other user's preferred character posture by following the guide motion, so that the user can more easily take the other user's preferred character posture.

이하, 도 15를 참조하여, 본 발명의 몇몇 실시예들에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법을 설명한다. 실시예에 따른 디지털 컨텐츠 제공 방법은 도 1 내지 도 14에 따른 시스템의 서버에서 수행되는 방법으로, 상술한 실시예와 중복되는 부분은 간략히 하거나 생략하도록 한다.Hereinafter, with reference to FIG. 15, a method of providing digital content that supports character movement control customized to the other party according to some embodiments of the present invention will be described. The method of providing digital content according to the embodiment is a method performed on the server of the system according to FIGS. 1 to 14, and parts that overlap with the above-described embodiment are simplified or omitted.

도 15는 본 발명의 몇몇 실시예들에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법의 순서도이다. Figure 15 is a flowchart of a method of providing digital content that supports character movement control customized to the other party according to some embodiments of the present invention.

도 15를 참조하면, 본 발명의 몇몇 실시예들에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법은 제1 사용자의 제1 사용자 움직임 정보를 수신하는 단계(S100), 제1 사용자 움직임 정보를 상기 제1 캐릭터 움직임 정보를 변환하는 단계(S110), 제1 캐릭터 움직임 정보 및 제1 캐릭터 정보에 기초하여 상기 제1 캐릭터의 움직임을 상기 가상 공간에 구현하는 단계(S120) 및 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 상기 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 단계(S130)를 포함한다.Referring to FIG. 15, a method of providing digital content supporting a counterpart's customized character movement control according to some embodiments of the present invention includes receiving first user movement information of a first user (S100), first user movement information Converting the first character movement information (S110), implementing the movement of the first character in the virtual space based on the first character movement information and the first character information (S120), and the second user's It includes providing first character recommended motion information to the first user based on first character preference motion information (S130).

실시예에서, 제2 사용자의 제1 캐릭터 선호 움직임 정보를 수집하는 단계를 더 포함하며, 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보는 상기 제1 캐릭터를 포함하는 제1 디지털 컨텐츠에 대한 제2 사용자의 피드백 데이터를 수집하고, 상기 수집된 피드백 데이터에 기초하여 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성될 수 있다. In an embodiment, the method further includes collecting first character preference movement information of a second user, wherein the first character preference movement information of the second user is a second user information for the first digital content including the first character. The user's feedback data may be collected, and the second user's first character preference movement information may be generated based on the collected feedback data.

또한, 단계(S130)는 상기 제1 캐릭터의 동작 화면과 구분되는 자세 지원 보조 화면으로 상기 제1 캐릭터 추천 움직임 정보를 상기 제1 사용자에게 제공하는 것을 포함하며, 상기 제1 캐릭터 추천 움직임 정보는 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 따른 가이드 움직임 정보를 포함할 수 있다. In addition, step S130 includes providing the first character recommended movement information to the first user through a posture support auxiliary screen that is distinct from the first character's action screen, and the first character recommended movement information is It may include guide movement information according to the second user's first character preference movement information.

또한, 단계(S130)는 상기 자세 지원 보조 화면에 상기 가이드 움직임 정보와 상기 제1 사용자 움직임 정보를 함께 표시하고, 상기 제1 사용자 움직임 정보와 상기 가이드 움직임 정보의 일치 여부를 판단하고, 상기 제1 사용자 움직임 정보와 상기 가이드 움직임 정보가 일치되는 경우, 상기 자세 지원 보조 화면을 상기 제1 사용자에게 제공하는 것을 종료하는 것을 포함할 수 있다.In addition, step S130 displays the guide motion information and the first user motion information together on the posture support auxiliary screen, determines whether the first user motion information and the guide motion information match, and determines whether the first user motion information matches the guide motion information. If the user movement information matches the guide movement information, providing the posture support auxiliary screen to the first user may be terminated.

또한, 단계(S130)는, 제2 사용자의 제1 캐릭터 선호 움직임 정보가 복수로 구성된 경우, 제2 사용자의 복수의 제1 캐릭터 선호 움직임 정보 중 현재 제1 사용자의 움직임 정보에서 움직임 변화 정도가 다른 제1 캐릭터 선호 움직임보다 상대적으로 적은 제1 캐릭터 선호 움직임 정보를 결정하고, 상기 결정된 제1 캐릭터 선호 움직임 정보에 대응하는 가이드 움직임 정보를 생성하여 상기 제1 캐릭터 추천 움직임 정보로 제공하는 것을 포함할 수 있다.In addition, in step S130, when the first character preference motion information of the second user consists of a plurality of first character preference motion information, the degree of motion change in the current first user's motion information among the plurality of first character preference motion information of the second user is different. It may include determining first character preference motion information that is relatively smaller than the first character preference motion, generating guide motion information corresponding to the determined first character preference motion information, and providing the guide motion information as the first character recommendation motion information. there is.

실시예에서, 제2 사용자의 제1 캐릭터 선호 움직임 정보를 수집하는 단계는 상기 제1 디지털 컨텐츠를 이용하는 제2 사용자가 촬영된 제2 사용자 영상을 상기 피드백 데이터로 수집하는 단계; 상기 제2 사용자 영상에서 상기 제2 사용자의 감정 정보를 딥러닝 기반의 미리 학습된 감정 분석 모델을 이용하여 생성하는 단계; 상기 제2 사용자의 감정 정보에서 적어도 하나의 분석 이미지를 결정하는 단계; 상기 분석 이미지의 출력 시점에 대응되는 제1 디지털 컨텐츠에서 제1 캐릭터의 움직임 정보를 수집하여 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성하는 단계; 및 상기 제2 사용자의 감정 정보에 기초하여 움직임 추천 시점을 결정하는 단계를 포함한다. In an embodiment, collecting first character preference movement information of a second user may include collecting a second user image captured by a second user using the first digital content as the feedback data; Generating emotional information of the second user from the second user image using a deep learning-based pre-trained emotional analysis model; determining at least one analysis image from the emotional information of the second user; collecting movement information of a first character from the first digital content corresponding to the output time of the analysis image and generating preferred movement information of the first character of the second user; and determining a motion recommendation point based on the emotional information of the second user.

또한, 상기 감정 분석 모델은 상기 제2 사용자 영상에서 상기 제2 사용자의 움직임 변화를 프레임별로 분석하여 상기 제2 사용자의 감정 클래스를 프레임 이미지별로 결정하도록 학습된 컨볼루션 신경망 기반의 분류 모델이며, 상기 감정 클래스는 긍정 감정 또는 부정 감정에 해당할 수 있다.In addition, the emotion analysis model is a classification model based on a convolutional neural network learned to determine the emotion class of the second user for each frame image by analyzing the movement change of the second user in the second user image for each frame, An emotion class may correspond to a positive emotion or a negative emotion.

또한, 상기 제2 사용자의 감정 정보는 상기 프레임 이미지별로 감정 클래스가 부여된 복수의 프레임 이미지가 시간에 따라 정렬되어 구성되며, 상기 움직임 추천 시점을 결정하는 단계는 상기 제2 사용자의 감정 정보에서 제2 사용자의 감정 변화를 식별하여 움직임 추천 시점을 결정할 수 있다.In addition, the emotion information of the second user is composed of a plurality of frame images to which an emotion class is assigned for each frame image arranged according to time, and the step of determining the motion recommendation point is performed by selecting the emotion information of the second user. 2 By identifying changes in the user's emotions, it is possible to determine when to recommend movement.

상기 감정 분석 모델은 Yolo(You Only Look Once) 네트워크로 구성되며, 상기 감정 분석 모델은 상기 제2 사용자 영상에서 제2 사용자 얼굴의 주요 부위 및 신체의 주요 부위 중 적어도 하나를 식별하고, 상기 식별된 얼굴의 주요 부위 및 신체 주요 부위 중 적어도 하나의 변화에 기초하여 제2 사용자의 감정 클래스를 긍정 감정 또는 부정 감정으로 결정하고, 결정된 클래스에 대한 확신값(confidence)을 함께 출력할 수 있다. 또한, 상기 분석 이미지를 결정하는 단계는 긍정 감정으로 클래스가 판단된 프레임 이미지를 먼저 추출하고, 추출된 프레임 이미지에서 미리 설정된 임계값 이상의 확신값이 부여된 프레임 이미지를 추출하여 상기 적어도 하나의 분석 이미지를 결정할 수 있다.The emotion analysis model consists of a Yolo (You Only Look Once) network, and the emotion analysis model identifies at least one of the main part of the second user's face and the main part of the body in the second user image, and the identified Based on a change in at least one of the main parts of the face and the main part of the body, the second user's emotion class can be determined as a positive emotion or a negative emotion, and a confidence value for the determined class can also be output. In addition, the step of determining the analysis image includes first extracting a frame image whose class is determined to be a positive emotion, extracting a frame image with a confidence value greater than a preset threshold from the extracted frame image, and analyzing the at least one analysis image. can be decided.

실시예에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.The method of providing digital content that supports control of the opponent's customized character movement according to the embodiment may also be implemented in the form of a computer-readable medium that stores commands and data executable by a computer. At this time, instructions and data can be stored in the form of program code, and when executed by a processor, they can generate a certain program module and perform a certain operation. Additionally, computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may be computer recording media, which are volatile and non-volatile implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules, or other data. It can include both volatile, removable and non-removable media. For example, computer recording media may be magnetic storage media such as HDDs and SSDs, optical recording media such as CDs, DVDs, and Blu-ray discs, or memory included in servers accessible through a network.

또한 실시예에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.Additionally, the method of providing digital content that supports the other party's customized character movement control according to the embodiment may be implemented as a computer program (or computer program product) including instructions executable by a computer. A computer program includes programmable machine instructions processed by a processor and may be implemented in a high-level programming language, object-oriented programming language, assembly language, or machine language. . Additionally, the computer program may be recorded on a tangible computer-readable recording medium (eg, memory, hard disk, magnetic/optical medium, or solid-state drive (SSD)).

따라서 실시예에 따른 상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.Accordingly, the method of providing digital content supporting the opponent's customized character movement control according to the embodiment can be implemented by executing the above-described computer program by a computing device. The computing device may include at least some of a processor, memory, a storage device, a high-speed interface connected to the memory and a high-speed expansion port, and a low-speed interface connected to a low-speed bus and a storage device. Each of these components is connected to one another using various buses and may be mounted on a common motherboard or in some other suitable manner.

여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.Here, the processor can process instructions within the computing device, such as displaying graphical information to provide a graphic user interface (GUI) on an external input or output device, such as a display connected to a high-speed interface. These may include instructions stored in memory or a storage device. In other embodiments, multiple processors and/or multiple buses may be utilized along with multiple memories and memory types as appropriate. Additionally, the processor may be implemented as a chipset consisting of chips including multiple independent analog and/or digital processors.

또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.Memory also stores information within a computing device. In one example, memory may be comprised of volatile memory units or sets thereof. As another example, memory may consist of non-volatile memory units or sets thereof. The memory may also be another type of computer-readable medium, such as a magnetic or optical disk.

그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.And the storage device can provide a large amount of storage space to the computing device. A storage device may be a computer-readable medium or a configuration that includes such media, and may include, for example, devices or other components within a storage area network (SAN), such as a floppy disk device, a hard disk device, an optical disk device, Or it may be a tape device, flash memory, or other similar semiconductor memory device or device array.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present embodiment, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but rather to explain it, and the scope of the technical idea of the present embodiment is not limited by these examples. The scope of protection of this embodiment should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this embodiment.

Claims (10)

제1 사용자에 대응하는 제1 캐릭터와 제2 사용자에 대응하는 제2 캐릭터가 가상 공간에서 상호 작용하는 디지털 컨텐츠를 제공하는 서버로, 상기 서버는:
상기 제1 사용자의 제1 사용자 움직임 정보를 수신하는 사용자 데이터 수집부;
상기 제1 캐릭터의 제1 캐릭터 정보를 저장하는 캐릭터 데이터 베이스;
상기 제1 사용자 움직임 정보를 상기 제1 캐릭터 움직임 정보를 변환하는 움직임 정보 변환부;
상기 제1 캐릭터 움직임 정보 및 상기 제1 캐릭터 정보에 기초하여 상기 제1 캐릭터의 움직임을 상기 가상 공간에 구현하는 컨텐츠 생성부;
상기 제1 캐릭터를 포함하는 제1 디지털 컨텐츠에 대한 제2 사용자의 피드백 데이터를 수집하고, 상기 수집된 피드백 데이터에 기초하여 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성하는 선호 정보 수집부; 및
상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 상기 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 캐릭터 움직임 추천부를 포함하는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버.
A server that provides digital content in which a first character corresponding to a first user and a second character corresponding to a second user interact in a virtual space, the server comprising:
a user data collection unit that receives first user movement information of the first user;
a character database storing first character information of the first character;
a motion information conversion unit that converts the first user motion information into the first character motion information;
a content generator that implements movement of the first character in the virtual space based on the first character movement information and the first character information;
a preference information collection unit that collects a second user's feedback data on the first digital content including the first character and generates the second user's preference movement information for the first character based on the collected feedback data; and
Comprising a character motion recommendation unit that provides first character recommendation motion information to the first user based on the first character preference motion information of the second user.
A digital content provision server that supports opponent-customized character movement control.
제1 항에 있어서,
상기 캐릭터 움직임 추천부는 상기 제1 캐릭터의 동작 화면과 구분되는 자세 지원 보조 화면으로 상기 제1 캐릭터 추천 움직임 정보를 상기 제1 사용자에게 제공하며,
상기 제1 캐릭터 추천 움직임 정보는 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 따른 가이드 움직임 정보를 포함하는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버.
According to claim 1,
The character movement recommendation unit provides the first character recommendation movement information to the first user through a posture support auxiliary screen that is distinct from the movement screen of the first character,
The first character recommended movement information includes guide movement information according to the first character preferred movement information of the second user.
A digital content provision server that supports opponent-customized character movement control.
제2 항에 있어서,
상기 캐릭터 움직임 추천부는 상기 자세 지원 보조 화면에 상기 가이드 움직임 정보와 상기 제1 사용자 움직임 정보를 함께 표시하고,
상기 캐릭터 움직임 추천부는 상기 제1 사용자 움직임 정보와 상기 가이드 움직임 정보의 일치 여부를 판단하고, 상기 제1 사용자 움직임 정보와 상기 가이드 움직임 정보가 일치되는 경우, 상기 자세 지원 보조 화면을 상기 제1 사용자에게 제공하는 것을 종료하는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버.
According to clause 2,
The character movement recommendation unit displays the guide movement information and the first user movement information together on the posture support auxiliary screen,
The character motion recommendation unit determines whether the first user motion information and the guide motion information match, and when the first user motion information and the guide motion information match, displays the posture support auxiliary screen to the first user. ending what is provided
A digital content provision server that supports opponent-customized character movement control.
제2 항에 있어서,
상기 캐릭터 움직임 추천부는,
제2 사용자의 제1 캐릭터 선호 움직임 정보가 복수로 구성된 경우, 제2 사용자의 복수의 제1 캐릭터 선호 움직임 정보 중 현재 제1 사용자의 움직임 정보에서 움직임 변화 정도가 다른 제1 캐릭터 선호 움직임보다 상대적으로 적은 제1 캐릭터 선호 움직임 정보를 결정하고,
상기 결정된 제1 캐릭터 선호 움직임 정보에 대응하는 가이드 움직임 정보를 생성하여 상기 제1 캐릭터 추천 움직임 정보로 제공하는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버.
According to clause 2,
The character movement recommendation unit,
When the first character preference movement information of the second user consists of a plurality of first character preference movement information, the degree of movement change in the current first user's movement information among the plurality of first character preference movement information of the second user is relatively greater than that of the other first character preference movements. The enemy determines the first character's preferred movement information,
Generating guide movement information corresponding to the determined first character preference movement information and providing it as the first character recommended movement information
A digital content provision server that supports opponent-customized character movement control.
제1 항에 있어서,
상기 선호 정보 수집부는
상기 제1 디지털 컨텐츠를 이용하는 제2 사용자가 촬영된 제2 사용자 영상을 상기 피드백 데이터로 수집하는 사용자 영상 수집 모듈;
상기 제2 사용자 영상에서 상기 제2 사용자의 감정 정보를 딥러닝 기반의 미리 학습된 감정 분석 모델을 이용하여 생성하는 사용자 감정 분석 모듈;
상기 제2 사용자의 감정 정보에서 적어도 하나의 분석 이미지를 결정하는 분석 이미지 결정 모듈;
상기 분석 이미지의 출력 시점에 대응되는 제1 디지털 컨텐츠에서 제1 캐릭터의 움직임 정보를 수집하여 상기 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성하는 캐릭터 선호 움직임 결정 모듈; 및
상기 제2 사용자의 감정 정보에 기초하여 움직임 추천 시점을 결정하는 움직임 추천 시점 결정 모듈을 포함하는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버.
According to claim 1,
The preference information collection department
a user image collection module that collects a second user image captured by a second user using the first digital content as the feedback data;
a user emotion analysis module that generates emotion information of the second user from the second user image using a deep learning-based pre-trained emotion analysis model;
an analysis image determination module that determines at least one analysis image from the emotional information of the second user;
a character preference motion determination module that collects motion information of the first character from the first digital content corresponding to the output time of the analysis image and generates first character preference motion information of the second user; and
Comprising a motion recommendation timing determination module that determines a movement recommendation timing based on the emotion information of the second user.
A digital content provision server that supports opponent-customized character movement control.
제5 항에 있어서,
상기 감정 분석 모델은 상기 제2 사용자 영상에서 상기 제2 사용자의 움직임 변화를 프레임별로 분석하여 상기 제2 사용자의 감정 클래스를 프레임 이미지별로 결정하도록 학습된 컨볼루션 신경망 기반의 분류 모델이며,
상기 감정 클래스는 긍정 감정 또는 부정 감정에 해당하는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버.
According to clause 5,
The emotion analysis model is a convolutional neural network-based classification model learned to determine the emotion class of the second user for each frame image by analyzing the change in movement of the second user in the second user image for each frame,
The emotion class corresponds to positive or negative emotions.
A digital content provision server that supports opponent-customized character movement control.
제6 항에 있어서,
상기 제2 사용자의 감정 정보는 상기 프레임 이미지별로 감정 클래스가 부여된 복수의 프레임 이미지가 시간에 따라 정렬되어 구성되며,
상기 움직임 추천 시점 결정 모듈은 상기 제2 사용자의 감정 정보에서 제2 사용자의 감정 변화를 식별하여 움직임 추천 시점을 결정하는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버.
According to clause 6,
The second user's emotion information is composed of a plurality of frame images to which an emotion class is assigned to each frame image, arranged according to time,
The motion recommendation timing determination module determines a movement recommendation timing by identifying a change in the emotion of the second user from the emotional information of the second user.
A digital content provision server that supports opponent-customized character movement control.
제6 항에 있어서,
상기 감정 분석 모델은 Yolo(You Only Look Once) 네트워크로 구성되며,
상기 감정 분석 모델은,
상기 제2 사용자 영상에서 제2 사용자 얼굴의 주요 부위 및 신체의 주요 부위 중 적어도 하나를 식별하고, 상기 식별된 얼굴의 주요 부위 및 신체 주요 부위 중 적어도 하나의 변화에 기초하여 제2 사용자의 감정 클래스를 긍정 감정 또는 부정 감정으로 결정하고, 결정된 클래스에 대한 확신값(confidence)을 함께 출력하며,
상기 분석 이미지 결정 모듈은 긍정 감정으로 클래스가 판단된 프레임 이미지를 먼저 추출하고, 추출된 프레임 이미지에서 미리 설정된 임계값 이상의 확신값이 부여된 프레임 이미지를 추출하여 상기 적어도 하나의 분석 이미지를 결정하는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 서버.
According to clause 6,
The sentiment analysis model consists of the Yolo (You Only Look Once) network,
The emotion analysis model is,
Identifying at least one of the main part of the second user's face and the main part of the body in the second user image, and creating an emotion class of the second user based on a change in at least one of the identified main part of the face and the main part of the body is determined as a positive or negative emotion, and the confidence value for the determined class is output together.
The analysis image determination module first extracts a frame image whose class is determined to be a positive emotion, and determines the at least one analysis image by extracting a frame image with a confidence value greater than a preset threshold from the extracted frame image.
A digital content provision server that supports opponent-customized character movement control.
제1 사용자에 대응하는 제1 캐릭터와 제2 사용자에 대응하는 제2 캐릭터가 가상 공간에서 상호 작용하는 디지털 컨텐츠를 제공하는 방법으로, 상기 방법은:
상기 제1 사용자의 제1 사용자 움직임 정보를 수신하는 단계;
상기 제1 사용자 움직임 정보를 상기 제1 캐릭터 움직임 정보를 변환하는 단계;
상기 제1 캐릭터 움직임 정보 및 상기 제1 캐릭터 정보에 기초하여 상기 제1 캐릭터의 움직임을 상기 가상 공간에 구현하는 단계; 및
상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 상기 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 단계를 포함하되,
상기 제2 사용자의 제1 캐릭터 선호 움직임 정보는 상기 제1 캐릭터를 포함하는 제1 디지털 컨텐츠에 대한 제2 사용자의 피드백 데이터를 수집하고, 상기 수집된 피드백 데이터에 기초하여 생성되는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 방법.
A method of providing digital content in which a first character corresponding to a first user and a second character corresponding to a second user interact in a virtual space, the method comprising:
Receiving first user movement information of the first user;
converting the first user motion information into the first character motion information;
implementing movement of the first character in the virtual space based on the first character movement information and the first character information; and
Providing first character recommended movement information to the first user based on the first character preferred movement information of the second user,
The first character preference movement information of the second user is generated by collecting feedback data of the second user about the first digital content including the first character and based on the collected feedback data.
A method of providing digital content that supports the opponent's customized character movement control.
제1 사용자의 제1 사용자 움직임 정보를 생성하는 제1 사용자 장치;
제2 사용자의 제2 사용자 움직임 정보를 생성하는 제2 사용자 장치; 및
상기 제1 사용자에 대응하는 제1 캐릭터와 상기 제2 사용자에 대응하는 제2 캐릭터가 가상 공간에서 상호 작용하는 디지털 컨텐츠를 생성하는 서버를 포함하되,
상기 서버는,
상기 제1 사용자의 제1 사용자 움직임 정보를 수신하는 사용자 데이터 수집부;
상기 제1 캐릭터의 제1 캐릭터 정보를 저장하는 캐릭터 데이터 베이스;
상기 제1 사용자 움직임 정보를 상기 제1 캐릭터 움직임 정보를 변환하는 움직임 정보 변환부;
상기 제1 캐릭터 움직임 정보 및 상기 제1 캐릭터 정보에 기초하여 상기 제1 캐릭터의 움직임을 상기 가상 공간에 구현하는 컨텐츠 생성부;
상기 제1 캐릭터를 포함하는 제1 디지털 컨텐츠에 대한 제2 사용자의 피드백 데이터를 수집하고, 상기 수집된 피드백 데이터에 기초하여 제2 사용자의 제1 캐릭터 선호 움직임 정보를 생성하는 선호 정보 수집부; 및
상기 제2 사용자의 제1 캐릭터 선호 움직임 정보에 기초하여 상기 제1 사용자에게 제1 캐릭터 추천 움직임 정보를 제공하는 캐릭터 움직임 추천부를 포함하는
상대방 맞춤형 캐릭터 움직임 제어를 지원하는 디지털 컨텐츠 제공 시스템.
a first user device generating first user movement information of a first user;
a second user device generating second user movement information of a second user; and
A server that generates digital content in which a first character corresponding to the first user and a second character corresponding to the second user interact in a virtual space,
The server is,
a user data collection unit that receives first user movement information of the first user;
a character database storing first character information of the first character;
a motion information conversion unit that converts the first user motion information into the first character motion information;
a content generator that implements movement of the first character in the virtual space based on the first character movement information and the first character information;
a preference information collection unit that collects a second user's feedback data on the first digital content including the first character and generates the second user's preference movement information for the first character based on the collected feedback data; and
Comprising a character motion recommendation unit that provides first character recommendation motion information to the first user based on the first character preference motion information of the second user.
A digital content provision system that supports opponent-customized character movement control.
KR1020220082489A 2022-07-05 2022-07-05 Digital content providing method and server supporting counterpart custom character motion control KR20240005419A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220082489A KR20240005419A (en) 2022-07-05 2022-07-05 Digital content providing method and server supporting counterpart custom character motion control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220082489A KR20240005419A (en) 2022-07-05 2022-07-05 Digital content providing method and server supporting counterpart custom character motion control

Publications (1)

Publication Number Publication Date
KR20240005419A true KR20240005419A (en) 2024-01-12

Family

ID=89541760

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220082489A KR20240005419A (en) 2022-07-05 2022-07-05 Digital content providing method and server supporting counterpart custom character motion control

Country Status (1)

Country Link
KR (1) KR20240005419A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (en) 2004-06-30 2004-11-17 주식회사 연세교육미디어 On/off line integrate education system using interactive publication and embodiment method thereof

Similar Documents

Publication Publication Date Title
US11670033B1 (en) Generating a background that allows a first avatar to take part in an activity with a second avatar
Jalal et al. Students’ behavior mining in e-learning environment using cognitive processes with information technologies
US10922866B2 (en) Multi-dimensional puppet with photorealistic movement
US20200302180A1 (en) Image recognition method and apparatus, terminal, and storage medium
JP6816925B2 (en) Data processing method and equipment for childcare robots
Dewan et al. A deep learning approach to detecting engagement of online learners
US20140212854A1 (en) Multi-modal modeling of temporal interaction sequences
Sharma et al. Student concentration evaluation index in an e-learning context using facial emotion analysis
TWI665658B (en) Smart robot
Lu Application of wireless network and machine learning algorithm in entrepreneurship education of remote intelligent classroom
Alshammari et al. Robotics Utilization in Automatic Vision-Based Assessment Systems From Artificial Intelligence Perspective: A Systematic Review
Celiktutan et al. Computational analysis of affect, personality, and engagement in human–robot interactions
KR20240005419A (en) Digital content providing method and server supporting counterpart custom character motion control
KR102509449B1 (en) Digital content providing method and server including counterpart custom character control
CN115132027A (en) Intelligent programming learning system and method based on multi-mode deep learning
KR102555968B1 (en) Artificial intelligence-based digital content creation device and method for generating digital content from text information
Farinelli Design and implementation of a multi-modal framework for scenic actions classification in autonomous actor-robot theatre improvisations
CN111131913A (en) Video generation method and device based on virtual reality technology and storage medium
KR102630872B1 (en) Apparatus and method for learning facial expression recognition
Ko et al. Nonverbal social behavior generation for social robots using end-to-end learning
Girgis Deep learning to assist visually impaired individuals with visual exploration
Somashekarappa Look on my thesis, ye mighty: Gaze Interaction and Social Robotics
Huang Development of Human-Computer Interaction for Holographic AIs
Talavera et al. Towards Emotion Retrieval in Egocentric PhotoStream
Ghafoor et al. CONVERSATIONAL ASSISTIVE TECHNOLOGY OF VISUALLY IMPAIRED PERSON FOR SOCIAL INTERACTION