KR20230082374A - An electronic apparatus for adaptive generation of an avatar and a method therefore - Google Patents

An electronic apparatus for adaptive generation of an avatar and a method therefore Download PDF

Info

Publication number
KR20230082374A
KR20230082374A KR1020210170236A KR20210170236A KR20230082374A KR 20230082374 A KR20230082374 A KR 20230082374A KR 1020210170236 A KR1020210170236 A KR 1020210170236A KR 20210170236 A KR20210170236 A KR 20210170236A KR 20230082374 A KR20230082374 A KR 20230082374A
Authority
KR
South Korea
Prior art keywords
avatar
user
electronic device
mode
content
Prior art date
Application number
KR1020210170236A
Other languages
Korean (ko)
Inventor
아난트 바이잘
유승동
현대은
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210170236A priority Critical patent/KR20230082374A/en
Publication of KR20230082374A publication Critical patent/KR20230082374A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Abstract

실시예들에 따라, 전자 장치 및 그 동작 방법이 개시된다. 개시된 전자 장치는, 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 사용자의 상태 정보 및 상기 전자 장치에서 출력되는 컨텐츠 특성 중 적어도 하나를 기반으로 아바타 모드를 획득하고, 컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하고, 상기 아바타 모드와 의인화 정도를 기반으로 아바타의 속성을 획득하고, 상기 획득된 아바타의 속성에 따라 상기 아바타의 랜더링을 제어한다. According to embodiments, an electronic device and an operating method thereof are disclosed. The disclosed electronic device includes a memory for storing one or more instructions; and a processor that executes the one or more instructions stored in the memory, wherein the processor executes the one or more instructions to perform an avatar mode based on at least one of state information of the user and characteristics of content output from the electronic device. is obtained, the degree of personification of the avatar is determined based on the content characteristics, properties of the avatar are obtained based on the avatar mode and degree of personification, and rendering of the avatar is controlled according to the properties of the obtained avatar.

Figure P1020210170236
Figure P1020210170236

Description

아바타를 적응적으로 생성하기 위한 전자 장치 및 그 동작 방법{An electronic apparatus for adaptive generation of an avatar and a method therefore}An electronic apparatus for adaptive generation of an avatar and a method therefore

다양한 실시예들은 전자 장치 및 그 동작 방법에 관한 것으로, 보다 구체적으로는, 사용자의 상황을 고려하여 적응적으로 아바타를 제공할 수 있는 전자 장치 및 그 동작 방법에 관한 것이다. Various embodiments relate to an electronic device and an operating method thereof, and more specifically, to an electronic device capable of adaptively providing an avatar in consideration of a user's situation and an operating method thereof.

아바타는 컴퓨터 기술에서 사용자가 스스로의 모습을 부여한 대상을 나타낸다. 예를 들어, 아바타는 컴퓨터 게임이나 소셜 네트워크 서비스 공간에서 2차원이나 3차원 모형 형태로 표현될 수 있다. An avatar represents an object to which a user has given his/her appearance in computer technology. For example, the avatar may be expressed in the form of a 2D or 3D model in a computer game or social network service space.

사용자의 환경에 따라 적응적으로 아바타를 제공할 수 있는 방안이 요구된다. A method for adaptively providing an avatar according to a user's environment is required.

다양한 실시예들은, 사용자의 상태나 전자 장치에서 출력되는 컨텐츠의 특성에 기반하여 아바타를 생성하여 제공할 수 있는 전자 장치 및 그 동작 방법을 제공하는 것을 목적으로 한다. An object of various embodiments is to provide an electronic device capable of generating and providing an avatar based on a user's state or characteristics of content output from the electronic device, and an operating method thereof.

일 실시예에 따른 전자 장치는, 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 사용자의 상태 정보 및 상기 전자 장치에서 출력되는 컨텐츠 특성 중 적어도 하나를 기반으로 아바타 모드를 획득하고, 컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하고, 상기 아바타 모드와 의인화 정도를 기반으로 아바타의 속성을 획득하고, 상기 획득된 아바타의 속성에 따라 상기 아바타의 랜더링을 제어한다. An electronic device according to an embodiment includes a memory for storing one or more instructions; and a processor that executes the one or more instructions stored in the memory, wherein the processor executes the one or more instructions to perform an avatar mode based on at least one of state information of the user and characteristics of content output from the electronic device. is obtained, the degree of personification of the avatar is determined based on the content characteristics, properties of the avatar are obtained based on the avatar mode and degree of personification, and rendering of the avatar is controlled according to the properties of the obtained avatar.

일 실시예에 따라 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 사용자의 신체, 자세, 눈 추적, 음성 특성 중 적어도 하나를 센싱하여 상기 사용자의 감정이나 의도를 판단함으로써 상기 사용자의 상태 정보를 획득할 수 있다. According to an embodiment, the processor, by executing the one or more instructions, senses at least one of the user's body, posture, eye tracking, and voice characteristics to determine the user's emotion or intention, thereby obtaining the user's state information. can be obtained

일 실시예에 따라 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 아바타 모드는, 동반자 아바타 모드, 보조자 아바타 모드, 또는 피쳐 아바타 모드 중 적어도 하나를 포함하고, 상기 사용자의 상태 정보 및 상기 컨텐츠 특성 중 적어도 하나에 기반하여 상기 동반자 아바타 모드, 상기 보조자 아바타 모드, 또는 상기 피쳐 아바타 모드 중 하나를 상기 아바타 모드로 획득할 수 있다. According to an embodiment, the processor executes the one or more instructions, so that the avatar mode includes at least one of a companion avatar mode, an assistant avatar mode, and a feature avatar mode, and the state information of the user and the content characteristics Based on at least one of the above, one of the companion avatar mode, the assistant avatar mode, and the feature avatar mode may be acquired as the avatar mode.

일 실시예에 따라 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 사용자의 상태 정보가 사용자의 감정 특징을 나타낼 때, 상기 아바타 모드를 상기 동반자 아바타 모드로 결정할 수 있다. According to an embodiment, the processor may determine the avatar mode as the companion avatar mode when the state information of the user represents the user's emotional characteristics by executing the one or more instructions.

일 실시예에 따라 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 사용자의 상태 정보가 사용자가 도움을 필요로 하는 상태를 나타낼 때, 상기 아바타 모드를 상기 보조자 아바타 모드로 결정할 수 있다. According to an embodiment, the processor may determine the avatar mode as the assistant avatar mode when the state information of the user indicates a state in which the user needs help by executing the one or more instructions.

일 실시예에 따라 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 사용자의 상태 정보가 중립을 나타낼 때, 상기 컨텐츠의 특성에 기반하여 상기 아바타 모드를 피쳐 아바타 모드로 결정할 수 있다. According to an embodiment, the processor may determine the avatar mode as a feature avatar mode based on the characteristics of the content when the state information of the user indicates neutral by executing the one or more instructions.

일 실시예에 따라 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하고, 상기 컨텐츠 특성에 따라 상기 아바타의 의인화 강도를 더 높게 결정하거나 또는 더 낮게 결정할 수 있다. According to an embodiment, by executing the one or more instructions, the processor may determine a degree of personification of the avatar based on a content characteristic, and determine a higher or lower level of personification of the avatar according to the content characteristic. there is.

일 실시예에 따라, 상기 아바타의 속성은, 상기 아바타의 캐릭터 유형, 캐릭터의 외모, 캐릭터의 행동, 캐릭터에 대해 수행되는 애니메이션 속성, 또는 캐릭터가 랜더링되는 위치 중 적어도 하나를 포함할 수 있다. According to an embodiment, the attributes of the avatar may include at least one of a character type of the avatar, an appearance of the character, a behavior of the character, properties of an animation performed on the character, or a location where the character is rendered.

일 실시예에 따라 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 아바타의 랜더링이 상기 전자 장치의 디스플레이에서 수행되도록 제어하거나 또는 상기 아바타의 랜더링이 통신으로 연결된 보조 장치에서 수행되도록 제어할 수 있다. According to an embodiment, by executing the one or more instructions, the processor may control rendering of the avatar to be performed on a display of the electronic device or control rendering of the avatar to be performed on an auxiliary device connected through communication. .

일 실시예에 따라 상기 보조 장치는 헤드 마운티드 디스플레이 (Head Mounted Display)를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 아바타가 상기 헤드 마운티드 디스플레이에서 삼차원 (3D)으로 랜더링되도록 제어할 수 있다. According to an embodiment, the auxiliary device includes a head mounted display, and the processor, by executing the one or more instructions, controls the avatar to be rendered in three dimensions (3D) on the head mounted display. can

일 실시예에 따라 전자 장치의 동작 방법은, 사용자의 상태 정보 및 상기 전자 장치에서 출력되는 컨텐츠 특성 중 적어도 하나를 기반으로 아바타 모드를 획득하는 동작, 컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하는 동작, 상기 아바타 모드와 의인화 정도를 기반으로 아바타의 속성을 획득하는 동작, 및 상기 획득된 아바타의 속성에 따라 상기 아바타의 랜더링을 제어하는 동작을 포함한다. According to an embodiment, a method of operating an electronic device includes obtaining an avatar mode based on at least one of user status information and content characteristics output from the electronic device, and determining a degree of personification of an avatar based on content characteristics. An operation of acquiring attributes of the avatar based on the avatar mode and degree of personification, and an operation of controlling rendering of the avatar according to the obtained attributes of the avatar.

일 실시예에 따라 전자 장치의 동작 방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능 기록 매체에 있어서, 상기 전자 장치의 동작 방법은, 사용자의 상태 정보 및 상기 전자 장치에서 출력되는 컨텐츠 특성 중 적어도 하나를 기반으로 아바타 모드를 획득하는 동작, 컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하는 동작, 상기 아바타 모드와 의인화 정도를 기반으로 아바타의 속성을 획득하는 동작, 및 상기 획득된 아바타의 속성에 따라 상기 아바타의 랜더링을 제어하는 동작을 포함한다. According to an embodiment, in a computer-readable recording medium on which a program for performing a method of operating an electronic device is recorded, the method of operating the electronic device includes at least one of user state information and content characteristics output from the electronic device. obtaining the avatar mode based on the content characteristics, determining the degree of personification of the avatar based on the characteristics of the content, obtaining properties of the avatar based on the avatar mode and the degree of personification, and according to the obtained properties of the avatar It includes an operation of controlling the rendering of the avatar.

본 개시서의 다양한 실시예들에 따르면, 사용자의 상태나 사용자가 시청하는 컨텐츠 중 적어도 하나에 맞는 아바타를 적절히 사용자에게 제공할 수 있다. According to various embodiments of the present disclosure, an avatar suitable for at least one of a user's state or content viewed by the user may be appropriately provided to the user.

본 개시서의 다양한 실시예들에 따르면, 사용자가 소비하고 있는 컨텐츠이 특성에 맞는 아바타를 적절히 사용자에게 제공할 수 있다. According to various embodiments of the present disclosure, an avatar suitable for the characteristics of the contents consumed by the user may be appropriately provided to the user.

본 개시서의 다양한 실시예들에 따르면, 사용자의 상태 나 사용자가 시청하는 컨텐츠 중 적어도 하나를 포함하는 사용자의 상황을 고려하여 아바타를 제공함으로써 보다 사용자 친화적인 아바타를 제공할 수 있으므로 사용자에게 보다 긍정적인 경험을 제공할 수 있다. According to various embodiments of the present disclosure, a more user-friendly avatar can be provided by providing an avatar in consideration of the user's condition including at least one of the user's status and the user's viewing content, which is more positive for the user. experience can be provided.

도 1은 다양한 실시예들에 따라 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공하는 개념을 설명하기 위한 참고도이다.
도 2는 다양한 실시예들에 따라 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공하는 시스템을 설명하기 위한 참고도이다.
도 3은 다양한 실시예들에 따라 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공하는 전자 장치의 블록도의 일 예를 나타낸다.
도 4는 다양한 실시예들에 따라 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공하는 전자 장치의 세부적인 블록도의 일 예를 나타낸다.
도 5는 일 실시예에 따라 아바타 프레임워크의 일 예를 나타낸다.
도 6은 일 실시예에 따라 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 7은 일 실시예에 따라 사용자 상태 결정 모듈 510가 사용자 상태 정보를 획득하는 방법을 설명하기 위한 참고도이다.
도 8은 일 실시예에 따라 컨텐츠 분석 모듈 520이 컨텐츠 특성 정보를 획득하는 방법을 설명하기 위한 참고도이다.
도 9는 일 실시예에 따라 아바타 모드 결정 모듈 530이 아바타 모드를 결정하는 방법을 설명하기 위한 참고도이다.
도 10은 일 실시예에 따라 아바타 의인화 정도 결정 모듈 550이 아바타 의인화 정도를 결정하는 방법을 설명하기 위한 참고도이다.
도 11은 일 실시예에 따라 아바타 속성 결정 모듈 560이 아바타의 속성을 결정하는 방법을 설명하기 위한 참고도이다.
도 12는 일 실시예에 따라 아바타 랜더링 제어 엔진 570이 아바타의 랜더링을 제어하는 방법을 설명하기 위한 참고도이다.
도 13은 일 실시예에 따라 동반자 아바타 모드에서 동작하는 전자 장치의 동작 방법의 일 예를 나타낸다.
도 14는 일 실시예에 따라 보조자 아바타 모드에서 동작하는 전자 장치의 동작 방법의 일 예를 나타낸다.
도 15는 일 실시예에 따라 보조자 아바타 모드에서 동작하는 전자 장치의 동작 방법의 일 예를 나타낸다.
도 16은 일 실시예에 따라 전자 장치 100가 아티스트 아바타를 제공하는 예를 설명하기 위한 참고도이다.
도 17은 일 실시예에 따라 전자 장치 100가 스포츠 선수 아바타를 제공하는 예를 설명하기 위한 참고도이다.
도 18은 일 실시예에 따라 사용자가 전자 장치 100를 홈 쇼핑 채널을 시청하면서 쇼핑 아이템들을 아바타를 이용하여 시착해보는 예를 설명하기 위한 참고도이다.
도 19는 일 실시예에 따라 사용자가 전자 장치 100를 조작하거나 이용할 때 문제가 발생하여 문제 해결을 위해 도움이 필요할 때 전자 장치 100가 아바타를 통해 지원을 제공하는 예를 설명하기 위한 참고도이다.
도 20은 일 실시예에 따라 아바타 커스터마이제이션을 할 수 있는 시스템을 설명하기 위한 도면이다.
1 is a reference diagram for explaining a concept of adaptively providing an avatar according to a user's content consumption environment according to various embodiments.
2 is a reference diagram for explaining a system for adaptively providing an avatar according to a user's content consumption environment according to various embodiments.
3 illustrates an example of a block diagram of an electronic device that adaptively provides an avatar according to a user's content consumption environment according to various embodiments.
4 illustrates an example of a detailed block diagram of an electronic device that adaptively provides an avatar according to a user's content consumption environment according to various embodiments.
5 shows an example of an avatar framework according to an embodiment.
6 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
7 is a reference diagram for explaining a method of acquiring user status information by the user status determination module 510 according to an exemplary embodiment.
8 is a reference diagram for explaining a method of acquiring content characteristic information by the content analysis module 520 according to an exemplary embodiment.
9 is a reference diagram for explaining a method of determining an avatar mode by the avatar mode determination module 530 according to an exemplary embodiment.
10 is a reference diagram for explaining a method of determining the degree of personification of an avatar by the avatar personification degree determining module 550 according to an exemplary embodiment.
11 is a reference diagram for explaining a method of determining an avatar attribute by an avatar attribute determination module 560 according to an exemplary embodiment.
12 is a reference diagram for explaining a method of controlling avatar rendering by the avatar rendering control engine 570 according to an exemplary embodiment.
13 illustrates an example of an operating method of an electronic device operating in companion avatar mode according to an embodiment.
14 illustrates an example of an operating method of an electronic device operating in an assistant avatar mode according to an embodiment.
15 illustrates an example of an operating method of an electronic device operating in an assistant avatar mode according to an embodiment.
16 is a reference diagram for explaining an example in which the electronic device 100 provides an artist avatar according to an embodiment.
17 is a reference diagram for explaining an example in which the electronic device 100 provides a sports player avatar according to an embodiment.
FIG. 18 is a reference diagram for explaining an example in which a user tries on shopping items using an avatar while watching a home shopping channel on the electronic device 100 according to an embodiment.
FIG. 19 is a reference diagram for explaining an example in which the electronic device 100 provides support through an avatar when a problem occurs when a user manipulates or uses the electronic device 100 and needs help to solve a problem, according to an embodiment.
20 is a diagram for explaining a system capable of customizing an avatar according to an embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected from general terms that are currently widely used as much as possible while considering the functions in the present invention, but these may vary depending on the intention of a person skilled in the art or precedent, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a certain part "includes" a certain component throughout the specification, it means that it may further include other components without excluding other components unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 개시서의 실시예들에서 "사용자"라는 용어는 제어 장치를 이용하여 디스플레이 장치의 기능 또는 동작을 제어하는 사람을 의미하며, 시청자, 관리자 또는 설치 기사를 포함할 수 있다.In the embodiments of the present disclosure, the term "user" refers to a person who controls a function or operation of a display device using a control device, and may include a viewer, a manager, or an installer.

도 1은 다양한 실시예들에 따라 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공하는 개념을 설명하기 위한 참고도이다. 1 is a reference diagram for explaining a concept of adaptively providing an avatar according to a user's content consumption environment according to various embodiments.

도 1을 참조하면, 전자 장치 100는 사용자 10에게 컨텐츠를 제공할 수 있다. 또한 전자 장치100는 컨텐츠 소비 사용자에게 아바타를 표시하거나 제어하는 프레임워크를 제공할 수 있다. Referring to FIG. 1 , the electronic device 100 may provide content to the user 10 . Also, the electronic device 100 may provide a framework for displaying or controlling avatars to content consuming users.

다양한 실시예들에 따라 전자 장치 100는 사용자에게 제공되는 컨텐츠를 분석하여 컨텐츠의 특성을 획득할 수 있다. 전자 장치 100에 의해 사용자에게 제공되는 컨텐츠는 비디오 컨텐츠, 오디오 컨텐츠, 또는 비디오 및 오디오 컨텐츠를 포함할 수 있다. 전자 장치 100는 적어도 하나 이상의 자동 콘텐츠 인식 (ACR) 이나 비디오 오디오 장면 분석 기능을 이용하여 분석함으로써 컨텐츠의 특성을 획득할 수 있다. According to various embodiments, the electronic device 100 may obtain characteristics of the content by analyzing content provided to the user. The content provided to the user by the electronic device 100 may include video content, audio content, or video and audio content. The electronic device 100 may obtain characteristics of content by analyzing using at least one automatic content recognition (ACR) or video/audio scene analysis function.

다양한 실시예들에 따라 전자 장치 100는 컨텐츠가 제공되는 사용자의 상태 정보를 획득할 수 있다. 전자 장치 100는 사용자의 신체, 자세, 눈 추적, 음성 특성 등을 감지함으로써 사용자 관찰 정보를 획득하고, 획득된 사용자 관찰 정보를 분석함으로써 사용자의 감정 인식 또는 사용자의 의도 인식을 수행하여 사용자의 상태 정보를 획득할 수 있다. 전자 장치 100는 전자 장치 100가 구비한 카메라나 마이크로폰을 통해 사용자 관찰 정보를 획득하거나 또는 전자 장치 100에 연결되어 있으며 사용자에 의해 착용된 HMD 20 등을 통해 사용자의 관찰 정보를 획득할 수 있다. According to various embodiments, the electronic device 100 may obtain status information of a user from whom content is provided. The electronic device 100 obtains user observation information by detecting the user's body, posture, eye tracking, voice characteristics, etc., and analyzes the obtained user observation information to perform user emotion recognition or user intention recognition to obtain user state information. can be obtained. The electronic device 100 may obtain user observation information through a camera or microphone provided in the electronic device 100 or through an HMD 20 connected to the electronic device 100 and worn by the user.

다양한 실시예들에 따라 전자 장치 100는 사용자의 상태 정보와 컨텐츠의 특성 정보 중 적어도 하나를 기반으로 아바타 모드를 결정할 수 있다. 일 실시예에 따라 전자 장치 100는 미리 저장된 룩업테이블 (LUT) 을 통해 아바타 모드를 획득할 수 있다. 룩업테이블은 사용자 상호작용을 기반으로 동적으로 업데이트될 수 있다. 아바타 모드는 동반자 (Companion) 모드, 보조자 (Assistant) 모드, 피쳐 (Feature) 모드 중 적어도 하나를 포함할 수 있다. 동반자 모드는 사용자의 감정 상태를 공유하기 위해 사용자의 친구나 동료, 동반자 역할을 할 수 있는 아바타 모드를 나타낼 수 있다. 보조자 모드는 사용자가 어떤 도움이 필요할 때 사용자의 요청에 반응하거나 요청에 대한 답을 제공할 수 있는 아바타 모드를 나타낼 수 있다. 보조자 모드는 가상 보조자 (Virtual Assistant) 모드로 언급될 수도 있다. 피쳐 모드는 사용자의 감정 상태나 사용자의 요청에 관한 측면 보다는 컨텐츠의 특성에 기반하여 컨텐츠 경험을 보다 확장시키는 역할을 할 수 있는 아바타 모드를 나타낼 수 있다. 일 실시예에 따라 전자 장치 100는 사용자의 상태 정보나 컨텐츠의 특성 정보에 기반하여 적응적으로 아바타 모드를 전환할 수 있다. 예를 들어, 전자 장치 100는 사용자의 상황을 고려하여 아바타 모드를 동반자 모드에서 보조자 모드로 전환할 수 있다. 이와 같이 다양한 실시예들에 따른 전자 장치 100는 사용자의 상태 정보와 컨텐츠의 특성 정보 중 적어도 하나를 기반으로 아바타 모드를 결정함으로써, 사용자의 상황이나 사용자의 환경에 적절한 아바타를 적응적으로 제공할 수 있다. According to various embodiments, the electronic device 100 may determine an avatar mode based on at least one of user status information and content characteristic information. According to an embodiment, the electronic device 100 may obtain an avatar mode through a pre-stored lookup table (LUT). The lookup table can be dynamically updated based on user interaction. The avatar mode may include at least one of a companion mode, an assistant mode, and a feature mode. The companion mode may indicate an avatar mode capable of acting as a user's friend, colleague, or companion in order to share the user's emotional state. Assistant mode may refer to an avatar mode that can respond to a user's request or provide an answer to a user's request when the user needs some assistance. Assistant mode may also be referred to as Virtual Assistant mode. The feature mode may indicate an avatar mode that may play a role of expanding the content experience based on the characteristics of the content rather than the user's emotional state or the user's request. According to an embodiment, the electronic device 100 may adaptively switch an avatar mode based on user status information or content characteristic information. For example, the electronic device 100 may switch the avatar mode from the companion mode to the assistant mode in consideration of the user's situation. As described above, the electronic device 100 according to various embodiments determines an avatar mode based on at least one of the user's status information and the content's characteristic information, thereby adaptively providing an avatar suitable for the user's situation or user's environment. there is.

다양한 실시예들에 따라 전자 장치 100는 컨텐츠의 특성 정보에 기반하여 아바타의 의인화 (anthropomorphism) 정도를 결정할 수 있다. 아바타의 의인화 정도는 아바타가 얼마나 현실적으로 인간처럼 보이고 행동하는지를 나타내는 정보를 의미할 수 있다. 의인화 정도가 높을수록 좀더 인간처럼 보이고 행동하는 것을 나타내고, 의인화 정도가 낮을수록 좀더 인간에서 멀어지는 것처럼 보이는 것을 나타낼 수 있다. According to various embodiments, the electronic device 100 may determine the degree of anthropomorphism of the avatar based on the characteristic information of the content. The degree of anthropomorphism of the avatar may refer to information indicating how realistically the avatar looks and behaves like a human. The higher the degree of anthropomorphism, the more human-like it looks and behaves, and the lower the degree of anthropomorphism, the more distant it seems.

다양한 실시예들에 따라 전자 장치 100는 아바타 모드와 아바타 의인화 정도를 기반으로 아바타의 속성 정보를 획득할 수 있다. 전자 장치 100는 아바타 모드와 아바타 의인화 정도를 기반으로 아바타의 속성 정보를 미리 저장된 룩업 테이블로부터 획득할 수 있다. 아바타의 속성 정보는, 예를 들어, 아바타 캐릭터의 외모, 행동, 성격, 애니메이션 특성 등을 나타낼 수 있다. 아바타 모드와 의인화 정도에 따라서 획득되는 아바타 속성에 따라서 아바타는 다르게 보이고 다르게 행동할 수 있다. According to various embodiments, the electronic device 100 may obtain attribute information of the avatar based on the avatar mode and the degree of personification of the avatar. The electronic device 100 may obtain avatar attribute information from a pre-stored lookup table based on the avatar mode and the degree of personification of the avatar. The attribute information of the avatar may indicate, for example, the appearance, behavior, personality, and animation characteristics of the avatar character. The avatar may look different and behave differently according to the avatar attributes obtained according to the avatar mode and the degree of personification.

다양한 실시예들에 따라 전자 장치 100는 아바타 속성 정보에 기반하여 아바타의 랜더링 30을 제어할 수 있다. 일 실시예에 따라 전자 장치 100는 아바타의 속성 정보에 기반하여 아바타가 전자 장치 100를 통해 랜더링되도록 제어할 수 있다. 일 실시예에 따라 전자 장치 100는 아바타의 속성 정보에 기반하여 아바타가 전자 장치 100에 연결된 외부 장치를 통해 랜더링되도록 제어할 수 있다. 아바타가 랜더링될 수 있는 외부 장치는 예를 들어, 사용자가 착용하고 있는 HMD, 사용자의 스마트폰, 또는 전자 장치 100에 인접해 있는 다른 디스플레이 장치 등이 될 수 있다. 일 실시예에 따라 전자 장치 100는 아바타의 속성 정보에 기반하여 아바타를 랜더링 제어할 때 아바타를 2D 또는 3D로 랜더링되도록 제어할 수 있다. 특히 전자 장치 100는 아바타가 HMD를 통해서 랜더링될 때 3D로 랜더링되도록 제어할 수 있다. According to various embodiments, the electronic device 100 may control avatar rendering 30 based on avatar attribute information. According to an embodiment, the electronic device 100 may control an avatar to be rendered through the electronic device 100 based on attribute information of the avatar. According to an embodiment, the electronic device 100 may control an avatar to be rendered through an external device connected to the electronic device 100 based on attribute information of the avatar. An external device on which the avatar can be rendered may be, for example, an HMD worn by the user, a user's smartphone, or another display device adjacent to the electronic device 100 . According to an embodiment, the electronic device 100 may control the avatar to be rendered in 2D or 3D when rendering the avatar based on attribute information of the avatar. In particular, when the avatar is rendered through the HMD, the electronic device 100 may control the avatar to be rendered in 3D.

도 2는 다양한 실시예들에 따라 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공하는 시스템을 설명하기 위한 참고도이다. 2 is a reference diagram for explaining a system for adaptively providing an avatar according to a user's content consumption environment according to various embodiments.

도 2를 참조하면, 시스템 200은 전자 장치 100, 헤드 마운티드 디스플레이 (HMD) 210, 디스플레이 장치 220, 통신 네트워크 230, 인공지능 서버 240를 포함할 수 있다. Referring to FIG. 2 , a system 200 may include an electronic device 100, a head mounted display (HMD) 210, a display device 220, a communication network 230, and an artificial intelligence server 240.

전자 장치 100는 본 개시서에 개시된 다양한 실시예에 따라 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공하는 역할을 할 수 있다. 디스플레이 장치 100는 예를 들어, 네트워크 TV, 스마트 TV, 인터넷 TV, 웹 TV, IPTV, PC 등과 같이 컨텐츠를 수신하여 출력할 수 있는 다양한 형태의 전자 장치를 포함할 수 있다. 전자 장치 100는 컨텐츠를 수신하여 표시하는 측면이라는 점에서 디스플레이 장치로 언급될 수 있는 것이고, 그 외에도 컨텐츠 수신 장치, 싱크 장치, 전자 장치, 컴퓨팅 장치 등으로 언급될 수도 있다. The electronic device 100 may play a role of adaptively providing an avatar according to a user's content consumption environment according to various embodiments disclosed in the present disclosure. The display device 100 may include various types of electronic devices capable of receiving and outputting content, such as, for example, network TV, smart TV, Internet TV, web TV, IPTV, PC, and the like. The electronic device 100 may be referred to as a display device in that it receives and displays content, and may also be referred to as a content receiving device, a sink device, an electronic device, a computing device, and the like.

헤드 마운티드 디스플레이 210는 전자 장치 100와 통신 연결하여 데이터를 주고받을 수 있다. The head mounted display 210 may transmit and receive data through communication with the electronic device 100 .

일 실시예에 따라 헤드 마운티드 디스플레이 210는 사용자 관찰 정보를 획득하고, 획득된 사용자 관찰 정보를 전자 장치 100로 제공할 수 있다. 사용자 관찰 정보는 사용자의 눈 추적을 함으로써 얻어진 눈 추적 정보나 사용자의 음성을 수신하여 얻어진 사용자 음성 데이터를 포함할 수 있다. According to an embodiment, the head mounted display 210 may obtain user observation information and provide the obtained user observation information to the electronic device 100 . The user observation information may include eye tracking information obtained by tracking the user's eyes or user voice data obtained by receiving the user's voice.

일 실시예에 따라 헤드 마운티드 디스플레이 210는 전자 장치 100로부터 아바타 랜더링 정보나 아바타 랜더링 명령을 수신하고, 수신된 아바타 랜더링 명령이나 아바타 랜더링 정보에 따라 아바타 랜더링을 수행할 수 있다. According to an embodiment, the head mounted display 210 may receive avatar rendering information or an avatar rendering command from the electronic device 100 and perform avatar rendering according to the received avatar rendering command or avatar rendering information.

디스플레이 장치 220는 전자 장치 100와 통신 연결하여 데이터를 주고받을 수 있다. The display device 220 may transmit and receive data through communication with the electronic device 100 .

일 실시예에 따라 디스플레이 장치 220는 전자 장치 100로부터 아바타 랜더링 정보나 아바타 랜더링 명령을 수신하고, 수신된 아바타 랜더링 명령이나 아바타 랜더링 정보에 따라 아바타 랜더링을 수행할 수 있다. 디스플레이 장치 220는 랜더링 수행 결과를 디스플레이에 표시되게 할 수 있다. 디스플레이 장치 220는 전자 장치 100와 통신 연결할 수 있고 디스플레이를 구비한 다양한 장치를 포함할 수 있다. 디스플레이 장치 220는 전자 장치 100와 같은 타입의 장치일 수 있다. According to an embodiment, the display device 220 may receive avatar rendering information or an avatar rendering command from the electronic device 100 and perform avatar rendering according to the received avatar rendering command or avatar rendering information. The display device 220 may display a rendering result on a display. The display device 220 can communicate with the electronic device 100 and include various devices having displays. The display device 220 may be the same type of device as the electronic device 100 .

포터블 장치 230는 전자 장치 100와 통신 연결하여 데이터를 주고받을 수 있다. The portable device 230 can communicate with the electronic device 100 and exchange data.

일 실시예에 따라 포터블 장치 230는 전자 장치 100로부터 아바타 랜더링 정보나 아바타 랜더링 명령을 수신하고, 수신된 아바타 랜더링 명령이나 아바타 랜더링 정보에 따라 아바타 랜더링을 수행할 수 있다. 포터블 장치 230는 랜더링 수행 결과를 디스플레이에 표시되게 할 수 있다. 포터블 장치 230는 전자 장치 100와 통신 연결할 수 있고 디스플레이를 구비한 다양한 개인 휴대 장치를 포함할 수 있다. 예를 들어 포터블 장치 230는 스마트 폰(smartphone), 원격 제어 장치(remote controller), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 디지털 카메라, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 캠코더, 네비게이션, 웨어러블 장치(wearable device), 스마트 와치(smart watch), 홈네트워크 장치, 보안용 장치, 의료 장치 중 적어도 하나를 포함할 수 있다. According to an embodiment, the portable device 230 may receive avatar rendering information or an avatar rendering command from the electronic device 100 and perform avatar rendering according to the received avatar rendering command or avatar rendering information. The portable device 230 may display a rendering result on a display. The portable device 230 may include various personal portable devices that can communicate with the electronic device 100 and have a display. For example, the portable device 230 includes a smartphone, a remote controller, a tablet personal computer (PC), a mobile phone, a video phone, an e-book reader, and a laptop. PC (laptop personal computer), netbook computer, digital camera, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), camcorder, navigation, wearable device, smart watch, home It may include at least one of a network device, a security device, and a medical device.

인공지능 서버 240는 전자 장치 100의 요청에 따라 하나 이상의 신경망 모델을 이용하여 전자 장치 100의 요청에 대응하는 응답을 제공할 수 있다. 예를 들어, 인공지능 서버 240는 컨텐츠 분석 요청을 전자 장치 100로부터 수신할 수 있고, 하나 이상의 신경망 모델을 이용하여 컨텐츠 분석을 수행한 결과 데이터를 전자 장치 100로 제공할 수 있다. The artificial intelligence server 240 may provide a response corresponding to the request of the electronic device 100 by using one or more neural network models according to the request of the electronic device 100 . For example, the artificial intelligence server 240 may receive a content analysis request from the electronic device 100, perform content analysis using one or more neural network models, and provide result data to the electronic device 100.

매칭 서버 250는 전자 장치 100로부터 컨텐츠의 핑거프린트를 수신하고 수신된 핑거프린트를 이용하여 컨텐츠를 인식하고 인식된 컨텐츠에 대한 정보를 전자 장치 100로 제공할 수 있다. The matching server 250 may receive a fingerprint of the content from the electronic device 100, recognize the content using the received fingerprint, and provide information on the recognized content to the electronic device 100.

도 3은 다양한 실시예들에 따라 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공하는 전자 장치의 블록도의 일 예를 나타낸다. 3 illustrates an example of a block diagram of an electronic device that adaptively provides an avatar according to a user's content consumption environment according to various embodiments.

도 3을 참조하면, 전자 장치 100는 메모리 110와 프로세서 120를 포함할 수 있다. Referring to FIG. 3 , an electronic device 100 may include a memory 110 and a processor 120 .

메모리 110는 전자 장치 100의 동작에 관련된 프로그램, 전자 장치 100의 동작 중에 발생하는 각종 데이터를 저장할 수 있다. The memory 110 may store programs related to the operation of the electronic device 100 and various data generated during the operation of the electronic device 100 .

제어부 120는 하나 이상의 프로세서를 포함하여 전자 장치 100의 전반적인 동작을 제어할 수 있다. 제어부 120는 메모리 110에 저장된 하나 이상의 인스트럭션을 실행함으로써 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공할 수 있다. The controller 120 may control overall operations of the electronic device 100 by including one or more processors. The controller 120 may adaptively provide an avatar according to the user's content consumption environment by executing one or more instructions stored in the memory 110 .

일 실시예에 따른 제어부 120는 하나 이상의 인스트럭션을 실행함으로써, 사용자의 상태 정보 및 상기 전자 장치에서 출력되는 컨텐츠 특성 중 적어도 하나를 기반으로 아바타 모드를 획득하고, 컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하고, 상기 아바타 모드와 의인화 정도를 기반으로 아바타의 속성을 획득하고, 상기 획득된 아바타의 속성에 따라 상기 아바타의 랜더링을 제어한다. By executing one or more instructions, the controller 120 according to an embodiment obtains an avatar mode based on at least one of user state information and content characteristics output from the electronic device, and determines the degree of personification of the avatar based on the content characteristics. and the attributes of the avatar are acquired based on the avatar mode and degree of personification, and rendering of the avatar is controlled according to the obtained attributes of the avatar.

일 실시예에 따른 제어부 120는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 사용자의 신체, 자세, 눈 추적, 음성 특성 중 적어도 하나를 센싱하여 상기 사용자의 감정이나 의도를 판단함으로써 상기 사용자의 상태 정보를 획득할 수 있다. The control unit 120 according to an embodiment obtains the user's state information by sensing at least one of the user's body, posture, eye tracking, and voice characteristics to determine the user's emotion or intention by executing the one or more instructions. can do.

일 실시예에 따른 제어부 120는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 아바타 모드는, 동반자 아바타 모드, 보조자 아바타 모드, 또는 피쳐 아바타 모드 중 적어도 하나를 포함하고, 상기 사용자의 상태 정보 및 상기 컨텐츠 특성 중 적어도 하나에 기반하여 상기 동반자 아바타 모드, 상기 보조자 아바타 모드, 또는 상기 피쳐 아바타 모드 중 하나를 상기 아바타 모드로 획득할 수 있다. The controller 120 according to an embodiment executes the one or more instructions, so that the avatar mode includes at least one of a companion avatar mode, an assistant avatar mode, and a feature avatar mode, and among the state information of the user and the content characteristics Based on at least one, one of the companion avatar mode, the assistant avatar mode, and the feature avatar mode may be obtained as the avatar mode.

일 실시예에 따른 제어부 120는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 사용자의 상태 정보가 사용자의 감정 특징을 나타낼 때, 상기 아바타 모드를 상기 동반자 아바타 모드로 결정할 수 있다. The controller 120 according to an embodiment may determine the avatar mode as the companion avatar mode when the user state information indicates the user's emotional characteristics by executing the one or more instructions.

일 실시예에 따른 제어부 120는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 사용자의 상태 정보가 사용자가 도움을 필요로 하는 상태를 나타낼 때, 상기 아바타 모드를 상기 보조자 아바타 모드로 결정할 수 있다. The controller 120 according to an embodiment may determine the avatar mode as the assistant avatar mode when the user state information indicates a state in which the user needs help by executing the one or more instructions.

일 실시예에 따른 제어부 120는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 사용자의 상태 정보가 중립을 나타낼 때, 상기 컨텐츠의 특성에 기반하여 상기 아바타 모드를 피쳐 아바타 모드로 결정할 수 있다. According to an embodiment, the controller 120 may determine the avatar mode as a feature avatar mode based on the characteristics of the content when the status information of the user indicates neutral by executing the one or more instructions.

일 실시예에 따른 제어부 120는 상기 하나 이상의 인스트럭션을 실행함으로써, 컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하고, 상기 컨텐츠 특성에 따라 상기 아바타의 의인화 강도를 더 높게 결정하거나 또는 더 낮게 결정할 수 있다. By executing the one or more instructions, the controller 120 according to an embodiment may determine the degree of personification of the avatar based on the content characteristics, and may determine the strength of the personification of the avatar to be higher or lower according to the characteristics of the content. .

일 실시예에 따라, 상기 아바타의 속성은, 상기 아바타의 캐릭터 유형, 캐릭터의 외모, 캐릭터의 행동, 캐릭터에 대해 수행되는 애니메이션 속성, 또는 캐릭터가 랜더링되는 위치 중 적어도 하나를 포함할 수 있다. According to an embodiment, the attributes of the avatar may include at least one of a character type of the avatar, an appearance of the character, a behavior of the character, properties of an animation performed on the character, or a location where the character is rendered.

일 실시예에 따른 제어부 120는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 아바타의 랜더링이 상기 전자 장치의 디스플레이에서 수행되도록 제어하거나 또는 상기 아바타의 랜더링이 통신으로 연결된 보조 장치에서 수행되도록 제어할 수 있다. By executing the one or more instructions, the controller 120 according to an embodiment may control rendering of the avatar to be performed on the display of the electronic device or control rendering of the avatar to be performed on an auxiliary device connected through communication.

도 4는 다양한 실시예들에 따라 사용자의 컨텐츠 소비 환경에 따라 적응적으로 아바타를 제공하는 전자 장치의 세부적인 블록도의 일 예를 나타낸다. 4 illustrates an example of a detailed block diagram of an electronic device that adaptively provides an avatar according to a user's content consumption environment according to various embodiments.

도 4를 참조하면, 전자 장치 100는 메모리 110 및 제어부 120 외에, 디스플레이 130, 비디오 처리부 135, 오디오 출력부 140, 오디오 처리부 145, 통신부 150, 감지부 160, 사용자 입력부 170, 입/출력부 180, 아바타 프레임워크 500를 더 포함할 수 있다. Referring to FIG. 4 , the electronic device 100 includes, in addition to a memory 110 and a control unit 120, a display 130, a video processing unit 135, an audio output unit 140, an audio processing unit 145, a communication unit 150, a sensing unit 160, a user input unit 170, an input/output unit 180, An avatar framework 500 may be further included.

디스플레이 130는 비디오 처리부 135로부터 수신된 영상 신호를 화면에 표시할 수 있다. 디스플레이 130는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(4D display), 전기 영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. The display 130 may display the video signal received from the video processing unit 135 on the screen. The display 130 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a 4D display. , at least one of electrophoretic displays.

비디오 처리부 135는 제어부 120의 제어에 의해 각종 소스로부터 비디오 신호를 수신하고 수신된 비디오 신호를 처리하여 디스플레이 130로 제공할 수 있다. The video processor 135 may receive video signals from various sources under the control of the controller 120, process the received video signals, and provide the received video signals to the display 130.

오디오 출력부 140는 수신되는 아날로그 오디오 신호를 스피커를 통해 출력할 수 있다. The audio output unit 140 may output a received analog audio signal through a speaker.

오디오 처리부 145는 제어부 120의 제어에 따라, 입출력부 180 또는 통신부 150로부터 수신되는 오디오 신호를 아날로그 오디오 신호로 변환하여 오디오 출력부 140로 출력할 수 있다. The audio processor 145 may convert an audio signal received from the input/output unit 180 or the communication unit 150 into an analog audio signal and output the analog audio signal to the audio output unit 140 under the control of the controller 120 .

통신부 150는 전자 장치 100과 무선 통신 시스템 사이 또는 전자 장치 100과 다른 전자 장치가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 통신부 150는 방송 수신 모듈 151, 이동통신 모듈 152, 무선 인터넷 모듈 153 및 근거리 통신 모듈 154을 포함할 수 있다. The communication unit 150 may include one or more modules enabling wireless communication between the electronic device 100 and a wireless communication system or between the electronic device 100 and a network where other electronic devices are located. For example, the communication unit 150 may include a broadcast reception module 151, a mobile communication module 152, a wireless Internet module 153, and a short-distance communication module 154.

이동통신 모듈 152는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication module 152 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include a voice call signal, a video call signal, or various types of data according to text/multimedia message transmission/reception.

무선 인터넷 모듈 153은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 디바이스에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(WiFi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. 상기 무선 인터넷 모듈 153을 통해서 상기 디바이스는 다른 디바이스와 와이 파이(Wi-Fi) P2P(Peer to Peer)연결을 할 수 있다. The wireless Internet module 153 refers to a module for wireless Internet access, and may be built into or external to a device. Wireless Internet technologies include wireless LAN (WLAN) (WiFi), wireless broadband (Wibro), world interoperability for microwave access (Wimax), high speed downlink packet access (HSDPA), and the like. Through the wireless Internet module 153, the device can establish a Wi-Fi peer to peer (P2P) connection with other devices.

일 예에 따라 제어부 120이 제에 의해 무선 인터넷 모듈 153은 인공지능 서버 240 나 매칭 서버 250와 통신 연결할 수 있다. According to an example, the wireless Internet module 153 may communicate with the artificial intelligence server 240 or the matching server 250 according to the control unit 120 .

근거리 통신 모듈 154은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다. The short-distance communication module 154 refers to a module for short-distance communication. Bluetooth, Bluetooth Low Energy (BLE), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used as short-distance communication technologies.

일 예에 따라 근거리 통신 모듈 154는 제어부 120의 제어에 의해 HMD 210, 디스플레이 장치 220, 또는 포터블 장치 230 중 하나 이상의 장치와 통신 연결하여, 데이터를 송수신할 수 있다. According to an example, the short-distance communication module 154 may communicate with one or more of the HMD 210, the display device 220, and the portable device 230 under the control of the controller 120 to transmit and receive data.

감지부 160는 사용자의 음성, 사용자의 영상, 또는 사용자의 인터랙션을 감지하며, 마이크161, 카메라부 162, 및 광 수신부 163를 포함할 수 있다. The sensing unit 160 senses a user's voice, a user's video, or a user's interaction, and may include a microphone 161, a camera unit 162, and a light receiving unit 163.

마이크 161은 사용자의 발화(utterance)된 음성을 수신할 수 있고 수신된 음성을 전기 신호로 변환하여 제어부 120로 출력할 수 있다. The microphone 161 may receive a user's utterance and convert the received voice into an electrical signal to output to the control unit 120 .

카메라부 162는 센서 및 렌즈를 포함하고, 화면에 맺힌 이미지를 촬영할 수 있다. The camera unit 162 includes a sensor and a lens, and may capture an image formed on the screen.

광 수신부 163는, 광 신호를 수신할 수 있다. 광 수신부 163는 리모컨이나 핸드폰 등과 같은 제어 장치로부터 사용자 입력(예를 들어, 터치, 눌림, 터치 제스처, 음성, 또는 모션)에 대응되는 광 신호를 수신할 수 있다. The light receiving unit 163 may receive an optical signal. The light receiving unit 163 may receive an optical signal corresponding to a user input (eg, touch, pressing, touch gesture, voice, or motion) from a control device such as a remote control or a mobile phone.

사용자 입력부 170는 사용자가 전자 장치 100를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부 170는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드, 조그 휠, 조그 스위치 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The user input unit 170 means a means through which the user inputs data for controlling the electronic device 100 . For example, the user input unit 170 may include, but is not limited to, a key pad, a dome switch, a touch pad, a jog wheel, and a jog switch.

입/출력부 180는 제어부 120의 제어에 의해 전자 장치 100의 외부에서부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신할 수 있다. 입/출력부 180는 HDMI 포트(High-Definition Multimedia Interface port, 181, 컴포넌트 잭(component jack, 182), PC 포트(PC port, 183), 및 USB 포트(USB port, 184) 중 하나를 포함하거나, 하나 이상의 조합을 포함할 수 있다. 입/출력부 180는 HDMI 포트 이외에도 디스플레이 포트 (DisplayPort; DP), 썬더볼트 (Thunderbolt), MHL (Mobile High-Definition Link)를 더 포함할 수 있다. The input/output unit 180 transmits video (eg, motion picture, etc.), audio (eg, voice, music, etc.) and additional information (eg, EPG, etc.) from the outside of the electronic device 100 under the control of the controller 120. etc. can be received. The input/output unit 180 includes one of an HDMI port (High-Definition Multimedia Interface port, 181, a component jack, 182), a PC port (PC port, 183), and a USB port (USB port, 184), or In addition to the HDMI port, the input/output unit 180 may further include DisplayPort (DP), Thunderbolt, and Mobile High-Definition Link (MHL).

메모리 120는 디스플레이 장치 100의 동작에 관련된 프로그램, 디스플레이 장치 100의 동작 중에 발생하는 각종 데이터를 저장할 수 있다. The memory 120 may store programs related to the operation of the display device 100 and various data generated during operation of the display device 100 .

아바타 프레임워크 500는 본 개시서에 개시된 실시예들에 따라 사용자의 상태나 환경에 맞게 아바타를 제공하도록 동작될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 아바타 프레임워크 500는 전자 장치 100의 동작 중 백그라운드 프로세스로 실행되며, 사용자의 발화 등에 의해 트리거 되어 실행되거나, 또는 사용자의 요청에 따라 실행될 수도 있을 것이다. 아바타 프레임워크 500는 도 5를 참조하여 상세히 설명한다. The avatar framework 500 may include appropriate logic, circuitry, interfaces, and/or code that may operate to provide an avatar suitable for a user's condition or environment according to embodiments disclosed in this disclosure. The avatar framework 500 is executed as a background process during the operation of the electronic device 100, and may be triggered and executed by a user's speech or the like, or may be executed according to a user's request. The avatar framework 500 will be described in detail with reference to FIG. 5 .

도 5는 일 실시예에 따라 아바타 프레임워크의 일 예를 나타낸다. 5 shows an example of an avatar framework according to an embodiment.

도 5를 참조하면, 일 실시예에 따라 아바타 프레임워크 500는 사용자 상태 결정 모듈 510, 컨텐츠 분석 모듈 520, 아바타 모드 결정 모듈 530, 아바타 모드 룩업테이블 540, 아바타 의인화 강도 결정 모듈 550, 아바타 속성 결정 모듈 560, 아바타 랜더링 제어 엔진 570을 포함할 수 있다. Referring to FIG. 5 , according to an embodiment, the avatar framework 500 includes a user state determination module 510, a content analysis module 520, an avatar mode determination module 530, an avatar mode lookup table 540, an avatar personification strength determination module 550, and an avatar attribute determination module. 560, and an avatar rendering control engine 570.

사용자 상태 결정 모듈 510은 전자 장치 100가 제공하는 컨텐츠를 소비하는 사용자의 상태 정보를 획득하도록 동작될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 사용자 상태 결정 모듈 510은 획득된 사용자 상태 정보를 아바타 모드 결정 모듈 530로 제공할 수 있다. 사용자 상태 결정 모듈 510은 사용자의 신체, 자세, 눈 추적, 음성 특성 등을 감지함으로써 사용자 관찰 정보를 획득하고, 획득된 사용자 관찰 정보를 분석함으로써 사용자의 감정 인식 또는 사용자의 의도 인식을 수행하여 사용자의 상태 정보를 획득할 수 있다. 사용자 상태 결정 모듈 510은 카메라나 마이크로폰을 통해 사용자 관찰 정보를 획득하거나 또는 전자 장치 100에 연결되어 있으며 사용자에 의해 착용된 HMD 210 등을 통해 사용자의 관찰 정보를 획득할 수 있다. The user state determination module 510 may include appropriate logic, circuits, interfaces, and/or codes operable to obtain state information of a user consuming content provided by the electronic device 100 . The user status determination module 510 may provide the obtained user status information to the avatar mode determination module 530 . The user state determination module 510 acquires user observation information by detecting the user's body, posture, eye tracking, voice characteristics, etc., and analyzes the obtained user observation information to perform user emotion recognition or user intention recognition to determine the user's status information can be obtained. The user state determination module 510 may obtain user observation information through a camera or a microphone, or may acquire user observation information through an HMD 210 connected to the electronic device 100 and worn by the user.

컨텐츠 분석 모듈 520은 사용자에게 제공되는 컨텐츠를 분석하여 컨텐츠의 특성을 획득하도록 동작될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 컨텐츠 분석 모듈 520은 획득된 컨텐츠 특성 정보를 아바타 모드 결정 모듈 530로 제공할 수 있다. 전자 장치 100에 의해 사용자에게 제공되는 컨텐츠는 비디오 컨텐츠, 오디오 컨텐츠, 또는 비디오 및 오디오 컨텐츠를 포함할 수 있다. 컨텐츠 분석 모듈 520은 적어도 하나 이상의 자동 콘텐츠 인식 (ACR) 이나 비디오 오디오 장면 분석 기능을 이용하여 분석함으로써 컨텐츠의 특성을 획득할 수 있다. The content analysis module 520 may include suitable logic, circuitry, interfaces, and/or code operable to analyze content provided to a user and obtain characteristics of the content. The content analysis module 520 may provide the obtained content characteristic information to the avatar mode determination module 530 . The content provided to the user by the electronic device 100 may include video content, audio content, or video and audio content. The content analysis module 520 may acquire characteristics of content by analyzing using at least one automatic content recognition (ACR) or video/audio scene analysis function.

아바타 모드 결정 모듈 530은 사용자 상태 결정 모듈 510로부터 수신한 사용자의 상태 정보와 컨텐츠 분석 모듈 520로부터 수신한 컨텐츠의 특성 정보 중 적어도 하나를 기반으로 아바타 모드를 결정하도록 동작될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 아바타 모드 결정 모듈 530은 결정된 아바타 모드를 아바타 속성 결정 모듈 560로 제공할 수 있다. 일 실시예에 따라 아바타 모드 결정 모듈 530은 미리 저장된 룩업테이블 (LUT) 을 통해 아바타 모드를 획득할 수 있다. 룩업테이블은 사용자 상호작용을 기반으로 동적으로 업데이트될 수 있다. 아바타 모드는 동반자 (Companion) 모드, 보조자 (Assistant) 모드, 피쳐 (Feature) 모드 중 적어도 하나를 포함할 수 있다. 일 실시예에 따라 아바타 모드 결정 모듈 530은 사용자의 상태 정보나 컨텐츠의 특성 정보에 기반하여 적응적으로 아바타 모드를 전환할 수 있다. 예를 들어, 아바타 모드 결정 모듈 530은 사용자의 상황을 고려하여 아바타 모드를 동반자 모드에서 보조자 모드로 전환할 수 있다. 이와 같이 다양한 실시예들에 따른 아바타 모드 결정 모듈 530은 사용자의 상태 정보와 컨텐츠의 특성 정보 중 적어도 하나를 기반으로 아바타 모드를 결정함으로써, 사용자의 상황이나 사용자의 환경에 적절한 아바타를 적응적으로 제공할 수 있다. The avatar mode determination module 530 may determine an avatar mode based on at least one of the user state information received from the user state determination module 510 and content characteristic information received from the content analysis module 520, suitable logic, circuitry, and It may contain interfaces and/or code. The avatar mode determination module 530 may provide the determined avatar mode to the avatar attribute determination module 560 . According to an embodiment, the avatar mode determination module 530 may obtain an avatar mode through a pre-stored lookup table (LUT). The lookup table can be dynamically updated based on user interaction. The avatar mode may include at least one of a companion mode, an assistant mode, and a feature mode. According to an embodiment, the avatar mode determination module 530 may adaptively switch an avatar mode based on user state information or content characteristic information. For example, the avatar mode determination module 530 may switch the avatar mode from the companion mode to the assistant mode in consideration of the user's situation. As described above, the avatar mode determination module 530 according to various embodiments determines an avatar mode based on at least one of the user's state information and content characteristic information, thereby adaptively providing an avatar suitable for the user's situation or user's environment. can do.

아바타 의인화 강도 결정 모듈 550는 컨텐츠 분석 모듈 520로부터 수신한 컨텐츠의 특성 정보에 기반하여 아바타의 의인화 (anthropomorphism) 정도를 결정하도록 동작될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 아바타의 의인화 정도는 아바타가 얼마나 현실적으로 인간처럼 보이고 행동하는지를 나타내는 정보를 의미할 수 있다. 의인화 정도가 높을수록 좀더 인간처럼 보이고 행동하는 것을 나타내고, 의인화 정도가 낮을수록 좀더 인간에서 멀어지는 것처럼 보이는 것을 나타낼 수 있다. 아바타 의인화 강도 결정 모듈 550은 결정된 아바타 의인화 강도를 아바타 속성 결정 모듈 560로 제공할 수 있다. The avatar anthropomorphism strength determination module 550 may include suitable logic, circuitry, interfaces and/or codes operable to determine the degree of anthropomorphism of the avatar based on the content characteristic information received from the content analysis module 520. . The degree of anthropomorphism of the avatar may refer to information indicating how realistically the avatar looks and behaves like a human. The higher the degree of anthropomorphism, the more human-like it looks and behaves, and the lower the degree of anthropomorphism, the more distant it seems. The avatar personification strength determination module 550 may provide the determined avatar personification strength to the avatar attribute determination module 560 .

아바타 속성 결정 모듈 560는 아바타 모드 결정 모듈 530로부터 수신된 아바타 모드와 아바타 의인화 강도 결정 모듈 550로부터 수신한 아바타 의인화 정도를 기반으로 아바타의 속성 정보를 획득하도록 동작될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 아바타 속성 결정 모듈 560는 획득된 아바타 속성 정보를 아바타 랜더링 제어 엔진 570으로 제공할 수 있다. 아바타 속성 결정 모듈 560는 아바타 모드와 아바타 의인화 정도를 기반으로 아바타의 속성 정보를 미리 저장된 룩업테이블로부터 획득할 수 있다. 아바타의 속성 정보는, 예를 들어, 아바타 캐릭터의 외모, 행동, 성격, 애니메이션 특성 등을 나타낼 수 있다. 아바타 모드와 의인화 정도에 따라서 획득되는 아바타 속성에 따라서 아바타는 다르게 보이고 다르게 행동할 수 있다. The avatar attribute determination module 560 may include suitable logic, circuitry, interfaces, and logic operable to obtain avatar attribute information based on the avatar mode received from the avatar mode determination module 530 and the degree of avatar anthropomorphism received from the avatar anthropomorphism strength determination module 550. /or may contain code. The avatar attribute determination module 560 may provide the obtained avatar attribute information to the avatar rendering control engine 570 . The avatar attribute determination module 560 may obtain attribute information of the avatar based on the avatar mode and the degree of personification of the avatar from a pre-stored lookup table. The attribute information of the avatar may indicate, for example, the appearance, behavior, personality, and animation characteristics of the avatar character. The avatar may look different and behave differently according to the avatar attributes obtained according to the avatar mode and the degree of personification.

아바타 랜더링 제어 엔진 570는 아바타 속성 결정 모듈 560로부터 수신한 아바타 속성 정보에 기반하여 아바타의 랜더링을 제어하도록 동작될 수 있는 적절한 로직, 회로, 인터페이스 및/또는 코드를 포함할 수 있다. 일 실시예에 따라 아바타 랜더링 제어 엔진 570는 아바타의 속성 정보에 기반하여 아바타가 전자 장치 100를 통해 랜더링되도록 제어할 수 있다. 일 실시예에 따라 아바타 랜더링 제어 엔진 570는 아바타의 속성 정보에 기반하여 아바타가 전자 장치 100에 연결된 외부 장치를 통해 랜더링되도록 제어할 수 있다. 아바타가 랜더링될 수 있는 외부 장치는 예를 들어, 사용자가 착용하고 있는 HMD 210, 전자 장치 100에 인접해 있는 다른 디스플레이 장치 220, 또는 사용자의 포터블 장치 230 등이 될 수 있다. The avatar rendering control engine 570 may include suitable logic, circuitry, interfaces and/or codes operable to control rendering of an avatar based on avatar property information received from the avatar property determination module 560 . According to an embodiment, the avatar rendering control engine 570 may control an avatar to be rendered through the electronic device 100 based on attribute information of the avatar. According to an embodiment, the avatar rendering control engine 570 may control an avatar to be rendered through an external device connected to the electronic device 100 based on attribute information of the avatar. An external device on which the avatar can be rendered may be, for example, the HMD 210 worn by the user, another display device 220 adjacent to the electronic device 100, or the user's portable device 230.

도 6은 일 실시예에 따라 전자 장치의 동작 방법을 나타내는 흐름도이다. 6 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.

도 6을 참조하면, 동작 610에서, 전자 장치 100는 사용자의 상태 정보 및 전자 장치 100에 출력되는 컨텐츠의 특성 정보 중 적어도 하나를 기반으로 아바타 모드를 획득할 수 있다. Referring to FIG. 6 , in operation 610, the electronic device 100 may acquire an avatar mode based on at least one of user state information and content characteristic information output to the electronic device 100.

구체적으로 사용자의 상태 정보는 전자 장치 100의 사용자 상태 결정 모듈 510에 의해 획득될 수 있다. 사용자의 상태 정보를 획득하는 방법을 도 7을 참조하여 설명한다. In detail, user status information may be obtained by the user status determination module 510 of the electronic device 100 . A method of acquiring user status information will be described with reference to FIG. 7 .

도 7은 일 실시예에 따라 사용자 상태 결정 모듈 510가 사용자 상태 정보를 획득하는 방법을 설명하기 위한 참고도이다. 7 is a reference diagram for explaining a method of acquiring user status information by the user status determination module 510 according to an exemplary embodiment.

사용자 상태는 사용자의 감정 또는 의도를 나타낼 수 있다. 사용자 상태 결정 모듈 510은 사용자 20를 이해하기 위해 사용자의 표정, 신체, 자세, 눈 추적, 음성 특성 중 적어도 하나를 포함하는 사용자 관찰 정보 710를 획득할 수 있다. A user state may represent a user's emotion or intention. In order to understand the user 20 , the user state determination module 510 may obtain user observation information 710 including at least one of facial expression, body, posture, eye tracking, and voice characteristics of the user.

일 실시예에 따라 사용자 상태 결정 모듈 510은 전자 장치 100의 카메라를 이용하여 사용자의 표정이나 신체, 자세 등을 캡쳐할 수 있다. 일 실시예에 따라 사용자 상태 결정 모듈 510은 전자 장치 100의 마이크로폰을 이용하여 사용자의 음성 데이터를 수신할 수 있다. According to an embodiment, the user state determination module 510 may capture the user's expression, body, or posture using the camera of the electronic device 100 . According to an embodiment, the user state determination module 510 may receive user voice data using the microphone of the electronic device 100 .

일 실시예에 따라 사용자 상태 결정 모듈 510은 전자 장치 100에 연결된 외부 장치, 예를 들어 HMD 210로부터 사용자 관찰 정보 710를 수신할 수 있다. 예를 들어, 사용자 상태 결정 모듈 510은 HMD 210의 눈 추적 센서, 마이크로폰 또는 손 추적 센서를 통해 획득된 눈 추적 정보, 음성 데이터, 손 추적 정보를 수신할 수 있다. According to an embodiment, the user state determination module 510 may receive user observation information 710 from an external device connected to the electronic device 100, for example, the HMD 210. For example, the user state determination module 510 may receive eye tracking information, voice data, and hand tracking information acquired through an eye tracking sensor, a microphone, or a hand tracking sensor of the HMD 210 .

일 실시예에 따라 사용자 상태 결정 모듈 510은 이와 같이 수집된 사용자 관찰 정보 710를 기반으로 사용자의 감정이나 의도 720를 결정할 수 있다. 사용자 상태 결정 모듈 510은 하나 이상의 인공 지능 모델을 이용하여 사용자 관찰 정보에 기반하여 사용자의 의도나 감정을 판단하고 사용자의 상태 정보 730를 결정할 수 있다. 사용자 상태 정보를 제1상태, 제2상태, 제3 상태 등 하나 이상의 상태 정보를 포함할 수 있다. 사용자 상태 결정 모듈 510은 사용자 관찰 정보에 기반하여 복수의 사용자 상태 중 하나로 결정할 수 있다. 예를 들어, 눈 추적 데이터를 기반으로 인공 지능 모델은 사용자의 감정을 외로움을 느끼는 것으로 분류할 수 있다. 다른 실시 예에서, 다중 모달 데이터 분석 및 분류를 통해 인공지능 모델은 사용자의 의도를 지원이 필요한 것으로 분류할 수 있다. 예를 들어, 인공지능 모델은 사용자 상태를 외롭다고 느끼거나, 도움이 필요하거나 또는 중립적이라고 하는 세 가지 범주로 분류할 수 있다. 이하에서 설명될 것이지만, 사용자 상태가 외로움을 느끼는 것으로 분류되면 아바타의 모드는 동반자로 결정될 수 있다. 사용자 상태가 도움이 필요한 것으로 결정될 때, 아바타의 모드는 보조자 모드로 결정될 수 있다. 사용자 상태가 느낌 중립으로 결정되면 아바타가 이전 모드를 유지하거나 TV 콘텐츠의 분석을 바탕으로 아바타 모드가 결정될 수 있다. 사용자 상태 정보와 최적 아바타 모드의 관계는 미리 정의된 LUT에 저장될 수 있다.According to an embodiment, the user state determination module 510 may determine the user's emotion or intention 720 based on the user observation information 710 collected in this way. The user state determination module 510 may determine the user's intention or emotion based on the user observation information using one or more artificial intelligence models and may determine the user state information 730 . The user state information may include one or more state information such as a first state, a second state, and a third state. The user state determination module 510 may determine one of a plurality of user states based on user observation information. For example, based on eye-tracking data, an artificial intelligence model can classify a user's emotion as feeling lonely. In another embodiment, through multi-modal data analysis and classification, the artificial intelligence model can classify the user's intent as requiring support. For example, AI models can classify user status into three categories: feeling lonely, needing help, or neutral. As will be described below, if the user status is classified as feeling lonely, the mode of the avatar may be determined as a companion. When the user status is determined to require assistance, the mode of the avatar may be determined to be an assistant mode. If the user state is determined to be feeling neutral, the avatar maintains the previous mode or the avatar mode may be determined based on analysis of TV content. The relationship between the user state information and the optimal avatar mode may be stored in a predefined LUT.

다음 도 6으로 돌아가서 전자 장치 100는 전자 장치 100에서 출력되는 컨텐츠 특성 정보를 획득할 수 있다. 구체적으로 컨텐츠의 특성 정보는 전자 장치 100의 컨텐츠 분석 모듈 520에 의해 획득될 수 있다. 컨텐츠 특성 정보를 획득하는 방법을 도 8을 참조하여 설명한다. Returning to FIG. 6 , the electronic device 100 may acquire content characteristic information output from the electronic device 100 . In detail, the content characteristic information may be acquired by the content analysis module 520 of the electronic device 100 . A method of obtaining content property information will be described with reference to FIG. 8 .

도 8은 일 실시예에 따라 컨텐츠 분석 모듈 520이 컨텐츠 특성 정보를 획득하는 방법을 설명하기 위한 참고도이다. 8 is a reference diagram for explaining a method of acquiring content characteristic information by the content analysis module 520 according to an exemplary embodiment.

일 실시예에 따라 컨텐츠 분석 모듈 520는 전자 장치 100에서 출력되는 오디오 및 / 또는 비디오 콘텐츠 810로부터 컨텐츠 핑거프린트를 추출하고, 추출된 핑거 프린트를 매칭 서버 250로 전달할 수 있다. 매칭 서버 250는 전자 장치 100로부터 수신된 컨텐츠 핑거 프린트를 이용하여 자동 컨텐츠 인식 (Automatic Content Recognition: ACR) 기술 등을 이용하여 컨텐츠를 인식하고 인식되 컨텐츠에 대한 정보 나 인식된 컨텐츠에 대한 메타데이터를 전자 장치 100로 전송할 수 있다. 컨텐츠 분석 모듈 520는 수신된 컨텐츠 정보나 컨텐츠 메타데이터 820를 이용하여 컨텐츠 특성 830을 획득할 수 있다. According to an embodiment, the content analysis module 520 may extract a content fingerprint from the audio and/or video content 810 output from the electronic device 100 and deliver the extracted fingerprint to the matching server 250 . The matching server 250 uses the content fingerprint received from the electronic device 100 to recognize content using Automatic Content Recognition (ACR) technology, etc., and provides information on the recognized content or metadata about the recognized content. It can be transmitted to the electronic device 100 . The content analysis module 520 may obtain the content characteristic 830 by using the received content information or content metadata 820 .

일 실시예에 따라 컨텐츠 분석 모듈 520는 미리 훈련된 AI 모델을 이용하여 오디오 및/또는 비디오 컨텐츠의 특성을 획득할 수 있다. 미리 훈련된 AI 모델은 전자 장치 100에 저장되어 있을 수 있거나 컨텐츠 분석 모듈 520은 오디오 및/또는 비디오 컨텐츠의 일부를 통신 네트워크 260를 통해서 인공지능 서버 240에 전송함으로써 인공지능 서버 240로부터 컨텐츠의 특성 정보 830을 획득할 수 있다. According to an embodiment, the content analysis module 520 may obtain characteristics of audio and/or video content using a pre-trained AI model. The pre-trained AI model may be stored in the electronic device 100 or the content analysis module 520 transmits part of the audio and/or video content to the artificial intelligence server 240 through the communication network 260, thereby providing characteristic information of the content from the artificial intelligence server 240. 830 can be obtained.

일 실시예에 따라 컨텐츠 분석 모듈 520는 전자 장치 100에서 출력되는 오디오 및/또는 비디오 컨텐츠의 메타데이터를 획득하고 이러한 메타데이터로부터 컨텐츠 특성 정보 830를 획득할 수 있다. According to an embodiment, the content analysis module 520 may obtain metadata of audio and/or video content output from the electronic device 100 and obtain content property information 830 from the metadata.

컨텐츠 특성 정보 830는 예를 들어 컨텐츠의 종류나 장르, 컨텐츠의 무드, 컨텐츠의 연령 제한 정보 등을 포함할 수 있다. 예를 들어, 컨텐츠의 종류나 장르는, 게임, 스포츠, 드라마, 사운드 월 앱 등을 포함할 수 있다. 예를 들어, 컨텐츠의 무드는 컨텐츠의 무드가 슬픈 느낌인지, 기쁜 느낌인지, 폭력성이 있는지 등을 나타낼 수 있다. 컨텐츠의 연령 제한 정보는 컨텐츠의 시청 연령에 대한 정보를 포함할 수 있다. The content characteristic information 830 may include, for example, the type or genre of content, the mood of content, and age restriction information of content. For example, the type or genre of content may include games, sports, dramas, sound wall apps, and the like. For example, the mood of the content may indicate whether the mood of the content is sad, happy, or violent. Age restriction information of the content may include information about the viewing age of the content.

다음 도 6으로 돌아가서 전자 장치 100는 사용자 상태 정보 또는 컨텐츠 특성 정보 중 적어도 하나를 기반으로 아바타 모드를 획득할 수 있다. 구체적으로 아바타 모드는 전자 장치 100의 아바타 모드 결정 모듈 530에 의해 획득될 수 있다. 아바타 모드를 결정하는 방법을 도 9를 참조하여 설명한다. Returning to FIG. 6 , the electronic device 100 may acquire an avatar mode based on at least one of user status information and content characteristic information. In detail, the avatar mode may be acquired by the avatar mode determination module 530 of the electronic device 100 . A method of determining an avatar mode will be described with reference to FIG. 9 .

도 9는 일 실시예에 따라 아바타 모드 결정 모듈 530이 아바타 모드를 결정하는 방법을 설명하기 위한 참고도이다. 9 is a reference diagram for explaining a method of determining an avatar mode by the avatar mode determination module 530 according to an exemplary embodiment.

일 실시예에 따라 아바타 모드 결정 모듈 530은 사용자 상태 정보 및 컨텐츠 특성 정보 중 적어도 하나에 기반하여 아바타 모드를 결정할 수 있다. 이때 아바타 모드 결정 모듈 530은 아바타 모드 룩업 테이블 540을 참조하여 아바타 모드를 결정할 수 있다. According to an embodiment, the avatar mode determination module 530 may determine an avatar mode based on at least one of user state information and content characteristic information. In this case, the avatar mode determination module 530 may determine the avatar mode by referring to the avatar mode lookup table 540 .

아바타 모드는 다양하게 결정될 수 있지만, 도 9에 개시된 예에서 아바타 모드는 동반자 아바타 모드, 보조자 아바타 모드, 피쳐 아바타 모드를 포함할 수 있다. 동반자 아바타 모드는, 사용자의 옆에서 동반자 역할을 하는 아바타 모드를 나타낸다. 동반자 아바타 모드에서, 동반자 아바타는 예를 들어 친구나 동료와 같은 아바타가 생성되어 사용자와 대화를 주고받을 수 있는 역할을 할 수 있다. 보조자 아바타 모드는, 사용자의 요청이나 명령에 따라 사용자의 요청이나 명령을 실행하는 역할을 하는 아바타 모드를 나타낸다. 보조자 아바타 모드에서, 보조자 아바타는 예를 들어, 개인 비서와 같은 아바타가 생성되어 사용자의 요청이나 지시, 명령을 수행하는 역할을 할 수 있다. 피쳐 아바타 모드는, 사용자의 상태와는 독립적으로 컨텐츠의 특성에 기반하여 생성되며, 컨텐츠의 경험을 보다 풍부하게 하는 역할을 할 수 있다. 예를 들어 피쳐 아바타 모드에서, 컨텐츠 특성이 음악 컨텐츠 인 경우에 피쳐 아바타는 음악 컨텐츠를 연주하는 캐릭터 역할을 하거나, 컨텐츠 특성이 스포츠 컨텐츠 인 경우에 피쳐 아바타는 스포츠의 응원 동작을 하는 캐릭터 역할을 할 수 있다. The avatar mode may be determined in various ways, but in the example illustrated in FIG. 9 , the avatar mode may include a companion avatar mode, an assistant avatar mode, and a feature avatar mode. The companion avatar mode represents an avatar mode serving as a companion next to the user. In the companion avatar mode, companion avatars, for example, avatars such as friends or co-workers are created and can play a role in exchanging conversations with the user. The assistant avatar mode represents an avatar mode that serves to execute a user's request or command according to a user's request or command. In the assistant avatar mode, an assistant avatar, for example, a personal assistant, may be created and perform a user's request, instruction, or command. The feature avatar mode is created based on the characteristics of the content independently of the user's state, and can play a role in enriching the experience of the content. For example, in the feature avatar mode, when the content property is music content, the feature avatar plays the role of a character playing music content, or when the content property is sports content, the feature avatar plays the role of a character cheering for sports. can

아바타 모드 결정 모듈 530은 사용자 상태 정보 및 컨텐츠 특성 정보 중 적어도 하나에 따라 아바타 모드 룩업 테이블 540을 참조하여 아바타 모드를 결정할 수 있다. 이러한 아바타 룩업 테이블 540은 개발자에 의해 미리 설계될 수 있고 또한 사용자의 상호 작용 또는 사용자 선호도에 따라 동적으로 업데이트될 수 있다. The avatar mode determination module 530 may determine an avatar mode by referring to the avatar mode lookup table 540 according to at least one of user state information and content characteristic information. This avatar lookup table 540 may be designed in advance by a developer and may be dynamically updated according to user interaction or user preference.

일 예에 따라 아바타 모드 결정 모듈 530은 사용자 상태 정보가 어떤 감정적인 특징을 나타낼 때, 아바타 모드를 동반자 모드로 결정할 수 있다. 사용자 상태 정보가 기쁨을 나타내거나, 슬픔을 나타내거나, 외로움을 나타내는 등 사용자 상태 정보가 사용자의 어떤 감정적인 요인이 큰 것으로 나타낼 때 사용자의 감정을 공유하기 위한 동반자가 필요한 것으로 판단될 수 있다. 따라서 아바타 모드 결정 모듈 530은 사용자 상태 정보가 감정적인 특징을 나타낼 때 동반자 아바타 모드로 결정할 수 있다. According to an example, the avatar mode determination module 530 may determine the avatar mode as the companion mode when the user status information indicates a certain emotional characteristic. When the user state information indicates that a certain emotional factor of the user is high, such as joy, sadness, or loneliness, it may be determined that a companion is needed to share the user's emotions. Accordingly, the avatar mode determining module 530 may determine the companion avatar mode when the user status information indicates emotional characteristics.

일 예에 따라 아바타 모드 결정 모듈 530은 사용자 상태 정보가 도움이나 지원이 필요한 것을 나타낼 때, 아바타 모드를 보조자 모드로 결정할 수 있다. 사용자 상태 정보가 감정적인 면 보다는 사용자의 어떤 도움을 필요로 하는 상태를 나타낼 때, 도움을 해결해줄 보조자가 필요한 것으로 판단할 수 있다. 따라서 아바타 모드 결정 모듈 530은 사용자 상태 정보가 도움을 필요로 하는 것을 나타낼 때 보조자 아바타 모드로 결정할 수 있다. According to an example, the avatar mode determination module 530 may determine the avatar mode as an assistant mode when the user status information indicates that help or support is needed. When the user status information indicates a state in which the user needs some help rather than an emotional aspect, it may be determined that an assistant to solve the problem is needed. Accordingly, the avatar mode determining module 530 may determine the assistant avatar mode when the user status information indicates that assistance is required.

일 예에 따라 아바타 모드 결정 모듈 530은 사용자 상태 정보가 중립 느낌인 것을 나타낼 때, 아바타 모드를 컨텐츠 특성 정보를 참조하여 아바타 모드를 결정할 수 있다. 사용자의 상태 정보가 특정한 감정적인 면이나 특정한 도움을 필요로 하는 상태가 아닌 경우 동반자나 보조자는 필요 없을 수도 있다. 따라서 이 경우 아바타 모드 결정 모듈 530은 사용자 상태 정보가 아니라 컨텐츠 특성 정보에 기반하여 피쳐 아바타 모드를 결정할 수 있다. 예를 들어, 사용자 상태 정보가 중립 느낌을 나타내고 컨텐츠 특성 정보가 컨텐츠의 장르로서 스포츠를 나타낼 때, 아바타 모드 결정 모듈 530은 아바타 모드를 동반자 아바타 모드로 결정할 수 있다. 예를 들어, 사용자 상태 정보가 중립 느낌을 나타내고 컨텐츠 특성 정보가 컨텐츠의 장르로서 사운드 월 어플리케이션을 나타낼 때, 아바타 모드 결정 모듈 530은 아바타 모드를 피쳐 아바타 모드로 결정할 수 있다. According to an example, the avatar mode determination module 530 may determine the avatar mode by referring to the content characteristic information when the user state information indicates a neutral feeling. A companion or assistant may not be needed if the user's status information is not a specific emotional aspect or a condition requiring specific help. Accordingly, in this case, the avatar mode determination module 530 may determine the feature avatar mode based on content characteristic information rather than user state information. For example, when the user status information indicates neutral feeling and the content property information indicates sports as the content genre, the avatar mode determining module 530 may determine the avatar mode as the companion avatar mode. For example, when the user status information indicates a neutral feeling and the content property information indicates a sound wall application as the content genre, the avatar mode determining module 530 may determine the avatar mode as a feature avatar mode.

다시 도 6으로 돌아가서, 동자 620에서, 전자 장치 100는 컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정할 수 있다. 구체적으로 아바타 의인화 정도는 전자 장치 100의 아바타 의인화 정도 결정 모듈 550에 의해 획득될 수 있다. 아바타 의인화 정도를 결정하는 방법을 도 10을 참조하여 설명한다. Returning to FIG. 6 again, in step 620, the electronic device 100 may determine the degree of personification of the avatar based on the content characteristics. In detail, the avatar personification degree may be obtained by the avatar personification degree determining module 550 of the electronic device 100 . A method of determining the degree of personification of the avatar will be described with reference to FIG. 10 .

도 10은 일 실시예에 따라 아바타 의인화 정도 결정 모듈 550이 아바타 의인화 정도를 결정하는 방법을 설명하기 위한 참고도이다. 10 is a reference diagram for explaining a method of determining the degree of personification of an avatar by the avatar personification degree determining module 550 according to an exemplary embodiment.

몇몇 실험적인 연구는 콘텐츠의 유형이 아바타의 인지 (perception)에 영향을 줄 수 있다는 것을 보여준다. 예를 들어, 사람들은 게임을 하는 동안 더 현실적이고 인간적으로 보이는 아바타로부터 지원이나 지시를 받을 때, 게임에 대한 그들의 통제나 권위가 아바타에 의해 훼손되고 있다고 느끼기 때문에 보통 부정적인 감정을 느낄 수 있다. 그러나, 다른 시나리오나 컨텐츠의 경우에는, 사람들은 정보나 도움을 구할 때 더 사실적이고 인간적으로 보이는 AI 비서가 더 신뢰할 수 있어 보이므로 긍정적인 감정을 느낄 수 있다. 따라서 컨텐츠의 특성에 따라서 아바타를 적응하는 것이 중요할 수 있다. Some experimental studies show that the type of content can affect an avatar's perception. For example, when people receive support or direction from a more realistic and human-looking avatar while playing a game, they can usually feel negative emotions because they feel that their control or authority over the game is being undermined by the avatar. However, in other scenarios or content, people may feel positive emotions when seeking information or help as AI assistants that look more realistic and human appear more trustworthy. Therefore, it may be important to adapt the avatar according to the characteristics of the content.

도 10을 참조하면, 아바타 의인화 정도 결정 모듈 530은 컨텐츠 특성에 따라서 아바타의 의인화 정도를 조절할 수 있다. 예를 들어, 아바타의 의인화도는 낮음, 중간 또는 높음으로 분류될 수 있다. 아바타의 의인화 정도가 낮을 수록 아바타가 덜 현실적이거나 덜 인간적인 것을 의미하고, 아바타의 의인화 정도가 높을수록 더 현실적이거나 더 인간적인 것을 의미할 수 있다. 예를 들어, 아바타 의인화 정도가 낮은 아바타는, 사람과 거리가 먼 물체나 식물 등을 의인화한 아바타를 나타낼 수 있다. 예를 들어, 아바타 의인화 정도가 중간인 아바타는, 사람과 유사한 동물 캐릭터나 애니메이션 캐릭터를 의인화한 아바타를 나타낼 수 있다. 예를 들어, 아바타 의인화 정도가 높은 아바타는, 현실적인 사람에 가까운 아바타를 나타낼 수 있다. Referring to FIG. 10 , the avatar personification degree determination module 530 may adjust the avatar personification degree according to content characteristics. For example, the avatar's anthropomorphism may be classified as low, medium, or high. The lower the degree of personification of the avatar, the less realistic or less human the avatar is, and the higher the degree of personification of the avatar, the more realistic or more human. For example, an avatar having a low level of avatar anthropomorphism may represent an avatar that personifies an object or a plant that is far from a person. For example, an avatar having a medium level of anthropomorphism may represent an avatar that anthropomorphizes an animal character similar to a human or an animation character. For example, an avatar having a high level of avatar personification may represent an avatar close to a realistic person.

예를 들어, 컨텐츠의 특성이 TV 기능에 대한 설명을 제공하거나 문제 해결을 할 때 보조자 아바타 모드에서 아바타는 높은 의인화 정도를 가질 수 있다. 보조자 모드에서도 컨텐츠의 특성이 게임 컨텐츠 같은 것인 경우에 사용자를 보조할 때 아바타는 낮은 의인화 정도를 가질 수 있다. 예를 들어, 컨텐츠의 특성이 만화 등의 장르를 나타내는 경우에 아바타의 의인화 정도는 중간 정도 있을 수 있다. 이와 같이 컨텐츠의 특성과 의인화 정도 사이의 관계는 연구, 사용자 조사 및 파일럿 테스트를 통해 결정될 수 있으며 룩업 테이블에 미리 저장될 수 있다. 또한 이러한 룩업 테이블은 사용자의 개인 선호도에 따라 업데이트될 수 있다.For example, in the assistant avatar mode, the avatar may have a high degree of anthropomorphism when the nature of the content provides explanations of TV functions or solves problems. Even in the assistant mode, when the characteristics of the content are game content, the avatar may have a low degree of personification when assisting the user. For example, when the characteristics of the content indicate a genre such as cartoon, the degree of personification of the avatar may be medium. In this way, the relationship between the characteristics of content and the degree of personification may be determined through research, user research, and pilot testing, and may be pre-stored in a lookup table. Also, these lookup tables can be updated according to the user's personal preferences.

다시 도 6으로 돌아가서, 동자 630에서, 전자 장치 100는 아바타 모드와 아바타 의인화 정도를 기반으로 아바타의 속성을 획득할 수 있다. 구체적으로, 아바타의 속성은 전자 장치 100의 아바타 속성 결정 모듈 560에 의해 획득될 수 있다. 아바타 속성을 획득하는 방법을 도 11을 참조하여 설명한다. Returning to FIG. 6 again, in the child 630, the electronic device 100 may acquire attributes of the avatar based on the avatar mode and the degree of personification of the avatar. Specifically, the attributes of the avatar may be obtained by the avatar attribute determination module 560 of the electronic device 100 . A method of acquiring avatar attributes will be described with reference to FIG. 11 .

도 11은 일 실시예에 따라 아바타 속성 결정 모듈 560이 아바타의 속성을 결정하는 방법을 설명하기 위한 참고도이다. 11 is a reference diagram for explaining a method of determining an avatar attribute by an avatar attribute determination module 560 according to an exemplary embodiment.

도 11을 참조하면, 아바타 속성 결정 모듈 560은 아바타 모드 900와 아바타 의인화 정도 1000를 기반으로 아바타 속성을 획득할 수 있다. Referring to FIG. 11 , the avatar attribute determination module 560 may acquire avatar attributes based on an avatar mode 900 and an avatar personification degree 1000.

아바타 속성 결정 모듈 560은 아바타 모드 900와 아바타 의인화 정도 1000를 기반으로 아바타 속성을 획득할 수 있다. 아바타 속성은 예를 들어, 아바타의 캐릭터, 아바타의 외모, 아바타의 행동, 아바타의 애니메이션 속성 등을 포함할 수 있다. 이와 같은 아바타 속성에 따라서 아바타는 다르게 보이고 다르게 행동할 수 있다. The avatar attribute determination module 560 may acquire avatar attributes based on the avatar mode 900 and the degree of personification of the avatar 1000. The avatar properties may include, for example, the avatar's character, the avatar's appearance, the avatar's behavior, and the avatar's animation properties. Depending on the attributes of the avatar, the avatar may look different and behave differently.

예를 들어, 아바타 모드 900가 동반자 아바타 모드를 나타내고, 컨텐츠 특성이 영화 같은 장르 임에 따라서 아바타 의인화 정도가 높은 것을 나타낼 때, 아바타 속성 결정 모듈 560은 아바타 속성 1100을 좀 더 사실적이고 인간적으로 보이는 아바타 캐릭터로 결정할 수 있다. 또한 인간적으로 보이는 아바타 캐릭터를 완성하기 위해 아바타 속성 결정 모듈 560은 아바타의 옷차림, 스타일, 외모를 더 인간적으로 보이도록 결정하고 또한 애니메이션 속성도 더 인간적으로 보이도록 결정할 수 있다. 예를 들어, 아바타 모드가 동반자 아바타 모드를 나타내고, 컨텐츠 특성이 게임 장르임에 따라 아바타 의인화 정도는 낮음을 나타내는 경우, 아바타 속성 결정 모듈 560은 아바타 캐릭터를 덜 인간적인 캐릭터로 선택하고 덜 인간적으로 행동하도록 결정하고 인간과 덜 유사한 애니메이션 특성을 갖도록 결정할 수 있다. 예를 들어, 이러한 경우 아바타 캐릭터는 자동차의 모습을 가지고 있고 자동차의 모습과 유사한 애니메이션 특성을 가질 수 있다. For example, when the avatar mode 900 represents a companion avatar mode and the content characteristic indicates that the degree of personification of the avatar is high according to a genre such as a movie, the avatar attribute determination module 560 determines the avatar attribute 1100 as a more realistic and human-looking avatar. You can decide by character. In addition, to complete a human-looking avatar character, the avatar attribute determination module 560 may determine the avatar's clothing, style, and appearance to look more human, and may also determine animation attributes to look more human. For example, if the avatar mode indicates the companion avatar mode and the content characteristic indicates that the degree of avatar anthropomorphism is low according to the game genre, the avatar attribute determination module 560 selects the avatar character as a less human character and makes it behave less human. and may decide to have animation characteristics less human-like. For example, in this case, the avatar character has the shape of a car and may have animation characteristics similar to the shape of the car.

일 실시예에 따라 보조 장치가 혼합 현실 (MR) 으로 아바타를 표시할 수 있는 경우, 아바타의 위치는 아바타의 속성이 될 수 있다. 예를 들어, 보조 장치는 HMD 또는 모바일 디바이스일 수 있다. 예를 들어, 아바타가 동반자 모드일 때, 아바타의 위치 범위는 사용자 근처에 나타나게 될 수 있으며, 예를 들어 아바타가 사용자 옆에 있는 소파에 놓이게 될 수도 있다. 또 다른 실시예에서는 아바타가 보조자 모드인 경우, 아바타의 위치는 사용자와 떨어져 있는 TV 근처로 제한될 수 있으며, 사용자가 호출한 경우에만 볼 수 있다. 또 다른 실시 예에서는 동반자 모드의 아바타가 위치를 수시로 변경하여 애니메이션을 할 수도 있지만, 사용자가 요청하지 않는 한 보조자 모드에서 아바타가 자동으로 위치를 변경하지 않을 수도 있다. According to an embodiment, when an auxiliary device can display an avatar in mixed reality (MR), the position of the avatar may be a property of the avatar. For example, the auxiliary device may be an HMD or a mobile device. For example, when the avatar is in the companion mode, the avatar's location range may appear near the user, for example, the avatar may be placed on a sofa next to the user. In another embodiment, when the avatar is in assistant mode, the avatar's location may be limited to a TV away from the user, and may be viewed only when called by the user. In another embodiment, the avatar in the companion mode may frequently change its location and perform animation, but the avatar in the assistant mode may not automatically change its location unless requested by the user.

다시 도 6으로 돌아가서, 동자 640에서, 전자 장치 100는 획득된 아바타의 속성에 따라 아바타의 랜더링을 제어할 수 있다. 구체적으로, 아바타의 랜더링 제어는 전자 장치 100의 아바타 랜더링 제어 엔진 570에 의해 획득될 수 있다. 아바타의 랜더링 제어 방법을 도 12를 참조하여 설명한다. Returning to FIG. 6 again, in step 640, the electronic device 100 may control rendering of the avatar according to the acquired attributes of the avatar. In detail, avatar rendering control may be acquired by the avatar rendering control engine 570 of the electronic device 100 . A method of controlling rendering of an avatar will be described with reference to FIG. 12 .

도 12는 일 실시예에 따라 아바타 랜더링 제어 엔진 570이 아바타의 랜더링을 제어하는 방법을 설명하기 위한 참고도이다. 12 is a reference diagram for explaining a method of controlling avatar rendering by the avatar rendering control engine 570 according to an exemplary embodiment.

도 12를 참조하면, 아바타 랜더링 제어 엔진 570은 아바타 속성에 기반하여 아바타의 랜더링을 제어할 수 있다. 구체적으로 아바타 랜더링 제어 엔진 570은 전자 장치 100의 디스플레이에 아바타의 랜더링이 되도록 제어할 수 있거나 또는 전자 장치 100 이외에 전자 장치 100에 연결된 외부 장치에서 아바타 랜더링이 수행될 수 있도록 아바타 랜더링 정보나 아바타 랜더링 명령을 외부 장치로 전송할 수 있다. Referring to FIG. 12 , the avatar rendering control engine 570 may control avatar rendering based on avatar attributes. In detail, the avatar rendering control engine 570 may control rendering of the avatar on the display of the electronic device 100, or avatar rendering information or avatar rendering commands may be performed in an external device connected to the electronic device 100 other than the electronic device 100. can be transmitted to an external device.

일 실시예에 따라 아바타 랜더링 제어 엔진 570은 아바타를 전자 장치 100에 구비된 디스플레이의 멀티뷰 창이나 PIP (Picture in Picture)등을 통해 랜더링할 수 있다. 아바타의 크기와 위치는 사용자에게 편리한 방식으로 표현될 수 있도록 최적으로 조정될 수 있다. 아바타 랜더링 제어 엔진 570은 아바타의 속성, 환경, TV 볼륨 설정 및 사용자의 선호도에 따라 아바타의 소리나 청각 특성을 조정할 수 있다. 또한 아바타 랜더링 제어 엔진 570은 사용자의 위치, 두 번째 장치의 상태, 환경 이해, 장치 복잡도 등에 따라 아바타의 렌더링을 지속적으로 조정할 수 있다.According to an embodiment, the avatar rendering control engine 570 may render the avatar through a multi-view window of a display provided in the electronic device 100 or a PIP (Picture in Picture). The size and position of the avatar can be optimally adjusted so that it can be presented in a way convenient for the user. The avatar rendering control engine 570 may adjust the avatar's sound or hearing characteristics according to the avatar's properties, environment, TV volume setting, and user's preference. In addition, the avatar rendering control engine 570 may continuously adjust the avatar rendering according to the user's location, the state of the second device, environment understanding, device complexity, and the like.

일 실시예에 따라 아바타 랜더링 제어 엔진 570은 카메라를 구비한 다른 디스플레이 장치에 아바타가 랜더링되도록 아바타 랜더링 정보나 아바타 랜더링 명령을 제공할 수 있다. 카메라를 구비한 디스플레이 장치는 현실 세계의 환경을 포착할 수 있고 아바타는 HMD 또는 모바일 장치 없이 혼합된 현실 (MR)의 느낌을 제공하기 위해 이 캡처된 현실 세계관에 겹쳐질 수 있다. According to an embodiment, the avatar rendering control engine 570 may provide avatar rendering information or an avatar rendering command to render an avatar to another display device having a camera. A display device with a camera can capture a real-world environment and an avatar can be superimposed on this captured real-world view to provide a mixed reality (MR) feeling without an HMD or mobile device.

일 실시예에 따라 전자 장치 100에 연결된 외부 장치가 HMD 인 경우, HMD는 아바타를 혼합된 현실 (MR) 즉 사용자의 현실 세계에 겹쳐 표시할 수 있다. HMD는 눈 추적, 공간 매핑 및 혼합 현실 캡처를 활용하여 환경에서 아바타를 적절하게 랜더링할 수 있다. 예를 들어, HMD 는 환경에 있는 전자 장치 100의 위치를 분할할 수 있고, 아바타의 위치가 사용자의 전자 장치 100의 시야를 방해하지 않는 방식으로 랜더링 할 수 있다. According to an embodiment, when an external device connected to the electronic device 100 is an HMD, the HMD may display an avatar overlaid on mixed reality (MR), that is, the user's real world. The HMD can utilize eye tracking, spatial mapping and mixed reality capture to properly render the avatar in the environment. For example, the HMD may divide the position of the electronic device 100 in the environment and render the position of the avatar in a manner that does not obstruct the user's view of the electronic device 100 .

도 13은 일 실시예에 따라 동반자 아바타 모드에서 동작하는 전자 장치의 동작 방법의 일 예를 나타낸다. 도 13에 도시된 예에서는 전자 장치의 일 예로 TV를 예를 들어 설명하기로 한다. 13 illustrates an example of an operating method of an electronic device operating in companion avatar mode according to an embodiment. In the example shown in FIG. 13 , a TV will be described as an example of an electronic device.

도 13을 참조하면, 동작 1301에서 사용자는 TV를 시청할 수 있다. TV는 다양한 실시예들에 따른 아바타 프레임워크를 저장하고 있어서 사용자의 상황에 맞는 아바타를 제공할 수 있는 전자 장치 100의 일 예이다. TV는 컨텐츠를 출력할 수 있다. Referring to FIG. 13 , in operation 1301, the user can watch TV. A TV is an example of an electronic device 100 capable of providing an avatar suitable for a user's situation by storing an avatar framework according to various embodiments. The TV can output content.

동작 1302에서, 사용자는 HMD를 착용하고, HMD와 TV는 페어링 연결할 수 있다. HMD는 다양한 실시예들에 따른 보조 장치로 기능할 수 있고, 사용자가 HMD를 착용하면 TV는 HMD와 페어링 연결할 수 있다. In operation 1302, the user wears the HMD, and the HMD and TV can be paired and connected. The HMD may function as an auxiliary device according to various embodiments, and when the user wears the HMD, the TV may be paired with the HMD.

동작 1303에서, 사용자는 "친구랑 TV를 같이 보고 싶어" 라고 발화할 수 있다. 이와 같은 사용자의 발화를 수신한 TV는 자동 음성 인식 (ASR) 엔진을 통해 사용자의 발화에 대응하는 음성을 인식하고 자연어 분석 모듈(NLU)을 통해 사용자의 발화를 해석함으로써 사용자의 상태 정보를 획득할 수 있다. 즉, TV는 사용자의 발화 내용을 자연어 해석을 통해 사용자 상태 (의도)는 동반자가 필요한 것으로 판단하고 동반자 아바타 모드를 결정할 수 있다. 그리고, TV는 TV에서 출력되는 컨텐츠의 특성을 기반으로 아바타 의인화 정도를 판단하여 아바타 속성을 결정할 수 있다. In operation 1303, the user may utter "I want to watch TV with a friend". Upon receiving such a user's speech, the TV recognizes the voice corresponding to the user's speech through an automatic speech recognition (ASR) engine and interprets the user's speech through a natural language analysis module (NLU) to acquire the user's state information. can That is, the TV can determine the user's state (intention) as requiring a companion through natural language interpretation of the user's utterance, and determine the companion avatar mode. And, the TV can determine the avatar attribute by determining the degree of personification of the avatar based on the characteristics of the content output from the TV.

동작 1304에서, TV는 아바타 속성에 따라 결정된 다양한 다양한 인간형 아바타 (고도의 의인화)를 사용자에게 보여주기 위해 HMD로 아바타 랜더링 정보나 아바타 랜더링 명령을 전송할 수 있다. 아바타 랜더링 정보를 수신한 HMD는 다양한 인간형 아바타를 출력할 수 있고, 사용자는 HMD와의 손짓 상호작용을 통해 원하는 아바타를 선택할 수 있다. 선택한 아바타의 일부 속성은 아바타 모드에 따라 달라지며, 이 경우 동반자 모드와 의인화 정도에 따라 달라질 수 있다. In operation 1304, the TV may transmit avatar rendering information or an avatar rendering command to the HMD to show various humanoid avatars (highly anthropomorphic) determined according to avatar attributes to the user. The HMD receiving the avatar rendering information may output various humanoid avatars, and the user may select a desired avatar through hand gesture interaction with the HMD. Some attributes of the selected avatar depend on the avatar mode, in which case it may depend on the companion mode and degree of personification.

동작 1305에서, HMD는 사용자의 아바타 선택에 따라 선택된 아바타를 랜더링 제어할 수 있다. 예를 들어, 아바타는 사용자 옆에 있는 소파에 나타날 수 있다. 아바타는 항상 사용자의 시점 (User 's View (FOV)에 있을 때 볼 수 있거나, HMD를 착용한 사용자가 소파 쪽으로 향할 때만 보일 수 있다. In operation 1305, the HMD may render and control the selected avatar according to the user's avatar selection. For example, the avatar may appear on a sofa next to the user. The avatar can always be seen when it is in the user's view (FOV), or it can only be seen when the user wearing the HMD heads toward the sofa.

동작 1306에서, TV에서 재미있는 장면을 포함하는 컨텐츠를 출력할 수 있다. TV는 출력된 컨텐츠 내용을 분석하여 (장면 이해 기준) 웃기는 장면이라고 판단하고, 분석된 컨텐츠를 기반으로 미리 저장된 룩업 테이블에서 아바타의 속성 정보를 획득할 수 있다. 예를 들어 TV는 아바타의 애니메이션 속성으로서 웃음을 획득할 수 있다. TV는 새로 획득한 아바타의 애니메이션 속성을 HMD로 전송할 수 있다. In operation 1306, content including an interesting scene may be output on the TV. The TV analyzes the contents of the output content (criterion for understanding the scene), determines that the scene is funny, and obtains attribute information of the avatar from a pre-stored lookup table based on the analyzed content. For example, TV can acquire laughter as an animation attribute of an avatar. The TV may transmit the animation properties of the newly acquired avatar to the HMD.

동작 1307에서, HMD는 TV로부터 수신된 아바타 속성에 따라 아바타의 애니메이션을 웃음으로 설정하여 랜더링할 수 있다. In operation 1307, the HMD may render the animation of the avatar set as a smile according to the avatar attribute received from the TV.

동작 1308에서, 사용자는 "재밌네, 저 여배우가 누군지 알아?" 라고 발화할 수 있다. TV는 사용자의 발화에 대응하는 음성을 수신하고 발화된 내용을 해석하여 사용자의 질문을 이해할 수 있다. 그리고 TV는 사용자의 질문에 대한 답을 준비하기 위해 TV는 출력된 TV 컨텐츠를 자동 컨텐츠 인식 (ACR)을 사용하여 분석하고, 분석된 내용을 바탕으로 사용자의 질문에 대한 답변에 대응하는 텍스트를 아바타의 속성으로서 결정할 수 있다. TV는 사용자의 질문에 대한 답변에 대응하는 텍스트를 아바타의 속성으로서 HMD로 전송할 수 있다. At action 1308, the user says "Funny, do you know who that actress is?" can be ignited. The TV can understand the user's question by receiving a voice corresponding to the user's speech and interpreting the spoken content. In addition, in order to prepare an answer to the user's question, the TV analyzes the output TV content using Automatic Content Recognition (ACR), and based on the analyzed content, the text corresponding to the answer to the user's question is converted into an avatar. can be determined as a property of The TV may transmit text corresponding to an answer to the user's question as an attribute of the avatar to the HMD.

동작 1309에서, HMD는 TV로부터 수신한 아바타의 속성으로서 답변 텍스트를 음성으로 변환하여 아바타를 발화하도록 랜더링할 수 있다. 예를 들어, 아바타는 "어, 그녀는 프랑스 모델이자 영화배우야" 라고 대답할 수 있다. In operation 1309, the HMD converts the response text as an attribute of the avatar received from the TV into voice and renders the avatar to be uttered. For example, the avatar may reply "Uh, she's a French model and actress."

동작 1310에서, 사용자가 하이파이브 제스쳐를 취하면, TV는 사용자의 제스쳐를 카메라로 캡쳐해서 사용자의 제스쳐를 인식하고, 사용자 상태는 하이파이브 상호작용으로 결정할 수 있다. TV는 사용자 상태를 기반으로 아바타의 애니메이션 속성으로서 하이파이브 동작을 결정하고, 결정된 아바타의 속성을 HMD로 전달할 수 있다. HMD는 TV로부터 수신한 아바타의 속성으로서 하이파이브 동작을 기반으로 아바타를 랜더링 제어함으로써 아바타의 손이 사용자의 손에 닿을 수 있도록 랜더링 함으로써 사용자에게 아바타와 하이파이브를 실현하는 경험을 하게 할 수 있다. In operation 1310, when the user makes a high-five gesture, the TV captures the user's gesture with a camera, recognizes the user's gesture, and determines the user's status as a high-five interaction. The TV may determine the high-five action as an animation property of the avatar based on the user's state, and transmit the determined property of the avatar to the HMD. The HMD renders the avatar so that the avatar's hand can touch the user's hand by rendering and controlling the avatar based on the high-five motion as an attribute of the avatar received from the TV, so that the user can experience the high-five with the avatar.

도 13에서 도시된 예에서, 아바타 프레임워크는 TV에 설치되고 TV가 아바타 랜더링 제어에 대한 주 기능을 하는 것으로 설명되었다. 그러나 아바타 프레임워크의 일부 또는 전부 기능은 HMD에서도 구현될 수 있다. 따라서 도 13에 설명된 바와 같은 아바타 구현은 TV와 HMD의 상호 협력에 의해 실현될 수도 있다. In the example shown in FIG. 13 , it has been described that the avatar framework is installed in the TV and the TV plays the main function for avatar rendering control. However, some or all of the functions of the avatar framework may also be implemented in the HMD. Accordingly, the implementation of the avatar as described in FIG. 13 may be realized by mutual cooperation between the TV and the HMD.

도 14는 일 실시예에 따라 보조자 아바타 모드에서 동작하는 전자 장치의 동작 방법의 일 예를 나타낸다. 14 illustrates an example of an operating method of an electronic device operating in an assistant avatar mode according to an embodiment.

도 14를 참조하면, 동작 1401에서, 사용자는 "조명을 켜줘" 라고 발화할 수 있다. 이와 같은 사용자의 발화에 대응하는 음성 데이터를 수신한 전자 장치 100는 음성 인식 및 자연어 이해 등의 분석을 통해 사용자의 발화 내용을 이해할 수 있다. 전자 장치 100는 발화 내용으로부터 사용자가 도움이 필요한 상태라고 판단할 수 있고 따라서 전자 장치 100는 아바타 모드를 보조자 아바타 모드로 결정할 수 있다. 그리고 아바타의 속성으로서 사용자의 발화 내용에 대응하는 답변 및 동작을 수행하기 위한 정보를 결정할 수 있다. 예를 들어, 아바타의 속성으로서 전자 장치 100는 사용자의 발화 내용에 대응하는 답변으로서 "네"라는 대답을 준비하고 또한 발화 내용에 대응하는 동작으로서 조명을 제어하기 위해 통신으로 연결된 장치인 조명 장치에 조명을 켜라는 명령을 전송할 수 있다. Referring to FIG. 14 , in operation 1401, the user may say “Turn on the light”. Upon receiving the voice data corresponding to the user's speech, the electronic device 100 can understand the user's speech through analysis such as voice recognition and natural language understanding. The electronic device 100 may determine from the contents of the speech that the user is in a state in which help is needed, and accordingly, the electronic device 100 may determine the avatar mode as the assistant avatar mode. In addition, information for performing an answer and an action corresponding to the content of the user's utterance may be determined as an attribute of the avatar. For example, as an attribute of the avatar, the electronic device 100 prepares an answer of "yes" as an answer corresponding to the content of the user's speech, and also controls lighting as an operation corresponding to the content of the user's speech. You can send a command to turn on the lights.

동작 1402에서, 전자 장치 100는 통신 연결된 HMD에 아바타 랜더링 정보 및 "네"라는 답변을 전송하면 HMD는 수신된 아바타 랜더링 정보 및 "네"라는 답변에 따라 아바타를 랜더링하고 또한 동작 1403에서, 아바타로 하여금 "네"라는 답변을 하도록 제어할 수 있다. In operation 1402, when the electronic device 100 transmits avatar rendering information and an answer of “yes” to the HMD connected through communication, the HMD renders the avatar according to the received avatar rendering information and the answer of “yes”, and also in operation 1403, as an avatar. You can control it to answer "yes".

동작 1404에서, HMD는 아바타가 조명쪽으로 걸어가도록 랜더링 제어하고, 동작 1405에서 HMD는 아바타가 조명을 켜는 제스쳐를 하도록 랜더링 제어할 수 있다. In operation 1404, the HMD controls rendering so that the avatar walks toward the light, and in operation 1405, the HMD controls rendering so that the avatar makes a gesture to turn on the light.

동작 1406에서, 전자 장치 100는 통신 연결된 조명 장치에 조명을 켜라는 제어 신호를 전송하고 조명 장치는 이와 같은 제어 신호에 따라서 조명을 켤 수 있다. In operation 1406, the electronic device 100 transmits a control signal to turn on the light to the lighting device connected through communication, and the lighting device can turn on the light according to the control signal.

동작 1407에서, HMD는 조명을 키는 제스쳐를 완료한 아바타가 되돌아오는 제스쳐를 하도록 랜더링 제어할 수 있다. In operation 1407, the HMD may control rendering so that the avatar that has completed the lighting-up gesture makes a returning gesture.

동작 1408에서, HMD는 되돌아온 아바타가 "됐어요"라는 발화를 하도록 랜더링 제어를 하고 동작 1409에서 아바타는 사라질 수 있다. In operation 1408, the HMD controls rendering so that the returned avatar utters "I'm done", and in operation 1409, the avatar may disappear.

동작 1410에서, 전자 장치 100는 통신 연결된 조명 장치의 조명이 켜진 상태를 스마트씽 대시보드에 업데이트하여 표시할 수 있다. In operation 1410, the electronic device 100 may update and display the turned-on state of the communication-connected lighting device on the SmartThings dashboard.

도 15는 일 실시예에 따라 보조자 아바타 모드에서 동작하는 전자 장치의 동작 방법의 일 예를 나타낸다. 도 15에 도시된 예에서는 전자 장치의 일 예로 TV를 예를 들어 설명하기로 한다. 15 illustrates an example of an operating method of an electronic device operating in an assistant avatar mode according to an embodiment. In the example shown in FIG. 15 , a TV will be described as an example of an electronic device.

도 15를 참조하면, 동작 1501에서, 사용자는 "이 프로그램이 시작되면 알려줘" 라고 발화할 수 있다. 이와 같은 사용자의 발화에 대응하는 음성 데이터를 수신한 전자 장치 100는 음성 인식 및 자연어 이해 등의 분석을 통해 사용자의 발화 내용을 이해할 수 있다. 전자 장치 100는 발화 내용으로부터 사용자가 도움이 필요한 상태라고 판단할 수 있고 따라서 전자 장치 100는 아바타 모드를 보조자 아바타 모드로 결정할 수 있다. 그리고 아바타의 속성으로서 사용자의 발화 내용에 대응하는 답변 및 동작을 수행하기 위한 정보를 결정할 수 있다. 예를 들어, 아바타의 속성으로서 전자 장치 100는 사용자의 발화 내용에 대응하는 답변으로서 "네, 리마인더를 설정할게요"라는 대답을 준비하고 또한 발화 내용에 대응하는 동작으로서 사용자에 의해 요청된 프로그램을 예약 설정 프로그램으로 등록해둘 수 있다. Referring to FIG. 15 , in operation 1501, the user may utter "notify me when this program starts". Upon receiving the voice data corresponding to the user's speech, the electronic device 100 can understand the user's speech through analysis such as voice recognition and natural language understanding. The electronic device 100 may determine from the contents of the speech that the user is in a state in which help is needed, and accordingly, the electronic device 100 may determine the avatar mode as the assistant avatar mode. In addition, information for performing an answer and an action corresponding to the content of the user's utterance may be determined as an attribute of the avatar. For example, as an attribute of the avatar, the electronic device 100 prepares an answer "Yes, I'll set a reminder" as an answer corresponding to the user's speech content, and also reserves a program requested by the user as an action corresponding to the user's speech content. It can be registered as a setup program.

동작 1502에서, 전자 장치 100는 예를 들어, 전자 장치 100의 디스플레이의 일부에 아바타를 표시하고 동작 1503에서 아바타가 "네, 리마인더를 설정할게요"라고 대답하도록 랜더링 제어할 수 있다. In operation 1502, the electronic device 100 displays an avatar on a part of the display of the electronic device 100, and in operation 1503, the electronic device 100 may control rendering so that the avatar responds, "Yes, I'll set a reminder."

동작 1504에서 전자 장치 100는 디스플레이에서 아바타가 사라지도록 랜더링 제어할 수 있다. In operation 1504, the electronic device 100 may control rendering so that the avatar disappears from the display.

동작 1505에서, 전자 장치 100는 사용자에 의해 요청된 프로그램 시작 시간이 되면 아바타가 디스플레이에 표시되도록 랜더링 제어할 수 있다. In operation 1505, the electronic device 100 may control rendering so that the avatar is displayed on the display when the program start time requested by the user arrives.

동작 1506에서, 전자 장치 100는 아바타가 "이 프로그램을 볼 시간이에요"라고 발화하도록 랜더링 제어할 수 있다. In operation 1506, the electronic device 100 may control rendering so that the avatar utters "It's time to watch this program."

동작 1507에서, 전자 장치 100는 아바타가 리모콘을 누르는 애니메이션을 랜더링 제어할 수 있다. In operation 1507, the electronic device 100 may render and control an animation in which the avatar presses the remote control.

동작 1508에서, 전자 장치 100는 사용자에 의해 요청된 프로그램에 대응하는 채널로 변환하여 해당 프로그램이 출력되도록 제어할 수 있다. In operation 1508, the electronic device 100 converts the program into a channel corresponding to the program requested by the user and controls the corresponding program to be output.

동작 1509에서, 전자 장치 100는 아바타가 디스플레이에서 사라지도록 랜더링 제어할 수 있다. In operation 1509, the electronic device 100 may control rendering so that the avatar disappears from the display.

다른 실시예에서 사용자는 "흥미로운 컨텐츠를 보여줘" 라고 요청할 수 있다. 이와 같이 도움을 필요로 하는 사용자 상태를 기반으로, 전자 장치 100는 아바타 모드를 보조자 아바타 모드로 결정할 수 있다. 전자 장치 100는 TV 시청 이력이나 또는 사용자 선호도를 기반으로 사용자에게 흥미있을 만한 컨텐츠의 리스트를 생성하고 생성된 컨텐츠 리스트를 아바타와 함께 전자 장치 100의 디스플레이나 HMD를 통해 사용자에게 제공할 수 있다. 제공된 컨텐츠들 중 하나를 선택하는 사용자 입력에 따라 전자 장치 100는 선택된 컨텐츠를 재생할 수 있다. In another embodiment, the user may request "show me interesting content". Based on the state of the user needing help, the electronic device 100 may determine the avatar mode as the assistant avatar mode. The electronic device 100 may generate a list of content that may be of interest to the user based on a TV viewing history or user preference, and provide the created content list along with an avatar to the user through a display or HMD of the electronic device 100 . According to a user input for selecting one of the provided contents, the electronic device 100 may reproduce the selected contents.

또 다른 실시예에서, 청각 장애인이 TV 기능을 도와달라고 하거나, TV에 저장된 전자매뉴얼을 도와달라고 할 때, 전자 장치 100는 아바타 모드를 보조자 아바타 모드로 결정할 수 있다. 전자 장치 100는 수화 애니메이션을 통해 미리 저장된 아바타에 의해 TV 기능 또는 전자매뉴얼을 설명할 수 있다. 또한, TV의 음성 컨텐츠는 텍스트로 변환될 수 있으며, 보조자 아바타가 청각 장애인 또는 청각 장애인 사용자에게 제시할 수 있는 청각 장애인 수화 애니메이션을 수행하도록 전자 장치 100는 랜더링 제어할 수 있다. In another embodiment, when a hearing-impaired person requests help with a TV function or an electronic manual stored in the TV, the electronic device 100 may determine the avatar mode as an assistant avatar mode. The electronic device 100 may explain TV functions or electronic manuals using pre-stored avatars through sign language animations. Also, the audio content of the TV may be converted into text, and the electronic device 100 may control rendering so that the assistant avatar performs a sign language animation that can be presented to the hearing-impaired or hearing-impaired user.

일 실시예에 따라 전자 장치 100는 디스플레이에 표시된 음악 컨텐츠와 동기화하여 아티스트 아바타를 제공할 수 있다. According to an embodiment, the electronic device 100 may provide an artist avatar in synchronization with music content displayed on a display.

도 16은 일 실시예에 따라 전자 장치 100가 아티스트 아바타를 제공하는 예를 설명하기 위한 참고도이다. 도 16에서는 전자 장치 100의 일 예로서 TV를 예를 들어 설명한다. 16 is a reference diagram for explaining an example in which the electronic device 100 provides an artist avatar according to an embodiment. In FIG. 16 , a TV is described as an example of the electronic device 100 .

도 16을 참조하면, 전자 장치 100는 음악 컨텐츠, 예를 들어 뮤직 월 어플리케이션을 실행하고 음악과 동적인 패턴을 나타내는 백그라운드 화면을 출력할 수 있다. 전자 장치 100가 음악 컨텐츠를 출력하는 동안 전자 장치 100는 출력되는 음악 컨텐츠에 대응하여 피쳐 아바타 모드를 결정할 수 있다. Referring to FIG. 16 , the electronic device 100 may execute music content, eg, a music wall application, and output a background screen displaying music and a dynamic pattern. While the electronic device 100 is outputting music content, the electronic device 100 may determine a feature avatar mode corresponding to the music content being output.

전자 장치 100는 디스플레이에 출력되는 음악 컨텐츠의 메타 데이터 또는 음악 컨텐츠의 오디오를 분석함으로써 출력되는 음악 컨텐츠의 장르나, 음악 컨텐츠의 연주자, 음악 컨텐츠의 분위기 등을 획득하고, 획득된 특성에 기반하여 아티스트 아바타 캐릭터를 결정할 수 있다. 예를 들어 음악 컨텐츠가 가요나 팝송 등의 노래 인 경우에 전자 장치 100는 노래의 가수를 아바타 캐릭터로 결정할 수 있다. 예를 들어 음악 컨텐츠가 연주곡 등인 경우에 전자 장치 100는 연주자나 연주자가 연주하는 악기 등의 아바타 캐릭터를 결정할 수 있다. The electronic device 100 acquires the genre of the music content, the performer of the music content, the atmosphere of the music content, etc. by analyzing the metadata of the music content or the audio of the music content output to the display, and based on the obtained characteristics, the electronic device 100 acquires the artist. You can decide your avatar character. For example, when the music content is a song such as a popular song or a pop song, the electronic device 100 may determine the singer of the song as the avatar character. For example, when the music content is a piece of music, the electronic device 100 may determine an avatar character such as a performer or an instrument played by the performer.

전자 장치 100는 생성된 아바타 캐릭터를 전자 장치 100의 디스플레이의 일부 영역에 표시하거나 또는 전자 장치 100에 연결된 HMD에 출력함으로써 전자 장치 100를 통하여 음악 컨텐츠를 시청하는 동안 HMD를 통해 해당 음악 컨텐츠에 관련된 아티스트 아바타 캐릭터 1600를 랜더링하도록 제어할 수 있다. The electronic device 100 displays the created avatar character on a partial area of the display of the electronic device 100 or outputs it to the HMD connected to the electronic device 100, so that while viewing music content through the electronic device 100, the artist related to the corresponding music content through the HMD. Avatar character 1600 can be controlled to be rendered.

일 실시예에 따라 전자 장치 100는 디스플레이에 표시된 스포츠 컨텐츠와 동기화하여 스포츠 선수 아바타를 제공할 수 있다. According to an embodiment, the electronic device 100 may provide sports player avatars in synchronization with sports content displayed on the display.

도 17은 일 실시예에 따라 전자 장치 100가 스포츠 선수 아바타를 제공하는 예를 설명하기 위한 참고도이다. 도 17에서는 전자 장치 100의 일 예로서 TV를 예를 들어 설명한다. 17 is a reference diagram for explaining an example in which the electronic device 100 provides a sports player avatar according to an embodiment. In FIG. 17 , a TV is described as an example of the electronic device 100 .

도 17을 참조하면, 전자 장치 100는 스포츠 컨텐츠를 출력할 수 있다. 전자 장치 100가 스포츠 컨텐츠를 출력하는 동안 전자 장치 100는 출력되는 스포츠 컨텐츠에 대응하여 피쳐 아바타 모드를 결정할 수 있다. Referring to FIG. 17 , the electronic device 100 may output sports content. While the electronic device 100 outputs sports content, the electronic device 100 may determine a feature avatar mode in response to the output sports content.

전자 장치 100는 디스플레이에 출력되는 스포츠 컨텐츠를 ACR 또는 장면 인식 기술 등을 이용하여 분석함으로써 어떤 스포츠인지를 판단할 수 있다. 즉, 전자 장치 100는 디스플레이에 표시되는 컨텐츠가 축구인지, 농구인지, 야구인지 등을 판단하고, 또한 스포츠 컨텐츠에 등장하는 선수를 인식하고, 인식된 선수 중의 하나의 선수에 대응하는 아바타 캐릭터 1700를 생성할 수 있다. The electronic device 100 may determine the type of sport by analyzing the sports content output on the display using ACR or scene recognition technology. That is, the electronic device 100 determines whether the content displayed on the display is soccer, basketball, or baseball, recognizes a player appearing in the sports content, and creates an avatar character 1700 corresponding to one of the recognized players. can create

전자 장치 100는 생성된 아바타 캐릭터를 전자 장치 100에 연결된 HMD에 출력함으로써 사용자로 하여금 전자 장치 100를 통하여 스포츠 컨텐츠를 시청하는 동안 HMD를 통해 해당 스포츠 컨텐츠에 등장하는 선수 아바타 캐릭터를 랜더링하도록 제어할 수 있다. The electronic device 100 outputs the created avatar character to the HMD connected to the electronic device 100, so that the user can control rendering of player avatar characters appearing in the sports content through the HMD while watching sports content through the electronic device 100. there is.

일 실시예에 따라 전자 장치 100는 홈 쇼핑 채널 컨텐츠를 표시할 때 쇼핑 아이템을 시착하는 아바타를 제공할 수 있다. 전자 장치 100는 홈 쇼핑 채널 컨텐츠의 특성에 따라서 피쳐 아바타 모드로 결정할 수 있거나 또는 사용자가 홈 쇼핑 채널 컨텐츠에서 보여주는 아이템을 시착해보고 싶다는 의도를 나타냄에 따라 보조자 아바타 모드로 결정할 수도 있다. According to an embodiment, the electronic device 100 may provide an avatar for trying on shopping items when displaying home shopping channel content. The electronic device 100 may determine the feature avatar mode according to the characteristics of the home shopping channel content, or may determine the assistant avatar mode according to the user's intention to try on an item shown in the home shopping channel content.

도 18은 일 실시예에 따라 사용자가 전자 장치 100를 홈 쇼핑 채널을 시청하면서 쇼핑 아이템들을 아바타를 이용하여 시착해보는 예를 설명하기 위한 참고도이다. 도 18에서는 전자 장치 100의 일 예로서 TV를 예를 들어 설명한다. FIG. 18 is a reference diagram for explaining an example in which a user tries on shopping items using an avatar while watching a home shopping channel on the electronic device 100 according to an embodiment. 18 illustrates a TV as an example of the electronic device 100 .

도 18을 참조하면, 동작 1810에서, 전자 장치 100는 홈 쇼핑 채널에 대응하는 컨텐츠를 출력할 수 있다. 사용자는 홈 쇼핑 채널 컨텐츠를 시청하는 동안 쇼핑 아이템을 시착해보고 싶을 수 있다. Referring to FIG. 18 , in operation 1810, the electronic device 100 may output content corresponding to a home shopping channel. A user may want to try on shopping items while watching home shopping channel content.

동작 1820에서, 사용자는 AR 글래스를 착용할 수 있다. At operation 1820, the user may wear the AR glasses.

동작 1830에서, 예를 들어 사용자가 "저 쇼핑 아이템을 시착해보고 싶어"와 같은 발화를 하는 등에 의해 사용자의 의도를 나타냄에 따라 전자 장치 100는 사용자의 발화에 대응하는 음성 데이터를 수신한 전자 장치 100는 음성 인식 및 자연어 이해 등의 분석을 통해 사용자의 발화 내용을 이해할 수 있다. 전자 장치 100는 발화 내용으로부터 사용자가 도움이 필요한 상태라고 판단할 수 있고 따라서 전자 장치 100는 아바타 모드를 보조자 아바타 모드로 결정할 수 있다. 또는 전자 장치 100는 홈 쇼핑 채널 컨텐츠에 대응하여 피쳐 아바타 모드를 결정할 수 있다. 이에 따라 전자 장치 100는 아바타의 속성으로서 사용자의 이미지를 캡쳐하고 캡쳐된 이미지를 반영하여 사용자 자신의 모습을 나타내는 아바타 캐릭터를 생성할 수 있다. 그리고 전자 장치 100는 생성된 아바타 캐릭터 및 전자 장치 100에서 출력되는 쇼핑 아이템들에 대한 이미지를 통신 연결을 통해 연결된 AR 글래스로 출력할 수 있다. In operation 1830, the electronic device 100 receives voice data corresponding to the user's speech as the user indicates the user's intention by saying, for example, "I want to try on that shopping item." can understand the contents of the user's speech through analysis such as voice recognition and natural language understanding. The electronic device 100 may determine from the contents of the speech that the user is in a state in which help is needed, and accordingly, the electronic device 100 may determine the avatar mode as the assistant avatar mode. Alternatively, the electronic device 100 may determine a feature avatar mode in response to home shopping channel content. Accordingly, the electronic device 100 may capture the user's image as an avatar attribute and reflect the captured image to create an avatar character representing the user's own appearance. The electronic device 100 may output images of the created avatar character and shopping items output from the electronic device 100 to AR glasses connected through a communication connection.

동자 1840에서, 사용자는 AR 글래스를 통해 출력되는 쇼핑 아이템들중 자신이 원하는 쇼핑 아이템을 선택할 수 있다. In operation 1840, the user may select a desired shopping item from among shopping items output through the AR glasses.

동작 1850에서, AR 글래스는 이와 같은 사용자의 선택에 따라 사용자 자신의 아바타에 사용자에 의해 선택된 쇼핑 아이템을 가상으로 피팅되게 하는 애니메이션을 랜더링할 수 있다. In operation 1850, the AR glasses may render an animation for virtually fitting the shopping item selected by the user to the user's own avatar according to the user's selection.

도 18에서는 사용자 자신의 아바타 캐릭터를 통신으로 연결된 AR 글래스에 표시되게 하는 것으로 설명되었지만, 아바타 캐릭터는 전자 장치 100의 디스플레이 표시되고 또한 가상 피팅을 통한 애니메이션도 전자 장치 100의 디스플레에서 랜더링될 수도 있다. In FIG. 18, it has been described that the user's own avatar character is displayed on the AR glasses connected by communication, but the avatar character is displayed on the display of the electronic device 100, and animation through virtual fitting may also be rendered on the display of the electronic device 100.

일 실시예에 따라 전자 장치 100는 사용자가 전자 장치 100를 조작하거나 이용할 때 문제가 발생하여 문제 해결을 위해 도움이 필요할 때 아바타를 제공할 수 있다. 이때 아바타는 가상 보조자 (virtual assistant) 역할을 할 수 있다. 전자 장치 100가 TV 인 경우에, TV는 오디오 볼륨, 외부 장치 연결, 오디오 설정, 그림 설정 등 TV와 관련된 다양한 컨텍스트 데이터를 분석하여 TV에 미리 저장된 전자 매뉴얼 (e-manual) 에서 적절한 텍스트 응답을 검색할 수 있다. 텍스트 응답은 TTS (Text-to-Speech) 모델을 사용하여 스피치로 변환될 수 있으며 아바타의 애니메이션과 대화를 통해 사용자에게 제시될 수 있다. 즉, TV는 보조자 (virtual assistant) 아바타 모드에서 대화형 아바타를 통해 TV 문제에 대한 도움과 지원을 사용자에게 제공할 수 있다. According to an embodiment, the electronic device 100 may provide an avatar when a problem occurs when a user manipulates or uses the electronic device 100 and needs help to solve a problem. At this time, the avatar may serve as a virtual assistant. When the electronic device 100 is a TV, the TV analyzes various context data related to the TV, such as audio volume, external device connection, audio settings, picture settings, etc., and retrieves an appropriate text response from an electronic manual (e-manual) stored in advance in the TV. can do. Text responses can be converted into speech using the Text-to-Speech (TTS) model and presented to the user through avatar animations and dialogues. That is, the TV can provide help and support for TV problems to the user through an interactive avatar in a virtual assistant avatar mode.

도 19는 일 실시예에 따라 사용자가 전자 장치 100를 조작하거나 이용할 때 문제가 발생하여 문제 해결을 위해 도움이 필요할 때 전자 장치 100가 아바타를 통해 지원을 제공하는 예를 설명하기 위한 참고도이다. 도 19에서는 전자 장치 100의 일 예로서 TV를 예를 들어 설명한다. FIG. 19 is a reference diagram for explaining an example in which the electronic device 100 provides support through an avatar when a problem occurs when a user manipulates or uses the electronic device 100 and needs help to solve a problem, according to an embodiment. In FIG. 19 , a TV is described as an example of the electronic device 100 .

사용자는 전자 장치 100를 통해 컨텐츠를 시청하는 동안 컨텐츠의 사운드에 문제가 있어서, 문제가 있음을 발화할 수 있다. 예를 들어, 사용자는 "TV 볼륨 레벨이 100이지만 소리가 들리지 않아" 라고 발화하고 전자 장치 100는 동작 1910에서 이러한 발화 내용을 수신할 수 있다. 이와 같은 사용자의 발화에 대응하는 음성 데이터를 수신한 전자 장치 100는 음성 인식 및 자연어 이해 등의 분석을 통해 사용자의 발화 내용을 이해할 수 있다. 전자 장치 100는 발화 내용으로부터 사용자가 도움이 필요한 상태라고 판단할 수 있고 따라서 전자 장치 100는 아바타 모드를 보조자 아바타 모드로 결정할 수 있다. 그리고 아바타의 속성으로서 사용자의 발화 내용에 대응하는 답변 및 동작을 수행하기 위한 정보를 결정할 수 있다. While viewing content through the electronic device 100, the user may indicate that there is a problem because there is a problem with the sound of the content. For example, the user may say "TV volume level is 100, but no sound can be heard", and the electronic device 100 may receive such speech in operation 1910. Upon receiving the voice data corresponding to the user's speech, the electronic device 100 can understand the user's speech through analysis such as voice recognition and natural language understanding. The electronic device 100 can determine from the contents of the speech that the user is in need of help, and accordingly, the electronic device 100 can determine the avatar mode as the assistant avatar mode. Information for performing answers and actions corresponding to the content of the user's speech may be determined as attributes of the avatar.

전자 장치 100는 사용자의 발화 내용을 해석함으로써 TV의 문제점과 그에 대응하는 해결책을 저장하고 있는 전자 매뉴얼을 검색하여, 사용자의 문제점에 대응하는 해결책을 찾을 수 있다. 그리고 전자 장치 100는 아바타의 속성으로서, 찾아진 해결책에 대응하는 답변 내용을 결정할 수 있다. 다음 동작 1920에서 전자 장치 100는 아바타 1930를 디스플레이에 나타나게 할 수 있다. 그리고 동작 1940에서, 전자 장치 100는 디스플레이에 표시된 아바타가, 앞서 찾아진 해결책에 대응하는 답변 내용인 "셋톱박스 리모콘으로 볼륨을 올려주세요" 라고 발화하도록 랜더링할 수 있다. The electronic device 100 can find a solution corresponding to the user's problem by searching an electronic manual that stores TV problems and corresponding solutions by interpreting the user's speech. Also, the electronic device 100 may determine the content of an answer corresponding to the found solution as an attribute of the avatar. In the next operation 1920, the electronic device 100 may display the avatar 1930 on the display. In operation 1940, the electronic device 100 may render the avatar displayed on the display to utter "Please turn up the volume with the set-top box remote control", which is an answer corresponding to the previously found solution.

도 20은 일 실시예에 따라 아바타 커스터마이제이션을 할 수 있는 시스템을 설명하기 위한 도면이다. 20 is a diagram for explaining a system capable of customizing an avatar according to an embodiment.

도 20을 참조하면, 아바타 스폰서쉽 2001에 따라 다수의 브랜드 2002는 컨텐츠 제작자 2003는 다양한 아바타 컨텐츠를 NFT 마켓 플레이으 2004에 제공할 수 있다. 다양한 아바타 컨텐츠는 아바타 캐릭터, 아바타 캐릭터에 의해 착용될 드레스, 악세서리 등을 포함할 수 있다. Referring to FIG. 20 , according to avatar sponsorship 2001, a plurality of brands 2002 and a content producer 2003 may provide various avatar contents to 2004 through NFT market play. Various avatar contents may include an avatar character, a dress to be worn by the avatar character, and accessories.

사용자는 NFT 마켓 플레이스 2004에 접속하여 자신이 원하는 아바타 컨텐츠를 구매함으로써 자신만의 아바타 커스터마이제이션 2005을 수행할 수 있다. The user can perform his/her own avatar customization 2005 by accessing the NFT marketplace 2004 and purchasing avatar contents desired by the user.

일 실시예에 따른 전자 장치의 동작방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.An operating method of an electronic device according to an embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be those specially designed and configured for the present invention or those known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also within the scope of the present invention. belongs to

Claims (20)

전자 장치에 있어서,
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
사용자의 상태 정보 및 상기 전자 장치에서 출력되는 컨텐츠 특성 중 적어도 하나를 기반으로 아바타 모드를 획득하고,
컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하고,
상기 아바타 모드와 의인화 정도를 기반으로 아바타의 속성을 획득하고,
상기 획득된 아바타의 속성에 따라 상기 아바타의 랜더링을 제어하는, 전자 장치.
In electronic devices,
a memory that stores one or more instructions; and
a processor to execute the one or more instructions stored in the memory, the processor executing the one or more instructions to:
obtaining an avatar mode based on at least one of user status information and content characteristics output from the electronic device;
Determine the degree of personification of the avatar based on the content characteristics,
Obtain attributes of the avatar based on the avatar mode and the degree of personification,
An electronic device that controls rendering of the avatar according to the acquired attributes of the avatar.
제1항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 사용자의 신체, 자세, 눈 추적, 음성 특성 중 적어도 하나를 센싱하여 상기 사용자의 감정이나 의도를 판단함으로써 상기 사용자의 상태 정보를 획득하는, 전자 장치.
According to claim 1,
The processor, by executing the one or more instructions,
The electronic device that obtains the user's state information by sensing at least one of the user's body, posture, eye tracking, and voice characteristics to determine the user's emotion or intention.
제1항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 아바타 모드는, 동반자 아바타 모드, 보조자 아바타 모드, 또는 피쳐 아바타 모드 중 적어도 하나를 포함하고,
상기 사용자의 상태 정보 및 상기 컨텐츠 특성 중 적어도 하나에 기반하여 상기 동반자 아바타 모드, 상기 보조자 아바타 모드, 또는 상기 피쳐 아바타 모드 중 하나를 상기 아바타 모드로 획득하는, 전자 장치.
According to claim 1,
The processor, by executing the one or more instructions,
The avatar mode includes at least one of a companion avatar mode, an assistant avatar mode, and a feature avatar mode;
Acquiring one of the companion avatar mode, the assistant avatar mode, and the feature avatar mode as the avatar mode based on at least one of the user status information and the content characteristics.
제3항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 사용자의 상태 정보가 사용자의 감정 특징을 나타낼 때, 상기 아바타 모드를 상기 동반자 아바타 모드로 결정하는, 전자 장치.
According to claim 3,
The processor, by executing the one or more instructions,
and determining the avatar mode as the companion avatar mode when the state information of the user represents the user's emotional characteristics.
제3항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 사용자의 상태 정보가 사용자가 도움을 필요로 하는 상태를 나타낼 때, 상기 아바타 모드를 상기 보조자 아바타 모드로 결정하는, 전자 장치.
According to claim 3,
The processor, by executing the one or more instructions,
and determining the avatar mode as the assistant avatar mode when the state information of the user indicates a state in which the user needs assistance.
제3항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 사용자의 상태 정보가 중립을 나타낼 때, 상기 컨텐츠의 특성에 기반하여 상기 아바타 모드를 피쳐 아바타 모드로 결정하는, 전자 장치.
According to claim 3,
The processor, by executing the one or more instructions,
and determining the avatar mode as a feature avatar mode based on the characteristics of the content when the status information of the user indicates neutral.
제1항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하고,
상기 컨텐츠 특성에 따라 상기 아바타의 의인화 강도를 더 높게 결정하거나 또는 더 낮게 결정하는, 전자 장치.
According to claim 1,
The processor, by executing the one or more instructions,
Determine the degree of personification of the avatar based on the content characteristics,
An electronic device that determines the strength of the personification of the avatar to be higher or lower according to the content characteristics.
제1항에 있어서,
상기 아바타의 속성은, 상기 아바타의 캐릭터 유형, 캐릭터의 외모, 캐릭터의 행동, 캐릭터에 대해 수행되는 애니메이션 속성, 또는 캐릭터가 랜더링되는 위치 중 적어도 하나를 포함하는, 전자 장치.
According to claim 1,
The attributes of the avatar include at least one of a character type of the avatar, an appearance of the character, a behavior of the character, an animation property performed on the character, or a location where the character is rendered.
제1항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 아바타의 랜더링이 상기 전자 장치의 디스플레이에서 수행되도록 제어하거나 또는 상기 아바타의 랜더링이 통신으로 연결된 보조 장치에서 수행되도록 제어하는, 전자 장치.
According to claim 1,
The processor, by executing the one or more instructions,
The electronic device that controls the rendering of the avatar to be performed on a display of the electronic device or controls the rendering of the avatar to be performed on an auxiliary device connected through communication.
제9항에 있어서,
상기 보조 장치는 헤드 마운티드 디스플레이 (Head Mounted Display)를 포함하고,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 아바타가 상기 헤드 마운티드 디스플레이에서 삼차원 (3D)으로 랜더링되도록 제어하는, 전자 장치.
According to claim 9,
The auxiliary device includes a head mounted display,
The processor, by executing the one or more instructions,
An electronic device that controls the avatar to be rendered in three dimensions (3D) on the head mounted display.
전자 장치의 동작 방법에 있어서,
사용자의 상태 정보 및 상기 전자 장치에서 출력되는 컨텐츠 특성 중 적어도 하나를 기반으로 아바타 모드를 획득하는 동작,
컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하는 동작,
상기 아바타 모드와 의인화 정도를 기반으로 아바타의 속성을 획득하는 동작, 및
상기 획득된 아바타의 속성에 따라 상기 아바타의 랜더링을 제어하는 동작을 포함하는, 전자 장치의 동작 방법.
In the operating method of the electronic device,
Obtaining an avatar mode based on at least one of user status information and content characteristics output from the electronic device;
An operation of determining the degree of personification of the avatar based on the content characteristics;
Obtaining attributes of the avatar based on the avatar mode and the degree of personification, and
and controlling rendering of the avatar according to the acquired attributes of the avatar.
제11항에 있어서,
상기 사용자의 신체, 자세, 눈 추적, 음성 특성 중 적어도 하나를 센싱하여 상기 사용자의 감정이나 의도를 판단함으로써 상기 사용자의 상태 정보를 획득하는 동작을 더 포함하는, 전자 장치의 동작 방법.
According to claim 11,
The method of operating an electronic device further comprising obtaining state information of the user by sensing at least one of the user's body, posture, eye tracking, and voice characteristics to determine the user's emotion or intention.
제11항에 있어서,
상기 아바타 모드는, 동반자 아바타 모드, 보조자 아바타 모드, 또는 피쳐 아바타 모드 중 적어도 하나를 포함하고,
상기 방법은,
상기 사용자의 상태 정보 및 상기 컨텐츠 특성 중 적어도 하나에 기반하여 상기 동반자 아바타 모드, 상기 보조자 아바타 모드, 또는 상기 피쳐 아바타 모드 중 하나를 상기 아바타 모드로 획득하는 동작을 더 포함하는, 전자 장치의 동작 방법.
According to claim 11,
The avatar mode includes at least one of a companion avatar mode, an assistant avatar mode, and a feature avatar mode;
The method,
and acquiring one of the companion avatar mode, the assistant avatar mode, and the feature avatar mode as the avatar mode based on at least one of the user status information and the content characteristics. .
제13항에 있어서,
상기 사용자의 상태 정보가 사용자의 감정 특징을 나타낼 때, 상기 아바타 모드를 상기 동반자 아바타 모드로 결정하는 동작을 더 포함하는, 전자 장치의 동작 방법.
According to claim 13,
and determining the avatar mode as the companion avatar mode when the state information of the user indicates the user's emotional characteristics.
제13항에 있어서,
상기 사용자의 상태 정보가 사용자가 도움을 필요로 하는 상태를 나타낼 때, 상기 아바타 모드를 상기 보조자 아바타 모드로 결정하는 동작을 더 포함하는, 전자 장치의 동작 방법.
According to claim 13,
and determining the avatar mode as the assistant avatar mode when the state information of the user indicates a state in which the user needs help.
제13항에 있어서,
상기 사용자의 상태 정보가 중립을 나타낼 때, 상기 컨텐츠의 특성에 기반하여 상기 아바타 모드를 피쳐 아바타 모드로 결정하는 동작을 더 포함하는, 전자 장치의 동작 방법.
According to claim 13,
The method of operating the electronic device further comprising determining the avatar mode as a feature avatar mode based on the characteristics of the content when the status information of the user indicates neutral.
제11항에 있어서,
컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하는 동작, 및
상기 컨텐츠 특성에 따라 상기 아바타의 의인화 강도를 더 높게 결정하거나 또는 더 낮게 결정하는 동작을 더 포함하는, 전자 장치의 동작 방법.
According to claim 11,
An operation of determining the degree of personification of the avatar based on the content characteristics, and
The method of operating the electronic device further comprising an operation of determining higher or lower level of personification of the avatar according to the content characteristics.
제11항에 있어서,
상기 아바타의 속성은, 상기 아바타의 캐릭터 유형, 캐릭터의 외모, 캐릭터의 행동, 캐릭터에 대해 수행되는 애니메이션 속성, 또는 캐릭터가 랜더링되는 위치 중 적어도 하나를 포함하는, 전자 장치의 동작 방법.
According to claim 11,
The attribute of the avatar includes at least one of a character type of the avatar, an appearance of the character, a behavior of the character, an animation property performed on the character, or a location where the character is rendered.
제11항에 있어서,
상기 아바타의 랜더링이 상기 전자 장치의 디스플레이에서 수행되도록 제어하거나 또는 상기 아바타의 랜더링이 통신으로 연결된 보조 장치에서 수행되도록 제어하는 동작을 더 포함하는, 전자 장치의 동작 방법.
According to claim 11,
The method of operating the electronic device further comprising controlling rendering of the avatar to be performed on a display of the electronic device or controlling rendering of the avatar to be performed on an auxiliary device connected through communication.
전자 장치의 동작 방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능 기록 매체에 있어서, 상기 전자 장치의 동작 방법은,
사용자의 상태 정보 및 상기 전자 장치에서 출력되는 컨텐츠 특성 중 적어도 하나를 기반으로 아바타 모드를 획득하는 동작,
컨텐츠 특성을 기반으로 아바타의 의인화 정도를 결정하는 동작,
상기 아바타 모드와 의인화 정도를 기반으로 아바타의 속성을 획득하는 동작, 및
상기 획득된 아바타의 속성에 따라 상기 아바타의 랜더링을 제어하는 동작을 포함하는, 컴퓨터 판독가능 기록 매체.
A computer-readable recording medium in which a program for performing a method of operating an electronic device is recorded, the method of operating the electronic device comprising:
Obtaining an avatar mode based on at least one of user status information and content characteristics output from the electronic device;
An operation of determining the degree of personification of the avatar based on the content characteristics;
Obtaining attributes of the avatar based on the avatar mode and the degree of personification, and
and controlling rendering of the avatar according to the acquired attributes of the avatar.
KR1020210170236A 2021-12-01 2021-12-01 An electronic apparatus for adaptive generation of an avatar and a method therefore KR20230082374A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210170236A KR20230082374A (en) 2021-12-01 2021-12-01 An electronic apparatus for adaptive generation of an avatar and a method therefore

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210170236A KR20230082374A (en) 2021-12-01 2021-12-01 An electronic apparatus for adaptive generation of an avatar and a method therefore

Publications (1)

Publication Number Publication Date
KR20230082374A true KR20230082374A (en) 2023-06-08

Family

ID=86765927

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210170236A KR20230082374A (en) 2021-12-01 2021-12-01 An electronic apparatus for adaptive generation of an avatar and a method therefore

Country Status (1)

Country Link
KR (1) KR20230082374A (en)

Similar Documents

Publication Publication Date Title
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
US10664741B2 (en) Selecting a behavior of a virtual agent
EP3766066B1 (en) Generating response in conversation
TWI436808B (en) Input support device, input support method and recording medium
CN111372109B (en) Intelligent television and information interaction method
KR102616850B1 (en) An external device capable of being combined with an electronic device, and a display method thereof.
CN109086860B (en) Interaction method and system based on virtual human
KR102193029B1 (en) Display apparatus and method for performing videotelephony using the same
US11315325B2 (en) Systems and methods for artificial intelligence-based virtual and augmented reality
CN111954063B (en) Content display control method and device for video live broadcast room
US11210525B2 (en) Method and terminal for providing content
WO2022079933A1 (en) Communication supporting program, communication supporting method, communication supporting system, terminal device, and nonverbal expression program
CN111538456A (en) Human-computer interaction method, device, terminal and storage medium based on virtual image
CN112204565A (en) System and method for inferring scenes based on visual context-free grammar model
WO2020129959A1 (en) Computer program, server device, terminal device, and display method
KR20200092207A (en) Electronic device and method for providing graphic object corresponding to emotion information thereof
CN112492390A (en) Display device and content recommendation method
KR20190134975A (en) Augmented realtity device for rendering a list of apps or skills of artificial intelligence system and method of operating the same
KR20230082374A (en) An electronic apparatus for adaptive generation of an avatar and a method therefore
CN112742024B (en) Virtual object control method, device, equipment and storage medium
Ding et al. Interactive multimedia mirror system design
CN111292743B (en) Voice interaction method and device and electronic equipment
CN117370605A (en) Virtual digital person driving method, device, equipment and medium
KR20190115517A (en) Character display device based the artificial intelligent and the display method thereof