KR100957858B1 - Avatar presenting method and computer readable medium processing the method - Google Patents

Avatar presenting method and computer readable medium processing the method Download PDF

Info

Publication number
KR100957858B1
KR100957858B1 KR1020070125504A KR20070125504A KR100957858B1 KR 100957858 B1 KR100957858 B1 KR 100957858B1 KR 1020070125504 A KR1020070125504 A KR 1020070125504A KR 20070125504 A KR20070125504 A KR 20070125504A KR 100957858 B1 KR100957858 B1 KR 100957858B1
Authority
KR
South Korea
Prior art keywords
avatar
expression
user
change
space
Prior art date
Application number
KR1020070125504A
Other languages
Korean (ko)
Other versions
KR20090058760A (en
Inventor
엄지훈
Original Assignee
에스케이커뮤니케이션즈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이커뮤니케이션즈 주식회사 filed Critical 에스케이커뮤니케이션즈 주식회사
Priority to KR1020070125504A priority Critical patent/KR100957858B1/en
Publication of KR20090058760A publication Critical patent/KR20090058760A/en
Application granted granted Critical
Publication of KR100957858B1 publication Critical patent/KR100957858B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 3차원으로 구현되는 아바타의 반응과 표정을 자연스럽고 명시적이면서도 강렬하게 표현할 수 있도록 한 아바타 표현 장치 및 방법에 관한 것으로, 아바타들 간의 상호작용을 위한 표현을 다양하게 특화시켜 간단한 조작만으로 적절하게 제공하도록 함으로써 현실감 높은 상호작용을 통해 몰입감을 높일 수 있는 효과가 있다.

Figure R1020070125504

가상 현실, 아바타, 표현, 감정, 상황, 대화, 3D

The present invention relates to an avatar expression apparatus and method for expressing the reaction and facial expression of an avatar implemented in three dimensions in a natural, explicit, and intense manner. Properly provided, it can increase immersion through realistic interactions.

Figure R1020070125504

Virtual reality, avatar, expression, emotion, situation, conversation, 3D

Description

아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체{AVATAR PRESENTING METHOD AND COMPUTER READABLE MEDIUM PROCESSING THE METHOD}AVATAR PRESENTING METHOD AND COMPUTER READABLE MEDIUM PROCESSING THE METHOD}

본 발명은 아바타 표현 방법에 관한 것으로, 특히 3차원으로 구현되는 아바타의 반응과 표정을 자연스럽고 명시적이면서도 강렬하게 표현할 수 있도록 한 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체에 관한 것이다.The present invention relates to an avatar expression method, and more particularly, to an avatar expression method for expressing the reaction and facial expression of an avatar implemented in three dimensions in a natural, explicit and intense manner, and to a computer-readable recording medium capable of implementing the same. will be.

급속한 컴퓨터 연산 기능 및 그래픽 처리 능력의 발전과 고속 인터넷 선로의 대중화에 따라 다양한 3차원 온라인 게임이 일반화되었으며, 특정한 게임의 목적을 달성해야 하는 게임과 달리 실제 생활 공간의 3차원 구현과 이를 통한 가상현실 체험을 위한 새로운 개념의 "생활형 가상 현실" 서비스도 상용화되어 점차 규모를 넓혀가고 있다.Various 3D online games have become common due to the rapid development of computer computing function and graphic processing capability and popularization of high speed internet line. Unlike games that need to achieve a specific game purpose, 3D realization of real life space and virtual reality through it A new concept of "living virtual reality" service for experience is also being commercialized and expanding.

이 중에서 가장 뚜렷한 성장을 보이는 "생활형 가상 현실"은 널리 알려진 " 세컨드 라이프"라는 온라인 서비스의 등장을 통해 그 가능성을 인정받아 그와 유사한 기능의 "생활형 가상 현실" 서비스의 대거 등장을 예고하고 있다.Among them, "life-type virtual reality", the most visible growth, is recognized for its potential through the emergence of the popular "second life" online service, and foreshadows the emergence of similar "life-type virtual reality" services.

이렇게 특정한 미션(mission)이나 퀘스트(quest) 없이 실제 생활과 유사한 환경을 제공하여 실제 생활을 가상 공간에서 대신할 수 있도록 하는 서비스는 실제와 유사하거나 실제에서는 찾기 어려운 3차원 입체 공간을 제공할 수 있어야 하며 다양한 사용자들의 상호 관계 설정 및 자연스러운 사용자 아바타 구현이 이루어져야 한다. 또한, 다양한 목적이 혼재된 서비스 환경이라는 특성 상 사용자들의 흥미를 유발할 수 있는 다양한 활용 어플리케이션의 제공과 실생활의 즐거움을 가상 공간에 접목할 수 있는 어플리케이션의 발굴 역시 서비스 활용에 큰 영향을 미치게 된다.Such a service that provides an environment similar to real life without a specific mission or quest to replace real life in virtual space should be able to provide a three-dimensional stereoscopic space that is similar to reality or difficult to find in reality. In addition, various user interactions and natural user avatars should be implemented. In addition, due to the nature of a mixed service environment, the provision of various applications that can induce interest of users and the discovery of applications that can combine real-life enjoyment with virtual space also have a great impact on service utilization.

이러한 생활형 가상 현실 서비스에 대한 초기 인상이나 활용상의 만족도를 좌우하는 요소 중 하나로 아바타에 대한 사용자의 몰입성을 들 수 있다. 일반적으로 사용자는 아바타가 자신과 동일하다고 느낄 수록 해당 서비스에 대한 몰입성과 충성도가 높아지게 되며 만족도 역시 높아지게 된다. 특히 사용자의 아바타가 항상 서비스의 중심에서 표현되는 경우, 아바타의 형태, 구성의 다양성 및 액션의 자연스러움은 가상 공간 상에서 자신을 대신하는 아바타에 대한 몰입 정도를 결정하는 주요한 요인이 된다. One of the factors that determine the initial impression or satisfaction of the life type virtual reality service is the user's immersion in the avatar. In general, the more the user feels the same as the avatar, the higher the immersion and loyalty of the corresponding service and the higher the satisfaction. In particular, when the user's avatar is always expressed in the center of the service, the shape of the avatar, the variety of composition, and the naturalness of the action become a major factor in determining the degree of immersion of the avatar in place of the user in the virtual space.

널리 알려진 바와 같이 아바타는 자신의 분신 또는 화신의 의미를 가지기 때문에 자신을 유사하게 표현하거나 자신이 이상적이라 생각하는 이상형을 표현하는 것이 바람직하므로 최근 아바타 구현 방식은 실물에 근접하게 아바타의 외관을 제 공하는 방식과 이상적인 외관의 기본 형태를 약간씩 변형하도록 한 외관을 제공하는 방식이 대세를 이루고 있다. 한편, 단순한 형태의 아바타를 제공하는 경우도 있으나 이는 사용자의 화신인 아바타라기보다는 다양한 서비스 사용을 위한 캐릭터라는 측면이 강하여 몰입성을 요하는 서비스에는 적합하지 않다.As is widely known, since avatars have meanings of their self-incarnations or incarnations, it is desirable to express themselves similarly or to express ideal types that they think are ideal. And the way to provide the appearance to slightly modify the basic form of the ideal appearance is the trend. On the other hand, there is a case in which a simple avatar is provided, but this is not suitable for a service requiring immersion because it is a character for various services rather than an avatar which is the incarnation of the user.

아바타의 외형은 사용자의 선택에 따라 그 용모와 옷차림 등이 결정되어 사용자를 반영하게 되는데, 가상 현실 서비스에서 사용되는 방식은 크게 몰핑(morphing) 방식과 맵핑(mapping) 방식으로 나뉘어진다. The appearance of the avatar is determined according to the user's selection, and the appearance and attire of the avatar are determined to reflect the user. The methods used in the virtual reality service are largely divided into a morphing method and a mapping method.

도 1은 대표적인 몰핑 방식의 아바타를 보인 것으로, 도시한 바와 같이 현실감 있는 형태를 제공하게 되며, 실제 사용자에 근접한 외관을 스스로 설정할 수 있어 일체감을 높일 수 있는 장점이 있다. 하지만, 몰핑 방식의 경우 이목구비와 얼굴형, 헤어 스타일 등과 같은 다양한 요소들을 수치 입력이나 바(bar) 조절을 통해 설정해야 하기 때문에 그 조작이 어려워 원하는 형태를 만들기 어렵고 최종적으로 얻어지는 아바타들 간의 차별성이 작은 문제점이 있다. 즉, 노력에 비해 개성이나 차별점이 미비하다. 또한, 실제 신체 치수에 근접하기 때문에 아바타의 전체 모습이 나타나는 경우 표정이나 얼굴의 변화를 쉽게 알기 어려워 아바타들 간의 대화 시 표현력이 낮아 현장감이 떨어진다.Figure 1 shows a representative morphing avatar, it provides a realistic form as shown, there is an advantage that can increase the sense of unity by setting the appearance close to the actual user by themselves. However, in the case of the morphing method, various elements such as the head, the face, and the hairstyle must be set through numerical input or bar adjustment, so that the manipulation is difficult to make a desired shape and the difference between the finally obtained avatars is small. There is a problem. In other words, individuality or discrimination is insufficient compared to the effort. In addition, when the entire figure of the avatar appears because it is close to the actual body size, it is difficult to easily recognize the change of expression or face, and thus the expression power is low when the avatars communicate with each other.

도 2는 단순한 형태의 아바타를 구성하기 위한 맵핑 방식 아바타 생성의 예를 보인 것으로, 도시한 바와 같이 얼굴형태를 선택하기 위한 도구(10)에서 전체적인 얼굴 형태(11)를 선택한 후 해당 얼굴 형태(11)의 구체적인 예들(12)이 나타나면 이들 중에서 하나를 선택함으로써 우측의 예시된 아바타들(14, 15)과 같은 얼굴 형태 및 특징들을 결정할 수 있다. 하지만, 도시한 바와 같이 단순한 형태만을 선택할 수 있기 때문에 현실감이 낮아지며, 몰입성도 낮아진다.FIG. 2 illustrates an example of generating a mapping method avatar for configuring an avatar in a simple form. As shown in FIG. 2, the tool 10 for selecting a face shape selects the overall face shape 11 and then the corresponding face shape 11. When specific examples 12 of) appear, one can determine the face shape and features, such as the illustrated avatars 14, 15 on the right, by selecting one of them. However, since only a simple form can be selected as shown, the reality is lowered, and the immersion is also lowered.

도 3 역시 맵핑 방식 아바타 생성의 예를 보인 것으로, 입체적인 형태와 이목구비 특징들을 선택할 수 있으나, 기본이 되는 형태를 기준으로 약간씩의 형태 변화만이 가능해진다. 이를 통해서 전체적으로 아름다운 아바타를 쉽게 구성할 수 있으나, 이 경우 아바타들 간의 차별성이 낮아지게 된다. Figure 3 also shows an example of mapping method avatar generation, it is possible to select the three-dimensional shape and features, but only a slight shape change based on the basic shape is possible. This makes it easy to construct a beautiful avatar as a whole, but in this case the difference between the avatars is lowered.

도 4는 상기 도 3과 같은 아바타 생성 방식을 적용한 실제 서비스에서 얼굴 형태를 달리 선택한 4가지 예를 보인 것으로, 얼굴 형태를 달리 선택함에도 불구하고 전체적인 느낌은 거의 유사하여 차별성이 극히 낮은 것을 알 수 있다.FIG. 4 shows four examples in which the face shape is differently selected in the actual service using the avatar generation method as shown in FIG. 3. Even though the face shape is differently selected, the overall feeling is almost similar and the difference is extremely low. .

따라서, 아바타 생성은 서비스의 용도에 적합하면서도 사용자들 간 차별성이 드러나고 구성이 용이하도록 해야 함을 알 수 있다.Therefore, it can be seen that the avatar generation should be suitable for the purpose of the service, but also to distinguish between users and to facilitate configuration.

한편, 현재의 생활형 가상현실 서비스는 사용자 아바타의 생산적인 활동이나, 사용자 아바타가 참여하는 다양한 어플리케이션 이용, 아바타들 간의 거래, 아이템 생산 등의 다양한 기본 기능을 통해 실제 생활을 모방하는 것에 초점을 맞추고 있으며, 이를 특화하여 특정한 목적성을 부여함으로써 목적성이 다소 포함된 생활형 가상현실 서비스도 등장하고 있으나 이러한 서비스들은 목적을 해결하기 위한 아바타들의 활동성을 근거로 서비스되고 있어 아바타들이 제공해야 하는 기능이 다양해지므로 아바타를 원하는 대로 조작하기 어렵고 표현 방식 또한 제한이 있다.Meanwhile, the current virtual reality service focuses on imitating real life through various basic functions such as productive activities of user avatars, use of various applications in which user avatars participate, transactions between avatars, and production of items. However, life-type virtual reality services that include some objectives have appeared by specializing them and assigning them to specific objectives. However, these services are provided based on the avatars' activities to solve the objectives. Difficult to manipulate as desired and limited in expression.

상기와 같은 생활형 가상 현실 서비스에서 제공되는 아바타 표현의 부족함을 개선하기 위해 새롭게 제안하는 본 발명 실시예들의 목적은 아바타들 간의 상호작용을 위한 표현을 다양하게 특화시켜 간단한 조작을 통해 적절하게 제공하도록 함으로써 현실감 높은 상호작용을 제공하여 몰입감을 높이도록 한 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.The object of the present invention, which is newly proposed to improve the lack of the avatar expression provided in the life-type virtual reality service as described above, is to variously specialize the expression for the interaction between the avatars and to provide it appropriately through a simple operation. The present invention provides an avatar expression method that provides immersive feelings by providing highly realistic interactions and a computer-readable recording medium capable of implementing the same.

본 발명 실시예들의 다른 목적은 복수의 아바타와 공간 아이템에 대한 상호작용을 근접과 물리적 변화로 간주되는 환경의 변화 등을 고려하여 자동적으로 실시하도록 구성함과 아울러 특정한 상호작용은 사용자가 지정하여 수행하도록 함으로써 자동적인 상호작용과 수동적인 상호작용을 통해 간단하면서도 복잡하고 다양한 표현이 가능하도록 한 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.Another object of the embodiments of the present invention is to configure interactions with a plurality of avatars and spatial items automatically in consideration of changes in the environment, which are regarded as proximity and physical changes, as well as specific interactions specified by the user. The present invention provides an avatar expression method that enables simple, complex and various expressions through automatic and passive interactions, and a computer-readable recording medium capable of implementing the same.

본 발명 실시예들의 또 다른 목적은 아바타의 외형을 설정할 경우 특정한 표현을 위한 외형을 추가적으로 설정할 수 있도록 하여 사용자가 직접 특정한 상황에 대한 표현을 지정할 수 있도록 한 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.Another object of the embodiments of the present invention is to set an external appearance for a specific expression when setting the appearance of the avatar so that the user can directly specify an expression for a specific situation, and a computer-readable computer capable of implementing the same. It is to provide a recording medium that can be.

본 발명 실시예들의 또 다른 목적은 특정한 상호작용이나 행동, 표정 변화등을 아이템처럼 등록하여 해당 표현을 활용하도록 하여 표현력을 증진시키는 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 것이다.Another object of the embodiments of the present invention is to provide a method of expressing an avatar by registering a specific interaction, behavior, or facial expression change as an item to utilize the corresponding expression, and a computer-readable recording medium embodying the same. It is.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 아바타 표현 방법은 서비스 사용자를 대신하는 디지털 컨텐츠의 표현 요소들을 사용자가 선택하여 디지털 컨텐츠를 생성하는 생성 단계와; 상기 디지털 컨텐츠를 기 설정된 공간 상에 출력하고 상기 공간 상에 배치된 다른 디지털 컨텐츠에 대한 상호작용과 상기 공간의 환경 변화 및 사용자의 지시에 따라 발생되는 이벤트 정보를 수신하는 이벤트 수신 단계와; 상기 수신된 이벤트 정보를 근거로 상기 이벤트 종류에 대응되어 기 설정된 표현 요소를 변경하여 상기 디지털 컨텐츠를 출력하여 표현하는 단계를 포함하여 이루어진다. In order to achieve the above object, the avatar expression method according to an embodiment of the present invention comprises the steps of generating the digital content by the user to select the expression elements of the digital content on behalf of the service user; An event receiving step of outputting the digital content on a predetermined space and receiving event information generated according to an interaction with other digital content arranged in the space, an environment change of the space, and a user's instruction; And outputting and expressing the digital content by changing a preset expression element corresponding to the event type based on the received event information.

이때, 상기 표현하는 단계는 상기 표현 요소의 변경이 다른 디지털 컨텐츠와의 상호작용에 관련된 변경인 경우 그에 따른 이벤트 정보를 상기 다른 디지털 컨텐츠에 제공하는 단계를 더 포함할 수 있다.In this case, the expressing may further include providing event information according to the event information when the change of the expression element is related to interaction with other digital content.

상기 이벤트 수신 단계는 다른 디지털 컨텐츠의 표현 요소 변경에 따른 이벤The event receiving step may be performed by changing an expression element of another digital content.

트 정보를 수신하는 단계를 더 포함하고, 상기 표현하는 단계는 상기 수신한 이벤트 정보의 종류가 표현 요소 변경이 기 설정되지 않은 종류의 것이라면 이벤트 정보를 근거로 변경 가능한 추천 표현 요소를 직접 선택이 가능한 상태로 제공하는 단계를 더 포함할 수 있다.The method may further include receiving event information, wherein the expressing of the event information may include directly selecting a changeable recommendation expression element based on event information if the received event information is of a type in which the expression element change is not preset. It may further comprise providing a state.

상기 생성 단계는 상기 디지털 컨텐츠로서 사용자를 표현하기 위해 사용되는 아바타의 외형에 대한 표현 요소들을 설정하여 사용자 아바타를 생성하는 단계를 포함할 수 있으며, 상기 표현 요소들은 일반, 희, 노, 애, 락, 동작 중 적어도 하나 이상의 상황에 따라 각각 다르게 설정될 수 있다.The generating step may include generating a user avatar by setting expression elements for an external appearance of the avatar used to represent the user as the digital content, wherein the expression elements are general, noble, no, favorite, and rock. The operation may be set differently according to at least one or more situations.

한편, 상기 생성 단계에서 상기 표현 요소들은 상기 아바타의 신체를 구성하는 개별 구성 요소, 의상이나 장신구와 같은 탈착 요소, 지정된 상황에 대한 움직임, 지정된 상황에 대한 표정, 지정된 상황에 대해 기존 표현 요소를 대체하거나 덧붙여 제공되는 강조 표현 요소 중 적어도 하나 이상을 포함할 수 있다.On the other hand, in the generating step, the expression elements replace individual expression elements that constitute the body of the avatar, detachable elements such as clothes or jewelry, movements for a specified situation, facial expressions for a specified situation, and existing expression elements for a specified situation. It may include at least one or more of the emphasis expression elements provided in addition or.

상기 이벤트 수신 단계에서 상기 기 설정된 공간은 상기 디지털 컨텐츠 사용자가 다른 디지털 컨텐츠 사용자를 초대하기 위한 공간이거나, 디지털 컨텐츠가 방문할 수 있는 공간이며, 상기 다른 디지털 컨텐츠에 대한 상호작용은 다른 디지털 컨텐츠의 행동에 대한 응답, 다른 디지털 컨텐츠와의 인접에 대한 반응, 다른 디지털 컨텐츠와의 특정한 목적에 따른 물리적 효과를 발생시키는 행동 중 적어도 하나를 포함한다.In the event receiving step, the predetermined space is a space for the digital content user to invite another digital content user or a space that digital content can visit, and the interaction with the other digital content is the action of other digital content. At least one of a response to, a response to proximity to other digital content, and an action that produces a physical effect according to a particular purpose with other digital content.

상기 이벤트 수신 단계에서 상기 공간의 환경 변화는 상기 공간 상에서 발생될 수 있는 기상 변화, 온도 변화, 물리적 구조 변화 중 적어도 하나를 포함하여 다양한 환경/물리적 변화에 대응하여 현실감을 극대화하도록 한다.The environmental change of the space in the event receiving step maximizes the realism in response to various environmental / physical changes, including at least one of weather change, temperature change, and physical structure change that may occur in the space.

상기 변경 출력되는 상기 기 설정된 표현 요소는 상기 디지털 컨텐츠의 일련의 동작 패턴으로서 별도의 아이템으로 관리되는 표현 요소로서, 친숙한 아이템 관리 방식을 이용할 수 있다.The preset expression element that is changed and output is a representation element managed as a separate item as a series of operation patterns of the digital content, and may use a familiar item management scheme.

그 외에, 상기 디지털 컨텐츠는 얼굴과 손발에 대응하는 영역 중 적어도 하 나를 구비한 아바타이며, 상기 표현 단계는 상기 디지털 컨텐츠의 표시 방식 변경에 따라 상기 얼굴과 손발 중 적어도 하나에 대응하는 영역이 줄어들 경우, 기 설정된 범위에서 기 설정된 비율로 상기 얼굴과 손발 중 적어도 하나를 확대 표시하여 표현 변경의 관찰 범위를 확장함으로써, 표현 변경을 활용하는 아바타들 간의 대화에 특화될 수 있다.In addition, the digital content is an avatar having at least one of the areas corresponding to the face and the limbs, and the expression step is when the area corresponding to at least one of the face and the limbs is reduced according to a change in the display method of the digital content. In addition, by expanding and displaying at least one of the face and the limbs at a preset ratio in a preset range, the observation range of the expression change may be extended, thereby enabling the dialogue between avatars utilizing the expression change.

또한, 본 발명 실시예에 따른 아바타 표현 방법은, 서비스 사용자를 대신하는 아바타 간 상호 대화나 행동이 가능한 3차원 가상 현실 서비스에서의 아바타 표현 방법에 있어서, 아바타의 표현 요소들을 하나 이상의 상황에 대해 사용자가 선택하여 사용자 아바타를 생성하는 생성 단계와; 상기 사용자 아바타를 기 설정된 가상의 공간에 출력하고 사용자의 지시에 따라 동작시키면서, 상기 공간 및 상기 공간 내의 다른 아바타 또는 디지털 컨텐츠의 변화와 상기 사용자 아바타의 변화 중 기 설정된 수준의 변화 정보를 포함하는 이벤트 정보를 수신 및 전송하는 출력 단계와; 상기 표현 요소들 중 일부를 대체하기 위한 표현 요소들을 상황별로 설정하는 설정 단계를 포함하여 이루어질 수 있다.In addition, the avatar expression method according to an embodiment of the present invention, in the avatar expression method in the three-dimensional virtual reality service capable of interaction or action between avatars on behalf of the service user, the user of the expression elements of the avatar for one or more situations Generating a user avatar by selecting; Outputting the user avatar in a preset virtual space and operating according to a user's instruction, the event including change information of a predetermined level among changes in the space and other avatars or digital contents in the space and changes in the user avatar. An output step of receiving and transmitting information; It may include a setting step of setting the expression elements to replace some of the expression elements for each situation.

상기 출력 단계에서 수신된 이벤트 정보에 포함된 변화 정보와 사용자의 지정 정보를 근거로 상기 설정 단계에서 설정된 표현 요소를 상기 사용자 아바타에 적용하는 표현 단계를 포함할 수 있다.And a presentation step of applying the expression element set in the setting step to the user avatar based on the change information included in the event information received in the output step and the user designation information.

상기 표현 단계는 상기 이벤트 정보의 변화 정보에 대응하여 상기 설정 단계에서 기 설정된 표현 요소가 없는 경우 상기 이벤트 정보를 근거로 추천 표현요소들을 직접 선택이 가능한 상태로 제공하는 단계를 더 포함할 수 있다.The presenting may further include providing recommended expression elements in a state where direct selection of recommended expression elements is possible based on the event information when there is no preset expression element in the setting step corresponding to the change information of the event information.

여기서, 상기 표현 단계는 아바타에 적용된 표현 요소 중 적어도 일부를 기 설정된 시간이나 노출 조건이 만족되면 제거하여 아바타의 이전 상태를 자동적으로 복원하는 단계를 더 포함할 수 있다.Here, the expressing step may further include automatically restoring a previous state of the avatar by removing at least some of the expression elements applied to the avatar when a preset time or exposure condition is satisfied.

또한, 본 발명의 또 다른 실시예에 따른 기록 매체는 전술한 아바타 표현 방법을 수행하는 프로그램이 수록된다.In addition, the recording medium according to another embodiment of the present invention contains a program for performing the above-described avatar expression method.

이러한 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD( Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 케리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다. 또한, 이러한 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Such recording media includes all types of recording media on which programs and data are stored so that they can be read by a computer system. Examples include Read Only Memory (ROM), Random Access Memory (RAM), Compact Disk (CD), Digital Video Disk (DVD) -ROM, magnetic tape, floppy disk, optical data storage devices, and the like. It also includes implementations in the form of (eg, transmission over the Internet). In addition, these recording media can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

본 발명의 실시예에 따른 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 아바타들 간의 상호작용을 위한 표현을 다양하게 특화시켜 간단한 조작을 통해 적절하게 제공하도록 함으로써 현실감 높은 상호작용을 제공하여 몰입감을 높일 수 있는 효과가 있다.Avatar expression method and a computer-readable recording medium that can implement the same according to an embodiment of the present invention by providing a variety of special expressions for interaction between the avatar to provide appropriately through a simple operation to provide a realistic interaction Providing has the effect of increasing the immersion.

본 발명의 실시예에 따른 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 복수의 아바타와 공간 아이템에 대한 상호작용을 근접과 물리적 변화로 간주되는 환경의 변화 등을 고려하여 자동적으로 실시하도록 구성함과 아울러 특정한 상호작용은 사용자가 지정하여 수행하도록 함으로써 자동적인 상호작용과 수동적인 상호작용을 통해 간단하면서도 다양한 표현이 가능하도록 하여 아바타간 의사소통의 효율을 극대화 할 수 있는 효과가 있다.According to an embodiment of the present invention, the method of representing an avatar and a computer-readable recording medium embodying the same may automatically consider interactions with a plurality of avatars and spatial items in consideration of changes in an environment considered as proximity and physical change. In addition to the specific interactions, the user can designate and perform a simple and diverse expression through automatic and passive interactions, thereby maximizing the efficiency of communication between avatars. .

본 발명의 실시예에 따른 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 아바타의 외형을 설정할 경우 특정한 표현을 위한 외형을 추가적으로 설정할 수 있도록 하여 사용자가 직접 특정한 상황에 대한 표현을 지정할 수 있도록 함으로써, 상황에 따른 과장되거나 극적인 효과를 제공하여 실제와 유사하거나 더욱 효과적인 의사 전달이 가능해지는 효과가 있다.According to an embodiment of the present invention, an avatar expression method and a computer-readable recording medium embodying the same may additionally set an appearance for a specific expression when the appearance of the avatar is set so that a user may directly specify an expression for a specific situation. By doing so, it is possible to provide exaggerated or dramatic effects depending on the situation, thereby enabling communication that is similar or more effective to reality.

본 발명의 실시예에 따른 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 특정한 상호작용이나 행동, 표정 변화등을 아이템처럼 등록할 수 있도록 하여 다양한 표현 변화들을 구매하거나 선물하는 등 표현 변화들을 체계적으로 관리하는 한편, 서비스 제공자는 상업성을 높일 수 있는 효과가 있다.Avatar expression method according to an embodiment of the present invention and a computer-readable recording medium that can implement the same expression such as purchasing or presenting a variety of expression changes by registering a specific interaction, behavior, facial expression changes, etc. as an item While managing changes systematically, service providers have the effect of increasing commercial viability.

본 발명 실시예에 따른 아바타 표현 방법 및 이를 구현할 수 있는 컴퓨터로 읽을 수 있는 기록 매체는 다양한 표현 변화를 사용자가 임의적으로 추가하거나 생성할 수 있으며, 구매나 선물, 획득 등의 방식으로 얻을 수 있어 방대한 아바타 표현을 통해 자신만의 개성을 강조할 수 있고, 이러한 아바타의 표현을 생성하여 이를 판매할 수도 있어 서비스 사용자의 참여를 유도할 수 있는 효과가 있다.Avatar expression method and a computer-readable recording medium that can implement the present invention according to an embodiment of the present invention can be arbitrarily added or generated a variety of expression changes, and can be obtained in the manner of purchase, gift, acquisition, etc. It is possible to emphasize their own personality through the avatar expression, and to generate and sell the expression of the avatar, thereby inducing the participation of the service user.

상기한 바와 같은 본 발명을 첨부된 도면들과 실시예들을 통해 상세히 설명하도록 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings.

도 5는 가상 현실 시스템에서의 아바타 표현 방식을 보인 것으로, 도시한 바와 같이 인간과 유사한 형상의 아바타(101)가 기본적으로 사용되며 경우에 따라서는 인간에 대응되는 다른 형태의 아바타가 사용될 수도 있다. FIG. 5 illustrates a method for representing an avatar in a virtual reality system. As shown in FIG. 5, an avatar 101 having a shape similar to a human is basically used, and in some cases, another avatar corresponding to the human may be used.

도시된 간단한 아바타(101)의 사용 방식을 보면, 사용자(User)를 나타내기 위한 태그(102)와, 상기 아바타(101)나 태그(102)를 선택할 경우 나타나는 기본 메뉴로서 개인 정보나 아바타의 외관을 편집하는 항목과 가상 현실에서 아바타를 움직이기 위한 기본적인 동작 항목들이 나타나 있다.In the simple avatar 101 shown in the figure, a tag 102 for indicating a user and a basic menu appearing when the avatar 101 or the tag 102 are selected are shown. Editing items and basic action items for moving an avatar in virtual reality are shown.

물론, 간단한 동작의 경우 마우스나 키보드와 같은 입력 장치를 통해 직접적으로 조정될 수 있으며, 단축키를 통해 복잡하고 다양한 세부 동작들을 제어할 수도 있다. 하지만, 이러한 활동성보다는 표현이 중요시되므로 이러한 동작들은 너무 복잡하지 않은 것이 바람직하다.Of course, in the case of a simple operation can be directly controlled through an input device such as a mouse or a keyboard, it is also possible to control complex and various detailed operations through a shortcut key. However, since expression is more important than such activity, it is desirable that these operations are not too complex.

도 6은 본 발명 일 실시예에 따른 아바타들의 표현 방식의 기본 예를 보인 것으로, 도시한 바와 같이 복수의 아바타들이 참여하기 위해 기 설정된 공간이나 특정한 아바타 사용자가 생성하여 다른 아바타를 초대할 수 있는 가상의 공간에서 복수의 아바타들이 대화를 나누는 경우이다.6 illustrates a basic example of an expression method of avatars according to an embodiment of the present invention. As shown in the drawing, a virtual space in which a predetermined avatar or a specific avatar user can invite another avatar to participate in a plurality of avatars is shown. This is the case when a plurality of avatars have a conversation in the space of.

최근의 생활형 가상현실 서비스는 대부분 실질적인 거리나 도시에서 실제 생활하는 것처럼 이동하며 집을 짓고 일을 하는 등의 현실적인 가상 체험을 제공하는 경우가 많으나, 이러한 경우 서비스의 내용을 익혀서 재미를 추구할 정도로 숙련되 기가 어렵다. 따라서, 간단한 목적성과 단순화된 조작성을 통해 쉽고 빠르게 서비스 활용이 가능한 부분 생활형 가상현실 서비스의 필요성이 높아지고 있다.In recent years, virtual reality services in most cases provide realistic virtual experiences such as building a house, working, moving like a real life in a real street or a city, but in this case, they are skilled enough to learn the contents of the service and pursue fun. Difficult Therefore, the necessity of a partial life type virtual reality service that can be used easily and quickly through simple purpose and simplified operation is increasing.

본 실시예에서는 생활의 일부분인 상호 교류와 대화를 주된 서비스로 하며 부가적으로 다양한 위락 시설이나 공통 놀이 공간을 제공하는 서비스를 제공할 경우 가장 중요시되는 아바타들 간의 상호 교류, 상호작용, 자신에 대한 표현을 다양하면서도 간단한 방식으로 제공할 수 있는 예를 든 것이다.In the present embodiment, the main services are mutual exchanges and conversations, which are a part of life, and additionally, interactions, interactions, and interactions with avatars that are most important when providing services that provide various amusement facilities or common play spaces. Here is an example that can provide expression in a variety of simple ways.

도시된 경우 제 1아바타(101)의 사용자가, 다른 아바타들(111, 121)의 사용자와 대화를 한다면, 채팅 내용은 메신저와 유사하게 채팅창을 통해 상호 전달할 수 있어 기본적인 대화가 가능하다. 한편, 사용자들은 각각 자신의 아바타를 통해 단순한 문자가 아닌 몸짓이나 신체 접촉을 통해 상기 문자를 통해 전달한 내용을 보충하거나 보조하고, 문자를 통하지 않은 정보(상태, 기분, 구체적 정보)를 전달할 수 있다.In the illustrated case, when the user of the first avatar 101 communicates with the user of the other avatars 111 and 121, the chat contents may be mutually transmitted through the chat window, similar to a messenger, and thus a basic conversation may be performed. On the other hand, the user may supplement or supplement the contents transmitted through the characters through gestures or body contact, rather than simple characters through their avatars, and may transmit information (state, mood, specific information) not through the characters.

특히, 상대방이 있는 경우 실시할 수 있는 다양한 상호동작은 실제 상황일 경우 하기 어려운 상호동작도 할 수 있기 때문에 단순한 대화가 아닌 '만남'을 즐길 수 있게 된다. 도시된 경우 상호동작은 상대방이 필요하기 때문에 제 1아바타(101) 사용자가 제 3아바타(121) 사용자와 상호동작을 수행하고자 할 경우, 제 3아바타(121)를 선택하거나 해당 아바타의 태그(122)를 선택하여 메뉴(125)가 나타나도록 한 후 상호동작을 선택하여 하위 메뉴(126)가 나타나도록 하고 해당 메뉴에서 원하는 상호동작 항목을 선택하면 해당 동작이 수행되게 된다. 상기 상호동작의 하위 메뉴(126) 항목들을 보면, '악수', '인사', '포옹'...'격식 인사'와 같이 상 대방이 있어야만 하는 동작임을 알 수 있다. In particular, the various interactions that can be performed when there is a counterpart can enjoy interactions that are difficult to do in real situations, rather than simple conversations. In this case, since the interaction is necessary for the other party, when the first avatar 101 user wants to interact with the third avatar 121 user, the third avatar 121 selects the third avatar 121 or the tag 122 of the corresponding avatar. Select) to display the menu 125, then select Interaction to display the submenu 126, and select the desired interaction item from the menu to perform the corresponding operation. Looking at the items of the submenu 126 of the interaction, it can be seen that the operation must have a counterpart, such as 'handshake', 'greeting', 'hugging' ... 'formal greeting'.

한편, 이러한 동작은 단순히 지정을 통해 수행될 수도 있으나 물리적 환경에 의해 수행되지 않을 수도 있는데, 예를 들어 다른 곳을 바라보고 있거나, 배치된 공간에 장애물이 있는 경우 '인사'를 선택해도 동작이 되지 않도록 하여 보다 현실감을 높일 수 있다.On the other hand, such an operation may be performed simply by designation, but may not be performed by the physical environment. For example, when looking at another place or when there is an obstacle in the arranged space, selecting 'greeting' does not work. You can make it more realistic.

따라서, 자신의 아바타는 키보드나 마우스와 같은 입력 수단을 통해 조작하거나 자신의 태그를 선택하여 메뉴를 호출한 후 항목을 지정함(도 5)으로써 조작할 수 있고, 상호동작은 상대방 아바타를 지정한 후 특정한 동작을 선택하여 수행할 수 있다. 이 경우, 상대방이 이러한 상호동작에 대한 요청을 받아 허락한 경우에만 해당 상호동작이 이루어질 수 있도록 할 수 있다.Therefore, the avatar of the user can be manipulated through an input means such as a keyboard or a mouse or by selecting a tag to call a menu and then specifying an item (FIG. 5). You can select and perform a specific action. In this case, the interaction can be made only when the other party receives the request for the interaction and permits it.

한편, 도시되지는 않았지만 상기 상호동작의 경우 아바타의 동작을 의미하는 것이므로 특정한 동작의 경우 이를 편집하여 상기 상호동작의 하위 항목으로 등록할 수 있으며, 이를 새로운 아이템처럼 취급할 수도 있다.On the other hand, although not shown, since the interaction refers to the operation of the avatar, a specific operation may be edited and registered as a sub-item of the interaction, and may be treated as a new item.

도 7은 본 발명 일 실시예에 따른 가상현실 서비스의 화면 예를 보인 것으로, 도시한 바와 같이 가상의 공간(200)에는 복수의 아바타들(101, 111)과 공간 아이템(131)이라 칭해질 수 있는 특정한 오브젝트가 배치될 수 있다. 상기 공간 아이템(131)은 해당 공간을 생성하는 사용자 혹은 서비스 제공자가 배치할 수 있으며, 상기 아바타들(101, 111)과 상호동작이 가능하다.FIG. 7 illustrates an example of a screen of a virtual reality service according to an exemplary embodiment of the present invention. As shown in FIG. 7, a plurality of avatars 101 and 111 and a space item 131 may be referred to as a virtual space 200. Specific objects can be placed. The space item 131 may be arranged by a user or a service provider who creates a corresponding space and may interact with the avatars 101 and 111.

도시된 경우, 간단한 메뉴 상태를 보면 제 1아바타(101) 사용자는 도시한 바와 같이 자신의 아바타(101)에 대해서는 독립적 움직임 항목을 가진 사용자 인터페 이스(107)를 표시하여 이용할 수 있고, 다른 사용자의 제 2아바타(111)에 대해서는 상호동작을 포함하는 메뉴(117)와 그 하위 메뉴(118)를 통해 다양한 상호동작을 수행할 수 있다. 한편, 공간 아이템(131)에 대해서도 상호동작이 가능한 메뉴(132)를 통해 상호동작을 수행할 수 있다.In the illustrated case, the user of the first avatar 101 can display and use a user interface 107 having an independent movement item for his avatar 101 as shown in the figure. Various interactions may be performed on the second avatar 111 through the menu 117 including the interaction and the submenu 118. Meanwhile, the spatial item 131 may be interacted with through the menu 132 that may be interacted with.

한편, 공간 상의 가상적 현실감을 높이기 위해서 이러한 공간(200)과 공간상의 아바타들(101,111) 및 공간 아이템(131)은 물리적인 환경에 영향을 받도록 구성할 수 있는데, 예를 들어 상기 제 1아바타(101) 사용자가 자신의 아바타를 상기 공간 아이템(131)에 앉도록 한 경우, 그 경로가 차단되어 있거나 공간 아이템의 위치가 앉기 어렵게(특정 물건의 상부, 뒤집어짐 등)되어 있다면 이를 수행하지 못하도록 할 수 있다. 이는 다른 아바타와의 상호동작에서도 유사하게 적용될 수 있다.Meanwhile, in order to increase the virtual reality in the space, the space 200, the avatars 101, 111, and the space item 131 in the space may be configured to be affected by a physical environment, for example, the first avatar 101. When the user has his avatar sit on the space item 131, if the path is blocked or the location of the space item is difficult to sit on (top of a specific object, upside down, etc.), it may not be performed. have. This may similarly be applied to interactions with other avatars.

상기 제 1아바타(101) 사용자는 도시된 바와 같은 개인 정보 영역(210)을 통해 온라인/자리비움/오프라인 등의 접속 상태나 자신의 사이버 머니, 로그인 정보, 등급 등과 같은 다양한 사용자 정보를 확인할 수 있고, 채팅창(220)을 통해 다른 아바타와 문자로 정보를 주고 받을 수 있다. 그 외에 상태바(status bar)로서 네비게이션바(230)를 통해 공간 정보를 알거나 공간 이동을 지시할 수 있고, 보조 아이콘바(240)를 통해 특정한 기능이나 표현 변경 등의 작업을 쉽게 지시할 수 있다. 부가적으로 일반관리바(250)를 통해 일반적인 관리 메뉴를 호출하여 설정등을 변경하거나 사용법을 확인하는 등의 작업을 수행할 수 있다. 이러한 다양한 부가적인 구성들은 다양하게 변경될 수 있으므로 이러한 변경들로 본 발명이 제한되는 것이 아님에 주의한다. The user of the first avatar 101 may check a variety of user information such as online / away / offline connection status or his / her cyber money, login information, rating, etc. through the personal information area 210 as shown. The chat window 220 may exchange information with other avatars and text. In addition, as a status bar, a navigation bar 230 may be used to know spatial information or to instruct space movement, and an auxiliary icon bar 240 may easily instruct a specific function or expression change. have. In addition, a general management menu may be called through the general management bar 250 to change a setting or check a usage. Note that these various additional configurations may be varied in various ways, and thus the present invention is not limited to these changes.

즉, 상기 설명한 구성을 통해서 간단한 동작과 상호작용 및 대화를 실시할 수 있게 되며, 직관적인 인터페이스를 통해 간단한 마우스 조작으로 상대 아바타에 접근하고 상호작용하면서 채팅을 실시하고, 각종 상태를 관리할 수 있게 된다. 이러한 아바타를 이용한 기본적인 시스템 구성으로 동적인 대화는 가능하지만, 현실감은 상당히 낮기 때문에 아바타를 개성적으로 표현하기 위한 새로운 표현 방식을 더 제공해야할 필요가 있다.That is, through the above-described configuration, it is possible to perform simple actions, interactions, and conversations, and to chat with each other by managing a variety of states while accessing and interacting with an avatar of a partner with a simple mouse operation through an intuitive interface. do. Dynamic dialogues are possible with this basic system configuration using avatars, but since the reality is quite low, there is a need to provide a new expression method for expressing avatars individually.

상기 채팅창(220)과 같이 사용자가 집중하여 조작하며 실제 대화의 기본이 되는 수단은 문자를 입력하기 위한 입력창(221)과, 입력된 문자를 전송하기 위한 전송 버튼이 존재하며, 자신의 감정을 아바타가 대신 표현하도록 하는 감정표현 수단(222)이 부가될 수 있다. 상기 감정표현 수단(222)을 통해 도시한 바와 같이 부가적인 서브 메뉴창(223)이 나타나 자신이 표현하도록 하는 감정 항목을 선택하도록 할 수 있으며, 이러한 지시를 통해 상기 제 1아바타(101)는 몸짓이나 얼굴 표정등을 변화시켜 감정을 나타낸다. As the chat window 220, the user concentrates and manipulates the basic means of the actual conversation. An input window 221 for inputting a character and a transmission button for transmitting the input character exist and have their own emotions. Emotional expression means 222 may be added to cause the avatar to express the expression instead. As shown through the emotion expressing means 222, an additional sub-menu window 223 may be displayed to select an emotion item to be expressed by the user, and the first avatar 101 may gesture through this instruction. Show emotion by changing facial expressions.

이러한 감정 표현 중에서 일부는 자동적으로 수행되도록 할 수 있는데, 예를 들어 아바타들 간의 상호동작에 의해 인사를 할 경우 기쁜 감정 상태가 되도록 한다거나, 포옹이나 키스와 같은 상호동작을 할 경우 수줍거나 사랑하는 감정 상태가 되도록 한다거나, 특정한 감정을 표현하는 경우 그에 따라 대응되는 감정 상태가 되도록 하는 등 상대 아바타의 상호 동작, 독립 동작, 감정 표현 등과 같은 상황에 대한 대응이 자동적으로 이루어지도록 할 수 있다. 물론, 그 자동 응답 수준은 사 용자에 의해 설정될 수 있으며, 완전한 수동으로 이루어지도록 할 수도 있다.Some of these emotional expressions can be automatically performed, for example, to make a happy emotional state when greeting by avatars, or to be shy or loving when interacting with a hug or kiss. When a specific emotion is expressed, or a corresponding emotion state is set accordingly, corresponding actions such as interaction, independence, and emotional expression of the opponent avatar may be automatically performed. Of course, the auto-response level can be set by the user and can be made completely manual.

한편, 본 실시예에서는 이러한 아바타의 표현 방식을 더욱 풍부하면서도 활용 및 관리가 용이하도록 하기 위해 상기 감정 표현을 포함하는 포괄적인 표현 변경 방식을 아이템 형태로 추가/변경/선택/해제/버림 등을 할 수도 있도록 구성한다. Meanwhile, in the present embodiment, in order to make the expression method of the avatar more rich and easy to use and manage, the comprehensive expression change method including the emotional expression may be added / modified / selected / released / discarded in the form of items. Configure it to be possible.

상기 감정 표현에 따른 아바타의 표현 변화는 서비스 시스템에서 감정에 따른 표현 변화로서 제공되는 방식을 이용할 수 있으나, 이러한 경우 특정 감정 표현에 대해 모든 아바타가 동일한 대응을 하게 되므로 개성이 없어져 현실감이 낮아지게 된다. 예를 들어, 문자 채팅에서 즐겁다는 표현을 누구나 "^^"로 나타내는 경우와 흡사하게 즐거울 때는 모든 아바타가 동일한 방식으로 웃도록 표현 변경 내용이 구성(예를 들어, 눈과 입을 웃는 형태로 변경하도록 하는 구성)될 수 있어 즐거움의 정도와 개인별 개성이 무시될 수 있다.The expression change of the avatar according to the emotional expression may use a method provided by the service system as the expression change according to the emotion, but in this case, since all avatars respond to the same emotional expression, the personality is lost and the reality is lowered. . For example, similarly to the expression "fun" in text chat, when everyone says "^^", the presentation changes can be configured to make all avatars laugh in the same way (for example, to change eyes and mouth to smile). The degree of enjoyment and personality can be ignored.

따라서, 앞서 설명한 바와 같이 감정 표현에 대한 항목들을 사용자가 스스로 추가할 수 있도록 하여 특정한 감정의 종류를 다양화할 수 있도록 한다. 한편, 다른 방식으로도 감정 표현에 따른 아바타 표현 방식을 변경할 수 있는데, 기본적으로 제시되는 감정 표현에 따른 아바타 표현 변경 내용을 사용자가 다른 종류의 표현 방식으로 변경할 수 있도록 하여 대화에 필요한 아바타 표현 방식에 있어서의 자유도를 극대화하도록 한다. 이는 도 9를 통해 다시 설명할 것이다.Therefore, as described above, the user can add items for the expression of emotion by himself, so that the specific kind of emotion can be diversified. On the other hand, it is also possible to change the avatar expression method according to the emotion expression in other ways, and basically, the user can change the avatar expression change according to the emotion expression that is presented to another kind of expression method to change the avatar expression method required for the conversation. To maximize the degree of freedom. This will be described again with reference to FIG. 9.

도 8은 아바타 표현 방식의 다른 예를 보인 것으로 도시한 바와 같이 아바타의 얼굴(310), 손(320), 발(330)이 신체 비율에 비해 커지도록 한 것으로, 이는 본 실시예가 대화를 주목적으로 하는 가상현실 시스템의 목적에 적합하도록 하는 표현 방식으로, 시스템상에서 자동으로 제공할 수 있다. 사용자의 설정에 따라 사용 여부가 결정되거나 수준이 결정될 수 있음은 물론이다.FIG. 8 illustrates another example of the avatar expression scheme, in which the avatar's face 310, hand 320, and foot 330 are larger than the body ratio. It can be provided automatically on the system in an expression manner that suits the purpose of the virtual reality system. Of course, depending on the user's settings it can be determined whether or not to use the level.

이는 특정한 공간에서 다양한 아바타들이 '만남'을 목적으로 하는 가상 현실 서비스에서 감정의 표현이나 상호 소통의 수단인 표정, 손짓, 발짓이 명료하게 드러나도록 한 예를 보인 것으로, 롱테이크 화면 배치와 같은 시점의 변화를 통해 아바타의 소통 표현이 잘 보이지 않을 경우 상기와 같은 아바타 표현 변화가 나타나도록 할 수 있다. 즉, 상기 얼굴과 손발 중 적어도 하나에 대응하는 영역이 줄어들 경우, 기 설정된 범위에서 기 설정된 비율로 상기 얼굴과 손발 중 적어도 하나를 확대 표시하여 표현 변경의 관찰 범위를 확장할 수 있어 자신 및 상대방의 표현 변화를 보다 용이하게 확인할 수 있게 된다.This is an example of how various avatars in a specific space can express their expressions, gestures, and gestures as a means of expressing emotions or communicating in a virtual reality service aimed at 'meeting'. When the communication expression of the avatar is difficult to see through the change of, the avatar expression change as described above may appear. That is, when the area corresponding to at least one of the face and the limbs is reduced, at least one of the face and the limbs is enlarged and displayed at a preset ratio in a preset range to extend the observation range of the expression change. It is easier to check the expression change.

도 9는 아바타 표현 변화를 위한 예를 보인 것으로 앞서 설명한 기본적인 감정 표현을 사용자가 스스로 결정할 수 있도록 하여 개성을 부여하기 위한 방법으로 적용될 수 있다. 즉, 사용자가 아바타 생성이나 사용 중에 아바타의 외관을 나타내는 신체와 같은 표현 요소들을 다양한 상황에 따라 달리 설정할 수 있도록 함으로써, 기본 아바타를 설정할 경우 특정 상황에 대해서는 자동적으로 제공되는 획일적 표현 변화가 아닌 개성적인 표현 변화를 유도할 수 있게 된다. 9 shows an example for changing the avatar expression and may be applied as a method for giving a personality by allowing a user to determine the basic emotional expression described above. That is, the user can set expression elements such as the body representing the avatar's appearance differently according to various situations during the creation or use of the avatar, so that when the basic avatar is set, it is not a uniform expression change that is automatically provided for a specific situation. It is possible to induce a change in expression.

도시된 바와 같이, 기본 아바타의 얼굴 표현(110)을 선택할 경우 각 상황별 얼굴 표현 역시 사용자가 지정할 수 있도록 할 수 있는데, 예를 들어 기쁠 때의 얼굴 표현 요소들에 대한 설정을 사용자가 임의적으로 선택할 수 있다. 물론, 아바타의 외형이 완전히 달라져 일관성을 유지할 수 없을 수도 있으므로 얼굴 형태를 유지하고 내부 이목구비나 얼굴 색상만 변경하도록 하는 등의 부분별 제한을 둘 수도 있다.As shown in the figure, when the facial expression 110 of the basic avatar is selected, the facial expression for each situation can also be specified by the user. For example, the user can arbitrarily select settings for the facial expression elements when they are happy. Can be. Of course, since the appearance of the avatar may be completely different, it may not be able to maintain consistency, and there may be a partial restriction such as maintaining the face shape and changing only the internal neck and face color.

상기 각 상황별 표현요소 설정들은 기본 아바타와는 달리 사용 중에 변화 가능한 것이기 때문에 마치 의복 세트를 지정하듯이 표현 세트를 하나의 단일 아이템으로 관리할 수도 있어 필요 시 동일한 상황에 대해 상이한 표현도 아이템 선택(예를 들어, 조금 즐거움, 많이 즐거움에 따른 표현을 설정하여 아이템으로 등록한 후 현재 사용할 아이템 선택)에 의해 가능해 질 수 있다. 이는 개별 아이템 선택이나 모드 설정(즐거움, 우울함, 화남 등)에 의해 연동 되어 변경될 수 있다. 이러한 모드 설정은 사용자의 전반적인 감정 상태로 분류될 수 있으며, 이러한 모드에 따라 각 감정별 아이템 선택이 달라질 수 있다.Since the expression element settings for each situation can be changed during use unlike the basic avatar, the expression set can be managed as a single item as if the clothing set is designated. For example, it is possible to set expressions according to a little pleasure, a lot of pleasure, and then register them as items and select an item to be used now. This can be changed in conjunction with individual item selection or mode settings (joy, depression, anger, etc.). Such a mode setting may be classified into an overall emotional state of the user, and item selection for each emotion may vary according to the mode.

이를 적용하면, 즐거운 상태로 표현이 변경될 경우 시스템에서 고정적으로 제공하는 즐거움의 표현 방식을 적용하는 대신 사용자가 해당 상황에 대해 설정한 아이템으로 아바타의 표현을 변경하여 개성을 표현할 수 있고 이는 사용자의 모드(전반적 감정)에 따라 달리 표현될 수 있다. 한편, 이후 설명할 이벤트 발생에 따른 메세지 교환에 의해 상대방은 표현 변경의 종류를 확인할 수 있어 개성적 표현을 의도와 다르게 해석하는 오해의 소지를 줄일 수 있다.If you apply this, you can express your personality by changing the expression of the avatar with the item set for the situation instead of applying the fixed expression of pleasure provided by the system when the expression is changed to a pleasant state. It can be expressed differently according to the mode (overall emotion). On the other hand, by exchanging a message according to an event to be described later, the other party can confirm the type of expression change, thereby reducing the misunderstanding of interpreting the individual expression differently from the intention.

도 10은 자동적인 표현 변화의 예를 보인 것으로, 이 경우는 물리 법칙에 의한 불가항력적인 변화의 예이다. 상기 아바타들의 대화를 주로 하는 서비스에서 아바타들 간의 아이템 사용이나 환경 변화에 따른 표현 변경은 아기자기한 재미를 줄 수 있는 부분이므로, 예를 들어 다른 아바타가 물을 부었다거나 공간 환경 변화로 비가 왔다거나 하는 특정한 상황변화, 즉 이벤트가 발생하게 되면 그에 따라 아바타의 표현이 해당하는 물리적 상황에 맞추어 자동적으로 변경될 수 있다. 도시된 바와 같이 좌측의 기본 아바타(420)가 비를 맞을 경우 우측과 같이 일반 헤어 스타일(421)이 비 맞은 헤어 스타일(422)로 변경되어 표현될 수 있다. 그 외에 바람이 분다거나 선풍기 아이템을 동작시킨 경우 등에서는 대응 범위에 위치한 아바타의 옷이나 머리가 날리는 등의 물리적 법칙에 의거한 변화가 자동적으로 제공될 수 있다. Fig. 10 shows an example of automatic expression change, which is an example of force majeure change by the laws of physics. In the service mainly for dialogue between the avatars, the use of items between the avatars or the expression change according to the change of the environment is a part that can give a little fun, for example, when another avatar pours water or rain due to a change in the spatial environment. When a specific situation change, that is, an event occurs, the avatar's expression may be automatically changed according to the corresponding physical situation. As shown in the drawing, when the basic avatar 420 on the left side hits the rain, the general hairstyle 421 may be changed to the right hairstyle 422 as shown on the right side. In addition, when a wind blows or a fan item is operated, a change based on a physical law such as blowing clothes or a hair of an avatar located in a corresponding range may be automatically provided.

도 11은 상기 설명한 아바타 표현 방식의 변화를 제공하기 위한 장치 구성을 보인 예로서, 도시한 바와 같이 개별 아바타에 대한 아바타 표현 제공 장치의 구성을 보인 것이다. FIG. 11 is a diagram illustrating a device configuration for providing a change in the avatar expression scheme as described above, and illustrates a configuration of an avatar expression providing device for an individual avatar as illustrated.

먼저, 데이터베이스(510)는 내부적으로 아바타가 구비한 아이템을 착용 정보와 함께 구비하는 개인 아이템 DB(511), 표현 변형에 관련된 정보(예를 들어 상황별로 제공되는 표현 요소 세트들, 현재 구성에 따른 물리적 변화를 위한 요소들)가 저장되는 변형정보 DB(512), 기본 및 사용자가 설정한 상호동작, 개별 동작등의 작용 동작 정보가 저장되는 작용동작 DB(513) 등이 구성된다. 그 외에 각종 개인적인 정보(사이버 머니, 로그인 정보, 등급 등)나 서비스 활용을 위한 부가적인 정보들 이 DB로 저장될 수 있다.First, the database 510 may include a personal item DB 511 which internally includes an item provided by the avatar together with wearing information, information related to expression transformation (eg, expression element sets provided for each situation, according to a current configuration). The transformation information DB 512 in which elements for physical change) are stored, and the operation action DB 513 in which action action information such as basic and user-set interactions and individual actions are stored are configured. In addition, various personal information (cyber money, login information, rating, etc.) or additional information for using the service may be stored in the DB.

상기 데이터베이스(510)에 포함된 각 세부 DB들을 관리하기 위한 관리부로서, 기본적인 등록, 선택, 편집, 삭제, 설정 등을 수행하는 개인 아이템 관리부(521), 변형 및 속성 관리부(522), 작용동작 관리부(523)가 구비된다.As a management unit for managing each detailed DB included in the database 510, a personal item management unit 521, a transformation and attribute management unit 522, an action action management unit that performs basic registration, selection, editing, deletion, setting, etc. 523 is provided.

상기 관리부들에 대한 정보를 근거로 아바타의 표현을 변경하기 위해서, 상기 아바타에 의한 환경 변화를 파악기 위해 상기 작용동작 관리부(523)로부터 해당 정보를 획득하고, 사용자의 지시에 대한 정보를 획득하며, 공간이나 다른 아바타나 아이템들에 의한 환경 변화 정보를 획득하여 이들을 근거로 아바타의 표현 변화 유무를 판단하는 작용동작 판단부(535)와, 상기 작용동작 판단부(535)의 판단과 그 외의 관리부들에 대해 현재 아바타 상태 정보, 변형 정보, 현재 구비된 아이템 상황등을 종합적으로 고려하여 물리적으로 상충되는 조합의 경우 상기 작용동작 판단부(535)의 판단을 무시하고, 그외에 물리적으로 조정이 필요한 경우 상기 작용동작 판단부(535)의 판단을 조정하고, 별다른 문제가 없는 경우 상기 작용동작 판단부(535)의 판단에 의거하여 상기 관리부들과 데이터베이스(510)의 정보를 통해 표현 변경에 대한 정보를 제공하는 상호작용 관리부(530)가 구성된다. 상기 상호작용 관리부(530)는 사용자의 지시에 따라 상기 판단 내용을 조정할 수 있다.In order to change the expression of the avatar based on the information on the managers, to obtain the corresponding information from the action gesture manager 523 to grasp the environmental change by the avatar, and to obtain the information on the user's instruction Operation action determining unit 535 for acquiring environmental change information by space, other avatars or items, and determining whether there is a change in the expression of the avatar based on these, and the operation action determining unit 535 and other managers. In the case of a physically conflicting combination in consideration of the current avatar state information, deformation information, and the currently equipped item situation, the operation decision unit 535 ignores the determination and otherwise requires physical adjustment. In this case, the operation of the operation operation determination unit 535 is adjusted, and if there is no problem, based on the determination of the operation operation determination unit 535. The group management unit and the interaction managing unit 530 that provides information about the changes represented by the information in the database 510 is constructed. The interaction manager 530 may adjust the determination content according to a user's instruction.

상기 상호작용 관리부(530)는 표현부(540)를 통해서 실질적인 데이터베이스(510)의 정보를 실제 출력하도록 하며, 상기 아바타의 표현 변경에 따른 정보를 다른 아바타나 공간 관리 부분에 제공한다. The interaction manager 530 actually outputs the information of the actual database 510 through the expression unit 540, and provides the information according to the expression change of the avatar to another avatar or the space management part.

즉, 상기 구성에서 아바타 표현 변경을 위한 정보들은 사용자의 지시와 환경 변화이며, 이러한 환경 변화에 대한 정보는 표현 정보로서 다른 아바타를 관리하는 상호작용 판단부나 공간을 관리하는 수단에 제공되어 해당 아바타나 공간 관리 수단의 변화를 유도한다. 따라서, 이러한 표현 변화를 유도하는 각종 정보들을 이벤트 정보라 할 수 있으며, 이러한 이벤트 정보에는 변화 주체, 변화 객제, 변화 내용 및 종류와 같이 다른 아바타나 공간(공간 아이템 포함) 등과 같은 상호작용이 필요한 대상에게 필요한 정보가 포함되어 있다.That is, in the above configuration, the information for changing the avatar expression is a user's instruction and environment change, and the information about the environment change is provided as an expression information to an interaction determination unit that manages another avatar or means for managing space. Induce changes in space management means. Accordingly, various kinds of information for inducing such a change in expression may be referred to as event information, and the event information includes an object that requires interaction such as another avatar or a space (including a spatial item) such as a change subject, a change object, a change content, and a kind. Contains the information you need.

도 12는 이러한 이벤트를 가상현실의 구성요소들 간에 메세지 형식으로 교환하는 개념적 구성을 보인 것으로, 도시한 바와 같이 가상 현실의 기본 배경이 되는 공간을 관리하는 공간 관리부(610)와 해당 공간에 위치되는 각각의 아바타들의 표현을 관리하는 유저 표현부들(701~710)은 각각의 변화들 중에서 상호작용에 관련되어 기 설정되거나 소정의 수준으로 분류하여 해당 수준을 초과하는 경우 관련된 변화 정보를 메세지 형태의 이벤트 정보로 관련된 유저 표현부들 및 공간 관리부에 제공한다. 이러한 메세지 형태의 이벤트 정보 교환을 통해서 공간을 포함하는 공간상의 요소들은 상호작용에 관련된 환경 변화를 파악하게 되며 그에 따라 적절한 상호 동작 및 표현 변화를 제공할 수 있게 된다. FIG. 12 illustrates a conceptual configuration of exchanging such an event in a message format between components of a virtual reality. As shown in FIG. 12, a space manager 610 managing a space serving as a basic background of a virtual reality and a space are located in the space. The user expression units 701 to 710 managing the expressions of the respective avatars are configured to be related to the interaction among the changes, or are classified into predetermined levels and exceed the corresponding level when the corresponding change information is exceeded. The information is provided to the user expression units and the space management unit associated with the information. Through the exchange of event information in the form of messages, spatial elements, including spaces, can grasp changes in the environment related to interactions, and thus provide appropriate interaction and expression changes.

한편, 도시된 실시예에서 서비스의 기본은 공간이 되므로 상기 공간 관리부(610)는 해당 공간 내의 공간 아이템(610)에 대한 관리를 대행하고, 공간에 대한 환경 설정부(630)를 통해 공간 상의 환경 내용 등을 파악하고 그 변화를 아바타를 관리하는 유저 표현부들로 전달할 수 있으며, 유저 표현부들의 표현 변화에 따른 공간의 변화 여부를 상기 환경 설정부(630)의 내용을 참조하여 관리할 수 있다. Meanwhile, in the illustrated embodiment, since the basic service is a space, the space manager 610 substitutes for the management of the space item 610 in the corresponding space, and the environment on the space through the environment setting unit 630 for the space. The contents may be grasped and the change may be transferred to the user expression units managing the avatar, and whether or not the space changes according to the expression change of the user expression units may be managed with reference to the contents of the environment setting unit 630.

상기 언급한 메세지 교환 방식은 도시된 바와 같은 버스 방식이 될 수 있고, 공간 관리부가 해당하는 메세지를 일괄 처리하여 관련된 유저 표현부들에 제공할 수도 있으며, 별도의 메세지 처리부를 운영할 수도 있는 등 실질적인 구성은 메세지 드리븐(Message Driven) 방식, 이벤트 관리 방식의 프로그래밍 기법, 하드웨어 설계 기법 등을 활용하여 다양하게 구현할 수 있다.The above-mentioned message exchange method may be a bus method as shown in the drawing, and the space manager may process the corresponding messages in batches and provide them to related user presentation units, or operate a separate message processing unit. Can be implemented in various ways using message driven, event management, and hardware design techniques.

상기 이벤트 발생에 따른 메세지 교환 방식을 통해서 각 아바타들은 환경 변화와 상대 아바타의 표현 변화를 감지할 수 있게 되며, 상호작용에 대한 정보를 알 수 있게 된다. 이는 본 시스템의 중요한 개념 중 하나인 실제 "만남"에 가까운 표현 변화를 "간단한 조작"으로 제공해 줄 수 있는 중요한 키가 된다. Through the message exchange method according to the occurrence of the event, each avatar can sense the change in the environment and the change in the expression of the opponent avatar, and can know the information about the interaction. This is an important key that can provide a "simple manipulation" of expression change that is close to the actual "meet", one of the important concepts of the system.

즉, 본 실시예에서 다루고자 하는 기능은 자신의 아바타의 표현을 간단한 조작으로 변경하여 이를 상대방이 확인할 수 있도록 하여 자신의 감정이나 전달하고자 하는 의미를 명확히 하는 것뿐만 아니라, 상대방 아바타의 표현 변화를 확인하여 그에 따른 자신의 표현을 변화시키는 시간을 최대한 줄여 "실시간성"을 높일 수 있도록 하는 것도 포함하고 있으며, 이를 위해서 상기 이벤트 발생에 따라 실시간으로 제공되는 메세지를 활용할 수 있다.In other words, the function to be dealt with in the present embodiment is to change the expression of the avatar of the user with a simple operation so that the other party can check the expression, and not only to clarify his feelings or the meaning to be conveyed, but also to change the expression of the avatar of the partner. It also includes checking to reduce the time to change his expression accordingly to increase the "real-time", and for this purpose, it is possible to utilize the messages provided in real time according to the event occurs.

예를 들어, 상호작용의 경우 명확한 동작에 의해 상대가 지정된 행위이므로 그에 따른 대응 동작은 자동화될 수 있는 여지가 높으며, 상대방에 대한 관계에 따른 대응 수위를 조절하는 것으로 자동적으로 반응할 수 있으나, 대화 도중에 상대방의 감정이 변화되어 상대 아바타의 표현 방식이 변화되는 경우 이를 자동적으로 처리하게 되면 대화의 개성이 없어지므로 수동으로 처리하게 되는데, 이러한 표현 변화를 시각적으로 확인 한 후 그에 따른 자신의 상태를 지정하여 표현을 변화시키기까지 상당한 시간이 필요하게 된다. 구체적으로, 서로 "즐거운 상태"로 대화하는 도중 상대방이 "화난 상태"로 변화될 경우 이를 확인하여 자신의 상태를 "화난 상태"나 "심각한 상태" 등으로 변경할 때까지 자신의 아바타는 계속 "즐거운 상태"를 유지하게 되어 어색한 상황이 될 수 있다. For example, in the case of interaction, since the opponent is designated by a specific action, the corresponding action may be automated, and the response may be automatically controlled by adjusting the level of correspondence according to the relationship to the other person. If the other person's emotion is changed on the way, and the other person's expression method is changed automatically, if the processing is automatic, the personality of the conversation is lost, and the processing is performed manually. It takes considerable time to change the expression. Specifically, while talking to each other in a "fun" state, if the other party changes to "anger", it checks this and his avatar continues to be "fun" until he changes his state to "angry" or "serious". State "can be awkward.

하지만, 이와 같이 메세지를 통해 상대방의 표현 변화를 실시간으로 확인할 수 있게 되면, 해당 메세지에 포함된 상태 정보를 근거로 사용자가 선택 가능한 표현 변화들을 화면상에 직접 선택이 가능한 상태로 제공하여 사용자가 이들 중 하나를 선택하도록 함으로써, 상대방의 표현 변화에 따라 자신의 상태를 쉽고 빠르게 변경할 수 있도록 할 수 있다. However, when the expression change of the other party can be confirmed in real time through the message as described above, the user can select the expression changes that the user can select on the screen directly based on the state information included in the message. By selecting one of them, it is possible to easily and quickly change their state according to the expression change of the other party.

이러한 방식을 활용하면 상호작용, 물리적 환경 변화 등에 의한 표현 변화를 반자동으로 처리하여 표현 선택의 폭을 넓히거나, 자동적인 표현 변화 제공 이후의 표현을 신속하고 정확하게 선택할 수 있다. 예를 들어, 바람이 불어 옷이 날린 경우 찡그린 표현을 후속으로 쉽게 선택할 수 있고, 물에 의해 옷이 젖은 경우 젖은 상태에 대한 난감한 표현을 후속으로 선택할 수 있어 자연스러운 표현 설정이 가능해 진다.Using this approach, you can semi-automatically handle expression changes caused by interactions, physical environment changes, etc., to expand your choice of expressions, or you can quickly and accurately select expressions after providing automatic expression changes. For example, when the wind blows the clothes, the frowning expression can be easily selected subsequently, and when the clothes are wet by water, a difficult expression for the wet state can be subsequently selected, thereby enabling a natural expression setting.

도 13과 도 14는 본 발명 실시예의 동작 방식들 중 기본적인 일부에 대한 순차적 동작 과정을 보인 순서도로서, 전술한 복수의 아바타 표현 방식들 중 극히 일 부에 대한 기본적 동작을 예시한 것임에 주의한다. 13 and 14 are flowcharts illustrating a sequential operation process for a basic part of the operation methods of the embodiment of the present invention, and exemplarily illustrates a basic operation of only a part of the plurality of avatar expression methods described above.

먼저, 도 13은 서비스 가입시 아바타를 생성하거나 서비스 도중에 아바타를 변경하고자 할 경우 수행될 수 있는 기본 과정으로, 이 경우 다양한 아바타 상황별 표현 방식을 사용자가 편집할 수 있도록 하여 자동 및 기본 표현에 대해서도 사용자별 개인차를 발생시킬 수 있도록 하는 예이다First, FIG. 13 is a basic process that can be performed when an avatar is created when a service is subscribed or an avatar is changed during a service. In this case, the user can edit various expressions according to various avatar situations so that the user can automatically and automatically express the basic expression. This is an example that can cause individual differences.

도시된 바와 같이 아바타 편집을 위한 수단을 통해 아바타의 기본 외형을 선택하면, 해당 기본 외형을 근거로 상황에 따른 아바타의 표현 요소들을 선택할 수 있게 된다. 이때, 설정에 따라 기본 외형에 대한 일관성을 유지하기 위해 선택 가능한 표현 요소들은 기본 외형을 선택하는 경우에 비해 다소 제한될 수 있고, 사용자가 상황별 설정을 하지 않을 경우 기본 표현 요소들이 사용되거나 랜덤한 표현 요소들을 사용하도록 설정될 수 있다.As shown in the figure, when the basic appearance of the avatar is selected through the means for editing the avatar, the expression elements of the avatar according to the situation can be selected based on the basic appearance. In this case, the selectable expression elements may be somewhat limited compared to the case in which the basic appearance is selected in order to maintain consistency with the basic appearance, and the basic expression elements are used or random when the user does not set the contextual setting. It can be set to use presentation elements.

사용자가 상황별 외형을 선택할 경우 상황에 대응되는 외형을 선택하게 되는데, 예를 들어 화가 나는 경우의 눈썹과 입을 선택한다거나, 눈썹을 선택하면서 화가 나는 경우와 즐거운 경우 등을 선택할 수 있다.When the user selects the appearance of the situation, the user may select the appearance corresponding to the situation. For example, the user may select the eyebrows and the mouth when the user is angry, or the user may be angry and happy when selecting the eyebrows.

이러한 각 상황이나 선택 가능한 외형, 즉 표현 요소에 대한 선택을 필요한 만큼 완료하면 아바타의 편집이 완료되며, 이때 기본 아바타에 대한 표현 요소들은 기본 설정으로 관리되고 상기 특정한 상황에 따라 설정된 표현 요소들은 별도의 세트 설정으로 관리될 수 있다. 예를 들어 즐거울 경우에 대한 표현 요소 설정들을 하나의 세트로 관리하여 해당 세트에 대한 명칭을 부여하거나 저장하거나 하나의 단일 아이템처럼 관리 및 사용할 수 있다.When each of these situations or selectable appearances, that is, the selection of the expression elements, is completed as necessary, the editing of the avatar is completed. At this time, the expression elements for the default avatar are managed as default settings, and the expression elements set according to the specific situation are separated. Can be managed by set configuration. For example, a set of presentation elements for fun cases can be managed as a set, so that the set can be named, stored, or managed and used as a single item.

도 14는 공간 상에서 발생되는 아바타의 표현 변화에 관련된 동작 과정을 보인 것으로, 도시한 바와 같이 소정의 아바타가 초대나 선택 혹은 생성에 따라 소정의 가상 공간에 입장한 후 다른 아바타들이나 공간 아이템들 혹은 공간 자체의 환경에 따른 상호작용 및 지시에 근거하여 아바타의 표현을 변경하는 과정의 개략적 과정이다.FIG. 14 is a view illustrating an operation process related to a change in expression of an avatar generated in a space. As shown in FIG. 14, when a predetermined avatar enters a predetermined virtual space according to an invitation, selection, or creation, other avatars, space items, or spaces are illustrated. It is a schematic process of changing the expression of the avatar based on interactions and instructions according to its environment.

먼저, 아바타가 공간에 입장하면 해당 아바타가 입장한 공간 및 해당 공간에 위치된 모든 요소들이 표현된다.First, when an avatar enters a space, the space in which the avatar enters and all elements located in the space are represented.

상기 아바타의 입장에 따라 해당 아바타는 다른 아바타와 대화를 시작할 수 있는 기능을 부여받게 되며, 이러한 기능은 공간 입장에 따른 사용자 인터페이스의 변화로 구현될 수 있다. According to the position of the avatar, the avatar is given a function of starting a conversation with another avatar, and this function may be implemented by a change of the user interface according to the position of the space.

이러한 대화를 통해 상대방을 지정하거나 혹은 전체 아바타들과 대화를 주고 받을 수 있게 되며, 아바타를 움직이고 공간 아이템과 상호 동작을 실시하며, 다른 아바타들과도 상호 동작을 수행할 수 있다. 이러한 과정에서 상기 아바타나 공간 아이템 혹은 공간의 환경 변화가 발생하거나, 사용자가 상황 선택에 따른 표현 변경을 지시할 경우 아바타의 표현 변경이 발생하게 되는데, 상기 환경 변화에 따른 이벤트 발생이나 사용자의 수동 조작에 의한 이벤트 발생이 발생하면 사용자 아바타는 해당 이벤트 발생에 대응되어 기 설정된 표현 변화가 존재하는지 검색하여 해당하는 표현 변화가 존재하는 경우 해당 표현 변화를 우선적으로 제공하고, 대응되어 설정된 표현 변화가 없는 경우 기본적인 표현 변화를 제공한다.Through such a conversation, it is possible to designate a counterpart or to communicate with all avatars, to move an avatar, to interact with a space item, and to interact with other avatars. In this process, when an environment change of the avatar, a space item, or a space occurs, or when the user instructs to change the expression according to a situation selection, a change of the expression of the avatar occurs. When an event occurs by the user avatar, the user avatar searches for a preset expression change in response to the event occurrence, and if the corresponding expression change exists, provides the corresponding expression change preferentially, and if there is no corresponding expression change. Provides a basic presentation change.

상기 표현 변화(기본 얼굴 형태의 변화, 옷차림이나 장신구의 변화, 동작의 변화 등)는 그 발생 중에도 다른 공간 구성원(아바타나 공간 아이템)에 대해 환경 변화를 유발할 수 있으므로 그에 따른 이벤트가 발생되어 상기 표현 변화에 따라 다른 아바타들이나 공간 아이템의 표현도 변화될 수 있다.Since the expression change (change of the basic face shape, change of dress or jewelry, change of motion, etc.) may cause an environmental change for other space members (avatars or space items) even during its occurrence, an event is generated accordingly. According to the change, the expressions of other avatars or spatial items may change.

전술한 바와 같이 3차원 가상현실 서비스에서 실제와 같은 만남과 다소 과장된 의사교환이 필요할 경우, 예시된 다양한 아바타의 표현 변경 방식을 적용할 경우 사용자마다 개성 있는 상황별 표현이 가능해지며, 이러한 개성 있는 표현 변경의 조작도 쉬워 질뿐만 아니라 이러한 상황별 표현 내용도 용이하게 변경할 수 있도록 하여 보다 현실감 있고 다채로운 가상의 "만남"을 즐길 수 있게 된다.As described above, when a realistic meeting and a somewhat exaggerated communication are required in the 3D virtual reality service, a unique situational expression is possible for each user when applying the illustrated change of the various avatars. Not only the manipulation of the change is easy but also the expression contents of each situation can be easily changed, so that a more realistic and colorful virtual "meeting" can be enjoyed.

이상에서는 본 발명에서 특정의 바람직한 실시예들에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능할 것이다. In the above, certain preferred embodiments of the present invention have been illustrated and described. However, the present invention is not limited to the above-described embodiments, and various changes and modifications may be made by those skilled in the art without departing from the scope of the present invention. .

도 1은 대표적인 몰핑 방식의 아바타 예시도.1 illustrates an exemplary morphing avatar.

도 2는 단순한 형태의 아바타를 구성하기 위한 맵핑 방식 아바타 생성의 예시도.2 is an exemplary diagram of a mapping method avatar generation for constructing a simple avatar.

도 3 역시 맵핑 방식 아바타 생성의 예시도.3 is also an example of mapping method avatar generation.

도 4는 상기 도 3과 같은 아바타 생성 방식을 적용한 실제 서비스에서 얼굴 4 is a face in an actual service applying the avatar generation method as shown in FIG.

형태를 달리 선택한 4가지 예시도.Four examples of different forms.

도 5는 가상 현실 시스템에서의 아바타 표현 방식의 예.5 is an example of an avatar representation method in a virtual reality system.

도 6은 본 발명 실시예에 따른 아바타들의 표현 방식의 예.6 is an example of a representation of avatars according to an embodiment of the present invention.

도 7은 본 발명 실시예에 따른 가상현실 서비스의 화면예.7 is a screen example of a virtual reality service according to an embodiment of the present invention.

도 8은 본 발명 실시예에 따른 아바타 표현 방식의 다른 예.8 is another example of an avatar expression scheme according to an embodiment of the present invention.

도 9는 본 발명 실시예에 따른 아바타 표현 변화를 위한 또 다른 실시예.9 is another embodiment for changing the avatar expression according to an embodiment of the present invention.

도 10은 본 발명 일 실시예에 따른 자동적인 아바타 표현 변화의 예.10 is an example of automatic avatar expression change in accordance with one embodiment of the present invention.

도 11은 본 발명 일 실시예에 따른 아바타 표현 장치의 구성예.11 is a configuration example of an avatar representation apparatus according to an embodiment of the present invention.

도 12는 이러한 이벤트를 가상현실의 구성요소들 간에 메세지 형식으로 교환하는 구성예.12 is a configuration example of exchanging such an event in a message format between components of the virtual reality.

도 13은 아바타를 생성 또는 변경하고자 할 경우 수행될 수 있는 기본 과정의 순서도.FIG. 13 is a flowchart of a basic process that may be performed when an avatar is to be created or changed. FIG.

도 14는 공간 상에서 발생되는 아바타의 표현 변화에 관련된 동작 과정을 보인 순서도.14 is a flowchart illustrating an operation process related to a change in an expression of an avatar generated in a space.

** 도면의 주요 부분에 대한 부호의 설명 **** Description of symbols for the main parts of the drawing **

101, 111, 121: 아바타 102, 112, 122: 태그101, 111, 121: avatar 102, 112, 122: tags

103, 107, 117, 125: 메뉴 131: 공간 아이템103, 107, 117, 125: Menu 131: Space item

210: 개인 정보 영역 220: 채팅창210: personal information area 220: chat window

222: 감정 표현 수단 510: 데이터베이스222: means for expressing emotion 510: database

511: 개인 아이템 DB 512: 변형정보 DB511: Personal item DB 512: Variant information DB

513: 작용동작 DB 530: 상호작용 관리부513: action action DB 530: interaction management unit

535: 상호작용 판단부 610: 공간 관리부535: Interaction determination unit 610: Space management unit

701~710: 유저 표현부701 to 710: user expression unit

Claims (35)

아바타 표현 제공 장치를 이용한 아바타 표현 방법에 있어서,In the avatar expression method using the avatar expression providing apparatus, 상기 아바타 표현 제공 장치가 서비스 사용자를 대신하는 디지털 컨텐츠의 시각적 특징을 나타내는 표현 요소들을 사용자로부터 선택받아 디지털 컨텐츠를 생성하는 생성 단계와;Generating, by the avatar expression providing apparatus, digital elements for selecting expression elements representing visual characteristics of digital content on behalf of a service user and generating digital content; 상기 아바타 표현 제공 장치가 상기 디지털 컨텐츠를 기 설정된 공간 상에 출력하고, 상기 공간 상에 배치된 다른 디지털 컨텐츠 사이에서 발생되도록 기 설정된 상태변화인 상호작용, 상기 공간에 적용될 수 있도록 기 설정된 물리적 환경의 변화 또는 사용자의 지시 중 적어도 어느 하나에 따라 발생되는 이벤트 정보를 수신하는 이벤트 수신 단계와;The avatar expression providing apparatus outputs the digital content in a predetermined space, and interacts with a predetermined state change to be generated between other digital contents arranged in the space, and the physical environment of the preset physical environment to be applied to the space. An event receiving step of receiving event information generated according to at least one of a change or an instruction of a user; 상기 아바타 표현 제공 장치가 상기 수신된 이벤트 정보를 근거로 상기 이벤트 종류에 대응되어 기 설정된 표현 요소를 변경하여 상기 디지털 컨텐츠를 상기 공간 상에 출력하는 단계를 포함하는 것을 특징으로 하는 아바타 표현 방법.And displaying, by the apparatus for providing an avatar expression, the digital content on the space by changing a preset expression element corresponding to the event type based on the received event information. 제 1항에 있어서, The method of claim 1, 상기 출력하는 단계는 상기 표현 요소의 변경이 다른 디지털 컨텐츠와의 상호작용에 관련된 변경인 경우, 상기 다른 디지털 컨텐츠와의 상호작용에 따른 이벤트 정보를 상기 다른 디지털 컨텐츠에 제공하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.The outputting may further include providing event information according to the interaction with the other digital content to the other digital content when the change of the presentation element is a change related to the interaction with the other digital content. Avatar expression method characterized by. 제 1항에 있어서,The method of claim 1, 상기 이벤트 수신 단계는 다른 디지털 컨텐츠의 표현 요소 변경에 따른 이벤트 정보를 수신하는 단계를 더 포함하고,The event receiving step further includes the step of receiving event information according to the change of the presentation element of the other digital content, 상기 출력하는 단계는 상기 수신한 이벤트 정보의 종류에 따른 표현 요소 변경이 기 설정되지 않은 종류의 것이라면, 상기 수신한 이벤트 정보를 근거로 사용자가 선택 가능한 표현 요소를 직접 선택이 가능한 상태로 제공하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.The outputting may include providing a user selectable expression element based on the received event information in a state in which a change of the expression element according to the type of the received event information may be a type that is not preset. Avatar representation method further comprising. 제 1항에 있어서, 상기 생성 단계는 상기 디지털 컨텐츠로서 사용자를 표현하기 위해 사용되는 아바타의 외형에 대한 표현 요소들을 설정하여 사용자 아바타를 생성하는 단계를 포함하는 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the generating comprises generating a user avatar by setting expression elements for an appearance of an avatar used to represent the user as the digital content. 제 1항에 있어서, 상기 표현 요소들은 상황에 따라 각각 다르게 설정되는 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the expression elements are set differently according to circumstances. 제 4항에 있어서, 상기 생성 단계에서 상기 표현 요소들은 상기 아바타의 신체를 구성하는 개별 구성 요소, 의상이나 장신구와 같은 탈착 요소, 지정된 상황에 대한 움직임, 지정된 상황에 대한 표정, 지정된 상황에 대해 현재 선택된 표현 요소를 대체하거나 덧붙여 제공되는 추가 표현 요소 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 아바타 표현 방법.The method according to claim 4, wherein in the generating step, the expression elements are individual components constituting the avatar's body, detachable elements such as clothes or jewelry, movements for a specified situation, facial expressions for a specified situation, and a present situation for a specified situation. And at least one or more of additional expression elements provided in place of or in addition to the selected expression elements. 제 1항에 있어서, 상기 이벤트 수신 단계에서 상기 기 설정된 공간은 상기 디지털 컨텐츠 사용자가 다른 디지털 컨텐츠 사용자를 초대하기 위한 공간이거나, 디지털 컨텐츠 사용자가 방문할 수 있는 공간인 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the preset space in the event receiving step is a space for the digital content user to invite another digital content user or a space that the digital content user can visit. 제 1항에 있어서, 상기 이벤트 수신 단계에서 상기 다른 디지털 컨텐츠와의 상호작용은 다른 디지털 컨텐츠의 행동에 대해 제공되도록 설정된 대응 동작, 인접한 다른 디지털 컨텐츠의 표현 변화에 따라 제공되도록 설정된 해당 디지털 컨텐츠의 표현 변화 중 적어도 하나를 포함하는 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the interaction with the other digital content in the event receiving step is a corresponding action set to be provided for the action of another digital content, and a representation of the corresponding digital content set to be provided according to a change in the expression of another adjacent digital content. And at least one of the changes. 제 1항에 있어서, 상기 이벤트 수신 단계에서 상기 공간의 환경 변화는 상기 공간 상에서 발생될 수 있는 기상 변화, 온도 변화, 물리적 구조 변화 중 적어도 하나를 포함하는 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the environmental change of the space in the event receiving step includes at least one of a weather change, a temperature change, and a physical structure change that may occur on the space. 제 1항에 있어서, 상기 이벤트 수신 단계에서 상기 이벤트 정보는 이벤트의 종류와 상기 이벤트 발생 주체의 변화 정보를 포함하는 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein in the event receiving step, the event information includes information on a type of an event and change information of the event occurrence subject. 제 10항에 있어서, 상기 출력 단계는 사용자의 상황을 결정하는 현재 모드를 선택 및 확인하는 단계를 더 포함하며, 상기 현재 모드에 따라 이벤트 종류에 대응하여 변경되도록 기 설정된 표현 요소의 세트를 다른 세트로 변경하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.11. The method of claim 10, wherein the outputting step further comprises the step of selecting and confirming the current mode for determining the user's situation, the other set of the set of preset expression elements to be changed according to the event type according to the current mode; The method further comprises the step of changing to the avatar. 제 11항에 있어서, 상기 사용자의 상황을 결정하는 현재 모드는 희노애락 중 적어도 하나 이상을 포함하는 사용자의 감성 종류로 구분하는 아바타 표현 방법.The method of claim 11, wherein the current mode for determining the user's situation is classified into a user's emotion type including at least one or more of rare emotions. 제 1항에 있어서, 상기 출력 단계는 상기 변경 출력되는 표현 요소 중 적어도 일부는 기 설정된 시간이나 노출 조건을 만족하면 자동적으로 원상 복귀되는 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the outputting step automatically returns to the original state when at least some of the changed output expression elements satisfy a preset time or exposure condition. 제 1항에 있어서, 상기 출력 단계에서 변경 출력되는 상기 기 설정된 표현 요소는 상기 디지털 컨텐츠에 대한 일련의 동작 패턴으로서 별도의 아이템으로 관리되는 표현 요소인 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the preset expression element that is changed and output in the outputting step is an expression element managed as a separate item as a series of operation patterns for the digital content. 제 1항에 있어서, 상기 출력 단계에서 변경 출력되는 상기 기 설정된 표현 요소는 상기 공간의 물리적 환경에 따라 상이하게 선택 제공되는 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the preset expression element that is changed and output in the outputting step is selected and provided differently according to the physical environment of the space. 삭제delete 제 1항에 있어서, 상기 출력 단계는 상기 디지털 컨텐츠의 표시 크기가 기 설정된 수준보다 작아질 경우 해당 디지털 컨텐츠의 기 설정된 일부 영역에 대한 크기를 확대하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the outputting step further comprises the step of enlarging the size of the preset partial area of the digital content when the display size of the digital content is smaller than a preset level. . 제 1항에 있어서, 상기 디지털 컨텐츠는 얼굴과 손발에 대응하는 영역 중 적어도 하나를 구비한 아바타이며, 상기 표현 단계는 상기 디지털 컨텐츠의 표시 방식 변경에 따라 상기 얼굴과 손발 중 적어도 하나에 대응하는 영역이 줄어들 경우, 기 설정된 범위에서 기 설정된 비율로 상기 얼굴과 손발 중 적어도 하나를 확대 표시하여 표현 변경의 관찰 범위를 확장하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.The method of claim 1, wherein the digital content is an avatar having at least one of a region corresponding to a face and a limb, and the expression step is a region corresponding to at least one of the face and the limb according to a change in a display method of the digital content. If this is reduced, further comprising the step of expanding at least one of the face and the limbs at a predetermined ratio in a preset range to expand the viewing range of the expression change. 서비스 사용자를 대신하는 아바타 간 상호 대화나 행동이 가능한 3차원 가상 현실 서비스에서 아바타 표현 제공 장치를 이용한 아바타 표현 방법에 있어서, In the avatar expression method using the avatar expression providing apparatus in the three-dimensional virtual reality service that can interact or act between the avatar on behalf of the service user, 상기 아바타 표현 제공 장치가 아바타에 대한 시각적 특징을 나타내기 위해 사용되는 표현 요소들을 하나 이상의 상황에 대해 사용자로부터 선택받아 사용자 아바타를 생성하는 생성 단계와; Generating, by the avatar expression providing apparatus, a user avatar for selecting one or more expression elements used for representing a visual characteristic of the avatar from a user for at least one situation; 상기 아바타 표현 제공 장치가 상기 사용자 아바타를 기 설정된 가상의 공간에 출력하고 사용자의 지시에 따라 동작시키면서, 상기 공간 및 상기 공간 내의 다른 아바타 또는 디지털 컨텐츠의 변화 정보와 상기 사용자 아바타의 변화 정보 중 기 설정된 수준의 변화 정보를 포함하는 이벤트 정보를 수신 및 전송하는 출력 단계와; The avatar expression providing apparatus outputs the user avatar to a preset virtual space and operates according to a user's instruction, wherein the avatar expression providing apparatus is preset among change information of the space and other avatars or digital contents in the space and change information of the user avatar. An output step of receiving and transmitting event information including level change information; 상기 아바타 표현 제공 장치가 상기 표현 요소들 중 일부를 대체하기 위한 표현 요소들을 상기 이벤트 정보에 따른 상황별로 설정하는 설정 단계와;A setting step of setting, by the avatar expression providing apparatus, expression elements for replacing some of the expression elements for each situation according to the event information; 상기 아바타 표현 제공 장치가 상기 출력 단계에서 수신된 이벤트 정보에 포함된 변화 정보와 사용자의 지시를 근거로 상기 설정 단계에서 설정된 표현 요소를 상기 사용자 아바타에 적용하는 표현 단계를 포함하는 것을 특징으로 하는 아바타 표현 방법.And an expression step of applying, by the avatar expression providing apparatus, the expression element set in the setting step to the user avatar based on the change information included in the event information received in the output step and the user's instruction. Express way. 삭제delete 제 19항에 있어서, 상기 생성 단계에서 상기 표현 요소들은 상황에 따라 각각 다르게 설정되는 것을 특징으로 하는 아바타 표현 방법.20. The method of claim 19, wherein in the generating step, the presentation elements are set differently according to circumstances. 제 19항에 있어서, 상기 생성 단계에서 상기 표현 요소들은 신체를 구성하는 개별 구성 요소, 의상이나 장신구와 같은 탈착 요소, 지정된 상황에 대한 움직임, 지정된 상황에 대한 표정, 지정된 상황에 대해 현재 선택된 표현 요소를 대체하거나 덧붙여 제공되는 추가 표현 요소 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 아바타 표현 방법.20. The method according to claim 19, wherein in the generating step, the expression elements are individual components constituting the body, detachable elements such as clothes or jewelry, movements for a specified situation, facial expressions for a specified situation, and a currently selected expression element for a specified situation. And at least one or more of additional expression elements provided in place of or in addition to. 제 19항에 있어서, 상기 출력 단계에서 상기 기 설정된 가상 공간은 상기 사 용자 아바타가 다른 사용자 아바타를 초대하기 위한 공간이거나, 사용자 아바타가 방문할 수 있는 공간인 것을 특징으로 하는 아바타 표현 방법.The method of claim 19, wherein the preset virtual space is a space for the user avatar to invite another user avatar or a space that a user avatar can visit. 제 19항에 있어서, 상기 출력 단계는 상기 아바타 외에 상기 공간을 꾸미기 위한 물건이나 장식, 배경, 지형을 포함하는 공간 아이템을 더 출력하며, 상기 아바타들과 상기 공간 아이템 사이의 환경 변화에 대한 정보를 이벤트 정보로 발생시켜 대응 아바타에 제공하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.20. The method of claim 19, wherein the outputting step further outputs a space item including an object, a decoration, a background, and a terrain for decorating the space, in addition to the avatar, and provides information on an environment change between the avatars and the space item. And generating the event information and providing the same to the corresponding avatar. 삭제delete 제 19항에 있어서, 상기 출력 단계에서 상기 공간의 변화는 상기 공간 상에서 발생될 수 있는 기상 변화, 온도 변화, 물리적 구조 변화 중 적어도 하나를 포함하는 것을 특징으로 하는 아바타 표현 방법.20. The method of claim 19, wherein the changing of the space in the outputting step comprises at least one of a weather change, a temperature change, and a physical structure change that can occur on the space. 제 19항에 있어서, 상기 설정 단계는 상기 표현 요소들을 보유, 구매, 선물, 아이템 획득을 포함하는 수단을 통해 획득하여 상기 생성 단계에서 설정한 기본 표현 요소와 상기 획득된 표현 요소를 제공할 상황을 지정하여 선택적으로 등록하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.The situation of claim 19, wherein the setting step acquires the expression elements through means including possession, purchase, gift, and item acquisition to provide the basic expression element set in the generation step and the acquired expression element. And designating and selectively registering the avatar. 제 19항에 있어서, 상기 표현 단계는 상기 이벤트 정보의 변화 정보에 대응하여 상기 설정 단계에서 기 설정된 표현 요소가 없는 경우 상기 이벤트 정보를 근거로 사용자가 선택 가능한 표현 요소를 직접 선택이 가능한 상태로 제공하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.20. The method of claim 19, wherein the presenting step provides a state in which a user-selectable presenting element can be directly selected based on the event information when no presenting element is set in the setting step corresponding to the change information of the event information. Avatar representation method further comprising the step of. 제 19항에 있어서, 상기 표현 단계는 아바타에 적용된 표현 요소 중 적어도 일부를 기 설정된 시간이나 노출 조건이 만족되면 제거하여 아바타의 이전 상태를 자동적으로 복원하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.20. The avatar representation of claim 19, wherein the presenting further comprises removing at least some of the expression elements applied to the avatar when a preset time or exposure condition is satisfied to automatically restore the previous state of the avatar. Way. 제 19항에 있어서, 상기 아바타에 적용되는 표현 요소는 상기 사용자 아바타에 대한 특정 동작을 편집한 것으로서 별도의 아이템으로 관리되는 것을 특징으로 하는 아바타 표현 방법.The method of claim 19, wherein the expression element applied to the avatar is edited as a specific action of the user avatar and is managed as a separate item. 제 19항에 있어서, 상기 아바타에 적용되는 표현 요소는 상기 공간의 물리적 환경에 따라 상이하게 선택 제공되는 것을 특징으로 하는 아바타 표현 방법.20. The method of claim 19, wherein the expression element applied to the avatar is selected and provided differently according to the physical environment of the space. 삭제delete 제 19항에 있어서, 상기 표현 단계는 상기 디지털 컨텐츠의 표시 크기가 기 설정된 수준보다 작아질 경우 해당 디지털 컨텐츠의 기 설정된 일부 영역에 대한 크기를 확대하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.20. The method of claim 19, wherein the presenting further comprises the step of enlarging the size of the preset partial area of the digital content when the display size of the digital content is smaller than a preset level. . 제 19항에 있어서, 상기 디지털 컨텐츠는 얼굴과 손발에 대응하는 영역 중 적어도 하나를 구비한 아바타이며, 상기 표현 단계는 상기 디지털 컨텐츠의 표시 방식 변경에 따라 상기 얼굴과 손발 중 적어도 하나에 대응하는 영역이 줄어들 경우, 기 설정된 범위에서 기 설정된 비율로 상기 얼굴과 손발 중 적어도 하나를 확대 표시하여 표현 변경의 관찰 범위를 확장하는 단계를 더 포함하는 것을 특징으로 하는 아바타 표현 방법.20. The method of claim 19, wherein the digital content is an avatar having at least one of a region corresponding to a face and a limb, and wherein the expressing step is an area corresponding to at least one of the face and the limb according to a change in a display method of the digital content. If this is reduced, further comprising the step of expanding at least one of the face and the limbs at a predetermined ratio in a preset range to expand the viewing range of the expression change. 제 1항 내지 제 15항, 제 17항 내지 제 19항, 제 21항 내지 제 24항, 제 26항 내지 제 31항 또는 제 33항 내지 제 34항 중의 어느 한 항의 방법을 수행할 수 있는 프로그램이 수록된 컴퓨터로 읽을 수 있는 기록 매체.A program capable of performing the method of any one of claims 1 to 15, 17 to 19, 21 to 24, 26 to 31 or 33 to 34. This computer-readable recording medium.
KR1020070125504A 2007-12-05 2007-12-05 Avatar presenting method and computer readable medium processing the method KR100957858B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070125504A KR100957858B1 (en) 2007-12-05 2007-12-05 Avatar presenting method and computer readable medium processing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070125504A KR100957858B1 (en) 2007-12-05 2007-12-05 Avatar presenting method and computer readable medium processing the method

Publications (2)

Publication Number Publication Date
KR20090058760A KR20090058760A (en) 2009-06-10
KR100957858B1 true KR100957858B1 (en) 2010-05-14

Family

ID=40989083

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070125504A KR100957858B1 (en) 2007-12-05 2007-12-05 Avatar presenting method and computer readable medium processing the method

Country Status (1)

Country Link
KR (1) KR100957858B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240009264A (en) 2022-07-13 2024-01-22 인바이츠지노믹스 주식회사 System for personal healthcare based on metaverse

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104753762B (en) * 2013-12-31 2018-07-27 北京发现角科技有限公司 The method and system that ornament is added into avatar icon applied to instant messaging
KR20220159968A (en) 2020-03-20 2022-12-05 라인플러스 주식회사 Conference handling method and system using avatars
JP2023527624A (en) 2020-03-20 2023-06-30 ライン プラス コーポレーション Computer program and avatar expression method
KR102420379B1 (en) * 2021-09-14 2022-07-13 주식회사 오썸피아 Method for providing a service of metaverse based on meteorological environment
KR102561202B1 (en) * 2022-07-22 2023-07-31 박상규 Layered avatar visualization system and method in digital twin 3D space

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050083649A (en) * 2002-08-20 2005-08-26 비벤디 유니버설 게임즈, 인크 Computer game with emotion-based character interaction
KR20060104981A (en) * 2006-09-26 2006-10-09 주식회사 비즈모델라인 System and method for interlocking process between emoticon and avatar
KR20070008417A (en) * 2005-07-12 2007-01-17 주식회사 사이넷 Method for transmitting a message with sensibility
KR20070101604A (en) * 2006-04-11 2007-10-17 주식회사 케이티 System and method for providing game service by using sobot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050083649A (en) * 2002-08-20 2005-08-26 비벤디 유니버설 게임즈, 인크 Computer game with emotion-based character interaction
KR20070008417A (en) * 2005-07-12 2007-01-17 주식회사 사이넷 Method for transmitting a message with sensibility
KR20070101604A (en) * 2006-04-11 2007-10-17 주식회사 케이티 System and method for providing game service by using sobot
KR20060104981A (en) * 2006-09-26 2006-10-09 주식회사 비즈모델라인 System and method for interlocking process between emoticon and avatar

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240009264A (en) 2022-07-13 2024-01-22 인바이츠지노믹스 주식회사 System for personal healthcare based on metaverse

Also Published As

Publication number Publication date
KR20090058760A (en) 2009-06-10

Similar Documents

Publication Publication Date Title
Coleman Hello avatar: rise of the networked generation
KR101106002B1 (en) Apparatus and method for generating behaviour in an object
US8648865B2 (en) Variable rendering of virtual universe avatars
CN109885367B (en) Interactive chat implementation method, device, terminal and storage medium
CN107750005A (en) Virtual interactive method and terminal
US20090128567A1 (en) Multi-instance, multi-user animation with coordinated chat
KR100957858B1 (en) Avatar presenting method and computer readable medium processing the method
KR101851356B1 (en) Method for providing intelligent user interface by 3D digital actor
KR100993801B1 (en) Avatar presenting apparatus and method thereof and computer readable medium processing the method
CN109621419A (en) The generating means method and device of game role expression, storage medium
Boyns et al. Feeling through presence: Toward a theory of interaction rituals and parasociality in online social worlds
JP2022532909A (en) Change anime character
CN113766168A (en) Interactive processing method, device, terminal and medium
Vilhjálmsson Autonomous communicative behaviors in avatars
CN111899319A (en) Expression generation method and device of animation object, storage medium and electronic equipment
KR20190071241A (en) Method and System for Providing Virtual Blind Date Service
CN101620741A (en) Interactive generation method for realistic virtual incarnate model based on component library
Weinberger et al. A metaverse maturity model
Türkoğlu et al. The Digital Cultural Identity on the Space Drawed in Virtual Games and Representatıve
US9129261B2 (en) 3D character mail system
KR20070025384A (en) Method and server for making dancing avatar and method for providing applied service by using the dancing avatar
CN112807688A (en) Method and device for setting expression in game, processor and electronic device
KR20030088694A (en) Avatar capable of simultaneous representation and method to embody item/individual cyber room using it
KR20050007747A (en) unity system of avatar/ game character connected with web and game and method thereof
Freund Beyond the physical self: understanding the perversion of reality and the desire for digital transcendence via digital avatars in the context of Baudrillard’s theory

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130503

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140429

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150507

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160428

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170508

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180508

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee