KR102079321B1 - System and method for avatar service through cable and wireless web - Google Patents

System and method for avatar service through cable and wireless web Download PDF

Info

Publication number
KR102079321B1
KR102079321B1 KR1020180118264A KR20180118264A KR102079321B1 KR 102079321 B1 KR102079321 B1 KR 102079321B1 KR 1020180118264 A KR1020180118264 A KR 1020180118264A KR 20180118264 A KR20180118264 A KR 20180118264A KR 102079321 B1 KR102079321 B1 KR 102079321B1
Authority
KR
South Korea
Prior art keywords
avatar
movement
image data
motion
data
Prior art date
Application number
KR1020180118264A
Other languages
Korean (ko)
Other versions
KR20180112751A (en
Inventor
이승영
신창훈
엄석경
Original Assignee
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인 가부시키가이샤 filed Critical 라인 가부시키가이샤
Priority to KR1020180118264A priority Critical patent/KR102079321B1/en
Publication of KR20180112751A publication Critical patent/KR20180112751A/en
Application granted granted Critical
Publication of KR102079321B1 publication Critical patent/KR102079321B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Operations Research (AREA)
  • Processing Or Creating Images (AREA)

Abstract

움직임을 나타내는 데이터인 메타데이터와 아바타를 구성하는 레이어별로 움직임에 따른 복수의 회전 이미지들을 각각 데이터베이스에 저장 및 유지하고, 요청에 따라 움직임에 맞는 메타데이터와 회전 이미지들을 제공함으로써, 아바타의 다양한 동작(motion)이나 표정(감정) 등과 같은 움직임(action)을 표현할 수 있는 아바타 서비스 시스템 및 방법을 제공한다.By storing and maintaining a plurality of rotation images according to movement for each layer constituting the avatar and metadata representing data, and providing metadata and rotation images corresponding to the movement on request, various operations of the avatar ( The present invention provides an avatar service system and method capable of expressing an action such as a motion or an expression.

Description

유무선 웹을 통한 아바타 서비스 시스템 및 방법{SYSTEM AND METHOD FOR AVATAR SERVICE THROUGH CABLE AND WIRELESS WEB}Avatar service system and method through wired and wireless web {SYSTEM AND METHOD FOR AVATAR SERVICE THROUGH CABLE AND WIRELESS WEB}

본 발명의 실시예들은 유무선 웹을 통한 아바타 서비스 시스템 및 방법에 관한 것이다.Embodiments of the present invention relate to an avatar service system and method through a wired or wireless web.

유무선 웹을 통한 서비스에서 제공되는 아바타의 경우, 의류/얼굴/액세서리 등의 조합으로 구성될 수 있다. 그러나, 이러한 종래기술의 아바타는, 움직임이 없거나, 움직이는 경우에도 의류/액세서리 등의 조합을 무시하고 아바타 전체가 움직이게 된다.In the case of an avatar provided by a service through a wired or wireless web, the avatar may be a combination of clothing, face, and accessories. However, such a prior art avatar moves even if there is no movement or moves, ignoring the combination of clothing / accessories and the like, and the entire avatar moves.

다시 말해, 종래기술의 아바타는 단순한 레이어들(얼굴/의류/액세서리)로 구성되어 있으며, 움직임이 없는 이미지 조합으로 구성되거나 또는 움직임이 있는 경우, 얼굴을 제외한 의류/액세서리가 사라지는, 즉 이미지 깨짐 현상이 발생하는 문제점을 내포하고 있다. 또한, 이러한 아바타의 움직임을 애니메이션으로 구현하기 위해서는 플래시나 'unity 3D'와 같은 별도의 플러그인을 설치해야만 하는 문제점이 있다.In other words, prior art avatars are composed of simple layers (faces / clothes / accessories), which consist of a combination of images with no movement or when there is movement, clothing / accessories other than faces disappear, i. This involves a problem that occurs. In addition, there is a problem that a separate plug-in such as flash or 'unity 3D' must be installed in order to animate the motion of the avatar.

또한, 메신저 서비스는 지인기반 서비스로서, 아바타가 없는 텍스트 형식의 채팅을 지원하고 있다. 예를 들어, 메신저 서비스에서는 아바타의 개념이 아니라, 사용자에 의해 설정된 이미지가 사용자를 대표하여 표시되는 형식을 채용하고 있다.In addition, the messenger service is an acquaintance-based service and supports a text-type chat without an avatar. For example, the messenger service adopts a format in which an image set by the user is displayed on behalf of the user, not the concept of an avatar.

본 명세서에서는 유무선 웹상에서도 보다 효과적으로 아바타를 표현할 수 있는 시스템 및 방법이 제공된다.In the present specification, a system and method for more effectively presenting an avatar on a wired or wireless web are provided.

움직임을 나타내는 데이터인 메타데이터와 아바타를 구성하는 레이어별로 움직임에 따른 복수의 회전 이미지들을 각각 데이터베이스에 저장 및 유지하고, 요청에 따라 움직임에 맞는 메타데이터와 회전 이미지들을 제공함으로써, 아바타의 다양한 동작(motion)이나 표정(감정) 등과 같은 움직임(action)을 표현할 수 있는 아바타 서비스 시스템 및 방법을 제공한다.By storing and maintaining a plurality of rotation images according to movement for each layer constituting the avatar and metadata representing data, and providing metadata and rotation images corresponding to the movement on request, various operations of the avatar ( The present invention provides an avatar service system and method capable of expressing an action such as a motion or an expression.

아바타의 신체를 구성하는 레이어들 뿐만 아니라, 아바타에 부가되는 액세서리나 의류 등의 아이템들 역시 별도의 레이어들로 구성하고, 각각의 아이템 레이어들 각각에 대해서도 복수의 회전 이미지들이 생성 및 유지함으로써, 신체를 구성하는 레어어들의 움직임에 맞는 아이템 레이어들의 회전 이미지를 제공하여, 이미지 회전에 의한 이미지 깨짐 현상을 해결할 수 있을 뿐만 아니라 아바타 서비스 전체의 질을 향상시킬 수 있는 아바타 서비스 시스템 및 방법을 제공한다.In addition to the layers constituting the avatar's body, items such as accessories or clothing added to the avatar are also composed of separate layers, and a plurality of rotating images are generated and maintained for each item layer, thereby The present invention provides an avatar service system and method for providing a rotation image of item layers corresponding to movements of the rare layers constituting the not only image, thereby improving image quality due to image rotation, as well as improving the overall quality of the avatar service.

채팅 서비스에서, 사용자가 아바타를 선택할 수 있고, 아바타를 최적화할 수 있는 범위를 확대시킴으로서, 사용자의 흥미를 유도할 수 있을 뿐만 아니라, 아바타의 움직임을 통해 정적인 텍스트 위주의 채팅 방식에서 벗어나 사용자가 자신의 감정을 실감나게 표현할 수 있으며, 대화의 역동성을 부여할 수 있는 채팅 서비스 시스템 및 방법을 제공한다.In the chat service, the user can select an avatar and expand the range for optimizing the avatar, which not only induces the user's interest, but also moves the user away from the static text-based chat method through the avatar's movement. The present invention provides a chat service system and method that can express one's emotions realistically and give dynamicity to a conversation.

랜덤채팅 기능을 제공하여 사용자들이 전체 사용자들과 랜덤하게 채팅을 진행할 수 있는 서비스를 제공할 수 있고, 별도의 채팅로그를 제공하여 아바타를 사용하면서도 지나간 대화나 아바타의 움직임을 확인할 수 있으며, 아바타의 이동을 가능하게 하여 대화의 역동성을 부여할 수 있는 채팅 서비스 시스템 및 방법을 제공한다.By providing a random chat function, users can provide a service that allows users to chat randomly with all users, and provides a separate chat log to check past conversations or avatar movements while using the avatar. The present invention provides a chat service system and method for enabling mobility to impart dynamics of conversation.

채팅 내용 중 특정 단어를 인식하여 자동으로 아바타의 감정이나 동작 등의 움직임을 표현할 수 있고, 동일한 말풍선이 아니라 채팅 내용에 따라 가변하는 말풍선들을 제공하며, 사용자가 직접 자신의 말풍선을 선택할 수 있는 채팅 서비스 시스템 및 방법을 제공한다.Recognize specific words in the chat content to automatically express the emotions and movements of the avatar, etc. Not providing the same speech bubble, but provides a variety of speech bubbles that vary depending on the chat content, the user can choose their own speech bubbles Provides a system and method.

인터넷 상에서 아바타 서비스를 제공하는 아바타 서비스 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 비-일시적인 컴퓨터 판독가능한 기록 매체에 있어서, 상기 아바타 서비스 방법은, 아바타의 움직임에 대한 요청을 수신하는 단계; 상기 아바타의 움직임에 대한 메타데이터 및 상기 아바타를 구성하는 레이어들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 상기 요청에 대응하는 메타데이터 및 이미지데이터를 추출하는 단계; 및 상기 추출된 메타데이터 및 이미지데이터를 이용하여 상기 아바타의 움직임을 상기 아바타에 적용하기 위한 움직임 데이터를 생성 및 제공하는 단계를 포함하고, 상기 이미지데이터는, 상기 아바타를 구성하는 레이어 별로 움직임에 따른 복수의 회전 이미지들을 포함하는 것을 특징으로 하는, 비-일시적인 컴퓨터 판독가능한 기록 매체를 제공한다.A non-transitory computer readable recording medium having recorded thereon a program for executing an avatar service method for providing an avatar service on the Internet, the method comprising: receiving a request for movement of an avatar; Extracting metadata and image data corresponding to the request from a database in which metadata regarding movement of the avatar and image data of each of the layers constituting the avatar are stored; And generating and providing motion data for applying the motion of the avatar to the avatar using the extracted metadata and image data, wherein the image data is generated according to the motion of each layer constituting the avatar. A non-transitory computer readable recording medium, characterized in that it comprises a plurality of rotating images.

인터넷 상에서 아바타 서비스를 제공하는 아바타 서비스 시스템에 있어서, 아바타의 움직임(action)에 대한 요청을 수신하는 요청 수신부; 상기 아바타의 움직임에 대한 메타데이터 및 상기 아바타를 구성하는 레이어(layer)들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 상기 요청에 대응하는 메타데이터 및 이미지데이터를 추출하는 데이터 추출부; 및 상기 추출된 메타데이터 및 이미지데이터를 이용하여 상기 아바타의 움직임을 상기 아바타에 적용하기 위한 움직임 데이터를 생성 및 제공하는 아바타 움직임 처리부를 포함하고, 상기 이미지데이터는, 상기 아바타를 구성하는 레이어 별로 움직임에 따른 복수의 회전 이미지들을 포함하는 것을 특징으로 하는 아바타 서비스 시스템을 제공한다.An avatar service system for providing an avatar service on the Internet, the avatar service system comprising: a request receiving unit configured to receive a request for an action of an avatar; A data extraction unit for extracting metadata and image data corresponding to the request from a database in which metadata regarding movement of the avatar and image data of each of layers of the avatar are stored; And an avatar motion processor configured to generate and provide motion data for applying the motion of the avatar to the avatar using the extracted metadata and image data, wherein the image data moves for each layer constituting the avatar. It provides an avatar service system comprising a plurality of rotating images according to.

인터넷 상에서 아바타 서비스를 제공받는 사용자단말기에 있어서, 아바타를 화면에 표시하는 아바타 표시부; 상기 아바타의 움직임에 대한 요청을 서버로 전송하는 요청 전송부; 및 상기 서버로부터 상기 아바타의 움직임을 위한 움직임 데이터를 수신하는 데이터 수신부를 포함하고, 상기 아바타의 움직임에 대한 메타데이터 및 상기 아바타를 구성하는 레이어들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 상기 서버에 의해 상기 요청에 대응하는 메타데이터 및 이미지데이터가 추출되고, 상기 움직임 데이터는, 상기 추출된 메타데이터 및 이미지데이터에 기초하여 상기 서버에서 생성되고, 상기 아바타 표시부는, 상기 움직임 데이터에 기초하여 상기 아바타의 움직임을 상기 화면에 표시하고, 상기 이미지데이터는, 상기 아바타를 구성하는 레이어 별로 움직임에 따른 복수의 회전 이미지들을 포함하는 것을 특징으로 하는 사용자단말기를 제공한다.A user terminal provided with an avatar service on the Internet, the user terminal comprising: an avatar display unit displaying an avatar on a screen; A request transmitter for transmitting a request for movement of the avatar to a server; And a data receiver configured to receive motion data for movement of the avatar from the server, wherein the metadata is stored by the server in a database in which metadata about movement of the avatar and image data of each of the layers constituting the avatar are stored. Metadata and image data corresponding to the request are extracted, and the motion data is generated in the server based on the extracted metadata and image data, and the avatar display unit is configured to display the avatar based on the motion data. A motion is displayed on the screen, and the image data provides a user terminal comprising a plurality of rotated images according to the motion for each layer constituting the avatar.

움직임을 나타내는 데이터인 메타데이터와 아바타를 구성하는 레이어별로 움직임에 따른 복수의 회전 이미지들을 각각 데이터베이스에 저장 및 유지하고, 요청에 따라 움직임에 맞는 메타데이터와 회전 이미지들을 제공함으로써, 아바타의 다양한 동작(motion)이나 표정(감정) 등과 같은 움직임(action)을 표현할 수 있다.By storing and maintaining a plurality of rotation images according to movement for each layer constituting the avatar and metadata representing data, and providing metadata and rotation images corresponding to the movement on request, various operations of the avatar ( It can express an action such as a motion or an expression.

아바타의 신체를 구성하는 레이어들 뿐만 아니라, 아바타에 부가되는 액세서리나 의류 등의 아이템들 역시 별도의 레이어들로 구성하고, 각각의 아이템 레이어들 각각에 대해서도 복수의 회전 이미지들이 생성 및 유지함으로써, 신체를 구성하는 레어어들의 움직임에 맞는 아이템 레이어들의 회전 이미지를 제공하여, 이미지 회전에 의한 이미지 깨짐 현상을 해결할 수 있을 뿐만 아니라 아바타 서비스 전체의 질을 향상시킬 수 있다.In addition to the layers constituting the avatar's body, items such as accessories or clothing added to the avatar are also composed of separate layers, and a plurality of rotating images are generated and maintained for each item layer, thereby By providing a rotation image of the item layers corresponding to the movement of the rare layers constituting the, it is possible not only to solve the image broken phenomenon due to the image rotation but also to improve the quality of the entire avatar service.

채팅 서비스에서, 사용자가 아바타를 선택할 수 있고, 아바타를 최적화할 수 있는 범위를 확대시킴으로서, 사용자의 흥미를 유도할 수 있을 뿐만 아니라, 아바타의 움직임을 통해 정적인 텍스트 위주의 채팅 방식에서 벗어나 사용자가 자신의 감정을 실감나게 표현할 수 있으며, 대화의 역동성을 부여할 수 있다.In the chat service, the user can select an avatar and expand the range in which the avatar can be optimized, thereby inducing the user's interest, and moving the avatar away from the static text-based chat method. It can express one's feelings realistically and give the dialogue dynamics.

랜덤채팅 기능을 제공하여 사용자들이 전체 사용자들과 랜덤하게 채팅을 진행할 수 있는 서비스를 제공할 수 있고, 별도의 채팅로그를 제공하여 아바타를 사용하면서도 지나간 대화나 아바타의 움직임을 확인할 수 있으며, 아바타의 이동을 가능하게 하여 대화의 역동성을 부여할 수 있다.By providing a random chat function, users can provide a service that allows users to chat randomly with all users, and provides a separate chat log to check past conversations or avatar movements while using the avatar. The movement can be made to give the dialogue dynamics.

채팅 내용 중 특정 단어를 인식하여 자동으로 아바타의 감정이나 동작 등의 움직임을 표현할 수 있고, 동일한 말풍선이 아니라 채팅 내용에 따라 가변하는 말풍선들을 제공하며, 사용자가 직접 자신의 말풍선을 선택할 수 있다.Recognize certain words in the chat content to automatically express the emotions and movements of the avatar, such as a speech bubble that is variable according to the chat content instead of the same speech bubble, the user can directly choose his own speech bubble.

도 1은 본 발명의 일실시예에 있어서, 사용자단말기와 서버가 네트워크를 통해 연결된 환경을 개괄적으로 나타낸 도면이다.
도 2는 본 발명의 일실시예에 있어서, 데이터베이스를 나타낸 도면이다.
도 3은 본 발명의 일실시예에 있어서, 레이어별 이미지데이터를 설명하기 위한 일례이다.
도 4는 본 발명의 일실시예에 있어서, 아바타의 움직임을 위해 아바타의 신체를 구성하는 레이어들을 나타낸 일례이다.
도 5는 본 발명의 일실시예에 있어서, 데이터베이스에서 이미지데이터를 추출하는 과정을 설명한 일례이다.
도 6은 본 발명의 일실시예에 있어서, 메타데이터를 나타낸 일례이다.
도 7은 본 발명의 일실시예에 있어서, 아바타의 움직임을 나타낸 일례이다.
도 8 및 도 9는 본 발명의 일실시예에 있어서, 복수개의 레이어로 구성된 아바타의 전면과 후면을 각각을 나타낸 일례이다.
도 10은 본 발명의 일실시예에 있어서, 아바타의 뼈대를 나타내는 뼈대 레이어와 대응하는 신체 레이어 및 아이템 레이어들이 서로 대응됨을 나타낸 일례이다.
도 11은 본 발명의 일실시예에 있어서, 모바일 웹상에서 아바타 서비스를 제공하는 일례를 나타낸 도면이다.
도 12는 본 발명의 일실시예에 있어서, 모바일 웹상에서 아바타 서비스를 제공하는 다른 예를 나타낸 도면이다.
도 13은 본 발명의 일실시예에 있어서, 동물형 아바타를 제공하는 모습을 나타낸 일례이다.
도 14는 본 발명의 일실시예에 있어서, 아바타의 아이템 카테고리 구조를 나타낸 일례이다.
도 15는 본 발명의 일실시예에 있어서, 이동수단에 탑승한 아바타를 나타낸 일례이다.
도 16은 본 발명의 일실시예에 있어서, 채팅 스테이지를 나타낸 일례이다.
도 17은 본 발명의 일실시예에 있어서, 채팅로그를 나타낸 일례이다.
도 18은 본 발명의 일실시예에 있어서, 채팅로그를 제공하는 방법을 도시한 일례이다.
도 19는 본 발명의 일실시예에 있어서, 랜덤채팅 기능을 설명하기 위한 일례이다.
도 20은 본 발명의 일실시예에 있어서, 채팅방, 서버 및 단어 데이터베이스를 나타낸 도면이다.
도 21은 본 발명의 일실시예에 있어서, 다양한 모양의 말풍선들을 나타낸 일례이다.
도 22는 본 발명의 일실시예에 있어서, 다양한 모양의 말풍선이 사용된 일례이다.
도 23은 본 발명의 일실시예에 있어서, 아바타 서비스 시스템의 내부 구성을 설명하기 위한 블록도이다.
도 24는 본 발명의 일실시예에 있어서, 아바타 서비스 시스템이 수행하는 아바타 서비스 방법을 도시한 흐름도이다.
도 25는 본 발명의 일실시예에 있어서, 사용자단말기의 내부 구성을 설명하기 위한 블록도이다.
도 26은 본 발명의 일실시예에 있어서, 사용자단말기가 수행하는 아바타 서비스 방법을 도시한 흐름도이다.
1 is a diagram schematically illustrating an environment in which a user terminal and a server are connected through a network according to an embodiment of the present invention.
2 is a view showing a database in an embodiment of the present invention.
3 is an example for explaining image data for each layer according to an exemplary embodiment of the present invention.
4 illustrates an example of layers constituting a body of an avatar for movement of an avatar according to an embodiment of the present invention.
5 is an example illustrating a process of extracting image data from a database according to an embodiment of the present invention.
6 illustrates an example of metadata in an embodiment of the present invention.
7 illustrates an example of an avatar's movement according to an embodiment of the present invention.
8 and 9 illustrate examples of the front and rear surfaces of an avatar composed of a plurality of layers according to an embodiment of the present invention.
FIG. 10 illustrates an example in which an skeleton layer representing an skeleton of an avatar, a body layer, and an item layer correspond to each other, according to an embodiment of the present invention.
11 is a diagram for one example of providing an avatar service on a mobile web according to one embodiment of the present invention.
12 is a diagram illustrating another example of providing an avatar service on a mobile web according to one embodiment of the present invention.
13 illustrates an example of providing an animal avatar according to an embodiment of the present invention.
14 is a diagram illustrating an item category structure of an avatar according to an embodiment of the present invention.
FIG. 15 is a diagram illustrating an avatar on a vehicle, according to an embodiment of the present invention.
16 shows an example of a chat stage according to an embodiment of the present invention.
17 shows an example of a chat log in an embodiment of the present invention.
18 illustrates an example of a method of providing a chat log according to an embodiment of the present invention.
19 is an example for explaining a random chat function in an embodiment of the present invention.
20 is a view showing a chat room, a server, and a word database according to an embodiment of the present invention.
21 illustrates an example of speech bubbles of various shapes in an embodiment of the present invention.
22 is an example in which speech bubbles of various shapes are used in an embodiment of the present invention.
23 is a block diagram illustrating an internal configuration of an avatar service system according to an embodiment of the present invention.
24 is a flowchart illustrating an avatar service method performed by an avatar service system according to an embodiment of the present invention.
25 is a block diagram illustrating an internal configuration of a user terminal according to an embodiment of the present invention.
FIG. 26 is a flowchart illustrating an avatar service method performed by a user terminal according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 있어서, 사용자단말기와 서버가 네트워크를 통해 연결된 환경을 개괄적으로 나타낸 도면이다. 도 1은 사용자단말기(110), 서버(120), 네트워크(130)를 나타내고 있다.1 is a diagram schematically illustrating an environment in which a user terminal and a server are connected through a network according to an embodiment of the present invention. 1 illustrates a user terminal 110, a server 120, and a network 130.

사용자단말기(110)는 사용자가 이용하는 유선통신단말기이거나 또는 무선통신단말기일 수 있다. 사용자단말기(110)는 사용자단말기(110)에 포함된 통신모듈을 이용하여 네트워크(130)를 통해 서버(120)와 통신할 수 있다. 예를 들어, 네트워크(130)는 사용자단말기(110)가 무선통신단말기인 경우, 기지국과 게이트웨이 등을 이용한 무선통신 네트워크일 수도 있고, 액세스 포인트를 이용하여 인터넷에 연결하기 위한 무선통신 네트워크일 수도 있다. 뿐만 아니라, 네트워크(130)는 사용자단말기(110)가 유선통신단말기인 경우, 근거리 통신망을 이용하여 인터넷에 연결되는 유선통신 네트워크일 수도 있다. 이러한 통신기술에 대해서는 이미 잘 알려져 있기 때문에 자세한 설명은 생략한다.The user terminal 110 may be a wired communication terminal or a wireless communication terminal used by the user. The user terminal 110 may communicate with the server 120 through the network 130 using a communication module included in the user terminal 110. For example, when the user terminal 110 is a wireless communication terminal, the network 130 may be a wireless communication network using a base station and a gateway, or may be a wireless communication network for connecting to the Internet using an access point. . In addition, when the user terminal 110 is a wired communication terminal, the network 130 may be a wired communication network connected to the Internet using a local area network. Since such communication technology is well known, a detailed description thereof will be omitted.

서버(120)는 사용자단말기(110)로 아바타 서비스 또는 채팅 서비스나 SNS(Social Network Service)나 SNG(Social Network Game)에서 아바타 서비스를 제공하는 시스템일 수 있다. 본 실시예에서 서버(120)는 사용자단말기(110)로 아바타 서비스를 제공할 수 있으며, 본 실시예에 따른 아바타 서비스는 아바타의 조합에 이용되는 레이어(layer)별로 다양한 움직임(action)이 가능한 아바타를 제공하기 위한 서비스를 의미할 수 있다. 일례로, 서버(120)는 사용자단말기(110)에게 아바타를 이용한 채팅 서비스를 제공하는 시스템일 수 있다. 즉, 서버(120)는 다양한 움직임이 가능한 아바타를 제공하여 사용자가 아바타를 통해 자신의 감정을 실감나게 표현하도록 지원할 수 있다.The server 120 may be a system for providing an avatar service to the user terminal 110 in an avatar service, a chat service, a social network service (SNS), or a social network game (SNG). In the present embodiment, the server 120 may provide an avatar service to the user terminal 110. The avatar service according to the present embodiment may perform various actions for each layer used in the combination of avatars. It may mean a service for providing a. For example, the server 120 may be a system for providing a chatting service using an avatar to the user terminal 110. That is, the server 120 may provide an avatar capable of various movements to support the user to realistically express his or her emotions through the avatar.

도 2는 본 발명의 일실시예에 있어서, 데이터베이스를 나타낸 도면이다. 여기서, 데이터베이스(200)는 아바타의 다양한 움직임을 가능하게 하기 위해 제안된 것으로, 도 2에 도시된 바와 같이 아바타의 움직임에 대한 데이터인 메타데이터(210)와 아바타를 구성하기 위한 레이어별 이미지데이터(220)를 각각 저장 및 유지할 수 있다. 이때, 데이터베이스(210)는 서버(120)에 포함되거나 또는 서버(120)와 연계되어 서버(120)로 데이터를 제공하는 별도의 시스템에 포함될 수 있다. 이 경우, 서버(120)는 데이터베이스(200)로부터 필요한 메타데이터(210)와 이미지데이터(220)를 추출하여 사용자단말기(110)로 제공할 수 있다. 이때, 서버(120)는, 일실시예로, 메타데이터(210)에 기초하여 프레임별로 이미지데이터(220)를 합성하고, 합성된 애니메이션을 사용자단말기(110)로 제공할 수 있다. 또한, 서버(120)는 추출된 단순히 추출된 메타데이터(210)와 이미지데이터(220)를 사용자단말기(110)로 제공하고, 사용자단말기(110)에서 메타데이터(210)에 기초하여 이미지데이터(220)를 합성하여 프레임별로 표시할 수도 있다. 즉, 본 실시예에 따른 아바타 서비스 시스템 및 방법에서는 레이어별 이미지데이터(220)를 메타데이터(210)에 따라 합성하는 방법을 통해 다양한 움직임의 아바타를 표현할 수 있다.2 is a view showing a database in an embodiment of the present invention. Here, the database 200 is proposed to enable various movements of the avatar, and as shown in FIG. 2, metadata 210 which is data about the movement of the avatar, and image data for each layer for configuring the avatar ( 220 may be stored and maintained respectively. In this case, the database 210 may be included in the server 120 or may be included in a separate system that provides data to the server 120 in association with the server 120. In this case, the server 120 may extract necessary metadata 210 and image data 220 from the database 200 and provide the extracted metadata 210 and the image data 220 to the user terminal 110. In this case, the server 120 may synthesize the image data 220 for each frame based on the metadata 210 and provide the synthesized animation to the user terminal 110. In addition, the server 120 provides the extracted simply extracted metadata 210 and the image data 220 to the user terminal 110, and based on the metadata 210 in the user terminal 110, the image data ( 220 may be synthesized and displayed for each frame. That is, in the avatar service system and method according to the present embodiment, avatars of various movements may be expressed through a method of synthesizing image data 220 for each layer according to the metadata 210.

도 3은 본 발명의 일실시예에 있어서, 레이어별 이미지데이터를 설명하기 위한 일례이다. 즉, 도 3은 하나의 레이어에 대해 중심축(310)을 기준으로, 1° 단위로, 1°부터 360°까지 총 360개의 회전 이미지가 생성될 수 있음을 나타낸 일례이다. 필요에 따라, 회전 단위가 다른 값(예를 들어, 2°나 5°)으로 기설정될 수도 있음은 너무나 당연하다.3 is an example for explaining image data for each layer according to an exemplary embodiment of the present invention. That is, FIG. 3 illustrates an example in which a total of 360 rotating images may be generated from 1 ° to 360 ° in 1 ° increments based on the central axis 310 for one layer. It is too natural that the rotation unit may be preset to another value (eg 2 ° or 5 °) as needed.

도 4는 본 발명의 일실시예에 있어서, 아바타의 움직임을 위해 아바타의 신체를 구성하는 레이어들을 나타낸 일례이다. 도 4에서는 아바타의 신체를 머리, 몸통, 오른쪽 팔 윗부분, 오른쪽 팔 아랫부분, 왼쪽 팔 윗부분, 왼쪽 팔 아랫부분, 오른쪽 다리 윗부분, 오른쪽 다리 아랫부분, 왼쪽 다리 윗부분 및 왼쪽 다리 아랫부분의 10개의 레이어들로 구성한 일례를 나타내고 있다. 여기서, 레이어들 각각은 중심축을 포함하고 있으며, 중심축에 따라 회전할 수 있다. 물론, 도 4에서 나타난 아바타는 하나의 일례일 뿐, 필요에 따라 아바타는 더 정교한 동작(motion)을 제어하기 위해 보다 많은 레이어들로 구성될 수도 있다.4 illustrates an example of layers constituting a body of an avatar for movement of an avatar according to an embodiment of the present invention. In Fig. 4, the avatar's body is divided into ten layers of head, torso, upper right arm, lower right arm, upper left arm, lower left arm, upper right leg, lower right leg, upper left leg and lower left leg. An example comprised with these is shown. Here, each of the layers includes a central axis and may rotate along the central axis. Of course, the avatar shown in FIG. 4 is just one example, and if necessary, the avatar may be configured with more layers to control more sophisticated motion.

도 5는 본 발명의 일실시예에 있어서, 데이터베이스에서 이미지데이터를 추출하는 과정을 설명한 일례이다. 도 5는 각각의 레이어별로 각각 360개의 회전 이미지들이 이미지데이터로서 데이터베이스에 저장되어 있고, 요청된 움직임을 표현하기 위해 필요한 회전 이미지들을 추출하여 제공할 수 있음을 나타내고 있다. 우선, 도 5의 일례에서 설명하는 데이터베이스에는 레이어들 각각에 대해, 1° 단위로, 1°부터 360°까지 총 360개의 회전 이미지가 저장되어 있다. 이때, "layer code"는 각 레이어를 식별하기 위한 식별자를 의미할 수 있다. 즉, 도 7은 "layer code"가 "bd_x_a1_01"인 레이어의 회전 이미지들 중 59°부터 64°까지의 회전 이미지들을, "layer code"가 "bd_x_a2_00"인 레이어의 회전 이미지들 중 246°부터 251°까지의 회전 이미지들을, "layer code"가 "bd_x_a5_00"인 레이어의 회전 이미지들 중 346°부터 351°까지의 회전 이미지들을 각각 추출하는 일례를 나타내고 있다.5 is an example illustrating a process of extracting image data from a database according to an embodiment of the present invention. FIG. 5 shows that 360 rotation images for each layer are stored in the database as image data, and that the rotation images necessary for representing the requested motion can be extracted and provided. First, in the database described in the example of FIG. 5, for each of the layers, a total of 360 rotating images are stored from 1 ° to 360 ° in units of 1 °. In this case, "layer code" may mean an identifier for identifying each layer. That is, FIG. 7 illustrates rotation images of 59 ° to 64 ° among rotation images of the layer having the “layer code” of “bd_x_a1_01”, and 251 ° to 251 of rotation images of the layer having the “layer code” of “bd_x_a2_00”. An example of extracting rotated images up to °, and rotated images from 346 ° to 351 °, respectively, among the rotated images of the layer having the "layer code" of "bd_x_a5_00" is shown.

각 레이어들은 회전 이미지의 적용에 따라 중심축에 대한 회전이 가능할 뿐만 아니라, 중심축을 화면상의 어디에 위치시키는가에 따라 레이어들의 이동도 가능하다. 이러한 중심축에 대한 회전이나 중심축의 위치에 대한 정보는 메타데이터에 포함될 수 있다. 예를 들어, 메타데이터는 각각의 레이어마다 몇 도의 각도(회전 값, angle)를 갖는 회전 이미지의 중심축이 화면의 어디에 위치하여야 하는가에 대한 정보(좌표)를 포함할 수 있다.Each layer can be rotated about the central axis according to the application of the rotating image, and the layers can be moved depending on where the central axis is located on the screen. The information about the rotation about the central axis or the position of the central axis may be included in the metadata. For example, the metadata may include information (coordinates) of where the center axis of the rotated image having an angle (rotation value, angle) of each layer should be located on the screen.

도 6은 본 발명의 일실시예에 있어서, 메타데이터를 나타낸 일례이다. 우선, 도 6에서 "ani01.xml"은 요청된 움직임에 대한 식별자 "ani01"에 대해 확장성마크업언어(eXtensible MarkUp Language, XML) 형태로 메타데이터를 제공함을 의미할 수 있다. 또한, "scene frame"의 값은 프레임을 식별하기 위한 식별자일 수 있다. 즉, "scene frame = 1"은 "ani01"에 해당하는 움직임의 첫 번째 프레임을 의미할 수 있다. "layer code"는 이미 설명한 바와 같이 레이어를 식별하기 위한 식별자를 의미할 수 있다. "z_order"는 프레임 내에서 레이어들의 깊이(depth)를 나타낼 수 있다. 즉, "z_order"의 값이 커질수록 화면의 앞쪽에 표현됨을 의미할 수 있다. "angle"은 적용될 회전 이미지의 식별자에 대응될 수 있다. 즉, "angle = 0"은 360°에 대응하는 회전 이미지가 적용됨을 의미할 수 있다. "offset_x"와 "offset_y"는 좌표를 나타낼 수 있다. 이러한 좌표는 화면의 좌표에 대응하는 절대좌표일 수도 있으나, 아바타가 표현되는 영역의 기준 위치에 대한 상대좌표일 수도 있다.6 illustrates an example of metadata in an embodiment of the present invention. First, in FIG. 6, "ani01.xml" may mean that metadata is provided in the form of an eXtensible MarkUp Language (XML) for the identifier "ani01" for the requested movement. Also, the value of "scene frame" may be an identifier for identifying a frame. That is, "scene frame = 1" may mean the first frame of the motion corresponding to "ani01". "layer code" may mean an identifier for identifying a layer as described above. "z_order" may indicate the depth of layers in a frame. That is, as the value of "z_order" increases, this may mean that it is displayed on the front of the screen. "angle" may correspond to an identifier of a rotating image to be applied. That is, "angle = 0" may mean that a rotation image corresponding to 360 ° is applied. "offset_x" and "offset_y" may indicate coordinates. The coordinates may be absolute coordinates corresponding to the coordinates of the screen, or may be relative to the reference position of the area where the avatar is represented.

다시 도 1 및 도 2를 참조하면, 사용자단말기(110)가 네트워크(130)를 통해 서버(120)에 접속하여 아바타 서비스를 제공받는 경우, 서버(120)는 사용자단말기(110)로부터 아바타의 움직임과 관련된 요청을 수신할 수 있다. 이 경우, 서버(120)는 일실시예로, 요청된 움직임에 아바타의 이미지를 합성하여 사용자단말기(110)로 제공할 수 있다.Referring back to FIGS. 1 and 2, when the user terminal 110 receives an avatar service by accessing the server 120 through the network 130, the server 120 moves the avatar from the user terminal 110. Receive a request associated with the. In this case, the server 120 may synthesize the image of the avatar with the requested movement and provide the synthesized image to the user terminal 110.

다른 실시예로, 서버(120)는 데이터베이스(200)로부터 요청된 움직임과 관련된 메타데이터(210)와 이미지데이터(220)를 추출하여 사용자단말기(110)로 제공할 수 있고, 사용자단말기(110)에서 메타데이터(210)에 기초하여 프레임별로 이미지데이터(220)를 화면에 표시할 수도 있다. 일례로, 메타데이터(210)는 도 6에서 설명한 바와 같이 XML의 형태로 제공될 수 있고, 따라서, 유무선 웹을 통해서도 다양한 움직임이 가능한 아바타 서비스가 제공될 수 있게 된다. 즉, 서버(120)는 메타데이터(210)와 이미지데이터(220)를 통해 xml 파일을 생성하여 사용자단말기(110)로 제공할 수 있다. 이 경우, 서버(120)에서 이미지데이터(220)를 위한 웹주소를 XML 파일에 추가하여 사용자단말기(110)로 제공할 수 있다. 사용자단말기(110)는 HTML(HyperText Markup Language) 5와 같은 웹 표준 프로토콜을 통해 xml 파일을 처리할 수 있고, 이때, xml 파일에 추가된 웹주소를 통해 이미지데이터(220)가 사용자단말기(110)로 제공될 수도 있다.In another embodiment, the server 120 may extract metadata 210 and image data 220 related to the requested movement from the database 200 and provide them to the user terminal 110, and the user terminal 110. The image data 220 may be displayed on the screen for each frame based on the metadata 210. For example, the metadata 210 may be provided in the form of XML as described with reference to FIG. 6, and thus, an avatar service capable of various movements may be provided through a wired or wireless web. That is, the server 120 may generate an xml file through the metadata 210 and the image data 220 and provide the generated xml file to the user terminal 110. In this case, the server 120 may add the web address for the image data 220 to the XML file and provide it to the user terminal 110. The user terminal 110 may process an xml file through a web standard protocol such as HTML (HyperText Markup Language) 5, and at this time, the image data 220 is connected to the user terminal 110 through a web address added to the xml file. It may be provided as.

도 7은 본 발명의 일실시예에 있어서, 아바타의 움직임을 나타낸 일례이다. 아바타(700)는 이미 설명한 바와 같이 아바타를 구성하는 레이어들의 좌표와 회전 값에 기초하여 움직임이 결정될 수 있다. 각 프레임별로 레이어들의 회전 이미지들의 좌표와 회전 값이 결정되고, 각 프레임들이 순차적으로 화면에 표시되면, 아바타의 움직임에 따른 애니메이션(animation)이 사용자에게 제공될 수 있다. 또한, 아바타를 구성하는 전체 좌표값을 동일하게 변경하여 아바타의 위치를 이동시킬 수도 있다.7 illustrates an example of an avatar's movement according to an embodiment of the present invention. As described above, the avatar 700 may determine a movement based on the coordinates and rotation values of the layers constituting the avatar. When the coordinates and the rotation value of the rotation images of the layers are determined for each frame and each frame is sequentially displayed on the screen, an animation according to the movement of the avatar may be provided to the user. In addition, the position of the avatar may be moved by changing the same overall coordinate value of the avatar.

도 8 및 도 9는 본 발명의 일실시예에 있어서, 복수개의 레이어로 구성된 아바타의 전면과 후면을 각각을 나타낸 일례이다. 즉, 도 8 및 도 9는 아바타의 외형을 레이어 구조로서 구현한 일례로, 각각의 레이어별로 중심축이 기설정될 수 있고, 하나의 레이어에 대해 기설정된 중심축을 중심으로 한 복수개의 회전 이미지들이 존재할 수 있다. 이러한 복수개의 회전 이미지들은 도 2를 통해 설명한 데이터베이스(200)에 각 레이어별 이미지데이터(220)로서 저장될 수 있다. 즉, 복수의 레이어들 각각에 대해 복수의 회전 이미지들이 존재하고, 서버(120)는 아바타의 움직임에 필요한 회전 이미지들과 메타데이터를 제공할 수 있다. 이미 설명한 바와 같이, 사용자단말기(110)가 메타데이터에 기초하여 회전 이미지들을 조합하여 표시할 수 있다.8 and 9 illustrate examples of the front and rear surfaces of an avatar composed of a plurality of layers according to an embodiment of the present invention. That is, FIGS. 8 and 9 are examples in which the outer appearance of the avatar is implemented as a layer structure. A central axis may be preset for each layer, and a plurality of rotating images about the central axis preset for one layer may be provided. May exist. The plurality of rotated images may be stored as image data 220 for each layer in the database 200 described with reference to FIG. 2. That is, a plurality of rotation images exist for each of the plurality of layers, and the server 120 may provide rotation images and metadata necessary for the movement of the avatar. As described above, the user terminal 110 may combine and display the rotated images based on the metadata.

도 10은 본 발명의 일실시예에 있어서, 아바타의 뼈대를 나타내는 뼈대 레이어와 대응하는 신체 레이어 및 아이템 레이어들이 서로 대응됨을 나타낸 일례이다. 즉, 본 실시예에 따른 아바타는 뼈의 움직임에 따라 뼈에 부속된 신체와 아이템들이 동시에 함께 움직일 수 있음을 나타내고 있다. 즉, 뼈대를 나타내는 레이어가 이동한 좌표 및 각도에 대응하여 신체 레이어 및 아이템 레이어의 좌표와 각도를 변경함으로써, 이미지 깨짐 현상을 방지할 수 있다.FIG. 10 illustrates an example in which an skeleton layer representing an armature of an avatar, a body layer, and an item layer correspond to each other. That is, the avatar according to the present embodiment indicates that the body and items attached to the bone can move together at the same time according to the movement of the bone. That is, by changing the coordinates and angles of the body layer and the item layer corresponding to the coordinates and angles at which the layer representing the skeleton is moved, it is possible to prevent the image from being broken.

도 11은 본 발명의 일실시예에 있어서, 모바일 웹상에서 아바타 서비스를 제공하는 일례를 나타낸 도면이다. 화면(1100)은 사용자의 모바일단말기의 화면을 나타낸 일례이다. 보다 자세하게, 화면(1100)은 소셜 네트워크 서비스의 프로필 대표 이미지로 자신의 사진 대신 아바타를 설정한 일례를 나타내고 있다. 이때, 아바타는 자신의 감정 상태나 상황을 아바타의 움직임(표정이나 몸짓 등의 액션)으로 표현할 수 있다.11 is a diagram for one example of providing an avatar service on a mobile web according to one embodiment of the present invention. The screen 1100 is an example of a screen of a user's mobile terminal. In more detail, the screen 1100 shows an example of setting an avatar instead of a picture as a profile representative image of a social network service. In this case, the avatar may express its emotional state or situation by the avatar's movement (action such as expression or gesture).

도 12는 본 발명의 일실시예에 있어서, 모바일 웹상에서 아바타 서비스를 제공하는 다른 예를 나타낸 도면이다. 화면(1200)은 사용자의 모바일단말기의 화면을 나타낸 일례이다. 보다 자세하게, 화면(1200)은 아바타를 이용한 채팅 서비스 화면의 일례를 나타내고 있다. 즉, 단순히 텍스트를 통한 채팅뿐만 아니라, 아바타의 움직임을 통해서도 상대방에서 자신의 감정 상태나 상황 등을 전달할 수 있게 된다. 도 12에서는 아바타의 기설정된 움직임들을 미리 제공하고, 제공된 움직임 중 선택된 움직임이 사용자의 아바타에 반영되는 일례를 나타내고 있다. 그러나, 아바타의 움직임은 다양한 방법을 통해 선택될 수 있다. 예를 들어, 사용자가 입력하는 텍스트를 분석하여 아바타의 움직임이 선택될 수도 있다.12 is a diagram illustrating another example of providing an avatar service on a mobile web according to one embodiment of the present invention. The screen 1200 is an example of a screen of a user's mobile terminal. In more detail, the screen 1200 shows an example of a chat service screen using an avatar. In other words, not only chatting via text, but also the avatar's movement can communicate his or her emotional state or situation. 12 illustrates an example in which preset motions of the avatar are provided in advance, and a selected motion among the provided motions is reflected in the avatar of the user. However, the movement of the avatar can be selected through various methods. For example, the movement of the avatar may be selected by analyzing text input by the user.

이미 설명한 바와 같이, 웹상에서 제공되는 종래기술의 아바타 서비스는 단순히 이미지의 조합일 뿐이며, 메신저와 같이 웹 서비스는 지인기반 서비스로서, 아바타가 없는 텍스트 형식의 채팅을 지원하거나 사용자에 의해 설정된 이미지를 표시하는 기술만을 지원한다. 그러나, 본 실시예들에서는 도 11 및 도 12의 일례에서 도시한 바와 같이 유무선 웹상에서도 플러그인과 같은 별도의 프로그램 설치 없이도 다양한 움직임과 표정의 표현이 가능한 아바타를 지원할 수 있으며, 특히, 모바일 웹 서비스에서 아바타의 움직임이 가능한 아바타 서비스를 제공할 수 있다.As described above, the prior art avatar service provided on the web is simply a combination of images, and like a messenger, a web service is an acquaintance-based service, which supports chatting in a text form without an avatar or displays an image set by a user. Only support the technology. However, in the present exemplary embodiment, as shown in the example of FIGS. 11 and 12, even on a wired or wireless web, an avatar capable of expressing various movements and expressions without installing a separate program such as a plug-in may be supported. In particular, in a mobile web service An avatar service capable of moving an avatar may be provided.

이후에서는, 본 발명의 실시예들에 따른 아바타 서비스가 포함된 모바일 채팅 서비스에 대해 설명한다.Hereinafter, a mobile chat service including an avatar service according to embodiments of the present invention will be described.

도 12를 다시 참조하면, 아바타의 움직임은 아바타가 아이템을 장착한 경우, 아이템에도 대응하여 적용될 수 있다. 즉, 아바타가 움직이는 경우, 아바타에 장착된 의류나 액세서리 등의 아이템들이 아바타의 움직임에 대응하여 이동 또는 회전함으로써, 이미지 깨짐 현상을 방지할 수 있다.Referring back to FIG. 12, when the avatar mounts an item, the movement of the avatar may also be applied to the item. That is, when the avatar is moving, items such as clothes or accessories mounted on the avatar are moved or rotated in response to the avatar's movement, thereby preventing the image from being broken.

또한, 본 실시예에 따른 채팅 서비스에서는 채팅로그가 표시되는 영역에 상대방의 프로필 이미지뿐만 아니라 본인의 프로필 이미지도 함께 표시될 수 있다. 즉, 도 12는 본인의 이미지(1210)가 표시된 모습을 더 나타내고 있다.In addition, in the chat service according to the present embodiment, not only the profile image of the other party but also his / her profile image may be displayed in the area where the chat log is displayed. That is, FIG. 12 further shows how the image 1210 of the user is displayed.

도 13은 본 발명의 일실시예에 있어서, 동물형 아바타를 제공하는 모습을 나타낸 일례이다. 즉, 도 13은 사용자가 인간형 남성 아바타와 인간형 여성 아바타뿐만 아니라, 동물형 아바타를 선택할 수 있는 제1 사용자 인터페이스(1310)를 나타내고 있다. 또한, 도 13은 선택된 아바타의 이름을 사용자가 설정할 수 있는 제2 사용자 인터페이스(1310)를 더 나타내고 있다. 사용자 인터페이스들은 사용자단말기에 설치된 어플리케이션에 의해 사용자에게 제공될 수 있다.13 illustrates an example of providing an animal avatar according to an embodiment of the present invention. That is, FIG. 13 illustrates a first user interface 1310 through which a user can select not only a humanoid male avatar and a humanoid female avatar, but also an animal avatar. In addition, FIG. 13 further illustrates a second user interface 1310 in which the user can set the name of the selected avatar. The user interfaces may be provided to the user by an application installed on the user terminal.

도 14는 본 발명의 일실시예에 있어서, 아바타의 아이템 카테고리 구조를 나타낸 일례이다. 즉, 본 실시예에 따른 아바타 시스템에서는 아바타에 성별을 부여하고, 성별 외에도 종족(동물 등) 속성을 부여하여, 동물형 아바타와 같이 인간형 아바타 이외의 종족 아바타를 생성할 수 있다. 필요에 따라, 종족 속성으로 다른 가상의 종족이 추가될 수 있음은 너무나 당연하다. 또한, 아바타의 외모나 의상 등 설정된 다양한 아이템들을 이용하여 개별 요소를 변경 또는 착용하는 것이 가능해지고, 사용자가 아바타의 움직임 또한 조종할 수 있게 된다.14 is a diagram illustrating an item category structure of an avatar according to an embodiment of the present invention. That is, in the avatar system according to the present embodiment, a gender may be assigned to the avatar, and a race (animal, etc.) attribute may be assigned in addition to the gender to generate a race avatar other than the humanoid avatar like the animal avatar. It is natural that other virtual races can be added as race attributes as needed. In addition, it is possible to change or wear individual elements by using various items such as the appearance and costume of the avatar, and the user can also control the movement of the avatar.

또한, 도 13에서 설명한 어플리케이션은, 아래 (1) 내지 (7)의 사용자 인터페이스들(미도시) 중 적어도 하나를 더 포함할 수도 있다. 또한, 아래 (1) 내지 (7)의 사용자 인터페이스들은 서로 조합될 수도 있다.In addition, the application described with reference to FIG. 13 may further include at least one of user interfaces (not shown) of (1) to (7) below. Also, the user interfaces below (1) to (7) may be combined with each other.

(1) 사용자에게 제공된 아이템들(또는 움직임들), 사용자에 의해 구매된 아이템들(또는 움직임들)을 확인하기 위한 옷장 인터페이스. 여기서, 아이템들은 얼굴형, 눈썹, 눈, 코, 입, 헤어, 피부색과 같이 아바타의 얼굴을 설정하기 위한 아이템들뿐만 아니라, 의상, 액세서리 같은 아이템들이나 애완동물(pet) 아이템들도 포함할 수 있다. 이때, 애완동물도 자체적인 움직임을 가질 수 있고, 이동 역시 가능하다. 또한, 옷장 인터페이스는 성별이나 종족에 따라 착용 가능한 아이템과 착용할 수 없는 아이템을 구분하여 표시해줄 수도 있다. 사용자가 보유중인 아이템들(또는 움직임들)은 카테고리별로 분류하여 제공될 수도 있다.(1) A closet interface for identifying items (or movements) provided to the user, items (or movements) purchased by the user. Here, the items may include not only items for setting an avatar's face such as a face shape, eyebrows, eyes, nose, mouth, hair, and skin color, but also items such as clothes and accessories or pet items. . At this time, the pet can also have its own movement, it is also possible to move. In addition, the wardrobe interface may display items that can be worn and items that cannot be worn according to gender or race. Items (or movements) held by the user may be provided by being classified by category.

(2) 다양한 아이템들을 미리 조합해볼 수 있는 조합 인터페이스.(2) Combination interface for pre-combining various items.

(3) 아바타를 회전시키기 위한 아바타 회전 인터페이스. 즉, 사용자는 아바타 회전 인터페이스를 이용하여 아바타를 회전시켜가면서 조합 인터페이스를 통해 조합된 아바타를 확인할 수도 있다.(3) avatar rotation interface for rotating the avatar. That is, the user may check the avatars combined through the combination interface while rotating the avatar using the avatar rotation interface.

(4) 랜덤하게 아이템들이 조합되는 랜덤 조합 인터페이스. 예를 들어, 어플리케이션은 상위 카테고리 단계에서 랜덤 조합 인터페이스가 선택되는 경우, 상기 카테고리의 하위 카테고리들의 전체 아이템들 중에서 랜덤하게 아이템들을 선택하여 조합할 수 있다. 다른 예로, 어플리케이션은 특정 카테고리 진입 후 랜덤 조합 인터페이스가 선택되는 경우, 해당 카테고리의 아이템들 중에서 랜덤하게 아이템들을 선택하여 조합할 수 있다. 또한, 랜덤 조합 인터페이스는 사용자가 보유중인 아이템들 중에서 랜덤하게 아이템들을 조합하기 위한 기능이나 판매되는 아이템들 중에서 랜덤하게 아이템들을 조합하기 위한 기능을 더 포함할 수도 있다.(4) Random combination interface in which items are randomly combined. For example, when the random combination interface is selected in the upper category step, the application may randomly select and combine items from all items of the lower categories of the category. As another example, when a random combination interface is selected after entering a specific category, the application may randomly select and combine items from items of the corresponding category. In addition, the random combination interface may further include a function for combining items at random from among items owned by a user or a function for combining items at random among items sold.

(5) 의류나 액세서리와 같은 아이템들을 구매하기 위한 아이템 구매 인터페이스. 이때, 구매 인터페이스에는 (2)의 조합 인터페이스가 포함될 수도 있다. 즉, 사용자들은 조합 인터페이스를 통해 구매 전에 자신의 아바타에 아이템들을 미리 조합해볼 수 있다. 또한, 구매 인터페이스는 선택한 아이템을 저장하는 장바구니 인터페이스를 더 포함할 수도 있다. 이때, 장바구니 인터페이스를 통해 저장된 아이템이 자신의 아바타에 자동적으로 미리 조합될 수도 있다. 구매된 아이템에는 지속 기간이 부여될 수도 있다.(5) Item purchase interface for purchasing items such as clothing or accessories. At this time, the purchase interface may include a combination interface of (2). That is, users can pre-combine items in their avatars prior to purchase through the combination interface. In addition, the purchase interface may further include a shopping cart interface for storing the selected item. In this case, the items stored through the shopping cart interface may be automatically combined with their avatars in advance. The purchased item may be given a duration.

(6) 의상이 조합된 아바타로 가능한 움직임을 구매하기 위한 움직임 구매 인터페이스. 즉, 사용자는 기본적으로 제공되는 움직임 이외에 추가적인 움직임을 구매하여 이용할 수도 있다. 움직임 구매 인터페이스는 자신의 아바타가 선택된 움직임을 움직임의 구매 전에도 수행할 수 있도록 지시하기 위한 구매 전 움직임 수행 인터페이스를 더 포함할 수도 있다. 즉, 어플리케이션은 사용자가 움직임을 구매하기 전에 사용자의 아바타가 특정 움직임을 수행하는 애니메이션을 재생하여 사용자에게 보여줄 수도 있다.(6) Motion purchase interface for purchasing movements possible with avatars in combination with costumes. That is, the user may purchase and use additional movements in addition to the movements basically provided. The movement purchase interface may further include a pre-purchase movement execution interface for instructing his avatar to perform the selected movement even before purchasing the movement. That is, the application may play and show an animation in which the user's avatar performs a specific movement before the user purchases the movement.

(7) 아이템이나 움직임을 다른 사용자에게 선물하기 위한 사용자 인터페이스.(7) User interface for presenting items or movements to other users.

사용자가 보유중인 아이템은 삭제 기능을 통해 삭제될 수도 있다. 또한, 적어도 일부의 아이템은 필요에 따라 재활용의 개념을 도입하여 아이템의 삭제 시, 일정 수준의 보상을 사용자에게 제공할 수도 있다.Items held by the user may be deleted through a delete function. In addition, at least some items may introduce a concept of recycling as needed to provide a user with a certain level of compensation when the items are deleted.

도 15는 본 발명의 일실시예에 있어서, 이동수단에 탑승한 아바타를 나타낸 일례이다. 즉, 아바타와 조합되는 아이템으로서 이동수단이 포함될 수 있다. 이미 설명한 바와 같이 아바타는 이동이 가능하며, 일례로, 채팅창이나 채팅방과 같은 채팅 스테이지내에서 아바타의 움직임에 따라 또는 사용자의 입력에 따라 위치를 변경할 수도 있다. 이때, 이동수단 아이템이 장착된 아바타는 이동수단을 타고 채팅 스테이지내에서 이동할 수도 있다. 본 명세서에서 "채팅창", "채팅방" 및 "채팅 스테이지"는 동일한 의미로 사용되었다. FIG. 15 is a diagram illustrating an avatar on a vehicle, according to an embodiment of the present invention. That is, the moving means may be included as an item combined with the avatar. As described above, the avatar may be moved. For example, the avatar may be changed according to the movement of the avatar or a user input in a chat stage such as a chat window or a chat room. In this case, the avatar equipped with the vehicle item may move within the chat stage by the vehicle. In this specification, "chat window", "chat room" and "chat stage" are used interchangeably.

다시 도 1 및 도 2를 참조하면, 서버(120)는 사용자단말기(120)로부터 전송되는 요청에 따라, 데이터베이스(200)에서 필요한 메타데이터(210)와 이미지데이터(220)를 추출할 수 있다. 이때, 상기 요청은 사용자단말기(120)에 설치된 어플리케이션의 제어를 통해 생성될 수 있다.Referring back to FIGS. 1 and 2, the server 120 may extract metadata 210 and image data 220 required from the database 200 according to a request transmitted from the user terminal 120. In this case, the request may be generated through control of an application installed in the user terminal 120.

서버(120)는 추출한 메타데이터(210)와 이미지데이터(220)를 이용하여 필요한 애니메이션을 생성하여 사용자단말기(120)로 전송할 수 있다. 이 경우, 사용자단말기(120)는 어플리케이션의 제어에 따라 애니메이션을 채팅창과 같이 해당 서비스 화면에 표시할 수 있다. The server 120 may generate the necessary animation using the extracted metadata 210 and the image data 220 and transmit the generated animation to the user terminal 120. In this case, the user terminal 120 may display the animation on the corresponding service screen like a chat window under the control of the application.

이때, 서버(120)는 생성된 애니메이션을 기설정된 기간 동안 저장 및 유지할 수도 있다. 만약, 요청된 애니메이션이 이미 저장되어 있는 경우, 서버(120)는 저장된 애니메이션을 상기 요청에 따라 사용자단말기(120)로 전송할 수 있다. 즉, 서버(120)는 애니메이션이 저장되어 있지 않는 경우에, 데이터베이스(200)에서 데이터를 추출하여 애니메이션을 생성할 수 있다.In this case, the server 120 may store and maintain the generated animation for a preset period. If the requested animation is already stored, the server 120 may transmit the stored animation to the user terminal 120 according to the request. That is, when the animation is not stored, the server 120 may generate the animation by extracting data from the database 200.

도 16은 본 발명의 일실시예에 있어서, 채팅 스테이지를 나타낸 일례이다. 제1 화면(1610) 및 제2 화면(1620)은 각각 사용자의 모바일단말기의 화면을 나타낸 일례이다. 여기서, 제1 화면(1610)은 복수의 사용자들이 접속한 채팅방에서 사용자들의 아바타들이 표시되고, 아바타들의 머리 위에 채팅 내용이 표시되는 모습을 나타내고 있다. 이때, 사용자는 사용자의 아바타(1630)를 이동시키기 위한 위치(1640)를 설정하여 아바타(1630)를 이동시킬 수 있다. 제2 화면(1620)은 아바타(1630)가 사용자에 의해 설정된 위치(1640)로 이동한 모습을 나타내고 있다. 이때, 아바타(1630)의 위치는 아바타(1630)를 구성하는 회전 이미지들의 중심축의 좌표를 일괄적으로 수정함으로써, 수행될 수 있다. 예를 들어, 사용자단말기(110)는 서버(120)로 아바타(1630)의 이동을 요청하는 경우, 아바타(1630)를 이동시키고자 하는 좌표를 서버(120)로 전송할 수 있다. 이때, 서버(120)는 수신된 좌표를 이용하여 아바타(1630)가 이동되도록 제어할 수 있다. 또한, 서버(120)는 채팅에 참여한 다른 사용자들에게도 아바타(1630)의 변경된 위치정보를 전송할 수 있다. 이때, 다른 사용자들의 사용자단말기들의 화면상에서도 아바타(1630)의 위치가 변경될 수 있다. 16 shows an example of a chat stage according to an embodiment of the present invention. The first screen 1610 and the second screen 1620 are examples of the screen of the user's mobile terminal, respectively. Here, the first screen 1610 shows the avatars of the users in a chat room accessed by a plurality of users, and the chat contents are displayed on the heads of the avatars. In this case, the user may move the avatar 1630 by setting a location 1640 for moving the user's avatar 1630. The second screen 1620 shows a state in which the avatar 1630 has moved to the location 1640 set by the user. In this case, the position of the avatar 1630 may be performed by collectively modifying the coordinates of the central axis of the rotated images constituting the avatar 1630. For example, when the user terminal 110 requests the server 120 to move the avatar 1630, the user terminal 110 may transmit coordinates for moving the avatar 1630 to the server 120. In this case, the server 120 may control the avatar 1630 to move using the received coordinates. In addition, the server 120 may transmit the changed location information of the avatar 1630 to other users participating in the chat. In this case, the position of the avatar 1630 may be changed on the screens of user terminals of other users.

이와 같이, 본 발명의 실시예들에 따르면, 아바타의 움직임을 통해 사용자가 자신의 감정을 실감나게 표현할 수 있으며, 이러한 아바타 서비스는 채팅 서비스뿐만 아니라 SNS나 SNG에도 반영될 수 있다. 또한, 채팅 서비스에서도 아바타를 선택할 수 있고, 아바타를 최적화할 수 있는 범위를 확대시킴으로서, 사용자의 흥미를 유도할 수 있을 뿐만 아니라, 정적인 텍스트 위주의 채팅 방식에서 벗어나 채팅창 내의 아바타 이동을 통해 대화의 역동성을 부여할 수 있다.As described above, according to embodiments of the present invention, the user can realistically express his or her emotions through the movement of the avatar, and the avatar service can be reflected not only in the chat service but also in the SNS or the SNG. In addition, by selecting an avatar in the chat service and expanding the range for optimizing the avatar, the user can not only induce user's interest but also communicate by moving the avatar in the chat window away from the static text-based chat method. It can give the dynamics of.

도 17은 본 발명의 일실시예에 있어서, 채팅로그를 나타낸 일례이다. 도 16에서와 같이 채팅 스테이지와 아바타들을 이용하여 채팅을 진행하는 경우, 어플리케이션은 별도의 채팅로그 보기 인터페이스를 포함할 수 있다. 화면(1700)은 사용자의 모바일단말기의 화면을 나타낸 일례로서, 채팅로그가 표시된 모습을 나타내고 있다. 이때, 채팅로그는 사용자들이 채팅을 위해 입력한 텍스트뿐만 아니라, 아바타의 감정이나 동작 등의 움직임(1710)까지 포함할 수 있다. 17 shows an example of a chat log in an embodiment of the present invention. When the chat is performed using the chat stage and the avatars as shown in FIG. 16, the application may include a separate chat log view interface. The screen 1700 is an example of a screen of a user's mobile terminal and shows a chat log. In this case, the chat log may include not only text input by the users for chatting, but also movements 1710 such as emotions or actions of the avatar.

도 18은 본 발명의 일실시예에 있어서, 채팅로그를 제공하는 방법을 도시한 일례이다. 하나의 채팅방(채팅 스테이지)(1810)에 N명의 사용자들이 접속한 경우, 서버(120)는 채팅 스테이지(1810)에 대한 채팅로그(1820)를 생성할 수 있다. 또한, 서버(120)는 사용자들의 사용자단말기들로부터 전송되는 텍스트나 아바타의 움직임에 대한 정보를 채팅로그(1820)에 기록할 수 있다. 이때, 사용자들 중 적어도 하나의 사용자가 채팅로그 보기 인터페이스를 선택하는 경우, 서버(120)는 해당 사용자의 사용자단말기로 채팅로그(1820)를 제공할 수 있다. 채팅로그(1820)를 수신한 사용자단말기는 수신된 채팅로그(1820)를 화면에 표시함으로써, 도 17의 화면(1700)에서와 같이 지나간 대화나 아바타의 움직임을 사용자가 확인할 수 있게 된다.18 illustrates an example of a method of providing a chat log according to an embodiment of the present invention. When N users are connected to one chat room (chat stage) 1810, the server 120 may generate a chat log 1820 for the chat stage 1810. In addition, the server 120 may record the text transmitted from the user terminals of the users or information on the movement of the avatar in the chat log 1820. In this case, when at least one of the users selects the chat log viewing interface, the server 120 may provide the chat log 1820 to the user terminal of the corresponding user. The user terminal receiving the chat log 1820 displays the received chat log 1820 on the screen, so that the user can check the conversation or the movement of the avatar as shown in the screen 1700 of FIG. 17.

도 19는 본 발명의 일실시예에 있어서, 랜덤채팅 기능을 설명하기 위한 일례이다. 서버(120)는 채팅 서비스를 이용하는 복수의 사용자들(1900) 중에서 랜덤채팅을 요청하는 사용자들을 확인할 수 있다. 즉, 서버(120)는 단계(1910)에서 랜덤채팅 요청자가 존재하는지 확인하고, 랜덤채팅 요청자가 존재하는 경우 단계(1920)에서 랜덤채팅방을 생성할 수 있다. 만약, 랜덤채팅 요청자가 존재하지 않는 경우, 서버(120)는 대기하며 단계(1910)를 수행할 수 있다. 이때, 서버(120)는 랜덤채팅을 요청한 순서로 사용자들을 랜덤채팅방에 입장시킬 수 있고, 하나의 랜덤채팅방에 들어갈 수 있는 인원수를 제한할 수도 있다. 따라서, 서버(120)는 유사한 타이밍에 랜덤채팅을 요청한 사용자들간의 랜덤채팅을 지원할 수 있게 된다. 이때, 서버(120)는 단계(1910)에서 랜덤채팅 요청자가 둘 이상인 경우, 단계(1920)에서 랜덤채팅방을 생성할 수도 있다.19 is an example for explaining a random chat function in an embodiment of the present invention. The server 120 may identify users who request a random chat among the plurality of users 1900 using the chat service. That is, the server 120 may determine whether a random chat requester exists in step 1910, and generate a random chat room in step 1920 when the random chat requester exists. If there is no random chat requester, the server 120 may wait and perform step 1910. In this case, the server 120 may allow users to enter the random chat room in the order in which the random chat is requested, and may limit the number of people who can enter one random chat room. Accordingly, the server 120 may support random chats between users who request random chats at similar timings. In this case, when there are two or more random chat requesters in step 1910, the server 120 may generate a random chat room in step 1920.

도 20은 본 발명의 일실시예에 있어서, 채팅방, 서버 및 단어 데이터베이스를 나타낸 도면이다. 서버(120)는 채팅방(2100)에 입장한 사용자들의 사용자단말기들로부터 수신되는 채팅 내용을 채팅방(2100)에 존재하는 모든 사용자들의 사용자단말기들로 전달할 수 있다. 또한, 서버(120)는 채팅방(2100)에 입장한 사용자들의 사용자단말기들로부터 수신되는 아바타의 움직임에 대한 요청에 따라 아바타의 움직임을 처리하고, 아바타의 움직임을 처리한 결과를 채팅방(2100)에 존재하는 모든 사용자들의 사용자단말기들로 전달할 수 있다.20 is a view showing a chat room, a server, and a word database according to an embodiment of the present invention. The server 120 may transfer the chat contents received from the user terminals of the users entering the chat room 2100 to the user terminals of all users existing in the chat room 2100. In addition, the server 120 processes the avatar's movement in response to a request for the movement of the avatar received from the user terminals of users entering the chat room 2100, and transmits the avatar's movement to the chat room 2100. It can be delivered to the user terminals of all existing users.

이때, 서버(120)는 단어 데이터베이스(2200)를 포함하거나 또는 단어 데이터베이스(2200)를 포함하는 별도의 시스템과 연계하여 단어 데이터베이스(2200)를 이용할 수 있다. 이때, 단어 데이터베이스(2200)에는 기설정된 단어와 아바타의 움직임에 대한 태그인 액션 태그가 서로 연관하여 저장될 수 있다. 즉, 서버(120)는 채팅방(2100)에서 생성되는 채팅 내용에 단어 데이터베이스(2200)에 저장된 단어가 포함된 경우, 해당 단어를 단어 데이터베이스(2200)에서 검색하여 연계된 아바타의 액션 태그를 확인할 수 있다. 이때, 서버(120)는 확인된 아바타의 액션 태그를 통해 대응하는 움직임을 아바타에 적용할 수 있다.In this case, the server 120 may include the word database 2200 or use the word database 2200 in association with a separate system including the word database 2200. In this case, the word database 2200 may store a predetermined word and an action tag which is a tag for the movement of the avatar. That is, when the chat content generated in the chat room 2100 includes a word stored in the word database 2200, the server 120 may search for the word in the word database 2200 to check the action tag of the associated avatar. have. In this case, the server 120 may apply a corresponding movement to the avatar through the identified action tag of the avatar.

예를 들어, 단어 데이터베이스(2200)에 "웃음"이라는 단어와 "웃는 표정"이라는 액션 태그가 서로 연관하여 저장되어 있다고 가정하자. 이때, 채팅방(2100)에 존재하는 사용자 A의 채팅 내용에 "웃음"이라는 단어가 존재하는 경우, 서버(120)는 단어 데이터베이스(2200)를 통해 액션 태그 "웃는 표정"을 확인할 수 있고, 사용자 A의 아바타가 "웃는 표정"의 움직임을 수행하도록 제어할 수 있다. 이때, 단어 데이터베이스(2200)에는 복수개의 단어가 하나의 액션 태그에 연관되어 저장될 수도 있다.For example, assume that the word database "laugh" and the action tag "laugh" are stored in association with each other in the word database 2200. In this case, when the word "laugh" exists in the chat content of the user A in the chat room 2100, the server 120 may check the action tag "smiley expression" through the word database 2200, and the user A May control the avatar to perform the movement of the "laughing facial expression". In this case, a plurality of words may be stored in the word database 2200 in association with one action tag.

이와 같이, 본 발명의 일실시예에 따르면, 사용자가 직접 아바타의 움직임을 선택하지 않아도 액션 태그를 활용하여 아바타가 관련된 움직임을 표현하도록 제어될 수 있다.  As such, according to an embodiment of the present invention, the avatar may be controlled to express the related movement by using the action tag even if the user does not directly select the movement of the avatar.

도 21은 본 발명의 일실시예에 있어서, 다양한 모양의 말풍선들을 나타낸 일례이다. 본 실시예에 따른 채팅 서비스에서는 다양한 모양의 말풍선들(2100) 중 특정 말풍선을 사용자가 기호에 따라 선택하여 사용할 수 있다. 또한, 특정 문자에 따라 말풍선이 변경되도록 할 수도 있다. 예를 들어, 느낌표나 물음표 등에 따라 각각 말풍선들이 기설정될 수 있다. 이때, 사용자의 채팅 내용에 느낌표나 물음표가 들어가는 경우, 해당 사용자의 말풍선이 기설정된 말풍선들로 자동적으로 선택될 수 있다.21 illustrates an example of speech bubbles of various shapes in an embodiment of the present invention. In the chat service according to the present embodiment, a user may select and use a specific speech bubble among various speech bubbles 2100 according to a preference. In addition, the speech balloon may be changed according to a specific character. For example, speech bubbles may be preset according to exclamation marks or question marks. In this case, when an exclamation point or a question mark enters the user's chat content, the user's speech bubble may be automatically selected as preset speech bubbles.

도 22는 본 발명의 일실시예에 있어서, 다양한 모양의 말풍선이 사용된 일례이다. 화면(2200)은 사용자의 모바일단말기의 화면을 나타낸 일례이다. 이때, 제1 말풍선(1810)은 입력된 채팅 내용에 느낌표가 포함된 경우, 자동으로 느낌표에 따라 기설정된 말풍선이 제공되는 모습을 나타내고 있다. 또한, 제2 말풍선(1820)은 사용자에 의해 직접 선택된 말풍선이 제공되는 모습을 나타내고 있다.22 is an example in which speech bubbles of various shapes are used in an embodiment of the present invention. The screen 2200 is an example of a screen of a user's mobile terminal. In this case, when the input chat content includes an exclamation mark, the first speech bubble 1810 automatically shows a preset speech bubble according to the exclamation mark. In addition, the second speech balloon 1820 shows a state in which the speech balloon directly selected by the user is provided.

도 23은 본 발명의 일실시예에 있어서, 아바타 서비스 시스템의 내부 구성을 설명하기 위한 블록도이다. 본 실시예에 따른 아바타 서비스 시스템(2300)은 도 1을 통해 설명한 서버(120)에 대응하는 시스템으로, 유무선 웹(web)상에서 아바타 서비스를 사용자에게 제공할 수 있다. 이러한 아바타 서비스 시스템(2300)은 도 23에 도시된 바와 같이 요청 수신부(2310), 데이터 추출부(2320) 및 아바타 움직임 처리부(2330)를 포함할 수 있다.23 is a block diagram illustrating an internal configuration of an avatar service system according to an embodiment of the present invention. The avatar service system 2300 according to the present embodiment is a system corresponding to the server 120 described with reference to FIG. 1, and may provide an avatar service to a user on a wired / wireless web. The avatar service system 2300 may include a request receiver 2310, a data extractor 2320, and an avatar motion processor 2330 as shown in FIG. 23.

요청 수신부(2310)는 아바타의 움직임(action)에 대한 요청을 수신한다. 여기서, 아바타의 움직임은 아바타의 동작이나 표정(감정) 등을 표현하기 위해 복수의 프레임으로 구성되는 애니메이션을 의미할 수 있다.The request receiver 2310 receives a request for an action of the avatar. Here, the movement of the avatar may mean an animation composed of a plurality of frames in order to express the operation or facial expression (emotion) of the avatar.

데이터 추출부(2320)는 아바타의 움직임에 대한 메타데이터 및 아바타를 구성하는 레이어(layer)들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 요청에 대응하는 메타데이터 및 이미지데이터를 추출한다. 여기서, 레이어들 각각은, 중심축을 포함할 수 있다. 또한, 이미지데이터는, 하나의 레이어에 대해 중심축을 기준으로 서로 다른 각도(angle)의 회전이 적용된 복수의 회전 이미지들을 포함할 수 있다. 메타데이터는, 아바타의 움직임에 따라 각 프레임별로 필요한 레이어, 필요한 레이어의 각도에 대한 정보를 포함할 수 있고, 필요한 레이어의 깊이(depth) 및 필요한 레이어의 중심축이 적용될 좌표 중 적어도 하나에 대한 정보를 더 포함할 수 있다. 이때, 필요한 레이어의 각도에 따라 복수의 회전 이미지들 중 해당 각도의 회전 이미지가 이미지데이터로서 데이터베이스에서 추출될 수 있다. 즉, 데이터 추출부(2320)는 아바타의 움직임에 따라 기설정된 메타데이터를 통해 데이터베이스에서 추출해야 할 회전 데이터의 각도를 확인할 수 있고, 확인된 각도에 해당하는 회전 데이터를 데이터베이스에서 추출할 수 있다.The data extractor 2320 extracts metadata and image data corresponding to the request from a database in which metadata regarding movement of the avatar and image data of each of the layers constituting the avatar are stored. Here, each of the layers may include a central axis. In addition, the image data may include a plurality of rotation images to which rotations of different angles are applied with respect to a central axis with respect to one layer. The metadata may include information on a required layer and a required layer angle for each frame according to the avatar's movement, and information on at least one of a depth of a required layer and a coordinate to which a central axis of the required layer is to be applied. It may further include. In this case, the rotated image of the corresponding angle among the plurality of rotated images may be extracted from the database as image data according to the required layer angle. That is, the data extractor 2320 may check the angle of the rotation data to be extracted from the database through preset metadata according to the movement of the avatar, and extract the rotation data corresponding to the identified angle from the database.

레이어는, 아바타의 뼈대를 나타내는 뼈대 레이어를 포함하고, 뼈대 레이어에 대응하는 신체 레이어 및 의류 및 액세서리를 적어도 포함하는 아이템 레이어 중 적어도 하나를 더 포함할 수 있다. 이때, 데이터 추출부(2320)는 뼈대 레이어의 회전에 따라 신체 레이어나 아이템 레이어에 대응하는 회전 이미지를 추출함으로써, 신체 레이어나 아이템 레이어가 뼈대 레이어의 회전에 맞게 회전될 수 있다. 따라서, 이미지 깨짐 현상을 방지할 수 있다.The layer may include a skeleton layer representing a skeleton of the avatar, and may further include at least one of a body layer corresponding to the skeleton layer and an item layer including at least clothing and accessories. In this case, the data extractor 2320 may extract the rotation image corresponding to the body layer or the item layer according to the rotation of the skeleton layer, so that the body layer or the item layer may be rotated to match the rotation of the skeleton layer. Therefore, the image cracking phenomenon can be prevented.

아바타 움직임 처리부(2330)는 추출된 메타데이터 및 이미지데이터를 이용하여 아바타의 움직임을 아바타에 적용하기 위한 움직임 데이터를 생성 및 제공한다. 이때, 아바타는, 선택된 회전 데이터에 따라 동작이나 감정 등의 움직임이 표현될 수 있고, 아바타를 구성하는 레이어들의 중심축 좌표를 일정하게 변경시켜서 이동될 수 있다.The avatar motion processor 2330 generates and provides motion data for applying the avatar motion to the avatar using the extracted metadata and image data. In this case, the avatar may express a motion, an emotion, or the like according to the selected rotation data, and may be moved by constantly changing the coordinates of the central axis of the layers constituting the avatar.

일실시예로, 아바타 움직임 처리부(2330)는 추출된 메타데이터 및 이미지데이터를 이용하여 아바타의 움직임에 대응하는 애니메이션을 움직임 데이터로서 생성하고, 생성된 움직임 데이터를 요청을 전송한 사용자단말기로 제공할 수 있다. 즉, 아바타 서비스 시스템(2300)에서 애니메이션을 생성하여 사용자단말기로 제공할 수 있다.In one embodiment, the avatar motion processor 2330 generates an animation corresponding to the avatar's movement as motion data using the extracted metadata and image data, and provides the generated motion data to the user terminal that has transmitted the request. Can be. That is, the avatar service system 2300 may generate an animation and provide the animation to the user terminal.

다른 실시예로, 아바타 움직임 처리부(2330)는 추출된 메타데이터와 상기 이미지데이터에 기초하여 확장성마크업언어(eXtensible MarkUp Language, XML) 형태의 움직임 데이터를 생성하고, 상기 생성된 움직임 데이터를 상기 요청을 전송한 사용자단말기로 제공할 수 있다. 이 경우, 확장성마크업언어 형태의 움직임 데이터에 기초하여 상기 사용자단말기에서 상기 아바타의 움직임에 대응하는 애니메이션이 생성될 수 있다. 즉, 애니메이션이 사용자단말기에서 생성될 수 있다.In another embodiment, the avatar motion processor 2330 generates motion data in the form of an extensible markup language (XML) based on the extracted metadata and the image data, and generates the motion data. The request may be provided to the user terminal that sent the request. In this case, an animation corresponding to the movement of the avatar may be generated in the user terminal based on the movement data in the form of an extensible markup language. That is, the animation may be generated at the user terminal.

이때, 사용자단말기가 애니메이션을 필요한 위치에서 재생하여 화면에 표시함으로써, 아바타의 동작이나 표정과 같은 움직임이 표현될 수 있다.In this case, the user terminal plays the animation at a necessary position and displays the animation on the screen, whereby a motion such as an avatar's motion or facial expression can be expressed.

도 24는 본 발명의 일실시예에 있어서, 아바타 서비스 시스템이 수행하는 아바타 서비스 방법을 도시한 흐름도이다. 본 실시예에 따른 아바타 서비스 방법은 도 23을 통해 설명한 아바타 서비스 시스템(2300)에 의해 수행될 수 있다.24 is a flowchart illustrating an avatar service method performed by an avatar service system according to an embodiment of the present invention. The avatar service method according to the present embodiment may be performed by the avatar service system 2300 described with reference to FIG. 23.

단계(2410)에서 아바타 서비스 시스템(2300)은 아바타의 움직임에 대한 요청을 수신한다. 여기서, 아바타의 움직임은 아바타의 동작이나 표정(감정) 등을 표현하기 위해 복수의 프레임으로 구성되는 애니메이션을 의미할 수 있다.In operation 2410, the avatar service system 2300 receives a request for movement of an avatar. Here, the movement of the avatar may mean an animation composed of a plurality of frames in order to express the operation or facial expression (emotion) of the avatar.

단계(2420)에서 아바타 서비스 시스템(2300)은 아바타의 움직임에 대한 메타데이터 및 아바타를 구성하는 레이어들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 요청에 대응하는 메타데이터 및 이미지데이터를 추출한다. 여기서, 레이어들 각각은, 중심축을 포함할 수 있다. 또한, 이미지데이터는, 하나의 레이어에 대해 중심축을 기준으로 서로 다른 각도의 회전이 적용된 복수의 회전 이미지들을 포함할 수 있다. 메타데이터는, 아바타의 움직임에 따라 각 프레임별로 필요한 레이어, 필요한 레이어의 각도에 대한 정보를 포함할 수 있고, 필요한 레이어의 깊이 및 필요한 레이어의 중심축이 적용될 좌표 중 적어도 하나에 대한 정보를 더 포함할 수 있다. 이때, 필요한 레이어의 각도에 따라 복수의 회전 이미지들 중 해당 각도의 회전 이미지가 이미지데이터로서 데이터베이스에서 추출될 수 있다. 즉, 아바타 서비스 시스템(2300)은 아바타의 움직임에 따라 기설정된 메타데이터를 통해 데이터베이스에서 추출해야 할 회전 데이터의 각도를 확인할 수 있고, 확인된 각도에 해당하는 회전 데이터를 데이터베이스에서 추출할 수 있다.In operation 2420, the avatar service system 2300 extracts metadata and image data corresponding to the request from a database in which metadata regarding movement of the avatar and image data of each of the layers constituting the avatar are stored. Here, each of the layers may include a central axis. In addition, the image data may include a plurality of rotating images to which rotations of different angles are applied with respect to a central axis with respect to one layer. The metadata may include information about a required layer and a required layer angle for each frame according to the avatar's movement, and further include information about at least one of a depth of the required layer and coordinates to which the central axis of the required layer is applied. can do. In this case, the rotated image of the corresponding angle among the plurality of rotated images may be extracted from the database as image data according to the required layer angle. That is, the avatar service system 2300 may identify angles of rotation data to be extracted from the database through preset metadata according to the movement of the avatar, and extract rotation data corresponding to the identified angles from the database.

레이어는, 아바타의 뼈대를 나타내는 뼈대 레이어를 포함하고, 뼈대 레이어에 대응하는 신체 레이어 및 의류 및 액세서리를 적어도 포함하는 아이템 레이어 중 적어도 하나를 더 포함할 수 있다. 이때, 데이터 추출부(2320)는 뼈대 레이어의 회전에 따라 신체 레이어나 아이템 레이어에 대응하는 회전 이미지를 추출함으로써, 신체 레이어나 아이템 레이어가 뼈대 레이어의 회전에 맞게 회전될 수 있다. 따라서, 이미지 깨짐 현상을 방지할 수 있다.The layer may include a skeleton layer representing a skeleton of the avatar, and may further include at least one of a body layer corresponding to the skeleton layer and an item layer including at least clothing and accessories. In this case, the data extractor 2320 may extract the rotation image corresponding to the body layer or the item layer according to the rotation of the skeleton layer, so that the body layer or the item layer may be rotated to match the rotation of the skeleton layer. Therefore, the image cracking phenomenon can be prevented.

단계(2430)에서 아바타 서비스 시스템(2300)은 추출된 메타데이터 및 이미지데이터를 이용하여 아바타의 움직임을 아바타에 적용하기 위한 움직임 데이터를 생성 및 제공한다. 이때, 아바타는, 선택된 회전 데이터에 따라 동작이나 감정 등의 움직임이 표현될 수 있고, 아바타를 구성하는 레이어들의 중심축 좌표를 일정하게 변경시켜서 이동될 수 있다.In operation 2430, the avatar service system 2300 generates and provides motion data for applying the motion of the avatar to the avatar by using the extracted metadata and image data. In this case, the avatar may express a motion, an emotion, or the like according to the selected rotation data, and may be moved by constantly changing the coordinates of the central axis of the layers constituting the avatar.

일실시예로, 아바타 서비스 시스템(2300)은 추출된 메타데이터 및 이미지데이터를 이용하여 아바타의 움직임에 대응하는 애니메이션을 움직임 데이터로서 생성하고, 생성된 움직임 데이터를 요청을 전송한 사용자단말기로 제공할 수 있다. 즉, 아바타 서비스 시스템(2300)에서 애니메이션을 생성하여 사용자단말기로 제공할 수 있다.According to an embodiment, the avatar service system 2300 may generate an animation corresponding to the avatar's movement as the movement data using the extracted metadata and the image data, and provide the generated movement data to the user terminal transmitting the request. Can be. That is, the avatar service system 2300 may generate an animation and provide the animation to the user terminal.

다른 실시예로, 아바타 서비스 시스템(2300)은 추출된 메타데이터와 상기 이미지데이터에 기초하여 확장성마크업언어 형태의 움직임 데이터를 생성하고, 상기 생성된 움직임 데이터를 상기 요청을 전송한 사용자단말기로 제공할 수 있다. 이 경우, 확장성마크업언어 형태의 움직임 데이터에 기초하여 상기 사용자단말기에서 상기 아바타의 움직임에 대응하는 애니메이션이 생성될 수 있다. 즉, 애니메이션이 사용자단말기에서 생성될 수 있다.In another embodiment, the avatar service system 2300 generates motion data in the form of an extensible markup language based on the extracted metadata and the image data, and transmits the generated motion data to the user terminal that transmits the request. Can provide. In this case, an animation corresponding to the movement of the avatar may be generated in the user terminal based on the movement data in the form of an extensible markup language. That is, the animation may be generated at the user terminal.

이때, 사용자단말기가 애니메이션을 필요한 위치에서 재생하여 화면에 표시함으로써, 아바타의 동작이나 표정과 같은 움직임이 표현될 수 있다.In this case, the user terminal plays the animation at a necessary position and displays the animation on the screen, whereby a motion such as an avatar's motion or facial expression can be expressed.

도 25는 본 발명의 일실시예에 있어서, 사용자단말기의 내부 구성을 설명하기 위한 블록도이다. 본 실시예에 따른 사용자단말기(2500)는 도 1을 통해 설명한 사용자단말기(110)에 대응하는 장치로, 유무선 웹상에서 아바타 서비스를 제공받는 장치일 수 있다. 이러한 사용자단말기(2500)는 도 25에 도시된 바와 같이 아바타 표시부(2510), 요청 전송부(2520) 및 데이터 수신부(2530)를 포함할 수 있다.25 is a block diagram illustrating an internal configuration of a user terminal according to an embodiment of the present invention. The user terminal 2500 according to the present embodiment is a device corresponding to the user terminal 110 described with reference to FIG. 1 and may be a device that receives an avatar service on a wired / wireless web. As illustrated in FIG. 25, the user terminal 2500 may include an avatar display unit 2510, a request transmitter 2520, and a data receiver 2530.

아바타 표시부(2510)는 아바타를 화면에 표시한다. 예를 들어, 사용자가 사용자단말기(2500)를 통해 아바타 서비스에 접속하는 경우, 사용자단말기(2500)는 서버로부터 사용자의 아바타에 대한 정보를 수신할 수 있다. 이때, 아바타 표시부(2510)는 아바타에 대한 정보에 기초하여 아바타를 화면에 표시할 수 있다. 여기서, 서버는 도 23을 통해 설명한 아바타 서비스 시스템(2300)에 대응될 수 있다.The avatar display unit 2510 displays an avatar on the screen. For example, when the user accesses the avatar service through the user terminal 2500, the user terminal 2500 may receive information about the user's avatar from the server. In this case, the avatar display unit 2510 may display the avatar on the screen based on the information about the avatar. Here, the server may correspond to the avatar service system 2300 described with reference to FIG. 23.

요청 전송부(2520)는 아바타의 움직임에 대한 요청을 서버로 전송한다. 이때, 아바타의 움직임에 대한 메타데이터 및 아바타를 구성하는 레이어들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 서버에 의해 요청에 대응하는 메타데이터 및 이미지데이터가 추출될 수 있다. 다시 말해, 서버는 데이터베이스에서 요청에 대응하는 메타데이터 및 이미지데이터를 추출할 수 있다.The request transmitter 2520 transmits a request for the movement of the avatar to the server. In this case, metadata and image data corresponding to the request may be extracted by the server from a database in which metadata regarding movement of the avatar and image data of each of the layers constituting the avatar are stored. In other words, the server may extract metadata and image data corresponding to the request from the database.

레이어들 각각은, 중심축을 포함할 수 있고, 이미지데이터는, 하나의 레이어에 대해 중심축을 기준으로 서로 다른 각도의 회전이 적용된 복수의 회전 이미지들을 포함할 수 있다. 또한, 메타데이터는, 아바타의 움직임에 따라 각 프레임별로 필요한 레이어, 필요한 레이어의 각도에 대한 정보를 포함할 수 있고, 필요한 레이어의 깊이 및 필요한 레이어의 중심축이 적용될 좌표 중 적어도 하나에 대한 정보를 더 포함할 수 있다. 이때, 필요한 레이어의 각도에 따라 복수의 회전 이미지들 중 해당 각도의 회전 이미지가 이미지데이터로서 데이터베이스에서 서버에 의해 추출될 수 있다. 즉, 서버는 아바타의 움직임에 따라 기설정된 메타데이터를 통해 데이터베이스에서 추출해야 할 회전 데이터의 각도를 확인할 수 있고, 확인된 각도에 해당하는 회전 데이터를 데이터베이스에서 추출할 수 있다.Each of the layers may include a central axis, and the image data may include a plurality of rotating images to which rotations of different angles are applied with respect to the central axis with respect to one layer. In addition, the metadata may include information about a required layer and a required layer angle for each frame according to the avatar's movement. It may further include. In this case, the rotation image of the corresponding angle among the plurality of rotation images according to the required layer angle may be extracted by the server from the database as image data. That is, the server may identify angles of rotation data to be extracted from the database through preset metadata according to the movement of the avatar, and extract rotation data corresponding to the identified angles from the database.

아바타는, 아바타를 구성하는 레이어들의 중심축 좌표를 일정하게 변경시켜서 이동될 수 있다.The avatar may be moved by constantly changing the central axis coordinates of the layers constituting the avatar.

데이터 수신부(2530)는 서버로부터 상기 아바타의 움직임을 위한 움직임 데이터를 수신한다. 여기서, 움직임 데이터는, 데이터베이스에서 추출될 메타데이터 및 이미지데이터에 기초하여 서버에서 생성될 수 있다. The data receiver 2530 receives movement data for movement of the avatar from a server. Here, the motion data may be generated at the server based on metadata and image data to be extracted from the database.

일실시예로, 움직임 데이터는, 서버에서 추출된 메타데이터 및 이미지데이터를 이용하여 아바타의 움직임에 대응하도록 생성된 애니메이션을 포함할 수 있다. 즉, 서버에서 애니메이션을 생성하여 사용자단말기(2500)로 제공할 수 있다.In one embodiment, the motion data may include an animation generated to correspond to the movement of the avatar using metadata and image data extracted from the server. That is, an animation may be generated in the server and provided to the user terminal 2500.

다른 실시예로, 움직임 데이터는, 서버에서, 상기 추출된 메타데이터와 상기 이미지데이터에 기초하여 생성된 확장성마크업언어 형태의 데이터를 포함할 수 있다. 이때, 사용자단말기(2500)는 확장성마크업언어 형태의 데이터에 기초하여 아바타의 움직임에 대응하는 애니메이션을 생성하는 애니메이션 생성부(미도시)를 더 포함할 수 있다. 즉, 애니메이션이 사용자단말기(2500)에서 생성될 수 있다.In another embodiment, the motion data may include data in the form of an extensible markup language generated based on the extracted metadata and the image data at the server. In this case, the user terminal 2500 may further include an animation generator (not shown) for generating an animation corresponding to the movement of the avatar based on the data of the scalable markup language. That is, the animation may be generated in the user terminal 2500.

이때, 아바타 표시부(2510)는 움직임 데이터에 기초하여 아바타의 움직임을 화면에 표시할 수 있다. 예를 들어, 아바타 표시부(2510)는 생성된 애니메이션을 화면에 재생하여 아바타의 움직임을 처리할 수 있다. 즉, 이미 설명한 바와 같이, 아바타의 움직임은 아바타의 동작이나 표정(감정) 등을 표현하기 위해 복수의 프레임으로 구성되는 애니메이션을 의미할 수 있고, 아바타 표시부(2510)는 이러한 애니메이션을 화면에 재생함으로써, 아바타의 움직임이 아바타에 적용될 수 있다.In this case, the avatar display unit 2510 may display the movement of the avatar on the screen based on the movement data. For example, the avatar display unit 2510 may process the movement of the avatar by playing the generated animation on the screen. That is, as described above, the motion of the avatar may mean an animation composed of a plurality of frames to express the motion, facial expression (feeling), etc. of the avatar, and the avatar display unit 2510 plays the animation on the screen. The movement of the avatar may be applied to the avatar.

도 26은 본 발명의 일실시예에 있어서, 사용자단말기가 수행하는 아바타 서비스 방법을 도시한 흐름도이다. 본 실시예에 따른 아바타 서비스 방법은 도 25를 통해 설명한 사용자단말기(2500)에 의해 수행될 수 있다.FIG. 26 is a flowchart illustrating an avatar service method performed by a user terminal according to an embodiment of the present invention. The avatar service method according to the present embodiment may be performed by the user terminal 2500 described with reference to FIG. 25.

단계(2610)에서 사용자단말기(2500)는 아바타를 화면에 표시한다. 예를 들어, 사용자가 사용자단말기(2500)를 통해 아바타 서비스에 접속하는 경우, 사용자단말기(2500)는 서버로부터 사용자의 아바타에 대한 정보를 수신할 수 있다. 이때, 사용자단말기(2500)는 아바타에 대한 정보에 기초하여 아바타를 화면에 표시할 수 있다. 여기서, 서버는 도 23을 통해 설명한 아바타 서비스 시스템(2300)에 대응될 수 있다.In operation 2610, the user terminal 2500 displays an avatar on the screen. For example, when the user accesses the avatar service through the user terminal 2500, the user terminal 2500 may receive information about the user's avatar from the server. In this case, the user terminal 2500 may display the avatar on the screen based on the information on the avatar. Here, the server may correspond to the avatar service system 2300 described with reference to FIG. 23.

단계(2620)에서 사용자단말기(2500)는 아바타의 움직임에 대한 요청을 서버로 전송한다. 이때, 아바타의 움직임에 대한 메타데이터 및 아바타를 구성하는 레이어들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 서버에 의해 요청에 대응하는 메타데이터 및 이미지데이터가 추출될 수 있다. 다시 말해, 서버는 데이터베이스에서 요청에 대응하는 메타데이터 및 이미지데이터를 추출할 수 있다.In operation 2620, the user terminal 2500 transmits a request for the movement of the avatar to the server. In this case, metadata and image data corresponding to the request may be extracted by the server from a database in which metadata regarding movement of the avatar and image data of each of the layers constituting the avatar are stored. In other words, the server may extract metadata and image data corresponding to the request from the database.

레이어들 각각은, 중심축을 포함할 수 있고, 이미지데이터는, 하나의 레이어에 대해 중심축을 기준으로 서로 다른 각도의 회전이 적용된 복수의 회전 이미지들을 포함할 수 있다. 또한, 메타데이터는, 아바타의 움직임에 따라 각 프레임별로 필요한 레이어, 필요한 레이어의 각도에 대한 정보를 포함할 수 있고, 필요한 레이어의 깊이 및 필요한 레이어의 중심축이 적용될 좌표 중 적어도 하나에 대한 정보를 더 포함할 수 있다. 이때, 필요한 레이어의 각도에 따라 복수의 회전 이미지들 중 해당 각도의 회전 이미지가 이미지데이터로서 데이터베이스에서 서버에 의해 추출될 수 있다. 즉, 서버는 아바타의 움직임에 따라 기설정된 메타데이터를 통해 데이터베이스에서 추출해야 할 회전 데이터의 각도를 확인할 수 있고, 확인된 각도에 해당하는 회전 데이터를 데이터베이스에서 추출할 수 있다.Each of the layers may include a central axis, and the image data may include a plurality of rotating images to which rotations of different angles are applied with respect to the central axis with respect to one layer. In addition, the metadata may include information about a required layer and a required layer angle for each frame according to the movement of the avatar, and may include information on at least one of a depth of the required layer and coordinates to which the central axis of the required layer is to be applied. It may further include. In this case, the rotation image of the corresponding angle among the plurality of rotation images according to the required layer angle may be extracted by the server from the database as image data. That is, the server may identify angles of rotation data to be extracted from the database through preset metadata according to the movement of the avatar, and extract rotation data corresponding to the identified angles from the database.

아바타는, 아바타를 구성하는 레이어들의 중심축 좌표를 일정하게 변경시켜서 이동될 수 있다.The avatar may be moved by constantly changing the central axis coordinates of the layers constituting the avatar.

단계(2630)에서 사용자단말기(2500)는 서버로부터 상기 아바타의 움직임을 위한 움직임 데이터를 수신한다. 여기서, 움직임 데이터는, 데이터베이스에서 추출될 메타데이터 및 이미지데이터에 기초하여 서버에서 생성될 수 있다. In operation 2630, the user terminal 2500 receives movement data for movement of the avatar from a server. Here, the motion data may be generated at the server based on metadata and image data to be extracted from the database.

일실시예로, 움직임 데이터는, 서버에서 추출된 메타데이터 및 이미지데이터를 이용하여 아바타의 움직임에 대응하도록 생성된 애니메이션을 포함할 수 있다. 즉, 서버에서 애니메이션을 생성하여 사용자단말기(2500)로 제공할 수 있다.In one embodiment, the motion data may include an animation generated to correspond to the movement of the avatar using metadata and image data extracted from the server. That is, an animation may be generated in the server and provided to the user terminal 2500.

다른 실시예로, 움직임 데이터는, 서버에서, 상기 추출된 메타데이터와 상기 이미지데이터에 기초하여 생성된 확장성마크업언어 형태의 데이터를 포함할 수 있다. 이때, 사용자단말기(2500)는 확장성마크업언어 형태의 데이터에 기초하여 아바타의 움직임에 대응하는 애니메이션을 생성하는 단계(미도시)를 더 수행할 수 있다. 즉, 애니메이션이 사용자단말기(2500)에서 생성될 수 있다.In another embodiment, the motion data may include data in the form of an extensible markup language generated based on the extracted metadata and the image data in the server. In this case, the user terminal 2500 may further perform an operation (not shown) of generating an animation corresponding to the movement of the avatar based on the data in the form of an expandable markup language. That is, the animation may be generated in the user terminal 2500.

이때, 사용자단말기(2500)는 움직임 데이터에 기초하여 아바타의 움직임을 화면에 표시할 수 있다. 예를 들어, 사용자단말기(2500)는 생성된 애니메이션을 화면에 재생하여 아바타의 움직임을 처리할 수 있다. 즉, 이미 설명한 바와 같이, 아바타의 움직임은 아바타의 동작이나 표정(감정) 등을 표현하기 위해 복수의 프레임으로 구성되는 애니메이션을 의미할 수 있고, 사용자단말기(2500)는 이러한 애니메이션을 화면에 재생함으로써, 아바타의 움직임이 아바타에 적용될 수 있다.In this case, the user terminal 2500 may display the movement of the avatar on the screen based on the movement data. For example, the user terminal 2500 may play the generated animation on the screen to process the movement of the avatar. That is, as described above, the movement of the avatar may mean an animation composed of a plurality of frames to express the avatar's motion, facial expression (emotion), and the like, and the user terminal 2500 reproduces the animation on the screen. The movement of the avatar may be applied to the avatar.

도 23 내지 도 26에서 생략된 내용은 도 1 내지 도 22의 내용을 참조할 수 있다.23 to 26, reference may be made to the contents of FIGS. 1 to 22.

이와 같이, 본 발명의 실시예들에 따르면, 움직임을 나타내는 데이터인 메타데이터와 아바타를 구성하는 레이어별로 움직임에 따른 복수의 회전 이미지들을 각각 데이터베이스에 저장 및 유지하고, 요청에 따라 움직임에 맞는 메타데이터와 회전 이미지들을 제공함으로써, 아바타의 다양한 동작이나 표정(감정) 등과 같은 움직임을 표현할 수 있다. 또한, 아바타의 신체를 구성하는 레이어들 뿐만 아니라, 아바타에 부가되는 액세서리나 의류 등의 아이템들 역시 별도의 레이어들로 구성하고, 각각의 아이템 레이어들 각각에 대해서도 복수의 회전 이미지들이 생성 및 유지함으로써, 신체를 구성하는 레어어들의 움직임에 맞는 아이템 레이어들의 회전 이미지를 제공하여, 이미지 회전에 의한 이미지 깨짐 현상을 해결할 수 있을 뿐만 아니라 아바타 서비스 전체의 질을 향상시킬 수 있다. 또한, 채팅 서비스에서, 사용자가 아바타를 선택할 수 있고, 아바타를 최적화할 수 있는 범위를 확대시킴으로서, 사용자의 흥미를 유도할 수 있을 뿐만 아니라, 아바타의 움직임을 통해 정적인 텍스트 위주의 채팅 방식에서 벗어나 사용자가 자신의 감정을 실감나게 표현할 수 있으며, 대화의 역동성을 부여할 수 있다. 또한, 랜덤채팅 기능을 제공하여 사용자들이 전체 사용자들과 랜덤하게 채팅을 진행할 수 있는 서비스를 제공할 수 있고, 별도의 채팅로그를 제공하여 아바타를 사용하면서도 지나간 대화나 아바타의 움직임을 확인할 수 있으며, 아바타의 이동을 가능하게 하여 대화의 역동성을 부여할 수 있다. 또한, 채팅 내용 중 특정 단어를 인식하여 자동으로 아바타의 감정이나 동작 등의 움직임을 표현할 수 있고, 동일한 말풍선이 아니라 채팅 내용에 따라 가변하는 말풍선들을 제공하며, 사용자가 직접 자신의 말풍선을 선택할 수 있다.As described above, according to the embodiments of the present invention, metadata and data representing motion and a plurality of rotating images according to the motion for each layer constituting the avatar are stored and maintained in a database, respectively, and metadata corresponding to the motion as requested. By providing and rotating images, it is possible to express a variety of movements, such as the avatar's movements, facial expressions (emotions). In addition, not only the layers constituting the body of the avatar, but also items such as accessories or clothes added to the avatar are composed of separate layers, and a plurality of rotated images are generated and maintained for each item layer. In addition, by providing a rotation image of the item layers corresponding to the movement of the layers constituting the body, it is possible not only to solve the image breakage caused by the image rotation but also to improve the quality of the entire avatar service. In addition, in the chat service, the user can select an avatar and expand the range for optimizing the avatar, thereby inducing the user's interest, and moving away from the static text-based chat method through the avatar's movement. Users can express their feelings realistically and can impart dynamics of conversation. In addition, by providing a random chat function, users can provide a service that allows users to chat randomly with the entire user, and by providing a separate chat log, you can check the conversation or the movement of the avatar while using the avatar, It is possible to move the avatar so as to give the dialogue dynamics. In addition, by recognizing a certain word in the chat content can automatically express the emotions and movements of the avatar, such as not the same speech bubble, but provides a variable speech bubble according to the chat content, the user can directly choose his own speech bubble. .

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.Methods according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from these descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

110: 사용자단말기
120: 서버
130: 네트워크
110: user terminal
120: server
130: network

Claims (9)

인터넷 상에서 아바타 서비스를 제공하는 아바타 서비스 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 비-일시적인 컴퓨터 판독가능한 기록 매체에 있어서,
상기 아바타 서비스 방법은,
아바타의 움직임에 대한 요청을 수신하는 단계;
상기 아바타의 움직임에 대한 메타데이터 및 상기 아바타를 구성하는 레이어들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 상기 요청에 대응하는 메타데이터 및 이미지데이터를 추출하는 단계; 및
상기 추출된 메타데이터 및 이미지데이터를 이용하여 상기 아바타의 움직임을 상기 아바타에 적용하기 위한 움직임 데이터를 생성 및 제공하는 단계
를 포함하고,
상기 이미지데이터는, 상기 아바타를 구성하는 레이어 별로 각 레이어에 포함된 중심축을 기준으로 상기 아바타의 움직임에 따른 서로 다른 각도의 회전이 적용된 복수의 회전 이미지들을 포함하고,
상기 복수의 회전 이미지들 중에서 상기 요청에 대응하는 움직임에 맞는 해당 각도의 회전 이미지가 상기 이미지데이터로서 상기 데이터베이스에서 추출되는 것
을 특징으로 하는, 비-일시적인 컴퓨터 판독가능한 기록 매체.
A non-transitory computer readable recording medium having recorded thereon a program for causing a computer to execute an avatar service method for providing an avatar service on the Internet, the method comprising:
The avatar service method,
Receiving a request for movement of the avatar;
Extracting metadata and image data corresponding to the request from a database in which metadata regarding movement of the avatar and image data of each of the layers constituting the avatar are stored; And
Generating and providing motion data for applying the motion of the avatar to the avatar using the extracted metadata and image data
Including,
The image data includes a plurality of rotating images to which rotations of different angles are applied according to the movement of the avatar based on the central axis included in each layer for each layer constituting the avatar,
Among the plurality of rotating images, a rotating image of a corresponding angle corresponding to the movement corresponding to the request is extracted from the database as the image data.
And a non-transitory computer readable recording medium.
제1항에 있어서,
상기 움직임 데이터를 생성 및 제공하는 단계는,
상기 추출된 메타데이터 및 이미지데이터를 이용하여 상기 아바타의 움직임에 대응하는 애니메이션을 상기 움직임 데이터로서 생성하고, 상기 생성된 움직임 데이터를 상기 요청을 전송한 사용자단말기로 제공하는 것
을 특징으로 하는, 비-일시적인 컴퓨터 판독가능한 기록 매체.
The method of claim 1,
Generating and providing the motion data,
Using the extracted metadata and image data to generate an animation corresponding to the motion of the avatar as the motion data, and to provide the generated motion data to the user terminal that transmitted the request.
And a non-transitory computer readable recording medium.
제1항에 있어서,
상기 움직임 데이터를 생성 및 제공하는 단계는,
상기 추출된 메타데이터와 상기 이미지데이터에 기초하여 확장성마크업언어(eXtensible MarkUp Language, XML) 형태의 움직임 데이터를 생성하고, 상기 생성된 움직임 데이터를 상기 요청을 전송한 사용자단말기로 제공하고,
상기 확장성마크업언어 형태의 움직임 데이터에 기초하여 상기 사용자단말기에서 상기 아바타의 움직임에 대응하는 애니메이션이 생성되는 것
을 특징으로 하는, 비-일시적인 컴퓨터 판독가능한 기록 매체.
The method of claim 1,
Generating and providing the motion data,
Generating motion data in the form of an extensible markup language (XML) based on the extracted metadata and the image data, and providing the generated motion data to a user terminal that has transmitted the request;
An animation corresponding to the movement of the avatar is generated in the user terminal based on the movement data in the form of the scalable markup language.
And a non-transitory computer readable recording medium.
제1항에 있어서,
상기 레이어는, 아바타의 뼈대를 나타내는 뼈대 레이어를 포함하고, 상기 뼈대 레이어에 대응하는 신체 레이어 및 의류 및 액세서리를 적어도 포함하는 아이템 레이어 중 적어도 하나를 더 포함하는 것
을 특징으로 하는, 비-일시적인 컴퓨터 판독가능한 기록 매체.
The method of claim 1,
The layer comprises a skeleton layer representing the skeleton of the avatar, further comprising at least one of a body layer corresponding to the skeleton layer and an item layer including at least clothing and accessories
And a non-transitory computer readable recording medium.
인터넷 상에서 아바타 서비스를 제공하는 아바타 서비스 시스템에 있어서,
아바타의 움직임(action)에 대한 요청을 수신하는 요청 수신부;
상기 아바타의 움직임에 대한 메타데이터 및 상기 아바타를 구성하는 레이어(layer)들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 상기 요청에 대응하는 메타데이터 및 이미지데이터를 추출하는 데이터 추출부; 및
상기 추출된 메타데이터 및 이미지데이터를 이용하여 상기 아바타의 움직임을 상기 아바타에 적용하기 위한 움직임 데이터를 생성 및 제공하는 아바타 움직임 처리부
를 포함하고,
상기 이미지데이터는, 상기 아바타를 구성하는 레이어 별로 각 레이어에 포함된 중심축을 기준으로 상기 아바타의 움직임에 따른 서로 다른 각도의 회전이 적용된 복수의 회전 이미지들을 포함하고,
상기 복수의 회전 이미지들 중에서 상기 요청에 대응하는 움직임에 맞는 해당 각도의 회전 이미지가 상기 이미지데이터로서 상기 데이터베이스에서 추출되는 것
을 특징으로 하는 아바타 서비스 시스템.
In the avatar service system for providing an avatar service on the Internet,
A request receiver for receiving a request for an action of the avatar;
A data extraction unit for extracting metadata and image data corresponding to the request from a database in which metadata regarding movement of the avatar and image data for each of layers forming the avatar are stored; And
Avatar motion processor for generating and providing motion data for applying the motion of the avatar to the avatar using the extracted metadata and image data
Including,
The image data includes a plurality of rotating images to which rotations of different angles are applied according to the movement of the avatar based on the central axis included in each layer for each layer constituting the avatar,
Among the plurality of rotating images, a rotating image of a corresponding angle corresponding to the movement corresponding to the request is extracted from the database as the image data.
Avatar service system, characterized in that.
인터넷 상에서 아바타 서비스를 제공받는 사용자단말기에 있어서,
아바타를 화면에 표시하는 아바타 표시부;
상기 아바타의 움직임에 대한 요청을 서버로 전송하는 요청 전송부; 및
상기 서버로부터 상기 아바타의 움직임을 위한 움직임 데이터를 수신하는 데이터 수신부
를 포함하고,
상기 아바타의 움직임에 대한 메타데이터 및 상기 아바타를 구성하는 레이어들 각각에 대한 이미지데이터가 저장된 데이터베이스에서 상기 서버에 의해 상기 요청에 대응하는 메타데이터 및 이미지데이터가 추출되고,
상기 움직임 데이터는, 상기 추출된 메타데이터 및 이미지데이터에 기초하여 상기 서버에서 생성되고,
상기 아바타 표시부는,
상기 움직임 데이터에 기초하여 상기 아바타의 움직임을 상기 화면에 표시하고,
상기 이미지데이터는, 상기 아바타를 구성하는 레이어 별로 각 레이어에 포함된 중심축을 기준으로 상기 아바타의 움직임에 따른 서로 다른 각도의 회전이 적용된 복수의 회전 이미지들을 포함하고,
상기 복수의 회전 이미지들 중에서 상기 요청에 대응하는 움직임에 맞는 해당 각도의 회전 이미지가 상기 이미지데이터로서 상기 데이터베이스에서 추출되는 것
을 특징으로 하는 사용자단말기.
In a user terminal provided with an avatar service on the Internet,
An avatar display unit for displaying the avatar on the screen;
A request transmitter for transmitting a request for movement of the avatar to a server; And
Data receiving unit for receiving motion data for the movement of the avatar from the server
Including,
Metadata and image data corresponding to the request are extracted by the server from a database in which metadata regarding movement of the avatar and image data of each of the layers constituting the avatar are stored;
The motion data is generated at the server based on the extracted metadata and image data.
The avatar display unit,
Display the motion of the avatar on the screen based on the motion data,
The image data includes a plurality of rotating images to which rotations of different angles are applied according to the movement of the avatar based on the central axis included in each layer for each layer constituting the avatar,
Among the plurality of rotation images, a rotation image of a corresponding angle corresponding to the movement corresponding to the request is extracted from the database as the image data.
User terminal characterized in that.
제6항에 있어서,
상기 움직임 데이터는, 상기 서버에서 상기 추출된 메타데이터 및 이미지데이터를 이용하여 상기 움직임에 대응하도록 생성된 애니메이션을 포함하는 것을 특징으로 하는 사용자단말기.
The method of claim 6,
The motion data may include an animation generated to correspond to the motion using the extracted metadata and image data in the server.
제6항에 있어서,
상기 움직임 데이터는, 상기 서버에서, 상기 추출된 메타데이터와 상기 이미지데이터에 기초하여 생성된 확장성마크업언어(eXtensible MarkUp Language, XML) 형태의 데이터를 포함하고,
상기 확장성마크업언어 형태의 데이터에 기초하여 상기 아바타의 움직임에 대응하는 애니메이션을 생성하는 애니메이션 생성부
를 더 포함하는 것을 특징으로 하는 사용자단말기.
The method of claim 6,
The motion data includes data in the form of an extensible markup language (XML) generated by the server based on the extracted metadata and the image data.
An animation generator for generating an animation corresponding to the movement of the avatar based on the data of the scalable markup language type.
User terminal characterized in that it further comprises.
제8항에 있어서,
상기 아바타 표시부는,
상기 생성된 애니메이션을 화면에 재생하여 상기 아바타의 움직임을 처리하는 것을 특징으로 하는 사용자단말기.
The method of claim 8,
The avatar display unit,
The user terminal, characterized in that for processing the movement of the avatar by playing the generated animation on the screen.
KR1020180118264A 2018-10-04 2018-10-04 System and method for avatar service through cable and wireless web KR102079321B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180118264A KR102079321B1 (en) 2018-10-04 2018-10-04 System and method for avatar service through cable and wireless web

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180118264A KR102079321B1 (en) 2018-10-04 2018-10-04 System and method for avatar service through cable and wireless web

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020120008553A Division KR101907136B1 (en) 2012-01-27 2012-01-27 System and method for avatar service through cable and wireless web

Publications (2)

Publication Number Publication Date
KR20180112751A KR20180112751A (en) 2018-10-12
KR102079321B1 true KR102079321B1 (en) 2020-02-19

Family

ID=63876852

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180118264A KR102079321B1 (en) 2018-10-04 2018-10-04 System and method for avatar service through cable and wireless web

Country Status (1)

Country Link
KR (1) KR102079321B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220098608A (en) * 2021-01-04 2022-07-12 주식회사 카카오게임즈 Techniques for placing speech balloons

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210155499A (en) * 2020-06-16 2021-12-23 삼성전자주식회사 Electronic device and method for generating image in electronic device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184370A (en) * 1997-04-17 1999-07-09 Matsushita Electric Ind Co Ltd Finger language information presenting device
KR20040024627A (en) * 2002-09-12 2004-03-22 주식회사 게임빌 Apparatus and method for a real-time avatar image generating system
KR20050014565A (en) * 2003-07-31 2005-02-07 주식회사 이서브 Web character builder system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220098608A (en) * 2021-01-04 2022-07-12 주식회사 카카오게임즈 Techniques for placing speech balloons
KR102619836B1 (en) * 2021-01-04 2023-12-29 주식회사 카카오 Techniques for placing speech balloons

Also Published As

Publication number Publication date
KR20180112751A (en) 2018-10-12

Similar Documents

Publication Publication Date Title
KR101907136B1 (en) System and method for avatar service through cable and wireless web
KR101951761B1 (en) System and method for providing avatar in service provided in mobile environment
US11688120B2 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
CN107294838A (en) Animation producing method, device, system and the terminal of social networking application
CN109885367B (en) Interactive chat implementation method, device, terminal and storage medium
US11983826B2 (en) 3D upper garment tracking
KR102079321B1 (en) System and method for avatar service through cable and wireless web
JP7388665B2 (en) Information processing system, information processing method, information processing program
US20230345084A1 (en) System, method, and program for distributing video
JP2023143963A (en) Program, information processing method, and information processing device
KR102043137B1 (en) System and method for providing avatar in chatting service of mobile environment
JP7245890B1 (en) Information processing system, information processing method, information processing program
KR20130087315A (en) System and method for controlling avatar based on chatting text in chatting service of mobile environment
JP7281012B1 (en) Program, information processing method and information processing system
JP7050884B6 (en) Information processing system, information processing method, information processing program
JP7356662B2 (en) computer program and method
KR100663121B1 (en) Method and system for providing game character image on the internet website
KR20240048420A (en) XR metaverse platform based on user data

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant