KR20130087315A - System and method for controlling avatar based on chatting text in chatting service of mobile environment - Google Patents

System and method for controlling avatar based on chatting text in chatting service of mobile environment Download PDF

Info

Publication number
KR20130087315A
KR20130087315A KR1020120008586A KR20120008586A KR20130087315A KR 20130087315 A KR20130087315 A KR 20130087315A KR 1020120008586 A KR1020120008586 A KR 1020120008586A KR 20120008586 A KR20120008586 A KR 20120008586A KR 20130087315 A KR20130087315 A KR 20130087315A
Authority
KR
South Korea
Prior art keywords
avatar
chat
movement
user
displayed
Prior art date
Application number
KR1020120008586A
Other languages
Korean (ko)
Inventor
이지호
김희빈
문창현
Original Assignee
엔에이치엔아츠(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔에이치엔아츠(주) filed Critical 엔에이치엔아츠(주)
Priority to KR1020120008586A priority Critical patent/KR20130087315A/en
Publication of KR20130087315A publication Critical patent/KR20130087315A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: An avatar service system and a method thereof are provided to supply avatars to chatting service participants in a mobile environment as well as to automatically assign an action corresponding to a chatting word to a relevant avatar. CONSTITUTION: An avatar service system comprises a user terminal (110), a server (120), and a network (130). The user terminal is a wired/wireless communication terminal which is used by a user and communicates with a server using a communication module which is included in the terminal. A server is a chatting service providing system which is capable of expressing an avatar in the user terminal. The server is capable of assigning an action to a corresponding avatar by searching for the matching action in a database in the case that a specific word is used, based on words which are spoken by users in a chatting station. [Reference numerals] (110) User terminal; (120) Server; (130) Network

Description

모바일 환경의 채팅 서비스에서 채팅 내용에 기초하여 아바타를 제어하는 아바타 서비스 시스템 및 방법{SYSTEM AND METHOD FOR CONTROLLING AVATAR BASED ON CHATTING TEXT IN CHATTING SERVICE OF MOBILE ENVIRONMENT}Avatar service system and method for controlling avatar based on chat content in a chat service in a mobile environment {SYSTEM AND METHOD FOR CONTROLLING AVATAR BASED ON CHATTING TEXT IN CHATTING SERVICE OF MOBILE ENVIRONMENT}

본 발명의 실시예들은 모바일 환경의 채팅 서비스에서 채팅 내용에 기초하여 아바타를 제어하는 아바타 서비스 시스템 및 방법에 관한 것이다.Embodiments of the present invention relate to an avatar service system and method for controlling an avatar based on a chat content in a chat service in a mobile environment.

유무선 웹을 통한 서비스에서 제공되는 아바타의 경우, 의류/얼굴/액세서리 등의 조합으로 구성될 수 있다. 그러나, 이러한 종래기술의 아바타는, 움직임이 없거나, 움직이는 경우에도 의류/액세서리 등의 조합을 무시하고 아바타 전체가 움직이게 된다.In the case of an avatar provided by a service through a wired / wireless web, the avatar may be a combination of clothing, face, and accessories. However, such an avatar of the prior art, even if there is no movement or moving, ignores the combination of clothing / accessories and the like, and the entire avatar moves.

다시 말해, 종래기술의 아바타는 단순한 레이어들(얼굴/의류/액세서리)로 구성되어 있으며, 움직임이 없는 이미지 조합으로 구성되거나 또는 움직임이 있는 경우, 얼굴을 제외한 의류/액세서리가 사라지는, 즉 이미지 깨짐 현상이 발생하는 문제점을 내포하고 있다. 또한, 이러한 아바타의 움직임을 애니메이션으로 구현하기 위해서는 플래시나 'unity 3D'와 같은 별도의 플러그인을 설치해야만 하는 문제점이 있다.In other words, prior art avatars are composed of simple layers (faces / clothes / accessories), which consist of a combination of images without motion or when there is motion, clothing / accessories except faces are lost, i. This involves a problem that occurs. In addition, there is a problem that a separate plug-in such as flash or 'unity 3D' must be installed in order to animate the motion of the avatar.

또한, 메신저 서비스는 지인기반 서비스로서, 아바타가 없는 텍스트 형식의 채팅을 지원하고 있다. 예를 들어, 메신저 서비스에서는 아바타의 개념이 아니라, 사용자에 의해 설정된 이미지가 사용자를 대표하여 표시되는 형식을 채용하고 있다.In addition, the messenger service is an acquaintance-based service and supports a text-type chat without an avatar. For example, the messenger service adopts a format in which an image set by a user is displayed on behalf of the user, not a concept of an avatar.

본 명세서에서는 유무선 웹상에서도 보다 효과적으로 아바타를 표현할 수 있는 시스템 및 방법이 제공된다.Herein, a system and method for more effectively presenting an avatar on a wired or wireless web are provided.

움직임을 나타내는 데이터인 메타데이터와 아바타를 구성하는 레이어별로 움직임에 따른 복수의 회전 이미지들을 각각 데이터베이스에 저장 및 유지하고, 요청에 따라 움직임에 맞는 메타데이터와 회전 이미지들을 제공함으로써, 아바타의 다양한 동작(motion)이나 표정(감정) 등과 같은 움직임(action)을 표현할 수 있는 아바타 서비스 시스템 및 방법을 제공한다.By storing and maintaining a plurality of rotation images according to the movement for each layer constituting the avatar and metadata representing data, and providing metadata and rotation images suitable for the movement on request, various operations of the avatar ( The present invention provides an avatar service system and method capable of expressing an action such as a motion or an expression.

아바타의 신체를 구성하는 레이어들 뿐만 아니라, 아바타에 부가되는 액세서리나 의류 등의 아이템들 역시 별도의 레이어들로 구성하고, 각각의 아이템 레이어들 각각에 대해서도 복수의 회전 이미지들이 생성 및 유지함으로써, 신체를 구성하는 레어어들의 움직임에 맞는 아이템 레이어들의 회전 이미지를 제공하여, 이미지 회전에 의한 이미지 깨짐 현상을 해결할 수 있을 뿐만 아니라 아바타 서비스 전체의 질을 향상시킬 수 있는 아바타 서비스 시스템 및 방법을 제공한다.In addition to the layers constituting the avatar's body, items such as accessories or clothing added to the avatar are also composed of separate layers, and a plurality of rotating images are generated and maintained for each item layer, thereby The present invention provides an avatar service system and method for providing a rotation image of item layers corresponding to movements of the rare layers constituting the present invention, as well as solving image breakage caused by image rotation, as well as improving the overall quality of the avatar service.

채팅 서비스에서, 사용자가 아바타를 선택할 수 있고, 아바타를 최적화할 수 있는 범위를 확대시킴으로서, 사용자의 흥미를 유도할 수 있을 뿐만 아니라, 아바타의 움직임을 통해 정적인 텍스트 위주의 채팅 방식에서 벗어나 사용자가 자신의 감정을 실감나게 표현할 수 있으며, 대화의 역동성을 부여할 수 있는 아바타 서비스 시스템 및 방법을 제공한다.In the chat service, the user can select an avatar and expand the range for optimizing the avatar, which not only induces the user's interest but also moves the user away from the static text-based chat method through the avatar's movement. The present invention provides an avatar service system and method that can express one's emotions realistically and impart dialogue dynamics.

랜덤채팅 기능을 제공하여 사용자들이 전체 사용자들과 랜덤하게 채팅을 진행할 수 있는 서비스를 제공할 수 있고, 별도의 채팅로그를 제공하여 아바타를 사용하면서도 지나간 대화나 아바타의 움직임을 확인할 수 있으며, 아바타의 이동을 가능하게 하여 대화의 역동성을 부여할 수 있는 아바타 서비스 시스템 및 방법을 제공한다.By providing a random chat function, users can provide a service that allows users to chat randomly with all users, and provides a separate chat log to check past conversations or avatar movements while using the avatar. Provided are an avatar service system and method capable of moving to impart dynamics of conversation.

채팅 내용 중 특정 단어를 인식하여 자동으로 아바타의 감정이나 동작 등의 움직임을 표현할 수 있고, 동일한 말풍선이 아니라 채팅 내용에 따라 가변하는 말풍선들을 제공하며, 사용자가 직접 자신의 말풍선을 선택할 수 있는 아바타 서비스 시스템 및 방법을 제공한다.Recognize specific words in chat contents to automatically express emotions or movements of avatars, provide speech bubbles that are variable according to chat contents instead of the same speech bubbles, and an avatar service that allows users to select their own speech bubbles Provides a system and method.

모바일 환경의 채팅 서비스에서 아바타를 제공하는 아바타 서비스 시스템에 있어서, 채팅 스테이지에 접속된 사용자의 사용자단말기로부터 채팅 내용을 수신하는 채팅 내용 수신부, 채팅 내용에 포함된 단어에 기초하여 단어 데이터베이스를 검색하여 대응하는 액션 태그를 추출하는 액션 태그 추출부 및 액션 태그에 대응하는 아바타의 움직임에 대한 정보를 채팅 스테이지에 접속된 모든 사용자들의 사용자단말기들로 전송하는 아바타 정보 전송부를 포함하고, 단어 데이터베이스에는 적어도 하나의 단어 및 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 것을 특징으로 하는 아바타 서비스 시스템이 제공된다.In the avatar service system for providing an avatar in a chat service in a mobile environment, a chat contents receiver for receiving chat contents from a user terminal of a user connected to a chat stage, and searching for and responding to a word database based on words included in the chat contents An action tag extracting unit for extracting an action tag and an avatar information transmitting unit for transmitting information on the movement of the avatar corresponding to the action tag to user terminals of all users connected to the chat stage; A avatar service system is provided wherein a word and at least one action tag associated with at least one word are stored and maintained.

일측에 따르면, 사용자단말기들 각각에서 아바타의 움직임에 대한 정보에 기초하여 아바타의 움직임이 화면에 재생될 수 있다.According to one side, the movement of the avatar can be reproduced on the screen based on the information on the movement of the avatar in each of the user terminals.

다른 측면에 따르면, 채팅 내용에 기설정된 문자가 포함된 경우, 서로 다른 모양의 복수개의 말풍선 중 기설정된 문자에 대응하는 말풍선이 사용자단말기의 화면에 표시되고, 표시된 말풍선 내에 채팅 내용이 표시될 수 있다.According to another aspect, when the chat content includes predetermined text, a speech bubble corresponding to the predetermined text among a plurality of speech bubbles having different shapes may be displayed on the screen of the user terminal, and the chat content may be displayed in the displayed speech bubble. .

또 다른 측면에 따르면, 서로 다른 모양의 복수개의 말풍선 중 사용자단말기의 사용자에 의해 설정된 말풍선이 사용자단말기의 화면에 표시되고, 표시된 말풍선 내에 채팅 내용이 표시될 수 있다.According to another aspect, a speech bubble set by a user of a user terminal among a plurality of speech bubbles of different shapes may be displayed on a screen of the user terminal, and chat contents may be displayed in the displayed speech bubble.

모바일 환경의 채팅 서비스에서 아바타를 제공받는 사용자단말기에 있어서, 채팅방에 접속된 상태에서 사용자에 의해 입력된 채팅 내용을 서버로 전송하는 채팅 내용 전송부, 서버로부터 아바타의 움직임에 대한 정보를 수신하는 아바타 정보 수신부 및 아바타의 움직임에 대한 정보에 기초하여 아바타의 움직임을 화면에 표시하는 아바타 표시부를 포함하고, 아바타의 움직임에 대한 정보는, 서버에서 채팅 내용에 포함된 단어를 이용하여 적어도 하나의 단어 및 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 단어 데이터베이스를 검색하여 추출된 액션 태그에 대응되고, 아바타의 움직임에 대한 정보는, 채팅방에 접속된 모든 사용자들의 사용자단말기들로 전송될 수 있다.In a user terminal provided with an avatar in a chat service of a mobile environment, a chat content transmitter which transmits a chat content input by a user to a server while connected to a chat room, and an avatar that receives information about an avatar's movement from a server. An avatar display unit for displaying the movement of the avatar on the screen based on the information receiving unit and the information on the movement of the avatar, the information on the movement of the avatar, at least one word using a word included in the chat content in the server and At least one action tag associated with the at least one word is stored in the word database stored and maintained corresponding to the extracted action tag, and information about the movement of the avatar is transmitted to the user terminals of all users connected to the chat room. Can be.

모바일 환경의 채팅 서비스에서 아바타를 제공하는 아바타 서비스 시스템이 수행하는 아바타 서비스 방법에 있어서, 채팅 스테이지에 접속된 사용자의 사용자단말기로부터 채팅 내용을 수신하는 단계, 채팅 내용에 포함된 단어에 기초하여 단어 데이터베이스를 검색하여 대응하는 액션 태그를 추출하는 단계 및 액션 태그에 대응하는 아바타의 움직임에 대한 정보를 채팅 스테이지에 접속된 모든 사용자들의 사용자단말기들로 전송하는 단계를 포함하고, 단어 데이터베이스에는 적어도 하나의 단어 및 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 것을 특징으로 하는 아바타 서비스 방법이 제공된다.An avatar service method performed by an avatar service system for providing an avatar in a chat service in a mobile environment, the method comprising: receiving a chat content from a user terminal of a user connected to a chat stage, and a word database based on a word included in the chat content Searching for and extracting a corresponding action tag; and transmitting information about the movement of the avatar corresponding to the action tag to user terminals of all users connected to the chat stage, wherein the word database includes at least one word. And at least one action tag associated with the at least one word is stored and maintained.

모바일 환경의 채팅 서비스에서 아바타를 제공받는 사용자단말기가 수행하는 아바타 서비스 방법에 있어서, 채팅방에 접속된 상태에서 사용자에 의해 입력된 채팅 내용을 서버로 전송하는 단계, 서버로부터 아바타의 움직임에 대한 정보를 수신하는 단계 및 아바타의 움직임에 대한 정보에 기초하여 아바타의 움직임을 화면에 표시하는 단계를 포함하고, 아바타의 움직임에 대한 정보는, 서버에서 채팅 내용에 포함된 단어를 이용하여 적어도 하나의 단어 및 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 단어 데이터베이스를 검색하여 추출된 액션 태그에 대응되고, 아바타의 움직임에 대한 정보는, 채팅방에 접속된 모든 사용자들의 사용자단말기들로 전송되는 것을 특징으로 하는 아바타 서비스 방법이 제공된다.An avatar service method performed by a user terminal provided with an avatar in a chat service in a mobile environment, the method comprising: transmitting a chat content input by a user to a server while connected to a chat room, and transmitting information about an avatar's movement from the server; And displaying the movement of the avatar on the screen based on the receiving and information on the movement of the avatar, wherein the movement information of the avatar includes at least one word using a word included in the chat content in the server; At least one action tag associated with the at least one word is stored in the word database stored and maintained corresponding to the extracted action tag, and information on the movement of the avatar is transmitted to the user terminals of all users connected to the chat room. An avatar service method is provided.

움직임을 나타내는 데이터인 메타데이터와 아바타를 구성하는 레이어별로 움직임에 따른 복수의 회전 이미지들을 각각 데이터베이스에 저장 및 유지하고, 요청에 따라 움직임에 맞는 메타데이터와 회전 이미지들을 제공함으로써, 아바타의 다양한 동작(motion)이나 표정(감정) 등과 같은 움직임(action)을 표현할 수 있다.By storing and maintaining a plurality of rotation images according to the movement for each layer constituting the avatar and metadata representing data, and providing metadata and rotation images suitable for the movement on request, various operations of the avatar ( It can express an action such as a motion or an expression.

아바타의 신체를 구성하는 레이어들 뿐만 아니라, 아바타에 부가되는 액세서리나 의류 등의 아이템들 역시 별도의 레이어들로 구성하고, 각각의 아이템 레이어들 각각에 대해서도 복수의 회전 이미지들이 생성 및 유지함으로써, 신체를 구성하는 레어어들의 움직임에 맞는 아이템 레이어들의 회전 이미지를 제공하여, 이미지 회전에 의한 이미지 깨짐 현상을 해결할 수 있을 뿐만 아니라 아바타 서비스 전체의 질을 향상시킬 수 있다.In addition to the layers constituting the avatar's body, items such as accessories or clothing added to the avatar are also composed of separate layers, and a plurality of rotating images are generated and maintained for each item layer, thereby By providing a rotation image of the item layers corresponding to the movement of the rare layers constituting the, it is possible not only to solve the image breakage caused by the image rotation but also to improve the quality of the entire avatar service.

채팅 서비스에서, 사용자가 아바타를 선택할 수 있고, 아바타를 최적화할 수 있는 범위를 확대시킴으로서, 사용자의 흥미를 유도할 수 있을 뿐만 아니라, 아바타의 움직임을 통해 정적인 텍스트 위주의 채팅 방식에서 벗어나 사용자가 자신의 감정을 실감나게 표현할 수 있으며, 대화의 역동성을 부여할 수 있다.In the chat service, the user can select an avatar and expand the range for optimizing the avatar, which not only induces the user's interest but also moves the user away from the static text-based chat method through the avatar's movement. You can express your feelings realistically and give the dynamics of conversation.

랜덤채팅 기능을 제공하여 사용자들이 전체 사용자들과 랜덤하게 채팅을 진행할 수 있는 서비스를 제공할 수 있고, 별도의 채팅로그를 제공하여 아바타를 사용하면서도 지나간 대화나 아바타의 움직임을 확인할 수 있으며, 아바타의 이동을 가능하게 하여 대화의 역동성을 부여할 수 있다.By providing a random chat function, users can provide a service that allows users to chat randomly with all users, and provides a separate chat log to check past conversations or avatar movements while using the avatar. The movement can be made to give the dialogue dynamics.

채팅 내용 중 특정 단어를 인식하여 자동으로 아바타의 감정이나 동작 등의 움직임을 표현할 수 있고, 동일한 말풍선이 아니라 채팅 내용에 따라 가변하는 말풍선들을 제공하며, 사용자가 직접 자신의 말풍선을 선택할 수 있다.Recognize specific words in the chat content to automatically express the emotions and movements of the avatar, such as the speech bubbles that are variable according to the chat content instead of the same speech bubble, the user can choose his own speech bubbles.

도 1은 본 발명의 일실시예에 있어서, 사용자단말기와 서버가 네트워크를 통해 연결된 환경을 개괄적으로 나타낸 도면이다.
도 2는 본 발명의 일실시예에 있어서, 데이터베이스를 나타낸 도면이다.
도 3은 본 발명의 일실시예에 있어서, 레이어별 이미지데이터를 설명하기 위한 일례이다.
도 4는 본 발명의 일실시예에 있어서, 아바타의 움직임을 위해 아바타의 신체를 구성하는 레이어들을 나타낸 일례이다.
도 5는 본 발명의 일실시예에 있어서, 데이터베이스에서 이미지데이터를 추출하는 과정을 설명한 일례이다.
도 6은 본 발명의 일실시예에 있어서, 메타데이터를 나타낸 일례이다.
도 7은 본 발명의 일실시예에 있어서, 아바타의 움직임을 나타낸 일례이다.
도 8 및 도 9는 본 발명의 일실시예에 있어서, 복수개의 레이어로 구성된 아바타의 전면과 후면을 각각을 나타낸 일례이다.
도 10은 본 발명의 일실시예에 있어서, 아바타의 뼈대를 나타내는 뼈대 레이어와 대응하는 신체 레이어 및 아이템 레이어들이 서로 대응됨을 나타낸 일례이다.
도 11은 본 발명의 일실시예에 있어서, 모바일 웹상에서 아바타 서비스를 제공하는 일례를 나타낸 도면이다.
도 12는 본 발명의 일실시예에 있어서, 모바일 웹상에서 아바타 서비스를 제공하는 다른 예를 나타낸 도면이다.
도 13은 본 발명의 일실시예에 있어서, 동물형 아바타를 제공하는 모습을 나타낸 일례이다.
도 14는 본 발명의 일실시예에 있어서, 아바타의 아이템 카테고리 구조를 나타낸 일례이다.
도 15는 본 발명의 일실시예에 있어서, 이동수단에 탑승한 아바타를 나타낸 일례이다.
도 16은 본 발명의 일실시예에 있어서, 채팅 스테이지를 나타낸 일례이다.
도 17은 본 발명의 일실시예에 있어서, 채팅로그를 나타낸 일례이다.
도 18은 본 발명의 일실시예에 있어서, 채팅로그를 제공하는 방법을 도시한 일례이다.
도 19는 본 발명의 일실시예에 있어서, 랜덤채팅 기능을 설명하기 위한 일례이다.
도 20은 본 발명의 일실시예에 있어서, 채팅방, 서버 및 단어 데이터베이스를 나타낸 도면이다.
도 21은 본 발명의 일실시예에 있어서, 다양한 모양의 말풍선들을 나타낸 일례이다.
도 22는 본 발명의 일실시예에 있어서, 다양한 모양의 말풍선이 사용된 일례이다.
도 23은 본 발명의 일실시예에 있어서, 아바타 서비스 시스템의 내부 구성을 설명하기 위한 블록도이다.
도 24는 본 발명의 일실시예에 있어서, 아바타 서비스 시스템이 수행하는 아바타 서비스 방법을 도시한 흐름도이다.
도 25는 본 발명의 일실시예에 있어서, 사용자단말기의 내부 구성을 설명하기 위한 블록도이다.
도 26은 본 발명의 일실시예에 있어서, 사용자단말기가 수행하는 아바타 서비스 방법을 도시한 흐름도이다.
1 is a diagram schematically illustrating an environment in which a user terminal and a server are connected through a network according to an embodiment of the present invention.
2 is a view showing a database in an embodiment of the present invention.
3 is an example for explaining image data for each layer in an embodiment of the present invention.
4 illustrates an example of layers constituting a body of an avatar for movement of an avatar according to an embodiment of the present invention.
5 illustrates an example of a process of extracting image data from a database according to an embodiment of the present invention.
6 illustrates an example of metadata in an embodiment of the present invention.
7 illustrates an example of an avatar's movement according to an embodiment of the present invention.
8 and 9 illustrate examples of the front and rear surfaces of an avatar composed of a plurality of layers according to an embodiment of the present invention.
FIG. 10 illustrates an example in which an skeleton layer representing an skeleton of an avatar, a body layer, and an item layer correspond to each other, according to an embodiment of the present invention.
FIG. 11 is a diagram for one example of providing an avatar service on a mobile web according to one embodiment of the present invention.
12 is a diagram illustrating another example of providing an avatar service on a mobile web according to one embodiment of the present invention.
FIG. 13 illustrates an example of providing an animal avatar according to an embodiment of the present invention. FIG.
14 is a diagram illustrating an item category structure of an avatar according to an embodiment of the present invention.
FIG. 15 illustrates an example of an avatar on a vehicle. Referring to FIG.
16 shows an example of a chat stage according to an embodiment of the present invention.
17 illustrates an example of a chat log in an embodiment of the present invention.
18 is a diagram showing a method of providing a chat log according to one embodiment of the present invention.
19 is an example for explaining a random chat function in an embodiment of the present invention.
20 is a view showing a chat room, a server, and a word database according to an embodiment of the present invention.
21 illustrates an example of speech bubbles of various shapes in an embodiment of the present invention.
22 is an example in which speech bubbles of various shapes are used in an embodiment of the present invention.
23 is a block diagram illustrating an internal configuration of an avatar service system according to an embodiment of the present invention.
24 is a flowchart illustrating an avatar service method performed by an avatar service system according to an embodiment of the present invention.
25 is a block diagram illustrating an internal configuration of a user terminal according to an embodiment of the present invention.
FIG. 26 is a flowchart illustrating an avatar service method performed by a user terminal according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 있어서, 사용자단말기와 서버가 네트워크를 통해 연결된 환경을 개괄적으로 나타낸 도면이다. 도 1은 사용자단말기(110), 서버(120), 네트워크(130)를 나타내고 있다.1 is a diagram schematically illustrating an environment in which a user terminal and a server are connected through a network according to an embodiment of the present invention. 1 illustrates a user terminal 110, a server 120, and a network 130.

사용자단말기(110)는 사용자가 이용하는 유선통신단말기이거나 또는 무선통신단말기일 수 있다. 사용자단말기(110)는 사용자단말기(110)에 포함된 통신모듈을 이용하여 네트워크(130)를 통해 서버(120)와 통신할 수 있다. 예를 들어, 네트워크(130)는 사용자단말기(110)가 무선통신단말기인 경우, 기지국과 게이트웨이 등을 이용한 무선통신 네트워크일 수도 있고, 액세스 포인트를 이용하여 인터넷에 연결하기 위한 무선통신 네트워크일 수도 있다. 뿐만 아니라, 네트워크(130)는 사용자단말기(110)가 유선통신단말기인 경우, 근거리 통신망을 이용하여 인터넷에 연결되는 유선통신 네트워크일 수도 있다. 이러한 통신기술에 대해서는 이미 잘 알려져 있기 때문에 자세한 설명은 생략한다.The user terminal 110 may be a wired communication terminal or a wireless communication terminal used by the user. The user terminal 110 may communicate with the server 120 through the network 130 using a communication module included in the user terminal 110. For example, when the user terminal 110 is a wireless communication terminal, the network 130 may be a wireless communication network using a base station and a gateway, or may be a wireless communication network for connecting to the Internet using an access point. . In addition, when the user terminal 110 is a wired communication terminal, the network 130 may be a wired communication network connected to the Internet using a local area network. Since such communication technology is well known, a detailed description thereof will be omitted.

서버(120)는 사용자단말기(110)로 아바타 서비스 또는 채팅 서비스나 SNS(Social Network Service)나 SNG(Social Network Game)에서 아바타 서비스를 제공하는 시스템일 수 있다. 본 실시예에서 서버(120)는 사용자단말기(110)로 아바타 서비스를 제공할 수 있으며, 본 실시예에 따른 아바타 서비스는 아바타의 조합에 이용되는 레이어(layer)별로 다양한 움직임(action)이 가능한 아바타를 제공하기 위한 서비스를 의미할 수 있다. 일례로, 서버(120)는 사용자단말기(110)에게 아바타를 이용한 채팅 서비스를 제공하는 시스템일 수 있다. 즉, 서버(120)는 다양한 움직임이 가능한 아바타를 제공하여 사용자가 아바타를 통해 자신의 감정을 실감나게 표현하도록 지원할 수 있다.The server 120 may be a system for providing an avatar service to the user terminal 110 in an avatar service or a chat service, a social network service (SNS), or a social network game (SNG). In the present embodiment, the server 120 may provide an avatar service to the user terminal 110. The avatar service according to the present embodiment may perform various actions for each layer used in the combination of avatars. It may mean a service for providing a. For example, the server 120 may be a system for providing a chatting service using an avatar to the user terminal 110. That is, the server 120 may provide an avatar capable of various movements to support the user to realistically express his or her emotions through the avatar.

도 2는 본 발명의 일실시예에 있어서, 데이터베이스를 나타낸 도면이다. 여기서, 데이터베이스(200)는 아바타의 다양한 움직임을 가능하게 하기 위해 제안된 것으로, 도 2에 도시된 바와 같이 아바타의 움직임에 대한 데이터인 메타데이터(210)와 아바타를 구성하기 위한 레이어별 이미지데이터(220)를 각각 저장 및 유지할 수 있다. 이때, 데이터베이스(210)는 서버(120)에 포함되거나 또는 서버(120)와 연계되어 서버(120)로 데이터를 제공하는 별도의 시스템에 포함될 수 있다. 이 경우, 서버(120)는 데이터베이스(200)로부터 필요한 메타데이터(210)와 이미지데이터(220)를 추출하여 사용자단말기(110)로 제공할 수 있다. 이때, 서버(120)는, 일실시예로, 메타데이터(210)에 기초하여 프레임별로 이미지데이터(220)를 합성하고, 합성된 애니메이션을 사용자단말기(110)로 제공할 수 있다. 또한, 서버(120)는 추출된 단순히 추출된 메타데이터(210)와 이미지데이터(220)를 사용자단말기(110)로 제공하고, 사용자단말기(110)에서 메타데이터(210)에 기초하여 이미지데이터(220)를 합성하여 프레임별로 표시할 수도 있다. 즉, 본 실시예에 따른 아바타 서비스 시스템 및 방법에서는 레이어별 이미지데이터(220)를 메타데이터(210)에 따라 합성하는 방법을 통해 다양한 움직임의 아바타를 표현할 수 있다.2 is a view showing a database in an embodiment of the present invention. Here, the database 200 is proposed to enable various movements of the avatar, and as shown in FIG. 2, metadata 210, which is data about the movement of the avatar, and image data for each layer for configuring the avatar ( 220 may be stored and maintained respectively. In this case, the database 210 may be included in the server 120 or in a separate system for providing data to the server 120 in association with the server 120. In this case, the server 120 may extract necessary metadata 210 and image data 220 from the database 200 and provide the extracted metadata 210 and the image data 220 to the user terminal 110. In this case, the server 120 may synthesize the image data 220 for each frame based on the metadata 210 and provide the synthesized animation to the user terminal 110. In addition, the server 120 provides the extracted simply extracted metadata 210 and the image data 220 to the user terminal 110, and based on the metadata 210 in the user terminal 110, the image data ( 220 may be synthesized and displayed for each frame. That is, in the avatar service system and method according to the present embodiment, avatars of various movements may be expressed through a method of synthesizing the layer-specific image data 220 according to the metadata 210.

도 3은 본 발명의 일실시예에 있어서, 레이어별 이미지데이터를 설명하기 위한 일례이다. 즉, 도 3은 하나의 레이어에 대해 중심축(310)을 기준으로, 1° 단위로, 1°부터 360°까지 총 360개의 회전 이미지가 생성될 수 있음을 나타낸 일례이다. 필요에 따라, 회전 단위가 다른 값(예를 들어, 2°나 5°)으로 기설정될 수도 있음은 너무나 당연하다.3 is an example for explaining image data for each layer in an embodiment of the present invention. That is, FIG. 3 illustrates an example in which a total of 360 rotating images may be generated from 1 ° to 360 ° in 1 ° increments based on the central axis 310 for one layer. If necessary, it is too natural that the rotation unit may be preset to another value (eg 2 ° or 5 °).

도 4는 본 발명의 일실시예에 있어서, 아바타의 움직임을 위해 아바타의 신체를 구성하는 레이어들을 나타낸 일례이다. 도 4에서는 아바타의 신체를 머리, 몸통, 오른쪽 팔 윗부분, 오른쪽 팔 아랫부분, 왼쪽 팔 윗부분, 왼쪽 팔 아랫부분, 오른쪽 다리 윗부분, 오른쪽 다리 아랫부분, 왼쪽 다리 윗부분 및 왼쪽 다리 아랫부분의 10개의 레이어들로 구성한 일례를 나타내고 있다. 여기서, 레이어들 각각은 중심축을 포함하고 있으며, 중심축에 따라 회전할 수 있다. 물론, 도 4에서 나타난 아바타는 하나의 일례일 뿐, 필요에 따라 아바타는 더 정교한 동작(motion)을 제어하기 위해 보다 많은 레이어들로 구성될 수도 있다.4 illustrates an example of layers constituting a body of an avatar for movement of an avatar according to an embodiment of the present invention. In Figure 4, the avatar's body is divided into ten layers: head, torso, upper right arm, lower right arm, upper left arm, lower left arm, upper right leg, lower right leg, upper left leg and lower left leg. An example comprised with these is shown. Here, each of the layers includes a central axis, and may rotate along the central axis. Of course, the avatar shown in FIG. 4 is only one example, and if necessary, the avatar may be configured with more layers to control more sophisticated motion.

도 5는 본 발명의 일실시예에 있어서, 데이터베이스에서 이미지데이터를 추출하는 과정을 설명한 일례이다. 도 5는 각각의 레이어별로 각각 360개의 회전 이미지들이 이미지데이터로서 데이터베이스에 저장되어 있고, 요청된 움직임을 표현하기 위해 필요한 회전 이미지들을 추출하여 제공할 수 있음을 나타내고 있다. 우선, 도 5의 일례에서 설명하는 데이터베이스에는 레이어들 각각에 대해, 1° 단위로, 1°부터 360°까지 총 360개의 회전 이미지가 저장되어 있다. 이때, "layer code"는 각 레이어를 식별하기 위한 식별자를 의미할 수 있다. 즉, 도 7은 "layer code"가 "bd_x_a1_01"인 레이어의 회전 이미지들 중 59°부터 64°까지의 회전 이미지들을, "layer code"가 "bd_x_a2_00"인 레이어의 회전 이미지들 중 246°부터 251°까지의 회전 이미지들을, "layer code"가 "bd_x_a5_00"인 레이어의 회전 이미지들 중 346°부터 351°까지의 회전 이미지들을 각각 추출하는 일례를 나타내고 있다.5 illustrates an example of a process of extracting image data from a database according to an embodiment of the present invention. FIG. 5 shows that 360 rotation images for each layer are stored in a database as image data, and that rotation images necessary for representing a requested motion can be extracted and provided. First, in the database described in the example of FIG. 5, for each of the layers, a total of 360 rotating images are stored, from 1 ° to 360 °, in units of 1 °. In this case, “layer code” may mean an identifier for identifying each layer. That is, FIG. 7 illustrates rotation images of 59 ° to 64 ° among rotation images of the layer having the “layer code” of “bd_x_a1_01”, and 251 ° to 251 of rotation images of the layer having the “layer code” of “bd_x_a2_00”. An example of extracting rotated images up to °, and rotated images from 346 ° to 351 °, respectively, among the rotated images of the layer having the "layer code" of "bd_x_a5_00" is shown.

각 레이어들은 회전 이미지의 적용에 따라 중심축에 대한 회전이 가능할 뿐만 아니라, 중심축을 화면상의 어디에 위치시키는가에 따라 레이어들의 이동도 가능하다. 이러한 중심축에 대한 회전이나 중심축의 위치에 대한 정보는 메타데이터에 포함될 수 있다. 예를 들어, 메타데이터는 각각의 레이어마다 몇 도의 각도(회전 값, angle)를 갖는 회전 이미지의 중심축이 화면의 어디에 위치하여야 하는가에 대한 정보(좌표)를 포함할 수 있다.Each layer can not only rotate about the central axis according to the application of the rotating image, but also move the layers according to where the central axis is located on the screen. Information about the rotation of the central axis or the position of the central axis may be included in the metadata. For example, the metadata may include information (coordinates) of where the center axis of the rotated image having an angle (rotation value, angle) of each layer should be located on the screen.

도 6은 본 발명의 일실시예에 있어서, 메타데이터를 나타낸 일례이다. 우선, 도 6에서 "ani01.xml"은 요청된 움직임에 대한 식별자 "ani01"에 대해 확장성마크업언어(eXtensible MarkUp Language, XML) 형태로 메타데이터를 제공함을 의미할 수 있다. 또한, "scene frame"의 값은 프레임을 식별하기 위한 식별자일 수 있다. 즉, "scene frame = 1"은 "ani01"에 해당하는 움직임의 첫 번째 프레임을 의미할 수 있다. "layer code"는 이미 설명한 바와 같이 레이어를 식별하기 위한 식별자를 의미할 수 있다. "z_order"는 프레임 내에서 레이어들의 깊이(depth)를 나타낼 수 있다. 즉, "z_order"의 값이 커질수록 화면의 앞쪽에 표현됨을 의미할 수 있다. "angle"은 적용될 회전 이미지의 식별자에 대응될 수 있다. 즉, "angle = 0"은 360°에 대응하는 회전 이미지가 적용됨을 의미할 수 있다. "offset_x"와 "offset_y"는 좌표를 나타낼 수 있다. 이러한 좌표는 화면의 좌표에 대응하는 절대좌표일 수도 있으나, 아바타가 표현되는 영역의 기준 위치에 대한 상대좌표일 수도 있다.6 illustrates an example of metadata in an embodiment of the present invention. First, in FIG. 6, "ani01.xml" may mean that metadata is provided in the form of an eXtensible MarkUp Language (XML) for the identifier "ani01" for the requested movement. Also, the value of "scene frame" may be an identifier for identifying a frame. That is, "scene frame = 1" may mean the first frame of the motion corresponding to "ani01". "layer code" may mean an identifier for identifying a layer, as described above. "z_order" may indicate the depth of layers in a frame. That is, as the value of "z_order" increases, this may mean that it is displayed on the front of the screen. "angle" may correspond to an identifier of the rotation image to be applied. That is, "angle = 0" may mean that a rotation image corresponding to 360 ° is applied. "offset_x" and "offset_y" may indicate coordinates. These coordinates may be absolute coordinates corresponding to the coordinates of the screen, or may be relative to the reference position of the area where the avatar is represented.

다시 도 1 및 도 2를 참조하면, 사용자단말기(110)가 네트워크(130)를 통해 서버(120)에 접속하여 아바타 서비스를 제공받는 경우, 서버(120)는 사용자단말기(110)로부터 아바타의 움직임과 관련된 요청을 수신할 수 있다. 이 경우, 서버(120)는 일실시예로, 요청된 움직임에 아바타의 이미지를 합성하여 사용자단말기(110)로 제공할 수 있다.1 and 2, when the user terminal 110 accesses the server 120 through the network 130 and receives the avatar service, the server 120 moves the avatar from the user terminal 110. Receive a request associated with the. In this case, in one embodiment, the server 120 may synthesize the image of the avatar with the requested movement and provide the synthesized image to the user terminal 110.

다른 실시예로, 서버(120)는 데이터베이스(200)로부터 요청된 움직임과 관련된 메타데이터(210)와 이미지데이터(220)를 추출하여 사용자단말기(110)로 제공할 수 있고, 사용자단말기(110)에서 메타데이터(210)에 기초하여 프레임별로 이미지데이터(220)를 화면에 표시할 수도 있다. 일례로, 메타데이터(210)는 도 6에서 설명한 바와 같이 XML의 형태로 제공될 수 있고, 따라서, 유무선 웹을 통해서도 다양한 움직임이 가능한 아바타 서비스가 제공될 수 있게 된다. 즉, 서버(120)는 메타데이터(210)와 이미지데이터(220)를 통해 xml 파일을 생성하여 사용자단말기(110)로 제공할 수 있다. 이 경우, 서버(120)에서 이미지데이터(220)를 위한 웹주소를 XML 파일에 추가하여 사용자단말기(110)로 제공할 수 있다. 사용자단말기(110)는 HTML(HyperText Markup Language) 5와 같은 웹 표준 프로토콜을 통해 xml 파일을 처리할 수 있고, 이때, xml 파일에 추가된 웹주소를 통해 이미지데이터(220)가 사용자단말기(110)로 제공될 수도 있다.In another embodiment, the server 120 may extract metadata 210 and image data 220 related to the requested movement from the database 200 and provide them to the user terminal 110, and the user terminal 110. The image data 220 may be displayed on the screen for each frame based on the metadata 210. For example, the metadata 210 may be provided in the form of XML as described with reference to FIG. 6, and thus, an avatar service capable of various movements may be provided through a wired or wireless web. That is, the server 120 may generate an xml file through the metadata 210 and the image data 220 and provide the generated xml file to the user terminal 110. In this case, the server 120 may add the web address for the image data 220 to the XML file and provide it to the user terminal 110. The user terminal 110 may process an xml file through a web standard protocol such as HTML (HyperText Markup Language) 5, and at this time, the image data 220 is connected to the user terminal 110 through a web address added to the xml file. It may be provided as.

도 7은 본 발명의 일실시예에 있어서, 아바타의 움직임을 나타낸 일례이다. 아바타(700)는 이미 설명한 바와 같이 아바타를 구성하는 레이어들의 좌표와 회전 값에 기초하여 움직임이 결정될 수 있다. 각 프레임별로 레이어들의 회전 이미지들의 좌표와 회전 값이 결정되고, 각 프레임들이 순차적으로 화면에 표시되면, 아바타의 움직임에 따른 애니메이션(animation)이 사용자에게 제공될 수 있다. 또한, 아바타를 구성하는 전체 좌표값을 동일하게 변경하여 아바타의 위치를 이동시킬 수도 있다.7 illustrates an example of an avatar's movement according to an embodiment of the present invention. As described above, the avatar 700 may determine a movement based on the coordinates and rotation values of the layers constituting the avatar. When the coordinates and the rotation value of the rotation images of the layers are determined for each frame and each frame is sequentially displayed on the screen, an animation according to the movement of the avatar may be provided to the user. In addition, the position of the avatar may be moved by changing the same overall coordinate value of the avatar.

도 8 및 도 9는 본 발명의 일실시예에 있어서, 복수개의 레이어로 구성된 아바타의 전면과 후면을 각각을 나타낸 일례이다. 즉, 도 8 및 도 9는 아바타의 외형을 레이어 구조로서 구현한 일례로, 각각의 레이어별로 중심축이 기설정될 수 있고, 하나의 레이어에 대해 기설정된 중심축을 중심으로 한 복수개의 회전 이미지들이 존재할 수 있다. 이러한 복수개의 회전 이미지들은 도 2를 통해 설명한 데이터베이스(200)에 각 레이어별 이미지데이터(220)로서 저장될 수 있다. 즉, 복수의 레이어들 각각에 대해 복수의 회전 이미지들이 존재하고, 서버(120)는 아바타의 움직임에 필요한 회전 이미지들과 메타데이터를 제공할 수 있다. 이미 설명한 바와 같이, 사용자단말기(110)가 메타데이터에 기초하여 회전 이미지들을 조합하여 표시할 수 있다.8 and 9 illustrate examples of the front and rear surfaces of an avatar composed of a plurality of layers according to an embodiment of the present invention. That is, FIGS. 8 and 9 are examples in which the outer appearance of the avatar is implemented as a layer structure. A central axis may be preset for each layer, and a plurality of rotating images about the central axis preset for one layer may be provided. May exist. The plurality of rotated images may be stored as image data 220 for each layer in the database 200 described with reference to FIG. 2. That is, a plurality of rotation images exist for each of the plurality of layers, and the server 120 may provide rotation images and metadata necessary for the movement of the avatar. As described above, the user terminal 110 may combine and display the rotated images based on the metadata.

도 10은 본 발명의 일실시예에 있어서, 아바타의 뼈대를 나타내는 뼈대 레이어와 대응하는 신체 레이어 및 아이템 레이어들이 서로 대응됨을 나타낸 일례이다. 즉, 본 실시예에 따른 아바타는 뼈의 움직임에 따라 뼈에 부속된 신체와 아이템들이 동시에 함께 움직일 수 있음을 나타내고 있다. 즉, 뼈대를 나타내는 레이어가 이동한 좌표 및 각도에 대응하여 신체 레이어 및 아이템 레이어의 좌표와 각도를 변경함으로써, 이미지 깨짐 현상을 방지할 수 있다.FIG. 10 illustrates an example in which an skeleton layer representing an skeleton of an avatar, a body layer, and an item layer correspond to each other, according to an embodiment of the present invention. That is, the avatar according to the present embodiment indicates that the body and items attached to the bone can move together at the same time as the bone moves. That is, by changing the coordinates and angles of the body layer and the item layer corresponding to the coordinates and angles at which the layer representing the skeleton is moved, it is possible to prevent the image from being broken.

도 11은 본 발명의 일실시예에 있어서, 모바일 웹상에서 아바타 서비스를 제공하는 일례를 나타낸 도면이다. 화면(1100)은 사용자의 모바일단말기의 화면을 나타낸 일례이다. 보다 자세하게, 화면(1100)은 소셜 네트워크 서비스의 프로필 대표 이미지로 자신의 사진 대신 아바타를 설정한 일례를 나타내고 있다. 이때, 아바타는 자신의 감정 상태나 상황을 아바타의 움직임(표정이나 몸짓 등의 액션)으로 표현할 수 있다.FIG. 11 is a diagram for one example of providing an avatar service on a mobile web according to one embodiment of the present invention. The screen 1100 is an example of a screen of a user's mobile terminal. In more detail, the screen 1100 shows an example of setting an avatar instead of a picture as a profile representative image of a social network service. In this case, the avatar may express its emotional state or situation by the avatar's movement (action such as expression or gesture).

도 12는 본 발명의 일실시예에 있어서, 모바일 웹상에서 아바타 서비스를 제공하는 다른 예를 나타낸 도면이다. 화면(1200)은 사용자의 모바일단말기의 화면을 나타낸 일례이다. 보다 자세하게, 화면(1200)은 아바타를 이용한 채팅 서비스 화면의 일례를 나타내고 있다. 즉, 단순히 텍스트를 통한 채팅뿐만 아니라, 아바타의 움직임을 통해서도 상대방에서 자신의 감정 상태나 상황 등을 전달할 수 있게 된다. 도 12에서는 아바타의 기설정된 움직임들을 미리 제공하고, 제공된 움직임 중 선택된 움직임이 사용자의 아바타에 반영되는 일례를 나타내고 있다. 그러나, 아바타의 움직임은 다양한 방법을 통해 선택될 수 있다. 예를 들어, 사용자가 입력하는 텍스트를 분석하여 아바타의 움직임이 선택될 수도 있다.12 is a diagram illustrating another example of providing an avatar service on a mobile web according to one embodiment of the present invention. The screen 1200 is an example of a screen of a user's mobile terminal. In more detail, the screen 1200 shows an example of a chat service screen using an avatar. That is, not only chatting via text, but also through the movement of the avatar, the other party can convey his or her emotional state or situation. FIG. 12 illustrates an example in which preset movements of the avatar are provided in advance, and a selected movement among the provided movements is reflected in the avatar of the user. However, the movement of the avatar can be selected through various methods. For example, the movement of the avatar may be selected by analyzing text input by the user.

이미 설명한 바와 같이, 웹상에서 제공되는 종래기술의 아바타 서비스는 단순히 이미지의 조합일 뿐이며, 메신저와 같이 웹 서비스는 지인기반 서비스로서, 아바타가 없는 텍스트 형식의 채팅을 지원하거나 사용자에 의해 설정된 이미지를 표시하는 기술만을 지원한다. 그러나, 본 실시예들에서는 도 11 및 도 12의 일례에서 도시한 바와 같이 유무선 웹상에서도 플러그인과 같은 별도의 프로그램 설치 없이도 다양한 움직임과 표정의 표현이 가능한 아바타를 지원할 수 있으며, 특히, 모바일 웹 서비스에서 아바타의 움직임이 가능한 아바타 서비스를 제공할 수 있다.As described above, the prior art avatar service provided on the web is simply a combination of images, and like a messenger, a web service is an acquaintance-based service, which supports chatting in a text form without an avatar or displays an image set by a user. Only support the technology. However, in the present exemplary embodiment, as shown in the example of FIGS. 11 and 12, even on a wired or wireless web, an avatar capable of expressing various movements and expressions without installing a separate program such as a plug-in may be supported. In particular, in a mobile web service An avatar service capable of moving an avatar may be provided.

이후에서는, 본 발명의 실시예들에 따른 아바타 서비스가 포함된 모바일 채팅 서비스에 대해 설명한다.Hereinafter, the mobile chat service including the avatar service according to the embodiments of the present invention will be described.

도 12를 다시 참조하면, 아바타의 움직임은 아바타가 아이템을 장착한 경우, 아이템에도 대응하여 적용될 수 있다. 즉, 아바타가 움직이는 경우, 아바타에 장착된 의류나 액세서리 등의 아이템들이 아바타의 움직임에 대응하여 이동 또는 회전함으로써, 이미지 깨짐 현상을 방지할 수 있다.Referring back to FIG. 12, when the avatar mounts an item, the movement of the avatar may also be applied to the item. That is, when the avatar is moving, items such as clothes or accessories mounted on the avatar are moved or rotated in response to the avatar's movement, thereby preventing the image from being broken.

또한, 본 실시예에 따른 채팅 서비스에서는 채팅로그가 표시되는 영역에 상대방의 프로필 이미지뿐만 아니라 본인의 프로필 이미지도 함께 표시될 수 있다. 즉, 도 12는 본인의 이미지(1210)가 표시된 모습을 더 나타내고 있다.In addition, in the chat service according to the present embodiment, not only the profile image of the other party but also his / her profile image may be displayed in the area where the chat log is displayed. That is, FIG. 12 further shows how the image 1210 of the user is displayed.

도 13은 본 발명의 일실시예에 있어서, 동물형 아바타를 제공하는 모습을 나타낸 일례이다. 즉, 도 13은 사용자가 인간형 남성 아바타와 인간형 여성 아바타뿐만 아니라, 동물형 아바타를 선택할 수 있는 제1 사용자 인터페이스(1310)를 나타내고 있다. 또한, 도 13은 선택된 아바타의 이름을 사용자가 설정할 수 있는 제2 사용자 인터페이스(1310)를 더 나타내고 있다. 사용자 인터페이스들은 사용자단말기에 설치된 어플리케이션에 의해 사용자에게 제공될 수 있다.FIG. 13 illustrates an example of providing an animal avatar according to an embodiment of the present invention. FIG. That is, FIG. 13 illustrates a first user interface 1310 through which a user can select not only a humanoid male avatar and a humanoid female avatar, but also an animal avatar. In addition, FIG. 13 further illustrates a second user interface 1310 in which a user can set a name of the selected avatar. The user interfaces may be provided to the user by an application installed on the user terminal.

도 14는 본 발명의 일실시예에 있어서, 아바타의 아이템 카테고리 구조를 나타낸 일례이다. 즉, 본 실시예에 따른 아바타 시스템에서는 아바타에 성별을 부여하고, 성별 외에도 종족(동물 등) 속성을 부여하여, 동물형 아바타와 같이 인간형 아바타 이외의 종족 아바타를 생성할 수 있다. 필요에 따라, 종족 속성으로 다른 가상의 종족이 추가될 수 있음은 너무나 당연하다. 또한, 아바타의 외모나 의상 등 설정된 다양한 아이템들을 이용하여 개별 요소를 변경 또는 착용하는 것이 가능해지고, 사용자가 아바타의 움직임 또한 조종할 수 있게 된다.14 is a diagram illustrating an item category structure of an avatar according to an embodiment of the present invention. That is, in the avatar system according to the present embodiment, a gender may be assigned to the avatar, and a race (animal, etc.) attribute may be given in addition to the gender to generate a race avatar other than the humanoid avatar like the animal avatar. It is natural that other virtual races can be added as racial attributes as needed. In addition, it is possible to change or wear individual elements using various items such as avatar's appearance or clothes, and the user can also control the avatar's movement.

또한, 도 13에서 설명한 어플리케이션은, 아래 (1) 내지 (7)의 사용자 인터페이스들(미도시) 중 적어도 하나를 더 포함할 수도 있다. 또한, 아래 (1) 내지 (7)의 사용자 인터페이스들은 서로 조합될 수도 있다.In addition, the application described with reference to FIG. 13 may further include at least one of user interfaces (not shown) of (1) to (7) below. Also, the user interfaces below (1) to (7) may be combined with each other.

(1) 사용자에게 제공된 아이템들(또는 움직임들), 사용자에 의해 구매된 아이템들(또는 움직임들)을 확인하기 위한 옷장 인터페이스. 여기서, 아이템들은 얼굴형, 눈썹, 눈, 코, 입, 헤어, 피부색과 같이 아바타의 얼굴을 설정하기 위한 아이템들뿐만 아니라, 의상, 액세서리 같은 아이템들이나 애완동물(pet) 아이템들도 포함할 수 있다. 이때, 애완동물도 자체적인 움직임을 가질 수 있고, 이동 역시 가능하다. 또한, 옷장 인터페이스는 성별이나 종족에 따라 착용 가능한 아이템과 착용할 수 없는 아이템을 구분하여 표시해줄 수도 있다. 사용자가 보유중인 아이템들(또는 움직임들)은 카테고리별로 분류하여 제공될 수도 있다.(1) A closet interface for identifying items (or movements) provided to the user, items (or movements) purchased by the user. Here, the items may include not only items for setting an avatar's face such as a face shape, eyebrows, eyes, nose, mouth, hair, and skin color, but also items such as clothes and accessories or pet items. . At this time, the pet may have its own movement and movement is also possible. In addition, the wardrobe interface may display items that can be worn and items that cannot be worn according to gender or race. Items (or movements) held by the user may be provided by being classified by category.

(2) 다양한 아이템들을 미리 조합해볼 수 있는 조합 인터페이스.(2) Combination interface for pre-combining various items.

(3) 아바타를 회전시키기 위한 아바타 회전 인터페이스. 즉, 사용자는 아바타 회전 인터페이스를 이용하여 아바타를 회전시켜가면서 조합 인터페이스를 통해 조합된 아바타를 확인할 수도 있다.(3) avatar rotation interface for rotating the avatar. That is, the user may check the avatars combined through the combination interface while rotating the avatar using the avatar rotation interface.

(4) 랜덤하게 아이템들이 조합되는 랜덤 조합 인터페이스. 예를 들어, 어플리케이션은 상위 카테고리 단계에서 랜덤 조합 인터페이스가 선택되는 경우, 상기 카테고리의 하위 카테고리들의 전체 아이템들 중에서 랜덤하게 아이템들을 선택하여 조합할 수 있다. 다른 예로, 어플리케이션은 특정 카테고리 진입 후 랜덤 조합 인터페이스가 선택되는 경우, 해당 카테고리의 아이템들 중에서 랜덤하게 아이템들을 선택하여 조합할 수 있다. 또한, 랜덤 조합 인터페이스는 사용자가 보유중인 아이템들 중에서 랜덤하게 아이템들을 조합하기 위한 기능이나 판매되는 아이템들 중에서 랜덤하게 아이템들을 조합하기 위한 기능을 더 포함할 수도 있다.(4) Random combination interface in which items are randomly combined. For example, when the random combination interface is selected in the upper category step, the application may randomly select and combine items from all items of the lower categories of the category. As another example, when a random combination interface is selected after entering a specific category, the application may randomly select and combine items from items of the corresponding category. In addition, the random combination interface may further include a function for combining items at random from among items owned by the user or a function for combining items at random among items sold.

(5) 의류나 액세서리와 같은 아이템들을 구매하기 위한 아이템 구매 인터페이스. 이때, 구매 인터페이스에는 (2)의 조합 인터페이스가 포함될 수도 있다. 즉, 사용자들은 조합 인터페이스를 통해 구매 전에 자신의 아바타에 아이템들을 미리 조합해볼 수 있다. 또한, 구매 인터페이스는 선택한 아이템을 저장하는 장바구니 인터페이스를 더 포함할 수도 있다. 이때, 장바구니 인터페이스를 통해 저장된 아이템이 자신의 아바타에 자동적으로 미리 조합될 수도 있다. 구매된 아이템에는 지속 기간이 부여될 수도 있다.(5) Item purchase interface for purchasing items such as clothing or accessories. At this time, the purchase interface may include a combination interface of (2). That is, users can pre-combine items in their avatars prior to purchase through the combination interface. In addition, the purchase interface may further include a shopping cart interface for storing the selected item. In this case, the items stored through the shopping cart interface may be automatically combined with their avatars in advance. The purchased item may be given a duration.

(6) 의상이 조합된 아바타로 가능한 움직임을 구매하기 위한 움직임 구매 인터페이스. 즉, 사용자는 기본적으로 제공되는 움직임 이외에 추가적인 움직임을 구매하여 이용할 수도 있다. 움직임 구매 인터페이스는 자신의 아바타가 선택된 움직임을 움직임의 구매 전에도 수행할 수 있도록 지시하기 위한 구매 전 움직임 수행 인터페이스를 더 포함할 수도 있다. 즉, 어플리케이션은 사용자가 움직임을 구매하기 전에 사용자의 아바타가 특정 움직임을 수행하는 애니메이션을 재생하여 사용자에게 보여줄 수도 있다.(6) Motion purchase interface for purchasing movements possible with avatars in combination with costumes. That is, the user may purchase and use additional movements in addition to the movements basically provided. The movement purchase interface may further include a pre-purchase movement execution interface for instructing his avatar to perform the selected movement even before purchasing the movement. That is, the application may play and show an animation in which the user's avatar performs a specific movement before the user purchases the movement.

(7) 아이템이나 움직임을 다른 사용자에게 선물하기 위한 사용자 인터페이스.(7) User interface for presenting items or movements to other users.

사용자가 보유중인 아이템은 삭제 기능을 통해 삭제될 수도 있다. 또한, 적어도 일부의 아이템은 필요에 따라 재활용의 개념을 도입하여 아이템의 삭제 시, 일정 수준의 보상을 사용자에게 제공할 수도 있다.Items held by the user may be deleted through a delete function. In addition, at least some items may introduce a concept of recycling as needed to provide a user with a certain level of compensation when the items are deleted.

도 15는 본 발명의 일실시예에 있어서, 이동수단에 탑승한 아바타를 나타낸 일례이다. 즉, 아바타와 조합되는 아이템으로서 이동수단이 포함될 수 있다. 이미 설명한 바와 같이 아바타는 이동이 가능하며, 일례로, 채팅창이나 채팅방과 같은 채팅 스테이지내에서 아바타의 움직임에 따라 또는 사용자의 입력에 따라 위치를 변경할 수도 있다. 이때, 이동수단 아이템이 장착된 아바타는 이동수단을 타고 채팅 스테이지내에서 이동할 수도 있다. 본 명세서에서 "채팅창", "채팅방" 및 "채팅 스테이지"는 동일한 의미로 사용되었다.FIG. 15 illustrates an example of an avatar on a vehicle. Referring to FIG. That is, the moving means may be included as an item combined with the avatar. As described above, the avatar may be moved. For example, the avatar may be changed according to the movement of the avatar or a user input in a chat stage such as a chat window or a chat room. At this time, the avatar equipped with the vehicle item may move in the chat stage by the vehicle. In this specification, "chat window", "chat room" and "chat stage" are used interchangeably.

다시 도 1 및 도 2를 참조하면, 서버(120)는 사용자단말기(120)로부터 전송되는 요청에 따라, 데이터베이스(200)에서 필요한 메타데이터(210)와 이미지데이터(220)를 추출할 수 있다. 이때, 상기 요청은 사용자단말기(120)에 설치된 어플리케이션의 제어를 통해 생성될 수 있다.Referring back to FIGS. 1 and 2, the server 120 may extract metadata 210 and image data 220 required from the database 200 according to a request transmitted from the user terminal 120. In this case, the request may be generated through control of an application installed in the user terminal 120.

서버(120)는 추출한 메타데이터(210)와 이미지데이터(220)를 이용하여 필요한 애니메이션을 생성하여 사용자단말기(120)로 전송할 수 있다. 이 경우, 사용자단말기(120)는 어플리케이션의 제어에 따라 애니메이션을 채팅창과 같이 해당 서비스 화면에 표시할 수 있다. The server 120 may generate the necessary animation using the extracted metadata 210 and the image data 220 and transmit the generated animation to the user terminal 120. In this case, the user terminal 120 may display the animation on the corresponding service screen like a chat window under the control of the application.

이때, 서버(120)는 생성된 애니메이션을 기설정된 기간 동안 저장 및 유지할 수도 있다. 만약, 요청된 애니메이션이 이미 저장되어 있는 경우, 서버(120)는 저장된 애니메이션을 상기 요청에 따라 사용자단말기(120)로 전송할 수 있다. 즉, 서버(120)는 애니메이션이 저장되어 있지 않는 경우에, 데이터베이스(200)에서 데이터를 추출하여 애니메이션을 생성할 수 있다.In this case, the server 120 may store and maintain the generated animation for a preset period. If the requested animation is already stored, the server 120 may transmit the stored animation to the user terminal 120 according to the request. That is, when the animation is not stored, the server 120 may generate the animation by extracting data from the database 200.

도 16은 본 발명의 일실시예에 있어서, 채팅 스테이지를 나타낸 일례이다. 제1 화면(1610) 및 제2 화면(1620)은 각각 사용자의 모바일단말기의 화면을 나타낸 일례이다. 여기서, 제1 화면(1610)은 복수의 사용자들이 접속한 채팅방에서 사용자들의 아바타들이 표시되고, 아바타들의 머리 위에 채팅 내용이 표시되는 모습을 나타내고 있다. 이때, 사용자는 사용자의 아바타(1630)를 이동시키기 위한 위치(1640)를 설정하여 아바타(1630)를 이동시킬 수 있다. 제2 화면(1620)은 아바타(1630)가 사용자에 의해 설정된 위치(1640)로 이동한 모습을 나타내고 있다. 이때, 아바타(1630)의 위치는 아바타(1630)를 구성하는 회전 이미지들의 중심축의 좌표를 일괄적으로 수정함으로써, 수행될 수 있다. 예를 들어, 사용자단말기(110)는 서버(120)로 아바타(1630)의 이동을 요청하는 경우, 아바타(1630)를 이동시키고자 하는 좌표를 서버(120)로 전송할 수 있다. 이때, 서버(120)는 수신된 좌표를 이용하여 아바타(1630)가 이동되도록 제어할 수 있다. 또한, 서버(120)는 채팅에 참여한 다른 사용자들에게도 아바타(1630)의 변경된 위치정보를 전송할 수 있다. 이때, 다른 사용자들의 사용자단말기들의 화면상에서도 아바타(1630)의 위치가 변경될 수 있다. 16 shows an example of a chat stage according to an embodiment of the present invention. The first screen 1610 and the second screen 1620 are examples of the screen of the user's mobile terminal, respectively. Here, the first screen 1610 shows the avatars of the users displayed in a chat room accessed by a plurality of users and the chat contents displayed on the heads of the avatars. In this case, the user may move the avatar 1630 by setting a location 1640 for moving the user's avatar 1630. The second screen 1620 shows a state in which the avatar 1630 has moved to the location 1640 set by the user. In this case, the position of the avatar 1630 may be performed by collectively modifying the coordinates of the central axis of the rotated images constituting the avatar 1630. For example, when the user terminal 110 requests the server 120 to move the avatar 1630, the user terminal 110 may transmit coordinates for moving the avatar 1630 to the server 120. In this case, the server 120 may control the avatar 1630 to move using the received coordinates. In addition, the server 120 may transmit the changed location information of the avatar 1630 to other users participating in the chat. In this case, the position of the avatar 1630 may be changed on the screens of user terminals of other users.

이와 같이, 본 발명의 실시예들에 따르면, 아바타의 움직임을 통해 사용자가 자신의 감정을 실감나게 표현할 수 있으며, 이러한 아바타 서비스는 채팅 서비스뿐만 아니라 SNS나 SNG에도 반영될 수 있다. 또한, 채팅 서비스에서도 아바타를 선택할 수 있고, 아바타를 최적화할 수 있는 범위를 확대시킴으로서, 사용자의 흥미를 유도할 수 있을 뿐만 아니라, 정적인 텍스트 위주의 채팅 방식에서 벗어나 채팅창 내의 아바타 이동을 통해 대화의 역동성을 부여할 수 있다.As described above, according to embodiments of the present invention, the user can realistically express his or her emotions through the movement of the avatar, and the avatar service can be reflected not only in the chat service but also in the SNS or the SNG. In addition, by selecting an avatar in the chat service and expanding the range for optimizing the avatar, the user can not only induce user's interest but also communicate by moving the avatar in the chat window away from the static text-based chat method. It can give the dynamics of.

도 17은 본 발명의 일실시예에 있어서, 채팅로그를 나타낸 일례이다. 도 16에서와 같이 채팅 스테이지와 아바타들을 이용하여 채팅을 진행하는 경우, 어플리케이션은 별도의 채팅로그 보기 인터페이스를 포함할 수 있다. 화면(1700)은 사용자의 모바일단말기의 화면을 나타낸 일례로서, 채팅로그가 표시된 모습을 나타내고 있다. 이때, 채팅로그는 사용자들이 채팅을 위해 입력한 텍스트뿐만 아니라, 아바타의 감정이나 동작 등의 움직임(1710)까지 포함할 수 있다. 17 illustrates an example of a chat log in an embodiment of the present invention. When the chat is performed using the chat stage and the avatars as shown in FIG. 16, the application may include a separate chat log view interface. The screen 1700 is an example of a screen of a user's mobile terminal, and a chat log is displayed. In this case, the chat log may include not only text input by the users for chatting, but also movements 1710 such as emotions or actions of the avatar.

도 18은 본 발명의 일실시예에 있어서, 채팅로그를 제공하는 방법을 도시한 일례이다. 하나의 채팅방(채팅 스테이지)(1810)에 N명의 사용자들이 접속한 경우, 서버(120)는 채팅 스테이지(1810)에 대한 채팅로그(1820)를 생성할 수 있다. 또한, 서버(120)는 사용자들의 사용자단말기들로부터 전송되는 텍스트나 아바타의 움직임에 대한 정보를 채팅로그(1820)에 기록할 수 있다. 이때, 사용자들 중 적어도 하나의 사용자가 채팅로그 보기 인터페이스를 선택하는 경우, 서버(120)는 해당 사용자의 사용자단말기로 채팅로그(1820)를 제공할 수 있다. 채팅로그(1820)를 수신한 사용자단말기는 수신된 채팅로그(1820)를 화면에 표시함으로써, 도 17의 화면(1700)에서와 같이 지나간 대화나 아바타의 움직임을 사용자가 확인할 수 있게 된다.18 is a diagram showing a method of providing a chat log according to one embodiment of the present invention. When N users are connected to one chat room (chat stage) 1810, the server 120 may generate a chat log 1820 for the chat stage 1810. In addition, the server 120 may record the text transmitted from the user terminals of the users or information on the movement of the avatar in the chat log 1820. In this case, when at least one of the users selects the chat log view interface, the server 120 may provide the chat log 1820 to the user terminal of the corresponding user. The user terminal receiving the chat log 1820 displays the received chat log 1820 on the screen, so that the user can check the conversation or the movement of the avatar as shown in the screen 1700 of FIG. 17.

도 19는 본 발명의 일실시예에 있어서, 랜덤채팅 기능을 설명하기 위한 일례이다. 서버(120)는 채팅 서비스를 이용하는 복수의 사용자들(1900) 중에서 랜덤채팅을 요청하는 사용자들을 확인할 수 있다. 즉, 서버(120)는 단계(1910)에서 랜덤채팅 요청자가 존재하는지 확인하고, 랜덤채팅 요청자가 존재하는 경우 단계(1920)에서 랜덤채팅방을 생성할 수 있다. 만약, 랜덤채팅 요청자가 존재하지 않는 경우, 서버(120)는 대기하며 단계(1910)를 수행할 수 있다. 이때, 서버(120)는 랜덤채팅을 요청한 순서로 사용자들을 랜덤채팅방에 입장시킬 수 있고, 하나의 랜덤채팅방에 들어갈 수 있는 인원수를 제한할 수도 있다. 따라서, 서버(120)는 유사한 타이밍에 랜덤채팅을 요청한 사용자들간의 랜덤채팅을 지원할 수 있게 된다. 이때, 서버(120)는 단계(1910)에서 랜덤채팅 요청자가 둘 이상인 경우, 단계(1920)에서 랜덤채팅방을 생성할 수도 있다.19 is an example for explaining a random chat function in an embodiment of the present invention. The server 120 may identify users who request a random chat among the plurality of users 1900 using the chat service. That is, the server 120 may check whether there is a random chat requestor in step 1910, and generate a random chat room in step 1920 when the random chat requester exists. If there is no random chat requester, the server 120 may wait and perform step 1910. In this case, the server 120 may allow users to enter the random chat room in the order in which the random chat is requested, and may limit the number of people who can enter one random chat room. Accordingly, the server 120 may support random chats between users who request random chats at similar timings. In this case, when there are two or more random chat requesters in step 1910, the server 120 may generate a random chat room in step 1920.

도 20은 본 발명의 일실시예에 있어서, 채팅방, 서버 및 단어 데이터베이스를 나타낸 도면이다. 서버(120)는 채팅방(2100)에 입장한 사용자들의 사용자단말기들로부터 수신되는 채팅 내용을 채팅방(2100)에 존재하는 모든 사용자들의 사용자단말기들로 전달할 수 있다. 또한, 서버(120)는 채팅방(2100)에 입장한 사용자들의 사용자단말기들로부터 수신되는 아바타의 움직임에 대한 요청에 따라 아바타의 움직임을 처리하고, 아바타의 움직임을 처리한 결과를 채팅방(2100)에 존재하는 모든 사용자들의 사용자단말기들로 전달할 수 있다.20 is a view showing a chat room, a server, and a word database according to an embodiment of the present invention. The server 120 may transfer the chat contents received from the user terminals of the users entering the chat room 2100 to the user terminals of all users existing in the chat room 2100. In addition, the server 120 processes the avatar's movement in response to a request for the movement of the avatar received from the user terminals of users entering the chat room 2100, and transmits the avatar's movement to the chat room 2100. It can be delivered to the user terminals of all existing users.

이때, 서버(120)는 단어 데이터베이스(2200)를 포함하거나 또는 단어 데이터베이스(2200)를 포함하는 별도의 시스템과 연계하여 단어 데이터베이스(2200)를 이용할 수 있다. 이때, 단어 데이터베이스(2200)에는 기설정된 단어와 아바타의 움직임에 대한 태그인 액션 태그가 서로 연관하여 저장될 수 있다. 즉, 서버(120)는 채팅방(2100)에서 생성되는 채팅 내용에 단어 데이터베이스(2200)에 저장된 단어가 포함된 경우, 해당 단어를 단어 데이터베이스(2200)에서 검색하여 연계된 아바타의 액션 태그를 확인할 수 있다. 이때, 서버(120)는 확인된 아바타의 액션 태그를 통해 대응하는 움직임을 아바타에 적용할 수 있다.In this case, the server 120 may include the word database 2200 or use the word database 2200 in association with a separate system including the word database 2200. In this case, the word database 2200 may store a predetermined word and an action tag which is a tag for the movement of the avatar. That is, when the chat content generated in the chat room 2100 includes a word stored in the word database 2200, the server 120 may check the word word in the word database 2200 to check the action tag of the associated avatar. have. In this case, the server 120 may apply a corresponding motion to the avatar through the identified action tag of the avatar.

예를 들어, 단어 데이터베이스(2200)에 "웃음"이라는 단어와 "웃는 표정"이라는 액션 태그가 서로 연관하여 저장되어 있다고 가정하자. 이때, 채팅방(2100)에 존재하는 사용자 A의 채팅 내용에 "웃음"이라는 단어가 존재하는 경우, 서버(120)는 단어 데이터베이스(2200)를 통해 액션 태그 "웃는 표정"을 확인할 수 있고, 사용자 A의 아바타가 "웃는 표정"의 움직임을 수행하도록 제어할 수 있다. 이때, 단어 데이터베이스(2200)에는 복수개의 단어가 하나의 액션 태그에 연관되어 저장될 수도 있다.For example, suppose that the word database "laugh" and the action tag "laugh" are stored in association with each other in the word database 2200. In this case, when the word "laugh" exists in the chat content of the user A in the chat room 2100, the server 120 may check the action tag "smiley expression" through the word database 2200, and the user A May control the avatar to perform the movement of the "laughing facial expression". In this case, the word database 2200 may store a plurality of words in association with one action tag.

이와 같이, 본 발명의 일실시예에 따르면, 사용자가 직접 아바타의 움직임을 선택하지 않아도 액션 태그를 활용하여 아바타가 관련된 움직임을 표현하도록 제어될 수 있다.  As such, according to an embodiment of the present invention, the avatar may be controlled to express the related movement by using the action tag even if the user does not directly select the movement of the avatar.

도 21은 본 발명의 일실시예에 있어서, 다양한 모양의 말풍선들을 나타낸 일례이다. 본 실시예에 따른 채팅 서비스에서는 다양한 모양의 말풍선들(2100) 중 특정 말풍선을 사용자가 기호에 따라 선택하여 사용할 수 있다. 또한, 특정 문자에 따라 말풍선이 변경되도록 할 수도 있다. 예를 들어, 느낌표나 물음표 등에 따라 각각 말풍선들이 기설정될 수 있다. 이때, 사용자의 채팅 내용에 느낌표나 물음표가 들어가는 경우, 해당 사용자의 말풍선이 기설정된 말풍선들로 자동적으로 선택될 수 있다.21 illustrates an example of speech bubbles of various shapes in an embodiment of the present invention. In the chat service according to the present embodiment, a user may select and use a specific speech bubble among various speech bubbles 2100 according to a preference. In addition, the speech balloon may be changed according to a specific character. For example, speech bubbles may be preset according to exclamation marks or question marks. In this case, when an exclamation point or question mark enters the user's chat content, the user's speech bubble may be automatically selected as preset speech bubbles.

도 22는 본 발명의 일실시예에 있어서, 다양한 모양의 말풍선이 사용된 일례이다. 화면(2200)은 사용자의 모바일단말기의 화면을 나타낸 일례이다. 이때, 제1 말풍선(1810)은 입력된 채팅 내용에 느낌표가 포함된 경우, 자동으로 느낌표에 따라 기설정된 말풍선이 제공되는 모습을 나타내고 있다. 또한, 제2 말풍선(1820)은 사용자에 의해 직접 선택된 말풍선이 제공되는 모습을 나타내고 있다.22 is an example in which speech bubbles of various shapes are used in an embodiment of the present invention. The screen 2200 is an example of a screen of a user's mobile terminal. In this case, when the input chat content includes an exclamation point, the first speech bubble 1810 automatically shows a preset speech bubble according to the exclamation point. In addition, the second speech bubble 1820 shows a state in which the speech bubble directly selected by the user is provided.

도 23은 본 발명의 일실시예에 있어서, 아바타 서비스 시스템의 내부 구성을 설명하기 위한 블록도이다. 본 실시예에 따른 아바타 서비스 시스템(2300)은 도 1을 통해 설명한 서버(120)에 대응하는 시스템으로, 모바일 환경의 채팅 서비스에서 사용자에게 아바타를 제공할 수 있다. 이러한 아바타 서비스 시스템(2300)은 도 23에 도시된 바와 같이 채팅 내용 수신부(2310), 액션 태그 추출부(2320) 및 아바타 정보 전송부(2330)를 포함할 수 있다.23 is a block diagram illustrating an internal configuration of an avatar service system according to an embodiment of the present invention. The avatar service system 2300 according to the present embodiment is a system corresponding to the server 120 described with reference to FIG. 1, and may provide an avatar to a user in a chat service in a mobile environment. As illustrated in FIG. 23, the avatar service system 2300 may include a chat content receiver 2310, an action tag extractor 2320, and an avatar information transmitter 2330.

채팅 내용 수신부(2310)는 채팅 스테이지에 접속된 사용자의 사용자단말기로부터 채팅 내용을 수신한다.The chat content receiver 2310 receives chat content from a user terminal of a user connected to the chat stage.

액션 태그 추출부(2320)는 채팅 내용에 포함된 단어에 기초하여 단어 데이터베이스를 검색하여 대응하는 액션 태그를 추출한다. 여기서, 단어 데이터베이스에는 적어도 하나의 단어 및 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지된다. 즉, 액션 태그 추출부(2320)는 단어와 액션 태그가 서로 연관되어 저장된 데이터베이스에서 채팅 내용에 포함된 단어에 따라 액션 태그를 추출할 수 있다.The action tag extractor 2320 searches a word database based on the words included in the chat content and extracts a corresponding action tag. Here, the word database stores and maintains at least one word and at least one action tag associated with the at least one word. That is, the action tag extractor 2320 may extract an action tag according to a word included in chat content from a database in which words and action tags are associated with each other.

아바타 정보 전송부(2330)는 액션 태그에 대응하는 아바타의 움직임에 대한 정보를 상기 채팅 스테이지에 접속된 모든 사용자들의 사용자단말기들로 전송한다. 이때, 사용자단말기들 각각에서 아바타의 움직임에 대한 정보에 기초하여 아바타의 움직임이 화면에 재생될 수 있다. 여기서, 아바타의 움직임에 대한 정보는 해당 사용자(상기 채팅 내용을 전송한 사용자)의 아바타에 해당 움직임이 적용 가능한지 여부에 따라 제공 여부가 결정될 수 있다. 즉, 사용자의 아바타가 추출된 액션 태그에 대응하는 아바타의 움직임이 적용될 수 없는 아바타인 경우, 아바타의 움직임에 대한 정보는 제공되지 않을 수 있다.The avatar information transmitter 2330 transmits information on the movement of the avatar corresponding to the action tag to user terminals of all users connected to the chat stage. At this time, the movement of the avatar may be reproduced on the screen based on the information on the movement of the avatar in each of the user terminals. Here, the information on the movement of the avatar may be determined based on whether the movement is applicable to the avatar of the user (the user who transmitted the chat contents). That is, when the avatar of the user is an avatar to which the motion of the avatar corresponding to the extracted action tag cannot be applied, information about the motion of the avatar may not be provided.

본 실시예에 따르면, 모바일 환경의 채팅 서비스에서도 채팅 내용 중 특정 단어를 인식하여 자동으로 아바타의 감정이나 동작과 같은 움직임을 표현할 수 있게 된다.According to the present embodiment, even in a chat service of a mobile environment, a specific word of a chat content is recognized to automatically express a movement such as an emotion or an action of an avatar.

또한, 채팅 내용에 기설정된 문자가 포함된 경우, 서로 다른 모양의 복수개의 말풍선 중 기설정된 문자에 대응하는 말풍선이 사용자단말기의 화면에 표시될 수 있고, 표시된 말풍선 내에 채팅 내용이 표시될 수 있다. 예를 들어, 느낌표에 대응하여 특정 모양의 말풍선이 기설정되어 있고, 채팅 내용에 느낌표가 표시되어 있는 경우, 해당 채팅 내용은 기설정된 특정 모양의 말풍선을 통해 채팅 스테이지에 접속된 모든 사용자들에게 제공될 수 있다.In addition, when the chat contents include preset characters, speech bubbles corresponding to the preset characters among the plurality of speech bubbles having different shapes may be displayed on the screen of the user terminal, and the chat contents may be displayed within the displayed speech bubbles. For example, if a speech bubble of a specific shape is set in response to an exclamation mark and an exclamation mark is displayed in the chat content, the chat content is provided to all users connected to the chat stage through the predetermined speech bubble of a predetermined shape. Can be.

이에 더해, 서로 다른 모양의 복수개의 말풍선 중 사용자단말기의 사용자에 의해 설정된 말풍선이 사용자단말기의 화면에 표시될 수 있고, 표시된 말풍선 내에 채팅 내용이 표시될 수 있다. 즉, 사용자가 직접 자신이 원하는 말풍선을 선택하도록 할 수 있다.In addition, a speech bubble set by the user of the user terminal among the plurality of speech bubbles of different shapes may be displayed on the screen of the user terminal, and chat contents may be displayed in the displayed speech bubble. That is, the user can directly select the speech bubble he wants.

도 24는 본 발명의 일실시예에 있어서, 아바타 서비스 시스템이 수행하는 아바타 서비스 방법을 도시한 흐름도이다. 본 실시예에 따른 아바타 서비스 방법은 도 23을 통해 설명한 아바타 서비스 시스템(2300)에 의해 수행될 수 있다.24 is a flowchart illustrating an avatar service method performed by an avatar service system according to an embodiment of the present invention. The avatar service method according to the present embodiment may be performed by the avatar service system 2300 described with reference to FIG. 23.

단계(2410)에서 아바타 서비스 시스템(2300)은 채팅 스테이지에 접속된 사용자의 사용자단말기로부터 채팅 내용을 수신한다.In operation 2410, the avatar service system 2300 receives chat contents from a user terminal of a user connected to a chat stage.

단계(2420)에서 아바타 서비스 시스템(2300)은 채팅 내용에 포함된 단어에 기초하여 단어 데이터베이스를 검색하여 대응하는 액션 태그를 추출한다. 여기서, 단어 데이터베이스에는 적어도 하나의 단어 및 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지된다. 즉, 아바타 서비스 시스템(2300)은 단어와 액션 태그가 서로 연관되어 저장된 데이터베이스에서 채팅 내용에 포함된 단어에 따라 액션 태그를 추출할 수 있다.In operation 2420, the avatar service system 2300 searches a word database based on a word included in the chat content and extracts a corresponding action tag. Here, the word database stores and maintains at least one word and at least one action tag associated with the at least one word. That is, the avatar service system 2300 may extract an action tag according to a word included in chat content from a database in which words and action tags are associated with each other.

단계(2430)에서 아바타 서비스 시스템(2300)은 액션 태그에 대응하는 아바타의 움직임에 대한 정보를 상기 채팅 스테이지에 접속된 모든 사용자들의 사용자단말기들로 전송한다. 이때, 사용자단말기들 각각에서 아바타의 움직임에 대한 정보에 기초하여 아바타의 움직임이 화면에 재생될 수 있다. 여기서, 아바타의 움직임에 대한 정보는 해당 사용자(상기 채팅 내용을 전송한 사용자)의 아바타에 해당 움직임이 적용 가능한지 여부에 따라 제공 여부가 결정될 수 있다. 즉, 사용자의 아바타가 추출된 액션 태그에 대응하는 아바타의 움직임이 적용될 수 없는 아바타인 경우, 아바타의 움직임에 대한 정보는 제공되지 않을 수 있다.In operation 2430, the avatar service system 2300 transmits information on the movement of the avatar corresponding to the action tag to user terminals of all users connected to the chat stage. At this time, the movement of the avatar may be reproduced on the screen based on the information on the movement of the avatar in each of the user terminals. Here, the information on the movement of the avatar may be determined based on whether the movement is applicable to the avatar of the user (the user who transmitted the chat contents). That is, when the avatar of the user is an avatar to which the motion of the avatar corresponding to the extracted action tag cannot be applied, information about the motion of the avatar may not be provided.

본 실시예에 따르면, 모바일 환경의 채팅 서비스에서도 채팅 내용 중 특정 단어를 인식하여 자동으로 아바타의 감정이나 동작과 같은 움직임을 표현할 수 있게 된다.According to the present embodiment, even in a chat service of a mobile environment, a specific word of a chat content may be recognized to automatically express a movement such as an emotion or an action of an avatar.

또한, 채팅 내용에 기설정된 문자가 포함된 경우, 서로 다른 모양의 복수개의 말풍선 중 기설정된 문자에 대응하는 말풍선이 사용자단말기의 화면에 표시될 수 있고, 표시된 말풍선 내에 채팅 내용이 표시될 수 있다. 예를 들어, 느낌표에 대응하여 특정 모양의 말풍선이 기설정되어 있고, 채팅 내용에 느낌표가 표시되어 있는 경우, 해당 채팅 내용은 기설정된 특정 모양의 말풍선을 통해 채팅 스테이지에 접속된 모든 사용자들에게 제공될 수 있다. 즉, 사용자는 채팅 내용에 따라 다양한 말풍선을 이용하여 채팅을 진행할 수 있게 된다.In addition, when the chat contents include preset characters, speech bubbles corresponding to the preset characters among the plurality of speech bubbles having different shapes may be displayed on the screen of the user terminal, and the chat contents may be displayed within the displayed speech bubbles. For example, if a speech bubble of a specific shape is set in response to an exclamation mark and an exclamation mark is displayed in the chat content, the chat content is provided to all users connected to the chat stage through the predetermined speech bubble of a predetermined shape. Can be. That is, the user can proceed with the chat using a variety of speech bubbles according to the chat content.

이에 더해, 서로 다른 모양의 복수개의 말풍선 중 사용자단말기의 사용자에 의해 설정된 말풍선이 사용자단말기의 화면에 표시될 수 있고, 표시된 말풍선 내에 채팅 내용이 표시될 수 있다. 즉, 사용자가 직접 자신이 원하는 말풍선을 선택하도록 할 수 있다.In addition, a speech bubble set by the user of the user terminal among the plurality of speech bubbles of different shapes may be displayed on the screen of the user terminal, and chat contents may be displayed in the displayed speech bubble. That is, the user can directly select the speech bubble he wants.

도 25는 본 발명의 일실시예에 있어서, 사용자단말기의 내부 구성을 설명하기 위한 블록도이다. 본 실시예에 따른 사용자단말기(2500)는 도 1을 통해 설명한 사용자단말기(110)에 대응하는 장치로, 모바일 환경의 채팅 서비스에서 아바타를 제공받는 장치일 수 있다. 이러한 사용자단말기(2500)는 도 25에 도시된 바와 같이 채팅 내용 전송부(2510), 아바타 정보 수신부(2520), 아바타 표시부(2530)를 포함할 수 있다.25 is a block diagram illustrating an internal configuration of a user terminal according to an embodiment of the present invention. The user terminal 2500 according to the present embodiment is a device corresponding to the user terminal 110 described with reference to FIG. 1, and may be a device that receives an avatar in a chat service of a mobile environment. As illustrated in FIG. 25, the user terminal 2500 may include a chat content transmitter 2510, an avatar information receiver 2520, and an avatar display unit 2530.

채팅 내용 전송부(2510)는 채팅방에 접속된 상태에서 사용자에 의해 입력된 채팅 내용을 서버로 전송한다. 여기서, 서버는 도 23을 통해 설명한 아바타 서비스 시스템(2300)에 대응될 수 있다.The chat content transmitter 2510 transmits the chat content input by the user to the server while connected to the chat room. Here, the server may correspond to the avatar service system 2300 described with reference to FIG. 23.

아바타 정보 수신부(2520)는 서버로부터 아바타의 움직임에 대한 정보를 수신한다. 여기서, 아바타의 움직임에 대한 정보는, 서버에서 채팅 내용에 포함된 단어를 이용하여 적어도 하나의 단어 및 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 단어 데이터베이스를 검색하여 추출된 액션 태그에 대응될 수 있다. 즉, 서버는 채팅 내용에 포함된 단어를 이용하여 단어 데이터베이스를 검색하여 특정 단어들과 연관된 액션 태그를 추출할 수 있고, 추출된 액션 태그와 대응하는 아바타의 움직임에 대한 정보를 사용자단말기(2500)로 전송할 수 있다.The avatar information receiver 2520 receives information on the movement of the avatar from the server. Here, the information about the movement of the avatar is an action extracted by searching a word database where at least one word and at least one action tag associated with the at least one word are stored and maintained using a word included in a chat content in a server. May correspond to a tag. That is, the server may search the word database using words included in the chat content to extract action tags associated with specific words, and the user terminal 2500 may provide information on the movement of the avatar corresponding to the extracted action tags. Can be sent to.

이때, 아바타의 움직임에 대한 정보는, 상기 채팅방에 접속된 모든 사용자들의 사용자단말기들로 전송된다. 이때, 사용자단말기들 각각에서 아바타의 움직임에 대한 정보에 기초하여 아바타의 움직임이 화면에 재생될 수 있다. 여기서, 아바타의 움직임에 대한 정보는 해당 사용자(상기 채팅 내용을 전송한 사용자)의 아바타에 해당 움직임이 적용 가능한지 여부에 따라 제공 여부가 결정될 수도 있다. 즉, 사용자의 아바타가 추출된 액션 태그에 대응하는 아바타의 움직임이 적용될 수 없는 아바타인 경우, 아바타의 움직임에 대한 정보는 제공되지 않을 수 있다.At this time, the information on the movement of the avatar is transmitted to the user terminals of all users connected to the chat room. At this time, the movement of the avatar may be reproduced on the screen based on the information on the movement of the avatar in each of the user terminals. In this case, the information on the movement of the avatar may be determined based on whether the movement is applicable to the avatar of the user (the user who transmitted the chat contents). That is, when the avatar of the user is an avatar to which the motion of the avatar corresponding to the extracted action tag cannot be applied, information about the motion of the avatar may not be provided.

아바타 표시부(2530)는 아바타의 움직임에 대한 정보에 기초하여 아바타의 움직임을 화면에 표시한다.The avatar display unit 2530 displays the movement of the avatar on the screen based on the information about the movement of the avatar.

또한, 아바타 표시부(2530)는 채팅 내용에 기설정된 문자가 포함된 경우, 서로 다른 모양의 복수개의 말풍선 중 기설정된 문자에 대응하는 말풍선을 화면에 표시하고, 표시된 말풍선 내에 채팅 내용을 표시할 수 있다. 즉, 사용자는 채팅 내용에 따라 다양한 말풍선을 이용하여 채팅을 진행할 수 있게 된다.In addition, when the chat content includes the preset text, the avatar display 2530 may display a speech bubble corresponding to the preset text among a plurality of speech bubbles having different shapes, and display the chat content in the displayed speech bubble. . That is, the user can proceed with the chat using a variety of speech bubbles according to the chat content.

이에 더해, 아바타 표시부(2530)는 서로 다른 모양의 복수개의 말풍선 중 사용자에 의해 설정된 말풍선을 화면에 표시하고, 표시된 말풍선 내에 채팅 내용을 표시할 수 있다. 즉, 사용자가 직접 자신이 원하는 말풍선을 선택하도록 할 수 있다.In addition, the avatar display unit 2530 may display a speech bubble set by the user among a plurality of speech bubbles having different shapes on the screen, and display chat contents in the displayed speech bubble. That is, the user can directly select the speech bubble he wants.

도 26은 본 발명의 일실시예에 있어서, 사용자단말기가 수행하는 아바타 서비스 방법을 도시한 흐름도이다. 본 실시예에 따른 아바타 서비스 방법은 도 25를 통해 설명한 사용자단말기(2500)에 의해 수행될 수 있다.FIG. 26 is a flowchart illustrating an avatar service method performed by a user terminal according to an embodiment of the present invention. The avatar service method according to the present embodiment may be performed by the user terminal 2500 described with reference to FIG. 25.

단계(2610)에서 사용자단말기(2500)는 채팅방에 접속된 상태에서 사용자에 의해 입력된 채팅 내용을 서버로 전송한다. 여기서, 서버는 도 23을 통해 설명한 아바타 서비스 시스템(2300)에 대응될 수 있다.In operation 2610, the user terminal 2500 transmits the chat content input by the user to the server while connected to the chat room. Here, the server may correspond to the avatar service system 2300 described with reference to FIG. 23.

단계(2620)에서 사용자단말기(2500)는 서버로부터 아바타의 움직임에 대한 정보를 수신한다. 여기서, 아바타의 움직임에 대한 정보는, 서버에서 채팅 내용에 포함된 단어를 이용하여 적어도 하나의 단어 및 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 단어 데이터베이스를 검색하여 추출된 액션 태그에 대응될 수 있다. 즉, 서버는 채팅 내용에 포함된 단어를 이용하여 단어 데이터베이스를 검색하여 특정 단어들과 연관된 액션 태그를 추출할 수 있고, 추출된 액션 태그와 대응하는 아바타의 움직임에 대한 정보를 사용자단말기(2500)로 전송할 수 있다.In operation 2620, the user terminal 2500 receives information on the movement of the avatar from the server. Here, the information about the movement of the avatar is an action extracted by searching a word database where at least one word and at least one action tag associated with the at least one word are stored and maintained using a word included in a chat content in a server. May correspond to a tag. That is, the server may search the word database using words included in the chat content to extract action tags associated with specific words, and the user terminal 2500 may provide information on the movement of the avatar corresponding to the extracted action tags. Can be sent to.

이때, 아바타의 움직임에 대한 정보는, 상기 채팅방에 접속된 모든 사용자들의 사용자단말기들로 전송된다. 이때, 사용자단말기들 각각에서 아바타의 움직임에 대한 정보에 기초하여 아바타의 움직임이 화면에 재생될 수 있다. 여기서, 아바타의 움직임에 대한 정보는 해당 사용자(상기 채팅 내용을 전송한 사용자)의 아바타에 해당 움직임이 적용 가능한지 여부에 따라 제공 여부가 결정될 수도 있다. 즉, 사용자의 아바타가 추출된 액션 태그에 대응하는 아바타의 움직임이 적용될 수 없는 아바타인 경우, 아바타의 움직임에 대한 정보는 제공되지 않을 수 있다.At this time, the information on the movement of the avatar is transmitted to the user terminals of all users connected to the chat room. At this time, the movement of the avatar may be reproduced on the screen based on the information on the movement of the avatar in each of the user terminals. In this case, the information on the movement of the avatar may be determined based on whether the movement is applicable to the avatar of the user (the user who transmitted the chat contents). That is, when the avatar of the user is an avatar to which the motion of the avatar corresponding to the extracted action tag cannot be applied, information about the motion of the avatar may not be provided.

단계(2630)에서 사용자단말기(2500)는 아바타의 움직임에 대한 정보에 기초하여 아바타의 움직임을 화면에 표시한다.In operation 2630, the user terminal 2500 displays the movement of the avatar on the screen based on the information about the movement of the avatar.

또한, 사용자단말기(2500)는 채팅 내용에 기설정된 문자가 포함된 경우, 서로 다른 모양의 복수개의 말풍선 중 기설정된 문자에 대응하는 말풍선을 화면에 표시하고, 표시된 말풍선 내에 채팅 내용을 표시할 수 있다. 즉, 사용자는 채팅 내용에 따라 다양한 말풍선을 이용하여 채팅을 진행할 수 있게 된다.In addition, when the chatting content includes predetermined text, the user terminal 2500 may display a speech bubble corresponding to the predetermined text among a plurality of speech bubbles having different shapes, and display the chatting content in the displayed speech bubble. . That is, the user can proceed with the chat using a variety of speech bubbles according to the chat content.

이에 더해, 사용자단말기(2500)는 서로 다른 모양의 복수개의 말풍선 중 사용자에 의해 설정된 말풍선을 화면에 표시하고, 표시된 말풍선 내에 채팅 내용을 표시할 수 있다. 즉, 사용자가 직접 자신이 원하는 말풍선을 선택하도록 할 수 있다.In addition, the user terminal 2500 may display a speech bubble set by the user among a plurality of speech bubbles having different shapes on the screen, and display chat contents in the displayed speech bubble. That is, the user can directly select the speech bubble he wants.

도 23 내지 도 26에서 생략된 내용은 도 1 내지 도 22의 내용을 참조할 수 있다.23 to 26, reference may be made to the contents of FIGS. 1 to 22.

이와 같이, 본 발명의 실시예들에 따르면, 움직임을 나타내는 데이터인 메타데이터와 아바타를 구성하는 레이어별로 움직임에 따른 복수의 회전 이미지들을 각각 데이터베이스에 저장 및 유지하고, 요청에 따라 움직임에 맞는 메타데이터와 회전 이미지들을 제공함으로써, 아바타의 다양한 동작이나 표정(감정) 등과 같은 움직임을 표현할 수 있다. 또한, 아바타의 신체를 구성하는 레이어들 뿐만 아니라, 아바타에 부가되는 액세서리나 의류 등의 아이템들 역시 별도의 레이어들로 구성하고, 각각의 아이템 레이어들 각각에 대해서도 복수의 회전 이미지들이 생성 및 유지함으로써, 신체를 구성하는 레어어들의 움직임에 맞는 아이템 레이어들의 회전 이미지를 제공하여, 이미지 회전에 의한 이미지 깨짐 현상을 해결할 수 있을 뿐만 아니라 아바타 서비스 전체의 질을 향상시킬 수 있다. 또한, 채팅 서비스에서, 사용자가 아바타를 선택할 수 있고, 아바타를 최적화할 수 있는 범위를 확대시킴으로서, 사용자의 흥미를 유도할 수 있을 뿐만 아니라, 아바타의 움직임을 통해 정적인 텍스트 위주의 채팅 방식에서 벗어나 사용자가 자신의 감정을 실감나게 표현할 수 있으며, 대화의 역동성을 부여할 수 있다. 또한, 랜덤채팅 기능을 제공하여 사용자들이 전체 사용자들과 랜덤하게 채팅을 진행할 수 있는 서비스를 제공할 수 있고, 별도의 채팅로그를 제공하여 아바타를 사용하면서도 지나간 대화나 아바타의 움직임을 확인할 수 있으며, 아바타의 이동을 가능하게 하여 대화의 역동성을 부여할 수 있다. 또한, 채팅 내용 중 특정 단어를 인식하여 자동으로 아바타의 감정이나 동작 등의 움직임을 표현할 수 있고, 동일한 말풍선이 아니라 채팅 내용에 따라 가변하는 말풍선들을 제공하며, 사용자가 직접 자신의 말풍선을 선택할 수 있다.As described above, according to embodiments of the present invention, metadata and data representing movement and a plurality of rotating images according to the movement for each layer constituting the avatar are stored and maintained in a database, and metadata corresponding to the movement is requested. By providing and rotating images, it is possible to express a variety of movements, such as the avatar's various movements, facial expressions (emotions). In addition, not only the layers constituting the avatar's body, but also items such as accessories and clothes added to the avatar are composed of separate layers, and a plurality of rotated images are generated and maintained for each item layer. In addition, by providing a rotation image of the item layers corresponding to the movement of the layers constituting the body, not only the image breakage caused by the image rotation can be solved, but also the quality of the entire avatar service can be improved. In addition, in the chat service, the user can select an avatar and expand the range in which the avatar can be optimized, thereby inducing the user's interest, and moving away from the static text-based chat method through the avatar's movement. The user can express his or her feelings realistically and can impart dynamics of conversation. In addition, by providing a random chat function, users can provide a service that allows users to chat randomly with the entire user, and by providing a separate chat log, you can check the conversation or the movement of the avatar while using the avatar, It is possible to move the avatar to give the dialogue dynamics. In addition, by recognizing a certain word in the chat content can automatically express the emotions and movements of the avatar, such as not the same speech bubble, but provides a variable speech bubble according to the chat content, the user can directly choose his own speech bubble. .

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

110: 사용자단말기
120: 서버
130: 네트워크
110: user terminal
120: Server
130: Network

Claims (17)

모바일 환경의 채팅 서비스에서 아바타를 제공하는 아바타 서비스 시스템에 있어서,
채팅 스테이지에 접속된 사용자의 사용자단말기로부터 채팅 내용을 수신하는 채팅 내용 수신부;
상기 채팅 내용에 포함된 단어에 기초하여 단어 데이터베이스를 검색하여 대응하는 액션 태그를 추출하는 액션 태그 추출부; 및
상기 액션 태그에 대응하는 아바타의 움직임에 대한 정보를 상기 채팅 스테이지에 접속된 모든 사용자들의 사용자단말기들로 전송하는 아바타 정보 전송부
를 포함하고,
상기 단어 데이터베이스에는 적어도 하나의 단어 및 상기 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 것을 특징으로 하는 아바타 서비스 시스템.
In the avatar service system for providing an avatar in a chat service in a mobile environment,
A chat content receiver configured to receive chat content from a user terminal of a user connected to the chat stage;
An action tag extractor configured to search a word database based on a word included in the chat content and extract a corresponding action tag; And
Avatar information transmission unit for transmitting information about the movement of the avatar corresponding to the action tag to the user terminals of all users connected to the chat stage
Lt; / RTI >
And at least one word and at least one action tag associated with the at least one word are stored and maintained in the word database.
제1항에 있어서,
상기 사용자단말기들 각각에서 상기 아바타의 움직임에 대한 정보에 기초하여 상기 아바타의 움직임이 화면에 재생되는 것을 특징으로 하는 아바타 서비스 시스템.
The method of claim 1,
The avatar service system, characterized in that the movement of the avatar is reproduced on the screen based on the information on the movement of the avatar in each of the user terminals.
제1항에 있어서,
상기 채팅 내용에 기설정된 문자가 포함된 경우, 서로 다른 모양의 복수개의 말풍선 중 상기 기설정된 문자에 대응하는 말풍선이 상기 사용자단말기의 화면에 표시되고, 상기 표시된 말풍선 내에 상기 채팅 내용이 표시되는 것을 특징으로 하는 아바타 서비스 시스템.
The method of claim 1,
When the chat content includes a predetermined text, a speech bubble corresponding to the predetermined text among a plurality of speech bubbles having different shapes is displayed on the screen of the user terminal, and the chat content is displayed within the displayed speech bubble. Avatar service system.
제1항에 있어서,
서로 다른 모양의 복수개의 말풍선 중 상기 사용자단말기의 사용자에 의해 설정된 말풍선이 상기 사용자단말기의 화면에 표시되고, 상기 표시된 말풍선 내에 상기 채팅 내용이 표시되는 것을 특징으로 하는 아바타 서비스 시스템.
The method of claim 1,
A speech bubble set by a user of the user terminal among a plurality of speech bubbles of different shapes is displayed on the screen of the user terminal, and the chat content is displayed in the displayed speech bubble.
모바일 환경의 채팅 서비스에서 아바타를 제공받는 사용자단말기에 있어서,
채팅방에 접속된 상태에서 사용자에 의해 입력된 채팅 내용을 서버로 전송하는 채팅 내용 전송부;
상기 서버로부터 아바타의 움직임에 대한 정보를 수신하는 아바타 정보 수신부; 및
상기 아바타의 움직임에 대한 정보에 기초하여 상기 아바타의 움직임을 화면에 표시하는 아바타 표시부
를 포함하고,
상기 아바타의 움직임에 대한 정보는, 상기 서버에서 상기 채팅 내용에 포함된 단어를 이용하여 적어도 하나의 단어 및 상기 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 단어 데이터베이스를 검색하여 추출된 액션 태그에 대응되고,
상기 아바타의 움직임에 대한 정보는, 상기 채팅방에 접속된 모든 사용자들의 사용자단말기들로 전송되는 것을 특징으로 하는 사용자단말기.
In a user terminal provided with an avatar in a chat service of a mobile environment,
Chat content transmission unit for transmitting the chat content input by the user in the state connected to the chat room to the server;
An avatar information receiver configured to receive information about the movement of the avatar from the server; And
An avatar display unit which displays the movement of the avatar on a screen based on the information on the movement of the avatar
Lt; / RTI >
The information on the movement of the avatar is extracted by searching the word database in which the server stores and maintains at least one word and at least one action tag associated with the at least one word by using a word included in the chat content. Corresponds to the specified action tag,
The information on the movement of the avatar, the user terminal, characterized in that transmitted to the user terminals of all users connected to the chat room.
제5항에 있어서,
상기 사용자단말기들 각각에서 상기 아바타의 움직임에 대한 정보에 기초하여 상기 아바타의 움직임이 화면에 재생되는 것을 특징으로 하는 사용자단말기.
The method of claim 5,
And the movement of the avatar is reproduced on the screen based on the information on the movement of the avatar in each of the user terminals.
제5항에 있어서,
상기 아바타 표시부는,
상기 채팅 내용에 기설정된 문자가 포함된 경우, 서로 다른 모양의 복수개의 말풍선 중 상기 기설정된 문자에 대응하는 말풍선을 상기 화면에 표시하고, 상기 표시된 말풍선 내에 상기 채팅 내용을 표시하는 것을 특징으로 하는 사용자단말기.
The method of claim 5,
The avatar display unit,
When the chat content includes a predetermined character, the user of the plurality of speech bubbles of different shapes, the speech bubble corresponding to the predetermined character is displayed on the screen, the user characterized in that to display the chat content in the displayed speech bubble terminal.
제5항에 있어서,
상기 아바타 표시부는,
서로 다른 모양의 복수개의 말풍선 중 상기 사용자에 의해 설정된 말풍선을 상기 화면에 표시되고, 상기 표시된 말풍선 내에 상기 채팅 내용을 표시하는 것을 특징으로 하는 사용자단말기.
The method of claim 5,
The avatar display unit,
The user terminal of the plurality of speech bubbles of different shapes is displayed by the user on the screen, the user characterized in that the chat content is displayed in the displayed speech bubble.
모바일 환경의 채팅 서비스에서 아바타를 제공하는 아바타 서비스 시스템이 수행하는 아바타 서비스 방법에 있어서,
채팅 스테이지에 접속된 사용자의 사용자단말기로부터 채팅 내용을 수신하는 단계;
상기 채팅 내용에 포함된 단어에 기초하여 단어 데이터베이스를 검색하여 대응하는 액션 태그를 추출하는 단계; 및
상기 액션 태그에 대응하는 아바타의 움직임에 대한 정보를 상기 채팅 스테이지에 접속된 모든 사용자들의 사용자단말기들로 전송하는 단계
를 포함하고,
상기 단어 데이터베이스에는 적어도 하나의 단어 및 상기 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 것을 특징으로 하는 아바타 서비스 방법.
In the avatar service method performed by the avatar service system for providing an avatar in a chat service in a mobile environment,
Receiving chat contents from a user terminal of a user connected to the chat stage;
Extracting a corresponding action tag by searching a word database based on the words included in the chat contents; And
Transmitting information about the movement of the avatar corresponding to the action tag to user terminals of all users connected to the chat stage;
Lt; / RTI >
At least one word and at least one action tag associated with the at least one word are stored and maintained in the word database.
제9항에 있어서,
상기 사용자단말기들 각각에서 상기 아바타의 움직임에 대한 정보에 기초하여 상기 아바타의 움직임이 화면에 재생되는 것을 특징으로 하는 아바타 서비스 방법.
10. The method of claim 9,
And the movement of the avatar is reproduced on the screen based on the information on the movement of the avatar in each of the user terminals.
제9항에 있어서,
상기 채팅 내용에 기설정된 문자가 포함된 경우, 서로 다른 모양의 복수개의 말풍선 중 상기 기설정된 문자에 대응하는 말풍선이 상기 사용자단말기의 화면에 표시되고, 상기 표시된 말풍선 내에 상기 채팅 내용이 표시되는 것을 특징으로 하는 아바타 서비스 방법.
10. The method of claim 9,
When the chat content includes a predetermined text, a speech bubble corresponding to the predetermined text among a plurality of speech bubbles having different shapes is displayed on the screen of the user terminal, and the chat content is displayed within the displayed speech bubble. Avatar service method.
제9항에 있어서,
서로 다른 모양의 복수개의 말풍선 중 상기 사용자단말기의 사용자에 의해 설정된 말풍선이 상기 사용자단말기의 화면에 표시되고, 상기 표시된 말풍선 내에 상기 채팅 내용이 표시되는 것을 특징으로 하는 아바타 서비스 방법.
10. The method of claim 9,
A speech bubble set by a user of the user terminal among a plurality of speech bubbles of different shapes is displayed on the screen of the user terminal, and the chat content is displayed in the displayed speech bubble.
모바일 환경의 채팅 서비스에서 아바타를 제공받는 사용자단말기가 수행하는 아바타 서비스 방법에 있어서,
채팅방에 접속된 상태에서 사용자에 의해 입력된 채팅 내용을 서버로 전송하는 단계;
상기 서버로부터 아바타의 움직임에 대한 정보를 수신하는 단계; 및
상기 아바타의 움직임에 대한 정보에 기초하여 상기 아바타의 움직임을 화면에 표시하는 단계
를 포함하고,
상기 아바타의 움직임에 대한 정보는, 상기 서버에서 상기 채팅 내용에 포함된 단어를 이용하여 적어도 하나의 단어 및 상기 적어도 하나의 단어와 연관된 적어도 하나의 액션 태그가 저장 및 유지되는 단어 데이터베이스를 검색하여 추출된 액션 태그에 대응되고,
상기 아바타의 움직임에 대한 정보는, 상기 채팅방에 접속된 모든 사용자들의 사용자단말기들로 전송되는 것을 특징으로 하는 아바타 서비스 방법.
In the avatar service method performed by a user terminal provided with an avatar in a chat service in a mobile environment,
Transmitting the chat contents input by the user while connected to the chat room to the server;
Receiving information about the movement of the avatar from the server; And
Displaying the movement of the avatar on the screen based on the information on the movement of the avatar
Lt; / RTI >
The information on the movement of the avatar is extracted by searching the word database in which the server stores and maintains at least one word and at least one action tag associated with the at least one word by using a word included in the chat content. Corresponds to the specified action tag,
Information on the movement of the avatar, the avatar service method, characterized in that transmitted to the user terminals of all users connected to the chat room.
제13항에 있어서,
상기 사용자단말기들 각각에서 상기 아바타의 움직임에 대한 정보에 기초하여 상기 아바타의 움직임이 화면에 재생되는 것을 특징으로 하는 아바타 서비스 방법.
The method of claim 13,
And the movement of the avatar is reproduced on the screen based on the information on the movement of the avatar in each of the user terminals.
제13항에 있어서,
상기 아바타의 움직임을 화면에 표시하는 단계는,
상기 채팅 내용에 기설정된 문자가 포함된 경우, 서로 다른 모양의 복수개의 말풍선 중 상기 기설정된 문자에 대응하는 말풍선을 상기 화면에 표시하고, 상기 표시된 말풍선 내에 상기 채팅 내용을 표시하는 것을 특징으로 하는 아바타 서비스 방법.
The method of claim 13,
Displaying the movement of the avatar on the screen,
When the chat content includes a predetermined text, the avatar corresponding to the predetermined text among the plurality of speech bubbles of different shapes on the screen, the avatar characterized in that to display the chat content in the displayed speech bubble Service method.
제13항에 있어서,
상기 아바타의 움직임을 화면에 표시하는 단계는,
서로 다른 모양의 복수개의 말풍선 중 상기 사용자에 의해 설정된 말풍선을 상기 화면에 표시되고, 상기 표시된 말풍선 내에 상기 채팅 내용을 표시하는 것을 특징으로 하는 아바타 서비스 방법.
The method of claim 13,
Displaying the movement of the avatar on the screen,
A speech service set by the user among a plurality of speech bubbles having different shapes is displayed on the screen, and the chat content is displayed within the displayed speech bubble.
제9항 내지 제16항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium storing a program for performing the method of any one of claims 9 to 16.
KR1020120008586A 2012-01-27 2012-01-27 System and method for controlling avatar based on chatting text in chatting service of mobile environment KR20130087315A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120008586A KR20130087315A (en) 2012-01-27 2012-01-27 System and method for controlling avatar based on chatting text in chatting service of mobile environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120008586A KR20130087315A (en) 2012-01-27 2012-01-27 System and method for controlling avatar based on chatting text in chatting service of mobile environment

Publications (1)

Publication Number Publication Date
KR20130087315A true KR20130087315A (en) 2013-08-06

Family

ID=49214190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120008586A KR20130087315A (en) 2012-01-27 2012-01-27 System and method for controlling avatar based on chatting text in chatting service of mobile environment

Country Status (1)

Country Link
KR (1) KR20130087315A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220126922A (en) 2021-03-10 2022-09-19 연세대학교 산학협력단 Apparatus and method for transmitting and receiving remote reality video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220126922A (en) 2021-03-10 2022-09-19 연세대학교 산학협력단 Apparatus and method for transmitting and receiving remote reality video

Similar Documents

Publication Publication Date Title
KR101907136B1 (en) System and method for avatar service through cable and wireless web
KR101951761B1 (en) System and method for providing avatar in service provided in mobile environment
US11688120B2 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
CN107294838B (en) Animation generation method, device and system for social application and terminal
US10097492B2 (en) Storage medium, communication terminal, and display method for enabling users to exchange messages
JP2018129085A (en) System and method for augmented and virtual reality
CN109885367B (en) Interactive chat implementation method, device, terminal and storage medium
WO2022093939A1 (en) Side-by-side character animation from realtime 3d body motion capture
US20230254449A1 (en) Information processing system, information processing method, information processing program
KR102079321B1 (en) System and method for avatar service through cable and wireless web
US20230345084A1 (en) System, method, and program for distributing video
JP2023143963A (en) Program, information processing method, and information processing device
US20230162433A1 (en) Information processing system, information processing method, and information processing program
KR102043137B1 (en) System and method for providing avatar in chatting service of mobile environment
JP7245890B1 (en) Information processing system, information processing method, information processing program
KR20130087315A (en) System and method for controlling avatar based on chatting text in chatting service of mobile environment
JP7281012B1 (en) Program, information processing method and information processing system
TWI574199B (en) The way to dynamically change its texture style based on the user's virtual pet
JP7050884B6 (en) Information processing system, information processing method, information processing program
US11544885B2 (en) Augmented reality experience based on physical items

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
E601 Decision to refuse application
E801 Decision on dismissal of amendment