KR101719742B1 - Method and apparatus for mobile messenger service by using avatar - Google Patents

Method and apparatus for mobile messenger service by using avatar Download PDF

Info

Publication number
KR101719742B1
KR101719742B1 KR1020150143570A KR20150143570A KR101719742B1 KR 101719742 B1 KR101719742 B1 KR 101719742B1 KR 1020150143570 A KR1020150143570 A KR 1020150143570A KR 20150143570 A KR20150143570 A KR 20150143570A KR 101719742 B1 KR101719742 B1 KR 101719742B1
Authority
KR
South Korea
Prior art keywords
user
avatar
message
state
emotion
Prior art date
Application number
KR1020150143570A
Other languages
Korean (ko)
Inventor
최재진
Original Assignee
주식회사 아크스튜디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아크스튜디오 filed Critical 주식회사 아크스튜디오
Priority to KR1020150143570A priority Critical patent/KR101719742B1/en
Application granted granted Critical
Publication of KR101719742B1 publication Critical patent/KR101719742B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06F17/271
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • H04M1/72544
    • H04M1/72552

Abstract

Disclosed are a method and a device for a mobile messenger service by using an avatar. The method for the mobile messenger service by using the avatar comprises: a step of receiving avatar setting information to determine the avatar of a user from a user device; a step of determining the emotional state of the user by parsing a message inputted from the user device; and a step of determining the operation of the avatar based on the emotional state of the user.

Description

아바타를 사용한 모바일 메신저 서비스 방법 및 장치{Method and apparatus for mobile messenger service by using avatar}TECHNICAL FIELD The present invention relates to a method and apparatus for mobile messenger service using an avatar,

본 발명은 메신저 서비스 방법 및 장치에 관한 것으로서, 보다 상세하게는, 아바타를 사용한 모바일 메신저 서비스 방법 및 장치에 관한 것이다.The present invention relates to a messenger service method and apparatus, and more particularly, to a mobile messenger service method and apparatus using an avatar.

인터넷 상에서 인스턴트 메신저 서비스를 이용한 다양한 메시지 송신 및 수신이 수행되고 있다. 인스턴트 메신저는 네트워크 상에서 다양한 콘텐츠를 유통시키고 커뮤니케이션이 가능한 상대와 실시간으로 대화(전화/채팅/파일 전송 등)을 수행할 수 있는 도구로서 PC(personal computer), 사용자의 모바일 장치 등에 설치될 수 있다.Various message transmission and reception using an instant messenger service are performed on the Internet. The instant messenger can be installed in a personal computer (PC), a mobile device of a user, or the like as a tool for distributing various contents on a network and realizing conversation (phone / chat / file transfer, etc.)

메신저 서비스를 이용하고자 하는 경우, 메신저 서비스 업체의 서버에서 메신저 관련 소프트웨어(또는 어플리케이션)을 다운로드하여 누구나 손쉽게 이용할 수 있다. 메신저 서비스는 초기에만 해도 커뮤니케이션 수단으로 인기를 끌었으나, 최근에는 메신저 서비스를 업무용으로 활용하는 기업도 많이 증가하고 있다. 메신저는 크게 실시간 메시지 전송, 파일 보내기, 콘텐츠 서비스, 멀티미디어 커뮤니케이션, 무선 메시지 보내기, 게임 등의 서비스를 제공하고 있다. 이러한 기본적인 메신저의 기능 외에도 여러 사이트에서 경쟁적으로 각각의 차별화된 서비스가 선보이고 있다. If you want to use messenger service, you can download Messenger related software (or application) from the messenger service company's server and use it easily. Although the messenger service initially became popular as a means of communication, in recent years, there have also been a growing number of companies using messenger services for business purposes. Messenger provides services such as real time message transmission, file sending, content service, multimedia communication, wireless message sending, and game. In addition to these basic messenger features, several different sites offer competitive differentiated services.

이러한 메신저의 기본적인 목적은 메시지의 전달에 있다. 많은 메신저 서비스를 제공하는 업체에서는 사용자의 메시지 전달을 보다 효과적으로 하기 위한 방법에 대해 많은 연구를 하고 있다.The primary purpose of these messengers is in the delivery of messages. Many instant messaging providers are doing a lot of research on how to make their messaging more effective.

KR 10-2004-0061475KR 10-2004-0061475

본 발명의 일 측면은 아바타를 사용한 모바일 메신저 서비스 방법을 제공한다.One aspect of the present invention provides a mobile messenger service method using an avatar.

본 발명의 다른 측면은 아바타를 사용한 모바일 메신저 서비스 장치를 제공한다.Another aspect of the present invention provides a mobile messenger service apparatus using an avatar.

본 발명의 일 측면에 따른 아바타를 사용한 모바일 메신저 서비스 방법은 사용자 장치로부터 사용자의 아바타를 결정하기 위한 아바타 설정 정보를 수신하는 단계, 상기 사용자 장치로부터 입력된 메시지를 구문 분석하여 상기 사용자의 감정 상태를 결정하는 단계와 상기 사용자의 감정 상태를 기반으로 상기 아바타의 동작을 결정하는 단계를 포함할 수 있다. A mobile messenger service method using an avatar according to an aspect of the present invention includes receiving avatar setting information for determining a user avatar from a user device, parsing a message input from the user device, And determining an operation of the avatar based on the emotion state of the user.

한편, 아바타를 사용한 모바일 메신저 서비스 방법은 상기 사용자 장치로부터 상기 사용자의 터치/모션에 따른 아바타의 동작 설정 정보를 수신하는 단계, 상기 사용자 장치로부터 입력된 터치/모션 정보를 수신하는 단계와 상기 동작 설정 정보 및 상기 터치/모션 정보를 기반으로 상기 아바타의 동작을 결정하는 단계를 더 포함할 수 있다.Meanwhile, the mobile messenger service method using an avatar includes receiving operational setting information of an avatar according to a touch / motion of the user from the user device, receiving the touch / motion information input from the user device, And determining the operation of the avatar based on the information and the touch / motion information.

또한, 아바타를 사용한 모바일 메신저 서비스 방법은 상기 사용자 장치로부터 상기 사용자의 대화 상대방의 아바타의 리액션 동작을 요청하는 리액션 요청 정보를 수신하는 단계, 상기 리액션 요청 정보를 기반으로 상기 대화 상대방의 아바타의 리액션 동작을 제어하는 단계를 더 포함할 수 있되, 상기 리액션 요청 정보는 상기 사용자의 상기 대화 상대방의 아바타에 대한 터치/모션에 의해 생성될 수 있다.The mobile messenger service method using an avatar may further include receiving reaction request information requesting a reaction operation of an avatar of the user's chatting partner from the user device, receiving a reaction action request of the avatar of the chatting partner based on the reaction request information, And the reaction request information may be generated by touch / motion of the avatar of the conversation partner of the user.

또한, 상기 사용자의 상기 아바타의 상기 동작은 상기 사용자의 주된 감정 상태를 반영하여 결정되고, 상기 주된 감정 상태에 따라 상기 동작의 표현 강도가 결정될 수 있다.Further, the operation of the avatar of the user is determined by reflecting the main emotional state of the user, and the expression intensity of the operation may be determined according to the main emotional state.

또한, 상기 주된 감정 상태는 상기 구문 분석을 기반으로 결정되고, 상기 구문 분석은 상기 입력된 메시지에 포함된 주체 정보, 상기 입력된 메시지에 포함된 감정 상태 표현 정보, 상기 입력된 메시지에 포함된 시간 정보, 상기 입력된 메시지에 포함된 감정 상태의 원인에 대한 정보에 대한 분석을 수행할 수 있다.In addition, the main emotion state is determined based on the syntax analysis, and the syntax analysis includes subject information included in the input message, emotion state expression information included in the input message, time included in the input message Information on the cause of the emotion state included in the input message, and information on the cause of the emotion state included in the input message.

본 발명의 다른 측면에 따른 아바타를 사용한 모바일 메신저 서비스 장치에 있어서, 상기 모바일 메신저 서비스 장치는 프로세서를 포함하고, 상기 프로세서는 사용자 장치로부터 사용자의 아바타를 결정하기 위한 아바타 설정 정보를 수신하고, 상기 사용자 장치로부터 입력된 메시지를 구문 분석하여 상기 사용자의 감정 상태를 결정하고, 상기 사용자의 감정 상태를 기반으로 상기 아바타의 동작을 결정하도록 구현될 수 있다.In the mobile messenger service apparatus using an avatar according to another aspect of the present invention, the mobile messenger service apparatus includes a processor, and the processor receives avatar setting information for determining a user avatar from the user apparatus, An emotion state of the user is parsed by parsing a message input from the device, and the operation of the avatar is determined based on the emotion state of the user.

한편, 상기 프로세서는 상기 사용자 장치로부터 상기 사용자의 터치/모션에 따른 아바타의 동작 설정 정보를 수신하고, 상기 사용자 장치로부터 입력된 터치/모션 정보를 수신하고, 상기 동작 설정 정보 및 상기 터치/모션 정보를 기반으로 상기 아바타의 동작을 결정하도록 구현될 수 있다.The processor receives the operation setting information of the avatar according to the user's touch / motion from the user device, receives the touch / motion information input from the user device, and receives the operation setting information and the touch / motion information To determine the operation of the avatar.

또한, 상기 프로세서는 상기 사용자 장치로부터 상기 사용자의 대화 상대방의 아바타의 리액션 동작을 요청하는 리액션 요청 정보를 수신하고, 상기 리액션 요청 정보를 기반으로 상기 대화 상대방의 아바타의 리액션 동작을 제어하도록 구현될 수 있되, 상기 리액션 요청 정보는 상기 사용자의 상기 대화 상대방의 아바타에 대한 터치/모션에 의해 생성될 수 있다.The processor may be configured to receive reaction request information requesting a reaction operation of an avatar of the user's chatting party from the user device and to control a reaction operation of the avatar of the chatting party based on the reaction request information The reaction request information may be generated by touch / motion with respect to the avatar of the conversation partner of the user.

또한, 상기 사용자의 상기 아바타의 상기 동작은 상기 사용자의 주된 감정 상태를 반영하여 결정되고, 상기 주된 감정 상태에 따라 상기 동작의 표현 강도가 결정될 수 있다.Further, the operation of the avatar of the user is determined by reflecting the main emotional state of the user, and the expression intensity of the operation may be determined according to the main emotional state.

또한, 상기 주된 감정 상태는 상기 구문 분석을 기반으로 결정되고, 상기 구문 분석은 상기 입력된 메시지에 포함된 주체 정보, 상기 입력된 메시지에 포함된 감정 상태 표현 정보, 상기 입력된 메시지에 포함된 시간 정보, 상기 입력된 메시지에 포함된 감정 상태의 원인에 대한 정보에 대한 분석을 수행할 수 있다.In addition, the main emotion state is determined based on the syntax analysis, and the syntax analysis includes subject information included in the input message, emotion state expression information included in the input message, time included in the input message Information on the cause of the emotion state included in the input message, and information on the cause of the emotion state included in the input message.

본 발명의 실시예에 따른 아바타를 사용한 모바일 메신저 서비스 방법 및 장치는 사용자의 니즈에 부합하는 진보된 모바일 메신저 플렛폼 구현하고, 3D 아바타를 기반으로 대화 상대에게 다양한 감정 표현을 쉽게 전달하며 재미있게 연출 가능할 수 있다. 또한, 3D 아바타와 코스튬, 그리고 동작 애니메이션 판매를 활용한 메신저 서비스에서 수익 창출이 가능할 수 있다.The mobile messenger service method and apparatus using the avatar according to the embodiment of the present invention can realize an advanced mobile messenger platform that meets the needs of the user and easily transmit various emotional expressions to the conversation partner based on the 3D avatar, have. In addition, it may be possible to generate revenue from messenger services that use 3D avatars, costumes, and motion animation sales.

도 1은 본 발명의 실시예에 따른 메신저 서비스를 나타낸 개념도이다.
도 2는 본 발명의 실시예에 따른 3D 아바타 설정 방법을 나타낸 개념도이다.
도 3은 본 발명의 실시예에 따른 사용자의 터치/모션 인식을 통한 3D 아바타의 제어 방법을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 사용자의 터치/모션 인식을 통한 3D 아바타의 제어 방법을 나타낸 개념도이다.
도 5는 본 발명의 실시예에 따른 대화 내용 분석을 통한 3D 아바타의 동작 제어 방법을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 대화 내용 분석을 통한 3D 아바타의 동작 제어 방법을 나타낸 개념도이다.
도 7은 본 발명의 실시예에 따른 사용자의 주된 감정 상태를 결정하는 방법을 나타낸 개념도이다.
도 8은 본 발명의 실시예에 따른 3D 아바타의 리액션 방법을 나타낸 개념도이다.
도 9는 본 발명의 실시예에 따른 3D 아바타 메신저 서비스 장치를 나타낸 개념도이다.
1 is a conceptual diagram illustrating a messenger service according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a 3D avatar setting method according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a method of controlling a 3D avatar through a touch / motion recognition of a user according to an embodiment of the present invention.
4 is a conceptual diagram illustrating a method of controlling a 3D avatar through touch / motion recognition of a user according to an embodiment of the present invention.
5 is a conceptual diagram illustrating a method of controlling an operation of a 3D avatar through analysis of conversation contents according to an embodiment of the present invention.
6 is a conceptual diagram illustrating a method for controlling the operation of a 3D avatar through analysis of conversation contents according to an embodiment of the present invention.
7 is a conceptual diagram illustrating a method for determining a user's main emotional state according to an embodiment of the present invention.
8 is a conceptual diagram illustrating a reaction method of a 3D avatar according to an embodiment of the present invention.
9 is a conceptual diagram illustrating a 3D avatar messenger service apparatus according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조 부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

기존의 메신저 서비스는 아래와 같은 특성을 가질 수 있다. The existing messenger service can have the following characteristics.

기존의 많은 메신저 서비스의 인터페이스는 대화 내용과 대화 상대 정보 그리고 입력 창과 스티커(이모티콘) 선택 창으로 구성된다.Many existing messenger service interfaces consist of conversation contents, contact information, input window and sticker (emoticon) selection window.

대화 상대방에 의해 입력된 대화 내용은 화면의 왼쪽에 위치하고, 사용자에 의해 입력된 대화 내용은 화면의 오른쪽에 위치할 수 있다.The conversation contents input by the conversation partner are located on the left side of the screen, and the conversation contents input by the user can be located on the right side of the screen.

메신저 서비스에 따라 대화 상대방과 대화를 나눈 시간(또는 날짜)이 화면 상에 표시될 수 있고, 대화 상대방에 의해 자신이 전송한 메시지가 읽혔는지 여부를 표시하는 지시자가 화면 상에 표시될 수 있다. The time (or date) of conversation with the conversation partner according to the messenger service can be displayed on the screen, and an indicator for indicating whether or not the message transmitted by the conversation partner has been read can be displayed on the screen.

대화 상대방의 정보는 대화 상대방의 이름이나(상대방의 닉네임)으로 표시되고 대화 프로그램에 등록된 아이콘이나 사진이 표시될 수도 있다. The information of the conversation partner may be displayed as the name of the conversation partner (nickname of the partner) or an icon or picture registered in the conversation program.

사용자는 자신의 상태나 감정을 표현할 수 있는 이모티콘과 GIF(graphic interface format) 애니메이션을 제공하여 대화의 재미와 몰입도를 증가시킬 수 있다. The user can increase the fun and immersiveness of the conversation by providing emoticons and graphic interface format (GIF) animation that can express their own state or emotion.

모바일 플랫폼에서 제공하는 기본 아이콘이나, 메신저 플랫폼에서 제공되는 이미지와 GIF 애니메이션만으로는 사용자의 다양한 감정을 역동감있게 표현하기 어렵다. 사용자의 모바일 장치(예를 들어, 스마트폰)의 하드웨어 스펙이 향상됨에 따라 다양한 커뮤니케이션 방법이 메신저 서비스에서 활용될 수 있다. 따라서, 메신저 서비스가 단순히 메시지를 전달하는 목적이 아니라 하나의 일상 생활에 자리 잡은 사용자 간의 소통의 툴로서 활용되기 위해 사람 간의 감정의 소통이라는 메신저의 기본 기능을 한 단계 향상시킬 필요가 있다.It is difficult to express various emotions of the user in a dynamic manner only by the basic icons provided by the mobile platform or the images and GIF animation provided by the messenger platform. As the hardware specification of a user's mobile device (e.g., a smartphone) is improved, various communication methods can be utilized in the messenger service. Therefore, it is necessary to improve the basic function of the messenger, which is the communication of the emotions among the people, in order to utilize the messenger service as a tool of communication among the users who are settled in a daily life rather than simply for the purpose of delivering the message.

본 발명의 실시예에서는 메신저 서비스 상에서 사용자를 대신한 아바타(또는 3D 아바타)를 기반으로 사용자의 감정과 상태를 실시간으로 대화 상대방에게 전송하기 위한 방법이 개시된다. 다중 터치 인터페이스와 감정 분석 방법을 기반으로 사용자의 3D 아바타가 사용자의 감정과 상태를 표현함으로써 메신저를 통한 커뮤니케이션의 한계를 극복할 수 있다. 이하, 아바타는 3D(dimension) 아바타를 가정하나 3D 아바타가 아닌 사용자를 대신하는 객체를 포함하는 의미로 사용될 수 있다. 또한, 이하, 본 발명의 실시예에서는 사용자 장치에 설치된 메신저 어플리케이션을 통해 메신저 서비스가 제공되는 것이 가정된다.A method for transmitting emotion and status of a user to a conversation partner in real time based on an avatar (or a 3D avatar) on behalf of a user on a messenger service is disclosed in an embodiment of the present invention. Based on the multi-touch interface and the emotion analysis method, the 3D avatar of the user expresses the emotion and the state of the user, thereby overcoming the limitation of communication through the messenger. Hereinafter, an avatar may be used to mean an object that is a 3D avatar but a 3D avatar instead of a user. Hereinafter, it is assumed that a messenger service is provided through a messenger application installed in a user device in the embodiment of the present invention.

도 1은 본 발명의 실시예에 따른 메신저 서비스를 나타낸 개념도이다.1 is a conceptual diagram illustrating a messenger service according to an embodiment of the present invention.

도 1에서는 본 발명의 실시예에 따른 3D 아바타 기반의 메신저 서비스(이하, 3D 아바타 메신저 서비스)의 제공 화면이 개시된다.1, a 3D avatar-based messenger service (hereinafter referred to as 3D avatar messenger service) providing screen according to an embodiment of the present invention is disclosed.

메신저 서비스 장치는 사용자의 3D 아바타 및 사용자의 대화 상대방의 3D 아바타를 제공할 수 있다. 또한, 메신저 서비스 장치는 사용자에 의한 사용자 장치에 대한 터치 및/또는 제스처(또는 사용자의 모션)를 인식하고 인식된 터치 및 모션에 대응된 동작이 사용자의 3D 아바타를 통해 수행되도록 사용자의 3D 아바타를 제어할 수 있다.The messenger service device can provide a 3D avatar of the user and a 3D avatar of the user's conversation partner. In addition, the messenger service device recognizes the touch and / or gesture (or the user's motion) with respect to the user device by the user and recognizes the 3D avatar of the user so that the operation corresponding to the recognized touch and motion is performed through the 3D avatar of the user Can be controlled.

이뿐만 아니라 메신저 서비스 장치는 사용자와 사용자의 대화 상대방의 대화 내용을 분석하여 사용자의 감정 상태를 결정하고, 사용자의 감정 상태에 대응되는 동작이 아바타를 통해 수행되도록 아바타를 제어할 수 있다.In addition to this, the messenger service apparatus can analyze the conversation contents of the conversation partner of the user and the user to determine the emotion state of the user, and control the avatar so that the operation corresponding to the emotion state of the user is performed through the avatar.

구체적으로 3D 메신저 서비스에서 사용자의 대화 환경은 대화 내용 영역, 3D 아바타 영역 및 대화 입력창 영역을 포함할 수 있다. Specifically, the user's interactive environment in the 3D messenger service may include a dialogue content area, a 3D avatar area, and a dialogue input window area.

대화 내용 영역(100)에서는 기존에 사용자와 상대방 간의 메시지 송신 및 수신 내역(또는 대화 내용)이 출력될 수 있다. In the conversation contents area 100, message transmission and reception details (or conversation contents) between the user and the other party can be outputted.

대화 입력 영역(120)에서는 사용자의 새로운 메시지(또는 대화)가 입력될 수 있다. In the dialogue input area 120, a new message (or conversation) of the user may be input.

3D 아바타 영역(140)에서는 사용자의 3D 아바타와 대화 상대방의 3D 아바타가 표시될 수 있다. 사용자의 3D 아바타는 사용자에 의한 터치 또는 모션을 반영한 동작 및 사용자의 메시지 및 사용자와 대화 상대방 간의 메시지 송신 및 수신 내역을 분석하여 다양한 감정 표현이나 액션을 수행할 수 있다. 예를 들어, 희로애락의 감정 표현, 애정 표현, 격투 등 다양한 감정 표현 및 동작이 3D 아바타에 의해 수행될 수 있다. In the 3D avatar area 140, a 3D avatar of a user and a 3D avatar of a conversation partner can be displayed. The 3D avatar of the user can perform various emotional expressions or actions by analyzing the operation reflecting the touch or motion by the user, the message of the user, and the transmission and reception of messages between the user and the conversation partner. For example, a variety of emotional expressions and behaviors such as emotional expressions of emotion, affection expression, and fighting can be performed by the 3D avatar.

사용자는 3D 아바타를 변경할 수 있으며 3D 아바타 메신저 서비스에서 제공하는 온라인 상점을 통해 3D 아바타의 옷이나 애니메이션을 구매하여 자신의 3D 아바타를 연출할 수 있다. The user can change the 3D avatar and purchase 3D avatar clothing or animation through the online shop provided by the 3D avatar messenger service to produce his or her 3D avatar.

도 2는 본 발명의 실시예에 따른 3D 아바타 설정 방법을 나타낸 개념도이다.2 is a conceptual diagram illustrating a 3D avatar setting method according to an embodiment of the present invention.

도 2에서는 사용자의 3D 아바타 설정 방법이 개시된다. In Fig. 2, a 3D avatar setting method of a user is disclosed.

도 2를 참조하면, 사용자는 캐릭터 설정 단계를 통해 자신의 3D 아바타를 선택할 수 있다.Referring to FIG. 2, the user can select his / her 3D avatar through the character setting step.

캐릭터 설정 단계를 통해 캐릭터가 선택된 경우, 패션 아이템 구매 단계를 통해 선택된 3D 아바타의 패션 아이템을 구매할 수 있다. 예를 들어, 사용자는 3D 아바타의 옷, 헤어, 신발 등과 같은 3D 아바타를 꾸미기 위한 다양한 패션 아이템을 패션 아이템 구매 단계를 통해 구매할 수 있다.If the character is selected through the character setting step, the fashion item of the 3D avatar selected through the fashion item purchasing step can be purchased. For example, a user can purchase various fashion items for decorating a 3D avatar such as clothes, hair, shoes, etc. of a 3D avatar through a fashion item purchasing step.

패션 아이템 구매 단계를 통해 패션 아이템이 선택된 이후, 모션 아이템 구매 단계를 통해 3D 아바타의 모션 아이템을 구매할 수 있다. 예를 들어, 사용자는 3D 아바타의 다양한 동작을 위한 모션 아이템을 모션 아이템 구매 단계를 통해 구매할 수 있다. After the fashion item is selected through the fashion item purchasing step, the 3D avatar's motion item can be purchased through the purchase of the motion item. For example, the user can purchase motion items for various operations of the 3D avatar through the motion item purchasing step.

도 3은 본 발명의 실시예에 따른 사용자의 터치/모션 인식을 통한 3D 아바타의 제어 방법을 나타낸 개념도이다.3 is a conceptual diagram illustrating a method of controlling a 3D avatar through a touch / motion recognition of a user according to an embodiment of the present invention.

도 3에서는 사용자의 터치/모션 인식을 통한 3D 아바타의 제어가 개시된다. 3, the control of the 3D avatar through the touch / motion recognition of the user is started.

도 3을 참조하면, 사용자는 사용자 장치에 구현된 터치/모션 인식을 위한 터치 인식 인터페이스(예를 들어, 터치 스크린)을 통해 터치/모션을 입력할 수 있다.Referring to FIG. 3, a user can input a touch / motion through a touch recognition interface (for example, a touch screen) for touch / motion recognition implemented in a user device.

예를 들어, 사용자는 터치 동작, 슬라이드 동작, 줌 동작뿐만 아니라, 별, 하트와 같은 특정 도형을 터치/모션 인식 인터페이스로 입력시킴으로써 3D 아바타를 동작시킬 수 있다.For example, a user can operate a 3D avatar by inputting not only a touch operation, a slide operation, and a zoom operation, but also a specific graphic such as a star or a heart to a touch / motion recognition interface.

사용자에 입력된 터치/모션 정보는 터치/모션 입력 정보로서 사용자 장치로 입력될 수 있고, 사용자의 3D 아바타는 터치/모션 입력 정보에 따라 동작할 수 있다.The touch / motion information input to the user may be input to the user device as touch / motion input information, and the 3D avatar of the user may operate according to the touch / motion input information.

또는 사용자에 입력된 터치/모션 정보는 터치/모션 입력 정보로서 메신저 서비스 서버로 입력될 수 있고, 메신저 서비스 서버는 3D 아바타의 제어 정보를 사용자 장치로 전송하여 사용자의 3D 아바타의 동작을 제어할 수 있다. Alternatively, the touch / motion information input to the user may be input to the messenger service server as touch / motion input information, and the messenger service server may transmit control information of the 3D avatar to the user device to control the operation of the user's 3D avatar have.

예를 들어, 사용자는 사용자의 3D 아바타를 터치하고 대화 상대방으로 스윕하는 모션을 수행할 수 있고, 이러한 경우, 사용자의 3D 아바타가 대화 상대방의 3D 아바타로 돌진할 수 있다. For example, the user can touch the 3D avatar of the user and perform the motion of sweeping to the conversation partner, and in this case, the 3D avatar of the user can rush to the 3D avatar of the conversation partner.

도 4는 본 발명의 실시예에 따른 사용자의 터치/모션 인식을 통한 3D 아바타의 제어 방법을 나타낸 개념도이다.4 is a conceptual diagram illustrating a method of controlling a 3D avatar through touch / motion recognition of a user according to an embodiment of the present invention.

도 4에서는 사용자의 사용자 장치에 수행한 모션을 기반으로 한 3D 아바타의 제어가 개시된다. 4, the control of the 3D avatar based on the motion performed by the user device of the user is started.

도 4의 (A)를 참조하면, 사용자는 하트를 터치/모션 인식 인터페이스로 입력할 수 있다. 전술한 바와 같이 이러한 사용자의 하트를 그리는 모션은 입력된 터치/모션 정보로 생성될 수 있고, 사용자 장치 또는 메신저 서비스 장치는 사용자의 3D 아바타의 동작을 제어할 수 있다.Referring to FIG. 4 (A), the user can input the heart to the touch / motion recognition interface. As described above, the motion of drawing the heart of the user can be generated as the inputted touch / motion information, and the user device or the messenger service device can control the operation of the user's 3D avatar.

사용자의 하트를 그리는 모션을 기반으로 사용자의 3D 아바타는 대화 상대방의 3D 아바타와 키스를 할 수 있다. Based on the motion of the user's heart drawing, the user's 3D avatar can kiss the 3D avatar of the other party.

도 4의 (B)를 참조하면, 사용자는 대화 상대방의 3D 아바타에 대한 터치를 할 수 있다. 예를 들어, 사용자의 3D 아바타를 일시 퇴장시키거나 특정한 동작 설정을 통해 입력되는 터치/모션 신호가 대화 상대방의 3D 아바타의 제어를 위한 신호임을 설정하여 상대방의 3D 아바타에 대한 터치를 수행할 수 있다. 사용자가 상대방의 3D 아바타를 터치하는 경우, 대화 상대방의 3D 아바타는 사용자의 터치/모션에 따라 리액션을 수행할 수 있다.Referring to FIG. 4B, the user can touch the 3D avatar of the conversation partner. For example, the 3D avatar of the user may be temporarily exited, or a touch / motion signal inputted through a specific operation setting may be a signal for controlling the 3D avatar of the conversation partner, thereby performing a touch on the 3D avatar of the other party . When the user touches the 3D avatar of the other party, the 3D avatar of the conversation partner can perform the reaction according to the user's touch / motion.

즉, 사용자가 대화 상대방의 3D 아바타를 제어하여 대화 상대방의 3D 아바타의 리액션을 유도할 수 있다. 사용자의 3D 아바타의 모션에 따른 대화 상대방의 3D 아바타의 리액션은 대화 분위기 전달과 사용자 간의 친밀도를 높일 수 있다.That is, the user can control the 3D avatar of the conversation partner to induce the reaction of the 3D avatar of the conversation partner. The reaction of the 3D avatar of the conversation partner according to the motion of the 3D avatar of the user can increase the intimacy between the user and the conversation atmosphere.

즉, 본 발명의 실시예에 따른 메신저 서비스는 단순한 이모티콘의 전송이 아닌 3D 아바타의 액션이 사용자의 터치/모션 인식을 기반으로 수행되고, 사용자의 대화 상대방의 3D 아바타의 제어가 가능함으로써 기존의 메신저 서비스의 한계가 극복될 수 있다. That is, in the messenger service according to the embodiment of the present invention, the action of the 3D avatar is performed based on the touch / motion recognition of the user rather than the transmission of the emoticon, and the 3D avatar of the user of the user can be controlled, Service limitations can be overcome.

도 5는 본 발명의 실시예에 따른 대화 내용 분석을 통한 3D 아바타의 동작 제어 방법을 나타낸 개념도이다. 5 is a conceptual diagram illustrating a method of controlling an operation of a 3D avatar through analysis of conversation contents according to an embodiment of the present invention.

도 5에서는 사용자와 대화 상대방 간의 대화 내용(또는 송신/수신되는 메시지)를 분석하고 대화 내용을 기반으로 사용자의 3D 아바타 및 대화 상대방의 3D 아바타를 제어하는 방법이 개시된다. 5 illustrates a method of analyzing conversation contents (or a transmitted / received message) between a user and a conversation partner and controlling the 3D avatar of the user and the 3D avatar of the conversation partner based on the conversation contents.

도 5를 참조하면, 사용자와 대화 상대방에 의해 입력되는 메시지는 구문 분석부(500)를 통해 분석될 수 있다. 구문 분석부(500)는 대화 내용에서 주체, 감정 표현 단어, 그 외의 시간 관련 단어, 감정 표현의 원인과 관련된 단어, 구/절 등과 같은 메시지 내의 문장 구성 성분을 분석할 수 있다. 구문 분석부(500)에 의해 분석된 문장 성분을 기반으로 감정 상태 판단부(550)에 의해 사용자의 감정 상태가 판단되어 3D 아바타의 감정 표현/동작이 자동적으로 제어될 수 있다.Referring to FIG. 5, a message input by a user and a conversation partner may be analyzed through the parsing unit 500. The parsing unit 500 can analyze the sentence components in the message such as subject, emotional expression word, other time related words, words related to the cause of emotional expression, phrases / phrases, etc. in the conversation contents. The emotion state determining unit 550 may determine the emotion state of the user based on the sentence component analyzed by the parsing unit 500 so that the emotion expression / operation of the 3D avatar may be automatically controlled.

이러한 대화 내용에 대한 구분 분석/감정 상태 판단은 3D 아바타 메신저 어플리케이션이 설치된 사용자 장치에 의해 수행되거나 3D 아바타 메신저 서비스 장치에 의해 수행될 수 있다.The division analysis / emotion state judgment for the conversation contents can be performed by the user apparatus having the 3D avatar messenger application installed or by the 3D avatar messenger service apparatus.

예를 들어, ‘하하’ ‘ㅋㅋ’ ‘^^’ 등과 같이 웃음 동작과 매칭될 수 있는 통상적인 단어들이 사용자의 대화 내용(또는 메시지) 내에 존재하는지 여부가 구문 분석부(500)에 의해 판단하고, 해당 동작과 매칭되는 단어가 존재하는 경우, 감정 상태 판단부(550)는 사용자의 감정 상태를 즐거움으로 판단하고 사용자의 3D 아바타가 대화 내용과 매칭되는 동작을 수행하도록 사용자의 3D 아바타를 제어할 수 있다. For example, the syntax analysis unit 500 determines whether typical words that can be matched with the laughing operation such as 'haha' 'keke' '^^' exist in the user's conversation content (or message) , The emotion state determining unit 550 determines that the emotion state of the user is pleasant and controls the 3D avatar of the user so that the 3D avatar of the user matches the conversation contents .

또 다른 예를 들어, 구문 분석부(500)는 ‘슬픔’ ‘ㅜㅜ’ 등과 같은 우는 동작과 매칭될 수 있는 통상적인 단어들이 사용자의 대화 내용(또는 메시지) 내에 존재하는지 여부를 판단하고, 해당 동작과 매칭되는 단어가 존재하는 경우, 감정 상태 판단부(550)는 사용자의 감정 상태를 슬픔으로 판단하고 사용자의 3D 아바타가 대화 내용과 매칭되는 동작을 수행하도록 제어할 수 있다.For example, the parsing unit 500 may determine whether common words that can be matched with a crying operation such as' sadness', 't' ', etc. exist in the user's conversation content (or message) The emotion state determination unit 550 may determine that the emotion state of the user is sad and control that the 3D avatar of the user matches the conversation contents.

이러한 3D 아바타의 웃음 동작과 우는 동작은 복수의 단계로 구현될 수 있다. The laughing and crying operations of the 3D avatar can be implemented in a plurality of steps.

예를 들어, 3D 아바타는 즐거움의 강도에 따라 1단계 웃음 동작 내지 5단계 웃음 동작을 수행할 수 있다. 또한, 3D 아바타는 슬픔의 강도에 따라 1단계 울음 동작 내지 5단계 울음 동작을 수행할 수 있다. 높은 단계의 동작일수록 더욱 강력한 감정이 표현될 수 있다.For example, the 3D avatar can perform the first stage laughing operation or the fifth stage laughing operation according to the intensity of the enjoyment. In addition, the 3D avatar can perform the first stage crying operation or the fifth crying operation according to the intensity of the sadness. The higher the level of action, the more powerful emotions can be expressed.

3D 아바타는 감정의 정도에 따라 위와 같은 웃음 동작(또는 기쁨 동작), 우는 동작(또는 슬픔 동작)의 정도가 다를 수 있다. 예를 들어, 웃음 동작과 매칭될 수 있는 통상적인 단어들의 문장 내의 빈도를 고려하여, 웃음 동작과 매칭될 수 있는 통상적인 단어들의 문장 내의 빈도가 높을수록 3D 아바타는 좀 더 높은 단계의 웃음 동작을 수행하여 보다 강한 즐거움을 표현할 수 있다. 또 다른 예를 들어, 우는 동작과 매칭될 수 있는 통상적인 단어들의 문장 내의 빈도를 고려하여, 우는 동작과 매칭될 수 있는 통상적인 단어들의 문장 내의 빈도가 높을수록 3D 아바타는 좀 더 강도가 높은 단계의 우는 동작을 수행하여 보다 강한 슬픔을 표현할 수 있다.3D avatar may have different degrees of laughter (or pleasure) and crying (or sadness) depending on the degree of emotion. For example, considering the frequency in the sentences of common words that can be matched with the laughing action, the higher the frequency in the sentence of the common words that can be matched with the laughing action, the more the 3D avatar will perform the higher level laughing Can be performed to express stronger joy. As another example, considering the frequency in the sentences of common words that can be matched with the crying operation, the higher the frequency in the sentences of common words that can be matched with the crying operation, the more the 3D avatar Can perform the crying motion of the sadness to express more sadness.

또한, 본 발명의 실시예에 따른 구문 분석은 사용자에 따라 적응적으로 수행될 수 있다.In addition, the syntax analysis according to the embodiment of the present invention can be performed adaptively according to the user.

예를 들어, 사용자A의 경우, ‘ㅋㅋ’와 같은 웃음 동작과 매칭되는 표현을 메시지에 일상적으로 포함시키고, 사용자A의 경우, ‘ㅋㅋ’와 같은 웃음 동작과 매칭되는 표현을 메시지에 일상적으로 포함시키지 않는 경우가 가정될 수 있다.For example, in the case of the user A, the message is regularly included in the message, which matches with the laughing operation such as' ㅋㅋ ', and in the case of the user A, the message is matched with the laughing operation such as' Can be assumed.

이러한 경우, 사용자A 및 사용자B의 메시지에 동일하게 ‘ㅋㅋㅋㅋ’라는 표현이 포함되는 경우, 사용자 B의 3D 아바타의 웃음 동작의 단계가 사용자 A의 3D 아바타의 웃음 동작의 단계보다 높도록 구현될 수 있다.In such a case, when the messages of the user A and the user B include the expression 'blah blah' in the message, the stage of the laughing operation of the 3D avatar of the user B is implemented to be higher than the stage of the laughing operation of the 3D avatar of the user A .

즉, 사용자의 기존에 입력된 메시지를 분석하여 사용자의 3D 아바타의 감정 표현의 강도가 적응적으로 조정될 수 있다.That is, the strength of the emotional expression of the 3D avatar of the user can be adaptively adjusted by analyzing the user's existing input message.

도 5에서는 설명의 편의상 즐거운 감정과 관련된 웃음 동작 및 슬픈 감정과 관련된 우는 동작을 예를 들어 설명하였으나, 웃음 동작 및 우는 동작뿐만 아니라, 기쁨이라는 감정과 연관된 동작, 분노라는 감정과 연관된 동작 등과 같이 다양한 감정과 연관된 동작도 사용자의 3D 아바타에 의해 표현될 수 있다.In FIG. 5, for example, the crying operation related to the pleasant emotions and the sad emotions related to the pleasant emotions have been described by way of example, but the present invention is not limited to the laughing and crying operations, but also the actions associated with emotions such as joy, The actions associated with the emotion can also be represented by the user's 3D avatar.

도 6은 본 발명의 실시예에 따른 대화 내용 분석을 통한 3D 아바타의 동작 제어 방법을 나타낸 개념도이다.6 is a conceptual diagram illustrating a method for controlling the operation of a 3D avatar through analysis of conversation contents according to an embodiment of the present invention.

도 6에서는 감정 분석부를 기반으로 사용자의 주된 감정 상태를 결정하는 방법이 개시된다. 주된 감정 상태는 사용자를 현재 지배하고 있는 감정 상태를 의미할 수 있다. 주된 감정 상태는 다른 표현으로 프라이머리(primary) 감정 상태라는 용어로도 표현될 수 있다.In FIG. 6, a method for determining a user's main emotional state based on an emotional analysis unit is disclosed. The main emotion state may refer to the emotion state currently dominating the user. The main emotional state can be expressed in other expressions as the primary emotional state.

도 6을 참조하면, 감정 분석부는 사용자의 주된 감정 상태(600)를 판단하고, 사용자의 주된 감정 상태(600)를 고려하여3D 아바타의 동작을 결정하기 위해 구현될 수 있다.Referring to FIG. 6, the emotion analyzing unit may be implemented to determine a user's main emotional state 600 and to determine the operation of the 3D avatar in consideration of the user's main emotional state 600.

감정 분석부는 구문 분석부를 통해 분석된 사용자의 메시지를 기반으로 사용자의 주된 감정 상태(600)를 결정하고, 사용자의 주된 감정 상태(600)를 사용자의 3D 아바타에 표현할 수 있다. 사용자의 주된 감정 상태(600)는 대화가 없는 상태에서 사용자의 3D 아바타의 기본 동작/기본 감정 표현 상태를 결정할 수 있다.The emotion analyzing unit can determine the user's main emotion state 600 based on the analyzed user's message through the syntax analysis unit and express the user's main emotion state 600 in the 3D avatar of the user. The user's main emotional state 600 can determine the basic operation / basic emotional state of the user's 3D avatar in the absence of dialogue.

사용자에 의해 입력되는 다양한 감정 표현에 따른 3D 아바타의 동작은 현재 감정 정도에 의해 영향을 받을 수 있다. 예를 들어, 현재 사용자의 감정 상태가 강도가 강한 기쁨 상태인 경우, 기쁨과 관련된 3D 아바타의 동작의 반복 횟수는 높게 나타나고(또는 상대적으로 높은 강도의 기쁨과 관련된 3D 아바타의 동작이 수행되고), 상대적으로 낮은 강도의 슬픔과 관련된 3D 아바타의 동작이 수행될 수 있다.The operation of the 3D avatar according to various emotional expressions inputted by the user can be influenced by the degree of the current emotion. For example, when the current user's emotional state is a strong joy state, the repetition frequency of the operation of the 3D avatar related to joy is high (or the operation of the 3D avatar related to the relatively high joy is performed) The operation of the 3D avatar associated with the relatively low intensity sadness can be performed.

구체적인 예로, 본 발명의 실시예에 따르면, 현재 사용자의 주된 감정 상태(600)를 고려하여 기쁨의 정도와 슬픔의 정도에 대한 강도가 다르게 설정될 수 있다. 예를 들어, 현재 사용자의 주된 감정 상태(600)가 ‘기쁨’인 경우, 기쁘다는 감정에 대한 정보를 포함하는 동일한 문장에 대한 구문 분석 결과로 ‘5단계의 기쁨’의 표현이 3D 아바타에 의해 수행될 수 있다. 반대로, 현재 사용자의 주된 감정 상태(600)가 ‘슬픔’인 경우, 기쁘다는 감정에 대한 정보를 포함하는 동일한 문장에 대한 구문 분석 결과로 ‘1단계의 기쁨’의 표현이 3D 아바타에 의해 수행될 수 있다. 1단계의 기쁨의 표현은 5단계의 기쁨의 표현보다 낮은 기쁨을 표현하는 표현 동작일 수 있다. As a specific example, according to the embodiment of the present invention, the degree of joy and the degree of sadness may be set differently in consideration of the current emotional state 600 of the current user. For example, if the current user's main emotional state 600 is 'joy', the expression of 'joy in five levels' is performed by the 3D avatar as a result of parsing the same sentence including information on feelings of being happy . On the other hand, if the current user's main emotional state 600 is 'sad', the expression of 'joy of one level' can be performed by the 3D avatar as a result of parsing the same sentence including information about the feeling of being happy have. The expression of joy in the first stage may be an expression operation expressing lower joy than the expression of joy in the fifth stage.

즉, 본 발명의 실시예에 따르면, 사용자의 현재 주된 감정 상태(600)를 분석하고 사용자의 주된 감정 상태(600)를 기반으로 동일한 구문에 대해서도 서로 다른 강도의 감정 표현이 사용자의 3D 아바타에 의해 수행될 수 있다. That is, according to an embodiment of the present invention, the current main emotional state 600 of the user is analyzed and emotional expressions of different intensities for the same phrase based on the user's main emotional state 600 are displayed by the user's 3D avatar .

도 7은 본 발명의 실시예에 따른 사용자의 주된 감정 상태를 결정하는 방법을 나타낸 개념도이다. 7 is a conceptual diagram illustrating a method for determining a user's main emotional state according to an embodiment of the present invention.

도 7에서는 사용자의 주된 감정 상태를 반영하여 사용자의 3D 아바타의 감정 표현의 강도를 결정하기 위한 방법이 개시된다.7 illustrates a method for determining the strength of an emotional expression of a user's 3D avatar by reflecting a user's main emotional state.

도 7을 참조하면, 현재 감정을 결정하기 위해 구문 분석을 통한 사용자의 감정 상태가 판단될 수 있다. 예를 들어, 사용자에 의해 전송되는 메시지에 포함되는 구문을 분석하여 사용자의 주된 감정 상태가 결정될 수 있다. 예를 들어, 사용자에 의해 전송되는 메시지에서 감정 표현과 관련된 단어(감정 표현 단어)를 추출할 수 있다. Referring to FIG. 7, the emotion state of the user through parsing can be determined to determine the current emotion. For example, the main emotional state of the user can be determined by analyzing the syntax included in the message transmitted by the user. For example, words related to emotional expressions (emotional expressive words) can be extracted from a message transmitted by a user.

예를 들어, 감정 표현 단어는 기쁘다, 슬프다, 울고 싶다, 웃기다, 행복하다 등과 같은 사람의 감정 표현과 관련된 단어일 수 있다. 사람의 감정 표현과 관련된 감정 표현 단어를 추출한 이후, 감정 표현 단어의 주체 정보를 결정할 수 있다. For example, the emotional expression word can be a word associated with a person's emotional expression such as happy, sad, crying, laughing, happy, The subject information of the emotional expression word can be determined after extracting the emotional expression word related to the human emotional expression.

즉, 해당 감정 표현이 사용자의 감정과 관련된 것인지, 사용자가 아닌 타인과 관련된 것인지 여부를 결정하기 위해 감정 표현 단어의 주체 정보를 결정할 수 있다. That is, the subject information of the emotional expression word can be determined to determine whether the emotional expression is related to the user's feelings or not, and with the non-user.

감정 표현의 주체 정보는 문장의 구조를 고려하여 주어를 추출하여 결정될 수 있다. 만약 감정 표현 단어를 포함하는 메시지 중에서 메시지의 주어가 없는 경우는 감정 표현 단어의 주체는 사용자로 추정될 수 있다. 예를 들어, ‘엄마가 화났다’라는 메시지가 가정되면, 감정 표현 단어는 ‘화났다’일 수 있고, ‘화났다’의 주체는 엄마일 수 있다. 따라서, 감정 표현 단어의 주체가 사용자가 아닌 것으로 결정할 수 있다.The subject information of the emotional expression can be determined by extracting the subject in consideration of the structure of the sentence. If there is no subject of the message among the messages containing the emotion expression word, the subject of the emotion expression word can be estimated as the user. For example, if the message 'Mom is angry' is assumed, the emotional expression word may be 'angry', and the subject of 'angry' may be the mother. Therefore, it can be determined that the subject of the emotion expression word is not the user.

또 다른 예로 ‘아끼는 그릇이 깨져서 슬퍼’와 같은 메시지에서는 감정 표현 단어인 ‘슬퍼’의 주어가 없으므로 감정 표현 단어의 주체가 사용자로 결정될 수 있다. As another example, in a message such as "I am sad because my bowl is broken," there is no subject of "sad", which is the emotional expression word, so the subject of the emotional expression word can be determined as the user.

단어의 주체가 사용자인 감정 표현 단어가 복수개인 경우, 사용자의 주된 감정 상태를 결정하기 위해 복수의 감정 표현 단어 중 지배적 감정 표현 단어를 결정할 수 있다.If there are a plurality of emotional expressions in which the subject of the word is the user, the dominant emotional expressive word among the plurality of emotional expressive words can be determined to determine the main emotional state of the user.

예를 들어, 우선 주된 감정 상태는 주체 지시 단어(사용자)(700)+시간 지시 단어(현재 지시)(710)+감정 표현 단어(730)를 포함하는 메시지에 의해 결정될 수 있고, 이러한 메시지에 포함되는 감정 표현 단어(730)가 지배적 감정 표현 단어일 수 있다. 즉, 사용자의 현재 상태를 정확하게 표현하는 메시지에 포함되는 감정 표현 단어(730)가 지배적 감정 표현 단어일 수 있고, 이러한 지배적 감정 표현 단어가 사용자의 주된 감정 상태로 결정될 수 있다. 전술한 바와 같이 메시지 내에 주체가 없는 경우, 메시지의 주체는 사용자로 추정할 수 있다.For example, the main emotional state may be determined by a message including a subject instruction word (user) 700 + a time indication word (current instruction) 710 + an emotional expression word 730, The emotional expression word 730 may be the dominant emotional expression word. That is, the emotional expression word 730 included in the message accurately expressing the current state of the user may be the dominant emotional expression word, and the dominant emotional expression word may be determined to be the main emotional state of the user. As described above, when there is no subject in the message, the subject of the message can be estimated as a user.

예를 들어, “(나는) 오늘 즐겁다”라는 메시지가 사용자에 의해 전송되는 경우, 메시지에 포함되는 감정 표현 단어(730)인 ‘즐겁다’가 지배적 감정 표현 단어일 수 있고, ‘즐거움’이 사용자의 주된 감정 상태로 결정될 수 있다. 전술한 바와 같이 사용자의 주된 감정 상태는 사용자의 3D 아바타에 반영될 수 있다. For example, when the message " I am happy today " is transmitted by the user, the emotional expression word 730 included in the message may be 'pleasant', and 'enjoyment' It can be determined to be the main emotional state. As described above, the user's main emotional state can be reflected in the user's 3D avatar.

위와 같은 주체 지시 단어(사용자)(700)+시간 지시 단어(현재 지시)(710)+ 감정 표현 단어(730)를 포함하는 메시지가 존재하지 않는 경우, 주체 지시 단어(사용자)(700)+원인 지시 구/절(감정의 원인을 지시하는 구/절)(700)+감정 표현 단어(730)를 포함하는 메시지를 기반으로 사용자의 주된 감정 상태를 결정할 수 있다.If there is no message including the subject instruction word (user) 700, the time indication word (current instruction) 710 and the emotion expression word 730, the subject instruction word (user) The main emotional state of the user can be determined based on a message including an instruction phrase / phrase (phrase / phrase) 700 indicating a cause of emotion and an emotional expression word 730.

예를 들어, “(나는) 무시당해 슬프다” 라는 메시지가 사용자에 의해 전송되는 경우, 메시지에 포함되는 감정 표현 단어인 ‘슬프다’가 지배적 감정 표현 단어일 수 있고, ‘슬픔’이 사용자의 주된 감정 상태로 결정될 수 있다. 마찬가지로 사용자의 주된 감정 상태는 사용자의 3D 아바타에 반영될 수 있다. For example, when the message " I am sad to be ignored " is transmitted by the user, the emotional expression word 'sad' included in the message may be the dominant emotional expression word, and the 'sad' State. Likewise, the user's main emotional state can be reflected in the user's 3D avatar.

사용자의 주된 감정 상태는 사용자에 의해 가장 최근에 입력된 메시지를 기준으로 결정될 수 있다. The user's main emotional state can be determined based on the most recently entered message by the user.

가장 최근에 입력된 주체 지시 단어(사용자)+시간 지시 단어(현재 지시)+감정 표현 단어를 포함하는 구조의 문장에 의해 사용자의 주된 감정 상태가 결정될 수 있고, 위와 같은 구조의 문장이 없다면, 가장 최근에 입력된 단어(사용자)+원인 지시 구/절(감정의 원인을 지시하는 구/절)+감정 표현 단어를 포함하는 구조의 문장에 의해 사용자의 주된 감정 상태가 결정될 수 있다.The main emotional state of the user can be determined by the sentence of the structure including the most recently inputted subject instruction word (user) + time indication word (current instruction) + emotional expression word, and if there is no sentence of the above structure, The main emotional state of the user can be determined by the sentence of the structure including the recently inputted word (user) + cause instruction phrase / clause (clause / clause indicating the cause of emotion) + emotional expression word.

도 8은 본 발명의 실시예에 따른 3D 아바타의 리액션 방법을 나타낸 개념도이다. 8 is a conceptual diagram illustrating a reaction method of a 3D avatar according to an embodiment of the present invention.

도 8에서는 사용자의 3D 아바타의 리액션 수행 방법이 개시된다. 8 illustrates a method of performing a reaction of a user's 3D avatar.

도 8을 참조하면, 사용자는 대화 상대방의 3D 아바타(850)의 감정 표현/동작에 대한 리액션을 수행할 수 있다. 8, the user may perform a reaction to the emotional expression / action of the 3D avatar 850 of the conversation partner.

예를 들어, 대화 상대방의 3D 아바타(850)가 슬픔을 표현하는 경우, 사용자의 3D 아바타(800)는 리액션 동작으로 슬픔을 위로하는 동작을 수행할 수 있다. 또 다른 예로, 대화 상대방의 3D 아바타(850)가 즐거움을 표현하는 경우, 사용자의 3D 아바타(800)는 리액션 동작으로 함께 즐거움을 표현하는 동작을 수행할 수 있다. 이러한 리액션 동작은 사용자에 의해 설정될 수도 있고, 3D 아바타 기반의 메신저 서비스에서 자동적으로 설정될 수 있다. For example, when the 3D avatar 850 of the conversation partner expresses sadness, the 3D avatar 800 of the user can perform an operation of gaining sadness by a reaction operation. As another example, if the conversation partner's 3D avatar 850 expresses pleasure, the user's 3D avatar 800 may perform an action of expressing pleasure together with the reaction action. Such a reaction action may be set by a user or automatically set in a 3D avatar based messenger service.

사용자는 위와 같은 리액션 동작의 정도에 대해 설정할 수도 있다. 예를 들어, 리액션 강도를 상, 중, 하 중 하나로 선택하고, 대화 상대방의 감정 표현/동작에 대한 리액션 정도를 설정할 수 있다. The user can also set the degree of the above reaction action. For example, the reaction intensity can be selected as one of the above, middle, and lower, and the degree of reaction to the emotional expression / action of the conversation partner can be set.

또는 3D 아바타 기반의 메신저 서비스에서 사용자와 대화 상대방의 대화 빈도를 고려하여 대화 빈도가 일정 이상 되는 경우에만 리액션 동작을 수행하도록 설정하여 친밀한 사이에서만 3D 아바타에 의해 리액션 동작이 수행되도록 설정될 수도 있다.Or in a 3D avatar based messenger service, a reaction action may be set to be performed only when the conversation frequency is more than a certain level in consideration of the conversation frequency between the user and the conversation partner, so that the reaction action is performed by the 3D avatar only intimately.

도 9는 본 발명의 실시예에 따른 3D 아바타 메신저 서비스 장치를 나타낸 개념도이다. 9 is a conceptual diagram illustrating a 3D avatar messenger service apparatus according to an embodiment of the present invention.

도 9에서는3D 아바타 메신저 서비스 장치의 구성부가 개시된다. 3D 아바타 메신저 서비스 장치의 구성부 각각은 도 1 내지 도 8에서 전술한 동작을 수행할 수 있다. 예를 들어, 3D 아바타 메신저 서비스 장치의 구성부는 아래와 같은 동작을 수행할 수 있다. 9, the configuration of the 3D avatar messenger service apparatus is disclosed. Each of the components of the 3D avatar messenger service apparatus can perform the operations described above with reference to Figs. For example, the configuration unit of the 3D avatar messenger service apparatus can perform the following operations.

도 9를 참조하면, 3D 아바타 메신저 서비스 장치의 구성부는 3D 아바타 설정부(900), 메시지 서비스부(910), 구문 분석부(920), 감정 상태 판단부(930), 리액션 설정부(940), 터치/모션 설정부(950), 통신부(960) 및 프로세서(970)를 포함할 수 있다. 9, the 3D avatar messenger service apparatus includes a 3D avatar setting unit 900, a message service unit 910, a syntax analysis unit 920, an emotion state determination unit 930, a reaction setting unit 940, A touch / motion setting unit 950, a communication unit 960, and a processor 970.

3D 아바타 설정부(900)는 사용자의 3D 아바타의 설정(3D 아바타 선택, 3D 아바타의 옷, 애니메이션 설정)을 위해 구현될 수 있다.The 3D avatar setting unit 900 may be implemented for setting the 3D avatar of the user (3D avatar selection, 3D avatar dressing, animation setting).

메시지 서비스부(910)는 사용자와 대화 상대방 간의 메시지 송신 및 수신 서비스를 제공하기 위해 구현될 수 있다.The message service unit 910 may be implemented to provide a message transmission and reception service between a user and a conversation partner.

구문 분석부(920)는 사용자에 의해 입력된 메시지를 구문을 구성하는 문장 성분으로 분석하기 위해 구현될 수 있다. The parsing unit 920 may be implemented to analyze a message input by a user into a sentence constituting a phrase.

감정 상태 판단부(930)는 구문 분석 결과를 기반으로 사용자의 감정 상태를 판단 및 분석하기 위해 구현될 수 있다.The emotion state determination unit 930 can be implemented to determine and analyze the emotion state of the user based on the result of the analysis of the syntax.

리액션 설정부(940)는 대화 상대방의 3D 아바타의 동작에 대한 사용자의 3D 아바타의 리액션을 설정하기 위해 구현될 수 있다.The reaction setting unit 940 may be configured to set a reaction of the 3D avatar of the user with respect to the operation of the 3D avatar of the conversation partner.

터치/모션 설정부(950)는 사용자에 의해 입력되는 터치/모션에 따른 사용자의 3D 아바타의 동작/감정 표현을 설정하기 위해 구현될 수 있다.The touch / motion setting unit 950 may be configured to set an operation / emotion expression of the 3D avatar of the user according to the touch / motion input by the user.

통신부(960)는 사용자 장치의 통신을 위해 구현될 수 있다. The communication unit 960 may be implemented for communication of the user equipment.

프로세서(970)는 3D 아바타 설정부(900), 메시지 서비스부(910), 구문 분석부(920), 감정 상태 판단부(930), 리액션 설정부(940), 터치/모션 설정부(950), 통신부(960)의 동작을 제어하기 위해 구현될 수 있다.The processor 970 includes a 3D avatar setting unit 900, a message service unit 910, a syntax analysis unit 920, an emotion state determination unit 930, a reaction setting unit 940, a touch / motion setting unit 950, , And the communication unit 960. [0086]

이와 같은 아바타를 사용한 모바일 메신저 서비스 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.The mobile messenger service method using such an avatar can be implemented in an application or in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium may be ones that are specially designed and configured for the present invention and are known and available to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.

Claims (10)

아바타를 사용한 모바일 메신저 서비스 방법은,
사용자 장치로부터 사용자의 아바타를 결정하기 위한 아바타 설정 정보를 수신하는 단계;
상기 사용자 장치로부터 입력된 메시지에 대한 구문 분석을 수행하여 상기 사용자의 감정 상태를 결정하는 단계; 및
상기 사용자의 상기 감정 상태를 기반으로 상기 아바타의 동작을 결정하는 단계를 포함하되,
상기 동작은 상기 사용자의 주된 감정 상태를 더 고려하여 결정되고,
상기 주된 감정 상태에 따라 상기 동작의 표현 강도가 결정되고,
상기 주된 감정 상태는 상기 구문 분석을 기반으로 결정되고,
상기 구문 분석은 상기 입력된 메시지에 포함된 주체 정보, 상기 입력된 메시지에 포함된 감정 상태 표현 정보, 상기 입력된 메시지에 포함된 시간 정보, 상기 입력된 메시지에 포함된 상기 감정 상태 표현 정보의 원인을 지시하는 정보에 대한 분석을 기반으로 수행되고,
상기 동작의 표현 강도는 상기 사용자의 기존 대화 내역 상에서 감정 상태에 대한 표현 빈도를 고려하여 결정되고,
상기 입력된 메시지에 주어가 없는 경우, 상기 감정 상태 표현 정보의 주체는 상기 사용자로 추정되어 상기 주된 감정 상태가 결정되고,
상기 입력된 메시지가 복수개인 경우, 상기 주된 감정 상태는 현재를 지시하는 메시지에 포함되는 감정 상태 표현 정보를 기반으로 결정되고,
상기 입력된 메시지가 복수개인 경우, 상기 주된 감정 상태는 감정의 원인을 지시하는 구/절을 포함하는 메시지에 포함되는 감정 상태 표현 정보를 기반으로 결정되는 것을 특징으로 하는 모바일 메신저 서비스 방법.
The mobile messenger service method using the avatar,
Receiving avatar setting information for determining a user avatar from a user device;
Determining a user's emotional state by performing a syntax analysis on a message input from the user device; And
Determining an action of the avatar based on the emotional state of the user,
Wherein the operation is determined by further considering the main emotional state of the user,
The presentation intensity of the action is determined according to the main emotion state,
Wherein the main emotional state is determined based on the parsing,
The parsing may include subject information included in the input message, emotion state expression information included in the input message, time information included in the input message, cause of the emotion state expression information included in the input message , ≪ / RTI > and < RTI ID = 0.0 >
The expression intensity of the operation is determined in consideration of the frequency of expression of the emotional state on the existing conversation history of the user,
If the input message does not include a subject, the subject of the emotion state expression information is estimated as the user, the main emotion state is determined,
If the input message is a plurality of messages, the main emotion state is determined based on emotion state expression information included in a message indicating a current state,
Wherein the main emotion state is determined based on emotion state expression information included in a message including a phrase indicating a cause of emotion when the input message has a plurality of messages.
제1항에 있어서,
상기 사용자 장치로부터 상기 사용자의 터치/모션에 따른 아바타의 동작 설정 정보를 수신하는 단계;
상기 사용자 장치로부터 입력된 터치/모션 정보를 수신하는 단계; 및
상기 동작 설정 정보 및 상기 터치/모션 정보를 기반으로 상기 아바타의 상기 동작을 결정하는 단계를 더 포함하는 모바일 메신저 서비스 방법.
The method according to claim 1,
Receiving operation setting information of an avatar according to a touch / motion of the user from the user device;
Receiving touch / motion information input from the user device; And
And determining the operation of the avatar based on the operation setting information and the touch / motion information.
제2항에 있어서,
상기 사용자 장치로부터 상기 사용자의 대화 상대방의 아바타의 리액션 동작을 요청하는 리액션 요청 정보를 수신하는 단계; 및
상기 리액션 요청 정보를 기반으로 상기 대화 상대방의 아바타의 리액션 동작을 제어하는 단계를 더 포함하되,
상기 리액션 요청 정보는 상기 사용자의 상기 대화 상대방의 아바타에 대한 터치/모션에 의해 생성되는 것을 특징으로 하는 모바일 메신저 서비스 방법.
3. The method of claim 2,
Receiving reaction request information requesting a reaction operation of an avatar of a user's chat partner from the user device; And
Further comprising the step of controlling a reaction operation of the avatar of the conversation partner based on the reaction request information,
Wherein the reaction request information is generated by touch / motion of the avatar of the user of the conversation partner.
삭제delete 삭제delete 아바타를 사용한 모바일 메신저 서비스 장치에 있어서,
상기 모바일 메신저 서비스 장치는 프로세서를 포함하고,
상기 프로세서는 사용자 장치로부터 사용자의 아바타를 결정하기 위한 아바타 설정 정보를 수신하고,
상기 사용자 장치로부터 입력된 메시지에 대한 구문 분석을 수행하여 상기 사용자의 감정 상태를 결정하고,
상기 사용자의 상기 감정 상태를 기반으로 상기 아바타의 동작을 결정하도록 구현되되,
상기 동작은 상기 사용자의 주된 감정 상태를 더 고려하여 결정되고,
상기 주된 감정 상태에 따라 상기 동작의 표현 강도가 결정되고,
상기 주된 감정 상태는 상기 구문 분석을 기반으로 결정되고,
상기 구문 분석은 상기 입력된 메시지에 포함된 주체 정보, 상기 입력된 메시지에 포함된 감정 상태 표현 정보, 상기 입력된 메시지에 포함된 시간 정보, 상기 입력된 메시지에 포함된 상기 감정 상태 표현 정보의 원인을 지시하는 정보에 대한 분석을 기반으로 수행되고,
상기 동작의 표현 강도는 상기 사용자의 기존 대화 내역 상에서 감정 상태에 대한 표현 빈도를 고려하여 결정되고,
상기 입력된 메시지에 주어가 없는 경우, 상기 감정 상태 표현 정보의 주체는 상기 사용자로 추정되어 상기 주된 감정 상태가 결정되고,
상기 입력된 메시지가 복수개인 경우, 상기 주된 감정 상태는 현재를 지시하는 메시지에 포함되는 감정 상태 표현 정보를 기반으로 결정되고,
상기 입력된 메시지가 복수개인 경우, 상기 주된 감정 상태는 감정의 원인을 지시하는 구/절을 포함하는 메시지에 포함되는 감정 상태 표현 정보를 기반으로 결정되는 것을 특징으로 하는 모바일 메신저 서비스 장치.
1. A mobile messenger service apparatus using an avatar,
Wherein the mobile messenger service device comprises a processor,
The processor receives avatar setting information for determining a user's avatar from a user device,
Determining a user's emotional state by performing a syntax analysis on a message input from the user device,
And determining an operation of the avatar based on the emotion state of the user,
Wherein the operation is determined by further considering the main emotional state of the user,
The presentation intensity of the action is determined according to the main emotion state,
Wherein the main emotional state is determined based on the parsing,
The parsing may include subject information included in the input message, emotion state expression information included in the input message, time information included in the input message, cause of the emotion state expression information included in the input message , ≪ / RTI > and < RTI ID = 0.0 >
The expression intensity of the operation is determined in consideration of the frequency of expression of the emotional state on the existing conversation history of the user,
If the input message does not include a subject, the subject of the emotion state expression information is estimated as the user, the main emotion state is determined,
If the input message is a plurality of messages, the main emotion state is determined based on emotion state expression information included in a message indicating a current state,
Wherein the main emotion state is determined based on emotion state expression information included in a message including phrases / phrases indicating a cause of emotion when a plurality of the input messages are present.
제6항에 있어서,
상기 프로세서는 상기 사용자 장치로부터 상기 사용자의 터치/모션에 따른 아바타의 동작 설정 정보를 수신하고,
상기 사용자 장치로부터 입력된 터치/모션 정보를 수신하고,
상기 동작 설정 정보 및 상기 터치/모션 정보를 기반으로 상기 아바타의 상기 동작을 결정하도록 구현되는 것을 특징으로 하는 모바일 메신저 서비스 장치.
The method according to claim 6,
The processor receives from the user device operation setting information of the avatar according to the touch / motion of the user,
Receiving touch / motion information input from the user device,
Wherein the controller is configured to determine the operation of the avatar based on the operation setting information and the touch / motion information.
제7항에 있어서,
상기 프로세서는 상기 사용자 장치로부터 상기 사용자의 대화 상대방의 아바타의 리액션 동작을 요청하는 리액션 요청 정보를 수신하고,
상기 리액션 요청 정보를 기반으로 상기 대화 상대방의 아바타의 리액션 동작을 제어하도록 구현되되,
상기 리액션 요청 정보는 상기 사용자의 상기 대화 상대방의 아바타에 대한 터치/모션에 의해 생성되는 것을 특징으로 하는 모바일 메신저 서비스 장치.
8. The method of claim 7,
Wherein the processor receives reaction request information requesting a reaction operation of an avatar of the user's conversation partner from the user apparatus,
And controls the reaction operation of the avatar of the conversation partner based on the reaction request information,
Wherein the reaction request information is generated by touch / motion of the avatar of the user of the conversation partner.
삭제delete 삭제delete
KR1020150143570A 2015-10-14 2015-10-14 Method and apparatus for mobile messenger service by using avatar KR101719742B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150143570A KR101719742B1 (en) 2015-10-14 2015-10-14 Method and apparatus for mobile messenger service by using avatar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150143570A KR101719742B1 (en) 2015-10-14 2015-10-14 Method and apparatus for mobile messenger service by using avatar

Publications (1)

Publication Number Publication Date
KR101719742B1 true KR101719742B1 (en) 2017-03-24

Family

ID=58500393

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150143570A KR101719742B1 (en) 2015-10-14 2015-10-14 Method and apparatus for mobile messenger service by using avatar

Country Status (1)

Country Link
KR (1) KR101719742B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364971A (en) * 2020-11-06 2021-02-12 联想(北京)有限公司 Session control method and device and electronic equipment
US11824822B2 (en) 2018-09-28 2023-11-21 Snap Inc. Generating customized graphics having reactions to electronic message content

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040061475A (en) 2002-12-31 2004-07-07 현대중공업 주식회사 AFCI using COB-IC
KR20110010520A (en) * 2009-07-24 2011-02-01 에스케이텔레콤 주식회사 System, management server, terminal and method for exchanging of message using avatar
KR20110110391A (en) * 2010-04-01 2011-10-07 가톨릭대학교 산학협력단 A visual communication method in microblog
US20130198210A1 (en) * 2012-01-27 2013-08-01 NHN ARTS Corp. Avatar service system and method provided through a network
KR101337420B1 (en) * 2012-07-24 2013-12-06 전남대학교산학협력단 Emotional messaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040061475A (en) 2002-12-31 2004-07-07 현대중공업 주식회사 AFCI using COB-IC
KR20110010520A (en) * 2009-07-24 2011-02-01 에스케이텔레콤 주식회사 System, management server, terminal and method for exchanging of message using avatar
KR20110110391A (en) * 2010-04-01 2011-10-07 가톨릭대학교 산학협력단 A visual communication method in microblog
US20130198210A1 (en) * 2012-01-27 2013-08-01 NHN ARTS Corp. Avatar service system and method provided through a network
KR101337420B1 (en) * 2012-07-24 2013-12-06 전남대학교산학협력단 Emotional messaging apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11824822B2 (en) 2018-09-28 2023-11-21 Snap Inc. Generating customized graphics having reactions to electronic message content
CN112364971A (en) * 2020-11-06 2021-02-12 联想(北京)有限公司 Session control method and device and electronic equipment

Similar Documents

Publication Publication Date Title
US11061531B2 (en) System and method for touch-based communications
TWI650977B (en) Expression information processing method and device in instant messaging process
US8149241B2 (en) Arrangements for controlling activities of an avatar
US9713774B2 (en) Contextual chat message generation in online environments
US9509521B2 (en) Contextual chat based on behavior and usage
JP2010277588A (en) Device for generating animation script, animation output device, receiving terminal device, transmitting terminal device, portable terminal device and method
JP2005505847A (en) Rich communication via the Internet
KR101906500B1 (en) Offline character doll control apparatus and method using user's emotion information
CN106796583A (en) System and method for recognizing and advising emoticon
WO2017157174A1 (en) Information processing method, device, and terminal device
WO2017071196A1 (en) Media information promotion method, terminal device and server
US11625542B2 (en) Instant messaging application configuration based on virtual world activities
JP2005235142A (en) System and program for measuring degree of intimacy between users
KR20100129122A (en) Animation system for reproducing text base data by animation
KR101310274B1 (en) Method and server for providing message service
KR101149017B1 (en) Social network game system at mobile platform
KR101719742B1 (en) Method and apparatus for mobile messenger service by using avatar
KR20140017959A (en) Mobile messenger service providing method with cartoon form for smart device
CN107222398A (en) social message control method, device, storage medium and computer equipment
KR20060104980A (en) System and method for interlocking process between emoticon and avatar
KR20060012818A (en) Messenger service system using 3d avatar and service method thereof
EP3331485A1 (en) Interactive online entertainment system and method
KR20200043776A (en) Apparatus and method for providing community service
KR100941179B1 (en) Method and system for providing service texticon
Mandeville et al. Remote Touch: Humanizing Social Interactions in Technology Through Multimodal Interfaces

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant