KR100300966B1 - Chatting system using animated avatars and method thereof - Google Patents

Chatting system using animated avatars and method thereof Download PDF

Info

Publication number
KR100300966B1
KR100300966B1 KR1019990027246A KR19990027246A KR100300966B1 KR 100300966 B1 KR100300966 B1 KR 100300966B1 KR 1019990027246 A KR1019990027246 A KR 1019990027246A KR 19990027246 A KR19990027246 A KR 19990027246A KR 100300966 B1 KR100300966 B1 KR 100300966B1
Authority
KR
South Korea
Prior art keywords
chat
face model
network
facial
session
Prior art date
Application number
KR1019990027246A
Other languages
Korean (ko)
Other versions
KR20010009080A (en
Inventor
박찬민
Original Assignee
윤종용
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사 filed Critical 윤종용
Priority to KR1019990027246A priority Critical patent/KR100300966B1/en
Publication of KR20010009080A publication Critical patent/KR20010009080A/en
Application granted granted Critical
Publication of KR100300966B1 publication Critical patent/KR100300966B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Abstract

본 발명은 컴퓨터 네트워크를 이용한 채팅 시스템 중 3차원 얼굴 애니메이션 기술에 의한 채팅 시스템 및 그 방법에 관한 것으로, 본 발명에 의한 애니메이션 채팅 시스템은 네트워크; 네트워크에 접속되고, 채팅 세션에 참가할 때 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 네트워크를 통해 전송하고, 채팅 세션에 참가한 이후에는 표정에 관한 패러미터를 네트워크를 통해 전송하고, 네트워크를 통해 전송된 다른 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 사용하여 다른 사용자의 얼굴을 합성하여 사용자에게 디스플레이하는 다수의 채팅 클라이언트; 및 네트워크에 접속되고, 채팅 세션에 참가하는 채팅 클라이언트들로부터 네트워크를 통해 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 전송받고, 같은 채팅 세션 내에 있는 모든 채팅 클라이언트들에 전송하여 채팅세션을 관리하는 채팅 서버를 포함한다.The present invention relates to a chat system and method using a three-dimensional facial animation technology of the chat system using a computer network, the animation chat system according to the present invention includes a network; When connected to the network, the 3D vertex position information and texture image data of the face model representing the user when joining the chat session is transmitted through the network, and after joining the chat session, parameters about the expression are transmitted through the network. A plurality of chat clients for synthesizing and displaying the faces of other users to the user using parameters related to three-dimensional vertex position information, texture image data, and facial expressions of the face model representing other users transmitted through the network; And receive from the chat clients connected to the network and participating in the chat session, parameters related to the 3D vertex position information, texture image data and facial expression of the face model via the network, to all chat clients in the same chat session. And a chat server for managing the chat session.

본 발명에 의하면, 텍스트만으로는 의미전달이 어려움 경우 3차원 얼굴 애니메이션을 통하여 좀 더 분명하게 의미전달을 할 수 있으며, 3차원 얼굴 애니메이션을 위해 최초 세션 형성 이후에는 표정에 관한 패러미터만을 전송함으로써 네트워크 및 시스템의 부하를 줄일 수 있다.According to the present invention, if it is difficult to convey meaning with text alone, it is possible to more clearly convey meaning through 3D face animation.After the initial session is formed for 3D face animation, only the parameters related to the expression are transmitted to the network and the system. Can reduce the load.

Description

애니메이션 채팅 시스템 및 그 방법{Chatting system using animated avatars and method thereof}Chatting system using animated avatars and method approximately}

본 발명은 컴퓨터 네트워크를 이용한 채팅 시스템에 관한 것으로서, 특히 3차원 얼굴 애니메이션 기술에 의한 채팅 시스템 및 그 방법에 관한 것이다.The present invention relates to a chat system using a computer network, and more particularly to a chat system and a method using a three-dimensional facial animation technology.

인터넷 사용자들이 급증함에 따라, 컴퓨터 네트워크를 이용한 채팅 이용자들이 기하급수적으로 증가하고 있다. 그런데, 이와같은 채팅 이용자들은 단순한 텍스트 기반의 채팅에 만족하지 아니하고, 점차 멀티미디어 채팅을 위한 서비스를 강력히 요구하고 있다. 이에 따라, 멀티미디어 자원 중 하나인 애니메이션 기능에 3차원 얼굴 애니메이션 기술을 도입한 새로운 방식의 채팅 시스템이 제안되고 있다.As the number of Internet users surges, the number of chat users using computer networks is increasing exponentially. However, such chat users are not satisfied with simple text-based chat, but are increasingly demanding services for multimedia chat. Accordingly, a new chat system has been proposed in which a three-dimensional face animation technique is introduced into an animation function, which is one of multimedia resources.

이와 같은 새로운 방식의 기존의 채팅 시스템으로는 미국 마이크로소프트사의 미국특허(미국특허번호 5880731, 'Use of avatars with automatic gesturing and bounded interaction in on-line chat session', 1995)가 있다. 상기한 바와 같은 기존의 채팅 시스템은 2차원의 비트맵 이미지들로부터 사용자가 자신이 원하는 아바타(avatar)를 선정하고, 비트맵 데이터 시퀀스를 이용하여 스크립트(script) 방식으로 정의된 애니메이션을 실행시키는 방식이다.An existing chat system of this new type is US Patent (US Patent No. 5880731, 'Use of avatars with automatic gesturing and bounded interaction in on-line chat session', 1995). The existing chat system as described above selects an avatar desired by the user from two-dimensional bitmap images, and executes an animation defined by a script method using a bitmap data sequence. to be.

기존의 방식에 의하면, 다음과 같은 문제점이 있다. 첫째, 기존의 방식에서는 사용자들이 채팅 사업자가 제공하는 아바타들 중에서 자신을 대표하는 모델을 선정하는데, 여러 사용자들이 동일한 아바타를 선정함으로써 아바타에 의해 사용자들이 식별되지 않는 경우도 있다. 둘째, 기존의 방식에서는 아바타의 표정이 바뀜에 따라 비트맵 데이터 시퀀스를 전송하여야 하므로, 전송시간이 많이 걸린다. 셋째, 기존 방식에서는 2차원 비트맵 데이터 시퀀스를 사용하여 애니메이션함으로써 정교한 애니메이션을 제공하기 어렵다.According to the existing method, there are the following problems. First, in the conventional method, users select a model representing themselves from among avatars provided by a chat operator. In some cases, users are not identified by avatars because several users select the same avatar. Second, in the conventional method, since the bitmap data sequence needs to be transmitted as the avatar's facial expression is changed, it takes a lot of transmission time. Third, in the conventional method, it is difficult to provide sophisticated animation by animate using a two-dimensional bitmap data sequence.

본 발명은 상기의 문제점을 해결하기 위하여 창작된 것으로서, 사용자 자신을 대표하는 얼굴 모델을 사용자가 스스로 자유롭게 만들어 자신만의 임의의 얼굴 모델을 이용하여 채팅에 참여할 수 있고, 3차원 얼굴 애니메이션을 도입하되 데이터 전송속도나 대역폭에 제한을 적게 받는 애니메이션 채팅 시스템 및 그 방법을 제공함을 목적으로 한다.The present invention was created in order to solve the above problems, the user can freely create a face model representing the user himself to participate in the chat using his or her own arbitrary face model, to introduce a three-dimensional face animation An object of the present invention is to provide an animation chat system and a method thereof, which are less limited in data transmission speed or bandwidth.

도 1은 본 발명에 의한 애니메이션 채팅 시스템을 포함한 일반적인 채팅 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of a general chat system including an animation chat system according to the present invention.

도 2는 본 발명에 의한 애니메이션 채팅 시스템의 일실시예에서의 채팅 클라이언트의 구성도이다.2 is a block diagram of a chat client in an embodiment of an animation chat system according to the present invention.

도 3은 본 발명에 의한 애니메이션 채팅 시스템의 일실시예에서의 채팅 서버의 구성도이다.3 is a block diagram of a chat server in an embodiment of an animation chat system according to the present invention.

도 4a 내지 도 4e는 도 2의 얼굴모델 생성기에서 3차원 얼굴 모델을 생성하는 과정을 설명하기 위한 도면들이다.4A through 4E are diagrams for describing a process of generating a 3D face model in the face model generator of FIG. 2.

도 5는 도 2의 표정생성기에서 표정 입력 사용자 인터페이스 화면을 예시한 도면이다.FIG. 5 is a diagram illustrating a facial expression input user interface screen in the facial expression generator of FIG. 2.

도 6은 본 발명에 의한 애니메에션 채팅시 채팅 클라이언트의 화면을 예시한 도면이다.6 is a diagram illustrating a screen of a chat client during the animation chat according to the present invention.

도 7a 및 도 7b는 본 발명에 의한 1대1 애니메이션 채팅시 채팅 클라이언트 화면을 예시한 도면이다.7A and 7B are diagrams illustrating a chat client screen during a one-to-one animation chat according to the present invention.

상기 목적을 달성하기 위하여 본 발명에 의한 애니메이션 채팅 시스템의 일실시예는 네트워크; 상기 네트워크에 접속되고, 채팅 세션에 참가할 때 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 상기 네트워크를 통해 전송하고, 채팅 세션에 참가한 이후에는 표정에 관한 패러미터를 상기 네트워크를 통해 전송하고, 상기 네트워크를 통해 전송된 다른 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 사용하여 다른 사용자의 얼굴을 합성하여 사용자에게 디스플레이하는 다수의 채팅 클라이언트; 및 상기 네트워크에 접속되고, 채팅 세션에 참가하는 채팅 클라이언트들로부터 상기 네트워크를 통해 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 전송받고, 같은 채팅 세션 내에 있는 모든 채팅 클라이언트들에 전송하여 채팅세션을 관리하는 채팅 서버를 포함한다.One embodiment of the animation chat system according to the present invention to achieve the above object is a network; After connecting to the network and transmitting the 3D vertex position information and texture image data of the face model representing the user when participating in the chat session, and after joining the chat session, the parameter about the expression is transmitted through the network. A plurality of chat clients for transmitting and synthesizing and displaying the faces of other users to the user using parameters related to three-dimensional vertex position information, texture image data, and facial expression of the face model representing the other user transmitted through the network; And all the chat clients in the same chat session, receiving from the chat clients connected to the network and participating in the chat session, parameters about the 3D vertex position information, texture image data and facial expression of the face model via the network. It includes a chat server to manage the chat session sent to.

상기 애니메이션 채팅 시스템의 일실시예에서 상기 채팅 클라이언트는 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 항목으로 하여 저장한 얼굴 모델 데이터베이스; 표정에 관한 패러미터를 항목으로 하여 저장한 표정 데이터베이스; 상기 채팅 서버로부터 전송받은 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 이용하여 채팅 세션 내에 있는 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션하는 얼굴 합성기; 및 상기 네트워크를 통해 상기 채팅 서버와의 정보교환을 관리하는 네트워크 관리자를 구비함을 특징으로 한다.In an embodiment of the animation chat system, the chat client includes: a face model database storing three-dimensional vertex position information and texture image data of a face model representing a user as items; A facial expression database stored with parameters relating to facial expressions as an item; A face synthesizer that animates the expression of the face model representing the users in the chat session using parameters related to the 3D vertex position information, the texture image data, and the expression of the face model received from the chat server; And a network manager managing information exchange with the chat server through the network.

또한, 상기 채팅 클라이언트는 기저장된 기본 얼굴모델 위치정보 및 사용자로부터 입력받은 2차원 얼굴 이미지를 이용하여 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 생성하는 얼굴모델 생성기; 및 사용자로부터 표정에 관한 자료를 입력받기 위한 표정 입력 사용자 인터페이스를 구비하고, 입력받은 표정에 관한 자료에 의해 표정에 관한 패러미터를 생성하는 표정 생성기를 더 구비함을 특징으로 한다.The chat client may further include: a face model generator for generating three-dimensional vertex position information and texture image data of a face model using previously stored basic face model position information and a two-dimensional face image received from a user; And a facial expression input user interface for inputting data regarding facial expressions from a user, and further comprising an facial expression generator for generating a parameter regarding facial expressions based on the input facial expression data.

상기 다른 목적을 달성하기 위하여, 본 발명에 의한 네트워크에 연결된 채팅 서버 및 다수의 채팅 클라이언트를 구비한 채팅 시스템에서 3차원 얼굴모델을 애니메이션하기 위한 데이터를 전송하는 방법의 일실시예는 (a) 채팅 세션에 접속하기 위한 채팅 클라이언트가 사용자를 대표하는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 상기 채팅 서버로 전송하는 단계; (b) 상기 채팅 서버가 채팅 세션 내의 다른 모든 채팅 클라이언트들에 상기 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 전송하고, 상기 채팅 세션에 접속하기 위한 채팅 클라이언트에 채팅 세션 내의 다른 모든 채팅 클라이언트들의 사용자들을 대표하는 얼굴 모델들의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 전송하는 단계; (c) 채팅 세션에 접속이 이루어지면, 각 채팅 클라이언트는 상기 채팅 서버를 통해 다른 채팅 클라이언트로 표정에 관한 패러미터를 반복적으로 전송함으로써, 각 채팅 클라이언트가 각 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션하도록 하는 단계를 포함한다.In order to achieve the above object, an embodiment of the method for transmitting data for animate a three-dimensional face model in a chat system having a chat server and a plurality of chat clients connected to the network according to the present invention (a) chat Transmitting, by the chat client for accessing the session, 3D vertex position information and texture image data of the face model representing the user to the chat server; (b) the chat server sends the three-dimensional vertex location information and texture image data to all other chat clients in the chat session, and sends users of all other chat clients in the chat session to the chat client for accessing the chat session. Transmitting 3D vertex position information and texture image data of representative face models; (c) When a chat session is established, each chat client repeatedly sends parameters relating to facial expressions through the chat server to other chat clients so that each chat client animate the facial expressions of the face models representing each user. It includes a step.

상기 3차원 얼굴모델을 애니메이션하기 위한 데이터를 전송하는 방법의 일실시예에 있어서, 상기 (c) 단계는 (c1) 각 채팅 클라이언트에 구비된 표정 데이터베이스의 내용에서 각 사용자가 원하는 표정에 관한 패러미터를 찾아 채팅 서버로 전송하는 단계; (c2) 채팅 서버가 채팅 세션 내의 다른 모든 채팅 클라이언트들에 상기 표정에 관한 패러미터를 전송하는 단계; 및 (c3) 각 채팅 클라이언트는 상기 표정에 관한 패러미터를 전송받고, 미리 전송받은 채팅 세션 내의 사용자들을 대표하는 얼굴 모델들의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 이용하여 각 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션하도록 하는 단계를 포함함을 특징으로 한다.In an embodiment of the method for transmitting data for animating the 3D face model, the step (c) may include (c1) a parameter relating to a desired expression of each user in the contents of an expression database provided in each chat client. Find and send to the chat server; (c2) the chat server sending a parameter relating to the expression to all other chat clients in the chat session; And (c3) each chat client receives the parameter about the facial expression and uses the 3D vertex position information and texture image data of the face models representing the users in the previously received chat session. And a step of animating the facial expression.

상기 3차원 얼굴모델을 애니메이션하기 위한 데이터를 전송하는 방법의 일실시예에 있어서, 상기 (c) 단계는 (c1) 각 채팅 클라이언트에 구비된 표정 데이터베이스의 각 항목에 대응하는 기본어휘를 채팅 문자열에 포함시켜 채팅 서버로 전송하는 단계; (c2) 채팅 서버가 채팅 세션 내의 다른 모든 채팅 클라이언트들에 상기채팅 문자열을 전송하는 단계; 및 (c3) 각 채팅 클라이언트는 전송받은 채팅 문자열에 포함된 기본어휘 추출한 후 추출된 기본어휘를 키로 하여 표정 데이터베이스에서 대응하는 표정에 관한 패러미터를 조회하고, 미리 전송받은 채팅 세션 내의 사용자들을 대표하는 얼굴 모델들의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 이용하여 각 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션하도록 하는 단계를 포함함을 특징으로 한다.In an embodiment of the method for transmitting data for animating the three-dimensional face model, step (c) includes (c1) a basic vocabulary corresponding to each item of the facial expression database provided in each chat client in a chat string. Including and transmitting to the chat server; (c2) a chat server sending the chat string to all other chat clients in a chat session; And (c3) each chat client extracts a basic vocabulary included in the received chat string, queries parameters related to the corresponding expression in the facial expression database using the extracted basic vocabulary as a key, and represents a face representing the users in the previously transmitted chat session. And animating an expression of a face model expressing each user by using three-dimensional vertex position information of the models and texture image data.

이하에서 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1에 의하면, 본 발명에 의한 애니메이션 채팅 시스템의 일실시예는 네트워크, 다수의 채팅 클라이언트 및 채팅 서버를 포함하여 구성된다.1, an embodiment of an animation chat system according to the present invention comprises a network, a plurality of chat clients and a chat server.

네트워크는 일반적인 온라인 네트워크 또는 공중전화교환망(PSTN)으로 이루어진다.The network consists of a typical online network or public switched telephone network (PSTN).

각 채팅 클라이언트는 네트워크를 통해 채팅 서버에 접속되고, 채팅 세션에 최초 참가할 때에는 그 채팅 클라이언트의 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 네트워크를 통해 채팅 서버에 전송하고, 채팅 세션에 참가한 이후에는 표정에 관한 패러미터를 네트워크를 통해 전송한다. 각 채팅 클라이언트는 네트워크를 통해 전송된 다른 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 사용하여 다른 사용자의 얼굴을 합성하여 사용자에게 디스플레이한다.Each chat client is connected to a chat server through a network. When a chat session is first joined, the 3D vertex position information and texture image data of the face model representing the user of the chat client are transmitted to the chat server through the network. After joining the session, parameters about facial expressions are sent over the network. Each chat client synthesizes and displays another user's face to the user using parameters related to three-dimensional vertex position information, texture image data, and facial expression of a face model representing another user transmitted over a network.

채팅 서버는 네트워크를 통해 다수의 채팅 클라이언트에 접속되고, 채팅 세션에 참가하는 채팅 클라이언트들로부터 네트워크를 통해 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 전송받고, 이들을 같은 채팅 세션 내에 있는 모든 채팅 클라이언트들에 전송함으로써 채팅세션을 관리한다.The chat server is connected to a number of chat clients via a network and receives from the chat clients participating in the chat session parameters over the network about the 3D vertex position, texture image data and facial expressions of the face model, and chats them together. Manage chat sessions by sending them to all chat clients in the session.

도 2에 의하면, 도 1의 각 채팅 클라이언트는 얼굴 모델 생성기(23), 얼굴 모델 데이터베이스(20), 얼굴 모델 관리자(26), 표정 생성기(24), 표정 데이터베이스(21), 표정 관리자(27), 얼굴 합성기(25) 및 네트워크 관리자(22)를 구비한다.Referring to FIG. 2, each chat client of FIG. 1 includes a face model generator 23, a face model database 20, a face model manager 26, an expression generator 24, an expression database 21, and an expression manager 27. , A face synthesizer 25 and a network manager 22.

얼굴 모델 생성기(23)는 미리 저장된 기본 얼굴모델 위치정보(geometry) 및 사용자로부터 입력받은 2차원 얼굴 이미지를 이용하여 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 생성한다. 즉, 얼굴 모델 생성기(23)는 사용자로부터 임의의 2차원 얼굴 이미지 1장(얼굴 정면) 또는 2장(얼굴 정면, 얼굴 측면) 또는 3장(얼굴 정면, 얼굴 좌측면, 얼굴 우측면)을 입력장치(28)를 통해 입력받고, 이들을 이용하여 기본 얼굴 모델의 위치정보를 변형하여 새로운 얼굴 모델을 생성한다.The face model generator 23 generates the 3D vertex position information and the texture image data of the face model using the pre-stored basic face model geometry and the 2D face image received from the user. That is, the face model generator 23 inputs one arbitrary two-dimensional face image (face front) or two (face front, face side) or three (face front, face left side, face right side) from the user. Input via (28), and by using them to modify the position information of the basic face model to create a new face model.

얼굴 모델 데이터베이스(20)는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 항목으로 하여 저장한 데이터베이스이다.The face model database 20 is a database storing three-dimensional vertex position information and texture image data of the face model as items.

얼굴 모델 관리자(26)은 얼굴 모델 생성기(23)에 의해 생성된 새로운 얼굴 모델을 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 항목으로 하여 데이터베이스화하고, 이에 대한 편집, 삽입, 조회 기능을 제공한다. 또한, 얼굴 모델 관리자(26)는 채팅 서버(30)로부터 네트워크 관리자(22)를 통해 전송받았거나 얼굴 모델 데이터베이스(20)에서 조회한 얼굴 모델의 3차원 꼭지점 위치정보및 텍스쳐 이미지 데이터를 얼굴 합성기(25)에 전달한다.The face model manager 26 makes a new face model generated by the face model generator 23 into a database by using three-dimensional vertex position information and texture image data of the face model, and edits, inserts, and retrieves functions thereof. to provide. In addition, the face model manager 26 receives the 3D vertex position information and texture image data of the face model received from the chat server 30 through the network manager 22 or viewed in the face model database 20. 25) to pass.

표정 생성기(24)는 사용자로부터 표정에 관한 자료를 입력장치(28)로부터 입력받기 위한 표정 입력 사용자 인터페이스를 구비하고, 입력받은 표정에 관한 자료에 의해 사용자 자신만의 개성을 지닌 표정에 관한 패러미터를 생성한다. 표정 생성기(24)에서 생성하는 패러미터는 얼굴 동작 코딩 시스템(Facial Action Coding System : FACS)의 동작 단위(Action Unit : AU) 방식에 따른 패러미터임이 바람직하다.The facial expression generator 24 has a facial expression input user interface for inputting data on facial expressions from the user from the input device 28, and provides parameters related to facial expressions having its own personality based on the input facial expression data. Create The parameter generated by the facial expression generator 24 is preferably a parameter according to an action unit (AU) method of a facial action coding system (FACS).

표정 데이터베이스(21)는 표정에 관한 패러미터를 항목으로 하여 저장한 데이터베이스이다.The facial expression database 21 is a database that stores parameters related to facial expressions as items.

표정 관리자(27)는 기본 표정들과 함께 표정 생성기(24)에 의해 생성된 표정 패러미터를 항목으로 하여 데이터베이스화하고, 이에 대한 편집, 삽입, 조회 기능을 제공한다. 한편, 표정 관리자(27)는 사람의 감정을 표현하는 기본 어휘와 표정 데이터베이스(21) 간의 상관관계를 이용하여 또한, 표정 관리자(27)는 채팅 서버(30)로부터 네트워크 관리자(22)전송받았거나 표정 데이터베이스(21)에서 조회한 표정에 관한 패러미터를 얼굴 합성기(25)로 전달한다.The facial expression manager 27 makes a database of facial expression parameters generated by the facial expression generator 24 along with the basic facial expressions, and provides functions for editing, inserting, and inquiring about the facial expressions. On the other hand, the facial expression manager 27 uses the correlation between the basic vocabulary expressing a person's emotion and the facial expression database 21, and the facial expression manager 27 is also received from the chat server 30 by the network manager 22. The parameters related to the facial expressions inquired by the facial expression database 21 are transmitted to the facial synthesizer 25.

얼굴 합성기(25)는 얼굴 모델 관리자(26) 및 표정 관리자(27)로부터 전달받은 얼굴 모델들의의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 이용하여 채팅 세션 내에 있는 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션한다.The face synthesizer 25 expresses users in a chat session using parameters related to three-dimensional vertex position information, texture image data, and facial expressions of the face models received from the face model manager 26 and the facial expression manager 27. Animates the facial model's facial expressions.

네트워크 관리자(22)는 네트워크를 통해 채팅 서버(30)와의 정보교환을 관리한다.The network manager 22 manages the exchange of information with the chat server 30 via the network.

도면에는 도시되어 있지 않지만, 본 발명에 의한 애니메이션 채팅 시스템의 일실시예에 포함된 각 채팅 클라이언트는 필요한 경우(특히, 1:1 채팅의 경우) 음성도 같이 들을 수 있도록, 텍스트 데이터를 음성으로 변환하는 텍스트/음성 변환기(Text To Speech : TTS) 및 텍스트/음성 변환기에 의해 변환된 음성에 따라 채팅 세션 내에 있는 사용자들을 표현하는 얼굴 모델의 입술형태를 변환시키는 립싱크부를 더 구비할 수 있다.Although not shown in the drawing, each chat client included in an embodiment of the animation chat system according to the present invention converts text data into voice so that voice can be heard as needed (particularly in case of 1: 1 chat). The apparatus may further include a lip-sync unit for converting a lip shape of a face model representing users in a chat session according to a voice converted by a text to speech (TTS) and a text / voice converter.

도 3에 의하면, 채팅 서버(30)는 네트워크 관리자(31) 및 채팅 세션 관리자(32)를 구비한다.According to FIG. 3, the chat server 30 includes a network manager 31 and a chat session manager 32.

네트워크 관리자(31)는 채팅 세션에 참가하는 채팅 클라이언트들로부터 네트워크를 통해 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 전송받고, 이들을 같은 채팅 세션 내에 있는 모든 채팅 클라이언트들에 전송한다. 그리고, 채팅 세션 관리자(32)는 채팅 세션에 참가하고자 하는 채팅 클라이언트와의 채팅 세션의 설정/해제 등을 관리한다.The network manager 31 receives parameters from the chat clients participating in the chat session about the 3D vertex position information, texture image data and facial expression of the face model through the network, and sends them to all chat clients in the same chat session. send. The chat session manager 32 manages the setting / cancellation of the chat session with the chat client which is to participate in the chat session.

이하에서, 도 1 내지 도 3에 도시된 채팅 시스템에서 본 발명에 의한 3차원 얼굴모델을 애니메이션하기 위한 데이터 전송과정의 일실시예를 설명한다.Hereinafter, an embodiment of a data transmission process for animation of a 3D face model according to the present invention in the chat system shown in FIGS. 1 to 3 will be described.

네트워크에 연결된 채팅 서버 및 다수의 채팅 클라이언트를 구비한 채팅 시스템에서 3차원 얼굴모델을 애니메이션하기 위한 데이터를 전송하는 방법에 있어서,In a chat system having a chat server connected to a network and a plurality of chat clients, a method for transmitting data for animating a three-dimensional face model,

먼저, 각 채팅 클라이언트에서 얼굴 모델 생성기(23)는 미리 저장된 기본 얼굴모델 위치정보(geometry) 및 사용자로부터 입력받은 2차원 얼굴 이미지를 이용하여 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 생성하고, 얼굴 모델 관리자(26)는 생성된 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 항목으로 하는 얼굴 모델 데이터베이스(20)를 구성한다.First, in each chat client, the face model generator 23 generates three-dimensional vertex position information and texture image data of the face model using the pre-stored basic face model geometry and the two-dimensional face image received from the user. The face model manager 26 configures the face model database 20 having the generated three-dimensional vertex position information and texture image data as items.

이때, 기본 얼굴모델의 위치정보는 도 4a에 도시된 3차원 기본 얼굴 와이어프레임(wireframe), 도 4b에 도시된 기본 얼굴 정면 윤곽선 및 기본 얼굴 측면 윤곽선 등을 포함한다. 한편, 도 4c는 도 4b의 기본 얼굴 정면 윤곽선을 사용자로부터 입력받은 임의의 2차원 정면 얼굴 이미지에 정합시킨 도면이고, 도 4d는 기본 얼굴 측면 윤곽선을 사용자로부터 입력받은 2차원 측면 얼굴 이미지에 정합시킨 도면이다. 그리고, 도 4e는 도 4c 및 도 4d의 이미지들과 도 4a의 기본 얼굴 와이어프레임을 이용하여 3차원 얼굴을 합성한 결과를 도시한 것이다.In this case, the location information of the basic face model includes a three-dimensional basic face wireframe shown in FIG. 4A, a basic face front outline, a basic face side outline, and the like shown in FIG. 4B. 4C is a diagram in which the basic face front contour of FIG. 4B is matched to an arbitrary two-dimensional front face image received from a user, and FIG. 4D is a diagram of matching the basic face side contour to a two-dimensional side face image received from a user. Drawing. 4E illustrates a result of synthesizing a 3D face using the images of FIGS. 4C and 4D and the basic face wireframe of FIG. 4A.

또한, 각 채팅 클라이언트에서 표정 생성기(24)는 사용자로부터 표정에 관한 자료를 입력장치(28)로부터 입력받기 위하여 도 5에 예시된 바와 같은 표정 입력 사용자 인터페이스를 구비하고, 입력받은 표정에 관한 자료에 의해 표정에 관한 패러미터를 생성하고, 표정 관리자(27)는 표정에 관한 패러미터를 항목으로 하는 표정 데이터베이스(21)를 구성한다.In addition, in each chat client, the facial expression generator 24 is provided with an facial expression input user interface as illustrated in FIG. 5 in order to receive data regarding facial expressions from the user from the input device 28. By generating a parameter relating to the facial expression, the facial expression manager 27 constructs the facial expression database 21 having the parameter relating to the facial expression as an item.

이후, 채팅 세션에 접속하기 위한 채팅 클라이언트는 그 사용자를 대표하는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 채팅 서버로 전송한다. 그러면, 채팅 서버는 채팅 세션 내의 다른 모든 채팅 클라이언트들에 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 전송하고, 채팅 세션에 접속하고자 하는채팅 클라이언트에 채팅 세션 내의 다른 모든 채팅 클라이언트들의 사용자들을 대표하는 얼굴 모델들의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 전송한다.Thereafter, the chat client for accessing the chat session transmits the 3D vertex position information and the texture image data of the face model representing the user to the chat server. The chat server then sends three-dimensional vertex location information and texture image data to all other chat clients in the chat session, and a face model representing users of all other chat clients in the chat session to the chat client wishing to access the chat session. 3D vertex position information and texture image data are transmitted.

채팅 세션에 접속이 이루어지면, 각 채팅 클라이언트는 채팅 서버를 통해 다른 채팅 클라이언트로 표정에 관한 패러미터를 반복적으로 전송함으로써, 각 채팅 클라이언트가 도 6에 도시된 바와 같이 각 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션하도록 한다.When a chat session is established, each chat client repeatedly sends parameters related to facial expressions through the chat server to other chat clients, whereby each chat client expresses a facial model representing each user as shown in FIG. Let's animate

각 채팅 클라이언트에서 표정 변화를 위해 인터페이스하는 과정은 다음과 같은 세가지 방법들 중에서 한 가지 이상의 방법들을 중복하여 사용할 수 있다.The interface for changing facial expressions in each chat client may overlap one or more of the following three methods.

첫째 방법에서는, 각 채팅 클라이언트에 구비된 표정 데이터베이스의 내용에서 각 사용자가 원하는 표정에 관한 패러미터를 찾아 채팅 서버로 전송하면, 채팅 서버가 채팅 세션 내의 다른 모든 채팅 클라이언트들에 그 표정에 관한 패러미터를 전송한다. 그러면, 각 채팅 클라이언트는 그 표정에 관한 패러미터를 전송받고, 미리 전송받은 채팅 세션 내의 사용자들을 대표하는 얼굴 모델들의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 이용하여 각 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션한다.In the first method, the parameters of the facial expression database included in each chat client are found and transmitted to the chat server. The chat server transmits parameters about the facial expression to all other chat clients in the chat session. do. Then, each chat client receives the parameter about the expression and expresses the facial model representing each user by using the 3D vertex position information and the texture image data of the face models representing the users in the previously transmitted chat session. To animate.

둘째 방법에서는, 각 채팅 클라이언트에 구비된 표정 데이터베이스의 각 항목에 대응하는 기본어휘를 채팅 문자열에 포함시켜 채팅 서버로 전송하면, 채팅 서버가 채팅 세션 내의 다른 모든 채팅 클라이언트들에 그 채팅 문자열을 전송한다. 그러면, 각 채팅 클라이언트는 전송받은 채팅 문자열에서 감정을 표현하는 기본어휘를 추출하고 추출된 기본어휘를 키(key)로 하여 표정 데이터베이스(21)에서 대응하는 표정에 관한 패러미터를 조회한다. 이후, 미리 전송받은 채팅 세션 내의 사용자들을 대표하는 얼굴 모델들의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터에 조회된 표정에 관한 패러미터를 이용하여 각 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션한다.In the second method, a basic vocabulary corresponding to each item of the facial expression database included in each chat client is included in the chat string and transmitted to the chat server, and the chat server transmits the chat string to all other chat clients in the chat session. . Then, each chat client extracts a basic vocabulary expressing emotions from the received chat string and inquires a parameter about a corresponding expression in the facial expression database 21 using the extracted basic vocabulary as a key. Thereafter, the facial model representing each user is animated by using the 3D vertex position information of the face models representing the users in the chat session received in advance and parameters related to the expressions queried in the texture image data.

셋째 방법에서는 표정들 간의 감정적 상관관계를 통한 강도(intensity) 변화를 이용하여 표정변화를 애니메이션하도록 한다.In the third method, the expression change is animated by using the intensity change through the emotional correlation between the expressions.

이와 같은 3가지 방법들이 모두 포함되는 경우에는 첫번째 방법이 가장 높은 우선순위를 갖도록하는 것이 바람직하다.If all three methods are included, it is desirable to make the first method have the highest priority.

한편, 도 7a 및 도 7b에 도시된 바와 같은 1:1 채팅의 경우, 3차원 얼굴 모델의 표정 애니메이션과 함께 텍스트/음성 변환기를 이용하여 음성도 같이 들을 수도 있으며, 립싱크부를 구비하여 채팅 세션 내에 있는 상대방 사용자 얼굴 모델의 입술형태를 발성에 대응하여 변환시킬 수 있다.Meanwhile, in the case of 1: 1 chat as shown in FIGS. 7A and 7B, the voice may be heard using a text / voice converter together with the facial expression animation of the 3D face model, and the lip sync unit may be used to listen to the voice. The lip shape of the counterpart user's face model may be converted in response to speech.

본 발명에 의하면, 텍스트만으로는 의미전달이 어려움 경우 3차원 얼굴 애니메이션을 통하여 좀 더 분명하게 의미전달을 할 수 있으며, 3차원 얼굴 애니메이션을 위해 최초 세션 형성 이후에는 표정에 관한 패러미터만을 전송함으로써 네트워크 및 시스템의 부하를 줄일 수 있다.According to the present invention, if it is difficult to convey meaning with text alone, it is possible to more clearly convey meaning through 3D face animation.After the initial session is formed for 3D face animation, only the parameters related to the expression are transmitted to the network and the system. Can reduce the load.

Claims (8)

네트워크;network; 상기 네트워크에 접속되고, 채팅 세션에 참가할 때 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 상기 네트워크를 통해 전송하고, 채팅 세션에 참가한 이후에는 표정에 관한 패러미터를 상기 네트워크를 통해 전송하고, 상기 네트워크를 통해 전송된 다른 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 사용하여 다른 사용자의 얼굴을 합성하여 사용자에게 디스플레이하는 다수의 채팅 클라이언트; 및After connecting to the network and transmitting the 3D vertex position information and texture image data of the face model representing the user when participating in the chat session, and after joining the chat session, the parameter about the expression is transmitted through the network. A plurality of chat clients for transmitting and synthesizing and displaying the faces of other users to the user using parameters related to three-dimensional vertex position information, texture image data, and facial expression of the face model representing the other user transmitted through the network; And 상기 네트워크에 접속되고, 채팅 세션에 참가하는 채팅 클라이언트들로부터 상기 네트워크를 통해 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 전송받고, 같은 채팅 세션 내에 있는 모든 채팅 클라이언트들에 전송하여 채팅세션을 관리하는 채팅 서버를 포함함을 특징으로 하는 애니메이션 채팅 시스템.Receive from the chat clients connected to the network and participating in the chat session parameters about the 3D vertex position information, texture image data and facial expression of the face model via the network and to all chat clients within the same chat session. An animation chat system comprising a chat server for transmitting and managing a chat session. 제1항에 있어서, 상기 채팅 클라이언트는The method of claim 1, wherein the chat client is 사용자를 표현하는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 항목으로 하여 저장한 얼굴 모델 데이터베이스;A face model database storing three-dimensional vertex position information and texture image data of a face model representing a user as items; 표정에 관한 패러미터를 항목으로 하여 저장한 표정 데이터베이스;A facial expression database stored with parameters relating to facial expressions as an item; 상기 채팅 서버로부터 전송받은 얼굴 모델의 3차원 꼭지점 위치정보, 텍스쳐 이미지 데이터 및 표정에 관한 패러미터를 이용하여 채팅 세션 내에 있는 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션하는 얼굴 합성기; 및A face synthesizer that animates the expression of the face model representing the users in the chat session using parameters related to the 3D vertex position information, the texture image data, and the expression of the face model received from the chat server; And 상기 네트워크를 통해 상기 채팅 서버와의 정보교환을 관리하는 네트워크 관리자를 구비함을 특징으로 하는 애니메이션 채팅 시스템.And a network manager for managing exchange of information with the chat server through the network. 제2항에 있어서, 상기 채팅 클라이언트는The method of claim 2, wherein the chat client is 기저장된 기본 얼굴모델 위치정보 및 사용자로부터 입력받은 2차원 얼굴 이미지를 이용하여 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 생성하는 얼굴모델 생성기; 및A face model generator for generating three-dimensional vertex position information and texture image data of the face model using previously stored basic face model position information and a two-dimensional face image received from a user; And 사용자로부터 표정에 관한 자료를 입력받기 위한 표정 입력 사용자 인터페이스를 구비하고, 입력받은 표정에 관한 자료에 의해 표정에 관한 패러미터를 생성하는 표정 생성기를 더 구비함을 특징으로 하는 애니메이션 채팅 시스템.And a facial expression generator configured to receive a facial expression input user interface for inputting data regarding facial expressions from a user, and to generate a parameter about facial expressions according to the input facial expression data. 제3항에 있어서, 상기 표정 생성기에서 생성하는 패러미터는The method of claim 3, wherein the parameter generated by the facial expression generator 얼굴 동작 코딩 시스템(FACS)의 동작 단위(AU) 방식에 따른 패러미터임을 특징으로 하는 애니메이션 채팅 시스템.An animation chat system, characterized in that the parameter according to the operation unit (AU) method of the facial motion coding system (FACS). 제2항에 있어서, 상기 채팅 클라이언트는The method of claim 2, wherein the chat client is 텍스트 데이터를 음성으로 변환하는 텍스트/음성 변환기; 및A text / voice converter for converting text data into speech; And 상기 텍스트/음성 변환기에 의해 변환된 음성에 따라 채팅 세션 내에 있는 사용자들을 표현하는 얼굴 모델의 입술형태를 변환시키는 립싱크부를 더 구비함을 특징으로 하는 애니메이션 채팅 시스템.And a lip sync unit for converting a lip shape of a face model representing users in a chat session according to the voice converted by the text / voice converter. 네트워크에 연결된 채팅 서버 및 다수의 채팅 클라이언트를 구비한 채팅 시스템에서 3차원 얼굴모델을 애니메이션하기 위한 데이터를 전송하는 방법에 있어서,In a chat system having a chat server connected to a network and a plurality of chat clients, a method for transmitting data for animating a three-dimensional face model, (a) 채팅 세션에 접속하기 위한 채팅 클라이언트가 사용자를 대표하는 얼굴 모델의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 상기 채팅 서버로 전송하는 단계;(a) transmitting, by a chat client for accessing a chat session, 3D vertex position information and texture image data of a face model representing the user to the chat server; (b) 상기 채팅 서버가 채팅 세션 내의 다른 모든 채팅 클라이언트들에 상기 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 전송하고, 상기 채팅 세션에 접속하기 위한 채팅 클라이언트에 채팅 세션 내의 다른 모든 채팅 클라이언트들의 사용자들을 대표하는 얼굴 모델들의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 전송하는 단계;(b) the chat server sends the three-dimensional vertex location information and texture image data to all other chat clients in the chat session, and sends users of all other chat clients in the chat session to the chat client for accessing the chat session. Transmitting 3D vertex position information and texture image data of representative face models; (c) 채팅 세션에 접속이 이루어지면, 각 채팅 클라이언트는 상기 채팅 서버를 통해 다른 채팅 클라이언트로 표정에 관한 패러미터를 반복적으로 전송함으로써, 각 채팅 클라이언트가 각 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션하도록 하는 단계를 포함함을 특징으로 하는 채팅 시스템에서 3차원 얼굴모델을 애니메이션하기 위한 데이터 전송방법.(c) When a chat session is established, each chat client repeatedly sends parameters relating to facial expressions through the chat server to other chat clients so that each chat client animate the facial expressions of the face models representing each user. And a data transmission method for animating a three-dimensional face model in a chat system. 제6항에 있어서, 상기 (c) 단계는The method of claim 6, wherein step (c) (c1) 각 채팅 클라이언트에 구비된 표정 데이터베이스의 내용에서 각 사용자가 원하는 표정에 관한 패러미터를 찾아 채팅 서버로 전송하는 단계;(c1) finding a parameter related to a facial expression desired by each user in the contents of the facial expression database provided in each chat client and transmitting the parameter to the chat server; (c2) 채팅 서버가 채팅 세션 내의 다른 모든 채팅 클라이언트들에 상기 표정에 관한 패러미터를 전송하는 단계; 및(c2) the chat server sending a parameter relating to the expression to all other chat clients in the chat session; And (c3) 각 채팅 클라이언트는 상기 표정에 관한 패러미터를 전송받고, 미리 전송받은 채팅 세션 내의 사용자들을 대표하는 얼굴 모델들의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 이용하여 각 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션하도록 하는 단계를 포함함을 특징으로 하는 채팅 시스템에서 3차원 얼굴모델을 애니메이션하기 위한 데이터 전송방법.(c3) Each chat client receives the parameters related to the facial expression, and the facial model expresses each user by using texture image data and 3D vertex position information of facial models representing users in a previously transmitted chat session. A method of transmitting data for animation of a three-dimensional face model in a chat system, characterized in that it comprises the step of animate. 제6항에 있어서, 상기 (c) 단계는The method of claim 6, wherein step (c) (c1) 각 채팅 클라이언트에 구비된 표정 데이터베이스의 각 항목에 대응하는 기본어휘를 채팅 문자열에 포함시켜 채팅 서버로 전송하는 단계;(c1) including a basic vocabulary corresponding to each item of the facial expression database provided in each chat client in a chat string and transmitting the same to the chat server; (c2) 채팅 서버가 채팅 세션 내의 다른 모든 채팅 클라이언트들에 상기 채팅 문자열을 전송하는 단계; 및(c2) a chat server sending the chat string to all other chat clients in a chat session; And (c3) 각 채팅 클라이언트는 전송받은 채팅 문자열에 포함된 기본어휘 추출한 후 추출된 기본어휘를 키로 하여 표정 데이터베이스에서 대응하는 표정에 관한 패러미터를 조회하고, 미리 전송받은 채팅 세션 내의 사용자들을 대표하는 얼굴 모델들의 3차원 꼭지점 위치정보와 텍스쳐 이미지 데이터를 이용하여 각 사용자들을 표현하는 얼굴 모델의 표정을 애니메이션하도록 하는 단계를 포함함을 특징으로 하는 채팅 시스템에서 3차원 얼굴모델을 애니메이션하기 위한 데이터 전송방법.(c3) Each chat client extracts the basic vocabulary included in the transmitted chat string, and inquires the parameter about the corresponding expression from the facial expression database using the extracted basic vocabulary as a key, and a face model representing users in the previously transmitted chat session. And animating the facial expressions of the facial models representing each user using the three-dimensional vertex position information and the texture image data of the three-dimensional vertex in the chat system.
KR1019990027246A 1999-07-07 1999-07-07 Chatting system using animated avatars and method thereof KR100300966B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990027246A KR100300966B1 (en) 1999-07-07 1999-07-07 Chatting system using animated avatars and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990027246A KR100300966B1 (en) 1999-07-07 1999-07-07 Chatting system using animated avatars and method thereof

Publications (2)

Publication Number Publication Date
KR20010009080A KR20010009080A (en) 2001-02-05
KR100300966B1 true KR100300966B1 (en) 2001-11-01

Family

ID=19599921

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990027246A KR100300966B1 (en) 1999-07-07 1999-07-07 Chatting system using animated avatars and method thereof

Country Status (1)

Country Link
KR (1) KR100300966B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100345310B1 (en) * 1999-08-13 2002-07-25 주식회사 케이티 System and method for multimedia chatting service
KR100372929B1 (en) * 1999-11-25 2003-02-20 김관회 Method for making user's own image in chatting site
KR100797465B1 (en) * 2001-02-22 2008-01-24 엘지전자 주식회사 System for video chatting, user terminal and method for the same
KR20030085212A (en) * 2002-04-29 2003-11-05 주식회사 엔씨소프트 System and method for providing real-time chating service having animation effect on chating text
KR100471594B1 (en) * 2002-11-26 2005-03-10 엔에이치엔(주) Method for Providing Data Communication Service in Computer Network by using User-Defined Emoticon Image and Computer-Readable Storage Medium for storing Application Program therefor
CN111991808A (en) * 2020-07-31 2020-11-27 完美世界(北京)软件科技发展有限公司 Face model generation method and device, storage medium and computer equipment

Also Published As

Publication number Publication date
KR20010009080A (en) 2001-02-05

Similar Documents

Publication Publication Date Title
CN104780093B (en) Expression information processing method and processing device during instant messaging
US7091976B1 (en) System and method of customizing animated entities for use in a multi-media communication application
US6990452B1 (en) Method for sending multi-media messages using emoticons
US20180157901A1 (en) Method and system for incorporating contextual and emotional visualization into electronic communications
US7035803B1 (en) Method for sending multi-media messages using customizable background images
CN110286756A (en) Method for processing video frequency, device, system, terminal device and storage medium
CN110400251A (en) Method for processing video frequency, device, terminal device and storage medium
US20020194006A1 (en) Text to visual speech system and method incorporating facial emotions
JP2001230801A (en) Communication system and its method, communication service server and communication terminal
US20020007276A1 (en) Virtual representatives for use as communications tools
US20060077205A1 (en) Computer-implemented chat system having dual channel communications and self-defining product structures
JP2005505847A (en) Rich communication via the Internet
JP2003248841A (en) Virtual television intercom
KR100733772B1 (en) Method and system for providing lip-sync service for mobile communication subscriber
US7671861B1 (en) Apparatus and method of customizing animated entities for use in a multi-media communication application
KR100300966B1 (en) Chatting system using animated avatars and method thereof
Lokesh et al. Computer Interaction to human through photorealistic facial model for inter-process communication
KR20060104980A (en) System and method for interlocking process between emoticon and avatar
KR20030026506A (en) System and method for interlocking process between emoticon and avatar
Morishima et al. Face-to-face communicative avatar driven by voice
KR20010017865A (en) Method Of Visual Communication On Speech Translating System Based On Avatar
JP2001357414A (en) Animation communicating method and system, and terminal equipment to be used for it
KR100559287B1 (en) Chat system and method using animation of graphic images
KR20110012707A (en) 3dimensional contents production system and web to phone transmission method
KR20230120940A (en) method for executing video chatting between 3D avatars of rendering an user's facial expression

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130522

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20140522

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20150522

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20160520

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20170518

Year of fee payment: 17

FPAY Annual fee payment

Payment date: 20180517

Year of fee payment: 18

FPAY Annual fee payment

Payment date: 20190520

Year of fee payment: 19

EXPY Expiration of term