KR100610199B1 - Method and system for motion capture avata service - Google Patents

Method and system for motion capture avata service Download PDF

Info

Publication number
KR100610199B1
KR100610199B1 KR1020040046285A KR20040046285A KR100610199B1 KR 100610199 B1 KR100610199 B1 KR 100610199B1 KR 1020040046285 A KR1020040046285 A KR 1020040046285A KR 20040046285 A KR20040046285 A KR 20040046285A KR 100610199 B1 KR100610199 B1 KR 100610199B1
Authority
KR
South Korea
Prior art keywords
avatar
terminal
information
motion
server
Prior art date
Application number
KR1020040046285A
Other languages
Korean (ko)
Other versions
KR20050121126A (en
Inventor
최윤석
김후종
Original Assignee
에스케이 텔레콤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 텔레콤주식회사 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020040046285A priority Critical patent/KR100610199B1/en
Publication of KR20050121126A publication Critical patent/KR20050121126A/en
Application granted granted Critical
Publication of KR100610199B1 publication Critical patent/KR100610199B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms

Abstract

모션인식 아바타 서비스 방법 및 시스템이 개시된다. 본 발명은 서비스 사용자의 모션을 인식하는 아바타를 제공하기 위한 서비스 방법 및 시스템에 관한 것이다. 본 발명에 따른 모션인식 아바타 서비스 방법 a) 아바타 서버가 개인 아바타 설정을 위한 아바타 생성 정보를 제 1 단말기로 전송하는 단계; b) 상기 아바타 서버가 상기 아바타 생성 정보를 통하여 설정된 개인 아바타 정보를 상기 제 1 단말기로부터 수신하여 저장하는 단계; c) 상기 제 1 단말기가 화상 수신부를 통하여 화상을 수신하고, 벡터값 생성부를 이용하여 상기 제 1 단말기에 수신된 화상에 대한 벡터값 정보를 생성하며, 생성된 벡터값 정보를 상기 아바타 서버에 전송하는 단계; 및 d) 상기 아바타 서버가 상기 제 1 단말기로부터 수신된 벡터값 정보에 따른 개인 아바타 정보를 생성하고, 생성된 개인 아바타 모션 정보를 상기 아바타 서버를 통하여 상기 제 1 단말기와 연결되어 있는 제 2 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.Disclosed are a motion recognition avatar service method and system. The present invention relates to a service method and system for providing an avatar for recognizing a motion of a service user. Method for a motion recognition avatar service according to the present invention a) Avatar server transmitting the avatar generation information for setting the personal avatar to the first terminal; b) the avatar server receiving and storing personal avatar information set through the avatar generation information from the first terminal; c) the first terminal receives an image through an image receiving unit, generates vector value information on an image received by the first terminal using a vector value generating unit, and transmits the generated vector value information to the avatar server Doing; And d) the avatar server generates personal avatar information according to the vector value information received from the first terminal, and generates the generated personal avatar motion information to the second terminal connected to the first terminal through the avatar server. Characterized in that it comprises the step of transmitting.

단말기, 아바타, 모션인식, 채팅 서비스Handset, Avatar, Motion Recognition, Chat Service

Description

모션인식 아바타 서비스 방법 및 시스템{METHOD AND SYSTEM FOR MOTION CAPTURE AVATA SERVICE}METHOD AND SYSTEM FOR MOTION CAPTURE AVATA SERVICE}

도 1은 본 발명의 일 실시예에 따른 모션인식 아바타 서비스 시스템의 개요도이다.1 is a schematic diagram of a motion recognition avatar service system according to an exemplary embodiment of the present invention.

도 2는 본 발명의 다른 실시예에 따른 모션인식 아바타 서비스 시스템의 개요도이다.2 is a schematic diagram of a motion recognition avatar service system according to another exemplary embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 모션인식 아바타 서비스 방법의 순서도이다.3 is a flowchart illustrating a motion recognition avatar service method according to an embodiment of the present invention.

도 4는 본 발명의 다른 실시예에 따른 모션인식 아바타 서비스 방법의 순서도이다.4 is a flowchart illustrating a motion recognition avatar service method according to another embodiment of the present invention.

*** 도면의 주요부분에 대한 부호 설명 ****** Explanation of symbols on main parts of drawing ***

100 : 제 1 단말기 150 : 모션 인식부100: first terminal 150: motion recognition unit

152 : 화상 수신부 154 : 벡터값 생성부152: image receiving unit 154: vector value generating unit

200 : 제 2 단말기 300 : 아바타 서버200: second terminal 300: avatar server

330 : 아바타 모션 생성부 360 : 데이터 베이스330: Avatar motion generator 360: Database

400 : 네트워크 500 : 채팅 서버400: network 500: chat server

본 발명은 모션인식 아바타 서비스 방법 및 시스템에 관한 것으로, 보다 상세하게는 아바타 서버로부터 제공받은 개인 아바타에 상기 사용자의 모션이 투영되어 상기 단말기 또는 상기 단말기와 연결되어 있는 다른 단말기에 보여지게 하기 위한 방법 및 시스템에 관한 것이다. The present invention relates to a motion recognition avatar service method and system, and more particularly, a method for projecting a user's motion onto a personal avatar provided from an avatar server to be displayed on the terminal or another terminal connected to the terminal. And to the system.

일반적으로 아바타(Avata)란 가상사회(Virtual Community)에서 자신의 분신을 의미하는 시각적 이미지를 나타내는 말로, 사이버공간에서 사용자의 역할을 대신하는 애니메이션 캐릭터이다.In general, an avatar is a word representing a visual image of an alter ego in a virtual community, and is an animation character that replaces a user's role in cyberspace.

현재 아바타가 이용되는 분야는 채팅이나 온라인 게임 외에도 사이버 쇼핑몰, 가상교육, 가상오피스 등 그 응용분야가 확대되고 있는 추세이다.Currently, avatars are used in applications such as cyber shopping malls, virtual education, and virtual offices as well as chatting and online games.

그리고 그 가운데 가장 각광받는 분야는 온라인 채팅 서비스로, 서비스 이용자는 개인 아바타를 각각 설정하여, 사생활 침해가 될 수 있는 화상채팅 서비스를 대신하여 익명과 실명의 중간 정도를 만족시키는 채팅 서비스를 이용하고 있다.The most prominent field is the online chat service, in which the user of the service sets a personal avatar and uses a chat service that satisfies the medium of anonymity and blindness in place of a video chat service that may invade privacy. .

그러나 현재의 아바타는 사용자의 설정에 의해 그 모션이 결정되거나 마우스나 키보드를 통해서만 아바타를 움직이게 할 수 있는 등 동기감 있는 아바타를 구현하는 데는 제한점이 많다는 문제점이 있다.However, the current avatar has a problem in that there are many limitations in implementing a synchronous avatar such that the motion is determined by the user's setting or the avatar can be moved only through a mouse or a keyboard.

한편, 일반적으로 카메라로 사람이나 사물에 부착된 광학적인 센서인 마커(Marker)를 인식하는 모션 인식(Motion capture)방법이 알려져 있으나, 이는 사람이나 사물에 반드시 센서를 부착하여야 하기 때문에 온라인 채팅 서비스와 같 이 대중적인 서비스와 함께 응용되기에는 많은 문제점이 따른다.On the other hand, a motion capture method for recognizing a marker, which is an optical sensor attached to a person or an object, by a camera is generally known. However, since a sensor must be attached to a person or an object, an online chat service is required. There are many problems to be applied with such popular services.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 단말기가 화상을 수신하여 상기 화상에 대한 벡터값을 생성하고, 아바타 서버가 상기 벡터값을 수신하고 상기 벡터값에 따른 아바타의 모션을 생성하여 상기 단말기로 전송하는 과정이 반복적으로 이루어짐으로써, 사용자의 모션이 투영된 아바타를 제공할 수 있는 모션인식 아바타 서비스 방법 및 시스템을 제공하는 것이다.The present invention has been made to solve the above problems, and an object of the present invention is to generate a vector value for the image by the terminal receives the image, the avatar server receives the vector value and according to the vector value A process of generating and transmitting a motion of an avatar to the terminal is repeatedly performed, thereby providing a motion recognition avatar service method and system capable of providing an avatar on which a user's motion is projected.

이와 같은 목적을 달성하기 위한 본 발명에 따른 모션인식 아바타 서비스 시스템은, 네트워크를 통해 연결된 제 1 단말기에 아바타 생성 정보를 전송하고, 사용자의 모션에 대한 이미지 정보인 화상을 수신하는 화상 수신부 및 상기 화상에 대한 벡터값을 생성하여 생성된 화상 정보를 벡터값 정보로 변환하는 벡터값 생성부를 포함하는 모션 인식부를 구비한 상기 제 1 단말기로부터 상기 아바타 생성 정보를 통해 설정된 개인 아바타 정보 및 상기 벡터값 정보를 수신하며, 상기 제 1 단말기로부터 수신된 개인 아바타 정보 및 상기 벡터값 정보를 이용하여 개인 아바타 모션 정보를 생성하는 아바타 모션 생성부를 포함하며, 상기 아바타 모션 생성부에 의해 생성된 개인 아바타 모션 정보를 상기 아바타 서버를 통하여 상기 제 1 단말기와 연결되어 있는 제 2 단말기로 전송하는 것을 특징으로 한다.Motion recognition avatar service system according to the present invention for achieving the above object, the image receiving unit for transmitting the avatar generation information to the first terminal connected via a network, and receives an image that is the image information of the user's motion and the image Personal avatar information and the vector value information set through the avatar generation information from the first terminal having a motion recognition unit including a vector value generation unit generating a vector value for converting the generated image information into vector value information. And an avatar motion generator configured to generate personal avatar motion information using the personal avatar information and the vector value information received from the first terminal, wherein the avatar motion generator generates the personal avatar motion information generated by the avatar motion generator. Connected to the first terminal via an avatar server It characterized in that it sent to the second terminal.

그리고 이와 같은 목적을 달성하기 위한 본 발명의 제 1 관점에 따른 모션인식 아바타 서비스 방법은, a) 아바타 서버가 개인 아바타 설정을 위한 아바타 생성 정보를 제 1 단말기로 전송하는 단계; b) 상기 아바타 서버가 상기 아바타 생성 정보를 통하여 설정된 개인 아바타 정보를 상기 제 1 단말기로부터 수신하여 저장하는 단계; c) 상기 제 1 단말기가 화상 수신부를 통하여 화상을 수신하고, 벡터값 생성부를 이용하여 상기 제 1 단말기에 수신된 화상에 대한 벡터값 정보를 생성하며, 생성된 벡터값 정보를 상기 아바타 서버에 전송하는 단계; 및 d) 상기 아바타 서버가 상기 제 1 단말기로부터 수신된 벡터값 정보에 따른 개인 아바타 정보를 생성하고, 생성된 개인 아바타 모션 정보를 상기 아바타 서버를 통하여 상기 제 1 단말기와 연결되어 있는 제 2 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.And the motion recognition avatar service method according to the first aspect of the present invention for achieving the above object comprises the steps of: a) transmitting, by the avatar server, avatar generation information for setting the personal avatar to the first terminal; b) the avatar server receiving and storing personal avatar information set through the avatar generation information from the first terminal; c) the first terminal receives an image through an image receiving unit, generates vector value information on an image received by the first terminal using a vector value generating unit, and transmits the generated vector value information to the avatar server Doing; And d) the avatar server generates personal avatar information according to the vector value information received from the first terminal, and generates the generated personal avatar motion information to the second terminal connected to the first terminal through the avatar server. Characterized in that it comprises the step of transmitting.

또한, 이와 같은 목적을 달성하기 위한 본 발명의 제 2 관점에 따른 모션인식 아바타 서비스 방법은, ⅰ) 채팅서버가 아바타 생성정보를 아바타 서버로부터 수신하여 제 1 단말기 및 제 2 단말기에 전송하는 단계; ⅱ) 상기 채팅서버가 상기 제 1 단말기로부터 상기 아바타 생성 정보를 통해 설정된 제 1 개인 아바타 정보를 수신하고, 상기 제 2 단말기로부터 상기 아바타 생성 정보를 통해 설정된 제 2 개인 아바타 정보를 수신하여 상기 아바타 서버에 전송하여 저장시키는 단계; ⅲ) 상기 채팅 서버가 제 1 단말기로부터 제 1 채팅요청 정보를 수신하고, 상기 채팅요청 정보를 통해 제 2 채팅요청 정보를 전송한 제 2 단말기와의 접속승인 여부 정보를 상기 제 1 단말기로 전송하는 단계; ⅳ) 상기 채팅 서버가 상기 제 1 단말기로부터 상기 제 2 단말기와의 접속승인 정보를 수신하여 상기 제 2 단말기로 전송하는 단계; ⅴ) 상기 채팅 서버가 상기 제 1 단말기 및 상기 제 2 단말기에 구비된 모션 인식부를 이용하여 상기 제 1 단말기에 인식된 화상에 대한 제 1 벡터값 정보, 및 상기 제 2 단말기에 인식된 화상에 대한 제 2 벡터값 정보를 수신하는 단계; 및 ⅵ) 상기 아바타 서버가 상기 1 단말기로부터 수신된 제 1 벡터값 정보에 따른 제 1 개인 아바타 모션을 생성하고, 제 2 단말기로부터 수신된 제 2 벡터값 정보에 따른 제 2 개인 아바타 모션을 생성하며, 생성된 제 1 개인 아바타 모션 정보 및 제 2 개인 아바타 모션 정보를 상기 채팅 서버를 통해 상기 제 1 단말기 및 제 2 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.In addition, the motion recognition avatar service method according to the second aspect of the present invention for achieving the above object, i) a chat server receiving the avatar generation information from the avatar server and transmitting to the first terminal and the second terminal; Ii) the chat server receives first personal avatar information set through the avatar generation information from the first terminal, and second personal avatar information set through the avatar generation information from the second terminal, thereby receiving the avatar server. Transmitting the data to the storage; Iii) the chat server receiving the first chat request information from the first terminal and transmitting access approval information with the second terminal that has transmitted the second chat request information through the chat request information to the first terminal; step; Iii) receiving, by the chat server, access approval information from the first terminal to the second terminal; I) The chat server uses the motion recognition unit provided in the first terminal and the second terminal to display first vector value information on the image recognized by the first terminal, and on the image recognized by the second terminal. Receiving second vector value information; And iii) the avatar server generates a first personal avatar motion according to the first vector value information received from the first terminal, and generates a second personal avatar motion according to the second vector value information received from the second terminal. And transmitting the generated first personal avatar motion information and second personal avatar motion information to the first terminal and the second terminal through the chat server.

이하에서는 첨부 도면 및 바람직한 실시예를 참조하여 본 발명을 상세히 설명한다. 도면에서 동일 또는 유사한 구성요소에 대하여는 가능한 동일한 참조 부호를 사용하였다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings and preferred embodiments. In the drawings, the same reference numerals are used for the same or similar components.

도 1은 본 발명의 일 실시예에 따른 모션인식 아바타 서비스 시스템의 개요도이고, 도 2는 본 발명의 다른 실시예에 따른 모션인식 아바타 서비스 시스템의 개요도 이다.1 is a schematic diagram of a motion recognition avatar service system according to an embodiment of the present invention, and FIG. 2 is a schematic diagram of a motion recognition avatar service system according to another embodiment of the present invention.

도 1 및 도 2에 도시하는 바와 같이, 본 발명인 모션인식 아바타 서비스 시스템은 제 1 단말기(100) 및 아바타 서버(300)를 포함하여 이루어지며, 상기 아바타 서버(300)는 아바타 모션 생성부(330)를 포함하고 상기 제 1 단말기(100)는 모션 인식부(150)를 포함하는 것이 바람직하다. As shown in FIG. 1 and FIG. 2, the motion recognition avatar service system of the present invention includes a first terminal 100 and an avatar server 300, and the avatar server 300 includes an avatar motion generator 330. ) And the first terminal 100 preferably includes a motion recognition unit 150.

상기 제 1 단말기(100)는 카메라와 같은 수단을 통해 화상을 수신할 수 있는 유선 또는 무선 단말기로, 네트워크(400)를 통해 상기 아바타 서버(300)에 접속할 수 있는 수단 모두를 포함하며, 바람직하게는 모션 인식부(150)를 포함한다.
또한, 모션 인식부(150)는 화상 수신부(152) 및 벡터값 생성부(154)를 포함한다. 그리고 화상 수신부(152)는 상기 카메라와 같이 사용자의 모션에 대한 이미지 정보인 화상을 수신하며, 벡터값 생성부(154)는 화상 수신부(152)를 통해 외부로부터 수신된 화상에 대한 벡터값을 생성하여 화상 정보를 벡터값 정보로 변환한다. 일반적으로 텔레비전이나 사진 등에서 화면을 구성하고 있는 최소 단위의 명암의 점을 화소(pixel; picture element)라고 하며, 상시 화소 수의 많고 적음에 따라 단말기 화면의 화질이 결정된다.
The first terminal 100 is a wired or wireless terminal capable of receiving an image through a means such as a camera, and includes all means for connecting to the avatar server 300 via a network 400. Includes a motion recognition unit 150.
In addition, the motion recognizer 150 includes an image receiver 152 and a vector value generator 154. The image receiving unit 152 receives an image, which is image information of a user's motion, as in the camera, and the vector value generating unit 154 generates a vector value of an image received from the outside through the image receiving unit 152. Image information is converted into vector value information. In general, a point of light and shade of the smallest unit constituting a screen in a television or a photograph is called a pixel (picture element), and the image quality of a terminal screen is determined according to the number of pixels.

한편, 상기 화상은 상기 화소의 집합으로 구성되며, 벡터값 생성부는 제 1 단말기 화면의 전체 화소를 좌표화하여 상기 화상을 구성하는 화소에 대한 좌표값을 산출함으로써 상기 화상에 대한 벡터값 정보를 생성한다.On the other hand, the image is composed of the set of pixels, the vector value generation unit generates the vector value information for the image by calculating the coordinate values for the pixels constituting the image by coordinates all the pixels of the first terminal screen do.

이와 같이 구성된 상기 제 1 단말기(100)는 네트워크(400)를 통해 상기 아바 타 서버(300)와 연결되어, 상기 아바타 서버(300)로부터 아바타 생성 정보를 수신하여 개인 아바타를 설정하고, 상기 벡터값 정보를 상기 아바타 서버(300)로 전송하는 등, 사용자의 모션을 인식하여 아바타에 투영하기 위하여 상기 아바타 서버(300)와 상호 통신한다.The first terminal 100 configured as described above is connected to the avatar server 300 through the network 400, receives the avatar generation information from the avatar server 300, sets a personal avatar, and sets the vector value. Communication with the avatar server 300 is performed in order to recognize a user's motion and project it onto the avatar, such as transmitting information to the avatar server 300.

한편, 상기 아바타 생성 정보는 상기 모션인식 아바타 서비스 사용자가 개성 있는 자신만의 아바타를 설정할 수 있도록 아바타의 얼굴, 눈썹, 코, 입, 헤어스타일, 옷차림 등 주요부위를 세분화한 정보로, 상기 사용자는 상기 세분화된 정보를 통하여 자신만의 개성 있는 개인 아바타를 설정한다.On the other hand, the avatar generation information is the information that subdivided the main parts, such as the face, eyebrows, nose, mouth, hairstyle, attire of the avatar so that the motion recognition avatar service user can set his or her own unique avatar, the user The personalized personal avatar is set through the detailed information.

그리고 상기 아바타 서버(300)는 상기 제 1 단말기(100)에 아바타 정보를 제공하고, 상기 제 1 단말기(100)가 설정한 개인 아바타에 대한 정보를 수신하여 데이터베이스(360)에 저장한다.The avatar server 300 provides avatar information to the first terminal 100, receives information on a personal avatar set by the first terminal 100, and stores the information on the personal avatar in the database 360.

또한, 상기 제 1 단말기(100)로부터 화상 즉, 사용자의 모션 이미지에 대한 벡터값을 수신하여 상기 데이터베이스(360)에 저장된 개인 아바타에 정보를 기반으로 상기 벡터값에 따른 개인 아바타의 모션을 생성하여 그에 따른 개인 아바타 모션 정보를 상기 아바타 서버(300)를 통해 상기 제 1 단말기(100)와 연결되어 있는 제 2 단말기(200)로 전송한다.
즉, 아바타 서버(300)는 아바타 모션 생성부(330)를 포함하며, 아바타 모션 생성부(330)는 다음과 같은 기능을 수행한다. 즉, 아바타 모션 생성부(330)는 제 1 단말기(100)로부터 수신된 벡터값을 분석하고, 분석결과, 상기 개인 아바타 정보를 기반으로 벡터값 변화에 상응하는 개인 아바타의 변동 상태를 파악한다.
In addition, by receiving a vector value of the image, that is, the motion image of the user from the first terminal 100 to generate a motion of the personal avatar according to the vector value based on the information in the personal avatar stored in the database 360 The personal avatar motion information is transmitted to the second terminal 200 connected to the first terminal 100 through the avatar server 300.
That is, the avatar server 300 includes an avatar motion generator 330, and the avatar motion generator 330 performs the following functions. That is, the avatar motion generator 330 analyzes the vector value received from the first terminal 100, and determines the variation state of the personal avatar corresponding to the vector value change based on the analysis result.

그리고 아바타 모션 생성부(330)는 변동된 개인 아바타의 상태를 나타내는 개인 아바타 모션 정보를 나타내는 개인 아바타 모션 정보를 생성하고, 생성된 개인 아바타 모션 정보를 제 1 단말기(100)와 연결되어 있는 제 2 단말기(200)로 전송한다. The avatar motion generator 330 generates personal avatar motion information indicating personal avatar motion information indicating the changed personal avatar state, and generates a second avatar motion information connected to the first terminal 100. Transmit to the terminal 200.

한편, 아바타 서버(300)는 상기 제 2 단말기(200) 외에 상기 벡터값 정보를 전송한 상기 제 1 단말기(100)로도 상기 아바타 모션 정보를 전송할 수 있는 것이 바람직하다.The avatar server 300 may transmit the avatar motion information to the first terminal 100 that has transmitted the vector value information in addition to the second terminal 200.

또한, 상기 아바타 서버(300)는 제 2 단말기(200)를 통해 생성된 제 2 단말기(200) 사용자의 모션 이미지에 따른 개인 아바타 정보도 상기 단말기(100)로 전송할 수 있는 것이 바람직하다.In addition, the avatar server 300 may transmit personal avatar information according to the motion image of the user of the second terminal 200 generated through the second terminal 200 to the terminal 100.

도 2는 본 발명의 다른 실시예에 따른 모션인식 아바타 서비스 시스템의 개요도이다. 도 2에 도시하는 바와 같이 본 발명인 모션인식 아바타 서비스 시스템은 도 1에 도시되어 있는 아바타 서버(300)와 더불어 채팅 서버(500)를 더 포함하는 것이 바람직하다.2 is a schematic diagram of a motion recognition avatar service system according to another exemplary embodiment of the present invention. As shown in FIG. 2, the motion recognition avatar service system of the present invention preferably further includes a chat server 500 in addition to the avatar server 300 illustrated in FIG. 1.

상기 채팅 서버(500)는 상기 아바타 서버(300)와 연동 하고 네트워크(400)를 통해 상기 제 1 단말기(100)와 상기 제 2 단말기(200)를 연결하여 채팅 서비스를 제공한다.The chat server 500 interoperates with the avatar server 300 and connects the first terminal 100 and the second terminal 200 through a network 400 to provide a chat service.

결국, 상기 아바타 서버(300) 또는 채팅 서버(500)를 통해 연결된 상기 제 1 단말기(100)와 상기 제 2 단말기(200) 상호 간에는 각각의 단말기(100, 200) 사용자의 모션이 투영된 개인 아바타에 대한 정보를 상호 교환할 수 있으며, 상기 정보를 교환하며 채팅 서비스를 이용할 수 있다.As a result, a personal avatar in which the motions of the respective users of the terminals 100 and 200 are projected between the first terminal 100 and the second terminal 200 connected through the avatar server 300 or the chat server 500. It is possible to exchange information about, exchange information and use a chat service.

그러면 이하에서는 본 발명인 모션인식 아바타 서비스 방법에 대하여 상세히 설명한다. Next, the motion recognition avatar service method of the present invention will be described in detail.

도 3은 본 발명의 일 실시예에 따른 모션인식 아바타 서비스 방법의 순서도 이고, 도 4는 본 발명의 다른 실시예에 따른 모션인식 아바타 서비스 방법의 순서 도 이다.3 is a flowchart of a motion recognition avatar service method according to an embodiment of the present invention, and FIG. 4 is a flowchart of a motion recognition avatar service method according to another embodiment of the present invention.

즉, 상기 아바타 서버를 통한 일반적인 아바타 서비스 방법에 대하여 설명한 뒤, 채팅 서비스를 예를 들어 모션인식 아바타 채팅 서비스 방법에 대하여 설명한다.That is, after describing a general avatar service method through the avatar server, a chat service using the motion recognition avatar chat service method will be described.

도 3에 도시하는 바와 같이, 우선, 상기 제 1 단말기(100)는 상기 아바타 서버(300)에 개인 아바타 설정 요청 정보를 전송하여 상기 개인 아바타 설정을 위한 아바타 생성 정보를 수신한다(S310).As shown in FIG. 3, first, the first terminal 100 transmits personal avatar setting request information to the avatar server 300 to receive avatar generation information for setting the personal avatar (S310).

이때, 상기 아바타 서버(300)는 서비스 사용자가 개성 있는 자신만의 아바타를 설정할 수 있도록 아바타의 얼굴 윤곽, 눈썹, 눈, 코, 입, 헤어스타일, 옷차림 등 주요부위를 세분화하여 아바타 제작을 위한 위져드를 제공하는 것이 바람직하다. At this time, the avatar server 300 subdivids the main parts such as the avatar's face contour, eyebrows, eyes, nose, mouth, hairstyle, and attire so that the service user can set his or her own unique avatar. It is desirable to provide a judd.

상기 아바타 생성방식은 일반적인 인터넷 포탈 서비스에서 제공되는 아바타 서비스 방식과 유사하므로 이하 생략하기로 한다.The avatar generation method is similar to the avatar service method provided by a general internet portal service, and thus will be omitted.

그리고 상기 제 1 단말기(100)는 상기와 같은 방법으로 설정된 기본적인 개인 아바타에 대한 정보를 상기 아바타 서버(300)에 전송한다(S320).In operation S320, the first terminal 100 transmits information on the basic personal avatar set in the above-described manner to the avatar server 300.

한편, 상기 기본적인 개인 아바타란 상기 아바타 서버(300)로 부터 제공받은 아바타 생성 정보를 통해 사용자의 선택에 의해 제작된 아바타로 사용자의 모션이 투영되지 않은 정적인 자세의 개인 아바타를 의미한다.On the other hand, the basic personal avatar is an avatar produced by the user's selection through the avatar generation information provided from the avatar server 300 as a personal avatar having a static posture in which the user's motion is not projected.

또한, 바람직하게는 상기 아바타 서버(300)는 상기 개인 아바타 정보를 수신하여 이를 데이터베이스(360)에 저장한다.Also, preferably, the avatar server 300 receives the personal avatar information and stores it in the database 360.

이는, 후에 상기 서비스 사용자의 모션이 투영된 개인 아바타를 생성하기 위한 기본적인 정보로 이용하기 위함이다.This is for use as basic information for generating a personal avatar in which the motion of the service user is projected later.

이어서, 상기 제 1 단말기(100)가 아바타 서버(300)로 기본적인 상기 개인 아바타 정보 수신 요청을 하면(S330), 상기 단말기(100)와 상기 아바타 서버(300)는 네트워크(400)를 통해 연결되고 상기 아바타 서버(300)는 상기 개인 아바타 정보를 상기 단말기(100)로 전송한다(S340).Subsequently, when the first terminal 100 makes a request for receiving the basic personal avatar information to the avatar server 300 (S330), the terminal 100 and the avatar server 300 are connected through the network 400. The avatar server 300 transmits the personal avatar information to the terminal 100 (S340).

그런 다음, 상기 제 1 단말기(100)는 카메라와 같은 화상인식 수단을 이용하여 사용자의 화상을 인식하고, 상기 화상, 즉 사용자의 모션 이미지에 대한 벡터값을 생성하여(S350), 상기 벡터값 정보를 상기 아바타 서버(300)에 전송한다(S360).Then, the first terminal 100 recognizes the user's image using an image recognition means such as a camera, generates a vector value for the image, that is, the user's motion image (S350), and the vector value information. It transmits to the avatar server 300 (S360).

그러면 상기 아바타 서버(300)는 상기 벡터값 정보를 수신하여 이미 저장되어 있는 기본적인 개인 아바타에 정보를 기반으로 상기 개인 아바타의 모션을 생성하고(S370), 상기 모션에 따른 개인 아바타 모션 정보를 상기 아바타 서버(300)를 통해 연결되어 있는 제 2 단말기로 전송한다(S380).Then, the avatar server 300 receives the vector value information and generates a motion of the personal avatar based on the information in the basic personal avatar already stored (S370), and the personal avatar motion information according to the motion is the avatar. It transmits to the second terminal connected via the server 300 (S380).

한편, 상기 개인 아바타 모션 정보란 상기 제 1 단말기(100)가 인식한 화상 즉, 사용자의 모션과 같은 모션을 취하고 있는 개인 아바타에 대한 정보로, 예컨대, 상기 제 1 단말기(100)가 고개 숙인 모션을 취하고 있는 사용자의 화상을 인식하였을 경우, 상기 사용자의 모션과 동일한 고개 숙인 모션을 취하고 있는 개인 아바타에 대한 정보를 말한다.Meanwhile, the personal avatar motion information is an image recognized by the first terminal 100, that is, information about a personal avatar taking a motion such as a user's motion, for example, a motion in which the first terminal 100 bows down. When the user's image is recognized, the information on the personal avatar taking the same high head motion as the user's motion is referred to.

또한, 상기 아바타 서버(300)는 상기 제 2 단말기(100) 외에, 상기 벡터값 정보를 전송한 제 1 단말기로도 상기 개인 아바타 모션 정보를 전송할 수 있는 것 이 바람직하다(S390).In addition, the avatar server 300 may transmit the personal avatar motion information to the first terminal that transmits the vector value information in addition to the second terminal 100 (S390).

결국, 상기와 같은 과정을 반복적으로 수행하여 사용자의 모션을 개인 아바타에 투영한다.As a result, the above process is repeatedly performed to project the motion of the user onto the personal avatar.

그러면 이하에서는 채팅 서비스를 예를 들어 모션인식 아바타 채팅 서비스 방법에 대하여 설명한다. Next, a motion recognition avatar chat service method will be described using a chat service as an example.

한편, 상기 서비스 사용자는 상기 아바타 서버(300) 또는 채팅 서버(500)를 통해 기본적인 개인 아바타를 설정하였고, 상기 아바타 서버(300)에는 상기 개인 아바타에 대한 정보가 저장되어 있는 것을 전제로 한다. Meanwhile, the service user sets a basic personal avatar through the avatar server 300 or the chat server 500, and the avatar server 300 is stored with information about the personal avatar.

도 4에 도시하는 바와 같이, 제 1 단말기(100)는 채팅 서버(500)에 접속하여 제 1 채팅요청 정보를 채팅 서버(500)에 전송한다(S410).As shown in FIG. 4, the first terminal 100 accesses the chat server 500 and transmits first chat request information to the chat server 500 (S410).

그리고 상기 채팅 서버(500)는 상기 제 1 채팅요청 정보를 통해 제 2의 채팅요청 정보를 전송한 제 2 단말기(200)와의 접속승인 여부 정보를 상기 단말기(100)로 전송한다(S420).In addition, the chat server 500 transmits, to the terminal 100, access approval information with the second terminal 200 that has transmitted the second chat request information through the first chat request information (S420).

만약, 상기 제 1 단말기(100)가 상기 제 2 단말기(200)와의 접속 승인 정보를 전송하면, 동시에 제 1 단말기(100) 사용자의 화상을 수신하여 상기 사용자의 모션에 대한 이미지에 대한 제 1 벡터값 정보를 생성하고, 상기 제 1 벡터값 정보를 상기 채팅 서버(300)에 전송한다(S430).If the first terminal 100 transmits the access approval information with the second terminal 200, the first vector 100 simultaneously receives the image of the user and receives the first vector for the image of the motion of the user. The value information is generated and the first vector value information is transmitted to the chat server 300 (S430).

이어서, 상기 채팅 서버(300)는 상기 접속 승인 정보를 제 2 단말기(200)로 전송하고(S440), 상기 제 2 단말기(200)로부터 상기 2 단말기(200)가 수신한 화상, 즉, 제 2 단말기(200) 사용자의 모션에 대한 이미지에 대한 제 2 벡터값 정보를 수신한다(S450).Subsequently, the chat server 300 transmits the access approval information to the second terminal 200 (S440), and the image received by the second terminal 200 from the second terminal 200, that is, the second terminal 200. The terminal 200 receives second vector value information on the image of the user's motion (S450).

상기 제 1 단말기(100) 및 제 2 단말기(200)에 대한 제 1 벡터값 정보 및 제 2 벡터값 정보를 수신한 상기 채팅 서버(300)는 상기 제 1 벡터값 정보 및 제 2 벡터값 정보를 상기 아바타 서버(300)에 전송한다(S460). The chat server 300 that receives the first vector value information and the second vector value information for the first terminal 100 and the second terminal 200 receives the first vector value information and the second vector value information. The avatar server 300 is transmitted to the avatar server 300 (S460).

그러면, 상기 아바타 서버(300)는 상기 제 1 벡터값 정보 및 제 2 벡터값 정보를 통하여 제 1 개인 아바타의 모션 및 제 2 개인 아바타의 모션을 생성한다(S470).Then, the avatar server 300 generates the motion of the first personal avatar and the motion of the second personal avatar through the first vector value information and the second vector value information (S470).

그리고 나서, 상기 아바타 서버(300)가 상기 모션에 따른 제 1 개인 아바타 모션 정보 및 제 2 개인 아바타 모션 정보를 상기 채팅 서버(300)를 통해 상기 제 1 단말기(100) 및 제 2 단말기(200)로 전송한다(S480).Then, the avatar server 300 transmits the first personal avatar motion information and the second personal avatar motion information according to the motion through the chat server 300 to the first terminal 100 and the second terminal 200. Transfer to (S480).

상기와 같이, 상기 제 1 단말기(100) 및 제 2 단말기(200)는 각각의 사용자의 모션이 투영된 개인 아바타를 상호 교환하면서 메시지를 주고받는다.As described above, the first terminal 100 and the second terminal 200 exchange messages while exchanging personal avatars on which the motions of the respective users are projected.

이상에서 설명한 바와 같이, 본 발명에 따른 모션인식 아바타 서비스 방법 및 시스템은 제 1 단말기가 화상을 수신하여 서비스 사용자의 모션에 대한 이미지 정보를 벡터값으로 변환하여 상기 화상에 대한 벡터값 정보를 생성하고, 아바타 서버는 상기 벡터값 정보를 수신하여 상기 벡터값 정보를 통해 사용자의 개인 아바타에 대한 모션을 생성하여, 상기 모션에 따른 개인 아바타 모션 정보를 상기 제 1 단말기와 연결되어 있는 제 2 단말기로 전송하는 과정을 반복 수행함으로써, 상기 사용자의 모션이 투영되는 모션인식 아바타 서비스를 제공받을 수 있는 효과가 있다.As described above, in the motion recognition avatar service method and system according to the present invention, a first terminal receives an image, converts image information on a motion of a service user into a vector value, and generates vector value information on the image. The avatar server receives the vector value information, generates a motion for the user's personal avatar through the vector value information, and transmits the personal avatar motion information according to the motion to a second terminal connected to the first terminal. By repeating the process, there is an effect that can receive a motion recognition avatar service that the user's motion is projected.

특히, 아바타 채팅 서비스와 같이 복수의 단말기가 상기 아바타 서버 또는 채팅 서버를 통해 연결되어 각 단말기 사이에 상호 정보 교환이 이루어질 경우, 각각의 단말기 사용자의 모션이 투영된 개인 아바타를 제공받을 수 있어, 화상 서비스를 대신하여 익명과 실명의 중간 정보를 만족시키는 서비스를 제공받을 수 있는 효과가 있다.
In particular, when a plurality of terminals are connected through the avatar server or the chat server, such as an avatar chat service, and mutual information is exchanged between the respective terminals, a personal avatar on which the motion of each terminal user is projected may be provided. In place of the service there is an effect that can be provided a service that satisfies the intermediate information between anonymous and blind.

이상에서 본 발명을 바람직한 실시예를 참조하여 상세히 설명하였지만, 당업자는 본 발명의 사상 및 범위를 벗어나지 않고 다양한 변형 또는 수정이 가능하다는 것을 알 것이다.While the present invention has been described in detail with reference to preferred embodiments, those skilled in the art will recognize that various modifications or changes can be made without departing from the spirit and scope of the invention.

Claims (10)

네트워크를 통해 연결된 제 1 단말기에 아바타 생성 정보를 전송하고, 사용자의 모션에 대한 이미지 정보인 화상을 수신하는 화상 수신부 및 상기 화상에 대한 벡터값을 생성하여 생성된 화상 정보를 벡터값 정보로 변환하는 벡터값 생성부를 포함하는 모션 인식부를 구비한 상기 제 1 단말기로부터 상기 아바타 생성 정보를 통해 설정된 개인 아바타 정보 및 상기 벡터값 정보를 수신하며, Transmitting the avatar generation information to a first terminal connected through a network, and receiving an image, which is image information of a user's motion, and generating a vector value for the image, and converting the generated image information into vector value information. Receiving the personal avatar information and the vector value information set through the avatar generation information from the first terminal including a motion recognition unit including a vector value generation unit, 상기 제 1 단말기로부터 수신된 개인 아바타 정보 및 상기 벡터값 정보를 이용하여 개인 아바타 모션 정보를 생성하는 아바타 모션 생성부를 포함하며,An avatar motion generator configured to generate personal avatar motion information using the personal avatar information and the vector value information received from the first terminal, 상기 아바타 모션 생성부에 의해 생성된 개인 아바타 모션 정보를 상기 아바타 서버를 통하여 상기 제 1 단말기와 연결되어 있는 제 2 단말기로 전송하는 것을 특징으로 하는 모션인식 아바타 서비스 시스템.And transmitting the personal avatar motion information generated by the avatar motion generator to a second terminal connected to the first terminal through the avatar server. 제 1항에 있어서, 상기 모션인식 아바타 서비스 시스템은The method of claim 1, wherein the motion recognition avatar service system 상기 아바타 서버와 연동 하여 네트워크를 통해 서로 연결되어 있는 제 1 단말기와 제 2 단말기 사이에 채팅 서비스를 제공하기 위한 채팅 서버를 더 포함하는 것을 특징으로 하는 모션인식 아바타 서비스 시스템.And a chat server for providing a chat service between a first terminal and a second terminal connected to each other through a network in cooperation with the avatar server. 제 1항 또는 제 2항에 있어서, 상기 아바타 서버는 The method of claim 1 or 2, wherein the avatar server 상기 개인 아바타 모션 정보를 상기 제 2 단말기로 전송함과 동시에 상기 제 1 단말기로 전송하는 것을 특징으로 하는 모션인식 아바타 서비스 시스템.And transmitting the personal avatar motion information to the second terminal and simultaneously transmitting the personal avatar motion information to the first terminal. a) 아바타 서버가 개인 아바타 설정을 위한 아바타 생성 정보를 제 1 단말기로 전송하는 단계;a) the avatar server transmitting the avatar generation information for setting the personal avatar to the first terminal; b) 상기 아바타 서버가 상기 아바타 생성 정보를 통하여 설정된 개인 아바타 정보를 상기 제 1 단말기로부터 수신하여 저장하는 단계;b) the avatar server receiving and storing personal avatar information set through the avatar generation information from the first terminal; c) 상기 제 1 단말기가 화상 수신부를 통하여 화상을 수신하고, 벡터값 생성부를 이용하여 상기 제 1 단말기에 수신된 화상에 대한 벡터값 정보를 생성하며, 생성된 벡터값 정보를 상기 아바타 서버에 전송하는 단계; 및c) the first terminal receives an image through an image receiving unit, generates vector value information on an image received by the first terminal using a vector value generating unit, and transmits the generated vector value information to the avatar server Doing; And d) 상기 아바타 서버가 상기 제 1 단말기로부터 수신된 벡터값 정보에 따른 개인 아바타 정보를 생성하고, 생성된 개인 아바타 모션 정보를 상기 아바타 서버를 통하여 상기 제 1 단말기와 연결되어 있는 제 2 단말기로 전송하는 단계를 포함하는 것을 특징으로 하는 모션인식 아바타 서비스 방법.d) the avatar server generates personal avatar information according to the vector value information received from the first terminal, and transmits the generated personal avatar motion information to the second terminal connected to the first terminal through the avatar server. Motion recognition avatar service method comprising the step of. 제 4항에 있어서, 상기 d) 단계에서The method of claim 4, wherein in step d) 상기 아바타 서버가 상기 개인 아바타 모션 정보를 상기 제 2 단말기로 전송함과 동시에, 상기 제 1 단말기로 전송하여 상기 방법을 수행하는 것을 특징으로 하는 모션인식 아바타 서비스 방법. And transmitting the personal avatar motion information to the second terminal and simultaneously transmitting the personal avatar motion information to the second terminal to perform the method. 제 4항 또는 제 5항에 있어서, 상기 단말기는According to claim 4 or 5, wherein the terminal 화상을 인식하고 상기 화상에 대한 벡터값 정보를 생성하기 위한 모션 인식부를 포함하여 상기 방법을 수행하는 것을 특징으로 하는 모션인식 아바타 서비스 방법.And a motion recognition unit for recognizing an image and generating vector value information of the image. 제 4항 또는 제 5항에 있어서, 상기 아바타 서버는The method of claim 4 or 5, wherein the avatar server 상기 단말기로부터 수신한 벡터값 정보에 따른 상기 개인 아바타의 모션을 생성하기 위한 아바타 모션 생성부를 포함하여 상기 방법을 수행하는 것을 특징으로 하는 모션인식 아바타 서비스 방법.And a avatar motion generator for generating a motion of the personal avatar according to the vector value information received from the terminal. ⅰ) 채팅서버가 아바타 생성정보를 아바타 서버로부터 수신하여 제 1 단말기 및 제 2 단말기에 전송하는 단계;Iii) the chat server receiving the avatar generation information from the avatar server and transmitting the avatar generation information to the first terminal and the second terminal; ⅱ) 상기 채팅서버가 상기 제 1 단말기로부터 상기 아바타 생성 정보를 통해 설정된 제 1 개인 아바타 정보를 수신하고, 상기 제 2 단말기로부터 상기 아바타 생성 정보를 통해 설정된 제 2 개인 아바타 정보를 수신하여 상기 아바타 서버에 전송하여 저장시키는 단계; Ii) the chat server receives first personal avatar information set through the avatar generation information from the first terminal, and second personal avatar information set through the avatar generation information from the second terminal, thereby receiving the avatar server. Transmitting the data to the storage; ⅲ) 상기 채팅 서버가 제 1 단말기로부터 제 1 채팅요청 정보를 수신하고, 상기 채팅요청 정보를 통해 제 2 채팅요청 정보를 전송한 제 2 단말기와의 접속승인 여부 정보를 상기 제 1 단말기로 전송하는 단계;Iii) the chat server receiving the first chat request information from the first terminal and transmitting access approval information with the second terminal that has transmitted the second chat request information through the chat request information to the first terminal; step; ⅳ) 상기 채팅 서버가 상기 제 1 단말기로부터 상기 제 2 단말기와의 접속승인 정보를 수신하여 상기 제 2 단말기로 전송하는 단계;Iii) receiving, by the chat server, access approval information from the first terminal to the second terminal; ⅴ) 상기 채팅 서버가 상기 제 1 단말기 및 상기 제 2 단말기에 구비된 모션 인식부를 이용하여 상기 제 1 단말기에 인식된 화상에 대한 제 1 벡터값 정보, 및 상기 제 2 단말기에 인식된 화상에 대한 제 2 벡터값 정보를 수신하는 단계; 및I) The chat server uses the motion recognition unit provided in the first terminal and the second terminal to display first vector value information on the image recognized by the first terminal, and on the image recognized by the second terminal. Receiving second vector value information; And ⅵ) 상기 아바타 서버가 상기 1 단말기로부터 수신된 제 1 벡터값 정보에 따른 제 1 개인 아바타 모션을 생성하고, 제 2 단말기로부터 수신된 제 2 벡터값 정보에 따른 제 2 개인 아바타 모션을 생성하며, 생성된 제 1 개인 아바타 모션 정보 및 제 2 개인 아바타 모션 정보를 상기 채팅 서버를 통해 상기 제 1 단말기 및 제 2 단말기로 전송하는 단계를 포함하는 것을 특징으로 하는 모션인식 아바타 서비스 방법.Iii) the avatar server generates a first personal avatar motion according to the first vector value information received from the first terminal, and generates a second personal avatar motion according to the second vector value information received from the second terminal, And transmitting the generated first personal avatar motion information and second personal avatar motion information to the first terminal and the second terminal through the chat server. 제 8항에 있어서, 상기 제 1 단말기 및 제 2 단말기는The method of claim 8, wherein the first terminal and the second terminal 화상을 인식하고 상기 화상에 대한 벡터값 정보를 생성하기 위한 모션 인식부를 포함하여 상기 방법을 수행하는 것을 특징으로 하는 모션인식 아바타 서비스 방법.And a motion recognition unit for recognizing an image and generating vector value information of the image. 제 8항 또는 제 9항에 있어서, 상기 아바타 서버는10. The method of claim 8 or 9, wherein the avatar server 상기 제 1 단말기 및 제 2 단말기로부터 수신한 제 1벡터값 정보 및 제 2 벡터값 정보에 따른 상기 제 2 개인 아바타 및 제 2 개인 아바타의 모션을 생성하기 위한 아바타 모션 생성부를 포함하여 상기 방법을 수행하는 것을 특징으로 하는 모션인식 아바타 서비스 방법.The method includes an avatar motion generator for generating motions of the second personal avatar and the second personal avatar according to the first vector value information and the second vector value information received from the first terminal and the second terminal. Motion recognition avatar service method, characterized in that.
KR1020040046285A 2004-06-21 2004-06-21 Method and system for motion capture avata service KR100610199B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040046285A KR100610199B1 (en) 2004-06-21 2004-06-21 Method and system for motion capture avata service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040046285A KR100610199B1 (en) 2004-06-21 2004-06-21 Method and system for motion capture avata service

Publications (2)

Publication Number Publication Date
KR20050121126A KR20050121126A (en) 2005-12-26
KR100610199B1 true KR100610199B1 (en) 2006-08-10

Family

ID=37293392

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040046285A KR100610199B1 (en) 2004-06-21 2004-06-21 Method and system for motion capture avata service

Country Status (1)

Country Link
KR (1) KR100610199B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010151075A3 (en) * 2009-06-25 2011-03-31 삼성전자주식회사 Imaging device and computer reading and recording medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080075932A (en) * 2007-01-11 2008-08-20 (주)에이치씨아이랩 Apparatus and control method for digital aquarium for recognition of owner by voice and image and for conversational interface and mutually connection
KR100916706B1 (en) * 2008-01-09 2009-09-11 에스케이 텔레콤주식회사 Method and System for playing motion animation of virtal character
KR101485459B1 (en) * 2008-02-15 2015-01-22 삼성전자주식회사 Method and apparatus for linking graphic icon in internet virtual world with user's experience in real world, and recording medium thereof
KR101671900B1 (en) * 2009-05-08 2016-11-03 삼성전자주식회사 System and method for control of object in virtual world and computer-readable recording medium
KR20120016379A (en) 2010-08-16 2012-02-24 삼성전자주식회사 Apparatus and method for controlling an object
KR102118482B1 (en) * 2014-04-25 2020-06-03 삼성전자주식회사 Method and apparatus for controlling device in a home network system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980058764A (en) * 1996-12-30 1998-10-07 배순훈 Lip Deformation Variable Extraction Apparatus for 3D Model-based Coding System
JP2000174801A (en) 1998-12-07 2000-06-23 Nippon Telegr & Teleph Corp <Ntt> Message communication terminal equipment, message communication method and storage medium with message communication program recorded therein
KR20010016280A (en) * 2000-11-29 2001-03-05 이은아 Avatar/Character Mousepointer/Cursor and Icon
KR20010025161A (en) * 2000-06-02 2001-04-06 조양일 Method for providing an avatar maker
KR20010102881A (en) * 2001-10-09 2001-11-17 하영균 Method and System for sensing Three-Dimensional body motion using color marker

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980058764A (en) * 1996-12-30 1998-10-07 배순훈 Lip Deformation Variable Extraction Apparatus for 3D Model-based Coding System
JP2000174801A (en) 1998-12-07 2000-06-23 Nippon Telegr & Teleph Corp <Ntt> Message communication terminal equipment, message communication method and storage medium with message communication program recorded therein
KR20010025161A (en) * 2000-06-02 2001-04-06 조양일 Method for providing an avatar maker
KR20010016280A (en) * 2000-11-29 2001-03-05 이은아 Avatar/Character Mousepointer/Cursor and Icon
KR20010102881A (en) * 2001-10-09 2001-11-17 하영균 Method and System for sensing Three-Dimensional body motion using color marker

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010151075A3 (en) * 2009-06-25 2011-03-31 삼성전자주식회사 Imaging device and computer reading and recording medium

Also Published As

Publication number Publication date
KR20050121126A (en) 2005-12-26

Similar Documents

Publication Publication Date Title
KR102292537B1 (en) Image processing method and apparatus, and storage medium
WO2020203999A1 (en) Communication assistance system, communication assistance method, and image control program
WO2013027893A1 (en) Apparatus and method for emotional content services on telecommunication devices, apparatus and method for emotion recognition therefor, and apparatus and method for generating and matching the emotional content using same
CN103368816A (en) Instant communication method based on virtual character and system
US20100098341A1 (en) Image recognition device for displaying multimedia data
KR102455966B1 (en) Mediating Apparatus, Method and Computer Readable Recording Medium Thereof
JP2023524119A (en) Facial image generation method, device, electronic device and readable storage medium
KR20210060196A (en) Server, method and user device for providing avatar message service
KR100610199B1 (en) Method and system for motion capture avata service
CN112866577B (en) Image processing method and device, computer readable medium and electronic equipment
CN113014960B (en) Method, device and storage medium for online video production
KR100686076B1 (en) Wireless Communication Terminal with Message Transmission According to Feeling of Terminal-User and Method of Message Transmission Using Same
CN114779948B (en) Method, device and equipment for controlling instant interaction of animation characters based on facial recognition
KR20010082779A (en) Method for producing avatar using image data and agent system with the avatar
KR100442084B1 (en) character providing system and method thereof
KR20170127354A (en) Apparatus and method for providing video conversation using face conversion based on facial motion capture
CN113050791A (en) Interaction method, interaction device, electronic equipment and storage medium
JP2003077001A (en) Face image communication device and program
KR100755416B1 (en) System for generating caller&#39;s image and method therefor
KR20070049427A (en) System for unification personal character in online network
JP7418709B2 (en) Computer programs, methods and server devices
KR102459198B1 (en) Apparatus for displaying contents
KR102570735B1 (en) Apparatus and method for suggesting an augmented reality avatar pose based on artificial intelligence reflecting the structure of the surrounding environment and user preferences
CN117041670B (en) Image processing method and related equipment
WO2023078103A1 (en) Multi-mode face driving method and apparatus, electronic device, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120720

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130717

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140725

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150723

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160802

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170802

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20181102

Year of fee payment: 13