KR100663921B1 - Emotional Expression method based on dynamic emotion space - Google Patents
Emotional Expression method based on dynamic emotion space Download PDFInfo
- Publication number
- KR100663921B1 KR100663921B1 KR1020050016374A KR20050016374A KR100663921B1 KR 100663921 B1 KR100663921 B1 KR 100663921B1 KR 1020050016374 A KR1020050016374 A KR 1020050016374A KR 20050016374 A KR20050016374 A KR 20050016374A KR 100663921 B1 KR100663921 B1 KR 100663921B1
- Authority
- KR
- South Korea
- Prior art keywords
- emotion
- avatar
- line
- expression
- emotions
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Abstract
본 발명은 아바타의 감성표현방법에 관한 것으로, 아바타의 표정 변화를 위한 파라미터와, 이들 파라미터의 기본값이 결정된 상태에서 ; 행복 감정선, 화남 감정선, 슬픔 감정선, 놀람 감정선이 좌표축을 이루는 2차원 그래프상에 행복, 화남, 슬픔, 놀람에 대한 감정 표현값를 각각 표시하여, 각 감정 영역의 영역 비율을 연산하되, 감정의 입력 빈도수를 고려하여 입력 빈도수가 증가될수록 해당 좌표축의 길이가 점진적으로 연장되도록 하고, 2차원 그래프상에서 인접된 좌표축에 해당하는 두 감정 간의 입력시의 천이 빈도수를 고려하여 입력 천이 빈도수가 클수록 해당 좌표축 사이의 각이 점진적으로 작아지도록 한 후 ; 에 의해 연산되어진 파라미터에 의해서 아바타의 표정이 변화되도록 하는 방식을 취하고 있으므로, 4가지 감정이 복합된 감성표현이 이루어지므로 보다 다양하고 풍부한 감성 표현이 가능하고, 이용자의 개인 특성이 아바타의 표정 표현에 적절하게 반영되므로, 이용자의 개성에 따른 독창적인 아바타를 생성할 수 있는 효과가 있다.The present invention relates to a method for expressing an emotion of an avatar, wherein a parameter for changing an expression of an avatar and a default value of these parameters are determined; The emotional expression values for happiness, anger, sadness, and surprise are displayed on a two-dimensional graph of the happiness emotion line, angry emotion line, sadness emotion line, and surprise emotion line to calculate the ratio of regions of each emotion region, In consideration of this, as the input frequency increases, the length of the corresponding coordinate axis is gradually extended.In consideration of the transition frequency at the time of input between two emotions corresponding to adjacent coordinate axes on the two-dimensional graph, After this gradually becomes smaller; Since the expression of the avatar is changed according to the parameter calculated by, the emotional expressions in which the four emotions are combined are made possible, so that a variety of emotions can be expressed in a variety of ways. Since it is properly reflected, there is an effect that can create an original avatar according to the user's personality.
Description
도 1은 아바타의 표정 변화를 위한 파라미터를 도시한 도면,1 is a diagram illustrating parameters for changing a facial expression of an avatar;
도 2는 동적 감성공간을 설명하기 위한 2차원 그래프,2 is a two-dimensional graph for explaining a dynamic emotional space,
도 3의 (a)와 (b)는 행복 모델의 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,3 (a) and 3 (b) show two-dimensional graphs of a happiness model and corresponding avatar expressions;
도 4의 (a)와 (b)는 화남 모델의 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,(A) and (b) of FIG. 4 show two-dimensional graphs of an angry model and corresponding avatar expressions;
도 5의 (a)와 (b)는 슬픔 모델의 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,(A) and (b) of FIG. 5 illustrate two-dimensional graphs of sadness models and corresponding avatar expressions;
도 6의 (a)와 (b)는 놀람 모델의 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,6 (a) and 6 (b) show two-dimensional graphs of surprise models and corresponding avatar expressions;
도 7의 (a)와 (b)는 변화된 모델의 제1실시예에 따른 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,7 (a) and 7 (b) illustrate a two-dimensional graph according to a first embodiment of a changed model and an avatar facial expression corresponding thereto;
도 8의 (a)와 (b)는 변화된 모델의 제2실시예에 따른 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면이다.8A and 8B are diagrams illustrating two-dimensional graphs and avatar expressions according to a second embodiment of the changed model.
본 발명은 개인용 컴퓨터나 휴대용 단말기 또는 PDA 등의 장치에 아바타를 출력함에 있어서, 개인의 감성 특성을 반영하여 아바타의 표정을 다양하게 표현할 수 있는 아바타의 감성표현방법에 관한 것이다.The present invention relates to a method for expressing an avatar's emotion in which an avatar's expression can be variously expressed by reflecting an individual's emotional characteristics in outputting the avatar to a personal computer, a portable terminal, or a device such as a PDA.
주지된 바와 같이, 인터넷 이용자가 증가되고 활성화됨에 따라서 인터넷 상에서 자신을 대신하는 분신역할을 하는 아바타가 크게 각광받고 있는데, 개인의 특성과 다양한 자기표현 욕구를 충족시켜주기 위해서 독창적인 아바타를 표현할 수 있는 방안에 대한 연구가 활발하게 진행되고 있다.As is well known, as internet users increase and become active, avatars acting as self-employed acts on the Internet have been greatly spotlighted. In order to satisfy individual characteristics and various self-expression needs, an avatar can be expressed. There is an active research on the plan.
종래 방식은, 만화처럼 정형화된 아바타를 데이터 베이스에 저장해 놓았다가 적당한 아바타를 불러와서 표시하는 것이 일반적이지만, 근래에는 다양한 얼굴 표정, 머리 형태, 복장, 소지품 중에서 자기가 원하는대로 임의로 선택하여 자신만의 독자적인 캐릭터를 만들거나, 실제 사람의 얼굴을 캡쳐하여 실사에 가까운 얼굴표정을 표현하는 방식이 개발되어 활용되고 있다.In the conventional method, it is common to store a stylized avatar like a cartoon in a database, and to retrieve and display an appropriate avatar. However, in recent years, various facial expressions, hair shapes, clothes, and belongings are randomly selected as desired. A method of creating an original character or capturing a real human face and expressing facial expressions close to the real world has been developed and utilized.
그러나, 상기와 같은 종래 방식은, 여러가지로 만들어진 얼굴 표정 중에서 어느 하나를 선택하는 방식을 취하고 있어서, 얼굴 표정을 사용자가 임의로 변화시 킬 수 없을 뿐만아니라, 개인의 감성 특성이 전혀 반영되지 않아서, 아바타의 감성 표현이 개성에 따라 독창적으로 이루어지지 못하였다.However, the above-described conventional method adopts a method of selecting any one of variously made facial expressions, and the user may not arbitrarily change the facial expressions and does not reflect the personal emotional characteristics at all. Emotional expression was not original according to individuality.
이에 본 발명은 상기와 같은 문제를 해소하기 위해서 발명된 것으로, 개인의 감성 특성을 반영하여 아바타의 표정을 다양하게 표현할 수 있는 동적 감성공간에 기반한 아바타의 감성표현방법을 제공함에 그 목적이 있다.Accordingly, an object of the present invention is to provide a method for expressing an emotion of an avatar based on a dynamic emotional space capable of expressing a variety of facial expressions of an avatar reflecting an individual's emotional characteristics.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 동적 감성공간에 기반한 아바타의 감성표현방법은, 아바타의 이미지를 구성하는 눈썹, 눈 및 입에 대한 화상출력장치에서의 출력위치를 나타내는 표정변화 파라미터의 초기값을 설정하는 단계; 사용자로부터 행복, 화남, 슬픔 및 놀람을 포함하는 감정에 대한 감정표현값을 입력받는 단계; 상기 각각의 감정에 대응하는 감정선의 일단이 접하는 공통점을 원점으로 하는 평면 좌표축 상에서 상기 사용자로부터 입력받은 감정에 해당하는 좌표축을 연장하는 단계; 상기 각각의 감정 중에서 이웃하는 평면 좌표축에 대응하는 감정의 천이 빈도수에 따라 상기 이웃하는 감정에 대응하는 감정선들 사이의 각을 변경하는 단계; 상기 입력된 각각의 감정표현값을 대응하는 감정선으로 이루어진 평면 좌표축 상에 표시하는 단계; 상기 각각의 감정선과 이웃하는 감정선들 사이의 각을 이등분하는 직선들과 상기 각각의 감정선에 표시된 감정표현값을 연결하는 직선들로 이루어진 다각형의 넓이를 산출하여 각각의 감정영역의 크기를 구하는 단계; 상기 각각의 감정영역의 크기를 기초로 수학식 에 의해 감정변화 파라미터를 산출하는 단계; 및 상기 산출된 감정변화 파라미터에 대응하는 표정변화 파라미터를 기초로 상기 아바타의 이미지를 변경하는 단계;를 가진다. 상기의 수학식에서 Pi는 감정변화 파라미터, Ai는 전체 감정영역의 합에 대한 행복감정영역의 비율, Bi는 전체 감정영역의 합에 대한 화남감정영역비율, Ci는 전체 감정영역의 합에 대한 슬픔감정영역비율, 그리고, Di는 전체 감정영역의 합에 대한 놀람감정영역비율, 그리고, S는 비례상수이다. Emotional expression method of the avatar based on the dynamic emotional space according to the present invention for achieving the above object, the expression change parameter indicating the output position in the image output device for the eyebrow, eyes and mouth constituting the avatar image Setting an initial value; Receiving an emotion expression value for an emotion including happiness, anger, sadness and surprise from a user; Extending a coordinate axis corresponding to the emotion received from the user on a plane coordinate axis having an origin in common with one end of the emotion line corresponding to each emotion; Changing an angle between emotion lines corresponding to the neighboring emotions according to a transition frequency of the emotions corresponding to the neighboring plane coordinate axes among the emotions; Displaying each input emotion expression value on a plane coordinate axis formed of a corresponding emotion line; Obtaining a size of each emotion region by calculating a width of a polygon consisting of straight lines bisecting angles between each emotion line and neighboring emotion lines and straight lines connecting emotion expression values displayed on each emotion line; Equation based on the size of each emotional region Calculating an emotion change parameter by; And changing the image of the avatar based on the expression change parameter corresponding to the calculated emotion change parameter. In the above equation, P i is an emotion change parameter, A i is the ratio of happiness emotion area to the sum of all emotion areas, B i is the ratio of anger emotion zone to the sum of all emotion areas, and C i is the sum of all emotion areas The sadness emotion area ratio for, and D i is the surprise emotion area ratio for the sum of all emotion areas, and S is the proportionality constant.
이하 본 발명을 첨부된 예시도면에 의거하여 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
본 발명은 다음과 같은 단계로 이루어진다.The present invention consists of the following steps.
1. 아바타의 표정 변화를 위한 파라미터와, 이들 파라미터의 기본값을 결정하는 단계.1. Determining parameters for changing facial expressions of the avatar and default values of these parameters.
감성 표현은 얼굴형태나, 눈썹, 눈, 코, 입, 머리 모양 등의 변화로 표현될 수 있지만, 본 실시예의 경우에는, 눈썹과 눈 및 입의 모양에 의해서 아바타의 표정이 변화되도록 하였다.Emotional expression may be expressed as a change in the shape of the face, eyebrows, eyes, nose, mouth, hair, etc. In the present embodiment, the facial expression of the avatar is changed by the shape of the eyebrows, eyes and mouth.
아바타의 표정 변화를 위한 파라미터는, 도 1에 도시된 바와 같이, 눈썹의 좌끝점(p1), 눈썹의 중심점(p2), 눈썹의 우끝점(p3), 눈의 좌끝점(p4), 눈의 높이(p5), 눈의 우끝점(p6), 입의 넓이(p7), 입의 높이(p8), 입의 휜 방향 및 정도(p9)로 이루어진다.As shown in FIG. 1, the parameters for changing the facial expression of the avatar include the left end point p1 of the eyebrow, the center point p2 of the eyebrow, the right end point p3 of the eyebrow, the left end point p4 of the eye, It consists of the height p5, the right end point p6 of the eye, the width p7 of the mouth, the height p8 of the mouth, the direction and the degree p9 of the mouth.
한편, 이들 파라미터(pi)의 기본값은, 도 3 내지 도 6에 도시된 바와 같이, 행복(Ai), 화남(Bi), 슬픔(Ci), 놀람(Di)만 나타날 때의 초기 설정값으로, 화상출력매체에서의 출력되는 위치값이다.On the other hand, the default value of these parameters (p i ), as shown in Figures 3 to 6, when only happiness (A i ), anger (B i ), sadness (C i ), surprise (D i ) appears The initial setting value is a position value output from the image output medium.
2. 행복 감정선, 화남 감정선, 슬픔 감정선, 놀람 감정선이 좌표축을 이루는 2차원 그래프상에 행복, 화남, 슬픔, 놀람에 대한 감정 표현값를 각각 표시하여, 각 감정 영역의 영역 비율을 연산하되, 감정의 입력 빈도수를 고려하여 입력 빈도수가 증가될수록 해당 좌표축의 길이가 점진적으로 연장되도록 하고, 2차원 그래프상에서 인접된 좌표축에 해당하는 두 감정 간의 입력시의 천이 빈도수를 고려하여 입력 천이 빈도수가 클수록 해당 좌표축 사이의 각이 점진적으로 작아지도록 하는 단계.2. The emotional expression values for happiness, anger, sadness, and surprise are displayed on a two-dimensional graph of the happiness emotion line, angry emotion line, sadness emotion line, and surprise emotion line. In consideration of the input frequency, the length of the corresponding coordinate axis is gradually extended as the input frequency is increased, and the larger the input transition frequency is, Gradually decreasing the angle of.
동적 감성공간은, 도 2에 도시된 바와 같이, 행복 감정선, 화남 감정선, 슬픔 감정선, 놀람 감정선이 좌표축을 이루는 2차원 그래프로 표현될 수 있다.
도 2를 참조하면, 네 개의 감정선(행복감정선, 놀람감정선, 슬픔감정선 및 화남감정선)이 굵은 직선으로 표시되어 있고, 각각의 감정선으로 이루어진 좌표축은 각각의 감정선의 일단이 접하는 공통점을 원점으로 한다. 또한, 이웃하는 감정선 사이의 각을 이등분하는 점선들과 각각의 감정선에 표시된 감정표현값을 연결하는 직선들로 이루어진 네 개의 사각형이 각각의 감정영역으로 표시되어 있다. 예를 들어, 행복감정영역은 행복감정선과 이웃하는 놀람감정선 및 화남감정선 사이의 각을 이등분하는 직선들과, 행복감정선에 표시된 행복감정표현값과 행복감정선과 이웃하는 놀람감정선 및 화남감정선에 표시된 놀람감정표현값 및 화남감정표현값을 연결하는 직선들로 이루어진 사각형 영역이다.As illustrated in FIG. 2, the dynamic emotional space may be represented by a two-dimensional graph in which a happiness emotion line, an angry emotion line, a sadness emotion line, and a surprise emotion line form a coordinate axis.
Referring to FIG. 2, four emotion lines (happiness emotion line, surprise emotion line, sadness emotion line, and anger emotion line) are indicated by a thick straight line, and the coordinate axis composed of each emotion line has an origin in common with one end of each emotion line. In addition, four squares are formed as respective emotion regions, each of which consists of dotted lines bisecting angles between neighboring emotion lines and straight lines connecting emotion expression values displayed on each emotion line. For example, the happiness emotion region is a line that bisects the angle between the happiness emotion line and the neighboring surprise emotion line and the angry emotion line, the happiness expression expressed in the happiness emotion line and the surprise indicated on the happiness emotion line and the neighboring emotion emotion line. It is a rectangular area made up of straight lines connecting the emotion expression and anger expression.
이용자가 입력하는 행복, 화남, 슬픔, 놀람에 대한 감정 표현값은 이러한 2차원 그래프상의 좌표축에 표시되며, 2차원 그래프상에서 각 감정 영역의 크기를 연산하여 해당 감정의 영역 비율을 구한다.Emotional expression values for happiness, anger, sadness and surprise that the user inputs are displayed on the coordinate axes on the two-dimensional graph, and the ratio of each emotional region is calculated by calculating the size of each emotional region on the two-dimensional graph.
전체 감정 영역의 크기는 다음과 같은 수학식 1에 의해서 연산된다.The size of the entire emotional region is calculated by Equation 1 below.
또한, 각 감정이 속하는 영역의 비율은 해당 감정 영역의 비율을 전체감정영역으로 나눈 값이 된다.In addition, the ratio of the area to which each emotion belongs is a value obtained by dividing the ratio of the corresponding emotion area by the total emotion area.
한편, 감정의 입력 빈도수를 고려하여 입력 빈도수가 증가될수록 해당 좌표축의 길이가 점진적으로 연장되도록 하고, 2차원 그래프상에서 인접된 좌표축에 해당하는 두 감정 간의 입력시의 천이 빈도수를 고려하여 입력 천이 빈도수가 클수록 해당 좌표축 사이의 각이 점진적으로 작아지도록 하여, 축적된 경험에 의해서, 즉 개인의 특성에 따라서 좌표축의 길이와, 좌표축간의 사이 각의 크기가 변화되도록 하여 개인의 특성이 아바타의 표정 표현에 반영되도록 한다.Meanwhile, as the input frequency is increased in consideration of emotion input frequency, the length of the corresponding coordinate axis is gradually extended, and the input transition frequency is considered in consideration of the transition frequency at the time of input between two emotions corresponding to adjacent coordinate axes on the two-dimensional graph. The larger the angle is, the smaller the angle between the coordinate axes becomes, and the accumulated length of the coordinate axis and the size of the angle between the coordinate axes are changed according to the accumulated experience, that is, the characteristics of the individual are reflected in the expression of the facial expression of the avatar. Be sure to
일예로, 행복한 감정이 자주 입력되면 이에 상응하게 행복 감정선의 길이가 점진적으로 길어지고, 놀람 감정이 자주 입력되면 이에 상응하게 놀람 감정선의 길이가 점진적으로 길어진다. 또한, 행복 감정과 놀람 감정이 번갈아 입력될수록 행복 감정선과 놀람 감정선간의 사이 각은 점진적으로 작아진다.For example, when happy emotions are frequently input, the length of the happiness emotion line is gradually increased accordingly, and when surprise emotions are frequently input, the length of the surprise emotion lines is correspondingly gradually lengthened. Also, as the happiness emotion and the surprise emotion are alternately input, the angle between the happiness emotion line and the surprise emotion line gradually decreases.
도 7 및 도 8은, 감정의 입력 빈도수와 천이 빈도수에 따른 2차원 그래프상의 변화와, 이에 해당되는 아바타의 표정을 도시하고 있다.7 and 8 illustrate the change on the two-dimensional graph according to the emotion input frequency and the transition frequency and the facial expressions of the avatar.
3. 다음과 같은 수학식 2에 의해 연산되어진 파라미터(Pi)에 의해서 아바타의 표정이 변화되도록 하는 단계.3. In step such that the expression of the avatar changed by the parameter (P i) been calculated by the following equation (2), such as.
여기서 wHappy는 행복 감정 영역의 비율이고, wAnger은 화남 감정 영역의 비율, wSad는 슬픔 감정 영역의 비율, wSurprise는 놀람 감정 영역의 비율을 나타낸다.Where w Happy is the proportion of happiness emotion, w Anger is the proportion of angry emotion, w Sad is the proportion of sadness, and w Surprise is the proportion of surprise emotion.
본 발명에 따르면, 4가지 감정 영역이 비율적으로 반영되어서 아바타의 표정이 표현되므로, 감성표현이 다양하면서도 풍부하게 표현되고, 이용자의 개인 특성이 아바타의 표정 표현에 반영되므로, 이용자의 개성에 따른 독창적인 아바타가 생성된다.According to the present invention, since four emotion regions are proportionally reflected, the facial expressions of the avatar are expressed. Therefore, the emotional expressions are variously and richly expressed, and the user's personal characteristics are reflected in the facial expressions of the avatar. An original avatar is created.
본 발명에 따른 아바타의 감성표현방법은, 아바타를 생성하기 위한 프로그램에 반영되어서, 프로그램 저장매체와, 모니터나 LCD, PDP 등의 화상출력매체를 갖춘 장치를 통해서 구현된다. 이러한 장치로는 개인용 컴퓨터나 휴대용 단말기 또는 PDA 등이 적용될 수 있지만, 본 발명은 이에 국한되지는 않는다.The emotion expression method of the avatar according to the present invention is implemented in a program having a program storage medium and an image output medium such as a monitor, LCD, or PDP, as reflected in a program for generating an avatar. Such a device may be a personal computer, a portable terminal or a PDA, but the present invention is not limited thereto.
이상 상기한 바와 같은 본 발명에 따르면, 아바타의 표정 변화를 위한 파라미터와, 이들 파라미터의 기본값이 결정된 상태에서 ; 행복 감정선, 화남 감정선, 슬픔 감정선, 놀람 감정선이 좌표축을 이루는 2차원 그래프상에 행복, 화남, 슬픔, 놀람에 대한 감정 표현값를 각각 표시하여, 각 감정 영역의 영역 비율을 연산하되, 감정의 입력 빈도수를 고려하여 입력 빈도수가 증가될수록 해당 좌표축의 길이가 점진적으로 연장되도록 하고, 2차원 그래프상에서 인접된 좌표축에 해당하는 두 감정 간의 입력시의 천이 빈도수를 고려하여 입력 천이 빈도수가 클수록 해당 좌표축 사이의 각이 점진적으로 작아지도록 한 후 ; 에 의해 연산되어진 파라미터에 의해서 아바타의 표정이 변화되도록 하는 방식을 취하고 있으므로, 4가지 감정이 복합된 감성표현이 이루어지므로 보다 다양하고 풍부한 감성 표현이 가능하고, 이용자의 개인 특성이 아바타의 표정 표현에 적절하게 반영되므 로, 이용자의 개성에 따른 독창적인 아바타를 생성할 수 있는 효과가 있다.According to the present invention as described above, in the state in which the parameters for changing the facial expression of the avatar and the default value of these parameters are determined; The emotional expression values for happiness, anger, sadness, and surprise are displayed on a two-dimensional graph of the happiness emotion line, angry emotion line, sadness emotion line, and surprise emotion line to calculate the ratio of regions of each emotion region, In consideration of this, as the input frequency increases, the length of the corresponding coordinate axis is gradually extended.In consideration of the transition frequency at the time of input between two emotions corresponding to adjacent coordinate axes on the two-dimensional graph, After this gradually becomes smaller; Since the expression of the avatar is changed according to the parameter calculated by, the emotional expressions in which the four emotions are combined are made possible, so that a variety of emotions can be expressed in a variety of ways. Since it is properly reflected, there is an effect that can create an original avatar according to the user's personality.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050016374A KR100663921B1 (en) | 2005-02-28 | 2005-02-28 | Emotional Expression method based on dynamic emotion space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050016374A KR100663921B1 (en) | 2005-02-28 | 2005-02-28 | Emotional Expression method based on dynamic emotion space |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060095615A KR20060095615A (en) | 2006-09-01 |
KR100663921B1 true KR100663921B1 (en) | 2007-01-02 |
Family
ID=37625194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050016374A KR100663921B1 (en) | 2005-02-28 | 2005-02-28 | Emotional Expression method based on dynamic emotion space |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100663921B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101543881B1 (en) | 2013-06-26 | 2015-08-12 | (주)스마일게이트엔터테인먼트 | Method and system for expressing emotion during game play |
KR101874452B1 (en) | 2016-10-14 | 2018-07-04 | 한국한의학연구원 | Daily emotion processing apparatus and method |
US11356393B2 (en) | 2020-09-29 | 2022-06-07 | International Business Machines Corporation | Sharing personalized data in an electronic online group user session |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5880731A (en) | 1995-12-14 | 1999-03-09 | Microsoft Corporation | Use of avatars with automatic gesturing and bounded interaction in on-line chat session |
JPH11242751A (en) | 1998-02-24 | 1999-09-07 | Canon Inc | Animation controller and method therefor and sentence reading device |
JP2000174801A (en) | 1998-12-07 | 2000-06-23 | Nippon Telegr & Teleph Corp <Ntt> | Message communication terminal equipment, message communication method and storage medium with message communication program recorded therein |
KR20010100589A (en) * | 2000-05-04 | 2001-11-14 | 신윤철 | System for and method of information exchange by recording and playing avatar action |
KR20020003533A (en) * | 2001-11-09 | 2002-01-12 | 변진우 | Method for implementing intelligent avatar chatting system over wired and wireless internet |
KR20030042224A (en) * | 2001-11-22 | 2003-05-28 | 최규동 | A Visual Character And Article For Using The Same |
-
2005
- 2005-02-28 KR KR1020050016374A patent/KR100663921B1/en not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5880731A (en) | 1995-12-14 | 1999-03-09 | Microsoft Corporation | Use of avatars with automatic gesturing and bounded interaction in on-line chat session |
JPH11242751A (en) | 1998-02-24 | 1999-09-07 | Canon Inc | Animation controller and method therefor and sentence reading device |
JP2000174801A (en) | 1998-12-07 | 2000-06-23 | Nippon Telegr & Teleph Corp <Ntt> | Message communication terminal equipment, message communication method and storage medium with message communication program recorded therein |
KR20010100589A (en) * | 2000-05-04 | 2001-11-14 | 신윤철 | System for and method of information exchange by recording and playing avatar action |
KR20020003533A (en) * | 2001-11-09 | 2002-01-12 | 변진우 | Method for implementing intelligent avatar chatting system over wired and wireless internet |
KR20030042224A (en) * | 2001-11-22 | 2003-05-28 | 최규동 | A Visual Character And Article For Using The Same |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101543881B1 (en) | 2013-06-26 | 2015-08-12 | (주)스마일게이트엔터테인먼트 | Method and system for expressing emotion during game play |
KR101874452B1 (en) | 2016-10-14 | 2018-07-04 | 한국한의학연구원 | Daily emotion processing apparatus and method |
US11356393B2 (en) | 2020-09-29 | 2022-06-07 | International Business Machines Corporation | Sharing personalized data in an electronic online group user session |
Also Published As
Publication number | Publication date |
---|---|
KR20060095615A (en) | 2006-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11625878B2 (en) | Method, apparatus, and system generating 3D avatar from 2D image | |
US20220157004A1 (en) | Generating textured polygon strip hair from strand-based hair for a virtual character | |
CN107452049B (en) | Three-dimensional head modeling method and device | |
US8405676B2 (en) | Techniques for interior coordinates | |
JP5441087B2 (en) | Program and image display control device | |
TWI780919B (en) | Method and apparatus for processing face image, electronic device and storage medium | |
TWI736054B (en) | Avatar facial expression generating system and method of avatar facial expression generation | |
KR100901276B1 (en) | Apparatus for proccessing an effect using style line | |
KR100663921B1 (en) | Emotional Expression method based on dynamic emotion space | |
CN113826147A (en) | Improvements in animated characters | |
KR20230015430A (en) | Method and apparatus for processing face information, electronic device and storage medium | |
CN110322571B (en) | Page processing method, device and medium | |
Kong et al. | Visible volume buffer for efficient hair expression and shadow generation | |
JP2024003191A (en) | Game system, game device, and program | |
KR100927326B1 (en) | A method for processing two dimensional avatar image and a recording medium with a computer executable program of the method | |
WO2017002483A1 (en) | Program, information processing device, depth definition method, and recording medium | |
CN107103646B (en) | Expression synthesis method and device | |
JP4318580B2 (en) | 3D tree shape generator | |
Jimenez et al. | Practical and realistic facial wrinkles animation | |
Ni et al. | 3D face dynamic expression synthesis system based on DFFD | |
JP2009251887A (en) | Image generation system, program, and information storage medium | |
KR102652652B1 (en) | Apparatus and method for generating avatar | |
KR100366210B1 (en) | Human Head/Face Modeller Generation Method | |
US11980818B2 (en) | Game system, processing method, and information storage medium | |
EP4198907A1 (en) | Inference model construction method, inference model construction device, program, recording medium, configuration device, and configuration method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121011 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20131129 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20151028 Year of fee payment: 10 |
|
LAPS | Lapse due to unpaid annual fee |