KR100663921B1 - Emotional Expression method based on dynamic emotion space - Google Patents

Emotional Expression method based on dynamic emotion space Download PDF

Info

Publication number
KR100663921B1
KR100663921B1 KR1020050016374A KR20050016374A KR100663921B1 KR 100663921 B1 KR100663921 B1 KR 100663921B1 KR 1020050016374 A KR1020050016374 A KR 1020050016374A KR 20050016374 A KR20050016374 A KR 20050016374A KR 100663921 B1 KR100663921 B1 KR 100663921B1
Authority
KR
South Korea
Prior art keywords
emotion
avatar
line
expression
emotions
Prior art date
Application number
KR1020050016374A
Other languages
Korean (ko)
Other versions
KR20060095615A (en
Inventor
심귀보
변광섭
이동훈
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020050016374A priority Critical patent/KR100663921B1/en
Publication of KR20060095615A publication Critical patent/KR20060095615A/en
Application granted granted Critical
Publication of KR100663921B1 publication Critical patent/KR100663921B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Abstract

본 발명은 아바타의 감성표현방법에 관한 것으로, 아바타의 표정 변화를 위한 파라미터와, 이들 파라미터의 기본값이 결정된 상태에서 ; 행복 감정선, 화남 감정선, 슬픔 감정선, 놀람 감정선이 좌표축을 이루는 2차원 그래프상에 행복, 화남, 슬픔, 놀람에 대한 감정 표현값를 각각 표시하여, 각 감정 영역의 영역 비율을 연산하되, 감정의 입력 빈도수를 고려하여 입력 빈도수가 증가될수록 해당 좌표축의 길이가 점진적으로 연장되도록 하고, 2차원 그래프상에서 인접된 좌표축에 해당하는 두 감정 간의 입력시의 천이 빈도수를 고려하여 입력 천이 빈도수가 클수록 해당 좌표축 사이의 각이 점진적으로 작아지도록 한 후 ;

Figure 112005010512367-pat00001
에 의해 연산되어진 파라미터에 의해서 아바타의 표정이 변화되도록 하는 방식을 취하고 있으므로, 4가지 감정이 복합된 감성표현이 이루어지므로 보다 다양하고 풍부한 감성 표현이 가능하고, 이용자의 개인 특성이 아바타의 표정 표현에 적절하게 반영되므로, 이용자의 개성에 따른 독창적인 아바타를 생성할 수 있는 효과가 있다.The present invention relates to a method for expressing an emotion of an avatar, wherein a parameter for changing an expression of an avatar and a default value of these parameters are determined; The emotional expression values for happiness, anger, sadness, and surprise are displayed on a two-dimensional graph of the happiness emotion line, angry emotion line, sadness emotion line, and surprise emotion line to calculate the ratio of regions of each emotion region, In consideration of this, as the input frequency increases, the length of the corresponding coordinate axis is gradually extended.In consideration of the transition frequency at the time of input between two emotions corresponding to adjacent coordinate axes on the two-dimensional graph, After this gradually becomes smaller;
Figure 112005010512367-pat00001
Since the expression of the avatar is changed according to the parameter calculated by, the emotional expressions in which the four emotions are combined are made possible, so that a variety of emotions can be expressed in a variety of ways. Since it is properly reflected, there is an effect that can create an original avatar according to the user's personality.

Description

동적 감성공간에 기반한 아바타의 감성표현방법{Emotional Expression method based on dynamic emotion space}Emotional Expression method based on dynamic emotion space

도 1은 아바타의 표정 변화를 위한 파라미터를 도시한 도면,1 is a diagram illustrating parameters for changing a facial expression of an avatar;

도 2는 동적 감성공간을 설명하기 위한 2차원 그래프,2 is a two-dimensional graph for explaining a dynamic emotional space,

도 3의 (a)와 (b)는 행복 모델의 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,3 (a) and 3 (b) show two-dimensional graphs of a happiness model and corresponding avatar expressions;

도 4의 (a)와 (b)는 화남 모델의 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,(A) and (b) of FIG. 4 show two-dimensional graphs of an angry model and corresponding avatar expressions;

도 5의 (a)와 (b)는 슬픔 모델의 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,(A) and (b) of FIG. 5 illustrate two-dimensional graphs of sadness models and corresponding avatar expressions;

도 6의 (a)와 (b)는 놀람 모델의 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,6 (a) and 6 (b) show two-dimensional graphs of surprise models and corresponding avatar expressions;

도 7의 (a)와 (b)는 변화된 모델의 제1실시예에 따른 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면,7 (a) and 7 (b) illustrate a two-dimensional graph according to a first embodiment of a changed model and an avatar facial expression corresponding thereto;

도 8의 (a)와 (b)는 변화된 모델의 제2실시예에 따른 2차원 그래프와, 이에 해당되는 아바타 표정을 도시한 도면이다.8A and 8B are diagrams illustrating two-dimensional graphs and avatar expressions according to a second embodiment of the changed model.

본 발명은 개인용 컴퓨터나 휴대용 단말기 또는 PDA 등의 장치에 아바타를 출력함에 있어서, 개인의 감성 특성을 반영하여 아바타의 표정을 다양하게 표현할 수 있는 아바타의 감성표현방법에 관한 것이다.The present invention relates to a method for expressing an avatar's emotion in which an avatar's expression can be variously expressed by reflecting an individual's emotional characteristics in outputting the avatar to a personal computer, a portable terminal, or a device such as a PDA.

주지된 바와 같이, 인터넷 이용자가 증가되고 활성화됨에 따라서 인터넷 상에서 자신을 대신하는 분신역할을 하는 아바타가 크게 각광받고 있는데, 개인의 특성과 다양한 자기표현 욕구를 충족시켜주기 위해서 독창적인 아바타를 표현할 수 있는 방안에 대한 연구가 활발하게 진행되고 있다.As is well known, as internet users increase and become active, avatars acting as self-employed acts on the Internet have been greatly spotlighted. In order to satisfy individual characteristics and various self-expression needs, an avatar can be expressed. There is an active research on the plan.

종래 방식은, 만화처럼 정형화된 아바타를 데이터 베이스에 저장해 놓았다가 적당한 아바타를 불러와서 표시하는 것이 일반적이지만, 근래에는 다양한 얼굴 표정, 머리 형태, 복장, 소지품 중에서 자기가 원하는대로 임의로 선택하여 자신만의 독자적인 캐릭터를 만들거나, 실제 사람의 얼굴을 캡쳐하여 실사에 가까운 얼굴표정을 표현하는 방식이 개발되어 활용되고 있다.In the conventional method, it is common to store a stylized avatar like a cartoon in a database, and to retrieve and display an appropriate avatar. However, in recent years, various facial expressions, hair shapes, clothes, and belongings are randomly selected as desired. A method of creating an original character or capturing a real human face and expressing facial expressions close to the real world has been developed and utilized.

그러나, 상기와 같은 종래 방식은, 여러가지로 만들어진 얼굴 표정 중에서 어느 하나를 선택하는 방식을 취하고 있어서, 얼굴 표정을 사용자가 임의로 변화시 킬 수 없을 뿐만아니라, 개인의 감성 특성이 전혀 반영되지 않아서, 아바타의 감성 표현이 개성에 따라 독창적으로 이루어지지 못하였다.However, the above-described conventional method adopts a method of selecting any one of variously made facial expressions, and the user may not arbitrarily change the facial expressions and does not reflect the personal emotional characteristics at all. Emotional expression was not original according to individuality.

이에 본 발명은 상기와 같은 문제를 해소하기 위해서 발명된 것으로, 개인의 감성 특성을 반영하여 아바타의 표정을 다양하게 표현할 수 있는 동적 감성공간에 기반한 아바타의 감성표현방법을 제공함에 그 목적이 있다.Accordingly, an object of the present invention is to provide a method for expressing an emotion of an avatar based on a dynamic emotional space capable of expressing a variety of facial expressions of an avatar reflecting an individual's emotional characteristics.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 동적 감성공간에 기반한 아바타의 감성표현방법은, 아바타의 이미지를 구성하는 눈썹, 눈 및 입에 대한 화상출력장치에서의 출력위치를 나타내는 표정변화 파라미터의 초기값을 설정하는 단계; 사용자로부터 행복, 화남, 슬픔 및 놀람을 포함하는 감정에 대한 감정표현값을 입력받는 단계; 상기 각각의 감정에 대응하는 감정선의 일단이 접하는 공통점을 원점으로 하는 평면 좌표축 상에서 상기 사용자로부터 입력받은 감정에 해당하는 좌표축을 연장하는 단계; 상기 각각의 감정 중에서 이웃하는 평면 좌표축에 대응하는 감정의 천이 빈도수에 따라 상기 이웃하는 감정에 대응하는 감정선들 사이의 각을 변경하는 단계; 상기 입력된 각각의 감정표현값을 대응하는 감정선으로 이루어진 평면 좌표축 상에 표시하는 단계; 상기 각각의 감정선과 이웃하는 감정선들 사이의 각을 이등분하는 직선들과 상기 각각의 감정선에 표시된 감정표현값을 연결하는 직선들로 이루어진 다각형의 넓이를 산출하여 각각의 감정영역의 크기를 구하는 단계; 상기 각각의 감정영역의 크기를 기초로 수학식

Figure 112006068113504-pat00015
에 의해 감정변화 파라미터를 산출하는 단계; 및 상기 산출된 감정변화 파라미터에 대응하는 표정변화 파라미터를 기초로 상기 아바타의 이미지를 변경하는 단계;를 가진다. 상기의 수학식에서 Pi는 감정변화 파라미터, Ai는 전체 감정영역의 합에 대한 행복감정영역의 비율, Bi는 전체 감정영역의 합에 대한 화남감정영역비율, Ci는 전체 감정영역의 합에 대한 슬픔감정영역비율, 그리고, Di는 전체 감정영역의 합에 대한 놀람감정영역비율, 그리고, S는 비례상수이다. Emotional expression method of the avatar based on the dynamic emotional space according to the present invention for achieving the above object, the expression change parameter indicating the output position in the image output device for the eyebrow, eyes and mouth constituting the avatar image Setting an initial value; Receiving an emotion expression value for an emotion including happiness, anger, sadness and surprise from a user; Extending a coordinate axis corresponding to the emotion received from the user on a plane coordinate axis having an origin in common with one end of the emotion line corresponding to each emotion; Changing an angle between emotion lines corresponding to the neighboring emotions according to a transition frequency of the emotions corresponding to the neighboring plane coordinate axes among the emotions; Displaying each input emotion expression value on a plane coordinate axis formed of a corresponding emotion line; Obtaining a size of each emotion region by calculating a width of a polygon consisting of straight lines bisecting angles between each emotion line and neighboring emotion lines and straight lines connecting emotion expression values displayed on each emotion line; Equation based on the size of each emotional region
Figure 112006068113504-pat00015
Calculating an emotion change parameter by; And changing the image of the avatar based on the expression change parameter corresponding to the calculated emotion change parameter. In the above equation, P i is an emotion change parameter, A i is the ratio of happiness emotion area to the sum of all emotion areas, B i is the ratio of anger emotion zone to the sum of all emotion areas, and C i is the sum of all emotion areas The sadness emotion area ratio for, and D i is the surprise emotion area ratio for the sum of all emotion areas, and S is the proportionality constant.

이하 본 발명을 첨부된 예시도면에 의거하여 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다음과 같은 단계로 이루어진다.The present invention consists of the following steps.

1. 아바타의 표정 변화를 위한 파라미터와, 이들 파라미터의 기본값을 결정하는 단계.1. Determining parameters for changing facial expressions of the avatar and default values of these parameters.

감성 표현은 얼굴형태나, 눈썹, 눈, 코, 입, 머리 모양 등의 변화로 표현될 수 있지만, 본 실시예의 경우에는, 눈썹과 눈 및 입의 모양에 의해서 아바타의 표정이 변화되도록 하였다.Emotional expression may be expressed as a change in the shape of the face, eyebrows, eyes, nose, mouth, hair, etc. In the present embodiment, the facial expression of the avatar is changed by the shape of the eyebrows, eyes and mouth.

아바타의 표정 변화를 위한 파라미터는, 도 1에 도시된 바와 같이, 눈썹의 좌끝점(p1), 눈썹의 중심점(p2), 눈썹의 우끝점(p3), 눈의 좌끝점(p4), 눈의 높이(p5), 눈의 우끝점(p6), 입의 넓이(p7), 입의 높이(p8), 입의 휜 방향 및 정도(p9)로 이루어진다.As shown in FIG. 1, the parameters for changing the facial expression of the avatar include the left end point p1 of the eyebrow, the center point p2 of the eyebrow, the right end point p3 of the eyebrow, the left end point p4 of the eye, It consists of the height p5, the right end point p6 of the eye, the width p7 of the mouth, the height p8 of the mouth, the direction and the degree p9 of the mouth.

한편, 이들 파라미터(pi)의 기본값은, 도 3 내지 도 6에 도시된 바와 같이, 행복(Ai), 화남(Bi), 슬픔(Ci), 놀람(Di)만 나타날 때의 초기 설정값으로, 화상출력매체에서의 출력되는 위치값이다.On the other hand, the default value of these parameters (p i ), as shown in Figures 3 to 6, when only happiness (A i ), anger (B i ), sadness (C i ), surprise (D i ) appears The initial setting value is a position value output from the image output medium.

2. 행복 감정선, 화남 감정선, 슬픔 감정선, 놀람 감정선이 좌표축을 이루는 2차원 그래프상에 행복, 화남, 슬픔, 놀람에 대한 감정 표현값를 각각 표시하여, 각 감정 영역의 영역 비율을 연산하되, 감정의 입력 빈도수를 고려하여 입력 빈도수가 증가될수록 해당 좌표축의 길이가 점진적으로 연장되도록 하고, 2차원 그래프상에서 인접된 좌표축에 해당하는 두 감정 간의 입력시의 천이 빈도수를 고려하여 입력 천이 빈도수가 클수록 해당 좌표축 사이의 각이 점진적으로 작아지도록 하는 단계.2. The emotional expression values for happiness, anger, sadness, and surprise are displayed on a two-dimensional graph of the happiness emotion line, angry emotion line, sadness emotion line, and surprise emotion line. In consideration of the input frequency, the length of the corresponding coordinate axis is gradually extended as the input frequency is increased, and the larger the input transition frequency is, Gradually decreasing the angle of.

동적 감성공간은, 도 2에 도시된 바와 같이, 행복 감정선, 화남 감정선, 슬픔 감정선, 놀람 감정선이 좌표축을 이루는 2차원 그래프로 표현될 수 있다.
도 2를 참조하면, 네 개의 감정선(행복감정선, 놀람감정선, 슬픔감정선 및 화남감정선)이 굵은 직선으로 표시되어 있고, 각각의 감정선으로 이루어진 좌표축은 각각의 감정선의 일단이 접하는 공통점을 원점으로 한다. 또한, 이웃하는 감정선 사이의 각을 이등분하는 점선들과 각각의 감정선에 표시된 감정표현값을 연결하는 직선들로 이루어진 네 개의 사각형이 각각의 감정영역으로 표시되어 있다. 예를 들어, 행복감정영역은 행복감정선과 이웃하는 놀람감정선 및 화남감정선 사이의 각을 이등분하는 직선들과, 행복감정선에 표시된 행복감정표현값과 행복감정선과 이웃하는 놀람감정선 및 화남감정선에 표시된 놀람감정표현값 및 화남감정표현값을 연결하는 직선들로 이루어진 사각형 영역이다.
As illustrated in FIG. 2, the dynamic emotional space may be represented by a two-dimensional graph in which a happiness emotion line, an angry emotion line, a sadness emotion line, and a surprise emotion line form a coordinate axis.
Referring to FIG. 2, four emotion lines (happiness emotion line, surprise emotion line, sadness emotion line, and anger emotion line) are indicated by a thick straight line, and the coordinate axis composed of each emotion line has an origin in common with one end of each emotion line. In addition, four squares are formed as respective emotion regions, each of which consists of dotted lines bisecting angles between neighboring emotion lines and straight lines connecting emotion expression values displayed on each emotion line. For example, the happiness emotion region is a line that bisects the angle between the happiness emotion line and the neighboring surprise emotion line and the angry emotion line, the happiness expression expressed in the happiness emotion line and the surprise indicated on the happiness emotion line and the neighboring emotion emotion line. It is a rectangular area made up of straight lines connecting the emotion expression and anger expression.

이용자가 입력하는 행복, 화남, 슬픔, 놀람에 대한 감정 표현값은 이러한 2차원 그래프상의 좌표축에 표시되며, 2차원 그래프상에서 각 감정 영역의 크기를 연산하여 해당 감정의 영역 비율을 구한다.Emotional expression values for happiness, anger, sadness and surprise that the user inputs are displayed on the coordinate axes on the two-dimensional graph, and the ratio of each emotional region is calculated by calculating the size of each emotional region on the two-dimensional graph.

전체 감정 영역의 크기는 다음과 같은 수학식 1에 의해서 연산된다.The size of the entire emotional region is calculated by Equation 1 below.

Figure 112005010512367-pat00003
Figure 112005010512367-pat00003

또한, 각 감정이 속하는 영역의 비율은 해당 감정 영역의 비율을 전체감정영역으로 나눈 값이 된다.In addition, the ratio of the area to which each emotion belongs is a value obtained by dividing the ratio of the corresponding emotion area by the total emotion area.

한편, 감정의 입력 빈도수를 고려하여 입력 빈도수가 증가될수록 해당 좌표축의 길이가 점진적으로 연장되도록 하고, 2차원 그래프상에서 인접된 좌표축에 해당하는 두 감정 간의 입력시의 천이 빈도수를 고려하여 입력 천이 빈도수가 클수록 해당 좌표축 사이의 각이 점진적으로 작아지도록 하여, 축적된 경험에 의해서, 즉 개인의 특성에 따라서 좌표축의 길이와, 좌표축간의 사이 각의 크기가 변화되도록 하여 개인의 특성이 아바타의 표정 표현에 반영되도록 한다.Meanwhile, as the input frequency is increased in consideration of emotion input frequency, the length of the corresponding coordinate axis is gradually extended, and the input transition frequency is considered in consideration of the transition frequency at the time of input between two emotions corresponding to adjacent coordinate axes on the two-dimensional graph. The larger the angle is, the smaller the angle between the coordinate axes becomes, and the accumulated length of the coordinate axis and the size of the angle between the coordinate axes are changed according to the accumulated experience, that is, the characteristics of the individual are reflected in the expression of the facial expression of the avatar. Be sure to

일예로, 행복한 감정이 자주 입력되면 이에 상응하게 행복 감정선의 길이가 점진적으로 길어지고, 놀람 감정이 자주 입력되면 이에 상응하게 놀람 감정선의 길이가 점진적으로 길어진다. 또한, 행복 감정과 놀람 감정이 번갈아 입력될수록 행복 감정선과 놀람 감정선간의 사이 각은 점진적으로 작아진다.For example, when happy emotions are frequently input, the length of the happiness emotion line is gradually increased accordingly, and when surprise emotions are frequently input, the length of the surprise emotion lines is correspondingly gradually lengthened. Also, as the happiness emotion and the surprise emotion are alternately input, the angle between the happiness emotion line and the surprise emotion line gradually decreases.

도 7 및 도 8은, 감정의 입력 빈도수와 천이 빈도수에 따른 2차원 그래프상의 변화와, 이에 해당되는 아바타의 표정을 도시하고 있다.7 and 8 illustrate the change on the two-dimensional graph according to the emotion input frequency and the transition frequency and the facial expressions of the avatar.

3. 다음과 같은 수학식 2에 의해 연산되어진 파라미터(Pi)에 의해서 아바타의 표정이 변화되도록 하는 단계.3. In step such that the expression of the avatar changed by the parameter (P i) been calculated by the following equation (2), such as.

Figure 112005010512367-pat00004
Figure 112005010512367-pat00004

여기서 wHappy는 행복 감정 영역의 비율이고, wAnger은 화남 감정 영역의 비율, wSad는 슬픔 감정 영역의 비율, wSurprise는 놀람 감정 영역의 비율을 나타낸다.Where w Happy is the proportion of happiness emotion, w Anger is the proportion of angry emotion, w Sad is the proportion of sadness, and w Surprise is the proportion of surprise emotion.

본 발명에 따르면, 4가지 감정 영역이 비율적으로 반영되어서 아바타의 표정이 표현되므로, 감성표현이 다양하면서도 풍부하게 표현되고, 이용자의 개인 특성이 아바타의 표정 표현에 반영되므로, 이용자의 개성에 따른 독창적인 아바타가 생성된다.According to the present invention, since four emotion regions are proportionally reflected, the facial expressions of the avatar are expressed. Therefore, the emotional expressions are variously and richly expressed, and the user's personal characteristics are reflected in the facial expressions of the avatar. An original avatar is created.

본 발명에 따른 아바타의 감성표현방법은, 아바타를 생성하기 위한 프로그램에 반영되어서, 프로그램 저장매체와, 모니터나 LCD, PDP 등의 화상출력매체를 갖춘 장치를 통해서 구현된다. 이러한 장치로는 개인용 컴퓨터나 휴대용 단말기 또는 PDA 등이 적용될 수 있지만, 본 발명은 이에 국한되지는 않는다.The emotion expression method of the avatar according to the present invention is implemented in a program having a program storage medium and an image output medium such as a monitor, LCD, or PDP, as reflected in a program for generating an avatar. Such a device may be a personal computer, a portable terminal or a PDA, but the present invention is not limited thereto.

이상 상기한 바와 같은 본 발명에 따르면, 아바타의 표정 변화를 위한 파라미터와, 이들 파라미터의 기본값이 결정된 상태에서 ; 행복 감정선, 화남 감정선, 슬픔 감정선, 놀람 감정선이 좌표축을 이루는 2차원 그래프상에 행복, 화남, 슬픔, 놀람에 대한 감정 표현값를 각각 표시하여, 각 감정 영역의 영역 비율을 연산하되, 감정의 입력 빈도수를 고려하여 입력 빈도수가 증가될수록 해당 좌표축의 길이가 점진적으로 연장되도록 하고, 2차원 그래프상에서 인접된 좌표축에 해당하는 두 감정 간의 입력시의 천이 빈도수를 고려하여 입력 천이 빈도수가 클수록 해당 좌표축 사이의 각이 점진적으로 작아지도록 한 후 ;

Figure 112005010512367-pat00005
에 의해 연산되어진 파라미터에 의해서 아바타의 표정이 변화되도록 하는 방식을 취하고 있으므로, 4가지 감정이 복합된 감성표현이 이루어지므로 보다 다양하고 풍부한 감성 표현이 가능하고, 이용자의 개인 특성이 아바타의 표정 표현에 적절하게 반영되므 로, 이용자의 개성에 따른 독창적인 아바타를 생성할 수 있는 효과가 있다.According to the present invention as described above, in the state in which the parameters for changing the facial expression of the avatar and the default value of these parameters are determined; The emotional expression values for happiness, anger, sadness, and surprise are displayed on a two-dimensional graph of the happiness emotion line, angry emotion line, sadness emotion line, and surprise emotion line to calculate the ratio of regions of each emotion region, In consideration of this, as the input frequency increases, the length of the corresponding coordinate axis is gradually extended.In consideration of the transition frequency at the time of input between two emotions corresponding to adjacent coordinate axes on the two-dimensional graph, After this gradually becomes smaller;
Figure 112005010512367-pat00005
Since the expression of the avatar is changed according to the parameter calculated by, the emotional expressions in which the four emotions are combined are made possible, so that a variety of emotions can be expressed in a variety of ways. Since it is properly reflected, there is an effect that can create an original avatar according to the user's personality.

Claims (1)

아바타의 이미지를 구성하는 눈썹, 눈 및 입에 대한 화상출력장치에서의 출력위치를 나타내는 표정변화 파라미터의 초기값을 설정하는 단계; Setting an initial value of a facial expression change parameter indicating an output position in an image output apparatus for eyebrows, eyes, and mouth constituting an avatar image; 사용자로부터 행복, 화남, 슬픔 및 놀람을 포함하는 감정에 대한 감정표현값을 입력받는 단계;Receiving an emotion expression value for an emotion including happiness, anger, sadness and surprise from a user; 상기 각각의 감정에 대응하는 감정선의 일단이 접하는 공통점을 원점으로 하는 평면 좌표축 상에서 상기 사용자로부터 입력받은 감정에 해당하는 좌표축을 연장하는 단계;Extending a coordinate axis corresponding to the emotion received from the user on a plane coordinate axis having an origin in common with one end of the emotion line corresponding to each emotion; 상기 각각의 감정 중에서 이웃하는 평면 좌표축에 대응하는 감정의 천이 빈도수에 따라 상기 이웃하는 감정에 대응하는 감정선들 사이의 각을 변경하는 단계;Changing an angle between emotion lines corresponding to the neighboring emotions according to a transition frequency of the emotions corresponding to the neighboring plane coordinate axes among the emotions; 상기 입력된 각각의 감정표현값을 대응하는 감정선으로 이루어진 평면 좌표축 상에 표시하는 단계;Displaying each input emotion expression value on a plane coordinate axis formed of a corresponding emotion line; 상기 각각의 감정선과 이웃하는 감정선들 사이의 각을 이등분하는 직선들과 상기 각각의 감정선에 표시된 감정표현값을 연결하는 직선들로 이루어진 다각형의 넓이를 산출하여 각각의 감정영역의 크기를 구하는 단계;Obtaining a size of each emotion region by calculating a width of a polygon consisting of straight lines bisecting angles between each emotion line and neighboring emotion lines and straight lines connecting emotion expression values displayed on each emotion line; 상기 각각의 감정영역의 크기를 기초로 다음의 수학식에 의해 감정변화 파라미터를 산출하는 단계; 및Calculating an emotion change parameter by the following equation based on the size of each emotion region; And 상기 산출된 감정변화 파라미터에 대응하는 표정변화 파라미터를 기초로 상기 아바타의 이미지를 변경하는 단계;를 포함하는 것을 특징으로 하는 동적 감성공간에 기반한 아바타의 감성표현방법:Changing the image of the avatar on the basis of the facial expression change parameter corresponding to the calculated emotion change parameter; emotional expression method of the avatar based on the dynamic emotional space comprising:
Figure 112006068113504-pat00016
Figure 112006068113504-pat00016
여기서, Pi는 감정변화 파라미터, Ai는 전체 감정영역의 합에 대한 행복감정영역의 비율, Bi는 전체 감정영역의 합에 대한 화남감정영역비율, Ci는 전체 감정영역의 합에 대한 슬픔감정영역비율, 그리고, Di는 전체 감정영역의 합에 대한 놀람감정영역비율, 그리고, S는 비례상수이다. Where P i is the emotion change parameter, A i is the ratio of happiness emotion area to the sum of all emotion areas, B i is the ratio of anger feeling area to the sum of all emotion areas, and C i is the sum of all emotion areas. The sadness emotion area ratio, and D i is the surprise emotion area ratio with respect to the sum of all emotion areas, and S is the proportionality constant.
KR1020050016374A 2005-02-28 2005-02-28 Emotional Expression method based on dynamic emotion space KR100663921B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050016374A KR100663921B1 (en) 2005-02-28 2005-02-28 Emotional Expression method based on dynamic emotion space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050016374A KR100663921B1 (en) 2005-02-28 2005-02-28 Emotional Expression method based on dynamic emotion space

Publications (2)

Publication Number Publication Date
KR20060095615A KR20060095615A (en) 2006-09-01
KR100663921B1 true KR100663921B1 (en) 2007-01-02

Family

ID=37625194

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050016374A KR100663921B1 (en) 2005-02-28 2005-02-28 Emotional Expression method based on dynamic emotion space

Country Status (1)

Country Link
KR (1) KR100663921B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101543881B1 (en) 2013-06-26 2015-08-12 (주)스마일게이트엔터테인먼트 Method and system for expressing emotion during game play
KR101874452B1 (en) 2016-10-14 2018-07-04 한국한의학연구원 Daily emotion processing apparatus and method
US11356393B2 (en) 2020-09-29 2022-06-07 International Business Machines Corporation Sharing personalized data in an electronic online group user session

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880731A (en) 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
JPH11242751A (en) 1998-02-24 1999-09-07 Canon Inc Animation controller and method therefor and sentence reading device
JP2000174801A (en) 1998-12-07 2000-06-23 Nippon Telegr & Teleph Corp <Ntt> Message communication terminal equipment, message communication method and storage medium with message communication program recorded therein
KR20010100589A (en) * 2000-05-04 2001-11-14 신윤철 System for and method of information exchange by recording and playing avatar action
KR20020003533A (en) * 2001-11-09 2002-01-12 변진우 Method for implementing intelligent avatar chatting system over wired and wireless internet
KR20030042224A (en) * 2001-11-22 2003-05-28 최규동 A Visual Character And Article For Using The Same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880731A (en) 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
JPH11242751A (en) 1998-02-24 1999-09-07 Canon Inc Animation controller and method therefor and sentence reading device
JP2000174801A (en) 1998-12-07 2000-06-23 Nippon Telegr & Teleph Corp <Ntt> Message communication terminal equipment, message communication method and storage medium with message communication program recorded therein
KR20010100589A (en) * 2000-05-04 2001-11-14 신윤철 System for and method of information exchange by recording and playing avatar action
KR20020003533A (en) * 2001-11-09 2002-01-12 변진우 Method for implementing intelligent avatar chatting system over wired and wireless internet
KR20030042224A (en) * 2001-11-22 2003-05-28 최규동 A Visual Character And Article For Using The Same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101543881B1 (en) 2013-06-26 2015-08-12 (주)스마일게이트엔터테인먼트 Method and system for expressing emotion during game play
KR101874452B1 (en) 2016-10-14 2018-07-04 한국한의학연구원 Daily emotion processing apparatus and method
US11356393B2 (en) 2020-09-29 2022-06-07 International Business Machines Corporation Sharing personalized data in an electronic online group user session

Also Published As

Publication number Publication date
KR20060095615A (en) 2006-09-01

Similar Documents

Publication Publication Date Title
US11625878B2 (en) Method, apparatus, and system generating 3D avatar from 2D image
US20220157004A1 (en) Generating textured polygon strip hair from strand-based hair for a virtual character
CN107452049B (en) Three-dimensional head modeling method and device
US8405676B2 (en) Techniques for interior coordinates
JP5441087B2 (en) Program and image display control device
TWI780919B (en) Method and apparatus for processing face image, electronic device and storage medium
TWI736054B (en) Avatar facial expression generating system and method of avatar facial expression generation
KR100901276B1 (en) Apparatus for proccessing an effect using style line
KR100663921B1 (en) Emotional Expression method based on dynamic emotion space
CN113826147A (en) Improvements in animated characters
KR20230015430A (en) Method and apparatus for processing face information, electronic device and storage medium
CN110322571B (en) Page processing method, device and medium
Kong et al. Visible volume buffer for efficient hair expression and shadow generation
JP2024003191A (en) Game system, game device, and program
KR100927326B1 (en) A method for processing two dimensional avatar image and a recording medium with a computer executable program of the method
WO2017002483A1 (en) Program, information processing device, depth definition method, and recording medium
CN107103646B (en) Expression synthesis method and device
JP4318580B2 (en) 3D tree shape generator
Jimenez et al. Practical and realistic facial wrinkles animation
Ni et al. 3D face dynamic expression synthesis system based on DFFD
JP2009251887A (en) Image generation system, program, and information storage medium
KR102652652B1 (en) Apparatus and method for generating avatar
KR100366210B1 (en) Human Head/Face Modeller Generation Method
US11980818B2 (en) Game system, processing method, and information storage medium
EP4198907A1 (en) Inference model construction method, inference model construction device, program, recording medium, configuration device, and configuration method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121011

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131129

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee