KR20100006263A - System and method of expressing character - Google Patents

System and method of expressing character Download PDF

Info

Publication number
KR20100006263A
KR20100006263A KR1020080066417A KR20080066417A KR20100006263A KR 20100006263 A KR20100006263 A KR 20100006263A KR 1020080066417 A KR1020080066417 A KR 1020080066417A KR 20080066417 A KR20080066417 A KR 20080066417A KR 20100006263 A KR20100006263 A KR 20100006263A
Authority
KR
South Korea
Prior art keywords
character
emotional
vocabulary
slope
value
Prior art date
Application number
KR1020080066417A
Other languages
Korean (ko)
Other versions
KR100955247B1 (en
Inventor
정재욱
Original Assignee
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단 filed Critical 울산대학교 산학협력단
Priority to KR1020080066417A priority Critical patent/KR100955247B1/en
Publication of KR20100006263A publication Critical patent/KR20100006263A/en
Application granted granted Critical
Publication of KR100955247B1 publication Critical patent/KR100955247B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A character expression system or a character expression method is provided to reflect the character of characters or various events, thereby achieving the emotional interaction of the character. CONSTITUTION: A character sensibility value output unit(100) calculates one or more sensibility values of a character. A sensibility vocabulary allocating unit(200) allocates a sensibility vocabulary, expressing current sensitive situation about the character, to the character based on the output of the character sensibility value output unit. A real-time rendering unit(400) receives the kind of the current operation of the character and the result of the sensibility vocabulary allocating unit, and converts the current operation of the character into an operation added with sensibility.

Description

캐릭터 표현 시스템 또는 캐릭터 표현 방법{SYSTEM AND METHOD OF EXPRESSING CHARACTER}Character representation system or character representation method {SYSTEM AND METHOD OF EXPRESSING CHARACTER}

본 발명은 캐릭터 표현 시스템 또는 캐릭터 표현 방법에 관한 것으로, 좀 더 상세하게는, 실시간 감성적 인터액션이 가능한 캐릭터 표현 시스템이나 캐릭터 표현 방법 내지 각종의 이벤트 또는 캐릭터의 성격을 반영하여, 해당 캐릭터의 사용자의 의지와 무관하게 또는 의지와 관련되어 해당 캐릭터의 감성적 인터액션을 가능하게 하며, 특히, 해당 캐릭터의 감성적 표현을 위하여 걸음걸이를 해당 캐릭터의 감성에 대응되게 제공하는 캐릭터 표현 시스템 또는 캐릭터 표현 방법에 관한 것이다. The present invention relates to a character expression system or a character expression method, and more particularly, a character representation system capable of real-time emotional interaction, a character expression method, or various events or characteristics of a character, reflecting the will of the user of the character. The present invention relates to a character expression system or a character expression method that enables emotional interaction of a character, irrespective of or related to the will, and provides a gait corresponding to the emotion of the character for emotional expression of the character.

PC를 기반으로 하는 게임이나 웹 콘텐츠, 멀티미디어 콘텐츠 등에서 이루어지고 있는 현재의 캐릭터 표현 방법이나 시스템에서는, 등장하는 모든 캐릭터에 설정된 각 동작마다, 2~8 방향에 따른 동영상이나 모션 데이터를 미리 준비해 사용자 조작에 따라 실행시키는 방식을 채택하고 있다. 콘텐츠의 규모에 따라 차이가 있지만, 적게는 수십개에서 많게는 수백개의 동영상 및 모션데이터를 준비해햐 하기 때문에, 개발자의 입장에서는 최대한 단순화되고 절제된 동작만을 제작하게 되고, 따 라서 사용자는 캐릭터의 능력치나 감정 상태와는 상관없이, 동일한 조작 명령에는 언제나 동일한 행동 영상만을 보게 되었다. In the current character expression method and system performed in a PC-based game, web content, multimedia content, etc., each motion set for all the characters appearing prepares a user's operation in advance by moving video or motion data along 2 to 8 directions. It is implemented according to the method. Depending on the size of the content, but at least dozens to as many as hundreds of video and motion data is prepared, the developer's point of view is to produce as simple and understated motion as possible, so that the user can create a character's ability or emotional state. Regardless of, the same operation command always shows the same action image.

종래 기술에 따른 상황이 이렇다 보니, 현실 세계에서와 같이 신분이 높은 사람의 곁을 지나갈 때 긴장하며 주저한다든가, 호감이 가는 캐릭터의 옆을 지나갈 때 호의적인 반응을 보이는 등의 캐릭터 간의 미세한 감성적 인터액션(interaction)은 상상할 수 없는 실정이었다. The situation according to the prior art is such that the minute emotional interaction between characters, such as nervous or hesitant when passing by a high-profile person as in the real world, or responding favorably when passing by a crushing character. Interaction was unimaginable.

또한, 캐릭터의 감성 상태를 반영하여 해당 캐릭터를 실시간 렌더링하거나 해당 캐릭터의 감성 상태에 기초하여 해당 감성 상태를 대변하는 걸음걸이를 걷거나 뛰는 캐릭터를 구현하는 기술은 존재하지 않은 실정이었다. In addition, there has been no technology for realizing a character that reflects the emotional state of the character in real time or implements a character who walks or jumps on the basis of the emotional state of the character.

본 발명은, 상기와 같은 문제점을 해결하기 위하여 창안된 것으로서, 실시간 액션 및 캐릭터 간 감성적 인터액션이 가능한 캐릭터 표현 시스템이나 캐릭터 표현 방법을 제공하는 것을 본 발명의 목적으로 한다. The present invention was devised to solve the above problems, and an object of the present invention is to provide a character expression system or a character expression method capable of real-time action and emotional interaction between characters.

또한, 각종의 이벤트 또는 캐릭터의 성격을 반영하여, 해당 캐릭터의 사용자의 의지와 무관하게 또는 의지와 관련되어 해당 캐릭터의 감성적 인터액션을 가능하게 하며, 특히, 해당 캐릭터의 감성적 표현을 위하여 걸음걸이를 해당 캐릭터의 감성에 대응되게 제공하는 것을 본 발명의 또 다른 목적으로 한다. In addition, by reflecting the characteristics of various events or characters, regardless of the user's will of the character or in relation to the will enable the emotional interaction of the character, in particular, the gait for the emotional expression of the character It is another object of the present invention to provide corresponding to the emotion of the character.

상기 목적을 달성하기 위하여, 본 발명의 일 실시예에 따르면, 캐릭터의 하나 이상의 감성값을 계산하여 출력하는 캐릭터 감성값 출력부와, 상기 캐릭터 감성값 출력부의 출력을 기초로 하여, 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하는 감성 어휘 할당부와, 상기 감성 어휘 할당부의 결과와 해당 캐릭터의 현재 동작의 종류를 입력받아, 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형하는 실시간 렌더링부를 포함하는 캐릭터 표현 시스템을 제공한다. In order to achieve the above object, according to an embodiment of the present invention, a character emotion value output unit for calculating and outputting one or more emotion values of the character, and based on the output of the character emotion value output unit, for the character An emotional vocabulary allocator for allocating an emotional vocabulary expressing a current emotional state to a corresponding character, a result of the emotional vocabulary allocator, and a type of the current motion of the character, and an emotion added to the current motion of the character. It provides a character representation system including a real-time rendering unit that transforms.

또한, 상기 캐릭터 감성값 출력부는, 캐릭터의 성격, 나이, 성별, 캐릭터가 존재하는 게임이나 가상 공간에서의 날씨, 기후, 인접 캐릭터 간의 거리, 인접 캐릭터의 종류, 부모, 형제, 친척이나 친구, 연인이나 친밀도가 높은 것으로 설정된 캐릭터의 죽음, 결혼, 승진, 생일, 방문, 이별, 별거 등 희노애락, 생노병사 등의 이벤트 정보들 가운데 하나 이상의 정보를 입력으로 받는다. The character emotion value output unit may include a character's personality, age, gender, weather in a game or a virtual space where the character exists, climate, distance between adjacent characters, types of adjacent characters, parents, siblings, relatives or friends, and lovers. Or event information such as death, marriage, promotion, birthday, visit, farewell, separation, etc., such as scare joy, live soldiers, etc., which are set to have high intimacy, are input.

또한, 상기 감성 어휘 할당부는, 상기 캐릭터 감성값 출력부에서 출력되는 하나 이상의 감성값 가운데 가장 큰 감성값 혹은 가장 작은 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하거나, 하나 이상의 감성값 가운데 미리 설정한 기준값 이상이거나 이하인 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하거나, 하나 이상의 감성값 중 일부 또는 전부를 변수로 한 수학식에 따라 계산된 결과값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당한다. The emotional vocabulary allocator may include an emotional vocabulary expressing a current emotional state of the character corresponding to the largest emotional value or the smallest emotional value among one or more emotional values output from the character emotional value output unit. Assigns to the character an emotional vocabulary expressing the current emotional state for the character in response to an emotional value that is equal to or greater than or equal to a preset reference value among the one or more emotional values, or some or all of the one or more emotional values An emotional vocabulary expressing the current emotional state for the character is allocated to the character in correspondence with the result value calculated according to the equation.

또한, 상기 실시간 렌더링부는, 감성 어휘와 동작 간의 관계 알고리즘을 수식으로 표현하거나 테이블로 정리해 둔 감성 어휘 동작 알고리즘 데이터베이스를 더 포함하여, 상기 감성 어휘 동작 알고리즘 데이터베이스를 기초로 하여, 상기 감성 어휘 할당부의 결과와 해당 캐릭터의 현재 동작의 종류를 입력받아 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형하게 된다. The real-time rendering unit may further include an emotional vocabulary operation algorithm database in which a relational algorithm between the emotional vocabulary and an operation is expressed by a formula or arranged in a table, and based on the emotional vocabulary operation algorithm database, the result of the emotional vocabulary allocator. And receives the type of the current motion of the character to transform the current motion of the character into a motion with emotion.

또한, 상기 감성 어휘 동작 알고리즘 데이터베이스에서의 동작은, 걸음걸이이며, 상기 걸음걸이를 정의하는 물리적 속성은, 팔의 각도, 골반의 움직임 정도, 속도, 스텝의 간격, 신체의 기울기, 척추의 기울기, 스텝의 열 가운데 하나 이상의 요소이다. In addition, the motion in the emotional vocabulary motion algorithm database is a gait, and the physical attributes defining the gait include: arm angle, pelvis movement, speed, step spacing, body tilt, spine tilt, One or more elements of a column of steps.

또한, 상기 감성 어휘 동작 알고리즘 데이터베이스는, 하기 수학식 1과 같은 감성 어휘와 상기 걸음걸이 간의 수식으로 정의된다. In addition, the emotional vocabulary operation algorithm database is defined by an equation between the emotional vocabulary and the gait as shown in Equation 1 below.

(수학식 1)(Equation 1)

감성 어휘 = (제 1 기울기×팔의 각도) + (제 2 기울기×골반의 움직임 정도) + (제 3 기울기×속도) + (제 4 기울기×스텝의 간격) + (제 5 기울기×신체의 기울기) +(제 6 기울기×척추의 기울기) +(제 7 기울기×스텝의 열) + 상수 Emotional Vocabulary = (1st Slope x Arm Angle) + (2nd Slope x Pelvic Movement) + (3rd Slope x Speed) + (4th Slope × Step Interval) + (5th Slope × Body Slope ) + (Sixth slope x spine slope) + (seventh slope x column of steps) + constant

한편, 본 발명에 따른 또 다른 실시예에 따르면, 캐릭터의 하나 이상의 감성값을 계산하여 출력하는 캐릭터 감성값 출력 단계와, 상기 캐릭터 감성값 출력 단계에서의 출력을 기초로 하여, 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하는 감성 어휘 할당 단계와, 상기 감성 어휘 할당 단계에서의 결과와 해당 캐릭터의 현재 동작의 종류를 입력받아, 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형하는 실시간 렌더링 단계를 포함하는 캐릭터 표현 방법을 제공한다. On the other hand, according to another embodiment according to the present invention, the character emotion value output step of calculating and outputting one or more emotion values of the character, and based on the output in the character emotion value output step, the current for the character An emotional vocabulary allocating step of allocating an emotional vocabulary expressing an emotional state to a corresponding character, a result of the emotional vocabulary allocating step, and a type of the current motion of the character are inputted. It provides a character representation method comprising a real-time rendering step of transforming into motion.

또한, 상기 캐릭터 감성값 출력 단계는, 캐릭터의 성격, 나이, 성별, 나이, 성별, 캐릭터가 존재하는 게임이나 가상 공간에서의 날씨, 기후, 인접 캐릭터 간의 거리, 인접 캐릭터의 종류, 부모, 형제, 친척이나 친구, 연인이나 친밀도가 높은 것으로 설정된 캐릭터의 죽음, 결혼, 승진, 생일, 방문, 이별, 별거 등 희노애락, 생노병사 등의 이벤트 정보들 가운데 하나 이상의 정보를 입력으로 받는다. The character emotion value outputting step may include character personality, age, gender, age, gender, weather in a character or virtual space where the character exists, climate, distance between adjacent characters, types of adjacent characters, parents, siblings, Receive one or more of the event information such as death, marriage, promotion, birthday, visit, farewell, separation, etc. event information of the relative, friend, lover or character set to have high intimacy.

또한, 상기 감성 어휘 할당 단계는, 상기 캐릭터 감성값 출력 단계에서 출력되는 하나 이상의 감성값 가운데 가장 큰 감성값 혹은 가장 작은 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대 해서 할당하거나, 하나 이상의 감성값 가운데 미리 설정한 기준값 이상이거나 이하인 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하거나, 하나 이상의 감성값 중 일부 또는 전부를 변수로 한 수학식에 따라 계산된 결과값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당한다. The emotional vocabulary allocating step may include an emotional vocabulary representing a current emotional state of the character corresponding to the largest emotional value or the smallest emotional value among one or more emotional values output in the character emotional value outputting step. Assign an emotional vocabulary representing the current emotional state for the character in response to an emotional value that is equal to or greater than or equal to a preset reference value among one or more emotional values, or assigns a part of one or more emotional values, or An emotional vocabulary expressing the current emotional state for the character is assigned to the character in response to the result value calculated according to the equation using all as variables.

또한, 상기 실시간 렌더링 단계는, 감성 어휘와 동작 간의 관계 알고리즘을 수식으로 표현하거나 테이블로 정리해 둔 감성 어휘 동작 알고리즘 데이터베이스에 기초로 하여, 상기 감성 어휘 할당 단계에서의 결과와 해당 캐릭터의 현재 동작의 종류를 입력받아 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형한다. In addition, the real-time rendering step is based on the emotional vocabulary operation algorithm database in which the relation algorithm between the emotional vocabulary and the motion is expressed by a formula or arranged in a table, the result of the emotional vocabulary assignment step and the type of the current motion of the character. Takes input and transforms the current motion of the character into a motion with emotion.

또한, 상기 감성 어휘 동작 알고리즘 데이터베이스에서의 동작은, 걸음걸이이며, 상기 걸음걸이를 정의하는 물리적 속성은, 팔의 각도, 골반의 움직임 정도, 속도, 스텝의 간격, 신체의 기울기, 척추의 기울기, 스텝의 열 가운데 하나 이상의 요소이다. In addition, the motion in the emotional vocabulary motion algorithm database is a gait, and the physical attributes defining the gait include: arm angle, pelvis movement, speed, step spacing, body tilt, spine tilt, One or more elements of a column of steps.

또한, 상기 감성 어휘 동작 알고리즘 데이터베이스는, 하기 수학식 1과 같은 감성 어휘와 상기 걸음걸이 간의 수식으로 정의된다. In addition, the emotional vocabulary operation algorithm database is defined by an equation between the emotional vocabulary and the gait as shown in Equation 1 below.

(수학식 1)(Equation 1)

감성 어휘 = (제 1 기울기×팔의 각도) + (제 2 기울기×골반의 움직임 정도) + (제 3 기울기×속도) + (제 4 기울기×스텝의 간격) + (제 5 기울기×신체의 기울기) +(제 6 기울기×척추의 기울기) +(제 7 기울기×스텝의 열) + 상수 Emotional Vocabulary = (1st Slope x Arm Angle) + (2nd Slope x Pelvic Movement) + (3rd Slope x Speed) + (4th Slope × Step Interval) + (5th Slope × Body Slope ) + (Sixth slope x spine slope) + (seventh slope x column of steps) + constant

본 발명의 일 실시예에 따른 캐릭터 표현 시스템 또는 캐릭터 표현 방법의 경우 종래 기술과 차별화되는 효과는 다음과 같다. In the case of the character expression system or the character expression method according to an embodiment of the present invention, the effects that are differentiated from the prior art are as follows.

첫째, 종래 방식은 각각의 캐릭터마다, 각각의 동작마다, 각각의 방향에 따라 모두 동영상을 준비해야 함으로 인해, 개발자의 입장에서는 최대한 단순화된 애니메이션 동영상만을 제작하게 되고, 따라서 사용자는 캐릭터의 능력치나 감정상태와는 상관없이 늘 동일한 동영상만을 보게 되었다. 3D 게임이 개발되면서 실시간 렌더링이 가능해졌지만, 캐릭터의 행동을 모션 캡처 데이터로 미리 준비해 놓아야 한다는 점에서는 기존의 2D 게임이 가졌던 한계와 크게 달라진 것이 없었다. 종래 기술에 따른 상황이 이렇다 보니, 현실세계에서와 같이 신분이 높은 사람의 곁을 지나갈 때 긴장하며 주저한다든가, 호감이 가는 캐릭터의 옆을 지나갈 때 호의적인 반응을 보이는 등의 캐릭터 간의 미세한 감성적 인터액션은 상상할 수 없는 실정이었지만, 본 발명에 따르게 되면 이와 같은 캐릭터의 실시간 액션 및 캐릭터 간의 감성적 인터액션이 가능하게 된다. First, in the conventional method, since each video should be prepared for each character, each motion, and each direction, only a simplified animation video is produced from the developer's point of view. Regardless of their status, they always saw the same video. Real-time rendering was possible with the development of 3D games, but there was no significant difference from the limitations of existing 2D games in that the character's behavior had to be prepared in advance with motion capture data. As the situation according to the prior art is such, the minute emotional interactions between characters such as being nervous and hesitating when passing by a high-profile person as in the real world, or responding favorably when passing by a crushing character, etc. Was unimaginable, but according to the present invention, such a character's real-time action and emotional interaction between the characters are possible.

둘째, 본 발명에서는 컴퓨터 게임 속 캐릭터의 움직임을 감성제어 알고리즘을 이용하여 제어함으로써, 미리 제작된 애니메이션 동영상이나 모션데이터 값에 의한 움직임을 지양하고, 각각의 상황에 따른 다양한 인터액션을 실시간으로(real-time) 재생하게 한다. 이와 같은 방식의 캐릭터 표현 시스템 또는 캐릭터 표현 방법은, 캐릭터 간의 능력치나 호감도 등에 따라 상호 인터액션이 강제적으로 일어나게 함으로써 현실세계에 유사한 몰입감을 가져 올 수 있게 된다. Second, in the present invention, by controlling the movement of the character in the computer game using the emotion control algorithm, to avoid the movement by the pre-produced animation video or motion data value, various interactions according to each situation in real-time (real- time) to play. The character expression system or the character expression method of this type can bring about a similar immersion to the real world by forcibly causing mutual interaction depending on the ability value and the likelihood between the characters.

이하 첨부된 도면을 참조하면서 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the present specification and claims should not be construed as being limited to the common or dictionary meanings, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that it can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.

먼저, 도 1을 참조하여 설명하기로 한다. 도 1은, 본 발명의 일 실시예에 따른 캐릭터 표현 시스템(1000)을 개략적으로 나타낸 블록도이다. First, it will be described with reference to FIG. 1. 1 is a block diagram schematically showing a character representation system 1000 according to an embodiment of the present invention.

먼저, 캐릭터 감성값 출력부(100)는, 부모, 형제, 친척이나 친구, 연인이나 친밀도가 높은 것으로 설정된 캐릭터의 죽음, 결혼, 승진, 생일, 방문, 이별, 별거 등 게임이나 가상 공간 상의 캐릭터에 적용될 수 있는 각종의 생노병사, 희노애락 등의 각종의 이벤트에 따라서 캐릭터의 감성값을 출력하는 구성요소이다. 즉, 인접 캐릭터나 게임이나 가상 공간에 존재하는 각종의 캐릭터와의 상호 관련, 상호 간섭이 일어나는 캐릭터 간의 감성 영향을 반영하는 구성요소이다. 도 1에서의 입력 1, 입력 2, …, 입력 n은, 이와 같은 각종의 이벤트가 될 수 있다. First, the character emotion value output unit 100 may be used for a character in a game or a virtual space such as death, marriage, promotion, birthday, visit, separation, separation, etc. of a parent, brother, relative, friend, lover, or a character set to have high intimacy. It is a component that outputs the emotional value of the character in accordance with various events such as various soldiers of the old soldiers, rare anger and the like that can be applied. That is, it is a component which reflects the influence of the emotion between the characters which generate mutual interaction with the adjacent character, the various characters which exist in a game, or a virtual space. Input 1, input 2,. The input n may be such various events.

예를 들어, 해당 캐릭터의 연인 캐릭터가 죽었을 경우 해당 캐릭터의 슬픔과 관련된 캐릭터의 감성값을 증가시켜서 출력할 수 있으며, 혹은 즐거움과 관련된 캐릭터의 감성값을 급감시켜서 출력할 수 있는 것으며, 슬픔과 관련된 캐릭터의 감성값을 증가시키는 한편 동시에 즐거움과 관련된 캐릭터의 감성값을 급감시키는 것을 동시에 실행하여 출력할 수도 있다. For example, when a lover character of the character dies, the emotional value of the character related to the sadness of the character may be increased or output, or the emotional value of the character related to the pleasure may be reduced and output. While simultaneously increasing the emotional value of the character associated with the and the emotional value of the character associated with the pleasure may be simultaneously executed and output.

또한, 캐릭터 감성값 출력부(100)는, 인접 캐릭터 간의 거리, 인접 캐릭터의 종류에 따른 이벤트에 따라서 캐릭터의 감성값을 출력할 수도 있다. 예를 들어, 해당 캐릭터 근처 내지 옆으로 해당 캐릭터의 상사 내지 회사의 사장, 모임이나 조직의 우두머리가 지나간다고 하면, 해당 캐릭터는 긴장을 할 수 있다는 전제 하에 해당 캐릭터의 긴장과 관련된 캐릭터의 감성값을 증가시켜서 출력할 수 있는 것이다. In addition, the character emotion value output unit 100 may output the emotion value of the character according to an event according to the distance between adjacent characters and the type of the adjacent character. For example, if the boss of the character or the head of the company, the head of a meeting or organization passes near or side-by-side the character, the character's emotional value associated with the character's tension is assumed, provided that the character is nervous. You can increase the output.

또한, 캐릭터 감성값 출력부(100)는, 해당 캐릭터가 존재하는 게임이나 가상 공간에서의 날씨, 기후와 관련된 날씨나 기후 이벤트에 따라서 해당 캐릭터의 감성값을 출력시킬 수 있다. 여기서, 도 1에서의 입력 1, 입력 2, …, 입력 n은, 이와 같은 날씨나 기후 이벤트가 될 수 있다. 예를 들어, 해당 캐릭터가 존재하는 게임이나 가상 공간에서 장마 기간에 돌입할 경우 해당 캐릭터의 우울함과 관련된 감성값을 증가시키는 것으로 설정하여 출력할 수 있다. In addition, the character emotion value output unit 100 may output the emotion value of the character in accordance with the weather or weather events related to the weather, weather in the game or virtual space where the character exists. Where input 1, input 2,... The input n can be such a weather or climate event. For example, when entering a rainy season in a game or a virtual space where the character exists, it may be set to increase the emotional value associated with the depression of the character and output.

여기서, 언급한 각종의 이벤트는, 본 발명의 설명을 위한 예시에 불과한 것으로서, 적대감이 높은 적 혹은 원수 캐릭터를 죽인다든가, 목표, 예를 들어, 전체 국가의 점령, 전체 미션의 달성, 최종 미션 성공, 기르던 펫(애완견 등)의 구입, 병, 사망, 평소 흠모하거나 존경하던 유명인이나 특정인, 연예인과의 만남, 첫 해외 여행을 위한 비행기 탑승, 캐릭터 본인의 결혼, 첫 아이의 출산 등의 각종 이벤 트, 즉 캐릭터가 존재하는 게임이나 가상 공간에서 이루어질 수 있는 모든 종류의 이벤트를 포괄하는 개념으로 보아야 할 것이다. 이와 같은 감성값은 해당 각종 이벤트에 따라 지속 시간을 설계자가 자유롭게 설정하여 둘 수 있고, 다음 이벤트가 발생할 때까지만 지속시킬 수도 있을 것이다. Here, the various events mentioned are merely examples for the purpose of explanation of the present invention, such as killing a hostile enemy or enemy character with a high level of hostility, for example, capturing the entire nation, achieving the entire mission, and achieving the final mission. , Buying pets (dogs, etc.), illnesses, deaths, encounters with celebrities and certain people, celebrities, or other admirers or people you usually adore, boarding the plane for your first overseas trip, marrying your character, or giving birth to your first child. In other words, it should be seen as a concept that encompasses all kinds of events that can occur in a game or virtual space where a character exists. The emotion value may be freely set by the designer according to various events, and may be maintained only until the next event occurs.

또한, 캐릭터가 원래 가지고 있는 성격, 성품, 인품, 인격에 따라서, 혹은 캐릭터가 존재하는 게임이나 가상 공간에 의한 경험에 의해서, 성장에 의해서 가지게 된 성격, 성품, 인품, 인격 등에 따라서 평상시 대표 감성값을 출력할 수 있다. In addition, according to the character, character, personality, personality originally possessed by the character, or the personality, character, personality, personality, etc., which are possessed by growth by experience of the game or the virtual space where the character exists, the typical representative emotion value You can output

이와 같은 해당 캐릭터의 감성값을 출력하는 것은, 해당 캐릭터의 감성값을 이루는 여러 가지 기본 값, 예를 들어, 슬픔과 관련된 감성값, 즐거움과 관련된 감성값, 우울함과 관련된 감성값 등을 해당 캐릭터가 존재하는 게임이나 가상 공간의 설계자가 미리 정해둔 기본 값, 해당 이벤트에 따른 기본 값의 변화에 대한 룰이나 테이블 등에 따라서 해당 감성값을 이루는 기본값을 가감하는 방식을 취할 수 있다. 예를 들어, 해당 캐릭터에게 기쁜 이벤트가 발생한 경우, 해당 이벤트의 종류에 따라서, 즐거움과 관련된 감성값을 +10을 하거나, 해당 캐릭터에게 불운한 이벤트가 발생한 경우, 해당 이벤트의 종류에 따라서, 슬픔과 관련된 감성값을 -15를 할 수 있을 것이다. Outputting the emotion value of the character includes a variety of basic values constituting the emotion value of the character, for example, emotion value related to sadness, emotional value related to pleasure, and emotional value related to depression. Depending on the default value predetermined by the designer of the existing game or the virtual space, or a rule or table on the change of the default value according to the corresponding event, the default value of the emotional value may be added or subtracted. For example, if a happy event occurs for the character, depending on the type of the event, the emotion value related to pleasure is +10, or if an unfortunate event occurs for the character, sadness and The related emotion value will be -15.

여기서, 캐릭터는, 롤플레이 게임 등 각종 게임(인터넷 실시간 게임, 비실시간 게임 등 현재 제작되는 컴퓨터 게임의 장르를 불문함)이나 사이월드나 세컨드라이프와 같은 가상 공간(cyber space) 등에서 존재하는 사람(인물), 동물, 사람과 동물이 융합되어 있는 복합 캐릭터, 아바타 등을 포함하는 개념으로 인식하여야 할 것이다. 또한, 하기에서 다룰 캐릭터의 걸음걸이에 대해서는, 해당 사람(인물), 동물, 복합 캐릭터가 직립하여 사람처럼 걷는다는 전제하에서 이루어질 수 있는 것으로 보아야 할 것이다. Here, the character may be a person who exists in various games such as role-play games (regardless of the genre of computer games currently produced, such as Internet real-time games and non-real-time games), or virtual spaces such as Cyworld and Second Life. It should be recognized as a concept including a character), an animal, a complex character in which a person and an animal are fused, an avatar, and the like. In addition, with respect to the gait of the character to be described below, it should be seen that the person (a person), an animal, a compound character can be made under the premise of walking upright as a person.

다음으로, 감성 어휘 할당부(200)에 대해서 설명하기로 한다. 감성 어휘 할당부(200)는, 상기 캐릭터 감성값 출력부(100)의 출력을 기초로 하여, 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하는 구성요소이다. Next, the emotional vocabulary allocator 200 will be described. The emotional vocabulary assignment unit 200 is an element that assigns an emotional vocabulary expressing a current emotional state to the character based on the output of the character emotional value output unit 100 to the character.

여기서 감성 어휘 할당부(200)는, 캐릭터 감성값 출력부(100)의 출력을 기초로 하여, 해당 캐릭터의 현재 감성 상태를 표현하는데, 이 경우, 캐릭터 감성값(100)의 출력값들, 즉 여러 가지 감성값이 존재할 경우에 어떤 감성값, 특히 dominant한 감성값을 우선으로 할 것인가, 아니면 각종의 감성값을 변수로 하는 수학식에 의한 최종 감성값을 무엇으로 할 것인가에 대해서는, 해당 게임이나 가상 공간의 설계자에 따라 결정되게 된다. Here, the emotional vocabulary allocator 200 expresses the current emotional state of the character based on the output of the character emotional value output unit 100. In this case, the output values of the character emotional value 100, that is, various When there is a branch emotional value, what kind of emotional value, in particular, the dominant emotional value is to be given priority, or what the final emotional value by the mathematical expression that takes various emotional values as variables is the game or the virtual. It depends on the designer of the space.

예를 들어, 해당 캐릭터의 감성값을 표현하는, 슬픔과 관련된 감성값, 즐거움과 관련된 감성값, 우울함과 관련된 감성값 등의 감성값이 존재할 경우, 각각의 기본의 값이 있더라도 부모의 죽음의 경우에는 다른 감성값이 전혀 작용하지 않게 하고 슬픔과 관련된 감성값을 dominant하게 표현하게 하거나, 다른 감성값과 연동하여 수학식을 통하여 계산할 경우에는, 슬픔과 관련된 감성값이나 우울함과 관련된 감성값에 큰 가중치(weight)를 두는 것이 가능할 것이다. For example, if there are emotional values such as emotional values related to sadness, emotional values related to pleasure, and emotional values related to depression, which represent the emotional value of the character, even if each basic value exists, the parent's death In other words, when other emotion values do not work at all, and emotion values related to sadness are expressed dominantly, or when calculated through equations in conjunction with other emotion values, large weights are given to emotion values related to sadness or emotion values related to depression. It will be possible to put a weight.

다시 말해, 감성 어휘 할당부(200)는, 캐릭터 감성값 출력부(100)에서 출력 되는 하나 이상의 감성값 가운데 가장 큰 감성값 혹은 가장 작은 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당할 수 있다. 또한, 캐릭터 감성값 출력부(100)에서 출력되는 하나 이상의 감성값 가운데 미리 설정한 기준값 이상이거나 이하인 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당할 수 있다. 또한, 캐릭터 감성값 출력부(100)에서 출력되는 하나 이상의 감성값 중 일부 또는 전부를 변수로 한 수학식에 따라 계산된 결과값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당할 수도 있을 것이다. 해당 수학식에 대해서는, 여러 번의 시험(test)나 실험을 통해서 경험적으로 정해질 수도 있으며, 혹은 설계자가 임의로 정하고 그 결과값을 피드백하여 수학식의 웨이트 값을 보정해 나갈 수도 있을 것이다. In other words, the emotional vocabulary allocator 200 may express the current emotional state of the character in response to the largest emotional value or the smallest emotional value among the one or more emotional values output from the character emotional value output unit 100. Emotional vocabulary can be assigned to the character. In addition, among the one or more emotional values output from the character emotional value output unit 100, an emotional vocabulary expressing a current emotional state for the character may be allocated to the corresponding character in response to an emotional value that is equal to or greater than a preset reference value. have. In addition, in response to a result value calculated according to a mathematical expression using some or all of one or more emotional values output from the character emotional value output unit 100 as variables, the emotional vocabulary expressing the current emotional state for the corresponding character corresponds. You can also assign it to a character. The equation may be empirically determined through several tests or experiments, or the designer may arbitrarily determine and feed back the result to correct the weight value of the equation.

다음으로, 실시간 렌더링부(400)에 대해서 설명하기로 한다. 실시간 렌더링부(400)는, 감성 어휘와 동작 간의 관계 알고리즘을 수식으로 표현하거나 테이블로 정리해 둔 감성어휘-동작 알고리즘 데이터베이스(450)를 더 포함한다. 실시간 렌더링부(400)는, 이와 같은 감성 어휘 동작 알고리즘 데이터베이스(450)를 기초로 하여, 상기 감성 어휘 할당부(200)의 결과와 캐릭터 현재 동작부(300)에서 출력된 해당 캐릭터의 현재 동작의 종류를 입력받아 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형하는 구성요소이다. Next, the real-time rendering unit 400 will be described. The real-time rendering unit 400 further includes an emotional vocabulary-motion algorithm database 450 that expresses a relational algorithm between the emotional vocabulary and the motion as an expression or arranges them in a table. The real-time rendering unit 400 is based on the emotional vocabulary operation algorithm database 450 and based on the result of the emotional vocabulary allocator 200 and the current motion of the corresponding character output from the character current operation unit 300. It is a component that transforms the current motion of the character into a motion with emotion.

다시 말해, 종래의 기술에서는, 예를 들어 3차원 게임에서 캐릭터를 달리게 하기 위해서는, 8 방향 또는 4 ~ 6방향으로 뛰어가는 애니메이션 동영상을 캐릭터 별로 각각 미리 제작하여 두었다가 상황에 따라 달리는 명령에 이은 방향키 값이 적용될 때 해당 저장된 동영상을 그대로 플레이 하는 방식이다. In other words, in the related art, for example, in order to run a character in a three-dimensional game, an animation video running in eight directions or four to six directions is produced in advance for each character, and the direction key value following the command for running according to the situation is given. When this is applied, the stored video is played as it is.

하지만, 여기서 실시간 렌더링부(400)는, 그와 같은 종래 기술과는 차별화되게, 미리 해당 캐릭터의 동작을 제작해 둘 필요 없이, 상기 감성 어휘 할당부(200)의 결과와 캐릭터 현재 동작부(300)에서 출력된 해당 캐릭터의 현재 동작의 종류를 입력받아 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 실시간으로 변형하여 출력하는 것이다. However, the real-time rendering unit 400 is different from that of the conventional technology, and does not have to prepare the motion of the character in advance, and the result of the emotional vocabulary assignment unit 200 and the character current operation unit 300 ) Receives the type of the current motion of the character and outputs the current motion of the character in real time.

여기서, 캐릭터 현재 동작부(300)는, 현재 렌더링을 하고자 하는 캐릭터에 대해서, 해당 캐릭터를 조정하는 유저(사용자)의 의사에 따라 앞으로 걸어가거나 옆으로 뛰어 가거나, 위로 점프하거나, 혹은 해당 캐릭터를 조정하는 유저(사용자)의 의사와 관계없이 주위 이벤트에 따라 뛰어 가거나 떨어지거나 넘어지는 등의 동작이 이루어지고 있는 경우, 해당 캐릭터가 현재하고 있는 동작의 종류를 출력하게 된다. Here, the character current operation unit 300 walks forward, runs sideways, jumps up, or adjusts the character with respect to the character to be rendered, according to the intention of the user (user) who adjusts the character. Regardless of the intention of the user (user), if the action such as running, falling, or falling is performed in accordance with the surrounding event, the character's current type of operation is output.

다음으로, 실시간 렌더링부(400) 내에 존재하는 감성 어휘 동작 알고리즘 데이터베이스(450)에 대해서 좀 더 자세히 살펴보도록 한다. 이와 같은 감성 어휘 동작 알고리즘 데이터베이스(450)를 제작하기 위해서, 즉 본 발명을 완성하기 위해서 다양한 실험을 통해서, 해당 걸음걸이에 대한 감성 반응(인상)과 물리적 속성 사이의 인과관계를 수량적으로 밝히게 되었다. 이와 같은 반복된 실험 결과값을 통해서, 다변량 해석의 일환으로서, 요인(要因)간의 상관관계의 긴밀성을 해석하고, 또한 요인에서 요인으로의 인과관계(因果關係)를 정의하였다. Next, the emotional vocabulary operation algorithm database 450 present in the real-time rendering unit 400 will be described in more detail. In order to produce the emotional vocabulary operation algorithm database 450, that is, to complete the present invention, through various experiments, the causal relationship between the emotional response (impression) and the physical property of the gait has been quantified. . As a result of the repeated experimental results, as a part of the multivariate analysis, the tightness of the correlation between factors was analyzed, and the causal relationship from factors to factors was defined.

본 발명을 위한 실험에서는 유사도에 의해 클러스트 된 6가지 감성어 그룹 각각의 감성 평가치 총계를 종속변수로 하고, 신체의 물리적 속성을 독립변수로 하는 회귀식(Regression-expression : 回歸式, 수량화이론 1류)을 얻었다. 이를 위해, 각 샘플 동영상 마다 걸음걸이의 물리적 속성을 측정한 후(도 3 참조), 분석을 위하여 물리적 속성 기준치(도 4 참조)를 설정하여 카테고리 데이터화 하였다(도 5 참조). In the experiment for the present invention, a regression-expression (回歸 gress, quantification theory 1) using the total number of emotional evaluation values of each of the six groups of emotional words clustered by similarity as the dependent variable and the physical property of the body as the independent variable. Ryu). To this end, after measuring the physical properties of the gait for each sample video (see FIG. 3), the physical property reference value (see FIG. 4) is set for analysis to be category data (see FIG. 5).

그 결과, 각 감성어 그룹은, 0.9103~0.9985까지의 중상관계수가 얻어져, 이들 변수들은 상당히 강한 관련성이 있음을 알 수 있었다. 더욱이, 결정계수에 있어서도 0.8287 ~ 0.9971의 범위를 나타내고 있어서, 회귀식에서 얻어진 실제 예측치가 약 83%~100%까지의 높은 신뢰성이 있는 데이터를 얻을 수 있었다(도 6 참조).  As a result, for each emotional group, the deficit correlation coefficient from 0.9103 to 0.9985 was obtained, indicating that these variables were highly related. Moreover, also in the coefficient of determination, the range of 0.8287 to 0.9971 was shown, and highly reliable data of about 83% to 100% was obtained with the actual predicted values obtained by the regression equation (see Fig. 6).

일반적으로 회귀식이, "기준변수 = 계수 × 설명변수 + 상수(또는 정수(定數))"인 것을 기준으로 고찰해 보면, 본 발명을 위한 실험의 걸음걸이에 관한 감성평가치의 정량화는 감성어라는 기준변수(목적변수)와 신체의 물리적 속성인 설명변수(독립변수)들 사이에서,   In general, considering the regression equation is "reference variable = coefficient x explanatory variable + constant (or integer)," the quantification of the emotional evaluation value for the gait of the experiment for the present invention is called the emotional word. Between the reference variable (objective variable) and the explanatory variable (independent variable), which is the physical property of the body,

"감성 어휘 = (제 1 기울기×팔의 각도) + (제 2 기울기×골반의 움직임 정도) + (제 3 기울기×속도) + (제 4 기울기×스텝의 간격) + (제 5 기울기×신체의 기울기) +(제 6 기울기×척추의 기울기) +(제 7 기울기×스텝의 열) + 상수" "Emotional Vocabulary = (1st Tilt x Arm Angle) + (2nd Tilt x Pelvic Movement) + (3rd Tilt x Speed) + (4th Tilt x Step) + (5th Tilt x Body Slope) + (sixth slope x spine slope) + (seventh slope x column of steps) + constant "

와 같은 회귀식이 추출 가능하였다. A regression equation such as

여기서 상수는 실수 범위 내에서 다양한 값을 가질 수 있음은 물론이다. Here, the constant may have various values within the real range.

실제의 데이터를 해석 결과에 대입한 몇 가지 예를 살펴보면,Let's look at some examples of substituting the actual data into the analysis results.

허둥대다 = (0.788×팔의 각도) + (0.702×골반) + (0.651×속도) Noisy = (0.788 × Angle Angle) + (0.702 × Pelvic) + (0.651 × Speed)

+ (0.580×스텝의 간격) + (0.572×신체의 기울기)          + (0.580 x step spacing) + (0.572 x body tilt)

+ (0.353×척추) + (0.153×스텝의 열) + 1.833         + (0.353 x spine) + (0.153 x row of steps) + 1.833

방정맞다 = (0.931×팔의 각도) + (0.909×골반) + (0.948×속도) Right = (0.931 × Angle Angle) + (0.909 × Pelvic) + (0.948 × Speed)

+ (0.689×스텝의 간격)+(0.655×신체의 기울기)         + (0.689 × step spacing) + (0.655 × body tilt)

+ (0.844×척추) + (0.864×스텝의 열) + 8.028         + (0.844 × Spine) + (0.864 × Step Rows) + 8.028

한가하다 = (0.666×팔의 각도) + (0.866×골반) + (0.798×속도)Relax = (0.666 × arm angle) + (0.866 × pelvis) + (0.798 × speed)

+ (0.791×스텝의 간격)+(0.697×신체의 기울기)         + (0.791 × step spacing) + (0.697 × body tilt)

+ (0.892×척추) + (0.073×스텝의 열) + 3.528         + (0.892 x spine) + (0.073 x step columns) + 3.528

거만하다 = (0.862×팔의 각도) + (0.659×골반) + (0.823×속도)Arrogant = (0.862 × angle of arm) + (0.659 × pelvis) + (0.823 × speed)

+ (0.690×스텝의 간격)+(0.564×신체의 기울기)         + (0.690 × step spacing) + (0.564 × body tilt)

+(0.833×척추) + (0.052×스텝의 열) + 5.028         + (0.833 x spine) + (0.052 x step row) + 5.028

씩씩하다 = (0.540×팔의 각도) + (0.756×골반) + (0.873×속도)Relax = (0.540 x arm angle) + (0.756 x pelvis) + (0.873 x speed)

+ (0.822×스텝의 간격)+(0.778×신체의 기울기)         + (0.822 x step spacing) + (0.778 x body tilt)

+ (0.775×척추) + (0.511×스텝의 열) + 9.639         + (0.775 × Spine) + (0.511 × Step Rows) + 9.639

낙담하다 = (0.552×팔의 각도) + (0.438×골반) + (0.807×속도)Discouraged = (0.552 × arm angle) + (0.438 × pelvis) + (0.807 × speed)

+ (0.870×스텝의 간격) + (0.683×신체의 기울기)         + (0.870 x step spacing) + (0.683 x body tilt)

+ (0.608×척추) + (0.694×스텝의 열) + 14.5         + (0.608 × Spine) + (0.694 × Step Rows) + 14.5

와 같은 회귀식을 얻었다.To get the same regression equation.

이와 같은 회귀식에 의해, 걸음걸이에 있어서 특정 감성영역을 자극하기 위 해서는 케릭터의 어느 신체부위를 어느 정도 움직여야 하는지에 대한 수량적 근거가 마련된 셈이다. 다시 말해서, 특정 감성어를 입력하면 케릭터가 그 기대치에 부응하여 움직이는 산술적 근거를 마련하였다고 볼 수 있다. This regression formula provides a quantitative basis for which part of the body to move and how much to move to stimulate a specific emotional area in gait. In other words, when a certain emotional word is input, the character provides an arithmetic basis that moves in response to the expectation.

여기서, 설명변수가 되는 팔의 각도, 골반의 움직임 정도, 걸음걸이의 속도, 스텝의 간격, 신체의 기울기, 척추의 기울기, 스텝의 열에 대해서 도 7을 참조하여 설명하기로 한다. Here, the angle of the arm, the degree of movement of the pelvis, the speed of gait, the step interval, the inclination of the body, the inclination of the spine, and the row of steps, which are explanatory variables, will be described with reference to FIG. 7.

먼저, 팔의 각도라는 것은, 어깨를 중심으로 앞뒤로 움직이는 각도를 의미한다. First, the angle of the arm means the angle of moving back and forth with respect to the shoulder.

또한, 골반의 움직임 정도라는 것은, 골반의 좌측과 우측이 서로 상반되게 상하운동을 하는 정도를 의미한다. In addition, the degree of movement of the pelvis means the degree of vertical movement of the left and right sides of the pelvis opposite to each other.

또한, 걸음걸이의 속도라는 것은, 일정 단위시간 동안 움직인 거리를 의미한다. In addition, the speed of the walking means the distance moved for a certain unit of time.

또한, 스텝의 간격이라는 것은, 하나의 사이클을 이루는 과정에서 뒤쪽에 위치한 발의 앞 발가락 끝에서 앞쪽에 위치한 발의 뒷발꿈치 끝 사이의 거리를 의미한다. In addition, the spacing of the steps means the distance between the tip of the front toe of the foot located at the rear and the tip of the back heel of the front foot in the course of forming one cycle.

또한, 신체의 기울기라는 것은, 허리를 중심으로 상반신이 앞, 뒤로 기울어진 정도를 의미한다. In addition, the inclination of the body means the degree to which the upper body is tilted forward and backward around the waist.

또한, 척추의 기울기라는 것은, 상반신의 좌우로 치우쳐진 각도를 의미한다. In addition, the inclination of a spine means the angle which shifted to the left and right of an upper body.

또한, 스텝의 열이라는 것은, 두발 사이의 좌우 간격을 의미한다.In addition, the row of steps means the left-right space | interval between two feet.

다음으로, 도 7을 참조하여 본 발명의 또 다른 실시예에 따른 캐릭터 표현 방법에 대한 설명을 하기로 한다. Next, a character representation method according to another embodiment of the present invention will be described with reference to FIG. 7.

도 7은 본 발명의 또 다른 실시예에 따른 캐릭터 표현 방법에 따른 각 단계를 도식적으로 나타낸 플로차트이다. 먼저, 캐릭터 감성값 출력 단계(S100)는, 캐릭터의 하나 이상의 감성값을 계산하여 출력하는 단계이며, 다음으로, 감성 어휘 할당 단계(S200)는, 상기 캐릭터 감성값 출력 단계(S100)에서의 출력을 기초로 하여, 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하는 단계이며, 다음으로, 실시간 렌더링 단계(S300)는, 상기 감성 어휘 할당 단계(S200)에서의 결과와 해당 캐릭터의 현재 동작의 종류를 입력받아, 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형하는 단계이다. 각각의 단계에 대한 설명은 앞에서 설명한 부분과 중복되므로 여기서는 생략하기로 한다. 7 is a flowchart schematically showing each step according to a character expression method according to another embodiment of the present invention. First, the character emotion value output step (S100) is a step of calculating and outputting one or more emotion values of the character. Next, the emotion vocabulary assignment step (S200) is output in the character emotion value output step (S100). On the basis of the above, it is a step of assigning the emotional vocabulary representing the current emotional state for the character to the character, Next, the real-time rendering step (S300), and the result in the emotional vocabulary assignment step (S200) Receiving a type of the current motion of the character, and transforms the current motion of the character into a motion with emotion. The description of each step is omitted here because it overlaps with the above description.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 특허청구범위의 균등 범위 내에서 다양한 수정, 변경 및 변형이 가능함은 물론이다. As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is intended by those skilled in the art to which the present invention pertains. Of course, various modifications, changes and variations are possible within the scope of the claims to be described.

도 1은, 본 발명의 일 실시예에 따른 캐릭터 표현 시스템(100)의 각 구성요소를 도식적으로 나타낸 블록도이다. 1 is a block diagram schematically showing each component of the character representation system 100 according to an embodiment of the present invention.

도 2는 걸음걸이 감성자극요소의 물리적 속성을 설명하는 도면이다. 2 is a diagram illustrating physical properties of gait emotional stimulation elements.

도 3은 샘플 동영상의 물리량 추출을 설명하는 도면이다. 3 is a diagram illustrating physical quantity extraction of a sample video.

도 4는 걸음걸이의 물리적 속성 기준치를 나타내는 도면이다. 4 is a diagram illustrating physical property reference values of gait.

도 5는 도 4에 도시한 물리적 속성 기준치의 설정을 바탕으로 카테고리 데이터화 한 결과를 나타낸 도면이다. FIG. 5 is a diagram illustrating a result of categorizing data based on setting of a physical attribute reference value shown in FIG. 4.

도 6은 최종적인 분석 결과의 일례를 나타낸 도면이다. 6 is a diagram illustrating an example of a final analysis result.

도 7은 본 발명의 또 다른 실시예에 따른 캐릭터 표현 방법에 따른 각 단계를 도식적으로 나타낸 플로차트이다. 7 is a flowchart schematically showing each step according to a character expression method according to another embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100 캐릭터 감성값 출력부100 character emotion value output unit

110, 120, 130 입력 1, 입력 2, …, 입력 n110, 120, 130 input 1, input 2,... , Input n

200 감성 어휘 할당부 200 emotional vocabulary allocator

300 캐릭터 현재 동작부 300 character current operation

400 실시간 렌더링부400 real-time rendering unit

450 감성 어휘-동작 알고리즘 데이터베이스450 emotional vocabulary-motion algorithm database

1000 캐릭터 표현 시스템1000 character representation system

S100 캐릭터 감성값 출력 단계S100 character emotion value output step

S200 감성 어휘 할당 단계S200 emotional vocabulary assignment step

S300 실시간 렌더링 단계S300 real time rendering stage

Claims (12)

캐릭터의 하나 이상의 감성값을 계산하여 출력하는 캐릭터 감성값 출력부와, A character emotion value output unit for calculating and outputting one or more emotion values of the character, 상기 캐릭터 감성값 출력부의 출력을 기초로 하여, 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하는 감성 어휘 할당부와, An emotional vocabulary allocator for allocating an emotional vocabulary expressing a current emotional state for the character to the character based on the output of the character emotional value output unit; 상기 감성 어휘 할당부의 결과와 해당 캐릭터의 현재 동작의 종류를 입력받아, 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형하는 실시간 렌더링부를 포함하는 캐릭터 표현 시스템. And a real-time rendering unit which receives a result of the emotional vocabulary assigning unit and a type of the current motion of the corresponding character and transforms the current motion of the corresponding character into a motion with emotion. 제 1 항에 있어서, The method of claim 1, 상기 캐릭터 감성값 출력부는, The character emotion value output unit, 캐릭터의 성격, 나이, 성별, 캐릭터가 존재하는 게임이나 가상 공간에서의 날씨, 기후, 인접 캐릭터 간의 거리, 인접 캐릭터의 종류, 부모, 형제, 친척이나 친구, 연인이나 친밀도가 높은 것으로 설정된 캐릭터의 죽음, 결혼, 승진, 생일, 방문, 이별, 별거 등 희노애락, 생노병사 등의 이벤트 정보들 가운데 하나 이상의 정보를 입력으로 받는 것을 특징으로 하는 캐릭터 표현 시스템. Character personality, age, gender, weather in a character or virtual space, weather, climate, distance between adjacent characters, type of adjacent characters, parent, sibling, relative or friend, lover or death Character expression system, characterized in that to receive as input one or more information of the event information, such as scared joy, live soldiers, such as marriage, promotion, birthday, visit, farewell, separation. 제 2 항에 있어서, The method of claim 2, 상기 감성 어휘 할당부는, 상기 캐릭터 감성값 출력부에서 출력되는 하나 이 상의 감성값 가운데 가장 큰 감성값 혹은 가장 작은 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하거나, 하나 이상의 감성값 가운데 미리 설정한 기준값 이상이거나 이하인 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하거나, 하나 이상의 감성값 중 일부 또는 전부를 변수로 한 수학식에 따라 계산된 결과값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하는 것을 특징으로 하는 캐릭터 표현 시스템.The emotional vocabulary allocator may include an emotional vocabulary expressing a current emotional state for the character in response to the largest emotional value or the smallest emotional value among one or more emotional values output from the character emotional value output unit. Assign an emotional vocabulary to the character, or assign some or all of one or more emotional values to the character, in response to emotional values that are above or below a preset reference value among one or more emotional values. And an emotional vocabulary expressing a current emotional state for the character in response to the result value calculated according to the equation. 캐릭터 표현 시스템. Character Representation System. 제 3 항에 있어서, The method of claim 3, wherein 상기 실시간 렌더링부는, 감성 어휘와 동작 간의 관계 알고리즘을 수식으로 표현하거나 테이블로 정리해 둔 감성 어휘 동작 알고리즘 데이터베이스를 더 포함하여, 상기 감성 어휘 동작 알고리즘 데이터베이스를 기초로 하여, 상기 감성 어휘 할당부의 결과와 해당 캐릭터의 현재 동작의 종류를 입력받아 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형하는 것을 특징으로 하는 캐릭턱 표현 시스템. The real-time rendering unit may further include an emotional vocabulary operation algorithm database representing a relational algorithm between the emotional vocabulary and an operation as a formula or arranged in a table. The character character expression system, characterized in that the current motion of the character is transformed into a motion with emotion. 제 4 항에 있어서, The method of claim 4, wherein 상기 감성 어휘 동작 알고리즘 데이터베이스에서의 동작은, 걸음걸이이며, The operation in the emotional vocabulary operation algorithm database is a gait, 상기 걸음걸이를 정의하는 물리적 속성은, 팔의 각도, 골반의 움직임 정도, 속도, 스텝의 간격, 신체의 기울기, 척추의 기울기, 스텝의 열 가운데 하나 이상의 요소인 것을 특징으로 하는 캐릭터 표현 시스템. The physical property defining the gait is at least one element of the angle of the arm, the degree of movement of the pelvis, the speed, the step interval, the inclination of the body, the inclination of the spine, the row of steps. 제 5 항에 있어서, The method of claim 5, wherein 상기 감성 어휘 동작 알고리즘 데이터베이스는, 하기 수학식과 같은 감성 어휘와 상기 걸음걸이 간의 수식으로 정의되는 것을 특징으로 하는 캐릭터 표현 시스템. The emotional vocabulary operation algorithm database is a character expression system, characterized in that defined by the equation between the emotional vocabulary and the gait, such as the following equation. (수학식)(Mathematical formula) 감성 어휘 = (제 1 기울기×팔의 각도) + (제 2 기울기×골반의 움직임 정도) + (제 3 기울기×속도) + (제 4 기울기×스텝의 간격) + (제 5 기울기×신체의 기울기) +(제 6 기울기×척추의 기울기) +(제 7 기울기×스텝의 열) + 상수 Emotional Vocabulary = (1st Slope x Arm Angle) + (2nd Slope x Pelvic Movement) + (3rd Slope x Speed) + (4th Slope × Step Interval) + (5th Slope × Body Slope ) + (Sixth slope x spine slope) + (seventh slope x column of steps) + constant 캐릭터의 하나 이상의 감성값을 계산하여 출력하는 캐릭터 감성값 출력 단계와, A character emotion value output step of calculating and outputting one or more emotion values of the character, 상기 캐릭터 감성값 출력 단계에서의 출력을 기초로 하여, 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하는 감성 어휘 할당 단계와, An emotional vocabulary allocating step of allocating an emotional vocabulary expressing a current emotional state for the character to the character based on the output in the character emotional value output step; 상기 감성 어휘 할당 단계에서의 결과와 해당 캐릭터의 현재 동작의 종류를 입력받아, 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형하는 실시간 렌더링 단계를 포함하는 캐릭터 표현 방법.And a real-time rendering step of receiving a result of the emotional vocabulary assignment step and a type of the current motion of the corresponding character and transforming the current motion of the corresponding character into a motion with emotion. 제 7 항에 있어서, The method of claim 7, wherein 상기 캐릭터 감성값 출력 단계는, The character emotion value output step, 캐릭터의 성격, 나이, 성별, 캐릭터가 존재하는 게임이나 가상 공간에서의 날씨, 기후, 인접 캐릭터 간의 거리, 인접 캐릭터의 종류, 부모, 형제, 친척이나 친구, 연인이나 친밀도가 높은 것으로 설정된 캐릭터의 죽음, 결혼, 승진, 생일, 방문, 이별, 별거 등 희노애락, 생노병사 등의 이벤트 정보들 가운데 하나 이상의 정보를 입력으로 받는 것을 특징으로 하는 캐릭터 표현 방법.Character personality, age, gender, weather in a character or virtual space, weather, climate, distance between adjacent characters, type of adjacent characters, parent, sibling, relative or friend, lover or death Character expression method, characterized in that to receive as input one or more information of the event information, such as scared joy, live soldiers, such as marriage, promotion, birthday, visit, separation, separation. 제 8 항에 있어서, The method of claim 8, 상기 감성 어휘 할당 단계는, 상기 캐릭터 감성값 출력 단계에서 출력되는 하나 이상의 감성값 가운데 가장 큰 감성값 혹은 가장 작은 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하거나, 하나 이상의 감성값 가운데 미리 설정한 기준값 이상이거나 이하인 감성값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하거나, 하나 이상의 감성값 중 일부 또는 전부를 변수로 한 수학식에 따라 계산된 결과값에 대응하여 해당 캐릭터에 대한 현재 감성 상태를 표현하는 감성 어휘를 해당 캐릭터에 대해서 할당하는 것을 특징으로 하는 캐릭터 표현 방법.In the emotional vocabulary assigning step, an emotional vocabulary expressing a current emotional state for the character in response to the largest emotional value or the smallest emotional value among one or more emotional values output in the character emotional value outputting step may be assigned to the character. Assign an emotional vocabulary to the character, or assign some or all of one or more emotional values to the character, in response to emotional values that are above or below a preset reference value among one or more emotional values. And an emotional vocabulary expressing a current emotional state for the character in response to the result value calculated according to the equation. 제 9 항에 있어서, The method of claim 9, 상기 실시간 렌더링 단계는, 감성 어휘와 동작 간의 관계 알고리즘을 수식으로 표현하거나 테이블로 정리해 둔 감성 어휘 동작 알고리즘 데이터베이스에 기초로 하여, 상기 감성 어휘 할당 단계에서의 결과와 해당 캐릭터의 현재 동작의 종류를 입력받아 해당 캐릭터의 현재 동작을 감성이 가미된 동작으로 변형하는 것을 특징으로 하는 캐릭터 표현 방법.The real-time rendering step inputs the result of the emotional vocabulary assignment step and the type of the current motion of the character based on a database of emotional vocabulary motion algorithms expressing the relational algorithm between the emotional vocabulary and the motion as a formula or arranged in a table. Receiving a character and transforming the current motion of the character into a motion with emotion. 제 10 항에 있어서, The method of claim 10, 상기 감성 어휘 동작 알고리즘 데이터베이스에서의 동작은, 걸음걸이이며, The operation in the emotional vocabulary operation algorithm database is a gait, 상기 걸음걸이를 정의하는 물리적 속성은, 팔의 각도, 골반의 움직임 정도, 속도, 스텝의 간격, 신체의 기울기, 척추의 기울기, 스텝의 열 가운데 하나 이상의 요소인 것을 특징으로 하는 캐릭터 표현 방법.The physical property defining the gait comprises at least one of an angle of an arm, a degree of movement of a pelvis, a speed, a step interval, a body tilt, a spine slope, and a row of steps. 제 11 항에 있어서, The method of claim 11, 상기 감성 어휘 동작 알고리즘 데이터베이스는, 하기 수학식과 같은 감성 어휘와 상기 걸음걸이 간의 수식으로 정의되는 것을 특징으로 하는 캐릭터 표현 방법.The emotional vocabulary operation algorithm database is a character expression method, characterized in that defined by the equation between the emotional vocabulary and the gait, such as the following equation. (수학식)(Mathematical formula) 감성 어휘 = (제 1 기울기×팔의 각도) + (제 2 기울기×골반의 움직임 정도) + (제 3 기울기×속도) + (제 4 기울기×스텝의 간격) + (제 5 기울기×신체의 기울기) +(제 6 기울기×척추의 기울기) +(제 7 기울기×스텝의 열) + 상수 Emotional Vocabulary = (1st Slope x Arm Angle) + (2nd Slope x Pelvic Movement) + (3rd Slope x Speed) + (4th Slope × Step Interval) + (5th Slope × Body Slope ) + (Sixth slope x spine slope) + (seventh slope x column of steps) + constant
KR1020080066417A 2008-07-09 2008-07-09 System and method of expressing character KR100955247B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080066417A KR100955247B1 (en) 2008-07-09 2008-07-09 System and method of expressing character

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080066417A KR100955247B1 (en) 2008-07-09 2008-07-09 System and method of expressing character

Publications (2)

Publication Number Publication Date
KR20100006263A true KR20100006263A (en) 2010-01-19
KR100955247B1 KR100955247B1 (en) 2010-04-29

Family

ID=41815453

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080066417A KR100955247B1 (en) 2008-07-09 2008-07-09 System and method of expressing character

Country Status (1)

Country Link
KR (1) KR100955247B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110100856A (en) * 2010-03-05 2011-09-15 삼성전자주식회사 Apparatus and method for generating autonomous behaviors

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101777392B1 (en) 2016-07-04 2017-09-11 주식회사 케이티 Central server and method for processing of voice of user
US10726836B2 (en) 2016-08-12 2020-07-28 Kt Corporation Providing audio and video feedback with character based on voice command
KR101889279B1 (en) 2017-01-16 2018-08-21 주식회사 케이티 System and method for provining sercive in response to voice command

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101006191B1 (en) * 2002-08-06 2011-01-07 윤재민 Emotion and Motion Extracting Method of Virtual Human

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110100856A (en) * 2010-03-05 2011-09-15 삼성전자주식회사 Apparatus and method for generating autonomous behaviors

Also Published As

Publication number Publication date
KR100955247B1 (en) 2010-04-29

Similar Documents

Publication Publication Date Title
CN111375196B (en) Perception-based dynamic game state configuration
KR102296906B1 (en) Virtual character generation from image or video data
Liu et al. Deep learning for procedural content generation
JP7041194B2 (en) Augmented reality identification verification
Cook et al. The angelina videogame design system—part i
Linden et al. Designing procedurally generated levels
Liu et al. Learning physics-based motion style with nonlinear inverse optimization
Yannakakis Game AI revisited
Yannakakis et al. Player modeling
TWI301575B (en)
Nogueira et al. Guided emotional state regulation: understanding and shaping players’ affective experiences in digital games
KR100955247B1 (en) System and method of expressing character
CN114630738B (en) System and method for simulating sensed data and creating a perception
Kao The effects of anthropomorphic avatars vs. non-anthropomorphic avatars in a jumping game
CN107924487A (en) Processing system and program
WO2015153878A1 (en) Modeling social identity in digital media with dynamic group membership
Cook et al. Automating game design in three dimensions
Lai et al. On mixed-initiative content creation for video games
US20140170619A1 (en) Apparatus and method for creating artificial feelings
Fasterholdt et al. You say jump, i say how high? operationalising the game feel of jumping
CN114504830A (en) Interactive processing method, device, equipment and storage medium in virtual scene
US11417042B2 (en) Animating body language for avatars
Porcino et al. A symbolic machine learning approach for cybersickness potential-cause estimation
US11043040B2 (en) Extended reality based positive affect implementation for product development
Browne et al. Toward the Adaptive Generation of Bespoke Game Content

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee