KR100636381B1 - 인간과 유사한 신체 반응을 가지도록 하기 위한 캐릭터애니메이션 시스템 및 그 방법 - Google Patents

인간과 유사한 신체 반응을 가지도록 하기 위한 캐릭터애니메이션 시스템 및 그 방법 Download PDF

Info

Publication number
KR100636381B1
KR100636381B1 KR1020050082120A KR20050082120A KR100636381B1 KR 100636381 B1 KR100636381 B1 KR 100636381B1 KR 1020050082120 A KR1020050082120 A KR 1020050082120A KR 20050082120 A KR20050082120 A KR 20050082120A KR 100636381 B1 KR100636381 B1 KR 100636381B1
Authority
KR
South Korea
Prior art keywords
animation
data
character
animation data
reaction
Prior art date
Application number
KR1020050082120A
Other languages
English (en)
Other versions
KR20060071295A (ko
Inventor
이지형
이인호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20060071295A publication Critical patent/KR20060071295A/ko
Application granted granted Critical
Publication of KR100636381B1 publication Critical patent/KR100636381B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야
본 발명은 인간과 유사한 신체 반응을 가지도록 하기 위한 캐릭터 애니메이션 시스템 및 그 방법에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은 인간의 신체 반응과 유사한 반응을 자동으로 삽입하고 애니메이션에 변형을 가할 수 있는 모듈을 추가함으로써, 애니메이션 데이터의 수정(삽입, 변형)이 용이하고, 수정된 애니메이션이 보다 사람의 신체 반응과 유사한 자연스러운 움직임을 갖도록 하기 위한, 캐릭터 애니메이션 시스템 및 그 방법을 제공하는데 그 목적이 있음.
3. 발명의 해결방법의 요지
본 발명은, 캐릭터 애니메이션 방법에 있어서, 애니메이션 데이터, 반응 데이터(삽입할 애니메이션 데이터), 메타데이터 형태의 캐릭터 행동 단위(매칭 관계), 캐릭터 모델을 저장하고 있는 저장 단계; 상기 저장되어 있는 데이터들을 이용하여 캐릭터 애니메이션을 위한 전처리 과정을 수행하는 전처리 단계; 자극에 따라 인간의 신체 반응과 유사한 신체 반응을 상기 애니메이션 데이터에 삽입하거나 상기 애니메이션 데이터에 변형을 가하여 상기 애니메이션 데이터를 수정하는 애니메이션 데이터 수정 단계; 및 애니메이션 데이터를 렌더링하는 후처리 단계를 포함함.
4. 발명의 중요한 용도
본 발명은 애니메이션 분야, 인터넷 기반의 어플리케이션, 가상현실 시스템, 게임 분야, 인간형 로봇 분야 등에 이용됨.
3차원 캐릭터, 가상 캐릭터, 애니메이션 수정, 반응 자동 삽입, 애니메이션 변형, 신체 반응

Description

인간과 유사한 신체 반응을 가지도록 하기 위한 캐릭터 애니메이션 시스템 및 그 방법{The system and method for character animation with human reactions}
도 1은 본 발명에 따른 캐릭터 애니메이션 시스템의 일실시예 구성도,
도 2는 본 발명에서 애니메이션 데이터에 가해지는 모션의 삽입 및 모션의 변형에 대한 개념을 설명하기 위한 도면,
도 3은 본 발명에 따른 캐릭터 애니메이션 방법에 대한 일실시예 처리 흐름도,
도 4는 인간의 신체 반응과 유사한 반응을 삽입한 경우를 나타내는 일실시예 도면,
도 5는 인간의 반응을 흉내 내어 기존 모션을 변형한 경우를 나타내는 일실시예 도면이다.
* 도면의 주요 부분에 대한 부호의 설명
10 : 디스플레이부 20 : 캐릭터 애니메이션부
21 : 애니메이션 처리 모듈 22 : 인터페이스 모듈
23 : 디스플레이 모듈 24 : 시뮬레이션 모듈
30 : 데이터베이스부 31 : 애니메이션 데이터베이스
32 : 행동 데이터베이스 33 : 모델 데이터베이스
본 발명은 캐릭터 애니메이션 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 캐릭터 애니메이션에 있어 실제 인간의 신체 반응과 유사한 반응을 갖도록 자동으로 애니메이션을 수정(삽입, 변형)하기 위한, 캐릭터 애니메이션 시스템 및 그 방법에 관한 것이다.
먼저, 본 발명에서 캐릭터 애니메이션이란 가상의 캐릭터가 화면상에서 움직이는 애니메이션을 말하며, 2차원 캐릭터 애니메이션과 3차원 캐릭터 애니메이션이 있다.
이러한 캐릭터 애니메이션은 최근 컴퓨터 그래픽스의 발달로 사람 형태의 캐릭터가 사람처럼 움직이는 것을 표현하는 것이 가능하게 되면서 더욱 더 각광받고 있는 분야이다.
그리고 2차원 캐릭터 애니메이션은 기존 만화 영화나 인터넷의 플래쉬 애니메이션과 같이 비교적 간단하지만 과장된 움직임을 지향하는 반면에, 3차원 캐릭터 애니메이션은 인간과 같은 사실적인 움직임을 지향한다. 따라서 3차원 캐릭터 애니 메이션 데이터를 제작하기 위해서 키프레임(key frame) 방식과 모션캡쳐(motion capture) 방식을 사용한다.
상기 키프레임 방식은 2차원 또는 3차원 캐릭터 애니메이션 데이터를 제작하기 위해 키(key)가 되는 프레임을 설정한 후, 키와 키 사이를 보간(inbetween)하여 애니메이션을 설정하는 방식이다. 그러나 이러한 키프레임 방식은 캐릭터 애니메이션의 대상으로서 원 모델인 사람에 대하여 각 관절별로 이 작업을 수행해 주어야 하므로, 데이터 제작에 많은 노력과 시간이 필요하고, 작업자의 능력에 따라 데이터의 질이 좌우되는 단점이 있다.
그리고 상기 모션캡쳐 방식은 3차원 캐릭터 애니메이션 데이터를 위한 방식으로, 광학식/기계식/자기식 모션캡쳐 장비를 이용하여, 실제 사람의 움직임을 얻어내어 데이터로 만들고, 이를 캐릭터 애니메이션 데이터로 활용하는 것이다. 이러한 모션캡쳐 방식은 인간의 움직임을 그대로 가져다 쓰므로 자연스러운 움직임을 제공한다는 장점이 있지만, 데이터의 양이 방대하여 데이터를 후처리하는데 많은 시간이 필요하고, 마찬가지로 데이터의 수정(변경)에도 많은 시간과 노력이 필요하게 되며, 이 과정에서 수정된 데이터는 모션캡쳐의 장점인 자연스러움을 잃을 수도 있는 단점이 있다.
즉, 애니메이션은 인간의 행동과 매우 유사하게 보여야 하므로 수정도 제한적이고, 경우에 따라서는 수정이 불가능할 수도 있다.
본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 캐릭터 애니메이션에 있어 실제 인간의 신체 반응과 유사한 반응을 갖도록 자동으로 애니메이션을 수정(삽입, 변형)하기 위한, 캐릭터 애니메이션 시스템 및 그 방법을 제공하는데 그 목적이 있다.
즉, 본 발명은 인간의 신체 반응과 유사한 반응을 자동으로 삽입하고 애니메이션에 변형을 가할 수 있는 모듈을 추가함으로써, 애니메이션 데이터의 수정(삽입, 변형)이 용이하고, 수정된 애니메이션이 보다 사람의 신체 반응과 유사한 자연스러운 움직임을 갖도록 하기 위한, 캐릭터 애니메이션 시스템 및 그 방법을 제공하는데 그 목적이 있다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 장치는, 캐릭터 애니메이션 시스템에 있어서, 애니메이션 데이터, 반응 데이터(삽입할 애니메이션 데이터), 메타데이터 형태의 캐릭터 행동 단위(매칭 관계), 캐릭터 모델을 저장하고 있는 저장 수단; 및 상기 저장 수단에 저장되어 있는 데이터들을 이용하여 인간의 신체 반응과 유사한 신체 반응을 애니메이션 데이터에 자동으로 삽입하고 애니메이션 데이터에 변형을 가하여 애니메이션 데이터를 수정하여 처리하기 위한 캐릭터 애니메이션 처리 수단을 포함한다.
한편, 본 발명의 방법은, 캐릭터 애니메이션 방법에 있어서, 애니메이션 데이터, 반응 데이터(삽입할 애니메이션 데이터), 메타데이터 형태의 캐릭터 행동 단위(매칭 관계), 캐릭터 모델을 저장하고 있는 저장 단계; 상기 저장되어 있는 데이터들을 이용하여 캐릭터 애니메이션을 위한 전처리 과정을 수행하는 전처리 단계; 자극에 따라 인간의 신체 반응과 유사한 신체 반응을 상기 애니메이션 데이터에 삽입하거나 상기 애니메이션 데이터에 변형을 가하여 상기 애니메이션 데이터를 수정하는 애니메이션 데이터 수정 단계; 및 애니메이션 데이터를 렌더링하는 후처리 단계를 포함한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
도 1은 본 발명에 따른 캐릭터 애니메이션 시스템의 일실시예 구성도이다.
일반적으로 캐릭터 애니메이션은 캐릭터 모델과 애니메이션 데이터를 생성하고, 캐릭터 모델에 애니메이션 데이터를 적용하여, 캐릭터 애니메이션을 확인하고, 수정한 후 렌더링하여 최종 결과를 얻는다.
이러한 애니메이션 데이터는 사람과 같이 관절의 이동 및 회전 등의 데이터로 구성되며, 애니메이션 데이터의 시간만큼 관절별로 데이터를 갖는다.
본 발명에서는 도 1에 도시된 바와 같이 캐릭터 애니메이션 시스템을 구축하여, 인간의 신체 반응과 유사한 반응을 자동으로 삽입하고 애니메이션에 변형을 가할 수 있는 시뮬레이션 모듈(24)을 추가함으로써, 애니메이션 데이터의 수정이 용이하고, 수정된 애니메이션이 보다 사람과 유사하도록 한다.
도 1에 도시된 바와 같이, 본 발명에 따른 캐릭터 애니메이션 시스템은 크게 캐릭터 애니메이션부(20), 및 그와 관련된 데이터베이스부(30)를 구비한다.
이때, 캐릭터 애니메이션부(20)는 애니메이션 처리 모듈(21), 인터페이스 모듈(22), 디스플레이 모듈(23), 및 시뮬레이션 모듈(24)을 포함한다.
먼저, 상기 인터페이스 모듈(22)은 관련된 각 데이터베이스(31 내지 33)와의 입/출력(I/O) 인터페이싱을 수행하기 위한 모듈로서, 애니메이션 데이터베이스(31), 행동 데이터베이스(32), 및 모델 데이터베이스(33)로부터 로딩되는 캐릭터 모델, 애니메이션 데이터를 애니메이션 모듈(21)로 전달한다. 반응 데이터(삽입할 애니메이션 데이터)는 필요한 경우에 요청에 의해 시뮬레이션 모듈(24)로 전달된다. 캐릭터 애니메이션을 위해서는 앞서 언급한 다양한 종류의 데이터가 필요하며, 이들의 사용처도 다양하다. 따라서 다양한 크기와 용도의 애니메이션 데이터를 일관된 인터페이스를 이용하여 효율적으로 관리하고, 기타 시스템 관련 설정을 사용자로부터 얻어, 처리하는 모듈이 인터페이스 모듈(22)이다.
그리고 상기 시뮬레이션 모듈(24)은 캐릭터 애니메이션을 행동(behavior) 단위로 관리하고, 인간의 신체 반응과 유사한 신체 반응을 상황(예 : 사용자가 정해둔 조건 상황 혹은 신체 상태에 따라 자동으로 발생하는 상황 등)에 따라 적용하여 애니메이션 데이터를 수정하기 위한 모듈이다. 이러한 상황의 발생이 감지되면 애니메이션 처리 모듈(21)에서 현재 애니메이션 처리 모듈에서 처리되는 애니메이션 데이터와, 미리 정의된 상황 정보를 시뮬레이션 모듈(24)로 보낸다. 시뮬레이션 모듈(24)은 요청된 상황정보에 따라 애니메이션 데이터를 단순 변형하거나, 삽입해야할 신체 반응 애니메이션 데이터를 인터페이스 모듈(22)을 통해 얻어 삽입 후 변형시킨다. 변형된 애니메이션 데이터는 애니메이션 모듈(21)로 피드백된다.
즉, 상기 시뮬레이션 모듈(24)은 인간의 신체 반응과 유사한 신체 반응을 애니메이션 데이터에 자동으로 삽입하고 애니메이션 데이터에 변형을 가하여 애니메이션 데이터를 수정하기 위한 모듈로서, 애니메이션 데이터의 수정(삽입, 변형)이 용이하고, 수정된 애니메이션이 보다 사람의 신체 반응과 유사한 자연스러운 움직임을 갖도록 한다. 이처럼 본 발명에서 애니메이션 데이터에 가해지는 삽입과 변형의 두 가지 방식에 대해서는 도 2에서 상세히 후술하기로 한다.
그리고 상기 애니메이션 처리 모듈(21)은 상기 시뮬레이션 모듈(24)로부터 전달받은 애니메이션 데이터를 시간에 따라 실질적으로 처리하기 위한 모듈이다.즉, 애니메이션 처리 모듈(21)은 시간에 따라 캐릭터 애니메이션 데이터를 캐릭터에 적용하여, 애니메이션이 가능하도록 캐릭터를 움직이고, 그에 해당하도록 캐릭터의 3차원 모델(메쉬)을 변형하여, 움직여진 캐릭터 모델을 디스플레이 모듈(23) 로 전달한다.
여기서, 캐릭터 애니메이션 데이터를 캐릭터에 적용할 때는 그 시점에서의 캐릭터의 애니메이션 데이터를 결정하는데, 인터페이스 모듈(22)을 통해 애니메이션 데이터를 얻어온 후, 신체 반응이 필요 없는 경우는 애니메이션 데이터를 그대로 캐릭터에 적용하여 캐릭터를 움직이지만, 신체 반응이 필요한 경우는 애니메이션 데이터를 시뮬레이션 모듈(24)로 보내고 그 처리 결과를 전달받아 변형된 애니메이션 데이터를 캐릭터에 적용하여 캐릭터를 움직인다.
그리고 상기 디스플레이 모듈(23)은 상기 애니메이션 처리 모듈(21)에서 처리된 애니메이션 데이터를 전달받아 디스플레이 장치(10)의 화면에 디스플레이하여 주기 위한 모듈이다. 즉, 디스플레이 모듈(23)은 애니메이션 처리 모듈(21)에서 시간에 따라 변형된 3차원 모델(메쉬) 데이터를 얻어 최종 렌더링을 한다.
한편, 상기 관련된 데이터베이스부(30)는 애니메이션 데이터베이스(31), 행동 데이터베이스(32), 및 모델 데이터베이스(33)를 포함한다.
이때, 상기 애니메이션 데이터베이스(31)는 모션캡쳐나 키프레임 등으로 생성한 애니메이션 데이터를 가공하지 않고 저장해 둔 데이터베이스이다. 여기서, 애니메이션 데이터는 각각 캐릭터의 동작(예: 걷기, 뛰기 등)을 행하는 움직임 데이터를 의미하며, 이 데이터는 캐릭터가 그 동작을 시작하여 끝까지 행하는데 필요한 캐릭터의 움직임에 해당된다. 따라서 이 애니메이션 데이터는 캐릭터가 동작을 행하는데 걸리는 시간 동안 각각의 프레임(frame)에 캐릭터를 구성하는 각 관절의 이동 및 회전 값으로 구성되어 있다. 애니메이션은 대개 초당 24~30 프레임으로 구성 되며, 이 초당 프레임 수는 필요에 따라 가변적이다. 캐릭터의 단위 동작 외에 특정 반응이 필요한 경우, 이를 대비하여 반응 데이터(삽입할 애니메이션 데이터)도 저장하고 있다.
그리고 상기 행동 데이터베이스(32)는 캐릭터의 행동을 단위로 메타데이터 형태로 애니메이션을 분류하여 저장해 둔 데이터베이스로서, 어떤 자극에 대하여 어떤 반응 데이터를 삽입할지 또는 어떤 변형을 가할지 등의 매칭 관계를 저장하고 있다. 즉, 데이터베이스에 신체 반응의 형태, 각각의 신체 반응이 가지는 애니메이션 데이터의 수와 애니메이션 데이터 정보, 신체 반응에 신체 반응 시 변화율, 다른 신체 반응으로 변화에 관한 정보가 검색 가능한 형태로 저장되어 있다.
그리고 모델 데이터베이스(33)는 캐릭터의 모델링 데이터를 저장해 둔 데이터베이스로서, 3D 그래픽을 위한 캐릭터의 지오메트릭 모델 정보인 3차원 점(vertex), 텍스쳐(texture) 이미지 데이터, 애니메이션을 위한 캐릭터 관절 구조, 관절 구조에 따라 애니메이션을 위한 모델 데이터 간의 바인딩으로 구성된다.
도 2는 본 발명에서 애니메이션 데이터에 가해지는 모션의 삽입 및 모션의 변형에 대한 개념을 설명하기 위한 도면이다.
도 1의 시뮬레이션 모듈(24)은 인간의 신체가 가지는 반응과 유사한 애니메이션 데이터를 기존 애니메이션 데이터에 삽입하기 위해서 두 가지 방식을 사용한다. 첫 번째 방식은 새로운 모션의 삽입(insertion)이고, 두 번째 방식은 기존 모션의 변형(modification)이다.
여기서, 모션의 삽입(220)이란 인간의 다양한 신체 반응을 미리 애니메이션 데이터(반응 데이터)(230)로 애니메이션 데이터베이스(31)에 저장하여 가지고 있다가, 자극이 발생한 시점(예 : 사용자가 정해둔 조건이 만족되어 자극이 발생하는 시점 혹은 시간에 따라 변화된 신체 상태에 따라 자동으로 신체 반응이 발생하는 시점 등), 즉 필요한 시점에 이를 상기 애니메이션 데이터베이스(31)로부터 로딩한 기존의 애니메이션 데이터(210)의 중간에 삽입하는 방식이다. 이 과정에는 기존 애니메이션 데이터(210)와 삽입하는 애니메이션 데이터(230) 사이에는 애니메이션 간의 부드러운 전이가 포함된다. 이는 기존 애니메이션 데이터와 삽입되는 애니메이션 데이터 간의 불일치가 존재하기 때문으로, 캐릭터의 각 관절의 위치 값과 회전 값이 두 개의 애니메이션 간에 연결 부위에서 현저하게 차이가 나기 때문에 이들 간의 보간(interpolation)을 통해, 캐릭터 애니메이션이 전체적으로 부드럽게 전이되도록 하는 것이다. 이처럼 애니메이션 데이터 삽입이 완료되면, 삽입된 애니메이션 데이터(230) 중 끝 부근의 애니메이션 데이터와 기존 애니메이션 데이터(210) 중 남은 애니메이션 데이터(변형된 데이터)(240)를 연결시켜 애니메이션 데이터를 완성한다.
이러한 모션 삽입의 일예로서, 인간의 신체 반응과 유사한 반응을 삽입한 경우가 도 4에 도시되어 있다.
한편, 모션의 변형(250)이란 자극이 발생한 시점부터 그 뒤에 위치한 애니메이션 데이터 중 일정 구간의 애니메이션 데이터 자체에 변형을 가하는 것을 말한다. 이 경우에 캐릭터의 각 관절 데이터 값에 일정부분 제한을 가하거나 애니메이션 데이터의 과장을 통해 효과를 발생시킨다.
이러한 모션 변형의 일예로서, 인간의 반응을 흉내 내어 기존 모션을 변형한 경우가 도 5에 도시되어 있다.
도 3은 본 발명에 따른 캐릭터 애니메이션 방법에 대한 일실시예 처리 흐름도이다.
먼저, 애니메이션 데이터베이스(31), 행동 데이터베이스(32), 및 모델 데이터베이스(33)에 애니메이션 데이터, 반응 데이터(삽입할 애니메이션 데이터), 메타데이터 형태의 캐릭터 행동 단위(매칭 관계), 캐릭터 모델 등을 저장하고 있다.
즉, 애니메이션 데이터베이스(31)는 모션캡쳐나 키프레임 등으로 생성한 애니메이션 데이터를 가공하지 않고 저장하고 있고, 또한 반응 데이터(삽입할 애니메이션 데이터)도 저장하고 있다. 그리고 행동 데이터베이스(32)는 캐릭터의 행동을 단위로 메타데이터 형태로 애니메이션을 분류하여 저장하고 있고, 모델 데이터베이스(33)는 생성된 캐릭터의 모델링 데이터를 저장하고 있다.
이후, 캐릭터 애니메이션 시스템은 모델 데이터베이스(33)의 캐릭터 모델링 데이터를 이용하여 캐릭터를 구성하고(301), 애니메이션 데이터베이스(31)로부터 처리하고자 하는 애니메이션 데이터를 로딩한다(302). 이때, 캐릭터의 구성은 애니메이션을 위한 캐릭터 관절 구조, 캐릭터 모델링 데이터와 텍스쳐 매핑 데이터, 관절 구조에 따라 애니메이션을 위한 모델링 데이터 간의 바인딩으로 구성된다. 여기서, 애니메이션 데이터는 사람과 같이 관절의 이동 및 회전 등의 데이터로 구성되며, 애니메이션 데이터의 시간만큼 관절별로 데이터를 갖는다.
이후, 상기 구성한 캐릭터 모델에 상기 로딩한 애니메이션 데이터를 적용한 다(303). 이때, 애니메이션 데이터는 캐릭터의 각 관절에 해당하는 위치 값과 회전 값을 가지고 있으며, 이때 관절은 캐릭터의 관절 구조와 같아서, 시간에 따라 저장된 이 관절의 위치 값과 회전 값을 해당 시점에 캐릭터의 관절에 적용하면 캐릭터의 관절 구조가 움직인 효과가 나타나며, 관절 구조에 바인딩된 캐릭터 모델링 데이터가 같이 움직여, 전반적으로 캐릭터가 움직이게 된다.
이후, 사용자가 미리 설정한 자극 혹은 신체 상태의 누적된 값에 의해 발현된 자극이 발생하였는지를 판단하여(304), 자극이 발생하지 않았으면 바로 기존 애니메이션 데이터를 캐릭터에 적용하고, 바로 렌더링하여 최종 결과를 얻는다(305).
한편, 상기 판단 결과(304), 자극이 발생하였으면 자극의 내용이 기존의 애니메이션 데이터에 새로운 애니메이션 데이터를 삽입하는 것인지 아니면 애니메이션 데이터 중 일정 구간의 애니메이션 데이터 자체에 변형을 가하는 것인지를 판단한다(306).
이후, 상기 판단 결과(306)에 따라, 인간의 신체 반응과 유사한 신체 반응을 애니메이션 데이터에 자동으로 삽입하거나 애니메이션 데이터에 변형을 가하여 애니메이션 데이터를 수정한다(307 내지 310).
즉, 상기 판단 결과(306), 삽입이면 상기 로딩한 기존의 애니메이션 데이터의 중간(자극이 발생한 시점)에, 인간의 다양한 신체 반응에 따른 애니메이션 데이터(반응 데이터)를 삽입한다(307). 이후, 기존 애니메이션 데이터와 삽입하는 애니메이션 데이터(반응 데이터) 사이의 연결 부위에 부드러운 전이가 포함되도록 처리한다(308). 이처럼 애니메이션 데이터 삽입이 완료되면, 삽입된 애니메이션 데이터 중 끝 부근의 애니메이션 데이터와, 기존 애니메이션 데이터 중 남은 애니메이션 데이터를 변형한 데이터를 연결시킨 후에(309) "311" 과정으로 진행한다.
한편, 상기 판단 결과(306), 변형이면 자극이 발생한 시점부터 그 뒤에 위치한 애니메이션 데이터 중 일정 구간의 애니메이션 데이터 자체에 변형을 가한다(310). 이 경우에 캐릭터의 각 관절 데이터 값에 일정부분 제한을 가하거나 애니메이션 데이터의 과장을 통해 효과를 발생시킨다.
이후, 애니메이션 데이터에 대한 수정이 완료되었는지를 확인하여(311), 수정이 완료되지 않았으면 자극의 내용이 삽입인지 아니면 변형인지를 판단하는 과정(306)으로 진행하고, 수정이 완료되었으면 렌더링 과정(305)으로 진행한다.
전술한 본 발명에 따른 캐릭터 애니메이션 시스템은 애니메이션뿐만 아니라, 인터넷 기반의 어플리케이션이나, 가상현실 시스템, 게임 등에도 사용될 수 있다.
또한 본 발명에서 얻어진 캐릭터의 반응은 인간형 로봇 분야에도 적용 가능하며, 신체 반응 외에 감정이나 행동학적 요소들을 가미하면 보다 더 효과적일 것이다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 롬, 램, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
상기와 같은 본 발명은, 인간의 신체 반응과 유사한 반응을 자동으로 삽입하고 애니메이션에 변형을 가할 수 있는 모듈을 추가함으로써, 애니메이션 데이터의 수정(삽입, 변형)이 용이하고, 수정된 애니메이션이 보다 사람의 신체 반응과 유사한 자연스러운 움직임을 갖도록 할 수 있는 효과가 있다.
즉, 본 발명은 캐릭터 애니메이션을 제작할 때, 가상 캐릭터가 인간과 유사한 신체 반응을 가지도록 구성하여, 캐릭터 애니메이션이 보다 사실적으로 되도록 하고, 이러한 애니메이션의 제작 및 수정이 용이하도록 할 수 있다.
이러한 본 발명의 캐릭터 시스템은 애니메이션뿐만 아니라, 인터넷 기반의 어플리케이션이나, 가상현실 시스템, 게임 등에도 사용될 수 있다.
또한 본 발명에서 얻어진 캐릭터의 반응은 인간형 로봇 분야에도 적용 가능하며, 신체 반응 외에 감정이나 행동학적 요소들을 가미하면 보다 더 효과가 있다.

Claims (10)

  1. 캐릭터 애니메이션 시스템에 있어서,
    애니메이션 데이터, 반응 데이터(삽입할 애니메이션 데이터), 메타데이터 형태의 캐릭터 행동 단위(매칭 관계), 캐릭터 모델을 저장하고 있는 저장 수단; 및
    상기 저장 수단에 저장되어 있는 데이터들을 이용하여 인간의 신체 반응과 유사한 신체 반응을 애니메이션 데이터에 자동으로 삽입하고 애니메이션 데이터에 변형을 가하여 애니메이션 데이터를 수정하여 처리하기 위한 캐릭터 애니메이션 처리 수단
    을 포함하는 캐릭터 애니메이션 시스템.
  2. 제 1 항에 있어서,
    상기 캐릭터 애니메이션 처리 수단은,
    상기 저장 수단과 시뮬레이션 모듈과의 입/출력(I/O) 인터페이싱을 수행하기 위한 인터페이스 모듈;
    캐릭터 애니메이션을 행동(behavior) 단위로 관리하고, 인간의 신체 반응과 유사한 신체 반응을 애니메이션 데이터에 삽입하고 애니메이션 데이터에 변형을 가하여 애니메이션 데이터를 수정하기 위한 상기 시뮬레이션 모듈;
    상기 시뮬레이션 모듈로부터 전달받은 애니메이션 데이터를 시간에 따라 처 리하기 위한 애니메이션 처리 모듈; 및
    상기 애니메이션 처리 모듈에서 처리한 애니메이션 데이터를 전달받아 디스레이하여 주기 위한 디스플레이 모듈
    을 포함하는 캐릭터 애니메이션 시스템.
  3. 제 2 항에 있어서,
    상기 시뮬레이션 모듈에서의 모션 삽입 과정은,
    인간의 다양한 신체 반응을 미리 반응 데이터로 상기 저장 수단에 저장하여 가지고 있다가, 자극이 발생한 시점에 상기 반응 데이터를 상기 저장 수단으로부터 로딩한 기존의 애니메이션 데이터의 중간에 삽입하고, 상기 기존 애니메이션 데이터와 상기 반응 데이터 사이의 연결 부위에 부드러운 전이가 포함되도록 처리하며, 상기 기존 애니메이션 데이터 중 남은 애니메이션 데이터를 변형한 데이터와 상기 반응 데이터 중 끝 부근의 데이터를 연결시키는 것을 특징으로 하는 캐릭터 애니메이션 시스템.
  4. 제 3 항에 있어서,
    상기 시뮬레이션 모듈에서의 모션 변형 과정은,
    자극이 발생한 시점부터 그 뒤에 위치한 애니메이션 데이터 중 일정 구간의 애니메이션 데이터 자체에 변형을 가하는 것을 특징으로 하는 캐릭터 애니메이션 시스템.
  5. 제 4 항에 있어서,
    상기 애니메이션 데이터는,
    사람과 같이 관절의 이동 및 회전의 데이터로 구성되며, 상기 애니메이션 데이터의 시간만큼 관절별로 데이터를 갖는 것을 특징으로 하는 캐릭터 애니메이션 시스템.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 저장 수단은,
    가공하지 않은 애니메이션 데이터, 및 반응 데이터(삽입할 애니메이션 데이터)를 저장하고 있는 애니메이션 데이터베이스;
    캐릭터의 행동을 단위로 메타데이터 형태로 애니메이션을 분류하여 저장하고 있는 행동 데이터베이스; 및
    캐릭터의 모델링 데이터를 저장하고 있는 모델 데이터베이스
    를 포함하는 캐릭터 애니메이션 시스템.
  7. 캐릭터 애니메이션 방법에 있어서,
    애니메이션 데이터, 반응 데이터(삽입할 애니메이션 데이터), 메타데이터 형태의 캐릭터 행동 단위(매칭 관계), 캐릭터 모델을 저장하고 있는 저장 단계;
    상기 저장되어 있는 데이터들을 이용하여 캐릭터 애니메이션을 위한 전처리 과정을 수행하는 전처리 단계;
    자극에 따라 인간의 신체 반응과 유사한 신체 반응을 상기 애니메이션 데이터에 삽입하거나 상기 애니메이션 데이터에 변형을 가하여 상기 애니메이션 데이터를 수정하는 애니메이션 데이터 수정 단계; 및
    애니메이션 데이터를 렌더링하는 후처리 단계
    를 포함하는 캐릭터 애니메이션 방법.
  8. 제 7 항에 있어서,
    상기 애니메이션 데이터 수정 단계는,
    자극이 발생하였는지를 판단하는 제 1 판단 단계;
    상기 제 1 판단 단계의 판단 결과, 자극이 발생하지 않았으면 상기 후처리 단계로 진행하는 단계;
    상기 제 1 판단 단계의 판단 결과, 자극이 발생하였으면 자극의 내용이 삽입인지 변형인지를 판단하는 제 2 판단 단계;
    상기 제 2 판단 단계의 판단 결과, 삽입이면 상기 애니메이션 데이터의 중간에 인간의 다양한 신체 반응에 따른 상기 반응 데이터를 삽입하고, 상기 애니메이션 데이터와 상기 반응 데이터 사이의 연결 부위에 부드러운 전이가 포함되도록 처리하며, 상기 애니메이션 데이터 중 남은 애니메이션 데이터를 변형한 데이터와 상기 반응 데이터 중 끝 부근의 데이터를 연결시킨 후에 수정 완료인지를 확인하는 단계;
    상기 제 2 판단 단계의 판단 결과, 변형이면 자극이 발생한 시점부터 그 뒤에 위치한 애니메이션 데이터 중 일정 구간의 애니메이션 데이터에 변형을 가한 후에 수정 완료인지를 확인하는 단계; 및
    상기 수정 완료 확인 결과, 수정이 완료되지 않았으면 상기 제 2 판단 단계부터 반복 수행하고, 수정이 완료되었으면 상기 후처리 단계로 진행하는 단계
    를 포함하는 캐릭터 애니메이션 방법.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 저장 단계는,
    애니메이션 데이터베이스가 애니메이션 데이터를 가공하지 않고 저장하고 있고, 또한 반응 데이터(삽입할 애니메이션 데이터)를 저장하고 있으며,
    행동 데이터베이스가 캐릭터의 행동을 단위로 메타데이터 형태로 애니메이션을 분류하여 저장하고 있고,
    모델 데이터베이스가 캐릭터의 모델링 데이터를 저장하고 있는 것을 특징으로 하는 캐릭터 애니메이션 방법.
  10. 제 9 항에 있어서,
    상기 전처리 단계는,
    상기 캐릭터 모델을 이용하여 캐릭터를 구성하는 단계;
    상기 애니메이션 데이터를 로딩하는 단계; 및
    상기 구성한 캐릭터에 상기 로딩한 애니메이션 데이터를 적용하는 단계
    를 포함하는 캐릭터 애니메이션 방법.
KR1020050082120A 2004-12-21 2005-09-05 인간과 유사한 신체 반응을 가지도록 하기 위한 캐릭터애니메이션 시스템 및 그 방법 KR100636381B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20040109686 2004-12-21
KR1020040109686 2004-12-21

Publications (2)

Publication Number Publication Date
KR20060071295A KR20060071295A (ko) 2006-06-26
KR100636381B1 true KR100636381B1 (ko) 2006-10-19

Family

ID=37164824

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050082120A KR100636381B1 (ko) 2004-12-21 2005-09-05 인간과 유사한 신체 반응을 가지도록 하기 위한 캐릭터애니메이션 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR100636381B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090069084A1 (en) * 2007-09-12 2009-03-12 Reece Alex D System and Methods for Monitoring and Controlling the Actions of an Avatar in a Virtual Environment
KR101890717B1 (ko) 2010-07-20 2018-08-23 삼성전자주식회사 생체 정보를 활용한 가상 세계 조작 장치 및 방법

Also Published As

Publication number Publication date
KR20060071295A (ko) 2006-06-26

Similar Documents

Publication Publication Date Title
US11176725B2 (en) Image regularization and retargeting system
US7307633B2 (en) Statistical dynamic collisions method and apparatus utilizing skin collision points to create a skin collision response
EP3454302A1 (en) Approximating mesh deformation for character rigs
US20070035547A1 (en) Statistical dynamic modeling method and apparatus
US8743126B2 (en) Systems and methods for portable animation rigs
US10242498B1 (en) Physics based garment simulation systems and methods
Fratarcangeli Position‐based facial animation synthesis
KR100860375B1 (ko) 캐릭터 애니메이션과 메쉬 변형을 이용한 카툰 애니메이션제작 방법 및 시스템
CN110691010B (zh) 跨平台跨终端vr/ar产品信息展示系统
Orvalho et al. Transferring the rig and animations from a character to different face models
KR100636381B1 (ko) 인간과 유사한 신체 반응을 가지도록 하기 위한 캐릭터애니메이션 시스템 및 그 방법
CN115908664B (zh) 人机交互的动画生成方法、装置、计算机设备、存储介质
CN113888680A (zh) 一种三维模型穿插修复的方法、装置及设备
Zhang et al. Efficient Modeling of An Anatomy‐Based Face and Fast 3D Facial Expression Synthesis
CN116934948A (zh) 基于多视角视频的可重光照三维数字人构建方法及装置
KR102026857B1 (ko) Vr기술 기반의 3d모델링 저작도구를 이용한 3d프린팅 시스템
US11893671B2 (en) Image regularization and retargeting system
CN114049287A (zh) 面部模型融合方法、装置、设备及计算机可读存储介质
AU2021227740A1 (en) Face mesh deformation with detailed wrinkles
JP4361878B2 (ja) 統計力学的モデリングの方法と装置
Di Giacomo et al. Towards Automatic Character Skeletonization and Interactive Skin Deformation.
An Automatic 2.5 d cartoon modelling
CN117557693A (zh) 基于ai驱动的骨骼动画生成方法及系统
CN118160008A (zh) 实用3d资产的推断的骨骼结构
WO2014108214A1 (en) Client-server system for a web-based furniture shop

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee