WO2011149160A1 - 애니메이션 저작 시스템 및 애니메이션 저작 방법 - Google Patents

애니메이션 저작 시스템 및 애니메이션 저작 방법 Download PDF

Info

Publication number
WO2011149160A1
WO2011149160A1 PCT/KR2010/007926 KR2010007926W WO2011149160A1 WO 2011149160 A1 WO2011149160 A1 WO 2011149160A1 KR 2010007926 W KR2010007926 W KR 2010007926W WO 2011149160 A1 WO2011149160 A1 WO 2011149160A1
Authority
WO
WIPO (PCT)
Prior art keywords
path
user
operation window
animation
gesture
Prior art date
Application number
PCT/KR2010/007926
Other languages
English (en)
French (fr)
Inventor
최윤철
전재웅
장현호
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020100048651A external-priority patent/KR101155045B1/ko
Priority claimed from KR1020100049780A external-priority patent/KR101155041B1/ko
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to EP10852246.7A priority Critical patent/EP2579216B1/en
Priority to CN201080066546.7A priority patent/CN103038797B/zh
Priority to US13/695,409 priority patent/US10152817B2/en
Priority to JP2013512515A priority patent/JP5689953B2/ja
Priority to AU2010354148A priority patent/AU2010354148B2/en
Publication of WO2011149160A1 publication Critical patent/WO2011149160A1/ko
Priority to US16/175,187 priority patent/US10783692B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/08Animation software package

Abstract

본 발명은 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것으로서, 초보자들도 손쉽게 3차원 애니메이션을 제작할 수 있고, 3차원 환경에서의 입력 모호성 문제가 해결된 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것이다. 이러한 본 발명에 따른 애니메이션 저작 시스템은, a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계; b) 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 단계; 및 c) 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 단계; 를 포함한다.

Description

애니메이션 저작 시스템 및 애니메이션 저작 방법
본 발명은 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것으로서, 초보자들도 손쉽게 3차원 애니메이션을 제작할 수 있고, 3차원 환경에서의 입력 모호성 문제가 해결된 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것이다.
3차원 애니메이션은 영화나 TV에서 자주 등장하고 있으며, 이와 같은 3차원 애니메이션의 저작을 위해서는 3차원 애니메이션 저작용 툴(tool)이 이용되는데, 상기 3차원 애니메이션 저작용 툴은 사용이 복잡하고 어려워 숙련된 전문가에 의해서만 사용이 가능하다.
최근에는 인터넷과 멀티미디어의 발달로 인해 3차원 애니메이션을 보기만 하는 것을 넘어 직접 저작하여 사용하려는 일반인 사용자들이 늘어나고 있다.
이에 따라, 어린이 및 초보자를 포함하는 일반인이 3차원 애니메이션을 직접 저작할 수 있는 비전문가용 툴이 개발되었으며, 이러한 비전문가용 툴은 사용자가 객체의 경로와 동작을 동시에 화면 상에 그려서 입력해오면 그 경로와 동작에 따라 객체에 대한 애니메니션을 생성하는 특징을 가지지만, 객체의 경로와 동작을 동시에 입력받으므로 경로와 동작 둘 다 정확한 입력이 불가한 문제가 있으며 입력 가능한 동작도 매우 제한적일 수밖에 없었다.
따라서, 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있고, 객체의 경로와 동작의 정확한 입력이 가능한 애니메이션 저작 툴의 개발에 대한 기대가 높아지고 있다.
본 발명은 상기와 같은 종래의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 어린이와 초보자를 비롯한 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있고, 객체의 경로와 동작의 정확한 입력이 가능한 애니메이션 저작 시스템 및 애니메이션 저작 방법을 제공하는 것이다.
상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 방법은, a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계; b) 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 단계; 및c) 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 시스템은, 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈; 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 동작 윈도우 모듈; 및 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 애니메이션 구현부; 를 포함하여 구성된 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 방법은, a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계; b) 상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 단계; c) 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 단계; 및 d) 상기 입력된 상세 경로에 따라 애니메이션을 구현하는 단계; 를 포함하는 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템은, 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈; 상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 제1 동작 윈도우 모듈; 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 제2 동작 윈도우 모듈; 및 상기 입력된 상세 경로에 따라 애니메이션을 구현하는 애니메이션 구현부; 를 포함하는 것을 특징으로 한다.
상기와 같은 구성 및 방법을 가지는 본 발명은, 객체의 경로 및 동작 정보를 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등과 같은 간편한 입력 수단을 통해 스케치하는 방법으로 입력할 수 있으므로 어린이와 초보자를 비롯한 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있는 장점이 있다.
상기와 같은 구성 및 방법을 가지는 본 발명의 바람직한 제 1 실시예는, 객체의 경로를 입력받은 후에 경로에 따른 동작을 입력받으므로 객체의 경로와 동작의 정확한 입력이 가능한 장점이 있다.
상기와 같은 구성 및 방법을 가지는 본 발명의 바람직한 제 2 실시예는, 객체의 경로에 대하여 기준 평면, 제1 동작 윈도우 및 제2 동작 윈도우를 통해 입력받으므로 객체의 움직임에 대한 정보의 정확한 입력이 가능한 장점이 있다.
도 1은 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 시스템을 도시한 블록도.
도 2a 내지 도 2g는 도 1의 애니메이션 저작 시스템의 구성을 설명하기 위한 참고도.
도 3은 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 방법을 도시한 블록도.
도 4는 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템을 도시한 블록도.
도 5a 및 도 5b는 도 4의 애니메이션 저작 시스템의 구성을 설명하기 위한 참고도.
도 6은 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 방법을 도시한 블록도.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따른 애니메이션 저작 시스템 및 애니메이션 저작 방법에 대하여 설명하면 다음과 같다.
[제 1 실시예]
먼저, 도 1 내지 도 2g를 참조하여 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 시스템에 대하여 설명하면 다음과 같다.
도 1을 참조하면, 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 시스템은, 사용자에게 기준 평면을 표시하는 제 1 화면을 제공하고, 사용자가 기준 평면 상에 그리는 객체의 평면 경로를 입력받는 평면 경로 모듈(101); 상기 평면 경로를 따라 동작 윈도우를 생성하여 사용자에게 동작 윈도우를 표시하는 제 2 화면을 제공하고, 사용자가 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터를 입력받는 동작 윈도우 모듈(102); 상기 제스처 데이터를 미리 저장된 동작 데이터 중에 대응되는 것으로 변환한 후에, 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 분석 모듈(103); 및 상기 동작 시퀀스에 따라 애니메이션을 구현하는 애니메이션 구현부(104); 를 포함하여 구성된다.
상기와 같은 구성을 가지는 본 발명의 바람직한 제 1 실시예에 따른 메모리 관리 모듈의 각 구성 요소에 대하여 상세히 설명하면 다음과 같다.
도 1을 참조하면, 상기 평면 경로 모듈(101)은 평면 경로 스케치부(101a)와 평면 경로 제어부(101b)를 포함하여 구성된다.
상기 평면 경로 모듈(101)의 평면 경로 스케치부(101a)는 3차원 공간의 기준 평면을 나타내는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 그리는 객체(예 : 관절을 가지는 캐릭터)의 평면 경로를 입력받아 샘플링하고 근사화하여 저장한다. 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있는데, 이러한 유니폼 큐빅 비-스플라인 보간법은 지역 조정(local modification)의 속성과 affine invariance 속성을 가지는 장점이 있다.
도 2a에는 상기 평면 경로 스케치부(101a)가 제공하는 제 1 화면에 나타난 기준 평면 상에 사용자가 타블렛 펜을 이용하여 객체의 평면 경로를 그리는 모습을 도시하였다. 여기서, x, y, z축을 포함하는 3차원 공간을 기준으로 하면 상기 기준 평면은 x, y축이 이루는 바닥면(ground plane)이다.
상기 평면 경로 모듈(101)의 평면 경로 제어부(101b)는 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하고 나머지 영역은 사용하지 않는다.
도 1을 참조하면, 상기 동작 윈도우 모듈(102)은 제스처 스케치부(102a)와 가상 카메라부(102b)를 포함하여 구성된다.
상기 동작 윈도우 모듈(102)의 제스처 스케치부(102a)는 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 동작 윈도우를 생성하여 사용자에게 동작 윈도우를 표시하는 제 2 화면을 가상 카메라부(102b)를 이용하여 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터가 입력된다.
여기서, 상기 파라미터는 객체의 속도 및 높이 등을 포함할 수 있으며, 객체의 속도는 사용자가 제스처를 그려나가는 속도에 대응되고 객체의 높이는 사용자가 그린 제스처의 높이에 대응된다. 이때, 상기 제스처의 높이의 기준은 사용자가 그린 평면 경로이다.
도 2b에는 상기 동작 윈도우 모듈(102)의 제스처 스케치부가 제공하는 제 2 화면에 나타난 동작 윈도우의 모습을 도시하였다.
상기 동작 윈도우는 기준 평면 상에 스케치된 평면 경로로부터 수직으로 상부 방향으로 연장되어 형성된 면으로서 소정의 상하 폭을 가지고 형성된다.
도 2b에는 상기 동작 윈도우가 기준 평면 및 평면 경로와 수직을 이루는 경우를 예로 하였지만 설명의 편의를 위한 것으로서 본 발명이 이에 한정되는 것은 아니며, 상기 동작 윈도우는 기준 평면 및 평면 경로와 수직이 아닌 소정 각도를 이룰 수도 있다.
상기 동작 윈도우 모듈(102)의 제스처 스케치부(102a)는 사용자로부터 객체의 동작에 대한 제스처 데이터를 입력받는데 있어서, 움직이는 동작(예 : 걷는 동작, 달리는 동작, 뜀뛰는 동작 등)과 제자리 동작(예 : 인사 동작, 경례 동작 등)을 포함한 다양한 동작에 대한 제스처 데이터를 입력받을 수 있다.
도 2c에는 제스처 스케치부(102a)가 객체의 제자리 동작에 대한 제스처 데이터를 사용자로부터 입력받는 경우에 사용자에게 보여지는 제 2 화면 상의 모습을 도시하였다.
도 2c를 참조하면, 상기 제스처 스케치부(102a)는 사용자가 제스처를 스케치하는 도중에 3차원 공간의 z축에 대응되는 방향으로 선을 그어 올린 후에 소정 시간 머무르면 제자리 동작 선택 메뉴를 사용자에게 보여주고 사용자로부터 제자리 동작 중에 하나를 선택/입력 받는다.
상기 동작 윈도우 모듈(102)의 가상 카메라부(102b)는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 동작 윈도우 및 사용자가 스케치하는 제스처가 제 2 화면 상에 표시되도록 하는 가상 카메라를 포함한다.
도 2d에는 상기 가상 카메라가 도 2b에 나타낸 바와 같은 동작 윈도우를 따라 이동하는 모습을 도시하였다.
도 2d를 참조하면, 상기 가상 카메라는 동작 윈도우와는 소정 거리(d)를 두고 동작 윈도우의 상하 폭의 반에 해당하는 높이(h)에 위치하여 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 가상 카메라가 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있으며, 이러한 캐트멀 롬 스플라인은 동작 윈도우 상의 제어점(control point)을 지나므로 사용자에게 제스처의 스케치가 쉬운 화면을 보여줄 수 있는 장점이 있다.
도 2e에는 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에 가상 카메라가 줌 아웃(zoom out)을 수행하는 예와, 사용자가 제스처를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어 스케치하는 경우에 가상 카메라가 왼쪽 또는 오른쪽으로 스크롤링(scrolling)을 수행하는 예를 함께 도시하였다.
도 2e를 참조하면, 상기 가상 카메라는 사용자가 스케치하는 제스처가 동작 윈도우 내에 있는 경우에는 실선 사각형에 대응되는 영역, 즉 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 점선 사각형에 대응되는 영역, 즉 동작 윈도우의 상하폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.
또한, 도 2e를 참조하면, 상기 가상 카메라는 사용자가 제스처를 소정 방향(예 : 도 2e에서 오른쪽 방향)으로 진행하면서 스케치하다가 반대 방향(예 : 도 2e에서 왼쪽 방향)으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향에 대응되는 방향(예 : 도 2e에서 왼쪽 방향)으로 스크롤링을 수행함으로써, 사용자가 스케치하는 제스처의 진행 방향을 따라 진행하면서 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.
상기 가상 카메라는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동할 시에 동작 윈도우의 소정 길이에 대한 가상 카메라의 이동 거리를 체크하여 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 동작 윈도우를 따르지 않고 최단 경로로 이동한다.
도 2f의 위쪽과 도 2g의 위쪽에는 상기 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 모습의 예를 도시하였고, 도 2f의 아래쪽과 도 2g의 아래쪽에는 상기 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 상기 꺾인 영역(a, d)과, 가상 카메라의 이동 경로(b, e)와, 카메라 오프셋 세그먼트(c, f)들의 예를 도시하였다. 여기서, 도 2f에는 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 가상 카메라가 상기 꺾인 영역 외부를 따라 이동(outside turn)하는 경우를 도시하고, 도 2g에는 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 가상 카메라가 상기 꺾인 영역 내부를 따라 이동(inside turn)하는 경우를 도시하였다.
도 2f를 참조하면, 상기 가상 카메라는 카메라 오프셋 세그먼트(c) 두 개가 교차하지 않고 가상 카메라의 이동 길이(l i )가 제 1 문턱치(l 1 )보다 긴 경우에 가상 카메라가 동작 윈도우의 꺾인 영역의 외부를 따라 이동하고 있다고 판단하여, 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다.
도 2g를 참조하면, 상기 가상 카메라는 카메라 오프셋 세그먼트(f) 두 개가 교차하고 가상 카메라의 이동 길이(l i )가 제 2 문턱치(l 2 )보다 긴 경우에는 가상 카메가 동작 윈도우의 꺾인 영역의 내부를 따라 이동하고 있다고 판단하여, 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다. 여기서, 제 1 문턱치(l 1 )는 제 2 문턱치(l 2 )보다 길다.
상기와 같이 가상 카메라가 꺾인 영역의 외부 또는 내부를 따라 이동하고 있다고 판단한 경우에 상기 동작 윈도우 모듈(102)은 사용자가 현재 스케치하고 있는 제스처의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하며, 상기 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 동작 윈도우 모듈(102)은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 스케치를 이어나갈 수 있도록 한다.
도 1을 참조하면, 상기 분석 모듈(103)은 제스처 분석부(103a)와 제스처 제어부(103b)를 포함하여 구성된다.
상기 분석 모듈(103)의 제스처 분석부(103a)는 동작 윈도우 모듈(102)로부터 제스처 데이터 및 파라미터를 입력받으며, 제스처 데이터를 구역화(구역 단위 : 하나의 제스처)를 수행한 후에 상기 구역화한 각 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하여 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성한다. 여기서, 상기 제스처 분석부(103a)가 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하는데 있어서는 코너-디텍션 알고리즘(corner-detection algorithm)을 이용할 수 있다.
상기 미리 저장된 동작 데이터들은 객체가 취할 수 있는 다수의 동작을 포함하는데, 비슷한 동작에 대한 동작 데이터들에 대응되는 제스처 데이터들이 비슷하다면 동작 윈도우 모듈(102)의 제스처 스케치부(102a)를 통해 사용자가 제스처를 스케치하는데 있어서 편리하게 수행할 수 있을 것이다.
상기 분석 모듈(103)의 제스처 분석부(103a)는 동작 시퀀스에 파라미터를 포함시키는데 있어서 각 동작 데이터 간의 경계에 대응되는 소정 시간 동안은 상기 파라미터 중에 속도가 완만한 변화 곡선을 가질 수 있도록 변경함으로써, 이후에 애니메이션을 구현하였을 시에 개체의 동작이 자연스럽게 이루어질 수 있도록 할 수 있을 것이다.
상기 분석 모듈(103)의 제스처 제어부(103b)는 사용자가 입력한 제스처 데이터 중에서 본 발명에 따른 애니메이션 저작 시스템에서 인식 불가한 데이터가 있는 경우에 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체하는 기능을 한다.
즉, 상기 제스처 제어부(103b)는 제스처 분석부(103a)로부터의 각 제스처 데이터가 미리 저장된 동작 데이터들 중 적어도 하나에 대응되지 않아 인식이 불가한지를 판단하여, 인식이 불가하다고 판단되면 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체한 후에 제스처 분석부(103a)로 출력한다.
도 1을 참조하면, 상기 애니메이션 구현부(104)는 상기 분석 모듈(103)로부터 입력받은 동작 시퀀스를 이용하여 3차원 애니메이션을 구현한다.
이하, 도 3을 참조하여 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 방법에 대하여 설명한다.
먼저, 평면 경로 모듈(101)은 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 스케치하는 객체의 평면 경로를 샘플링하고 근사화하여 저장한다.(S101) 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있다.
다음으로, 상기 평면 경로 모듈(101)은 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력하는지 판단하여(S102), 수정 경로가 입력되었다고 판단되면 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체한다.(S103)
다음으로, 동작 윈도우 모듈(102)은 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 동작 윈도우를 생성하고(S104), 상기 동작 윈도우를 표시하는 제 2 화면을 가상 카메라를 이용하여 사용자에게 제공하여, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 동작 윈도우 상에 객체의 동작에 대한 제스처를 스케치하면 제스처 데이터 및 파라미터가 입력된다.(S105)
여기서, 상기 동작 윈도우는 기준 평면 및 평면 경로와 수직을 이루거나 또는 수직이 아닌 소정 각도를 이룰 수 있다.
상기 파라미터는 객체의 속도 및 높이 등을 포함할 수 있으며, 객체의 속도는 사용자가 제스처를 그려나가는 속도에 대응되고 객체의 높이는 사용자가 그린 제스처의 높이에 대응된다.
상기 동작 윈도우 모듈(102)은 사용자로부터 객체의 동작에 대한 제스처 데이터를 입력받는데 있어서 움직이는 동작(예 : 걷는 동작, 달리는 동작, 뜀뛰는 동작 등)과 제자리 동작(예 : 인사 동작, 경례 동작 등)을 포함한 다양한 동작에 대한 제스처 데이터를 입력받을 수 있으며, 제자리 동작에 대한 제스처 데이터를 입력받는데 있어서는 사용자가 제스처를 스케치하는 도중에 3차원 공간의 z축에 대응되는 방향으로 선을 그어 올린 후에 소정 시간 머무르면 제자리 동작 선택 메뉴를 사용자에게 제공하여 사용자로부터 제자리 동작 중에 하나를 선택/입력 받는다.
상기 가상 카메라는 평면 경로와 소정 거리를 두고 제스처의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 동작 윈도우 및 사용자가 스케치하는 제스처가 제 2 화면 상에 표시되도록 한다.
상기 가상 카메라는 동작 윈도우와는 소정 거리를 두고 동작 윈도우의 상하 폭의 반에 해당하는 높이에 위치하여 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 가상 카메라가 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있다.
상기 가상 카메라는 사용자가 스케치하는 제스처가 동작 윈도우 내에 있는 경우에는 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 동작 윈도우의 상하 폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.
그리고, 상기 가상 카메라는 사용자가 제스처를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향과 대응되는 방향으로의 스크롤링을 수행함으로써, 사용자가 스케치하는 제스처의 진행 방향을 따라 진행하면서 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.
상기 가상 카메라는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동할 시에 동작 윈도우의 소정 길이에 대한 가상 카메라의 이동 거리를 체크하여 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 동작 윈도우를 따르지 않고 최단 경로로 이동한다. 이와 관련한 상세한 설명은 위에서 본 발명의 제 1 실시예에 따른 애니메이션 저작 시스템에 대하여 설명함에 있어서 도 2f와 도 2g를 참조하여 설명한 부분을 참조하도록 한다.
상기와 같이 가상 카메라가 동작 윈도우의 꺾인 영역을 따라 이동하고 있다고 판단한 경우에 상기 동작 윈도우 모듈은 사용자가 현재 스케치하고 있는 제스처의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하고, 이후에 상기 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 동작 윈도우 모듈은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 제스처 스케치를 이어나갈 수 있도록 한다.
다음으로, 분석 모듈(103)은 동작 윈도우 모듈로부터 입력된 제스처 데이터의 구역화(구역 단위 : 하나의 제스처)를 수행한다.(S106)
다음으로, 상기 분석 모듈(103)은 구역화된 각 제스처 데이터가 미리 저장된 동작 데이터들 중에 적어도 하나에 대응되어 인식이 가능한지를 판단한다.(S107)
다음으로, 상기 분석 모듈(103)은 구역화된 각 제스처 데이터가 미리 저장된 동작 데이터들 중에 적어도 하나에 대응되지 않아 인식이 불가하다고 판단되는 경우에는 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체하고(S108), 인식이 가능하다고 판단되는 경우에는 다음 단계(S109)로 진행한다.
다음으로, 상기 분석 모듈(103)은 각 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하여 동작 윈도우 모듈로부터의 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성한다.(S110) 여기서, 분석 모듈(103)이 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하는데 있어서는 코너-디텍션 알고리즘(corner-detection algorithm)을 이용할 수 있다.
이때, 상기 분석 모듈(103)은 동작 시퀀스에 파라미터를 포함시키는데 있어서 각 동작 데이터 간의 경계에 대응되는 소정 시간 동안은 상기 파라미터 중에 속도가 완만한 변화 곡선을 가질 수 있도록 변경함으로써, 이후에 애니메이션을 구현하였을 시에 개체의 동작이 자연스럽게 이루어질 수 있도록 할 수 있을 것이다.
다음으로, 애니메이션 구현부(104)는 상기 분석 모듈(103)로부터 입력받은 동작 시퀀스를 이용하여 3차원 애니메이션을 구현한다.(S111)
다음으로, 상기 동작 윈도우 모듈(103)은 사용자가 객체의 동작에 대한 제스처를 스케치하는 작업을 종료했는지 판단하여(S112), 종료했다고 판단되면 애니메이션 저작을 종료하고, 종료하지 않았다고 판단되면 상술한 동작 윈도우 모듈(103)로부터 입력된 제스처 데이터를 구역화하는 단계(S106)부터 반복 수행한다.
[제 2 실시예]
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템 및 애니메이션 저작 방법에 대하여 설명하면 다음과 같다.
먼저, 도 4 내지 도 5b를 참조하여 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템에 대하여 설명하면 다음과 같다. 이하에서 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템에 대하여 설명함에 있어서, 본 발명의 제 1 실시예에 따른 애니메이션 작 시스템에 대하여 설명할 시에 참조한 바 있는 도 2a, 도 2b, 도 2d 내지 도 2g도 참조하도록 한다.
도 4를 참조하면, 본 발명의 바람직한 실시예에 따른 애니메이션 저작 시스템은, 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈(101); 상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 제1 동작 윈도우 모듈(102); 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 제2 동작 윈도우 모듈(103); 및 상기 입력된 상세 경로에 따라 애니메이션을 구현하는 애니메이션 구현부(104); 를 포함하여 구성된다.
상기와 같은 구성을 가지는 본 발명의 바람직한 제 2 실시예에 따른 메모리 관리 모듈의 각 구성 요소에 대하여 상세히 설명하면 다음과 같다.
도 4를 참조하면, 상기 평면 경로 모듈(101)은 평면 경로 스케치부(101a)와 평면 경로 제어부(101b)를 포함하여 구성된다.
상기 평면 경로 모듈(101)의 평면 경로 스케치부(101a)는 3차원 공간의 기준 평면을 나타내는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 그리는 객체(예 : 관절이 없는 객체로서, 비행기 등)는 평면 경로를 입력받아 샘플링하고 근사화하여 저장한다. 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있는데, 이러한 유니폼 큐빅 비-스플라인 보간법은 지역 조정(local modification)의 속성과 affine invariance 속성을 가지는 장점이 있다.
도 2a에는 상기 평면 경로 스케치부(101a)가 제공하는 제 1 화면에 나타난 기준 평면 상에 사용자가 타블렛 펜을 이용하여 객체의 평면 경로를 그리는 모습을 도시하였다. 여기서, x, y, z축을 포함하는 3차원 공간을 기준으로 하면 상기 기준 평면은 x, y축이 이루는 바닥면(ground plane)이다.
상기 평면 경로 모듈(101)의 평면 경로 제어부(101b)는 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하고 나머지 영역은 사용하지 않는다.
도 4를 참조하면, 상기 제1 동작 윈도우 모듈(102)은 주 경로 스케치부(102a)와 제 1 가상 카메라부(102b)를 포함하여 구성된다.
상기 제1 동작 윈도우 모듈(102)의 주 경로 스케치부(102a)는 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 제1 동작 윈도우를 생성하여 사용자에게 동작 윈도우를 표시하는 제 2 화면을 제 1 가상 카메라부(102b)를 이용하여 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제1 동작 윈도우 상에 객체의 주 경로를 스케치하면 객체의 주 경로 및 속도 정보가 입력된다. 여기서, 상기 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응된다.
본 발명을 설명함에 있어서 애니메이션을 구현할 객체는 관절이 존재하지 않는 객체, 즉 비행기 등을 예로 하였지만 본 발명이 이에 한정되는 것은 아니며, 상기 객체는 본 발명의 요지를 벗어나지 않는 범위 내에서 관절이 있는 객체일 수 있으며, 이와 같이 상기 객체가 관절이 있는 객체인 경우에 상기 제1 동작 윈도우 모듈(102)의 주 경로 스케치부(102a)는 사용자로부터 객체의 주 경로 및 속도 정보뿐만 아니라 제스처 정보 및 높이 정보도 함께 입력받을 수도 있다.
도 2b에는 상기 제1 동작 윈도우 모듈(102)의 주 경로 스케치부(102a)가 제공하는 제 2 화면에 나타난 제1 동작 윈도우의 모습을 도시하였다.
상기 제1 동작 윈도우는 기준 평면 상에 스케치된 평면 경로로부터 수직으로 상부 방향으로 연장되어 형성된 면으로서 소정의 상하 폭을 가지고 형성된다.
도 2b에는 상기 제1 동작 윈도우가 기준 평면 및 평면 경로와 수직을 이루는 경우를 예로 하였지만 설명의 편의를 위한 것으로서 본 발명이 이에 한정되는 것은 아니며, 상기 제1 동작 윈도우는 필요에 따라 기준 평면 및 평면 경로와 수직이 아닌 소정 각도를 이룰 수도 있다.
상기 제1 동작 윈도우 모듈(102)의 제 1 가상 카메라부(102b)는 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 제1 동작 윈도우 및 사용자가 스케치하는 주 경로가 제 2 화면 상에 표시되도록 하는 제 1 가상 카메라를 포함한다.
도 2d에는 상기 제 1 가상 카메라가 도 2b에 나타낸 바와 같은 제1 동작 윈도우를 따라 이동하는 모습을 도시하였다.
도 2d를 참조하면, 상기 제 1 가상 카메라는 제1 동작 윈도우와는 소정 거리(d)를 두고 제1 동작 윈도우의 상하 폭의 반에 해당하는 높이(h)에 위치하여 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 제 1 가상 카메라가 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있으며, 이러한 캐트멀 롬 스플라인은 제1 동작 윈도우 상의 제어점(control point)을 지나므로 사용자에게 주 경로의 스케치가 쉬운 화면을 보여줄 수 있는 장점이 있다.
도 2e에는 사용자가 그리는 주 경로가 제1 동작 윈도우를 벗어나는 경우에 제 1 가상 카메라가 줌 아웃(zoom out)을 수행하는 예와, 사용자가 주 경로를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어 스케치하는 경우에 제 1 가상 카메라가 왼쪽 또는 오른쪽으로 스크롤링(scrolling)을 수행하는 예를 함께 도시하였다.
도 2e를 참조하면, 상기 제 1 가상 카메라는 사용자가 스케치하는 주 경로가 제1 동작 윈도우 내에 있는 경우에는 실선 사각형에 대응되는 영역, 즉 제1 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 주 경로가 제1 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 점선 사각형에 대응되는 영역, 즉 제1 동작 윈도우의 상하폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.
또한, 도 2e를 참조하면, 상기 제 1 가상 카메라는 사용자가 주 경로를 소정 방향(예 : 도 2e에서 오른쪽 방향)으로 진행하면서 스케치하다가 반대 방향(예 : 도 2e에서 왼쪽 방향)으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향에 대응되는 방향(예 : 도 2e에서 왼쪽 방향)으로 스크롤링을 수행함으로써, 사용자가 스케치하는 주 경로의 진행 방향을 따라 진행하면서 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.
상기 제 1 가상 카메라는 제 1 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동할 시에 제 1 동작 윈도우의 소정 길이에 대한 제 1 가상 카메라의 이동 거리를 체크하여 제 1 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 제1 동작 윈도우를 따르지 않고 최단 경로로 이동한다.
도 2f의 위쪽과 도 2g의 위쪽에는 상기 제1 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 모습의 예를 도시하였고, 도 2f의 아래쪽과 도 2g의 아래쪽에는 상기 제1 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 상기 꺾인 영역(a, d)과, 제1 가상 카메라의 이동 경로(b, e)와, 카메라 오프셋 세그먼트(c, f)들의 예를 도시하였다. 여기서, 도 2f에는 제1 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 제1 가상 카메라가 상기 꺾인 영역 외부를 따라 이동(outside turn)하는 경우를 도시하고, 도 2g에는 제1 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 제 1 가상 카메라가 상기 꺾인 영역 내부를 따라 이동(inside turn)하는 경우를 도시하였다.
도 2f를 참조하면, 상기 제 1 가상 카메라는 카메라 오프셋 세그먼트(c) 두 개가 교차하지 않고 제 1 가상 카메라의 이동 길이(l i )가 제 1 문턱치(l 1 )보다 긴 경우에 제 1 가상 카메라가 제1 동작 윈도우의 꺾인 영역의 외부를 따라 이동하고 있다고 판단하여, 제 1 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다.
도 2g를 참조하면, 상기 제 1 가상 카메라는 카메라 오프셋 세그먼트(f) 두 개가 교차하고 가상 카메라의 이동 길이(l i )가 제 2 문턱치(l 2 )보다 긴 경우에는 제 1 가상 카메가 제1 동작 윈도우의 꺾인 영역의 내부를 따라 이동하고 있다고 판단하여, 제1 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다. 여기서, 제 1 문턱치(l 1 )는 제 2 문턱치(l 2 )보다 길다.
상기와 같이 제 1 가상 카메라가 꺾인 영역의 외부 또는 내부를 따라 이동하고 있다고 판단한 경우에 상기 제1 동작 윈도우 모듈(102)은 사용자가 현재 스케치하고 있는 주 경로의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하며, 상기 제 1 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 제1 동작 윈도우 모듈(102)은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 스케치를 이어나갈 수 있도록 한다.
도 4를 참조하면, 상기 제2 동작 윈도우 모듈(103)은 상세 경로 스케치부(103a)와 제 2 가상 카메라부(103b)를 포함하여 구성된다.
상기 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)는 중심에 상기 주 경로를 수직으로 관통시키는 다수의 제2 동작 윈도우를 소정 간격을 두고 연속으로 생성하고, 상기 제2 동작 윈도우를 표시하는 제 3 화면을 제 2 가상 카메라부(103b)를 통해 사용자에게 제공함으로써, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제2 동작 윈도우 상에 객체의 상세 경로를 스케치하면 객체의 상세 경로가 입력되며, 입력받은 객체의 상세 경로를 근사화하여 저장한다. 이때, 상기 상세 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있다.
상기 상세 경로 스케치부(103a)에서 생성되는 다수의 제2 동작 윈도우 간의 간격은 제1 동작 윈도우 모듈(102)을 통해 입력받은 속도 정보에 의해 결정된다.
즉, 상기 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)는 제1 동작 윈도우 모듈(102)을 통해 입력된 주 경로 중에서 높은 속도에 대응되는 영역에서는 제2 동작 윈도우들을 제 3 화면에 표시함에 있어서 상대적으로 큰 간격을 두고 표시하고, 낮은 속도에 대응되는 영역에서는 제2 동작 윈도우들을 제 3 화면에 표시함에 있어서 상대적으로 작은 간격을 두고 표시한다.
이와 같은 제2 동작 윈도우에 스케치된 객체의 상세 경로는 객체가 주 경로를 따라 이동하는 동안에 주 경로의 주위에서 상세한 이동(예 : 나선형 이동)을 하는 경우에 그 상세한 이동을 의미한다.
본 발명을 설명함에 있어서 애니메이션을 구현할 객체는 관절이 존재하지 않는 객체, 즉 비행기 등을 예로 하였지만 본 발명이 이에 한정되는 것은 아니며, 상기 객체는 본 발명의 요지를 벗어나지 않는 범위 내에서 관절이 있는 객체일 수 있으며, 이와 같이 상기 객체가 관절이 있는 객체인 경우에 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)는 사용자로부터 객체의 상세 경로뿐만 아니라 제스처 정보 및 높이 정보도 함께 입력받을 수도 있다.
도 5a에는 상기 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)에서 소정 간격을 두고 연속적으로 생성된 제2 동작 윈도우들의 예를 도시하였으며, 제2 동작 윈도우들이 생성됨에 따라 제 2 가상 카메라가 전진(또는 후진)하면서 제2 동작 윈도우를 촬영하는 모습도 함께 도시하였다.
도 5b에는 평면 경로를 따라 형성된 제1 동작 윈도우가 많이 굽은 이유로 인하여 제2 동작 윈도우들의 일부 영역이 서로 겹치는 경우에 제2 동작 윈도우들에 스케치한 상세 경로가 원치않는 역행으로 인식되게 되는 문제의 발생이 우려되는 경우에 제2 동작 윈도우 모듈(103)에서 수행하는 해결 방안을 설명하기 위한 평면도를 도시하였으며, 설명의 편의를 위하여 도 5a를 기준으로 z축의 (+)방향에서 (-)방향으로 제2 동작 윈도우들을 내려다본 모습을 도시하였다.
도 5b를 참조하면, 평면 경로를 따라 형성된 제1 동작 윈도우가 많이 굽은 이유로 인하여 연속된 제2 동작 윈도우들의 일부 영역이 서로 겹치는 경우에 사용자가 상기 겹치는 영역에 상세 경로를 스케치하면 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)에서는 사용자의 의도와는 다르게 역행하는 것으로 인식하게 되는 문제가 발생할 수 있는데, 이러한 문제를 해결하기 위하여 상세 경로 스케치부(103a)는 제2 동작 윈도우 상에 스케치된 상세 경로(예 : 도 5h의 P1 ~ P6)마다 앞, 뒤로 연속하는 소정 개수의 제2 동작 윈도우 상에 스케치된 상세 경로와의 탄젠트 값을 감시하여 역행이 감지되면 역행을 유발한 상세 경로(예 : 도 5h의 P4)는 무시(삭제)한다. 이로써, 이후에 객체에 대한 3D 애니메이션을 구현하였을 때 객체가 사용자의 의도와 다른 이상 동작을 하는 문제가 전혀 발생하지 않게 된다.
도 4를 참조하면, 상기 애니메이션 구현부(104)는 상술한 바와 같은 제2 동작 윈도우 모듈(103)로부터 입력받은 상세 경로에 따른 3차원 경로에 대한 미화(beautification) 과정을 수행한 후에, 상기 미화한 3차원 경로에 따라 애니메이션을 구현한다.
이때, 상기 객체가 관절이 있는 객체인 경우에는 제 2 동작 윈도우 모듈(103)로부터 입력받은 상세 경로뿐만 아니라 제1 동작 윈도우 모듈(102) 또는 제 2 동작 윈도우 모듈(103)로부터 입력받은 제스처 정보 및 높이 정보도 애니메이션 구현 시에 적용한다.
이하, 도 6을 참조하여 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 방법에 대하여 설명한다.
먼저, 평면 경로 모듈(101)은 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 스케치하는 객체(예 : 관절이 존재하지 않는 객체로서, 비행기 등)의 평면 경로를 샘플링하고 근사화하여 저장한다.(S101) 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있다.
다음으로, 상기 평면 경로 모듈(101)은 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력하는지 판단하여(S102), 수정 경로가 입력되었다고 판단되면 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체한다.(S103)
다음으로, 제1 동작 윈도우 모듈(102)은 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 제1 동작 윈도우를 생성하고(S104), 상기 제1 동작 윈도우를 표시하는제 2 화면을 제 1 가상 카메라를 이용하여 사용자에게 제공하여, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제1 동작 윈도우 상에 객체의 주 경로를 스케치하면 객체의 주 경로 및 속도 정보가 입력된다.(S105) 이때, 상기 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응된다.
본 발명을 설명함에 있어서 애니메이션을 구현할 객체는 관절이 존재하지 않는 객체, 즉 비행기 등을 예로 하였지만 본 발명이 이에 한정되는 것은 아니며, 상기 객체는 본 발명의 요지를 벗어나지 않는 범위 내에서 관절이 있는 객체일 수 있으며, 이와 같이 상기 객체가 관절이 있는 객체인 경우에 상기 제1 동작 윈도우 모듈(102)의 주 경로 스케치부(102a)는 사용자로부터 객체의 주 경로 및 속도 정보뿐만 아니라 제스처 정보 및 높이 정보도 입력받는다.
상기 제1 동작 윈도우는 기준 평면 및 평면 경로와 수직을 이루거나 또는 수직이 아닌 소정 각도를 이룰 수 있다.
그리고, 상기 제 1 가상 카메라는 평면 경로와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 제1 동작 윈도우 및 사용자가 스케치하는 주 경로가 제 2 화면 상에 표시되도록 한다.
상기 제 1 가상 카메라는 제1 동작 윈도우와는 소정 거리를 두고 제1 윈도우의 상하폭의 반에 해당하는 높이에 위치하여 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 제 1 가상 카메라가 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있다.
상기 제 1 가상 카메라는 사용자가 스케치하는 주 경로가 제1 동작 윈도우 내에 있는 경우에는 제1 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 주 경로가 제1 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 제1 동작 윈도우의 상하 폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.
그리고, 상기 제 1 가상 카메라는 사용자가 주 경로를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향과 대응되는 방향으로의 스크롤링을 수행함으로써, 사용자가 스케치하는 주 경로의 진행 방향을 따라 진행하면서 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.
상기 제 1 가상 카메라는 제1 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동할 시에 제1 동작 윈도우의 소정 길이에 대한 제 1 가상 카메라의 이동 거리를 체크하여 제 1 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 제1 동작 윈도우를 따르지 않고 최단 경로로 이동한다. 이와 관련한 상세한 설명은 위에서 본 발명의 실시예에 따른 애니메이션 저작 시스템에 대하여 설명함에 있어서 도 2f와 도 2g를 참조하여 설명한 부분을 참조하도록 한다.
상기와 같이 제 1 가상 카메라가 제1 동작 윈도우의 꺾인 영역을 따라 이동하고 있다고 판단한 경우에 상기 제1 동작 윈도우 모듈은 사용자가 현재 스케치하고 있는 주 경로의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하고, 이후에 상기 제 1 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 제1 동작 윈도우 모듈은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 주 경로 스케치를 이어나갈 수 있도록 한다.
다음으로, 객체의 주 경로에 대한 상세 경로를 입력받을 것인지 결정한다.(S106)
다음으로, 객체의 주 경로에 대한 상세 경로를 입력받을 것이라고 결정되면, 상기 제2 동작 윈도우 모듈(103)은 제1 동작 윈도우 모듈(102)을 통해 입력된 주 경로를 중심에 수직으로 관통시키는 다수의 제2 동작 윈도우를 소정 간격을 두고 연속으로 생성하고(S107), 상기 제2 동작 윈도우를 표시하는 제 3 화면을 제 2 가상 카메라를 통해 사용자에게 제공하여, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제2 동작 윈도우 상에 객체의 상세 경로를 스케치하면 객체의 상세 경로가 입력되며(S108), 입력받은 객체의 상세 경로를 근사화하여 저장한 후에 다음 단계(S109)로 진행한다. 반면에, 객체의 주 경로에 대한 상세 경로를 입력받지 않을 것이라고 결정되면 객체의 주 경로에 대한 상세 경로를 입력받지 않고 다음 단계(S109)로 진행한다.
상기 상세 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있다.
상기 제2 동작 윈도우 모듈에서 생성되는 다수의 제2 동작 윈도우 간의 간격은 제1 동작 윈도우 모듈(102)을 통해 입력받은 속도 정보에 의해 결정된다.
즉, 상기 제2 동작 윈도우 모듈(103)은 제1 동작 윈도우 모듈(102)을 통해 입력된 주 경로 중에서 높은 속도에 대응되는 영역에서는 제2 동작 윈도우들을 제 3 화면에 표시함에 있어서 상대적으로 큰 간격을 두고 표시하고, 낮은 속도에 대응되는 영역에서는 제2 동작 윈도우들을 제 3 화면에 표시함에 있어서 상대적으로 작은 간격을 두고 표시한다.
이와 같은 제2 동작 윈도우에 스케치된 객체의 상세 경로는 객체가 주 경로를 따라 이동하는 동안에 주 경로 주위에서 상세한 이동(예 : 나선형 이동)을 하는 경우에 그 상세한 이동을 의미한다.
본 발명을 설명함에 있어서 애니메이션을 구현할 객체는 관절이 존재하지 않는 객체, 즉 비행기 등을 예로 하였지만 본 발명이 이에 한정되는 것은 아니며, 상기 객체는 본 발명의 요지를 벗어나지 않는 범위 내에서 관절이 있는 객체일 수 있으며, 이와 같이 상기 객체가 관절이 있는 객체인 경우에 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)는 사용자로부터 객체의 상세 경로뿐만 아니라 제스처 정보 및 높이 정보도 입력받는다.
그리고, 상기 제2 동작 윈도우 모듈(103)이 사용자로부터 제2 동작 윈도우 상에 상세 경로를 입력받음에 있어서, 제2 동작 윈도우 상에 스케치된 상세 경로마다 앞, 뒤로 연속하는 소정 개수의 제2 동작 윈도우 상에 스케치된 상세 경로와의 탄젠트 값을 감시하여 역행이 감지되면 역행을 유발한 상세 경로는 무시(삭제)한다. 이로써, 제1 동작 윈도우가 많이 굽은 이유로 인하여 제2 동작 윈도우들의 일부 영역이 서로 겹치는 경우에 사용자가 상기 겹치는 영역에 상세 경로를 스케치하더라도, 제2 동작 윈도우 모듈(103)은 사용자의 의도와 동일한 상세 경로를 오류 없이 인식하게 된다.
다음으로, 상기 애니메이션 구현부(104)는 상기 제2 동작 윈도우 모듈(103)로부터 입력받은 상세 경로에 따른 3차원 경로, 또는 상기 제1 동작 윈도우 모듈(102)로부터 입력받은 주 경로에 따는 3차원 경로에 대한 미화(beautification) 과정을 수행한 후에(S109), 상기 미화한 3차원 경로에 따라 애니메이션을 구현한다.(S110)
이때, 상기 객체가 관절이 있는 객체인 경우에는 제 2 동작 윈도우 모듈(103)로부터 입력받은 상세 경로뿐만 아니라 제1 동작 윈도우 모듈(102) 또는 제 2 동작 윈도우 모듈(103)로부터 입력받은 제스처 정보 및 높이 정보도 애니메이션 구현 시에 적용한다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예 : ROM, 플로피 디스트, 하드 디스크, 자기 테이트 등), 광학적 판독 매체(예 : CD-ROM, DVD, 광데이터 저장 장치 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)과 같은 저장 매체를 포함한다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (40)

  1. a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계;
    b) 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 단계; 및
    c) 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 단계;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 방법.
  2. 제 1 항에 있어서, 상기 a) 단계에서는, 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하여, 사용자가 기준 평면 상에 스케치하는 객체의 평면 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  3. 제 1 항에 있어서, 상기 b) 단계에서는, 동작 윈도우를 표시하는 제 2 화면을 사용자에게 제공하여, 사용자가 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터를 포함하는 객체의 동작 정보를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  4. 제 3 항에 있어서, c) 단계는,
    c1) 상기 제스처 데이터를 미리 저장된 동작 데이터 중에 대응되는 것으로 변환한 후에, 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 단계; 및
    c2) 상기 동작 시퀀스에 따라 애니메이션을 구현하는 단계;
    를 포함하는 애니메이션 저작 방법.
  5. 제 1 항에 있어서, a) 단계에서 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하는 것을 특징으로 하는 애니메이션 저작 방법.
  6. 제 3 항에 있어서, 상기 b) 단계에서는 가상 카메라가 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동하면서 사용자에게 동작 윈도우 및 사용자가 그리는 제스처를 제 2 화면 상에 표시하는 것을 특징으로 하는 애니메이션 저작 방법.
  7. 제 6 항에 있어서, 상기 가상 카메라는 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에 줌 아웃(zoom out)을 하는 것을 특징으로 하는 애니메이션 저작 방법.
  8. 제 6 항에 있어서, 상기 가상 카메라는 제스처의 이동 방향이 반대 방향으로 바뀌는 경우에 상기 반대 방향에 대응되는 방향으로 스크롤링을 수행하는 것을 특징으로 하는 애니메이션 저작 방법.
  9. 제 6 항에 있어서, 상기 가상 카메라는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동할 시에 평면 경로 중에 소정 각도로 꺾인 영역을 만나면, 동작 윈도우를 따르지 않고 최단 경로를 통해 이동하는 것을 특징으로 하는 애니메이션 저작 방법.
  10. 제 9 항에 있어서, 상기 가상 카메라는 평면 경로의 소정 길이에 대한 가상 카메라의 이동 거리를 체크하여 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하는 것을 특징으로 하는 애니메이션 저작 방법.
  11. 제 9 항에 있어서, 가상 카메라가 꺾인 영역을 만나게 되는 시점에는 사용자가 그리고 있는 제스처의 위치에 정지 마크를 찍고 현재 상태를 저장하고, 가상 카메라가 최단 경로를 통해 이동한 후에는 사용자가 상기 정지 마크가 찍힌 위치부터 다시 제스처를 스케치할 수 있도록 하는 것을 특징으로 하는 애니메이션 저작 방법.
  12. 제 4 항에 있어서, 상기 c1) 단계는,
    c11) 동작 윈도우 모듈로부터 입력된 제스처 데이터들을 구역화하는 단계;
    c12) 상기 구역화한 각 제스처 데이터의 인식이 가능한지 판단하는 단계;
    c13) 인식이 가능하다고 판단되면 제스처 데이터를 동작 데이터로 변환하고, 인식이 가능하지 않다고 판단되면 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체한 후에 동작 데이터로 변환하는 단계; 및
    c14) 동작 데이터와 파라미터를 시간에 따라 정리하여 동작 시퀀스를 생성하는 단계;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 방법.
  13. 제 12 항에 있어서, 상기 c12) 단계에서는 각 제스처 데이터가 미리 저장된 동작 데이터들 중 하나에 대응되는지 판단하는 것을 특징으로 하는 애니메이션 저작 방법.
  14. 제 3 항에 있어서, 상기 파라미터는 객체의 속도, 높이 등을 포함하며, 상기 객체의 속도는 사용자가 제스처를 그려나가는 속도에 대응되고 상기 객체의 높이는 사용자가 그린 제스처의 높이에 대응되는 것을 특징으로 하는 애니메이션 저작 방법.
  15. 제 3 항에 있어서, 상기 b) 단계에서는 사용자가 제스처를 그리는 도중에 수직으로 선을 그어 올린 후에 소정 시간 머무르면 제자리 동작 선택 메뉴를 사용자에게 보여주고 사용자가 제자리 동작 중에 하나를 선택하도록 하는 것을 특징으로 하는 애니메이션 저작 방법.
  16. 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈;
    상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 동작 윈도우 모듈; 및
    상기 입력된 동작 정보에 따라 애니메이션을 구현하는 애니메이션 구현부;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 시스템.
  17. 제 16 항에 있어서, 상기 평면 경로 모듈은 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하여, 사용자가 기준 평면 상에 그리는 객체의 평면 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 시스템.
  18. 제 16 항에 있어서, 상기 동작 윈도우 모듈은 동작 윈도우를 표시하는 제 2 화면을 사용자에게 제공하여, 사용자가 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터를 포함하는 객체의 동작 정보를 입력받는 것을 특징으로 하는 애니메이션 저작 시스템.
  19. 제 18 항에 있어서, 상기 동작 윈도우 모듈로부터의 제스처 데이터를 미리 저장된 동작 데이터 중에 대응되는 것으로 변환한 후에 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 분석 모듈이 추가로 구비되는 것을 특징으로 하는 애니메이션 저작 시스템.
  20. 제 19 항에 있어서, 상기 분석 모듈은 동작 윈도우 모듈로부터 입력된 제스처 데이터들을 구역화한 후에, 상기 구역화한 각 제스처 데이터의 인식이 가능한지 판단하여 인식이 가능하다고 판단되면 미리 저장된 동작 데이터 중에 대응되는 것으로 변환하고 인식이 가능하지 않다고 판단되면 미리 저장된 기본 동작에 대응되는 제스처로 대체한 후에 미리 저장된 동작 데이터 중에 대응되는 것으로 변환하여, 이후에 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 것을 특징으로 하는 애니메이션 저작 시스템.
  21. 제 20 항에 있어서, 상기 분석 모듈이 구역화한 각 제스처의 데이터의 인식이 가능한지 판단하는 작업은 각 제스처 데이터가 미리 저장된 동작 데이터들 중 하나에 대응되는지 판단하여 수행되는 것을 특징으로 하는 애니메이션 저작 시스템.
  22. a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계;
    b) 상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 단계;
    c) 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 단계; 및
    d) 상기 입력된 상세 경로에 따라 애니메이션을 구현하는 단계;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 방법.
  23. 제 22 항에 있어서, 상기 a) 단계에서는, 상기 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하여, 사용자가 기준 평면 상에 스케치하는 객체의 평면 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  24. 제 22 항에 있어서, 상기 a) 단계에서 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하는 것을 특징으로 하는 애니메이션 저작 방법.
  25. 제 22 항에 있어서, 상기 b) 단계에서는, 상기 제1 동작 윈도우를 표시하는 제 2 화면을 사용자에게 제공하여, 사용자가 제1 동작 윈도우 상에 객체의 주 경로 및 속도 정보를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  26. 제 22 항에 있어서, 상기 객체의 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응되는 것을 특징으로 하는 애니메이션 저작 방법.
  27. 제 22 항에 있어서, 상기 b) 단계에서는 제 1 가상 카메라가 제1 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동하면서 사용자에게 제1 동작 윈도우 및 사용자가 그리는 주 경로를 제 2 화면 상에 표시하는 것을 특징으로 하는 애니메이션 저작 방법.
  28. 제 27 항에 있어서, 상기 제 1 가상 카메라는 제1 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동할 시에 평면 경로 중에 소정 각도로 꺾인 형상을 만나면, 제1 동작 윈도우를 따르지 않고 최단 경로를 통해 이동하는 것을 특징으로 하는 애니메이션 저작 방법.
  29. 제 27 항에 있어서, 상기 카메라가 꺾인 영역을 만나게 되는 시점에는 사용자가 그리고 있는 주 경로의 위치에 정지 마크를 찍고 현재 상태를 저장하고, 가상 카메라가 최단 경로를 통해 이동한 후에는 사용자가 상기 정지 마크가 찍힌 위치부터 다시 주 경로를 스케치할 수 있도록 하는 것을 특징으로 하는 애니메이션 저작 방법.
  30. 제 22 항에 있어서, 상기 c) 단계에서는, 상기 제2 동작 윈도우를 표시하는 제 3 화면을 사용자에게 제공하여, 사용자가 제2 동작 윈도우 상에 스케치하는 객체의 상세 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  31. 제 22 항에 있어서, 상기 c) 단계에서는 제 2 가상 카메라가 제2 동작 윈도우와 소정 거리를 유지하면서 사용자에게 제2 동작 윈도우 및 사용자가 그리는 상세 경로를 제 3 화면 상에 표시하는 것을 특징으로 하는 애니메이션 저작 방법.
  32. 제 22 항에 있어서, 상기 c) 단계에서는, 상기 주 경로가 중심에 관통되는 다수의 제2 동작 윈도우를 소정 간격을 두고 연속으로 생성하여 제 3 화면을 통해 사용자에게 제공하여, 사용자가 제2 동작 윈도우 상에 스케치하는 객체의 상세 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  33. 제 32 항에 있어서, 상기 제2 동작 윈도우는 중심에 상기 주 경로를 수직으로 관통시키는 것을 특징으로 하는 애니메이션 저작 방법.
  34. 제 32 항에 있어서, b) 단계에서는 객체의 주 경로 및 속도 정보를 사용자로부터 입력받고, 상기 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응되며,
    상기 다수의 제2 동작 윈도우 간의 간격은 상기 속도 정보에 의해 결정되는 것을 특징으로 하는 애니메이션 저작 방법.
  35. 제 22 항에 있어서, 상기 d) 단계에서는, 상기 상세 경로에 따른 3차원 경로에 대한 미화(beautification)를 수행한 후에, 상기 미화한 3차원 경로에 따라 애니메이션을 구현하는 것을 특징으로 하는 애니메이션 저작 방법.
  36. 제 22 항에 있어서, 상기 c) 단계에서는, 앞, 뒤로 연속하는 소정 개수의 제2 동작 윈도우에 입력된 상세 경로 간의 탄젠트값을 감시하여 상세 경로 중에 원치않는 역행이 감지되면, 역행을 유발한 영역은 무시하는 것을 특징으로 하는 애니메이션 저작 방법.
  37. 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈;
    상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 제1 동작 윈도우 모듈;
    상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 제2 동작 윈도우 모듈; 및
    상기 입력된 상세 경로에 따라 애니메이션을 구현하는 애니메이션 구현부;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 시스템.
  38. 제 37 항에 있어서, 상기 제2 동작 윈도우 모듈은 중심에 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 소정 간격을 두고 연속으로 생성하여 화면을 통해 사용자에게 제공하여, 사용자가 제2 동작 윈도우 상에 스케치하는 객체의 상세 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 시스템.
  39. 제 38 항에 있어서, 제1 동작 윈도우 모듈은 객체의 주 경로 및 속도 정보를 사용자로부터 입력받고, 상기 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응되며,
    상기 다수의 제2 동작 윈도우 간의 간격은 상기 속도 정보에 의해 결정되는 것을 특징으로 하는 애니메이션 저작 시스템.
  40. 제 37 항에 있어서, 상기 제2 동작 윈도우 모듈은 앞, 뒤로 연속하는 소정 개수의 제2 동작 윈도우에 입력된 상세 경로 간의 탄젠트값을 감시하여 상세 경로 중에 원치않는 역행이 감지되면 역행을 유발한 영역은 무시하는 것을 특징으로 하는 애니메이션 저작 방법.
PCT/KR2010/007926 2010-05-25 2010-11-10 애니메이션 저작 시스템 및 애니메이션 저작 방법 WO2011149160A1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP10852246.7A EP2579216B1 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
CN201080066546.7A CN103038797B (zh) 2010-05-25 2010-11-10 动画制作系统以及动画制作方法
US13/695,409 US10152817B2 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
JP2013512515A JP5689953B2 (ja) 2010-05-25 2010-11-10 アニメーション著作システムおよびアニメーション著作方法
AU2010354148A AU2010354148B2 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
US16/175,187 US10783692B2 (en) 2010-05-25 2018-10-30 Animation authoring system and method for authoring animation

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020100048651A KR101155045B1 (ko) 2010-05-25 2010-05-25 애니메이션 저작 시스템 및 애니메이션 저작 방법
KR10-2010-0048651 2010-05-25
KR10-2010-0049780 2010-05-27
KR1020100049780A KR101155041B1 (ko) 2010-05-27 2010-05-27 애니메이션 저작 시스템 및 애니메이션 저작 방법

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/695,409 A-371-Of-International US10152817B2 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
US16/175,187 Continuation US10783692B2 (en) 2010-05-25 2018-10-30 Animation authoring system and method for authoring animation

Publications (1)

Publication Number Publication Date
WO2011149160A1 true WO2011149160A1 (ko) 2011-12-01

Family

ID=45004129

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/007926 WO2011149160A1 (ko) 2010-05-25 2010-11-10 애니메이션 저작 시스템 및 애니메이션 저작 방법

Country Status (5)

Country Link
US (2) US10152817B2 (ko)
EP (1) EP2579216B1 (ko)
JP (1) JP5689953B2 (ko)
CN (1) CN103038797B (ko)
WO (1) WO2011149160A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014062001A1 (ko) 2012-10-16 2014-04-24 Jeon Jae Woong 3차원의 가상 공간 내에서 가상 카메라를 제어하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
WO2017164511A1 (ko) * 2016-03-25 2017-09-28 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR20170112891A (ko) * 2016-03-25 2017-10-12 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9626742B2 (en) 2011-12-22 2017-04-18 Nokia Technologies Oy Apparatus and method for providing transitions between screens
US10182141B2 (en) * 2011-12-22 2019-01-15 Nokia Technologies Oy Apparatus and method for providing transitions between screens
KR20140095414A (ko) * 2013-01-24 2014-08-01 (주) 애니펜 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
JP6222830B2 (ja) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 画像投射装置
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
CN104700443A (zh) * 2015-03-26 2015-06-10 金陵科技学院 一种优化模糊输入状态的三维动画制作系统及方法
US10373392B2 (en) * 2015-08-26 2019-08-06 Microsoft Technology Licensing, Llc Transitioning views of a virtual model
KR101885746B1 (ko) 2016-05-31 2018-08-06 (주) 젤리피쉬월드 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법
CN106327582A (zh) * 2016-08-22 2017-01-11 深圳马顿科技有限公司 3d模型的图形绘制系统
US10438414B2 (en) 2018-01-26 2019-10-08 Microsoft Technology Licensing, Llc Authoring and presenting 3D presentations in augmented reality
CN114782595B (zh) * 2022-06-21 2022-09-13 山东捷瑞数字科技股份有限公司 一种基于三维引擎的最短距离轨迹确定方法、装置及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536234A (ja) * 2005-04-11 2008-09-04 サムスン エレクトロニクス カンパニー リミテッド 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置
KR20090076540A (ko) * 2008-01-09 2009-07-13 에스케이 텔레콤주식회사 가상 캐릭터의 동작 애니메이션 재생 방법 및 시스템
KR20100054078A (ko) * 2008-11-13 2010-05-24 삼성전자주식회사 스토리보드를 통한 애니메이션 저작 장치 및 그 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594856A (en) * 1994-08-25 1997-01-14 Girard; Michael Computer user interface for step-driven character animation
DE69631949D1 (de) * 1995-05-19 2004-04-29 Sega Enterprises Kk Bildverarbeitungsgerät, bildverarbeitungsverfahren, speichermedium, und computerprogramm
US5854634A (en) * 1995-12-26 1998-12-29 Imax Corporation Computer-assisted animation construction system using source poses within a pose transformation space
JP2000036057A (ja) * 1998-07-21 2000-02-02 Hitachi Ltd キャラクタの動作生成方法
JP2002083317A (ja) * 2000-09-07 2002-03-22 Sony Corp 画像処理システム及び画像処理方法、並びに記憶媒体
US7391420B1 (en) * 2000-09-28 2008-06-24 At&T Corp. Graphical user interface graphics-based interpolated animation performance
JP4535604B2 (ja) * 2000-11-28 2010-09-01 株式会社バンダイナムコゲームス ゲームシステム及びプログラム
JP4123187B2 (ja) * 2004-05-13 2008-07-23 ソニー株式会社 アニメーション生成装置、アニメーション生成方法およびアニメーション生成プログラム
US7454717B2 (en) * 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
JP2007025979A (ja) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> 動画像編集システム、動画像編集方法、動画像編集プログラム及び記録媒体
US7701457B2 (en) * 2006-02-21 2010-04-20 Chrysler Group Llc Pen-based 3D drawing system with geometric-constraint based 3D cross curve drawing
US20100134499A1 (en) * 2008-12-03 2010-06-03 Nokia Corporation Stroke-based animation creation
US20120206419A1 (en) * 2011-02-11 2012-08-16 Massachusetts Institute Of Technology Collapsible input device
US20130222363A1 (en) * 2012-02-23 2013-08-29 Htc Corporation Stereoscopic imaging system and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536234A (ja) * 2005-04-11 2008-09-04 サムスン エレクトロニクス カンパニー リミテッド 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置
KR20090076540A (ko) * 2008-01-09 2009-07-13 에스케이 텔레콤주식회사 가상 캐릭터의 동작 애니메이션 재생 방법 및 시스템
KR20100054078A (ko) * 2008-11-13 2010-05-24 삼성전자주식회사 스토리보드를 통한 애니메이션 저작 장치 및 그 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2579216A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014062001A1 (ko) 2012-10-16 2014-04-24 Jeon Jae Woong 3차원의 가상 공간 내에서 가상 카메라를 제어하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
JP2016502171A (ja) * 2012-10-16 2016-01-21 ジョン、ジェ ウンJEON, Jae Woong 3次元の仮想空間内で仮想カメラを制御するための方法、システムおよびコンピュータ読取可能な記録媒体
WO2017164511A1 (ko) * 2016-03-25 2017-09-28 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR20170112891A (ko) * 2016-03-25 2017-10-12 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR20170133294A (ko) * 2016-03-25 2017-12-05 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR101979754B1 (ko) * 2016-03-25 2019-05-17 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR102427787B1 (ko) * 2016-03-25 2022-08-02 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체

Also Published As

Publication number Publication date
EP2579216A1 (en) 2013-04-10
JP5689953B2 (ja) 2015-03-25
US20130135316A1 (en) 2013-05-30
US10152817B2 (en) 2018-12-11
US10783692B2 (en) 2020-09-22
CN103038797B (zh) 2016-05-04
AU2010354148A1 (en) 2013-01-24
EP2579216B1 (en) 2020-04-22
JP2013530457A (ja) 2013-07-25
US20190073818A1 (en) 2019-03-07
EP2579216A4 (en) 2017-08-23
CN103038797A (zh) 2013-04-10

Similar Documents

Publication Publication Date Title
WO2011149160A1 (ko) 애니메이션 저작 시스템 및 애니메이션 저작 방법
WO2014129862A1 (en) Method for controlling display of multiple objects depending on input related to operation of mobile terminal, and mobile terminal therefor
WO2012096451A2 (en) Method and apparatus for editing touch display
WO2014088343A1 (en) Display device and method of controlling the same
WO2012057394A1 (ko) 멀티 터치 특징정보 추출방법 및 그 멀티 터치 특징정보를 이용한 멀티 터치 제스처 인식방법
WO2015141891A1 (en) Display device and method for controlling the same
WO2014017790A1 (en) Display device and control method thereof
WO2013089476A1 (en) Display apparatus and method of changing screen mode using the same
WO2016028042A1 (en) Method of providing visual sound image and electronic device implementing the same
WO2018074821A1 (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
WO2015163536A1 (en) Display device and method for controlling the same
WO2015020496A1 (ko) 동영상 편집을 위한 사용자 인터페이스의 제공장치, 그 제공방법 및 기록매체
WO2016111573A1 (ko) 파일 변환 방법 및 장치
WO2017209568A1 (ko) 전자 장치 및 그의 동작 방법
WO2014098416A1 (en) Augmented reality system and control method thereof
WO2019132566A1 (ko) 멀티 심도 이미지의 자동 생성 방법
WO2020054978A1 (ko) 이미지 생성 장치 및 그 방법
KR101155045B1 (ko) 애니메이션 저작 시스템 및 애니메이션 저작 방법
WO2016080596A1 (ko) 프로토타이핑 툴을 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2015126190A1 (ko) 사용자 인터페이스를 제공하는 방법 및 이를 수행하기 위한 플렉시블 디바이스
WO2016088922A1 (ko) 모바일 디바이스 및 웨어러블 디바이스를 이용한 인터페이스 제공 방법
WO2019132563A1 (ko) 이미지 패닝 방법
WO2012034469A1 (zh) 基于手势的人机交互方法及系统、计算机存储介质
WO2021040180A1 (ko) 디스플레이장치 및 그 제어방법
WO2020230921A1 (ko) 레이저 패턴을 이용하여 이미지 내의 특징을 추출하는 방법 및 이를 적용한 식별장치와 로봇

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080066546.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10852246

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013512515

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11170/DELNP/2012

Country of ref document: IN

Ref document number: 2010852246

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2010354148

Country of ref document: AU

Date of ref document: 20101110

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13695409

Country of ref document: US