KR101155045B1 - Authoring system of animation and authoring method of animation - Google Patents

Authoring system of animation and authoring method of animation Download PDF

Info

Publication number
KR101155045B1
KR101155045B1 KR1020100048651A KR20100048651A KR101155045B1 KR 101155045 B1 KR101155045 B1 KR 101155045B1 KR 1020100048651 A KR1020100048651 A KR 1020100048651A KR 20100048651 A KR20100048651 A KR 20100048651A KR 101155045 B1 KR101155045 B1 KR 101155045B1
Authority
KR
South Korea
Prior art keywords
gesture
user
operation window
animation
path
Prior art date
Application number
KR1020100048651A
Other languages
Korean (ko)
Other versions
KR20110129171A (en
Inventor
최윤철
전재웅
장현호
Original Assignee
주식회사 씩스클릭
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씩스클릭 filed Critical 주식회사 씩스클릭
Priority to KR1020100048651A priority Critical patent/KR101155045B1/en
Priority to JP2013512515A priority patent/JP5689953B2/en
Priority to US13/695,409 priority patent/US10152817B2/en
Priority to PCT/KR2010/007926 priority patent/WO2011149160A1/en
Priority to AU2010354148A priority patent/AU2010354148B2/en
Priority to CN201080066546.7A priority patent/CN103038797B/en
Priority to EP10852246.7A priority patent/EP2579216B1/en
Publication of KR20110129171A publication Critical patent/KR20110129171A/en
Application granted granted Critical
Publication of KR101155045B1 publication Critical patent/KR101155045B1/en
Priority to US16/175,187 priority patent/US10783692B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/08Animation software package

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것으로서, 초보자들도 손쉽게 3차원 애니메이션을 제작할 수 있고, 3차원 환경에서의 입력 모호성 문제가 해결된 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것이다. 이러한 본 발명에 따른 애니메이션 저작 시스템은, a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계; b) 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 단계; 및 c) 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 단계; 를 포함한다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an animation authoring system and an animation authoring method, and relates to an animation authoring system and an animation authoring method in which even beginners can easily produce 3D animations and solve an input ambiguity problem in a 3D environment. The animation authoring system according to the present invention comprises the steps of: a) receiving a plane path of an object from a user on a predetermined reference plane; b) generating an operation window formed along the plane path to form a predetermined angle with a reference plane, and receiving operation information of the object from the user on the operation window; And c) implementing an animation according to the input motion information; It includes.

Description

애니메이션 저작 시스템 및 애니메이션 저작 방법{AUTHORING SYSTEM OF ANIMATION AND AUTHORING METHOD OF ANIMATION}AUTHORING SYSTEM OF ANIMATION AND AUTHORING METHOD OF ANIMATION}

본 발명은 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것으로서, 초보자들도 손쉽게 3차원 애니메이션을 제작할 수 있고, 3차원 환경에서의 입력 모호성 문제가 해결된 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an animation authoring system and an animation authoring method, and relates to an animation authoring system and an animation authoring method in which even beginners can easily produce 3D animations and solve an input ambiguity problem in a 3D environment.

3차원 애니메이션은 영화나 TV에서 자주 등장하고 있으며, 이와 같은 3차원 애니메이션의 저작을 위해서는 3차원 애니메이션 저작용 툴(tool)이 이용되는데, 상기 3차원 애니메이션 저작용 툴은 사용이 복잡하고 어려워 숙련된 전문가에 의해서만 사용이 가능하다.3D animation is frequently used in movies and TV, and the 3D animation action tool is used for authoring such 3D animation. The 3D animation action tool is complicated and difficult to use. Can only be used by professionals.

최근에는 인터넷과 멀티미디어의 발달로 인해 3차원 애니메이션을 보기만 하는 것을 넘어 직접 저작하여 사용하려는 일반인 사용자들이 늘어나고 있다.Recently, due to the development of the Internet and multimedia, more and more general users who want to author and use 3D animations have been increasing.

이에 따라, 어린이 및 초보자를 포함하는 일반인이 3차원 애니메이션을 직접 저작할 수 있는 비전문가용 툴이 개발되었으며, 이러한 비전문가용 툴은 사용자가 객체의 경로와 동작을 동시에 화면 상에 그려서 입력해오면 그 경로와 동작에 따라 객체에 대한 애니메니션을 생성하는 특징을 가지지만, 객체의 경로와 동작을 동시에 입력받으므로 경로와 동작 둘 다 정확한 입력이 불가한 문제가 있으며 입력 가능한 동작도 매우 제한적일 수밖에 없었다.Accordingly, non-professional tools have been developed for general users, including children and beginners, to directly create 3D animations. These non-professional tools have the paths and motions of objects drawn on the screen at the same time. Although it has the feature of creating animations for objects according to the and operations, there is a problem that accurate input is not possible for both the path and the operation because the object and the path are input at the same time.

따라서, 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있고, 객체의 경로와 동작의 정확한 입력이 가능한 애니메이션 저작 툴의 개발에 대한 기대가 높아지고 있다.Accordingly, there is a growing expectation for the development of animation authoring tools that can easily author 3D animations and accurately input paths and motions of objects.

본 발명은 상기와 같은 종래의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 어린이와 초보자를 비롯한 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있고, 객체의 경로와 동작의 정확한 입력이 가능한 애니메이션 저작 시스템 및 애니메이션 저작 방법을 제공하는 것이다.The present invention is to solve the conventional problems as described above, the object of the present invention can be easily authored 3D animation, including children and beginners, animation authoring system that can accurately input the path and motion of the object And an animation authoring method.

상기와 같은 목적을 달성하기 위한 애니메이션 저작 방법은, a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계; b) 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 단계; 및c) 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.An animation authoring method for achieving the above object comprises the steps of: a) receiving a plane path of an object from a user on a predetermined reference plane; b) generating an operation window formed along the plane path to form a predetermined angle with a reference plane, and receiving operation information of the object from the user on the operation window; And c) implementing an animation according to the input motion information; And a control unit.

상기와 같은 목적을 달성하기 위한 애니메이션 저작 시스템은, 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈; 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 동작 윈도우 모듈; 및 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 애니메이션 구현부; 를 포함하여 구성된 것을 특징으로 한다.An animation authoring system for achieving the above object, the plane path module for receiving a plane path of the object from the user on a predetermined reference plane; An operation window module formed along the plane path to generate an operation window having a predetermined angle with a reference plane, and receiving operation information of the object from the user on the operation window; An animation implementer for implementing animation according to the input motion information; Characterized in that configured to include.

상기와 같은 목적을 달성하기 위한 컴퓨터로 판독 가능한 기록 매체는, 전술한 애니메이션 저작 시스템을 구현하는 프로그램이 기록되는 기록 매체를 포함하는 것을 특징으로 한다.A computer-readable recording medium for achieving the above object is characterized by including a recording medium on which a program for implementing the above-described animation authoring system is recorded.

상기와 같은 구성 및 방법을 가지는 본 발명은, 객체의 경로 및 동작 정보를 사용자가 타블렛 펜 등과 같은 간편한 입력 수단을 통해 스케치하는 방법으로 입력할 수 있으므로 어린이와 초보자를 비롯한 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있는 장점이 있으며, 객체의 경로를 입력받은 후에 경로에 따른 동작을 입력받으므로 객체의 경로와 동작의 정확한 입력이 가능한 장점이 있다.According to the present invention having the above-described configuration and method, the user can input the path and motion information of the object by a sketching method through a simple input means such as a tablet pen. There is an advantage that can be authored, and since the operation according to the path is received after receiving the path of the object, there is an advantage that can accurately input the path and the action of the object.

도 1은 본 발명의 바람직한 실시예에 따른 애니메이션 저작 시스템을 도시한 블록도.
도 2a 내지 도 2g는 도 1의 애니메이션 저작 시스템의 구성을 설명하기 위한 참고도.
도 3은 본 발명의 바람직한 실시예에 따른 애니메이션 저작 방법을 도시한 블록도.
1 is a block diagram illustrating an animation authoring system in accordance with a preferred embodiment of the present invention.
2A to 2G are reference diagrams for explaining the configuration of the animation authoring system of FIG.
3 is a block diagram illustrating an animation authoring method according to a preferred embodiment of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따른 애니메이션 저작 시스템 및 애니메이션 저작 방법에 대하여 설명하면 다음과 같다.Hereinafter, an animation authoring system and an animation authoring method according to a preferred embodiment of the present invention will be described with reference to the accompanying drawings.

먼저, 도 1 내지 도 2g를 참조하여 본 발명의 바람직한 실시예에 따른 애니메이션 저작 시스템에 대하여 설명하면 다음과 같다.First, an animation authoring system according to a preferred embodiment of the present invention will be described with reference to FIGS. 1 to 2G.

도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 애니메이션 저작 시스템은, 사용자에게 기준 평면을 표시하는 제 1 화면을 제공하고, 사용자가 기준 평면 상에 그리는 객체의 평면 경로를 입력받는 평면 경로 모듈(101); 상기 평면 경로를 따라 동작 윈도우를 생성하여 사용자에게 동작 윈도우를 표시하는 제 2 화면을 제공하고, 사용자가 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터를 입력받는 동작 윈도우 모듈(102); 상기 제스처 데이터를 미리 저장된 동작 데이터 중에 대응되는 것으로 변환한 후에, 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 분석 모듈(103); 및 상기 동작 시퀀스에 따라 애니메이션을 구현하는 애니메이션 구현부(104); 를 포함하여 구성된다.Referring to FIG. 1, the animation authoring system according to a preferred embodiment of the present invention provides a first screen displaying a reference plane to a user and receives a plane path of an object drawn by the user on the reference plane. 101; The operation window module 102 generates a motion window along the plane path to provide a second screen displaying the motion window to the user, and receives gesture data and parameters when the user draws a gesture on the motion of the object on the motion window. ); An analysis module (103) for converting the gesture data into a corresponding one among prestored motion data and then organizing the gesture data together with the parameters to generate an action sequence; And an animation implementing unit 104 for implementing animation according to the motion sequence. It is configured to include.

상기와 같은 구성을 가지는 본 발명의 바람직한 실시예에 따른 메모리 관리 모듈의 각 구성 요소에 대하여 상세히 설명하면 다음과 같다.
Each component of the memory management module according to the preferred embodiment of the present invention having the above configuration will be described in detail as follows.

도 1을 참조하면, 상기 평면 경로 모듈(101)은 평면 경로 스케치부(101a)와 평면 경로 제어부(101b)를 포함하여 구성된다.Referring to FIG. 1, the planar path module 101 includes a planar path sketcher 101a and a planar path controller 101b.

상기 평면 경로 모듈(101)의 평면 경로 스케치부(101a)는 3차원 공간의 기준 평면을 나타내는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜이나 마우스 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 그리는 객체(예 : 관절을 가지는 캐릭터)의 평면 경로를 입력받아 샘플링하고 근사화하여 저장한다. 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있는데, 이러한 유니폼 큐빅 비-스플라인 보간법은 지역 조정(local modification)의 속성과 affine invariance 속성을 가지는 장점이 있다.The planar path sketching unit 101a of the planar path module 101 provides a user with a first screen indicating a reference plane in a three-dimensional space, and the user uses the input means such as a tablet pen or a mouse to provide the first screen. Sampling, approximating and storing the plane path of an object (eg, a character with a joint) that draws on the reference plane of. In this case, uniform cubic B-spline interpolation may be used to sample and approximate the planar path, and uniform cubic non-spline interpolation may be performed by using local modification and affine invariance. It has its advantages.

도 2a에는 상기 평면 경로 스케치부(101a)가 제공하는 제 1 화면에 나타난 기준 평면 상에 사용자가 타블렛 펜을 이용하여 객체의 평면 경로를 그리는 모습을 도시하였다. 여기서, x, y, z축을 포함하는 3차원 공간을 기준으로 하면 상기 기준 평면은 x, y축이 이루는 바닥면(ground plane)이다.FIG. 2A illustrates a user drawing a plane path of an object using a tablet pen on a reference plane displayed on the first screen provided by the plane path sketcher 101a. Here, the reference plane is a ground plane formed by the x and y axes, based on a three-dimensional space including the x, y, and z axes.

상기 평면 경로 모듈(101)의 평면 경로 제어부(101b)는 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하고 나머지 영역은 사용하지 않는다.When the plane path controller 101b of the plane path module 101 inputs a correction path that intersects the plane path drawn by the user at least once, the plane path control unit 101b divides the correction path into a plurality of areas based on the intersection and then the plurality of areas. Replace the longest region with part of the planar path and do not use the rest.

도 1을 참조하면, 상기 동작 윈도우 모듈(102)은 제스처 스케치부(102a)와 가상 카메라부(102b)를 포함하여 구성된다.Referring to FIG. 1, the operation window module 102 includes a gesture sketch unit 102a and a virtual camera unit 102b.

상기 동작 윈도우 모듈(102)의 제스처 스케치부(102a)는 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 동작 윈도우를 생성하여 사용자에게 동작 윈도우를 표시하는 제 2 화면을 가상 카메라부(102b)를 이용하여 제공하고, 사용자가 타블렛 펜이나 마우스 등의 입력 수단을 이용하여 상기 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터가 입력된다.The gesture sketch unit 102a of the operation window module 102 generates a second operation window along the plane path input through the plane path module 101 to display a second screen displaying the operation window to the user. ), And when the user draws a gesture on an operation of the object on the operation window using an input means such as a tablet pen or a mouse, gesture data and parameters are input.

여기서, 상기 파라미터는 객체의 속도 및 높이 등을 포함할 수 있으며, 객체의 속도는 사용자가 제스처를 그려나가는 속도에 대응되고 객체의 높이는 사용자가 그린 제스처의 높이에 대응된다. 이때, 상기 제스처의 높이의 기준은 사용자가 그린 평면 경로이다.Here, the parameter may include a speed and height of an object, and the speed of the object corresponds to the speed at which the user draws the gesture and the height of the object corresponds to the height of the gesture drawn by the user. At this time, the reference of the height of the gesture is a plane path drawn by the user.

도 2b에는 상기 동작 윈도우 모듈(102)의 제스처 스케치부가 제공하는 제 2 화면에 나타난 동작 윈도우의 모습을 도시하였다.FIG. 2B illustrates the operation window shown on the second screen provided by the gesture sketch unit of the operation window module 102.

상기 동작 윈도우는 기준 평면 상에 스케치된 평면 경로로부터 수직으로 상부 방향으로 연장되어 형성된 면으로서 소정의 상하 폭을 가지고 형성된다.The operation window is a surface formed extending in an upward direction vertically from a plane path sketched on a reference plane, and has a predetermined upper and lower width.

도 2b에는 상기 동작 윈도우가 기준 평면 및 평면 경로와 수직을 이루는 경우를 예로 하였지만 설명의 편의를 위한 것으로서 본 발명이 이에 한정되는 것은 아니며, 상기 동작 윈도우는 기준 평면 및 평면 경로와 수직이 아닌 소정 각도를 이룰 수도 있다.Although FIG. 2B illustrates an example in which the operation window is perpendicular to the reference plane and the planar path, for convenience of description, the present invention is not limited thereto, and the operation window is a predetermined angle that is not perpendicular to the reference plane and the planar path. May be achieved.

상기 동작 윈도우 모듈(102)의 제스처 스케치부(102a)는 사용자로부터 객체의 동작에 대한 제스처 데이터를 입력받는데 있어서, 움직이는 동작(예 : 걷는 동작, 달리는 동작, 뜀뛰는 동작 등)과 제자리 동작(예 : 인사 동작, 경례 동작 등)을 포함한 다양한 동작에 대한 제스처 데이터를 입력받을 수 있다. The gesture sketch unit 102a of the operation window module 102 receives movement data (eg, a walking motion, a running motion, a skipping motion, etc.) and an in-situ motion (eg, a motion) for receiving gesture data about an object's motion from a user. : Gesture data for various gestures, including greetings, salutes, etc.) can be input.

도 2c에는 제스처 스케치부(102a)가 객체의 제자리 동작에 대한 제스처 데이터를 사용자로부터 입력받는 경우에 사용자에게 보여지는 제 2 화면 상의 모습을 도시하였다.FIG. 2C illustrates a second screen that is displayed to the user when the gesture sketcher 102a receives gesture data regarding an in-place motion of an object from the user.

도 2c를 참조하면, 상기 제스처 스케치부(102a)는 사용자가 제스처를 스케치하는 도중에 3차원 공간의 z축에 대응되는 방향으로 선을 그어 올린 후에 소정 시간 머무르면 제자리 동작 선택 메뉴를 사용자에게 보여주고 사용자로부터 제자리 동작 중에 하나를 선택/입력 받는다.Referring to FIG. 2C, the gesture sketching unit 102a shows the user's motion selection menu when the user draws a line in a direction corresponding to the z-axis of the three-dimensional space while sketching the gesture and stays there for a predetermined time. Select / enter one of the in-place operations from

상기 동작 윈도우 모듈(102)의 가상 카메라부(102b)는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 동작 윈도우 및 사용자가 스케치하는 제스처가 제 2 화면 상에 표시되도록 하는 가상 카메라를 포함한다.The virtual camera unit 102b of the operation window module 102 is photographed while moving along the movement direction of the gesture at a predetermined distance from the operation window so that the operation window and the gesture sketched by the user are displayed on the second screen. It includes a virtual camera.

도 2d에는 상기 가상 카메라가 도 2b에 나타낸 바와 같은 동작 윈도우를 따라 이동하는 모습을 도시하였다.In FIG. 2D, the virtual camera moves along an operation window as shown in FIG. 2B.

도 2d를 참조하면, 상기 가상 카메라는 동작 윈도우와는 소정 거리(d)를 두고 동작 윈도우의 상하 폭의 반에 해당하는 높이(h)에 위치하여 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 가상 카메라가 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있으며, 이러한 캐트멀 롬 스플라인은 동작 윈도우 상의 제어점(control point)을 지나므로 사용자에게 제스처의 스케치가 쉬운 화면을 보여줄 수 있는 장점이 있다.Referring to FIG. 2D, the virtual camera is located at a height h corresponding to half of an upper and lower width of the operation window at a predetermined distance d from the operation window, and photographs the operation window through the second screen. To the user. Here, a catmull-rom-spline interpolation method may be used to display a state in which the virtual camera photographs an operation window on a second screen, and such a cathrom-rom spline may be used as a control point on the operation window. Point) has the advantage of showing the user the easy screen sketch of the gesture.

도 2e에는 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에 가상 카메라가 줌 아웃(zoom out)을 수행하는 예와, 사용자가 제스처를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어 스케치하는 경우에 가상 카메라가 왼쪽 또는 오른쪽으로 스크롤링(scrolling)을 수행하는 예를 함께 도시하였다.FIG. 2E illustrates an example in which the virtual camera zooms out when the user draws the gesture out of the operation window, and the user sketches while moving the gesture in a predetermined direction and then changes the progress direction in the opposite direction. An example of a virtual camera scrolling to the left or the right is shown together.

도 2e를 참조하면, 상기 가상 카메라는 사용자가 스케치하는 제스처가 동작 윈도우 내에 있는 경우에는 실선 사각형에 대응되는 영역, 즉 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 점선 사각형에 대응되는 영역, 즉 동작 윈도우의 상하폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.Referring to FIG. 2E, when the gesture sketched by the user is in the operation window, the virtual camera provides an area corresponding to a solid rectangle, that is, an area corresponding to the upper and lower widths of the operation window, to the user through the second screen. When the gesture drawn by the user leaves the operation window, zoom out is performed to provide the user with an area corresponding to the dotted rectangle, that is, an area longer than the upper and lower widths of the operation window, through the second screen.

또한, 도 2e를 참조하면, 상기 가상 카메라는 사용자가 제스처를 소정 방향(예 : 도 2e에서 오른쪽 방향)으로 진행하면서 스케치하다가 반대 방향(예 : 도 2e에서 왼쪽 방향)으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향에 대응되는 방향(예 : 도 2e에서 왼쪽 방향)으로 스크롤링을 수행함으로써, 사용자가 스케치하는 제스처의 진행 방향을 따라 진행하면서 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.In addition, referring to FIG. 2E, the virtual camera sketches while the user moves the gesture in a predetermined direction (for example, to the right in FIG. 2E) and then changes the travel direction in the opposite direction (for example, to the left in FIG. 2E). In this case, by scrolling in a direction corresponding to the opposite direction (for example, the left direction in FIG. 2E), the user photographs the action window while proceeding along the progress direction of the gesture sketched by the user through the second screen. To provide.

상기 가상 카메라는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동할 시에 동작 윈도우의 소정 길이에 대한 가상 카메라의 이동 거리를 체크하여 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 동작 윈도우를 따르지 않고 최단 경로로 이동한다.The virtual camera is an area that is bent when the moving distance of the virtual camera is longer than a predetermined threshold by checking the moving distance of the virtual camera with respect to the predetermined length of the operating window when moving along the movement direction of the gesture at a predetermined distance from the operating window. It judges and moves to the shortest path without following the operation window.

도 2f의 위쪽과 도 2g의 위쪽에는 상기 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 모습의 예를 도시하였고, 도 2f의 아래쪽과 도 2g의 아래쪽에는 상기 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 상기 꺾인 영역(a, d)과, 가상 카메라의 이동 경로(b, e)와, 카메라 오프셋 세그먼트(c, f)들의 예를 도시하였다. 여기서, 도 2f에는 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 가상 카메라가 상기 꺾인 영역 외부를 따라 이동(outside turn)하는 경우를 도시하고, 도 2g에는 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 가상 카메라가 상기 꺾인 영역 내부를 따라 이동(inside turn)하는 경우를 도시하였다.An example of a state in which the operation window is bent at a predetermined angle is shown above the upper part of FIG. 2F and FIG. 2G, and the operation window is an area bent at a predetermined angle in the lower part of FIG. 2F and a lower part of FIG. 2G. An example of the bent regions a and d, the moving paths b and e of the virtual camera, and the camera offset segments c and f are shown in FIG. Here, FIG. 2F illustrates a case in which the virtual camera moves outside the bent area when the operation window has an area bent at a predetermined angle. In FIG. 2G, the operation window has an area that is bent at a predetermined angle. In this case, a case in which the virtual camera moves inside the bent region is illustrated.

도 2f를 참조하면, 상기 가상 카메라는 카메라 오프셋 세그먼트(c) 두 개가 교차하지 않고 가상 카메라의 이동 길이(l i )가 제 1 문턱치(l 1 )보다 긴 경우에 가상 카메라가 동작 윈도우의 꺾인 영역의 외부를 따라 이동하고 있다고 판단하여, 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다. Referring to FIG. 2F, the virtual camera is an area in which the virtual camera is bent in the operation window when two camera offset segments c do not intersect and the moving length l i of the virtual camera is longer than the first threshold l 1 . It determines that it is moving along the outside, and it moves along the shortest path | route rather than an operation window, and leaves the area | region which was bent.

도 2g를 참조하면, 상기 가상 카메라는 카메라 오프셋 세그먼트(f) 두 개가 교차하고 가상 카메라의 이동 길이(l i )가 제 2 문턱치(l 2 )보다 긴 경우에는 가상 카메가 동작 윈도우의 꺾인 영역의 내부를 따라 이동하고 있다고 판단하여, 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다. 여기서, 제 1 문턱치(l 1 )는 제 2 문턱치(l 2 )보다 길다.Referring to FIG. 2G, when the two camera offset segments f cross each other and the moving length l i of the virtual camera is longer than the second threshold l 2 , the virtual camera may include a curved area of the virtual camera operation window. It determines that it is moving along the inside, and moves along the shortest path, not the operation window, to leave the bent area. Here, the first threshold l 1 is longer than the second threshold l 2 .

상기와 같이 가상 카메라가 꺾인 영역의 외부 또는 내부를 따라 이동하고 있다고 판단한 경우에 상기 동작 윈도우 모듈(102)은 사용자가 현재 스케치하고 있는 제스처의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하며, 상기 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 동작 윈도우 모듈(102)은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 스케치를 이어나갈 수 있도록 한다.When it is determined that the virtual camera is moving along the outside or the inside of the bent region as described above, the operation window module 102 places a stop mark at the position of the gesture currently sketched by the user and includes a sketch speed. After the virtual camera moves through the shortest path and leaves the bent area, the operation window module 102 allows the user to continue the sketch in the previously saved sketch state at the position where the stop mark is taken. .

도 1을 참조하면, 상기 분석 모듈(103)은 제스처 분석부(103a)와 제스처 제어부(103b)를 포함하여 구성된다.Referring to FIG. 1, the analysis module 103 includes a gesture analyzer 103a and a gesture controller 103b.

상기 분석 모듈(103)의 제스처 분석부(103a)는 동작 윈도우 모듈(102)로부터 제스처 데이터 및 파라미터를 입력받으며, 제스처 데이터를 구역화(구역 단위 : 하나의 제스처)를 수행한 후에 상기 구역화한 각 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하여 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성한다. 여기서, 상기 제스처 분석부(103a)가 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하는데 있어서는 코너-디텍션 알고리즘(corner-detection algorithm)을 이용할 수 있다.The gesture analyzing unit 103a of the analyzing module 103 receives gesture data and parameters from the operation window module 102, and performs the zoning (zone unit: one gesture) of the gesture data and then the zoning gestures. The operation sequence is generated by converting the data into a corresponding one among prestored motion data and arranging the data with the parameter according to time. Here, a corner-detection algorithm may be used by the gesture analyzer 103a to convert gesture data into corresponding ones among prestored motion data.

상기 미리 저장된 동작 데이터들은 객체가 취할 수 있는 다수의 동작을 포함하는데, 비슷한 동작에 대한 동작 데이터들에 대응되는 제스처 데이터들이 비슷하다면 동작 윈도우 모듈(102)의 제스처 스케치부(102a)를 통해 사용자가 제스처를 스케치하는데 있어서 편리하게 수행할 수 있을 것이다.The pre-stored motion data includes a plurality of motions that an object can take. If gesture data corresponding to motion data for a similar motion are similar, the gesture sketch unit 102a of the motion window module 102 may be used. It may be convenient to sketch the gesture.

상기 분석 모듈(103)의 제스처 분석부(103a)는 동작 시퀀스에 파라미터를 포함시키는데 있어서 각 동작 데이터 간의 경계에 대응되는 소정 시간 동안은 상기 파라미터 중에 속도가 완만한 변화 곡선을 가질 수 있도록 변경함으로써, 이후에 애니메이션을 구현하였을 시에 개체의 동작이 자연스럽게 이루어질 수 있도록 할 수 있을 것이다.The gesture analyzing unit 103a of the analysis module 103 changes the speed of the parameter to have a smooth change curve for a predetermined time corresponding to the boundary between the motion data in including the parameter in the motion sequence. Afterwards, when the animation is implemented, the movement of the object may be naturally performed.

상기 분석 모듈(103)의 제스처 제어부(103b)는 사용자가 입력한 제스처 데이터 중에서 본 발명에 따른 애니메이션 저작 시스템에서 인식 불가한 데이터가 있는 경우에 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체하는 기능을 한다.The gesture controller 103b of the analysis module 103 replaces a function of replacing gesture data corresponding to a pre-stored basic operation when there is data that is not recognizable by the animation authoring system according to the present invention among gesture data input by the user. do.

즉, 상기 제스처 제어부(103b)는 제스처 분석부(103a)로부터의 각 제스처 데이터가 미리 저장된 동작 데이터들 중 적어도 하나에 대응되지 않아 인식이 불가한지를 판단하여, 인식이 불가하다고 판단되면 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체한 후에 제스처 분석부(103a)로 출력한다.That is, the gesture controller 103b determines whether recognition is not possible because each gesture data from the gesture analyzer 103a does not correspond to at least one of prestored motion data. Substitutes the gesture data corresponding to the operation and outputs the gesture data to the gesture analyzer 103a.

도 1을 참조하면, 상기 애니메이션 구현부(104)는 상기 분석 모듈(103)로부터 입력받은 동작 시퀀스를 이용하여 3차원 애니메이션을 구현한다.
Referring to FIG. 1, the animation implementation unit 104 implements a 3D animation using an operation sequence received from the analysis module 103.

이하, 도 3을 참조하여 본 발명의 바람직한 실시예에 따른 애니메이션 저작 방법에 대하여 설명한다.Hereinafter, an animation authoring method according to a preferred embodiment of the present invention will be described with reference to FIG. 3.

먼저, 평면 경로 모듈(101)은 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜이나 마우스 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 스케치하는 객체의 평면 경로를 샘플링하고 근사화하여 저장한다.(S101) 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있다.First, the plane path module 101 provides a user with a first screen displaying a reference plane, and the plane of the object that the user sketches on the reference plane of the first screen using an input means such as a tablet pen or a mouse. The path is sampled, approximated, and stored. (S101) In this case, uniform cubic B-spline interpolation may be used to sample and approximate the planar path.

다음으로, 상기 평면 경로 모듈(101)은 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력하는지 판단하여(S102), 수정 경로가 입력되었다고 판단되면 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체한다.(S103)Next, the plane path module 101 determines whether a user inputs a correction path that intersects the plane path drawn at least once (S102), and when it is determined that the correction path is input, the plurality of areas of the correction path based on the intersection point. After dividing by, the longest region of the plurality of regions is replaced by a portion of the planar path (S103).

다음으로, 동작 윈도우 모듈(102)은 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 동작 윈도우를 생성하고(S104), 상기 동작 윈도우를 표시하는 제 2 화면을 가상 카메라를 이용하여 사용자에게 제공하여, 사용자가 타블렛 펜이나 마우스 등의 입력 수단을 이용하여 상기 동작 윈도우 상에 객체의 동작에 대한 제스처를 스케치하면 제스처 데이터 및 파라미터가 입력된다.(S105)Next, the operation window module 102 generates an operation window along the plane path input through the plane path module 101 (S104), and displays a second screen displaying the operation window to the user using a virtual camera. If the user sketches a gesture on the operation of the object on the operation window by using an input means such as a tablet pen or a mouse, gesture data and parameters are input (S105).

여기서, 상기 동작 윈도우는 기준 평면 및 평면 경로와 수직을 이루거나 또는 수직이 아닌 소정 각도를 이룰 수 있다.Here, the operation window may be perpendicular to the reference plane and the planar path, or may be at an angle that is not vertical.

상기 파라미터는 객체의 속도 및 높이 등을 포함할 수 있으며, 객체의 속도는 사용자가 제스처를 그려나가는 속도에 대응되고 객체의 높이는 사용자가 그린 제스처의 높이에 대응된다.The parameter may include a speed and height of an object, and the speed of the object corresponds to the speed at which the user draws the gesture and the height of the object corresponds to the height of the gesture drawn by the user.

상기 동작 윈도우 모듈(102)은 사용자로부터 객체의 동작에 대한 제스처 데이터를 입력받는데 있어서 움직이는 동작(예 : 걷는 동작, 달리는 동작, 뜀뛰는 동작 등)과 제자리 동작(예 : 인사 동작, 경례 동작 등)을 포함한 다양한 동작에 대한 제스처 데이터를 입력받을 수 있으며, 제자리 동작에 대한 제스처 데이터를 입력받는데 있어서는 사용자가 제스처를 스케치하는 도중에 3차원 공간의 z축에 대응되는 방향으로 선을 그어 올린 후에 소정 시간 머무르면 제자리 동작 선택 메뉴를 사용자에게 제공하여 사용자로부터 제자리 동작 중에 하나를 선택/입력 받는다.The motion window module 102 may be configured to receive motion data (eg, walking, running, skipping, etc.) and in-place motions (eg, greetings, salutes, etc.) in receiving gesture data about an object's motion from a user. Gesture data for various motions can be input, including gesture data for in-situ motions. When the user draws a line in a direction corresponding to the z-axis of a three-dimensional space while sketching a gesture, the user stays for a predetermined time. In-situ motion selection menu is provided to the user to select / enter one of the in-situ motions from the user.

상기 가상 카메라는 평면 경로와 소정 거리를 두고 제스처의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 동작 윈도우 및 사용자가 스케치하는 제스처가 제 2 화면 상에 표시되도록 한다.The virtual camera photographs while moving along the movement direction of the gesture at a predetermined distance from the plane path so that the operation window and the gesture sketched by the user are displayed on the second screen.

상기 가상 카메라는 동작 윈도우와는 소정 거리를 두고 동작 윈도우의 상하 폭의 반에 해당하는 높이에 위치하여 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 가상 카메라가 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있다.The virtual camera is located at a height corresponding to half of the upper and lower widths of the operation window at a predetermined distance from the operation window, and provides the user with a second screen to photograph the operation window. Here, the catmull-rom-spline interpolation method may be used to display the virtual camera photographing the operation window on the second screen.

상기 가상 카메라는 사용자가 스케치하는 제스처가 동작 윈도우 내에 있는 경우에는 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 동작 윈도우의 상하 폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.The virtual camera provides the user with an area corresponding to the upper and lower widths of the operation window through the second screen when the gesture sketched by the user is in the operation window, and zooms out when the gesture drawn by the user leaves the operation window. zoom out) to provide an area longer than the upper and lower widths of the operation window to the user through the second screen.

그리고, 상기 가상 카메라는 사용자가 제스처를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향과 대응되는 방향으로의 스크롤링을 수행함으로써, 사용자가 스케치하는 제스처의 진행 방향을 따라 진행하면서 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.The virtual camera performs scrolling in a direction corresponding to the opposite direction when the user sketches while moving the gesture in a predetermined direction, and sketches by changing the direction of travel in the opposite direction. Proceeding along the direction, it provides the user with a picture of the action window on the second screen.

상기 가상 카메라는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동할 시에 동작 윈도우의 소정 길이에 대한 가상 카메라의 이동 거리를 체크하여 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 동작 윈도우를 따르지 않고 최단 경로로 이동한다. 이와 관련한 상세한 설명은 위에서 본 발명의 실시예에 따른 애니메이션 저작 시스템에 대하여 설명함에 있어서 도 2f와 도 2g를 참조하여 설명한 부분을 참조하도록 한다.The virtual camera is an area that is bent when the moving distance of the virtual camera is longer than a predetermined threshold by checking the moving distance of the virtual camera with respect to the predetermined length of the operating window when moving along the movement direction of the gesture at a predetermined distance from the operating window. It judges and moves to the shortest path without following the operation window. For a detailed description related to this, in the description of the animation authoring system according to the embodiment of the present invention, refer to the parts described with reference to FIGS. 2F and 2G.

상기와 같이 가상 카메라가 동작 윈도우의 꺾인 영역을 따라 이동하고 있다고 판단한 경우에 상기 동작 윈도우 모듈은 사용자가 현재 스케치하고 있는 제스처의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하고, 이후에 상기 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 동작 윈도우 모듈은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 제스처 스케치를 이어나갈 수 있도록 한다.When it is determined that the virtual camera is moving along the bent area of the motion window as described above, the motion window module places a stop mark at the position of the gesture that the user is currently sketching and stores the current sketch state including the sketch speed. Thereafter, after the virtual camera moves through the shortest path and leaves the bent area, the operation window module allows the user to continue the gesture sketch in the previously saved sketch state at the position where the stop mark is taken.

다음으로, 분석 모듈(103)은 동작 윈도우 모듈로부터 입력된 제스처 데이터의 구역화(구역 단위 : 하나의 제스처)를 수행한다.(S106)Next, the analysis module 103 performs zoning (zone unit: one gesture) of gesture data input from the operation window module. (S106)

다음으로, 상기 분석 모듈(103)은 구역화된 각 제스처 데이터가 미리 저장된 동작 데이터들 중에 적어도 하나에 대응되어 인식이 가능한지를 판단한다.(S107)Next, the analysis module 103 determines whether each of the zoned gesture data corresponds to at least one of prestored motion data and can be recognized (S107).

다음으로, 상기 분석 모듈(103)은 구역화된 각 제스처 데이터가 미리 저장된 동작 데이터들 중에 적어도 하나에 대응되지 않아 인식이 불가하다고 판단되는 경우에는 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체하고(S108), 인식이 가능하다고 판단되는 경우에는 다음 단계(S109)로 진행한다.Next, when it is determined that recognition is not possible because each of the zoned gesture data does not correspond to at least one of the prestored gesture data, the analysis module 103 replaces the gesture data corresponding to the prestored basic gesture (S108). If it is determined that recognition is possible, the process proceeds to the next step S109.

다음으로, 상기 분석 모듈(103)은 각 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하여 동작 윈도우 모듈로부터의 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성한다.(S110) 여기서, 분석 모듈(103)이 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하는데 있어서는 코너-디텍션 알고리즘(corner-detection algorithm)을 이용할 수 있다.Next, the analysis module 103 converts each gesture data into a corresponding one among pre-stored motion data, and organizes them according to time together with parameters from the operation window module to generate an operation sequence (S110). The module 103 may use a corner-detection algorithm in converting the gesture data into a corresponding one among prestored motion data.

이때, 상기 분석 모듈(103)은 동작 시퀀스에 파라미터를 포함시키는데 있어서 각 동작 데이터 간의 경계에 대응되는 소정 시간 동안은 상기 파라미터 중에 속도가 완만한 변화 곡선을 가질 수 있도록 변경함으로써, 이후에 애니메이션을 구현하였을 시에 개체의 동작이 자연스럽게 이루어질 수 있도록 할 수 있을 것이다.In this case, the analysis module 103 changes the speed of the parameter to have a smooth change curve for a predetermined time corresponding to the boundary between the motion data in including the parameter in the motion sequence, thereby realizing an animation thereafter. When you do this will be able to make the movement of the object naturally.

다음으로, 애니메이션 구현부(104)는 상기 분석 모듈(103)로부터 입력받은 동작 시퀀스를 이용하여 3차원 애니메이션을 구현한다.(S111)Next, the animation implementation unit 104 implements a three-dimensional animation using the operation sequence received from the analysis module 103. (S111)

다음으로, 상기 동작 윈도우 모듈(103)은 사용자가 객체의 동작에 대한 제스처를 스케치하는 작업을 종료했는지 판단하여(S112), 종료했다고 판단되면 애니메이션 저작을 종료하고, 종료하지 않았다고 판단되면 상술한 동작 윈도우 모듈(103)로부터 입력된 제스처 데이터를 구역화하는 단계(S106)부터 반복 수행한다.
Next, the operation window module 103 determines whether the user has finished the sketching gesture for the operation of the object (S112). If it is determined that the operation is terminated, the animation operation is terminated. The gesture data input from the window module 103 is repeatedly zoned from step S106.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예 : ROM, 플로피 디스트, 하드 디스크, 자기 테이트 등), 광학적 판독 매체(예 : CD-ROM, DVD, 광데이터 저장 장치 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)과 같은 저장 매체를 포함한다.
Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates a program using a computer-readable recording medium. Computer-readable recording media include magnetic storage media (e.g. ROM, floppy disks, hard disks, magnetic data, etc.), optical reading media (e.g. CD-ROMs, DVDs, optical data storage devices, etc.) and carrier waves (e.g., Storage media such as, for example, transmission over the Internet.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes, and substitutions may be made by those skilled in the art without departing from the essential characteristics of the present invention. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical spirit of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by the embodiments and the accompanying drawings. . The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

101 : 평면 경로 모듈
101a : 평면 경로 스케치부 101b : 평면 경로 제어부
102 : 수직 동작 윈도우 모듈
102a : 제스처 스케치부 102b : 가상 카메라부
103 : 분석 모듈
103a : 제스처 분석부 103b : 제스처 제어부
104 : 애니메이션 구현부
101: planar path module
101a: planar path sketch 101b: planar path control
102: vertical motion window module
102a: gesture sketch unit 102b: virtual camera unit
103: analysis module
103a: gesture analysis unit 103b: gesture control unit
104: animation implementation unit

Claims (22)

a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계;
b) 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 단계; 및
c) 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 단계;
를 포함하는 것을 특징으로 하는 애니메이션 저작 방법.
a) receiving a planar path of an object from a user on a predetermined reference plane;
b) generating an operation window formed along the plane path to form a predetermined angle with a reference plane, and receiving operation information of the object from the user on the operation window; And
c) implementing an animation according to the input motion information;
Animation authoring method comprising a.
제 1 항에 있어서, 상기 a) 단계에서는, 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하여, 사용자가 기준 평면 상에 스케치하는 객체의 평면 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.The method of claim 1, wherein in the step a), the user is provided with a first screen displaying a reference plane, and the user receives a plane path of an object sketched on the reference plane. 제 1 항에 있어서, 상기 b) 단계에서는, 동작 윈도우를 표시하는 제 2 화면을 사용자에게 제공하여, 사용자가 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터를 포함하는 객체의 동작 정보를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.The object of claim 1, wherein in the step b), a second screen displaying an operation window is provided to the user, and when the user draws a gesture on the operation window on the operation window, the object includes gesture data and parameters. Animation authoring method, characterized in that receiving information. 제 3 항에 있어서, c) 단계는,
c1) 상기 제스처 데이터를 미리 저장된 동작 데이터 중에 대응되는 것으로 변환한 후에, 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 단계; 및
c2) 상기 동작 시퀀스에 따라 애니메이션을 구현하는 단계;
를 포함하는 애니메이션 저작 방법.
The method of claim 3, wherein step c)
c1) converting the gesture data into a corresponding one among pre-stored motion data, and generating a motion sequence by arranging according to time together with the parameter; And
c2) implementing animation according to the operation sequence;
Animation authoring method comprising a.
제 1 항에 있어서, a) 단계에서 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하는 것을 특징으로 하는 애니메이션 저작 방법.The method of claim 1, wherein in step a), when the user inputs a correction path that intersects the plane path drawn by the user at least once, the correction path is divided into a plurality of areas based on the intersection and the longest area among the plurality of areas is selected. An animation authoring method, characterized in that it is replaced by part of a planar path. 제 3 항에 있어서, 상기 b) 단계에서는 가상 카메라가 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동하면서 사용자에게 동작 윈도우 및 사용자가 그리는 제스처를 제 2 화면 상에 표시하는 것을 특징으로 하는 애니메이션 저작 방법.The method of claim 3, wherein in the step b), the virtual camera displays the operation window and the gesture drawn by the user on the second screen while the virtual camera moves along the movement direction of the gesture at a predetermined distance from the operation window. Animation authoring method. 제 6 항에 있어서, 상기 가상 카메라는 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에 줌 아웃(zoom out)을 하는 것을 특징으로 하는 애니메이션 저작 방법.The method of claim 6, wherein the virtual camera zooms out when the gesture drawn by the user leaves the operation window. 제 6 항에 있어서, 상기 가상 카메라는 제스처의 이동 방향이 반대 방향으로 바뀌는 경우에 상기 반대 방향에 대응되는 방향으로 스크롤링을 수행하는 것을 특징으로 하는 애니메이션 저작 방법.The method of claim 6, wherein the virtual camera scrolls in a direction corresponding to the opposite direction when the movement direction of the gesture changes in the opposite direction. 제 6 항에 있어서, 상기 가상 카메라는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동할 시에 평면 경로 중에 소정 각도로 꺾인 영역을 만나면, 동작 윈도우를 따르지 않고 최단 경로를 통해 이동하는 것을 특징으로 하는 애니메이션 저작 방법.The method of claim 6, wherein the virtual camera moves through the shortest path without following the operation window when the virtual camera encounters an area bent at a predetermined angle in the planar path when moving along the movement direction of the gesture at a predetermined distance from the operation window. Animation authoring method. 제 9 항에 있어서, 상기 가상 카메라는 평면 경로의 소정 길이에 대한 가상 카메라의 이동 거리를 체크하여 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하는 것을 특징으로 하는 애니메이션 저작 방법.10. The animation authoring method according to claim 9, wherein the virtual camera checks the moving distance of the virtual camera with respect to a predetermined length of the plane path and determines that the virtual camera is a bent area when the moving distance of the virtual camera is longer than a predetermined threshold. 제 9 항에 있어서, 가상 카메라가 꺾인 영역을 만나게 되는 시점에는 사용자가 그리고 있는 제스처의 위치에 정지 마크를 찍고 현재 상태를 저장하고, 가상 카메라가 최단 경로를 통해 이동한 후에는 사용자가 상기 정지 마크가 찍힌 위치부터 다시 제스처를 스케치할 수 있도록 하는 것을 특징으로 하는 애니메이션 저작 방법.10. The method of claim 9, wherein when the virtual camera encounters the bent area, the user places a stop mark at the location of the gesture that the user is drawing and stores the current state, and after the virtual camera moves through the shortest path, the user stops the stop mark. An animation authoring method characterized in that the sketch can be sketched again from the position where the. 제 4 항에 있어서, 상기 c1) 단계는,
c11) 동작 윈도우 모듈로부터 입력된 제스처 데이터들을 구역화하는 단계;
c12) 상기 구역화한 각 제스처 데이터의 인식이 가능한지 판단하는 단계;
c13) 인식이 가능하다고 판단되면 제스처 데이터를 동작 데이터로 변환하고, 인식이 가능하지 않다고 판단되면 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체한 후에 동작 데이터로 변환하는 단계; 및
c14) 동작 데이터와 파라미터를 시간에 따라 정리하여 동작 시퀀스를 생성하는 단계;
를 포함하는 것을 특징으로 하는 애니메이션 저작 방법.
The method of claim 4, wherein c1) comprises:
c11) zoning gesture data input from an operation window module;
c12) determining whether each of the zoned gesture data can be recognized;
c13) converting gesture data into gesture data if it is determined that the recognition is possible, and converting the gesture data into gesture data after replacing the gesture data corresponding to the pre-stored basic gesture if it is determined that the recognition is not possible; And
c14) generating an operation sequence by arranging operation data and parameters over time;
Animation authoring method comprising a.
제 12 항에 있어서, 상기 c12) 단계에서는 각 제스처 데이터가 미리 저장된 동작 데이터들 중 하나에 대응되는지 판단하는 것을 특징으로 하는 애니메이션 저작 방법.The method of claim 12, wherein in step c12), each gesture data determines whether the gesture data corresponds to one of pre-stored motion data. 제 3 항에 있어서, 상기 파라미터는 객체의 속도와 높이를 포함하며, 상기 객체의 속도는 사용자가 제스처를 그려나가는 속도에 대응되고 상기 객체의 높이는 사용자가 그린 제스처의 높이에 대응되는 것을 특징으로 하는 애니메이션 저작 방법.The method of claim 3, wherein the parameter includes a speed and a height of an object, wherein the speed of the object corresponds to a speed at which the user draws a gesture and the height of the object corresponds to a height of a gesture drawn by the user. Animation authoring method. 제 3 항에 있어서, 상기 b) 단계에서는 사용자가 제스처를 그리는 도중에 수직으로 선을 그어 올린 후에 소정 시간 머무르면 제자리 동작 선택 메뉴를 사용자에게 보여주고 사용자가 제자리 동작 중에 하나를 선택하도록 하는 것을 특징으로 하는 애니메이션 저작 방법.The method of claim 3, wherein in the step b), if the user stays for a predetermined time after drawing a vertical line while drawing a gesture, the user selects one of the in-situ motion selection menus by displaying the in-situ motion selection menu. Animation authoring method. 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈;
상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 동작 윈도우 모듈; 및
상기 입력된 동작 정보에 따라 애니메이션을 구현하는 애니메이션 구현부;
를 포함하는 것을 특징으로 하는 애니메이션 저작 시스템.
A plane path module configured to receive a plane path of an object from a user on a predetermined reference plane;
An operation window module formed along the plane path to generate an operation window having a predetermined angle with a reference plane, and receiving operation information of the object from the user on the operation window; And
An animation implementer for implementing animation according to the input motion information;
Animation authoring system comprising a.
제 16 항에 있어서, 상기 평면 경로 모듈은 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하여, 사용자가 기준 평면 상에 그리는 객체의 평면 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 시스템.The animation authoring system of claim 16, wherein the plane path module provides a user with a first screen displaying a reference plane to receive a plane path of an object that the user draws on the reference plane. 제 16 항에 있어서, 상기 동작 윈도우 모듈은 동작 윈도우를 표시하는 제 2 화면을 사용자에게 제공하여, 사용자가 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터를 포함하는 객체의 동작 정보를 입력받는 것을 특징으로 하는 애니메이션 저작 시스템.The operation information of the object of claim 16, wherein the operation window module provides a user with a second screen displaying the operation window so that when the user draws a gesture on the operation of the object on the operation window, the operation window module includes gesture data and parameters. Animation authoring system, characterized in that for receiving an input. 제 18 항에 있어서, 상기 동작 윈도우 모듈로부터의 제스처 데이터를 미리 저장된 동작 데이터 중에 대응되는 것으로 변환한 후에 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 분석 모듈이 추가로 구비되는 것을 특징으로 하는 애니메이션 저작 시스템.19. The apparatus of claim 18, further comprising an analysis module for converting gesture data from the operation window module into a corresponding one among prestored motion data, and then organizing them according to time together with the parameter to generate an operation sequence. Animation authoring system. 제 19 항에 있어서, 상기 분석 모듈은 동작 윈도우 모듈로부터 입력된 제스처 데이터들을 구역화한 후에, 상기 구역화한 각 제스처 데이터의 인식이 가능한지 판단하여 인식이 가능하다고 판단되면 미리 저장된 동작 데이터 중에 대응되는 것으로 변환하고 인식이 가능하지 않다고 판단되면 미리 저장된 기본 동작에 대응되는 제스처로 대체한 후에 미리 저장된 동작 데이터 중에 대응되는 것으로 변환하여, 이후에 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 것을 특징으로 하는 애니메이션 저작 시스템.20. The method of claim 19, wherein the analysis module zones the gesture data input from the operation window module, and determines whether recognition of each of the zoned gesture data is possible. And if it is determined that the recognition is not possible, the motion sequence is replaced with a gesture corresponding to the pre-stored basic motion, and then converted into a corresponding one among the pre-stored motion data, and afterwards, the motion sequence is generated by arranging according to time together with the parameter. Animation authoring system. 제 20 항에 있어서, 상기 분석 모듈이 구역화한 각 제스처의 데이터의 인식이 가능한지 판단하는 작업은 각 제스처 데이터가 미리 저장된 동작 데이터들 중 하나에 대응되는지 판단하여 수행되는 것을 특징으로 하는 애니메이션 저작 시스템.The animation authoring system of claim 20, wherein the determining whether the analysis module is able to recognize the data of each gesture segmented is performed by determining whether each gesture data corresponds to one of prestored motion data. 컴퓨터로 판독 가능한 기록 매체에 있어서, 제 1 항 내지 제 14 항 중 어느 한 항에 따른 방법을 구현하는 프로그램이 기록되는 기록 매체.A computer-readable recording medium, wherein the program for implementing the method according to any one of claims 1 to 14 is recorded.
KR1020100048651A 2010-05-25 2010-05-25 Authoring system of animation and authoring method of animation KR101155045B1 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1020100048651A KR101155045B1 (en) 2010-05-25 2010-05-25 Authoring system of animation and authoring method of animation
JP2013512515A JP5689953B2 (en) 2010-05-25 2010-11-10 Animation writing system and animation writing method
US13/695,409 US10152817B2 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
PCT/KR2010/007926 WO2011149160A1 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
AU2010354148A AU2010354148B2 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
CN201080066546.7A CN103038797B (en) 2010-05-25 2010-11-10 Animation system and animation method
EP10852246.7A EP2579216B1 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
US16/175,187 US10783692B2 (en) 2010-05-25 2018-10-30 Animation authoring system and method for authoring animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100048651A KR101155045B1 (en) 2010-05-25 2010-05-25 Authoring system of animation and authoring method of animation

Publications (2)

Publication Number Publication Date
KR20110129171A KR20110129171A (en) 2011-12-01
KR101155045B1 true KR101155045B1 (en) 2012-06-11

Family

ID=45498437

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100048651A KR101155045B1 (en) 2010-05-25 2010-05-25 Authoring system of animation and authoring method of animation

Country Status (1)

Country Link
KR (1) KR101155045B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101363331B1 (en) * 2012-09-13 2014-02-18 전재웅 Method and apparatus for editing an animation
WO2014062001A1 (en) * 2012-10-16 2014-04-24 Jeon Jae Woong Method and system for controlling virtual camera in virtual 3d space and computer-readable recording medium
KR102252730B1 (en) 2015-02-06 2021-05-18 한국전자통신연구원 Apparatus and methdo for generating animation
KR101668747B1 (en) * 2015-02-12 2016-10-24 연세대학교 산학협력단 Apparatus and Method for authoring 3D animation contents
KR102185454B1 (en) * 2019-04-17 2020-12-02 한국과학기술원 Method and apparatus for performing 3d sketch
KR102392675B1 (en) * 2021-04-16 2022-05-12 주식회사 스케치소프트 Interfacing method for 3d sketch and apparatus thereof
US20220335676A1 (en) * 2021-04-16 2022-10-20 Sketchsoft Inc. Interfacing method and apparatus for 3d sketch

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문1:한국멀티미디어학회 *

Also Published As

Publication number Publication date
KR20110129171A (en) 2011-12-01

Similar Documents

Publication Publication Date Title
JP5689953B2 (en) Animation writing system and animation writing method
KR101155045B1 (en) Authoring system of animation and authoring method of animation
US10284794B1 (en) Three-dimensional stabilized 360-degree composite image capture
US9153062B2 (en) Systems and methods for sketching and imaging
US9304651B2 (en) Method of real-time incremental zooming
US9703446B2 (en) Zooming user interface frames embedded image frame sequence
TWI545536B (en) Rotation operations in a mapping application
US20180189997A1 (en) Method for Scripting Inter-scene Transitions
KR101865425B1 (en) Adjustable and progressive mobile device street view
JP5429060B2 (en) Display control apparatus, display control method, display control program, and recording medium on which this display control program is recorded
KR101953306B1 (en) The method and apparatus for creating 3d image based on user interaction
WO2017202294A1 (en) Method for dynamically displaying pictures, electronic device and storage medium
US20190278426A1 (en) Inputting information using a virtual canvas
WO2015003544A1 (en) Method and device for refocusing multiple depth intervals, and electronic device
US20140267600A1 (en) Synth packet for interactive view navigation of a scene
US20100037136A1 (en) Context-Aware Non-Linear Graphic Editing
JP2006164049A (en) Gui program, data processor, and operation method of object
TW201407560A (en) Mapping application with 3D presentation
Ye et al. 3D curve creation on and around physical objects with mobile AR
KR101155041B1 (en) Authoring system of animation and authoring method of animation
TWI521187B (en) Integrated mapping and navigation application
KR101743888B1 (en) User Terminal and Computer Implemented Method for Synchronizing Camera Movement Path and Camera Movement Timing Using Touch User Interface
WO2014014928A2 (en) Systems and methods for three-dimensional sketching and imaging
KR101363331B1 (en) Method and apparatus for editing an animation
Sokolov et al. High level methods for scene exploration

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150511

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160520

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170420

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180530

Year of fee payment: 7