WO2011149160A1 - 애니메이션 저작 시스템 및 애니메이션 저작 방법 - Google Patents

애니메이션 저작 시스템 및 애니메이션 저작 방법 Download PDF

Info

Publication number
WO2011149160A1
WO2011149160A1 PCT/KR2010/007926 KR2010007926W WO2011149160A1 WO 2011149160 A1 WO2011149160 A1 WO 2011149160A1 KR 2010007926 W KR2010007926 W KR 2010007926W WO 2011149160 A1 WO2011149160 A1 WO 2011149160A1
Authority
WO
WIPO (PCT)
Prior art keywords
path
user
operation window
animation
gesture
Prior art date
Application number
PCT/KR2010/007926
Other languages
English (en)
French (fr)
Inventor
최윤철
전재웅
장현호
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020100048651A external-priority patent/KR101155045B1/ko
Priority claimed from KR1020100049780A external-priority patent/KR101155041B1/ko
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to JP2013512515A priority Critical patent/JP5689953B2/ja
Priority to US13/695,409 priority patent/US10152817B2/en
Priority to AU2010354148A priority patent/AU2010354148B2/en
Priority to CN201080066546.7A priority patent/CN103038797B/zh
Priority to EP10852246.7A priority patent/EP2579216B1/en
Publication of WO2011149160A1 publication Critical patent/WO2011149160A1/ko
Priority to US16/175,187 priority patent/US10783692B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/08Animation software package

Definitions

  • the present invention relates to an animation authoring system and an animation authoring method, and relates to an animation authoring system and an animation authoring method in which even beginners can easily produce 3D animations and solve an input ambiguity problem in a 3D environment.
  • 3D animation is frequently used in movies and TV, and the 3D animation action tool is used for authoring such 3D animation.
  • the 3D animation action tool is complicated and difficult to use. Can only be used by professionals.
  • non-professional tools have been developed for general users, including children and beginners, to directly create 3D animations.
  • These non-professional tools have the paths and motions of objects drawn on the screen at the same time.
  • it has the feature of creating animations for objects according to the and operations, there is a problem that accurate input is not possible for both the path and the operation because the object and the path are input at the same time.
  • the present invention is to solve the conventional problems as described above, the object of the present invention can be easily authored 3D animation, including children and beginners, animation authoring system that can accurately input the path and motion of the object And an animation authoring method.
  • Animation authoring system for achieving the above object, the plane path module for receiving a plane path of the object from the user on a predetermined reference plane; An operation window module formed along the plane path to generate an operation window having a predetermined angle with a reference plane, and receiving operation information of the object from the user on the operation window; An animation implementer for implementing animation according to the input motion information; Characterized in that configured to include.
  • Animation authoring system for achieving the above object, the plane path module for receiving a plane path of the object from the user on a predetermined reference plane; A first operation window module configured to generate a first operation window extending from the plane path to form a predetermined angle with a reference plane and receiving a main path of the object from the user on the first operation window; A second operation window module generating a plurality of second operation windows penetrating the main path, and receiving a detailed path of the object from the user on the second operation window; And an animation implementer for implementing the animation according to the input detailed path. Characterized in that it comprises a.
  • the user can input the path and motion information of the object by a sketching method through a simple input means such as a tablet pen, a mouse and a touch input device, so that non-experts including children and beginners There is also an advantage that can easily author 3D animation.
  • FIG. 1 is a block diagram showing an animation authoring system according to a first preferred embodiment of the present invention.
  • FIG. 1 2A to 2G are reference diagrams for explaining the configuration of the animation authoring system of FIG.
  • FIG. 3 is a block diagram showing an animation authoring method according to a first preferred embodiment of the present invention.
  • FIG. 4 is a block diagram showing an animation authoring system according to a second preferred embodiment of the present invention.
  • 5A and 5B are reference diagrams for explaining the configuration of the animation authoring system of FIG.
  • FIG. 6 is a block diagram showing a method for authoring animation according to a second preferred embodiment of the present invention.
  • the animation authoring system provides a first screen displaying a reference plane to a user and receives a plane path of an object drawn by the user on the reference plane.
  • Path module 101 The operation window module 102 generates a motion window along the plane path to provide a second screen displaying the motion window to the user, and receives gesture data and parameters when the user draws a gesture on the motion of the object on the motion window.
  • An analysis module (103) for converting the gesture data into a corresponding one among prestored motion data and then organizing the gesture data together with the parameters to generate an action sequence
  • an animation implementing unit 104 for implementing animation according to the motion sequence. It is configured to include.
  • the planar path module 101 includes a planar path sketcher 101a and a planar path controller 101b.
  • the planar path sketching unit 101a of the planar path module 101 provides a user with a first screen representing a reference plane in a three-dimensional space, and the user uses an input means such as a tablet pen, a mouse, and a touch input device.
  • a plane path of an object eg, a character having a joint
  • uniform cubic B-spline interpolation may be used to sample and approximate the planar path
  • uniform cubic non-spline interpolation may be performed by using local modification and affine invariance. It has its advantages.
  • FIG. 2A illustrates a user drawing a plane path of an object using a tablet pen on a reference plane displayed on the first screen provided by the plane path sketcher 101a.
  • the reference plane is a ground plane formed by the x and y axes, based on a three-dimensional space including the x, y, and z axes.
  • the plane path control unit 101b of the plane path module 101 When the plane path controller 101b of the plane path module 101 inputs a correction path that intersects the plane path drawn by the user at least once, the plane path control unit 101b divides the correction path into a plurality of areas based on the intersection and then the plurality of areas. Replace the longest region with part of the planar path and do not use the rest.
  • the operation window module 102 includes a gesture sketch unit 102a and a virtual camera unit 102b.
  • the gesture sketch unit 102a of the operation window module 102 generates a second operation window along the plane path input through the plane path module 101 to display a second screen displaying the operation window to the user. ), And when a user draws a gesture on an operation of an object on the operation window using input means such as a tablet pen, a mouse, and a touch input device, gesture data and parameters are input.
  • the parameter may include a speed and height of an object, and the speed of the object corresponds to the speed at which the user draws the gesture and the height of the object corresponds to the height of the gesture drawn by the user.
  • the reference of the height of the gesture is a plane path drawn by the user.
  • FIG. 2B illustrates the operation window shown on the second screen provided by the gesture sketch unit of the operation window module 102.
  • the operation window is a surface formed extending in an upward direction vertically from a plane path sketched on a reference plane, and has a predetermined upper and lower width.
  • FIG. 2B illustrates an example in which the operation window is perpendicular to the reference plane and the planar path, for convenience of description, the present invention is not limited thereto, and the operation window is a predetermined angle that is not perpendicular to the reference plane and the planar path. May be achieved.
  • the gesture sketch unit 102a of the operation window module 102 receives movement data (eg, a walking motion, a running motion, a skipping motion, etc.) and an in-situ motion (eg, a motion) for receiving gesture data about an object's motion from a user.
  • movement data eg, a walking motion, a running motion, a skipping motion, etc.
  • in-situ motion eg, a motion
  • FIG. 2C illustrates a second screen that is displayed to the user when the gesture sketcher 102a receives gesture data regarding an in-place motion of an object from the user.
  • the gesture sketching unit 102a shows the user's motion selection menu when the user draws a line in a direction corresponding to the z-axis of the three-dimensional space while sketching the gesture and stays there for a predetermined time. Select / enter one of the in-place operations from
  • the virtual camera unit 102b of the operation window module 102 is photographed while moving along the movement direction of the gesture at a predetermined distance from the operation window so that the operation window and the gesture sketched by the user are displayed on the second screen. It includes a virtual camera.
  • FIG. 2D the virtual camera moves along an operation window as shown in FIG. 2B.
  • the virtual camera is located at a height h corresponding to half of an upper and lower width of the operation window at a predetermined distance d from the operation window, and photographs the operation window through the second screen.
  • a catmull-rom-spline interpolation method may be used to display a state in which the virtual camera photographs an operation window on a second screen, and such a cathrom-rom spline may be used as a control point on the operation window.
  • Point has the advantage of showing the user the easy screen sketch of the gesture.
  • FIG. 2E illustrates an example in which the virtual camera zooms out when the user draws the gesture out of the operation window, and the user sketches while moving the gesture in a predetermined direction and then changes the progress direction in the opposite direction.
  • An example of a virtual camera scrolling to the left or the right is shown together.
  • the virtual camera when the gesture sketched by the user is in the operation window, the virtual camera provides an area corresponding to a solid rectangle, that is, an area corresponding to the upper and lower widths of the operation window, to the user through the second screen.
  • zoom out is performed to provide the user with an area corresponding to the dotted rectangle, that is, an area longer than the upper and lower widths of the operation window, through the second screen.
  • the virtual camera sketches while the user moves the gesture in a predetermined direction (for example, to the right in FIG. 2E) and then changes the travel direction in the opposite direction (for example, to the left in FIG. 2E).
  • the user photographs the action window while proceeding along the progress direction of the gesture sketched by the user through the second screen.
  • the virtual camera is an area that is bent when the moving distance of the virtual camera is longer than a predetermined threshold by checking the moving distance of the virtual camera with respect to the predetermined length of the operating window when moving along the movement direction of the gesture at a predetermined distance from the operating window. It judges and moves to the shortest path without following the operation window.
  • FIG. 2F illustrates a case in which the virtual camera moves outside the bent area when the operation window has an area bent at a predetermined angle.
  • the operation window has an area that is bent at a predetermined angle. In this case, a case in which the virtual camera moves inside the bent region is illustrated.
  • the virtual camera is an area in which the virtual camera is bent in the operation window when two camera offset segments c do not intersect and the moving length l i of the virtual camera is longer than the first threshold l 1 . It determines that it is moving along the outside, and it moves along the shortest path
  • the virtual camera may include a curved area of the virtual camera operation window. It determines that it is moving along the inside, and moves along the shortest path, not the operation window, to leave the bent area.
  • the first threshold l 1 is longer than the second threshold l 2 .
  • the operation window module 102 places a stop mark at the position of the gesture currently sketched by the user and includes a sketch speed. After the virtual camera moves through the shortest path and leaves the bent area, the operation window module 102 allows the user to continue the sketch in the previously saved sketch state at the position where the stop mark is taken. .
  • the analysis module 103 includes a gesture analyzer 103a and a gesture controller 103b.
  • the gesture analyzing unit 103a of the analyzing module 103 receives gesture data and parameters from the operation window module 102, and performs the zoning (zone unit: one gesture) of the gesture data and then the zoning gestures.
  • the operation sequence is generated by converting the data into a corresponding one among prestored motion data and arranging the data with the parameter according to time.
  • a corner-detection algorithm may be used by the gesture analyzer 103a to convert gesture data into corresponding ones among prestored motion data.
  • the pre-stored motion data includes a plurality of motions that an object can take. If gesture data corresponding to motion data for a similar motion are similar, the gesture sketch unit 102a of the motion window module 102 may be used. It may be convenient to sketch the gesture.
  • the gesture analyzing unit 103a of the analysis module 103 changes the speed of the parameter to have a smooth change curve for a predetermined time corresponding to the boundary between the motion data in including the parameter in the motion sequence. Afterwards, when the animation is implemented, the movement of the object may be naturally performed.
  • the gesture controller 103b of the analysis module 103 replaces a function of replacing gesture data corresponding to a pre-stored basic operation when there is data that is not recognizable by the animation authoring system according to the present invention among gesture data input by the user. do.
  • the gesture controller 103b determines whether recognition is not possible because each gesture data from the gesture analyzer 103a does not correspond to at least one of prestored motion data. Substitutes the gesture data corresponding to the operation and outputs the gesture data to the gesture analyzer 103a.
  • the animation implementation unit 104 implements a 3D animation using an operation sequence received from the analysis module 103.
  • the plane path module 101 provides a user with a first screen displaying a reference plane, and the user sketches on the reference plane of the first screen using input means such as a tablet pen, a mouse, and a touch input device.
  • input means such as a tablet pen, a mouse, and a touch input device.
  • uniform cubic B-spline interpolation may be used to sample and approximate the planar path.
  • the plane path module 101 determines whether a user inputs a correction path that intersects the plane path drawn at least once (S102), and when it is determined that the correction path is input, the plurality of areas of the correction path based on the intersection point. After dividing by, the longest region of the plurality of regions is replaced by a portion of the planar path (S103).
  • the operation window module 102 generates an operation window along the plane path input through the plane path module 101 (S104), and displays a second screen displaying the operation window to the user using a virtual camera. If the user sketches a gesture on an operation of an object on the operation window using input means such as a tablet pen, a mouse, and a touch input device, gesture data and parameters are input (S105).
  • the operation window may be perpendicular to the reference plane and the planar path, or may be at an angle that is not vertical.
  • the parameter may include a speed and height of an object, and the speed of the object corresponds to the speed at which the user draws the gesture and the height of the object corresponds to the height of the gesture drawn by the user.
  • the motion window module 102 may be configured to receive motion data (eg, walking, running, skipping, etc.) and in-place motions (eg, greetings, salutes, etc.) in receiving gesture data about an object's motion from a user.
  • Gesture data for various motions can be input, including gesture data for in-situ motions.
  • In-situ motion selection menu is provided to the user to select / enter one of the in-situ motions from the user.
  • the virtual camera photographs while moving along the movement direction of the gesture at a predetermined distance from the plane path so that the operation window and the gesture sketched by the user are displayed on the second screen.
  • the virtual camera is located at a height corresponding to half of the upper and lower widths of the operation window at a predetermined distance from the operation window, and provides the user with a second screen to photograph the operation window.
  • the catmull-rom-spline interpolation method may be used to display the virtual camera photographing the operation window on the second screen.
  • the virtual camera provides the user with an area corresponding to the upper and lower widths of the operation window through the second screen when the gesture sketched by the user is in the operation window, and zooms out when the gesture drawn by the user leaves the operation window. zoom out) to provide an area longer than the upper and lower widths of the operation window to the user through the second screen.
  • the virtual camera performs scrolling in a direction corresponding to the opposite direction when the user sketches while moving the gesture in a predetermined direction, and sketches by changing the direction of travel in the opposite direction. Proceeding along the direction, it provides the user with a picture of the action window on the second screen.
  • the virtual camera is an area that is bent when the moving distance of the virtual camera is longer than a predetermined threshold by checking the moving distance of the virtual camera with respect to the predetermined length of the operating window when moving along the movement direction of the gesture at a predetermined distance from the operating window. It judges and moves to the shortest path without following the operation window. Detailed description thereof will be described with reference to FIGS. 2F and 2G when describing the animation authoring system according to the first embodiment of the present invention.
  • the motion window module places a stop mark at the position of the gesture that the user is currently sketching and stores the current sketch state including the sketch speed. Thereafter, after the virtual camera moves through the shortest path and leaves the bent area, the operation window module allows the user to continue the gesture sketch in the previously saved sketch state at the position where the stop mark is taken.
  • the analysis module 103 performs zoning (zone unit: one gesture) of gesture data input from the operation window module. (S106)
  • the analysis module 103 determines whether each of the zoned gesture data corresponds to at least one of prestored motion data and can be recognized (S107).
  • the analysis module 103 replaces the gesture data corresponding to the prestored basic gesture (S108). If it is determined that recognition is possible, the process proceeds to the next step S109.
  • the analysis module 103 converts each gesture data into a corresponding one among pre-stored motion data, and organizes them according to time together with parameters from the operation window module to generate an operation sequence (S110).
  • the module 103 may use a corner-detection algorithm in converting the gesture data into a corresponding one among prestored motion data.
  • the analysis module 103 changes the speed of the parameter to have a smooth change curve for a predetermined time corresponding to the boundary between the motion data in including the parameter in the motion sequence, thereby realizing an animation thereafter. When you do this will be able to make the movement of the object naturally.
  • the animation implementation unit 104 implements a three-dimensional animation using the operation sequence received from the analysis module 103. (S111)
  • the operation window module 103 determines whether the user has finished the sketching gesture for the operation of the object (S112). If it is determined that the operation is terminated, the animation operation is terminated.
  • the gesture data input from the window module 103 is repeatedly zoned from step S106.
  • FIGS. 2A, 2B and 2D have been referred to when describing the animation authoring system according to the first embodiment of the present invention. See also FIG. 2G.
  • an animation authoring system includes a plane path module 101 which receives a plane path of an object from a user on a predetermined reference plane;
  • a first operation window module 102 which generates a first operation window extending from the plane path to form a predetermined angle with a reference plane and receives a main path of the object from the user on the first operation window;
  • a second operation window module (103) for generating a plurality of second operation windows penetrating the main path and receiving a detailed path of the object from the user on the second operation window;
  • an animation implementing unit 104 for implementing animation according to the input detailed path. It is configured to include.
  • the planar path module 101 includes a planar path sketcher 101a and a planar path controller 101b.
  • the planar path sketching unit 101a of the planar path module 101 provides a user with a first screen representing a reference plane in a three-dimensional space, and the user uses an input means such as a tablet pen, a mouse, and a touch input device.
  • An object eg, an object without a joint, an airplane, etc.
  • An object drawn on a reference plane of the first screen receives a plane path, is sampled, approximated and stored.
  • uniform cubic B-spline interpolation may be used to sample and approximate the planar path, and uniform cubic non-spline interpolation may be performed by using local modification and affine invariance. It has its advantages.
  • FIG. 2A illustrates a user drawing a plane path of an object using a tablet pen on a reference plane displayed on the first screen provided by the plane path sketcher 101a.
  • the reference plane is a ground plane formed by the x and y axes, based on a three-dimensional space including the x, y, and z axes.
  • the plane path control unit 101b of the plane path module 101 When the plane path controller 101b of the plane path module 101 inputs a correction path that intersects the plane path drawn by the user at least once, the plane path control unit 101b divides the correction path into a plurality of areas based on the intersection and then the plurality of areas. Replace the longest region with part of the planar path and do not use the rest.
  • the first operation window module 102 includes a main path sketch part 102a and a first virtual camera part 102b.
  • the main path sketcher 102a of the first motion window module 102 generates a first motion window along a plane path input through the plane path module 101 to display a second screen for displaying the motion window to the user.
  • the user sketches the main path of the object on the first operation window using input means such as a tablet pen, a mouse, and a touch input device.
  • Speed information is entered.
  • the speed information corresponds to the speed at which the user draws the main path.
  • the object to implement animation is an object that does not have a joint, ie, an airplane, but the present invention is not limited thereto.
  • the object may be an object having a joint within the scope of the present invention.
  • the main path sketching unit 102a of the first operation window module 102 may not only main path and velocity information of the object from the user, but also gesture information and height information. It may also be input together.
  • FIG. 2B illustrates a state of the first operation window displayed on the second screen provided by the main path sketch part 102a of the first operation window module 102.
  • the first operation window is a surface extending vertically upward from a plane path sketched on a reference plane, and has a predetermined upper and lower width.
  • the first operation window is perpendicular to the reference plane and the planar path
  • the present invention is not limited thereto, and the first operation window may be the reference plane and the plane as necessary. It may be at an angle that is not perpendicular to the path.
  • the first virtual camera unit 102b of the first operation window module 102 is photographed while moving along the moving direction of the main path at a predetermined distance from the operation window to capture the first operation window and the main path sketched by the user. Includes a first virtual camera to be displayed on the second screen.
  • FIG. 2D illustrates the first virtual camera moving along the first operation window as shown in FIG. 2B.
  • the first virtual camera photographs the first operation window at a height h corresponding to half of an upper and lower width of the first operation window at a predetermined distance d from the first operation window.
  • a look is presented to the user on the second screen.
  • a catmull-rom-spline interpolation method may be used to display a state in which the first virtual camera photographs the first operation window on a second screen. Since the control point (control point) on the operation window has the advantage that the user can show the screen easy to sketch the main path.
  • 2E illustrates an example in which the first virtual camera zooms out when the main path drawn by the user is outside the first operation window, and the user sketches the main path in a predetermined direction and then moves in the opposite direction.
  • An example of scrolling left or right by the first virtual camera is shown together when sketching by changing a direction.
  • the first virtual camera displays a region corresponding to the solid rectangle, that is, an area corresponding to the upper and lower widths of the first operation window. If the main path drawn by the user is outside the first operation window, zoom out is performed to remove an area corresponding to the dotted rectangle, that is, an area longer than the upper and lower widths of the first operation window. 2 Provide to the user through the screen.
  • the first virtual camera sketches while the user moves the main path in a predetermined direction (for example, to the right in FIG. 2E), and then moves in the opposite direction (for example, to the left in FIG. 2E).
  • a predetermined direction for example, to the right in FIG. 2E
  • the opposite direction for example, to the left in FIG. 2E
  • Scrolling is performed in a direction corresponding to the opposite direction (for example, leftward in FIG. 2E), so that the user photographs the first motion window while proceeding along the progress direction of the main path sketched by the user.
  • the second screen Provide to the user through the second screen.
  • the first virtual camera moves the first virtual camera by checking a moving distance of the first virtual camera with respect to a predetermined length of the first operating window when the first virtual camera moves along the moving direction of the main path at a predetermined distance from the first operating window. When the distance is longer than the predetermined threshold, it is determined that the area is a bent region and moves along the shortest path without following the first operation window.
  • FIG. 2F illustrates a case in which the first virtual camera moves outside along the bent area when the first operation window has an area bent at a predetermined angle.
  • the first operation window is predetermined. The case where the first virtual camera moves inside the bent area when the area is bent at an angle is illustrated.
  • the first virtual camera has a first virtual camera when two camera offset segments c do not intersect and the moving length l i of the first virtual camera is longer than the first threshold l 1 . Is determined to move along the outside of the bent region of the first operation window, and moves along the shortest path rather than the first operation window to leave the bent region.
  • the first virtual camera 1 determines that it is moving along the inside of the bending area
  • the first threshold l 1 is longer than the second threshold l 2 .
  • the first operation window module 102 places a stop mark at the position of the main path that the user is currently sketching and increases the sketch speed. Saves a current sketch state including the first sketched image, and after the first virtual camera moves through the shortest path to get out of the bent area, the first motion window module 102 saves the sketch previously saved by the user at the position where the stop mark is taken. Allows you to continue sketching in state.
  • the second operation window module 103 includes a detailed path sketch part 103a and a second virtual camera part 103b.
  • the detailed path sketch part 103a of the second operation window module 103 continuously generates a plurality of second operation windows that vertically penetrate the main path at a center at predetermined intervals, and generates the second operation window.
  • the user can input the detailed path of the object on the second operation window by using input means such as a tablet pen, a mouse, and a touch input device.
  • input means such as a tablet pen, a mouse, and a touch input device.
  • input means such as a tablet pen, a mouse, and a touch input device.
  • uniform cubic B-spline interpolation may be used to sample and approximate the detailed path.
  • the interval between the plurality of second operation windows generated by the detailed path sketch unit 103a is determined by the speed information received through the first operation window module 102.
  • the detailed path sketch part 103a of the second operation window module 103 may display the second operation windows in the third screen in the region corresponding to the high speed among the main paths input through the first operation window module 102.
  • the area corresponding to the low speed is displayed at a relatively small interval in displaying the second operation windows on the third screen.
  • the detailed path of the object sketched in the second operation window means the detailed movement when the detailed movement (eg, spiral movement) is performed around the main path while the object moves along the main path.
  • the object to implement animation is an object that does not have a joint, ie, an airplane, but the present invention is not limited thereto.
  • the object may be an object having a joint within the scope of the present invention.
  • the detailed path sketching unit 103a of the second operation window module 103 may receive not only the detailed path of the object but also gesture information and height information from the user. It may be.
  • FIG. 5A illustrates examples of second operation windows that are continuously generated at a predetermined interval in the detailed path sketch part 103a of the second operation window module 103, and as the second operation windows are generated, a second virtual window is generated.
  • the camera also photographs the second motion window while moving forward (or backward).
  • FIG. 5B when a portion of the second operating windows overlaps each other due to a large bending of the first operating window formed along the planar path, a detailed path sketched in the second operating windows is recognized as an unwanted backlash.
  • a plan view for explaining a solution performed by the second operation window module 103 is illustrated.
  • the planarity of the z-axis in the (+) direction and the (-) direction based on FIG. 5A is illustrated. 2 shows a view of the operation windows.
  • the second operation window module The detailed path sketching unit 103a of 103 may cause a problem that the user recognizes as going backward differently from the intention of the user.
  • the detailed path sketching unit 103a is disposed on the second operation window.
  • the detailed path that caused the retrograde when the retrograde is detected by monitoring the tangent value with the sketched detailed path on the predetermined number of second motion windows consecutively before and after every sketched detailed path (for example, P1 to P6 in FIG. 5H). (Example: P4 in Fig. 5H) is ignored (deleted).
  • the animation implementation unit 104 performs a beautification process for a three-dimensional path according to the detailed path received from the second operation window module 103 as described above. Implement animation along a three-dimensional path.
  • gesture information received from the first operation window module 102 or the second operation window module 103 as well as the detailed path input from the second operation window module 103 and Height information is also applied to the animation implementation.
  • the plane path module 101 provides a user with a first screen displaying a reference plane, and the user sketches on the reference plane of the first screen using input means such as a tablet pen, a mouse, and a touch input device.
  • a plane path of an object eg, an object without a joint, an airplane, etc.
  • uniform cubic non-spline Uniform cubic B-spline
  • -spline -spline
  • the plane path module 101 determines whether a user inputs a correction path that intersects the plane path drawn at least once (S102), and when it is determined that the correction path is input, the plurality of areas of the correction path based on the intersection point. After dividing by, the longest region of the plurality of regions is replaced by a portion of the planar path (S103).
  • the first operation window module 102 generates a first operation window along the plane path input through the plane path module 101 (S104), and displays a second screen displaying the first operation window.
  • the main path and speed information of the object is displayed.
  • the speed information corresponds to a speed at which the user draws a main path.
  • the object to implement animation is an object that does not have a joint, ie, an airplane, but the present invention is not limited thereto.
  • the object may be an object having a joint within the scope of the present invention.
  • the main path sketching unit 102a of the first operation window module 102 may not only main path and velocity information of the object from the user, but also gesture information and height information. Is also input.
  • the first operating window may be perpendicular to the reference plane and the planar path, or may be at an angle that is not perpendicular.
  • the first virtual camera photographs while moving along the moving direction of the main path at a predetermined distance from the plane path so that the first operation window and the main path sketched by the user are displayed on the second screen.
  • the first virtual camera is located at a height corresponding to half of the upper and lower widths of the first window at a predetermined distance from the first operation window, and provides the user with a second screen to photograph the first operation window.
  • the catmull-rom-spline interpolation method may be used to display the first virtual camera photographing the first operation window on the second screen.
  • the first virtual camera When the main path sketched by the user is in the first motion window, the first virtual camera provides the user with an area corresponding to the upper and lower widths of the first motion window through the second screen, and the main path drawn by the user In the case of moving out of the first operation window, zoom out is performed to provide a user with an area longer than the upper and lower widths of the first operation window through the second screen.
  • the first virtual camera sketches while the user moves the main path in a predetermined direction and then sketches by changing the traveling direction in the opposite direction, thereby scrolling in a direction corresponding to the opposite direction, thereby sketching the user.
  • the first operation window is photographed while the user follows the progress direction of the main path through the second screen.
  • the first virtual camera moves by moving the first virtual camera by checking a moving distance of the first virtual camera with respect to a predetermined length of the first operating window when the first virtual camera moves along the moving direction of the main path at a predetermined distance from the first operating window.
  • the distance is longer than the predetermined threshold, it is determined that the area is a bent region and moves along the shortest path without following the first operation window.
  • the first motion window module marks the position of the main path currently sketched by the user and includes a sketch speed. After saving the current sketch state and later leaving the area where the first virtual camera has traveled through the shortest path and leaving the bent area, the first motion window module can be configured in the sketch state that the user previously saved at the position where the stop mark was taken. Allows you to continue the path sketch.
  • the second operation window module 103 passes through the main path input through the first operation window module 102 perpendicularly to the center.
  • the second operation window of the user is continuously generated at predetermined intervals (S107), and a third screen displaying the second operation window is provided to the user through the second virtual camera, so that the user inputs the tablet pen, mouse, and touch.
  • the detailed path of the object is sketched on the second operation window by using an input means such as a device, the detailed path of the object is input (S108), and after approximating and storing the detailed path of the input object (S109). Proceed to On the other hand, if it is determined that the detailed path for the main path of the object is not input, the process proceeds to the next step S109 without receiving the detailed path for the main path of the object.
  • Uniform cubic B-spline interpolation may be used to sample and approximate the detailed path.
  • the interval between the plurality of second operating windows generated by the second operating window module is determined by the speed information received through the first operating window module 102.
  • the second operation window module 103 has a relatively large interval in displaying the second operation windows on the third screen in a region corresponding to a high speed among the main paths input through the first operation window module 102. In the region corresponding to the low speed, the second operation windows are displayed at relatively small intervals in the third screen.
  • the detailed path of the object sketched in the second operation window refers to the detailed movement when the detailed movement (eg, spiral movement) is performed around the main path while the object moves along the main path.
  • the object to implement animation is an object that does not have a joint, ie, an airplane, but the present invention is not limited thereto.
  • the object may be an object having a joint within the scope of the present invention.
  • the detailed path sketching unit 103a of the second operation window module 103 receives not only the detailed path of the object but also gesture information and height information from the user.
  • the second operation window module 103 receives a detailed path from the user on the second operation window, a predetermined number of second operations consecutive to the front and back for each detailed path sketched on the second operation window.
  • a predetermined number of second operations consecutive to the front and back for each detailed path sketched on the second operation window.
  • the animation implementation unit 104 is a three-dimensional path according to the detailed path input from the second operation window module 103, or a three-dimensional path according to the main path received from the first operation window module 102.
  • an animation is implemented according to the beautified three-dimensional path (S110).
  • gesture information received from the first operation window module 102 or the second operation window module 103 as well as the detailed path input from the second operation window module 103 and Height information is also applied to the animation implementation.
  • Computer-readable recording media include magnetic storage media (e.g. ROM, floppy disks, hard disks, magnetic data, etc.), optical reading media (e.g. CD-ROMs, DVDs, optical data storage devices, etc.) and carrier waves (e.g., Storage media such as, for example, transmission over the Internet.
  • magnetic storage media e.g. ROM, floppy disks, hard disks, magnetic data, etc.
  • optical reading media e.g. CD-ROMs, DVDs, optical data storage devices, etc.
  • carrier waves e.g., Storage media such as, for example, transmission over the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것으로서, 초보자들도 손쉽게 3차원 애니메이션을 제작할 수 있고, 3차원 환경에서의 입력 모호성 문제가 해결된 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것이다. 이러한 본 발명에 따른 애니메이션 저작 시스템은, a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계; b) 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 단계; 및 c) 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 단계; 를 포함한다.

Description

애니메이션 저작 시스템 및 애니메이션 저작 방법
본 발명은 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것으로서, 초보자들도 손쉽게 3차원 애니메이션을 제작할 수 있고, 3차원 환경에서의 입력 모호성 문제가 해결된 애니메이션 저작 시스템 및 애니메이션 저작 방법에 관한 것이다.
3차원 애니메이션은 영화나 TV에서 자주 등장하고 있으며, 이와 같은 3차원 애니메이션의 저작을 위해서는 3차원 애니메이션 저작용 툴(tool)이 이용되는데, 상기 3차원 애니메이션 저작용 툴은 사용이 복잡하고 어려워 숙련된 전문가에 의해서만 사용이 가능하다.
최근에는 인터넷과 멀티미디어의 발달로 인해 3차원 애니메이션을 보기만 하는 것을 넘어 직접 저작하여 사용하려는 일반인 사용자들이 늘어나고 있다.
이에 따라, 어린이 및 초보자를 포함하는 일반인이 3차원 애니메이션을 직접 저작할 수 있는 비전문가용 툴이 개발되었으며, 이러한 비전문가용 툴은 사용자가 객체의 경로와 동작을 동시에 화면 상에 그려서 입력해오면 그 경로와 동작에 따라 객체에 대한 애니메니션을 생성하는 특징을 가지지만, 객체의 경로와 동작을 동시에 입력받으므로 경로와 동작 둘 다 정확한 입력이 불가한 문제가 있으며 입력 가능한 동작도 매우 제한적일 수밖에 없었다.
따라서, 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있고, 객체의 경로와 동작의 정확한 입력이 가능한 애니메이션 저작 툴의 개발에 대한 기대가 높아지고 있다.
본 발명은 상기와 같은 종래의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 어린이와 초보자를 비롯한 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있고, 객체의 경로와 동작의 정확한 입력이 가능한 애니메이션 저작 시스템 및 애니메이션 저작 방법을 제공하는 것이다.
상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 방법은, a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계; b) 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 단계; 및c) 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 시스템은, 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈; 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 동작 윈도우 모듈; 및 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 애니메이션 구현부; 를 포함하여 구성된 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 방법은, a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계; b) 상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 단계; c) 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 단계; 및 d) 상기 입력된 상세 경로에 따라 애니메이션을 구현하는 단계; 를 포함하는 것을 특징으로 한다.
상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템은, 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈; 상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 제1 동작 윈도우 모듈; 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 제2 동작 윈도우 모듈; 및 상기 입력된 상세 경로에 따라 애니메이션을 구현하는 애니메이션 구현부; 를 포함하는 것을 특징으로 한다.
상기와 같은 구성 및 방법을 가지는 본 발명은, 객체의 경로 및 동작 정보를 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등과 같은 간편한 입력 수단을 통해 스케치하는 방법으로 입력할 수 있으므로 어린이와 초보자를 비롯한 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있는 장점이 있다.
상기와 같은 구성 및 방법을 가지는 본 발명의 바람직한 제 1 실시예는, 객체의 경로를 입력받은 후에 경로에 따른 동작을 입력받으므로 객체의 경로와 동작의 정확한 입력이 가능한 장점이 있다.
상기와 같은 구성 및 방법을 가지는 본 발명의 바람직한 제 2 실시예는, 객체의 경로에 대하여 기준 평면, 제1 동작 윈도우 및 제2 동작 윈도우를 통해 입력받으므로 객체의 움직임에 대한 정보의 정확한 입력이 가능한 장점이 있다.
도 1은 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 시스템을 도시한 블록도.
도 2a 내지 도 2g는 도 1의 애니메이션 저작 시스템의 구성을 설명하기 위한 참고도.
도 3은 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 방법을 도시한 블록도.
도 4는 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템을 도시한 블록도.
도 5a 및 도 5b는 도 4의 애니메이션 저작 시스템의 구성을 설명하기 위한 참고도.
도 6은 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 방법을 도시한 블록도.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따른 애니메이션 저작 시스템 및 애니메이션 저작 방법에 대하여 설명하면 다음과 같다.
[제 1 실시예]
먼저, 도 1 내지 도 2g를 참조하여 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 시스템에 대하여 설명하면 다음과 같다.
도 1을 참조하면, 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 시스템은, 사용자에게 기준 평면을 표시하는 제 1 화면을 제공하고, 사용자가 기준 평면 상에 그리는 객체의 평면 경로를 입력받는 평면 경로 모듈(101); 상기 평면 경로를 따라 동작 윈도우를 생성하여 사용자에게 동작 윈도우를 표시하는 제 2 화면을 제공하고, 사용자가 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터를 입력받는 동작 윈도우 모듈(102); 상기 제스처 데이터를 미리 저장된 동작 데이터 중에 대응되는 것으로 변환한 후에, 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 분석 모듈(103); 및 상기 동작 시퀀스에 따라 애니메이션을 구현하는 애니메이션 구현부(104); 를 포함하여 구성된다.
상기와 같은 구성을 가지는 본 발명의 바람직한 제 1 실시예에 따른 메모리 관리 모듈의 각 구성 요소에 대하여 상세히 설명하면 다음과 같다.
도 1을 참조하면, 상기 평면 경로 모듈(101)은 평면 경로 스케치부(101a)와 평면 경로 제어부(101b)를 포함하여 구성된다.
상기 평면 경로 모듈(101)의 평면 경로 스케치부(101a)는 3차원 공간의 기준 평면을 나타내는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 그리는 객체(예 : 관절을 가지는 캐릭터)의 평면 경로를 입력받아 샘플링하고 근사화하여 저장한다. 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있는데, 이러한 유니폼 큐빅 비-스플라인 보간법은 지역 조정(local modification)의 속성과 affine invariance 속성을 가지는 장점이 있다.
도 2a에는 상기 평면 경로 스케치부(101a)가 제공하는 제 1 화면에 나타난 기준 평면 상에 사용자가 타블렛 펜을 이용하여 객체의 평면 경로를 그리는 모습을 도시하였다. 여기서, x, y, z축을 포함하는 3차원 공간을 기준으로 하면 상기 기준 평면은 x, y축이 이루는 바닥면(ground plane)이다.
상기 평면 경로 모듈(101)의 평면 경로 제어부(101b)는 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하고 나머지 영역은 사용하지 않는다.
도 1을 참조하면, 상기 동작 윈도우 모듈(102)은 제스처 스케치부(102a)와 가상 카메라부(102b)를 포함하여 구성된다.
상기 동작 윈도우 모듈(102)의 제스처 스케치부(102a)는 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 동작 윈도우를 생성하여 사용자에게 동작 윈도우를 표시하는 제 2 화면을 가상 카메라부(102b)를 이용하여 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터가 입력된다.
여기서, 상기 파라미터는 객체의 속도 및 높이 등을 포함할 수 있으며, 객체의 속도는 사용자가 제스처를 그려나가는 속도에 대응되고 객체의 높이는 사용자가 그린 제스처의 높이에 대응된다. 이때, 상기 제스처의 높이의 기준은 사용자가 그린 평면 경로이다.
도 2b에는 상기 동작 윈도우 모듈(102)의 제스처 스케치부가 제공하는 제 2 화면에 나타난 동작 윈도우의 모습을 도시하였다.
상기 동작 윈도우는 기준 평면 상에 스케치된 평면 경로로부터 수직으로 상부 방향으로 연장되어 형성된 면으로서 소정의 상하 폭을 가지고 형성된다.
도 2b에는 상기 동작 윈도우가 기준 평면 및 평면 경로와 수직을 이루는 경우를 예로 하였지만 설명의 편의를 위한 것으로서 본 발명이 이에 한정되는 것은 아니며, 상기 동작 윈도우는 기준 평면 및 평면 경로와 수직이 아닌 소정 각도를 이룰 수도 있다.
상기 동작 윈도우 모듈(102)의 제스처 스케치부(102a)는 사용자로부터 객체의 동작에 대한 제스처 데이터를 입력받는데 있어서, 움직이는 동작(예 : 걷는 동작, 달리는 동작, 뜀뛰는 동작 등)과 제자리 동작(예 : 인사 동작, 경례 동작 등)을 포함한 다양한 동작에 대한 제스처 데이터를 입력받을 수 있다.
도 2c에는 제스처 스케치부(102a)가 객체의 제자리 동작에 대한 제스처 데이터를 사용자로부터 입력받는 경우에 사용자에게 보여지는 제 2 화면 상의 모습을 도시하였다.
도 2c를 참조하면, 상기 제스처 스케치부(102a)는 사용자가 제스처를 스케치하는 도중에 3차원 공간의 z축에 대응되는 방향으로 선을 그어 올린 후에 소정 시간 머무르면 제자리 동작 선택 메뉴를 사용자에게 보여주고 사용자로부터 제자리 동작 중에 하나를 선택/입력 받는다.
상기 동작 윈도우 모듈(102)의 가상 카메라부(102b)는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 동작 윈도우 및 사용자가 스케치하는 제스처가 제 2 화면 상에 표시되도록 하는 가상 카메라를 포함한다.
도 2d에는 상기 가상 카메라가 도 2b에 나타낸 바와 같은 동작 윈도우를 따라 이동하는 모습을 도시하였다.
도 2d를 참조하면, 상기 가상 카메라는 동작 윈도우와는 소정 거리(d)를 두고 동작 윈도우의 상하 폭의 반에 해당하는 높이(h)에 위치하여 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 가상 카메라가 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있으며, 이러한 캐트멀 롬 스플라인은 동작 윈도우 상의 제어점(control point)을 지나므로 사용자에게 제스처의 스케치가 쉬운 화면을 보여줄 수 있는 장점이 있다.
도 2e에는 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에 가상 카메라가 줌 아웃(zoom out)을 수행하는 예와, 사용자가 제스처를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어 스케치하는 경우에 가상 카메라가 왼쪽 또는 오른쪽으로 스크롤링(scrolling)을 수행하는 예를 함께 도시하였다.
도 2e를 참조하면, 상기 가상 카메라는 사용자가 스케치하는 제스처가 동작 윈도우 내에 있는 경우에는 실선 사각형에 대응되는 영역, 즉 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 점선 사각형에 대응되는 영역, 즉 동작 윈도우의 상하폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.
또한, 도 2e를 참조하면, 상기 가상 카메라는 사용자가 제스처를 소정 방향(예 : 도 2e에서 오른쪽 방향)으로 진행하면서 스케치하다가 반대 방향(예 : 도 2e에서 왼쪽 방향)으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향에 대응되는 방향(예 : 도 2e에서 왼쪽 방향)으로 스크롤링을 수행함으로써, 사용자가 스케치하는 제스처의 진행 방향을 따라 진행하면서 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.
상기 가상 카메라는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동할 시에 동작 윈도우의 소정 길이에 대한 가상 카메라의 이동 거리를 체크하여 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 동작 윈도우를 따르지 않고 최단 경로로 이동한다.
도 2f의 위쪽과 도 2g의 위쪽에는 상기 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 모습의 예를 도시하였고, 도 2f의 아래쪽과 도 2g의 아래쪽에는 상기 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 상기 꺾인 영역(a, d)과, 가상 카메라의 이동 경로(b, e)와, 카메라 오프셋 세그먼트(c, f)들의 예를 도시하였다. 여기서, 도 2f에는 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 가상 카메라가 상기 꺾인 영역 외부를 따라 이동(outside turn)하는 경우를 도시하고, 도 2g에는 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 가상 카메라가 상기 꺾인 영역 내부를 따라 이동(inside turn)하는 경우를 도시하였다.
도 2f를 참조하면, 상기 가상 카메라는 카메라 오프셋 세그먼트(c) 두 개가 교차하지 않고 가상 카메라의 이동 길이(l i )가 제 1 문턱치(l 1 )보다 긴 경우에 가상 카메라가 동작 윈도우의 꺾인 영역의 외부를 따라 이동하고 있다고 판단하여, 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다.
도 2g를 참조하면, 상기 가상 카메라는 카메라 오프셋 세그먼트(f) 두 개가 교차하고 가상 카메라의 이동 길이(l i )가 제 2 문턱치(l 2 )보다 긴 경우에는 가상 카메가 동작 윈도우의 꺾인 영역의 내부를 따라 이동하고 있다고 판단하여, 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다. 여기서, 제 1 문턱치(l 1 )는 제 2 문턱치(l 2 )보다 길다.
상기와 같이 가상 카메라가 꺾인 영역의 외부 또는 내부를 따라 이동하고 있다고 판단한 경우에 상기 동작 윈도우 모듈(102)은 사용자가 현재 스케치하고 있는 제스처의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하며, 상기 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 동작 윈도우 모듈(102)은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 스케치를 이어나갈 수 있도록 한다.
도 1을 참조하면, 상기 분석 모듈(103)은 제스처 분석부(103a)와 제스처 제어부(103b)를 포함하여 구성된다.
상기 분석 모듈(103)의 제스처 분석부(103a)는 동작 윈도우 모듈(102)로부터 제스처 데이터 및 파라미터를 입력받으며, 제스처 데이터를 구역화(구역 단위 : 하나의 제스처)를 수행한 후에 상기 구역화한 각 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하여 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성한다. 여기서, 상기 제스처 분석부(103a)가 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하는데 있어서는 코너-디텍션 알고리즘(corner-detection algorithm)을 이용할 수 있다.
상기 미리 저장된 동작 데이터들은 객체가 취할 수 있는 다수의 동작을 포함하는데, 비슷한 동작에 대한 동작 데이터들에 대응되는 제스처 데이터들이 비슷하다면 동작 윈도우 모듈(102)의 제스처 스케치부(102a)를 통해 사용자가 제스처를 스케치하는데 있어서 편리하게 수행할 수 있을 것이다.
상기 분석 모듈(103)의 제스처 분석부(103a)는 동작 시퀀스에 파라미터를 포함시키는데 있어서 각 동작 데이터 간의 경계에 대응되는 소정 시간 동안은 상기 파라미터 중에 속도가 완만한 변화 곡선을 가질 수 있도록 변경함으로써, 이후에 애니메이션을 구현하였을 시에 개체의 동작이 자연스럽게 이루어질 수 있도록 할 수 있을 것이다.
상기 분석 모듈(103)의 제스처 제어부(103b)는 사용자가 입력한 제스처 데이터 중에서 본 발명에 따른 애니메이션 저작 시스템에서 인식 불가한 데이터가 있는 경우에 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체하는 기능을 한다.
즉, 상기 제스처 제어부(103b)는 제스처 분석부(103a)로부터의 각 제스처 데이터가 미리 저장된 동작 데이터들 중 적어도 하나에 대응되지 않아 인식이 불가한지를 판단하여, 인식이 불가하다고 판단되면 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체한 후에 제스처 분석부(103a)로 출력한다.
도 1을 참조하면, 상기 애니메이션 구현부(104)는 상기 분석 모듈(103)로부터 입력받은 동작 시퀀스를 이용하여 3차원 애니메이션을 구현한다.
이하, 도 3을 참조하여 본 발명의 바람직한 제 1 실시예에 따른 애니메이션 저작 방법에 대하여 설명한다.
먼저, 평면 경로 모듈(101)은 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 스케치하는 객체의 평면 경로를 샘플링하고 근사화하여 저장한다.(S101) 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있다.
다음으로, 상기 평면 경로 모듈(101)은 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력하는지 판단하여(S102), 수정 경로가 입력되었다고 판단되면 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체한다.(S103)
다음으로, 동작 윈도우 모듈(102)은 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 동작 윈도우를 생성하고(S104), 상기 동작 윈도우를 표시하는 제 2 화면을 가상 카메라를 이용하여 사용자에게 제공하여, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 동작 윈도우 상에 객체의 동작에 대한 제스처를 스케치하면 제스처 데이터 및 파라미터가 입력된다.(S105)
여기서, 상기 동작 윈도우는 기준 평면 및 평면 경로와 수직을 이루거나 또는 수직이 아닌 소정 각도를 이룰 수 있다.
상기 파라미터는 객체의 속도 및 높이 등을 포함할 수 있으며, 객체의 속도는 사용자가 제스처를 그려나가는 속도에 대응되고 객체의 높이는 사용자가 그린 제스처의 높이에 대응된다.
상기 동작 윈도우 모듈(102)은 사용자로부터 객체의 동작에 대한 제스처 데이터를 입력받는데 있어서 움직이는 동작(예 : 걷는 동작, 달리는 동작, 뜀뛰는 동작 등)과 제자리 동작(예 : 인사 동작, 경례 동작 등)을 포함한 다양한 동작에 대한 제스처 데이터를 입력받을 수 있으며, 제자리 동작에 대한 제스처 데이터를 입력받는데 있어서는 사용자가 제스처를 스케치하는 도중에 3차원 공간의 z축에 대응되는 방향으로 선을 그어 올린 후에 소정 시간 머무르면 제자리 동작 선택 메뉴를 사용자에게 제공하여 사용자로부터 제자리 동작 중에 하나를 선택/입력 받는다.
상기 가상 카메라는 평면 경로와 소정 거리를 두고 제스처의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 동작 윈도우 및 사용자가 스케치하는 제스처가 제 2 화면 상에 표시되도록 한다.
상기 가상 카메라는 동작 윈도우와는 소정 거리를 두고 동작 윈도우의 상하 폭의 반에 해당하는 높이에 위치하여 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 가상 카메라가 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있다.
상기 가상 카메라는 사용자가 스케치하는 제스처가 동작 윈도우 내에 있는 경우에는 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 동작 윈도우의 상하 폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.
그리고, 상기 가상 카메라는 사용자가 제스처를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향과 대응되는 방향으로의 스크롤링을 수행함으로써, 사용자가 스케치하는 제스처의 진행 방향을 따라 진행하면서 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.
상기 가상 카메라는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동할 시에 동작 윈도우의 소정 길이에 대한 가상 카메라의 이동 거리를 체크하여 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 동작 윈도우를 따르지 않고 최단 경로로 이동한다. 이와 관련한 상세한 설명은 위에서 본 발명의 제 1 실시예에 따른 애니메이션 저작 시스템에 대하여 설명함에 있어서 도 2f와 도 2g를 참조하여 설명한 부분을 참조하도록 한다.
상기와 같이 가상 카메라가 동작 윈도우의 꺾인 영역을 따라 이동하고 있다고 판단한 경우에 상기 동작 윈도우 모듈은 사용자가 현재 스케치하고 있는 제스처의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하고, 이후에 상기 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 동작 윈도우 모듈은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 제스처 스케치를 이어나갈 수 있도록 한다.
다음으로, 분석 모듈(103)은 동작 윈도우 모듈로부터 입력된 제스처 데이터의 구역화(구역 단위 : 하나의 제스처)를 수행한다.(S106)
다음으로, 상기 분석 모듈(103)은 구역화된 각 제스처 데이터가 미리 저장된 동작 데이터들 중에 적어도 하나에 대응되어 인식이 가능한지를 판단한다.(S107)
다음으로, 상기 분석 모듈(103)은 구역화된 각 제스처 데이터가 미리 저장된 동작 데이터들 중에 적어도 하나에 대응되지 않아 인식이 불가하다고 판단되는 경우에는 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체하고(S108), 인식이 가능하다고 판단되는 경우에는 다음 단계(S109)로 진행한다.
다음으로, 상기 분석 모듈(103)은 각 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하여 동작 윈도우 모듈로부터의 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성한다.(S110) 여기서, 분석 모듈(103)이 제스처 데이터를 미리 저장된 동작 데이터들 중에 대응되는 것으로 변환하는데 있어서는 코너-디텍션 알고리즘(corner-detection algorithm)을 이용할 수 있다.
이때, 상기 분석 모듈(103)은 동작 시퀀스에 파라미터를 포함시키는데 있어서 각 동작 데이터 간의 경계에 대응되는 소정 시간 동안은 상기 파라미터 중에 속도가 완만한 변화 곡선을 가질 수 있도록 변경함으로써, 이후에 애니메이션을 구현하였을 시에 개체의 동작이 자연스럽게 이루어질 수 있도록 할 수 있을 것이다.
다음으로, 애니메이션 구현부(104)는 상기 분석 모듈(103)로부터 입력받은 동작 시퀀스를 이용하여 3차원 애니메이션을 구현한다.(S111)
다음으로, 상기 동작 윈도우 모듈(103)은 사용자가 객체의 동작에 대한 제스처를 스케치하는 작업을 종료했는지 판단하여(S112), 종료했다고 판단되면 애니메이션 저작을 종료하고, 종료하지 않았다고 판단되면 상술한 동작 윈도우 모듈(103)로부터 입력된 제스처 데이터를 구역화하는 단계(S106)부터 반복 수행한다.
[제 2 실시예]
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템 및 애니메이션 저작 방법에 대하여 설명하면 다음과 같다.
먼저, 도 4 내지 도 5b를 참조하여 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템에 대하여 설명하면 다음과 같다. 이하에서 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 시스템에 대하여 설명함에 있어서, 본 발명의 제 1 실시예에 따른 애니메이션 작 시스템에 대하여 설명할 시에 참조한 바 있는 도 2a, 도 2b, 도 2d 내지 도 2g도 참조하도록 한다.
도 4를 참조하면, 본 발명의 바람직한 실시예에 따른 애니메이션 저작 시스템은, 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈(101); 상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 제1 동작 윈도우 모듈(102); 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 제2 동작 윈도우 모듈(103); 및 상기 입력된 상세 경로에 따라 애니메이션을 구현하는 애니메이션 구현부(104); 를 포함하여 구성된다.
상기와 같은 구성을 가지는 본 발명의 바람직한 제 2 실시예에 따른 메모리 관리 모듈의 각 구성 요소에 대하여 상세히 설명하면 다음과 같다.
도 4를 참조하면, 상기 평면 경로 모듈(101)은 평면 경로 스케치부(101a)와 평면 경로 제어부(101b)를 포함하여 구성된다.
상기 평면 경로 모듈(101)의 평면 경로 스케치부(101a)는 3차원 공간의 기준 평면을 나타내는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 그리는 객체(예 : 관절이 없는 객체로서, 비행기 등)는 평면 경로를 입력받아 샘플링하고 근사화하여 저장한다. 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있는데, 이러한 유니폼 큐빅 비-스플라인 보간법은 지역 조정(local modification)의 속성과 affine invariance 속성을 가지는 장점이 있다.
도 2a에는 상기 평면 경로 스케치부(101a)가 제공하는 제 1 화면에 나타난 기준 평면 상에 사용자가 타블렛 펜을 이용하여 객체의 평면 경로를 그리는 모습을 도시하였다. 여기서, x, y, z축을 포함하는 3차원 공간을 기준으로 하면 상기 기준 평면은 x, y축이 이루는 바닥면(ground plane)이다.
상기 평면 경로 모듈(101)의 평면 경로 제어부(101b)는 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하고 나머지 영역은 사용하지 않는다.
도 4를 참조하면, 상기 제1 동작 윈도우 모듈(102)은 주 경로 스케치부(102a)와 제 1 가상 카메라부(102b)를 포함하여 구성된다.
상기 제1 동작 윈도우 모듈(102)의 주 경로 스케치부(102a)는 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 제1 동작 윈도우를 생성하여 사용자에게 동작 윈도우를 표시하는 제 2 화면을 제 1 가상 카메라부(102b)를 이용하여 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제1 동작 윈도우 상에 객체의 주 경로를 스케치하면 객체의 주 경로 및 속도 정보가 입력된다. 여기서, 상기 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응된다.
본 발명을 설명함에 있어서 애니메이션을 구현할 객체는 관절이 존재하지 않는 객체, 즉 비행기 등을 예로 하였지만 본 발명이 이에 한정되는 것은 아니며, 상기 객체는 본 발명의 요지를 벗어나지 않는 범위 내에서 관절이 있는 객체일 수 있으며, 이와 같이 상기 객체가 관절이 있는 객체인 경우에 상기 제1 동작 윈도우 모듈(102)의 주 경로 스케치부(102a)는 사용자로부터 객체의 주 경로 및 속도 정보뿐만 아니라 제스처 정보 및 높이 정보도 함께 입력받을 수도 있다.
도 2b에는 상기 제1 동작 윈도우 모듈(102)의 주 경로 스케치부(102a)가 제공하는 제 2 화면에 나타난 제1 동작 윈도우의 모습을 도시하였다.
상기 제1 동작 윈도우는 기준 평면 상에 스케치된 평면 경로로부터 수직으로 상부 방향으로 연장되어 형성된 면으로서 소정의 상하 폭을 가지고 형성된다.
도 2b에는 상기 제1 동작 윈도우가 기준 평면 및 평면 경로와 수직을 이루는 경우를 예로 하였지만 설명의 편의를 위한 것으로서 본 발명이 이에 한정되는 것은 아니며, 상기 제1 동작 윈도우는 필요에 따라 기준 평면 및 평면 경로와 수직이 아닌 소정 각도를 이룰 수도 있다.
상기 제1 동작 윈도우 모듈(102)의 제 1 가상 카메라부(102b)는 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 제1 동작 윈도우 및 사용자가 스케치하는 주 경로가 제 2 화면 상에 표시되도록 하는 제 1 가상 카메라를 포함한다.
도 2d에는 상기 제 1 가상 카메라가 도 2b에 나타낸 바와 같은 제1 동작 윈도우를 따라 이동하는 모습을 도시하였다.
도 2d를 참조하면, 상기 제 1 가상 카메라는 제1 동작 윈도우와는 소정 거리(d)를 두고 제1 동작 윈도우의 상하 폭의 반에 해당하는 높이(h)에 위치하여 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 제 1 가상 카메라가 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있으며, 이러한 캐트멀 롬 스플라인은 제1 동작 윈도우 상의 제어점(control point)을 지나므로 사용자에게 주 경로의 스케치가 쉬운 화면을 보여줄 수 있는 장점이 있다.
도 2e에는 사용자가 그리는 주 경로가 제1 동작 윈도우를 벗어나는 경우에 제 1 가상 카메라가 줌 아웃(zoom out)을 수행하는 예와, 사용자가 주 경로를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어 스케치하는 경우에 제 1 가상 카메라가 왼쪽 또는 오른쪽으로 스크롤링(scrolling)을 수행하는 예를 함께 도시하였다.
도 2e를 참조하면, 상기 제 1 가상 카메라는 사용자가 스케치하는 주 경로가 제1 동작 윈도우 내에 있는 경우에는 실선 사각형에 대응되는 영역, 즉 제1 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 주 경로가 제1 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 점선 사각형에 대응되는 영역, 즉 제1 동작 윈도우의 상하폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.
또한, 도 2e를 참조하면, 상기 제 1 가상 카메라는 사용자가 주 경로를 소정 방향(예 : 도 2e에서 오른쪽 방향)으로 진행하면서 스케치하다가 반대 방향(예 : 도 2e에서 왼쪽 방향)으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향에 대응되는 방향(예 : 도 2e에서 왼쪽 방향)으로 스크롤링을 수행함으로써, 사용자가 스케치하는 주 경로의 진행 방향을 따라 진행하면서 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.
상기 제 1 가상 카메라는 제 1 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동할 시에 제 1 동작 윈도우의 소정 길이에 대한 제 1 가상 카메라의 이동 거리를 체크하여 제 1 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 제1 동작 윈도우를 따르지 않고 최단 경로로 이동한다.
도 2f의 위쪽과 도 2g의 위쪽에는 상기 제1 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 모습의 예를 도시하였고, 도 2f의 아래쪽과 도 2g의 아래쪽에는 상기 제1 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 상기 꺾인 영역(a, d)과, 제1 가상 카메라의 이동 경로(b, e)와, 카메라 오프셋 세그먼트(c, f)들의 예를 도시하였다. 여기서, 도 2f에는 제1 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 제1 가상 카메라가 상기 꺾인 영역 외부를 따라 이동(outside turn)하는 경우를 도시하고, 도 2g에는 제1 동작 윈도우가 소정 각도로 꺾인 영역을 가지는 경우에 제 1 가상 카메라가 상기 꺾인 영역 내부를 따라 이동(inside turn)하는 경우를 도시하였다.
도 2f를 참조하면, 상기 제 1 가상 카메라는 카메라 오프셋 세그먼트(c) 두 개가 교차하지 않고 제 1 가상 카메라의 이동 길이(l i )가 제 1 문턱치(l 1 )보다 긴 경우에 제 1 가상 카메라가 제1 동작 윈도우의 꺾인 영역의 외부를 따라 이동하고 있다고 판단하여, 제 1 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다.
도 2g를 참조하면, 상기 제 1 가상 카메라는 카메라 오프셋 세그먼트(f) 두 개가 교차하고 가상 카메라의 이동 길이(l i )가 제 2 문턱치(l 2 )보다 긴 경우에는 제 1 가상 카메가 제1 동작 윈도우의 꺾인 영역의 내부를 따라 이동하고 있다고 판단하여, 제1 동작 윈도우가 아닌 최단 경로를 따라 이동하여 꺾인 영역을 벗어난다. 여기서, 제 1 문턱치(l 1 )는 제 2 문턱치(l 2 )보다 길다.
상기와 같이 제 1 가상 카메라가 꺾인 영역의 외부 또는 내부를 따라 이동하고 있다고 판단한 경우에 상기 제1 동작 윈도우 모듈(102)은 사용자가 현재 스케치하고 있는 주 경로의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하며, 상기 제 1 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 제1 동작 윈도우 모듈(102)은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 스케치를 이어나갈 수 있도록 한다.
도 4를 참조하면, 상기 제2 동작 윈도우 모듈(103)은 상세 경로 스케치부(103a)와 제 2 가상 카메라부(103b)를 포함하여 구성된다.
상기 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)는 중심에 상기 주 경로를 수직으로 관통시키는 다수의 제2 동작 윈도우를 소정 간격을 두고 연속으로 생성하고, 상기 제2 동작 윈도우를 표시하는 제 3 화면을 제 2 가상 카메라부(103b)를 통해 사용자에게 제공함으로써, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제2 동작 윈도우 상에 객체의 상세 경로를 스케치하면 객체의 상세 경로가 입력되며, 입력받은 객체의 상세 경로를 근사화하여 저장한다. 이때, 상기 상세 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있다.
상기 상세 경로 스케치부(103a)에서 생성되는 다수의 제2 동작 윈도우 간의 간격은 제1 동작 윈도우 모듈(102)을 통해 입력받은 속도 정보에 의해 결정된다.
즉, 상기 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)는 제1 동작 윈도우 모듈(102)을 통해 입력된 주 경로 중에서 높은 속도에 대응되는 영역에서는 제2 동작 윈도우들을 제 3 화면에 표시함에 있어서 상대적으로 큰 간격을 두고 표시하고, 낮은 속도에 대응되는 영역에서는 제2 동작 윈도우들을 제 3 화면에 표시함에 있어서 상대적으로 작은 간격을 두고 표시한다.
이와 같은 제2 동작 윈도우에 스케치된 객체의 상세 경로는 객체가 주 경로를 따라 이동하는 동안에 주 경로의 주위에서 상세한 이동(예 : 나선형 이동)을 하는 경우에 그 상세한 이동을 의미한다.
본 발명을 설명함에 있어서 애니메이션을 구현할 객체는 관절이 존재하지 않는 객체, 즉 비행기 등을 예로 하였지만 본 발명이 이에 한정되는 것은 아니며, 상기 객체는 본 발명의 요지를 벗어나지 않는 범위 내에서 관절이 있는 객체일 수 있으며, 이와 같이 상기 객체가 관절이 있는 객체인 경우에 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)는 사용자로부터 객체의 상세 경로뿐만 아니라 제스처 정보 및 높이 정보도 함께 입력받을 수도 있다.
도 5a에는 상기 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)에서 소정 간격을 두고 연속적으로 생성된 제2 동작 윈도우들의 예를 도시하였으며, 제2 동작 윈도우들이 생성됨에 따라 제 2 가상 카메라가 전진(또는 후진)하면서 제2 동작 윈도우를 촬영하는 모습도 함께 도시하였다.
도 5b에는 평면 경로를 따라 형성된 제1 동작 윈도우가 많이 굽은 이유로 인하여 제2 동작 윈도우들의 일부 영역이 서로 겹치는 경우에 제2 동작 윈도우들에 스케치한 상세 경로가 원치않는 역행으로 인식되게 되는 문제의 발생이 우려되는 경우에 제2 동작 윈도우 모듈(103)에서 수행하는 해결 방안을 설명하기 위한 평면도를 도시하였으며, 설명의 편의를 위하여 도 5a를 기준으로 z축의 (+)방향에서 (-)방향으로 제2 동작 윈도우들을 내려다본 모습을 도시하였다.
도 5b를 참조하면, 평면 경로를 따라 형성된 제1 동작 윈도우가 많이 굽은 이유로 인하여 연속된 제2 동작 윈도우들의 일부 영역이 서로 겹치는 경우에 사용자가 상기 겹치는 영역에 상세 경로를 스케치하면 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)에서는 사용자의 의도와는 다르게 역행하는 것으로 인식하게 되는 문제가 발생할 수 있는데, 이러한 문제를 해결하기 위하여 상세 경로 스케치부(103a)는 제2 동작 윈도우 상에 스케치된 상세 경로(예 : 도 5h의 P1 ~ P6)마다 앞, 뒤로 연속하는 소정 개수의 제2 동작 윈도우 상에 스케치된 상세 경로와의 탄젠트 값을 감시하여 역행이 감지되면 역행을 유발한 상세 경로(예 : 도 5h의 P4)는 무시(삭제)한다. 이로써, 이후에 객체에 대한 3D 애니메이션을 구현하였을 때 객체가 사용자의 의도와 다른 이상 동작을 하는 문제가 전혀 발생하지 않게 된다.
도 4를 참조하면, 상기 애니메이션 구현부(104)는 상술한 바와 같은 제2 동작 윈도우 모듈(103)로부터 입력받은 상세 경로에 따른 3차원 경로에 대한 미화(beautification) 과정을 수행한 후에, 상기 미화한 3차원 경로에 따라 애니메이션을 구현한다.
이때, 상기 객체가 관절이 있는 객체인 경우에는 제 2 동작 윈도우 모듈(103)로부터 입력받은 상세 경로뿐만 아니라 제1 동작 윈도우 모듈(102) 또는 제 2 동작 윈도우 모듈(103)로부터 입력받은 제스처 정보 및 높이 정보도 애니메이션 구현 시에 적용한다.
이하, 도 6을 참조하여 본 발명의 바람직한 제 2 실시예에 따른 애니메이션 저작 방법에 대하여 설명한다.
먼저, 평면 경로 모듈(101)은 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하고, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제 1 화면의 기준 평면 상에 스케치하는 객체(예 : 관절이 존재하지 않는 객체로서, 비행기 등)의 평면 경로를 샘플링하고 근사화하여 저장한다.(S101) 이때, 상기 평면 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있다.
다음으로, 상기 평면 경로 모듈(101)은 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력하는지 판단하여(S102), 수정 경로가 입력되었다고 판단되면 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체한다.(S103)
다음으로, 제1 동작 윈도우 모듈(102)은 평면 경로 모듈(101)을 통해 입력된 평면 경로를 따라 제1 동작 윈도우를 생성하고(S104), 상기 제1 동작 윈도우를 표시하는제 2 화면을 제 1 가상 카메라를 이용하여 사용자에게 제공하여, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제1 동작 윈도우 상에 객체의 주 경로를 스케치하면 객체의 주 경로 및 속도 정보가 입력된다.(S105) 이때, 상기 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응된다.
본 발명을 설명함에 있어서 애니메이션을 구현할 객체는 관절이 존재하지 않는 객체, 즉 비행기 등을 예로 하였지만 본 발명이 이에 한정되는 것은 아니며, 상기 객체는 본 발명의 요지를 벗어나지 않는 범위 내에서 관절이 있는 객체일 수 있으며, 이와 같이 상기 객체가 관절이 있는 객체인 경우에 상기 제1 동작 윈도우 모듈(102)의 주 경로 스케치부(102a)는 사용자로부터 객체의 주 경로 및 속도 정보뿐만 아니라 제스처 정보 및 높이 정보도 입력받는다.
상기 제1 동작 윈도우는 기준 평면 및 평면 경로와 수직을 이루거나 또는 수직이 아닌 소정 각도를 이룰 수 있다.
그리고, 상기 제 1 가상 카메라는 평면 경로와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동하면서 촬영하여 사용자에게 제1 동작 윈도우 및 사용자가 스케치하는 주 경로가 제 2 화면 상에 표시되도록 한다.
상기 제 1 가상 카메라는 제1 동작 윈도우와는 소정 거리를 두고 제1 윈도우의 상하폭의 반에 해당하는 높이에 위치하여 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다. 여기서, 상기 제 1 가상 카메라가 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 표시하는데 있어서는 캐트멀 롬 스플라인(catmull-rom-spline) 보간법을 이용할 수 있다.
상기 제 1 가상 카메라는 사용자가 스케치하는 주 경로가 제1 동작 윈도우 내에 있는 경우에는 제1 동작 윈도우의 상하 폭에 대응되는 영역을 제 2 화면을 통해 사용자에게 제공하며, 사용자가 그리는 주 경로가 제1 동작 윈도우를 벗어나는 경우에는 줌 아웃(zoom out)을 수행하여 제1 동작 윈도우의 상하 폭보다 긴 영역을 제 2 화면을 통해 사용자에게 제공한다.
그리고, 상기 제 1 가상 카메라는 사용자가 주 경로를 소정 방향으로 진행하면서 스케치하다가 반대 방향으로 진행 방향을 바꾸어서 스케치를 하는 경우에 상기 반대 방향과 대응되는 방향으로의 스크롤링을 수행함으로써, 사용자가 스케치하는 주 경로의 진행 방향을 따라 진행하면서 제1 동작 윈도우를 촬영한 모습을 제 2 화면을 통해 사용자에게 제공한다.
상기 제 1 가상 카메라는 제1 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동할 시에 제1 동작 윈도우의 소정 길이에 대한 제 1 가상 카메라의 이동 거리를 체크하여 제 1 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하여 제1 동작 윈도우를 따르지 않고 최단 경로로 이동한다. 이와 관련한 상세한 설명은 위에서 본 발명의 실시예에 따른 애니메이션 저작 시스템에 대하여 설명함에 있어서 도 2f와 도 2g를 참조하여 설명한 부분을 참조하도록 한다.
상기와 같이 제 1 가상 카메라가 제1 동작 윈도우의 꺾인 영역을 따라 이동하고 있다고 판단한 경우에 상기 제1 동작 윈도우 모듈은 사용자가 현재 스케치하고 있는 주 경로의 위치에 정지 마크를 찍고 스케치 속도를 포함하는 현재 스케치 상태를 저장하고, 이후에 상기 제 1 가상 카메라가 최단 경로를 통해 이동하여 꺾인 영역을 벗어난 후에는 상기 제1 동작 윈도우 모듈은 사용자가 정지 마크가 찍힌 위치에서 이전에 저장했던 스케치 상태에서 주 경로 스케치를 이어나갈 수 있도록 한다.
다음으로, 객체의 주 경로에 대한 상세 경로를 입력받을 것인지 결정한다.(S106)
다음으로, 객체의 주 경로에 대한 상세 경로를 입력받을 것이라고 결정되면, 상기 제2 동작 윈도우 모듈(103)은 제1 동작 윈도우 모듈(102)을 통해 입력된 주 경로를 중심에 수직으로 관통시키는 다수의 제2 동작 윈도우를 소정 간격을 두고 연속으로 생성하고(S107), 상기 제2 동작 윈도우를 표시하는 제 3 화면을 제 2 가상 카메라를 통해 사용자에게 제공하여, 사용자가 타블렛 펜, 마우스 및 터치 입력 장치 등의 입력 수단을 이용하여 상기 제2 동작 윈도우 상에 객체의 상세 경로를 스케치하면 객체의 상세 경로가 입력되며(S108), 입력받은 객체의 상세 경로를 근사화하여 저장한 후에 다음 단계(S109)로 진행한다. 반면에, 객체의 주 경로에 대한 상세 경로를 입력받지 않을 것이라고 결정되면 객체의 주 경로에 대한 상세 경로를 입력받지 않고 다음 단계(S109)로 진행한다.
상기 상세 경로를 샘플링하고 근사화하는데 있어서는 유니폼 큐빅 비-스플라인(Uniform cubic B-spline) 보간법을 이용할 수 있다.
상기 제2 동작 윈도우 모듈에서 생성되는 다수의 제2 동작 윈도우 간의 간격은 제1 동작 윈도우 모듈(102)을 통해 입력받은 속도 정보에 의해 결정된다.
즉, 상기 제2 동작 윈도우 모듈(103)은 제1 동작 윈도우 모듈(102)을 통해 입력된 주 경로 중에서 높은 속도에 대응되는 영역에서는 제2 동작 윈도우들을 제 3 화면에 표시함에 있어서 상대적으로 큰 간격을 두고 표시하고, 낮은 속도에 대응되는 영역에서는 제2 동작 윈도우들을 제 3 화면에 표시함에 있어서 상대적으로 작은 간격을 두고 표시한다.
이와 같은 제2 동작 윈도우에 스케치된 객체의 상세 경로는 객체가 주 경로를 따라 이동하는 동안에 주 경로 주위에서 상세한 이동(예 : 나선형 이동)을 하는 경우에 그 상세한 이동을 의미한다.
본 발명을 설명함에 있어서 애니메이션을 구현할 객체는 관절이 존재하지 않는 객체, 즉 비행기 등을 예로 하였지만 본 발명이 이에 한정되는 것은 아니며, 상기 객체는 본 발명의 요지를 벗어나지 않는 범위 내에서 관절이 있는 객체일 수 있으며, 이와 같이 상기 객체가 관절이 있는 객체인 경우에 제2 동작 윈도우 모듈(103)의 상세 경로 스케치부(103a)는 사용자로부터 객체의 상세 경로뿐만 아니라 제스처 정보 및 높이 정보도 입력받는다.
그리고, 상기 제2 동작 윈도우 모듈(103)이 사용자로부터 제2 동작 윈도우 상에 상세 경로를 입력받음에 있어서, 제2 동작 윈도우 상에 스케치된 상세 경로마다 앞, 뒤로 연속하는 소정 개수의 제2 동작 윈도우 상에 스케치된 상세 경로와의 탄젠트 값을 감시하여 역행이 감지되면 역행을 유발한 상세 경로는 무시(삭제)한다. 이로써, 제1 동작 윈도우가 많이 굽은 이유로 인하여 제2 동작 윈도우들의 일부 영역이 서로 겹치는 경우에 사용자가 상기 겹치는 영역에 상세 경로를 스케치하더라도, 제2 동작 윈도우 모듈(103)은 사용자의 의도와 동일한 상세 경로를 오류 없이 인식하게 된다.
다음으로, 상기 애니메이션 구현부(104)는 상기 제2 동작 윈도우 모듈(103)로부터 입력받은 상세 경로에 따른 3차원 경로, 또는 상기 제1 동작 윈도우 모듈(102)로부터 입력받은 주 경로에 따는 3차원 경로에 대한 미화(beautification) 과정을 수행한 후에(S109), 상기 미화한 3차원 경로에 따라 애니메이션을 구현한다.(S110)
이때, 상기 객체가 관절이 있는 객체인 경우에는 제 2 동작 윈도우 모듈(103)로부터 입력받은 상세 경로뿐만 아니라 제1 동작 윈도우 모듈(102) 또는 제 2 동작 윈도우 모듈(103)로부터 입력받은 제스처 정보 및 높이 정보도 애니메이션 구현 시에 적용한다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예 : ROM, 플로피 디스트, 하드 디스크, 자기 테이트 등), 광학적 판독 매체(예 : CD-ROM, DVD, 광데이터 저장 장치 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)과 같은 저장 매체를 포함한다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (40)

  1. a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계;
    b) 상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 단계; 및
    c) 상기 입력된 동작 정보에 따라 애니메이션을 구현하는 단계;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 방법.
  2. 제 1 항에 있어서, 상기 a) 단계에서는, 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하여, 사용자가 기준 평면 상에 스케치하는 객체의 평면 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  3. 제 1 항에 있어서, 상기 b) 단계에서는, 동작 윈도우를 표시하는 제 2 화면을 사용자에게 제공하여, 사용자가 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터를 포함하는 객체의 동작 정보를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  4. 제 3 항에 있어서, c) 단계는,
    c1) 상기 제스처 데이터를 미리 저장된 동작 데이터 중에 대응되는 것으로 변환한 후에, 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 단계; 및
    c2) 상기 동작 시퀀스에 따라 애니메이션을 구현하는 단계;
    를 포함하는 애니메이션 저작 방법.
  5. 제 1 항에 있어서, a) 단계에서 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하는 것을 특징으로 하는 애니메이션 저작 방법.
  6. 제 3 항에 있어서, 상기 b) 단계에서는 가상 카메라가 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동하면서 사용자에게 동작 윈도우 및 사용자가 그리는 제스처를 제 2 화면 상에 표시하는 것을 특징으로 하는 애니메이션 저작 방법.
  7. 제 6 항에 있어서, 상기 가상 카메라는 사용자가 그리는 제스처가 동작 윈도우를 벗어나는 경우에 줌 아웃(zoom out)을 하는 것을 특징으로 하는 애니메이션 저작 방법.
  8. 제 6 항에 있어서, 상기 가상 카메라는 제스처의 이동 방향이 반대 방향으로 바뀌는 경우에 상기 반대 방향에 대응되는 방향으로 스크롤링을 수행하는 것을 특징으로 하는 애니메이션 저작 방법.
  9. 제 6 항에 있어서, 상기 가상 카메라는 동작 윈도우와 소정 거리를 두고 제스처의 이동 방향을 따라 이동할 시에 평면 경로 중에 소정 각도로 꺾인 영역을 만나면, 동작 윈도우를 따르지 않고 최단 경로를 통해 이동하는 것을 특징으로 하는 애니메이션 저작 방법.
  10. 제 9 항에 있어서, 상기 가상 카메라는 평면 경로의 소정 길이에 대한 가상 카메라의 이동 거리를 체크하여 가상 카메라의 이동 거리가 소정 문턱치보다 긴 경우에 꺾인 영역이라고 판단하는 것을 특징으로 하는 애니메이션 저작 방법.
  11. 제 9 항에 있어서, 가상 카메라가 꺾인 영역을 만나게 되는 시점에는 사용자가 그리고 있는 제스처의 위치에 정지 마크를 찍고 현재 상태를 저장하고, 가상 카메라가 최단 경로를 통해 이동한 후에는 사용자가 상기 정지 마크가 찍힌 위치부터 다시 제스처를 스케치할 수 있도록 하는 것을 특징으로 하는 애니메이션 저작 방법.
  12. 제 4 항에 있어서, 상기 c1) 단계는,
    c11) 동작 윈도우 모듈로부터 입력된 제스처 데이터들을 구역화하는 단계;
    c12) 상기 구역화한 각 제스처 데이터의 인식이 가능한지 판단하는 단계;
    c13) 인식이 가능하다고 판단되면 제스처 데이터를 동작 데이터로 변환하고, 인식이 가능하지 않다고 판단되면 미리 저장된 기본 동작에 대응되는 제스처 데이터로 대체한 후에 동작 데이터로 변환하는 단계; 및
    c14) 동작 데이터와 파라미터를 시간에 따라 정리하여 동작 시퀀스를 생성하는 단계;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 방법.
  13. 제 12 항에 있어서, 상기 c12) 단계에서는 각 제스처 데이터가 미리 저장된 동작 데이터들 중 하나에 대응되는지 판단하는 것을 특징으로 하는 애니메이션 저작 방법.
  14. 제 3 항에 있어서, 상기 파라미터는 객체의 속도, 높이 등을 포함하며, 상기 객체의 속도는 사용자가 제스처를 그려나가는 속도에 대응되고 상기 객체의 높이는 사용자가 그린 제스처의 높이에 대응되는 것을 특징으로 하는 애니메이션 저작 방법.
  15. 제 3 항에 있어서, 상기 b) 단계에서는 사용자가 제스처를 그리는 도중에 수직으로 선을 그어 올린 후에 소정 시간 머무르면 제자리 동작 선택 메뉴를 사용자에게 보여주고 사용자가 제자리 동작 중에 하나를 선택하도록 하는 것을 특징으로 하는 애니메이션 저작 방법.
  16. 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈;
    상기 평면 경로를 따라 형성되어 기준 평면과 소정 각도를 이루는 동작 윈도우를 생성하여, 상기 동작 윈도우 상에서 상기 객체의 동작 정보를 사용자로부터 입력받는 동작 윈도우 모듈; 및
    상기 입력된 동작 정보에 따라 애니메이션을 구현하는 애니메이션 구현부;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 시스템.
  17. 제 16 항에 있어서, 상기 평면 경로 모듈은 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하여, 사용자가 기준 평면 상에 그리는 객체의 평면 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 시스템.
  18. 제 16 항에 있어서, 상기 동작 윈도우 모듈은 동작 윈도우를 표시하는 제 2 화면을 사용자에게 제공하여, 사용자가 동작 윈도우 상에 객체의 동작에 대한 제스처를 그리면 제스처 데이터 및 파라미터를 포함하는 객체의 동작 정보를 입력받는 것을 특징으로 하는 애니메이션 저작 시스템.
  19. 제 18 항에 있어서, 상기 동작 윈도우 모듈로부터의 제스처 데이터를 미리 저장된 동작 데이터 중에 대응되는 것으로 변환한 후에 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 분석 모듈이 추가로 구비되는 것을 특징으로 하는 애니메이션 저작 시스템.
  20. 제 19 항에 있어서, 상기 분석 모듈은 동작 윈도우 모듈로부터 입력된 제스처 데이터들을 구역화한 후에, 상기 구역화한 각 제스처 데이터의 인식이 가능한지 판단하여 인식이 가능하다고 판단되면 미리 저장된 동작 데이터 중에 대응되는 것으로 변환하고 인식이 가능하지 않다고 판단되면 미리 저장된 기본 동작에 대응되는 제스처로 대체한 후에 미리 저장된 동작 데이터 중에 대응되는 것으로 변환하여, 이후에 상기 파라미터와 함께 시간에 따라 정리하여 동작 시퀀스를 생성하는 것을 특징으로 하는 애니메이션 저작 시스템.
  21. 제 20 항에 있어서, 상기 분석 모듈이 구역화한 각 제스처의 데이터의 인식이 가능한지 판단하는 작업은 각 제스처 데이터가 미리 저장된 동작 데이터들 중 하나에 대응되는지 판단하여 수행되는 것을 특징으로 하는 애니메이션 저작 시스템.
  22. a) 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 단계;
    b) 상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 단계;
    c) 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 단계; 및
    d) 상기 입력된 상세 경로에 따라 애니메이션을 구현하는 단계;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 방법.
  23. 제 22 항에 있어서, 상기 a) 단계에서는, 상기 기준 평면을 표시하는 제 1 화면을 사용자에게 제공하여, 사용자가 기준 평면 상에 스케치하는 객체의 평면 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  24. 제 22 항에 있어서, 상기 a) 단계에서 사용자가 이미 그린 평면 경로와 적어도 한 번 교차하는 수정 경로를 입력해오면, 수정 경로를 교차점을 기준으로 다수 영역으로 구분한 후에 상기 다수 영역 중에 가장 긴 영역을 평면 경로의 일부로 대체하는 것을 특징으로 하는 애니메이션 저작 방법.
  25. 제 22 항에 있어서, 상기 b) 단계에서는, 상기 제1 동작 윈도우를 표시하는 제 2 화면을 사용자에게 제공하여, 사용자가 제1 동작 윈도우 상에 객체의 주 경로 및 속도 정보를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  26. 제 22 항에 있어서, 상기 객체의 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응되는 것을 특징으로 하는 애니메이션 저작 방법.
  27. 제 22 항에 있어서, 상기 b) 단계에서는 제 1 가상 카메라가 제1 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동하면서 사용자에게 제1 동작 윈도우 및 사용자가 그리는 주 경로를 제 2 화면 상에 표시하는 것을 특징으로 하는 애니메이션 저작 방법.
  28. 제 27 항에 있어서, 상기 제 1 가상 카메라는 제1 동작 윈도우와 소정 거리를 두고 주 경로의 이동 방향을 따라 이동할 시에 평면 경로 중에 소정 각도로 꺾인 형상을 만나면, 제1 동작 윈도우를 따르지 않고 최단 경로를 통해 이동하는 것을 특징으로 하는 애니메이션 저작 방법.
  29. 제 27 항에 있어서, 상기 카메라가 꺾인 영역을 만나게 되는 시점에는 사용자가 그리고 있는 주 경로의 위치에 정지 마크를 찍고 현재 상태를 저장하고, 가상 카메라가 최단 경로를 통해 이동한 후에는 사용자가 상기 정지 마크가 찍힌 위치부터 다시 주 경로를 스케치할 수 있도록 하는 것을 특징으로 하는 애니메이션 저작 방법.
  30. 제 22 항에 있어서, 상기 c) 단계에서는, 상기 제2 동작 윈도우를 표시하는 제 3 화면을 사용자에게 제공하여, 사용자가 제2 동작 윈도우 상에 스케치하는 객체의 상세 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  31. 제 22 항에 있어서, 상기 c) 단계에서는 제 2 가상 카메라가 제2 동작 윈도우와 소정 거리를 유지하면서 사용자에게 제2 동작 윈도우 및 사용자가 그리는 상세 경로를 제 3 화면 상에 표시하는 것을 특징으로 하는 애니메이션 저작 방법.
  32. 제 22 항에 있어서, 상기 c) 단계에서는, 상기 주 경로가 중심에 관통되는 다수의 제2 동작 윈도우를 소정 간격을 두고 연속으로 생성하여 제 3 화면을 통해 사용자에게 제공하여, 사용자가 제2 동작 윈도우 상에 스케치하는 객체의 상세 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 방법.
  33. 제 32 항에 있어서, 상기 제2 동작 윈도우는 중심에 상기 주 경로를 수직으로 관통시키는 것을 특징으로 하는 애니메이션 저작 방법.
  34. 제 32 항에 있어서, b) 단계에서는 객체의 주 경로 및 속도 정보를 사용자로부터 입력받고, 상기 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응되며,
    상기 다수의 제2 동작 윈도우 간의 간격은 상기 속도 정보에 의해 결정되는 것을 특징으로 하는 애니메이션 저작 방법.
  35. 제 22 항에 있어서, 상기 d) 단계에서는, 상기 상세 경로에 따른 3차원 경로에 대한 미화(beautification)를 수행한 후에, 상기 미화한 3차원 경로에 따라 애니메이션을 구현하는 것을 특징으로 하는 애니메이션 저작 방법.
  36. 제 22 항에 있어서, 상기 c) 단계에서는, 앞, 뒤로 연속하는 소정 개수의 제2 동작 윈도우에 입력된 상세 경로 간의 탄젠트값을 감시하여 상세 경로 중에 원치않는 역행이 감지되면, 역행을 유발한 영역은 무시하는 것을 특징으로 하는 애니메이션 저작 방법.
  37. 미리 결정된 기준 평면 상에서 객체의 평면 경로를 사용자로부터 입력받는 평면 경로 모듈;
    상기 평면 경로로부터 연장되어 기준 평면과 소정 각도를 이루는 제1 동작 원도우를 생성하여, 상기 제1 동작 윈도우 상에서 상기 객체의 주 경로를 사용자로부터 입력받는 제1 동작 윈도우 모듈;
    상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 생성하여, 상기 제2 동작 윈도우 상에서 상기 객체의 상세 경로를 사용자로부터 입력받는 제2 동작 윈도우 모듈; 및
    상기 입력된 상세 경로에 따라 애니메이션을 구현하는 애니메이션 구현부;
    를 포함하는 것을 특징으로 하는 애니메이션 저작 시스템.
  38. 제 37 항에 있어서, 상기 제2 동작 윈도우 모듈은 중심에 상기 주 경로를 관통시키는 다수의 제2 동작 윈도우를 소정 간격을 두고 연속으로 생성하여 화면을 통해 사용자에게 제공하여, 사용자가 제2 동작 윈도우 상에 스케치하는 객체의 상세 경로를 입력받는 것을 특징으로 하는 애니메이션 저작 시스템.
  39. 제 38 항에 있어서, 제1 동작 윈도우 모듈은 객체의 주 경로 및 속도 정보를 사용자로부터 입력받고, 상기 속도 정보는 사용자가 주 경로를 그려나가는 속도에 대응되며,
    상기 다수의 제2 동작 윈도우 간의 간격은 상기 속도 정보에 의해 결정되는 것을 특징으로 하는 애니메이션 저작 시스템.
  40. 제 37 항에 있어서, 상기 제2 동작 윈도우 모듈은 앞, 뒤로 연속하는 소정 개수의 제2 동작 윈도우에 입력된 상세 경로 간의 탄젠트값을 감시하여 상세 경로 중에 원치않는 역행이 감지되면 역행을 유발한 영역은 무시하는 것을 특징으로 하는 애니메이션 저작 방법.
PCT/KR2010/007926 2010-05-25 2010-11-10 애니메이션 저작 시스템 및 애니메이션 저작 방법 WO2011149160A1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013512515A JP5689953B2 (ja) 2010-05-25 2010-11-10 アニメーション著作システムおよびアニメーション著作方法
US13/695,409 US10152817B2 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
AU2010354148A AU2010354148B2 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
CN201080066546.7A CN103038797B (zh) 2010-05-25 2010-11-10 动画制作系统以及动画制作方法
EP10852246.7A EP2579216B1 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
US16/175,187 US10783692B2 (en) 2010-05-25 2018-10-30 Animation authoring system and method for authoring animation

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2010-0048651 2010-05-25
KR1020100048651A KR101155045B1 (ko) 2010-05-25 2010-05-25 애니메이션 저작 시스템 및 애니메이션 저작 방법
KR1020100049780A KR101155041B1 (ko) 2010-05-27 2010-05-27 애니메이션 저작 시스템 및 애니메이션 저작 방법
KR10-2010-0049780 2010-05-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/695,409 A-371-Of-International US10152817B2 (en) 2010-05-25 2010-11-10 Animation authoring system and method for authoring animation
US16/175,187 Continuation US10783692B2 (en) 2010-05-25 2018-10-30 Animation authoring system and method for authoring animation

Publications (1)

Publication Number Publication Date
WO2011149160A1 true WO2011149160A1 (ko) 2011-12-01

Family

ID=45004129

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/007926 WO2011149160A1 (ko) 2010-05-25 2010-11-10 애니메이션 저작 시스템 및 애니메이션 저작 방법

Country Status (5)

Country Link
US (2) US10152817B2 (ko)
EP (1) EP2579216B1 (ko)
JP (1) JP5689953B2 (ko)
CN (1) CN103038797B (ko)
WO (1) WO2011149160A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014062001A1 (ko) 2012-10-16 2014-04-24 Jeon Jae Woong 3차원의 가상 공간 내에서 가상 카메라를 제어하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
WO2017164511A1 (ko) * 2016-03-25 2017-09-28 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR20170112891A (ko) * 2016-03-25 2017-10-12 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10182141B2 (en) * 2011-12-22 2019-01-15 Nokia Technologies Oy Apparatus and method for providing transitions between screens
US9626742B2 (en) 2011-12-22 2017-04-18 Nokia Technologies Oy Apparatus and method for providing transitions between screens
KR20140095414A (ko) * 2013-01-24 2014-08-01 (주) 애니펜 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
JP6222830B2 (ja) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 画像投射装置
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
CN104700443A (zh) * 2015-03-26 2015-06-10 金陵科技学院 一种优化模糊输入状态的三维动画制作系统及方法
US10373392B2 (en) * 2015-08-26 2019-08-06 Microsoft Technology Licensing, Llc Transitioning views of a virtual model
KR101885746B1 (ko) 2016-05-31 2018-08-06 (주) 젤리피쉬월드 스마트 단말을 이용하여 동작 컨텐트를 자동으로 생성하는 장치 및 방법
CN106327582A (zh) * 2016-08-22 2017-01-11 深圳马顿科技有限公司 3d模型的图形绘制系统
US10438414B2 (en) 2018-01-26 2019-10-08 Microsoft Technology Licensing, Llc Authoring and presenting 3D presentations in augmented reality
CN114782595B (zh) * 2022-06-21 2022-09-13 山东捷瑞数字科技股份有限公司 一种基于三维引擎的最短距离轨迹确定方法、装置及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536234A (ja) * 2005-04-11 2008-09-04 サムスン エレクトロニクス カンパニー リミテッド 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置
KR20090076540A (ko) * 2008-01-09 2009-07-13 에스케이 텔레콤주식회사 가상 캐릭터의 동작 애니메이션 재생 방법 및 시스템
KR20100054078A (ko) * 2008-11-13 2010-05-24 삼성전자주식회사 스토리보드를 통한 애니메이션 저작 장치 및 그 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594856A (en) * 1994-08-25 1997-01-14 Girard; Michael Computer user interface for step-driven character animation
US5830066A (en) * 1995-05-19 1998-11-03 Kabushiki Kaisha Sega Enterprises Image processing device, image processing method, and game device and storage medium using the same
US5854634A (en) * 1995-12-26 1998-12-29 Imax Corporation Computer-assisted animation construction system using source poses within a pose transformation space
JP2000036057A (ja) * 1998-07-21 2000-02-02 Hitachi Ltd キャラクタの動作生成方法
JP2002083317A (ja) * 2000-09-07 2002-03-22 Sony Corp 画像処理システム及び画像処理方法、並びに記憶媒体
US7391420B1 (en) * 2000-09-28 2008-06-24 At&T Corp. Graphical user interface graphics-based interpolated animation performance
JP4535604B2 (ja) * 2000-11-28 2010-09-01 株式会社バンダイナムコゲームス ゲームシステム及びプログラム
JP4123187B2 (ja) * 2004-05-13 2008-07-23 ソニー株式会社 アニメーション生成装置、アニメーション生成方法およびアニメーション生成プログラム
US7454717B2 (en) * 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
JP2007025979A (ja) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> 動画像編集システム、動画像編集方法、動画像編集プログラム及び記録媒体
US7696998B2 (en) * 2006-02-21 2010-04-13 Chrysler Group Llc Pen-based 3D drawing system with 3D orthographic plane or orthographic ruled surface drawing
US20100134499A1 (en) * 2008-12-03 2010-06-03 Nokia Corporation Stroke-based animation creation
US20120206419A1 (en) * 2011-02-11 2012-08-16 Massachusetts Institute Of Technology Collapsible input device
US20130222363A1 (en) * 2012-02-23 2013-08-29 Htc Corporation Stereoscopic imaging system and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536234A (ja) * 2005-04-11 2008-09-04 サムスン エレクトロニクス カンパニー リミテッド 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置
KR20090076540A (ko) * 2008-01-09 2009-07-13 에스케이 텔레콤주식회사 가상 캐릭터의 동작 애니메이션 재생 방법 및 시스템
KR20100054078A (ko) * 2008-11-13 2010-05-24 삼성전자주식회사 스토리보드를 통한 애니메이션 저작 장치 및 그 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2579216A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014062001A1 (ko) 2012-10-16 2014-04-24 Jeon Jae Woong 3차원의 가상 공간 내에서 가상 카메라를 제어하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
JP2016502171A (ja) * 2012-10-16 2016-01-21 ジョン、ジェ ウンJEON, Jae Woong 3次元の仮想空間内で仮想カメラを制御するための方法、システムおよびコンピュータ読取可能な記録媒体
WO2017164511A1 (ko) * 2016-03-25 2017-09-28 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR20170112891A (ko) * 2016-03-25 2017-10-12 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR20170133294A (ko) * 2016-03-25 2017-12-05 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR101979754B1 (ko) * 2016-03-25 2019-05-17 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR102427787B1 (ko) * 2016-03-25 2022-08-02 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체

Also Published As

Publication number Publication date
JP2013530457A (ja) 2013-07-25
EP2579216A4 (en) 2017-08-23
EP2579216B1 (en) 2020-04-22
CN103038797B (zh) 2016-05-04
US20190073818A1 (en) 2019-03-07
EP2579216A1 (en) 2013-04-10
CN103038797A (zh) 2013-04-10
US20130135316A1 (en) 2013-05-30
US10783692B2 (en) 2020-09-22
US10152817B2 (en) 2018-12-11
JP5689953B2 (ja) 2015-03-25
AU2010354148A1 (en) 2013-01-24

Similar Documents

Publication Publication Date Title
WO2011149160A1 (ko) 애니메이션 저작 시스템 및 애니메이션 저작 방법
WO2014129862A1 (en) Method for controlling display of multiple objects depending on input related to operation of mobile terminal, and mobile terminal therefor
WO2012096451A2 (en) Method and apparatus for editing touch display
WO2014088343A1 (en) Display device and method of controlling the same
WO2012057394A1 (ko) 멀티 터치 특징정보 추출방법 및 그 멀티 터치 특징정보를 이용한 멀티 터치 제스처 인식방법
WO2015141891A1 (en) Display device and method for controlling the same
WO2014017790A1 (en) Display device and control method thereof
WO2013089476A1 (en) Display apparatus and method of changing screen mode using the same
WO2016028042A1 (en) Method of providing visual sound image and electronic device implementing the same
WO2018074821A1 (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
WO2015020496A1 (ko) 동영상 편집을 위한 사용자 인터페이스의 제공장치, 그 제공방법 및 기록매체
WO2015026099A1 (ko) 디스플레이 장치가 화면을 디스플레이 하는 방법 및 그 디스플레이 장치
WO2016111573A1 (ko) 파일 변환 방법 및 장치
WO2017209568A1 (ko) 전자 장치 및 그의 동작 방법
WO2014098416A1 (en) Augmented reality system and control method thereof
WO2020054978A1 (ko) 이미지 생성 장치 및 그 방법
WO2019132566A1 (ko) 멀티 심도 이미지의 자동 생성 방법
KR101155045B1 (ko) 애니메이션 저작 시스템 및 애니메이션 저작 방법
WO2016080596A1 (ko) 프로토타이핑 툴을 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2015126190A1 (ko) 사용자 인터페이스를 제공하는 방법 및 이를 수행하기 위한 플렉시블 디바이스
WO2016088922A1 (ko) 모바일 디바이스 및 웨어러블 디바이스를 이용한 인터페이스 제공 방법
WO2019132563A1 (ko) 이미지 패닝 방법
WO2012034469A1 (zh) 基于手势的人机交互方法及系统、计算机存储介质
WO2021040180A1 (ko) 디스플레이장치 및 그 제어방법
WO2020230921A1 (ko) 레이저 패턴을 이용하여 이미지 내의 특징을 추출하는 방법 및 이를 적용한 식별장치와 로봇

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080066546.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10852246

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013512515

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11170/DELNP/2012

Country of ref document: IN

Ref document number: 2010852246

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2010354148

Country of ref document: AU

Date of ref document: 20101110

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13695409

Country of ref document: US