WO2017164511A1 - 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 - Google Patents
애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 Download PDFInfo
- Publication number
- WO2017164511A1 WO2017164511A1 PCT/KR2017/001292 KR2017001292W WO2017164511A1 WO 2017164511 A1 WO2017164511 A1 WO 2017164511A1 KR 2017001292 W KR2017001292 W KR 2017001292W WO 2017164511 A1 WO2017164511 A1 WO 2017164511A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- motion
- character
- window
- animation
- point
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Definitions
- the present invention relates to a method, system and computer readable recording medium for authoring animation.
- 3D animation is frequently used in movies and TV, and the 3D animation editing tool is used for authoring such 3D animation.
- the existing 3D animation editing tool is complicated and difficult to use. It is common to use only by trained professionals.
- the present inventors propose a technique for easily controlling a direction in which a character faces while performing a motion or an interaction between a motion performed by each of two or more characters by using a motion window.
- the object of the present invention is to solve all the above-mentioned problems.
- the present invention provides a motion window in response to at least one motion performed by the character included in the animation, and the character is referred to by referring to the direction of the motion window that can be rotated by the first user manipulation. Another object is to determine the direction that the character faces when performing at least one motion, thereby allowing the user to easily control the direction that character faces when the character in the animation performs the motion.
- the present invention determines the interaction between the motions performed by each of the two or more characters, thereby allowing the user in the animation. Another object is to enable easy control of the interaction between motions performed by each of two or more characters.
- a method for authoring an animation comprising: providing a motion window corresponding to at least one motion performed by a character included in the animation, and being rotated by a first user manipulation; Determining, by reference to the direction of the motion window, the direction that the character faces or the direction in which the at least one motion is performed when the character performs the at least one motion in the animation. This is provided.
- a system for authoring an animation comprising: a motion window manager for providing a motion window corresponding to at least one motion performed by a character included in the animation;
- a non-expert can provide an animation authoring tool that can easily control the direction in which a character performing a predetermined motion in a three-dimensional animation or an interaction between a motion performed by each of two or more characters. do.
- the animation is performed by the user simply performing a simple touch operation (for example, tap, hold, drag, pinch, etc.), mouse operation, motion operation, and the like. Since the control regarding the motion of the characters within can be performed, an effect that enables a general user to author a high quality animation using a mobile device such as his smartphone or tablet is achieved.
- FIG. 1 is a diagram illustrating an internal configuration of an animation authoring system according to an embodiment of the present invention.
- FIGS. 2 to 5 are diagrams exemplarily illustrating a configuration for supporting a user to control a direction of a character using a motion window according to an embodiment of the present invention.
- FIG. 6 is a diagram illustrating a relationship between motions of each of two or more characters defined by a motion map according to an embodiment of the present invention.
- a microcomputer is provided with memory means such as a personal computer (for example, a desktop computer, a notebook computer, etc.), a server, a workstation, a PDA, a web pad, a mobile phone, a smartphone, a tablet PC, and the like.
- a personal computer for example, a desktop computer, a notebook computer, etc.
- a server for example, a desktop computer, a notebook computer, etc.
- a server for example, a desktop computer, a notebook computer, etc.
- a workstation for example, a desktop computer, a notebook computer, etc.
- PDA personal digital assistant
- web pad a web pad
- mobile phone a smartphone
- smartphone a tablet PC
- the animation authoring system a motion that can receive a motion manipulation from the user using a touch screen, an infrared sensor, an acceleration sensor, etc. that can receive a touch manipulation from the user
- It may include various input means such as input means, and may include display means for displaying an animation including
- FIG. 1 is a diagram illustrating an internal configuration of an animation authoring system according to an embodiment of the present invention.
- the animation authoring system 100 may include a moving line manager 110, a motion sequence manager 120, a motion window manager 130, a motion property manager 140, and a motion.
- the interaction manager 150, the animation manager 160, the communicator 170, and the controller 180 may be included.
- the 170 and the controller 180 may be program modules in which at least some of them communicate with an external system (not shown). Such program modules may be included in the animation authoring system 100 in the form of operating systems, application modules, and other program modules, and may be physically stored on various known storage devices.
- program modules may be stored in a remote storage device that can communicate with the animation authoring system 100.
- program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, described below, in accordance with the present invention.
- the copper line management unit 110 refers to a user operation input with respect to a reference plane, which is a virtual plane defined by a display screen on which a character is displayed, so that the character is displayed on the reference plane.
- a function of generating a moving line representing a moving path may be performed.
- the copper wire management unit 110 is at least one included in the previously generated copper wire with reference to a user operation input to the reference plane (specifically, the copper wire generated above).
- the function of specifying a section of or specifying at least one point on the previously generated copper wire may be performed.
- the motion sequence manager 120 refers to a user's operation input to a reference plane (specifically, a copper line in which at least one section is specified as described above), and the entire copper line is referred to.
- a reference plane specifically, a copper line in which at least one section is specified as described above
- the entire copper line is referred to.
- the motion that can be given to a copper wire, a section or a point may include walking, running, jumping, rolling, crawling, punching, shrugging, shaking, talking, singing, a motion expressing the emotional state of the character, and the like.
- Various operations of may be included.
- the type of motion in the present invention is not necessarily limited to those listed above, it will be appreciated that it can be added or changed as much as possible within the scope that can achieve the object of the present invention.
- a graphic user interface may be provided that supports a user inputting a user operation to set a copper line, a section or a point and give motion to the copper line, a section or a point.
- the graphical user interface includes a graphic element indicating various motions of a character that can be given to a moving line, a section or a point, and a pot controller displayed to visually include the graphic element.
- pod controller a graphic element indicating various motions of a character that can be given to a moving line, a section or a point
- these graphic elements and pod controllers may be displayed corresponding to copper lines, sections, or points.
- the motion window manager 130 provides a motion window corresponding to at least one motion performed by a character included in the animation (that is, assigned to the character). To perform the function.
- the motion window is specified by a virtual finite plane that can freely rotate about at least one axis of rotation (for example, X, Y, Z, etc.). Can be.
- the motion window manager 130 may perform a function of rotating the motion window according to the first user manipulation.
- the first user manipulation may be an operation (for example, dragging) input through a graphic element (for example, a handle) added to a specific point on the motion window. have.
- the motion window manager 130 may perform a function of changing the size of the motion window according to the second user manipulation.
- the second user manipulation may be an operation (for example, dragging, zooming in, zooming out, etc.) input based on the edge of the motion window.
- the motion property management unit 140 refers to the direction of the motion window that can be rotated by the first user operation, when the character performs at least one motion, the character A function of determining a direction in which the heading is directed or a direction in which the at least one motion is performed may be performed.
- the direction in which the character is facing while performing a certain motion may include, for example, a direction in which the face or the body of the character is looking while kicking the character.
- the direction in which the character performs or progresses may include, for example, a direction in which the character runs, a direction in which the character kicks, and the like.
- the motion property management unit 140 with reference to the direction of the motion window (which can be rotated by the first user operation) provided corresponding to the specific motion performed by the character,
- the direction that the above character faces or the direction in which the above specific motion is performed may be determined to be the same as the direction of the above motion window.
- FIGS. 2 to 5 are diagrams exemplarily illustrating a configuration for supporting a user to control a direction of a character using a motion window according to an embodiment of the present invention.
- An interface may be provided.
- This graphical user interface includes graphical elements 240 that indicate the various motions of the character that can be assigned to a copper line, section or point and a pod controller 230 that is displayed to visually include these graphical elements.
- the graphic element 240 and the pot controller 230 may be displayed corresponding to the copper line 220, the section or the point 221.
- a motion window may be further provided to assist a user in controlling a property of a motion in response to selecting a preset graphic element 231.
- the motion windows 350 and 450 may be freely rotated by a first user manipulation input through the handles 351 and 451, and the motion windows 350 and 450 may be rotated.
- the heading direction is a direction in which a face or a body is directed or a motion corresponding to the motion windows 350 and 450 while the characters 310 and 410 perform a motion corresponding to the motion windows 350 and 450. Can be determined as the direction.
- an animation including a state in which the character 510 moves along a predetermined movement line and performs at least one motion given to the entire movement line, section or point may be generated.
- the generated animation of the character 510 may include a state in which the character 510 performs the at least one motion toward the predetermined direction 560 or at least one motion performed by the character 510 is performed in the predetermined direction 560. have.
- the motion property management unit 140 refers to a shape or pattern of a guide line input on a motion window provided corresponding to a motion performed by the character, The function of determining the attribute of at least one motion performed by the character can be performed.
- the property of the motion which may be determined based on the shape or pattern of the guideline input on the motion window, may include the type of motion, the size of the motion, the speed of the motion, and the like. .
- the height of the kick performed by the character may be adaptively determined according to the degree of the curve of the guideline sketched on the motion window provided corresponding to the kick motion.
- the speed of the run performed by the character may be adaptively determined according to the speed at which the guideline is sketched on the motion window provided corresponding to the running motion.
- the motion window includes two or more characters as the motion window is adjusted by the second user operation, each of the two or more characters. It can be determined that a predetermined interaction occurs between these motions.
- the motion interaction management unit 150 as the size of the motion window provided corresponding to the motion performed by the first character is adjusted, the corresponding motion window is a moving line through which the first character passes, In addition to at least a portion of the section or point, as well as at least a portion of the moving line, section or point passing by the second character located around the first character, the motion of the first character and the motion corresponding to the above motion window It may be determined that the motion of the second character corresponding to at least a part of the moving line, the section or the point of the second character included in the window interacts.
- the first character and the second character are associated based on the motion window
- the first character is included in the movement line, section or point commonly included in the motion window.
- the motion performed and the motion performed by the second character may be brought into interaction.
- the motion interaction manager 150 includes the motion interaction manager 150 in common in the corresponding motion window among the moving lines, sections or points of each of the first and second characters as the motion window is expanded as described above. If it is determined that the motion of the first character and the motion of the second character in the same moving line, section or point are to be interacted with, the user input for the corresponding motion window (for example, a guideline sketched on the corresponding motion window). With reference to the motion, the type, size, speed, etc. of the motion of the first character or the motion of the second character can be determined, and as will be described later, the relationship between the motion performed by each of the first character and the second character is defined. With reference to the motion map to determine a specific aspect of the interaction to occur between the motion of each of the first character and the second character The.
- the present invention is not necessarily limited to the above-mentioned embodiment.
- the motion of each of the first character and the second character may be predetermined, and the interaction manager 150 determines the first character thus determined.
- the interaction manager 150 determines the first character thus determined.
- an embodiment of determining a specific aspect of the interaction to occur between the motions of each of the second characters may be envisioned.
- the motion interaction management unit 150 refers to a motion map that defines a relationship between motions performed by each of two or more characters. It is possible to determine aspects of the interaction between the motions performed by each of the two or more characters that fall within the motion window.
- a motion map may include a type or attribute between a type or attribute of a motion performed by a doer character and a type or attribute of a motion performed by a recipient character in response to a motion performed by the actor character. Information about the relationship may be included.
- FIG. 6 is a diagram illustrating a relationship between motions of each of two or more characters defined by a motion map according to an embodiment of the present invention.
- the relationship between the motions performed by the recipient character 620 may be defined corresponding to the motions performed by the actor character 610.
- the motion interaction management unit 150 may refer to the motion map of FIG. 6, such that the first character, the actor character 610, kicks or kicks 611.
- the second character which is the receiver character 620, may decide to perform a motion to be hit. More specifically, the kick 611 or the punching performed by the first character 612.
- the second character is adaptively determined to perform any of the following motions: head 621, belly 622, and leg 623. (631, 632, 633).
- the motion interaction management unit 150 refers to the motion map of FIG. 6, where the first character, which is the actor character 610, is greeted.
- the second character which is the acceptor character 620, receives the greeting 624, determines to perform the motion (634), or the first character, which is the actor character 610, throws (613) the motion.
- the second character who is the acceptor character 620, may be determined to perform a motion 625.
- the motion interaction management unit 150 may adjust the size of the motion window provided corresponding to the motion performed by the first character, so that the corresponding motion window is a moving line or section through which the first character passes. Or at least a portion of a moving line, section, or point through which a second character located around the first character as well as at least a portion of the point passes, a predetermined feedback (eg, vibration, visual effect, etc.) to the user By providing it, the user can be notified that the motion performed by the first character and the motion performed by the second character are caused to interact.
- a predetermined feedback eg, vibration, visual effect, etc.
- the animation manager 160 moves the character along the line based on the previously generated copper lines, sections or points, and information on the motions and properties of the motions. While generating the animation including the appearance of performing at least one motion given to the entire line, section or point, the animation generated above the predetermined direction while the character performs at least one motion It may include a way to be directed (or at least one motion performed by a character in a predetermined direction) or a state in which at least one motion performed by the character interacts with a motion of another character.
- the animation manager 160 combines an animation generated according to a character's motion sequence and a real world image input from a camera (not shown), thereby augmented reality (AR, Augmented Reality) Can create a video.
- the animation manager 160 may track coordinates of real-world images and extract 3D mapping coordinates using SLAM (Simultaneous Localization And Mapping) technology. With reference to the information on the coordinates and the extracted 3D mapping coordinates, it is possible to determine the coordinates in which the animation according to the motion sequence of the character is displayed in the real-world image. You can create a video.
- SLAM Simultaneous Localization And Mapping
- the communication unit 170 performs a function to enable the animation authoring system 100 to communicate with an external device.
- the controller 180 includes the copper line manager 110, the motion sequence manager 120, the motion window manager 130, the motion property manager 140, the motion interaction manager 150, It performs a function of controlling the flow of data between the animation management unit 160 and the communication unit 170. That is, the controller 180 controls the flow of data from the outside or between the respective components of the animation authoring system, such that the copper wire managing unit 110, the motion sequence managing unit 120, the motion window managing unit 130, and the motion property managing unit ( 140, the motion interaction manager 150, the animation manager 160, and the communicator 170 may control to perform unique functions.
- Embodiments according to the present invention described above can be implemented in the form of program instructions that can be executed by various computer components and recorded on a computer-readable recording medium.
- the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
- Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.
- Examples of computer readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
- Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
- the hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명의 일 태양에 따르면, 애니메이션을 저작하기 위한 방법으로서, 애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 단계, 및 제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 애니메이션 내에서 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 단계를 포함하는 방법이 제공된다.
Description
본 발명은 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
3차원 애니메이션은 영화나 TV에서 자주 등장하고 있으며, 이와 같은 3차원 애니메이션의 저작을 위해서는 3차원 애니메이션 저작용 툴(tool)이 이용되는데, 기존의 3차원 애니메이션 저작용 툴은 사용 방법이 복잡하고 어려워 숙련된 전문가에 의해서만 사용이 가능한 것이 일반적이다.
최근에는 인터넷과 멀티미디어의 발달로 인해 3차원 애니메이션을 보기만 하는 것을 넘어 직접 저작하여 사용하려는 일반인 사용자들이 늘어나고 있다.
따라서, 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있도록 하고, 애니메이션 내 객체의 경로와 동작을 정확하게 제어할 수 있도록 하는 애니메이션 저작 툴의 개발에 대한 기대가 높아지고 있다.
이에, 본 발명자는, 모션 윈도우를 이용하여 캐릭터가 모션을 행하면서 향하는 방향이나 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션을 손쉽게 제어할 수 있도록 하는 기술을 제안하는 바이다.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하고, 제1 사용자 조작에 의하여 회전될 수 있는 모션 윈도우의 방향을 참조로 하여 캐릭터가 적어도 하나의 모션을 행할 때 해당 캐릭터가 향하는 방향을 결정함으로써, 사용자로 하여금 애니메이션 내의 캐릭터가 모션을 행할 때 그 캐릭터가 향하는 방향을 손쉽게 제어할 수 있도록 하는 것을 다른 목적으로 한다.
또한, 본 발명은, 제2 사용자 조작에 의하여 모션 윈도우의 크기가 조절됨에 따라 모션 윈도우가 둘 이상의 캐릭터를 포함하게 되면, 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션을 결정함으로써, 사용자로 하여금 애니메이션 내의 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션을 손쉽게 제어할 수 있도록 하는 것을 또 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 애니메이션을 저작하기 위한 방법으로서, 애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 단계, 및 제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 애니메이션 내에서 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 단계를 포함하는 방법이 제공된다.
본 발명의 다른 태양에 따르면, 애니메이션을 저작하기 위한 시스템으로서, 애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 모션 윈도우 관리부, 및 제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 모션 속성 관리부를 포함하는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 비전문가도 3차원 애니메이션 내에서 소정의 모션을 행하는 캐릭터가 향하는 방향이나 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션을 손쉽게 제어할 수 있는 애니메이션 저작 툴을 제공할 수 있게 되는 효과가 달성된다.
또한, 본 발명에 의하면, 사용자가 간단한 터치 조작(예를 들면, 탭(tap), 홀드(hold), 드래그(drag), 핀치(pinch) 등), 마우스 조작, 모션 조작 등을 행하는 것만으로 애니메이션 내의 캐릭터의 모션에 관한 제어를 수행할 수 있으므로, 일반 사용자가 자신의 스마트폰이나 태블릿과 같은 모바일 디바이스를 이용하여 높은 품질의 애니메이션을 저작하는 것이 가능하게 되는 효과가 달성된다.
도 1은 본 발명의 일 실시예에 따른 애니메이션 저작 시스템의 내부 구성을 예시적으로 나타내는 도면이다.
도 2 내지 도 5는 본 발명의 일 실시예에 따라 사용자가 모션 윈도우를 이용하여 캐릭터의 방향을 제어할 수 있도록 지원하는 구성을 예시적으로 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따라 모션 맵에 의하여 정의되는 둘 이상의 캐릭터 각각의 모션 사이의 관계를 예시적으로 나타내는 도면이다.
<부호의 설명>
100: 애니메이션 저작 시스템
110: 동선 관리부
120: 모션 시퀀스 관리부
130: 모션 윈도우 관리부
140: 모션 속성 관리부
150: 모션 인터랙션 관리부
160: 애니메이션 관리부
170: 통신부
180: 제어부
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
애니메이션 저작 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 애니메이션 저작 시스템의 내부 구성 및 각 구성요소의 기능에 대하여 살펴보기로 한다.
본 발명의 일 실시예에 따르면, 개인용 컴퓨터(예를 들어, 데스크탑 컴퓨터, 노트북 컴퓨터 등), 서버, 워크스테이션, PDA, 웹 패드, 이동 전화기, 스마트폰, 태블릿 PC 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 장치라면 얼마든지 본 발명의 애니메이션 저작 시스템으로 채택될 수 있다. 특히, 본 발명의 일 실시예에 따른 애니메이션 저작 시스템은, 사용자로부터 터치 조작을 입력 받을 수 있는 터치 스크린(touch screen), 적외선 센서, 가속도 센서 등을 이용하여 사용자로부터 모션 조작을 입력 받을 수 있는 모션 입력 수단 등의 다양한 입력 수단을 포함할 수 있고, 캐릭터의 모션 시퀀스를 포함하는 애니메이션을 표시할 수 있는 표시 수단을 포함할 수 있다.
도 1은 본 발명의 일 실시예에 따른 애니메이션 저작 시스템의 내부 구성을 예시적으로 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 애니메이션 저작 시스템(100)은, 동선 관리부(110), 모션 시퀀스 관리부(120), 모션 윈도우 관리부(130), 모션 속성 관리부(140), 모션 인터랙션 관리부(150), 애니메이션 관리부(160), 통신부(170) 및 제어부(180)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 동선 관리부(110), 모션 시퀀스 관리부(120), 모션 윈도우 관리부(130), 모션 속성 관리부(140), 모션 인터랙션 관리부(150), 애니메이션 관리부(160), 통신부(170) 및 제어부(180)는 그 중 적어도 일부가 외부 시스템(미도시됨)과 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 애니메이션 저작 시스템(100)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 애니메이션 저작 시스템(100)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
먼저, 본 발명의 일 실시예에 따르면, 동선 관리부(110)는 캐릭터가 표시되는 표시 화면에 의하여 정의되는 가상의 평면인 기준 평면에 대하여 입력되는 사용자 조작을 참조로 하여, 기준 평면 상에 캐릭터가 이동하는 경로를 나타내는 동선을 생성하는 기능을 수행할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 동선 관리부(110)는 기준 평면(구체적으로는, 위의 생성된 동선)에 대하여 입력되는 사용자 조작을 참조로 하여, 앞서 생성된 동선에 포함되는 적어도 하나의 구간을 특정하거나 앞서 생성된 동선 상의 적어도 하나의 지점을 특정하는 기능을 수행할 수 있다.
다음으로, 본 발명의 일 실시예에 따르면, 모션 시퀀스 관리부(120)는 기준 평면(구체적으로는, 위와 같이 적어도 하나의 구간이 특정된 동선)에 대하여 입력되는 사용자 조작을 참조로 하여, 동선 전체, 동선에 포함되는 적어도 하나의 구간 또는 동선 상의 적어도 하나의 지점에 대하여 캐릭터의 모션(또는 동작에 관한 속성값)을 부여함으로써, 캐릭터가 모션이 부여된 동선, 구간 또는 지점에 위치할 때 해당 캐릭터가 해당 모션을 행하도록 하는 모션 시퀀스를 생성하는 기능을 수행할 수 있다. 여기서, 동선, 구간 또는 지점에 부여될 수 있는 모션에는, 걷기, 뛰기, 점프하기, 구르기, 기어가기, 주먹질하기, 으쓱하기, 흔들기, 대화하기, 노래하기, 캐릭터의 감정 상태를 표현하는 모션 등의 다양한 동작이 포함될 수 있다. 다만, 본 발명에서 말하는 모션의 종류가 반드시 상기 열거된 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 얼마든지 추가되거나 변경될 수 있음을 밝혀 둔다.
한편, 본 발명의 일 실시예에 따르면, 사용자가 동선, 구간 또는 지점을 설정하고 동선, 구간 또는 지점에 모션을 부여하기 위해 사용자 조작을 입력하는 것을 지원하는 그래픽 사용자 인터페이스(GUI)가 제공될 수 있다. 구체적으로, 본 발명의 일 실시예에 따르면, 그래픽 사용자 인터페이스는 동선, 구간 또는 지점에 부여될 수 있는 캐릭터의 다양한 모션을 가리키는 그래픽 요소와 이러한 그래픽 요소를 시각적으로 포함할 수 있도록 표시되는 팟 컨트롤러(pod controller)를 포함할 수 있고, 이러한 그래픽 요소와 팟 컨트롤러는 동선, 구간 또는 지점에 대응되어 표시될 수 있다.
한편, 사용자가 동선, 구간 또는 지점을 설정하고 동선, 구간 또는 지점에 모션을 부여하기 위해 사용자 조작을 입력하는 것을 지원하는 방법에 관한 구체적인 내용과 관련하여서는, 본 출원인에 의하여 2015년 5월 18일자로 출원되고 2015년 6월 17일자로 공개된 한국특허출원 제2015-69060호의 명세서를 더 참조할 수 있다. 상기 특허출원의 명세서는 그 전체로서 본 명세서에 병합된 것으로 이해되어야 한다.
다음으로, 본 발명의 일 실시예에 따르면, 모션 윈도우 관리부(130)는, 애니메이션에 포함되는 캐릭터가 행하는(즉, 캐릭터에 부여된) 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 기능을 수행할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 모션 윈도우는, 적어도 하나의 회전축(예를 들면, X축, Y축, Z축 등)을 중심으로 하여 자유롭게 회전할 수 있는 가상의 유한 평면에 의하여 특정될 수 있다.
또한, 본 발명의 일 실시예에 따르면, 모션 윈도우 관리부(130)는, 제1 사용자 조작에 따라 모션 윈도우를 회전시키는 기능을 수행할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 위의 제1 사용자 조작은 모션 윈도우 상의 특정 지점에 부가되는 그래픽 요소(예를 들면, 손잡이)를 통하여 입력되는 조작(예를 들면, 드래그 등)일 수 있다.
또한, 본 발명의 일 실시예에 따르면, 모션 윈도우 관리부(130)는, 제2 사용자 조작에 따라 모션 윈도우의 크기를 변화시키는 기능을 수행할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 위의 제2 사용자 조작은 모션 윈도우의 테두리를 기준으로 하여 입력되는 조작(예를 들면, 드래그, 줌인, 줌아웃 등)일 수 있다.
다음으로, 본 발명의 일 실시예에 따르면, 모션 속성 관리부(140)는, 제1 사용자 조작에 의하여 회전될 수 있는 모션 윈도우의 방향을 참조로 하여, 캐릭터가 적어도 하나의 모션을 행할 때 해당 캐릭터가 향하는 방향 또는 해당 적어도 하나의 모션이 행해지는 방향을 결정하는 기능을 수행할 수 있다. 본 발명의 일 실시예에 따르면, 캐릭터가 어떤 모션을 행하면서 향하고 있는 방향으로서는, 캐릭터가 발차기를 하면서 캐릭터의 얼굴 또는 몸통이 바라보고 있는 방향을 일 예로 들 수 있다. 또한, 본 발명의 일 실시예에 따르면, 캐릭터가 행하는 모션이 행해지거나 진행되는 방향으로서는, 캐릭터가 달려가는 방향, 캐릭터가 발차기하는 방향 등을 일 예로 들 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 모션 속성 관리부(140)는, 캐릭터가 행하는 특정 모션에 대응하여 제공되는 모션 윈도우(제1 사용자 조작에 의하여 회전될 수 있음)의 방향을 참조로 하여, 캐릭터가 위의 특정 모션을 행할 때 위의 캐릭터가 향하는 방향 또는 위의 특정 모션이 행해지는 방향을 위의 모션 윈도우의 방향과 동일하게 되도록 결정할 수 있다.
도 2 내지 도 5는 본 발명의 일 실시예에 따라 사용자가 모션 윈도우를 이용하여 캐릭터의 방향을 제어할 수 있도록 지원하는 구성을 예시적으로 나타내는 도면이다.
먼저, 도 2를 참조하면, 사용자가 캐릭터(210)가 소정의 동선(220)을 따라 이동하는 중에 소정의 구간 또는 지점(221)에서 행하는 모션의 종류 또는 속성을 제어할 수 있도록 지원하는 그래픽 사용자 인터페이스가 제공될 수 있다. 이러한 그래픽 사용자 인터페이스는, 동선, 구간 또는 지점에 부여될 수 있는 캐릭터의 다양한 모션을 가리키는 그래픽 요소(240)와 이러한 그래픽 요소를 시각적으로 포함할 수 있도록 표시되는 팟 컨트롤러(pod controller)(230)를 포함할 수 있고, 이러한 그래픽 요소(240)와 팟 컨트롤러(230)는 동선(220), 구간 또는 지점(221)에 대응되어 표시될 수 있다. 또한, 도 2를 참조하면, 사용자가 기설정된 그래픽 요소(231)를 선택하는 것에 대응하여 모션의 속성을 제어하는 것을 지원하는 모션 윈도우가 더 제공될 수 있다.
다음으로, 도 3 및 도 4를 참조하면, 모션 윈도우(350, 450)는 손잡이(351, 451)를 통하여 입력되는 제1 사용자 조작에 의하여 자유롭게 회전될 수 있고, 모션 윈도우(350, 450)가 향하고 있는 방향은, 캐릭터(310, 410)가 해당 모션 윈도우(350, 450)에 대응하는 모션을 행하면서 자신의 얼굴 또는 몸통이 향할 방향 또는 해당 모션 윈도우(350, 450)에 대응하는 모션이 행해지는 방향으로서 결정될 수 있다.
다음으로, 도 5를 참조하면, 캐릭터(510)가 소정의 동선을 따라 이동하면서 동선 전체, 구간 또는 지점에 부여된 적어도 하나의 모션을 행하는 모습을 포함하는 애니메이션이 생성될 수 있는데, 여기서, 위의 생성되는 애니메이션에는 캐릭터(510)가 적어도 하나의 모션을 행하면서 소정의 방향(560)을 향하거나 캐릭터(510)가 행하는 적어도 하나의 모션이 소정의 방향(560)으로 행해지는 모습이 포함될 수 있다.
한편, 본 발명의 일 실시예에 따르면, 모션 속성 관리부(140)는, 캐릭터가 행하는 모션에 대응하여 제공되는 모션 윈도우 상에 입력되는 가이드 라인(guide line)의 형상 또는 패턴을 참조로 하여, 해당 캐릭터가 행하는 적어도 하나의 모션의 속성을 결정하는 기능을 수행할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 모션 윈도우 상에 입력되는 가이드 라인의 형상 또는 패턴에 기초하여 결정될 수 있는 모션의 속성에는, 모션의 종류, 모션의 크기, 모션의 속도 등이 포함될 수 있다.
예를 들면, 발차기 모션에 대응하여 제공되는 모션 윈도우 상에 스케치되는 가이드 라인의 굴곡(curve)의 정도에 따라 캐릭터가 행하는 발차기의 높이가 적응적으로 결정될 수 있다.
다른 예를 들면, 달리기 모션에 대응하여 제공되는 모션 윈도우 상에 가이드 라인이 스케치되는 속도에 따라 캐릭터가 행하는 달리기의 속도가 적응적으로 결정될 수 있다.
한편, 캐릭터가 행하는 모션에 대응하여 제공되는 모션 윈도우 상에 입력되는 가이드 라인의 형상 또는 패턴을 참조로 하여 해당 캐릭터가 행하는 적어도 하나의 모션의 속성을 결정하는 방법에 관한 구체적인 내용과 관련하여서는, 본 출원인에 의하여 2010년 11월 10일자로 국제출원되고 2011년 12월 1일자로 국제공개된 국제출원 제PCT/KR2010/007926호의 명세서를 더 참조할 수 있다. 상기 국제출원의 명세서는 그 전체로서 본 명세서에 병합된 것으로 이해되어야 한다.
다음으로, 본 발명의 일 실시예에 따르면, 모션 인터랙션 관리부(150)는, 제2 사용자 조작에 의하여 모션 윈도우의 크기가 조절됨에 따라 해당 모션 윈도우가 둘 이상의 캐릭터를 포함하게 되면, 둘 이상의 캐릭터 각각이 행하는 모션 사이에 소정의 인터랙션(interaction)이 발생하는 것으로 결정할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 제1 캐릭터가 행하는 모션에 대응하여 제공되는 모션 윈도우의 크기가 조절됨에 따라, 해당 모션 윈도우가 제1 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부뿐만 아니라 제1 캐릭터의 주변에 위치하는 제2 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부까지 포함하게 되면, 위의 모션 윈도우에 대응되는 제1 캐릭터의 모션과 위의 모션 윈도우에 포함되는 제2 캐릭터의 동선, 구간 또는 지점의 적어도 일부에 대응되는 제2 캐릭터의 모션이 인터랙션하는 것으로 결정할 수 있다.
즉, 본 발명의 일 실시예에 따르면, 제1 캐릭터 및 제2 캐릭터가 모션 윈도우를 기준으로 하여 연관지어지는 경우에, 그 모션 윈도우에 공통적으로 포함되는 동선, 구간 또는 지점에 있어서 제1 캐릭터가 행하는 모션과 제2 캐릭터가 행하는 모션이 상호작용하게 될 수 있다.
보다 구체적으로, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 위와 같이 모션 윈도우가 확장됨에 따라 제1 캐릭터 및 제2 캐릭터 각각의 동선, 구간 또는 지점 중 해당 모션 윈도우에 공통적으로 포함되는 동선, 구간 또는 지점에 있어서 제1 캐릭터의 모션 및 제2 캐릭터의 모션이 상호작용하는 것으로 결정되면, 해당 모션 윈도우에 대한 사용자 입력(예를 들면, 해당 모션 윈도우 상에 스케치되는 가이드 라인 등)을 참조로 하여 제1 캐릭터의 모션 또는 제2 캐릭터의 모션의 종류, 크기, 속도 등이 결정되도록 할 수 있고, 후술할 바와 같이, 제1 캐릭터 및 제2 캐릭터 각각이 행하는 모션 사이의 관계를 정의하는 모션 맵(map)을 참조로 하여 제1 캐릭터 및 제2 캐릭터 각각이 행하는 모션 사이에서 발생할 인터랙션의 구체적인 양상을 결정할 수 있다.
다만, 본 발명이 반드시 상기 언급된 실시예에 한정되는 것은 아님을 밝혀 둔다. 예를 들면, 모션 윈도우가 제1 캐릭터 및 제2 캐릭터를 모두 포함하게 되기 전에 제1 캐릭터 및 제2 캐릭터 각각의 모션이 미리 결정되어 있을 수 있고, 인터랙션 관리부(150)는 이렇게 미리 결정된 제1 캐릭터 및 제2 캐릭터 각각의 모션 사이에서 발생할 인터랙션의 구체적인 양상을 결정하는 실시예도 얼마든지 상정될 수 있을 것이다.
또한, 앞서 간단히 언급한 바와 같이, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 둘 이상의 캐릭터 각각이 행하는 모션 사이의 관계를 정의하는 모션 맵(map)을 참조로 하여, 하나의 모션 윈도우 내에 속하게 되는 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션의 양상을 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 모션 맵에는, 행위자(doer) 캐릭터가 행하는 모션의 종류 또는 속성과 행위자 캐릭터가 행하는 모션에 대응하여 수용자(recipient) 캐릭터가 행하는 모션의 종류 또는 속성 사이의 관계에 관한 정보가 포함될 수 있다.
도 6은 본 발명의 일 실시예에 따라 모션 맵에 의하여 정의되는 둘 이상의 캐릭터 각각의 모션 사이의 관계를 예시적으로 나타내는 도면이다. 도 6의 모션 맵에서는, 행위자 캐릭터(610)가 행하는 모션에 대응하여 수용자 캐릭터(620) 행하는 모션 사이의 관계가 정의될 수 있다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 도 6의 모션 맵을 참조로 하여, 행위자 캐릭터(610)인 제1 캐릭터가 발차기(611) 또는 주먹질하기(612) 모션을 행하는 것에 대응하여 수용자 캐릭터(620)인 제2 캐릭터가 타격을 받는 모션을 행하도록 결정할 수 있는데, 보다 구체적으로, 제1 캐릭터가 행하는 발차기(611) 또는 주먹질하기(612) 모션의 속성(예를 들면, 높이에 관한 가중치)에 따라 제2 캐릭터가 머리를 맞기(621), 배를 맞기(622) 및 다리를 맞기(623) 중 어느 한 모션을 행하도록 적응적으로 결정할 수 있다(631, 632, 633).
계속하여, 도 6을 참조하면, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 도 6의 모션 맵을 참조로 하여, 행위자 캐릭터(610)인 제1 캐릭터가 인사하기(613) 모션을 행하는 것에 대응하여 수용자 캐릭터(620)인 제2 캐릭터가 인사 받기(624) 모션을 행하도록 결정하거나(634), 행위자 캐릭터(610)인 제1 캐릭터가 던지기(613) 모션을 행하는 것에 대응하여 수용자 캐릭터(620)인 제2 캐릭터가 던져지기(625) 모션을 행하도록 결정할 수 있다(635).
한편, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 제1 캐릭터가 행하는 모션에 대응하여 제공되는 모션 윈도우의 크기가 조절됨에 따라, 해당 모션 윈도우가 제1 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부뿐만 아니라 제1 캐릭터의 주변에 위치하는 제2 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부까지 포함하게 되면, 사용자에게 소정의 피드백(예를 들면, 진동, 시각 효과 등)을 제공함으로써, 제1 캐릭터가 행하는 모션과 제2 캐릭터가 행하는 모션이 인터랙션하게 되었음을 사용자에게 알릴 수 있다.
다음으로, 본 발명의 일 실시예에 따르면, 애니메이션 관리부(160)는 앞서 생성된 동선, 구간 또는 지점 및 이들에 부여된 모션과 그 모션의 속성에 관한 정보에 기초하여, 캐릭터가 동선을 따라 이동하면서 동선 전체, 구간 또는 지점에 부여된 적어도 하나의 모션을 행하는 모습을 포함하는 애니메이션을 생성하는 기능을 수행할 수 있으며, 위의 생성되는 애니메이션에는 캐릭터가 적어도 하나의 모션을 행하면서 소정의 방향을 향하는(또는 캐릭터가 행하는 적어도 하나의 모션이 소정의 방향으로 행해지는) 모습이나 캐릭터가 행하는 적어도 하나의 모션이 다른 캐릭터의 모션과 인터랙션하는 모습이 포함될 수 있다.
또한, 본 발명의 일 실시예에 따르면, 애니메이션 관리부(160)는 캐릭터의 모션 시퀀스에 따라 생성된 애니메이션과 카메라(미도시됨)로부터 입력되는 실세계(real world) 영상을 결합함으로써 증강현실(AR, Augmented Reality) 동영상을 생성하는 기능을 수행할 수 있다. 보다 구체적으로, 본 발명의 일 실시예에 따른 애니메이션 관리부(160)는, SLAM(Simultaneous Localization And Mapping) 기술을 이용하여 실세계 영상의 좌표를 추적하고 3D Mapping 좌표를 추출할 수 있고, 위와 같이 추적된 좌표 및 추출된 3D Mapping 좌표에 관한 정보를 참조로 하여 캐릭터의 모션 시퀀스에 따른 애니메이션이 실세계 영상 내에서 표시될 좌표를 결정할 수 있고, 위와 같이 표시될 좌표가 결정된 애니메이션과 실세계 영상을 결합함으로써 증강현실 동영상을 생성할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 통신부(170)는 애니메이션 저작 시스템(100)이 외부 장치와 통신할 수 있도록 하는 기능을 수행한다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(180)는 동선 관리부(110), 모션 시퀀스 관리부(120), 모션 윈도우 관리부(130), 모션 속성 관리부(140), 모션 인터랙션 관리부(150), 애니메이션 관리부(160) 및 통신부(170) 간의 데이터의 흐름을 제어하는 기능을 수행한다. 즉, 제어부(180)는 외부로부터의 또는 애니메이션 저작 시스템의 각 구성요소 간의 데이터의 흐름을 제어함으로써, 동선 관리부(110), 모션 시퀀스 관리부(120), 모션 윈도우 관리부(130), 모션 속성 관리부(140), 모션 인터랙션 관리부(150), 애니메이션 관리부(160) 및 통신부(170)에서 각각 고유 기능을 수행하도록 제어한다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
Claims (15)
- 애니메이션을 저작하기 위한 방법으로서,애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 단계, 및제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 애니메이션 내에서 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 단계를 포함하는 방법.
- 제1항에 있어서,상기 모션 윈도우는, 적어도 하나의 회전축을 중심으로 하여 회전할 수 있는 가상의 유한 평면에 의하여 특정되는 방법.
- 제1항에 있어서,상기 제1 사용자 조작은, 상기 모션 윈도우 상의 특정 지점에 부가되는 그래픽 요소를 통하여 입력되는 방법.
- 제1항에 있어서,제2 사용자 조작에 의하여 상기 모션 윈도우의 크기가 조절됨에 따라 상기 모션 윈도우가 상기 캐릭터의 주변에 위치하는 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 상기 애니메이션 내에서 상기 모션 윈도우에 대응되는 상기 캐릭터의 모션과 상기 모션 윈도우에 포함되는 상기 다른 캐릭터의 동선, 구간 또는 지점의 적어도 일부에 대응되는 상기 다른 캐릭터의 모션이 인터랙션하는 것으로 결정하는 단계를 더 포함하는 방법.
- 제4항에 있어서,상기 인터랙션 결정 단계에서,상기 모션 윈도우가 상기 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 기설정된 사용자 피드백을 발생시키는 방법.
- 제4항에 있어서,상기 인터랙션 결정 단계에서,상기 모션 윈도우가 상기 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 둘 이상의 캐릭터 각각이 행하는 모션 사이의 관계를 정의하는 모션 맵(motion map)을 참조로 하여, 상기 캐릭터의 모션과 상기 다른 캐릭터의 모션 사이에서 발생하는 인터랙션의 양상을 결정하는 방법.
- 제6항에 있어서,상기 모션 맵에는, 행위자(doer) 캐릭터가 행하는 모션의 종류 또는 속성과 상기 행위자 캐릭터가 행하는 모션에 대응하여 수용자(recipient) 캐릭터가 행하는 모션의 종류 또는 속성 사이의 관계에 관한 정보가 포함되는 방법.
- 제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
- 애니메이션을 저작하기 위한 시스템으로서,애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 모션 윈도우 관리부, 및제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 모션 속성 관리부를 포함하는 시스템.
- 제9항에 있어서,상기 모션 윈도우는, 적어도 하나의 회전축을 중심으로 하여 회전할 수 있는 가상의 유한 평면에 의하여 특정되는 시스템.
- 제9항에 있어서,상기 제1 사용자 조작은, 상기 모션 윈도우 상의 특정 지점에 부가되는 그래픽 요소를 통하여 입력되는 시스템.
- 제9항에 있어서,제2 사용자 조작에 의하여 상기 모션 윈도우의 크기가 조절됨에 따라 상기 모션 윈도우가 상기 캐릭터의 주변에 위치하는 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 상기 애니메이션 내에서 상기 모션 윈도우에 대응되는 상기 캐릭터의 모션과 상기 모션 윈도우에 포함되는 상기 다른 캐릭터의 동선, 구간 또는 지점의 적어도 일부에 대응되는 상기 다른 캐릭터의 모션이 인터랙션하는 것으로 결정하는 모션 인터랙션 관리부를 더 포함하는 시스템.
- 제12항에 있어서,상기 모션 인터랙션 관리부는, 상기 모션 윈도우가 상기 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 기설정된 사용자 피드백을 발생시키는 시스템.
- 제12항에 있어서,상기 모션 인터랙션 관리부는, 상기 모션 윈도우가 상기 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 둘 이상의 캐릭터 각각이 행하는 모션 사이의 관계를 정의하는 모션 맵(motion map)을 참조로 하여, 상기 다른 캐릭터의 모션 사이에서 발생하는 인터랙션의 양상을 결정하는 시스템.
- 제14항에 있어서,상기 모션 맵에는, 행위자(doer) 캐릭터가 행하는 모션의 종류 또는 속성과 상기 행위자 캐릭터가 행하는 모션에 대응하여 수용자(recipient) 캐릭터가 행하는 모션의 종류 또는 속성 사이의 관계에 관한 정보가 포함되는 시스템.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2016-0036150 | 2016-03-25 | ||
KR20160036150 | 2016-03-25 | ||
KR1020160096472A KR101979754B1 (ko) | 2016-03-25 | 2016-07-28 | 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 |
KR10-2016-0096472 | 2016-07-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017164511A1 true WO2017164511A1 (ko) | 2017-09-28 |
Family
ID=59899622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/001292 WO2017164511A1 (ko) | 2016-03-25 | 2017-02-06 | 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102427787B1 (ko) |
WO (1) | WO2017164511A1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030056294A (ko) * | 2001-12-28 | 2003-07-04 | 한국전자통신연구원 | 3차원 캐릭터 애니메이션 제작 방법 및 시스템 |
KR20110045719A (ko) * | 2009-10-27 | 2011-05-04 | 주식회사 숀픽쳐스 | 애니메이션 제작방법과 이 제작방법을 실행하기 위한 프로그램이 저장된 컴퓨터로 판독할 수 있는 기록매체 및 이를 이용한 온라인상에서의 애니메이션 제작 시스템 |
KR20110062044A (ko) * | 2009-12-02 | 2011-06-10 | 한국전자통신연구원 | 동역학 기반 동작 생성 장치 및 방법 |
WO2011149160A1 (ko) * | 2010-05-25 | 2011-12-01 | 연세대학교 산학협력단 | 애니메이션 저작 시스템 및 애니메이션 저작 방법 |
KR20150067096A (ko) * | 2013-01-24 | 2015-06-17 | (주) 애니펜 | 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 |
-
2017
- 2017-02-06 WO PCT/KR2017/001292 patent/WO2017164511A1/ko active Application Filing
- 2017-11-13 KR KR1020170150923A patent/KR102427787B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030056294A (ko) * | 2001-12-28 | 2003-07-04 | 한국전자통신연구원 | 3차원 캐릭터 애니메이션 제작 방법 및 시스템 |
KR20110045719A (ko) * | 2009-10-27 | 2011-05-04 | 주식회사 숀픽쳐스 | 애니메이션 제작방법과 이 제작방법을 실행하기 위한 프로그램이 저장된 컴퓨터로 판독할 수 있는 기록매체 및 이를 이용한 온라인상에서의 애니메이션 제작 시스템 |
KR20110062044A (ko) * | 2009-12-02 | 2011-06-10 | 한국전자통신연구원 | 동역학 기반 동작 생성 장치 및 방법 |
WO2011149160A1 (ko) * | 2010-05-25 | 2011-12-01 | 연세대학교 산학협력단 | 애니메이션 저작 시스템 및 애니메이션 저작 방법 |
KR20150067096A (ko) * | 2013-01-24 | 2015-06-17 | (주) 애니펜 | 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 |
Also Published As
Publication number | Publication date |
---|---|
KR20170133294A (ko) | 2017-12-05 |
KR102427787B1 (ko) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014116056A1 (ko) | 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 | |
US10249095B2 (en) | Context-based discovery of applications | |
US20180356893A1 (en) | Systems and methods for virtual training with haptic feedback | |
US10162491B2 (en) | Drag and drop of objects between applications | |
KR102646977B1 (ko) | 증강 현실에 기반한 디스플레이 방법 및 장치, 및 저장 매체 | |
US11107184B2 (en) | Virtual object translation | |
US11164377B2 (en) | Motion-controlled portals in virtual reality | |
WO2014062001A1 (ko) | 3차원의 가상 공간 내에서 가상 카메라를 제어하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 | |
WO2014062003A1 (ko) | 군중 애니메이션을 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 | |
US20210256751A1 (en) | Generating animations in an augmented reality environment | |
Jiang et al. | A SLAM-based 6DoF controller with smooth auto-calibration for virtual reality | |
WO2020017981A1 (en) | Machine interaction | |
WO2016053029A1 (ko) | 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 | |
WO2017164511A1 (ko) | 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 | |
KR101979754B1 (ko) | 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 | |
Stiles et al. | Adapting VRML 2.0 for immersive use | |
Asiri et al. | The Effectiveness of Mixed Reality Environment-Based Hand Gestures in Distributed Collaboration | |
CN111522439B (zh) | 一种虚拟样机的修订方法、装置、设备及计算机存储介质 | |
Park et al. | Context-aware augmented reality authoring tool in digital ecosystem | |
WO2023128266A1 (en) | System and method for mimicking user handwriting or other user input using an avatar | |
Leigh | Travel in Virtual Reality. | |
WO2016032303A1 (ko) | 문맥 정보에 기초하여 스크롤을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 | |
US20240071003A1 (en) | System and method for immersive training using augmented reality using digital twins and smart glasses | |
WO2019198844A1 (ko) | 미디어 플레이어를 제어하는 방법 및 시스템 | |
WO2024054580A1 (en) | Computer-assisted graphical development tools |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17770482 Country of ref document: EP Kind code of ref document: A1 |
|
32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 15.01.2019) |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17770482 Country of ref document: EP Kind code of ref document: A1 |