KR101979754B1 - Method, system and computer-readable recording medium for authoring animation - Google Patents

Method, system and computer-readable recording medium for authoring animation Download PDF

Info

Publication number
KR101979754B1
KR101979754B1 KR1020160096472A KR20160096472A KR101979754B1 KR 101979754 B1 KR101979754 B1 KR 101979754B1 KR 1020160096472 A KR1020160096472 A KR 1020160096472A KR 20160096472 A KR20160096472 A KR 20160096472A KR 101979754 B1 KR101979754 B1 KR 101979754B1
Authority
KR
South Korea
Prior art keywords
motion
character
window
animation
point
Prior art date
Application number
KR1020160096472A
Other languages
Korean (ko)
Other versions
KR20170112891A (en
Inventor
전재웅
Original Assignee
(주) 애니펜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 애니펜 filed Critical (주) 애니펜
Priority to PCT/KR2017/001292 priority Critical patent/WO2017164511A1/en
Publication of KR20170112891A publication Critical patent/KR20170112891A/en
Priority to KR1020170150923A priority patent/KR102427787B1/en
Application granted granted Critical
Publication of KR101979754B1 publication Critical patent/KR101979754B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 일 태양에 따르면, 애니메이션을 저작하기 위한 방법으로서, 애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 단계, 및 제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 애니메이션 내에서 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 단계를 포함하는 방법이 제공된다.According to one aspect of the present invention there is provided a method for authoring an animation, the method comprising: providing a motion window corresponding to at least one motion performed by a character included in the animation; Determining a direction in which the character is heading or a direction in which the at least one motion is performed when the character performs the at least one motion in the animation with reference to the direction of the motion window / RTI >

Description

애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체{METHOD, SYSTEM AND COMPUTER-READABLE RECORDING MEDIUM FOR AUTHORING ANIMATION}[0001] METHOD, SYSTEM AND COMPUTER READABLE RECORDING MEDIUM FOR AUTHORING ANIMATION [0002]

본 발명은 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a method, system and computer-readable recording medium for authoring animations.

3차원 애니메이션은 영화나 TV에서 자주 등장하고 있으며, 이와 같은 3차원 애니메이션의 저작을 위해서는 3차원 애니메이션 저작용 툴(tool)이 이용되는데, 기존의 3차원 애니메이션 저작용 툴은 사용 방법이 복잡하고 어려워 숙련된 전문가에 의해서만 사용이 가능한 것이 일반적이다.3D animation often appears in movies and TV. In order to author such a 3D animation, a 3D animation animation tool is used. However, the conventional 3D animation animation animation tool is complicated and difficult to use It is common to use only by skilled professionals.

최근에는 인터넷과 멀티미디어의 발달로 인해 3차원 애니메이션을 보기만 하는 것을 넘어 직접 저작하여 사용하려는 일반인 사용자들이 늘어나고 있다.In recent years, due to the development of the Internet and multimedia, there has been an increase in the number of general users who want to use and author directly beyond viewing 3D animation.

따라서, 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있도록 하고, 애니메이션 내 객체의 경로와 동작을 정확하게 제어할 수 있도록 하는 애니메이션 저작 툴의 개발에 대한 기대가 높아지고 있다.Therefore, there is a growing expectation for the development of an animation authoring tool that non-specialists can easily author 3D animations, and can precisely control the path and motion of objects in animations.

이에, 본 발명자는, 모션 윈도우를 이용하여 캐릭터가 모션을 행하면서 향하는 방향이나 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션을 손쉽게 제어할 수 있도록 하는 기술을 제안하는 바이다.Accordingly, the present inventors propose a technique for easily controlling the interaction between a direction in which a character makes a motion using a motion window and a motion performed by each of two or more characters.

본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.It is an object of the present invention to solve all the problems described above.

또한, 본 발명은, 애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하고, 제1 사용자 조작에 의하여 회전될 수 있는 모션 윈도우의 방향을 참조로 하여 캐릭터가 적어도 하나의 모션을 행할 때 해당 캐릭터가 향하는 방향을 결정함으로써, 사용자로 하여금 애니메이션 내의 캐릭터가 모션을 행할 때 그 캐릭터가 향하는 방향을 손쉽게 제어할 수 있도록 하는 것을 다른 목적으로 한다.In addition, the present invention provides a motion window corresponding to at least one motion performed by a character included in an animation, and refers to a direction of a motion window that can be rotated by a first user operation, Another object of the present invention is to allow the user to easily control the direction of the character when the character in the animation performs the motion by determining the direction to which the character is directed when performing at least one motion.

또한, 본 발명은, 제2 사용자 조작에 의하여 모션 윈도우의 크기가 조절됨에 따라 모션 윈도우가 둘 이상의 캐릭터를 포함하게 되면, 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션을 결정함으로써, 사용자로 하여금 애니메이션 내의 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션을 손쉽게 제어할 수 있도록 하는 것을 또 다른 목적으로 한다.Further, according to the present invention, when the motion window includes two or more characters as the size of the motion window is adjusted by the second user operation, the interaction between the motions performed by the two or more characters is determined, Another object of the present invention is to make it possible to easily control the interaction between the motions performed by each of the two or more characters.

상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.In order to accomplish the above object, a representative structure of the present invention is as follows.

본 발명의 일 태양에 따르면, 애니메이션을 저작하기 위한 방법으로서, 애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 단계, 및 제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 애니메이션 내에서 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 단계를 포함하는 방법이 제공된다.According to one aspect of the present invention there is provided a method for authoring an animation, the method comprising: providing a motion window corresponding to at least one motion performed by a character included in the animation; Determining a direction in which the character is heading or a direction in which the at least one motion is performed when the character performs the at least one motion in the animation with reference to the direction of the motion window / RTI >

본 발명의 다른 태양에 따르면, 애니메이션을 저작하기 위한 시스템으로서, 애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 모션 윈도우 관리부, 및 제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 모션 속성 관리부를 포함하는 시스템이 제공된다.According to another aspect of the present invention, there is provided a system for authoring an animation, comprising: a motion window manager for providing a motion window corresponding to at least one motion performed by a character included in an animation; And a motion attribute management unit for determining a direction in which the character is or a direction in which the at least one motion is performed when the character performs the at least one motion with reference to the direction of the motion window that can be rotated / RTI >

이 외에도, 본 발명을 구현하기 위한 다른 방법, 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition, there is provided another method, system, and computer readable recording medium for recording a computer program for carrying out the method for implementing the present invention.

본 발명에 의하면, 비전문가도 3차원 애니메이션 내에서 소정의 모션을 행하는 캐릭터가 향하는 방향이나 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션을 손쉽게 제어할 수 있는 애니메이션 저작 툴을 제공할 수 있게 되는 효과가 달성된다.According to the present invention, it is possible to provide an animation authoring tool capable of easily controlling the interaction between a direction in which a character who performs a predetermined motion is directed by a non-specialist in a three-dimensional animation or a motion of each of two or more characters do.

또한, 본 발명에 의하면, 사용자가 간단한 터치 조작(예를 들면, 탭(tap), 홀드(hold), 드래그(drag), 핀치(pinch) 등), 마우스 조작, 모션 조작 등을 행하는 것만으로 애니메이션 내의 캐릭터의 모션에 관한 제어를 수행할 수 있으므로, 일반 사용자가 자신의 스마트폰이나 태블릿과 같은 모바일 디바이스를 이용하여 높은 품질의 애니메이션을 저작하는 것이 가능하게 되는 효과가 달성된다.Further, according to the present invention, it is possible for the user to perform a simple touch operation (e.g., tap, hold, drag, pinch, etc.), mouse operation, It is possible to allow a general user to author a high quality animation using a mobile device such as his own smart phone or tablet.

도 1은 본 발명의 일 실시예에 따른 애니메이션 저작 시스템의 내부 구성을 예시적으로 나타내는 도면이다.
도 2 내지 도 5는 본 발명의 일 실시예에 따라 사용자가 모션 윈도우를 이용하여 캐릭터의 방향을 제어할 수 있도록 지원하는 구성을 예시적으로 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따라 모션 맵에 의하여 정의되는 둘 이상의 캐릭터 각각의 모션 사이의 관계를 예시적으로 나타내는 도면이다.
1 is a block diagram illustrating an internal configuration of an animation authoring system according to an embodiment of the present invention.
FIGS. 2 to 5 are views illustrating a configuration in which a user can control a direction of a character using a motion window according to an embodiment of the present invention.
6 is an exemplary diagram illustrating a relationship between motions of two or more characters defined by a motion map according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

애니메이션 저작 시스템의 구성Composition of Animation Authoring System

이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 애니메이션 저작 시스템의 내부 구성 및 각 구성요소의 기능에 대하여 살펴보기로 한다.Hereinafter, the internal structure of the animation authoring system, which performs important functions for the implementation of the present invention, and the functions of the respective elements will be described.

본 발명의 일 실시예에 따르면, 개인용 컴퓨터(예를 들어, 데스크탑 컴퓨터, 노트북 컴퓨터 등), 서버, 워크스테이션, PDA, 웹 패드, 이동 전화기, 스마트폰, 태블릿 PC 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 장치라면 얼마든지 본 발명의 애니메이션 저작 시스템으로 채택될 수 있다. 특히, 본 발명의 일 실시예에 따른 애니메이션 저작 시스템은, 사용자로부터 터치 조작을 입력 받을 수 있는 터치 스크린(touch screen), 적외선 센서, 가속도 센서 등을 이용하여 사용자로부터 모션 조작을 입력 받을 수 있는 모션 입력 수단 등의 다양한 입력 수단을 포함할 수 있고, 캐릭터의 모션 시퀀스를 포함하는 애니메이션을 표시할 수 있는 표시 수단을 포함할 수 있다.According to an embodiment of the present invention, there is provided a computer system having memory means such as a personal computer (e.g., a desktop computer, a notebook computer, etc.), a server, a workstation, a PDA, a web pad, a mobile phone, a smart phone, Any device having a processor and an arithmetic capability can be adopted as the animation authoring system of the present invention. In particular, the animation authoring system according to an embodiment of the present invention may include a motion that can receive a motion operation from a user using a touch screen, an infrared sensor, or an acceleration sensor capable of receiving a touch operation from a user, Input means, and the like, and may include display means capable of displaying an animation including a motion sequence of the character.

도 1은 본 발명의 일 실시예에 따른 애니메이션 저작 시스템의 내부 구성을 예시적으로 나타내는 도면이다.1 is a block diagram illustrating an internal configuration of an animation authoring system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 애니메이션 저작 시스템(100)은, 동선 관리부(110), 모션 시퀀스 관리부(120), 모션 윈도우 관리부(130), 모션 속성 관리부(140), 모션 인터랙션 관리부(150), 애니메이션 관리부(160), 통신부(170) 및 제어부(180)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 동선 관리부(110), 모션 시퀀스 관리부(120), 모션 윈도우 관리부(130), 모션 속성 관리부(140), 모션 인터랙션 관리부(150), 애니메이션 관리부(160), 통신부(170) 및 제어부(180)는 그 중 적어도 일부가 외부 시스템(미도시됨)과 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 애니메이션 저작 시스템(100)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 애니메이션 저작 시스템(100)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.Referring to FIG. 1, an animation authoring system 100 according to an embodiment of the present invention includes a motion line management unit 110, a motion sequence management unit 120, a motion window management unit 130, a motion attribute management unit 140, An interaction management unit 150, an animation management unit 160, a communication unit 170, and a control unit 180. The motion sequence management unit 120, the motion window management unit 130, the motion attribute management unit 140, the motion interaction management unit 150, the animation management unit 160, and the communication unit 160. [ The controller 170 and the control unit 180 may be program modules in which at least some of them communicate with an external system (not shown). Such program modules may be included in the animation authoring system 100 in the form of an operating system, application program modules, and other program modules, and may be physically stored on various known storage devices. These program modules may also be stored in a remote storage device capable of communicating with the animation authoring system 100. These program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or implement particular abstract data types as described below in accordance with the present invention.

먼저, 본 발명의 일 실시예에 따르면, 동선 관리부(110)는 캐릭터가 표시되는 표시 화면에 의하여 정의되는 가상의 평면인 기준 평면에 대하여 입력되는 사용자 조작을 참조로 하여, 기준 평면 상에 캐릭터가 이동하는 경로를 나타내는 동선을 생성하는 기능을 수행할 수 있다.First, in accordance with an embodiment of the present invention, the movement managing unit 110 refers to a user operation input on a reference plane that is a virtual plane defined by a display screen on which a character is displayed, It is possible to perform a function of generating a copper wire indicating a traveling path.

또한, 본 발명의 일 실시예에 따르면, 동선 관리부(110)는 기준 평면(구체적으로는, 위의 생성된 동선)에 대하여 입력되는 사용자 조작을 참조로 하여, 앞서 생성된 동선에 포함되는 적어도 하나의 구간을 특정하거나 앞서 생성된 동선 상의 적어도 하나의 지점을 특정하는 기능을 수행할 수 있다.Also, according to one embodiment of the present invention, the copper wire management unit 110 refers to a user operation input to the reference plane (specifically, the copper wire generated above) And to specify at least one point on the copper wire generated beforehand.

다음으로, 본 발명의 일 실시예에 따르면, 모션 시퀀스 관리부(120)는 기준 평면(구체적으로는, 위와 같이 적어도 하나의 구간이 특정된 동선)에 대하여 입력되는 사용자 조작을 참조로 하여, 동선 전체, 동선에 포함되는 적어도 하나의 구간 또는 동선 상의 적어도 하나의 지점에 대하여 캐릭터의 모션(또는 동작에 관한 속성값)을 부여함으로써, 캐릭터가 모션이 부여된 동선, 구간 또는 지점에 위치할 때 해당 캐릭터가 해당 모션을 행하도록 하는 모션 시퀀스를 생성하는 기능을 수행할 수 있다. 여기서, 동선, 구간 또는 지점에 부여될 수 있는 모션에는, 걷기, 뛰기, 점프하기, 구르기, 기어가기, 주먹질하기, 으쓱하기, 흔들기, 대화하기, 노래하기, 캐릭터의 감정 상태를 표현하는 모션 등의 다양한 동작이 포함될 수 있다. 다만, 본 발명에서 말하는 모션의 종류가 반드시 상기 열거된 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 얼마든지 추가되거나 변경될 수 있음을 밝혀 둔다.Next, in accordance with an embodiment of the present invention, the motion sequence management unit 120 refers to a user operation inputted to a reference plane (specifically, a copper line in which at least one section is specified as described above) (Or an attribute value relating to an operation) to at least one point on a copper wire or at least one point included in a copper wire so that when the character is positioned at a copper wire, a section or a point to which a motion is given, A motion sequence for causing the corresponding motion to be performed. Here, motion that can be given to a line, a section, or a point includes walking, running, jumping, rolling, crawling, punching, shrugging, shaking, talking, singing, motion expressing a character's emotional state May be included. It should be noted, however, that the types of motion referred to in the present invention are not necessarily limited to those listed above, but may be added or changed within the scope of achieving the object of the present invention.

한편, 본 발명의 일 실시예에 따르면, 사용자가 동선, 구간 또는 지점을 설정하고 동선, 구간 또는 지점에 모션을 부여하기 위해 사용자 조작을 입력하는 것을 지원하는 그래픽 사용자 인터페이스(GUI)가 제공될 수 있다. 구체적으로, 본 발명의 일 실시예에 따르면, 그래픽 사용자 인터페이스는 동선, 구간 또는 지점에 부여될 수 있는 캐릭터의 다양한 모션을 가리키는 그래픽 요소와 이러한 그래픽 요소를 시각적으로 포함할 수 있도록 표시되는 팟 컨트롤러(pod controller)를 포함할 수 있고, 이러한 그래픽 요소와 팟 컨트롤러는 동선, 구간 또는 지점에 대응되어 표시될 수 있다.Meanwhile, in accordance with an embodiment of the present invention, a graphical user interface (GUI) may be provided that assists the user to set up a line, section or point, and to input user operations to impart motion to the line, section or point have. In particular, according to an embodiment of the present invention, a graphical user interface includes graphical elements that indicate various motions of a character that can be given to a line, an interval, or a point, and a pot controller that is visually displayed to include such graphic elements pod controller), and the graphical element and the pot controller may be displayed corresponding to a line, an interval, or a point.

한편, 사용자가 동선, 구간 또는 지점을 설정하고 동선, 구간 또는 지점에 모션을 부여하기 위해 사용자 조작을 입력하는 것을 지원하는 방법에 관한 구체적인 내용과 관련하여서는, 본 출원인에 의하여 2015년 5월 18일자로 출원되고 2015년 6월 17일자로 공개된 한국특허출원 제2015-69060호의 명세서를 더 참조할 수 있다. 상기 특허출원의 명세서는 그 전체로서 본 명세서에 병합된 것으로 이해되어야 한다.On the other hand, in connection with the specific details of how a user may set up a line, section or point and assist in inputting user operations to impart motion to a line, section or point, And the disclosure of Korean Patent Application No. 2015-69060, published on June 17, 2015, may be referred to. The disclosure of which is incorporated herein by reference in its entirety.

다음으로, 본 발명의 일 실시예에 따르면, 모션 윈도우 관리부(130)는, 애니메이션에 포함되는 캐릭터가 행하는(즉, 캐릭터에 부여된) 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 기능을 수행할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 모션 윈도우는, 적어도 하나의 회전축(예를 들면, X축, Y축, Z축 등)을 중심으로 하여 자유롭게 회전할 수 있는 가상의 유한 평면에 의하여 특정될 수 있다.Next, in accordance with an embodiment of the present invention, the motion window management unit 130 provides a motion window corresponding to at least one motion performed by the character included in the animation (i.e., given to the character) Can be performed. According to an embodiment of the present invention, the motion window is defined by a virtual finite plane that can freely rotate around at least one rotation axis (for example, X axis, Y axis, Z axis, etc.) .

또한, 본 발명의 일 실시예에 따르면, 모션 윈도우 관리부(130)는, 제1 사용자 조작에 따라 모션 윈도우를 회전시키는 기능을 수행할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 위의 제1 사용자 조작은 모션 윈도우 상의 특정 지점에 부가되는 그래픽 요소(예를 들면, 손잡이)를 통하여 입력되는 조작(예를 들면, 드래그 등)일 수 있다.In addition, according to an embodiment of the present invention, the motion window manager 130 may perform a function of rotating the motion window according to a first user operation. Here, according to an embodiment of the present invention, the first user operation may be an operation (e.g., dragging) input through a graphic element (for example, a handle) added to a specific point on the motion window have.

또한, 본 발명의 일 실시예에 따르면, 모션 윈도우 관리부(130)는, 제2 사용자 조작에 따라 모션 윈도우의 크기를 변화시키는 기능을 수행할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 위의 제2 사용자 조작은 모션 윈도우의 테두리를 기준으로 하여 입력되는 조작(예를 들면, 드래그, 줌인, 줌아웃 등)일 수 있다.In addition, according to an embodiment of the present invention, the motion window manager 130 may perform a function of changing the size of the motion window according to a second user operation. Here, according to an embodiment of the present invention, the second user operation may be an operation (e.g., dragging, zooming in, zooming out, etc.) input based on the edge of the motion window.

다음으로, 본 발명의 일 실시예에 따르면, 모션 속성 관리부(140)는, 제1 사용자 조작에 의하여 회전될 수 있는 모션 윈도우의 방향을 참조로 하여, 캐릭터가 적어도 하나의 모션을 행할 때 해당 캐릭터가 향하는 방향 또는 해당 적어도 하나의 모션이 행해지는 방향을 결정하는 기능을 수행할 수 있다. 본 발명의 일 실시예에 따르면, 캐릭터가 어떤 모션을 행하면서 향하고 있는 방향으로서는, 캐릭터가 발차기를 하면서 캐릭터의 얼굴 또는 몸통이 바라보고 있는 방향을 일 예로 들 수 있다. 또한, 본 발명의 일 실시예에 따르면, 캐릭터가 행하는 모션이 행해지거나 진행되는 방향으로서는, 캐릭터가 달려가는 방향, 캐릭터가 발차기하는 방향 등을 일 예로 들 수 있다.Next, in accordance with an embodiment of the present invention, the motion attribute management unit 140 refers to the direction of the motion window that can be rotated by the first user operation, and when the character performs at least one motion, And a direction in which the at least one motion is performed. According to an embodiment of the present invention, as a direction in which a character performs a certain motion, a direction in which a character looks at a face or a torso of a character while kicking can be exemplified. In addition, according to an embodiment of the present invention, the direction in which the character performs motion or proceeds may be, for example, a direction in which the character runs, a direction in which the character is kicking, and the like.

구체적으로, 본 발명의 일 실시예에 따른 모션 속성 관리부(140)는, 캐릭터가 행하는 특정 모션에 대응하여 제공되는 모션 윈도우(제1 사용자 조작에 의하여 회전될 수 있음)의 방향을 참조로 하여, 캐릭터가 위의 특정 모션을 행할 때 위의 캐릭터가 향하는 방향 또는 위의 특정 모션이 행해지는 방향을 위의 모션 윈도우의 방향과 동일하게 되도록 결정할 수 있다.Specifically, the motion attribute management unit 140 according to an embodiment of the present invention refers to the direction of a motion window (which can be rotated by a first user operation) provided corresponding to a specific motion performed by the character, When the character performs the above specific motion, the direction in which the above character is directed or the direction in which the above specific motion is performed can be determined to be the same as the direction of the above motion window.

도 2 내지 도 5는 본 발명의 일 실시예에 따라 사용자가 모션 윈도우를 이용하여 캐릭터의 방향을 제어할 수 있도록 지원하는 구성을 예시적으로 나타내는 도면이다.FIGS. 2 to 5 are views illustrating a configuration in which a user can control a direction of a character using a motion window according to an embodiment of the present invention.

먼저, 도 2를 참조하면, 사용자가 캐릭터(210)가 소정의 동선(220)을 따라 이동하는 중에 소정의 구간 또는 지점(221)에서 행하는 모션의 종류 또는 속성을 제어할 수 있도록 지원하는 그래픽 사용자 인터페이스가 제공될 수 있다. 이러한 그래픽 사용자 인터페이스는, 동선, 구간 또는 지점에 부여될 수 있는 캐릭터의 다양한 모션을 가리키는 그래픽 요소(240)와 이러한 그래픽 요소를 시각적으로 포함할 수 있도록 표시되는 팟 컨트롤러(pod controller)(230)를 포함할 수 있고, 이러한 그래픽 요소(240)와 팟 컨트롤러(230)는 동선(220), 구간 또는 지점(221)에 대응되어 표시될 수 있다. 또한, 도 2를 참조하면, 사용자가 기설정된 그래픽 요소(231)를 선택하는 것에 대응하여 모션의 속성을 제어하는 것을 지원하는 모션 윈도우가 더 제공될 수 있다.Referring to FIG. 2, a graphical user 210 that supports a user to control a type or an attribute of a motion performed at a predetermined section or point 221 while a character 210 moves along a predetermined copper line 220, An interface may be provided. The graphical user interface includes a graphic element 240 indicating various motions of a character that can be given to a line, a section, or a point, and a pod controller 230 displayed to visually include the graphic element And the graphic controller 240 and the pot controller 230 may be displayed corresponding to the line 220, the section or the point 221. [ 2, a motion window may be further provided to support controlling the attributes of motion corresponding to the user selecting a predetermined graphic element 231. [

다음으로, 도 3 및 도 4를 참조하면, 모션 윈도우(350, 450)는 손잡이(351, 451)를 통하여 입력되는 제1 사용자 조작에 의하여 자유롭게 회전될 수 있고, 모션 윈도우(350, 450)가 향하고 있는 방향은, 캐릭터(310, 410)가 해당 모션 윈도우(350, 450)에 대응하는 모션을 행하면서 자신의 얼굴 또는 몸통이 향할 방향 또는 해당 모션 윈도우(350, 450)에 대응하는 모션이 행해지는 방향으로서 결정될 수 있다.3 and 4, the motion windows 350 and 450 may be freely rotated by a first user operation input through the grips 351 and 451, and the motion windows 350 and 450 may be rotated The direction in which the character 310 or 410 is moving is a motion in which the direction corresponding to the direction of the face or torso of the character or the motion window 350 or 450 is performed while the character 310 or 410 performs the motion corresponding to the motion window 350 or 450 Can be determined as the direction.

다음으로, 도 5를 참조하면, 캐릭터(510)가 소정의 동선을 따라 이동하면서 동선 전체, 구간 또는 지점에 부여된 적어도 하나의 모션을 행하는 모습을 포함하는 애니메이션이 생성될 수 있는데, 여기서, 위의 생성되는 애니메이션에는 캐릭터(510)가 적어도 하나의 모션을 행하면서 소정의 방향(560)을 향하거나 캐릭터(510)가 행하는 적어도 하나의 모션이 소정의 방향(560)으로 행해지는 모습이 포함될 수 있다.Next, referring to FIG. 5, an animation may be generated that includes a character 510 moving along a predetermined copper line and performing at least one motion given to the entire line, the section, or the point, The generated animation of the character 510 may include a state in which the character 510 makes at least one motion and moves in a predetermined direction 560 or at least one motion performed by the character 510 in a predetermined direction 560 have.

한편, 본 발명의 일 실시예에 따르면, 모션 속성 관리부(140)는, 캐릭터가 행하는 모션에 대응하여 제공되는 모션 윈도우 상에 입력되는 가이드 라인(guide line)의 형상 또는 패턴을 참조로 하여, 해당 캐릭터가 행하는 적어도 하나의 모션의 속성을 결정하는 기능을 수행할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 모션 윈도우 상에 입력되는 가이드 라인의 형상 또는 패턴에 기초하여 결정될 수 있는 모션의 속성에는, 모션의 종류, 모션의 크기, 모션의 속도 등이 포함될 수 있다.According to an embodiment of the present invention, the motion attribute management unit 140 refers to a shape or pattern of a guide line input on a motion window provided corresponding to a motion performed by a character, And can determine a property of at least one motion performed by the character. Here, according to one embodiment of the present invention, the attribute of motion that can be determined based on the shape or pattern of the guideline input on the motion window may include the type of motion, the size of motion, the speed of motion, .

예를 들면, 발차기 모션에 대응하여 제공되는 모션 윈도우 상에 스케치되는 가이드 라인의 굴곡(curve)의 정도에 따라 캐릭터가 행하는 발차기의 높이가 적응적으로 결정될 수 있다.For example, the height of the kicker performed by the character can be adaptively determined according to the degree of the curve of the guide line sketched on the motion window provided corresponding to the kicking motion.

다른 예를 들면, 달리기 모션에 대응하여 제공되는 모션 윈도우 상에 가이드 라인이 스케치되는 속도에 따라 캐릭터가 행하는 달리기의 속도가 적응적으로 결정될 수 있다.As another example, the speed of running the character can be adaptively determined according to the speed at which the guideline is sketched on the motion window provided corresponding to the running motion.

한편, 캐릭터가 행하는 모션에 대응하여 제공되는 모션 윈도우 상에 입력되는 가이드 라인의 형상 또는 패턴을 참조로 하여 해당 캐릭터가 행하는 적어도 하나의 모션의 속성을 결정하는 방법에 관한 구체적인 내용과 관련하여서는, 본 출원인에 의하여 2010년 11월 10일자로 국제출원되고 2011년 12월 1일자로 국제공개된 국제출원 제PCT/KR2010/007926호의 명세서를 더 참조할 수 있다. 상기 국제출원의 명세서는 그 전체로서 본 명세서에 병합된 것으로 이해되어야 한다.On the other hand, with respect to the concrete content of the method for determining the attribute of at least one motion performed by the character with reference to the shape or pattern of the guide line inputted on the motion window provided corresponding to the motion performed by the character, Reference may be made to the specification of International Application No. PCT / KR2010 / 007926, filed November 10, 2010 and internationally filed on December 1, 2011, by the applicant. The disclosure of which is hereby incorporated herein by reference in its entirety.

다음으로, 본 발명의 일 실시예에 따르면, 모션 인터랙션 관리부(150)는, 제2 사용자 조작에 의하여 모션 윈도우의 크기가 조절됨에 따라 해당 모션 윈도우가 둘 이상의 캐릭터를 포함하게 되면, 둘 이상의 캐릭터 각각이 행하는 모션 사이에 소정의 인터랙션(interaction)이 발생하는 것으로 결정할 수 있다.Next, in accordance with an embodiment of the present invention, when the motion window includes two or more characters as the size of the motion window is adjusted by the second user operation, It is possible to determine that a predetermined interaction occurs between the motions performed.

구체적으로, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 제1 캐릭터가 행하는 모션에 대응하여 제공되는 모션 윈도우의 크기가 조절됨에 따라, 해당 모션 윈도우가 제1 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부뿐만 아니라 제1 캐릭터의 주변에 위치하는 제2 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부까지 포함하게 되면, 위의 모션 윈도우에 대응되는 제1 캐릭터의 모션과 위의 모션 윈도우에 포함되는 제2 캐릭터의 동선, 구간 또는 지점의 적어도 일부에 대응되는 제2 캐릭터의 모션이 인터랙션하는 것으로 결정할 수 있다.Specifically, the motion interaction management unit 150 according to an embodiment of the present invention adjusts the size of the motion window provided corresponding to the motion performed by the first character, A section or a point, and at least a part of a line, a section, or a point passing through a second character located in the periphery of the first character, the motion of the first character corresponding to the above motion window, It can be determined that the motion of the second character corresponding to at least a part of the line, section or point of the second character included in the window interacts.

즉, 본 발명의 일 실시예에 따르면, 제1 캐릭터 및 제2 캐릭터가 모션 윈도우를 기준으로 하여 연관지어지는 경우에, 그 모션 윈도우에 공통적으로 포함되는 동선, 구간 또는 지점에 있어서 제1 캐릭터가 행하는 모션과 제2 캐릭터가 행하는 모션이 상호작용하게 될 수 있다.That is, according to an embodiment of the present invention, when a first character and a second character are associated with each other with reference to a motion window, a first character in a line, an interval, or a point commonly included in the motion window The motion to be performed by the second character may interact with the motion to be performed.

보다 구체적으로, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 위와 같이 모션 윈도우가 확장됨에 따라 제1 캐릭터 및 제2 캐릭터 각각의 동선, 구간 또는 지점 중 해당 모션 윈도우에 공통적으로 포함되는 동선, 구간 또는 지점에 있어서 제1 캐릭터의 모션 및 제2 캐릭터의 모션이 상호작용하는 것으로 결정되면, 해당 모션 윈도우에 대한 사용자 입력(예를 들면, 해당 모션 윈도우 상에 스케치되는 가이드 라인 등)을 참조로 하여 제1 캐릭터의 모션 또는 제2 캐릭터의 모션의 종류, 크기, 속도 등이 결정되도록 할 수 있고, 후술할 바와 같이, 제1 캐릭터 및 제2 캐릭터 각각이 행하는 모션 사이의 관계를 정의하는 모션 맵(map)을 참조로 하여 제1 캐릭터 및 제2 캐릭터 각각이 행하는 모션 사이에서 발생할 인터랙션의 구체적인 양상을 결정할 수 있다.More specifically, as the motion window is expanded as described above, the motion interaction management unit 150 according to an exemplary embodiment of the present invention includes common motion lines, sections, or points of the first character and the second character, If the motion of the first character and the motion of the second character are determined to interact with each other at a line, a section, or a point, the user input (e.g., a guide line sketched on the motion window, etc.) Size, speed, etc. of the motion of the first character or the motion of the second character can be determined with reference to the motion of the first character and the motion of the second character as described later The user can determine a specific aspect of an interaction to be generated between the motion of each of the first character and the second character with reference to the motion map The.

다만, 본 발명이 반드시 상기 언급된 실시예에 한정되는 것은 아님을 밝혀 둔다. 예를 들면, 모션 윈도우가 제1 캐릭터 및 제2 캐릭터를 모두 포함하게 되기 전에 제1 캐릭터 및 제2 캐릭터 각각의 모션이 미리 결정되어 있을 수 있고, 인터랙션 관리부(150)는 이렇게 미리 결정된 제1 캐릭터 및 제2 캐릭터 각각의 모션 사이에서 발생할 인터랙션의 구체적인 양상을 결정하는 실시예도 얼마든지 상정될 수 있을 것이다.It should be noted, however, that the present invention is not necessarily limited to the above-mentioned embodiments. For example, before the motion window includes both the first character and the second character, the motion of each of the first character and the second character may be predetermined, and the interaction management unit 150 may determine the motion of the first character And the concrete motions of the interactions to occur between the respective motions of the first and second characters may be determined as many as possible.

또한, 앞서 간단히 언급한 바와 같이, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 둘 이상의 캐릭터 각각이 행하는 모션 사이의 관계를 정의하는 모션 맵(map)을 참조로 하여, 하나의 모션 윈도우 내에 속하게 되는 둘 이상의 캐릭터 각각이 행하는 모션 사이의 인터랙션의 양상을 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 모션 맵에는, 행위자(doer) 캐릭터가 행하는 모션의 종류 또는 속성과 행위자 캐릭터가 행하는 모션에 대응하여 수용자(recipient) 캐릭터가 행하는 모션의 종류 또는 속성 사이의 관계에 관한 정보가 포함될 수 있다.In addition, as mentioned briefly above, the motion interaction management unit 150 according to an embodiment of the present invention refers to a motion map that defines a relationship between the motions performed by two or more characters, It is possible to determine an aspect of the interaction between motions performed by each of two or more characters included in the motion window. Here, according to the embodiment of the present invention, the motion map includes a type or a motion of motion performed by the doer character and a motion type or attribute of the motion performed by the recipient character in correspondence with the motion performed by the actor character Information about the relationship may be included.

도 6은 본 발명의 일 실시예에 따라 모션 맵에 의하여 정의되는 둘 이상의 캐릭터 각각의 모션 사이의 관계를 예시적으로 나타내는 도면이다. 도 6의 모션 맵에서는, 행위자 캐릭터(610)가 행하는 모션에 대응하여 수용자 캐릭터(620) 행하는 모션 사이의 관계가 정의될 수 있다.6 is an exemplary diagram illustrating a relationship between motions of two or more characters defined by a motion map according to an embodiment of the present invention. In the motion map of Fig. 6, the relationship between the motions performed by the receiver character 620 in correspondence with the motions performed by the actor character 610 can be defined.

도 6을 참조하면, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 도 6의 모션 맵을 참조로 하여, 행위자 캐릭터(610)인 제1 캐릭터가 발차기(611) 또는 주먹질하기(612) 모션을 행하는 것에 대응하여 수용자 캐릭터(620)인 제2 캐릭터가 타격을 받는 모션을 행하도록 결정할 수 있는데, 보다 구체적으로, 제1 캐릭터가 행하는 발차기(611) 또는 주먹질하기(612) 모션의 속성(예를 들면, 높이에 관한 가중치)에 따라 제2 캐릭터가 머리를 맞기(621), 배를 맞기(622) 및 다리를 맞기(623) 중 어느 한 모션을 행하도록 적응적으로 결정할 수 있다(631, 632, 633).Referring to FIG. 6, the motion interaction management unit 150 according to an exemplary embodiment of the present invention refers to the motion map of FIG. 6 to determine whether the first character, which is the actor character 610, is a kicker 611 or a punch It is possible to determine that the second character, which is the receiver character 620, performs motion in response to the motion of the first character 612, more specifically, the kicker 611 or the punching 612 performed by the first character, The second character is adaptively determined to perform either the heading 621, the bowing 622, or the leg-fitting 623 according to the attribute of the motion (for example, the weight with respect to the height) (631, 632, 633).

계속하여, 도 6을 참조하면, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 도 6의 모션 맵을 참조로 하여, 행위자 캐릭터(610)인 제1 캐릭터가 인사하기(613) 모션을 행하는 것에 대응하여 수용자 캐릭터(620)인 제2 캐릭터가 인사 받기(624) 모션을 행하도록 결정하거나(634), 행위자 캐릭터(610)인 제1 캐릭터가 던지기(613) 모션을 행하는 것에 대응하여 수용자 캐릭터(620)인 제2 캐릭터가 던져지기(625) 모션을 행하도록 결정할 수 있다(635).6, the motion interaction management unit 150 according to an embodiment of the present invention refers to the motion map of FIG. 6, and when the first character, which is the actor character 610, (634) to perform the greeting (624) motion in response to the motion of the second character, which is the receiver character (620), or corresponds to the first character of the actor character (610) (635) the second character, which is the receiver character 620, to make a throw (625) motion.

한편, 본 발명의 일 실시예에 따른 모션 인터랙션 관리부(150)는, 제1 캐릭터가 행하는 모션에 대응하여 제공되는 모션 윈도우의 크기가 조절됨에 따라, 해당 모션 윈도우가 제1 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부뿐만 아니라 제1 캐릭터의 주변에 위치하는 제2 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부까지 포함하게 되면, 사용자에게 소정의 피드백(예를 들면, 진동, 시각 효과 등)을 제공함으로써, 제1 캐릭터가 행하는 모션과 제2 캐릭터가 행하는 모션이 인터랙션하게 되었음을 사용자에게 알릴 수 있다.Meanwhile, the motion interaction management unit 150 according to an embodiment of the present invention adjusts the size of the motion window provided corresponding to the motion performed by the first character, so that the motion window is divided into a moving line passing through the first character, (E.g., vibration, visual effect, etc.) to the user if the second character that is located at the periphery of the first character as well as at least a part of the line, It is possible to notify the user that the motion performed by the first character and the motion performed by the second character are brought into interaction with each other.

다음으로, 본 발명의 일 실시예에 따르면, 애니메이션 관리부(160)는 앞서 생성된 동선, 구간 또는 지점 및 이들에 부여된 모션과 그 모션의 속성에 관한 정보에 기초하여, 캐릭터가 동선을 따라 이동하면서 동선 전체, 구간 또는 지점에 부여된 적어도 하나의 모션을 행하는 모습을 포함하는 애니메이션을 생성하는 기능을 수행할 수 있으며, 위의 생성되는 애니메이션에는 캐릭터가 적어도 하나의 모션을 행하면서 소정의 방향을 향하는(또는 캐릭터가 행하는 적어도 하나의 모션이 소정의 방향으로 행해지는) 모습이나 캐릭터가 행하는 적어도 하나의 모션이 다른 캐릭터의 모션과 인터랙션하는 모습이 포함될 수 있다.Next, in accordance with an embodiment of the present invention, the animation management unit 160 determines whether or not the character moves along the copper line, on the basis of information about the copper wire, A motion of at least one motion imparted to the entire line, a section, or a point of motion, and the animation may generate at least one motion in the predetermined direction (Or at least one motion performed by the character is performed in a predetermined direction) or a state in which at least one motion performed by the character interacts with motion of another character.

또한, 본 발명의 일 실시예에 따르면, 애니메이션 관리부(160)는 캐릭터의 모션 시퀀스에 따라 생성된 애니메이션과 카메라(미도시됨)로부터 입력되는 실세계(real world) 영상을 결합함으로써 증강현실(AR, Augmented Reality) 동영상을 생성하는 기능을 수행할 수 있다. 보다 구체적으로, 본 발명의 일 실시예에 따른 애니메이션 관리부(160)는, SLAM(Simultaneous Localization And Mapping) 기술을 이용하여 실세계 영상의 좌표를 추적하고 3D Mapping 좌표를 추출할 수 있고, 위와 같이 추적된 좌표 및 추출된 3D Mapping 좌표에 관한 정보를 참조로 하여 캐릭터의 모션 시퀀스에 따른 애니메이션이 실세계 영상 내에서 표시될 좌표를 결정할 수 있고, 위와 같이 표시될 좌표가 결정된 애니메이션과 실세계 영상을 결합함으로써 증강현실 동영상을 생성할 수 있다.In addition, according to an embodiment of the present invention, the animation management unit 160 combines an animation generated according to a motion sequence of a character and a real world image input from a camera (not shown) Augmented Reality) video can be created. More specifically, the animation management unit 160 according to an embodiment of the present invention can track coordinates of a real-world image and extract 3D mapping coordinates using SLAM (Simultaneous Localization And Mapping) technology, The animation according to the motion sequence of the character can be determined in the real world image with reference to the coordinates and the information about the extracted 3D mapping coordinates and by combining the animation with the coordinate determined to be displayed as described above and the real world image, You can create a movie.

다음으로, 본 발명의 일 실시예에 따른 통신부(170)는 애니메이션 저작 시스템(100)이 외부 장치와 통신할 수 있도록 하는 기능을 수행한다.Next, the communication unit 170 according to an embodiment of the present invention performs a function for allowing the animation authoring system 100 to communicate with an external device.

마지막으로, 본 발명의 일 실시예에 따른 제어부(180)는 동선 관리부(110), 모션 시퀀스 관리부(120), 모션 윈도우 관리부(130), 모션 속성 관리부(140), 모션 인터랙션 관리부(150), 애니메이션 관리부(160) 및 통신부(170) 간의 데이터의 흐름을 제어하는 기능을 수행한다. 즉, 제어부(180)는 외부로부터의 또는 애니메이션 저작 시스템의 각 구성요소 간의 데이터의 흐름을 제어함으로써, 동선 관리부(110), 모션 시퀀스 관리부(120), 모션 윈도우 관리부(130), 모션 속성 관리부(140), 모션 인터랙션 관리부(150), 애니메이션 관리부(160) 및 통신부(170)에서 각각 고유 기능을 수행하도록 제어한다.The motion sequence management unit 120, the motion window management unit 130, the motion attribute management unit 140, the motion interaction management unit 150, and the motion sequence management unit 150, And controls the flow of data between the animation management unit 160 and the communication unit 170. That is, the control unit 180 controls the flow of data between the components of the animation authoring system from the outside, thereby controlling the motion sequence management unit 110, the motion sequence management unit 120, the motion window management unit 130, 140, the motion interaction management unit 150, the animation management unit 160, and the communication unit 170, respectively.

이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specially designed and constructed for the present invention or may be those known and used by those skilled in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the following claims, I will say.

100: 애니메이션 저작 시스템
110: 동선 관리부
120: 모션 시퀀스 관리부
130: 모션 윈도우 관리부
140: 모션 속성 관리부
150: 모션 인터랙션 관리부
160: 애니메이션 관리부
170: 통신부
180: 제어부
100: Animation authoring system
110:
120: Motion sequence management unit
130: Motion window manager
140: Motion property management unit
150: Motion interaction management unit
160: Animation Management Department
170:
180:

Claims (15)

애니메이션을 저작하기 위한 방법으로서,
애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 단계, 및
제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 애니메이션 내에서 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 단계
를 포함하고,
상기 모션 윈도우는, 적어도 하나의 회전축을 중심으로 하여 회전할 수 있는 가상의 유한 평면에 의하여 특정되는 방법.
As a method for authoring an animation,
Providing a motion window corresponding to at least one motion performed by a character included in the animation, and
A direction in which the character is directed when the character performs the at least one motion in the animation or a direction in which the at least one motion is performed in the animation with reference to the direction of the motion window that can be rotated by a first user operation ≪ / RTI >
Lt; / RTI >
Wherein the motion window is specified by a virtual finite plane that is rotatable about at least one rotation axis.
삭제delete 제1항에 있어서,
상기 제1 사용자 조작은, 상기 모션 윈도우 상의 특정 지점에 부가되는 그래픽 요소를 통하여 입력되는 방법.
The method according to claim 1,
Wherein the first user operation is entered via a graphical element that is added to a specific point on the motion window.
제1항에 있어서,
제2 사용자 조작에 의하여 상기 모션 윈도우의 크기가 조절됨에 따라 상기 모션 윈도우가 상기 캐릭터의 주변에 위치하는 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 상기 애니메이션 내에서 상기 모션 윈도우에 대응되는 상기 캐릭터의 모션과 상기 모션 윈도우에 포함되는 상기 다른 캐릭터의 동선, 구간 또는 지점의 적어도 일부에 대응되는 상기 다른 캐릭터의 모션이 인터랙션하는 것으로 결정하는 단계
를 더 포함하는 방법.
The method according to claim 1,
If the motion window includes at least a part of a line, an interval, or a point passing through another character located in the periphery of the character as the size of the motion window is adjusted by the second user operation, Determining whether the motion of the character corresponding to at least a part of the line, section, or point of the other character included in the motion window interacts with the motion of the character corresponding to the character
≪ / RTI >
제4항에 있어서,
상기 인터랙션 결정 단계에서,
상기 모션 윈도우가 상기 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 기설정된 사용자 피드백을 발생시키는 방법.
5. The method of claim 4,
In the interaction determination step,
Wherein the motion window comprises at least a portion of a line, section or point through which the other character passes.
제4항에 있어서,
상기 인터랙션 결정 단계에서,
상기 모션 윈도우가 상기 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 둘 이상의 캐릭터 각각이 행하는 모션 사이의 관계를 정의하는 모션 맵(motion map)을 참조로 하여, 상기 캐릭터의 모션과 상기 다른 캐릭터의 모션 사이에서 발생하는 인터랙션의 양상을 결정하는 방법.
5. The method of claim 4,
In the interaction determination step,
If the motion window includes at least a part of a line, a section, or a point through which the other character passes, a motion map defining a relationship between the motions performed by the two or more characters, And the motion of the other character.
제6항에 있어서,
상기 모션 맵에는, 행위자(doer) 캐릭터가 행하는 모션의 종류 또는 속성과 상기 행위자 캐릭터가 행하는 모션에 대응하여 수용자(recipient) 캐릭터가 행하는 모션의 종류 또는 속성 사이의 관계에 관한 정보가 포함되는 방법.
The method according to claim 6,
Wherein the motion map includes information on a kind or a property of motion performed by the doer character and a kind of motion or a relationship between the attributes performed by the recipient character in correspondence with the motion performed by the actor character.
제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium recording a computer program for executing the method according to claim 1. 애니메이션을 저작하기 위한 시스템으로서,
애니메이션에 포함되는 캐릭터가 행하는 적어도 하나의 모션에 대응하여 모션 윈도우(motion window)를 제공하는 모션 윈도우 관리부, 및
제1 사용자 조작에 의하여 회전될 수 있는 상기 모션 윈도우의 방향을 참조로 하여, 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 상기 캐릭터가 향하는 방향 또는 상기 적어도 하나의 모션이 행해지는 방향을 결정하는 모션 속성 관리부
를 포함하고,
상기 모션 윈도우는, 적어도 하나의 회전축을 중심으로 하여 회전할 수 있는 가상의 유한 평면에 의하여 특정되는 시스템.
A system for authoring animations,
A motion window manager for providing a motion window corresponding to at least one motion performed by a character included in the animation, and
A motion that determines the direction in which the character is headed or the direction in which the at least one motion is performed when the character performs the at least one motion with reference to the direction of the motion window that can be rotated by the first user operation Attribute management section
Lt; / RTI >
Wherein the motion window is specified by a virtual finite plane that is rotatable about at least one rotation axis.
삭제delete 제9항에 있어서,
상기 제1 사용자 조작은, 상기 모션 윈도우 상의 특정 지점에 부가되는 그래픽 요소를 통하여 입력되는 시스템.
10. The method of claim 9,
Wherein the first user operation is entered via a graphical element that is added to a specific point on the motion window.
제9항에 있어서,
제2 사용자 조작에 의하여 상기 모션 윈도우의 크기가 조절됨에 따라 상기 모션 윈도우가 상기 캐릭터의 주변에 위치하는 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 상기 애니메이션 내에서 상기 모션 윈도우에 대응되는 상기 캐릭터의 모션과 상기 모션 윈도우에 포함되는 상기 다른 캐릭터의 동선, 구간 또는 지점의 적어도 일부에 대응되는 상기 다른 캐릭터의 모션이 인터랙션하는 것으로 결정하는 모션 인터랙션 관리부
를 더 포함하는 시스템.
10. The method of claim 9,
If the motion window includes at least a part of a line, an interval, or a point passing through another character located in the periphery of the character as the size of the motion window is adjusted by the second user operation, Determines that a motion of the character corresponding to at least a part of a line, an interval, or a point of the other character included in the motion window interacts with the motion of the character corresponding to the character
≪ / RTI >
제12항에 있어서,
상기 모션 인터랙션 관리부는, 상기 모션 윈도우가 상기 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 기설정된 사용자 피드백을 발생시키는 시스템.
13. The method of claim 12,
Wherein the motion interaction management unit generates predetermined user feedback when the motion window includes at least a part of a line, an interval, or a point through which the other character passes.
제12항에 있어서,
상기 모션 인터랙션 관리부는, 상기 모션 윈도우가 상기 다른 캐릭터가 지나는 동선, 구간 또는 지점의 적어도 일부를 포함하게 되면, 둘 이상의 캐릭터 각각이 행하는 모션 사이의 관계를 정의하는 모션 맵(motion map)을 참조로 하여, 상기 다른 캐릭터의 모션 사이에서 발생하는 인터랙션의 양상을 결정하는 시스템.
13. The method of claim 12,
When the motion window includes at least a part of a line, a section, or a point passing through the other character, the motion interaction management unit refers to a motion map that defines a relationship between motions performed by each of the two or more characters Thereby determining an aspect of an interaction occurring between the motions of the other characters.
제14항에 있어서,
상기 모션 맵에는, 행위자(doer) 캐릭터가 행하는 모션의 종류 또는 속성과 상기 행위자 캐릭터가 행하는 모션에 대응하여 수용자(recipient) 캐릭터가 행하는 모션의 종류 또는 속성 사이의 관계에 관한 정보가 포함되는 시스템.
15. The method of claim 14,
Wherein the motion map includes information about a type or a motion of motion performed by the doer character and a kind of motion or a relationship between the attributes performed by the recipient character in correspondence with the motion performed by the actor character.
KR1020160096472A 2016-03-25 2016-07-28 Method, system and computer-readable recording medium for authoring animation KR101979754B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2017/001292 WO2017164511A1 (en) 2016-03-25 2017-02-06 Method and system for authoring animation, and computer readable recoding medium
KR1020170150923A KR102427787B1 (en) 2016-03-25 2017-11-13 Method, system and computer-readable recording medium for authoring animation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160036150 2016-03-25
KR20160036150 2016-03-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020170150923A Division KR102427787B1 (en) 2016-03-25 2017-11-13 Method, system and computer-readable recording medium for authoring animation

Publications (2)

Publication Number Publication Date
KR20170112891A KR20170112891A (en) 2017-10-12
KR101979754B1 true KR101979754B1 (en) 2019-05-17

Family

ID=60141178

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160096472A KR101979754B1 (en) 2016-03-25 2016-07-28 Method, system and computer-readable recording medium for authoring animation

Country Status (1)

Country Link
KR (1) KR101979754B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011149160A1 (en) * 2010-05-25 2011-12-01 연세대학교 산학협력단 Animation authoring system and method for authoring animation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110045719A (en) * 2009-10-27 2011-05-04 주식회사 숀픽쳐스 Animation production method, computer readable medium in which program for executing the method is stored and animation production system in online using the method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011149160A1 (en) * 2010-05-25 2011-12-01 연세대학교 산학협력단 Animation authoring system and method for authoring animation

Also Published As

Publication number Publication date
KR20170112891A (en) 2017-10-12

Similar Documents

Publication Publication Date Title
US11663785B2 (en) Augmented and virtual reality
KR101575092B1 (en) Method, system and computer-readable recording medium for creating motion sequence of animation
Chi et al. Research trends and opportunities of augmented reality applications in architecture, engineering, and construction
US20170329416A1 (en) System and method for providing user interface tools
US20160283081A1 (en) Facilitate user manipulation of a virtual reality environment view using a computing device with touch sensitive surface
US10839572B2 (en) Contextual virtual reality interaction
US20190130656A1 (en) Systems and methods for adding notations to virtual objects in a virtual environment
Medeiros et al. Proposal and evaluation of a tablet-based tool for 3D virtual environments
US20190130599A1 (en) Systems and methods for determining when to provide eye contact from an avatar to a user viewing a virtual environment
AU2019222974B2 (en) Interfaces and techniques to retarget 2d screencast videos into 3d tutorials in virtual reality
US20220068029A1 (en) Methods, systems, and computer readable media for extended reality user interface
KR20140145217A (en) 3d virtual modeling system using spatial information and method thereof
WO2018086532A1 (en) Display control method and apparatus for surveillance video
CN103975290A (en) Methods and systems for gesture-based petrotechnical application control
US11423549B2 (en) Interactive body-driven graphics for live video performance
KR20140048828A (en) Method, system and computer-readable recording medium for creating crowd animation
WO2022179344A1 (en) Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment
US20210256751A1 (en) Generating animations in an augmented reality environment
US20190130631A1 (en) Systems and methods for determining how to render a virtual object based on one or more conditions
Goh et al. An inertial device-based user interaction with occlusion-free object handling in a handheld augmented reality
KR101979754B1 (en) Method, system and computer-readable recording medium for authoring animation
KR102427787B1 (en) Method, system and computer-readable recording medium for authoring animation
KR20140078083A (en) Method of manufacturing cartoon contents for augemented reality and apparatus performing the same
US20190188910A1 (en) Systems and methods for teleporting a virtual position of a user in a virtual environment to a teleportable point of a virtual object
Lee et al. Interface for In-situ Authoring of Augmented Reality Contents on a Mobile Device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2017101005477; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20171113

Effective date: 20190408

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant