WO2014116056A1 - 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 - Google Patents

애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
WO2014116056A1
WO2014116056A1 PCT/KR2014/000707 KR2014000707W WO2014116056A1 WO 2014116056 A1 WO2014116056 A1 WO 2014116056A1 KR 2014000707 W KR2014000707 W KR 2014000707W WO 2014116056 A1 WO2014116056 A1 WO 2014116056A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion
character
line
point
generating
Prior art date
Application number
PCT/KR2014/000707
Other languages
English (en)
French (fr)
Inventor
전재웅
Original Assignee
(주) 애니펜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 애니펜 filed Critical (주) 애니펜
Priority to CN201480005736.6A priority Critical patent/CN104969263B/zh
Priority to EP14743842.8A priority patent/EP2950274B1/en
Priority to JP2015555106A priority patent/JP6647867B2/ja
Priority to US14/763,499 priority patent/US10037619B2/en
Publication of WO2014116056A1 publication Critical patent/WO2014116056A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Definitions

  • the present invention relates to a method, a system and a computer readable recording medium for generating a motion sequence of an animation. More specifically, the present invention generates a copper wire representing the path that the character moves with reference to a user operation input with respect to the reference plane, and for the copper wire, at least one section included in the copper wire, at least one point on the copper wire.
  • a method, system, and computer-readable recording medium for generating a motion sequence that causes a character to perform the motion when the character is located on a motion line, section or point to which the motion is applied.
  • 3D animation is frequently used in movies and TVs.
  • 3D animation editing tools are used for authoring 3D animations.
  • the conventional 3D animation editing tools are complicated and difficult to use. It is common to use only by trained professionals.
  • the object of the present invention is to solve all the above-mentioned problems.
  • the present invention generates a moving line indicating a path that the character moves with reference to a user operation input with respect to the reference plane and the motion of the character with respect to the moving line, at least one section included in the moving line, at least one point on the moving line
  • Another purpose is to generate a motion sequence that causes the character to perform the motion when the character is located on a moving line, section or point to which the motion is given.
  • Another object of the present invention is to provide a user interface that allows a user to freely and easily control a motion performed while moving along a moving line that is a character's movement path.
  • a method for generating a motion sequence of an animation comprising: (a) referring to a first user manipulation inputted with respect to a reference plane, a moving line representing a path that a character moves through Generating, (b) specifying the copper line, at least one section included in the copper line and at least one point on the copper line, with reference to a second user manipulation input to the reference plane, and ( c) by giving at least one motion to at least one of the copper wire, the at least one section and the at least one point, with reference to a third user manipulation input with respect to the reference plane; At least one of the copper wire, the at least one section, and the at least one point to which one motion is given
  • a method for generating a motion sequence to effect at least one motion that the character of the grant is provided.
  • a method for generating a motion sequence of an animation with reference to a first user manipulation input with respect to a reference plane, generating a moving line representing a path that a character travels,
  • a copper wire management unit which specifies the copper wire, at least one section included in the copper line and at least one point on the copper line, with reference to a second user manipulation inputted to the reference plane, and inputted to the reference plane
  • the at least one motion is given to at least one of the copper wire, the at least one section and the at least one point, so that the character is provided with the at least one motion,
  • the method including the motion sequence management unit for generating a motion sequence to effect at least one motion of the character is assigned, it is provided.
  • a method for generating a motion sequence of an animation comprising: (a) referring to a first user manipulation input to a reference plane, the at least one motion being performed by a character; Setting, and (b) generating a moving line representing a path along which the character moves, with reference to a second user manipulation input to the reference plane while the at least one motion is set, wherein the character Generating a motion sequence that causes the character to perform the set at least one motion when positioned on the generated copper line.
  • a system for generating a motion sequence of an animation the motion of setting at least one motion to be performed by a character with reference to a first user manipulation input to a reference plane
  • a sequence management unit and a moving line management unit generating a moving line representing a path along which the character moves, with reference to a second user manipulation input to the reference plane when the at least one motion is set, wherein the motion sequence
  • the management unit is provided with a system for generating a motion sequence for causing the character to perform the set at least one motion when the character is located on the generated moving line.
  • an animation authoring tool that enables an expert to easily author a three-dimensional animation and to accurately input a path and motion of a moving object (ie, a character).
  • the animation is performed by the user simply performing a simple touch operation (for example, tap, hold, drag, pinch, etc.), mouse operation, motion operation, and the like. Since the movement and motion of the characters within can be set, the effect that enables the user to accurately and skillfully adjust the motion sequence of the animation using a portable terminal device such as a smartphone or a tablet PC is achieved.
  • a simple touch operation for example, tap, hold, drag, pinch, etc.
  • mouse operation for example, mouse operation, motion operation, and the like. Since the movement and motion of the characters within can be set, the effect that enables the user to accurately and skillfully adjust the motion sequence of the animation using a portable terminal device such as a smartphone or a tablet PC is achieved.
  • FIG. 1 is a diagram illustrating an internal configuration of a motion sequence generation system according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a process of generating a motion sequence according to an embodiment of the present invention.
  • FIG. 3 is a diagram exemplarily illustrating a process in which motion is applied to each section of a copper wire according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a process of generating a motion sequence according to another embodiment of the present invention.
  • 5 to 14 are diagrams exemplarily illustrating a configuration of a user interface that supports generating a motion sequence according to an embodiment of the present invention.
  • a microcomputer is provided with memory means such as a personal computer (for example, a desktop computer, a notebook computer, etc.), a server, a workstation, a PDA, a web pad, a mobile phone, a smartphone, a tablet PC, and the like.
  • a personal computer for example, a desktop computer, a notebook computer, etc.
  • a server for example, a desktop computer, a notebook computer, etc.
  • a server for example, a desktop computer, a notebook computer, etc.
  • a server for example, a desktop computer, a notebook computer, etc.
  • a server for example, a desktop computer, a notebook computer, etc.
  • a server for example, a server, a workstation, a PDA, a web pad, a mobile phone, a smartphone, a tablet PC, and the like.
  • Any device equipped with a processor having a computing power may be adopted as the motion sequence generation system of the present invention.
  • the motion sequence generation system may receive a
  • FIG. 1 is a diagram illustrating an internal configuration of a motion sequence generation system according to an embodiment of the present invention.
  • a motion sequence generation system 100 may include a moving line management unit 110, a motion sequence management unit 120, an animation generation unit 130, a communication unit 140, and a control unit ( 150).
  • the copper line management unit 110, the motion sequence management unit 120, the animation generation unit 130, the communication unit 140 and the control unit 150 at least a part of the external system (not shown) May be program modules in communication with Such program modules may be included in the motion sequence generation system 100 in the form of operating systems, application modules, and other program modules, and may be physically stored on a variety of known storage devices. Also, such program modules may be stored in a remote storage device that can communicate with the motion sequence generation system 100.
  • program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, described below, in accordance with the present invention.
  • the copper line management unit 110 refers to a first user manipulation inputted to a reference plane, which is a virtual plane defined by a display screen on which a character is displayed, on a reference plane.
  • a function of generating a moving line indicating a path that a character moves may be performed.
  • the operation of the first user is an operation capable of specifying a virtual straight line or a curve extending from the first point to the second point on the reference plane, for example, a touch extending from the first point to the second point on the display screen.
  • a motion operation for moving the terminal device including the predetermined motion input means from the first position to the second position or changing the posture of the terminal device from the first posture to the second posture.
  • the copper wire management unit 110 specifies at least one section included in the previously generated copper wire with reference to the second user manipulation inputted with respect to the reference plane, or the previously generated copper wire A function of specifying at least one point of the image may be performed.
  • the operation of the second user is an operation capable of specifying a boundary of at least one section included in the copper line or specifying a position of at least one point on the copper line, for example, crossing the at least one point on the copper line. It may include a touch operation for drawing a virtual line or directly selecting at least one point on the copper line, and an operation for changing the position or posture of the terminal device including a predetermined motion input means.
  • the length of at least one section included in the copper line or the position of the at least one point on the copper line may be changed by an additional user operation.
  • the motion sequence management unit 120 refers to the third user manipulation inputted with respect to the reference plane, the entire copper line, at least one section included in the copper line, or at least one on the copper line.
  • a character's motion or an attribute value related to the motion
  • a motion sequence is generated that causes the character to perform an action according to the motion when the character is located on a motion line, section or point to which the motion is applied.
  • the motion that can be given to a copper wire, a section or a point may include walking, running, jumping, rolling, crawling, punching, shrugging, shaking, talking, singing, a motion expressing the emotional state of the character, and the like.
  • Various operations of may be included.
  • the type of motion in the present invention is not necessarily limited to those listed above, it will be appreciated that it can be added or changed as much as possible within the scope that can achieve the object of the present invention.
  • a user inputs a first user operation, a second user operation, a third user operation, etc. to set a moving line, a section or a point and give motion to the moving line, a section or a point.
  • a graphical user interface may be provided that supports this.
  • the graphical user interface includes a graphic element indicating various motions of a character that can be given to a moving line, a section or a point, and a pot controller displayed to visually include the graphic element.
  • pod controller may be displayed corresponding to copper lines, sections, or points.
  • the animation generating unit 130 is a character along the line with reference to the previously generated movement line, section or point and information about the motion assigned to them, that is, the motion sequence A function of generating an animation including a state of performing at least one motion given to the entire line, section or point while moving is performed.
  • the animation generator 130 combines an animation generated according to a motion sequence of a character with a real world image input from a camera (not shown).
  • Augmented Reality can be used to create a video.
  • the animation generator 130 may track coordinates of a real-world image and extract 3D mapping coordinates using SLAM (Simultaneous Localization And Mapping) technology.
  • SLAM Simultaneous Localization And Mapping
  • the animation according to the motion sequence of the character can be determined in the real world image, and the coordinates to be displayed as described above are augmented by combining the animation with the determined real world image.
  • Reality videos can be created.
  • the communication unit 140 performs a function for allowing the motion sequence generation system 100 to communicate with an external device.
  • control unit 150 performs a function of controlling the flow of data between the copper line management unit 110, the motion sequence management unit 120, the animation generator 130 and the communication unit 140. do. That is, the controller 150 controls the flow of data from the outside or between each component of the motion sequence generation system, thereby moving the copper line management unit 110, the motion sequence management unit 120, the animation generation unit 130, and the communication unit 140. Control each to perform its own function.
  • FIG. 2 is a diagram illustrating a process of generating a motion sequence according to an embodiment of the present invention.
  • a user moves a character or an object through a variety of manipulation methods such as touch manipulation, mouse manipulation, and motion manipulation with respect to the reference plane 210, that is, the moving line 220. Can be generated.
  • the user moves the copper wire 220 to the plurality of sections 221 to 223 using various manipulation methods such as touch manipulation, mouse manipulation, and motion manipulation with respect to the reference plane 210.
  • the copper wire 220 may be segmented or at least one point 224 and 225 on the copper wire 220 may be specified.
  • the user may manipulate the drawing of a line crossing the copper line 220 to allow the copper line 220 to be segmented or the point on the copper line 220 to be specified based on the intersection point.
  • the user may specify a point on the copper wire 220 by directly specifying a point on the copper wire 220.
  • the user applies various motions 231 to 233 to each of the sections 221 to 223 of the segmented copper wire, thereby providing the motion and the respective sections 221 to 223 of the copper wire.
  • 231 to 233 may be combined to generate a combined motion sequence.
  • the user may apply various motions to the entire moving line or various motions to at least one point specified on the moving line, so that when the character is located on the moving line, section or point to which the motion is applied, It is possible to generate a motion sequence for the character to perform the various motions imparted as above.
  • FIG. 3 is a diagram exemplarily illustrating a process in which motion is applied to each section of a copper wire according to an embodiment of the present invention.
  • GUIs 341 to 343 that support the provision of motion may be displayed corresponding to each section of the copper wire, and thus the user may display each section.
  • the corresponding graphical user interfaces 341 to 343 can easily select the motion to be given to the corresponding section.
  • FIG. 3B the graphic user interfaces 341 to 343 displayed corresponding to each section of the copper line are displayed in a form that is adaptively arranged according to the direction of each section of the copper line. It may be easier to select a motion to be given to each section of the moving line.
  • FIG. 4 is a diagram illustrating a process of generating a motion sequence according to another embodiment of the present invention.
  • a user may generate a path for moving a character or an object, that is, a moving line 420 by inputting a first user manipulation such as a touch manipulation, a mouse manipulation, or a motion manipulation with respect to the reference plane 410.
  • a first user manipulation such as a touch manipulation, a mouse manipulation, or a motion manipulation with respect to the reference plane 410.
  • a second user operation for example, multi-touch operation, shaking operation, etc.
  • a graphic user interface for supporting the user to set the motion ( 440 may be provided. If the user selects a desired motion through the graphical user interface, the copper wire generated before the second user operation is input or the copper wire to be generated after the second user operation is input. The selected motion of can be given.
  • a user operation for generating the copper wire may be input again.
  • the order in which the copper wires are generated and the order in which the motions are set may be changed, and the copper wires are divided into a plurality of sections, or the points on the copper wires are not specified.
  • the motion may be applied to the entire copper line.
  • a movement line of the character is generated when a first user operation is input later when a second user operation is first input and any one of various motions that can be applied to the character is selected. A motion sequence in which the selected motion is given to the corresponding moving line may be generated.
  • 5 to 14 are views illustrating various configurations of a user interface for supporting generating a motion sequence according to an embodiment of the present invention.
  • a moving line 530 indicating a movement path of the character 520 may be generated.
  • two sections 631 and 632 and one point 633 included in the copper line 630 may be specified.
  • the user A pod controller 740 may be provided to assist in imparting motion to the copper wire 730, the sections 731 and 732 or the point 733.
  • the pot controller 740 may visually include graphic elements 761 to 764 corresponding to a motion that may be given to the corresponding point 733.
  • the selection menu 760 may be displayed together with the graphic elements 761 to 764 corresponding to the motions that may be given to the point 733 through the pot controller 740.
  • a point 833 on a moving line 830 that is a movement path of the character 820 is specified, and a pot controller 840 and a motion selection menu 860 corresponding to the point 833 are displayed.
  • a user operation eg, hold and drag, drag and drop, etc.
  • the graphic element 862 indicating the selected motion is displayed in the pot controller 840.
  • the display may move inward to display a state included in the pot controller 840.
  • a plurality of graphic elements 962 and 963 representing each of the plurality of motions are displayed. May be included, and the order between the plurality of graphic elements 962 and 963 included in the pot controller 940 may be controlled according to a user input.
  • the graphic element representing the motion is displayed. (1062) can be highlighted, and the corresponding graphic element (1062) can be deleted in accordance with the additional user input (1070), the character 1020 according to the additional user input input character 1020 Various properties such as a sound generated when performing the character, a time when the character 1020 performs the motion, and a dialogue that the character 1020 speaks while performing the motion may be set (1080).
  • the circular pot controller 1140 may be selected. With reference to a user manipulation input along the circumference, the time for the character 1120 to perform a motion corresponding to the specific graphic element 1162 may be adjusted (1182).
  • the character in the state where a specific graphic element representing the character's motion is selected in the circular pot controller, the character is displayed with reference to a user operation input along the circumference of the circular pot controller.
  • the direction in which the motion corresponding to the element is performed can be specified.
  • a predetermined character string 1283 is input according to a user's manipulation.
  • the spoken dialogue may be set.
  • the pot may visually include graphic elements 1361 to 1364 corresponding to a motion that may be given to the corresponding section 1332.
  • the controller 1340 may be displayed, along with a selection menu 1360 listing the graphic elements 1361 to 1364 corresponding to the motions that may be imparted to the point 1333 via the pot controller 1340. It may be.
  • the section 1432 included in the moving line 1430 which is the movement path of the character 1420 is specified, and the pot controller 1440 and the motion selection menu 1460 corresponding to the section 1432 are specified.
  • the graphic element 1462 pointing to the selected motion is displayed.
  • the controller 1440 may move to the controller 1440 to display a state included in the pot controller 1440.
  • the kind of motion that can be given to the point 733 that is, as a motion that can be performed in place, for example, , Do nothing (761), shake (762), crush (763), punch (764), etc.
  • the kind of motion that can be applied to the section 1332 or the entire line i.e.
  • walking 1361, running 1362, sneaking 1136, crawling 1364, etc. may be set differently.
  • the user calls a motion sequence already generated and stored by himself or another user, and the current character 520, 620. ) Can be applied.
  • the user may save his newly created motion sequence so that he or another user can utilize the motion sequence later.
  • the user may load a pre-stored motion sequence or store a newly generated motion sequence by selecting the preset icons 510 and 610 displayed on the screen.
  • Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded in a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 태양에 따르면, 애니메이션의 모션 시퀀스(motion sequence)를 생성하기 위한 방법으로서, 기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 캐릭터가 이동하는 경로를 나타내는 동선을 생성하는 단계, 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 동선, 동선에 포함되는 구간 및 동선 상의 지점을 특정하는 단계, 및 기준 평면에 대하여 입력되는 제3 사용자 조작을 참조로 하여, 동선, 구간 또는 지점 대하여 모션을 부여함으로써, 캐릭터가 모션이 부여된 동선, 구간 또는 지점에 위치할 때 캐릭터가 부여된 모션을 행하도록 하는 모션 시퀀스를 생성하는 단계를 포함하는 방법이 제공된다.

Description

애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
본 발명은 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다. 보다 자세하게는, 본 발명은 기준 평면에 대하여 입력되는 사용자 조작을 참조로 하여 캐릭터가 이동하는 경로를 나타내는 동선을 생성하고, 동선, 동선에 포함되는 적어도 하나의 구간, 동선 상의 적어도 하나의 지점에 대하여 캐릭터의 모션을 부여함으로써, 캐릭터가 모션이 부여된 동선, 구간 또는 지점에 위치할 때 캐릭터가 해당 모션을 행하도록 하는 모션 시퀀스를 생성하는 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
3차원 애니메이션은 영화나 TV에서 자주 등장하고 있으며, 이와 같은 3차원 애니메이션의 저작을 위해서는 3차원 애니메이션 저작용 툴(tool)이 이용되는데, 통상적인 3차원 애니메이션 저작용 툴은 사용 방법이 복잡하고 어려워 숙련된 전문가에 의해서만 사용이 가능한 것이 일반적이다.
최근에는 인터넷과 멀티미디어의 발달로 인해 3차원 애니메이션을 보기만 하는 것을 넘어 직접 저작하여 사용하려는 일반인 사용자들이 늘어나고 있다.
따라서, 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있고, 객체의 경로와 동작의 정확한 입력이 가능한 애니메이션 저작 툴의 개발에 대한 기대가 높아지고 있다.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은 기준 평면에 대하여 입력되는 사용자 조작을 참조로 하여 캐릭터가 이동하는 경로를 나타내는 동선을 생성하고 동선, 동선에 포함되는 적어도 하나의 구간, 동선 상의 적어도 하나의 지점에 대하여 캐릭터의 모션을 부여함으로써, 캐릭터가 모션이 부여된 동선, 구간 또는 지점에 위치할 때 해당 캐릭터가 해당 모션을 행하도록 하는 모션 시퀀스를 생성하는 것을 다른 목적으로 한다.
또한, 본 발명은 사용자가 캐릭터의 이동 경로인 동선을 따라 이동하면서 행하는 모션을 자유롭고도 손쉽게 제어할 수 있도록 하는 사용자 인터페이스를 제공하는 것을 또 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 애니메이션의 모션 시퀀스(motion sequence)를 생성하기 위한 방법으로서, (a) 기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 캐릭터가 이동하는 경로를 나타내는 동선을 생성하는 단계, (b) 상기 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 상기 동선, 상기 동선에 포함되는 적어도 하나의 구간 및 상기 동선 상의 적어도 하나의 지점을 특정하는 단계, 및 (c) 상기 기준 평면에 대하여 입력되는 제3 사용자 조작을 참조로 하여, 상기 동선, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 대하여 적어도 하나의 모션을 부여함으로써, 상기 캐릭터가 상기 적어도 하나의 모션이 부여된 상기 동선, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 위치할 때 상기 캐릭터가 상기 부여된 적어도 하나의 모션을 행하도록 하는 모션 시퀀스를 생성하는 단계를 포함하는 방법이 제공된다.
본 발명의 다른 태양에 따르면, 애니메이션의 모션 시퀀스(motion sequence)를 생성하기 위한 방법으로서, 기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 캐릭터가 이동하는 경로를 나타내는 동선을 생성하고, 상기 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 상기 동선, 상기 동선에 포함되는 적어도 하나의 구간 및 상기 동선 상의 적어도 하나의 지점을 특정하는 동선 관리부, 및 상기 기준 평면에 대하여 입력되는 제3 사용자 조작을 참조로 하여, 상기 동선, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 대하여 적어도 하나의 모션을 부여함으로써, 상기 캐릭터가 상기 적어도 하나의 모션이 부여된 상기 동선, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 위치할 때 상기 캐릭터가 상기 부여된 적어도 하나의 모션을 행하도록 하는 모션 시퀀스를 생성하는 모션 시퀀스 관리부를 포함하는 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 애니메이션의 모션 시퀀스(motion sequence)를 생성하기 위한 방법으로서, (a) 기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 캐릭터가 행할 적어도 하나의 모션을 설정하는 단계, 및 (b) 상기 적어도 하나의 모션이 설정된 상태에서 상기 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 상기 캐릭터가 이동하는 경로를 나타내는 동선을 생성하고, 상기 캐릭터가 상기 생성된 동선에 위치할 때 상기 캐릭터가 상기 설정된 적어도 하나의 모션을 행하도록 하는 모션 시퀀스를 생성하는 단계를 포함하는 방법이 제공된다.
본 발명의 또 다른 태양에 따르면, 애니메이션의 모션 시퀀스(motion sequence)를 생성하기 위한 시스템으로서, 기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 캐릭터가 행할 적어도 하나의 모션을 설정하는 모션 시퀀스 관리부, 및 상기 적어도 하나의 모션이 설정된 상태에서 상기 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 상기 캐릭터가 이동하는 경로를 나타내는 동선을 생성하는 동선 관리부를 포함하고, 상기 모션 시퀀스 관리부는, 상기 캐릭터가 상기 생성된 동선에 위치할 때 상기 캐릭터가 상기 설정된 적어도 하나의 모션을 행하도록 하는 모션 시퀀스를 생성하는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 비전문가도 손쉽게 3차원 애니메이션을 저작할 수 있고, 움직이는 객체(즉, 캐릭터)의 경로와 동작을 정확하게 입력할 수 있도록 하는 애니메이션 저작 툴을 제공할 수 있게 되는 효과가 달성된다.
또한, 본 발명에 의하면, 사용자가 간단한 터치 조작(예를 들면, 탭(tap), 홀드(hold), 드래그(drag), 핀치(pinch) 등), 마우스 조작, 모션 조작 등을 행하는 것만으로 애니메이션 내의 캐릭터의 동선과 모션을 설정할 수 있으므로, 사용자가 스마트폰이나 태블릿 PC와 같은 휴대용 단말 장치를 이용하여 애니메이션의 모션 시퀀스를 정확하고 능숙하게 조절하는 것이 가능하게 되는 효과가 달성된다.
도 1은 본 발명의 일 실시예에 따른 모션 시퀀스 생성 시스템의 내부 구성을 예시적으로 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따라 모션 시퀀스가 생성되는 과정을 예시적으로 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따라 동선의 각 구간에 모션이 부여되는 과정을 예시적으로 나타내는 도면이다.
도 4는 본 발명의 다른 실시예에 따라 모션 시퀀스가 생성되는 과정을 예시적으로 나타내는 도면이다.
도 5 내지 도 14는 본 발명의 일 실시예에 따라 모션 시퀀스를 생성하는 것을 지원하는 사용자 인터페이스의 구성을 예시적으로 나타내는 도면이다.
<부호의 설명>
100: 모션 시퀀스 생성 시스템
110: 동선 관리부
120: 모션 시퀀스 관리부
130: 애니메이션 생성부
140: 통신부
150: 제어부
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
모션 시퀀스 생성 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 모션 시퀀스 생성 시스템의 내부 구성 및 각 구성요소의 기능에 대하여 살펴보기로 한다.
본 발명의 일 실시예에 따르면, 개인용 컴퓨터(예를 들어, 데스크탑 컴퓨터, 노트북 컴퓨터 등), 서버, 워크스테이션, PDA, 웹 패드, 이동 전화기, 스마트폰, 태블릿 PC 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 장치라면 얼마든지 본 발명의 모션 시퀀스 생성 시스템으로 채택될 수 있다. 특히, 본 발명의 일 실시예에 따른 모션 시퀀스 생성 시스템은, 사용자로부터 터치 조작을 입력 받을 수 있는 터치 스크린(touch screen), 적외선 센서, 가속도 센서 등을 이용하여 사용자로부터 모션 조작을 입력 받을 수 있는 모션 입력 수단 등의 다양한 입력 수단을 포함할 수 있고, 캐릭터의 모션 시퀀스를 포함하는 애니메이션을 표시할 수 있는 표시 수단을 포함할 수 있다.
도 1은 본 발명의 일 실시예에 따른 모션 시퀀스 생성 시스템의 내부 구성을 예시적으로 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 모션 시퀀스 생성 시스템(100)은, 동선 관리부(110), 모션 시퀀스 관리부(120), 애니메이션 생성부(130), 통신부(140) 및 제어부(150)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 동선 관리부(110), 모션 시퀀스 관리부(120), 애니메이션 생성부(130), 통신부(140) 및 제어부(150)는 그 중 적어도 일부가 외부 시스템(미도시됨)과 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 모션 시퀀스 생성 시스템(100)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 모션 시퀀스 생성 시스템(100)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
먼저, 본 발명의 일 실시예에 따르면, 동선 관리부(110)는 캐릭터가 표시되는 표시 화면에 의하여 정의되는 가상의 평면인 기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 기준 평면 상에 캐릭터가 이동하는 경로를 나타내는 동선을 생성하는 기능을 수행할 수 있다. 여기서, 제1 사용자의 조작은 기준 평면 상의 제1 지점에서 제2 지점까지 이어지는 가상의 직선 또는 곡선을 특정할 수 있는 조작으로서, 예를 들면, 표시 화면 상의 제1 지점에서 제2 지점까지 이어지는 터치 조작, 소정의 모션 입력 수단을 포함하는 단말 장치를 제1 위치로부터 제2 위치로 이동시키거나 단말 장치의 자세를 제1 자세에서 제2 자세로 변경시키는 모션 조작 등을 포함할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 동선 관리부(110)는 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 앞서 생성된 동선에 포함되는 적어도 하나의 구간을 특정하거나 앞서 생성된 동선 상의 적어도 하나의 지점을 특정하는 기능을 수행할 수 있다. 여기서, 제2 사용자의 조작은 동선에 포함되는 적어도 하나의 구간의 경계를 특정하거나 동선 상의 적어도 하나의 지점의 위치를 특정할 수 있는 조작으로서, 예를 들면, 동선 상의 적어도 하나의 지점을 가로지르는 가상의 선을 그리거나 동선 상의 적어도 하나의 지점을 직접 선택하는 터치 조작, 소정의 모션 입력 수단을 포함하는 단말 장치의 위치나 자세를 변경시키는 조작 등을 포함할 수 있다. 본 발명의 일 실시예에 따르면, 동선에 포함되는 적어도 하나의 구간의 길이 또는 동선 상의 적어도 하나의 지점의 위치는 추가로 입력되는 사용자 조작에 의하여 변경될 수 있다.
다음으로, 본 발명의 일 실시예에 따르면, 모션 시퀀스 관리부(120)는 기준 평면에 대하여 입력되는 제3 사용자 조작을 참조로 하여, 동선 전체, 동선에 포함되는 적어도 하나의 구간 또는 동선 상의 적어도 하나의 지점에 대하여 캐릭터의 모션(또는 동작에 관한 속성값)을 부여함으로써, 캐릭터가 모션이 부여된 동선, 구간 또는 지점에 위치할 때 해당 캐릭터가 해당 모션에 따른 동작을 행하도록 하는 모션 시퀀스를 생성하는 기능을 수행할 수 있다. 여기서, 동선, 구간 또는 지점에 부여될 수 있는 모션에는, 걷기, 뛰기, 점프하기, 구르기, 기어가기, 주먹질하기, 으쓱하기, 흔들기, 대화하기, 노래하기, 캐릭터의 감정 상태를 표현하는 모션 등의 다양한 동작이 포함될 수 있다. 다만, 본 발명에서 말하는 모션의 종류가 반드시 상기 열거된 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 얼마든지 추가되거나 변경될 수 있음을 밝혀 둔다.
한편, 본 발명의 일 실시예에 따르면, 사용자가 동선, 구간 또는 지점을 설정하고 동선, 구간 또는 지점에 모션을 부여하기 위해 제1 사용자 조작, 제2 사용자 조작, 제3 사용자 조작 등을 입력하는 것을 지원하는 그래픽 사용자 인터페이스(GUI)가 제공될 수 있다. 구체적으로, 본 발명의 일 실시예에 따르면, 그래픽 사용자 인터페이스는 동선, 구간 또는 지점에 부여될 수 있는 캐릭터의 다양한 모션을 가리키는 그래픽 요소와 이러한 그래픽 요소를 시각적으로 포함할 수 있도록 표시되는 팟 컨트롤러(pod controller)를 포함할 수 있고, 이러한 그래픽 요소와 팟 컨트롤러는 동선, 구간 또는 지점에 대응되어 표시될 수 있다.
다음으로, 본 발명의 일 실시예에 따르면, 애니메이션 생성부(130)는 앞서 생성된 동선, 구간 또는 지점 및 이들에 부여된 모션에 관한 정보, 즉, 모션 시퀀스를 참조로 하여 캐릭터가 동선을 따라 이동하면서 동선 전체, 구간 또는 지점에 부여된 적어도 하나의 모션을 행하는 모습을 포함하는 애니메이션을 생성하는 기능을 수행할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 애니메이션 생성부(130)는 캐릭터의 모션 시퀀스에 따라 생성된 애니메이션과 카메라(미도시됨)로부터 입력되는 실세계(real world) 영상을 결합함으로써 증강현실(AR, Augmented Reality) 동영상을 생성하는 기능을 수행할 수 있다. 보다 구체적으로, 본 발명의 일 실시예에 따른 애니메이션 생성부(130)는, SLAM(Simultaneous Localization And Mapping) 기술을 이용하여 실세계 영상의 좌표를 추적하고 3D Mapping 좌표를 추출할 수 있고, 위와 같이 추적된 좌표 및 추출된 3D Mapping 좌표에 관한 정보를 참조로 하여 캐릭터의 모션 시퀀스에 따른 애니메이션이 실세계 영상 내에서 표시될 좌표를 결정할 수 있고, 위와 같이 표시될 좌표가 결정된 애니메이션과 실세계 영상을 결합함으로써 증강현실 동영상을 생성할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 통신부(140)는 모션 시퀀스 생성 시스템(100)이 외부 장치와 통신할 수 있도록 하는 기능을 수행한다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(150)는 동선 관리부(110), 모션 시퀀스 관리부(120), 애니메이션 생성부(130) 및 통신부(140) 간의 데이터의 흐름을 제어하는 기능을 수행한다. 즉, 제어부(150)는 외부로부터의 또는 모션 시퀀스 생성 시스템의 각 구성요소 간의 데이터의 흐름을 제어함으로써, 동선 관리부(110), 모션 시퀀스 관리부(120), 애니메이션 생성부(130) 및 통신부(140)에서 각각 고유 기능을 수행하도록 제어한다.
도 2는 본 발명의 일 실시예에 따라 모션 시퀀스가 생성되는 과정을 예시적으로 나타내는 도면이다.
먼저, 도 2의 (a)를 참조하면, 사용자는 기준 평면(210)에 대하여 터치 조작, 마우스 조작, 모션 조작과 같은 다양한 조작 방식을 사용하여 캐릭터 또는 객체가 이동할 경로, 즉, 동선(220)을 생성할 수 있다.
다음으로, 도 2의 (b)를 참조하면, 사용자는 기준 평면(210)에 대하여 터치 조작, 마우스 조작, 모션 조작과 같은 다양한 조작 방식을 사용하여 동선(220)을 복수의 구간(221 내지 223)으로 구분하여 동선(220)을 분절화하거나 동선(220) 상의 적어도 하나의 지점(224 및 225)을 특정할 수 있다. 여기서, 사용자는 동선(220)과 교차하는 선을 그리는 조작을 하여 교차점을 기준으로 하여 동선(220)이 분절화되도록 하거나 동선(220) 상의 지점이 특정되도록 할 수 있다. 또한, 사용자는 동선(220) 상의 어느 지점을 직접 지정하는 조작을 하여 동선(220) 상의 지점을 특정할 수 있다.
다음으로, 도 2의 (c)를 참조하면, 사용자는 분절화된 동선의 각 구간(221 내지 223)에 대하여 다양한 모션(231 내지 233)을 부여함으로써 동선의 각 구간(221 내지 223)과 모션(231 내지 233)이 결합된 모션 시퀀스가 생성되도록 할 수 있다. 또한, 도시되지는 않았지만, 사용자는 동선 전체에 대하여 다양한 모션을 부여하거나 동선 상에 특정된 적어도 하나의 지점에 대하여 다양한 모션을 부여함으로써, 캐릭터가 모션이 부여된 동선, 구간 또는 지점에 위치할 때 캐릭터가 위와 같이 부여된 다양한 모션을 행하도록 하는 모션 시퀀스가 생성되도록 할 수 있다.
도 3은 본 발명의 일 실시예에 따라 동선의 각 구간에 모션이 부여되는 과정을 예시적으로 나타내는 도면이다.
먼저, 도 3의 (a)를 참조하면, 모션을 부여하는 것을 지원하는 그래픽 사용자 인터페이스(GUI)(341 내지 343)가 동선의 각 구간에 대응되어 표시될 수 있으며, 이에 따라 사용자는 각 구간에 대응되어 표시된 그래픽 사용자 인터페이스(341 내지 343)를 통하여 해당 구간에 부여될 모션을 손쉽게 선택할 수 있게 된다. 다음으로, 도 3의 (b)를 참조하면, 동선의 각 구간에 대응되어 표시되는 그래픽 사용자 인터페이스(341 내지 343)가 동선의 각 구간의 방향에 따라 적응적으로 배치되는 형태로 표시됨에 따라 사용자가 동선의 각 구간에 부여될 모션을 선택하는 것을 보다 용이하게 할 수 있다.
도 4는 본 발명의 다른 실시예에 따라 모션 시퀀스가 생성되는 과정을 예시적으로 나타내는 도면이다.
도 4를 참조하면, 사용자는 기준 평면(410)에 대하여 터치 조작, 마우스 조작, 모션 조작과 같은 제1 사용자 조작을 입력함으로써 캐릭터 또는 객체가 이동할 경로, 즉, 동선(420)을 생성할 수 있다. 그리고, 제1 사용자 조작에 의해 동선이 생성되는 도중에 기준 평면에 대하여 제2 사용자 조작(예를 들면, 멀티 터치 조작, 흔들기 조작 등)이 입력되면 사용자가 모션을 설정할 수 있도록 지원하는 그래픽 사용자 인터페이스(440)가 제공될 수 있는데, 사용자가 그래픽 사용자 인터페이스를 통하여 원하는 모션을 선택하면 제2 사용자 조작이 입력된 시점 이전에 생성된 동선 또는 제2 사용자 조작이 입력된 시점 이후에 생성될 동선에 대하여 위의 선택된 모션이 부여될 수 있게 된다. 한편, 동선에 대한 모션 부여가 완료된 이후에는 다시 동선을 생성하기 위한 사용자 조작이 입력될 수 있다.
즉, 본 발명의 다른 실시예에 따르면, 모션 시퀀스를 생성함에 있어서 동선이 생성되는 순서와 모션이 설정되는 순서가 서로 바뀔 수 있으며, 동선을 복수의 구간으로 구분하거나 동선 상의 지점을 특정하지 않은 상태에서 동선 전체에 대하여 모션이 부여되도록 할 수도 있다. 또한, 본 발명의 일 실시예에 따르면, 제2 사용자 조작이 먼저 입력되어 캐릭터에 적용될 수 있는 다양한 모션 중 어느 한 모션이 선택된 상태에서 제1 사용자 조작이 나중에 입력되어 캐릭터의 동선이 생성되면, 앞서 선택된 모션이 해당 동선에 부여되는 모션 시퀀스가 생성될 수 있다.
한편, 도 2 내지 도 4에서, 동선에 포함되는 구간에 대하여 모션이 부여되는 경우에 대하여 주로 설명되어 있지만, 본 발명의 실시예가 반드시 위에 열거된 것에 한정되는 것은 아니며, 도 2 내지 도 4에서 설명된 내용은 동선 전체에 대하여 모션이 부여되는 경우 또는 동선 상의 적어도 하나의 지점에 대하여 모션이 부여되는 경우에 있어서도 마찬가지로 적용될 수 있음을 밝혀 둔다.
도 5 내지 도 14는 본 발명의 일 실시예에 따라 모션 시퀀스를 생성하는 것을 지원하는 사용자 인터페이스의 다양한 구성을 예시적으로 나타내는 도면이다.
도 5를 참조하면, 제1 사용자 조작이 입력되면 캐릭터(520)의 이동 경로를 나타내는 동선(530)이 생성될 수 있다.
도 6을 참조하면, 제2 사용자 조작이 입력되면 동선(630)에 포함되는 두 개의 구간(631 및 632)과 한 개의 지점(633)이 특정될 수 있다.
도 7을 참조하면, 캐릭터(720)의 이동 경로를 나타내는 동선(730)과 동선(730)에 포함되는 두 개의 구간(731 및 732) 및 한 개의 지점(733)이 생성된 상태에서, 사용자가 동선(730), 구간(731 및 732) 또는 지점(733)에 모션을 부여하는 것을 지원하기 위한 팟 컨트롤러(pod controller)(740)가 제공될 수 있다. 구체적으로, 사용자 조작에 의하여 특정 지점(733)이 선택되면 해당 지점(733)에 부여될 수 있는 모션에 대응되는 그래픽 요소(761 내지 764)를 시각적으로 포함할 수 있는 팟 컨트롤러(740)가 표시될 수 있고, 팟 컨트롤러(740)를 통하여 지점(733)에 부여될 수 있는 모션에 대응되는 그래픽 요소(761 내지 764)가 나열되어 있는 선택 메뉴(760)가 함께 표시될 수도 있다.
도 8을 참조하면, 캐릭터(820)의 이동 경로인 동선(830) 상의 지점(833)이 특정되고 해당 지점(833)에 대응되는 팟 컨트롤러(840)와 모션 선택 메뉴(860)가 표시된 상태에서, 모션을 선택하고자 하는 사용자 조작(예를 들면, 홀드 앤드 드래그(hold and drag), 드래그 앤드 드롭(drag and drop) 등)이 입력되면 선택된 모션을 가리키는 그래픽 요소(862)가 팟 컨트롤러(840) 내로 이동하여 팟 컨트롤러(840) 내에 포함된 상태로 표시되도록 할 수 있다.
도 9를 참조하면, 캐릭터(920)의 이동 경로인 동선(930) 상의 지점(933)에 대응되어 표시되는 팟 컨트롤러(940) 내에는 복수의 모션 각각을 나타내는 복수의 그래픽 요소(962 및 963)가 포함될 수 있으며, 추가로 입력되는 사용자 조작에 따라 팟 컨트롤러(940) 내에 포함되는 복수의 그래픽 요소(962 및 963) 사이의 순서가 제어될 수 있다.
도 10을 참조하면, 팟 컨트롤러(1040) 내에 캐릭터(1020)의 모션을 가리키는 그래픽 요소(1062)가 포함된 채로 표시되어 있는 상태에서, 사용자 조작에 의하여 어떤 모션이 선택되면 해당 모션을 나타내는 그래픽 요소(1062)를 강조하여 표시할 수 있고, 추가로 입력되는 사용자 조작에 따라 해당 그래픽 요소(1062)가 삭제되도록 할 수 있고(1070), 추가로 입력되는 사용자 조작에 따라 캐릭터(1020)가 모션을 행할 때 발생되는 음향, 캐릭터(1020)가 모션을 행하는 시간, 캐릭터(1020)가 모션을 행하면서 말하는 대사 등의 다양한 속성이 설정될 수 있도록 할 수 있다(1080).
보다 구체적으로, 도 11을 참조하면, 원형의 팟 컨트롤러(1140) 내에 캐릭터(1120)의 모션을 나타내는 특정 그래픽 요소(1162)가 선택된 상태로 표시되어 있는 상태에서, 원형의 팟 컨트롤러(1140)의 원주(圓周)를 따라 입력되는 사용자 조작을 참조로 하여 캐릭터(1120)가 특정 그래픽 요소(1162)에 해당하는 모션을 행하는 시간이 조절되도록 할 수 있다(1182).
또한, 도시되어 있지는 않지만, 원형의 팟 컨트롤러 내에 캐릭터의 모션을 나타내는 특정 그래픽 요소가 선택된 상태로 표시되어 있는 상태에서, 원형의 팟 컨트롤러의 원주를 따라 입력되는 사용자 조작을 참조로 하여 캐릭터가 특정 그래픽 요소에 해당하는 모션을 행하는 방향이 특정되도록 할 수 있다.
또한, 도 12를 참조하면, 팟 컨트롤러(1240) 내에 캐릭터(1220)의 모션을 나타내는 특정 그래픽 요소(1262)가 선택된 상태로 표시되어 있는 상태에서, 사용자 조작에 따라 소정의 문자열(1283)이 입력되면 캐릭터(1220)가 특정 그래픽 요소(1262)에 해당하는 모션을 행하면서 말하는 대사가 설정되도록 할 수 있다.
도 5 내지 도 12에서, 동선 상의 지점에 대하여 모션이 부여되는 경우에 대하여 주로 설명되어 있지만, 본 발명의 실시예가 반드시 위에 열거된 것에 한정되는 것은 아니며, 도 5 내지 도 12에서 설명된 내용은 동선 전체에 대하여 모션이 부여되는 경우 또는 동선에 포함되는 적어도 하나의 구간에 대하여 모션이 부여되는 경우에 있어서도 마찬가지로 적용될 수 있음을 밝혀 둔다.
이와 관련하여 도 13을 참조하면, 사용자 조작에 의하여 특정 구간(1332)이 선택되면 해당 구간(1332)에 부여될 수 있는 모션에 대응되는 그래픽 요소(1361 내지 1364)를 시각적으로 포함할 수 있는 팟 컨트롤러(1340)가 표시될 수 있고, 팟 컨트롤러(1340)를 통하여 지점(1333)에 부여될 수 있는 모션에 대응되는 그래픽 요소(1361 내지 1364)가 나열되어 있는 선택 메뉴(1360)가 함께 표시될 수도 있다. 또한, 도 14를 참조하면, 캐릭터(1420)의 이동 경로인 동선(1430)에 포함되는 구간(1432)이 특정되고 해당 구간(1432)에 대응되는 팟 컨트롤러(1440)와 모션 선택 메뉴(1460)가 표시된 상태에서, 모션을 선택하고자 하는 사용자 조작(예를 들면, 홀드 앤드 드래그(hold and drag), 드래그 앤드 드롭(drag and drop) 등)이 입력되면 선택된 모션을 가리키는 그래픽 요소(1462)가 팟 컨트롤러(1440) 내로 이동하여 팟 컨트롤러(1440) 내에 포함된 상태로 표시되도록 할 수 있다.
한편, 도 5 내지 도 12의 실시예와 도 13 및 도 14의 실시예를 비교하면 살펴보면, 지점(733)에 부여될 수 있는 모션의 종류(즉, 제자리에서 행할 수 있는 모션으로서, 예를 들면, 아무런 동작도 하지 않기(761), 흔들기(762), 으쓱하기(763), 주먹질하기(764) 등)와 구간(1332) 또는 동선 전체에 부여될 수 있는 모션의 종류(즉, 이동하면서 행할 수 있는 모션으로서, 예를 들면, 걷기(1361), 달리기(1362), 살금살금 이동하기(1363), 기어가기(1364) 등)는 서로 다르게 설정될 수 있다.
한편, 도 5 및 도 6을 참조하면, 사용자는, 위와 같이 새로운 모션 시퀀스를 생성하는 것 대신에, 자신이나 다른 사용자에 의하여 이미 생성되어 기저장된 모션 시퀀스를 불러와 이를 현재의 캐릭터(520, 620)에 적용시킬 수 있다. 또한, 사용자는 자신이 새롭게 생성한 모션 시퀀스를 저장함으로써 추후에 자신이나 다른 사용자가 해당 모션 시퀀스를 활용할 수 있도록 할 수 있다. 예를 들면, 사용자는 화면 상에 표시되는 프리셋(preset) 아이콘(510, 610)을 선택함으로써 기저장된 모션 시퀀스를 불러오거나 새롭게 생성된 모션 시퀀스를 저장할 수 있다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (17)

  1. 애니메이션의 모션 시퀀스(motion sequence)를 생성하기 위한 방법으로서,
    (a) 기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 캐릭터가 이동하는 경로를 나타내는 동선을 생성하는 단계,
    (b) 상기 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 상기 동선, 상기 동선에 포함되는 적어도 하나의 구간 및 상기 동선 상의 적어도 하나의 지점을 특정하는 단계, 및
    (c) 상기 기준 평면에 대하여 입력되는 제3 사용자 조작을 참조로 하여, 상기 동선, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 대하여 적어도 하나의 모션을 부여함으로써, 상기 캐릭터가 상기 적어도 하나의 모션이 부여된 상기 동선, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 위치할 때 상기 캐릭터가 상기 부여된 적어도 하나의 모션을 행하도록 하는 모션 시퀀스를 생성하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 (a) 단계에서,
    상기 제1 사용자 조작은 상기 기준 평면 상의 제1 지점에서 제2 지점까지 이어지는 가상의 선을 그리는 조작인 방법.
  3. 제1항에 있어서,
    상기 (b) 단계에서,
    상기 동선을 가로지르는 가상의 선을 그리는 조작 및 상기 동선을 선택하는 조작 중 적어도 하나의 조작을 참조로 하여, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점을 특정하는 방법.
  4. 제1항에 있어서,
    상기 적어도 하나의 모션의 추가, 삭제 및 순서 중 적어도 하나가 제어될 수 있도록 하는 방법.
  5. 제1항에 있어서,
    상기 적어도 하나의 모션에는, 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 발생되는 음향, 상기 캐릭터가 상기 적어도 하나의 모션을 행하는 시간, 상기 캐릭터가 상기 적어도 하나의 모션을 행하면서 말하는 대사 및 상기 캐릭터가 상기 적어도 하나의 모션을 행하는 방향 중 적어도 일부에 대한 속성이 부여되는 방법.
  6. 제1항에 있어서,
    상기 제1 사용자 조작, 상기 제2 사용자 조작 및 상기 제3 사용자 조작 중 적어도 하나가 입력되는 것을 지원하는 그래픽 사용자 인터페이스(GUI)가 제공되는 방법.
  7. 제6항에 있어서,
    상기 그래픽 사용자 인터페이스는 상기 적어도 하나의 모션 각각을 나타내는 적어도 하나의 그래픽 요소 및 상기 적어도 하나의 그래픽 요소를 포함하는 팟 컨트롤러(pod controller)를 포함하는 방법.
  8. 제7항에 있어서,
    상기 그래픽 요소 및 상기 팟 컨트롤러에 대하여 입력되는 사용자 조작을 참조로 하여, 상기 적어도 하나의 모션의 추가, 삭제 및 순서 중 적어도 하나를 제어하는 방법.
  9. 제7항에 있어서,
    상기 그래픽 요소 및 상기 팟 컨트롤러에 대하여 입력되는 사용자 조작을 참조로 하여, 상기 적어도 하나의 모션에 상기 캐릭터가 상기 적어도 하나의 모션을 행할 때 발생되는 음향, 상기 캐릭터가 상기 적어도 하나의 모션을 행하는 시간, 상기 캐릭터가 상기 적어도 하나의 모션을 행하면서 말하는 대사 및 상기 캐릭터가 상기 적어도 하나의 모션을 행하는 방향 중 적어도 일부에 대한 속성을 부여하는 방법.
  10. 제7항에 있어서,
    상기 그래픽 요소 및 상기 팟 컨트롤러는 상기 경로, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 대응되어 표시되는 방법.
  11. 제1항에 있어서,
    (d) 상기 생성된 모션 시퀀스를 참조로 하여 상기 캐릭터가 상기 동선을 따라 이동하면서 상기 동선, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 부여된 적어도 하나의 모션을 행하는 모습을 포함하는 애니메이션을 생성하는 단계
    를 더 포함하는 방법.
  12. 제1항에 있어서,
    (e) 상기 캐릭터의 모션 시퀀스를 포함하는 애니메이션과 카메라로부터 입력되는 실세계(real world) 영상을 결합함으로써 증강현실(AR, Augmented Reality) 동영상을 생성하는 단계
    를 더 포함하는 방법.
  13. 제12항에 있어서,
    상기 (e) 단계는,
    (e1) SLAM(Simultaneous Localization And Mapping) 기술을 이용하여 상기 실세계 영상의 좌표를 추적하고 상기 실세계 영상의 3D Mapping 좌표를 추출하는 단계
    (e2) 상기 추적된 좌표 및 상기 추출된 3D Mapping 좌표에 관한 정보를 참조로 하여 상기 실세계 영상 내에서 상기 캐릭터의 모션 시퀀스에 따른 애니메이션이 표시될 좌표를 결정하는 단계, 및
    (e3) 상기 표시될 좌표가 결정된 애니메이션과 상기 실세계 영상을 결합함으로써 증강현실 동영상을 생성하는 단계
    를 포함하는 방법.
  14. 애니메이션의 모션 시퀀스(motion sequence)를 생성하기 위한 방법으로서,
    (a) 기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 캐릭터가 행할 적어도 하나의 모션을 설정하는 단계, 및
    (b) 상기 적어도 하나의 모션이 설정된 상태에서 상기 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 상기 캐릭터가 이동하는 경로를 나타내는 동선을 생성하고, 상기 캐릭터가 상기 생성된 동선에 위치할 때 상기 캐릭터가 상기 설정된 적어도 하나의 모션을 행하도록 하는 모션 시퀀스를 생성하는 단계
    를 포함하는 방법.
  15. 제1항 내지 제14항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
  16. 애니메이션의 모션 시퀀스(motion sequence)를 생성하기 위한 시스템으로서,
    기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 캐릭터가 이동하는 경로를 나타내는 동선을 생성하고, 상기 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 상기 동선, 상기 동선에 포함되는 적어도 하나의 구간 및 상기 동선 상의 적어도 하나의 지점을 특정하는 동선 관리부, 및
    상기 기준 평면에 대하여 입력되는 제3 사용자 조작을 참조로 하여, 상기 동선, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 대하여 적어도 하나의 모션을 부여함으로써, 상기 캐릭터가 상기 적어도 하나의 모션이 부여된 상기 동선, 상기 적어도 하나의 구간 및 상기 적어도 하나의 지점 중 적어도 하나에 위치할 때 상기 캐릭터가 상기 부여된 적어도 하나의 모션을 행하도록 하는 모션 시퀀스를 생성하는 모션 시퀀스 관리부
    를 포함하는 시스템.
  17. 애니메이션의 모션 시퀀스(motion sequence)를 생성하기 위한 시스템으로서,
    기준 평면에 대하여 입력되는 제1 사용자 조작을 참조로 하여, 캐릭터가 행할 적어도 하나의 모션을 설정하는 모션 시퀀스 관리부, 및
    상기 적어도 하나의 모션이 설정된 상태에서 상기 기준 평면에 대하여 입력되는 제2 사용자 조작을 참조로 하여, 상기 캐릭터가 이동하는 경로를 나타내는 동선을 생성하는 동선 관리부
    를 포함하고,
    상기 모션 시퀀스 관리부는, 상기 캐릭터가 상기 생성된 동선에 위치할 때 상기 캐릭터가 상기 설정된 적어도 하나의 모션을 행하도록 하는 모션 시퀀스를 생성하는 시스템.
PCT/KR2014/000707 2013-01-24 2014-01-24 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 WO2014116056A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201480005736.6A CN104969263B (zh) 2013-01-24 2014-01-24 用于生成动画的运动序列的方法、系统及计算机可读记录介质
EP14743842.8A EP2950274B1 (en) 2013-01-24 2014-01-24 Method and system for generating motion sequence of animation, and computer-readable recording medium
JP2015555106A JP6647867B2 (ja) 2013-01-24 2014-01-24 アニメーションのモーションシーケンスを生成するための方法、システム及びコンピュータ読み取り可能な記録媒体
US14/763,499 US10037619B2 (en) 2013-01-24 2014-01-24 Method and system for generating motion sequence of animation, and computer-readable recording medium

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2013-0008034 2013-01-24
KR20130008034 2013-01-24
KR20130102747 2013-08-28
KR10-2013-0102747 2013-08-28
KR1020130135624A KR20140095414A (ko) 2013-01-24 2013-11-08 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR10-2013-0135624 2013-11-08

Publications (1)

Publication Number Publication Date
WO2014116056A1 true WO2014116056A1 (ko) 2014-07-31

Family

ID=51743868

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/000707 WO2014116056A1 (ko) 2013-01-24 2014-01-24 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체

Country Status (6)

Country Link
US (1) US10037619B2 (ko)
EP (1) EP2950274B1 (ko)
JP (2) JP6647867B2 (ko)
KR (2) KR20140095414A (ko)
CN (1) CN104969263B (ko)
WO (1) WO2014116056A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9734618B2 (en) * 2013-11-25 2017-08-15 Autodesk, Inc. Animating sketches via kinetic textures
USD906348S1 (en) * 2014-11-26 2020-12-29 Intergraph Corporation Computer display screen or portion thereof with graphic
WO2017164511A1 (ko) * 2016-03-25 2017-09-28 (주) 애니펜 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US10551993B1 (en) * 2016-05-15 2020-02-04 Google Llc Virtual reality content development environment
KR101947160B1 (ko) * 2018-06-20 2019-02-12 (주)코딩앤플레이 증강현실을 이용한 코딩교육 방법
WO2020130692A1 (ko) * 2018-12-19 2020-06-25 (주) 애니펜 애니메이션 시퀀스를 생성하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR20210101518A (ko) * 2020-02-10 2021-08-19 삼성전자주식회사 Ar 객체를 배치하는 방법 및 전자 장치
US11462016B2 (en) * 2020-10-14 2022-10-04 Meta Platforms Technologies, Llc Optimal assistance for object-rearrangement tasks in augmented reality

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030056294A (ko) * 2001-12-28 2003-07-04 한국전자통신연구원 3차원 캐릭터 애니메이션 제작 방법 및 시스템
JP2003334386A (ja) * 2002-05-21 2003-11-25 Sega Corp ゲームの制御方法及びプログラム及び記録媒体及びビデオゲーム装置
US20050134598A1 (en) * 2003-12-19 2005-06-23 Baxter Brent S. Method and apparatus for producing animation
KR100623173B1 (ko) * 2005-08-02 2006-09-12 엔에이치엔(주) 게임 캐릭터 애니메이션 구현 시스템, 구현 방법 및 제작방법
KR20080052272A (ko) * 2006-12-05 2008-06-11 한국전자통신연구원 캐릭터 애니메이션과 메쉬 변형을 이용한 카툰 애니메이션제작 방법 및 시스템

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060274070A1 (en) * 2005-04-19 2006-12-07 Herman Daniel L Techniques and workflows for computer graphics animation system
JP5044503B2 (ja) * 2008-08-06 2012-10-10 株式会社河合楽器製作所 演出画像再生装置、演出画像再生方法、演出画像再生プログラム及び記録媒体
JP2010108319A (ja) * 2008-10-30 2010-05-13 Kyushu Institute Of Technology 描画制御装置、描画制御方法及び描画制御プログラム
US20110012903A1 (en) * 2009-07-16 2011-01-20 Michael Girard System and method for real-time character animation
JP4627802B1 (ja) * 2009-08-04 2011-02-09 株式会社スマイルラボ 仮想モデル表示システム、及び仮想モデル表示方法
KR20110045719A (ko) * 2009-10-27 2011-05-04 주식회사 숀픽쳐스 애니메이션 제작방법과 이 제작방법을 실행하기 위한 프로그램이 저장된 컴퓨터로 판독할 수 있는 기록매체 및 이를 이용한 온라인상에서의 애니메이션 제작 시스템
JP2011159163A (ja) * 2010-02-02 2011-08-18 Sony Corp 画像処理装置、画像処理方法及びプログラム
CN101853503A (zh) * 2010-04-26 2010-10-06 华中科技大学 一种谱线拐点多尺度寻优分段方法及其应用
JP5689953B2 (ja) * 2010-05-25 2015-03-25 ジョン、ジェ ウンJEON, Jae Woong アニメーション著作システムおよびアニメーション著作方法
US20120122570A1 (en) * 2010-11-16 2012-05-17 David Michael Baronoff Augmented reality gaming experience
US9367770B2 (en) * 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
WO2013074926A1 (en) * 2011-11-18 2013-05-23 Lucasfilm Entertainment Company Ltd. Path and speed based character control
CN102831401B (zh) * 2012-08-03 2016-01-13 樊晓东 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030056294A (ko) * 2001-12-28 2003-07-04 한국전자통신연구원 3차원 캐릭터 애니메이션 제작 방법 및 시스템
JP2003334386A (ja) * 2002-05-21 2003-11-25 Sega Corp ゲームの制御方法及びプログラム及び記録媒体及びビデオゲーム装置
US20050134598A1 (en) * 2003-12-19 2005-06-23 Baxter Brent S. Method and apparatus for producing animation
KR100623173B1 (ko) * 2005-08-02 2006-09-12 엔에이치엔(주) 게임 캐릭터 애니메이션 구현 시스템, 구현 방법 및 제작방법
KR20080052272A (ko) * 2006-12-05 2008-06-11 한국전자통신연구원 캐릭터 애니메이션과 메쉬 변형을 이용한 카툰 애니메이션제작 방법 및 시스템

Also Published As

Publication number Publication date
JP2018198083A (ja) 2018-12-13
CN104969263B (zh) 2019-01-15
CN104969263A (zh) 2015-10-07
US20160005207A1 (en) 2016-01-07
KR20150067096A (ko) 2015-06-17
EP2950274B1 (en) 2021-04-14
US10037619B2 (en) 2018-07-31
EP2950274A4 (en) 2016-07-27
KR20140095414A (ko) 2014-08-01
EP2950274A1 (en) 2015-12-02
JP6647867B2 (ja) 2020-02-14
KR101575092B1 (ko) 2015-12-08
JP2016509722A (ja) 2016-03-31

Similar Documents

Publication Publication Date Title
WO2014116056A1 (ko) 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US10249095B2 (en) Context-based discovery of applications
US10185468B2 (en) Animation editor
WO2012067369A2 (en) Method and apparatus for displaying user interface capable of intuitively editing and browsing folder
WO2019017582A1 (ko) 클라우드 소싱 기반의 ar 컨텐츠 템플릿을 수집하여 ar 컨텐츠를 자동으로 생성하는 방법 및 시스템
WO2014062001A1 (ko) 3차원의 가상 공간 내에서 가상 카메라를 제어하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
WO2014062003A1 (ko) 군중 애니메이션을 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US8427502B2 (en) Context-aware non-linear graphic editing
Medeiros et al. A tablet-based 3d interaction tool for virtual engineering environments
US20170039037A1 (en) Live mobile application visual editor demo
TWI624782B (zh) 立體場景中超連結編輯方法與系統
WO2016053029A1 (ko) 가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
JP2019532385A (ja) 仮想現実シーケンスを構成又は修正するためのシステム、構成方法、及びそのシーケンスを読み取るためのシステム
WO2019124850A1 (ko) 사물 의인화 및 인터랙션을 위한 방법 및 시스템
Massó et al. Direct manipulation of user interfaces for migration
Stefanidi et al. BricklAyeR: a platform for building rules for AmI environments in AR
WO2017164511A1 (ko) 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
Abidin et al. A framework of adaptive multimodal input for location-based augmented reality application
Lu et al. Design of immersive and interactive application based on augmented reality and machine learning
CN111522439B (zh) 一种虚拟样机的修订方法、装置、设备及计算机存储介质
WO2016032303A1 (ko) 문맥 정보에 기초하여 스크롤을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
Krekhov et al. MorphableUI: a hypergraph-based approach to distributed multimodal interaction for rapid prototyping and changing environments
KR101979754B1 (ko) 애니메이션을 저작하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR20130049673A (ko) 동영상 스팟 이미지에 기초한 객체정보 제공방법 및 시스템
WO2019198844A1 (ko) 미디어 플레이어를 제어하는 방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14743842

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015555106

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14763499

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2014743842

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: IDP00201505178

Country of ref document: ID