KR101420820B1 - Method of embodying three-dimensional object animation, apparatus performing the same and storage media storing the same - Google Patents

Method of embodying three-dimensional object animation, apparatus performing the same and storage media storing the same Download PDF

Info

Publication number
KR101420820B1
KR101420820B1 KR1020130014138A KR20130014138A KR101420820B1 KR 101420820 B1 KR101420820 B1 KR 101420820B1 KR 1020130014138 A KR1020130014138 A KR 1020130014138A KR 20130014138 A KR20130014138 A KR 20130014138A KR 101420820 B1 KR101420820 B1 KR 101420820B1
Authority
KR
South Korea
Prior art keywords
animation
virtual image
image object
background
real
Prior art date
Application number
KR1020130014138A
Other languages
Korean (ko)
Inventor
홍성호
Original Assignee
주식회사 로커스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 로커스 filed Critical 주식회사 로커스
Priority to KR1020130014138A priority Critical patent/KR101420820B1/en
Application granted granted Critical
Publication of KR101420820B1 publication Critical patent/KR101420820B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A method for realizing three-dimensional animations for improving processing speed is executed in a device for realizing three-dimensional animations. The method for realizing three-dimensional animations comprises the steps of collecting animation objects which can be arranged on a background object; generating a proxy object with respect to the collected animation objects; arranging the generated proxy object on the background object according to the manipulation of a user; and converting the arranged proxy object into a real object with respect to the animation objects.

Description

처리 속도 개선을 위한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체{METHOD OF EMBODYING THREE-DIMENSIONAL OBJECT ANIMATION, APPARATUS PERFORMING THE SAME AND STORAGE MEDIA STORING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a three-dimensional animation method for improving processing speed, a three-dimensional animation implementing device for performing the three-dimensional animation, a recording medium storing the same,

본 발명은 처리 속도 개선을 위한 3차원 애니메이션 구현 기술에 관한 것으로, 보다 구체적으로, 배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성하고, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치한 후 상기 애니메이션 오브젝트에 대한 실상(Real) 오브젝트로 변환(coverting)함으로써, 저용량의 허상 오브젝트를 이용하여 편집을 수행하고 편집 완료 후 고용량의 실상 오브젝트로 변환하여 편집 과정에서 속도를 향상시키고 시스템의 부하를 감소시킬 수 있는 처리 속도 개선을 위한 3차원 애니메이션 구현 방법 및 이를 수행하는 3차원 애니메이션 구현 장치에 관한 것이다.
The present invention relates to a three-dimensional animation implementation technique for improving a processing speed, and more particularly, to a technique for generating a virtual object for an animation object that can be placed on a background object, And then the object is placed on the background object according to an operation by the user and then converted into a real object for the animation object to perform editing using a low-capacity virtual image object, convert the object into a high- The present invention relates to a method for implementing a three-dimensional animation for improving a processing speed that can improve a speed and reduce a load of a system in an editing process, and a three-dimensional animation implementing apparatus for performing the same.

CG(Computer Graphic)의 발달로 인하여 다양한 컨텐츠에 3차원 애니메이션 기술이 활용되고 있다. 예를 들어, 3D MAX 및 MAYA 등 3차원 애니메이션을 제작할 수 있는 통합 개발 환경이 제공되고 있으며, 이러한 3차원 애니메이션 제작 소프트웨어를 통하여 실제 사람과 같이 동작할 수 있는 애니메이션 오브젝트(예: 만화 캐릭터)를 생성하고 이에 대한 움직임을 제어할 수 있다. Due to the development of CG (Computer Graphic), 3D animation technology has been utilized in various contents. For example, an integrated development environment for creating 3D animations such as 3D MAX and MAYA is provided. Through this 3D animation creation software, an animation object (eg, a cartoon character) that can act like a real person is created And to control the movement thereof.

일반적으로, 3차원 애니메이션의 제작 과정은 애니메이션 오브젝트를 가상의 3차원 공간에 모델링(Modeling)하는 제1과정, 모델링된 애니메이션 오브젝트의 표면을 셰이딩(Shading)하는 제2과정, 모델링된 애니메이션 오브젝트에 관절 점(joint point)를 포함하는 뼈대를 설치하고, 각 관절 점에 대한 컨트롤러를 적용하여 리깅(Rigging)하는 제3과정, 리깅된 애니메이션 오브젝트에 모션 데이터를 적용하는 제4과정 및 주변 환경을 고려한 빛과 사물의 움직임을 계산하여 렌더링(Rendering)하는 제5과정으로 진행된다. Generally, the process of producing a three-dimensional animation includes a first process of modeling an animation object into a virtual three-dimensional space, a second process of shading the surface of the modeled animation object, A third step of installing a skeleton including a joint point, rigging by applying a controller for each joint point, a fourth step of applying motion data to the rigged animation object, And the fifth step of calculating and rendering the motion of the object.

여기에서, 3차원 애니메이션을 제작하는 다양한 기술이 제공되고 있다. 하기의 선행 문헌들은 이와 관련된 기술들을 제공한다. Here, various technologies for producing a three-dimensional animation are provided. The following prior art documents provide related techniques.

한국공개특허 제10-2000-0037456호는 캐릭터 애니메이션을 구현하는 방법에 관한 것으로, 사용자측이 컴퓨터 등의 단말기를 통해 컴퓨터 네트워크를 거쳐 캐릭터 애니메이션 서비스 제공자측의 애니메이션 서버에 접속하는 단계와, 상기 애니메이션 서버로부터 컴퓨터 네트워크를 통해 소정의 캐릭터에 대한 기하학적 모양 데이터를 사용자측 단말기에 전송하는 단계와, 상기 애니메이션 서버로부터 컴퓨터 네트워크를 통해 소정의 캐릭터의 각 관절들에 대한 위치 데이터를 사용자측 단말기로 계속적으로 전송하면서 상기 위치 데이터의 변화값에 따라 캐릭터의 동작을 사용자측 단말기에 애니메이션하는 단계를 구비하는 컴퓨터 네트워크를 통해 캐릭터 애니메이션을 구현하는 방법에 관한 것이다.Korean Patent Laid-Open Publication No. 10-2000-0037456 relates to a method of implementing character animation, comprising the steps of: a user accessing an animation server on a character animation service provider side via a computer network through a terminal such as a computer; Transmitting geometric shape data of a predetermined character to a user side terminal from a computer network through a computer network and continuously transmitting position data for each joint of a predetermined character to a user side terminal through a computer network from the animation server, And a step of animating the operation of the character on the user side terminal according to the change value of the position data.

한국공개특허 제10-2006-0091361호는 3차원 오브젝트 애니메이션을 구현하는 기술에 관한 것으로, 보다 구체적으로, 3차원 오브젝트를 기반으로 추출된 오브젝트 데이터, 애니메이션 데이터 및 텍스쳐 데이터를 포맷 변환하여 이동 단말기로 업로드시키고, 이동 단말기는 오브젝트 데이터 및 텍스쳐 데이터를 이용하여 원래의 3차원 오브젝트를 생성하여 애니메이션 데이터에 따라 애니메이션 동작을 수행하는 이동 단말기에 사용하기 위한 3차원 오브젝트 애니메이션을 구현하는 기술에 관한 것이다. Korean Patent Laid-Open No. 10-2006-0091361 relates to a technology for implementing a three-dimensional object animation, and more specifically, a method for converting a format of object data, animation data, and texture data extracted on the basis of a three- The present invention relates to a technique for implementing a three-dimensional object animation for use in a mobile terminal that generates an original three-dimensional object using object data and texture data and performs an animation operation according to the animation data.

즉, 상기 선행 기술들은 네트워크를 통하여 애니메이션을 구현하거나, 하드웨어 사양이 낮은 이동 단말기에 적합한 오브젝트 애니메이션을 구현할 수 있는 기술을 제공하고 있다.
That is, the prior arts provide a technique for implementing animation through a network, or for implementing an object animation suitable for a mobile terminal having a low hardware specification.

한국공개특허 제10-2000-0037456호Korean Patent Publication No. 10-2000-0037456 한국공개특허 제10-2006-0091361호Korean Patent Publication No. 10-2006-0091361

본 발명은 배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성하고, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치한 후 상기 애니메이션 오브젝트에 대한 실상(Real) 오브젝트로 변환(coverting)함으로써, 저용량의 허상 오브젝트를 이용하여 편집을 수행하고 편집 완료 후 고용량의 실상 오브젝트로 변환하여 편집 과정에서 속도를 향상시키고 시스템의 부하를 감소시킬 수 있는 처리 속도 개선을 위한 3차원 애니메이션 구현 방법 및 이를 수행하는 3차원 애니메이션 구현 장치를 제공하고자 한다. The present invention creates a virtual object for an animation object that can be placed on a background object, arranges the generated virtual object on the background object according to an operation by a user, (Real) objects, it performs editing using a low-volume virtual image object, converts it into a high-capacity real-world object after editing, improves the speed in the editing process, and improves the processing speed to reduce the load on the system And a 3D animation implementing device for performing the 3D animation.

본 발명은 애니메이션 오브젝트에 대한 고용량의 실상 오브젝트에서 표면 이미지를 제거하고 기 설정된 크기만큼 작은 데이터 크기를 가지는 허상 오브젝트를 생성하여 생성된 허상 오브젝트를 통한 편집을 수행함으로써, 사용자가 용이하게 애니메이션 오브젝트를 배경 오브젝트에 배치할 수 있는 처리 속도 개선을 위한 3차원 애니메이션 구현 방법 및 이를 수행하는 3차원 애니메이션 구현 장치를 제공하고자 한다. The present invention relates to a method and a system for editing a virtual image object by removing a surface image from a high-capacity actual image object for an animation object, and creating a virtual image object having a data size as small as a preset size, A method for implementing a three-dimensional animation for improving a processing speed that can be placed on an object, and a device for implementing a three-dimensional animation to perform the method.

본 발명은 사용자에 의하여 배경 오브젝트에 점(point), 선(line), 면(face) 및 공간(space) 중 적어도 하나에 해당하는 신호가 입력되면, 상기 입력된 신호에 상응하는 위치에 기 설정된 갯수의 허상 오브젝트를 배치함으로써, 사용자가 복수의 애니메이션 오브젝트를 배경 오브젝트에 용이하게 배치하도록 할 수 있는 처리 속도 개선을 위한 3차원 애니메이션 구현 방법 및 이를 수행하는 3차원 애니메이션 구현 장치를 제공하고자 한다.
The present invention is characterized in that when a signal corresponding to at least one of a point, a line, a face and a space is inputted to a background object by a user, There is provided a three-dimensional animation implementation method for improving the processing speed and a three-dimensional animation implementation apparatus for performing such a three-dimensional animation implementation method by allowing a user to easily arrange a plurality of animation objects on a background object by arranging a number of virtual image objects.

실시예들 중에서, 3차원 애니메이션 구현 방법은 3차원 애니메이션 구현 장치에서 수행된다. 상기 3차원 애니메이션 구현 방법은 배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트를 수집하는 단계, 상기 수집된 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성하는 단계, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계 및 상기 배치된 허상 오브젝트를 상기 애니메이션 오브젝트에 대한 실상(Real) 오브젝트로 변환(coverting)하는 단계를 포함한다. Among the embodiments, a three-dimensional animation implementation method is performed in a three-dimensional animation implementation apparatus. The 3D animation method includes: collecting an animation object that can be placed on a background object; generating a virtual object for the collected animation object; And placing the virtual image object on the background object, and converting the arranged virtual image object into a real object for the animation object.

일 실시예에서, 상기 애니메이션 오브젝트를 수집하는 단계는 상기 수집된 애니메이션 오브젝트 화면으로 출력하고, 상기 출력된 애니메이션 오브젝트에 대한 선택을 프롬프팅하는 단계를 더 포함할 수 있다. In one embodiment, collecting the animation object may further include outputting the collected animation object to the collected animation object screen, and prompting selection of the outputted animation object.

일 실시예에서, 상기 애니메이션 오브젝트에 대한 허상 오브젝트를 생성하는 단계는 상기 애니메이션 오브젝트에 대한 실상 오브젝트에서 표면 이미지를 제거하고, 상기 실상 오브젝트보다 기 설정된 크기만큼 작은 데이터 크기를 가지는 허상 오브젝트를 생성하는 단계를 더 포함할 수 있다.In one embodiment, the step of creating a virtual image object for the animation object includes removing a surface image from the real image object for the animation object, and creating a virtual image object having a data size smaller than the real image object by a predetermined size As shown in FIG.

일 실시예에서, 상기 허상 오브젝트는 상기 실상 오브젝트에 대한 크기, 형상 및 구조 중 적어도 하나에 대한 데이터를 포함하고, 상기 배경 오브젝트 상에서 상기 실상 오브젝트의 위치 식별자로서 배치될 수 있다.In one embodiment, the virtual image object includes data for at least one of a size, a shape, and a structure for the real image object, and may be arranged as a location identifier of the real image object on the background object.

일 실시예에서, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계는 상기 배치된 허상 오브젝트에 대한 상기 배경 오브젝트 상의 위치 정보를 상기 실상 오브젝트와 연관시키는 단계를 더 포함할 수 있다.In one embodiment, the step of arranging the generated virtual image object on the background object according to an operation by a user further includes associating position information on the background object with the real image object with respect to the arranged virtual image object can do.

일 실시예에서, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계는 상기 사용자에 의하여 점(point), 선(line), 면(face) 및 공간(space) 중 적어도 하나에 해당하는 신호가 입력되면, 상기 입력된 신호에 상응하는 위치에 기 설정된 갯수의 허상 오브젝트를 배치하는 단계를 더 포함할 수 있다. In one embodiment, the step of arranging the generated virtual image object on the background object according to an operation by a user is performed by the user using a point, a line, a face, and a space And arranging a predetermined number of virtual image objects at positions corresponding to the input signals when at least one of the signals is input.

일 실시예에서, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계는 상기 배치된 허상 오브젝트의 크기, 형상, 구조 및 위치 중 적어도 하나에 대한 변경에 해당하는 신호가 입력되면, 상기 입력된 신호에 따라 상기 배치된 허상 오브젝트를 변경하는 단계를 더 포함할 수 있다. In one embodiment, the step of arranging the created virtual image object on the background object according to an operation by a user may include a step of generating a signal corresponding to a change in at least one of the size, shape, And changing the disposed virtual image object according to the input signal.

일 실시예에서, 상기 실상 오브젝트로 변환하는 단계는 상기 배치된 허상 오브젝트에 대한 상기 배경 오브젝트 상의 위치 정보에 따라 상기 실상 오브젝트를 상기 배경 오브젝트 상에 배치하는 단계를 더 포함할 수 있다. In one embodiment, the step of converting into the real image object may further include arranging the real image object on the background object according to the positional information on the background object for the disposed virtual image object.

일 실시예에서, 상기 실상 오브젝트로 변환하는 단계는 상기 배치된 실상 오브젝트에 대하여 기 저장된 표면 이미지를 적용하는 단계를 더 포함할 수 있다. In one embodiment, the step of converting to the real image object may further comprise applying a pre-stored surface image to the real image object.

실시예들 중에서, 3차원 애니메이션 구현 장치는 배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트를 수집하는 오브젝트 수집부, 상기 수집된 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성하는 오브젝트 생성부, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 오브젝트 배치부 및 상기 배치된 허상 오브젝트를 상기 애니메이션 오브젝트에 대한 실상(Real) 오브젝트로 변환(coverting)하는 오브젝트 변환부를 포함한다. Among the embodiments, the 3D animation implementing apparatus includes an object collecting unit for collecting an animation object that can be placed on a background object, an object generating unit for generating a virtual object for the collected animation object, An object arrangement unit for arranging a virtual image object on the background object according to an operation by a user and an object conversion unit for covering the arranged virtual image object into a real object for the animation object.

일 실시예에서, 상기 오브젝트 수집부는 상기 수집된 애니메이션 오브젝트 화면으로 출력하고, 상기 출력된 애니메이션 오브젝트에 대한 선택을 프롬프팅할 수 있다. In one embodiment, the object collecting unit outputs the collected animation object screen, and may prompt the selection of the output animation object.

일 실시예에서, 상기 오브젝트 생성부는 상기 애니메이션 오브젝트에 대한 실상 오브젝트에서 표면 이미지를 제거하고, 상기 실상 오브젝트보다 기 설정된 크기만큼 작은 데이터 크기를 가지는 허상 오브젝트를 생성할 수 있다. In one embodiment, the object generating unit may remove a surface image from a real image object for the animation object, and generate a virtual image object having a data size smaller than the real image object by a preset size.

일 실시예에서, 상기 허상 오브젝트는 상기 실상 오브젝트에 대한 크기, 형상 및 구조 중 적어도 하나에 대한 데이터를 포함하고, 상기 배경 오브젝트 상에서 상기 실상 오브젝트의 위치 식별자로서 배치될 수 있다. In one embodiment, the virtual image object includes data for at least one of a size, a shape, and a structure for the real image object, and may be arranged as a location identifier of the real image object on the background object.

일 실시예에서, 상기 오브젝트 배치부는 상기 배치된 허상 오브젝트에 대한 상기 배경 오브젝트 상의 위치 정보를 상기 실상 오브젝트와 연관시킬 수 있다. In one embodiment, the object arrangement unit may associate position information on the background object with respect to the arranged virtual image object with the real image object.

일 실시예에서, 상기 오브젝트 배치부는 상기 사용자에 의하여 점(point), 선(line), 면(face) 및 공간(space) 중 적어도 하나에 해당하는 신호가 입력되면, 상기 입력된 신호에 상응하는 위치에 기 설정된 갯수의 허상 오브젝트를 배치할 수 있다. In one embodiment, the object arrangement unit may be configured such that when a signal corresponding to at least one of a point, a line, a face, and a space is input by the user, A predetermined number of virtual image objects can be arranged in the position.

일 실시예에서, 상기 오브젝트 배치부는 상기 배치된 허상 오브젝트의 크기, 형상, 구조 및 위치 중 적어도 하나에 대한 변경에 해당하는 신호가 입력되면, 상기 입력된 신호에 따라 상기 배치된 허상 오브젝트를 변경할 수 있다. In one embodiment, when a signal corresponding to a change in at least one of the size, shape, structure, and position of the disposed virtual image object is input, the object placement unit may change the disposed virtual image object according to the input signal have.

일 실시예에서, 상기 오브젝트 변환부는 상기 배치된 허상 오브젝트에 대한 상기 배경 오브젝트 상의 위치 정보에 따라 상기 실상 오브젝트를 상기 배경 오브젝트 상에 배치할 수 있다.In one embodiment, the object conversion unit may arrange the real image object on the background object according to position information on the background object for the disposed virtual image object.

일 실시예에서, 상기 오브젝트 변환부는 상기 배치된 실상 오브젝트에 대하여 기 저장된 표면 이미지를 적용할 수 있다.In one embodiment, the object conversion unit may apply a pre-stored surface image to the arranged real image object.

실시예들 중에서, 3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 방법에 관한 컴퓨터 프로그램을 기록한 기록매체는 배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트를 수집하는 단계, 상기 수집된 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성하는 단계, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계 및 상기 배치된 허상 오브젝트를 상기 애니메이션 오브젝트에 대한 실상(Real) 오브젝트로 변환(coverting)하는 단계를 포함하는 3차원 애니메이션 구현 방법에 관한 컴퓨터 프로그램을 기록한다.
Among the embodiments, a recording medium on which a computer program relating to a method for implementing a three-dimensional animation performed in a three-dimensional animation implementing apparatus includes a step of collecting an animation object that can be placed on a background object, (Proxy) object, placing the generated virtual image object on the background object according to an operation by a user, and converting the disposed virtual image object into a real object for the animation object ) Of the three-dimensional animation.

본 발명의 일 실시 예에 따른 처리 속도 개선을 위한 3차원 애니메이션 구현 방법 및 이와 관련된 기술들은 배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성하고, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치한 후 상기 애니메이션 오브젝트에 대한 실상(Real) 오브젝트로 변환(coverting)함으로써, 저용량의 허상 오브젝트를 이용하여 편집을 수행하고 편집 완료 후 고용량의 실상 오브젝트로 변환하여 편집 과정에서 속도를 향상시키고 시스템의 부하를 감소시킬 수 있다. A method for implementing a three-dimensional animation for improving processing speed according to an embodiment of the present invention and techniques related thereto include generating a virtual object for an animation object that can be placed on a background object, The object is placed on the background object according to an operation by a user and is then converted into a real object for the animation object to perform editing using a low-volume virtual image object, It can speed up the editing process and reduce the load on the system.

본 발명의 일 실시 예에 따른 처리 속도 개선을 위한 3차원 애니메이션 구현 방법 및 이와 관련된 기술들은 애니메이션 오브젝트에 대한 고용량의 실상 오브젝트에서 표면 이미지를 제거하고 기 설정된 크기만큼 작은 데이터 크기를 가지는 허상 오브젝트를 생성하여 생성된 허상 오브젝트를 통한 편집을 수행함으로써, 사용자가 용이하게 애니메이션 오브젝트를 배경 오브젝트에 배치할 수 있다. The 3D animation method for improving the processing speed and related arts according to an embodiment of the present invention include generating a virtual image object having a data size as small as a predetermined size by removing a surface image from a high capacity real image object for an animation object The user can easily place the animation object in the background object by performing editing through the generated virtual image object.

본 발명의 일 실시 예에 따른 처리 속도 개선을 위한 3차원 애니메이션 구현 방법 및 이와 관련된 기술들은 사용자에 의하여 배경 오브젝트에 점(point), 선(line), 면(face) 및 공간(space) 중 적어도 하나에 해당하는 신호가 입력되면, 상기 입력된 신호에 상응하는 위치에 기 설정된 갯수의 허상 오브젝트를 배치함으로써, 사용자가 복수의 애니메이션 오브젝트를 배경 오브젝트에 용이하게 배치하도록 할 수 있다.
A method for implementing a three-dimensional animation for improving processing speed according to an exemplary embodiment of the present invention and related arts may include at least one of a point, a line, a face, and a space By arranging a predetermined number of virtual image objects at positions corresponding to the input signals when a signal corresponding to one is input, the user can easily arrange a plurality of animation objects in the background object.

도 1은 본 발명의 일 실시 예에 따른 처리 속도 개선을 위한 3차원 애니메이션 구현 시스템을 설명하는 블록도이다.
도 2는 도 1에 있는 3차원 애니메이션 구현 장치를 설명하는 블록도이다.
도 3은 본 발명에 따른 3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 과정을 설명하는 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 3차원 애니메이션 구현 과정을 설명하는 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 3차원 애니메이션 구현 과정을 설명하기 위한 3차원 애니메이션 구현 장치의 출력 화면을 나타내는 예시이다.
1 is a block diagram illustrating a three-dimensional animation implementation system for improving processing speed according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an apparatus for implementing a three-dimensional animation shown in FIG. 1. FIG.
FIG. 3 is a flowchart illustrating a process of implementing a three-dimensional animation performed in the apparatus for implementing a three-dimensional animation according to the present invention.
4 is a flowchart illustrating a 3D animation process according to an embodiment of the present invention.
5 is an illustration showing an output screen of a 3D animation implementing apparatus for explaining a 3D animation implementation process according to an embodiment of the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시 예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시 예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시 예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시 예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The description of the present invention is merely an example for structural or functional explanation, and the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, the embodiments are to be construed as being variously embodied and having various forms, so that the scope of the present invention should be understood to include equivalents capable of realizing technical ideas. Also, the purpose or effect of the present invention should not be construed as limiting the scope of the present invention, since it does not mean that a specific embodiment should include all or only such effect.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms "first "," second ", and the like are intended to distinguish one element from another, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected to the other element, but there may be other elements in between. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that there are no other elements in between. On the other hand, other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It should be understood that the singular " include "or" have "are to be construed as including a stated feature, number, step, operation, component, It is to be understood that the combination is intended to specify that it does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (e.g., a, b, c, etc.) is used for convenience of explanation, the identification code does not describe the order of each step, Unless otherwise stated, it may occur differently from the stated order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be embodied as computer-readable code on a computer-readable recording medium, and the computer-readable recording medium includes all kinds of recording devices for storing data that can be read by a computer system . Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used predefined terms should be interpreted to be consistent with the meanings in the context of the related art and can not be interpreted as having ideal or overly formal meaning unless explicitly defined in the present application.

도 1은 본 발명의 일 실시 예에 따른 처리 속도 개선을 위한 3차원 애니메이션 구현 시스템을 설명하는 블록도이다. 1 is a block diagram illustrating a three-dimensional animation implementation system for improving processing speed according to an embodiment of the present invention.

도 1을 참조하면, 3차원 애니메이션 구현 시스템(100)은 3차원 애니메이션 구현 장치(110), 입력 장치(120) 및 디스플레이 장치(130)를 포함한다. Referring to FIG. 1, a 3D animation implementation system 100 includes a 3D animation implementation device 110, an input device 120, and a display device 130.

3차원 애니메이션 구현 장치(110)는 특정 OS(Operating System)에 의해 동작하며 CPU, 하드디스크, 램를 포함하여 본 발명에 따른 3차원 애니메이션 구현 방법에 관한 프로그램을 기록한 기록매체를 실행할 수 있는 컴퓨팅 장치에 해당할 수 있다. 예를 들어, 3차원 애니메이션 구현 장치(110)는 데스크톱(Desktop), 노트북(Laptop), 스마트 폰(Smart phone) 또는 태블릿 PC(Tablet Personal Computer)에 해당할 수 있다. The 3D animation implementing apparatus 110 is a computing device that is operated by a specific OS (Operating System) and includes a CPU, a hard disk, and a RAM and is capable of executing a recording medium on which a program related to a method of implementing a 3D animation according to the present invention is recorded . For example, the 3D animation implementing apparatus 110 may correspond to a desktop, a laptop, a smart phone, or a tablet personal computer.

3차원 애니메이션 구현 장치(110)는 입력 장치(120) 및 디스플레이 장치(130) 각각과 네트워크를 통하여 연결될 수 있다. The three-dimensional animation implementing apparatus 110 may be connected to the input apparatus 120 and the display apparatus 130 via a network, respectively.

입력 장치(120)는 사용자에 의한 입력 신호를 생성할 수 있는 수단으로서, 예를 들어, 마우스 및 키보드 중 적어도 하나를 포함할 수 있다. The input device 120 may include at least one of a mouse and a keyboard, for example, as means for generating an input signal by a user.

디스플레이 장치(130)는 3차원 애니메이션 구현 장치(110)와 연결되어, 본 발명에 따른 3차원 애니메이션 구현 과정에서 생성되는 애니메이션 오브젝트에 대한 동작을 그래픽으로서 출력할 수 있는 수단에 해당하고, 예를 들어, 모니터에 해당할 수 있다.
The display device 130 corresponds to a means connected to the 3D animation implementing apparatus 110 and capable of outputting an operation for an animation object generated in the process of implementing the 3D animation according to the present invention as a graphic, , And a monitor.

도 2는 도 1에 있는 3차원 애니메이션 구현 장치를 설명하는 블록도이다. FIG. 2 is a block diagram illustrating an apparatus for implementing a three-dimensional animation shown in FIG. 1. FIG.

도 2를 참조하면, 3차원 애니메이션 구현 장치(110)는 오브젝트 수집부(210), 오브젝트 생성부(220), 오브젝트 배치부(230), 오브젝트 변환부(240) 및 제어부(250)를 포함한다. 2, the 3D animation implementing apparatus 110 includes an object collecting unit 210, an object generating unit 220, an object arranging unit 230, an object converting unit 240, and a control unit 250 .

우선, 배경 오브젝트는 3차원 애니메이션을 생성하는 과정에서 특정 오브젝트들이 배치될 수 있는 가상의 공간에 해당한다. 여기에서, 배경 오브젝트는 메쉬(mesh) 타입 또는 스킨(skin) 타입으로 화면에 출력될 수 있다. First, the background object corresponds to a virtual space in which specific objects can be placed in the process of generating a three-dimensional animation. Here, the background object may be displayed on the screen as a mesh type or a skin type.

예를 들어, 도 5a에서, 배경 오브젝트(510)는 가상의 3차원 공간에서 높낮이, 굴곡, 영역 등이 기 설정되고, 스킨 타입으로 설정된 경우 배경 오브젝트(510)의 표면은 기설정된 표면 이미지로 출력될 수 있다. For example, in FIG. 5A, the background object 510 is set to a height, a bend, an area, and the like in a virtual three-dimensional space. When the background object 510 is set as a skin type, .

다른 예를 들어, 배경 오브젝트(510)가 메쉬 타입으로 설정된 경우, 배경 오브젝트(510)의 표면은 기설정된 높낮이, 굴곡, 영역 등을 그물망(mesh)의 형상으로 출력될 수 있다. In another example, when the background object 510 is set as a mesh type, the surface of the background object 510 may be output in a mesh shape having predetermined height, bend, area, and the like.

다음으로, 애니메이션 오브젝트는 사전에 모델링(Modeling)된 애니메이션 객체(예: 인물 캐릭터 또는 건축 구조물)를 의미한다.Next, the animation object refers to a pre-modeled animation object (e.g., a character character or an architectural structure).

일 실시예에서, 본 발명에 따른 3차원 애니메이션 구현 과정에서의 애니메이션 오브젝트는 복수의 관절 점(Joint Point)을 포함하는 뼈대(Skeleton) 구조가 리깅(Rigging)되어 있는 상태에 해당할 수 있다. 예를 들어, 애니메이션 오브젝트는 뼈대 구조가 리깅된 상태의 둘리 캐릭터에 해당할 수 있다. In one embodiment, the animation object in the process of implementing a three-dimensional animation according to the present invention may correspond to a state in which a skeleton structure including a plurality of joint points is rigged. For example, the animation object may correspond to a molar character with a skeleton structure rigged.

다른 일 실시예에서, 애니메이션 오브젝트는 크기, 형상, 구조 및 표면 이미지 중 적어도 하나에 해당하는 데이터를 포함할 수 있다. 예를 들어, 도 5b에서, 애니메이션 오브젝트(520)는 건물의 크기, 외부(및 내부)의 형상, 외부(및 내부)의 구조 및 건물 표면의 이미지를 포함할 수 있다. In another embodiment, the animation object may include data corresponding to at least one of size, shape, structure, and surface image. For example, in FIG. 5B, the animation object 520 may include the size of the building, the shape of the exterior (and interior), the structure of the exterior (and interior), and the image of the building surface.

이하, 본 발명에 따른 3차원 애니메이션 구현 과정은 애니메이션 오브젝트가 건축 구조물에 해당하는 것을 예시로서 설명한다. 한편, 이러한 예시는 본 발명의 권리 범위를 한정하고자 하는 것은 아니다. 즉, 본 발명의 기술분야에 속하는 통상의 기술자라면, 이하 설명을 통하여 다양한 애니메이션 오브젝트에 대하여도 본 발명에 따른 3차원 애니메이션 구현 과정을 용이하게 적용할 수 있을 것이다. Hereinafter, the 3D animation process according to the present invention will be described with reference to an example in which an animation object corresponds to an architectural structure. On the other hand, these examples are not intended to limit the scope of the present invention. That is, a person skilled in the art will be able to easily apply a 3D animation process according to the present invention to various animation objects through the following description.

오브젝트 수집부(210)는 배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트를 수집한다. The object collecting unit 210 collects animation objects that can be placed on the background object.

보다 구체적으로, 오브젝트 수집부(210)는 배경 오브젝트가 임포팅(Importing)되면, 임포팅된 배경 오브젝트에 배치될 수 있는 적어도 하나의 애니매이션 오브젝트를 수집할 수 있다. More specifically, when the background object is imported, the object collecting unit 210 may collect at least one animation object that can be placed on the imported background object.

일 실시예에서, 오브젝트 수집부(210)는 복수의 애니메이션 오브젝트들 중에서 사용자에 의하여 선택된 적어도 하나의 애니메이션 오브젝트를 수집할 수 있다. In one embodiment, the object collection unit 210 may collect at least one animation object selected by the user from a plurality of animation objects.

일 실시예에서, 오브젝트 수집부(210)는 임포팅된 배경 오브젝트에 배치될 수 있는 애니메이션 오브젝트를 수집하고, 수집된 애니메이션 오브젝트를 화면으로 출력하고 선택의 입력을 프롬프팅할 수 있다. In one embodiment, the object collection unit 210 may collect animation objects that can be placed on an imported background object, display the collected animation objects on the screen, and prompt input of selection.

예를 들어, 도 5a 및 5b에서, 오브젝트 수집부(210)는 임포팅된 배경 오브젝트(510)에 배치될 수 있는 복수의 애니메이션 오브젝트들(520)을 화면으로 출력할 수 있다. 여기에서, 오브젝트 수집부(210)는 사용자에 의하여 복수의 애니메이션 오브젝트들(520) 중 적어도 하나가 선택되면, 선택된 애니메이션 오브젝트를 수집할 수 있다. For example, in FIGS. 5A and 5B, the object collecting unit 210 may output a plurality of animation objects 520, which may be disposed in an imported background object 510, as a screen. Here, if at least one of the plurality of animation objects 520 is selected by the user, the object collecting unit 210 may collect the selected animation object.

오브젝트 생성부(220)는 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성한다.The object generation unit 220 generates a virtual object for the animation object.

우선, 실상(Real) 오브젝트는 애니메이션 오브젝트에 대한 크기, 형상, 구조 및 표면 이미지에 해당하는 데이터를 포함하고, 배경 오브젝트 상에 배치되는 경우 3차원 상에서 기설정된 애니메이션 오브젝트를 동일하게 구현할 수 있는 오브젝트에 해당한다. First, a real object includes data corresponding to size, shape, structure, and surface image of an animation object, and when placed on a background object, .

다음으로, 허상(Proxy) 오브젝트는 실상 오브젝트에 포함된 애니메이션 오브젝트에 대한 크기, 형상, 구조 및 표면 이미지에 해당하는 데이터 중 적어도 일부를 제외시킨 오브젝트에 해당하고, 배경 오브젝트 상에 배치되는 경우 3차원 상에서 기설정된 애니메이션 오브젝트의 적어도 일부를 제외하여 구현할 수 있는 오브젝트에 해당한다. Next, the virtual object corresponds to an object excluding at least a part of data corresponding to a size, a shape, a structure, and a surface image of the animation object included in the object, and when placed on a background object, Which is an object that can be implemented by excluding at least a part of the animation object set in advance.

일 실시에에서, 허상 오브젝트는 실상 오브젝트에서 표면 이미지를 제거하고, 실상 오브젝트보다 기 설정된 크기만큼 작은 데이터 크기를 가질 수 있다. 예를 들어, 허상 오브젝트는 실상 오브젝트에서 고용량의 표면 이미지를 제거하고, 기 설정된 저용량의 단일 색상의 이미지로 대체시켜 생성될 수 있다. In one embodiment, the virtual image object may remove the surface image from the real image object and have a data size that is smaller by a predetermined amount than the real image object. For example, a virtual image object can be created by removing a high capacity surface image from an object and replacing it with a predetermined low capacity single color image.

일 실시예에서, 허상 오브젝트는 실상 오브젝트에 대한 크기, 형상 및 구조 중 적어도 하나에 대한 데이터를 포함하고, 배경 오브젝트 상에서 실상 오브젝트의 위치 식별자로서 배치될 수 있다. In one embodiment, the virtual image object includes data for at least one of a size, a shape, and a structure for the real image object, and may be arranged as a location identifier of the real image object on the background object.

즉, 허상 오브젝트는 고용량의 데이터 크기를 가지는 애니메이션 오브젝트의 편집 과정에서 임시로 사용될 수 있는 저용량의 데이터 크기를 가지는 오브젝트에 해당할 수 있다. 여기에서, 허상 오브젝트가 배경 오브젝트 상에 배치된 위치를 나타내는 위치 데이터는 차후 실상 오브젝트로 변환되는 과정에서 그대로 사용될 수 있다. That is, the virtual image object may correspond to an object having a low-capacity data size that can be temporarily used in the editing process of an animation object having a high-capacity data size. Here, the position data indicating the position where the virtual image object is disposed on the background object can be used as it is in the process of being converted into the real image object in the future.

오브젝트 배치부(230)는 오브젝트 생성부(220)에 의하여 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 배경 오브젝트 상에 배치한다.The object arrangement unit 230 arranges the virtual image object generated by the object creation unit 220 on the background object according to an operation by the user.

예를 들어, 도 5b 및 5c에서, 오브젝트 생성부(220)는 사용자에 의하여 선택된 애니메이션 오브젝트(520)에 대한 허상 오브젝트를 생성할 수 있다. 여기에서, 오브젝트 생성부(220)는 건물에 해당하는 애니메이션 오브젝트를 단일 색상을 가지고 내부에 형상 및 구조를 가지지 않는 허상 오브젝트(530)를 생성할 수 있다. 오브젝트 배치부(230)는 사용자의 조작에 따라 허상 오브젝트(530)를 배경 오브젝트(510) 상에 배치할 수 있다. For example, in FIGS. 5B and 5C, the object generation unit 220 may generate a virtual image object for the animation object 520 selected by the user. Here, the object generating unit 220 may generate a virtual image object 530 having a single color and having no shape and structure in the interior of the animation object corresponding to the building. The object arrangement unit 230 can arrange the virtual image object 530 on the background object 510 according to the user's operation.

일 실시예에서, 오브젝트 배치부(230)는 배경 오브젝트에 배치된 허상 오브젝트에 대한 위치 정보를 실상 오브젝트와 연관시킬 수 있다. In one embodiment, the object arrangement unit 230 may associate positional information on the virtual image object disposed in the background object with the real image object.

예를 들어, 도 5c에서, 오브젝트 배치부(230)는 배경 오브젝트 상에서 허상 오브젝트(530)의 절대적 또는 상대적 위치 데이터(예: x,y,z 좌표 데이터)를 결정하고, 해당 위치 데이터를 실상 오브젝트에 포함시킬 수 있다. 5C, the object arrangement unit 230 determines absolute or relative position data (e.g., x, y, z coordinate data) of the virtual image object 530 on the background object, .

일 실시예에서, 오브젝트 배치부(230)는 사용자에 의하여 점(point), 선(line), 면(face) 및 공간(space) 중 적어도 하나에 해당하는 신호가 입력되면, 입력된 신호에 상응하는 위치에 기 설정된 갯수의 허상 오브젝트를 배치할 수 있다. In one embodiment, when the object corresponding to at least one of a point, a line, a face, and a space is input by the user, the object arrangement unit 230 may correspond to the input signal A predetermined number of virtual image objects can be arranged at positions where the virtual image objects are located.

예를 들어, 도 5c에서, 사용자가 화면의 특정 점을 클릭하면, 오브젝트 배치부(230)는 해당 위치에 허상 오브젝트를 배치할 수 있다. For example, in FIG. 5C, when the user clicks a specific point on the screen, the object arrangement unit 230 can arrange the virtual image object at the corresponding position.

다른 예를 들어, 도 5e 및 도 5f에서, 사용자가 화면에 선을 그리는 경우, 오브젝트 배치부(230)는 해당 선에 기 설정된 갯수의 허상 오브젝트를 배치할 수 있다. 5E and 5F, when the user draws a line on the screen, the object arranging unit 230 may arrange a predetermined number of virtual objects in the line.

일 실시예에서, 오브젝트 배치부(230)는 배경 오브젝트에 배치된 허상 오브젝트의 크기, 형상, 구조 및 위치 중 적어도 하나에 대한 변경에 해당하는 신호가 입력되면, 입력된 신호에 따라 허상 오브젝트를 변경할 수 있다. In one embodiment, when a signal corresponding to a change in at least one of the size, shape, structure, and position of the virtual image object disposed in the background object is inputted, the object arrangement unit 230 changes the virtual image object according to the input signal .

예를 들어, 도 5c 및 도 5d에서, 오브젝트 배치부(230)는 사용자에 의하여 허상 오브젝트(530)가 배치된 후, 사용자에 의하여 해당 허상 오브젝트(530)에 대한 회전, 크기 변경 및 위치 이동에 해당하는 신호가 입력되면, 입력된 신호에 따라 허상 오브젝트(530)를 재배치할 수 있다. 5C and 5D, after the virtual image object 530 is disposed by the user, the object arrangement unit 230 may rotate the virtual image object 530 relative to the virtual image object 530, When the corresponding signal is input, the virtual image object 530 can be rearranged according to the input signal.

오브젝트 변환부(240)는 배경 오브젝트에 배치된 허상 오브젝트를 실상 오브젝트로 변환한다. The object conversion unit 240 converts the virtual image object disposed in the background object into a real image object.

즉, 본 발명에 따른 3차원 애니메이션 구현 과정에서 사용자가 배경 오브젝트에 복수의 애니메이션 오브젝트를 배치하고자 하는 경우, 사용자는 저용량의 허상 오브젝트를 이용하여 배경 오브젝트에 배치하고, 크기, 형상 및 구조 중 적어도 하나를 용이하게 변경할 수 있다. 배치 과정이 완료되면 이를 실상 오브젝트로 변환하여 배경 오브젝트에 완전한 애니메이션 오브젝트를 렌터링함으로써, 애니메이션 제작 속도를 향상 시키고 시스템의 부하를 감소시킬 수 있다.That is, when a user wants to arrange a plurality of animation objects in a background object in the process of implementing the three-dimensional animation according to the present invention, the user places the background objects in a background object using a low-capacity virtual image object, Can be easily changed. When the placement process is completed, it is converted into an actual object and a complete animation object is rendered to the background object, thereby improving the animation production speed and reducing the load on the system.

일 실시예에서, 오브젝트 변환부(240)는 배경 오브젝트에 배치된 허상 오브젝트에 대한 위치 정보에 따라 실상 오브젝트를 배경 오브젝트에 배치시킬 수 있다. In one embodiment, the object transform unit 240 may arrange a real image object in the background object according to positional information on the virtual image object disposed in the background object.

예를 들어, 도 5d 및 도 5g에서, 오브젝트 배치부(230)는 배경 오브젝트 상에서 허상 오브젝트(530)의 절대적 또는 상대적 위치 데이터(예: x,y,z 좌표 데이터)를 결정하고, 해당 위치 데이터를 실상 오브젝트(540)에 포함시킬 수 있다. 여기에서, 오브젝트 변환부(240)는 위치 데이터에 해당하는 배경 오브젝트(510) 상의 위치에 실상 오브젝트(540)를 배치할 수 있다. 5D and 5G, the object arrangement unit 230 determines absolute or relative position data (e.g., x, y, z coordinate data) of the virtual image object 530 on the background object, Can be included in the real object 540. Here, the object conversion unit 240 can arrange the real image object 540 at a position on the background object 510 corresponding to the position data.

여기에서, 오브젝트 변환부(240)는 배경 오브젝트(510)에 배치된 실상 오브젝트(540)에 대하여 기 저장된 표면 이미지를 적용할 수 있다. Here, the object conversion unit 240 may apply the pre-stored surface image to the real image object 540 disposed in the background object 510. [

제어부(250)는 오브젝트 수집부(210), 오브젝트 생성부(220), 오브젝트 배치부(230) 및 오브젝트 변환부(240)의 동작 및 데이터의 흐름을 제어한다.
The control unit 250 controls the operations of the object collecting unit 210, the object generating unit 220, the object arranging unit 230, and the object converting unit 240 and the flow of data.

도 3은 본 발명에 따른 3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 과정을 설명하는 흐름도이다. FIG. 3 is a flowchart illustrating a process of implementing a three-dimensional animation performed in the apparatus for implementing a three-dimensional animation according to the present invention.

오브젝트 수집부(210)는 배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트를 수집한다(단계 S310). The object collecting unit 210 collects animation objects that can be placed on the background object (step S310).

일 실시예에서, 오브젝트 수집부(210)는 복수의 애니메이션 오브젝트들 중에서 사용자에 의하여 선택된 적어도 하나의 애니메이션 오브젝트를 수집할 수 있다. In one embodiment, the object collection unit 210 may collect at least one animation object selected by the user from a plurality of animation objects.

오브젝트 생성부(220)는 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성한다(단계 S320).The object generating unit 220 generates a virtual object for the animation object (step S320).

일 실시에에서, 허상 오브젝트는 실상 오브젝트에서 표면 이미지를 제거하고, 실상 오브젝트보다 기 설정된 크기만큼 작은 데이터 크기를 가질 수 있다. 예를 들어, 허상 오브젝트는 실상 오브젝트에서 고용량의 표면 이미지를 제거하고, 기 설정된 저용량의 단일 색상의 이미지로 대체시켜 생성될 수 있다. In one embodiment, the virtual image object may remove the surface image from the real image object and have a data size that is smaller by a predetermined amount than the real image object. For example, a virtual image object can be created by removing a high capacity surface image from an object and replacing it with a predetermined low capacity single color image.

일 실시예에서, 허상 오브젝트는 실상 오브젝트에 대한 크기, 형상 및 구조 중 적어도 하나에 대한 데이터를 포함하고, 배경 오브젝트 상에서 실상 오브젝트의 위치 식별자로서 배치될 수 있다. In one embodiment, the virtual image object includes data for at least one of a size, a shape, and a structure for the real image object, and may be arranged as a location identifier of the real image object on the background object.

오브젝트 배치부(230)는 오브젝트 생성부(220)에 의하여 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 배경 오브젝트 상에 배치한다(단계 S330).The object arrangement unit 230 arranges the virtual image object generated by the object creation unit 220 on the background object according to an operation by the user (step S330).

일 실시예에서, 오브젝트 배치부(230)는 배경 오브젝트에 배치된 허상 오브젝트에 대한 위치 정보를 실상 오브젝트와 연관시킬 수 있다. In one embodiment, the object arrangement unit 230 may associate positional information on the virtual image object disposed in the background object with the real image object.

오브젝트 변환부(240)는 배경 오브젝트에 배치된 허상 오브젝트를 실상 오브젝트로 변환한다(단계 S340). The object conversion unit 240 converts the virtual image object disposed in the background object into a real image object (step S340).

즉, 본 발명에 따른 3차원 애니메이션 구현 과정에서 사용자가 배경 오브젝트에 복수의 애니메이션 오브젝트를 배치하고자 하는 경우, 사용자는 저용량의 허상 오브젝트를 이용하여 배경 오브젝트에 배치하고, 크기, 형상 및 구조 중 적어도 하나를 용이하게 변경할 수 있다. 배치 과정이 완료되면 이를 실상 오브젝트로 변환하여 배경 오브젝트에 완전한 애니메이션 오브젝트를 렌터링함으로써, 애니메이션 제작 속도를 향상 시키고 시스템의 부하를 감소시킬 수 있다.
That is, when a user wants to arrange a plurality of animation objects in a background object in the process of implementing the three-dimensional animation according to the present invention, the user places the background objects in a background object using a low-capacity virtual image object, Can be easily changed. When the placement process is completed, it is converted into an actual object and a complete animation object is rendered to the background object, thereby improving the animation production speed and reducing the load on the system.

도 4는 본 발명의 일 실시예에 따른 3차원 애니메이션 구현 과정을 설명하는 흐름도이다. 4 is a flowchart illustrating a 3D animation process according to an embodiment of the present invention.

오브젝트 수집부(210)는 배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트를 수집한다(단계 S410). The object collecting unit 210 collects animation objects that can be placed on the background object (step S410).

일 실시예에서, 오브젝트 수집부(210)는 복수의 애니메이션 오브젝트들 중에서 사용자에 의하여 선택된 적어도 하나의 애니메이션 오브젝트를 수집할 수 있다. In one embodiment, the object collection unit 210 may collect at least one animation object selected by the user from a plurality of animation objects.

일 실시예에서, 오브젝트 수집부(210)는 임포팅된 배경 오브젝트에 배치될 수 있는 애니메이션 오브젝트를 수집하고, 수집된 애니메이션 오브젝트를 화면으로 출력하고 선택의 입력을 프롬프팅할 수 있다(단계 S420). In one embodiment, the object collection unit 210 may collect animation objects that can be placed on the imported background objects, display the collected animation objects on the screen, and prompt input of selection (step S420).

예를 들어, 도 5a 및 5b에서, 오브젝트 수집부(210)는 임포팅된 배경 오브젝트(510)에 배치될 수 있는 복수의 애니메이션 오브젝트들(520)을 화면으로 출력할 수 있다. 여기에서, 오브젝트 수집부(210)는 사용자에 의하여 복수의 애니메이션 오브젝트들(520) 중 적어도 하나가 선택되면, 선택된 애니메이션 오브젝트를 수집할 수 있다. For example, in FIGS. 5A and 5B, the object collecting unit 210 may output a plurality of animation objects 520, which may be disposed in an imported background object 510, as a screen. Here, if at least one of the plurality of animation objects 520 is selected by the user, the object collecting unit 210 may collect the selected animation object.

오브젝트 생성부(220)는 사용자에 의하여 선택된 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성할 수 있다(단계 S430).The object generating unit 220 may generate a virtual object for the animation object selected by the user (step S430).

오브젝트 배치부(230)는 오브젝트 생성부(220)에 의하여 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 배경 오브젝트 상에 배치한다(단계 S440).The object arrangement unit 230 arranges the virtual image object generated by the object generation unit 220 on the background object according to the operation by the user (step S440).

오브젝트 배치부(230)는 배경 오브젝트에 배치된 허상 오브젝트에 대한 위치 정보를 실상 오브젝트와 연관시킬 수 있다(단계 S450). The object arrangement unit 230 may associate position information on the virtual image object disposed in the background object with the real image object (step S450).

예를 들어, 도 5c에서, 오브젝트 배치부(230)는 배경 오브젝트 상에서 허상 오브젝트(530)의 절대적 또는 상대적 위치 데이터(예: x,y,z 좌표 데이터)를 결정하고, 해당 위치 데이터를 실상 오브젝트에 포함시킬 수 있다. 5C, the object arrangement unit 230 determines absolute or relative position data (e.g., x, y, z coordinate data) of the virtual image object 530 on the background object, .

일 실시예에서, 오브젝트 배치부(230)는 사용자에 의하여 점(point), 선(line), 면(face) 및 공간(space) 중 적어도 하나에 해당하는 신호가 입력되면, 입력된 신호에 상응하는 위치에 기 설정된 갯수의 허상 오브젝트를 배치할 수 있다. In one embodiment, when the object corresponding to at least one of a point, a line, a face, and a space is input by the user, the object arrangement unit 230 may correspond to the input signal A predetermined number of virtual image objects can be arranged at positions where the virtual image objects are located.

일 실시예에서, 오브젝트 배치부(230)는 배경 오브젝트에 배치된 허상 오브젝트의 크기, 형상, 구조 및 위치 중 적어도 하나에 대한 변경에 해당하는 신호가 입력되면, 입력된 신호에 따라 허상 오브젝트를 변경할 수 있다. In one embodiment, when a signal corresponding to a change in at least one of the size, shape, structure, and position of the virtual image object disposed in the background object is inputted, the object arrangement unit 230 changes the virtual image object according to the input signal .

오브젝트 변환부(240)는 배경 오브젝트에 배치된 허상 오브젝트에 대한 위치 정보에 따라 실상 오브젝트를 배경 오브젝트에 배치시킬 수 있다(단계 S460). The object conversion unit 240 may arrange the real image object in the background object according to the position information on the virtual image object disposed in the background object (step S460).

예를 들어, 도 5d 및 도 5g에서, 오브젝트 배치부(230)는 배경 오브젝트 상에서 허상 오브젝트(530)의 절대적 또는 상대적 위치 데이터(예: x,y,z 좌표 데이터)를 결정하고, 해당 위치 데이터를 실상 오브젝트(540)에 포함시킬 수 있다. 여기에서, 오브젝트 변환부(240)는 위치 데이터에 해당하는 배경 오브젝트(510) 상의 위치에 실상 오브젝트(540)를 배치할 수 있다. 5D and 5G, the object arrangement unit 230 determines absolute or relative position data (e.g., x, y, z coordinate data) of the virtual image object 530 on the background object, Can be included in the real object 540. Here, the object conversion unit 240 can arrange the real image object 540 at a position on the background object 510 corresponding to the position data.

오브젝트 변환부(240)는 배경 오브젝트(510)에 배치된 실상 오브젝트(540)에 대하여 기 저장된 표면 이미지를 적용할 수 있다(단계 S470). The object conversion unit 240 may apply the previously stored surface image to the real image object 540 disposed in the background object 510 (step S470).

즉, 본 발명에 따른 3차원 애니메이션 구현 과정에서 사용자가 배경 오브젝트에 복수의 애니메이션 오브젝트를 배치하고자 하는 경우, 사용자는 저용량의 허상 오브젝트를 이용하여 배경 오브젝트에 배치하고, 크기, 형상 및 구조 중 적어도 하나를 용이하게 변경할 수 있다. 배치 과정이 완료되면 이를 실상 오브젝트로 변환하여 배경 오브젝트에 완전한 애니메이션 오브젝트를 렌터링함으로써, 애니메이션 제작 속도를 향상시키고 시스템의 부하를 감소시킬 수 있다.
That is, when a user wants to arrange a plurality of animation objects in a background object in the process of implementing the three-dimensional animation according to the present invention, the user places the background objects in a background object using a low-capacity virtual image object, Can be easily changed. When the placement process is completed, it is converted into an actual object and a complete animation object is rendered to the background object, thereby improving the animation production speed and reducing the load on the system.

상기에서는 본 출원의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

100: 3차원 애니메이션 구현 시스템
110: 3차원 애니메이션 구현 장치 120: 입력 장치
130: 디스플레이 장치
210: 오브젝트 수집부 220: 오브젝트 생성부
230: 오브젝트 배치부 240: 오브젝트 변환부
250: 제어부
510: 배경 오브젝트 520: 애니메이션 오브젝트
530: 허상 오브젝트 540: 실상 오브젝트
100: 3D animation implementation system
110: 3D animation implementation device 120: Input device
130: Display device
210: object collecting unit 220:
230: Object arrangement unit 240: Object conversion unit
250:
510: background object 520: animation object
530: virtual image object 540: real image object

Claims (19)

3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 방법에 있어서,
배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트를 수집하는 단계;
상기 수집된 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성하는 단계;
상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계; 및
상기 배치된 허상 오브젝트를 상기 애니메이션 오브젝트에 대한 실상(Real) 오브젝트로 변환(Converting)하는 단계를 포함하고,
상기 애니메이션 오브젝트를 수집하는 단계는 상기 수집된 애니메이션 오브젝트를 화면으로 출력하고, 상기 출력된 애니메이션 오브젝트에 대한 선택을 프롬프팅하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
A method for implementing a three-dimensional animation performed in a three-dimensional animation implementing apparatus,
Collecting an animation object that can be placed on the background object;
Generating a proxy object for the collected animation object;
Arranging the generated virtual image object on the background object according to an operation by a user; And
And converting the arranged virtual image object into a real object for the animation object,
Wherein the step of collecting the animation objects further comprises outputting the collected animation objects to a screen and prompting selection of the output animation objects.
삭제delete 제1항에 있어서, 상기 애니메이션 오브젝트에 대한 허상 오브젝트를 생성하는 단계는
상기 애니메이션 오브젝트에 대한 실상 오브젝트에서 표면 이미지를 제거하고, 상기 실상 오브젝트보다 기 설정된 크기만큼 작은 데이터 크기를 가지는 허상 오브젝트를 생성하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
The method of claim 1, wherein generating a virtual image object for the animation object comprises:
Removing the surface image from the real image object for the animation object and creating a virtual image object having a data size smaller than the real image object by a predetermined size.
제3항에 있어서, 상기 허상 오브젝트는
상기 실상 오브젝트에 대한 크기, 형상 및 구조 중 적어도 하나에 대한 데이터를 포함하고, 상기 배경 오브젝트 상에서 상기 실상 오브젝트의 위치 식별자로서 배치되는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
4. The apparatus of claim 3, wherein the virtual image object
Wherein the object information includes at least one of a size, a shape and a structure of the real image object, and is arranged as a position identifier of the real image object on the background object.
제4항에 있어서, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계는
상기 배치된 허상 오브젝트에 대한 상기 배경 오브젝트 상의 위치 정보를 상기 실상 오브젝트와 연관시키는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
5. The method of claim 4, wherein the step of arranging the generated virtual image object on the background object according to an operation by a user
And associating position information on the background object with the real image object with respect to the arranged virtual image object.
제1항에 있어서, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계는
상기 사용자에 의하여 점(point), 선(line), 면(face) 및 공간(space) 중 적어도 하나에 해당하는 신호가 입력되면, 상기 입력된 신호에 상응하는 위치에 기 설정된 갯수의 허상 오브젝트를 배치하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
The method of claim 1, wherein the step of arranging the generated virtual image object on the background object according to an operation by a user
When a signal corresponding to at least one of a point, a line, a face, and a space is input by the user, a predetermined number of virtual objects at a position corresponding to the input signal And arranging the three-dimensional animation in the three-dimensional space.
제6항에 있어서, 상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계는
상기 배치된 허상 오브젝트의 크기, 형상, 구조 및 위치 중 적어도 하나에 대한 변경에 해당하는 신호가 입력되면, 상기 입력된 신호에 따라 상기 배치된 허상 오브젝트를 변경하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
The method according to claim 6, wherein the step of arranging the generated virtual image object on the background object according to an operation by a user
And changing the arranged virtual image object according to the input signal when a signal corresponding to a change of at least one of size, shape, structure and position of the arranged virtual image object is inputted, How to implement 3D animation.
제1항에 있어서, 상기 실상 오브젝트로 변환하는 단계는
상기 배치된 허상 오브젝트에 대한 상기 배경 오브젝트 상의 위치 정보에 따라 상기 실상 오브젝트를 상기 배경 오브젝트 상에 배치하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
2. The method according to claim 1,
And arranging the real image object on the background object according to position information on the background object with respect to the arranged virtual image object.
제8항에 있어서, 상기 실상 오브젝트로 변환하는 단계는
상기 배치된 실상 오브젝트에 대하여 기 저장된 표면 이미지를 적용하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
9. The method as claimed in claim 8,
And applying a previously stored surface image to the arranged real image object.
3차원 애니메이션 구현 장치에 있어서,
배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트를 수집하는 오브젝트 수집부;
상기 수집된 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성하는 오브젝트 생성부;
상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 오브젝트 배치부; 및
상기 배치된 허상 오브젝트를 상기 애니메이션 오브젝트에 대한 실상(Real) 오브젝트로 변환(coverting)하는 오브젝트 변환부를 포함하고,
상기 오브젝트 수집부는 상기 수집된 애니메이션 오브젝트를 화면으로 출력하고, 상기 출력된 애니메이션 오브젝트에 대한 선택을 프롬프팅하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
In a three-dimensional animation implementation apparatus,
An object collecting unit for collecting an animation object that can be placed on the background object;
An object generation unit for generating a virtual object for the collected animation object;
An object arrangement unit for arranging the generated virtual image object on the background object according to an operation by a user; And
And an object conversion unit for covering the arranged virtual image object into a real object for the animation object,
Wherein the object collecting unit outputs the collected animation objects to a screen, and prompts selection of the outputted animation objects.
삭제delete 제10항에 있어서, 상기 오브젝트 생성부는
상기 애니메이션 오브젝트에 대한 실상 오브젝트에서 표면 이미지를 제거하고, 상기 실상 오브젝트보다 기 설정된 크기만큼 작은 데이터 크기를 가지는 허상 오브젝트를 생성하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
11. The apparatus of claim 10, wherein the object generator
Wherein the virtual image object generating unit removes the surface image from the real image object for the animation object and generates a virtual image object having a data size smaller than the real image object by a preset size.
제12항에 있어서, 상기 허상 오브젝트는
상기 실상 오브젝트에 대한 크기, 형상 및 구조 중 적어도 하나에 대한 데이터를 포함하고, 상기 배경 오브젝트 상에서 상기 실상 오브젝트의 위치 식별자로서 배치되는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
13. The apparatus of claim 12, wherein the virtual image object
Wherein the object information includes at least one of a size, a shape and a structure of the real image object, and is arranged as a position identifier of the real image object on the background object.
제13항에 있어서, 상기 오브젝트 배치부는
상기 배치된 허상 오브젝트에 대한 상기 배경 오브젝트 상의 위치 정보를 상기 실상 오브젝트와 연관시키는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
14. The apparatus of claim 13, wherein the object placement unit
And associates the position information on the background object with the real image object with respect to the arranged virtual image object.
제10항에 있어서, 상기 오브젝트 배치부는
상기 사용자에 의하여 점(point), 선(line), 면(face) 및 공간(space) 중 적어도 하나에 해당하는 신호가 입력되면, 상기 입력된 신호에 상응하는 위치에 기 설정된 갯수의 허상 오브젝트를 배치하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
The apparatus of claim 10, wherein the object placement unit
When a signal corresponding to at least one of a point, a line, a face, and a space is input by the user, a predetermined number of virtual objects at a position corresponding to the input signal Wherein the three-dimensional animation image is displayed on the screen.
제15항에 있어서, 상기 오브젝트 배치부는
상기 배치된 허상 오브젝트의 크기, 형상, 구조 및 위치 중 적어도 하나에 대한 변경에 해당하는 신호가 입력되면, 상기 입력된 신호에 따라 상기 배치된 허상 오브젝트를 변경하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
16. The apparatus of claim 15, wherein the object placement unit
Wherein the virtual image object changing unit changes the virtual image object according to the input signal when a signal corresponding to a change in at least one of size, shape, structure, and position of the disposed virtual image object is inputted, .
제10항에 있어서, 상기 오브젝트 변환부는
상기 배치된 허상 오브젝트에 대한 상기 배경 오브젝트 상의 위치 정보에 따라 상기 실상 오브젝트를 상기 배경 오브젝트 상에 배치하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
The apparatus of claim 10, wherein the object conversion unit
And arranges the real image object on the background object according to position information on the background object for the disposed virtual image object.
제17항에 있어서, 상기 오브젝트 변환부는
상기 배치된 실상 오브젝트에 대하여 기 저장된 표면 이미지를 적용하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
18. The apparatus of claim 17, wherein the object conversion unit
And a pre-stored surface image is applied to the arranged real image object.
3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 방법에 관한 컴퓨터 프로그램을 기록한 기록매체에 있어서,
배경 오브젝트 상에 배치될 수 있는 애니메이션 오브젝트를 수집하는 단계;
상기 수집된 애니메이션 오브젝트에 대한 허상(Proxy) 오브젝트를 생성하는 단계;
상기 생성된 허상 오브젝트를 사용자에 의한 조작에 따라 상기 배경 오브젝트 상에 배치하는 단계; 및
상기 배치된 허상 오브젝트를 상기 애니메이션 오브젝트에 대한 실상(Real) 오브젝트로 변환(coverting)하는 단계를 포함하고,
상기 애니메이션 오브젝트를 수집하는 단계는 상기 수집된 애니메이션 오브젝트를 화면으로 출력하고, 상기 출력된 애니메이션 오브젝트에 대한 선택을 프롬프팅하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법에 관한 컴퓨터 프로그램을 기록한 기록매체.
A recording medium on which a computer program for a method of implementing a three-dimensional animation performed in a three-dimensional animation implementing apparatus is recorded,
Collecting an animation object that can be placed on the background object;
Generating a proxy object for the collected animation object;
Arranging the generated virtual image object on the background object according to an operation by a user; And
And covering the disposed virtual image object into a real object for the animation object,
Wherein the step of collecting the animation object further includes outputting the collected animation object to a screen and prompting selection of the output animation object. Recording medium.
KR1020130014138A 2013-02-07 2013-02-07 Method of embodying three-dimensional object animation, apparatus performing the same and storage media storing the same KR101420820B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130014138A KR101420820B1 (en) 2013-02-07 2013-02-07 Method of embodying three-dimensional object animation, apparatus performing the same and storage media storing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130014138A KR101420820B1 (en) 2013-02-07 2013-02-07 Method of embodying three-dimensional object animation, apparatus performing the same and storage media storing the same

Publications (1)

Publication Number Publication Date
KR101420820B1 true KR101420820B1 (en) 2014-08-13

Family

ID=51748774

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130014138A KR101420820B1 (en) 2013-02-07 2013-02-07 Method of embodying three-dimensional object animation, apparatus performing the same and storage media storing the same

Country Status (1)

Country Link
KR (1) KR101420820B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030665A (en) * 2003-06-19 2004-01-29 Nec Corp Three-dimensional graphic display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030665A (en) * 2003-06-19 2004-01-29 Nec Corp Three-dimensional graphic display device

Similar Documents

Publication Publication Date Title
CN109947972A (en) Reduced graph generating method and device, electronic equipment, storage medium
CN109344352B (en) Page loading method and device and electronic equipment
JP5908653B2 (en) 3D object generating apparatus and method
JP2021531565A (en) Focal detection methods, devices, equipment and storage media
CN106575158B (en) Environment mapping virtualization mechanism
KR101523328B1 (en) Method of providing pose-library for three-dimensional animation character, apparatus performing the same and storage media storing the same
TW201445421A (en) Automatically manipulating visualized data based on interactivity
CN110796712A (en) Material processing method, device, electronic equipment and storage medium
US10013059B2 (en) Haptic authoring tool for animated haptic media production
US11062523B2 (en) Creation authoring point tool utility to recreate equipment
CN102855648A (en) Method and device for processing image
CN113010945A (en) BIM model linkage method and system
KR20180058895A (en) Augmented reality system linked to smart device
CN101794462A (en) Three-dimensional grid model deformation method and system based on texture
CN108062339B (en) Processing method and device of visual chart
CN109064537A (en) Image generating method and device based on 3D rendering engine
CN102929592A (en) Three-dimensional interaction method and device for equipment based on monitoring system
JP2014215769A (en) Drawing generation apparatus, drawing generation method and program
CN103201786B (en) Content is utilized to keep distortion to reinvent interface
CN109493428B (en) Optimization method and device for three-dimensional virtual model, electronic equipment and storage medium
CN113436346A (en) Distance measuring method and device in three-dimensional space and storage medium
KR101420820B1 (en) Method of embodying three-dimensional object animation, apparatus performing the same and storage media storing the same
JP2008176424A (en) Parts catalog preparation system, parts catalog preparation method, program for making computer execute and computer-readable recording medium
KR101420818B1 (en) Method of embodying three-dimensional object animation, apparatus performing the same and storage media storing the same
CN114797109A (en) Object editing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170911

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180710

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190710

Year of fee payment: 6