KR100759364B1 - Composition method of user action pattern realtime graphics and high quality animation - Google Patents

Composition method of user action pattern realtime graphics and high quality animation Download PDF

Info

Publication number
KR100759364B1
KR100759364B1 KR1020060039357A KR20060039357A KR100759364B1 KR 100759364 B1 KR100759364 B1 KR 100759364B1 KR 1020060039357 A KR1020060039357 A KR 1020060039357A KR 20060039357 A KR20060039357 A KR 20060039357A KR 100759364 B1 KR100759364 B1 KR 100759364B1
Authority
KR
South Korea
Prior art keywords
information
animation
image
user
graphics
Prior art date
Application number
KR1020060039357A
Other languages
Korean (ko)
Inventor
진종욱
원광연
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020060039357A priority Critical patent/KR100759364B1/en
Application granted granted Critical
Publication of KR100759364B1 publication Critical patent/KR100759364B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A method for combining user-driven real-time graphics and high-quality animation images is provided to combine the user-driven real-time graphics and the animation, by using pixel depth information for the current frame of the animation. The first step(S100) is performed by setting description information for a portion of each scene, on which user-driven graphics are to be used. The second step(S200) is performed by generating a depth image for one image frame of animation by using camera setting information and a 3D object configuration supplied from 3D database generating depth information of the animation. The third step(S300) is performed by generating an image and image depth pixels according to input of a user. A forth step(S400) is performed by searching for a depth image, which corresponds to camera viewpoint set in the third step, from the depth image generated in the second step, and combining the searched depth image and the image adjusted in the first step by the frame unit. The fifth step(S500) is performed by supplying the combined image to the user.

Description

사용자 반응형 실시간 그래픽스와 고품질 애니메이션 영상 합성 방법{Composition method of user action pattern realtime graphics and high quality animation}Composition method of user action pattern realtime graphics and high quality animation}

도1은 종래의 시간축상에서의 신 기반 분할 합성 방법의 상태도이다.1 is a state diagram of a conventional scene-based split synthesis method on a time axis.

도2는 종래의 오버레이 방법의 상태도이다.2 is a state diagram of a conventional overlay method.

도3은 본 발명에 따른 사용자 반응형 실시간 그래픽스와 고품질 애니메이션 영상 합성 방법의 순서도이다.3 is a flowchart of a method for synthesizing user responsive real time graphics and a high quality animated image according to the present invention.

본 발명은 3차원 영상의 사용자 반응형 실시간 그래픽스 합성 방법에 관한 것으로서, 애니메이션 애니메이션의 3차원 형상 정보를 가지고, 화소에 대한 뎁스를 구성하여, 매 프레임마다, 화소의 뎁스를 계산하여 애니메이션의 한 프레임 위에 화소 깊이 정보를 생성하고, 사용자 반응형의 실시간 그래픽스를 애니메이션과 동일한 시공간 상에서 올바르게 합성하는 사용자 반응형 실시간 그래픽스 합성 방법에 관한 것이다.The present invention relates to a method for synthesizing a user-responsive real-time graphics of a three-dimensional image, comprising three-dimensional shape information of an animation animation, configuring a depth for a pixel, and calculating the depth of the pixel every frame to calculate one frame of the animation. The present invention relates to a method for generating a user-responsive real-time graphics that generates pixel depth information and correctly synthesizes user-responsive real-time graphics in the same space-time as the animation.

사용자 반응형 실시간 그래픽스는 애니메이션을 시청하던 사용자의 조작에 따 라 다른 각도에서 보는 영상으로 변경하는 것으로 종래의 사용자 반응형 실시간 그래픽스 합성 방법으로는 시간축 상에서의 신(Scene)기반의 분할 합성 방법과 오버레이(Overlay) 방법이 있었다.User responsive real-time graphics are changed to the image viewed from different angles according to the operation of the user who was watching the animation. Conventional user responsive real-time graphics synthesis method is a scene-based segmentation synthesis method and overlay on the time axis. (Overlay) There was a way.

시간축상에서의 신(Scene)기반의 분할 합성 방법은 도1에 도시된바와 같이 사용자 반응형 그래픽스와 애니메이션을 Scene기반으로 시간축상에서 분할하여 원본 애니메이션과 사용자 반응형 그래픽스에 의하여 변형된 부분을 교차로 재생하는 방법이므로 같은 시간에서 두개의 영상을 제시할 수 없어 정지 영상은 애니메이션이나 사용자 반응형 그래픽스 부분 중 하나만 표시하게 되는 단점이 있었다.Scene-based segmentation synthesis method based on the time axis as shown in Figure 1 to divide the user-responsive graphics and animation on the time-base based on the scene to reproduce the parts transformed by the original animation and the user-responsive graphics in the intersection. Because of the method, two images cannot be presented at the same time, and thus still images display only one of animation or user responsive graphics.

그리고, 오버레이(Overlay) 방법은 도2에 도시된바와 같이 원본 애니메이션과는 전혀 별도로 사용자 반응형 그래픽스에 의하여 변형된 부분를 겹쳐서 두 개의 이미지를 겹쳐서 합성하는 방법이므로 두개의 영상을 같은 시간에 제시할 수 있으나, 같은 3차원 공간상을 공유할 수 없는 단점이 있었다.In addition, since the overlay method is a method in which two images are overlapped and synthesized by overlapping parts deformed by user-responsive graphics as shown in FIG. 2, completely separate from the original animation, two images may be presented at the same time. However, there is a disadvantage in that they cannot share the same three-dimensional space.

본 발명은 상기한 바와 같은 종래 기술의 불편함을 해결하기 위하여 안출된 것으로서,The present invention has been made to solve the inconvenience of the prior art as described above,

본 발명의 목적은 애니메이션의 현재 제시될 프레임에 대한 화소 깊이 정보를 그래픽 프로세서 유닛을 이용하여 생성하고, 이를 이용하여 사용자 반응형의 실시간 그래픽스를 애니메이션과 매 프레임마다 합성하는 3차원 영상의 사용자 반응형 실시간 그래픽스를 합성 방법을 제공하는 것이다.An object of the present invention is to generate pixel depth information of a frame to be presently presented in an animation using a graphic processor unit, and to use this to synthesize a user-responsive real-time graphics for each frame and a user-responsive 3D image. It is to provide a method for compositing real-time graphics.

상기 목적을 달성하기 위하여 본 발명에 따른 사용자 반응형 실시간 그래픽스의 영상 합성 방법은 컨텐츠 구성 계획에 의하여 설정된 주제에 대한 소재들이 저장되는 애니메이션 제작용 3D 데이터 베이스와, 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보 및 3차원 객체 형상를 포함하는 정보를 저장되는 상기 애니메이션의 깊이 정보 생성용 3D 데이터베이스와 사용자 그래픽스와 영상 합성부로 구성된 시스템에 있어서 애니메이션의 각 신(Scene)의 사용자 반응형 그래픽스가 사용될 부분에 합성처리가 가능한 부분에 대한 설정 정보인 표현(Description) 정보를 설정하는 합성을 위한 애니메이션 컨텐츠 조정 단계와, 미리 설정된 조건에 의해서 사용자 반응형 그래픽스가 수행되면 애니메이션의 깊이 정보 생성용 3D 데이터 베이스에서 제공하는 카메라 설정 정보와 3차원 객체 형상으로 실시간 렌더링을 수행하여 애니메이션의 한 영상 프레임의 깊이 영상을 생성하는 실시간 화소 깊이 정보 생성 단계와, 사용자 입력에 맞는 영상 및 영상 깊이 화소를 생성하는 실시간 사용자 반응형 그래픽스 단계와, 상기 실시간 사용자 반응형 그래픽스 단계에서 설정된 카메라 시점에 따라 그 시점에 적합한 깊이 영상을 상기 실시간 화소 깊이 정보 생성 단계에서 생성된 깊이 영상에서 검색하여 합성을 위한 애니메이션 컨텐츠 조정 단계에서 조정된 영상에 프레임단위로 합성하는 깊이 정보 기반의 화소 단위의 영상 합성 단계, 및; 상기 깊이 정보 기반의 화소 단위의 영상 합성 단계에서 합성된 영상을 사용자에게 제공하는 이미지 디스플레이 단계를 포함하여 구성되는 것을 특징으로 한다.In order to achieve the above object, a method of synthesizing a user-responsive real-time graphics according to the present invention comprises a 3D database for animation production in which materials for a subject set by a content composition plan are stored, and a 3D object in a 2D planar image. A system comprising a 3D database for generating depth information of the animation, which includes information about projectable cameras, information about a camera's position, direction information, and 3D object shape in a virtual 3D world, and user graphics and an image synthesizer. The animation content adjustment step for composing to set the description information which is the setting information for the part that can be synthesized to the part where the user-responsive graphics of each scene of the animation is to be used, and the user according to a preset condition When responsive graphics is performed Real-time pixel depth information generation step of generating depth image of an image frame of animation by performing real-time rendering with camera setting information and 3D object shape provided in 3D database for generating depth information of animation, A real-time user responsive graphics step of generating an image and an image depth pixel, and a depth image suitable for the view point according to the camera viewpoint set in the real-time user responsive graphics step is searched in the depth image generated in the real-time pixel depth information generation step A step of synthesizing an image based on depth information, which is synthesized on a frame-by-frame basis to an image adjusted in an animation content adjusting step for synthesizing; And an image display step of providing the user with the synthesized image in the image synthesis step of the pixel unit based on the depth information.

본 발명에 따른 사용자 반응형 실시간 그래픽스의 영상 합성 방법의 상기 애니메이션 컨텐츠 조정 단계에서 설정되는 표현 정보는 애니메이션의 구간 부분(Time, Duration)에서 어떤 종류의 반응형 그래픽스(Graphics Algorithm)가 어떻게 설정(Configuration)되어야 하는가에 대한 정보와 종료 조건(Terminate Condition)에 대한 정보를 포함하는 것을 특징으로 한다.The expression information set in the animation content adjustment step of the method for synthesizing the video of the user responsive real-time graphics according to the present invention is how some type of reactive graphics (Graphics Algorithm) is set in the animation section (Time, Duration). Information on whether or not to be terminated and information on Terminate Condition.

본 발명에 따른 사용자 반응형 실시간 그래픽스의 영상 합성 방법의 상기 실시간 화소 깊이 정보 생성 단계에서 애니메이션의 깊이 정보 생성용 3D 데이터 베이스가 제공하는 카메라 설정 정보는 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보를 포함하는 것을 특징으로 한다.The camera setting information provided by the 3D database for generating depth information of the animation in the real-time pixel depth information generation step of the method for synthesizing the user-responsive real-time graphics according to the present invention may project a 3D object onto a 2D plane image. Camera information and position and orientation information of the camera in the virtual three-dimensional world.

이하, 본 발명의 사용자 반응형 실시간 그래픽스의 영상 합성 방법을 보다 상세하게 설명하면 다음과 같다.Hereinafter, the image synthesis method of the user-responsive real-time graphics of the present invention will be described in detail.

도3은 본 발명에 따른 사용자 반응형 실시간 그래픽스와 고품질 애니메이션 영상 합성 방법의 상태도이다.3 is a state diagram of a method for synthesizing user-responsive real-time graphics and a high quality animation image according to the present invention.

컨텐츠 구성 계획에 의하여 설정된 주제에 대한 소재들이 저장되는 애니메이션 제작용 3D 데이터 베이스와, 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보 및 3차원 객체 형상를 포함하는 정보를 저장되는 상기 애니메이션의 깊이 정보 생성용 3D 데이터베이스와 사용자 그래픽스와 영상 합성부로 구성된 시스템에 있어서 사용자 반응형 실시간 그래픽스의 영상 합성 방법은 도3에 도시된바와 같이 합성을 위한 애니메이션 컨텐츠 조정 단계(S300), 실시간 화소 깊이 정보 생성 단계(S400), 실시간 사용자 반응형 그래픽스 단계(S500), 깊이 정보 기반의 화소 단위의 영상 합성 단계(S600)와 이미지 디스플레이 단계(S700)를 포함하여 구성된다.Animation-making 3D database that stores materials on the subject set by the content composition plan, camera information for projecting 3D objects onto a 2D plane image, and camera position and direction information in a virtual 3D world. And a 3D database for generating depth information of the animation storing information including a 3D object shape, and a user graphics and an image synthesizing apparatus. Animation content adjustment step (S300), real-time pixel depth information generation step (S400), real-time user-responsive graphics step (S500), image synthesis step (S600) and image display step (S700) based on depth information It is configured to include.

합성을 위한 애니메이션 컨텐츠 조정 단계(S100)는 애니메이션의 각 신(Scene)의 사용자 반응형 그래픽스가 사용될 부분에 컨텐츠 구성 계획에 의한 표현(Description)정보를 설정하는 단계이다.An animation content adjustment step (S100) for composition is a step of setting description information by a content composition plan in a portion where user-responsive graphics of each scene of the animation is to be used.

상기 애니메이션은 애니메이션 제작용 3D 데이터 베이스에 저장된 컨텐츠 구성 계획에 의하여 설정된 주제에 대한 소재들로 제작된다.The animation is produced from materials on a subject set by a content organization plan stored in a 3D database for animation production.

상기 표현 정보는 애니메이션의 구간 부분(Time, Duration)에서 어떤 종류의 반응형 그래픽스(Graphics Algorithm)가 어떻게 설정(Configuration)되어야 하는가에 대한 정보와 종료 조건(Terminate Condition)에 대한 정보를 포함하는 정보로 합성처리가 가능한 부분에 대한 설정 정보이다.The expression information is information including information on what kind of graphics algorithm should be configured in the section (Time, Duration) of the animation and information on the termination condition. Setting information on the parts that can be synthesized.

실시간 화소 깊이 정보 생성 단계(S200)는 미리 설정된 조건에 의해서 사용자 반응형 그래픽스가 수행되면 애니메이션의 깊이 정보 생성용 3D 데이터 베이스에서 제공하는 정보를 이용하여 애니메이션과 같은 실시간 렌더링용 카메라 설정을 구성하고, 구성된 실시간 렌더링용 카메라 설정에 따라서, 애니메이션의 깊이정보 생성용 3D 데이터베이스에서 제공하는 3차원 객체 형상으로 실시간 렌더링을 수행하여 애니메이션의 한 영상 프레임의 깊이 영상을 생성하는 단계이다.In the real-time pixel depth information generation step (S200), when user-responsive graphics is performed under a preset condition, a camera setting for real-time rendering such as animation is configured using information provided from a 3D database for generating depth information of an animation. According to the configured real-time rendering camera settings, a step of generating a depth image of an image frame of an animation by performing a real-time rendering in the shape of a three-dimensional object provided by the 3D database for generating depth information of the animation.

상기 애니메이션의 깊이 정보 생성용 3D 데이터베이스는 사용자 반응형 그래픽스와의 합성을 위한 정보들이 저장되는 데이터베이스로 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보 및 3차원 객체 형상를 포함하는 정보를 저장된다.The 3D database for generating depth information of the animation is a database that stores information for compositing with user responsive graphics, camera information capable of projecting a 3D object to a 2D plane image, and a camera of a virtual 3D world. Information including position, direction information, and three-dimensional object shape is stored.

상기 실시간 렌더링용 카메라 설정을 구성시 애니메이션의 깊이 정보 생성용 3D 데이터베이스가 제공하는 정보는 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보를 포함한다.The information provided by the 3D database for generating depth information of the animation when configuring the camera settings for real-time rendering includes camera information for projecting a 3D object onto a 2D plane image, and the position and orientation of the camera in a virtual 3D world. Contains information.

실시간 사용자 반응형 그래픽스 단계(S300)는 사용자 입력에 맞는 영상 및 영상 깊이 화소를 생성하는 단계로 사용자 입력에 반응하는 그래픽스 알고리즘과 필요 파라메터들이 선택되면, 애니메이션의 깊이정보 생성용 3D 데이터 베이스 에서 제공하는 애니메이션 상에서의 카메라의 이동을 가지고, 실시간 그래픽스의 카메라 시점을 설정한다. The real-time user responsive graphics step (S300) is a step of generating an image and an image depth pixel corresponding to a user input. When a graphics algorithm and a necessary parameter are selected in response to the user input, a 3D database for generating depth information of an animation is provided. With camera movement on the animation, set the camera viewpoint for real-time graphics.

깊이 정보 기반의 화소 단위의 영상 합성 단계(S400)는 상기 실시간 사용자 반응형 그래픽스 단계(S300)에서 설정된 카메라 시점에 따라 그 시점에 적합한 깊이 영상을 상기 실시간 화소 깊이 정보 생성 단계(S200)에서 생성된 깊이 영상에서 검색하여 합성을 위한 애니메이션 컨텐츠 조정 단계(S100)에서 조정된 영상에 프레임단위로 합성하는 단계이다.In the image synthesis step of the pixel unit based on the depth information (S400), a depth image suitable for the viewpoint according to the camera viewpoint set in the real-time user responsive graphics stage (S300) is generated in the real-time pixel depth information generation step (S200). In operation S100, the content is searched in the depth image to be synthesized in units of frames.

이미지 디스플레이 단계(S500)는 상기 깊이 정보 기반의 화소 단위의 영상 합성 단계(S400)에서 합성된 영상을 사용자에게 제공하는 단계이다.The image display step S500 is a step of providing an image synthesized in the image synthesis step S400 of the pixel unit based on the depth information to the user.

이상으로 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. You will understand that. Accordingly, the embodiments described above are exemplary in all respects and not restrictive.

상기한 바와 같은 본 발명에 따른 사용자 반응형 실시간 그래픽스의 영상 합성 방법은 애니메이션의 현재 제시될 프레임에 대한 화소 깊이 정보를 그래픽 프로세서 유닛을 이용하여 생성하고, 이를 이용하여 사용자 반응형의 실시간 그래픽스를 애니메이션과 매 프레임마다 합성함으로써 애니메이션과 사용자 반응형 그래픽스가 동일한 3차원 시공간 상에 공존할 수 있는 효과가 있다.As described above, the method of synthesizing the user-responsive real-time graphics according to the present invention generates pixel depth information on a frame to be currently presented using the graphic processor unit, and uses the graphic processor unit to animate the user-responsive real-time graphics. By synthesizing every frame with each other, animation and user responsive graphics can coexist in the same three-dimensional space-time.

Claims (3)

컨텐츠 구성 계획에 의하여 설정된 주제에 대한 소재들이 저장되는 애니메이션 제작용 3D 데이터 베이스와, 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보 및 3차원 객체 형상를 포함하는 정보를 저장되는 상기 애니메이션의 깊이 정보 생성용 3D 데이터베이스와 사용자 그래픽스와 영상 합성부로 구성된 시스템에 있어서 사용자 반응형 실시간 그래픽스의 영상 합성 방법은,Animation-making 3D database that stores materials on the subject set by the content composition plan, camera information for projecting 3D objects onto a 2D plane image, and camera position and direction information in a virtual 3D world. And a 3D database for generating depth information of the animation storing information including a 3D object shape, a user graphics, and an image synthesizer. 애니메이션의 각 신(Scene)의 사용자 반응형 그래픽스가 사용될 부분에 합성처리가 가능한 부분에 대한 설정 정보인 표현(Description) 정보를 설정하는 합성을 위한 애니메이션 컨텐츠 조정 단계와,An animation content adjustment step for compositing for setting description information, which is setting information for a part that can be synthesized, in a part to which user-responsive graphics of each scene of the animation is to be used; 미리 설정된 조건에 의해서 사용자 반응형 그래픽스가 수행되면 애니메이션의 깊이 정보 생성용 3D 데이터 베이스에서 제공하는 카메라 설정 정보와 3차원 객체 형상으로 실시간 렌더링을 수행하여 애니메이션의 한 영상 프레임의 깊이 영상을 생성하는 실시간 화소 깊이 정보 생성 단계와,When user responsive graphics is performed under a preset condition, real-time rendering of a depth of one frame of animation is performed by performing real-time rendering with camera setting information and 3D object shape provided in the 3D database for generating depth information of the animation. Generating pixel depth information; 사용자 입력에 맞는 영상 및 영상 깊이 화소를 생성하는 실시간 사용자 반응형 그래픽스 단계와,A real-time user responsive graphics step for generating an image and image depth pixel in accordance with user input; 상기 실시간 사용자 반응형 그래픽스 단계에서 설정된 카메라 시점에 따라 그 시점에 적합한 깊이 영상을 상기 실시간 화소 깊이 정보 생성 단계에서 생성된 깊이 영상에서 검색하여 합성을 위한 애니메이션 컨텐츠 조정 단계에서 조정된 영 상에 프레임단위로 합성하는 깊이 정보 기반의 화소 단위의 영상 합성 단계, 및;According to the camera viewpoint set in the real-time user responsive graphics step, the frame image is adjusted in the animation content adjustment step for the synthesis by searching the depth image generated in the real-time pixel depth information generation step. An image synthesis step of pixel units based on depth information to be synthesized with; 상기 깊이 정보 기반의 화소 단위의 영상 합성 단계에서 합성된 영상을 사용자에게 제공하는 이미지 디스플레이 단계를 포함하여 구성되는 것을 특징으로 하는 사용자 반응형 실시간 그래픽스의 영상 합성 방법.And displaying an image synthesized in the depth-based pixel-based image synthesis step to a user. 제1항에 있어서,The method of claim 1, 상기 애니메이션 컨텐츠 조정 단계에서 설정되는 표현 정보는 애니메이션의 구간 부분(Time, Duration)에서 어떤 종류의 반응형 그래픽스(Graphics Algorithm)가 어떻게 설정(Configuration)되어야 하는가에 대한 정보와 종료 조건(Terminate Condition)에 대한 정보를 포함하는 것을 특징으로 하는 사용자 반응형 실시간 그래픽스의 영상 합성 방법.The expression information set in the animation content adjustment step includes information on how to set up what kind of graphics algorithm in the animation section (Time, Duration) and Terminate Condition. Method for synthesizing the user-responsive real-time graphics, characterized in that it comprises information. 제1항에 있어서,The method of claim 1, 상기 실시간 화소 깊이 정보 생성 단계에서 애니메이션의 깊이 정보 생성용 3D 데이터 베이스가 제공하는 카메라 설정 정보는 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보를 포함하는 것을 특징으로 하는 사용자 반응형 실시간 그래픽스의 영상 합성 방법.The camera setting information provided by the 3D database for generating depth information of the animation in the real-time pixel depth information generation step includes camera information capable of projecting a 3D object onto a 2D plane image and a camera position in a virtual 3D world. And directional information.
KR1020060039357A 2006-05-02 2006-05-02 Composition method of user action pattern realtime graphics and high quality animation KR100759364B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060039357A KR100759364B1 (en) 2006-05-02 2006-05-02 Composition method of user action pattern realtime graphics and high quality animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060039357A KR100759364B1 (en) 2006-05-02 2006-05-02 Composition method of user action pattern realtime graphics and high quality animation

Publications (1)

Publication Number Publication Date
KR100759364B1 true KR100759364B1 (en) 2007-09-19

Family

ID=38738064

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060039357A KR100759364B1 (en) 2006-05-02 2006-05-02 Composition method of user action pattern realtime graphics and high quality animation

Country Status (1)

Country Link
KR (1) KR100759364B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140131512A (en) * 2012-02-13 2014-11-13 톰슨 라이센싱 Method and device for inserting a 3d graphics animation in a 3d stereo content
KR20190109054A (en) 2018-03-16 2019-09-25 박귀현 Method and apparatus for creating animation in video
KR20190109055A (en) 2018-03-16 2019-09-25 박귀현 Method and apparatus for generating graphics in video using speech characterization
WO2020186934A1 (en) * 2019-03-20 2020-09-24 北京字节跳动网络技术有限公司 Method, apparatus, and electronic device for generating animation containing dynamic background

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990036168A (en) * 1996-06-05 1999-05-25 이리마지리 쇼우이치로 Image processing apparatus, image processing method, game apparatus and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990036168A (en) * 1996-06-05 1999-05-25 이리마지리 쇼우이치로 Image processing apparatus, image processing method, game apparatus and recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140131512A (en) * 2012-02-13 2014-11-13 톰슨 라이센싱 Method and device for inserting a 3d graphics animation in a 3d stereo content
KR102049942B1 (en) * 2012-02-13 2019-11-28 인터디지탈 매디슨 페이튼트 홀딩스 Method and device for inserting a 3d graphics animation in a 3d stereo content
KR20190109054A (en) 2018-03-16 2019-09-25 박귀현 Method and apparatus for creating animation in video
KR20190109055A (en) 2018-03-16 2019-09-25 박귀현 Method and apparatus for generating graphics in video using speech characterization
KR102044541B1 (en) 2018-03-16 2019-11-13 박귀현 Method and apparatus for generating graphics in video using speech characterization
KR102044540B1 (en) 2018-03-16 2019-11-13 박귀현 Method and apparatus for creating animation in video
WO2020186934A1 (en) * 2019-03-20 2020-09-24 北京字节跳动网络技术有限公司 Method, apparatus, and electronic device for generating animation containing dynamic background

Similar Documents

Publication Publication Date Title
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US7262767B2 (en) Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
EP1141893B1 (en) System and method for creating 3d models from 2d sequential image data
WO2010024486A1 (en) 3d hair style simulation system and method using augmented reality
US7277571B2 (en) Effective image processing, apparatus and method in virtual three-dimensional space
EP0969418A2 (en) Image processing apparatus for displaying three-dimensional image
JP4285422B2 (en) Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium
Inamoto et al. Virtual viewpoint replay for a soccer match by view interpolation from multiple cameras
KR100795552B1 (en) 3D Virtual Studio Using VIDEO Texturing
JP2006092156A (en) Program, information storage medium and image generation device
US20070252833A1 (en) Information processing method and information processing apparatus
WO2002013144A1 (en) 3d facial modeling system and modeling method
JP2012079291A (en) Program, information storage medium and image generation system
KR100759364B1 (en) Composition method of user action pattern realtime graphics and high quality animation
KR20200024105A (en) Computer graphics synthesis system and method thereof
CN113132707A (en) Method and system for dynamically superposing character and virtual decoration environment in real time
JP3724117B2 (en) Image generating apparatus and image generating method
JP3538263B2 (en) Image generation method
JP2006186795A (en) Depth signal generating apparatus, depth signal generating program, pseudo stereoscopic image generating apparatus, and pseudo stereoscopic image generating program
JP2020064592A (en) Image generator, image generation system, image generation method, and program
JP2012221092A (en) Image processing system, image processing method and program
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP2005258537A (en) Three-dimensional model generating method and device and program and recording medium
JP7394566B2 (en) Image processing device, image processing method, and image processing program
JP3230481B2 (en) Television image synthesis method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110901

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20120824

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee