KR100759364B1 - Composition method of user action pattern realtime graphics and high quality animation - Google Patents
Composition method of user action pattern realtime graphics and high quality animation Download PDFInfo
- Publication number
- KR100759364B1 KR100759364B1 KR1020060039357A KR20060039357A KR100759364B1 KR 100759364 B1 KR100759364 B1 KR 100759364B1 KR 1020060039357 A KR1020060039357 A KR 1020060039357A KR 20060039357 A KR20060039357 A KR 20060039357A KR 100759364 B1 KR100759364 B1 KR 100759364B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- animation
- image
- user
- graphics
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
도1은 종래의 시간축상에서의 신 기반 분할 합성 방법의 상태도이다.1 is a state diagram of a conventional scene-based split synthesis method on a time axis.
도2는 종래의 오버레이 방법의 상태도이다.2 is a state diagram of a conventional overlay method.
도3은 본 발명에 따른 사용자 반응형 실시간 그래픽스와 고품질 애니메이션 영상 합성 방법의 순서도이다.3 is a flowchart of a method for synthesizing user responsive real time graphics and a high quality animated image according to the present invention.
본 발명은 3차원 영상의 사용자 반응형 실시간 그래픽스 합성 방법에 관한 것으로서, 애니메이션 애니메이션의 3차원 형상 정보를 가지고, 화소에 대한 뎁스를 구성하여, 매 프레임마다, 화소의 뎁스를 계산하여 애니메이션의 한 프레임 위에 화소 깊이 정보를 생성하고, 사용자 반응형의 실시간 그래픽스를 애니메이션과 동일한 시공간 상에서 올바르게 합성하는 사용자 반응형 실시간 그래픽스 합성 방법에 관한 것이다.The present invention relates to a method for synthesizing a user-responsive real-time graphics of a three-dimensional image, comprising three-dimensional shape information of an animation animation, configuring a depth for a pixel, and calculating the depth of the pixel every frame to calculate one frame of the animation. The present invention relates to a method for generating a user-responsive real-time graphics that generates pixel depth information and correctly synthesizes user-responsive real-time graphics in the same space-time as the animation.
사용자 반응형 실시간 그래픽스는 애니메이션을 시청하던 사용자의 조작에 따 라 다른 각도에서 보는 영상으로 변경하는 것으로 종래의 사용자 반응형 실시간 그래픽스 합성 방법으로는 시간축 상에서의 신(Scene)기반의 분할 합성 방법과 오버레이(Overlay) 방법이 있었다.User responsive real-time graphics are changed to the image viewed from different angles according to the operation of the user who was watching the animation. Conventional user responsive real-time graphics synthesis method is a scene-based segmentation synthesis method and overlay on the time axis. (Overlay) There was a way.
시간축상에서의 신(Scene)기반의 분할 합성 방법은 도1에 도시된바와 같이 사용자 반응형 그래픽스와 애니메이션을 Scene기반으로 시간축상에서 분할하여 원본 애니메이션과 사용자 반응형 그래픽스에 의하여 변형된 부분을 교차로 재생하는 방법이므로 같은 시간에서 두개의 영상을 제시할 수 없어 정지 영상은 애니메이션이나 사용자 반응형 그래픽스 부분 중 하나만 표시하게 되는 단점이 있었다.Scene-based segmentation synthesis method based on the time axis as shown in Figure 1 to divide the user-responsive graphics and animation on the time-base based on the scene to reproduce the parts transformed by the original animation and the user-responsive graphics in the intersection. Because of the method, two images cannot be presented at the same time, and thus still images display only one of animation or user responsive graphics.
그리고, 오버레이(Overlay) 방법은 도2에 도시된바와 같이 원본 애니메이션과는 전혀 별도로 사용자 반응형 그래픽스에 의하여 변형된 부분를 겹쳐서 두 개의 이미지를 겹쳐서 합성하는 방법이므로 두개의 영상을 같은 시간에 제시할 수 있으나, 같은 3차원 공간상을 공유할 수 없는 단점이 있었다.In addition, since the overlay method is a method in which two images are overlapped and synthesized by overlapping parts deformed by user-responsive graphics as shown in FIG. 2, completely separate from the original animation, two images may be presented at the same time. However, there is a disadvantage in that they cannot share the same three-dimensional space.
본 발명은 상기한 바와 같은 종래 기술의 불편함을 해결하기 위하여 안출된 것으로서,The present invention has been made to solve the inconvenience of the prior art as described above,
본 발명의 목적은 애니메이션의 현재 제시될 프레임에 대한 화소 깊이 정보를 그래픽 프로세서 유닛을 이용하여 생성하고, 이를 이용하여 사용자 반응형의 실시간 그래픽스를 애니메이션과 매 프레임마다 합성하는 3차원 영상의 사용자 반응형 실시간 그래픽스를 합성 방법을 제공하는 것이다.An object of the present invention is to generate pixel depth information of a frame to be presently presented in an animation using a graphic processor unit, and to use this to synthesize a user-responsive real-time graphics for each frame and a user-responsive 3D image. It is to provide a method for compositing real-time graphics.
상기 목적을 달성하기 위하여 본 발명에 따른 사용자 반응형 실시간 그래픽스의 영상 합성 방법은 컨텐츠 구성 계획에 의하여 설정된 주제에 대한 소재들이 저장되는 애니메이션 제작용 3D 데이터 베이스와, 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보 및 3차원 객체 형상를 포함하는 정보를 저장되는 상기 애니메이션의 깊이 정보 생성용 3D 데이터베이스와 사용자 그래픽스와 영상 합성부로 구성된 시스템에 있어서 애니메이션의 각 신(Scene)의 사용자 반응형 그래픽스가 사용될 부분에 합성처리가 가능한 부분에 대한 설정 정보인 표현(Description) 정보를 설정하는 합성을 위한 애니메이션 컨텐츠 조정 단계와, 미리 설정된 조건에 의해서 사용자 반응형 그래픽스가 수행되면 애니메이션의 깊이 정보 생성용 3D 데이터 베이스에서 제공하는 카메라 설정 정보와 3차원 객체 형상으로 실시간 렌더링을 수행하여 애니메이션의 한 영상 프레임의 깊이 영상을 생성하는 실시간 화소 깊이 정보 생성 단계와, 사용자 입력에 맞는 영상 및 영상 깊이 화소를 생성하는 실시간 사용자 반응형 그래픽스 단계와, 상기 실시간 사용자 반응형 그래픽스 단계에서 설정된 카메라 시점에 따라 그 시점에 적합한 깊이 영상을 상기 실시간 화소 깊이 정보 생성 단계에서 생성된 깊이 영상에서 검색하여 합성을 위한 애니메이션 컨텐츠 조정 단계에서 조정된 영상에 프레임단위로 합성하는 깊이 정보 기반의 화소 단위의 영상 합성 단계, 및; 상기 깊이 정보 기반의 화소 단위의 영상 합성 단계에서 합성된 영상을 사용자에게 제공하는 이미지 디스플레이 단계를 포함하여 구성되는 것을 특징으로 한다.In order to achieve the above object, a method of synthesizing a user-responsive real-time graphics according to the present invention comprises a 3D database for animation production in which materials for a subject set by a content composition plan are stored, and a 3D object in a 2D planar image. A system comprising a 3D database for generating depth information of the animation, which includes information about projectable cameras, information about a camera's position, direction information, and 3D object shape in a virtual 3D world, and user graphics and an image synthesizer. The animation content adjustment step for composing to set the description information which is the setting information for the part that can be synthesized to the part where the user-responsive graphics of each scene of the animation is to be used, and the user according to a preset condition When responsive graphics is performed Real-time pixel depth information generation step of generating depth image of an image frame of animation by performing real-time rendering with camera setting information and 3D object shape provided in 3D database for generating depth information of animation, A real-time user responsive graphics step of generating an image and an image depth pixel, and a depth image suitable for the view point according to the camera viewpoint set in the real-time user responsive graphics step is searched in the depth image generated in the real-time pixel depth information generation step A step of synthesizing an image based on depth information, which is synthesized on a frame-by-frame basis to an image adjusted in an animation content adjusting step for synthesizing; And an image display step of providing the user with the synthesized image in the image synthesis step of the pixel unit based on the depth information.
본 발명에 따른 사용자 반응형 실시간 그래픽스의 영상 합성 방법의 상기 애니메이션 컨텐츠 조정 단계에서 설정되는 표현 정보는 애니메이션의 구간 부분(Time, Duration)에서 어떤 종류의 반응형 그래픽스(Graphics Algorithm)가 어떻게 설정(Configuration)되어야 하는가에 대한 정보와 종료 조건(Terminate Condition)에 대한 정보를 포함하는 것을 특징으로 한다.The expression information set in the animation content adjustment step of the method for synthesizing the video of the user responsive real-time graphics according to the present invention is how some type of reactive graphics (Graphics Algorithm) is set in the animation section (Time, Duration). Information on whether or not to be terminated and information on Terminate Condition.
본 발명에 따른 사용자 반응형 실시간 그래픽스의 영상 합성 방법의 상기 실시간 화소 깊이 정보 생성 단계에서 애니메이션의 깊이 정보 생성용 3D 데이터 베이스가 제공하는 카메라 설정 정보는 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보를 포함하는 것을 특징으로 한다.The camera setting information provided by the 3D database for generating depth information of the animation in the real-time pixel depth information generation step of the method for synthesizing the user-responsive real-time graphics according to the present invention may project a 3D object onto a 2D plane image. Camera information and position and orientation information of the camera in the virtual three-dimensional world.
이하, 본 발명의 사용자 반응형 실시간 그래픽스의 영상 합성 방법을 보다 상세하게 설명하면 다음과 같다.Hereinafter, the image synthesis method of the user-responsive real-time graphics of the present invention will be described in detail.
도3은 본 발명에 따른 사용자 반응형 실시간 그래픽스와 고품질 애니메이션 영상 합성 방법의 상태도이다.3 is a state diagram of a method for synthesizing user-responsive real-time graphics and a high quality animation image according to the present invention.
컨텐츠 구성 계획에 의하여 설정된 주제에 대한 소재들이 저장되는 애니메이션 제작용 3D 데이터 베이스와, 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보 및 3차원 객체 형상를 포함하는 정보를 저장되는 상기 애니메이션의 깊이 정보 생성용 3D 데이터베이스와 사용자 그래픽스와 영상 합성부로 구성된 시스템에 있어서 사용자 반응형 실시간 그래픽스의 영상 합성 방법은 도3에 도시된바와 같이 합성을 위한 애니메이션 컨텐츠 조정 단계(S300), 실시간 화소 깊이 정보 생성 단계(S400), 실시간 사용자 반응형 그래픽스 단계(S500), 깊이 정보 기반의 화소 단위의 영상 합성 단계(S600)와 이미지 디스플레이 단계(S700)를 포함하여 구성된다.Animation-making 3D database that stores materials on the subject set by the content composition plan, camera information for projecting 3D objects onto a 2D plane image, and camera position and direction information in a virtual 3D world. And a 3D database for generating depth information of the animation storing information including a 3D object shape, and a user graphics and an image synthesizing apparatus. Animation content adjustment step (S300), real-time pixel depth information generation step (S400), real-time user-responsive graphics step (S500), image synthesis step (S600) and image display step (S700) based on depth information It is configured to include.
합성을 위한 애니메이션 컨텐츠 조정 단계(S100)는 애니메이션의 각 신(Scene)의 사용자 반응형 그래픽스가 사용될 부분에 컨텐츠 구성 계획에 의한 표현(Description)정보를 설정하는 단계이다.An animation content adjustment step (S100) for composition is a step of setting description information by a content composition plan in a portion where user-responsive graphics of each scene of the animation is to be used.
상기 애니메이션은 애니메이션 제작용 3D 데이터 베이스에 저장된 컨텐츠 구성 계획에 의하여 설정된 주제에 대한 소재들로 제작된다.The animation is produced from materials on a subject set by a content organization plan stored in a 3D database for animation production.
상기 표현 정보는 애니메이션의 구간 부분(Time, Duration)에서 어떤 종류의 반응형 그래픽스(Graphics Algorithm)가 어떻게 설정(Configuration)되어야 하는가에 대한 정보와 종료 조건(Terminate Condition)에 대한 정보를 포함하는 정보로 합성처리가 가능한 부분에 대한 설정 정보이다.The expression information is information including information on what kind of graphics algorithm should be configured in the section (Time, Duration) of the animation and information on the termination condition. Setting information on the parts that can be synthesized.
실시간 화소 깊이 정보 생성 단계(S200)는 미리 설정된 조건에 의해서 사용자 반응형 그래픽스가 수행되면 애니메이션의 깊이 정보 생성용 3D 데이터 베이스에서 제공하는 정보를 이용하여 애니메이션과 같은 실시간 렌더링용 카메라 설정을 구성하고, 구성된 실시간 렌더링용 카메라 설정에 따라서, 애니메이션의 깊이정보 생성용 3D 데이터베이스에서 제공하는 3차원 객체 형상으로 실시간 렌더링을 수행하여 애니메이션의 한 영상 프레임의 깊이 영상을 생성하는 단계이다.In the real-time pixel depth information generation step (S200), when user-responsive graphics is performed under a preset condition, a camera setting for real-time rendering such as animation is configured using information provided from a 3D database for generating depth information of an animation. According to the configured real-time rendering camera settings, a step of generating a depth image of an image frame of an animation by performing a real-time rendering in the shape of a three-dimensional object provided by the 3D database for generating depth information of the animation.
상기 애니메이션의 깊이 정보 생성용 3D 데이터베이스는 사용자 반응형 그래픽스와의 합성을 위한 정보들이 저장되는 데이터베이스로 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보 및 3차원 객체 형상를 포함하는 정보를 저장된다.The 3D database for generating depth information of the animation is a database that stores information for compositing with user responsive graphics, camera information capable of projecting a 3D object to a 2D plane image, and a camera of a virtual 3D world. Information including position, direction information, and three-dimensional object shape is stored.
상기 실시간 렌더링용 카메라 설정을 구성시 애니메이션의 깊이 정보 생성용 3D 데이터베이스가 제공하는 정보는 3차원 오브젝트를 2차원 평면 영상에 프로젝션할 수 있는 카메라 정보와, 가상 3차원 세계에서의 카메라의 위치, 방향 정보를 포함한다.The information provided by the 3D database for generating depth information of the animation when configuring the camera settings for real-time rendering includes camera information for projecting a 3D object onto a 2D plane image, and the position and orientation of the camera in a virtual 3D world. Contains information.
실시간 사용자 반응형 그래픽스 단계(S300)는 사용자 입력에 맞는 영상 및 영상 깊이 화소를 생성하는 단계로 사용자 입력에 반응하는 그래픽스 알고리즘과 필요 파라메터들이 선택되면, 애니메이션의 깊이정보 생성용 3D 데이터 베이스 에서 제공하는 애니메이션 상에서의 카메라의 이동을 가지고, 실시간 그래픽스의 카메라 시점을 설정한다. The real-time user responsive graphics step (S300) is a step of generating an image and an image depth pixel corresponding to a user input. When a graphics algorithm and a necessary parameter are selected in response to the user input, a 3D database for generating depth information of an animation is provided. With camera movement on the animation, set the camera viewpoint for real-time graphics.
깊이 정보 기반의 화소 단위의 영상 합성 단계(S400)는 상기 실시간 사용자 반응형 그래픽스 단계(S300)에서 설정된 카메라 시점에 따라 그 시점에 적합한 깊이 영상을 상기 실시간 화소 깊이 정보 생성 단계(S200)에서 생성된 깊이 영상에서 검색하여 합성을 위한 애니메이션 컨텐츠 조정 단계(S100)에서 조정된 영상에 프레임단위로 합성하는 단계이다.In the image synthesis step of the pixel unit based on the depth information (S400), a depth image suitable for the viewpoint according to the camera viewpoint set in the real-time user responsive graphics stage (S300) is generated in the real-time pixel depth information generation step (S200). In operation S100, the content is searched in the depth image to be synthesized in units of frames.
이미지 디스플레이 단계(S500)는 상기 깊이 정보 기반의 화소 단위의 영상 합성 단계(S400)에서 합성된 영상을 사용자에게 제공하는 단계이다.The image display step S500 is a step of providing an image synthesized in the image synthesis step S400 of the pixel unit based on the depth information to the user.
이상으로 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. You will understand that. Accordingly, the embodiments described above are exemplary in all respects and not restrictive.
상기한 바와 같은 본 발명에 따른 사용자 반응형 실시간 그래픽스의 영상 합성 방법은 애니메이션의 현재 제시될 프레임에 대한 화소 깊이 정보를 그래픽 프로세서 유닛을 이용하여 생성하고, 이를 이용하여 사용자 반응형의 실시간 그래픽스를 애니메이션과 매 프레임마다 합성함으로써 애니메이션과 사용자 반응형 그래픽스가 동일한 3차원 시공간 상에 공존할 수 있는 효과가 있다.As described above, the method of synthesizing the user-responsive real-time graphics according to the present invention generates pixel depth information on a frame to be currently presented using the graphic processor unit, and uses the graphic processor unit to animate the user-responsive real-time graphics. By synthesizing every frame with each other, animation and user responsive graphics can coexist in the same three-dimensional space-time.
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060039357A KR100759364B1 (en) | 2006-05-02 | 2006-05-02 | Composition method of user action pattern realtime graphics and high quality animation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060039357A KR100759364B1 (en) | 2006-05-02 | 2006-05-02 | Composition method of user action pattern realtime graphics and high quality animation |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100759364B1 true KR100759364B1 (en) | 2007-09-19 |
Family
ID=38738064
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060039357A KR100759364B1 (en) | 2006-05-02 | 2006-05-02 | Composition method of user action pattern realtime graphics and high quality animation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100759364B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140131512A (en) * | 2012-02-13 | 2014-11-13 | 톰슨 라이센싱 | Method and device for inserting a 3d graphics animation in a 3d stereo content |
KR20190109054A (en) | 2018-03-16 | 2019-09-25 | 박귀현 | Method and apparatus for creating animation in video |
KR20190109055A (en) | 2018-03-16 | 2019-09-25 | 박귀현 | Method and apparatus for generating graphics in video using speech characterization |
WO2020186934A1 (en) * | 2019-03-20 | 2020-09-24 | 北京字节跳动网络技术有限公司 | Method, apparatus, and electronic device for generating animation containing dynamic background |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19990036168A (en) * | 1996-06-05 | 1999-05-25 | 이리마지리 쇼우이치로 | Image processing apparatus, image processing method, game apparatus and recording medium |
-
2006
- 2006-05-02 KR KR1020060039357A patent/KR100759364B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19990036168A (en) * | 1996-06-05 | 1999-05-25 | 이리마지리 쇼우이치로 | Image processing apparatus, image processing method, game apparatus and recording medium |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140131512A (en) * | 2012-02-13 | 2014-11-13 | 톰슨 라이센싱 | Method and device for inserting a 3d graphics animation in a 3d stereo content |
KR102049942B1 (en) * | 2012-02-13 | 2019-11-28 | 인터디지탈 매디슨 페이튼트 홀딩스 | Method and device for inserting a 3d graphics animation in a 3d stereo content |
KR20190109054A (en) | 2018-03-16 | 2019-09-25 | 박귀현 | Method and apparatus for creating animation in video |
KR20190109055A (en) | 2018-03-16 | 2019-09-25 | 박귀현 | Method and apparatus for generating graphics in video using speech characterization |
KR102044541B1 (en) | 2018-03-16 | 2019-11-13 | 박귀현 | Method and apparatus for generating graphics in video using speech characterization |
KR102044540B1 (en) | 2018-03-16 | 2019-11-13 | 박귀현 | Method and apparatus for creating animation in video |
WO2020186934A1 (en) * | 2019-03-20 | 2020-09-24 | 北京字节跳动网络技术有限公司 | Method, apparatus, and electronic device for generating animation containing dynamic background |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10096157B2 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
US7262767B2 (en) | Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system | |
EP1141893B1 (en) | System and method for creating 3d models from 2d sequential image data | |
WO2010024486A1 (en) | 3d hair style simulation system and method using augmented reality | |
US7277571B2 (en) | Effective image processing, apparatus and method in virtual three-dimensional space | |
EP0969418A2 (en) | Image processing apparatus for displaying three-dimensional image | |
JP4285422B2 (en) | Moving image generation system, moving image generation apparatus, moving image generation method, program, and recording medium | |
Inamoto et al. | Virtual viewpoint replay for a soccer match by view interpolation from multiple cameras | |
KR100795552B1 (en) | 3D Virtual Studio Using VIDEO Texturing | |
JP2006092156A (en) | Program, information storage medium and image generation device | |
US20070252833A1 (en) | Information processing method and information processing apparatus | |
WO2002013144A1 (en) | 3d facial modeling system and modeling method | |
JP2012079291A (en) | Program, information storage medium and image generation system | |
KR100759364B1 (en) | Composition method of user action pattern realtime graphics and high quality animation | |
KR20200024105A (en) | Computer graphics synthesis system and method thereof | |
CN113132707A (en) | Method and system for dynamically superposing character and virtual decoration environment in real time | |
JP3724117B2 (en) | Image generating apparatus and image generating method | |
JP3538263B2 (en) | Image generation method | |
JP2006186795A (en) | Depth signal generating apparatus, depth signal generating program, pseudo stereoscopic image generating apparatus, and pseudo stereoscopic image generating program | |
JP2020064592A (en) | Image generator, image generation system, image generation method, and program | |
JP2012221092A (en) | Image processing system, image processing method and program | |
JP2005063041A (en) | Three-dimensional modeling apparatus, method, and program | |
JP2005258537A (en) | Three-dimensional model generating method and device and program and recording medium | |
JP7394566B2 (en) | Image processing device, image processing method, and image processing program | |
JP3230481B2 (en) | Television image synthesis method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20110901 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20120824 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |