KR100893855B1 - Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application - Google Patents

Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application Download PDF

Info

Publication number
KR100893855B1
KR100893855B1 KR1020020016502A KR20020016502A KR100893855B1 KR 100893855 B1 KR100893855 B1 KR 100893855B1 KR 1020020016502 A KR1020020016502 A KR 1020020016502A KR 20020016502 A KR20020016502 A KR 20020016502A KR 100893855 B1 KR100893855 B1 KR 100893855B1
Authority
KR
South Korea
Prior art keywords
application
texture
rendered
single rectangle
dimensional
Prior art date
Application number
KR1020020016502A
Other languages
Korean (ko)
Other versions
KR20030077680A (en
Inventor
두드니코프세르게이
고렐릭세르게이
체르넨코발레리
페도로프알렉산더
카클릿안톤
쿠즈네츠소프에브게니
포포프알렉산더
Original Assignee
주식회사 엘지이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지이아이 filed Critical 주식회사 엘지이아이
Priority to KR1020020016502A priority Critical patent/KR100893855B1/en
Publication of KR20030077680A publication Critical patent/KR20030077680A/en
Application granted granted Critical
Publication of KR100893855B1 publication Critical patent/KR100893855B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

공지된 2차원 백그라운드와 결합한 어플리케이션 오브젝트들의 자동 입체적인 풀-패럴랙스 3차원 영상의 시각화를 제공하는 상호 작용의 어플리케이션 엔진에 관한 것이다. 상기 엔진은 어플리케이션 공간 내의 임의의 포지션에서 어플리케이션 오브젝트들의 3D 시각화를 위한 소스 데이터로서 오브젝트 위치(localization)의 키 포인트에 해당하는 제한된 임시 랜더된 텍스쳐 셋트를 사용하는 3D 영상의 랜더링 기술을 기반으로 한다. 상기 3D 시각화는 인테그랄 포토그라피 기술을 기반으로 한다.An interactive application engine providing visualization of an automatic three-dimensional full-parallax three-dimensional image of application objects in combination with a known two-dimensional background. The engine is based on the rendering technique of 3D images using a limited set of temporary rendered textures corresponding to the key points of object localization as source data for 3D visualization of application objects at any position in the application space. The 3D visualization is based on integral photography technology.

3D 시각화, 랜더링3D visualization, rendering

Description

3차원 포그라운드와 2차원 백그라운드 결합 방법 및 3차원 어플리케이션 엔진{Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application}Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application}

도 1은 3D 오브젝트 시각화를 위해 임시 랜더된 투영상 셋트를 사용하는 상호 작용의 어플리케이션 엔진의 기능적 도면1 is a functional diagram of an application engine of interaction using a temporary rendered set of projected images for 3D object visualization.

도 2는 3D 오브젝트 시각화를 위한 임시 랜더된 투영상 셋트의 사용을 위해 설계된 도 1의 랜더링 모듈의 기능적 도면FIG. 2 is a functional diagram of the rendering module of FIG. 1 designed for use of a temporary rendered projected set for 3D object visualization.

본 발명은 일반적으로 어플리케이션 오브젝트의 3차원(Three-dimensional ; 3D) 영상의 시각화를 제공하는 PC(Personal Computer) 기반의 상호 작용의 어플리케이션 엔진 및 상기 어플리케이션 엔진을 갖는 3차원 포그라운드와 2차원 백그라운드 결합 방법에 관한 것이다. 본 발명에서 상기 3D 영상의 시각화는 인테그랄 포토그라피(integral photography) 기술을 기반으로 한다. The present invention generally provides a personal computer (PC) -based interactive application engine that provides visualization of three-dimensional (3D) images of application objects, and a three-dimensional foreground and two-dimensional background combination with the application engine. It is about a method. In the present invention, the visualization of the 3D image is based on an integral photography technique.

통상, 인테그랄 포토그라피는 연속적인 패럴랙스(parallax) 3D 영상을 캡쳐하여 디스플레이하는 광학 기술로 알려져 있다. Integral photography is generally known as an optical technique for capturing and displaying continuous parallax 3D images.                         

상기 기술은 2차원 구형 마이크로 렌즈 어레이(spherical microlens array)(즉, 플라이 아이 렌즈)를 이용하여 3D 영상을 기록/재생하는 것을 기반으로 한다.The technique is based on recording / reproducing 3D images using a two-dimensional spherical microlens array (ie, a fly's eye lens).

기록하는 동안, 수많은 아주 작은 픽쳐들이 각 마이크로 렌즈의 초점면에 나타난다. 각 픽쳐는 등록된 3D 오브젝트의 일부분에 해당하고, 투영상(aspectogram)이라 부르는 그들 픽쳐들의 셋트를 완성한다.During recording, a number of very small pictures appear on the focal plane of each micro lens. Each picture corresponds to a portion of the registered 3D object and completes a set of those pictures called an projectionogram.

재생하는 동안, 투영상은 투영상 캐리어 스크린 상에 디스플레이되고, 최초 오브젝트들의 true-scale 3D 복사본이 나타나도록 각 복구되는 마이크로 영상이 다른 영상과 통합된다. 임의의 통합 디바이스로서, 기록 단계에서 적용된 같은 마이크로 렌즈 어레이가 사용된다.During playback, the projected image is displayed on the projected image carrier screen, and each recovered micro image is integrated with another image so that a true-scale 3D copy of the original objects appears. As any integrated device, the same micro lens array applied in the recording step is used.

Ando et al.은 전형적인 리얼-타임 인테그랄 포토그라피 캡쳐 어플리케이션 및 마이크로 렌즈 어레이에 의해 형성되는 3D 영상의 기록/전송/재생으로 이루어진 영상 시스템을 특허 출원한 바 있다. 다른 방법으로는, Brown이 캐소드 레이 튜브에 대해 상기와 유사한 시스템을 제안하였다. Doudnikou는 리얼 타임 포로젝션 시스템의 형식으로 이 방법을 적용하였다.Ando et al. Have patented an imaging system consisting of recording / transfer / playback of 3D images formed by a typical real-time integral photography capture application and micro lens array. Alternatively, Brown proposed a system similar to the above for cathode ray tubes. Doudnikou applied this method in the form of a real-time projection system.

최근에 3D 인식을 제공하는 대부분의 리얼 타임 어플리케이션들은 3D 영상 시각화에 필요한 데이터의 리얼 타임 컴퓨터 랜더링(rendering)을 기반으로 한다.Recently, most real-time applications that provide 3D recognition are based on real-time computer rendering of the data required for 3D image visualization.

그런 종류의 랜더링은 예를 들면, Visual Papilla Recognition(VISPAR) 시스템에서와 같이 어플리케이션 오브젝트의 리얼 타임 캡쳐의 결과를 컴퓨터 처리를 위한 소스 정보로서 사용하는 것으로 제공될 수 있다.Such kind of rendering may be provided by using the result of real-time capture of an application object as source information for computer processing, for example in a Visual Papilla Recognition (VISPAR) system.

어플리케이션 오브젝트들에 관한 정보 소스로서, 리얼 타임 3D 영상 랜더링 을 위한 특정 목적의 소프트웨어를 사용하여 생성된 그들 가상 모델(예를 들면, 다각형 메쉬(polygonal mesh))이 사용될 수 있다. 그런 기술은 패럴랙스 파노라모그램(panoramogramm)과 같은 Horizontal Parallax Only(HPO) 시스템에 적용된다. As a source of information about application objects, those virtual models (eg, polygonal meshes) created using special purpose software for real-time 3D image rendering can be used. Such techniques apply to Horizontal Parallax Only (HPO) systems such as parallax panogramograms.

인테그랄 포토그라피와 같은 풀 패럴랙스(Full parallax) 시스템을 실현하려면, 3D 영상 시각화를 위해 요구되는 데이터의 온-라인 랜더링을 제공하기 위해 아주 많은 계산 레벨이 요구된다.To realize a full parallax system such as integral photography, a great deal of computational level is required to provide on-line rendering of the data required for 3D image visualization.

그런 어려움을 피하려면, 임시 랜더링된 데이터(preliminary rendered data)가 3D 영상의 시각화를 위해 사용되어야 한다. To avoid such difficulties, preliminary rendered data should be used for the visualization of 3D images.

그런 사실 때문에, 임시 랜더된 데이터에 해당하는 3D 영상만이 재생되고, 그 결과 애니메이트된 영화와 같은 어플리케이션을 얻을 수 있다(Nakajima et al.).Because of that fact, only 3D images corresponding to the temporary rendered data can be played back, resulting in an animated movie application (Nakajima et al.).

본 발명의 목적은 3D 오브젝트의 투영상이라 명명된 마이크로 영상들의 임시 랜더된 셋트들을 어플리케이션의 로직에 종속되는 임의의 포지션으로 국한되는 어플리케이션 오브젝트들의 시각화를 위한 소스 데이터로 사용하여 3D 영상을 시각화하는 어플리케이션 엔진 및 상기 어플리케이션 엔진을 갖는 3차원 포그라운드와 2차원 백그라운드 결합 방법을 제공함에 있다.An object of the present invention is an application that visualizes a 3D image using temporary rendered sets of micro-images, called projection images of the 3D object, as source data for visualization of application objects confined to any position dependent on the logic of the application. It is to provide a three-dimensional foreground and two-dimensional background combining method having an engine and the application engine.

상기와 같은 목적을 달성하기 위해, 본 발명은 PC 기반의 상호 작용의 리얼 타임 어플리케이션을 이용하여 어플리케이션 오브젝트들의 자동 입체적인 풀-패럴 랙스 3차원 영상을 복구하며, 이러한 어플리케이션을 갖는 3차원 포그라운드와 2차원 백그라운드를 결합하는 것을 특징으로 한다.In order to achieve the above object, the present invention recovers the automatic three-dimensional full-parallel three-dimensional image of the application objects using a PC-based interactive real-time application, the three-dimensional foreground and two with such an application It is characterized by combining the dimensional background.

바람직하게는 상기 어플리케이션 오브젝트들의 3차원 영상의 복구는 인테그랄 포토그라피 기술을 사용하는 것을 특징으로 한다.Preferably, the restoration of the 3D image of the application objects is characterized by using an integral photography technique.

바람직하게는 상기 어플리케이션의 2차원 백그라운드를 제공하기 위해 어플리케이션 오브젝트 표면의 다각형 메쉬 표현을 사용하는 것을 특징으로 한다.Preferably, a polygon mesh representation of an application object surface is used to provide a two-dimensional background of the application.

바람직하게는 상기 어플리케이션 오브젝트의 자동 입체적인 3차원 영상의 시각화를 위한 소스 데이터로서 마이크로 영상의 임시 랜더된 셋트를 이용하는데 이때, 상기 어플리케이션 오브젝트의 키 위치(localization)에 해당하는 임시 랜더된 마이크로 영상만을 이용하는 것을 특징으로 한다.Preferably, a temporary rendered set of micro images is used as source data for visualization of an autostereoscopic three-dimensional image of the application object, wherein only a temporary rendered micro image corresponding to a key localization of the application object is used. It is characterized by.

바람직하게는 상기 3차원 어플리케이션 오브젝트로서 시각화되도록 어플리케이션 오브젝트 표면의 다각형 메쉬 표현을 단순 직사각형으로 변환(replacement)하는 것을 특징으로 한다.Preferably, the polygon mesh representation of the surface of the application object is replaced with a simple rectangle to be visualized as the three-dimensional application object.

바람직하게는 상기 어플리케이션 오브젝트의 다각형 메쉬를 대신하는 단순 직사각형에 대한 텍스쳐 비트맵으로 마이크로 영상의 임시 랜더된 셋트를 적용하는 것을 특징으로 한다.Preferably, the temporary rendered set of micro images is applied as a texture bitmap for a simple rectangle that replaces the polygon mesh of the application object.

바람직하게는 임의의 어플리케이션 오브젝트 포지션에 해당하는 단일 직사각형을 형성하기 위한 하나의 소스로서 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 직사각형들의 셋트를 생성하는 것을 특징으로 한다.Preferably, as a source for forming a single rectangle corresponding to any application object position, a set of rectangles corresponding to a key position of an application object closest to any current object position is generated.

바람직하게는 상기 어플리케이션 오브젝트 표면의 다각형 메쉬 표현을 임의의 어플리케이션 오브젝트 포지션에 해당하는 단일 직사각형으로 변환하기 위해 상기 직사각형들의 셋트를 중첩하는 것을 특징으로 한다.Preferably, the set of rectangles is superimposed to convert a polygon mesh representation of the surface of the application object into a single rectangle corresponding to an arbitrary application object position.

바람직하게는 3D 어플리케이션 오브젝트로서 시각화되어질 오브젝트의 임의의 비임시적인 랜더된 포지션에 해당하는 마이크로 영상 셋트를 형성하기 위해, 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 몇 개의 텍스쳐를 블렌딩하는 것을 특징으로 한다.Preferably several textures corresponding to the key position of the application object closest to any current object position, so as to form a micro image set corresponding to any non-temporary rendered position of the object to be visualized as a 3D application object. It is characterized by blending.

바람직하게는 임의의 포지션으로 제한된 어플리케이션 오브젝트의 3D 이미지의 시각화를 위해, 중간 어플리케이션 오브젝트의 포지션에 해당하는 직사각형에 대한 텍스쳐 비트맵으로 상기 블렌드된 마이크로 영상 셋트를 적용하는 것을 특징으로 한다.Preferably, the blended micro-image set is applied with a texture bitmap for a rectangle corresponding to the position of the intermediate application object, for visualization of the 3D image of the application object restricted to any position.

바람직하게는 자동 입체적인 3D 영상의 복구를 제공하는 인테그랄 촬영 기술 또는 어떤 다른 기술을 기반으로 한 3D 디스플레이가 마이크로 영상의 임시 랜더된 셋트를 기반으로 한 상호작용, 리얼 타임 어플리케이션을 위한 시각화 디바이스로서 사용되는 것을 특징으로 한다.Preferably a 3D display based on integral imaging or any other technique that provides automatic stereoscopic 3D image recovery is used as a visualization device for interactive, real time applications based on temporary rendered sets of micro images. It is characterized by.

본 발명에 따른 PC 기반의 상호 작용의 리얼 타임 어플리케이션 엔진은, 어플리케이션 오브젝트들의 자동 입체적인(autostereoscopic) 풀-패럴랙스 3차원 영상의 복구를 제공하는 것을 특징으로 한다.A PC-based interactive real-time application engine according to the present invention is characterized by providing for the recovery of an autostereoscopic full-parallax 3D image of application objects.

바람직하게는 상기 어플리케이션 엔진은 3차원 어플리케이션 오브젝트로서 시각화되도록 어플리케이션 오브젝트 표면의 다각형 메쉬 표현을 단순 직사각형으 로 변환(replacement)하고, 상기 단순 직사각형에 대한 텍스쳐 비트맵으로 어플리케이션 오브젝트의 마이크로 영상의 임시 랜더된 셋트를 적용하는 랜더링 모듈을 구비하는 것을 특징으로 한다.Preferably the application engine replaces the polygon mesh representation of the surface of the application object to a simple rectangle so that it is visualized as a three-dimensional application object and temporarily renders a micro image of the application object as a texture bitmap for the simple rectangle. It is characterized by comprising a rendering module to apply the set.

바람직하게는 상기 랜더링 모듈은 임의의 어플리케이션 오브젝트 포지션에 해당하는 단일 직사각형을 형성하기 위한 하나의 소스로서 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 직사각형들의 셋트를 생성하는 것을 특징으로 한다.Preferably, the rendering module generates a set of rectangles corresponding to a key position of an application object closest to any current object position as one source for forming a single rectangle corresponding to any application object position. It is done.

바람직하게는 상기 랜더링 모듈은 임의의 어플리케이션 오브젝트 위치(localization)에 해당하는 단일 직사각형을 생성하기 위한 중첩 모듈을 더 구비하는 것을 특징으로 한다.Preferably, the rendering module further comprises an overlapping module for generating a single rectangle corresponding to an arbitrary application object localization.

바람직하게는 상기 랜더링 모듈은 임의의 어플리케이션 오브젝트 포지션에 해당하는 마이크로 영상 셋트를 형성하기 위한 블렌딩 모듈을 더 구비하는 것을 특징으로 한다.Preferably, the rendering module further comprises a blending module for forming a micro image set corresponding to an arbitrary application object position.

바람직하게는 상기 랜더링 모듈은 중간 어플리케이션 오브젝트의 포지션에 해당하는 직사각형에 대한 텍스쳐 비트맵으로 상기 블렌드된 마이크로 영상 셋트를 적용하여, 임의의 포지션으로 제한된 어플리케이션 오브젝트의 3D 영상을 시각화하는 것을 특징으로 한다.Preferably, the rendering module applies the blended micro image set as a texture bitmap for a rectangle corresponding to a position of an intermediate application object to visualize a 3D image of an application object restricted to an arbitrary position.

본 발명의 다른 목적, 특징 및 잇점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings.

이하, 첨부된 도면을 참조하여 본 발명의 실시예의 구성과 그 작용을 설명하 며, 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 상기한 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.Hereinafter, the configuration and operation of the embodiments of the present invention with reference to the accompanying drawings, the configuration and operation of the invention shown in the drawings and described by it will be described as at least one embodiment, which By the technical spirit of the present invention described above and its core configuration and operation is not limited.

도 1은 본 발명에 따른 3D 게임 엔진의 기능적 도면이다. 게임을 위한 소스로서, 3D Studio MAX(또는, 다른 호환 가능한 소프트웨어)를 사용하여 생성된 3D 환경 오브젝트들이 사용된다. 이들 오브젝트들은 소스 오브젝트 셋트(source objects set)로 구성된다.1 is a functional diagram of a 3D game engine according to the present invention. As a source for the game, 3D environment objects created using 3D Studio MAX (or other compatible software) are used. These objects consist of a set of source objects.

그리고, 모든 오브젝트들은 Export 플러그-인을 사용하여 내부 게임 포맷으로 변환된다. 상기 Export 플러그-인은 다른 것들에 부가하여 통상 오브젝트의 시각화를 위해 사용하는 엔진 커넬(engine kernel) 내의 내부 오브젝트 표현(internal object representation)을 형성한다.All objects are then converted to the internal game format using the Export plug-in. The Export plug-in, in addition to others, forms an internal object representation in the engine kernel that is typically used for visualization of objects.

상기 내부 오브젝트 표현은 해당 텍스쳐를 갖는 3차원 어플리케이션 오브젝트의 표면에 해당하는 다각형 메쉬이다. The internal object representation is a polygon mesh corresponding to a surface of a three-dimensional application object having a corresponding texture.

상기 어플리케이션 오브젝트의 내부 오브젝트 표현은 게임 로직의 기능을 갖고 있는 내부 오브젝트 콘트롤러(internal object controllers)와 게임 처리 중에 상호 작용으로 유저가 개입할 수 있게 해주는 외부 오브젝트 콘트롤러(external object controllers)와 링크된다. 상기 내부 오브젝트 표현은 상기 내부 및 외부 오브젝트 콘트롤러의 영향하에 있다.The internal object representation of the application object is linked with internal object controllers, which have the functionality of game logic, and external object controllers, which allow the user to intervene interactively during game processing. The internal object representation is under the influence of the internal and external object controllers.

부가적으로, 투영상 데이터베이스(aspectogram database)를 형성하는 투영상 비트맵 셋트를 얻기 위해, 3D 영상으로서 표시되어지는 오브젝트들은 투영상 발생 툴킷(aspectogram generation toolkit)을 사용하여 임시로 처리되어진다. In addition, in order to obtain a set of projection bitmaps that form an projection database, the objects represented as 3D images are temporarily processed using an projection generation toolkit.

오브젝트의 투영상 비트맵 셋트 내의 각 투영상 비트맵은 어플리케이션 공간 내의 오브젝트의 키 포지션에 일부분 해당한다. 투영상 비트맵은 어플리케이션 오브젝트들의 3D 시각화를 제공하기 위한 텍스쳐로서 사용될 것이다. Each projection bitmap in the set of projection bitmaps of the object corresponds in part to the key position of the object in application space. The projected bitmap will be used as a texture to provide 3D visualization of application objects.

내부 게임 오브젝트 셋트는 "Live" 어플리케이션 씬을 형성하기 위해 사용된다. 상기 "Live" 어플리케이션 씬은 내부 오브젝트 콘트롤러가 제공하는 게임 로직을 사용하고, 외부(유저) 오브젝트 콘트롤러가 제공하는 유저의 개입을 고려하는 엔진 커넬의 영향하에 있다.The set of internal game objects is used to form the "Live" application scene. The "Live" application scene uses the game logic provided by the internal object controller and is under the influence of the engine kernel, taking into account the user's intervention provided by the external (user) object controller.

상기 형성된 "Live" 어플리케이션 씬은 랜더링 모듈에 대한 입력 정보이다.The formed "Live" application scene is input information for the rendering module.

2D 백그라운드로서 표현되어지는 오브젝트들을 시각화하려면 통상적으로 랜더된 오브젝트의 표면에 해당하는 다각형 메쉬를 오브젝트의 텍스쳐로 매핑하는 랜더링 처리가 사용된다.To visualize objects represented as a 2D background, a rendering process is typically used that maps a polygon mesh corresponding to the surface of the rendered object to the texture of the object.

3D 영상으로서 표현되어질 오브젝트의 경우는, 다각형 메쉬가 단순 직사각형(simple rectangle)으로 변환된다.In the case of an object to be represented as a 3D image, the polygon mesh is converted into a simple rectangle.

상기 투영상 데이터베이스에서 출력되는 적절한 투영상 비트맵은 3D 디스플레이 상에 3D 영상의 재현을 제공하는 해당 직사각형에 대한 텍스쳐로서 사용된다.The appropriate projected image bitmap output from the projected image database is used as the texture for that rectangle to provide a representation of the 3D image on the 3D display.

상기에서 언급된 어떠한 왜곡 차원을 피하려면, 직사각형은 투영상 비트맵 사이즈에 정확하게 해당되어야 한다.To avoid any of the distortion dimensions mentioned above, the rectangle must correspond exactly to the projected bitmap size.

적절한 게임 레이트 값을 유지하기 위해, 하드웨어 가속기가 랜더링의 마지막 단계(final stage)에서 사용되어진다. To maintain proper game rate values, hardware accelerators are used at the final stage of rendering.                     

도 2는 도 1의 랜더링 모듈의 기능적 도면이다.FIG. 2 is a functional diagram of the rendering module of FIG. 1.

도 2를 보면, "Live" 어플리케이션 씬 내의 각 오브젝트에 대해서, 오브젝트는 3D 오브젝트로서 시각화할 것인지를 판별한다.2, for each object in the "Live" application scene, it is determined whether the object is to be visualized as a 3D object.

만일, 상기 오브젝트가 3D 표현을 이용하여 시각화되지 않는다면, 2D 백그라운드로서 오브젝트를 시각화하기 위해 통상적으로 오브젝트의 다각형 메쉬를 오브젝트의 텍스쳐로 매핑하는 2D 백그라운드 랜더링이 적용된다.If the object is not visualized using a 3D representation, 2D background rendering is typically applied to map the polygon mesh of the object to the texture of the object to visualize the object as a 2D background.

한편, 상기 오브젝트가 3D 표현을 이용하여 시각화된다면 3D 랜더링이 수행되어야 한다. On the other hand, if the object is visualized using a 3D representation, 3D rendering must be performed.

이때, 자동 입체적인 3D 영상으로서 어플리케이션 오브젝트를 표현하려면, 프로세스는 훨씬 더 복잡해진다.At this time, to represent the application object as an autostereoscopic 3D image, the process becomes much more complicated.

먼저, 오브젝트 상태(state)는 엔진 커넬에서 생성된 "Live 어플리케이션 씬"으로부터 입력받는다. 그리고 나서, 상기 오브젝트 포지션이 하나의 키 포지션인지를 판별한다.First, the object state is input from the "Live application scene" created in the engine kernel. Then, it is determined whether the object position is one key position.

상기 조건이 맞다고 판단되면 즉, 오브젝트 포지션이 하나의 키 포지션이라면 오브젝트의 다각형 메쉬는 무시하고, 단일의 직사각형(single rectangle)이 상기 투영상 데이터베이스에서 제공되는 키 포지션 투영상 텍스쳐(key position aspectogram texture)에 적용되어 랜더링된다.If it is determined that the condition is correct, that is, if the object position is one key position, the polygon mesh of the object is ignored, and a single rectangle is provided for the key position aspectogram texture provided by the projection database. Applied to and rendered.

상기 조건이 맞지 않다면, 상기 오브젝트의 가장 가까운 키 위치(localization)에 해당하는 직사각형들의 셋트가 생성된다. 그리고, 중첩 모듈(superimposing module)에 의해, 상기 직사각형들의 셋트 중 단일 직사각형이 원하는 포지션에서 생성된다.If the condition is not met, a set of rectangles corresponding to the nearest key localization of the object is created. And, by a superimposing module, a single rectangle of the set of rectangles is created at the desired position.

동시에, 선택된 키 포지션에 해당하는 투영상 비트맵 텍스쳐들이 투영상 데이터베이스로부터 출력되고, 블렌딩 모듈에 의해 블렌딩된다.At the same time, the projected image bitmap textures corresponding to the selected key position are output from the projected image database and blended by the blending module.

이때, 상기 블렌딩 모듈을 사용함으로써, 다른 키 위치 사이에서 재생된 3D 오브젝트들의 러닝을 스무스하게 할 수 있다.At this time, by using the blending module, it is possible to smooth the running of 3D objects reproduced between different key positions.

상기 블렌딩 모듈에 의해 블렌드된 텍스쳐는 상기 중첩 모듈에 의해 생성된 단일 직사각형에 대해 매핑되어질 텍스쳐이다. 결과가 3D 디스플레이 상에 표시된다.The texture blended by the blending module is the texture to be mapped to a single rectangle created by the overlapping module. The results are displayed on the 3D display.

이와 같이 본 발명은, 임시 랜더된 데이터 량은 어플리케이션 오브젝트의 키 포지션에 해당하는 투영상들만으로 제한되며, 본 발명의 랜더링 모듈은 시각화 전에 오브젝트들의 랜더링에 사용된다.As such, the present invention limits the amount of temporary rendered data to only the projected images corresponding to the key position of the application object, and the rendering module of the present invention is used for rendering the objects before visualization.

이때, 2차원(2D) 백그라운드 오브젝트(어플리케이션 환경을 제공)와 포그라운드 오브젝트(3차원 영상으로서 시각화됨)와의 양쪽 결합은 그런 종류의 어플리케이션에 사용된다. 그리고, 랜더링 과정 동안, 2D 백그라운드로서 이용되는 오브젝트들은 통상적인 방법(즉, 어플리케이션 오브젝트의 표면을 표현하는 다각형 메쉬를 텍스쳐로 매핑함)으로 랜더된다. 동시에, 3D 오브젝트로서 시각화되어질 오브젝트의 다각형 메쉬 표현은 단순 직사각형으로 변환되고, 변환된 단순 직사각형은 임시 랜더된 투영상과 이에 따르는 3D 공간내의 적절한 위치에서의 시각화를 사용하여 텍스쳐된다.At this time, both a combination of a two-dimensional (2D) background object (providing an application environment) and a foreground object (visualized as a three-dimensional image) is used for that kind of application. And, during the rendering process, objects used as 2D backgrounds are rendered in a conventional manner (i.e., mapping a polygon mesh representing the surface of the application object to a texture). At the same time, the polygon mesh representation of the object to be visualized as a 3D object is converted into a simple rectangle, which is then textured using the temporary rendered projection image and the visualization at the appropriate location in the 3D space.

상기 시각화는 인테그랄 포토그라피 기술을 기반으로 하며 또한, 상기 시각 화는 인테그랄 포토그라피 기술을 기반으로 한 3D 디스플레이를 요구한다. The visualization is based on integral photography technology and the visualization also requires a 3D display based on integral photography technology.

본 발명은 게임, CAD/CAE 시각화 시스템, 시뮬레이션 시스템, 트레이닝 시스템, 메디컬 그리고 다른 특정 목적을 갖는 영상 시스템에 적용할 수 있다.The invention is applicable to games, CAD / CAE visualization systems, simulation systems, training systems, medical and other imaging systems with specific purposes.

이상에서와 같이 본 발명에 따른 어플리케이션 엔진에 의하면, 3D 영상의 시각화를 위해 오브젝트의 키 위치에 해당하는 제한된 임시 랜더된 투영상들의 셋트만을 사용함으로써, 임시 랜더된 데이터 즉, 소스 데이터 량을 줄일 수 있다.As described above, according to the application engine of the present invention, the amount of temporary rendered data, that is, the amount of source data can be reduced by using only a limited set of temporary rendered projection images corresponding to the key position of the object for visualizing the 3D image. have.

또한, 블렌딩 모듈을 사용함으로써, 다른 키 위치 사이에서 재생된 3D 오브젝트들의 러닝을 스무스하게 할 수 있다.In addition, by using a blending module, it is possible to smooth the running of 3D objects reproduced between different key positions.

그리고, PC 하드웨어에 의해 제공되는 부가적인 가속(acceleration)을 사용함으로써, 어플리케이션 레이트를 향상시킬 수 있다.And by using additional acceleration provided by the PC hardware, the application rate can be improved.

이상 설명한 내용을 통해 당업자라면 본 발명의 기술 사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다.Those skilled in the art will appreciate that various changes and modifications can be made without departing from the spirit of the present invention.

따라서, 본 발명의 기술적 범위는 실시예에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의하여 정해져야 한다. Therefore, the technical scope of the present invention should not be limited to the contents described in the embodiments, but should be defined by the claims.

Claims (23)

어플리케이션 오브젝트들의 자동 입체적인(autostereoscopic) 풀-패럴랙스 3차원 영상의 복구를 제공하는 PC 기반의 상호 작용의 리얼 타임 어플리케이션을 갖는 3차원 포그라운드와 2차원 백그라운드의 결합 방법에 있어서,In a method of combining three-dimensional foreground and two-dimensional background with a PC-based interactive real-time application that provides for the recovery of autostereoscopic full-parallax three-dimensional images of application objects, 라이브 어플리케이션 씬을 입력받는 단계;Receiving a live application scene; 상기 라이브 어플리케이션 씬 내의 오브젝트를 3D 오브젝트로 시각화할 것인지를 판별하는 단계;Determining whether to visualize an object in the live application scene as a 3D object; 상기 판별결과, 상기 오브젝트를 3D 오브젝트로 시각화하지 않는다면, 상기 오브젝트의 다각형 메쉬를 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하고, 상기 오브젝트를 3D 오브젝트로 시각화한다면, 미리 렌더링된 마이크로 영상 세트의 소스 데이터를 이용하여, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환하고, 상기 단일 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 3차원 포그라운드와 2차원 백그라운드의 결합 방법.As a result of the determination, if the object is not visualized as a 3D object, the polygon mesh of the object is mapped to the texture of the object and rendered, and if the object is visualized as a 3D object, the source data of the pre-rendered micro image set is rendered. And converting the polygon mesh of the object into a single rectangle, mapping the single rectangle to the texture of the object, and rendering the object. 제 1 항에 있어서, 상기 어플리케이션 오브젝트들의 3차원 영상의 복구는The method of claim 1, wherein the restoration of the 3D image of the application objects is performed. 상호 작용의 리얼 타임 어플리케이션을 갖는 인테그랄 포토그라피 기술을 사용하는 것을 특징으로 하는 결합 방법.A method of combining, which uses integral photography techniques with interactive real-time applications. 삭제delete 삭제delete 제 1 항에 있어서, 상기 단순 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계는,The method of claim 1, wherein the mapping of the simple rectangle to the texture of the object comprises: 상기 오브젝트를 3D 오브젝트로 시각화한다면, 상기 오브젝트의 포지션이 하나의 키 포지션인지를 판별하는 단계;If the object is visualized as a 3D object, determining whether the position of the object is one key position; 상기 판별결과, 상기 오브젝트의 포지션이 하나의 키 포지션이라면, 상기 미리 렌더링된 마이크로 영상 세트의 소스 데이터를 이용하여, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환하고, 상기 단일 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 결합 방법.As a result of the determination, if the position of the object is one key position, the polygon mesh of the object is converted into a single rectangle using source data of the pre-rendered micro image set, and the single rectangle is converted into the texture of the object. Mapping method comprising the step of mapping and rendering. 삭제delete 삭제delete 제 5 항에 있어서, The method of claim 5, wherein 상기 판별결과, 상기 오브젝트의 포지션이 하나의 키 포지션이 아니라면, 상기 현재 오브젝트의 포지션에 해당하는 단일 직사각형을 형성하기 위한 하나의 소스로서, 상기 현재 오브젝트의 포지션으로부터 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 직사각형들의 세트를 생성하는 단계;As a result of the determination, if the position of the object is not one key position, as a source for forming a single rectangle corresponding to the position of the current object, it corresponds to the key position of the application object closest to the position of the current object Generating a set of rectangles; 상기 생성된 직사각형들의 세트를 중첩하여 상기 현재 오브젝트 포지션에 해당하는 단일 직사각형을 생성하는 단계;Overlapping the set of generated rectangles to generate a single rectangle corresponding to the current object position; 상기 오브젝트의 다각형 메쉬를 상기 생성된 단일 직사각형으로 변환하는 단계를 포함하여 이루어지는 것을 특징으로 하는 결합 방법.And converting the polygon mesh of the object into the generated single rectangle. 삭제delete 제 5 항에 있어서,The method of claim 5, wherein 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환(replacement)하는 것은,Replacing the polygon mesh of the object with a single rectangle, 3D 어플리케이션 오브젝트로서 시각화되어질 오브젝트의 임의의 비임시적인 랜더된 포지션에 해당하는 마이크로 영상 셋트를 형성하기 위해, 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 텍스쳐를 블렌딩하는 것을 특징으로 하는 결합 방법.Blending the texture corresponding to the key position of the application object closest to any current object position to form a micro-image set corresponding to any non-temporary rendered position of the object to be visualized as a 3D application object. Joining method. 제 10 항에 있어서,The method of claim 10, 상기 임의의 포지션으로 제한된 어플리케이션 오브젝트의 3D 이미지의 시각화를 위해, 중간 어플리케이션 오브젝트의 포지션에 해당하는 직사각형에 대한 텍스쳐 비트맵으로 상기 블렌드된 마이크로 영상 셋트를 적용하는 것을 특징으로 하는 결합 방법.And apply the blended micro-image set as a texture bitmap for a rectangle corresponding to the position of the intermediate application object to visualize a 3D image of the application object constrained to the arbitrary position. 삭제delete 어플리케이션 오브젝트들의 자동 입체적인(autostereoscopic) 풀-패럴랙스 3차원 영상의 복구를 제공하는 PC 기반의 상호 작용의 리얼 타임 어플리케이션을 기록한 컴퓨터로 읽을 수 있는 매체에 있어서,A computer-readable medium for recording a PC-based interactive real-time application that provides for the recovery of autostereoscopic full-parallax 3D images of application objects, 라이브 어플리케이션 씬을 입력받는 단계와,Receiving a live application scene, 상기 라이브 어플리케이션 씬 내의 오브젝트를 3D 오브젝트로 시각화할 것인지를 판별하는 단계와,Determining whether to visualize an object in the live application scene as a 3D object; 상기 판별결과, 상기 오브젝트를 3D 오브젝트로 시각화하지 않는다면, 상기 오브젝트의 다각형 메쉬를 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하고, 상기 오브젝트를 3D 오브젝트로 시각화한다면, 미리 렌더링된 마이크로 영상 세트의 소스 데이터를 이용하여, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환하고, 상기 단일 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계를 포함하여 수행하기 위한 어플리케이션을 기록한 컴퓨터로 읽을 수 있는 매체.As a result of the determination, if the object is not visualized as a 3D object, the polygon mesh of the object is mapped to the texture of the object and rendered, and if the object is visualized as a 3D object, the source data of the pre-rendered micro image set is rendered. And converting the polygon mesh of the object into a single rectangle, mapping the single rectangle to a texture of the object, and rendering the object. 제 13 항에 있어서,The method of claim 13, 어플리케이션 오브젝트들의 3차원 영상의 복구를 제공하는 것은 인테그랄 포토그라피 기술을 사용하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 매체.Providing recovery of a three-dimensional image of application objects is a computer readable medium characterized by using integral photography techniques. 삭제delete 제 13 항에 있어서,The method of claim 13, 상기 단순 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계는,The step of mapping the simple rectangle to the texture of the object to render 상기 오브젝트를 3D 오브젝트로 시각화한다면, 상기 오브젝트의 포지션이 하나의 키 포지션인지를 판별하는 단계;If the object is visualized as a 3D object, determining whether the position of the object is one key position; 상기 판별결과, 상기 오브젝트의 포지션이 하나의 키 포지션이라면, 상기 미리 렌더링된 마이크로 영상 세트의 소스 데이터를 이용하여, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환하고, 상기 단일 직사각형을 상기 오브젝트의 텍스쳐로 매핑하여 랜더링처리하는 단계를 포함하여 수행하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 매체.As a result of the determination, if the position of the object is one key position, the polygon mesh of the object is converted into a single rectangle using source data of the pre-rendered micro image set, and the single rectangle is converted into the texture of the object. A computer-readable medium, comprising: mapping and rendering. 삭제delete 제 16 항에 있어서,The method of claim 16, 상기 판별결과, 상기 오브젝트의 포지션이 하나의 키 포지션이 아니라면, 상기 현재 오브젝트의 포지션에 해당하는 단일 직사각형을 형성하기 위한 하나의 소스로서, 상기 현재 오브젝트의 포지션으로부터 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 직사각형들의 셋트를 생성하는 단계와,As a result of the determination, if the position of the object is not one key position, as a source for forming a single rectangle corresponding to the position of the current object, it corresponds to the key position of the application object closest to the position of the current object Creating a set of rectangles, 상기 생성된 직사각형들의 세트를 중첩하여 상기 현재 오브젝트 포지션에 해당하는 단일 직사각형을 생성하는 단계와,Overlapping the set of generated rectangles to generate a single rectangle corresponding to the current object position; 상기 오브젝트의 다각형 메쉬를 상기 생성된 단일 직사각형으로 변환하는 단계를 포함하여 수행하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 매체.And converting the polygon mesh of the object into the generated single rectangle. 삭제delete 삭제delete 삭제delete 제 16 항에 있어서, 상기 오브젝트의 다각형 메쉬를 단일 직사각형으로 변환(replacement)하는 것은,The method of claim 16, wherein replacing the polygon mesh of the object with a single rectangle includes: 상기 현재의 임의의 오브젝트 포지션에 가장 근접한 어플리케이션 오브젝트의 키 포지션에 해당하는 텍스쳐를 블렌딩하여, 3D 어플리케이션 오브젝트로서 시각화되어질 오브젝트의 임의의 비임시적인 랜더된 포지션에 해당하는 마이크로 영상 셋트를 형성하는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 매체.Blending a texture corresponding to a key position of an application object closest to the current arbitrary object position to form a micro image set corresponding to any non-temporary rendered position of the object to be visualized as a 3D application object. Computer-readable media. 삭제delete
KR1020020016502A 2002-03-26 2002-03-26 Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application KR100893855B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020016502A KR100893855B1 (en) 2002-03-26 2002-03-26 Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020016502A KR100893855B1 (en) 2002-03-26 2002-03-26 Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application

Publications (2)

Publication Number Publication Date
KR20030077680A KR20030077680A (en) 2003-10-04
KR100893855B1 true KR100893855B1 (en) 2009-04-17

Family

ID=32376711

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020016502A KR100893855B1 (en) 2002-03-26 2002-03-26 Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application

Country Status (1)

Country Link
KR (1) KR100893855B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100939080B1 (en) * 2007-07-30 2010-01-28 광운대학교 산학협력단 Method and Apparatus for generating composited image, Method and Apparatus for displaying using composited image
KR101437447B1 (en) * 2011-06-28 2014-09-11 삼성전자 주식회사 Image proceesing apparatus and image processing method thereof
KR101314731B1 (en) * 2012-11-09 2013-10-14 (주) 지쓰리스튜디오 Edge blending system based on multi-beam projector, and edge blending method based on multi-beam projector
GB2605300B (en) * 2016-10-14 2022-12-28 Vr Chitect Ltd Virtual reality system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970058060A (en) * 1995-12-14 1997-07-31 김광호 3D stereoscopic image synthesis method
JPH1051812A (en) 1996-08-07 1998-02-20 Sanyo Electric Co Ltd Device and method for converting two-dimensional video into three-dimensional video
JP2004023203A (en) 2002-06-13 2004-01-22 Sony Corp Imaging apparatus, imaging method, display, and displaying method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970058060A (en) * 1995-12-14 1997-07-31 김광호 3D stereoscopic image synthesis method
JPH1051812A (en) 1996-08-07 1998-02-20 Sanyo Electric Co Ltd Device and method for converting two-dimensional video into three-dimensional video
JP2004023203A (en) 2002-06-13 2004-01-22 Sony Corp Imaging apparatus, imaging method, display, and displaying method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한국광학회 창립 10주년 기념 제11회 정기총회 및 2000년도 동계학술발표회 논문집, 2000. 2, 이병호, 민성욱, 정성용 저, pp. 294~295 (2 pages)

Also Published As

Publication number Publication date
KR20030077680A (en) 2003-10-04

Similar Documents

Publication Publication Date Title
Attal et al. MatryODShka: Real-time 6DoF video view synthesis using multi-sphere images
US11076142B2 (en) Real-time aliasing rendering method for 3D VR video and virtual three-dimensional scene
Serrano et al. Motion parallax for 360 RGBD video
JP6873096B2 (en) Improvements in and on image formation
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP4879326B2 (en) System and method for synthesizing a three-dimensional image
US4925294A (en) Method to convert two dimensional motion pictures for three-dimensional systems
US6205241B1 (en) Compression of stereoscopic images
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
KR101697184B1 (en) Apparatus and Method for generating mesh, and apparatus and method for processing image
US20110216160A1 (en) System and method for creating pseudo holographic displays on viewer position aware devices
US6388666B1 (en) System and method for generating stereoscopic image data
JP2008090617A (en) Device, method and program for creating three-dimensional image
JP2010510569A (en) System and method of object model fitting and registration for transforming from 2D to 3D
WO2023207452A1 (en) Virtual reality-based video generation method and apparatus, device, and medium
Richardt et al. Capture, reconstruction, and representation of the visual real world for virtual reality
CN112446939A (en) Three-dimensional model dynamic rendering method and device, electronic equipment and storage medium
WO2012140397A2 (en) Three-dimensional display system
JP2023172882A (en) Three-dimensional representation method and representation apparatus
KR20170091710A (en) Digital video rendering
WO2007048197A1 (en) Systems for providing a 3d image
KR100893855B1 (en) Method for combination both of two-dimensional background and three-dimensional foreground and engine for three-dimensional application
Park et al. Arbitrary view generation from multiple cameras
KR101163020B1 (en) Method and scaling unit for scaling a three-dimensional model
JP7011728B2 (en) Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120327

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130326

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160324

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170314

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180314

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190314

Year of fee payment: 11