KR100561837B1 - 삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기위한 방법 - Google Patents

삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기위한 방법 Download PDF

Info

Publication number
KR100561837B1
KR100561837B1 KR1020010040975A KR20010040975A KR100561837B1 KR 100561837 B1 KR100561837 B1 KR 100561837B1 KR 1020010040975 A KR1020010040975 A KR 1020010040975A KR 20010040975 A KR20010040975 A KR 20010040975A KR 100561837 B1 KR100561837 B1 KR 100561837B1
Authority
KR
South Korea
Prior art keywords
field
image
dimensional environment
information
node
Prior art date
Application number
KR1020010040975A
Other languages
English (en)
Other versions
KR20030005607A (ko
Inventor
한만진
이그나텐코알렉시
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020010040975A priority Critical patent/KR100561837B1/ko
Priority to EP02254691A priority patent/EP1276076A3/en
Priority to CNB021401500A priority patent/CN1226702C/zh
Priority to CA2392638A priority patent/CA2392638C/en
Priority to US10/188,845 priority patent/US7148896B2/en
Priority to RU2002118231/09A priority patent/RU2227323C2/ru
Priority to JP2002199665A priority patent/JP3964749B2/ja
Publication of KR20030005607A publication Critical patent/KR20030005607A/ko
Application granted granted Critical
Publication of KR100561837B1 publication Critical patent/KR100561837B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Abstract

본 발명은 애니메이션 프레임워크 확장 기술에서 이미지 기반의 렌더링 기술을 사용할 수 있도록 IBR 기술을 표현할 수 있는 방법에 관한 것으로, 삼차원 환경에서 이미지 기반의 랜더링 기술을 사용하여 삼차원 환경 내의 물체를 표현하는 방법에 있어서, 영상 및 그 영상의 각 점에 대한 깊이정보를 사용하거나, 영상 및 그 영상의 한 면의 각 점에 투영되는 모든 점에 대한 깊이정보 배열 및 각 점의 색상정보 배열에 따라 표현하는 것을 특징으로 한다. 본 발명은 IBR 기술들 중에서 기하학적 정보를 포함하는 기술들 중에 간단한 방법들인 GBT, LDI 및 Octree 방식에 대한 표현방법을 정의하여 MPEG-4 AFX에서 사용 가능하도록 한다.
이미지 기반의 랜더링

Description

삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기 위한 방법 {Method for representing image-based rendering information in a 3D scene}
도 1은 MPEG-4 Systems 및 Animation Framework eXtension (AFX) 구조의 개념도이다.
도 2는 Box Texture에서 사용하는 영상 정보의 예를 나타낸다.
도 3은 Box Texture에서 사용하는 깊이 정보의 예를 나타낸다.
도 4는 Relief Texture를 위한 정보를 생성할 때 각 점을 투영하는 예를 나타낸다.
도 5는 Layered Depth Image를 위한 정보를 생성할 때 각 점을 투영하는 예를 나타낸다.
도 6은 Layered Depth Image를 위한 정보를 생성할 때 각 점이 투영된 예를 나타낸다.
도 7은 Octree에서 자식 노드의 순서를 나타낸다.
도 8은 DepthImage 노드의 각 필드가 직교 투영에 적용되는 경우이다.
도 9는 DepthImage 노드의 각 필드가 원근 투영에 적용되는 경우이다.
도 10은 Box Texture 정보를 사용하여 렌더링한 예를 나탄낸다.
도 11은 Octree 구조의 단면을 나타낸다.
도 12는 Octree 구조의 정보의 렌더링 방법을 나타낸다.
도 13은 BVO 정보를 사용하여 렌더링한 예를 나타낸다.
본 발명은 애니메이션 프레임워크 확장 (AFX) 기술에서 이미지 기반의 렌더링 (IBR) 기술을 사용할 수 있도록 IBR 기술을 표현할 수 있는 방법에 관한 것이다.
삼차원 그래픽스 분야에 대한 연구가 처음 시작되면서부터 실사와 같은 현실감을 재현하는 것이 이 분야 연구자들의 목표가 되고 있다. 그래서 다각형 모델 (polygonal model)을 사용한 전통적인 렌더링 (rendering) 기술에 대한 연구가 진행되어 왔으며, 그 결과 모델링과 렌더링 기술이 발전되어 매우 현실감 있는 삼차원 환경을 만들 수 있게 되었다. 그러나 복잡한 모델을 만드는 과정은 전문가의 많은 노력이 있어야 하며 그러한 환경을 렌더링하기 위해서는 시간이 많이 걸린다. 또한 현실감 있는 복잡한 환경일수록 그 정보량이 방대해지므로 저장 및 전송에 대한 효율이 떨어진다.
본 발명이 이루고자 하는 기술적 과제는 삼차원 환경(scene) 내에 이미지 기반의 랜더링 기술을 사용하여 삼차원 환경 내의 물체를 표현하는 방법을 제공하는데 있다.
상기의 과제를 이루기 위한 본 발명에 의한 삼차원 환경 내에서의 물체를 표현하는 방법은 삼차원 환경에서 이미지 기반의 랜더링 기술을 사용하여 삼차원 환경 내의 물체를 표현하는 방법에 있어서, 영상 및 그 영상의 각 점에 대한 깊이정보를 사용하거나, 영상 및 그 영상의 한 면의 각 점에 투영되는 모든 점에 대한 깊이정보 배열 및 각 점의 색상정보 배열에 따라 표현하는 것을 특징으로 한다. 또한, 한 모델을 포함하는 정육면체가 있는 경우 그 정육면체를 노드로 표현하고 이를 8등분하여 각각 자식노드로 관리하고, 자식노드들 중에서 모델의 일부를 포함하는 노드를 8등분하는 방식으로 노드의 크기가 충분히 작을 때까지 반복하여 모델의 기하학적 정보를 표현하는 것을 특징으로 한다.
이하에서 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.
최근 들어 실사나 그림을 사용하여 현실감 있는 장면을 만들 수 있는 이미지 기반의 렌더링(Image-based Rendering; IBR) 기술이 활발히 연구되고 있다. IBR 기술은 미리 취득한 여러 장의 영상을 사용하여 여러 각도에서 그 환경을 볼 수 있게 해 준다. 그러므로 복잡한 환경의 모델과 조명 등을 계산해야 하는 전통적인 렌더링의 경우에 복잡도에 따라 정보량 및 계산량이 증가하는 것과는 달리 IBR에서는 복잡도와는 독립적으로 아주 적은 량의 정보와 이의 계산으로도 현실감 있는 환경을 재현할 수 있다. 또한 복잡한 모델을 생성하는 것 보다 영상을 얻는 것이 쉽다.
ISO/IEC 산하에 JTC1/SC29/WG11 그룹에서는 MPEG-4 Systems (14496-1) 라는 표준안을 제정하였는데 이 기술로 기본적인 삼차원 환경을 나타낼 수 있다. 이를 확장하기 위하여 MPEG-4 SNHC 소그룹에서 AFX (Animation Framework eXtension)에 대한 표준화를 진행시키고 있다. 도 1은 MPEG-4 Systems 및 애니메이션 프레임워크 확장(Animation Framework eXtension; AFX) 구조의 개념도를 보여 준다. AFX에서는 미래에 복잡한 삼차원 환경을 표현하기 위해 필요한 기술들을 검토하고 있다. 그러나 현재 AFX 내에 검토되고 있는 기술 (ISO/IEC JTC1/SC29/WG11 N4020) 중에 미래에 활용 가능성이 많은 IBR 표현 방법이 없다.
IBR 기술에는 여러 가지 종류가 있다. 우선 한 장소에서 여러 방향으로 볼 수 있도록 하기 위하여 한 장소에서 모든 방향으로 사진을 찍은 다음 파노라마 식으로 연결하여 보면 된다. 여러 장소로 이동하면서 보기 위해서는 각 장소에서 모든 방향의 사진을 생성하면 된다. 그러나 이러한 방법은 너무 많은 영상 자료를 필요로 한다. 이러한 단점을 보완하기 위하여 영상뿐만 아니라 기하학적인 자료를 같이 사용하는 기술이 개발되었다.
기하학적 표현을 사용한 IBR 기술에도 여러 종류가 있다. 그 중에 비교적 복잡한 방법으로는 Surface Light Field나 View-dependent Textures가 있는데 이들은 고화질이 가능하지만 이러한 기술들은 복잡한 기하학적 정보가 필요하다. 반면에 가장 간단한 기술로는 Relief Texture (RT)라는 기술이 있는데 이는 한 영상과 그 영상의 각 점에 대한 깊이 정보(depth map)를 사용하여 텍스쳐(texture)를 입체감 있게 보여 주는 기술이다. 이를 정육면체에 적용하는 방법을 Box Texture(BT) 라고 하는데 이 경우에는 도 2와 같이 여섯 면에 해당되는 영상과 도 3과 같이 각 영상에 해당되는 깊이정보를 사용한다. 이 기술을 정육면체가 아닌 임의의 개수의 평면 에 대하여 적용하는 방법을 Generalized Box Texture (GBT) 라 부를 수 있다. 이 기술들 (RT, BT 또는 GBT)은 가장 간단하며 영상과 깊이 정보를 일반 영상 압축 기술을 사용하여 압축하면 정보량을 최소화할 수 있다. 그러나 이 기술들은 도 4와 같이 각 면에서 보이는 점들에 대한 정보만 사용하므로 보이지 않는 위치의 정보는 잃게 된다.
이러한 단점을 보완하기 위하여 Layered Depth Image (LDI)라는 기술을 사용할 수 있다. 도 5와 같이 LDI는 한 면의 각 점에 투영되는 모든 점의 색 및 거리를 저장한다. 그러므로 도 6과 같이 한 면의 각 점에 여러 개의 점에 대한 정보를 가지게 된다. 이 기술은 RT나 BT 기술보다 정보량은 많지만 모든 점에 대한 정보를 갖고 있다.
깊이 정보를 사용하는 방법 외에 다른 방법 중에는 Octree 구조로 기하학적인 정보를 저장하는 방법이 있다. Octree 구조란 정육면체를 노드로 표현하고 이를 8등분하여 각각 자식 노드로 관리한다. 한 모델을 포함하는 정육면체가 있을 경우 이를 표현하는 노드를 8등분한 다음 자식 노드들 중에서 모델의 일부를 포함하는 노드를 또 8등분하는 방식으로 하여 노드의 크기가 충분히 작아질 때까지 반복하면 그 Octree로 모델의 기하학적 정보를 표현할 수 있다. Octree 구조로 기하학적인 정보를 저장하는 IBR 기술 중에는 Binary Volumetric Octree (BVO) 가 있다.
본 발명은 IBR 기술들 중에서 기하학적 정보를 포함하는 기술들 중에 간단한 방법들인 GBT, LDI 및 Octree 방식에 대한 표현방법을 다음과 같이 정의하여 사용하며, 이는 MPEG-4 AFX에 적용 가능하다.
깊이 정보를 사용하는 GBT와 LDI는 혼용하여 사용할 수 있는데 이를 그룹으로 관리하는 DepthImageGroup 노드(node)가 있다. 표 1은 DepthImageGroup 노드의 정의를 나타낸다. DepthImageGroup은 depthImage라는 배열에서 DepthImage 노드들을 관리한다.
DepthImageGroup { eventln MFNode addDepthImage eventln MFNode removeDepthImage exposedField MFNode depthImage [] }
표 2는 DepthImage 노드에 대한 정의를 보여 준다. DepthImage 노드는 한 면에 대한 영상과 일정 범위에 포함되는 깊이 정보를 관리한다.
DepthImage { field SFNode diTexture NULL field SFVec3f position 0 0 1 0 field SFRotation orientation 0 0 1 0 field SFVec2f fieldOfView 0.785398 0.785398 field SFFloat nearPlane 10 field SFFloat farPlane 100 field SFBool othogonal FALSE }
우선 면을 정의하기 위하여 그 면을 바라보는 시각적 위치 (position) 및 방향 (orientation)을 정하고 시야의 범위 (fieldOfView)를 가로 및 세로에 대하여 정의한다. 그리고 깊이 정보의 범위를 정하기 위하여 시점(Viewpoint)에서부터 가까운 쪽 및 먼 쪽의 경계 면과의 거리를 정의한다. 이러한 정보를 가지고 투영하는 방법은 직교 (orthogonal) 투영과 원근 (perspective) 투영의 두 가지 있는데 이를 정하는 orthogonal 정보가 있다. Orthogonal 정보가 참(true)일 경우에는 시야의 범위(fieldOfView) 필드의 가로 및 세로의 값이 경계면의 가로 및 세로 크기로 사용되며, orthogonal 정보가 거짓(false)일 경우에는 시야의 범위(fieldOfView) 필드의 가로 및 세로의 값이 시야의 가로 및 세로 범위에 대한 각도로 사용된다. 또한, diTexture는 영상 및 깊이 정보를 가지고 있다.
영상 및 깊이 정보를 가지는 diTexture 필드에는 세 가지의 IBR용 텍스쳐 노드 (SimpleTexture, LayeredTexture 및 PointTexture)가 사용될 수 있다. SimpleTexture 노드는 하나의 영상 정보 (texture)와 하나의 깊이 정보 (depth)를 가진다.
표 3은 SimpleTexture 노드에 대한 정의를 보여 준다. 이는 하나의 RT 정보를 나타낼 수 있다. LayeredTexture 노드는 여러 개의 영상정보 (textures)와 같은 수의 깊이 정보 (depths)를 가질 수 있다.
SimpleTexture { field SFNode Texture NULL field SFNode depth NULL }
표 4는 LayeredTexture 노드에 대한 정의를 보여 준다. 이는 하나의 LDI 정보를 나타낼 수 있다. SimpleTexture 노드와 LayeredTexture 노드는 MPEG-4에서 사용하는 텍스쳐 노드 (ImageTexture, MovieTexture 및 PixelTexture 등)를 사용할 수 있다. MovieTexture와 같이 동영상 정보를 사용할 경우에는 IBR 정보가 애니메이션이 될 수 있다. PointTexture 노드는 면의 각 점에 투영되는 모든 점에 대한 깊이 정보 배열(depth)과 각 점의 색상 (color) 배열이 있다.
LayeredTexture { field MFNode Textures [] field MFNode depths [] }
표 5는 PointTexture 노드에 대한 정의를 보여 준다. 깊이 정보 배열은 면의 각 점에 대해서 그 점에 투영되는 공간상의 점들의 개수를 먼저 저장한 다음 각각의 깊이 정보들을 저장한다.
PointTexture { field MFInt32 depth [] field MFColor color [] }
Octree 정보를 관리할 수 있는 노드는 다음의 표 6의 OctreeImage 노드와 같이 정의할 수 있다.
OctreeImage { field SFInt32 octreelevel 8 field MFNode octreeimages [] field SFFloat octreesize 1 field SFString octree "" field MFVec3f octreenormal [] field MFColor octreecolor [] }
octreelevel 필드에는 트리 구조의 최대 단계가 정의된다. 예를 들어 octreelevel의 값이 8 일 경우 octree 구조가 최대 8 단계까지 내려갈 수 있으므로, 정육면체의 한 변을 따라 최대 256개의 말단 (leaf) 노드까지 생성될 수 있다. octreeimages 는 DepthImage 노드의 배열이다. 이때 DepthImage 노드에서는 diTexture 필드에서 SimpleTexture 노드를 사용해야 하며 DepthImage의 nearPlane 및 farPlane 필드와 SimpleTexture의 depth 필드는 사용되지 않는다. octreesize 필드는 정육면체의 한 변의 길이를 나타낸다. 그리고 이 정육면체의 위치는 좌표계의 원점 (0,0,0)이 정육면체의 중앙에 있도록 한다. octree 필드는 octree의 내부 노드의 구조를 나타내는 배열이다. 각 노드는 1 바이트로 자식 노드에 대한 정보를 가지는데 i번째 비트가 1일 경우 그 노드에게 자식 노드들이 존재한다. 각 자식 노드의 순서는 도 7과 같이 정의될 수 있다. 그리고 octree 배열에서 각 노드의 나열 순서는 너비 우선 탐색 (breadth first search) 순서이다. 즉, 최상위 단계 노드에 대한 정보 이후 그 다음 단계에 존재하는 모든 노드에 대한 정보가 나열되고 그 다음 단계로 내려간다. octreenormal 필드와 octreecolor 필드는 선택적으로 사용될 수 있는 필드들로서 각 octree 노드에 대한 법선 및 색상 정보를 저장할 수 있다.
본 발명의 실시예에 따르면, IBR에서 기하학적 정보를 표현하는데 있어 깊이 정보를 사용하는 방법(GBT, LDI) 및 구조 정보를 사용하는 방법(Octree)이 있는데, 이를 MPEG-4 AFX에서 사용 가능하도록 표현해주는 노드를 정의한다.
도 8은 표 2와 같이 정의된 DepthImage 노드의 각 필드가 직교 투영에 적용되는 경우에 대한 의미를 보여 준다. 도 9는 DepthImage 노드의 각 필드가 원근 투영에 적용되는 경우에 대한 의미를 보여 준다. DepthImage 노드에서는 도 8이나 도 9의 굵은 선으로 표시된 육면체의 내부에 정의된 물체에 대하여 시점(viewpoint)에서 가까운 면(near plane)에 투영되는 점들에 대한 정보를 관리한다. 도 10은 이 기술을 정육면체에 대하여 적용하는 Box Texture 기술을 사용한 프로그램에서 보여지는 결과를 나타낸다.
도 11은 octree 구조에 대한 단면을 보여 준다. 정육면체 내의 물체를 octree로 표현하기 위하여 그 물체의 표면이 포함되는 노드를 반복적으로 분할한다. 이를 더 많은 단계로 분할할수록 물체를 더욱 정교하게 표현할 수 있다. 이를 화면에 렌더링할 때 도 12와 같이 화면에서 먼 노드부터 화면에 뿌려 주면 된다. 도 13은 octree 기술을 적용한 BVO 기술을 사용한 프로그램을 실시예로 보여 준다.
본 발명에 의하면 삼차원 환경(scene) 내에 이미지 기반의 랜더링 기술을 사용하여 삼차원 환경 내의 물체를 표현하는 방법 및 그 장치을 제공할 수 있으며, 특히 ISO/IEC 14496 (MPEG-4)에서 또는 VRML (Virtual Reality Modeling Language)에서 삼차원 환경(scene) 내에 이미지 기반의 렌더링 (Image-based Rendering) 기술을 사용하여 삼차원 환경 내의 물체를 표현할 수 있다. 여기에는 GBT (General Box Texture) 기술 또는 LDI (Layered Depth Image) 기술을 사용하여 삼차원 환경 내의 물체를 표현하며, Octree 구조로 기하학적인 정보를 저장하는 방법을 사용하는 IBR 기술을 사용할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터네을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터 가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
상술한 바와 같이, 본 발명은 IBR 기술들 중에서 기하학적 정보를 포함하는 기술들 중에 간단한 방법들인 GBT, LDI 및 Octree 방식에 대한 표현방법을 정의하여 MPEG-4 AFX에서 사용 가능하도록 한다. 본 발명에서 정의한 IBR 표현들은 간단하므로 사용하기 편하고 MPEG-4에서 제공하는 영상 압축 기술과 같이 사용하면 효율적으로 압축 및 전송할 수 있다. 또한 동적 영상을 사용할 경우에는 IBR기술로 애니메이션도 가능하다. 본 발명에서 정의한 노드들은 MPEG-4에서 뿐만 아니라 VRML과 같이 3차원 환경을 표현하는 방식에서도 IBR을 사용할 수 있다.
국제 표준화 기구인 ISO/IEC(International Organization for Standardization / International Electrotechnical Commission) 산하에 JTC1/SC29/WG11 그룹에서는 MPEG-4의 표준안을 확장시키고 있다. MPEG-4에는 기본적인 삼차원 환경을 나타낼 수 있는 14496-1 (Systems) 표준이 있으며 이를 확장하기 위하여 MPEG-4 SNHC 소그룹에서 AFX (Animation Framework eXtension)에 대한 표준화를 진행시키고 있다. AFX에서는 복잡한 삼차원 환경을 표현하기 위해 필요한 기술들을 검토하고 있지만, 본 발명에서와 같이 AFX 내에 IBR에 관한 기술은 검토되고 있지 않으며, 본 발명은 MPEG-4 AFX에서 IBR 기술을 사용할 수 있도록 IBR 기술을 표현할 수 있는 방법 및 그 장치를 제공할 수 있다.

Claims (11)

  1. 삼차원 환경에서 이미지 기반의 랜더링 기술을 사용하여 삼차원 환경 내의 물체를 표현하는 방법에 있어서,
    임의의 시각적 위치에서 바라보는 상기 물체의 모습을 면으로 이미지화한 영상정보(Texture) 및 상기 이미지의 각 점에 대한 깊이정보(depth)에 따라 표현하되,
    상기 깊이정보는
    상기 면을 바라보는 시각적 위치 및 방향을 정의하는 필드(position 및 orientation);
    시야의 범위를 가로 및 세로에 대하여 각각 정의하는 필드(fieldOfView);
    상기 시각적 위치에서 부터 가까운 쪽 및 먼 쪽의 경계 면과의 거리를 각각 정의하는 필드(nearPlane 및 farPlane); 및
    투영방법이 직교 투영인지 또는 원근 투영인지를 나타내는 필드(orthogonal)를 포함하는 것을 특징으로 하는 삼차원 환경 내에서의 물체를 표현하는 방법.
  2. 삼차원 환경에서 이미지 기반의 랜더링 기술을 사용하여 삼차원 환경 내의 물체를 표현하는 방법에 있어서,
    상기 물체의 표면에서 투영되는 공간상의 점들에 대한 깊이정보 배열(depth[]) 및 상기 각 공간상의 점들에 대한 색상정보 배열(color[])에 따라 표현하되,
    상기 각 점에 대한 깊이정보는
    면을 정의하기 위하여 그 면을 바라보는 시각적 위치 및 방향을 정의하는 필드(position 및 orientation);
    시야의 범위를 가로 및 세로에 대하여 각각 정의하는 필드(fieldOfView);
    시각적 위치에서 부터 가까운 쪽 및 먼 쪽의 경계 면과의 거리를 각각 정의하는 필드(nearPlane 및 farPlane); 및
    투영방법이 직교 투영인지 또는 원근 투영인지를 나타내는 필드(orthogonal)를 포함하는 것을 특징으로 하는 삼차원 환경 내에서의 물체를 표현하는 방법.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1항 또는 제2항에 있어서, 직교 투영 방식의 경우에는 시야의 범위 필드(fieldOfView)의 가로 및 세로의 값이 경계면의 가로 및 세로 크기를 나타내며, 원근 투영 방식의 경우에는 시야의 범위 필드(fieldOfView)의 가로 및 세로의 값이 시야의 가로 및 세로 범위에 대한 각도를 나타내는 것을 특징으로 하는 물체 표현 방법.
  7. 삭제
  8. 삼차원 환경에서 이미지 기반의 랜더링 기술을 사용하여 삼차원 환경 내의 물체를 표현하는 방법에 있어서,
    한 모델을 포함하는 정육면체가 있는 경우 그 정육면체를 노드로 표현하고 이를 8등분하여 각각 자식노드로 관리하고, 자식노드들 중에서 모델의 일부를 포함하는 노드를 8등분하는 방식으로 노드의 크기가 충분히 작을 때까지 반복하여 모델의 기하학적 정보를 표현하는 것을 특징으로 하는 삼차원 환경에서의 물체 표현 방법.
  9. 제8항에 있어서, 상기 노드는
    트리 구조의 최대 단계가 정의되는 필드(octreelevel);
    상기 정육면체의 각 면으로 보이는 영상정보를 나타내는 영상정보 배열(octreeimages[]); 및
    octree의 내부 노드의 구조를 나타내는 필드(octree);를 포함하는 것을 특징으로 하는 삼차원 환경에서의 물체 표현 방법.
  10. 제8항에 있어서, 상기 각 점에 대한 영상정보는
    상기 면을 바라보는 시각적 위치 및 방향을 정의하는 필드(position 및 orientation);
    시야의 범위를 가로 및 세로에 대하여 각각 정의하는 필드(fieldOfView); 및
    시각적 위치에서부터 가까운 쪽 및 먼 쪽의 경계 면과의 거리를 각각 정의하는 필드(nearPlane 및 farPlane);를 포함하는 것을 특징으로 하는 삼차원 환경에서의 물체 표현 방법.
  11. 차원 환경에서 이미지 기반의 랜더링 기술을 사용하여 삼차원 환경 내의 물체를 표현하는 방법에 있어서,
    한 모델을 포함하는 정육면체가 있는 경우 그 정육면체를 노드로 표현하고 이를 8등분하여 각각 자식노드로 관리하고, 자식노드들 중에서 모델의 일부를 포함하는 노드를 8등분하는 방식으로 노드의 크기가 충분히 작을 때까지 반복하여 모델의 기하학적 정보를 표현하되,
    상기 노드는
    트리 구조의 최대 단계가 정의되는 필드(octreelevel);
    상기 정육면체의 각 면으로 보이는 영상정보를 나타내는 영상정보 배열(images[]); 및
    octree의 내부 노드의 구조를 나타내는 필드(octree);를 포함하며,
    상기 각 점에 대한 영상정보는
    상기 면을 바라보는 시각적 위치 및 방향을 정의하는 필드(position 및 orientation);
    시야의 범위를 가로 및 세로에 대하여 각각 정의하는 필드(fieldOfView); 및
    시각적위치 에서부터 가까운 쪽 및 먼 쪽의 경계 면과의 거리를 각각 정의하는 필드(nearPlane 및 farPlane);를 포함하는 것을 특징으로 하는 삼차원 환경에서의 물체 표현 방법.
KR1020010040975A 2001-07-09 2001-07-09 삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기위한 방법 KR100561837B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020010040975A KR100561837B1 (ko) 2001-07-09 2001-07-09 삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기위한 방법
EP02254691A EP1276076A3 (en) 2001-07-09 2002-07-03 Method for representing three-dimensional scenes
CNB021401500A CN1226702C (zh) 2001-07-09 2002-07-04 用于表示3维情景中基于图像的绘制信息的方法
CA2392638A CA2392638C (en) 2001-07-09 2002-07-05 Method for representing image-based rendering information in 3d scene
US10/188,845 US7148896B2 (en) 2001-07-09 2002-07-05 Method for representing image-based rendering information in 3D scene
RU2002118231/09A RU2227323C2 (ru) 2001-07-09 2002-07-08 Способ представления информации визуализации на основании изображения в 3d сцене
JP2002199665A JP3964749B2 (ja) 2001-07-09 2002-07-09 三次元シーンでイメージベースのレンダリング情報を表現するための方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010040975A KR100561837B1 (ko) 2001-07-09 2001-07-09 삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기위한 방법

Publications (2)

Publication Number Publication Date
KR20030005607A KR20030005607A (ko) 2003-01-23
KR100561837B1 true KR100561837B1 (ko) 2006-03-16

Family

ID=19711969

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010040975A KR100561837B1 (ko) 2001-07-09 2001-07-09 삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기위한 방법

Country Status (7)

Country Link
US (1) US7148896B2 (ko)
EP (1) EP1276076A3 (ko)
JP (1) JP3964749B2 (ko)
KR (1) KR100561837B1 (ko)
CN (1) CN1226702C (ko)
CA (1) CA2392638C (ko)
RU (1) RU2227323C2 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7537203B2 (en) 2003-06-07 2009-05-26 Opex Corporation Method and apparatus for processing mail obtain image data of contents
KR100657940B1 (ko) * 2004-12-28 2006-12-14 삼성전자주식회사 깊이 영상 기반 표현 데이터 압축에 관한 메타표현을이용한 입력파일 생성 방법 및 시스템과, afx부호화방법 및 장치
KR100624457B1 (ko) * 2005-01-08 2006-09-19 삼성전자주식회사 깊이-영상 기반의 모델링 방법 및 장치
US8237703B2 (en) 2006-12-22 2012-08-07 Geosim Systems Ltd. Split-scene rendering of a three-dimensional model
WO2008133790A1 (en) * 2007-04-27 2008-11-06 Lpa Systems, Inc. System and method for analysis and display of geo-referenced imagery
CN100535944C (zh) * 2007-06-29 2009-09-02 北京大学 一种用于视觉凸壳绘制的高光区域选取方法及其装置
CN100535943C (zh) * 2007-06-29 2009-09-02 北京大学 一种用于视觉凸壳绘制的高光亮斑消除方法及其装置
US8384718B2 (en) * 2008-01-10 2013-02-26 Sony Corporation System and method for navigating a 3D graphical user interface
US9641822B2 (en) 2008-02-25 2017-05-02 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional (3D) images
EP2180449A1 (en) * 2008-10-21 2010-04-28 Koninklijke Philips Electronics N.V. Method and device for providing a layered depth model of a scene
KR101760323B1 (ko) 2010-01-13 2017-07-21 삼성전자주식회사 장면의 3차원 뷰들을 렌더링 하기 위한 시스템 및 방법
CN102750726B (zh) * 2011-11-21 2017-09-19 新奥特(北京)视频技术有限公司 一种基于OpenGL实现景深效果的方法
CN104781852B (zh) 2012-09-21 2020-09-15 欧克里德私人有限公司 用于渲染三维场景的计算机绘图方法
CN104598182B (zh) * 2014-12-25 2018-02-02 北京数码大方科技股份有限公司 用于文档的三维演示方法及装置
CN107993279B (zh) * 2017-11-03 2021-06-29 中国人民解放军陆军工程大学 一种场景精确表达方法
CN111105485B (zh) * 2018-10-09 2024-02-27 杭州海康威视数字技术股份有限公司 一种线条渲染方法、装置
CN110866971B (zh) * 2019-10-29 2023-08-11 桂林理工大学 真平方正射影像制作方法
CN111340956B (zh) * 2020-02-26 2024-02-06 陕西理工大学 一种空间图形绘制方法
CN114442895A (zh) * 2022-04-07 2022-05-06 阿里巴巴达摩院(杭州)科技有限公司 三维模型构建方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08235382A (ja) * 1995-02-24 1996-09-13 Hitachi Ltd 3次元コンピュータグラフィックス編集装置
US5819017A (en) * 1995-08-22 1998-10-06 Silicon Graphics, Inc. Apparatus and method for selectively storing depth information of a 3-D image
US6016151A (en) * 1997-09-12 2000-01-18 Neomagic Corp. 3D triangle rendering by texture hardware and color software using simultaneous triangle-walking and interpolation for parallel operation
KR20020001072A (ko) * 2000-06-24 2002-01-09 한탁돈 3차원 그래픽 가속기 및 그의 그래픽 가속처리 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4694404A (en) * 1984-01-12 1987-09-15 Key Bank N.A. High-speed image generation of complex solid objects using octree encoding
FR2625345A1 (fr) * 1987-12-24 1989-06-30 Thomson Cgr Procede de visualisation en trois dimensions d'objets codes numeriquement sous forme arborescente et dispositif de mise en oeuvre
JPH0855239A (ja) 1994-07-21 1996-02-27 Internatl Business Mach Corp <Ibm> グラフィカル・オブジェクトの可視性を判定するための方法および装置
US5600763A (en) * 1994-07-21 1997-02-04 Apple Computer, Inc. Error-bounded antialiased rendering of complex scenes
JP3570576B2 (ja) 1995-06-19 2004-09-29 株式会社日立製作所 マルチモダリティに対応した3次元画像合成表示装置
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US6064750A (en) * 1997-01-10 2000-05-16 Hunter Engineering Company Apparatus and method for determining vehicle wheel alignment measurements from three dimensional wheel positions and orientations
DE19801801C2 (de) * 1997-01-20 2000-06-29 Nissan Motor Navigationssystem und Speichermedium für das Speichern dafür verwendeter Betriebsprogramme
FR2760277B1 (fr) 1997-02-28 1999-03-26 Commissariat Energie Atomique Procede et dispositif de localisation d'un objet dans l'espace
US6466207B1 (en) * 1998-03-18 2002-10-15 Microsoft Corporation Real-time image rendering with layered depth images
US6509898B2 (en) * 1998-04-17 2003-01-21 Xerox Corporation Usage based methods of traversing and displaying generalized graph structures
JP2000182081A (ja) * 1998-12-14 2000-06-30 Suzuki Motor Corp 解析モデル作成方法および装置並びに解析モデル作成用プログラム若しくは解析モデルデータを記憶した記憶媒体
US6654031B1 (en) * 1999-10-15 2003-11-25 Hitachi Kokusai Electric Inc. Method of editing a video program with variable view point of picked-up image and computer program product for displaying video program
US6567081B1 (en) * 2000-01-21 2003-05-20 Microsoft Corporation Methods and arrangements for compressing image-based rendering (IBR) data using alignment and 3D wavelet transform techniques
JP3933887B2 (ja) 2001-03-29 2007-06-20 片倉チッカリン株式会社 植物のウドンコ病の病害防除資材とその使用方法
US6677945B2 (en) * 2001-04-20 2004-01-13 Xgi Cayman, Ltd. Multi-resolution depth buffer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08235382A (ja) * 1995-02-24 1996-09-13 Hitachi Ltd 3次元コンピュータグラフィックス編集装置
US5819017A (en) * 1995-08-22 1998-10-06 Silicon Graphics, Inc. Apparatus and method for selectively storing depth information of a 3-D image
US6016151A (en) * 1997-09-12 2000-01-18 Neomagic Corp. 3D triangle rendering by texture hardware and color software using simultaneous triangle-walking and interpolation for parallel operation
KR20020001072A (ko) * 2000-06-24 2002-01-09 한탁돈 3차원 그래픽 가속기 및 그의 그래픽 가속처리 방법

Also Published As

Publication number Publication date
KR20030005607A (ko) 2003-01-23
US20030048266A1 (en) 2003-03-13
RU2002118231A (ru) 2004-01-20
JP3964749B2 (ja) 2007-08-22
JP2003091745A (ja) 2003-03-28
CA2392638C (en) 2011-10-04
CA2392638A1 (en) 2003-01-09
RU2227323C2 (ru) 2004-04-20
CN1226702C (zh) 2005-11-09
EP1276076A3 (en) 2004-09-08
US7148896B2 (en) 2006-12-12
EP1276076A2 (en) 2003-01-15
CN1396564A (zh) 2003-02-12

Similar Documents

Publication Publication Date Title
KR100561837B1 (ko) 삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기위한 방법
KR100888537B1 (ko) 이미지의 2 계층이며, 삼차원인 표현을 생성하기 위한 컴퓨터 구현 방법, 시스템 및 컴퓨터―판독가능 매체
US6441815B1 (en) Method and system for high performance computer-generated virtual environments
CA2391670C (en) Hierarchical image-based representation of still and animated three-dimensional object, method and apparatus for using this representation for the object rendering
Smolic et al. Interactive 3-D video representation and coding technologies
US6954202B2 (en) Image-based methods of representation and rendering of three-dimensional object and animated three-dimensional object
Alatan et al. Scene representation technologies for 3DTV—A survey
Koyama et al. Live mixed-reality 3d video in soccer stadium
CN103345771A (zh) 一种基于建模的图像高效渲染方法
KR100610689B1 (ko) 3차원 화면에 동영상을 삽입하는 방법 및 이를 위한 기록매체
Tomiyama et al. Algorithm for dynamic 3D object generation from multi-viewpoint images
Bayakovski et al. Depth image-based representations for static and animated 3D objects
Funkhouser A visibility algorithm for hybrid geometry-and image-based modeling and rendering
JP2004295917A (ja) グラフィックシーンの動画化のためのデータを作成する方法及び装置
Hisatomi et al. Method of 3D reconstruction using graph cuts, and its application to preserving intangible cultural heritage
WO2024055211A1 (zh) 基于NeRF多景层结合的三维视频重建方法及系统
Kompatsiaris et al. 3D representation of videoconference image sequences using VRML 2.0
Liu et al. omega-orbit finite automata for data compression
Würmlin Dynamic point samples as primitives for free-viewpoint video
Megyesi et al. 3D video visualization on the holovizio system
Magnor et al. Capturing the shape of a dynamic world-fast!
Qui Interactive mixed reality media with real time 3d human capture
Shade View-dependent image-based techniques for fast rendering of complex environments
Melero et al. Progressive Transmission of Large Archaeological Models
Chang LDI tree: a sampling rate preserving and hierarchical data representation for image-based rendering

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130221

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140221

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150212

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160219

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170221

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee