KR20030002995A - 3차원 객체와 애니메이트된 3차원 객체의 이미지 기반표현과 렌더링 방법 - Google Patents
3차원 객체와 애니메이트된 3차원 객체의 이미지 기반표현과 렌더링 방법 Download PDFInfo
- Publication number
- KR20030002995A KR20030002995A KR1020020029321A KR20020029321A KR20030002995A KR 20030002995 A KR20030002995 A KR 20030002995A KR 1020020029321 A KR1020020029321 A KR 1020020029321A KR 20020029321 A KR20020029321 A KR 20020029321A KR 20030002995 A KR20030002995 A KR 20030002995A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- point
- rendering
- circumscribed cube
- texture
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
본 발명은 실제 객체의 사진들과 이들의 기하학적 표현으로부터 얻어진 3차원 정지객체와 애니메이트된(animated) 객체의 표현, 그리고 객체의 단순화한 기하학적 모델을 사용한 표현과 렌더링(rendering) 방법에 관한 것으로서, 3차원 객체의 원데이터를 중간 표현으로 변환하는 단계; 상기 중간 표현 데이터를 계층화된 심도 이미지가 각 면에 해당하는 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계; 관측자의 위치를 고려하여 상기 외접 입방체의 가시면들을 결정하고 상기 가시면들의 각각에 대하여 상기 계층화된 심도 이미지를 텍스쳐로 변환하고 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 하며, 적은 저장량, 고품질의 출력 이미지를 가지는 렌더링이 가능함으로써 에니메이션 목적에 적합한 이미지 기반 표현이 가능하다
Description
본 발명은 컴퓨터 그래픽에 관한 것이며, 보다 자세하게는 실제 객체의 사진들과 이들의 기하학적 표현으로부터 얻어진 3차원 정지객체와 애니메이트된(animated) 객체의 표현, 그리고 객체의 단순화한 기하학적 모델을 사용한 표현과 렌더링(rendering) 방법에 관한 것이다.
가까운 장래에, 실시간에서 3차원 객체를 고품질 렌더링하는 것은 현대 그래픽 시스템에서 주된 관심을 받고 있다. 3차원 객체를 고품질로 렌더링하고자 하는 요구는 전자 상거래, 컴퓨터 게임, 과학, 공학, 의학같은 분야에서 객체를 압축하고, 이를 통신망을 통하여 전송하기 위하여 고안될 효율적인 알고리즘을 필요로 한다. 이러한 요구를 동시에 만족시키기위한 지난 수십년간에 걸친 3차원 객체의 전통적인 다각형 모델의 사용은 원하는 결과를 낳는데 실패하였다. 다각형 모델들은 두 가지 중요한 단점을 가지고 있다; 대용량(예를들면, 현실적인 모델들은 수천만개의 삼각형을 필요로 한다)과 구축의 어려움이 그 것이다. 이러한 난점을 극복하기 위하여, 3차원 그래픽에의 접근 방식이 최근 몇 년간 제안되어왔다. 특히 객체의 이미지에 기반을 둔 방법과 3차원 공간에서 삼각형대신에 점들에 기반을 둔 방법이 매우 좋은 성능을 보인다.
이미지 기반 방법들은 주어진 객체를 이미지들 - 가시면(visible surface)을 완전히 커버하고 여러개의 상이한 카메라 위치들로부터 취해진 객체의 '사진들' - 의 집합으로 표현한다. 게다가, 그러한 각 이미지는 이미지 평면으로부터 객체 표면까지의 거리의 배열인 대응되는 심도 맵(depth-map)을 수반한다. 이러한 표현의 장점은 기준 이미지들이 다각형 모델의 복잡성에 무관하게 높은 품질의 객체 가시화(visualization)를 제공할 수 있고, 품질에 많은 영향을 주지 않으면서 일반적으로 사용되는 이미지 압축 기술에 의하여 압축될 수 있다는 것이다. 게다가, 렌더링 시간은 기준이미지와 출력이미지들의 픽셀 수에 비례하는 것이지 객체의 복잡성에 비례하지 않는다.
단점은 실제의 객체(예를들면, 조각품)에 대한 심도 맵을 얻는 것이 좀 복잡한 과정이고, 그러한 표현들을 다룰 기술이 아직 충분히 개발되어있지 않다는 점에 기인한다.
점 기반(point-based) 방법들은 객체를 명백한 로컬 다각형 구조의 부과 없이 '점들의 구름(clouds of points)'으로 표현한다. 이 방법에서, 하나의 심도 이미지들의 집합은 이미지 평면에 수직인 방향으로 대응되는 심도 값으로 각 기준 이미지의 각 픽셀을 변환함으로써 객체 표면상의 (대응되는 컬러를 가지는) 점들의 집합을 정의한다. 그러므로 이미지 기반 표현은 점 기반 표현의 특별한 경우이다. 이하에서 이미지 기반 표현이 본 발명에 보다 가까우므로 이에 집중하여 설명한다.
문헌을 보면, 위에서 언급한 2가지 추세가 릴리프 텍스쳐 매핑(Relief Texture Mapping)[1], 계층화된 심도 이미지(Layered Depth Images)[2], 계층화된심도 이미지 트리(Layered Depth Image Tree)[3], Qsplat[4], Surfels[5], 그리고 종래의 몇가지 3차원 객체 표현과 렌더링 방법에 대하여 언급하고 있는 참고문헌 [1] 내지 [15]에 기술되어있다.
[1] Manuel M. Oliveira, Gary Bishop, David McAllister. Relief Textures Mapping. Proceedings of SIGGRAPH 00.
[2] Jonathan Shade, Steven Gortler, Li-wei He, Richard Szeliski, Layered Depth Images, Computer Graphics Proceedings, Annual Conference Series, 1998, Proceedings of SIGGRAPH 98, Orlando, Florida, July 19-24, 1998.
[3] Chun-Fa Chang, Gary Bishop, Anselmo Lastra. LDI Tree: A Hierarchical Representation for Image-Based Rendering.
[4] Szymon Rusinkiewicz, Marc Levoy. QSplat: A Multiresolution Point Rendering System for Large Meshes. Proceedings of SIGGRAPH 00.
[5] Hanspeter Pfister, Matthias Zwicker, Jeroen van Baar, Markus Gross. Surfels: Surface Elements as Rendering Primitives, Proceedings of SIGGRAPH 00.
[6] Chamberlain et al., Fast Rendering of Complex Environments Using a Spatial Hierarchy, Proceedings of Graphics Interface 96.
[7] Grossman and Dally, Point sample rendering, Proceedings of Eurographics Workshop on Rendering Techniques 98.
[8] Lischinski and Rappoport, Image-Based Rendering for Non-DiffuseSynthetic Scenes, Proceedings of Eurographics Workshop on Rendering Techinques 98.
[9] M. Levoy and T. Whitted. The Use of Points as Display Primitives. Technical Report TR 85-022, The University of North Carolina at Chapel Hill, Department of Computer Science, 1985.
[10] L. Westover. Footprint Evaluation for Volume Rendering. In Computer Graphics, Proceedings of SIGGRAPH 90, page 367-376. August 1990.
[11] C. I. Connolly. Cumulative generation of octree models from range data. Proceedingsof Intl. Conf. Robotics, pages 25-32, March 1984.
[12] G.H Tarbox and S.N. Gottschlich. IVIS: An integrated volumetric inspection system. Proceedings of the Second CAD-Based Vision Workshop, pages 220-227, February 1994.
[13] Curless, B., Levoy, M. A volumetric method for building complex models from range images. Proceedings of SIGGRAPH 96, pp. 303-312.
[14] C. Bregler, Video Based Animation Techniques for Human Motion, Proceedings of SIGGRAPH 00, in Course 39, "Image-based modeling and rendering".
[15] Paul F.Debevec, Camillo J. Taylor, Jitendra Malik, Modeling and Rendering Architecture from Photographs: A hybrid geometry-and image-based approach, Proceedings of SIGGRAPH 96.
이미지 기반 방법들의 공통적인 문제는 결과 이미지에 구멍(hole)이 발생한다는 것이다. 객체의 표면이 모든 다각형(보통 삼각형)의 내부에 선형적으로 보간(interpolated)된다는 의미에서 '연속적' 인 다각형 모델과는 달리, 이미지 기반과 점 기반 표현은 객체의 '불연속적(discrete)'인 추정치를 제공한다. 이미지 기반 표현의 경우, 사실상 객체 표면은 조그만 컬러 사각형들로, 즉 기준 이미지의 전이된 픽셀들로 추정된다. 그러나 관측방향이 기준영상의 각 면에 수직 방향과 많이 다른 때에는 추정 사각형의 투영은 일반적으로 객체 표면의 투영을 완전하게 다루지 않는다. 그러한 구멍들을 제1형 구멍이라고 하자. 이미지 기반 표현에서 결과 이미지에 구멍이 생기는 또 다른 원인은 표면의 어떤 부분들이 모든 기준 이미지에서 보이지 않을 수 있다는 것에 기인하지만 어떤 관측점에 대하여는 보이게 된다(제2형 구멍). 이러한 구멍들은 특정한 이미지 기반 표현에서 얻어지는 불충분한 정보에 기인한다.
Relief texture방법[1]은 선형 보간법과 유사한 방법을 사용하여 제1형 구멍을 억제하는데, 이 방법은 상기 보간이 객체 투영을 3차원이 아닌 2차원으로 수행하기 때문에 왜곡과 인공물이 발생할 수 있다는 것이다. 더 중요한 것은 제2형 구멍이 이 방법에서는 동일한 방식으로 취급될 수 있다는 것이다.
계층화된 심도 이미지(Layered Depth Image, LDI)[2]는 제2형 구멍과 관련된 문제를 회피하기 위하여 고안된 데이터 구조이다. LDI는 그 픽셀들이 기준 이미지 평면에서 어떤 고정된 지점으로 투영되는 모든 객체 점들을 포함하는 이미지이다. [1]의 고속 프리워핑(prewarping) 알고리즘은 또한 여기에서 적용된다. ([10]에서처음 소개된) 스플래팅(splatting)은 제1형 구멍의 문제를 해결하기 위하여 사용된다. 스플랫은 어떤 컬러 분포-예를 들면, 조각(patch)의 중앙이 중앙이 되는 가우시안 분포 혹은 상수 -가 주어진 조그만 2차원 직선 혹은 타원형 표면 조각이다. LDI 방법의 결점은 그 표현이 어떤 고정된 방향으로의 투영에 기초하기 때문에 발생하는 비대칭성에 있다. 이로 인하여 상기 고정된 방향과 상당히 다른 관측방향에 대하여 구멍을 채우는 것이 매우 어렵게 된다.
LDI 트리[3]는 옥트리(octree)인데, 각 옥트리(octree) 셀(노드)에는 LDI가 첨부된다. 계층적(hierarchical) 모델을 가지는 장점은 옥트리내의 모든 LDI가 렌더링되어야만 되는 것은 아니라는 것이다. 더 떨어져 있는 이러한 셀들은 보다 높은 계층의 LDI에 저장되는 필터링된 점들을 사용함으로써 덜 자세하게 렌더링된다. 이 표현은 많은 기준 이미지들을 사용하여 LDI의 비대칭성을 극복하기 위하여 고안되었다. 그러나 저장공간이 매우 커지게 된다; 512-by-512 이미지(36개의 기준 이미지에서 얻어짐)에 대한 LDI트리는 [3]에서 보고된 바와 같이 30Mbytes를 차지한다. [3]에서 보고된 바와 같이 이 객체의 렌더링 시간도 또한 크다 ; 32250MHz MIPS R10000프로세서를 가진 Silicon Graphics Onyx2 상에서 프레임당 2내지 3초가 소요된다(병렬처리는 사용되지 않았음).
이미지 기반 데이터를 트리 구조로 결합하는 또 다른 방법이 최근에 고안된 서펠스(Surfels) 방법[5]이다. 이 것은 하나의 LDI 트리 대신, 노드들이 특정한 트리[8]가 3개의 직교 평면에 대응하는 3개의 LDI를 포함하는 계층화된 심도 입방체(layered-depth cube;LDC)이다. [5]에서 보고된 결과들은 81000개의 삼각형을 포함하는 원래의 모델에 대하여 얻어졌다. 256-by-256 출력 버퍼에 대한 초당 11프레임(fps)인 프레임 속도는 펜티엄 III 700MHz 프로세서상에서 얻어졌다. 서펠스는 대응되는 심도 벡터에 의하여 전이되는 기준 이미지 픽셀들이다. 트리 구조는 가시 요소들을 선택하기 위한 계산 속도 향상을 위하여 사용된다. 구멍 채우기(hole filling)는 최근접 이웃(nearest-neighbor) 혹은 가우시안 필터링에 의하여 얻어진다. 스플래팅은 이 구조에서 실행된다. 결과 이미지의 높은 품질은 데이터의 양과 렌더링 속도 제한을 희생하고 얻어진다.
최근에 도입된 Qsplat 표현[4]은 비록 그것이 이미지 기반이 아닌 점 기반 방법이지만 또한 언급되어야 한다. 이 방법은 중첩된 공들(nested balls)에 기반을 둔 계층적인 점 구조를 사용한다. 적절한 크기의 타원 스플랫들이 렌더링 단계에서 사용된다. 그러나 [4]에서는 다소 복잡하고 시간이 소모되는 절삭 컬링(truncated culling)이 사용된다. 또한 데이터 구조는 보다 복잡하고 많은 처리 시간을 필요로 한다.
심도 이미지들의 집합과 같은 범위 데이터를 가지는 옥트리 구조의 3차원 모델을 얻는 아이디어와 실행방법이 [11]내지 [12]에서 개발되었다. [13]은 옥트리를 사용하여 원 데이터로부터 다각형 모델을 구축하는 것을 다루고 있다.
위의 모든 것은 3차원의 정지 이미지 기반 표현에 관련되어있다. 동적 3차원 객체에 대하여는 지금까지 이 문제를 위한 극소수의 이미지 기반 방법만이 제안되었다는 것을 인지하여야만 한다. [14]에서 거의 일정한 3차원 얼굴의 기하학적인 외형을 위한 얼굴 이미지 수정에 대한 아이디어가 제시되어있다. 이 것은 제한된영역의 동적 객체에만 적용되고 실제 3차원 객체의 애니메이션에는 적용되지 못한다. [15]에서 건축물 영상이 몇 개의 사진을 기반으로 한 다양한 관측점으로부터 건축물의 관측을 재구성하는 관측에 의존적인(view-dependent) 텍스쳐 맵핑을 이용하여 애니메이션된다.
그래서, 적은 저장량, 고품질의 출력 이미지를 가지는 렌더링을 허용하고 에니메이션 목적에 적합한 이미지 기반 표현이 필요하다는 것이 분명해진다.
본 발명의 기술적 과제는 심도 이미지들에 기반을 둔 3차원 객체 표현과 심도 이미지에 기반을 두어 빠르고 고품질의 렌더링 그리고 기존의 하드웨어 기반의 가속 수단의 사용 가능성을 허용하고 빠른 와핑(warping), 정확하게 계산된 크기의 스플랫을 이용한 가시화, 그리고 불필요한 계산을 제거하는 컬링 과정을 허용함으로써 렌더링 속도를 향상시키는 3차원 객체의 표현과 렌더링 방법을 제공하는 것이다.
본 발명의 다른 기술적 과제는 빠르고 올바른 렌더링을 허용하면서 빠른 와핑(warping), 정확하게 계산된 크기의 스플랫을 이용한 가시화, 그리고 불필요한 계산을 제거하는 컬링 과정을 허용함으로써 렌더링 속도를 향상시키는 동적 3차원 객체의 간결한 표현을 위한 방법을 제공하는 것이다.
도 1은 3차원 객체를 표현하고 렌더링하기 위한 일련의 단계를 보여주는 도면이다.
도 2a와 도 2b는 흑백 이미지(도 2a)와 컬러 이미지(도 2b)의 맵 쌍을 보여주는 도면이다.
도 3a와 도 3b는 계층화된 심도(depth) 이미지의 한 예를 보여주며, 도 3a는 모델 투영(projection) 원리를, 그리고 도 3b는 상기 투영 결과인 데이터 구조를 보여주는 도면이다.
도 4는 경계 외접 입방체의 각 면에 대하여 계층화된 심도 이미지를 형성하는 단계에서 중간 표현 점들을 확인하는 것을 보여주는 도면이다.
도 5는 다층 심도 이미지의 각 가시면(visible face)을 텍스쳐(texture)로 변환하는 단계에서 경계 외접 입방체의 한 면을 사분면(quadrant)으로 분할하는 예를 보여주는 도면이다.
도 6a와 도 6b는 계층화된 심도 이미지의 모든 점이 결과적인 텍스쳐에 포함되는지의 여부를 확인하는 원리를 보여주는 것으로서, 도 6a는 관측자의 위치에 대하여 점이 보이는지의 여부를 확인하는 것을, 도 6b는 점들이 결과적인 텍스쳐에 포함되는 지의 여부를 확인하는 것을 보여준다.
상기의 기술적 과제를 해결하기 위하여 본 발명에 의한 3차원 객체의 표현과 렌더링 방법은 3차원 객체의 원데이터를 중간 표현으로 변환하는 단계; 상기 중간표현 데이터를 계층화된 심도 이미지가 각 면에 해당하는 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계; 관측자의 위치를 고려하여 상기 외접 입방체의 가시면들을 결정하고 상기 가시면들의 각각에 대하여 상기 계층화된 심도 이미지를 텍스쳐로 변환하고 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 한다.
상기의 다른 기술적 과제를 해결하기 위하여 본 발명에 의한 3차원 객체의 표현과 렌더링 방법은 3차원 객체의 원래 데이터를 중간 표현으로 변환하는 단계; 상기 중간 표현의 프레임들에 대한 데이터를 계층화된 심도 이미지가 각 면에 해당하는 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계; 각 프레임에 대하여 관측자의 위치를 고려하여 상기 외접 입방체의 가시면을 결정함으로써 상기 얻어진 표현의 시퀀스를 렌더링하고, 상기 가시면에 대하여 상기 계층화된 심도 이미지을 텍스쳐로 변환하고, 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 한다.
이하 첨부한 도면을 참조하여 본 발명의 바람직한 일 실시예에 대하여 자세하게 설명을 한다.
도 1은 3차원 객체를 표현하고 렌더링하기 위한 일련의 단계를 보여주는 도면이고, 도 2a와 도 2b는 흑백 이미지(도 2a)와 컬러 이미지(도 2b)의 맵 쌍을 보여주는 도면이다.
도 3a와 도 3b는 계층화된 심도(depth) 이미지의 한 예를 보여주며, 도 3a는 모델 투영(projection) 원리를, 그리고 도 3b는 상기 투영 결과인 데이터 구조를보여주는 도면이다. 그리고 도 4는 외접 입방체의 각 면에 대하여 계층화된 심도 이미지를 형성하는 단계에서 중간 표현 점들을 확인하는 것을 보여주는 도면이다.
도 5는 다층 심도 이미지의 각 가시면(visible face)을 텍스쳐(texture)로 변환하는 단계에서 외접 입방체의 한 면을 사분면(quadrant)으로 분할하는 예를 보여주는 도면이며, 도 6a와 도 6b는 계층화된 심도 이미지의 모든 점이 결과적인 텍스쳐에 포함되는지의 여부를 확인하는 원리를 보여주는 것으로서, 도 6a는 관측자의 위치에 대하여 점이 보이는지의 여부를 확인하는 것을, 도 6b는 점들이 결과적인 텍스쳐에 포함되는 지의 여부를 확인하는 것을 보여준다.
먼저 도면의 주요 부분을 참조번호와 함께 설명하면 다음과 같다.
도 1은, 3차원 객체를 표현하고 렌더링하는 101 내지 104단계, 3차원 객체 모델(105), 중간 표현(106,107), 렌더링 표현(108), 텍스쳐(109), 외접 입방체의 다각형 모델(110), 그리고 상기 모델의 가시화된 이미지(111)를 보여준다.
도 2a와 도 2b는 그레이 스케일 이미지와 컬러 이미지를 각각 보여준다.
도 3a와 도 3b는 모델(301), 기본 평면(302), 계층화된 심도 이미지의 각 픽셀에 대한 모델의 점들(303)을 보여준다.
도 4는 외접 입방체(401), 렌더링 표현의 점들(402), 그 점(402)에서의 법선(403), 가시 원뿔(visibility cones)(404)를 보여준다.
도 5는 관측자의 위치(501), 상기 관측자의 위치에서 면으로의 수직 투영(502), 면(401)의 사분면들(503,504,505,506),상기 각 사분면에서의 횡단 방향(507,508,509,510)을 보여준다.
도 6a와 도 6b는 점 402에서의 법선(403)과 점 501 방향 사이각(602), 관측자가 위치해있는 점 501을 통과하는 평면의 투영(601), 그리고 관측자를 기준으로 해서 외접 입방체 면의 가장 가까운 모서리(edge, 401)를 보여준다.
이제 도 1을 참조하면서, 3차원 객체의 표현과 렌더링 방법을 자세하게 설명하도록 한다.
제 101단계에서, 3차원 객체의 모델(105)은 중간 표현(106,107)으로 변환된다. 이 중간 표현은 6쌍의 맵의 집합(106)이 될 수 있는데, 이것은 그레이 스케일 이미지(도 2a)와 컬러 이미지(도 2b)로, 혹은 다층 심도 이미지(107)로 이루어진다. 첫 번째 경우에 있어서, 중간 표현은 상기 외접 입방체의 면으로부터 보이는 모델 표면 부분의 정보만 저장한다. 그레이 스케일 이미지(도 2a)의 한 점의 밝기는 외접 입방체의 면에서 모델 표면까지의 거리에 의하여 정하여진다. 최대 밝기는 가장 가까운 면에 놓여있는 모델 표면상의 점들에 대응하고, 최소 밝기는 반대쪽 면에 놓여있는 점들에 대응한다. 모델 표면에 속하는 점들에 대응하지 않는 이미지 점들은 0의 밝기 값으로 코딩된다. 두 번째 표현(도 3a와 도 3b)은 모델(301) 표면의 모든 정보를 저장한다. 왜냐하면 계층화된 심도 이미지의 각 픽셀은 그 픽셀로 투영하는 모델 점들의 집합(303)에 대응하고, 여기서 모델 표면 점의 컬러와 심도 그리고 추가적으로 이 점에서 상기 모델 표면으로의 법선이 집합(303)에서의 각 점에 대응하기 때문이다.
102단계에서, 렌더링 표현은 외접 입방체의 각 면에 대하여 계층화된 심도 이미지로써 형성된다. 중간 표현(106)을 사용하는 경우, 외접 입방체의 각 면에 대하여 이 면으로부터 보이는 모델 표현 부분의 점들의 좌표들은 다른 면과 관련된 좌표 시스템으로 변환되고, 변환 결과는 상기 면에 대응하는 심도 이미지에 부가된다. 중간 표현(107)을 사용할 때, 계층화된 심도 이미지는 각 면에 관련된 좌표 시스템으로 변환된다.
중간 표현(107)을 사용하면서 각 면에 대한 계층화된 심도 이미지를 구축하는 과정에서, 각각의 새롭게 추가되는 점이 이 면으로부터 잠재적으로 보일 가능성이 있는지 확인한다. 도 4에서 보인 것처럼, 만약 점(402)에서의 법선(403) 이 가시 원뿔(404)에 포함되는 경우라면 그 점은 상기 계층화된 심도 이미지에 추가되지 않게 된다.
103단계에서, 가시화에 필요한 텍스쳐들이 전형적인 방법(104단계)으로 생성된다. 먼저, 외접 입방체의 가시면들이 관측자의 현재 위치를 고려하여 결정되고 각 면에 대하여 이미지가 생성된다. 그리고 텍스쳐로써 상기 면 위에 부과된다. 텍스쳐 크기는 상기 면으로의 법선과 관측자의 위치 점과 면 중심에 의하여 정의되는 벡터 사이각을 사용하여 결정된다. 만약 사이각이 0에 가까우면, 텍스쳐 크기는 원래의 이미지 크기와 실질적으로 동일하다. 사이각이 커질수록, 텍스쳐 크기는 그에 따라 감소한다. 텍스쳐 크기는 각 좌표 u,v에 대하여 독립적으로 계산된다.
텍스쳐 구축 과정은 외접 입방체의 면에 대응하는 다층 심도 이미지의 점들의 횡단을 포함한다. 도 5에서 보였듯이, 횡단 순서는 다음처럼 선택된다.
관측자의 위치점(501)의 투영은 상기 외접 입방체의 면 평면상에서 발견된다. 상기 투영에 대응하는 점 502는 상기 면을 4개의 사분면(503,504,505,506) 이하로 분할한다. 각 사분면에서, 상기 계층화된 심도 이미지의 횡단 방향은 점들이 507,508,509,510 방향들로 직선으로 횡단되도록 선택된다. 그리고 각 사분면내의 점들은 선택된 방향에서 횡단하며, 상기 면내의 동일한 좌표를 가지는 점들은 감소하는 심도의 순서로 횡단한다. 각 점은 2단계로 구성되는 컬링(culling)과정을 거친다. 첫 번째 단계는 만약 법선들이 계층화된 심도 이미지에 존재한다면 수행되고, 도 6a에서 보인 것처럼, 상기 점으로의 접선방향을 확인하는 단계를 포함한다. 관측 벡터와 점(402)에서의 법선 사이각(602)이 결정된다. 만약 각(602)이 90도를 초과하면, 그 점은 무시되고, 상기의 과정은 두 번째 점으로 이동한다. 그렇지 않은 경우에, 두 번째 테스트가 기능적 변환후에 상기 텍스쳐내에 포함되지 않을 점의 제거를 포함하면서 수행된다.
외접 입방체의 각 가시면에 대하여, 2개의 배열 Mu와 Mv(첨자는 면의 대응되는 좌표(u,v)를 나타낸다)가 예비적으로 구성되고, 이 배열들은 상기 외접 입방체내에 포함되고 상기 외접 입방체의 면(401)과 관측자가 위치한 점(501)의 가장 가까운 2개의 모서리를 통과하는 평면들 상에 위치한 점들의 심도로 구성된다. 도 6b는 좌표 U에 대응하는 상기 평면들중 하나의 투영(601)을 보여준다. 배열 데이터 요소들은 계층화된 심도 이미지의 점들에 대한 두 번째 컬링 기준으로 사용된다. 만약 점 심도가 Mu[u] 혹은 Mv[v]보다 크면(여기서 u,v는 외접 입방체면에서 각 점의 좌표들이다) 상기 과정은 다음 점으로 이동한다. 왜냐하면 이 점은 결과적인 텍스쳐에서 볼 수 없을 것이기 때문이다. 그리고나서, 1차원 기능 변환(와핑, [1]을 볼 것)이 점 좌표(u,v)와 심도(d)에 따라 각 선택된 점에 적용된다.
기능 변환을 하게 되면 선택된 관측자의 위치(501)와 관련된 좌표 시스템에서의 좌표들(u',v')을 얻는다. 변환은 가시면들의 모든 점에 대하여 수행된다. 스플랫은 생성된 텍스쳐내의 얻어진 좌표들을 가지는 점에서 형성된다. 스플랫의 컬러는 원래의 좌표(u,v,d)를 가지는 점의 컬러에 대응한다. 스플랫의 모양은 텍스쳐내에서 부과되는 속도를 고려하여 선택되고, 보통 사각형 혹은 원형이다. 스플랫의 크기는 원래의 이미지 크기, 얻어진 텍스쳐 크기로부터 결정되며 계층화된 심도 이미지의 점들에서의 법선을 고려하여 조절될 수 있다. 스플랫 센터의 좌표들은 와핑에 의하여 얻어진 좌표(u',v')에 대응하여야만 한다. 결과적으로 각 가시면에 대하여 이미지가 얻어지고, 이 이미지는 104단계(도 1)에서 다각형 모델의 대응하는 면상에 부과된다(도 1). 얻어진 텍스쳐들 내의 다루어지지 않은 영역들은 투명(transparent)한 것으로 표시되며, 이 것은 외접 입방체 다각형 모델은 이면(background)을 다루지 않으므로 결과 이미지의 수정을 보장한다.
애니메이트된 객체의 표현을 위한 방법은 위에서 설명한 방법과 기본적으로 동일하므로 특징적인 면만 설명하면 다음과 같다. 모델 원 데이터 스트림 즉 에니메이션 프레임들의 열에 대한 외접 입방체가 결정된다. 그리고나서 6쌍의 맵이 각 프레임에 대하여 구축되고, 각 맵 쌍은 도 1과 도 2a 그리고 도 2b를 참조하면서 위에서 설명한 것처럼 그레이 스케일 이미지와 컬러 이미지로 구성된다. 그 결과 12개의 비디오 스트림이 되는데, 외접 입방체의 각 면당 2개의 비디오 스트림이 된다. 컬러 이미지에 대응하는 스트림들은 손실을 수반하는 비디오 압축 알고리즘, 예를 들면 MPEG2와 같은 어떠한 알고리즘으로도 압축될 수 있다. 그레이 스케일 이미지들(심도 맵들)에 대응하는 스트림은 MPEG4 포맷내의 알파 채널 압축과 같은 품질의 손상이 없는 압축 알고리즘을 이용하여 압축하여야만한다. 본 발명에 의한 방법의 바람직한 실시예는 MPEG4 압축 포맷을 사용하여 6개의 비디오 스트림들을 압축한다.
이상에서 살펴본 바와 같이, 본 발명에 의한 3차원 객체의 표현과 렌더링 방법은 적은 저장량, 고품질의 출력 이미지를 가지는 렌더링이 가능함으로써 에니메이션 목적에 적합한 이미지 기반 표현이 가능하다
Claims (9)
- (a) 3차원 객체의 원데이터를 중간 표현 데이터로 변환하는 단계;(b) 상기 중간 표현 데이터를 계층화된 심도 이미지가 각 면에 해당하는 경계 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계;(c) 관측자의 위치를 고려하여 상기 경계 외접 입방체의 가시면들을 결정하고 상기 가시면들의 각각에 대하여 상기 계층화된 심도 이미지를 텍스쳐로 변환하고 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
- 제1항에 있어서, 상기 (a)단계는(a1) 3차원 모델을 상기 경계 외접 입방체내에 위치시키는 단계;(a2) 상기 모델을 상기 경계 외접 입방체의 모든 면들로 직교 투영하여 각 면에 대해서 소정의 픽셀 해상도로 모델 이미지를 획득하는 단계;(a3) 상기 획득한 이미지들의 모든 픽셀에 대해서 상기 모델 표면으로부터 상기 외접 입방체의 대응면까지의 거리인 대응되는 심도값을 계산하여 각 면에 대한 그레이 스케일 이미지를 획득한 후 상기 그레이 스케일 이미지의 각 점이 상기 점으로부터의 심도에 대응하는 밝기를 가지도록 하는 단계;(a4) 획득한 12개의 이미지들을 6개의 맵 쌍으로 하여 상기 각각의 맵 쌍은 상기 경계 외접 입방체의 면에 대응하는 컬러 이미지와 그레이 스케일 이미지로 구성하여 저장하는 단계; 및(a5) 상기 6개의 맵 쌍으로부터 상기 외접 입방체의 각 면에 대한 계층화된 심도 이미지를 구축하는 단계;를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
- 제1항에 있어서, 상기 (a)단계는(a6) 계층화된 심도 이미지를 생성하고 상기 외접 입방체의 각 면에 대하여 상기 계층화된 심도 이미지로부터 다층 심도 이미지들을 형성하는 단계를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
- 제3항에 있어서, 상기 (a6)단계는만약 중간 이미지의 점들이 이 점에서의 법선과 상기 외접 입방체 면에 대한법선사이각이 소정의 값보다 작으면 상기 점들을 폐기하는 단계를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
- 제1항 내지 제4항 중 어느 한 항에 있어서,각 가시면에 대하여 상기 계층화된 심도 이미지를 변환하는 단계는상기 면에 대한 관측자의 위치에 따라 텍스쳐 크기를 결정하는 단계;상기 관측점의 상기 면으로의 직교 투영인 점과 일치하는 원점을 가지는 좌표계 축들로 상기 면을 사분면으로 분할하는 단계;상기 각 사분면에 대하여, 상기 좌표계의 원점방향으로의 선들과 상기 면 평면으로부터 가장 먼 점들로부터 보다 가까운 점들까지의 심도로 상기 계층화된 심도 이미지의 횡단방향을 결정하고, 상기 이미지의 각 점에 대하여 상기 이미지의 횡단 과정중에 상기 점이 상기 결과적인 텍스쳐내에 속하는지의 여부를 확인하여, 그 결과 속하지 아니하면 상기 대응되는 점을 폐기하고 다음 이미지 점으로 이동하며, 그 결과 속하면 상기 이미지 점의 좌표와 심도를 상기 결과적인 텍스쳐의 점의 좌표로 변환하고, 상기 얻어진 좌표로 상기 텍스쳐 점에서 스플랫을 형성하는 단계;를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
- 제1항 내지 제5항 중 어느 한 항에 있어서,상기 중간 표현 데이터는 3차원 객체 모델의 정보를 저장하기 위해 사용되는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
- (a) 3차원 객체의 원래 데이터를 중간 표현으로 변환하는 단계;(b) 상기 중간 표현의 프레임들에 대한 데이터를 계층화된 심도 이미지가 각 면에 해당하는 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계;(c) 각 프레임에 대하여 관측자의 위치를 고려하여 상기 외접 입방체의 가시면을 결정함으로써 상기 얻어진 표현의 시퀀스를 렌더링하고, 상기 가시면에 대하여 상기 계층화된 심도 이미지을 텍스쳐로 변환하고, 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 하는 애니메이트된 3차원 객체의 표현과 렌더링 방법.
- 제7항에 있어서, 상기 (a)단계는(a1) 3차원 모델을 상기 외접 입방체내에 위치시키는 단계;(a2) 각 에니메이션 프레임에 대하여, 상기 모델을 상기 외접 입방체의 모든 면들로 직교 투영하여 각 면에 대해서 소정의 픽셀 해상도로 모델 이미지를 획득하는 단계;(a3) 상기 획득한 이미지들의 모든 픽셀에 대해서 상기 모델 표면으로부터 상기 외접 입방체의 대응면까지의 거리인 대응되는 심도값을 계산하여 각 면에 대한 그레이 스케일 이미지를 획득한 후 상기 그레이 스케일 이미지의 각 점이 상기 점으로부터의 심도에 대응하는 밝기를 가지도록 하는 단계;(a4) 획득한 12개의 이미지들을 6개의 맵 쌍으로 하여 상기 각각의 맵 쌍은상기 외접 입방체의 면에 대응하는 컬러 이미지와 그레이 스케일 이미지로 구성하여 저장하는 단계; 및(a5) 상기 6개의 맵 쌍으로부터 상기 외접 입방체의 각 면에 대한 계층화된 심도 이미지를 구축하는 단계;를 포함하는 것을 특징으로 하는 애니메이트된 3차원 객체의 표현과 렌더링 방법.
- 제8항에 있어서,여섯개의 비디오 스트림 형태의 상기 획득한 중간 표현을 MPEG4 압축 포맷으로 압축하고 컬러 정보는 컬러 채널에, 그리고 심도 맵들은 알파 채널에 저장하는 것을 특징으로 하는 애니메이트된 3차원 객체의 표현과 렌더링 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2001118221 | 2001-06-29 | ||
RU2001118221/09A RU2216781C2 (ru) | 2001-06-29 | 2001-06-29 | Основанные на изображениях способ представления и визуализации трехмерного объекта и способ представления и визуализации анимированного объекта |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20030002995A true KR20030002995A (ko) | 2003-01-09 |
KR100468851B1 KR100468851B1 (ko) | 2005-01-29 |
Family
ID=20251332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2002-0029321A KR100468851B1 (ko) | 2001-06-29 | 2002-05-27 | 3차원 객체와 애니메이트된 3차원 객체의 이미지 기반표현과 렌더링 방법 |
Country Status (9)
Country | Link |
---|---|
US (1) | US6954202B2 (ko) |
EP (1) | EP1271410B1 (ko) |
JP (1) | JP3840150B2 (ko) |
KR (1) | KR100468851B1 (ko) |
CN (1) | CN1215444C (ko) |
CA (1) | CA2391673C (ko) |
DE (1) | DE60238017D1 (ko) |
ES (1) | ES2351961T3 (ko) |
RU (1) | RU2216781C2 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100723422B1 (ko) * | 2006-03-16 | 2007-05-30 | 삼성전자주식회사 | 포인트 기반 렌더링 장치와 방법 및 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체 |
KR100858086B1 (ko) * | 2007-01-30 | 2008-09-10 | 삼성전자주식회사 | 렌더링 장치 및 방법 |
WO2013036007A1 (ko) * | 2011-09-05 | 2013-03-14 | 주식회사 쓰리디산업영상 | 고속 구동을 위한 3차원 투과 영상데이터의 액세스 방법 및 이를 위한 사용자 인터페이스 장치 |
KR101470357B1 (ko) * | 2013-04-22 | 2014-12-09 | 중앙대학교 산학협력단 | 3차원 대상 객체의 헤드컷 렌더링 장치 및 방법 |
Families Citing this family (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10206397B4 (de) * | 2002-02-15 | 2005-10-06 | Siemens Ag | Verfahren zur Darstellung von Projektions- oder Schnittbildern aus 3D-Volumendaten eines Untersuchungsvolumens |
US7362335B2 (en) * | 2002-07-19 | 2008-04-22 | Silicon Graphics, Inc. | System and method for image-based rendering with object proxies |
US8387099B2 (en) * | 2002-12-10 | 2013-02-26 | Ol2, Inc. | System for acceleration of web page delivery |
JP3855053B2 (ja) * | 2003-01-30 | 2006-12-06 | 国立大学法人 東京大学 | 画像処理装置、画像処理方法、及び画像処理プログラム |
KR100528343B1 (ko) * | 2003-07-14 | 2005-11-15 | 삼성전자주식회사 | 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치 |
KR100519779B1 (ko) * | 2004-02-10 | 2005-10-07 | 삼성전자주식회사 | 깊이영상기반 3차원 그래픽 데이터의 고속 시각화 방법 및장치 |
US8081182B2 (en) | 2004-03-03 | 2011-12-20 | Qualcomm Incorporated | Depth buffer for rasterization pipeline |
US7817829B2 (en) * | 2004-03-15 | 2010-10-19 | Koninklijke Philips Electronics N.V. | Image visualization |
CN1302440C (zh) * | 2004-04-13 | 2007-02-28 | 复旦大学 | 基于样图覆盖、分割的三维纹理贴图方法 |
US7292257B2 (en) * | 2004-06-28 | 2007-11-06 | Microsoft Corporation | Interactive viewpoint video system and process |
KR100571846B1 (ko) * | 2004-12-16 | 2006-04-17 | 삼성전자주식회사 | 3차원 영상의 계층적 구조에 기반한 적응적 랜더링 장치및 방법과 그 방법을 수행하기 위한 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록매체 |
US7848556B2 (en) * | 2005-10-07 | 2010-12-07 | Siemens Medical Solutions Usa, Inc. | Method and apparatus for calculating a virtual image plane for magnetic resonance imaging |
US7903851B2 (en) * | 2005-10-17 | 2011-03-08 | Siemens Medical Solutions Usa, Inc. | Method and system for vertebrae and intervertebral disc localization in magnetic resonance images |
US7605817B2 (en) * | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
US8237708B2 (en) * | 2006-08-18 | 2012-08-07 | William Edward Mantzel | Data structure representing a plenoptic function via compressible layered orthographic projections from multiple orientations |
EP1890262A1 (en) * | 2006-08-18 | 2008-02-20 | Valtion Teknillinen Tutkimuskeskus | Virtual 3D models for display |
JP4945642B2 (ja) * | 2006-11-21 | 2012-06-06 | トムソン ライセンシング | 3d画像の色補正の方法及びそのシステム |
US7948500B2 (en) * | 2007-06-07 | 2011-05-24 | Nvidia Corporation | Extrapolation of nonresident mipmap data using resident mipmap data |
US20100173719A1 (en) * | 2007-06-28 | 2010-07-08 | Steltronic S.P.A. | System and Method of Graphical Representation of the Bowling Game Score |
US20100053310A1 (en) * | 2008-08-31 | 2010-03-04 | Maxson Brian D | Transforming 3d video content to match viewer position |
CN101763206B (zh) * | 2008-10-10 | 2013-01-30 | 新奥特(北京)视频技术有限公司 | 一种三维空间中文件滚屏的实现方法 |
KR101536926B1 (ko) * | 2008-11-27 | 2015-07-15 | 삼성전자주식회사 | 전자기기에서 3차원 모델 생성 및 렌더링 방법 및 장치 |
CN101751687B (zh) * | 2008-12-18 | 2014-03-05 | 超威半导体(上海)有限公司 | 确定纹理映射参数以定义代表像素投影足迹的方法和装置 |
CN101533529B (zh) * | 2009-01-23 | 2011-11-30 | 北京建筑工程学院 | 基于深度图像的三维空间数据处理方法与装置 |
CN101540062B (zh) * | 2009-02-10 | 2011-08-17 | 朱一宁 | 使用可视化几何柱体对计算机三维体数据进行交互实时浏览处理方法 |
CN101799930B (zh) * | 2009-02-11 | 2012-06-13 | 富士通株式会社 | 指定颜色层提取设备和方法 |
CN101847269B (zh) * | 2009-03-27 | 2011-11-09 | 上海科泰世纪科技有限公司 | 多图层动画渲染系统及方法 |
JP5573316B2 (ja) * | 2009-05-13 | 2014-08-20 | セイコーエプソン株式会社 | 画像処理方法および画像処理装置 |
JP4609805B2 (ja) * | 2009-05-28 | 2011-01-12 | Necカシオモバイルコミュニケーションズ株式会社 | 端末装置及びプログラム |
JP5468824B2 (ja) * | 2009-06-22 | 2014-04-09 | 株式会社豊田自動織機 | 3次元における形状の一致を判定する方法および装置 |
US8803950B2 (en) * | 2009-08-24 | 2014-08-12 | Samsung Electronics Co., Ltd. | Three-dimensional face capturing apparatus and method and computer-readable medium thereof |
RU2453922C2 (ru) * | 2010-02-12 | 2012-06-20 | Георгий Русланович Вяхирев | Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты) |
EP2368720B1 (en) * | 2010-03-26 | 2018-10-24 | Provenance Asset Group LLC | Method to transform a virtual object into a real physical object |
US8890941B2 (en) | 2010-04-29 | 2014-11-18 | Virginia Venture Industries, Llc | Methods and apparatuses for viewing three dimensional images |
US8682041B2 (en) * | 2011-01-28 | 2014-03-25 | Honeywell International Inc. | Rendering-based landmark localization from 3D range images |
JP5743142B2 (ja) * | 2011-03-29 | 2015-07-01 | ソニー株式会社 | 画像理装置および方法、並びにプログラム |
US9196086B2 (en) | 2011-04-26 | 2015-11-24 | Here Global B.V. | Method, system, and computer-readable data storage device for creating and displaying three-dimensional features on an electronic map display |
US20120280991A1 (en) * | 2011-05-03 | 2012-11-08 | Microsoft Corporation | Employing mesh files to animate transitions in client applications |
EP2727006B1 (en) * | 2011-06-30 | 2018-10-31 | Google LLC | Rendering a text image following a line |
US9100642B2 (en) * | 2011-09-15 | 2015-08-04 | Broadcom Corporation | Adjustable depth layers for three-dimensional images |
CN104299253B (zh) * | 2013-07-19 | 2017-05-31 | 广州欧划动画技术有限公司 | 一种面向全高清数字电影动画的智能渲染方法和装置 |
US9460515B2 (en) * | 2013-10-25 | 2016-10-04 | Ricoh Co., Ltd. | Processing of light fields by transforming to scale and depth space |
CN103577576B (zh) * | 2013-11-07 | 2016-08-31 | 江南大学 | 一种感知数据的三维可视化析取系统 |
US10198856B2 (en) * | 2013-11-11 | 2019-02-05 | Oxide Interactive, LLC | Method and system of anti-aliasing shading decoupled from rasterization |
CN105096364B (zh) * | 2014-05-07 | 2021-06-11 | 腾讯科技(深圳)有限公司 | 一种动画数据生成方法、装置及电子设备 |
CN104408196A (zh) * | 2014-12-15 | 2015-03-11 | 北京国双科技有限公司 | 基于数据立方体的可视化数据的二维显示方法和装置 |
RU2586566C1 (ru) * | 2015-03-25 | 2016-06-10 | Общество с ограниченной ответственностью "Лаборатория 24" | Способ отображения объекта |
DE102015004208B4 (de) * | 2015-03-31 | 2016-12-22 | Physik Instrumente (Pi) Gmbh & Co. Kg | Verfahren zur Steuerung eines Ultraschallmotors und entsprechende Steueranordnung |
US11432046B1 (en) | 2015-06-12 | 2022-08-30 | Veepio Holdings, Llc | Interactive, personalized objects in content creator's media with e-commerce link associated therewith |
CN107850445B (zh) * | 2015-08-03 | 2021-08-27 | 通腾全球信息公司 | 用于生成及使用定位参考数据的方法及系统 |
US9955861B2 (en) | 2015-10-16 | 2018-05-01 | Ricoh Company, Ltd. | Construction of an individual eye model using a plenoptic camera |
CN105787994A (zh) * | 2016-01-26 | 2016-07-20 | 王创 | 一种利用3d技术模拟街景娱乐的方法 |
US10136116B2 (en) | 2016-03-07 | 2018-11-20 | Ricoh Company, Ltd. | Object segmentation from light field data |
RU2636676C2 (ru) * | 2016-05-12 | 2017-11-27 | Общество с ограниченной ответственностью "Торговый дом "Технолайн" ООО "Торговый дом "Технолайн" | Способ формирования элементов дополненной реальности и графический носитель для его реализации |
US10237531B2 (en) * | 2016-06-22 | 2019-03-19 | Microsoft Technology Licensing, Llc | Discontinuity-aware reprojection |
US10129523B2 (en) | 2016-06-22 | 2018-11-13 | Microsoft Technology Licensing, Llc | Depth-aware reprojection |
KR20190034200A (ko) * | 2016-07-29 | 2019-04-01 | 소니 주식회사 | 화상 처리 장치 및 화상 처리 방법 |
US10325403B2 (en) | 2016-08-24 | 2019-06-18 | Google Llc | Image based rendering techniques for virtual reality |
KR102608466B1 (ko) | 2016-11-22 | 2023-12-01 | 삼성전자주식회사 | 영상 처리 방법 및 영상 처리 장치 |
CN107358645B (zh) * | 2017-06-08 | 2020-08-11 | 上海交通大学 | 产品三维模型重建方法及其系统 |
CN107369200B (zh) * | 2017-07-04 | 2021-07-16 | 福建星网视易信息系统有限公司 | 一种3d场景特效处理方法及存储设备 |
EP3429209A1 (en) * | 2017-07-13 | 2019-01-16 | Thomson Licensing | A method and apparatus for encoding/decoding a point cloud representing a 3d object |
EP3429208A1 (en) * | 2017-07-13 | 2019-01-16 | Thomson Licensing | A method and apparatus for encoding/decoding a colored point cloud representing the geometry and colors of a 3d object |
KR102039308B1 (ko) | 2017-07-14 | 2019-11-26 | 블루테크코리아 주식회사 | 웨이퍼 감지 장치, 이를 포함하는 웨이퍼 캐리어 로드 포트 및 이를 포함하는 반도체 공정 장치 |
US20190026588A1 (en) * | 2017-07-19 | 2019-01-24 | GM Global Technology Operations LLC | Classification methods and systems |
US10089796B1 (en) * | 2017-11-01 | 2018-10-02 | Google Llc | High quality layered depth image texture rasterization |
CN107958484B (zh) * | 2017-12-06 | 2021-03-30 | 北京像素软件科技股份有限公司 | 纹理坐标计算方法及装置 |
WO2019193698A1 (ja) * | 2018-04-04 | 2019-10-10 | 株式会社ソニー・インタラクティブエンタテインメント | 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法 |
WO2019193699A1 (ja) * | 2018-04-04 | 2019-10-10 | 株式会社ソニー・インタラクティブエンタテインメント | 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法 |
CN109615683A (zh) * | 2018-08-30 | 2019-04-12 | 广州多维魔镜高新科技有限公司 | 一种基于3d服装模型的3d游戏动画模型制作方法 |
CN109165364B (zh) * | 2018-09-12 | 2021-01-19 | 广州视源电子科技股份有限公司 | 一种页面渲染方法、装置、设备和存储介质 |
CN109461210B (zh) * | 2018-10-15 | 2023-03-21 | 杭州群核信息技术有限公司 | 一种在线家装的全景漫游方法 |
CN109712221B (zh) * | 2018-12-21 | 2022-08-16 | 成都四方伟业软件股份有限公司 | 三维可视化渲染方法及装置 |
JP6827134B2 (ja) * | 2019-03-18 | 2021-02-10 | Scsk株式会社 | 生成システム、及び生成プログラム |
CN110648384B (zh) * | 2019-06-19 | 2023-01-03 | 北京巴别时代科技股份有限公司 | 卡通风格化渲染方法 |
KR102134033B1 (ko) | 2019-09-17 | 2020-07-14 | 블루테크코리아 주식회사 | 웨이퍼 감지 장치, 이를 포함하는 웨이퍼 캐리어 로드 포트 및 이를 포함하는 반도체 공정 장치 |
US11436783B2 (en) | 2019-10-16 | 2022-09-06 | Oxide Interactive, Inc. | Method and system of decoupled object space shading |
CN111182367A (zh) * | 2019-12-30 | 2020-05-19 | 苏宁云计算有限公司 | 一种视频的生成方法、装置及计算机系统 |
CN111292398A (zh) * | 2020-01-22 | 2020-06-16 | 北京明略软件系统有限公司 | 三维实体的显示方法、装置及计算机可读存储介质 |
CN112435322A (zh) * | 2020-12-10 | 2021-03-02 | 深圳市大富网络技术有限公司 | 一种3d模型的渲染方法、装置、设备及存储介质 |
CN115129191B (zh) * | 2021-03-26 | 2023-08-15 | 北京新氧科技有限公司 | 三维对象拾取方法、装置、设备及存储介质 |
CN114297176A (zh) * | 2021-12-15 | 2022-04-08 | 东南大学 | 基于人工智能的中国古典园林假山自动生成方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5774572A (en) * | 1984-12-20 | 1998-06-30 | Orbotech Ltd. | Automatic visual inspection system |
JP3358169B2 (ja) * | 1996-08-30 | 2002-12-16 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 鏡面レンダリング方法及び装置 |
JP2000030080A (ja) * | 1998-07-14 | 2000-01-28 | Basu Plus One:Kk | Vrシステム |
US6222551B1 (en) * | 1999-01-13 | 2001-04-24 | International Business Machines Corporation | Methods and apparatus for providing 3D viewpoint selection in a server/client arrangement |
US6424351B1 (en) * | 1999-04-21 | 2002-07-23 | The University Of North Carolina At Chapel Hill | Methods and systems for producing three-dimensional images using relief textures |
JP4592917B2 (ja) * | 2000-10-24 | 2010-12-08 | 株式会社バンダイナムコゲームス | 画像生成装置及びゲーム装置 |
-
2001
- 2001-06-29 RU RU2001118221/09A patent/RU2216781C2/ru not_active IP Right Cessation
-
2002
- 2002-05-27 KR KR10-2002-0029321A patent/KR100468851B1/ko not_active IP Right Cessation
- 2002-06-25 US US10/178,548 patent/US6954202B2/en not_active Expired - Lifetime
- 2002-06-26 ES ES02254462T patent/ES2351961T3/es not_active Expired - Lifetime
- 2002-06-26 EP EP02254462A patent/EP1271410B1/en not_active Expired - Fee Related
- 2002-06-26 DE DE60238017T patent/DE60238017D1/de not_active Expired - Lifetime
- 2002-06-26 CA CA002391673A patent/CA2391673C/en not_active Expired - Fee Related
- 2002-07-01 CN CNB021403368A patent/CN1215444C/zh not_active Expired - Fee Related
- 2002-07-01 JP JP2002192577A patent/JP3840150B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100723422B1 (ko) * | 2006-03-16 | 2007-05-30 | 삼성전자주식회사 | 포인트 기반 렌더링 장치와 방법 및 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체 |
KR100858086B1 (ko) * | 2007-01-30 | 2008-09-10 | 삼성전자주식회사 | 렌더링 장치 및 방법 |
WO2013036007A1 (ko) * | 2011-09-05 | 2013-03-14 | 주식회사 쓰리디산업영상 | 고속 구동을 위한 3차원 투과 영상데이터의 액세스 방법 및 이를 위한 사용자 인터페이스 장치 |
KR101470357B1 (ko) * | 2013-04-22 | 2014-12-09 | 중앙대학교 산학협력단 | 3차원 대상 객체의 헤드컷 렌더링 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
RU2216781C2 (ru) | 2003-11-20 |
JP3840150B2 (ja) | 2006-11-01 |
CA2391673C (en) | 2006-06-06 |
JP2003051026A (ja) | 2003-02-21 |
CA2391673A1 (en) | 2002-12-29 |
EP1271410A3 (en) | 2004-09-01 |
CN1395222A (zh) | 2003-02-05 |
DE60238017D1 (de) | 2010-12-02 |
EP1271410B1 (en) | 2010-10-20 |
CN1215444C (zh) | 2005-08-17 |
US6954202B2 (en) | 2005-10-11 |
KR100468851B1 (ko) | 2005-01-29 |
US20030001838A1 (en) | 2003-01-02 |
ES2351961T3 (es) | 2011-02-14 |
EP1271410A2 (en) | 2003-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100468851B1 (ko) | 3차원 객체와 애니메이트된 3차원 객체의 이미지 기반표현과 렌더링 방법 | |
JP3981302B2 (ja) | 3次元の静止した又は動くオブジェクトの階層イメージベース表現並びに該表現をオブジェクトのレンダリングに使用する方法及び装置 | |
US6424351B1 (en) | Methods and systems for producing three-dimensional images using relief textures | |
Sillion et al. | Efficient impostor manipulation for real‐time visualization of urban scenery | |
Oliveira et al. | Relief texture mapping | |
Decoret et al. | Multi‐layered impostors for accelerated rendering | |
US7940279B2 (en) | System and method for rendering of texel imagery | |
US20050140670A1 (en) | Photogrammetric reconstruction of free-form objects with curvilinear structures | |
Gao et al. | Visualizing aerial LiDAR cities with hierarchical hybrid point-polygon structures | |
Wang et al. | A new upsampling method for mobile lidar data | |
Ignatenko et al. | A framework for depth image-based modeling and rendering | |
Zwicker et al. | A survey and classification of real time rendering methods | |
Parilov et al. | Layered relief textures | |
KR20230074179A (ko) | 다중 평면 이미지들을 처리하기 위한 기법들 | |
CN114332411A (zh) | 一种三维图形实时网格的生成方法 | |
Alj et al. | Space carving mvd sequences for modeling natural 3d scenes | |
Yaguchi et al. | Arbitrary-view image generation from multiple silhouette images in projective grid space | |
Ivanov et al. | Spatial Patches‐A Primitive for 3D Model Representation | |
Peng et al. | A new approach of point-based rendering | |
Verma et al. | 3D Rendering-Techniques and challenges | |
Evers-Senne et al. | Image-Based Rendering from Handheld Cameras Using Quad Primitives. | |
Nyland et al. | Interactive exploration of acquired 3D data | |
Chang et al. | Hierarchical image-based and polygon-based rendering for large-scale visualizations | |
Waschbüsch et al. | Visual recording and replay of rigid objects | |
EL-HAKIM et al. | Visual Information Technology Group, IIT, National Research Council Ottawa, Ontario, K1A 0R6, CANADA-E-mail: Sabry. Elhakim@ nrc. ca 2 Institute for Photogrammetry, University of Stuttgart, Geschwister-Scholl-Str. 24 (D), 70174 Stuttgart, GERMANY |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121210 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20131217 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20141224 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20151217 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20161219 Year of fee payment: 13 |
|
LAPS | Lapse due to unpaid annual fee |