KR20030002995A - 3차원 객체와 애니메이트된 3차원 객체의 이미지 기반표현과 렌더링 방법 - Google Patents

3차원 객체와 애니메이트된 3차원 객체의 이미지 기반표현과 렌더링 방법 Download PDF

Info

Publication number
KR20030002995A
KR20030002995A KR1020020029321A KR20020029321A KR20030002995A KR 20030002995 A KR20030002995 A KR 20030002995A KR 1020020029321 A KR1020020029321 A KR 1020020029321A KR 20020029321 A KR20020029321 A KR 20020029321A KR 20030002995 A KR20030002995 A KR 20030002995A
Authority
KR
South Korea
Prior art keywords
image
point
rendering
circumscribed cube
texture
Prior art date
Application number
KR1020020029321A
Other languages
English (en)
Other versions
KR100468851B1 (ko
Inventor
한만진
이그나텐코알렉세이
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of KR20030002995A publication Critical patent/KR20030002995A/ko
Application granted granted Critical
Publication of KR100468851B1 publication Critical patent/KR100468851B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 실제 객체의 사진들과 이들의 기하학적 표현으로부터 얻어진 3차원 정지객체와 애니메이트된(animated) 객체의 표현, 그리고 객체의 단순화한 기하학적 모델을 사용한 표현과 렌더링(rendering) 방법에 관한 것으로서, 3차원 객체의 원데이터를 중간 표현으로 변환하는 단계; 상기 중간 표현 데이터를 계층화된 심도 이미지가 각 면에 해당하는 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계; 관측자의 위치를 고려하여 상기 외접 입방체의 가시면들을 결정하고 상기 가시면들의 각각에 대하여 상기 계층화된 심도 이미지를 텍스쳐로 변환하고 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 하며, 적은 저장량, 고품질의 출력 이미지를 가지는 렌더링이 가능함으로써 에니메이션 목적에 적합한 이미지 기반 표현이 가능하다

Description

3차원 객체와 애니메이트된 3차원 객체의 이미지 기반 표현과 렌더링 방법{Method for image-based representation and rendering of three-dimensional object and animated three-dimensional object}
본 발명은 컴퓨터 그래픽에 관한 것이며, 보다 자세하게는 실제 객체의 사진들과 이들의 기하학적 표현으로부터 얻어진 3차원 정지객체와 애니메이트된(animated) 객체의 표현, 그리고 객체의 단순화한 기하학적 모델을 사용한 표현과 렌더링(rendering) 방법에 관한 것이다.
가까운 장래에, 실시간에서 3차원 객체를 고품질 렌더링하는 것은 현대 그래픽 시스템에서 주된 관심을 받고 있다. 3차원 객체를 고품질로 렌더링하고자 하는 요구는 전자 상거래, 컴퓨터 게임, 과학, 공학, 의학같은 분야에서 객체를 압축하고, 이를 통신망을 통하여 전송하기 위하여 고안될 효율적인 알고리즘을 필요로 한다. 이러한 요구를 동시에 만족시키기위한 지난 수십년간에 걸친 3차원 객체의 전통적인 다각형 모델의 사용은 원하는 결과를 낳는데 실패하였다. 다각형 모델들은 두 가지 중요한 단점을 가지고 있다; 대용량(예를들면, 현실적인 모델들은 수천만개의 삼각형을 필요로 한다)과 구축의 어려움이 그 것이다. 이러한 난점을 극복하기 위하여, 3차원 그래픽에의 접근 방식이 최근 몇 년간 제안되어왔다. 특히 객체의 이미지에 기반을 둔 방법과 3차원 공간에서 삼각형대신에 점들에 기반을 둔 방법이 매우 좋은 성능을 보인다.
이미지 기반 방법들은 주어진 객체를 이미지들 - 가시면(visible surface)을 완전히 커버하고 여러개의 상이한 카메라 위치들로부터 취해진 객체의 '사진들' - 의 집합으로 표현한다. 게다가, 그러한 각 이미지는 이미지 평면으로부터 객체 표면까지의 거리의 배열인 대응되는 심도 맵(depth-map)을 수반한다. 이러한 표현의 장점은 기준 이미지들이 다각형 모델의 복잡성에 무관하게 높은 품질의 객체 가시화(visualization)를 제공할 수 있고, 품질에 많은 영향을 주지 않으면서 일반적으로 사용되는 이미지 압축 기술에 의하여 압축될 수 있다는 것이다. 게다가, 렌더링 시간은 기준이미지와 출력이미지들의 픽셀 수에 비례하는 것이지 객체의 복잡성에 비례하지 않는다.
단점은 실제의 객체(예를들면, 조각품)에 대한 심도 맵을 얻는 것이 좀 복잡한 과정이고, 그러한 표현들을 다룰 기술이 아직 충분히 개발되어있지 않다는 점에 기인한다.
점 기반(point-based) 방법들은 객체를 명백한 로컬 다각형 구조의 부과 없이 '점들의 구름(clouds of points)'으로 표현한다. 이 방법에서, 하나의 심도 이미지들의 집합은 이미지 평면에 수직인 방향으로 대응되는 심도 값으로 각 기준 이미지의 각 픽셀을 변환함으로써 객체 표면상의 (대응되는 컬러를 가지는) 점들의 집합을 정의한다. 그러므로 이미지 기반 표현은 점 기반 표현의 특별한 경우이다. 이하에서 이미지 기반 표현이 본 발명에 보다 가까우므로 이에 집중하여 설명한다.
문헌을 보면, 위에서 언급한 2가지 추세가 릴리프 텍스쳐 매핑(Relief Texture Mapping)[1], 계층화된 심도 이미지(Layered Depth Images)[2], 계층화된심도 이미지 트리(Layered Depth Image Tree)[3], Qsplat[4], Surfels[5], 그리고 종래의 몇가지 3차원 객체 표현과 렌더링 방법에 대하여 언급하고 있는 참고문헌 [1] 내지 [15]에 기술되어있다.
[1] Manuel M. Oliveira, Gary Bishop, David McAllister. Relief Textures Mapping. Proceedings of SIGGRAPH 00.
[2] Jonathan Shade, Steven Gortler, Li-wei He, Richard Szeliski, Layered Depth Images, Computer Graphics Proceedings, Annual Conference Series, 1998, Proceedings of SIGGRAPH 98, Orlando, Florida, July 19-24, 1998.
[3] Chun-Fa Chang, Gary Bishop, Anselmo Lastra. LDI Tree: A Hierarchical Representation for Image-Based Rendering.
[4] Szymon Rusinkiewicz, Marc Levoy. QSplat: A Multiresolution Point Rendering System for Large Meshes. Proceedings of SIGGRAPH 00.
[5] Hanspeter Pfister, Matthias Zwicker, Jeroen van Baar, Markus Gross. Surfels: Surface Elements as Rendering Primitives, Proceedings of SIGGRAPH 00.
[6] Chamberlain et al., Fast Rendering of Complex Environments Using a Spatial Hierarchy, Proceedings of Graphics Interface 96.
[7] Grossman and Dally, Point sample rendering, Proceedings of Eurographics Workshop on Rendering Techniques 98.
[8] Lischinski and Rappoport, Image-Based Rendering for Non-DiffuseSynthetic Scenes, Proceedings of Eurographics Workshop on Rendering Techinques 98.
[9] M. Levoy and T. Whitted. The Use of Points as Display Primitives. Technical Report TR 85-022, The University of North Carolina at Chapel Hill, Department of Computer Science, 1985.
[10] L. Westover. Footprint Evaluation for Volume Rendering. In Computer Graphics, Proceedings of SIGGRAPH 90, page 367-376. August 1990.
[11] C. I. Connolly. Cumulative generation of octree models from range data. Proceedingsof Intl. Conf. Robotics, pages 25-32, March 1984.
[12] G.H Tarbox and S.N. Gottschlich. IVIS: An integrated volumetric inspection system. Proceedings of the Second CAD-Based Vision Workshop, pages 220-227, February 1994.
[13] Curless, B., Levoy, M. A volumetric method for building complex models from range images. Proceedings of SIGGRAPH 96, pp. 303-312.
[14] C. Bregler, Video Based Animation Techniques for Human Motion, Proceedings of SIGGRAPH 00, in Course 39, "Image-based modeling and rendering".
[15] Paul F.Debevec, Camillo J. Taylor, Jitendra Malik, Modeling and Rendering Architecture from Photographs: A hybrid geometry-and image-based approach, Proceedings of SIGGRAPH 96.
이미지 기반 방법들의 공통적인 문제는 결과 이미지에 구멍(hole)이 발생한다는 것이다. 객체의 표면이 모든 다각형(보통 삼각형)의 내부에 선형적으로 보간(interpolated)된다는 의미에서 '연속적' 인 다각형 모델과는 달리, 이미지 기반과 점 기반 표현은 객체의 '불연속적(discrete)'인 추정치를 제공한다. 이미지 기반 표현의 경우, 사실상 객체 표면은 조그만 컬러 사각형들로, 즉 기준 이미지의 전이된 픽셀들로 추정된다. 그러나 관측방향이 기준영상의 각 면에 수직 방향과 많이 다른 때에는 추정 사각형의 투영은 일반적으로 객체 표면의 투영을 완전하게 다루지 않는다. 그러한 구멍들을 제1형 구멍이라고 하자. 이미지 기반 표현에서 결과 이미지에 구멍이 생기는 또 다른 원인은 표면의 어떤 부분들이 모든 기준 이미지에서 보이지 않을 수 있다는 것에 기인하지만 어떤 관측점에 대하여는 보이게 된다(제2형 구멍). 이러한 구멍들은 특정한 이미지 기반 표현에서 얻어지는 불충분한 정보에 기인한다.
Relief texture방법[1]은 선형 보간법과 유사한 방법을 사용하여 제1형 구멍을 억제하는데, 이 방법은 상기 보간이 객체 투영을 3차원이 아닌 2차원으로 수행하기 때문에 왜곡과 인공물이 발생할 수 있다는 것이다. 더 중요한 것은 제2형 구멍이 이 방법에서는 동일한 방식으로 취급될 수 있다는 것이다.
계층화된 심도 이미지(Layered Depth Image, LDI)[2]는 제2형 구멍과 관련된 문제를 회피하기 위하여 고안된 데이터 구조이다. LDI는 그 픽셀들이 기준 이미지 평면에서 어떤 고정된 지점으로 투영되는 모든 객체 점들을 포함하는 이미지이다. [1]의 고속 프리워핑(prewarping) 알고리즘은 또한 여기에서 적용된다. ([10]에서처음 소개된) 스플래팅(splatting)은 제1형 구멍의 문제를 해결하기 위하여 사용된다. 스플랫은 어떤 컬러 분포-예를 들면, 조각(patch)의 중앙이 중앙이 되는 가우시안 분포 혹은 상수 -가 주어진 조그만 2차원 직선 혹은 타원형 표면 조각이다. LDI 방법의 결점은 그 표현이 어떤 고정된 방향으로의 투영에 기초하기 때문에 발생하는 비대칭성에 있다. 이로 인하여 상기 고정된 방향과 상당히 다른 관측방향에 대하여 구멍을 채우는 것이 매우 어렵게 된다.
LDI 트리[3]는 옥트리(octree)인데, 각 옥트리(octree) 셀(노드)에는 LDI가 첨부된다. 계층적(hierarchical) 모델을 가지는 장점은 옥트리내의 모든 LDI가 렌더링되어야만 되는 것은 아니라는 것이다. 더 떨어져 있는 이러한 셀들은 보다 높은 계층의 LDI에 저장되는 필터링된 점들을 사용함으로써 덜 자세하게 렌더링된다. 이 표현은 많은 기준 이미지들을 사용하여 LDI의 비대칭성을 극복하기 위하여 고안되었다. 그러나 저장공간이 매우 커지게 된다; 512-by-512 이미지(36개의 기준 이미지에서 얻어짐)에 대한 LDI트리는 [3]에서 보고된 바와 같이 30Mbytes를 차지한다. [3]에서 보고된 바와 같이 이 객체의 렌더링 시간도 또한 크다 ; 32250MHz MIPS R10000프로세서를 가진 Silicon Graphics Onyx2 상에서 프레임당 2내지 3초가 소요된다(병렬처리는 사용되지 않았음).
이미지 기반 데이터를 트리 구조로 결합하는 또 다른 방법이 최근에 고안된 서펠스(Surfels) 방법[5]이다. 이 것은 하나의 LDI 트리 대신, 노드들이 특정한 트리[8]가 3개의 직교 평면에 대응하는 3개의 LDI를 포함하는 계층화된 심도 입방체(layered-depth cube;LDC)이다. [5]에서 보고된 결과들은 81000개의 삼각형을 포함하는 원래의 모델에 대하여 얻어졌다. 256-by-256 출력 버퍼에 대한 초당 11프레임(fps)인 프레임 속도는 펜티엄 III 700MHz 프로세서상에서 얻어졌다. 서펠스는 대응되는 심도 벡터에 의하여 전이되는 기준 이미지 픽셀들이다. 트리 구조는 가시 요소들을 선택하기 위한 계산 속도 향상을 위하여 사용된다. 구멍 채우기(hole filling)는 최근접 이웃(nearest-neighbor) 혹은 가우시안 필터링에 의하여 얻어진다. 스플래팅은 이 구조에서 실행된다. 결과 이미지의 높은 품질은 데이터의 양과 렌더링 속도 제한을 희생하고 얻어진다.
최근에 도입된 Qsplat 표현[4]은 비록 그것이 이미지 기반이 아닌 점 기반 방법이지만 또한 언급되어야 한다. 이 방법은 중첩된 공들(nested balls)에 기반을 둔 계층적인 점 구조를 사용한다. 적절한 크기의 타원 스플랫들이 렌더링 단계에서 사용된다. 그러나 [4]에서는 다소 복잡하고 시간이 소모되는 절삭 컬링(truncated culling)이 사용된다. 또한 데이터 구조는 보다 복잡하고 많은 처리 시간을 필요로 한다.
심도 이미지들의 집합과 같은 범위 데이터를 가지는 옥트리 구조의 3차원 모델을 얻는 아이디어와 실행방법이 [11]내지 [12]에서 개발되었다. [13]은 옥트리를 사용하여 원 데이터로부터 다각형 모델을 구축하는 것을 다루고 있다.
위의 모든 것은 3차원의 정지 이미지 기반 표현에 관련되어있다. 동적 3차원 객체에 대하여는 지금까지 이 문제를 위한 극소수의 이미지 기반 방법만이 제안되었다는 것을 인지하여야만 한다. [14]에서 거의 일정한 3차원 얼굴의 기하학적인 외형을 위한 얼굴 이미지 수정에 대한 아이디어가 제시되어있다. 이 것은 제한된영역의 동적 객체에만 적용되고 실제 3차원 객체의 애니메이션에는 적용되지 못한다. [15]에서 건축물 영상이 몇 개의 사진을 기반으로 한 다양한 관측점으로부터 건축물의 관측을 재구성하는 관측에 의존적인(view-dependent) 텍스쳐 맵핑을 이용하여 애니메이션된다.
그래서, 적은 저장량, 고품질의 출력 이미지를 가지는 렌더링을 허용하고 에니메이션 목적에 적합한 이미지 기반 표현이 필요하다는 것이 분명해진다.
본 발명의 기술적 과제는 심도 이미지들에 기반을 둔 3차원 객체 표현과 심도 이미지에 기반을 두어 빠르고 고품질의 렌더링 그리고 기존의 하드웨어 기반의 가속 수단의 사용 가능성을 허용하고 빠른 와핑(warping), 정확하게 계산된 크기의 스플랫을 이용한 가시화, 그리고 불필요한 계산을 제거하는 컬링 과정을 허용함으로써 렌더링 속도를 향상시키는 3차원 객체의 표현과 렌더링 방법을 제공하는 것이다.
본 발명의 다른 기술적 과제는 빠르고 올바른 렌더링을 허용하면서 빠른 와핑(warping), 정확하게 계산된 크기의 스플랫을 이용한 가시화, 그리고 불필요한 계산을 제거하는 컬링 과정을 허용함으로써 렌더링 속도를 향상시키는 동적 3차원 객체의 간결한 표현을 위한 방법을 제공하는 것이다.
도 1은 3차원 객체를 표현하고 렌더링하기 위한 일련의 단계를 보여주는 도면이다.
도 2a와 도 2b는 흑백 이미지(도 2a)와 컬러 이미지(도 2b)의 맵 쌍을 보여주는 도면이다.
도 3a와 도 3b는 계층화된 심도(depth) 이미지의 한 예를 보여주며, 도 3a는 모델 투영(projection) 원리를, 그리고 도 3b는 상기 투영 결과인 데이터 구조를 보여주는 도면이다.
도 4는 경계 외접 입방체의 각 면에 대하여 계층화된 심도 이미지를 형성하는 단계에서 중간 표현 점들을 확인하는 것을 보여주는 도면이다.
도 5는 다층 심도 이미지의 각 가시면(visible face)을 텍스쳐(texture)로 변환하는 단계에서 경계 외접 입방체의 한 면을 사분면(quadrant)으로 분할하는 예를 보여주는 도면이다.
도 6a와 도 6b는 계층화된 심도 이미지의 모든 점이 결과적인 텍스쳐에 포함되는지의 여부를 확인하는 원리를 보여주는 것으로서, 도 6a는 관측자의 위치에 대하여 점이 보이는지의 여부를 확인하는 것을, 도 6b는 점들이 결과적인 텍스쳐에 포함되는 지의 여부를 확인하는 것을 보여준다.
상기의 기술적 과제를 해결하기 위하여 본 발명에 의한 3차원 객체의 표현과 렌더링 방법은 3차원 객체의 원데이터를 중간 표현으로 변환하는 단계; 상기 중간표현 데이터를 계층화된 심도 이미지가 각 면에 해당하는 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계; 관측자의 위치를 고려하여 상기 외접 입방체의 가시면들을 결정하고 상기 가시면들의 각각에 대하여 상기 계층화된 심도 이미지를 텍스쳐로 변환하고 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 한다.
상기의 다른 기술적 과제를 해결하기 위하여 본 발명에 의한 3차원 객체의 표현과 렌더링 방법은 3차원 객체의 원래 데이터를 중간 표현으로 변환하는 단계; 상기 중간 표현의 프레임들에 대한 데이터를 계층화된 심도 이미지가 각 면에 해당하는 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계; 각 프레임에 대하여 관측자의 위치를 고려하여 상기 외접 입방체의 가시면을 결정함으로써 상기 얻어진 표현의 시퀀스를 렌더링하고, 상기 가시면에 대하여 상기 계층화된 심도 이미지을 텍스쳐로 변환하고, 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 한다.
이하 첨부한 도면을 참조하여 본 발명의 바람직한 일 실시예에 대하여 자세하게 설명을 한다.
도 1은 3차원 객체를 표현하고 렌더링하기 위한 일련의 단계를 보여주는 도면이고, 도 2a와 도 2b는 흑백 이미지(도 2a)와 컬러 이미지(도 2b)의 맵 쌍을 보여주는 도면이다.
도 3a와 도 3b는 계층화된 심도(depth) 이미지의 한 예를 보여주며, 도 3a는 모델 투영(projection) 원리를, 그리고 도 3b는 상기 투영 결과인 데이터 구조를보여주는 도면이다. 그리고 도 4는 외접 입방체의 각 면에 대하여 계층화된 심도 이미지를 형성하는 단계에서 중간 표현 점들을 확인하는 것을 보여주는 도면이다.
도 5는 다층 심도 이미지의 각 가시면(visible face)을 텍스쳐(texture)로 변환하는 단계에서 외접 입방체의 한 면을 사분면(quadrant)으로 분할하는 예를 보여주는 도면이며, 도 6a와 도 6b는 계층화된 심도 이미지의 모든 점이 결과적인 텍스쳐에 포함되는지의 여부를 확인하는 원리를 보여주는 것으로서, 도 6a는 관측자의 위치에 대하여 점이 보이는지의 여부를 확인하는 것을, 도 6b는 점들이 결과적인 텍스쳐에 포함되는 지의 여부를 확인하는 것을 보여준다.
먼저 도면의 주요 부분을 참조번호와 함께 설명하면 다음과 같다.
도 1은, 3차원 객체를 표현하고 렌더링하는 101 내지 104단계, 3차원 객체 모델(105), 중간 표현(106,107), 렌더링 표현(108), 텍스쳐(109), 외접 입방체의 다각형 모델(110), 그리고 상기 모델의 가시화된 이미지(111)를 보여준다.
도 2a와 도 2b는 그레이 스케일 이미지와 컬러 이미지를 각각 보여준다.
도 3a와 도 3b는 모델(301), 기본 평면(302), 계층화된 심도 이미지의 각 픽셀에 대한 모델의 점들(303)을 보여준다.
도 4는 외접 입방체(401), 렌더링 표현의 점들(402), 그 점(402)에서의 법선(403), 가시 원뿔(visibility cones)(404)를 보여준다.
도 5는 관측자의 위치(501), 상기 관측자의 위치에서 면으로의 수직 투영(502), 면(401)의 사분면들(503,504,505,506),상기 각 사분면에서의 횡단 방향(507,508,509,510)을 보여준다.
도 6a와 도 6b는 점 402에서의 법선(403)과 점 501 방향 사이각(602), 관측자가 위치해있는 점 501을 통과하는 평면의 투영(601), 그리고 관측자를 기준으로 해서 외접 입방체 면의 가장 가까운 모서리(edge, 401)를 보여준다.
이제 도 1을 참조하면서, 3차원 객체의 표현과 렌더링 방법을 자세하게 설명하도록 한다.
제 101단계에서, 3차원 객체의 모델(105)은 중간 표현(106,107)으로 변환된다. 이 중간 표현은 6쌍의 맵의 집합(106)이 될 수 있는데, 이것은 그레이 스케일 이미지(도 2a)와 컬러 이미지(도 2b)로, 혹은 다층 심도 이미지(107)로 이루어진다. 첫 번째 경우에 있어서, 중간 표현은 상기 외접 입방체의 면으로부터 보이는 모델 표면 부분의 정보만 저장한다. 그레이 스케일 이미지(도 2a)의 한 점의 밝기는 외접 입방체의 면에서 모델 표면까지의 거리에 의하여 정하여진다. 최대 밝기는 가장 가까운 면에 놓여있는 모델 표면상의 점들에 대응하고, 최소 밝기는 반대쪽 면에 놓여있는 점들에 대응한다. 모델 표면에 속하는 점들에 대응하지 않는 이미지 점들은 0의 밝기 값으로 코딩된다. 두 번째 표현(도 3a와 도 3b)은 모델(301) 표면의 모든 정보를 저장한다. 왜냐하면 계층화된 심도 이미지의 각 픽셀은 그 픽셀로 투영하는 모델 점들의 집합(303)에 대응하고, 여기서 모델 표면 점의 컬러와 심도 그리고 추가적으로 이 점에서 상기 모델 표면으로의 법선이 집합(303)에서의 각 점에 대응하기 때문이다.
102단계에서, 렌더링 표현은 외접 입방체의 각 면에 대하여 계층화된 심도 이미지로써 형성된다. 중간 표현(106)을 사용하는 경우, 외접 입방체의 각 면에 대하여 이 면으로부터 보이는 모델 표현 부분의 점들의 좌표들은 다른 면과 관련된 좌표 시스템으로 변환되고, 변환 결과는 상기 면에 대응하는 심도 이미지에 부가된다. 중간 표현(107)을 사용할 때, 계층화된 심도 이미지는 각 면에 관련된 좌표 시스템으로 변환된다.
중간 표현(107)을 사용하면서 각 면에 대한 계층화된 심도 이미지를 구축하는 과정에서, 각각의 새롭게 추가되는 점이 이 면으로부터 잠재적으로 보일 가능성이 있는지 확인한다. 도 4에서 보인 것처럼, 만약 점(402)에서의 법선(403) 이 가시 원뿔(404)에 포함되는 경우라면 그 점은 상기 계층화된 심도 이미지에 추가되지 않게 된다.
103단계에서, 가시화에 필요한 텍스쳐들이 전형적인 방법(104단계)으로 생성된다. 먼저, 외접 입방체의 가시면들이 관측자의 현재 위치를 고려하여 결정되고 각 면에 대하여 이미지가 생성된다. 그리고 텍스쳐로써 상기 면 위에 부과된다. 텍스쳐 크기는 상기 면으로의 법선과 관측자의 위치 점과 면 중심에 의하여 정의되는 벡터 사이각을 사용하여 결정된다. 만약 사이각이 0에 가까우면, 텍스쳐 크기는 원래의 이미지 크기와 실질적으로 동일하다. 사이각이 커질수록, 텍스쳐 크기는 그에 따라 감소한다. 텍스쳐 크기는 각 좌표 u,v에 대하여 독립적으로 계산된다.
텍스쳐 구축 과정은 외접 입방체의 면에 대응하는 다층 심도 이미지의 점들의 횡단을 포함한다. 도 5에서 보였듯이, 횡단 순서는 다음처럼 선택된다.
관측자의 위치점(501)의 투영은 상기 외접 입방체의 면 평면상에서 발견된다. 상기 투영에 대응하는 점 502는 상기 면을 4개의 사분면(503,504,505,506) 이하로 분할한다. 각 사분면에서, 상기 계층화된 심도 이미지의 횡단 방향은 점들이 507,508,509,510 방향들로 직선으로 횡단되도록 선택된다. 그리고 각 사분면내의 점들은 선택된 방향에서 횡단하며, 상기 면내의 동일한 좌표를 가지는 점들은 감소하는 심도의 순서로 횡단한다. 각 점은 2단계로 구성되는 컬링(culling)과정을 거친다. 첫 번째 단계는 만약 법선들이 계층화된 심도 이미지에 존재한다면 수행되고, 도 6a에서 보인 것처럼, 상기 점으로의 접선방향을 확인하는 단계를 포함한다. 관측 벡터와 점(402)에서의 법선 사이각(602)이 결정된다. 만약 각(602)이 90도를 초과하면, 그 점은 무시되고, 상기의 과정은 두 번째 점으로 이동한다. 그렇지 않은 경우에, 두 번째 테스트가 기능적 변환후에 상기 텍스쳐내에 포함되지 않을 점의 제거를 포함하면서 수행된다.
외접 입방체의 각 가시면에 대하여, 2개의 배열 Mu와 Mv(첨자는 면의 대응되는 좌표(u,v)를 나타낸다)가 예비적으로 구성되고, 이 배열들은 상기 외접 입방체내에 포함되고 상기 외접 입방체의 면(401)과 관측자가 위치한 점(501)의 가장 가까운 2개의 모서리를 통과하는 평면들 상에 위치한 점들의 심도로 구성된다. 도 6b는 좌표 U에 대응하는 상기 평면들중 하나의 투영(601)을 보여준다. 배열 데이터 요소들은 계층화된 심도 이미지의 점들에 대한 두 번째 컬링 기준으로 사용된다. 만약 점 심도가 Mu[u] 혹은 Mv[v]보다 크면(여기서 u,v는 외접 입방체면에서 각 점의 좌표들이다) 상기 과정은 다음 점으로 이동한다. 왜냐하면 이 점은 결과적인 텍스쳐에서 볼 수 없을 것이기 때문이다. 그리고나서, 1차원 기능 변환(와핑, [1]을 볼 것)이 점 좌표(u,v)와 심도(d)에 따라 각 선택된 점에 적용된다.
기능 변환을 하게 되면 선택된 관측자의 위치(501)와 관련된 좌표 시스템에서의 좌표들(u',v')을 얻는다. 변환은 가시면들의 모든 점에 대하여 수행된다. 스플랫은 생성된 텍스쳐내의 얻어진 좌표들을 가지는 점에서 형성된다. 스플랫의 컬러는 원래의 좌표(u,v,d)를 가지는 점의 컬러에 대응한다. 스플랫의 모양은 텍스쳐내에서 부과되는 속도를 고려하여 선택되고, 보통 사각형 혹은 원형이다. 스플랫의 크기는 원래의 이미지 크기, 얻어진 텍스쳐 크기로부터 결정되며 계층화된 심도 이미지의 점들에서의 법선을 고려하여 조절될 수 있다. 스플랫 센터의 좌표들은 와핑에 의하여 얻어진 좌표(u',v')에 대응하여야만 한다. 결과적으로 각 가시면에 대하여 이미지가 얻어지고, 이 이미지는 104단계(도 1)에서 다각형 모델의 대응하는 면상에 부과된다(도 1). 얻어진 텍스쳐들 내의 다루어지지 않은 영역들은 투명(transparent)한 것으로 표시되며, 이 것은 외접 입방체 다각형 모델은 이면(background)을 다루지 않으므로 결과 이미지의 수정을 보장한다.
애니메이트된 객체의 표현을 위한 방법은 위에서 설명한 방법과 기본적으로 동일하므로 특징적인 면만 설명하면 다음과 같다. 모델 원 데이터 스트림 즉 에니메이션 프레임들의 열에 대한 외접 입방체가 결정된다. 그리고나서 6쌍의 맵이 각 프레임에 대하여 구축되고, 각 맵 쌍은 도 1과 도 2a 그리고 도 2b를 참조하면서 위에서 설명한 것처럼 그레이 스케일 이미지와 컬러 이미지로 구성된다. 그 결과 12개의 비디오 스트림이 되는데, 외접 입방체의 각 면당 2개의 비디오 스트림이 된다. 컬러 이미지에 대응하는 스트림들은 손실을 수반하는 비디오 압축 알고리즘, 예를 들면 MPEG2와 같은 어떠한 알고리즘으로도 압축될 수 있다. 그레이 스케일 이미지들(심도 맵들)에 대응하는 스트림은 MPEG4 포맷내의 알파 채널 압축과 같은 품질의 손상이 없는 압축 알고리즘을 이용하여 압축하여야만한다. 본 발명에 의한 방법의 바람직한 실시예는 MPEG4 압축 포맷을 사용하여 6개의 비디오 스트림들을 압축한다.
이상에서 살펴본 바와 같이, 본 발명에 의한 3차원 객체의 표현과 렌더링 방법은 적은 저장량, 고품질의 출력 이미지를 가지는 렌더링이 가능함으로써 에니메이션 목적에 적합한 이미지 기반 표현이 가능하다

Claims (9)

  1. (a) 3차원 객체의 원데이터를 중간 표현 데이터로 변환하는 단계;
    (b) 상기 중간 표현 데이터를 계층화된 심도 이미지가 각 면에 해당하는 경계 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계;
    (c) 관측자의 위치를 고려하여 상기 경계 외접 입방체의 가시면들을 결정하고 상기 가시면들의 각각에 대하여 상기 계층화된 심도 이미지를 텍스쳐로 변환하고 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
  2. 제1항에 있어서, 상기 (a)단계는
    (a1) 3차원 모델을 상기 경계 외접 입방체내에 위치시키는 단계;
    (a2) 상기 모델을 상기 경계 외접 입방체의 모든 면들로 직교 투영하여 각 면에 대해서 소정의 픽셀 해상도로 모델 이미지를 획득하는 단계;
    (a3) 상기 획득한 이미지들의 모든 픽셀에 대해서 상기 모델 표면으로부터 상기 외접 입방체의 대응면까지의 거리인 대응되는 심도값을 계산하여 각 면에 대한 그레이 스케일 이미지를 획득한 후 상기 그레이 스케일 이미지의 각 점이 상기 점으로부터의 심도에 대응하는 밝기를 가지도록 하는 단계;
    (a4) 획득한 12개의 이미지들을 6개의 맵 쌍으로 하여 상기 각각의 맵 쌍은 상기 경계 외접 입방체의 면에 대응하는 컬러 이미지와 그레이 스케일 이미지로 구성하여 저장하는 단계; 및
    (a5) 상기 6개의 맵 쌍으로부터 상기 외접 입방체의 각 면에 대한 계층화된 심도 이미지를 구축하는 단계;를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
  3. 제1항에 있어서, 상기 (a)단계는
    (a6) 계층화된 심도 이미지를 생성하고 상기 외접 입방체의 각 면에 대하여 상기 계층화된 심도 이미지로부터 다층 심도 이미지들을 형성하는 단계를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
  4. 제3항에 있어서, 상기 (a6)단계는
    만약 중간 이미지의 점들이 이 점에서의 법선과 상기 외접 입방체 면에 대한법선사이각이 소정의 값보다 작으면 상기 점들을 폐기하는 단계를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    각 가시면에 대하여 상기 계층화된 심도 이미지를 변환하는 단계는
    상기 면에 대한 관측자의 위치에 따라 텍스쳐 크기를 결정하는 단계;
    상기 관측점의 상기 면으로의 직교 투영인 점과 일치하는 원점을 가지는 좌표계 축들로 상기 면을 사분면으로 분할하는 단계;
    상기 각 사분면에 대하여, 상기 좌표계의 원점방향으로의 선들과 상기 면 평면으로부터 가장 먼 점들로부터 보다 가까운 점들까지의 심도로 상기 계층화된 심도 이미지의 횡단방향을 결정하고, 상기 이미지의 각 점에 대하여 상기 이미지의 횡단 과정중에 상기 점이 상기 결과적인 텍스쳐내에 속하는지의 여부를 확인하여, 그 결과 속하지 아니하면 상기 대응되는 점을 폐기하고 다음 이미지 점으로 이동하며, 그 결과 속하면 상기 이미지 점의 좌표와 심도를 상기 결과적인 텍스쳐의 점의 좌표로 변환하고, 상기 얻어진 좌표로 상기 텍스쳐 점에서 스플랫을 형성하는 단계;를 포함하는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 중간 표현 데이터는 3차원 객체 모델의 정보를 저장하기 위해 사용되는 것을 특징으로 하는 3차원 객체의 표현과 렌더링 방법.
  7. (a) 3차원 객체의 원래 데이터를 중간 표현으로 변환하는 단계;
    (b) 상기 중간 표현의 프레임들에 대한 데이터를 계층화된 심도 이미지가 각 면에 해당하는 외접 입방체의 형태를 가지는 렌더링 표현으로 변환하는 단계;
    (c) 각 프레임에 대하여 관측자의 위치를 고려하여 상기 외접 입방체의 가시면을 결정함으로써 상기 얻어진 표현의 시퀀스를 렌더링하고, 상기 가시면에 대하여 상기 계층화된 심도 이미지을 텍스쳐로 변환하고, 상기 가시면들을 텍스쳐로 가시화(visualize)하는 단계;를 포함하는 것을 특징으로 하는 애니메이트된 3차원 객체의 표현과 렌더링 방법.
  8. 제7항에 있어서, 상기 (a)단계는
    (a1) 3차원 모델을 상기 외접 입방체내에 위치시키는 단계;
    (a2) 각 에니메이션 프레임에 대하여, 상기 모델을 상기 외접 입방체의 모든 면들로 직교 투영하여 각 면에 대해서 소정의 픽셀 해상도로 모델 이미지를 획득하는 단계;
    (a3) 상기 획득한 이미지들의 모든 픽셀에 대해서 상기 모델 표면으로부터 상기 외접 입방체의 대응면까지의 거리인 대응되는 심도값을 계산하여 각 면에 대한 그레이 스케일 이미지를 획득한 후 상기 그레이 스케일 이미지의 각 점이 상기 점으로부터의 심도에 대응하는 밝기를 가지도록 하는 단계;
    (a4) 획득한 12개의 이미지들을 6개의 맵 쌍으로 하여 상기 각각의 맵 쌍은상기 외접 입방체의 면에 대응하는 컬러 이미지와 그레이 스케일 이미지로 구성하여 저장하는 단계; 및
    (a5) 상기 6개의 맵 쌍으로부터 상기 외접 입방체의 각 면에 대한 계층화된 심도 이미지를 구축하는 단계;를 포함하는 것을 특징으로 하는 애니메이트된 3차원 객체의 표현과 렌더링 방법.
  9. 제8항에 있어서,
    여섯개의 비디오 스트림 형태의 상기 획득한 중간 표현을 MPEG4 압축 포맷으로 압축하고 컬러 정보는 컬러 채널에, 그리고 심도 맵들은 알파 채널에 저장하는 것을 특징으로 하는 애니메이트된 3차원 객체의 표현과 렌더링 방법.
KR10-2002-0029321A 2001-06-29 2002-05-27 3차원 객체와 애니메이트된 3차원 객체의 이미지 기반표현과 렌더링 방법 KR100468851B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2001118221 2001-06-29
RU2001118221/09A RU2216781C2 (ru) 2001-06-29 2001-06-29 Основанные на изображениях способ представления и визуализации трехмерного объекта и способ представления и визуализации анимированного объекта

Publications (2)

Publication Number Publication Date
KR20030002995A true KR20030002995A (ko) 2003-01-09
KR100468851B1 KR100468851B1 (ko) 2005-01-29

Family

ID=20251332

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0029321A KR100468851B1 (ko) 2001-06-29 2002-05-27 3차원 객체와 애니메이트된 3차원 객체의 이미지 기반표현과 렌더링 방법

Country Status (9)

Country Link
US (1) US6954202B2 (ko)
EP (1) EP1271410B1 (ko)
JP (1) JP3840150B2 (ko)
KR (1) KR100468851B1 (ko)
CN (1) CN1215444C (ko)
CA (1) CA2391673C (ko)
DE (1) DE60238017D1 (ko)
ES (1) ES2351961T3 (ko)
RU (1) RU2216781C2 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100723422B1 (ko) * 2006-03-16 2007-05-30 삼성전자주식회사 포인트 기반 렌더링 장치와 방법 및 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체
KR100858086B1 (ko) * 2007-01-30 2008-09-10 삼성전자주식회사 렌더링 장치 및 방법
WO2013036007A1 (ko) * 2011-09-05 2013-03-14 주식회사 쓰리디산업영상 고속 구동을 위한 3차원 투과 영상데이터의 액세스 방법 및 이를 위한 사용자 인터페이스 장치
KR101470357B1 (ko) * 2013-04-22 2014-12-09 중앙대학교 산학협력단 3차원 대상 객체의 헤드컷 렌더링 장치 및 방법

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10206397B4 (de) * 2002-02-15 2005-10-06 Siemens Ag Verfahren zur Darstellung von Projektions- oder Schnittbildern aus 3D-Volumendaten eines Untersuchungsvolumens
US7362335B2 (en) * 2002-07-19 2008-04-22 Silicon Graphics, Inc. System and method for image-based rendering with object proxies
US8387099B2 (en) * 2002-12-10 2013-02-26 Ol2, Inc. System for acceleration of web page delivery
JP3855053B2 (ja) * 2003-01-30 2006-12-06 国立大学法人 東京大学 画像処理装置、画像処理方法、及び画像処理プログラム
KR100528343B1 (ko) * 2003-07-14 2005-11-15 삼성전자주식회사 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치
KR100519779B1 (ko) * 2004-02-10 2005-10-07 삼성전자주식회사 깊이영상기반 3차원 그래픽 데이터의 고속 시각화 방법 및장치
US8081182B2 (en) 2004-03-03 2011-12-20 Qualcomm Incorporated Depth buffer for rasterization pipeline
US7817829B2 (en) * 2004-03-15 2010-10-19 Koninklijke Philips Electronics N.V. Image visualization
CN1302440C (zh) * 2004-04-13 2007-02-28 复旦大学 基于样图覆盖、分割的三维纹理贴图方法
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
KR100571846B1 (ko) * 2004-12-16 2006-04-17 삼성전자주식회사 3차원 영상의 계층적 구조에 기반한 적응적 랜더링 장치및 방법과 그 방법을 수행하기 위한 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록매체
US7848556B2 (en) * 2005-10-07 2010-12-07 Siemens Medical Solutions Usa, Inc. Method and apparatus for calculating a virtual image plane for magnetic resonance imaging
US7903851B2 (en) * 2005-10-17 2011-03-08 Siemens Medical Solutions Usa, Inc. Method and system for vertebrae and intervertebral disc localization in magnetic resonance images
US7605817B2 (en) * 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US8237708B2 (en) * 2006-08-18 2012-08-07 William Edward Mantzel Data structure representing a plenoptic function via compressible layered orthographic projections from multiple orientations
EP1890262A1 (en) * 2006-08-18 2008-02-20 Valtion Teknillinen Tutkimuskeskus Virtual 3D models for display
JP4945642B2 (ja) * 2006-11-21 2012-06-06 トムソン ライセンシング 3d画像の色補正の方法及びそのシステム
US7948500B2 (en) * 2007-06-07 2011-05-24 Nvidia Corporation Extrapolation of nonresident mipmap data using resident mipmap data
US20100173719A1 (en) * 2007-06-28 2010-07-08 Steltronic S.P.A. System and Method of Graphical Representation of the Bowling Game Score
US20100053310A1 (en) * 2008-08-31 2010-03-04 Maxson Brian D Transforming 3d video content to match viewer position
CN101763206B (zh) * 2008-10-10 2013-01-30 新奥特(北京)视频技术有限公司 一种三维空间中文件滚屏的实现方法
KR101536926B1 (ko) * 2008-11-27 2015-07-15 삼성전자주식회사 전자기기에서 3차원 모델 생성 및 렌더링 방법 및 장치
CN101751687B (zh) * 2008-12-18 2014-03-05 超威半导体(上海)有限公司 确定纹理映射参数以定义代表像素投影足迹的方法和装置
CN101533529B (zh) * 2009-01-23 2011-11-30 北京建筑工程学院 基于深度图像的三维空间数据处理方法与装置
CN101540062B (zh) * 2009-02-10 2011-08-17 朱一宁 使用可视化几何柱体对计算机三维体数据进行交互实时浏览处理方法
CN101799930B (zh) * 2009-02-11 2012-06-13 富士通株式会社 指定颜色层提取设备和方法
CN101847269B (zh) * 2009-03-27 2011-11-09 上海科泰世纪科技有限公司 多图层动画渲染系统及方法
JP5573316B2 (ja) * 2009-05-13 2014-08-20 セイコーエプソン株式会社 画像処理方法および画像処理装置
JP4609805B2 (ja) * 2009-05-28 2011-01-12 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
JP5468824B2 (ja) * 2009-06-22 2014-04-09 株式会社豊田自動織機 3次元における形状の一致を判定する方法および装置
US8803950B2 (en) * 2009-08-24 2014-08-12 Samsung Electronics Co., Ltd. Three-dimensional face capturing apparatus and method and computer-readable medium thereof
RU2453922C2 (ru) * 2010-02-12 2012-06-20 Георгий Русланович Вяхирев Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты)
EP2368720B1 (en) * 2010-03-26 2018-10-24 Provenance Asset Group LLC Method to transform a virtual object into a real physical object
US8890941B2 (en) 2010-04-29 2014-11-18 Virginia Venture Industries, Llc Methods and apparatuses for viewing three dimensional images
US8682041B2 (en) * 2011-01-28 2014-03-25 Honeywell International Inc. Rendering-based landmark localization from 3D range images
JP5743142B2 (ja) * 2011-03-29 2015-07-01 ソニー株式会社 画像理装置および方法、並びにプログラム
US9196086B2 (en) 2011-04-26 2015-11-24 Here Global B.V. Method, system, and computer-readable data storage device for creating and displaying three-dimensional features on an electronic map display
US20120280991A1 (en) * 2011-05-03 2012-11-08 Microsoft Corporation Employing mesh files to animate transitions in client applications
EP2727006B1 (en) * 2011-06-30 2018-10-31 Google LLC Rendering a text image following a line
US9100642B2 (en) * 2011-09-15 2015-08-04 Broadcom Corporation Adjustable depth layers for three-dimensional images
CN104299253B (zh) * 2013-07-19 2017-05-31 广州欧划动画技术有限公司 一种面向全高清数字电影动画的智能渲染方法和装置
US9460515B2 (en) * 2013-10-25 2016-10-04 Ricoh Co., Ltd. Processing of light fields by transforming to scale and depth space
CN103577576B (zh) * 2013-11-07 2016-08-31 江南大学 一种感知数据的三维可视化析取系统
US10198856B2 (en) * 2013-11-11 2019-02-05 Oxide Interactive, LLC Method and system of anti-aliasing shading decoupled from rasterization
CN105096364B (zh) * 2014-05-07 2021-06-11 腾讯科技(深圳)有限公司 一种动画数据生成方法、装置及电子设备
CN104408196A (zh) * 2014-12-15 2015-03-11 北京国双科技有限公司 基于数据立方体的可视化数据的二维显示方法和装置
RU2586566C1 (ru) * 2015-03-25 2016-06-10 Общество с ограниченной ответственностью "Лаборатория 24" Способ отображения объекта
DE102015004208B4 (de) * 2015-03-31 2016-12-22 Physik Instrumente (Pi) Gmbh & Co. Kg Verfahren zur Steuerung eines Ultraschallmotors und entsprechende Steueranordnung
US11432046B1 (en) 2015-06-12 2022-08-30 Veepio Holdings, Llc Interactive, personalized objects in content creator's media with e-commerce link associated therewith
CN107850445B (zh) * 2015-08-03 2021-08-27 通腾全球信息公司 用于生成及使用定位参考数据的方法及系统
US9955861B2 (en) 2015-10-16 2018-05-01 Ricoh Company, Ltd. Construction of an individual eye model using a plenoptic camera
CN105787994A (zh) * 2016-01-26 2016-07-20 王创 一种利用3d技术模拟街景娱乐的方法
US10136116B2 (en) 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
RU2636676C2 (ru) * 2016-05-12 2017-11-27 Общество с ограниченной ответственностью "Торговый дом "Технолайн" ООО "Торговый дом "Технолайн" Способ формирования элементов дополненной реальности и графический носитель для его реализации
US10237531B2 (en) * 2016-06-22 2019-03-19 Microsoft Technology Licensing, Llc Discontinuity-aware reprojection
US10129523B2 (en) 2016-06-22 2018-11-13 Microsoft Technology Licensing, Llc Depth-aware reprojection
KR20190034200A (ko) * 2016-07-29 2019-04-01 소니 주식회사 화상 처리 장치 및 화상 처리 방법
US10325403B2 (en) 2016-08-24 2019-06-18 Google Llc Image based rendering techniques for virtual reality
KR102608466B1 (ko) 2016-11-22 2023-12-01 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
CN107358645B (zh) * 2017-06-08 2020-08-11 上海交通大学 产品三维模型重建方法及其系统
CN107369200B (zh) * 2017-07-04 2021-07-16 福建星网视易信息系统有限公司 一种3d场景特效处理方法及存储设备
EP3429209A1 (en) * 2017-07-13 2019-01-16 Thomson Licensing A method and apparatus for encoding/decoding a point cloud representing a 3d object
EP3429208A1 (en) * 2017-07-13 2019-01-16 Thomson Licensing A method and apparatus for encoding/decoding a colored point cloud representing the geometry and colors of a 3d object
KR102039308B1 (ko) 2017-07-14 2019-11-26 블루테크코리아 주식회사 웨이퍼 감지 장치, 이를 포함하는 웨이퍼 캐리어 로드 포트 및 이를 포함하는 반도체 공정 장치
US20190026588A1 (en) * 2017-07-19 2019-01-24 GM Global Technology Operations LLC Classification methods and systems
US10089796B1 (en) * 2017-11-01 2018-10-02 Google Llc High quality layered depth image texture rasterization
CN107958484B (zh) * 2017-12-06 2021-03-30 北京像素软件科技股份有限公司 纹理坐标计算方法及装置
WO2019193698A1 (ja) * 2018-04-04 2019-10-10 株式会社ソニー・インタラクティブエンタテインメント 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
WO2019193699A1 (ja) * 2018-04-04 2019-10-10 株式会社ソニー・インタラクティブエンタテインメント 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
CN109615683A (zh) * 2018-08-30 2019-04-12 广州多维魔镜高新科技有限公司 一种基于3d服装模型的3d游戏动画模型制作方法
CN109165364B (zh) * 2018-09-12 2021-01-19 广州视源电子科技股份有限公司 一种页面渲染方法、装置、设备和存储介质
CN109461210B (zh) * 2018-10-15 2023-03-21 杭州群核信息技术有限公司 一种在线家装的全景漫游方法
CN109712221B (zh) * 2018-12-21 2022-08-16 成都四方伟业软件股份有限公司 三维可视化渲染方法及装置
JP6827134B2 (ja) * 2019-03-18 2021-02-10 Scsk株式会社 生成システム、及び生成プログラム
CN110648384B (zh) * 2019-06-19 2023-01-03 北京巴别时代科技股份有限公司 卡通风格化渲染方法
KR102134033B1 (ko) 2019-09-17 2020-07-14 블루테크코리아 주식회사 웨이퍼 감지 장치, 이를 포함하는 웨이퍼 캐리어 로드 포트 및 이를 포함하는 반도체 공정 장치
US11436783B2 (en) 2019-10-16 2022-09-06 Oxide Interactive, Inc. Method and system of decoupled object space shading
CN111182367A (zh) * 2019-12-30 2020-05-19 苏宁云计算有限公司 一种视频的生成方法、装置及计算机系统
CN111292398A (zh) * 2020-01-22 2020-06-16 北京明略软件系统有限公司 三维实体的显示方法、装置及计算机可读存储介质
CN112435322A (zh) * 2020-12-10 2021-03-02 深圳市大富网络技术有限公司 一种3d模型的渲染方法、装置、设备及存储介质
CN115129191B (zh) * 2021-03-26 2023-08-15 北京新氧科技有限公司 三维对象拾取方法、装置、设备及存储介质
CN114297176A (zh) * 2021-12-15 2022-04-08 东南大学 基于人工智能的中国古典园林假山自动生成方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774572A (en) * 1984-12-20 1998-06-30 Orbotech Ltd. Automatic visual inspection system
JP3358169B2 (ja) * 1996-08-30 2002-12-16 インターナショナル・ビジネス・マシーンズ・コーポレーション 鏡面レンダリング方法及び装置
JP2000030080A (ja) * 1998-07-14 2000-01-28 Basu Plus One:Kk Vrシステム
US6222551B1 (en) * 1999-01-13 2001-04-24 International Business Machines Corporation Methods and apparatus for providing 3D viewpoint selection in a server/client arrangement
US6424351B1 (en) * 1999-04-21 2002-07-23 The University Of North Carolina At Chapel Hill Methods and systems for producing three-dimensional images using relief textures
JP4592917B2 (ja) * 2000-10-24 2010-12-08 株式会社バンダイナムコゲームス 画像生成装置及びゲーム装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100723422B1 (ko) * 2006-03-16 2007-05-30 삼성전자주식회사 포인트 기반 렌더링 장치와 방법 및 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체
KR100858086B1 (ko) * 2007-01-30 2008-09-10 삼성전자주식회사 렌더링 장치 및 방법
WO2013036007A1 (ko) * 2011-09-05 2013-03-14 주식회사 쓰리디산업영상 고속 구동을 위한 3차원 투과 영상데이터의 액세스 방법 및 이를 위한 사용자 인터페이스 장치
KR101470357B1 (ko) * 2013-04-22 2014-12-09 중앙대학교 산학협력단 3차원 대상 객체의 헤드컷 렌더링 장치 및 방법

Also Published As

Publication number Publication date
RU2216781C2 (ru) 2003-11-20
JP3840150B2 (ja) 2006-11-01
CA2391673C (en) 2006-06-06
JP2003051026A (ja) 2003-02-21
CA2391673A1 (en) 2002-12-29
EP1271410A3 (en) 2004-09-01
CN1395222A (zh) 2003-02-05
DE60238017D1 (de) 2010-12-02
EP1271410B1 (en) 2010-10-20
CN1215444C (zh) 2005-08-17
US6954202B2 (en) 2005-10-11
KR100468851B1 (ko) 2005-01-29
US20030001838A1 (en) 2003-01-02
ES2351961T3 (es) 2011-02-14
EP1271410A2 (en) 2003-01-02

Similar Documents

Publication Publication Date Title
KR100468851B1 (ko) 3차원 객체와 애니메이트된 3차원 객체의 이미지 기반표현과 렌더링 방법
JP3981302B2 (ja) 3次元の静止した又は動くオブジェクトの階層イメージベース表現並びに該表現をオブジェクトのレンダリングに使用する方法及び装置
US6424351B1 (en) Methods and systems for producing three-dimensional images using relief textures
Sillion et al. Efficient impostor manipulation for real‐time visualization of urban scenery
Oliveira et al. Relief texture mapping
Decoret et al. Multi‐layered impostors for accelerated rendering
US7940279B2 (en) System and method for rendering of texel imagery
US20050140670A1 (en) Photogrammetric reconstruction of free-form objects with curvilinear structures
Gao et al. Visualizing aerial LiDAR cities with hierarchical hybrid point-polygon structures
Wang et al. A new upsampling method for mobile lidar data
Ignatenko et al. A framework for depth image-based modeling and rendering
Zwicker et al. A survey and classification of real time rendering methods
Parilov et al. Layered relief textures
KR20230074179A (ko) 다중 평면 이미지들을 처리하기 위한 기법들
CN114332411A (zh) 一种三维图形实时网格的生成方法
Alj et al. Space carving mvd sequences for modeling natural 3d scenes
Yaguchi et al. Arbitrary-view image generation from multiple silhouette images in projective grid space
Ivanov et al. Spatial Patches‐A Primitive for 3D Model Representation
Peng et al. A new approach of point-based rendering
Verma et al. 3D Rendering-Techniques and challenges
Evers-Senne et al. Image-Based Rendering from Handheld Cameras Using Quad Primitives.
Nyland et al. Interactive exploration of acquired 3D data
Chang et al. Hierarchical image-based and polygon-based rendering for large-scale visualizations
Waschbüsch et al. Visual recording and replay of rigid objects
EL-HAKIM et al. Visual Information Technology Group, IIT, National Research Council Ottawa, Ontario, K1A 0R6, CANADA-E-mail: Sabry. Elhakim@ nrc. ca 2 Institute for Photogrammetry, University of Stuttgart, Geschwister-Scholl-Str. 24 (D), 70174 Stuttgart, GERMANY

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121210

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20131217

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20141224

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20151217

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20161219

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee