KR20050069917A - 입자 렌더링과 3차원 기하 렌더링의 통합 - Google Patents

입자 렌더링과 3차원 기하 렌더링의 통합 Download PDF

Info

Publication number
KR20050069917A
KR20050069917A KR1020040116400A KR20040116400A KR20050069917A KR 20050069917 A KR20050069917 A KR 20050069917A KR 1020040116400 A KR1020040116400 A KR 1020040116400A KR 20040116400 A KR20040116400 A KR 20040116400A KR 20050069917 A KR20050069917 A KR 20050069917A
Authority
KR
South Korea
Prior art keywords
particle
particles
cutout
image
geometric
Prior art date
Application number
KR1020040116400A
Other languages
English (en)
Inventor
자이어펭
웩슬러다니엘
Original Assignee
퍼시픽 데이터 이미지스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퍼시픽 데이터 이미지스 엘엘씨 filed Critical 퍼시픽 데이터 이미지스 엘엘씨
Publication of KR20050069917A publication Critical patent/KR20050069917A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

기하 렌더러들 및 입자 렌더러들로부터의 이미지들이, 기하 이미지로부터의 기하 정보를 입자 렌더러에서의 다수의 특수 컷아웃 입자들로서 통합하는 것에 의해 합성된다. 입자-렌더링 이미지의 픽셀들에 대한 컬러 및 불투명도에 기여하는 대신에, 이들 컷아웃 입자들은 그 픽셀들의 누적된 컬러 및 불투명도를 차단하거나 그로부터 공제된다. 이런 식으로, 입자 렌더링 프로세스의 일부로서 깊이 해상도가 수행되며, 기하 및 입자 이미지들은 알파 블렌딩과 같은 간단한 프로세스를 사용해 조합될 수 있다. 일 실시예에서는, 기하 이미지와 관련된 깊이 맵으로부터 컷아웃 입자들이 얻어진다.

Description

입자 렌더링과 3차원 기하 렌더링의 통합 {INTEGRATING PARTICLE RENDERING AND THREE-DIMENSIONAL GEOMETRY RENDERING}
발명의 분야
본 발명은 일반적으로 컴퓨터 그래픽 애니메이션에 관한 것으로서, 보다 구체적으로는, 입자 및 기하 렌더러들로부터의 이미지들을 합성하는 것에 관한 것이다.
발명의 배경
컴퓨터 애니메이션 산업에서, 3차원 화면의 이미지들은 대개, 일차적으로 모델링 소프트웨어를 사용해 화면의 3차원 모델을 구성하는 것에 의해 생성된다. 3차원 모델에 기초해, 모델링 소프트웨어는, 적당한 사이즈와 형태의 다수 다각형들을 조합하여 오브젝트들의 표면을 형성하는 것에 의해, 화면의 오브젝트들에 대한 표면을 생성한다. 그 다음, 이들 다각형들에 텍스처를 매핑하는 것에 의해, 오브젝트들에 컬러가 입혀진다. 3차원의 기하-기반 기술(geometry-based technique)이 솔리드 오브젝트들(solid-objects)에 대해서는 양호하게 동작하지만, 디테일이 풍부한 솜털같은 그리고/또는 부드러운 오브젝트들(fuzzy and/or soft objects)을 애니메이션화하는데 사용될 경우에는 제대로 동작하지 않는다. 이러한 오브젝트들은 대개 자연에서 발견되며 불, 풀, 나무, 및 구름을 들 수 있다.
따라서, 이러한 유형의 오브젝트들을 애니메이션화하기 위해 입자계들(particle systems)이 개발되었다. William T. Reeves, "Particle Systems: Techniques for Modeling a Class of Fuzzy Objects," Computer Graphics, Vol. 17. No. 3, p. 359-76(1983)에 설명되어 있는 바와 같이, 입자 렌더러(particle renderer)는 오브젝트를 한 세트의 입자들(즉, 입자계)로 모델링하는데, 각각의 입자는 시간에 따라 변할 수 있는 한 세트의 속성들(a set of properties)을 가진다. 입자들의 속성들 및 그 속성들이 변하는 방식은 일반적으로 확률 변수들로 모델링된다. 따라서, 입자들을 사용해 모델링된 오브젝트의 외관은, 입자들의 속성들을 지배하는 규칙들을 선택하는 것에 의해 결정된다. 예를 들어, 불은, 표면상의 임의 위치에서 생성되어, 컬러가 노란색에서 빨간색으로 변하는 동안 대개 위쪽으로 이동한 다음, 소정 시간 후에 소멸되는 한세트의 입자들로서 모델링될 수 있다. 이런 식으로, 애니메이터는 불에 대한 동작의 관점에서 불을 묘사할 수 있으며, 불을 구성하는 각 입자에 대한 세부사항은 입자 렌더러의 몫이다.
영화의 통상적인 화면은, 기하-기반의 렌더러들을 사용해 최상으로 모델링되는 오브젝트들과 입자계들을 사용해 최상으로 모델링되는 오브젝트들을 가질 수 있기 때문에, 상이한 유형의 렌더러들을 사용해 이미지의 일부분들을 렌더링한 다음 부분적인 이미지들을 하나의 이미지로 합성할 필요가 있다. 그러나, 입자 렌더러로 생성된 이미지를 기하 렌더러로 생성된 이미지와 합성하는 것을 어려울 수 있다. 이러한 문제에 대한 종래의 해결책은, Tom Duff, "Compositing 3-D Renderer Images," Siggraph'85, Vol. 19, No. 3, p. 41-44에 설명되어 있는 3차원 이미지 합성이다. 그러나, 이 해결책은 합성되고 있는 이미지의 실루엣 주변에 에일리어싱(aliasing)을 초래할 수 있으며, 모션 블러(motion blur) 및 심도(depth of field)에 대한 지원이 부족하다.
따라서, 본 발명은 기하 렌더러 및 입자 렌더러로부터의 이미지들을 합성하는 컴퓨터-구현 방법들 및 시스템들을 제공하고자 한다. 기하 이미지로부터의 기하 정보를 입자 렌더러에 의해 사용되는 다수의 특수 입자들로서 통합하는 것에 의해 합성이 실현된다. 그러나, 입자-렌더러 이미지의 픽셀들에 대한 컬러 및 불투명도(opacity)에 기여하는 대신에, 이들 특수 입자들은 픽셀들의 누적된 컬러 및 불투명도를 차단하거나 그로부터 공제된다. 이런 식으로, 깊이 해상도가 입자 렌더링 프로세스의 일부로서 이루어지며, 기하 및 입자 이미지들은, 예를 들어, 알파 블렌딩(alpha blending)에 의해 쉽게 조합될 수 있다. 또한, 기하 이미지의 오브젝트들이 다수의 입자들로 취급되기 때문에, 이 방법은, 복잡한 기하 오브젝트에 대해서보다는 입자에 대해서 좀더 쉽게 계산되는 모션 블러 및 심도 효과를 용이하게 한다. 또한, 에일리어싱 문제는, 이미지의 픽셀 해상도보다 더 미세한 해상도에서 기하 이미지를 샘플링하여 특수 입자들을 획득하는 것에 의해 해결될 수 있다.
본 발명의 일 실시예에서는, 컴퓨터-구현 방법, 시스템, 또는 컴퓨터 프로그램 제품이 하나 이상의 기하 오브젝트들 및 하나 이상의 입자계들을 포함하는 화면 기술(scene description)에 기초해 이미지를 애니메이션화한다. 화면 기술의 기하 오브젝트들에 대응되는 복수개의 컷아웃(cutout) 입자들이 생성되어 입자 이미지를 생성하기 위한 입자 렌더링에 사용된다. 입자 렌더링에서, 입자계들의 입자들은 입자 이미지의 하나 이상 픽셀에 대해 픽셀에 대한 컬러를 누적하는 경향이 있는 컬러링 효과들(coloring effects)을 갖는 반면, 컷아웃 입자들은 픽셀에 대한 임의의 누적 컬러를 차단하는 경향이 있는 차단 효과(occluding effects)들을 갖는다. 입자 및 기하 이미지들이 계산되고 나면, 이들은 합성되어 합성 이미지를 생성한다.
본 발명의 다른 실시예에서는, 기하 이미지에 대한 깊이 맵(depth map)을 사용해 컷아웃 입자들이 생성된다. 예를 들어, 기하 이미지의 렌더링으로부터 깊이 맵이 얻어진다. 깊이 맵은, 각각이 특정 방향의 카메라 위치로부터 가장 가까운 기하 오브젝트까지의 거리를 나타내는 복수개의 엔트리들을 포함하기 때문에, 깊이 맵의 엔트리들로부터 컷아웃 입자들이 생성될 수 있는데, 각각의 컷아웃 입자는 3차원 공간에서의 깊이 맵 엔트리에 대응된다. 또 다른 실시예에서는, 깊이 맵의 적어도 일부분이 입자 이미지보다 높은 해상도를 가진다. 다른 방법으로, 에일리어싱 문제를 방지하기 위해서, 입자 이미지보다 더 높은 해상도에서 샘플링하여 컷아웃 입자들을 생성한다. 컴퓨팅 리소스들을 보존하기 위해, 이러한 슈퍼 샘플링 방법은, 깊이 맵의 실루엣 가장자리들과 같이, 에일리어싱이 발생할 수 있는 영역에서만 수행될 수 있다.
또 다른 실시예에서는, 입자 렌더러가 입자 이미지의 복수개 픽셀 각각에 대한 커버리지 계층들의 리스트(a list of coverge layers)를 계산한다. 커버리지 계층 리스트는 하나 이상의 커버리지 계층들을 구비하는데, 각각의 커버리지 계층은, 입자계의 하나 이상 입자들로 인한 픽셀에 대한 누적 컬러값 및 하나 이상의 컷아웃 입자들에 의한 누적 컬러의 차단량을 나타낸다. 그 다음, 입자 렌더러는 픽셀들과 관련된 커버리지 계층 리스트에 기초해 픽셀들의 컬러를 판정한다.
바람직한 실시예의 상세한 설명
컴퓨터 애니메이션에서, 애니메이터는 다양한 도구들 및 방법들을 사용해 화면의 오브젝트들을 모델링한 다음 화면을 구성하는 이미지들을 렌더링한다. 여기에 설명된 시스템 및 방법들은, 예를 들어, 애니메이터가 화면의 일부 오브젝트들은 기하 형태로 그리고 다른 오브젝트들은 입자계로 모델링하고자 할 경우에 사용될 수 있다. 따라서, 도 1은, 본 발명의 실시예에 따른, 기하 이미지들 및 입자 이미지들을 렌더링한 다음 이미지들을 합성하는 시스템을 도시한다. 시스템은 기하 렌더러(120), 입자 렌더러(140), 및 합성기(155)를 구비하는데, 이들 각각은 하나 이상의 컴퓨터상에 구현될 수 있다. 컴퓨터 애니메이션 산업에서 기하 및 입자 렌더러들은 널리 공지되어 있으며, 다양한 렌더러들 중 하나가 본 발명과 관련하여 사용될 수 있다. 또한, 여기에서 설명된 실시예들 중 어느 하나 또는 그 일부분이 소프트웨어, 특수 하드웨어, 또는 그 둘의 조합으로, 제한없이, 구현될 수 있다.
3차원 모델링 도구를 사용해, 애니메이터는, 하나 이상의 이미지들을 연속적으로 구비하는 컴퓨터-애니메이션 화면에 대한 화면 기술(110)을 생성한다. 화면 기술(110)은 화면내의 다수 오브젝트들에 대한 기술을 포함한다. 일부 오브젝트들은 기하 오브젝트들로서, 그리고 다른 오브젝트들은 입자계들로서 모델링될 수 있다. 따라서, 일련의 이미지들로 렌더링되기 위해, 화면의 오브젝트들은 렌더링되거나, 그렇지 않으면, 개별적으로 생성된 다음 하나의 이미지로 조합된다. 도 1에 나타낸 실시예에서는, 화면 기술(110)로부터의 기하 오브젝트들에 관한 정보가 기하 렌더러(120)로 전달되고 화면 기술(110)로부터의 입자계들에 관한 정보는 입자 렌더러(140)로 전달된다. 또한, 화면 기술(110)은 카메라, 화면의 광원들에 관한 정보, 및 대응되는 렌더러에 의해 화면의 2차원 이미지를 생성하는데 필요한 다른 정보를 포함하며 각각의 렌더러로 전달된다.
기하 렌더러(120)는, 화면 기술(110)로부터의 기하 모델 및 카메라 데이터를 사용해, 화면의 기하-모델 오브젝트들에 대한 이미지(125)를 생성한다. 마찬가지로, 입자 렌더러(140)는, 화면 기술(110)로부터의 입자계 데이터 및 카메라 데이터를 사용해, 화면의 입자계들에 대한 이미지(150)를 생성한다. 따라서, 기하 및 입자-기반 오브젝트들을 포함하는 합성 이미지(160)를 생성하기 위해, 기하 이미지(125) 및 입자 이미지(150)가 합성기(155)에 전달된다. 합성기(155)는 이들 이미지들을 조합하여 합성 이미지(160)를 형성한다. 깊이 해상도가 합성 프로세스가 아니라 입자 렌더링 프로세스의 일부로서 수행되기 때문에, 이 합성 단계는 기존의 3차원 이미지 합성 방법들에 비해 간략화되어 있다. 이런 식으로, 합성기(155)는, 알파 블렌딩과 같은, 간단한 합성 방법을 사용할 수 있으므로, 종래 기술에서 설명된 3차원 이미지 합성 방법들의 복잡성 및 기술적 한계들을 회피할 수 있다.
도 1은, 깊이 해상도가 입자 렌더링 프로세스의 일부로서 수행되는 시스템의 일 실시예를 도시한다. 기하 이미지(125) 이외에, 기하 렌더러(120)는 이미지(125)의 깊이 맵(130)을 생성한다. 깊이 맵(130)은, 각각이 카메라에서 화면의 가장 가까운 기하 오브젝트까지의 거리에 대응되는 깊이 값들의 2차원 어레이를 포함한다. 깊이 맵(130)은, 입자 렌더러(140)에 대한 특수 컷아웃 입자들을 생성하는 컷아웃 입자 생성기(135)로 전달된다. 이들 컷아웃 입자들은 입자 렌더링 프로세스에 사용되는 보통 입자들과 함께 입자 데이터베이스(145)에 저장된다.
입자계의 보통 입자들과 같이, 이들 특수 컷아웃 입자들은 입자-렌더링 이미지(140)의 픽셀들에 대한 컬러 및 불투명도에 기여하는 대신에, 그 입자들의 누적 컬러 및 불투명도를 차단하거나 그로부터 공제된다. 얻어진 입자 이미지(150)는, 기하 이미지(125)에 존재하며 카메라에 더 가까운 임의의 기하-기반 오브젝트들에 의해 필요에 따라 차단된, 화면의 입자-기반 오브젝트들에 대한 2차원 이미지를 나타낸다. 이런 식으로, 컷아웃 입자들은 입자 이미지(150)의 입자 오브젝트들에 대한 부분들을 효과적으로 차단하기 때문에, 이들 컷아웃 입자들은 입자 렌더링 프로세스 동안에 깊이 해상도를 수행하는데 사용된다. 그 다음, 입자 이미지(150)를 기하 이미지(125)에 블렌딩함으로써, 합성 이미지(160)가 얻어진다.
도 2는 컷아웃 입자들을 생성하는 방법의 일 실시예를 도시한다. 도 1에 나타낸 시스템과 관련하여, 이 방법은 컷아웃 입자 생성기(135)에 의해 수행될 수 있다. 상술한 바와 같이, 깊이 맵(130)은, 각각이 카메라에서 본 2차원 어레이 픽셀들의 픽셀에 대응되는 한 세트의 엔트리들을 구비한다. 깊이 맵(130)의 각 엔트리는 대응되는 픽셀을 통과하는, 카메라에서 가장 가까운 기하 오브젝트까지의 거리를 포함한다. 그러나, 최적화 및 리소스 보존을 위해, 깊이 맵(130)이 완전히 채워질 필요는 없으며 기하 이미지(125)의 일부 픽셀들에 대한 깊이 정보만을 포함할 수도 있다. 컷아웃 입자 생성기(135)는, 깊이 맵(130)을 사용해, 깊이 맵의 엔트리들에 대한 위치에 대응되며, 그에 따라 화면의 가장 가까운 차단 기하 오브젝트들에 대응되는 복수개의 컷아웃 입자들을 생성한다.
일 실시예에서는, 깊이 맵(130)의 각 엔트리에 대해(210), 컷아웃 입자 생성기(135)는 이 엔트리를 "화면 공간(screen space)"에서 "실사 공간(world space)"에서의 위치로 변환한다(220). 화면 공간에서, 엔트리는 깊이 맵(130)에서의 위치 [j, k] 및 그 깊이 값으로 표현된다. 화면 공간은 카메라 정보에 의해 정의되므로, 카메라에 대한 3차원 변환을 사용해, 깊이 맵 엔트리에 대응되는 실사 공간에서의 입자 위치 [x, y, z]가 판정된다.
그 다음, 컷아웃 입자 생성기(135)는 이렇게 판정된 위치 [x, y, z]의 특수 컷아웃 입자를 추가한다(230). 일 실시예에서, 추가된 컷아웃 입자는, 깊이 맵(130)에서의 입자 영역에 대응되는, 깊이 맵 엔트리들간의 1/2 거리 반경을 갖는다. 예를 들어, 깊이 맵(130)이 기하 이미지(125)와 동일한 해상도를 가진다면, 추가된 컷아웃 입자의 반경은 이미지(125)에서의 1/2 픽셀 길이일 것이다. 다른 예로서, 깊이 맵이 기하 이미지(125)의 모든 픽셀에 대해 2×2로 샘플링된다면, 추가된 컷아웃 입자들은 이미지(125)에서의 1/4 픽셀 길이 반경을 가질 것이다. 그 다음, 컷아웃 입자들에 대한 변환 단계(220) 및 추가 단계(230)가 깊이 맵(130)의 나머지 엔트리들에 대해 반복된다(240). 따라서, 이 프로세스로 인해, 화면의 가장 가까운 기하 오브젝트들에 대한 표면에 대응되는 다수의 컷아웃 입자들이 얻어진다.
다른 방법으로, 또는 상술한 프로세스에 추가적으로, 컷아웃 입자 생성기(135)는 다양한 기술들을 사용해 한 세트의 컷아웃 입자들을 생성할 수 있다. 예를 들어, 상이한 해상도의 깊이 맵들이 사용될 수 있다. 에일리어싱 문제를 방지하기 위해, 예를 들어, 시스템은 기하 이미지(125)보다 더 미세한 해상도를 가진 깊이 맵을 사용할 수 있다(예를 들어, "슈퍼 샘플링"). 다른 방법으로, 시스템은 슈퍼 샘플링을 적응적으로 사용하여, 합성 경계 부근이나 깊이 맵(130)의 실루엣 가장 자리들과 같이, 에일리어싱이 발생할 수 있는 영역들에서만 컷아웃 입자들을 생성할 수도 있다. 이것은 그래픽 시스템의 메모리 및 프로세싱 리소스들을 보존하는데 도움이 된다. 또 하나의 대안으로서, 깊이 맵의 격자를 사용하는 대신에, 레이 트레이싱(ray tracing)과 같은 카메라 투사 방법들을 사용해 화면의 기하 오브젝트들에 대한 깊이들을 샘플링할 수도 있다. 그 다음, 이 샘플들은 카메라 변환을 사용해 실사 공간으로 변환되며 컷아웃 입자들로서 추가된다.
일단 이미지에 대한 컷아웃 입자들 및 보통 입자들이 생성되고 나면, 입자 렌더러(140)는 컷아웃 입자들 및 보통 입자들을 사용해 입자 이미지(150)를 렌더링한다. 입자 렌더러(140)로의 입력은 컷아웃 입자들 및 보통 입자들을 포함한다. 각각의 컷아웃 입자들은 적어도 위치 및 반경을 가진다. 또한, 컷아웃 입자들은, (예를 들어, 모션 블러 및 심도 효과들의 경우에서) 컷아웃 입자들에 의한 차단량을 튜닝하기 위해 렌더러(140)에 의해 조정될 수 있는 관련된 불투명도를 가질 수도 있다. 보통 입자들 각각은, 위치, 반경, 속도, 컬러, 불투명도, 및 렌더 모드와 같은, 다수의 특징들을 갖는다. 컷아웃 입자들 및 보통 입자들이 리스트로 입자 렌더러(140)에 제공된다.
도 3은 본 발명의 일 실시예에 따른 입자 렌더링 프로세스를 도시한다. 초기 단계에서, 입자들의 리스트는 입자들의 카메라까지의 거리에 의해 정렬된다(310). 그 다음, 렌더러(140)는 가장 먼 입자를 리스트에서 검색한다(320). 뒤에서 앞으로의 이 순서로 보통 및 컷아웃 입자들을 합성하는 것이 화면의 깊이 해상도를 상당히 단순화한다. 검색된 각각의 입자에 대해, 입자 렌더러(140)는 카메라 변환을 사용해 이 입자들을 화면상에 투사한다(330). 이 예에서, 화면은, 입자 이미지(150)가 카메라의 관점에서 보이는 대로 렌더링되는 이미지 공간이다. 투사된 입자는 이와 같이 화면 공간에 표시되며, 카메라에 의해 보여지는 형태로 변환된 화면상의 좌표값들 및 (반경 및 속도와 같은) 파라미터들을 가진다.
입자가 화면에 투사된 후(330), 렌더러(140)는 입자에 대해 필요한 임의의 모션 블러 및 심도 조정들을 계산한다(340). 심도 조정은 통상적으로 모션 블러 조정전에 수행된다. 심도 조정의 효과는, 보통의 카메라들에서의 (또는 거기에는 없는) 초점 효과를 시뮬레이션하기 위해 입자의 반경을 변경하는 것이다. 모션 블러 조정의 효과는 카메라에 의해 포착되는 바와 같은 움직이는 오브젝트의 흐릿하거나 얼룩덜룩한 외관을 시뮬레이션하는 것이다. 그 효과는, 이전 프레임 위치에서 현재 프레임 위치까지의 직선 또는 곡선을 따라 입자를 일련의 입자들로 변환하는 것에 의해 실현된다. 컬러 에너지(또는 컬러 강도(color intensity))를 보존하기 위해, 입자의 불투명도 또한 심도 및 모션 블러 효과들에 대해 조정된다.
심도 및 모션 블러는 컷아웃 입자들 뿐만 아니라 보통 입자들에 대해서도 수행될 수 있다. 깊이 맵들과 유사하게, 통상적인 기하 렌더러(120)에 의해 속도 맵들이 생성된다는 것을 알 수 있다. 깊이 맵(130)은 각 픽셀을 통과하는 오브젝트까지의 카메라 거리를 제공하지만, 속도 맵은 이미지의 각 픽셀에 대한 2차원 화면 속도를 제공한다. 이것은, 입자의 화면 속도에 대한 계산을 필요로 하는 모션 블러 조정을 상당히 간략화한다. 3차원 공간에서 이동하는 보통 입자들의 경우, 화면 속도는 입자의 시작 및 끝 위치를 화면상에 배치하는 카메라 변환을 사용해 계산된다. 그러나, 컷아웃 입자들의 경우, 속도 맵의 대응되는 엔트리에 속도가 이미 부여되어 있으므로, 이 속도는 이미 공지되어 있다. 따라서, 속도 맵을 사용해, 입자 렌더러(140)는, 모션 블러 조정을 계산할 때 컷아웃 입자들에 대한 계산 집약적인 카메라 변환의 수행을 회피할 수 있다.
그 다음, 입자는 선택된 렌더링 모드에 기초해 화면상에 스플래팅(splatting)된다(350). 2차(또는 스폿(spot)), 박스(box), 및 가우시안과 같은, 다양한 렌더링 모드들이 업계에 널리 공지되어 있으며, 사용되는 렌더링 모드는 적절한 효과를 위해 애니메이터에 의해 선택될 수 있다. 일 실시예에서는, 컷아웃 입자들이 (1-대-1 샘플링에 대해, 박스의 사이즈가 깊이 맵의 픽셀 사이즈와 동일한) 박스 렌더링 모드를 사용함으로써 그들 뒤의 보통 입자들을 완전히 차단한다. 스플래팅 프로세스(350)의 출력이 있다면, 입자가 각각의 픽셀과 중첩되는 양이다. 이 양은 대개, 특정 입자에 대한, 입자의 가중화된 커버리지, 또는 가중치라 하며, 0과 1을 포함하는 0과 1 사이의 비율로서 표현될 수 있다.
일단 입자가 투사, 조정, 및 스플래팅되고 나면, 렌더러는 합성 동작을 수행한다(360). (도 4에 보다 상세하게 도시되어 있는) 합성 동작(360) 동안, 렌더러(140)는 입자와 중첩되는 각 픽셀의 컬러 및 불투명도에 대한 입자의 기여도를 판정한다. 보통 입자들의 경우에서는, 입자의 컬러 및 불투명도가 입자에 의해 중첩되는 픽셀들에 가산된다. 컷아웃 입자들의 경우에서는, 입자에 의해 차단된 각 픽셀의 컬러 및 불투명도의 양이 판정된다. 입자들이 가장 먼 입자에서 가장 가까운 입자의 순서로 프로세싱되기 때문에, 합성 동작이 보통 및 컷아웃 입자들의 관련 깊이들에 대한 해상도를 책임진다.
일 실시예서는, 입자 이미지(150)의 각 픽셀들 또는 복수개 픽셀들이 커버리지 계층들의 리스트와 관련된다. 도 5에 도시된 바와 같이, 커버리지 계층들의 리스트는 하나 이상의 순차적 커버리지 계층들을 포함한다. 각각의 커버리지 계층은 2가지 이상의 정보: (1) 보통 입자들로부터의 기여들로 인한 (불투명도를 포함하는) 누적 컬러, 및 (2) 컷아웃 입자들로 인한 차단량을 포함한다. 따라서, 픽셀에 대한 커버리지 계층들의 리스트는 픽셀에 대한 보통 입자들의 조합된 컬러링 효과들 및 컷아웃 입자들의 차단 효과들을 설명한다. 계층들이 순차적으로 생성되기 때문에, 픽셀의 컬러는 픽셀에 대한 커버리지 계층들의 리스트로부터 판정될 수 있다. 커버리지 계층들의 리스트는, 입자 렌더링 프로세스의 합성 동작 단계(360) 동안에 채워진다. 도 3에 도시되어 있는 바와 같이, 단계 360은 입자 리스트의 입자들 각각에 대해 반복된다. 합성 동작 단계(360)의 일 실시예가 도 4에 도시되어 있다.
(도 3에 도시되어 있는) 입자 렌더링 프로세스에서 프로세싱되고 있는 현재의 입자에 대해, 합성 동작(360)은, 입자와 중첩되는 입자 이미지(150)상의 각 픽셀에 대한 커버리지 계층 리스트를 채운다(410). 입자가 컷아웃 입자이면(420), 입자의 픽셀 외관에 대한 효과는 픽셀에 대해 누적된 컬러를 차단하는 것이다. 따라서, 픽셀에 대한 상단 커버리지 계층에서의 차단량이 상단 커버리지 계층의 기존 차단량에 가산된다(430). 일 실시예에서는, 다음의 수학식 1에 따라 새로운 차단량이 결정되는데,
컷아웃 입자는 particle.color.a로써 주어지는 불투명도 및 particle.w로써 주어지는 너비(너비는 입자가 커버하는 픽셀량이다)를 가진다. 일 실시예에서, 차단량으로 허용되는 최대값은 1이다. 다른 실시예에서는, 일단 커버리지 계층의 차단량이 1에 달하거나 초과하면, 그와 관련된 누적 컬러가 다른 오브젝트들에 의해 완전히 차단되고 있는 것이므로, 그 커버리지 계층은 무시된다.
픽셀에 대한 누적 컬러가 존재하지 않으면, 이러한 픽셀을 차단하는 것은 픽셀의 컬러에 영향을 주지 않으므로, 단계 430은 생략될 수 있다. 또한, 추가적인 차단량이 상단 커버리지 계층만의 차단량에 가산될 수 있으며(430), 또는 기존 커버리지 계층들 각각의 차단량에 가산될 수도 있다. 전자의 경우에, 커버리지 계층의 실제 차단량은 자신의 차단량 및 자신보다 높은 레벨의 커버리지 계층들에 대한 차단량에 기초해 계산되어야 하지만, 모든 커버리지 계층들의 차단량을 업데이트하지 않아도 되기 때문에, 이 또한 합성 동작 단계(360)의 프로세싱 시간을 절감한다.
한편, 입자가 보통 입자라면(420), 그것의 컬러링 효과는 픽셀의 컬러에 가산되어야 한다. 그러나, 2가지 이상의 가능한 상황이 존재한다. 이전의 입자가 컷아웃 입자가 아니었다면(440), 단순히 상단 커버리지 계층의 누적 컬러에 가산될 수 있다(460). 일 실시예에서, 입자가 particle.color.a의 불투명도 및 particle.w의 너비를 갖는다면, 레드 컬러에 대한 새로운 누적 컬러는 다음의 수학식 2에 따라 결정되는데,
나머지 그린 및 블루 컬러에 대해서도 마찬가지이다. 계층의 컬러에 대한 누적 불투명도는 다음의 수학식 3에 따라 결정된다.
이전의 입자가 컷아웃 입자였다면(440), 상단 커버리지 계층은 차단량을 나타낼 것이다. 그러나, 이 입자는, 반드시 현재의 입자보다 카메라로부터 더 먼 곳에 위치해야 하는 먼저-프로세싱된 임의의 컷아웃 입자들에 의해서도 차단될 수 없기 때문에, 이러한 상단 커버리지 계층에 가산될 수 없다. 따라서, 새로운 커버리지 계층이 추가되고(450), 계층의 컬러 및 차단값들은 0으로 초기화된 다음, 상술한 바와 같이, 입자의 컬러가 새로운 상단 커버리지 계층에 가산된다(460). 그 다음, 이 프로세스는 입자에 의해 터치된 추가적인 모든 픽셀들에 대해 반복된다.
커버리지 계층들을 생성하여 메모리에 저장하는데는 다양한 방법들이 사용될 수 있다. 소프트웨어 구현의 경우, 필요에 따라 엔트리들을 생성하고 추가하는 커버리지 계층 리스트가 가장 메모리 효율적인 해결책일 수 있다. 하드웨어 구현의 경우, 각각의 이미지가 개별적인 커버리지 계층을 나타내는 이미지들의 규칙적인 사전-할당형 어레이(regular pre-allocated array)가 가장 효율적인 해결책일 수 있다.
(예를 들어, 도 3에 나타낸) 입자 렌더링 단계에서 모든 입자들이 프로세싱된 후, 입자 이미지(140)의 적어도 일부 입자들은 하나 이상의 커버리지 계층들과 관련지워 진다. 입자 렌더러(140)는 각 픽셀에 대한 커버리지 계층들의 리스트를 사용해 픽셀에 대한 컬러 및 불투명도를 계산한다(380). 이것은, 그 계층과 관련된 차단량에 의해 영향을 받는 각 커버리지 계층의 컬러 기여도를 계산하는 것에 의해 수행된다. 일 실시예에서, 픽셀 컬러의 레드 성분(pixel.color.r) 및 불투명도 성분(pixel.color.a)은 다음의 컴퓨터 코드를 사용해 계산되는데,
커버리지 계층들의 갯수는 numLayers로써 주어진다. 픽셀 컬러의 그린 및 블루 성분들은 레드 성분에 대한 것과 유사한 코드(예를 들어, *를 대체하는 코드)로 계산될 수 있다.
일단 입자 이미지의 복수개 픽셀들 각각에 대한 픽셀 컬러가 계산되고 나면, 입자 이미지(150) 및 기하 이미지(125)가 합성기(155)에 의해 합성될 수 있다. 깊이 해상도가 입자 렌더링 단계에서 수행되었기 때문에, 입자 이미지(150)와 기하 이미지(125)는 간단한 알파 블렌딩을 사용해 합성될 수 있다. 일 실시예에서, 이미지들(125 및 150)은 픽셀-대-픽셀 기반으로 합성된다. 따라서, 합성 이미지(160)의 픽셀 [j, k]에 대한 컬러의 레드 성분을 얻기 위해, 기하 이미지의 [j, k] 위치에 있는 픽셀(geometry_image[j, k])은 다음의 수학식 4에 따라 입자 이미지의 대응되는 픽셀(particle_image[j, k])과 블렌딩된다.
픽셀에 대한 컬러의 그린 및 블루 성분도 유사한 방법으로 얻어진다. 또한, 마찬가지로, 다음의 수학식 5에 의해 불투명도 성분도 얻어지지만,
당업자들은 다양한 효과들을 구현하기 위해 이 수학식들이 조정될 수 있다는 것을 알 수 있을 것이다.
본 발명의 실시예들에 대한 상기 설명은 예시 및 설명을 위해 제시되었다. 본 발명을 개시되어 있는 정확한 형태들로 총망라하거나 한정하려는 것은 아니다. 당업자들은, 상기 설명을 고려하여 많은 변경들 및 변형들이 가능할 수 있다는 것을 알 수 있다. 따라서, 본 발명의 범위는 이와 같은 상세한 설명에 의해 한정되는 것이 아니라 여기에 첨부되어 있는 청구항들에 의해 한정된다.
따라서, 본 발명에 의하면, 기하 렌더러 및 입자 렌더러로부터의 이미지들을 합성하는 컴퓨터-구현 방법들 및 시스템들이 제공된다. 이러한 합성은, 기하 이미지로부터의 기하 정보를 입자 렌더러에 의해 사용되는 다수의 특수 입자들로서 통합하는 것에 의해 실현된다. 그러나, 입자-렌더러 이미지의 픽셀들에 대한 컬러 및 불투명도에 기여하는 대신에, 이들 특수 입자들은 픽셀들의 누적된 컬러 및 불투명도를 차단하거나 그로부터 공제된다. 이런 식으로, 깊이 해상도가 입자 렌더링 프로세스의 일부로서 이루어지며, 기하 및 입자 이미지들은, 예를 들어, 알파 블렌딩에 의해 쉽게 조합될 수 있다. 또한, 기하 이미지의 오브젝트들이 다수의 입자들로 취급되기 때문에, 이 방법은, 복잡한 기하 오브젝트에 대해서보다는 입자에 대해서 좀더 쉽게 계산되는 모션 블러 및 심도 효과를 용이하게 한다. 또한, 에일리어싱 문제는, 이미지의 픽셀 해상도보다 더 미세한 해상도에서 기하 이미지를 샘플링하여 특수 입자들을 획득하는 것에 의해 해결될 수 있다.
도 1은 본 발명의 실시예에 따른 렌더링 및 합성 시스템의 도면이다.
도 2는 본 발명의 실시예에 따른, 복수개의 컷아웃(cutout) 입자들을 생성하는 프로세스의 흐름도이다.
도 3은 본 발명의 실시예에 따른, 입자계에서의 렌더링 프로세스에 대한 흐름도이다.
도 4는 도 3에 나타낸 합성 동작(360)의 구현 흐름도이다.
도 5는 입자 렌더링 프로세스의 구현에 사용된 바와 같은, 커버리지 계층 리스트의 도면이다.
<도면의 주요 부분에 대한 부호의 설명>
110 : 화면 기술
120 : 기하 렌더러
125: 기하 이미지
130 : 깊이 맵
135 : 컷아웃 입자 생성기
140 : 입자 렌더러
145 : 입자 데이터
150 : 입자 이미지
155 : 합성기
160 : 합성 이미지

Claims (31)

  1. 하나 이상의 기하 오브젝트들 및 하나 이상의 입자계들을 포함하는 화면 기술(scene description)에 기초해 이미지를 애니메이션화하는 컴퓨터-구현 방법에 있어서,
    각각이 상기 화면 기술의 기하 오브젝트에 대응되는 복수개의 컷아웃 입자들을 생성하는 단계;
    입자 이미지를 생성하기 위해, 적어도 일부가 상기 입자계들의 입자들을 차단하는 상기 컷아웃 입자들로 상기 입자계들을 렌더링하는 단계; 및
    합성 이미지를 생성하기 위해, 상기 입자 이미지를 상기 기하 오브젝트들의 이미지와 합성하는 단계를 포함하는 컴퓨터-구현 방법.
  2. 제1항에 있어서,
    상기 복수개의 컷아웃 입자들을 생성하는 단계는,
    각각이 특정 방향의 카메라 위치로부터 가장 가까운 기하 오브젝트까지의 거리는 나타내는 복수개의 엔트리들을 포함하는 깊이 맵을 생성하기 위해, 상기 기하 오브젝트들을 렌더링하는 단계; 및
    상기 깊이 맵의 적어도 일부 엔트리들로부터, 각각이 3차원 공간에서의 상기 깊이 맵 엔트리에 대응되는 컷아웃 입자들을 생성하는 단계를 포함하는 컴퓨터-구현 방법.
  3. 제2항에 있어서,
    상기 컷아웃 입자들은 상기 입자 이미지보다 더 높은 해상도에서 생성되는 컴퓨터-구현 방법.
  4. 제2항에 있어서,
    상기 컷아웃 입자들은 상기 깊이 맵의 모든 실루엣 가장자리들상의 입자 이미지보다는 더 높은 해상도에서 생성되는 컴퓨터-구현 방법.
  5. 제1항에 있어서,
    상기 복수개의 컷아웃 입자들을 생성하는 단계는 적어도 에일리어싱이 발생할 것 같은 영역들의 상기 입자 이미지보다는 더 높은 해상도에서 상기 기하 오브젝트들을 샘플링하는 단계를 포함하는 컴퓨터-구현 방법.
  6. 제1항에 있어서,
    상기 렌더링하는 단계는,
    상기 입자계들 중 적어도 일부 및 상기 컷아웃 입자들 중 적어도 일부에 대해, 상기 입자 이미지의 하나 이상 픽셀들에 대한 상기 입자의 컬러링 또는 차단 효과를 판정하기 위해 합성 동작을 수행하는 단계를 포함하는 컴퓨터-구현 방법.
  7. 제6항에 있어서,
    상기 합성 동작은 카메라 위치로부터 가장 먼 입자로부터 가장 가까운 입자로 상기 입자들에 대해 수행되는 컴퓨터-구현 방법.
  8. 제6항에 있어서,
    상기 입자계들의 입자들은 상기 입자 이미지의 하나 이상 픽셀에 대해, 픽셀에 대한 컬러를 누적하는 경향이 있는 컬러링 효과들을 갖고, 상기 컷아웃 입자들은 상기 입자 이미지의 하나 이상 픽셀에 대해, 픽셀에 대해 누적된 임의의 컬러를 차단하는 경향이 있는 차단 효과들을 갖는 컴퓨터-구현 방법.
  9. 제1항에 있어서,
    상기 렌더링하는 단계는,
    상기 입자계들로부터의 입자들과 상기 컷아웃 입자들을 리스트로 조합하는 단계;
    각 입자의 카메라 위치까지의 거리에 의해 상기 리스트를 정렬하는 단계; 및
    상기 리스트의 각 입자에 대해, 가장 먼 것으로부터 가장 가까운 것으로, 상기 입자 이미지의 하나 이상 픽셀들에 대한 상기 입자의 컬러링 또는 차단 효과를 판정하는 단계를 포함하는 컴퓨터-구현 방법.
  10. 제1항에 있어서,
    상기 렌더링하는 단계는,
    상기 입자 이미지의 복수개 픽셀들에 대한 컬러를 판정하기 위해, 상기 입자계들의 입자들에 대한 컬러링 효과들과 상기 컷아웃 입자들의 차단 효과들을 조합하는 단계를 포함하는 컴퓨터-구현 방법.
  11. 제1항에 있어서,
    상기 렌더링하는 단계는,
    상기 관련 입자들의 깊이에 기초해, 상기 입자계들의 입자들에 대한 컬러링 효과들 및 상기 컷아웃 입자들의 차단 효과들을 분해하는 단계를 포함하는 컴퓨터-구현 방법.
  12. 제1항에 있어서,
    상기 합성하는 단계는 상기 입자 이미지를 상기 기하 오브젝트들의 렌더링 이미지와 알파 블렌딩하는 단계를 포함하는 컴퓨터-구현 방법.
  13. 제1항에 있어서 ,
    상기 렌더링하는 단계는,
    각각의 입자에 대해, 카메라 위치에서 볼 때, 상기 입자가 커버하는 상기 입자 이미지의 어떤 픽셀들을 커버하는지와 상기 픽셀의 커버되는 양을 판정하는 단계를 포함하는 컴퓨터-구현 방법.
  14. 제13항에 있어서,
    상기 렌더링하는 단계는,
    컷아웃 입자에 대한 심도 조정을 계산하는 단계를 포함하는 컴퓨터-구현 방법.
  15. 제13항에 있어서,
    상기 렌더링하는 단계는,
    컷아웃 입자에 대한 모션 블러 조정을 계산하는 단계를 포함하는 컴퓨터-구현 방법.
  16. 제2 이미지와 조합될 입자 이미지를 생성하기 위해 하나 이상의 입자계들을 렌더링하는 컴퓨터-구현 방법으로서,
    상기 제2 이미지의 오브젝트들에 대한 3차원 위치와 관련된 복수개의 컷아웃 입자들을 생성하는 단계;
    상기 입자 이미지의 복수개 픽셀들 각각에 대해, 각각이 입자계의 하나 이상 입자들로 인한 누적 컬러값 및 하나 이상의 컷아웃 입자들에 의해 차단되는 양을 나타내는, 상기 픽셀에 대한 커버리지 계층들의 리스트를 계산하는 단계; 및
    상기 픽셀들과 관련된 커버리지 계층 리스트에 기초해, 상기 픽셀들의 컬러를 판정하는 단계를 포함하는 컴퓨터-구현 방법.
  17. 제16항에 있어서,
    상기 커버리지 계층들의 리스트 각각은 카메라 위치에서 가장 먼 것부터 가장 가까운 것 순서로 상기 입자들을 프로세싱하는 것에 의해 생성되는 컴퓨터-구현 방법.
  18. 제17항에 있어서,
    상기 픽셀에 대한 커버리지 계층들의 리스트를 계산하는 단계는,
    상기 프로세싱에서 컷아웃 입자에 수반되는, 입자계로부터의 입자에 대해 새로운 커버리지 계층을 추가하는 단계를 포함하는 컴퓨터-구현 방법.
  19. 제16항에 있어서,
    상기 컷아웃 입자들을 생성하는 단계는,
    상기 제 2 이미지에 대해 깊이 맵을 계산하는 단계; 및
    상기 깊이 맵의 적어도 일부 엔트리들에 대해, 각각이 상기 깊이 맵 엔트리에 대응되는 3차원 공간에 위치하는 컷아웃 입자들을 생성하는 단계를 포함하는 컴퓨터-구현 방법.
  20. 제19항에 있어서,
    상기 깊이 맵의 적어도 일부분들은 상기 입자 이미지보다 더 높은 해상도를 갖는 컴퓨터-구현 방법.
  21. 제16항에 있어서,
    상기 컷아웃 입자들은 상기 입자 이미지보다 더 높은 해상도에서 생성되는 컴퓨터-구현 방법.
  22. 제16항에 있어서,
    상기 복수개의 컷아웃 입자들을 생성하는 단계는 적어도, 에일리어싱이 발생할 수 있는 영역들에서는 상기 입자 이미지보다 더 높은 해상도에서 상기 제 2 이미지의 기하 오브젝트들을 샘플링하는 단계를 포함하는 컴퓨터-구현 방법.
  23. 제1항 내지 제22항의 방법들 중 어느 하나를 수행하기 위한 컴퓨터 프로그램 코드를 포함하는 컴퓨터-판독가능 매체를 구비하는 컴퓨터 프로그램 제품.
  24. 하나 이상의 기하 오브젝트들 및 하나 이상의 입자계들을 포함하는 화면 기술에 기초해 이미지를 애니메이션화하는 시스템으로서,
    기하 이미지를 생성하기 위해, 상기 화면 기술의 기하 오브젝트들을 렌더링하는 기하 렌더러;
    각각이 상기 화면 기술의 기하 오브젝트에 대응되는 복수개의 컷아웃 입자들을 생성하는 컷아웃 입자 생성기;
    입자 이미지를 생성하기 위해, 상기 화면 기술의 입자계들 및 적어도 일부가 상기 입자계들의 입자들을 차단하는 상기 컷아웃 입자들을 렌더링하는 입자 렌더러; 및
    합성 이미지를 형성하기 위해, 상기 기하 이미지와 상기 입자 이미지를 조합하는 합성기를 구비하는 애니메이션 시스템.
  25. 제24항에 있어서,
    상기 기하 렌더러는 상기 화면 기술의 기하 오브젝트들에 대한 깊이 맵을 생성하고, 상기 컷아웃 입자 생성기는 상기 깊이 맵에 기초해 상기 컷아웃 입자들을 생성하는 애니메이션 시스템.
  26. 제25항에 있어서,
    상기 컷아웃 입자 생성기는 적어도, 에일리어싱이 발생할 수 있는 영역들에서는 상기 입자 이미지보다 더 높은 해상도에서 상기 컷아웃 입자들을 생성하는 애니메이션 시스템.
  27. 제24항에 있어서,
    상기 입자 렌더러는 카메라 위치에서 가장 먼 입자로부터 가장 가까운 입자로 상기 입자들을 프로세싱하는 애니메이션 시스템.
  28. 제24항에 있어서,
    상기 입자 렌더러는,
    상기 입자계들로부터의 입자들과 상기 컷아웃 입자들을 리스트로 조합하고;
    각 입자의 카메라 위치까지의 거리에 의해 상기 리스트를 정렬하며;
    상기 리스트의 각 입자에 대해, 가장 먼 것으로부터 가장 가까운 것으로, 상기 입자 이미지의 하나 이상 픽셀들에 대한 상기 입자의 컬러링 또는 차단 효과를 판정하도록 구성되어 있는 애니메이션 시스템.
  29. 제24항에 있어서,
    상기 입자 렌더러는, 상기 입자 이미지의 복수개 픽셀들에 대한 컬러를 판정하기 위해, 상기 입자계들의 입자들에 대한 컬러링 효과들과 상기 컷아웃 입자들의 차단 효과들을 조합하도록 구성되어 있는 애니메이션 시스템.
  30. 제24항에 있어서,
    상기 입자 이미지의 복수개 픽셀들 각각에 대해, 상기 입자 렌더러는 각각이 입자계의 하나 이상 입자들로 인한 누적 컬러값 및 하나 이상의 컷아웃 입자들에 의해 차단되는 양을 나타내는, 상기 픽셀에 대한 커버리지 계층들의 리스트를 계산하는 애니메이션 시스템.
  31. 제24항에 있어서,
    상기 합성기는 상기 합성 이미지를 형성하기 위해 상기 입자 이미지와 상기 기하 이미지를 알파 블렌딩하는 애니메이션 시스템.
KR1020040116400A 2003-12-31 2004-12-30 입자 렌더링과 3차원 기하 렌더링의 통합 KR20050069917A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/751,328 US20050219249A1 (en) 2003-12-31 2003-12-31 Integrating particle rendering and three-dimensional geometry rendering
US10/751,328 2003-12-31

Publications (1)

Publication Number Publication Date
KR20050069917A true KR20050069917A (ko) 2005-07-05

Family

ID=34574824

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040116400A KR20050069917A (ko) 2003-12-31 2004-12-30 입자 렌더링과 3차원 기하 렌더링의 통합

Country Status (3)

Country Link
US (1) US20050219249A1 (ko)
EP (1) EP1550984A3 (ko)
KR (1) KR20050069917A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160043366A (ko) * 2014-10-13 2016-04-21 삼성전자주식회사 부드러운 실루엣 표현을 위한 대상 개체를 모델링하는 방법 및 장치
CN111612877A (zh) * 2020-05-15 2020-09-01 北京林业大学 基于高度场的纹理模拟方法
CN111953956A (zh) * 2020-08-04 2020-11-17 山东金东数字创意股份有限公司 裸眼立体异型图像三维相机生成系统及其方法

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7518608B2 (en) * 2004-07-30 2009-04-14 Sony Corporation Z-depth matting of particles in image rendering
US7499052B2 (en) * 2004-07-30 2009-03-03 Sony Corporation Z-jittering of particles in image rendering
KR100714672B1 (ko) 2005-11-09 2007-05-07 삼성전자주식회사 스플렛을 이용한 깊이 기반의 영상 렌더링 방법 및 그방법을 채용한 시스템
US7692647B2 (en) * 2006-09-14 2010-04-06 Microsoft Corporation Real-time rendering of realistic rain
CN100444203C (zh) * 2006-11-27 2008-12-17 北京金山软件有限公司 一种在3d游戏中绘制草坪的方法和系统
TWI353559B (en) * 2006-12-18 2011-12-01 Inst Information Industry Apparatus, method, application program and compute
US20090040220A1 (en) * 2007-02-05 2009-02-12 Jonathan Gibbs Hybrid volume rendering in computer implemented animation
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
KR101690034B1 (ko) * 2010-08-03 2016-12-28 삼성전자주식회사 3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
CN103748867B (zh) 2011-06-10 2019-01-18 菲力尔系统公司 低功耗和小形状因子红外成像
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
CN103828343B (zh) 2011-06-10 2017-07-11 菲力尔系统公司 基于行的图像处理和柔性存储系统
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
KR101778353B1 (ko) 2011-06-10 2017-09-13 플리어 시스템즈, 인크. 적외선 이미징 장치용 불균일성 교정 기술
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US20140015825A1 (en) * 2012-07-11 2014-01-16 Craig Steven Donner Method for Rendering a Layered Structure
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
US11935185B2 (en) * 2020-03-18 2024-03-19 Intel Corporation Content based anti-aliasing for image downscale
CN113888687B (zh) * 2021-12-07 2022-04-26 南京开博信达科技有限公司 一种粒子动态变换的实现方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5758046A (en) * 1995-12-01 1998-05-26 Lucas Digital, Ltd. Method and apparatus for creating lifelike digital representations of hair and other fine-grained images
US5764233A (en) * 1996-01-02 1998-06-09 Silicon Graphics, Inc. Method for generating hair using textured fuzzy segments in a computer graphics system
JP3904671B2 (ja) * 1997-05-28 2007-04-11 富士通株式会社 仮想粘土システムおよびそのシミュレーション方法
US6184891B1 (en) * 1998-03-25 2001-02-06 Microsoft Corporation Fog simulation for partially transparent objects
US6591020B1 (en) * 1998-12-23 2003-07-08 Xerox Corporation Antialiazed high-resolution frame buffer architecture

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160043366A (ko) * 2014-10-13 2016-04-21 삼성전자주식회사 부드러운 실루엣 표현을 위한 대상 개체를 모델링하는 방법 및 장치
US10121253B2 (en) 2014-10-13 2018-11-06 Samsung Electronics Co., Ltd. Method and apparatus for modeling target object to represent smooth silhouette
CN111612877A (zh) * 2020-05-15 2020-09-01 北京林业大学 基于高度场的纹理模拟方法
CN111612877B (zh) * 2020-05-15 2023-09-01 北京林业大学 基于高度场的纹理模拟方法
CN111953956A (zh) * 2020-08-04 2020-11-17 山东金东数字创意股份有限公司 裸眼立体异型图像三维相机生成系统及其方法
CN111953956B (zh) * 2020-08-04 2022-04-12 山东金东数字创意股份有限公司 裸眼立体异型图像三维相机生成系统及其方法

Also Published As

Publication number Publication date
EP1550984A2 (en) 2005-07-06
EP1550984A3 (en) 2006-10-04
US20050219249A1 (en) 2005-10-06

Similar Documents

Publication Publication Date Title
KR20050069917A (ko) 입자 렌더링과 3차원 기하 렌더링의 통합
US5613048A (en) Three-dimensional image synthesis using view interpolation
EP1064619B1 (en) Stochastic level of detail in computer animation
Fuhrmann et al. Real-time techniques for 3D flow visualization
US7289119B2 (en) Statistical rendering acceleration
KR101194605B1 (ko) 시간 연속적 텍스쳐 합성 장치 및 방법
US6326972B1 (en) 3D stroke-based character modeling suitable for efficiently rendering large crowds
US7518608B2 (en) Z-depth matting of particles in image rendering
Wilson et al. Rendering complexity in computer-generated pen-and-ink illustrations
Coconu et al. Real-time pen-and-ink illustration of landscapes
Suarez et al. Real-time 3D rendering with hatching
US7499052B2 (en) Z-jittering of particles in image rendering
US8766985B1 (en) Generating animation using image analogies to animate according to particular styles
WO2008147999A1 (en) Shear displacement depth of field
Stich et al. Efficient and robust shadow volumes using hierarchical occlusion culling and geometry shaders
Klehm et al. Stylized scattering via transfer functions and occluder manipulation
Trapp et al. Occlusion management techniques for the visualization of transportation networks in virtual 3D city models
US7880743B2 (en) Systems and methods for elliptical filtering
Vyatkin et al. Shadow Generation Method for Volume-Oriented Visualization of Functionally Defined Objects
Dai et al. Rendering 3D vector data using the theory of stencil shadow volumes
Grabner et al. Image space advection on graphics hardware
Hermosilla et al. NPR effects using the geometry shader
Eissele et al. Frame-to-frame coherent halftoning in image space
Barroso et al. Stroke based Painterly Inbetweening
Xue Volume Visualization Using Advanced Graphics Hardware Shaders

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid