KR20120078070A - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR20120078070A
KR20120078070A KR1020100140246A KR20100140246A KR20120078070A KR 20120078070 A KR20120078070 A KR 20120078070A KR 1020100140246 A KR1020100140246 A KR 1020100140246A KR 20100140246 A KR20100140246 A KR 20100140246A KR 20120078070 A KR20120078070 A KR 20120078070A
Authority
KR
South Korea
Prior art keywords
val
coefficient set
model
point
base group
Prior art date
Application number
KR1020100140246A
Other languages
English (en)
Inventor
하인우
김도균
이태현
심현정
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100140246A priority Critical patent/KR20120078070A/ko
Publication of KR20120078070A publication Critical patent/KR20120078070A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)

Abstract

영상 처리 장치가 제공된다. 상기 영상 처리 장치는 3D 모델의 Global illumination을 표현하기 위해, 상기 3D 모델 내에 적어도 하나의 VAL(Virtual Area Light)을 샘플링한다. 그리고, 샘플링된 VAL들 각각을 복수 개의 시점으로 프로젝션 하여 반사 섀도우 맵을 생성한다. 또한, 영상 처리 장치는, 상기 반사 섀도우 맵을 제1 기저 그룹으로 프로젝션 하여 제1 계수 세트를 계산하고, 상기 3D 모델을 렌더링하고자 하는 카메라 시점에서 바라본 제1 포인트의 BRDF를 상기 제1 기저 그룹으로 프로젝션하여 제2 계수 세트를 계산한다. 그리고, 영상 처리 장치는 상기 제1 계수 세트 및 상기 제2 계수 세트를 이용하여 상기 적어도 하나의 VAL 각각이 상기 제1 포인트에 주는 영향력을 계산할 수 있다.

Description

영상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND METHOD}
3D(3 Dimensional) 모델로 구성된 오브젝트에 대한 전역 조명(Global illumination) 렌더링에 연관되며, 보다 특정하게는 Radiosity 기법에 있어서, 오브젝트 위의 가상 조명(Virtual light)의 샘플링 및 파라미터화에 의한 영상 렌더링에 연관된다.
3D 모델에 대한 실시간 렌더링(real-time rendering)에 대한 관심이 높아지고 있다. 3D 모델을 렌더링하는 데에 있어서, 전역 조명(Global illumination)은 직접 조명(direct illumination)에 의한 칼라 값 형성과 간접 조명(indirect illumination)에 의한 칼라 값을 함께 고려하는 것이다.
여기서, 간접 조명에는, 이를테면 오브젝트 표면에서 빛의 반사(reflection), 굴절(refraction), 투과(transmission), 빛의 난반사(scattered reflection), 등이 모델링될 수 있다.
이러한 간접 조명을 직접 조명과 함께 샘플링하여 렌더링에 반영함으로써, 글로시(glossy), 스펙큘러(specular), 디퓨즈(diffuse) 효과 등이 표현되어 렌더링 품질이 향상된다.
한편, 간접 조명을 렌더링에 반영하기 위한 Radiosity 기법에 있어서, 종래에는 이러한 간접조명을 모델링하기 위해 3D 모델 내의 특정 위치에 VPL(Virtual Point Light)를 샘플링 하였다.
그러나, 샘플링의 특성 상, 중요한 포인트에 VPL이 배치되지 않거나 또는 중요하지 않은 outlier 위에 VPL이 샘플링 되는 경우, 품질에 한계가 있었다. 하지만, 기존의 Monte Carlo 방식은 연산량이 너무 커지기 때문에, VPL의 샘플링에 의한 Radiosity 기법이 주목 받았던 것이 사실이다.
3D 오브젝트 상의 간접 조명을 VAL(Virtual Area Light)로 샘플링하여, 연산량에 대비한 렌더링 품질을 크게 향상시키는 영상 처리 장치 및 방법이 제공된다.
또한, 오브젝트의 BRDF(Bidirectional Reflection Distribute Function)와 VAL을 고려하여 영상의 칼라 값을 계산하는 경우 계산 속도를 향상시킨 영상 처리 장치 및 방법이 제공된다.
본 발명의 일측에 따르면, 3D 모델 내에 샘플링된 적어도 하나의 VAL 각각을 N 개(단, N은 자연수)의 시점으로 프로젝션 하여 반사 섀도우 맵을 생성하는 제1 계산부, 상기 반사 섀도우 맵을 제1 기저 그룹으로 프로젝션 하여 제1 계수 세트를 계산하고, 상기 3D 모델을 렌더링하고자 하는 카메라 시점에서 바라본 제1 포인트의 BRDF를 상기 제1 기저 그룹으로 프로젝션하여 제2 계수 세트를 계산하는 제2 계산부, 및 상기 제1 계수 세트 및 상기 제2 계수 세트를 이용하여 상기 적어도 하나의 VAL 각각이 상기 제1 포인트에 주는 영향력을 계산하는 제3 계산부를 포함하는, 영상 처리 장치가 제공된다.
이 경우, 상기 N 개의 시점은 상기 적어도 하나의 VAL을 중심으로 상기 3D 모델의 공간에 대한 discretized view angle에 대응할 수 있다.
본 발명의 일실시예에 따르면, 상기 제1 기저 그룹은 SH(Spherical Harmonics), PCA(Principal component analysis) 또는 Wavelet 중 하나에 의한 기저들의 집합이다.
한편, 상기 제2 계산부는, 상기 반사 섀도우 맵을 제1 기저 그룹에 포함되는 기저들 각각으로 프로젝션 하여 제1 계수 세트를 계산하고, 상기 3D 모델을 렌더링하고자 하는 카메라 시점에서 바라본 제1 포인트의 BRDF를 상기 제1 기저 그룹에 포함되는 기저들 각각으로 프로젝션하여 제2 계수 세트를 계산할 수 있다.
또한, 상기 제3 계산부는, 상기 제1 계수 세트에 대응하는 제1 벡터 및 상기 제2 계수 세트에 대응하는 제2 벡터의 내적을 상기 적어도 하나의 VAL 각각이 상기 제1 포인트에 주는 영향력으로서 계산할 수 있다.
본 발명의 일실시예에 따르면, 상기 영상 처리 장치는, 라이트 시점으로부터 상기 3D 모델을 렌더링하고, 렌더링된 영상 내에 적어도 하나의 VAL(Virtual Area Light)을 샘플링하는 VAL 샘플링부를 더 포함한다.
이 경우, 상기 VAL 샘플링부는, 상기 렌더링된 영상 내의 오브젝트 영역의 픽셀을 그룹핑하여, 그룹핑된 픽셀 그룹 각각을 상기 적어도 하나의 VAL로서 샘플링할 수 있다.
본 발명의 다른 일측에 따르면, 3D 모델 내에 샘플링된 적어도 하나의 VAL 각각을 N 개(단, N은 자연수)의 시점으로 프로젝션 하여 반사 섀도우 맵을 생성하는 반사 섀도우 맵 계산 단계, 상기 반사 섀도우 맵을 제1 기저 그룹으로 프로젝션 하여 제1 계수 세트를 계산하고, 상기 3D 모델을 렌더링하고자 하는 카메라 시점에서 바라본 제1 포인트의 BRDF를 상기 제1 기저 그룹으로 프로젝션하여 제2 계수 세트를 계산하는 기저 계수 계산 단계, 및 상기 제1 계수 세트 및 상기 제2 계수 세트를 이용하여 상기 적어도 하나의 VAL 각각이 상기 제1 포인트에 주는 영향력을 계산하는 영향력 계산 단계를 포함하는, 영상 처리 방법이 제공된다.
3D 오브젝트 상의 간접 조명을 VAL로 샘플링하므로, 연산량에 대비한 렌더링 품질이 크게 향상된다.
또한, 오브젝트의 BRDF와 VAL을 고려하여 영상의 칼라 값을 계산하는 경우 계산 속도가 크게 향상된다.
도 1은 본 발명의 일실시예에 따른 영상 처리 장치를 도시한다.
도 2는 본 발명의 일실시예에 따라 렌더링하고자 하는 예시적인 3D 모델을 도시한다.
도 3은 본 발명의 일실시예에 따라 라이트 시점에서 예시적 3D 모델을 렌더링 한 예시적 결과이다.
도 4는 본 발명의 일실시예에 따라 VAL을 프로젝션 할 복수 개의 시점들을 도시하는 개념도이다.
도 5는 본 발명의 일실시예에 따라 생성되는 반사 섀도우 맵을 설명하기 위한 개념도이다.
도 6은 본 발명의 일실시예에 따라 생성되는 기저 그룹 계수를 설명하기 위한 개념도이다.
도 7은 본 발명의 일실시예에 따라 3D 모델을 렌더링하는 과정을 설명하기 위한 3D 모델의 평면도이다.
도 8은 본 발명의 일실시예에 따른 영상 처리 방법을 도시한다.
이하에서, 본 발명의 일부 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 따른 깊이 영상 처리 장치(100)를 도시한다.
영상 처리 장치(100)의 VAL(Virtual Area Light) 샘플링부(110)는, 입력되는 3D 모델을 라이트 시점(Light view)에서 렌더링하고, 그 결과 영상 내에서 적어도 하나의 VAL을 샘플링 한다.
3D 모델 내에 포함되는 조명은 직접 조명(Direct illumination)과 간접 조명(Indirect illumination) 또는 전역 조명(Global illumination)으로 구분된다. 직접 조명은 3D 모델 내에서 스스로 빛을 방출(emitting)하는 부분이며, 간접조명은 직접 조명에 의한 빛을 반사하거나 산란하는 부분이다.
VAL 샘플링부(110)가 3D 모델을 미리 렌더링하는 시점인 상기 라이트 시점은 직접 조명의 시점에 대응한다.
VAL 샘플링부(110)가 라이트 시점에서 3D 모델을 미리 렌더링하여 적어도 하나의 VAL들을 샘플링하는 과정은 도 2 및 도 3을 참조하여 보다 상세히 후술한다.
3D 모델을 라이트 시점으로부터 렌더링 한 결과에서 적어도 하나의 VAL이 샘플링 되는 경우, 이러한 VAL들은 면 조명(surface illumination)을 대표하며, VAL들을 바라보는 시점에 따라 그 모양이나 조명 세기(intensity)가 달라진다.
따라서, pre-computation을 수행하여 상기 VAL들을 바라보는 방향에 대한 조명의 모양이나 세기를 미리 look-up table의 형태로 만들어 두는 과정은 추후 렌더링 과정의 연산량을 크게 감소시킬 수 있다.
제1 계산부(120)는 3D 모델 내에 샘플링된 상기 적어도 하나의 VAL들 각각을 N 개(단, N은 자연수)의 시점으로 프로젝션 하여 반사 섀도우 맵(reflective shadow map)을 생성한다.
여기서, 상기 N 개의 시점은 샘플링된 적어도 하나의 VAL을 중심으로 상기 3D 모델의 공간에 대한 discretized view angle에 대응하는 시점으로, 상세한 내용은 도 4를 참조하여 후술한다.
그리고, 제1 계산부(120)가 생성하는 반사 섀도우 맵에 대해서는 도 5를 참조하여 보다 상세히 후술한다.
제2 계산부(130)는 생성된 반사 섀도우 맵을 제1 기저 그룹(a first basis group)의 각 기저들(basis)로 프로젝션하여, 제1 계수 세트(coefficient set)를 계산한다.
본 발명의 일실시예에 따르면, 상기 제1 기저 그룹은 SH(Spherical Harmonics), PCA(Principal component analysis) 또는 Wavelet 중 하나에 의한 기저들의 집합이다.
다만, 이는 본 발명의 일부 실시예에 불과하며, 생성된 반사 섀도우 맵을 orthogonal 한 복수 개의 기저들로 프로젝션하여 각 기저(basis)들에 대응하는 계수들을 생성하는 방법이면, 상기 예시들 외에 다른 어떠한 수학적 이론을 이용할 수도 있으며, 본 발명의 사상을 벗어나지 않는 범위에서는 다른 수학적 이론에 의한 실시예 또한 본 발명의 범위에서 제외되지 않는다.
그리고, 제2 계산부(130)는 반사 섀도우 맵을 프로젝션한 것과 동일한 제1 기저 그룹의 각 기저들로, 상기 3D 모델을 렌더링하고자 하는 카메라 시점(camera view)에서 바라본 제1 포인트의 BRDF(Bidirectional Reflect Distribute Function)를 프로젝션하여 제2 계수 세트를 계산한다.
제2 계산부(130)는 SH(Spherical Harmonics) 등의 수학적인 이론을 이용해서, 샘플링된 VAL들을 N 개의 시점에서 바라본 반사 섀도우 맵, 및 카메라 시점에서 보이는 Surface Point의 BRDF를 몇 개의 Coefficient들로 단순화한다.
이러한 제2 계산부(130)의 Pre-computation에 의해 실제 렌더링 과정에서의 연산량이 크게 줄어들며, 렌더링 과정에서의 중복 연산에 의한 비효율을 제거할 수 있다.
제2 계산부(130)의 계산 과정은 도 5 내지 도 7을 참조하여 보다 상세히 후술한다.
제3 계산부(140)는 카메라 시점(camera view)에서 visible한 surface point들에 대한 상기 샘플링된 각 VAL의 illumination을 계산한다. 각 VAL들의 illumination의 결과가 integration되며, 이러한 결과가 각 surface point들의 칼라 값에 영향을 주므로, 이하에서는 각 VAL이 surface point들에 주는 illumination 정도를 영향력이라고도 표현한다.
본 발명의 일실시예에 의하면, 제3 계산부(140)의 계산 과정은 제2 계산부가 제1 기저 그룹을 구성하는 각 기저들에 대해 계산한, 상기 제1 계수 세트에 대응하는 제1 벡터 및 상기 제2 계수 세트에 대응하는 제2 벡터의 내적을 구하는 과정이다.
벡터의 내적에 의한 스칼라 값의 계산은 매우 단순한 것이고, 빠르게 수행될 수 있기 때문에, 제1 계산부(120) 및 제2 계산부(130)의 pre-computation에 의한 연산량 증가에도 불구하고, 전체 렌더링 과정의 연산량은 크게 감소된다.
이상의 과정은 도 2 이하를 참조하여 보다 상세히 후술한다.
도 2는 본 발명의 일실시예에 따라 렌더링하고자 하는 예시적인 3D 모델(200)을 도시한다.
오브젝트(210) 및 오브젝트(220)은 직접 조명(Direct illumination)인 라이트 시점(201)으로부터 빛을 받아 반사 또는 산란함으로써 간접 조명 광원(Indirect illumination light source)가 된다.
카메라 시점(203)에서 상기 3D 모델을 렌더링하여 영상을 생성하는 경우, 현재 칼라 값의 계산 대상이 되는 Surface Point인 포인트(202)는 또 다른 오브젝트(230) 상에 존재한다.
이러한 3D 모델(200)을 본 발명의 실시예들에 따라 카메라 시점(203)에서 렌더링하는 과정을 도 3 이하를 참조하여 후술한다.
도 3은 본 발명의 일실시예에 따라 라이트 시점(201)에서 예시적 3D 모델(200)을 렌더링 한 예시적 결과이다.
직접 조명에 대응하는 광원(Direct illumination light source)를 이용해 렌더링된 오브젝트 상의 모든 면들의 칼라는 스스로 간접 조명 광원(indirect illumination light source)로서 작용한다.
그러면, 렌더링하고자 하는 부분들의 각 surface point는 자신의 BRDF에 따라 상기 각각의 간접 조명 광원들로부터의 조도(illumination)을 integration하게 되고 그 결과들의 합이 해당 surface point의 최종 렌더링 결과인 칼라가 된다.
그런데, 직접 조명 광원들로부터 빛을 받아서 간접 조명 광원으로서 기능하는 모든 포인트들 하나 하나를 간접 조명 광원으로 고려하는 경우, 연산량이 너무 커진다.
따라서, 포인트들을 그룹핑하여, 그룹핑된 각각의 포인트 그룹을 가상의 면 조명 광원(a virtual surface illumination light source)로 단순화하는 샘플링 과정은 연산량을 크게 감소시키면서도 렌더링 품질에 큰 영향을 주지 않는다.
본 명세서에서는 이러한 과정을 VAL 샘플링이라 하며, 상기 그룹핑된 포인트 그룹 하나를 하나의 VAL로서 표현한다.
VAL 샘플링부(110)는 직접 조명 광원인 라이트 시점(201)에서 3D 모델을 렌더링하며, 그 예시적 결과가 도 3에 도시되었다.
그리고, VAL 샘플링부(110)는 렌더링된 결과를, 칼라 intensity에 따른 importance sampling을 통해 픽셀들을 그룹핑 한다.
각 그룹은 colored point cloud로 구성되며, 각각 하나의 VAL이 된다.
VAL(310), VAL(320), VAL(330) 및 VAL(340)은 이렇게 VAL 샘플링부(110)가 샘플링한 예시적 결과이다. VAL들(310 내지 340) 각각은 하나의 면(surface)이므로, integrate 되어 칼라 값에 영향을 줄 포인트(202)와의 각도나 거리에 따라 다른 형태로 보이게 된다. VAL들(310 내지 340) 각각의 중심점인 포인트(311, 321, 331 및 341)은 포인트(202)와의 각도 및/또는 거리 계산의 기준이 된다.
도 4는 본 발명의 일실시예에 따라 VAL을 프로젝션할 복수 개의 시점들을 도시하는 개념도(400)이다.
제1 계산부(120)는 3D 모델 상의 전체 각도를 discretize 한 N 개의 시점으로 각 VAL들을 projection 한다.
이를 테면, VAL(310)을 대해 N 개의 시점들(410, 411, 420, 421 등)로 projection 한다. N 개의 시점들은 VAL(310)을 프로젝션 하는 기준이 되며, 본 발명의 일실시예에 따르면, 일정 반경의 원 또는 구를 discretize한 시점들이다.
제1 계산부(120)는 이러한 프로젝션을 통해 VAL들 각각에 대한 반사 섀도우 맵(reflective shadow map)을 생성한다. 이러한 과정은 각 VAL들에 대한 파라미터화(parameterization)으로 표현될 수도 있다.
도 5는 본 발명의 일실시예에 따라 생성되는 반사 섀도우 맵을 설명하기 위한 개념도이다.
VAL의 parameterization을 통해 반사 섀도우 맵(510, 520, 530 및 540)이 생성되었다. 섀도우 맵(510)은 VAL(310)에 대응한다. 그리고, 섀도우 맵(520 내지 540)은 각각 VAL(320 내지 340)에 대응한다.
섀도우 맵(510)은 VAL(310)의 N 개의 방향, 이를테면 64개의 방향 각각에 대해 indexing된다.
그러면, 제2 계산부(130)는 indexing된 64개의 셀(511, 512 및 513 등)에 대해 SH(Spherical Harmonics)에 의한 각 기저로의 projection을 수행하여, 이를 제1 계수 세트로 변환한다. 제1 계수 세트는 도 6의 개념도를 통해 도시된다.
도 6은 본 발명의 일실시예에 따라 생성되는 기저 그룹 계수를 설명하기 위한 개념도이다.
블록(610)은 도 5의 섀도우 맵(510) 부분을 SH(Spherical Harmonics)에 의한 각 기저로의 projection한 결과인 계수들에 대응한다. 그리고, 블록(620) 내지 블록(640)은 각각 섀도우 맵(510) 내지 섀도우 맵(540) 부분을 SH에 의한 각 기저로의 projection한 결과인 계수들에 대응한다.
본 발명의 일실시예에 따르면, 블록(610) 내에는 64 개의 기저(basis)에 대한 프로젝션 결과인 계수들(611 내지 613 등)이 포함된다.
본 발명의 일실시예에 따르면, 제2 계산부(130)는, 카메라 시점(203)에서 렌더링하고자 하는 영상의 하나의 픽셀에 대응하는 Surface Point인 포인트(202)의 BRDF 또한 동일한 기저들로 projection 하여 제2 계수 세트를 계산한다.
그리고, 이러한 계수들의 계산 결과는 look-up table의 형태로 제3 계산부(140)에 의해 이용될 수 있다.
도 7은 본 발명의 일실시예에 따라 3D 모델을 렌더링하는 과정을 설명하기 위한 3D 모델의 평면도이다.
제2 계산부(130)는 포인트(202)에 대한 BRDF(710)를 상기 제1 기저 그룹에 포함되는 동일 기저들 각각으로 프로젝션 하여 제2 계수 세트를 계산한다.
그러면, 제3 계산부(140)는 포인트(202)의 tangent space 상에서 각 VAL이 어떠한 각도와 거리로 보일지를 고려하여, 상기 제1 계수 세트에 대해 Scaling 및 Rotation을 수행하여 VAL들 각각에 대한 제1 벡터를 계산한다.
그리고, 제1 벡터와 상기 제2 계수 세트에 의해 계산되는 제2 벡터의 내적을 이용하여 VAL들 각각이 포인트(202)에 영향을 주는 영향력, 즉 integrated illumination을 계산한다.
이러한 integrated illumination을 고려하여 포인트(202)의 칼라 값을 계산하면, 카메라 시점(203)에서 포인트(202)의 칼라 값이 결정된다.
그리고, 이러한 과정을 카메라 시점(203)에서 렌더링하고자 하는 영상의 전체 픽셀들에 대해 반복하면, Global illumination을 반영한 렌더링이 완성된다.
도 8은 본 발명의 일실시예에 따른 영상 처리 방법을 도시한다.
단계(810)에서, 영상 처리 장치(100)의 VAL 샘플링부(110)는, 입력되는 3D 모델을 라이트 시점(Light view)에서 렌더링하고, 그 결과 영상 내에서 적어도 하나의 VAL을 샘플링 한다.
VAL 샘플링에 대해서는 도 1 내지 도 3을 참조하여 상술한 바와 같다.
그리고, 단계(820)에서 제1 계산부(120)는, 샘플링된 VAL들 각각을 상기 N 개의 시점들로 프로젝션 하여 반사 섀도우 맵을 생성한다. 반사 섀도우 맵 생성에 대한 내용은 도 1 및 도 5를 참조하여 상술한 바와 같다.
그러면, 단계(830)에서 제2 계산부(130)가 생성된 반사 섀도우 맵을 제1 기저 그룹의 각 기저들(basis)로 프로젝션하여, 제1 계수 세트(coefficient set)를 계산한다.
그리고, 단계(840)에서는 제2 계산부(130)가 반사 섀도우 맵을 프로젝션한 것과 동일한 상기 제1 기저 그룹의 각 기저들로, 상기 3D 모델을 렌더링하고자 하는 카메라 시점(203)에서 바라본 포인트(202)의 BRDF를 프로젝션하여 제2 계수 세트를 계산한다.
제1 계수 세트 및 제2 계수 세트의 계산 과정은 도 6 및 도 7을 참조하여 상술한 바와 같다.
단계(810) 내지 단계(840)은 렌더링 과정에 있어서의 간접 조명 계산을 위한 Pre-computation에 해당한다.
그리고, 단계(850)에서 제3 계산부(140)는 카메라 시점에 대한 i 번째 Surface 포인트의 칼라 값을 계산하며, 이러한 계산은 제1 계수 세트에 의해 계산되는 제1 벡터와 제2 계수 세트에 의해 계산되는 제2 벡터의 내적으로 간단하게 수행된다.
이러한 Surface 칼라 값 계산은 도 1 및 도 7을 참조하여 상술한 바와 같다.
단계(860)에서는 카메라 시점(203)에서 렌더링하고자 하는 영상의 모든 픽셀들에 대응하는 Surface Point들에 대해 칼라 값 계산이 완료되었는지를 판단하여, 칼라 값이 계산되지 않은 Surface Point가 남아 있는 경우 단계(850) 이하를 반복한다.
이러한 과정은 도 1 내지 도 7을 참조하여 상술한 바와 같다.
본 발명의 일실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100: 영상 처리 장치
110: VAL 샘플링부
120: 제1 계산부
130: 제2 계산부
140: 제3 계산부

Claims (15)

  1. 3D 모델 내에 샘플링된 적어도 하나의 VAL 각각을 N 개(단, N은 자연수)의 시점으로 프로젝션 하여 반사 섀도우 맵을 생성하는 제1 계산부;
    상기 반사 섀도우 맵을 제1 기저 그룹으로 프로젝션 하여 제1 계수 세트를 계산하고, 상기 3D 모델을 렌더링하고자 하는 카메라 시점에서 바라본 제1 포인트의 BRDF를 상기 제1 기저 그룹으로 프로젝션하여 제2 계수 세트를 계산하는 제2 계산부; 및
    상기 제1 계수 세트 및 상기 제2 계수 세트를 이용하여 상기 적어도 하나의 VAL 각각이 상기 제1 포인트에 주는 영향력을 계산하는 제3 계산부
    를 포함하는, 영상 처리 장치.
  2. 제1항에 있어서,
    상기 N 개의 시점은 상기 적어도 하나의 VAL을 중심으로 상기 3D 모델의 공간에 대한 discretized view angle에 대응하는, 영상 처리 장치.
  3. 제1항에 있어서,
    상기 제1 기저 그룹은 SH(Spherical Harmonics), PCA(Principal component analysis) 또는 Wavelet 중 하나에 의한 기저들의 집합인, 영상 처리 장치.
  4. 제1항에 있어서,
    상기 제2 계산부는,
    상기 반사 섀도우 맵을 제1 기저 그룹에 포함되는 기저들 각각으로 프로젝션 하여 제1 계수 세트를 계산하고, 상기 3D 모델을 렌더링하고자 하는 카메라 시점에서 바라본 제1 포인트의 BRDF를 상기 제1 기저 그룹에 포함되는 기저들 각각으로 프로젝션하여 제2 계수 세트를 계산하는, 영상 처리 장치.
  5. 제4항에 있어서,
    상기 제3 계산부는,
    상기 제1 계수 세트에 대응하는 제1 벡터 및 상기 제2 계수 세트에 대응하는 제2 벡터의 내적을 상기 적어도 하나의 VAL 각각이 상기 제1 포인트에 주는 영향력으로서 계산하는, 영상 처리 장치.
  6. 제1항에 있어서,
    라이트 시점으로부터 상기 3D 모델을 렌더링하고, 렌더링된 영상 내에 적어도 하나의 VAL(Virtual Area Light)을 샘플링하는 VAL 샘플링부
    를 더 포함하는, 영상 처리 장치.
  7. 제6항에 있어서,
    상기 VAL 샘플링부는,
    상기 렌더링된 영상 내의 오브젝트 영역의 픽셀을 그룹핑하여, 그룹핑된 픽셀 그룹 각각을 상기 적어도 하나의 VAL로서 샘플링하는, 영상 처리 장치.
  8. 3D 모델 내에 샘플링된 적어도 하나의 VAL 각각을 N 개(단, N은 자연수)의 시점으로 프로젝션 하여 반사 섀도우 맵을 생성하는 반사 섀도우 맵 계산 단계;
    상기 반사 섀도우 맵을 제1 기저 그룹으로 프로젝션 하여 제1 계수 세트를 계산하고, 상기 3D 모델을 렌더링하고자 하는 카메라 시점에서 바라본 제1 포인트의 BRDF를 상기 제1 기저 그룹으로 프로젝션하여 제2 계수 세트를 계산하는 기저 계수 계산 단계; 및
    상기 제1 계수 세트 및 상기 제2 계수 세트를 이용하여 상기 적어도 하나의 VAL 각각이 상기 제1 포인트에 주는 영향력을 계산하는 영향력 계산 단계
    를 포함하는, 영상 처리 방법.
  9. 제8항에 있어서,
    상기 N 개의 시점은 상기 적어도 하나의 VAL을 중심으로 상기 3D 모델의 공간에 대한 discretized view angle에 대응하는, 영상 처리 방법.
  10. 제8항에 있어서,
    상기 제1 기저 그룹은 SH(Spherical Harmonics), PCA(Principal component analysis) 또는 Wavelet 중 하나에 의한 기저들의 집합인, 영상 처리 방법.
  11. 제8항에 있어서,
    상기 기저 계수 계산 단계는,
    상기 반사 섀도우 맵을 제1 기저 그룹에 포함되는 기저들 각각으로 프로젝션 하여 제1 계수 세트를 계산하고, 상기 3D 모델을 렌더링하고자 하는 카메라 시점에서 바라본 제1 포인트의 BRDF를 상기 제1 기저 그룹에 포함되는 기저들 각각으로 프로젝션하여 제2 계수 세트를 계산하는, 영상 처리 방법.
  12. 제11항에 있어서,
    상기 영향력 계산 단계는,
    상기 제1 계수 세트에 대응하는 제1 벡터 및 상기 제2 계수 세트에 대응하는 제2 벡터의 내적을 상기 적어도 하나의 VAL 각각이 상기 제1 포인트에 주는 영향력으로서 계산하는, 영상 처리 방법.
  13. 제8항에 있어서,
    상기 반사 섀도우 맵 계산 단계에 앞서서, 라이트 시점으로부터 상기 3D 모델을 렌더링하고, 렌더링된 영상 내에 적어도 하나의 VAL(Virtual Area Light)을 샘플링하는 VAL 샘플링 단계
    를 더 포함하는, 영상 처리 방법.
  14. 제13항에 있어서,
    상기 VAL 샘플링 단계는,
    상기 렌더링된 영상 내의 오브젝트 영역의 픽셀을 그룹핑하여, 그룹핑된 픽셀 그룹 각각을 상기 적어도 하나의 VAL로서 샘플링하는, 영상 처리 방법.
  15. 제8항 내지 제14항 중 어느 한 항의 영상 처리 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
KR1020100140246A 2010-12-31 2010-12-31 영상 처리 장치 및 방법 KR20120078070A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100140246A KR20120078070A (ko) 2010-12-31 2010-12-31 영상 처리 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100140246A KR20120078070A (ko) 2010-12-31 2010-12-31 영상 처리 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20120078070A true KR20120078070A (ko) 2012-07-10

Family

ID=46711468

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100140246A KR20120078070A (ko) 2010-12-31 2010-12-31 영상 처리 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20120078070A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160006087A (ko) * 2014-07-08 2016-01-18 삼성전자주식회사 시각 효과를 가지는 객체를 디스플레이하는 장치 및 방법
US9990762B2 (en) 2014-12-15 2018-06-05 Samsung Electronic Co., Ltd. Image processing apparatus and method
CN116421970A (zh) * 2023-06-12 2023-07-14 腾讯科技(深圳)有限公司 虚拟对象的外装渲染方法、装置、计算机设备和存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160006087A (ko) * 2014-07-08 2016-01-18 삼성전자주식회사 시각 효과를 가지는 객체를 디스플레이하는 장치 및 방법
US9990762B2 (en) 2014-12-15 2018-06-05 Samsung Electronic Co., Ltd. Image processing apparatus and method
CN116421970A (zh) * 2023-06-12 2023-07-14 腾讯科技(深圳)有限公司 虚拟对象的外装渲染方法、装置、计算机设备和存储介质
CN116421970B (zh) * 2023-06-12 2023-12-05 腾讯科技(深圳)有限公司 虚拟对象的外装渲染方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
KR102223064B1 (ko) 영상 처리 장치 및 방법
KR20120004227A (ko) 영상 처리 장치 및 방법
Li et al. Anisotropic gaussian mutations for metropolis light transport through hessian-hamiltonian dynamics
US9401043B2 (en) Photon beam diffusion
PT1376472E (pt) Sistemas e métodos para efectuar uma amostragem controlável de textura
US9684997B2 (en) Efficient rendering of volumetric elements
US9189883B1 (en) Rendering of multiple volumes
US10157494B2 (en) Apparatus and method for processing virtual point lights in an image
US8606549B2 (en) Method of simulating illuminated environment for off-line programming
US9684991B2 (en) Image processing apparatus and method using photon mapping and ray tracing and increasing a rate of photon mapping
US10607404B2 (en) Device and method for estimating a glossy part of radiation
US9905028B2 (en) Simulating sub-surface scattering of illumination for simulated three-dimensional objects
JP5873683B2 (ja) 仮想環境でのオクルージョンを推定する方法
Drobot Physically based area lights
KR20120078070A (ko) 영상 처리 장치 및 방법
KR20110032366A (ko) 영상 처리 장치 및 방법
US9396580B1 (en) Programmable system for artistic volumetric lighting
Liu et al. Temporally sliced photon primitives for time‐of‐flight rendering
CN104272351A (zh) 用于表示场景中的参与介质的方法以及对应的设备
Zhdanov et al. The backward photon mapping for the realistic image rendering
KR102211142B1 (ko) 영상 처리 장치 및 방법
CN107924581A (zh) 用于实时渲染镜面的图像的方法和设备
KR20120062542A (ko) 영상 처리 장치 및 방법
JP2012064212A (ja) 均質な媒質中の光の散乱を推定する方法
de Freitas Almeida MSc Computer Animation & Visual Effects September 2023

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20101231

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20150518

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20101231

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160630

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20161117

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20160630

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I