KR20110051315A - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR20110051315A
KR20110051315A KR1020090107818A KR20090107818A KR20110051315A KR 20110051315 A KR20110051315 A KR 20110051315A KR 1020090107818 A KR1020090107818 A KR 1020090107818A KR 20090107818 A KR20090107818 A KR 20090107818A KR 20110051315 A KR20110051315 A KR 20110051315A
Authority
KR
South Korea
Prior art keywords
point
shadow
light source
pixel
model
Prior art date
Application number
KR1020090107818A
Other languages
English (en)
Other versions
KR101585998B1 (ko
Inventor
하인우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090107818A priority Critical patent/KR101585998B1/ko
Publication of KR20110051315A publication Critical patent/KR20110051315A/ko
Application granted granted Critical
Publication of KR101585998B1 publication Critical patent/KR101585998B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Abstract

영상 처리 장치가 제공된다. 통상적인 레이 트래이싱 과정에서는 소프트 섀도우의 표현을 위해 요구되는 연산량의 증가가 매우 크다. 따라서, 하이브리드 기법을 통해 레이 트래이싱을 수정한 영상 처리 장치가 제공된다.
렌더링, rendering, rasterization, shadow map

Description

영상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND METHOD}
3D 모델로 구성된 오브젝트에 대한 렌더링에 연관되며, 보다 특정하게는 실시간 레이 트래이싱(real-time ray tracing)을 이용한 영상 렌더링에 연관된다.
하드웨어 및 소프트웨어의 발전에 따라, 3D(3-Dimensional) 게임, 가상현실(virtual world) 애니메이션, 영화 등 다양한 분야에서, 3D 모델에 대한 실시간 렌더링(real-time rendering)에 대한 관심이 높아지고 있다.
고품질 3D 렌더링을 위해서는 연산량이 매우 커지는데, 기존에는 하드웨어의 성능이 낮아서, 실시간 렌더링에 한계가 있었다.
특히, 레이 트래이싱(Ray tracing)과 같은 렌더링 방법은, 영상을 렌더링 하고자 하는 카메라 시점의 각 픽셀로부터 오브젝트를 향한 가상의 레이(ray) 진행 방향을 추적하기 때문에, 연산량이 매우 크다.
이렇게 연산량이 크기 때문에, 레이 트래이싱의 경우, 보다 자연스러운 형태의 영상, 이를테면 소프트 섀도우(soft shadow)와 같은 효과가 표현된 영상을 빠르게 렌더링 하는 데는 적합하지 않았다.
3D 렌더링을 수행함에 있어서, 연산량을 크게 감소시켜, 렌더링 처리 속도를 향상시키는 영상 처리 장치 및 방법이 제공된다.
레이 트래이싱 방법에 의해 3D 렌더링을 수행하는 경우, 소프트 섀도우 표현 등을 위한 연산량을 크게 감소시켜, 연산 효율을 향상시킨 영상 처리 장치 및 방법이 제공된다.
본 발명의 일측에 따르면, 3D 모델 내의 광원에 대응하는 섀도우 맵을 작성하는 제1 계산부, 상기 3D 모델을 제1 시점에서 바라본 영상을 레이 트래이싱 기법에 의해 렌더링하는 경우, 상기 영상의 제1 픽셀에 대응하는 상기 3D 모델 내의 제1 포인트를 탐색하는 제2 계산부, 및 상기 섀도우 맵을 이용하여, 상기 제1 포인트가 상기 광원에 대한 섀도우 영역인지의 여부를 판단하는 제3 계산부를 포함하는, 영상 처리 장치가 제공된다.
이 경우, 상기 제3 계산부는, 상기 섀도우 맵과 동일한 좌표계 내에서의 상기 제1 포인트의 좌표 값을 구하고, 상기 좌표 값과, 상기 섀도우 맵 내의 상기 좌표 값에 대응하는 깊이 값을 비교하여 상기 제1 포인트가 상기 광원에 대한 섀도우 영역인지의 여부를 판단한다.
또한, 상기 제3 계산부는, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대하여, 상기 광원에 대한 섀도우 영역인지의 여부를 판단할 수도 있다.
이 경우, 상기 영상 처리 장치는 상기 제3 계산부의 판단 결과를 이용하여, 상기 제1 픽셀의 칼라 값을 결정하는 제4 계산부를 더 포함할 수 있다.
여기서 상기 제4 계산부는, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트 중, 상기 제3 계산부에 의해 상기 광원에 대한 섀도우 영역으로 판단된 포인트의 비율에 기초하여, 상기 제1 픽셀의 칼라 값을 결정한다.
한편, 본 발명의 다른 일측에 따르면, 3D 모델 내의 광원에 대응하는 섀도우 맵을 작성하는 제1 계산부, 상기 3D 모델을 제1 시점에서 바라본 영상을 렌더링하는 경우, 상기 영상의 제1 픽셀에 대응하는 상기 3D 모델 내의 제1 포인트를 탐색하는 제2 계산부, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대해 상기 섀도우 맵을 이용하여 섀도우 테스트를 수행하는 제3 계산부, 및 상기 섀도우 테스트 결과, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트 중 섀도우로 판단되는 포인트의 비율에 따라 상기 제1 포인트의 칼라 값을 계산하는 제4 계산부를 포함하는, 영상 처리 장치가 제공된다.
또한 본 발명의 또 다른 일측에 따르면, 3D 모델 내의 광원에 대응하는 섀도우 맵을 작성하는 단계, 상기 3D 모델을 제1 시점에서 바라본 영상을 레이 트래이싱 기법에 의해 렌더링하는 경우, 상기 영상의 제1 픽셀에 대응하는 상기 3D 모델 내의 제1 포인트를 탐색하는 단계, 및 상기 섀도우 맵을 이용하여, 상기 제1 포인트가 상기 광원에 대한 섀도우 영역인지의 여부를 판단하는 단계를 포함하는, 영상 처리 방법이 제공된다.
그리고 본 발명의 또 다른 일측에 따르면, 3D 모델 내의 광원에 대응하는 섀도우 맵을 작성하는 단계, 상기 3D 모델을 제1 시점에서 바라본 영상을 렌더링하는 경우, 상기 영상의 제1 픽셀에 대응하는 상기 3D 모델 내의 제1 포인트를 탐색하는 단계, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대해 상기 섀도우 맵을 이용하여 섀도우 테스트를 수행하는 단계, 및 상기 섀도우 테스트 결과, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트 중 섀도우로 판단되는 포인트의 비율에 따라 상기 제1 포인트의 칼라 값을 계산하는 단계를 포함하는, 영상 처리 방법이 제공된다.
3D 렌더링을 수행하는 경우, 연산 양이 감소된다.
또한 3D 렌더링 연산 효율을 높이기 때문에, 동일한 품질의 영상을 얻기 위해 요구되는 자원(resource)을 줄일 수 있다.
이하에서, 본 발명의 일부 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치(100)를 도시한다.
제1 계산부(110)는 렌더링하고자 하는 3D 모델의 광원(light)의 시점에서 섀도우 맵을 작성한다. 상기 3D 모델 내에 광원이 복수 개 존재하는 경우, 모든 광원의 각각에 대한 섀도우 맵을 작성할 수 있다.
그리고, 제2 계산부(120)는 통상적인 레이 트래이싱 방법에 따라, 영상을 렌더링하고자 하는 카메라 뷰에서 현재 칼라 값을 계산할 제1 픽셀의 프라이머리 레이(primary ray) 충돌 포인트 탐색 연산을 수행하여, 제1 픽셀에 대응하는 제1 포인트를 탐색한다. 다만, 이는 본 발명의 일 실시예에 불과하며, 제1 픽셀에 대응하는 3D 모델 내의 제1 포인트를 탐색하는 과정은 다른 방법에 의할 수도 있다.
그러면, 제1 픽셀의 칼라 값에 대하여, 제1 포인트에서의 직접 조명(direct illumination) 계수가 구해지고, 반사(reflection) 및 굴절(transmission) 계수와, 반사 또는 굴절에 의한 secondary ray의 충돌 포인트 탐색 등의 레이 트래이싱 과정이 수행된다. 이렇게 하여 제1 픽셀의 칼라 값이 레이 트래이싱 방법에 의해 계산될 수 있다.
그러나, 통상적인 레이 트래이싱 방법에 의하면, 난반사나 빛의 회절에 의한 소프트 섀도우 등의 현실감 있는 표현이 어렵다. 한편, 소프트 섀도우를 표현하기 위해, 상기 제1 포인트로부터 광원 주변의 여러 포인트에 대해 가리움(occlusion)이 발생하는 지를 계산하는 경우, 연산양의 증가로 실시간 렌더링이 어렵다.
따라서, 본 발명의 일 실시예에 따르면, 제3 계산부(130)는 상기 제1 계산부(110)에 의해 생성된 섀도우 맵을 이용하여, 상기 제1 포인트 및 그 주변의 복수 개의 포인트들에 대해 섀도우 테스트를 수행한다.
그리고, 제4 계산부는 상기 섀도우 테스트 결과를 참조하여, 상기 제1 포인트에서 정확한 직접 조명 계수를 계산하고, 이를 secondary ray, third ray 등의 레이 트래이싱 결과에 따른 반사 및 굴절 계수들과 조합하여, 상기 제1 픽셀의 칼 라 값을 계산한다.
본 발명의 일 실시예에 따르면, 제1 픽셀에 대응하는 제1 포인트의 직접 조명 계수를 구하는 과정에 있어서, 광원에 대해 미리 계산된 섀도우 맵이 활용되므로, 연산량이 크게 줄어들 수 있다. 섀도우 맵은 주로 래스터라이재이션(rasterization) 방법에 의한 렌더링에서 생성되고 활용되므로, 이러한 의미에서는 본 실시예가 레이 트래이싱과 래스터라이재이션의 하이브리드(hybrid) 렌더링으로 이해될 수 있다.
그리고, 본 발명의 일 실시예에 따르면, 제1 포인트 주변의 포인트들의 섀도우 테스트 결과를 활용하여, 이를 제1 포인트의 직접 조명 계수를 구하는 과정에 활용하므로, 연산량을 크게 증가시키지 않으면서도 소프트 섀도우 표현이 가능하다.
이러한 과정은 도 2 내지 도 6을 참조하여 보다 상세히 후술한다.
도 2는 본 발명의 일 실시예에 따른 영상 처리에 의해 렌더링 되는 3D 모델의 평면도(200)이다.
본 실시예에서, 3D 모델 내에 포함된 오브젝트(210) 및 오브젝트(220)가 도시되어 있다. 그리고, 이를테면 포인트 광원(point light) 형태의 광원(201)의 위치 및 영상을 렌더링 하고자 하는 카메라 시점(camera view)(202)의 위치가 도시되어 있다.
본 발명의 일 실시예에 따른 도 1의 영상 처리 장치(100)는 카메라 시점(202)에서 바라본 시야각 θ2 의 범위 내의 오브젝트들에 대한 영상을 렌더링 한 다.
이 경우 영상 처리 장치(100)의 제1 계산부(110)는 상기 광원(201)에 대응하는 섀도우 맵(shadow map)을 작성한다. 섀도우 맵 작성의 경우, 래스터라이재이션(rasterization) 방법에 의한 렌더링에서 사용되는 통상의 과정에 의할 수 있으며, 이는 본 기술 분야의 통상의 지식을 가진 자에게는 자명하다.
상기 섀도우 맵은 광원(201)의 시점에서, 일정한 범위 θ1 내의 3D 모델 오브젝트에 대하여 생성한 깊이 영상이다.
상기 섀도우 맵에 대한 내용은 도 3을 참조하여 보다 상세히 후술한다.
그리고, 상기 영상 처리 장치(100)의 제2 계산부는, 상기 카메라 시점(이하에서는, 제1 시점이라고도 한다)에서 렌더링하고자 하는 영상의 제1 픽셀에 대응하는 포인트(221)을 탐색한다.
상기 포인트(221)의 탐색은, 이를테면 통상적인 레이 트래이싱 과정에 의한, 프라이머리 레이(Primary ray)와 오브젝트 사이의 충돌 체크 연산에 의해 수행된다.
그러면, 제3 계산부는, 상기 섀도우 맵을 이용하여, 상기 포인트(221) 및 상기 포인트(221)의 주변의 적어도 하나의 포인트(222 및 223 등)에 대한 섀도우 테스트를 수행한다.
포인트(221)에 대한 섀도우 테스트는, 먼저 포인트(221)에 대해 상기 섀도우 영상과 동일한 좌표계 내에서의 좌표 값을 계산하고, 이 좌표 값을 섀도우 맵 내의 대응하는 픽셀의 깊이 값과 비교함으로써 수행된다.
상기 좌표 값의 깊이 방향 성분의 크기가 상기 깊이 값과 동일하다면, 광원(201)과 포인트(221) 사이를 가리는(occlude) 오브젝트는 존재하지 않으므로, 섀도우가 아닌 것으로 판단된다.
그러나, 도 2에서 도시된 바와 같이, 광원(201)과 포인트(221) 사이를 오브젝트(210)가 가리고 있는 경우에는 상기 좌표 값의 깊이 방향 성분의 크기가 상기 깊이 값과 동일하지 않고, 전자가 큰 값을 가질 것이다.
이러한 과정에 의한 섀도우 테스트를 포인트(222) 및 포인트(223) 등에 대해서도 수행한다.
포인트(221) 및 포인트(221) 주변의 일정 범위 내의 픽셀들에 대한 섀도우 테스트에 관한 결과는 도 5를 참조하여 후술한다.
그러면, 영상 처리 장치(100)의 제4 계산부는, 상기 포인트(221) 및 포인트(221) 주변의 일정 범위 내의 픽셀들에 대한 섀도우 테스트에 관한 결과를 이용하여, 상기 포인트(221)에 대응하는 깊이 값을 계산한다.
이 경우, 포인트(221) 및 포인트(221) 주변의 일정 범위 내의 픽셀들 중, 섀도우 테스트를 수행한 결과 광원(201)에 대한 섀도우 영역이 아닌 것으로 판단되는 픽셀의 비율을 참고하여, 상기 포인트(221)에 대응하는 제1 픽셀의 칼라 값이 결정된다.
통상적으로 레이 트래이싱 방법을 이용한 렌더링에 있어서, 소프트 섀도우를 계산하기 위해서는, 포인트(221)에서 광원(201) 및 광원(201) 주변의 여러 포인트를 향해 세컨더리 레이(secondary ray)의 방향 추적 연산을 수행하여야 하나, 이 러한 방법은 연산량이 지나치게 증가한다.
영상 처리 장치에서 레이 트래이싱 방법을 이용한 렌더링을 수행하는 경우, 레이의 충돌 포인트 탐색이 전체 연산량 중 큰 부분을 차지하기 때문이다.
따라서, 본 발명의 일 실시예에 따르면, 광원(201)에 대한 섀도우 맵을 미리 작성하고, 칼라 값을 계산하고자 하는 제1 픽셀에서 프라이머리 레이 충돌 테스트를 통해 포인트(221)이 탐색되면, 상기 포인트(221) 및 그 주변의 복수 개의 포인트(222 및 223 등)에 대한 섀도우 테스트를 수행한다. 그리고 이 섀도우 테스트의 결과를 참조하여 제1 픽셀의 칼라 값이 계산된다.
물론, 이 경우 포인트(221)에 대해서는 반사(reflection), 투과(transmission) 등의 계수가 계산되고, 계속하여 Secondary ray, Third ray 등에 대한 레이 트래이싱이 수행된다.
이러한 과정을 통해, 종래의 방법에 비해 소프트 섀도우 등의 물리적 현상을 표현하기 위한 레이 트래이싱 연산양이 크게 줄어든다.
도 3은 본 발명의 일 실시예에 따라, 도 2의 광원 시점에서 생성된 섀도우 맵(300)을 도시한다.
상기한 바와 같이, 섀도우 맵(300)은 도 2의 광원(201) 시점에서 상기 3D 모델을 바라보았을 때의 깊이 영상(depth image)이다. 따라서, 섀도우 맵(300)은 3D 오브젝트들 위의 각 포인트들과 광원(201)의 거리 정보가 포함된다. 이러한 섀도우 맵(300)은 영상 처리 장치(100)의 제1 계산부(110)에 의해 생성된다.
이를 테면, 도 2의 포인트(221)에 대응하는 방향의 깊이 값은 섀도우 맵(300) 내의 픽셀(311)의 깊이 값에 대응한다. 이 깊이 값을 포인트(221)의 좌표 값의 깊이 방향 성분과 비교함으로써 포인트(221)가 광원(201)에 대하여 섀도우 영역인지의 여부에 대한 섀도우 테스트가 제3 계산부(130)에 의해 수행된다.
마찬가지로, 도 2의 포인트(222)에 대응하는 방향의 깊이 값은 섀도우 맵(300) 내의 픽셀(321)의 깊이 값에 대응한다. 이 깊이 값을 포인트(222)의 좌표 값의 깊이 방향 성분과 비교함으로써 포인트(222)가 광원(201)에 대하여 섀도우 영역인지의 여부에 대한 섀도우 테스트가 수행된다.
이러한 식으로, 도 2의 포인트(223)의 경우, 섀도우 맵(300) 내의 픽셀(312)의 깊이 값을 참고하여 섀도우 테스트가 수행된다.
도 4는 본 발명의 일 실시예에 따라, 도 2의 카메라 시점(202)에서 바라본 3D 모델의 모습(400)을 도시한다.
이 경우, 영상 처리 장치(100)의 제2 계산부(120)는 레이 트래이싱에 의한 primary ray 충돌 체크를 수행하여 제1 픽셀에 대응하는 3D 오브젝트 위의 제1 포인트(421)을 탐색한다.
그리고, 제3 계산부(130)는 이 제1 포인트(421) 및 그 주변의 포인트들(422 및 423 등)의 각각에 대해, 제1 계산부(110)가 생성한 섀도우 맵(300)을 이용한 섀도우 테스트를 수행한다.
오브젝트(420)와 광원(201) 사이에 오브젝트(410)가 존재하기 때문에, 상기 각 포인트들(421 내지 423)의 섀도우 테스트 결과는 다를 수 있다.
도 5는 본 발명의 일 실시예에 따른 섀도우 테스트 결과(500)를 도시한다.
섀도우 테스트 결과(500)을 참조하면, 상기 제1 픽셀에 대응하는 제1 포인트(421), 및 주변의 포인트들 중 일부(423 등)는 섀도우인 것으로 판단되었고, 주변의 포인트들 중 일부(422 등)는 섀도우가 아닌 것으로 판단되었다.
통상적인 레이 트래이싱 과정에서는, primary ray의 충돌 포인트인 제1 포인트(421)로부터 광원(201) 방향으로 가리움(occlusion)이 발생되는지를 별도로 연산하고, 이러한 과정을 통해 가리움이 발생된다고 판단되면, 즉 섀도우라고 판단되면 제1 포인트의 직접 조명(direct illumination) 계수는 0으로 준다. 따라서, secondary ray, third ray 등의 레이 진행 방향 추적 등을 반영하더라도 상기 제1 픽셀의 칼라 값은 매우 어둡게 계산된다. 따라서 소프트 섀도우 등의 표현이 어렵다.
그러나, 본 발명의 일 실시예에 따르면, 상기 제1 픽셀의 칼라 값 계산을 위한 레이 트래이싱 과정에서, 상기 섀도우 테스트를 제1 포인트(221) 주변의 포인트들에도 수행하고, 이를 제1 포인트이 칼라 값 계산에 반영한다.
도 6은 본 발명의 일 실시예에 따라, 도 5의 섀도우 테스트 결과(500)를 이용하여 픽셀들의 섀도우 값을 수정한 결과(600)를 도시한다.
본 발명의 일 실시예에 따르면, 오브젝트(420) 위의 제1 포인트(421) 및 그 주변의 24개의 포인트의 섀도우 테스트 결과를 평균하여 상기 제1 포인트(421)의 수정된 섀도우 테스트 결과 값(610)을 계산한다.
마찬가지로, 포인트(422)에 대한 섀도우 테스트 결과도 수정되어 결과 값(620)이 계산되었고, 포인트(423)에 대한 섀도우 테스트 결과도 수정되어 결과 값(630)이 계산되었다.
이러한 과정을 통해, 소프트 섀도우의 표현이 가능하다.
도 7은 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.
단계(S710)에서, 렌더링하고자 하는 3D 모델의 광원의 시점에서 섀도우 맵이 작성된다. 도 1을 참조하여 상기한 바와 같이, 상기 3D 모델 내에 광원이 복수 개 존재하는 경우, 모든 광원의 각각에 대한 섀도우 맵이 작성될 수 있다. 섀도우 맵에 대한 내용은 도 3을 참조하여 상술한 바와 같다.
그리고, 단계(S720)에서, 영상을 렌더링하고자 하는 카메라 뷰에서 현재 칼라 값을 계산할 제1 픽셀의 프라이머리 레이(primary ray) 충돌 포인트 탐색 연산이 수행되어, 제1 픽셀에 대응하는 제1 포인트가 탐색된다. 제1 포인트의 탐색은 도 4를 참조하여 상술한 바와 같다.
그러면, 단계(S730)에서, 상기 생성된 섀도우 맵을 이용하여, 상기 제1 포인트 및 그 주변의 복수 개의 포인트들에 대해 섀도우 테스트가 수행된다. 상기 도2 내지 도3의 실시예에서, 제1 포인트 및 그 주변 포인트들에 대해 섀도우 테스트를 수행한 결과는 도 5를 참조하여 설명되었다.
그리고, 단계(S740)에서, 상기 제1 포인트의 칼라 값이 계산된다. 이 경우, 도 6을 참조하여 상술한 내용과 같이 상기 섀도우 테스트 결과가 수정되고, 이를 이용하여 제1 포인트의 직접 조명 계수가 계산된다. 그리고, 이 직접 조명 계수와, secondary ray, third ray 등의 레이 트래이싱 결과에 따른 반사 및 굴절 계수들을 모두 참고하여, 상기 제1 픽셀의 칼라 값의 최종 칼라 값이 계산된다.
이러한 실시예에 따르면, 제1 픽셀에 대응하는 제1 포인트의 직접 조명 계수를 구하는 과정에 있어서, 광원에 대해 미리 계산된 섀도우 맵이 활용되므로, 연산량이 크게 줄어든다.
또한, 상기한 바와 같이, 제1 포인트 주변의 포인트들의 섀도우 테스트 결과를 활용하여, 이를 제1 포인트의 직접 조명 계수를 구하는 과정에 활용하므로, 연산량을 크게 증가시키지 않으면서도 소프트 섀도우 표현이 가능하다.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지 이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치를 도시한다.
도 2는 본 발명의 일 실시예에 따른 영상 처리에 의해 렌더링 되는 3D 모델의 평면도이다.
도 3은 본 발명의 일 실시예에 따라, 도 2의 광원 시점에서 생성된 섀도우 맵을 도시한다.
도 4는 본 발명의 일 실시예에 따라, 도 2의 카메라 시점에서 바라본 3D 모델을 도시한다.
도 5는 본 발명의 일 실시예에 따른 섀도우 테스트 결과를 도시한다.
도 6은 본 발명의 일 실시예에 따라, 도 5의 섀도우 테스트 결과를 이용하여 픽셀들의 섀도우 값을 수정한 결과를 도시한다.
도 7은 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.

Claims (17)

  1. 3D 모델 내의 광원에 대응하는 섀도우 맵을 작성하는 제1 계산부;
    상기 3D 모델을 제1 시점에서 바라본 영상을 레이 트래이싱(ray tracing) 기법에 의해 렌더링하는 경우, 상기 영상의 제1 픽셀에 대응하는 상기 3D 모델 내의 제1 포인트를 탐색하는 제2 계산부; 및
    상기 섀도우 맵을 이용하여, 상기 제1 포인트가 상기 광원에 대한 섀도우 영역인지의 여부를 판단하는 제3 계산부
    를 포함하는, 영상 처리 장치.
  2. 제1항에 있어서,
    상기 제3 계산부는, 상기 섀도우 맵과 동일한 좌표계 내에서의 상기 제1 포인트의 좌표 값을 구하고, 상기 좌표 값과, 상기 섀도우 맵 내의 상기 좌표 값에 대응하는 깊이 값을 비교하여 상기 제1 포인트가 상기 광원에 대한 섀도우 영역인지의 여부를 판단하는, 영상 처리 장치.
  3. 제1항에 있어서,
    상기 제3 계산부는, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대하여, 상기 광원에 대한 섀도우 영역인지의 여부를 판단하는, 영상 처리 장치.
  4. 제3항에 있어서,
    상기 제3 계산부의 판단 결과를 이용하여, 상기 제1 픽셀의 칼라 값을 결정하는 제4 계산부를 더 포함하는, 영상 처리 장치.
  5. 제4항에 있어서,
    상기 제4 계산부는, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트 중, 상기 제3 계산부에 의해 상기 광원에 대한 섀도우 영역으로 판단된 포인트의 비율에 기초하여, 상기 제1 픽셀의 칼라 값을 결정하는, 영상 처리 장치.
  6. 3D 모델 내의 광원에 대응하는 섀도우 맵을 작성하는 제1 계산부;
    상기 3D 모델을 제1 시점에서 바라본 영상을 렌더링하는 경우, 상기 영상의 제1 픽셀에 대응하는 상기 3D 모델 내의 제1 포인트를 탐색하는 제2 계산부;
    상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대해 상기 섀도우 맵을 이용하여 섀도우 테스트를 수행하는 제3 계산부; 및
    상기 섀도우 테스트 결과, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트 중 섀도우로 판단되는 포인트의 비율에 따라 상기 제1 포인트의 칼라 값을 계산하는 제4 계산부
    를 포함하는, 영상 처리 장치.
  7. 제6항에 있어서,
    상기 렌더링은, 레이 트래이싱 기법 및 래스터라이재이션 기법 중 적어도 하나를 이용하는 것인, 영상 처리 장치.
  8. 제6항에 있어서,
    상기 제3 계산부는, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대해, 상기 섀도우 맵과 동일한 좌표계 에서의 좌표 값을 구하고, 구해진 상기 좌표 값과 상기 섀도우 맵 내의 상기 좌표 값에 대응하는 깊이 값을 비교하여 섀도우 테스트를 수행하는, 영상 처리 장치.
  9. 3D 모델 내의 광원에 대응하는 섀도우 맵을 작성하는 단계;
    상기 3D 모델을 제1 시점에서 바라본 영상을 레이 트래이싱 기법에 의해 렌더링하는 경우, 상기 영상의 제1 픽셀에 대응하는 상기 3D 모델 내의 제1 포인트를 탐색하는 단계; 및
    상기 섀도우 맵을 이용하여, 상기 제1 포인트가 상기 광원에 대한 섀도우 영역인지의 여부를 판단하는 단계
    를 포함하는, 영상 처리 방법.
  10. 제9항에 있어서,
    상기 제1 포인트가 상기 광원에 대한 섀도우 영역인지의 여부를 판단하는 단계는,
    상기 섀도우 맵과 동일한 좌표계 내에서의 상기 제1 포인트의 좌표 값을 구하는 단계; 및
    상기 좌표 값과, 상기 섀도우 맵 내의 상기 좌표 값에 대응하는 깊이 값을 비교하여 상기 제1 포인트가 상기 광원에 대한 섀도우 영역인지의 여부를 판단하는 단계
    를 포함하는, 영상 처리 방법.
  11. 제9항에 있어서,
    상기 섀도우 맵을 이용하여 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대하여, 상기 광원에 대한 섀도우 영역인지의 여부를 판단하는 단계
    를 더 포함하는, 영상 처리 방법.
  12. 제11항에 있어서,
    상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대하여, 상기 광원에 대한 섀도우 영역인지의 여부를 판단한 결과를 이용하여, 상기 제1 픽셀의 칼라 값을 결정하는 단계
    를 더 포함하는, 영상 처리 방법.
  13. 제12항에 있어서,
    상기 제1 픽셀의 칼라 값을 결정하는 단계는,
    상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트 중, 상기 광원에 대한 섀도우 영역으로 판단된 포인트의 비율에 기초하여, 상기 제1 픽셀의 칼라 값을 결정하는, 영상 처리 방법.
  14. 3D 모델 내의 광원에 대응하는 섀도우 맵을 작성하는 단계;
    상기 3D 모델을 제1 시점에서 바라본 영상을 렌더링하는 경우, 상기 영상의 제1 픽셀에 대응하는 상기 3D 모델 내의 제1 포인트를 탐색하는 단계;
    상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대해 상기 섀도우 맵을 이용하여 섀도우 테스트를 수행하는 단계; 및
    상기 섀도우 테스트 결과, 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트 중 섀도우로 판단되는 포인트의 비율에 따라 상기 제1 포인트의 칼라 값을 계산하는 단계
    를 포함하는, 영상 처리 방법.
  15. 제14항에 있어서,
    상기 렌더링은, 레이 트래이싱 기법 및 래스터라이제이션 기법 중 적어도 하나를 이용하는 것인, 영상 처리 방법.
  16. 제14항에 있어서,
    상기 섀도우 테스트를 수행하는 단계는,
    상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각에 대해, 상기 섀도우 맵과 동일한 좌표계 에서의 좌표 값을 구하는 단계; 및
    구해진 상기 제1 포인트 및 상기 제1 포인트 주변의 적어도 하나의 포인트의 각각의 좌표 값을 상기 섀도우 맵의 깊이 값들과 비교하여 섀도우 테스트를 수행하는 단계
    를 포함하는, 영상 처리 방법.
  17. 제9항 내지 제16항 중 어느 한 항의 영상 처리 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
KR1020090107818A 2009-11-10 2009-11-10 영상 처리 장치 및 방법 KR101585998B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090107818A KR101585998B1 (ko) 2009-11-10 2009-11-10 영상 처리 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090107818A KR101585998B1 (ko) 2009-11-10 2009-11-10 영상 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20110051315A true KR20110051315A (ko) 2011-05-18
KR101585998B1 KR101585998B1 (ko) 2016-01-15

Family

ID=44361590

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090107818A KR101585998B1 (ko) 2009-11-10 2009-11-10 영상 처리 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101585998B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014157861A1 (ko) * 2013-03-29 2014-10-02 주식회사 실리콘아츠 컴퓨터 실행 가능한 이미지 생성 방법, 이를 수행하는 이미지 생성 장치 및 이를 저장하는 기록매체
KR20150098458A (ko) * 2014-02-20 2015-08-28 삼성전자주식회사 영상 처리 장치 및 방법
KR20160130629A (ko) * 2015-05-04 2016-11-14 삼성전자주식회사 양안 시차 영상에 대한 렌더링 방법 및 장치
US10339703B2 (en) 2014-11-13 2019-07-02 Vidon Patents and Strategy Device and method to compute shadow in a 3D scene

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102351002B1 (ko) * 2021-04-08 2022-01-14 주식회사 평행공간 3d 모델링을 이용한 실내 일조량 정보 제공 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020746A (ja) * 1998-06-29 2000-01-21 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2007257661A (ja) * 1994-12-22 2007-10-04 Apple Inc 三次元グラフィックス・レンダリング・システム
KR20080055581A (ko) * 2006-12-14 2008-06-19 인스티튜트 포 인포메이션 인더스트리 3D 오브젝트의 셀프 셰도우(self-shadow)를만들기 위해 데이터를 미리-저장할 수 있는 장치, 방법,응용프로그램 및 컴퓨터 판독가능한 매체
KR20090040515A (ko) * 2007-10-22 2009-04-27 삼성전자주식회사 적응적 탐색 기법을 이용한 이미지 공간 기반의 음영 처리장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257661A (ja) * 1994-12-22 2007-10-04 Apple Inc 三次元グラフィックス・レンダリング・システム
JP2000020746A (ja) * 1998-06-29 2000-01-21 Sony Corp 画像処理装置および方法、並びに提供媒体
KR20080055581A (ko) * 2006-12-14 2008-06-19 인스티튜트 포 인포메이션 인더스트리 3D 오브젝트의 셀프 셰도우(self-shadow)를만들기 위해 데이터를 미리-저장할 수 있는 장치, 방법,응용프로그램 및 컴퓨터 판독가능한 매체
KR20090040515A (ko) * 2007-10-22 2009-04-27 삼성전자주식회사 적응적 탐색 기법을 이용한 이미지 공간 기반의 음영 처리장치 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014157861A1 (ko) * 2013-03-29 2014-10-02 주식회사 실리콘아츠 컴퓨터 실행 가능한 이미지 생성 방법, 이를 수행하는 이미지 생성 장치 및 이를 저장하는 기록매체
KR20150098458A (ko) * 2014-02-20 2015-08-28 삼성전자주식회사 영상 처리 장치 및 방법
US10339703B2 (en) 2014-11-13 2019-07-02 Vidon Patents and Strategy Device and method to compute shadow in a 3D scene
KR20160130629A (ko) * 2015-05-04 2016-11-14 삼성전자주식회사 양안 시차 영상에 대한 렌더링 방법 및 장치

Also Published As

Publication number Publication date
KR101585998B1 (ko) 2016-01-15

Similar Documents

Publication Publication Date Title
CN112513712B (zh) 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
KR102223064B1 (ko) 영상 처리 장치 및 방법
US9053571B2 (en) Generating computer models of 3D objects
KR101082215B1 (ko) 하이브리드 광선 추적 시스템을 위한 프래그먼트 쉐이더 및 동작 방법
KR101845231B1 (ko) 영상 처리 장치 및 방법
JP6474585B2 (ja) レイトレーシング処理装置及びその方法
KR102164541B1 (ko) 레이 트레이싱 시스템에서의 가속 구조 생성 장치 및 그 생성 방법
US8441477B2 (en) Apparatus and method of enhancing ray tracing speed
KR102161749B1 (ko) 화상의 렌더링을 위하여 광선 추적을 수행하는 방법 및 장치.
JP2022091849A (ja) 光線バンドルの光線に対する差分データを決定する方法及びグラフィックス処理ユニット
KR102493461B1 (ko) 렌더링 시스템 및 방법
JP4616330B2 (ja) 静的影生成方法及び静的影生成システム
US20090219285A1 (en) Technique for improving ray tracing performance
US8896599B2 (en) Image processing apparatus and method
KR102224845B1 (ko) 하이브리드 렌더링 방법 및 장치
KR101705072B1 (ko) 영상 처리 장치 및 방법
US10157494B2 (en) Apparatus and method for processing virtual point lights in an image
KR20160002204A (ko) 레이 트레이싱 처리 장치 및 방법
KR20120007398A (ko) 영상 처리 장치 및 방법
KR20170034727A (ko) 그림자 정보 저장 방법 및 장치, 3d 렌더링 방법 및 장치
KR20150039496A (ko) 이전 렌더링의 결과를 이용하여 광선을 추적하는 방법 및 장치
KR20110051315A (ko) 영상 처리 장치 및 방법
KR101601687B1 (ko) 영상 처리 장치 및 방법
TW201417040A (zh) 圖形顯示系統中光傳輸一致性場景之簡化
JP6482193B2 (ja) 映像処理装置及び方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181218

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191216

Year of fee payment: 5