KR20110014795A - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR20110014795A
KR20110014795A KR1020090072327A KR20090072327A KR20110014795A KR 20110014795 A KR20110014795 A KR 20110014795A KR 1020090072327 A KR1020090072327 A KR 1020090072327A KR 20090072327 A KR20090072327 A KR 20090072327A KR 20110014795 A KR20110014795 A KR 20110014795A
Authority
KR
South Korea
Prior art keywords
image
pixel
point
viewpoint
pixel value
Prior art date
Application number
KR1020090072327A
Other languages
English (en)
Inventor
하인우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090072327A priority Critical patent/KR20110014795A/ko
Priority to US12/662,288 priority patent/US8896599B2/en
Publication of KR20110014795A publication Critical patent/KR20110014795A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

영상 처리 장치가 제공된다. 상기 영상 처리 장치는 적어도 하나의 오브젝트를 포함하는 3D 모델에 대하여 제1 시점으로부터의 제1 영상을 렌더링 하는 제1 계산부, 및 상기 적어도 하나의 오브젝트 중의 제1 오브젝트와 제1 지점 사이의 거리가 제1 임계치 이상인 경우, 상기 제1 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 재사용하여, 상기 3D 모델에 대하여 제2 시점으로부터의 상기 제2 영상을 렌더링 하는 제2 계산부를 포함할 수 있다.
스테레오스코픽, 렌더링, 레이 트레이싱, stereoscopic, ray tracing

Description

영상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND METHOD}
본 발명의 일부 실시예들은 3D 모델로 구성된 오브젝트에 대하여, 복수의 시점으로부터 렌더링을 수행하여, 스테레오스코픽(stereoscopic) 영상을 생성하는 영상 처리 장치 및 방법에 관한 것이다.
최근 3-Dimension(3D) 디스플레이 기기 및 3D 입체 영상에 대한 관심이 높아지고 있다. 3D 입체 영상을 구현하는 방법 중 주목을 받고 있는 한 가지의 예는 스테레오스코픽(stereoscopic) 영상이다.
인간이 대상(object)을 눈으로 보아서 입체감을 느끼는 것은, 양쪽 눈(left eye and right eye)의 위치가 서로 다르기 때문에 디스패러티(disparity)를 인지함으로써 대상의 원근감을 느끼기 때문이다.
스테레오스코픽은, 이를 이용하여, 동일한 3D 모델에 대해 서로 다른 두 개의 시점에서 렌더링(rendering) 된 두 개의 서로 다른 이미지(하나는 왼쪽 눈에 제공되기 위한 것, 하나는 오른쪽 눈에 제공되기 위한 것)를 제공함으로써, 3D 디스플레이를 구현하는 방식이다.
한편, 3D 렌더링은 모델링 된 가상의 입체 오브젝트 정보에 기초하여, 특 정 시점에서의 영상을 생성하여 제공하는 영상 처리이다. 3D 렌더링 방법에는 폴리곤 기반의 래스터라이재이션(Rasterization)과, 렌더링하고자 하는 시점으로부터의 광선(Ray) 진행 경로를 역추적(Tracing)하는 레이 트레이싱(Ray Tracing) 등이 있다.
이 중 레이 트레이싱은 빛의 물리적 성질(반사, 굴절, 투과)을 이용하므로 실사에 가까운 고품질 영상을 생성할 수 있으나, 연산 양이 방대하여 실시간 렌더링이 어렵고, 높은 하드웨어 성능을 요구하기도 한다.
따라서, 3D 렌더링 방법 중 레이 트레이싱을 이용하여, 고품질 스테레오스코픽 영상을 생성할 수 있으나, 두 개의 시점에서 렌더링을 수행하는 것은 단일 시점에서 렌더링을 수행하는 것에 비해 연산 양이 약 두 배가 될 것이므로, 연산 양을 줄이는 방법의 제공이 요구된다.
본 발명의 일부 실시예는, 스테레오스코픽 영상의 품질은 유지하면서도, 렌더링 연산의 연산 양을 줄인 영상 처리 장치 및 방법을 제공하기 위한 것이다.
본 발명의 일부 실시예는, 레이 트레이싱을 두 개 이상의 시점에서 수행하는 데에 있어서, 연산 양을 줄여 실시간 렌더링의 가능성을 높인 영상 처리 장치 및 방법을 제공하기 위한 것이다.
본 발명의 일 실시예에 따르면, 적어도 하나의 오브젝트를 포함하는 3D 모 델에 대하여 제1 시점으로부터의 제1 영상을 렌더링 하는 제1 계산부, 및 상기 적어도 하나의 오브젝트 중의 제1 오브젝트와 제1 지점 사이의 거리가 제1 임계치 이상인 경우, 상기 제1 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 재사용하여, 상기 3D 모델에 대하여 제2 시점으로부터의 상기 제2 영상을 렌더링 하는 제2 계산부를 포함하는 영상 처리 장치가 제공된다.
상기 제1 지점은, 상기 제1 시점일 수 있다.
여기서, 상기 제2 계산부는, 상기 제1 지점과의 거리가 제1 임계치 이상인 제1 오브젝트와 연관된 상기 제1 영상의 픽셀 값을, 상기 제2 영상의 픽셀 값으로 그대로 사용할 수 있다.
본 발명의 일 실시예에 따르면, 상기 제2 계산부는, 상기 적어도 하나의 오브젝트 중의 제2 오브젝트와 상기 제1 지점 사이의 거리가 제2 임계치 이상이고 상기 제1 임계치 미만인 경우, 상기 제2 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 시프트하여, 상기 제2 영상의 렌더링에 재사용 할 수 있다.
이 경우, 상기 시프트 정도는 상기 제2 오브젝트와 상기 제1 지점 사이의 거리에 반비례한다.
본 발명의 일 실시예에 따르면, 상기 영상 처리 장치는 상기 제1 영상 및 상기 제2 영상을 합성하여, 스테레오스코픽 영상을 생성하는 영상 합성부를 더 포함한다.
한편, 상기 실시예들에서, 상기 렌더링은 레이 트레이싱 방법에 의하여 수행될 수 있다.
그리고, 상기 제1 오브젝트와 상기 제1 시점 사이의 거리는, 상기 제1 오브젝트에 포함되는 메쉬 중 적어도 하나의 메쉬의 좌표 값과 상기 제1 시점의 좌표 값에 기초하여 결정될 수 있다.
본 발명의 다른 일 실시예에 따르면, 적어도 하나의 오브젝트를 포함하는 3D 모델을 제1 시점에서 렌더링 하는 제1 영상의 제1 픽셀의 픽셀 값을 계산하는 제1 계산부, 및 상기 제1 픽셀에 대응하는 제1 오브젝트와 제1 지점 사이의 거리가 제1 임계치 이상인 경우, 상기 3D 모델을 제2 시점에서 렌더링 하는 제2 영상에서 상기 제1 픽셀과 동일한 인덱스를 갖는 제2 픽셀의 픽셀 값을 계산하는 데에 있어서 상기 제1 픽셀의 픽셀 값을 이용하는 제2 계산부를 포함하는 영상 처리 장치가 제공된다.
이 경우, 상기 제1 지점은 상기 제1 시점일 수 있다.
본 발명의 일 실시예에 따르면, 상기 제2 계산부는, 상기 제2 픽셀의 픽셀 값을 상기 제1 픽셀의 픽셀 값과 동일한 값으로 계산한다.
한편, 상기 제2 계산부는, 상기 제1 픽셀에 대응하는 상기 제1 오브젝트와 상기 제1 지점 사이의 거리가 제2 임계치 이상이고 제1 임계치 미만인 경우, 상기 제2 영상에서 상기 제1 픽셀을 쉬프트 한 위치의 제3 픽셀의 픽셀 값을 계산하는 데에 있어서 상기 제1 픽셀의 픽셀 값을 이용할 수 있다.
여기서 상기 쉬프트의 정도는, 상기 제1 오브젝트와 상기 제1 지점 사이의 거리에 반비례한다.
본 발명의 또 다른 일 실시예에 따르면, 적어도 하나의 오브젝트를 포함하 는 3D 모델에 대하여 제1 시점으로부터의 제1 영상을 렌더링 하는 단계, 및 상기 적어도 하나의 오브젝트 중의 제1 오브젝트와 제1 지점 사이의 거리가 제1 임계치 이상인 경우, 상기 제1 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 재사용하여, 상기 3D 모델에 대하여 제2 시점으로부터의 상기 제2 영상을 렌더링 하는 단계를 포함하는 영상 처리 방법이 제공된다.
이 경우, 상기 제1 지점과의 거리가 제1 임계치 이상인 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 재사용하는 단계는, 상기 제1 지점과의 거리가 제1 임계치 이상인 오브젝트와 연관된 상기 제1 영상의 픽셀 값을, 상기 제2 영상의 픽셀 값으로 그대로 사용할 수 있다.
한편, 상기 영상 처리 방법은, 상기 적어도 하나의 오브젝트 중의 제2 오브젝트와 상기 제1 지점과의 거리가 제2 임계치 이상이고 상기 제1 임계치 미만인 경우, 상기 제2 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 시프트하여, 상기 3D 모델에 대하여 제2 시점으로부터의 상기 제2 영상을 렌더링 하는 단계를 더 포함할 수 있다.
또한, 본 발명의 일부 실시예에 따르면, 상기 영상 처리 방법은 상기 제1 영상 및 상기 제2 영상을 합성하여, 스테레오스코픽 영상을 생성하는 단계를 더 포함한다.
본 발명의 일부 실시예에 따르면, 스테레오스코픽 영상의 품질은 크게 저하시키지 않으면서, 렌더링 연산의 연산 양을 획기적으로 줄임으로써 렌더링 시간 을 단축할 수 있다.
또한 본 발명의 일부 실시예에 따르면, 레이 트레이싱을 두 개 이상의 시점에서 수행하는 데에 있어서, 연산 양이 크게 줄어들 수 있으므로, 실시간 렌더링의 가능성이 높아진다.
이하에서, 본 발명의 일부 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치(100)를 도시한다.
본 발명의 일 실시예에 따른 영상 처리 장치(100)는, 3D 모델을 제1 시점에서 바라본 제1 영상을 렌더링 하는 제1 계산부(110) 및 상기 3D 모델을 제2 시점에서 바라본 제2 영상을 렌더링 하는 제2 계산부(120)를 포함한다.
본 발명의 일부 실시예에 따르면, 상기 렌더링 방식은 레이 트레이싱(ray tracing)에 의한 연산이다. 그러나, 본 발명은 이에 한정되지 않으며, 상기 렌더링은 3D 영상 렌더링의 방법이라면, 레이 트레이싱 이외의 다른 어떤 방법에 의한 것일 수도 있다.
3D 모델을 특정 시점에서 바라본 2D 영상을 생성하는 것(즉, 2D 영상을 구성하는 각 픽셀의 픽셀 값을 계산하는 것)을 렌더링이라고 한다. 그러나, 이러한 2D 영상은 렌더링 되는 오브젝트를 평면적으로 표현한 것일 뿐이므로, 1 장의 2D 영상을 통해서는 오브젝트가 화면(screen)으로부터 돌출되어 보이는 등의 입체감을 느낄 수 없다.
따라서, 3D 모델을 제1 시점으로부터 렌더링 한 2D 영상(이하에서는 "제1 영상"이라고도 함)을 인간의 좌안(left eye)에 제공하고, 그와는 다른 제2 시점으로부터 렌더링 한 또 다른 2D 영상(이하에서는 "제2 영상"이라고도 함)을 우안(right eye)에 제공하는 방식이 스테레오스코픽(stereoscopic)이다.
기존의 상업화 된 방법에 의하면, 상기 두 2D 영상을 각각 다른 색상 계열로 만든 다음 하나의 영상으로 합성하여 제공하게 되고, 이 경우 상기 두 개의 2D 영상 중 제1 영상은 녹색 렌즈를 통해 바라보면 식별되고, 제2 영상은 붉은색 렌즈를 통해 바라보면 식별되도록 할 수 있다.
종래의 기술에 따르면, 상기 3D 모델을 상기 제1 시점으로부터 바라본 제1 영상의 렌더링과, 상기 3D 모델을 제2 시점으로부터 바라본 제2 영상의 렌더링은 별도로 수행되며, 따라서 한 쪽의 렌더링 과정의 계산 값들이 다른 한 쪽의 렌더링 과정에 활용되지 않는다.
이러한 종래의 방법에 따르면, 상기 제1 영상의 렌더링 연산 양과 상기 제 2 영상의 렌더링 연산 양은 줄어들지 않는다. 따라서, 상기 2 개의 영상의 렌더링이 직렬적으로 수행되는 경우의 연산 양은, 1 개의 영상의 렌더링 연산 양의 (최대) 약 두 배에 이른다.
특히, 레이 트레이싱 처럼 렌더링 연산 양이 큰 방식에 있어서는, 이러한 종래의 방법에 의해서는 연산 시간이 상대적으로 크므로, 실시간 렌더링(real time rendering) 등에 어려움이 있었다.
그러나, 본 발명의 일 실시예에 따르면, 제1 시점으로부터의 제1 영상 렌더링 결과 값이 적어도 일부는 제2 시점으로부터의 제2 영상 렌더링에 재활용된다.
즉, 제2 영상을 렌더링 하는 상기 제2 계산부(120)은, 제1 영상을 렌더링 하는 상기 제1 계산부(110)의 계산 결과를 재활용 할 수 있기 때문에, 연산 시간이 줄어들 수 있다.
이 경우, 제1 계산부(110)의 계산 값들(상기 제1 영상의 적어도 일부의 픽셀 값) 및/또는 제2 계산부(120)의 계산 값들(상기 제2 영상의 적어도 일부의 픽셀 값)은 저장부(130)에 저장되고, 영상합성부(140)는 이를 이용하여, 스테레오스코픽 영상을 생성한다.
상기 제1 계산부(110)의 렌더링 계산 값 중 적어도 일부가 어떻게 제2 계산부(120)의 렌더링 계산에 활용되는 지에 관한 보다 구체적인 내용은, 도2 이하를 참조하여 보다 상세히 후술한다.
도 2는 시점 차이에 의해 발생하는 디스패러티를 설명하기 위한 개념도이다.
인간의 눈이 3D 공간 상의 특정 포인트(210)를 응시하는 경우, 좌안(201)은 상기 포인트(210)가 스크린(220) 상의 위치(221)에 있는 것으로 인식하고, 우안(202)은 상기 포인트(210)가 상기 스크린(220) 상의 다른 위치(222)에 있는 것으로 인식한다.
이 경우, 상기 두 위치(221 및 222)의 거리 d가 디스패러티(disparity)이다.
상기 디스패러티 d는 다음 수학식에 의해 계산될 수 있다.
[수학식 1]
Figure 112009048083882-PAT00001
상기 수학식 1에서 E는 인간의 좌안(201)과 우안(202) 사이의 거리인 상수이고, D는 인간의 양안과 포인트(210)의 거리, V는 포인트(210)와 가상의 스크린(220)의 거리이다.
여기서, V에 비해 D가 커질수록(즉, 눈으로부터 먼 곳의 포인트일수록) 디스패러티 d는 작은 값이 되고, 반대로 V에 비해 D가 작아질수록(즉, 눈으로부터 가까운 곳의 포인트일수록) 디스패터티 d는 큰 값이 된다.
따라서, 동일한 포인트(210)가 가상의 스크린(220) 위에서 표현되는 두 개의 포인트(221 및 222)의 픽셀 값은 거의 동일하다고 간주될 수 있다.
또한, 이론상으로는 V/D의 값이 일정 임계치 이하이면(즉, D가 일정 임계치 이상이면), 디스패러티 d는 무시할 만한 값이 된다.
본 발명의 일부 실시예들은, 이러한 원리를 이용하여, 좌안(201) 및 우안(202) 중 어느 한 시점(이를 테면 좌안(201))으로부터 바라본 포인트(221)의 픽셀 값을 다른 한 시점(이를 테면 우안(202))으로부터 바라본 포인트(222)의 픽셀 값으로 활용한다.
따라서, 상기 제1 시점에서 포인트(210)를 렌더링 한 제1 영상에서의 포인 트(221)에 해당하는 픽셀 값이 계산되는 경우, 이를 d만큼 시프트(shift) 해서, 상기 제2 시점에서 포인트(210)를 렌더링 한 제2 영상에서의 포인트(222)에 해당하는 픽셀 값으로 재활용 한다.
또한, 본 발명의 일부 실시예에서는, D가 일정 임계치 이상이어서 d가 무시할 만한 값이 되는 경우에는, 상기 시프팅 과정이 생략될 수 있다.
보다 상세한 내용은 도 3 이하를 참조하여 후술한다.
도 3은 본 발명의 일 실시예에 따라 렌더링하고자 하는 3D 오브젝트를 도시한다.
3D 모델링 된 공간(300) 내에는, 렌더링 하고자 하는 두 시점(301 및 302)로부터, 비교적 근거리에 있는 오브젝트(310), 그보다 더 먼 거리에 있는(중거리) 오브젝트(320), 및 매우 먼 거리에 있는 오브젝트(330)이 존재한다.
직관적으로 알 수 있듯이, 제1 시점(301)에서 오브젝트(310)를 바라본 모습과 제2 시점(302)에서 오브젝트(320)를 바라본 모습은 상당히 상이할 수 있다.
그러나, 그보다 먼 오브젝트(320)의 경우, 제1 시점(301)에서 바라본 모습과 제2 시점(302)에서 바라본 모습에 있어서, 오브젝트(320)의 위치가 조금 다르게 보일 뿐, 상기 오브젝트(310)의 경우만큼 차이가 크지는 않다.
한편, 매우 먼 오브젝트(330)의 경우, 제1 시점(301)에서 바라본 모습과 제2 시점(302)에서 바라본 모습은 거의 차이가 나지 않으며, 경우에 따라 동일한 것으로 간주하여도 큰 에러가 나지 않을 것이다.
본 발명의 일 실시예는 이를 활용하여, 제1 시점(301)에서 상기 3D 모델을 렌더링 한 제1 영상의 픽셀 값 중, 원거리(long-distance) 오브젝트(330)에 대응하는 픽셀 값은, 제2 시점(302)에서 상기 3D 모델을 렌더링 한 제2 영상의 동일 위치 픽셀 값으로 그대로 활용한다. 따라서, 그만큼 연산 양을 줄일 수 있다.
그리고, 제1 영상의 픽셀 값 중, 중거리(middle-distance) 오브젝트(320)에 대응하는 픽셀 값은, 그 거리에 반비례하는 소정의 길이만큼 어느 한 방향으로(이를 테면, 왼쪽으로) 시프팅 하여, 제2 영상의 픽셀 값 계산에 활용한다. 따라서, 또 그만큼 연산 양을 줄일 수 있다.
그리고, 상기 방식에 의해 연산 양을 줄이지 못하는 부분(제1 영상의 픽셀 값을 가져와서 채워 넣지 못하는 부분)의 픽셀 값은, 다시 계산한다.
도 4는 본 발명의 일 실시예에 따라, 근거리 오브젝트(310)를 제1 시점(301)에서 렌더링 한 영상(400)을 도시한다.
영역(410)은 상기 도 3의 근거리(short-distance) 오브젝트(310)을 렌더링 한 부분이다. 이 경우, 상기 오브젝트(310)의 왼쪽 측면이 빗금 친 영역(411)으로 렌더링 된 것을 볼 수 있다.
도 5는 본 발명의 일 실시예에 따라, 도 4에서 렌더링 된 오브젝트(310)를 제2 시점(302)에서 렌더링 한 영상(500)을 도시한다.
도 3에서 확인할 수 있듯이, 상기 제2 시점(302)에서는 상기 오브젝트(310)의 왼쪽 측면이 보이지 않는다. 따라서, 상기 오브젝트(310)을 렌더링 한 부분인 영역(510)에서는, 상기 도 4의 빗금 친 영역(411)에 해당하는 부분이 나타나지 않는다.
이렇게 도 4와 도 5를 통해 알 수 있듯이, 가까운 오브젝트에 대해서는, 제1 시점(301)과 제2 시점(302)에서 렌더링 한 영상의 차이가 크므로, 본 발명의 일부 실시예들에서는, 어느 한 쪽의 렌더링 연산 결과를 재활용하지 않는다.
도 6은 본 발명의 일 실시예에 따라, 중거리 오브젝트(320)를 제1 시점(310)에서 렌더링 한 영상(600)을 도시한다.
본 영상(600)에서, 오브젝트(320)는 영역(610)에서 렌더링 되고 있다.
그런데, 오브젝트(320)는, 오브젝트(310)와 달리, 시점에 따라 보이는 면이 달라지는 정도의 차이는 없다. 즉, 제1 시점(301)과 제2 시점(302)에서 바라볼 때 위치의 차이는 있지만, 모양의 차이는 없이 보인다.
따라서 본 발명의 일 실시예에서는 상기 오브젝트(320)를 제1 시점(301)에서 렌더링 한 영역(610)의 픽셀 값을 왼쪽으로 일정 정도 시프팅 하여, 제2 시점(302)에서의 렌더링 영상에 활용한다.
도 7은 본 발명의 일 실시예에 따라, 상기 도 6에서 렌더링 된 영상의 일부분(610)을 시프트 함으로써 생성되는 제2 시점(302)에서의 영상(700)을 도시한다.
본 발명의 일 실시예에 따르면, 제1 시점(301)에서 렌더링 한 영역(610)을 왼쪽으로 일정 정도 시프트 하여, 제2 시점(302)에서 렌더링 한 제2 영상의 일부 영역(710)의 픽셀 값으로 사용한다.
따라서, 상기 일부 영역(710) 부분의 픽셀들의 픽셀 값을 렌더링 하는 만큼의 자원이 절약될 수 있다.
도 8은 본 발명의 일 실시예에 따라, 원거리 오브젝트(330)를 제1 시 점(301)에서 렌더링 한 영상(800)을 도시한다.
상기 오브젝트(330)가 영상(800)의 영역(810)으로 렌더링 되었다.
그런데, 상기 오브젝트(330)는 제1 시점(301)로부터 매우 멀리 떨어져 있기 때문에, 제2 시점(302)에서 렌더링 하더라도, 상기 영역(810)과 위치나 모양이 거의 동일하다. 따라서, 한 번 계산한 값을 그대로 활용할 수 있다.
도 9는 본 발명의 일 실시예에 따라, 도 8에서 렌더링 된 영상의 일부분(810)을 그대로 활용한 제2 시점에서의 영상(900)을 도시한다.
본 발명의 일 실시예에 따르면, 제1 시점(301)에서 렌더링 한 제1 영상의 일부 영역(810)을, 제2 시점(302)에서 렌더링 한 제2 영상의 동일한 위치에 복사함으로써, 영역(910)의 픽셀 값이 결정된다.
따라서, 영역(910)을 계산하는 자원은 절약될 수 있다.
한편, 이상에서, 원거리 오브젝트(330)는 특정 지점(이를 테면 제1 시점(301))로부터 제1 임계치 이상의 거리에 있는 오브젝트로 결정될 수 있고, 중거리 오브젝트(320)는 상기 특정 지점으로부터 제2 임계치 이상 제1 임계치 미만의 거리에 있는 오브젝트로 결정될 수 있다.
또한, 상기 거리의 판단은, 상기 특정 지점의 3차원 좌표 값과 오브젝트를 구성하는 복수 개의 메쉬(mesh) 중 적어도 일부의 3차원 좌표 값을 고려하여 결정될 수 있다.
이 경우, 상기 렌더링 과정이 레이 트레이싱인 실시예에서는, 프라이머리 레이(primary ray)의 충돌 점과 시점의 거리가 활용될 수도 있다.
도 10은 본 발명의 일 실시예에 따라 제1 시점(301)에서 렌더링 된 영상(1000)을 도시한다.
영역(1030)은 상기 도 4의 영역(410)에 대응하고, 영역(1020)은 도 6의 영역(610)에 대응하며, 그리고 영역(1010)은 도 8의 영역(810)에 대응한다.
도 11은 본 발명의 일 실시예에 따라, 상기 도 10에서 렌더링 된 영상의 일부분(이를 테면 영역(1010), 영역(1020))을 이용하여 획득한 제2 시점에서의 렌더링 영상(1100)을 도시한다.
상기 도 7을 참조하여 상술한 바와 같이, 중거리 오브젝트에 대응하는 영역(1120)은 상기 제1 시점 영상(1000)의 일부 영역(1020)의 픽셀 값을 시프트 하여 가져옴으로써, 계산 없이 얻어질 수 있다.
그리고, 도 9를 참조하여 상술한 바와 같이, 원거리 오브젝트에 대응하는 영역(1130)은 상기 제1 시점 영상(1000)의 일부 영역(1030)의 픽셀 값을 그대로 가져옴으로써, 계산 없이 얻어질 수 있다.
근거리 오브젝트에 대응하는 영역(1130)과 같이, 상기 제1 시점 영상(1000)으로부터 값을 가져올 수 없었던 제2 시점 영상(1100)의 나머지 부분은, 실제로 렌더링 과정을 거쳐서 픽셀 값이 계산된다.
따라서, 본 발명의 실시예들에 의하면, 스테레오스코픽 영상을 합성하기 위한 두 개의 2D 영상 렌더링 과정에서의 연산 양이 크게 줄어들 수 있다.
도 12는 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.
단계(S1210)에서 제1 시점으로부터 렌더링이 수행되어, 제1 시점 영상이 생 성된다.
상기 렌더링 과정은 통상의 렌더링 과정(이를 테면 레이 트레이싱)에 의해 수행된다.
그리고, 단계(S1220)에서 제2 시점 영상이 생성된다.
이 경우, 단계(S1221)에서 상기 제1 시점 영상의 픽셀 중 원거리 오브젝트에 대응하는 픽셀 값은, 제2 시점 영상 내의 동일 위치의 픽셀 값으로 결정된다.
그리고, 단계(S1222)에서 상기 제1 시점 영상의 픽셀 중 중거리 오브젝트에 대응하는 픽셀 값은, 상기 제2 시점 영상 내에서 일정 정도 시프트 된 위치의 픽셀 값으로 결정된다.
이 경우, 상기 시프트 정도는, 상기 오브젝트가 얼마나 멀리 있는 가에 따라 달라지며, 본 발명의 일부 실시예에서는, 제1 시점과 오브젝트 사이의 거리에 반비례한다.
한편, 이러한 과정에서, 상기 중거리 픽셀 값이 제1 영상으로부터 제2 영상에 위치가 시프트 되어 옮겨지는 경우에, 이미 단계(1221)에서 (원거리 오브젝트 픽셀 값 복사에 의해) 픽셀 값이 계산된 픽셀을 덮어쓰는 경우도 있을 수 있다.
이 경우, 보다 가까운 오브젝트의 렌더링 결과가 우선한다. 왜냐하면, 시점에서 가까운 오브젝트가 시점에서 먼 오브젝트를 가리고, 눈에 보이는 것이 자연스럽기 때문이다.
그리고, 단계(S1223)에서 상기 과정에 의해 픽셀 값이 계산되지 않는 제2 시점의 나머지 픽셀들에 대한 값이 계산된다.
이 경우에도, 통상의 렌더링 과정에 의할 수 있음은 상술한 바와 같다.
도 13은 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.
이하의 플로우 차트는, 상기 영상 처리 방법을 수행하는 하나의 실시예를 도시하는데, 정수 k의 초기 값은 0으로 주어진다.
플로우가, 루프(loop)에 진입하면, 단계(S1310)에서 k 값에 1이 더해진다.
그리고, 단계(S1320)에서 제1 시점 영상의 k 번째 픽셀 값인 V1k가 계산된다.
이 계산 방법은 통상의 렌더링 방법에 의할 수 있으며, 일부 실시예에서는 레이 트레이싱 방법에 의한다.
그리고, 이와 동시에 또는 순차적으로, 단계(1330)에서, 상기 k 번째 픽셀이 원거리 오브젝트(이를테면 상기 제1 시점과의 거리가 제1 임계치 이상인 오브젝트)인지의 여부가 판단된다.
만약 원거리 오브젝트로 판단되는 경우라면, 단계(1340)에서 상기 제1 시점 영상의 픽셀 값 V1k는, 제2 시점 영상 내의 동일한 위치의 픽셀 값 V2k로 저장된다.
그러나, 원거리 오브젝트가 아니라고 판단되는 경우에는, 단계(S1350)에서, 상기 k 번째 픽셀이 중거리 오브젝트(이를테면 상기 제1 시점과의 거리가 제2 임계치 이상이고 제1 임계치 미만인 오브젝트)인지의 여부가 판단된다.
만약 중거리 오브젝트로 판단되는 경우, 단계(S1360)에서, 상기 제2 시점 영상 내에서 상기 제1 픽셀의 위치를 인덱스 l 만큼 시프트 한 위치의 (k+ l) 번째 픽셀 값으로 저장한다.
상기 시프트 되는 정도인 " l "은 정수로서, 상기 오브젝트가 멀리 있을수록 작은 값이 되며, 제1 시점과 제2 시점의 위치에 따라 양의 정수 또는 음의 정수일 수 있다.
그러나, 상기 판단의 결과, 상기 오브젝트가 원거리 오브젝트도 아니고 중거리 오브젝트도 아니라고 판단되는 경우에는, 단계(S1370)에서, k가 n인지(즉, 마지막 픽셀인지)의 여부가 판단된다. 여기서 n은 렌더링 되어야 할 제1 시점 영상의 총 픽셀 개수다.
마지막 픽셀이 아니라면, 다시 단계(S1310) 이하가 반복되어 루프 순환을 한다.
상기 루프의 탈출 조건(k=n)을 만족하는 경우, 단계(S1380)에서, 제2 시점 영상 중 상기 과정에 의해 픽셀 값이 계산되지 않은 나머지 픽셀에 대해서만 렌더링이 수행된다. 이 과정은 도 14를 참조하여 보다 상세히 후술한다.
이 과정에서, 제2 시점 영상의 렌더링을 위한 연산의 상당 부분이 생략되므로, 연산을 위한 자원이 절약될 수 있다.
그리고, 상기 제1 시점 영상과 제2 시점 영상이 완성되면, 스테레오스코픽 영상이 합성된다(S1390).
도 14는 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.
단계(S1370)에서 상기 루프의 탈출 조건을 만족하는 경우(즉, 제1 시점 영상의 픽셀 값이 모두 계산된 경우), 단계(S1410)에서 제2 루프의 초기 값이 k=0으 로 주어진다.
그리고, 단계(S1420)에서 k 값에 1이 더해지고, 단계(S1430)에서 제2 시점 영상의 k 번째 픽셀 값 V2k가, 상기 단계(S1370)까지의 과정에서 이미 결정되어서 저장되어 있는지의 여부가 판단된다.
만약 저장되지 않은 경우라면, 단계(S1440)에서 통상의 렌더링 과정을 수행하여, 상기 V2k의 값을 계산한다.
그러나, 저장되어 있는 경우라면, 단계(S1450)에서 상기 V2k의 값이 두 개 이상 존재하는 지의 여부가 판단된다. 다만, 본 단계는, 앞선 과정에서 동일한 픽셀에 대한 값이 중복되는 경우에 보다 가까운 오브젝트에 대응하는 픽셀 값을 우선하여 하나만 저장하는 정책을 사용하는 실시예에서는 생략된다.
상기 판단 결과 V2k의 값이 두 개 이상이라면, 그 중 보다 가까운 오브젝트에 대응하는 픽셀 값이 최종 V2k 값으로 결정된다(S1460).
그리고, 단계(S1470)에서 V2k 값이 저장되며, 단계(S1480)에서 제2 루프의 탈출 조건(k=n)이 만족할 때까지, 단계(S1420)이하의 과정이 반복된다.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하 드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치를 도시한다.
도 2는 시점 차이에 의해 발생하는 디스패러티를 설명하기 위한 개념도이다.
도 3은 본 발명의 일 실시예에 따라 렌더링하고자 하는 3D 오브젝트를 도시한다.
도 4는 본 발명의 일 실시예에 따라, 근거리 오브젝트를 제1 시점에서 렌더링 한 영상을 도시한다.
도 5는 본 발명의 일 실시예에 따라, 도 4에서 렌더링 된 오브젝트를 제2 시점에서 렌더링 한 영상을 도시한다.
도 6은 본 발명의 일 실시예에 따라, 중거리 오브젝트를 제1 시점에서 렌더링 한 영상을 도시한다.
도 7은 본 발명의 일 실시예에 따라, 상기 도 6에서 렌더링 된 영상을 쉬프트 함으로써 생성되는 제2 시점에서의 영상을 도시한다.
도 8은 본 발명의 일 실시예에 따라, 원거리 오브젝트를 제1 시점에서 렌더링 한 영상을 도시한다.
도 9는 본 발명의 일 실시예에 따라, 도 8에서 렌더링 된 영상을 카피함으로써 생성되는 제2 시점에서의 영상을 도시한다.
도 10은 본 발명의 일 실시예에 따라 제1 시점에서 렌더링 된 영상을 도시한다.
도 11은 본 발명의 일 실시예에 따라, 상기 도 10에서 렌더링 된 영상을 이용하여 획득한 제2 시점에서의 렌더링 영상을 도시한다.
도 12는 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.
도 13은 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.
도 14는 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.

Claims (20)

  1. 적어도 하나의 오브젝트를 포함하는 3D 모델에 대하여 제1 시점으로부터의 제1 영상을 렌더링 하는 제1 계산부; 및
    상기 적어도 하나의 오브젝트 중의 제1 오브젝트와 제1 지점 사이의 거리가 제1 임계치 이상인 경우, 상기 제1 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 재사용하여, 상기 3D 모델에 대하여 제2 시점으로부터의 상기 제2 영상을 렌더링 하는 제2 계산부
    를 포함하는 영상 처리 장치.
  2. 제1항에 있어서,
    상기 제1 지점은, 상기 제1 시점인, 영상 처리 장치.
  3. 제1항에 있어서,
    상기 제2 계산부는, 상기 제1 지점과의 거리가 제1 임계치 이상인 제1 오브젝트와 연관된 상기 제1 영상의 픽셀 값을, 상기 제2 영상의 픽셀 값으로 그대로 사용하는, 영상 처리 장치.
  4. 제1항에 있어서,
    상기 제2 계산부는, 상기 적어도 하나의 오브젝트 중의 제2 오브젝트와 상 기 제1 지점 사이의 거리가 제2 임계치 이상이고 상기 제1 임계치 미만인 경우, 상기 제2 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 시프트하여, 상기 제2 영상의 렌더링에 재사용 하는, 영상 처리 장치.
  5. 제4항에 있어서,
    상기 시프트 정도는 상기 제2 오브젝트와 상기 제1 지점 사이의 거리에 반비례하는, 영상 처리 장치.
  6. 제1항에 있어서,
    상기 제1 영상 및 상기 제2 영상을 합성하여, 스테레오스코픽 영상을 생성하는 영상 합성부를 더 포함하는 영상 처리 장치.
  7. 제1항에 있어서,
    상기 렌더링은 레이 트레이싱 방법에 의하여 수행되는 영상 처리 장치.
  8. 제1항에 있어서,
    상기 제1 오브젝트와 상기 제1 시점 사이의 거리는, 상기 제1 오브젝트에 포함되는 메쉬 중 적어도 하나의 메쉬의 좌표 값과 상기 제1 시점의 좌표 값에 기초하여 결정되는, 영상 처리 장치.
  9. 적어도 하나의 오브젝트를 포함하는 3D 모델을 제1 시점에서 렌더링 하는 제1 영상의 제1 픽셀의 픽셀 값을 계산하는 제1 계산부; 및
    상기 제1 픽셀에 대응하는 제1 오브젝트와 제1 지점 사이의 거리가 제1 임계치 이상인 경우, 상기 3D 모델을 제2 시점에서 렌더링 하는 제2 영상에서 상기 제1 픽셀과 동일한 인덱스를 갖는 제2 픽셀의 픽셀 값을 계산하는 데에 있어서 상기 제1 픽셀의 픽셀 값을 이용하는 제2 계산부;
    를 포함하는 영상 처리 장치.
  10. 제9항에 있어서,
    상기 제1 지점은 상기 제1 시점인, 영상 처리 장치.
  11. 제9항에 있어서,
    상기 제2 계산부는, 상기 제2 픽셀의 픽셀 값을 상기 제1 픽셀의 픽셀 값과 동일한 값으로 계산하는, 영상 처리 장치.
  12. 제9항에 있어서,
    상기 제2 계산부는, 상기 제1 픽셀에 대응하는 상기 제1 오브젝트와 상기 제1 지점 사이의 거리가 제2 임계치 이상이고 제1 임계치 미만인 경우, 상기 제2 영상에서 상기 제1 픽셀을 쉬프트 한 위치의 제3 픽셀의 픽셀 값을 계산하는 데에 있어서 상기 제1 픽셀의 픽셀 값을 이용하는, 영상 처리 장치.
  13. 제12항에 있어서,
    상기 쉬프트의 정도는, 상기 제1 오브젝트와 상기 제1 지점 사이의 거리에 반비례하는, 영상 처리 장치.
  14. 적어도 하나의 오브젝트를 포함하는 3D 모델에 대하여 제1 시점으로부터의 제1 영상을 렌더링 하는 단계; 및
    상기 적어도 하나의 오브젝트 중의 제1 오브젝트와 제1 지점 사이의 거리가 제1 임계치 이상인 경우, 상기 제1 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 재사용하여, 상기 3D 모델에 대하여 제2 시점으로부터의 상기 제2 영상을 렌더링 하는 단계
    를 포함하는 영상 처리 방법.
  15. 제14항에 있어서,
    상기 제1 지점은, 상기 제1 시점인, 영상 처리 방법.
  16. 제14항에 있어서,
    상기 제1 지점과의 거리가 제1 임계치 이상인 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 재사용하는 단계는,
    상기 제1 지점과의 거리가 제1 임계치 이상인 오브젝트와 연관된 상기 제1 영상의 픽셀 값을, 상기 제2 영상의 픽셀 값으로 그대로 사용하는, 영상 처리 방법.
  17. 제14항에 있어서,
    상기 적어도 하나의 오브젝트 중의 제2 오브젝트와 상기 제1 지점과의 거리가 제2 임계치 이상이고 상기 제1 임계치 미만인 경우, 상기 제2 오브젝트와 연관된 상기 제1 영상의 픽셀 값을 시프트하여, 상기 3D 모델에 대하여 제2 시점으로부터의 상기 제2 영상을 렌더링 하는 단계
    를 더 포함하는 영상 처리 방법.
  18. 제14항에 있어서,
    상기 제1 영상 및 상기 제2 영상을 합성하여, 스테레오스코픽 영상을 생성하는 단계를 더 포함하는 영상 처리 방법.
  19. 제14항에 있어서,
    상기 렌더링은 레이 트레이싱 방법에 의하여 수행되는 영상 처리 방법.
  20. 제14항 내지 제19항 중 어느 한 항에 있어서,
    상기 영상 처리 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
KR1020090072327A 2009-08-06 2009-08-06 영상 처리 장치 및 방법 KR20110014795A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090072327A KR20110014795A (ko) 2009-08-06 2009-08-06 영상 처리 장치 및 방법
US12/662,288 US8896599B2 (en) 2009-08-06 2010-04-08 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090072327A KR20110014795A (ko) 2009-08-06 2009-08-06 영상 처리 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20110014795A true KR20110014795A (ko) 2011-02-14

Family

ID=43534494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090072327A KR20110014795A (ko) 2009-08-06 2009-08-06 영상 처리 장치 및 방법

Country Status (2)

Country Link
US (1) US8896599B2 (ko)
KR (1) KR20110014795A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101437447B1 (ko) * 2011-06-28 2014-09-11 삼성전자 주식회사 영상처리장치 및 영상처리방법
US9870644B2 (en) 2011-06-14 2018-01-16 Samsung Electronics Co., Ltd. Apparatus and method for image processing

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715758B2 (en) 2013-07-16 2017-07-25 Samsung Electronics Co., Ltd. Image processing apparatus and method using virtual point light (VPL) information
KR102211142B1 (ko) * 2013-07-16 2021-02-04 삼성전자주식회사 영상 처리 장치 및 방법
US9299194B2 (en) * 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
CN104103092A (zh) * 2014-07-24 2014-10-15 无锡梵天信息技术股份有限公司 一种基于聚光灯实时动态阴影的实现方法
KR102281162B1 (ko) 2014-11-20 2021-07-23 삼성전자주식회사 영상 처리 장치 및 방법
CN106447761B (zh) * 2016-08-31 2019-03-08 北京像素软件科技股份有限公司 一种阴影渲染方法
US10255717B2 (en) * 2016-11-01 2019-04-09 Nvidia Corporation Geometry shadow maps with per-fragment atomics
CN108010120A (zh) * 2017-11-30 2018-05-08 网易(杭州)网络有限公司 静态阴影的显示方法、装置、存储介质、处理器及终端
CN111292405B (zh) * 2020-02-06 2022-04-08 腾讯科技(深圳)有限公司 一种图像渲染的方法以及相关装置
CN114119849B (zh) * 2022-01-24 2022-06-24 阿里巴巴(中国)有限公司 三维场景渲染方法、设备以及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773342A (ja) 1993-06-30 1995-03-17 Toppan Printing Co Ltd 画像生成装置
US6359619B1 (en) 1999-06-18 2002-03-19 Mitsubishi Electric Research Laboratories, Inc Method and apparatus for multi-phase rendering
US7019748B2 (en) 2001-08-15 2006-03-28 Mitsubishi Electric Research Laboratories, Inc. Simulating motion of static objects in scenes
US7714858B2 (en) * 2003-04-18 2010-05-11 Hewlett-Packard Development Company, L.P. Distributed rendering of interactive soft shadows
US7538766B2 (en) 2005-06-08 2009-05-26 Microsoft Corporation Pre-computed shadow fields
KR100682456B1 (ko) 2006-02-08 2007-02-15 삼성전자주식회사 렌더링 영역을 최소화하는 3d 그래픽스 데이터의 렌더링방법 및 시스템
TWI322392B (en) 2006-12-14 2010-03-21 Inst Information Industry Apparatus, method, application program, and computer readable medium thereof capable of pre-storing data for generating self-shadow of a 3d object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9870644B2 (en) 2011-06-14 2018-01-16 Samsung Electronics Co., Ltd. Apparatus and method for image processing
KR101437447B1 (ko) * 2011-06-28 2014-09-11 삼성전자 주식회사 영상처리장치 및 영상처리방법

Also Published As

Publication number Publication date
US20110032256A1 (en) 2011-02-10
US8896599B2 (en) 2014-11-25

Similar Documents

Publication Publication Date Title
KR20110014795A (ko) 영상 처리 장치 및 방법
KR101615238B1 (ko) 영상 처리 장치 및 방법
Chaurasia et al. Depth synthesis and local warps for plausible image-based navigation
KR101697184B1 (ko) 메쉬 생성 장치 및 그 방법, 그리고, 영상 처리 장치 및 그 방법
KR101065230B1 (ko) 스테레오-가능 디스플레이 상에의 3d 비디오 이미지의 렌더링
US9064346B2 (en) Hierarchical based 3D image processor, method, and medium
JP2021535466A (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
CN111051959B (zh) 使用来自先前视角的渲染内容和非渲染内容生成新帧
JP2012507181A (ja) 画像特性のための遮蔽データの発生
BR112019027116A2 (pt) aparelho para gerar uma imagem, aparelho para gerar um sinal de imagem, método para gerar uma imagem, método para gerar um sinal de imagem e sinal de imagem
US20100033482A1 (en) Interactive Relighting of Dynamic Refractive Objects
KR20120137205A (ko) 영상 처리를 위한 방법 및 장치
CN102821293A (zh) 图像处理方法和设备
WO2011104746A1 (ja) 画像表示装置
KR101585998B1 (ko) 영상 처리 장치 및 방법
KR20160033551A (ko) 광선-노드 교차검사를 수행하는 방법 및 장치
CN117710563A (zh) 用于半透明对象的基于光栅化的可微分绘制器的方法
KR101470488B1 (ko) V 사이클을 이용한 멀티그리드 방법 및 장치
EP2629156B1 (en) Image processing apparatus and method
KR20120070275A (ko) 3차원 그래픽 렌더링을 위한 클리핑 장치 및 방법
KR100759355B1 (ko) 3차원 입체 랜더링 방법
KR20120073804A (ko) 영상 처리 장치 및 방법
KR101501592B1 (ko) 입체 스프라이트 생성을 통한 입체 영상 생성 방법 및 장치
KR101939573B1 (ko) 영상 처리 장치 및 방법
Bigdelou et al. Incremental Visual Hull Reconstruction.

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal