KR20060073962A - 3-d 영상 디스플레이 스크린상에 3-d 영상들을렌더링하는 시스템 및 방법 - Google Patents

3-d 영상 디스플레이 스크린상에 3-d 영상들을렌더링하는 시스템 및 방법 Download PDF

Info

Publication number
KR20060073962A
KR20060073962A KR1020067005480A KR20067005480A KR20060073962A KR 20060073962 A KR20060073962 A KR 20060073962A KR 1020067005480 A KR1020067005480 A KR 1020067005480A KR 20067005480 A KR20067005480 A KR 20067005480A KR 20060073962 A KR20060073962 A KR 20060073962A
Authority
KR
South Korea
Prior art keywords
stack
view point
main view
objects
rendering
Prior art date
Application number
KR1020067005480A
Other languages
English (en)
Other versions
KR101095392B1 (ko
Inventor
피터-안드레 레덜트
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20060073962A publication Critical patent/KR20060073962A/ko
Application granted granted Critical
Publication of KR101095392B1 publication Critical patent/KR101095392B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • G06T15/405Hidden part removal using Z-buffer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

시스템은 디스플레이 스크린, 3-D 스크린에 어드레싱하는 수단, 및 어드레싱 수단에 공급하기 위한 영상 정보를 렌더링하는 3-D 모델을 위한 입력 및 적어도 하나의 뷰 포인트를 위한 입력을 갖는 3-D 디스플레이 장치를 포함한다. 렌더러는 RGB 및 Z-값들을 포함한 스택 층들(S1, S2, S3)을 포함하는 메인 뷰 포인트 Z-스택(91, 94)의 형태로 물체들을 렌더링하는 3-D 모델 및 메인 뷰 포인트를 위한 입력 초기 파트(70)를 포함하고, 초기 스테이지에 의해 발생된 메인 뷰 포인트 Z-스택(91, 94)으로부터, 부가적인 뷰 포인트들에 대한 Z-스택들(97)이 구성되는 Z-스택 컨스트럭터 및 Z-스택들(97)로부터 영상 정보(79)를 발생시키는 부가적인 영상 정보 오클루젼 시맨틱스 스테이지를 더 포함한다.
디스플레이 스크린, 영상 정보, 3-D 디스플레이 장치, 렌더러, 뷰 포인트

Description

3-D 영상 디스플레이 스크린상에 3-D 영상들을 렌더링하는 시스템 및 방법{System and method for rendering 3-D images on a 3-D image display screen}
본 발명은 디스플레이 스크린을 갖는 3-D 디스플레이 장치, 상기 디스플레이 스크린에 어드레싱하는 수단, 및 상기 어드레싱 수단에 제공하기 위한 영상 정보를 렌더링하는 3-D 모델을 위한 입력 및 적어도 하나의 뷰 포인트를 위한 입력을 갖는 렌더러(renderer)를 포함한 시스템에 관한 것이다.
본 발명은 또한 디스플레이 장치에서 사용하기 위한 렌더러에 관한 것이다.
본 발명은 또한 디스플레이 장치의 어드레싱 수단을 위한 입력이 되는 정보를 발생시키는 렌더러에 관한 것이다.
본 발명은 또한 3-D 디스플레이 장치의 어드레싱 수단에 제공될 데이터를 렌더링하는 방법에 관한 것이다.
최근에, 3-D 영상 디스플레이 스크린들 상에 3-D 영상들을 제공하는데 많은 관심이 있어 왔다. 3-D 촬상은 촬상에 있어서 칼라 촬상 이후에, 다음가는 큰 기술혁신이 될 것이다.
3-D 디스플레이 장치는 통상적으로 영상들이 디스플레이되는 디스플레이 스크린을 갖는다.
영상을 디스플레이하기 위해 필요로 되는 정보(데이터)는 렌더러에 의해 렌더링되며, 상기 렌더러는 3-D 모델을 위한 입력 및 뷰 포인트를 위한 입력을 포함한다.
기본적으로, 3차원 임프레션(three dimensional impression)은 스테레오 쌍들(시청자의 두 눈들에서 지향된 두 개의 상이한 영상들), 홀로그래픽 기술들, 또는 디스플레이들에서의 다수의 면들을 사용함으로써 생성될 수 있다. 다면 기술들에 의하여, 3-D 픽셀들이 3-D 볼륨에서 소위 복셀(voxel)들로 대체되는 볼류메트릭 영상(volumetric image)가 구성된다. 대부분의 다면 디스플레이들의 단점은 복셀들이 광을 발생시키지만, 이를 차단하지 않는다는 것이다. 이것은 투명한 물체들에 이르게 되어, 디스플레이된 영상들에 대한 희미하고 양호하지 않은 모습(appearance)을 실제로 제공한다.
디스플레이 스크린을 사용한 디스플레이, 스테레오스코픽 디스플레이들은 이러한 문제를 겪지 않는다. 스테레오 영상들을 생성하는 몇 가지 방식들이 존재한다. 상기 영상들은 3-D 디스플레이 상에서 시간 다중화될 수 있지만, 이것은 시청자들이 예를 들어, LCD 셔터들을 갖는 안경을 끼는 것을 필요로 한다. 스테레오 영상들이 동시에 디스플레이될 때, 상기 영상들은 머리에 장착된 디스플레이를 사용하거나, 편광 안경을 사용함으로써 적절한 눈으로 지향될 수 있다(그 다음, 영상들이 직교 편광으로 생성된다). 관측자가 낀 안경은 뷰들을 각각의 눈으로 효율적으로 라우팅한다. 안경 내의 셔터들 또는 편광기는 라우팅을 제어하기 위한 프레임 레이트에 동기화된다. 플리커(flicker)를 방지하기 위하여, 2차원 등가 영상에 대 해 프레임 레이트가 두 배로 되거나, 해상도가 반감되어야 한다. 이와 같은 시스템의 단점은 두 개의 영상들이 단지 제한된 "룩 어라운드(look around)" 성능만을 발생시킨다는 것이다. 더구나, 임의의 효과를 발생시키기 위해서 안경을 껴야만 한다. 이것은 부가적인 쌍의 안경이 항상 적합하지는 않기 때문에 안경 끼는 것에 익숙하지 않은 관측자들 및 이미 안경을 낀 사람들에 대한 잠재적인 문제로 인해 바람직하지 않다.
시청자들의 눈들의 부근 대신에, 두 개의 스테레오 영상들은 또한 예를 들어, US5,969,850호에 나타낸 바와 같이, 패러랙스 베리어(parallax barrier)와 같은 분리 스크린에 의해 디스플레이 스크린에서 분리될 수 있다.
디스플레이 스크린에서 분리되는 뷰를 뷰잉(viewing)할 때의 디스플레이들이 3-D 영상을 뷰잉하는데 특수 안경이 필요로 되지 않는다는 의미에서 오토스테레오스코픽일지라도, 이 디스플레이들은 종종 공간의 고정된 위치에서 하나의 시청자에 대해서만 동작한다. 뷰잉 존은 매우 좁다. 뷰잉 존 외측에서, 관측자는 다수의 영상들 또는 스테레오 변환을 보게 되어, 뷰가 그다지 양호하지 않다. 실제로, 이것은 많은 애플리케이션의 경우에, 예를 들어, 거실들에서, 뷰잉 존이 작아서, 시청자가 3-D 영상을 볼 수 있는 하나의 특정 스폿(spot)에 앉아야 한다는 것을 의미한다.
US5,969,850호로부터 공지된 장치는 동적인 패러랙스 베리어, 즉, 오토스테레오스코픽 디스플레이 장치가 생성되는 그러한 방식으로 베리어 슬릿들이 스크린에 걸쳐 이동하는 패러랙스 베리어를 사용함으로써 좁은 뷰잉 존 문제에 대한 해결 책을 제공한다.
상기 특허는 각각 자신의 장점들 및 단점들을 가지는 3-D 영상을 제공하는 방법 및 여러 유형들을 서술한다. 본 발명은 다른 것들보다 일부 유형들의 장치들에 사용할 가능성이 더 클지라도, 임의의 특정 유형의 3-D 장치에 국한되지 않는다. 본 발명은 렌더러, 즉, 영상 정보(데이터)를 렌더링하는 시스템의 부분에 관한 것이다. N-뷰들, 즉, 다수의 뷰들을 디스플레이 스크린상에 제공할 수 있는 디스플레이 장치들을 갖는 시스템들을 향한 추세로 가고 있다. 이와 같은 장치들은 다수의 시청자들에 대하여, 상당히 큰 뷰잉 각도에 걸쳐서 볼 수 있는 디스플레이 스크린 상에 3-D 영상을 제공할 수 있다. 여러 뷰들의 수는 전형적으로 10으로부터 100까지이다. 본 발명은 그러한 유형들의 3-D 영상 디스플레이 장치들에 특히 관심이 있다.
다수의 영상들을 제공하는 하나의 방식은 영상들과 동수의 카메라들을 사용하는 것이다. 그러나, 이 기술은 매우 고가이고, 종종 비실용적이며, 상호작용식 게임들에 그다지 적합하지 않다. 따라서, 실제로, 영상 정보가 종종 계산되거나 구성되며, 여기서, 계산 또는 구성에 대한 토대는 부분적으로 카메라에 의해 수집된 정보에 기초할 수 있다.
특히 3-D 게임시에 영상들을 디스플레이하기 위하여, 렌더러가 사용된다. 렌더러는 영상들에 대한 데이터를 렌더링해야 한다. 간단한 스테레오 디스플레이들의 경우, 즉, 뷰 포인트들의 수(N)가 2인 경우에, 렌더러는 두 개의 영상들에 대한 데이터를 렌더링해야 하는 반면, 더 복잡한 3-D, 예를 들어, 오토스테레오스코픽 디 스플레이들의 경우에, 뷰들의 수가 실질적으로 증가하여, 현재 N ~ 10이 되고, 미래의 3-D 디스플레이들의 경우에는 N ~ 100으로 예상되어, 렌더러가 훨씬 더 많은 뷰들 및 이로 인한 훨씬 더 많은 데이터를 제공하는 것이 필요로 된다. 렌더러는 디스플레이 장치 자체의 일부이거나, 공급되는 영상 정보를 디스플레이 장치의 또는 디스플레이 장치에 대한 어드레싱 수단을 위한 입력으로서 영상 장치에 제공하기 위한 자립형 장치일 수 있다. 이러한 점에서 많은 뷰들에 대하여 정보가 생성될 뿐만 아니라, 특히 단지 3-D 게임들에 대해서만은 아니지만, 영상의 품질이 바람직하게는 각각의 뷰 포인트에 대하여 실질적으로 동일하다는 것이 매우 중요하다.
현재의 렌더링 기술들은 3-D 모델을 토대로 한 각각의 개별적인 뷰 및 상기 개별적인 뷰의 뷰 포인트에 대한 영상 정보, 즉, 데이터를 렌더링하는 렌더러들을 사용한다. 이와 같은 방법들이 N=2에 의한 3-D 이미징에 대해 유용할지라도, 뷰의 필드를 증가시키고 영상이 많은 상이한 뷰 포인트들로부터 보이도록 하기 위하여 증가하는 수의 뷰 포인트들을 제공하는 것이 필요로 되는 추세로 가고 있다. 특히, 단지 3-D 게임들에 대해서만은 아니지만, 이것은 사실이다. 예를 들어, 다수의 상대들(즉, 시청자들)이 디스플레이 스크린에 대해 서로 싸우고 있을 때, 모든 상대들이 동일한 근거로 싸우는 것이 중요하다. 이러한 조건이 충족되도록 하기 위하여, 영상 품질이 실질적으로 동일하고, 디테일(detail)들의 속도 및 정도가 높은 상당히 많은 뷰 포인트가 렌더링되어야 한다. 상호작용식 게임들의 경우에, 모든 데이터는 실시간에 렌더링되어야 하므로, 큰 세트들의 데이터의 온-라인 렌더링이 필요로 된다. 이와 같은 조건들은 기존 기술들에 의해는 달성하기 어렵다.
따라서, 본 발명의 목적은 3-D, 예를 들어, 오토스테레오스코픽 디스플레이 장치들에 대한 고속이고, 정확하며 상세한 렌더링을 가능하게 하는 공지된 장치에 대한 대안 및 개선된 효율을 제공하는 것이다.
이 목적으로 인해, 본 발명에 따른 시스템은 렌더러가 3-D 모델 및 한 스택(stack)의 층들을 포함하는 메인 뷰 포인트 Z-스택의 형태로 물체들을 렌더링하기 위한 메인 뷰를 위한 입력을 갖는 초기 파트를 포함하고, 각각의 층은 칼라 정보 및 Z-값들을 포함한 한 어레이의 요소들을 포함하며, 상기 렌더러는 초기 스테이지에 의해 생성된 메인 뷰 포인트 Z-스택으로부터 부가적인 뷰 포인트들을 위한 Z-스택들을 구성하는 Z-스택 컨스트럭터, 및 Z-스택들로부터 영상 정보를 발생시키는 부가적인 영상 정보 오클루젼 시맨틱스 스테이지(image information occlusion semantics)을 더 포함한다.
렌더러는 디스플레이될 영상에 포함된 물체들을 칼라(RGB) 및 깊이 값(Z)을 갖는 한 세트의 픽셀들의 형태로 렌더링하는 초기 파트를 포함한다. 이러한 초기 스테이지는 3-D 모델 및 메인 뷰 포인트를 위한 입력을 갖는다. 이러한 초기 스테이지의 출력은 메인 뷰 포인트에 대한 Z-값 및 칼라(RGB 또는 모노칼라) 정보를 포함한 적층된 층들을 포함하는 Z-스택이다. 렌더러는 다음의 Z-스택 구조에서 메인 뷰 포인트 Z-스택을 사용하며, 그 구조에서, 메인 뷰 포인트에 대한 Z-값들 및 칼라 정보(RGB 또는 모노칼라)를 포함하는 메인 뷰 포인트 Z-스택으로부터, 부가적인 뷰 포인트들에 대한 Z-값들 및 칼라 정보(RGB 또는 모노칼라)를 포함하는 Z-스택들이 구성된다. 그 다음, 각각의 Z-스택들은 부가적인 영상 정보 오클루젼 시맨틱스 스테이지에서, 어드레싱 수단에 제공하기 위한 영상 정보로 변환된다.
물체들은 생성될 때, RGB 좌표들(칼라들, 또는 모노크로메틱 영상의 경우에, 모노칼라) 뿐만 아니라 X-Y-Z 좌표들(공간의 위치) 및 종종 불투명도(α) 값들을 갖는다. 뷰 포인트로부터 영상을 구성하는 것은 기본적으로 뷰 포인트에 대응하는 면 상으로의 물체들의 영사를 수반한다. 렌더링시의 가장 현저한 특성들 중 하나는 정면의 물체들이 다른, 더 떨어진 물체들을 보이지 않게 한다는 것이다. 렌더러는 스크린상으로의 모든 물체들의 간단한 영사가 이와 같은 전경 물체들을 통하여 반짝이는 전경 물체들보다 더 떨어진 물체들에 이르게 되고, 이것은 실제로 전경 물체들의 유령과 같은 모습에 이르게 된다는 것을 고려해야 한다.
소위 프레임/Z-버퍼 방법을 통하여 영상들을 생성하는 것이 (렌더러에 대한 다른 언어인) 렌더링 파이프들에서 가능하다는 것이 공지되어 있다. 3-D 모델의 각각의 물체는 칼라(RGB) 및 깊이 값(Z)을 갖는 한 세트의 픽셀들의 형태로 초기 텍스쳐 스테이지(initial texture stage)를 떠날 것이다. 오클루션 시맨틱스 스테이지에서, 모든 물체 픽셀의 Z-값들은 Z-버퍼 내의 적절한 픽셀과 비교된다. 물체 Z-값이 더 작은 경우(물체가 현재 물체보다 시청자에 더 가까운 경우), 물체의 RGB 및 Z-값은 프레임 및 Z-버퍼에서 각각 적절한 픽셀 내로 복사된다. 이러한 방식은 블랙 프레임 버퍼 및 -∞로 채워진 Z-버퍼에서 시작되고, 그 이후에 모든 물체가 렌더링 파이프를 통해 입력된다. 최종적으로, 프레임 버퍼는 렌더링 파이프의 출력의 역할을 하는 영상을 포함한다. Z-버퍼의 최종적인 내용들은 사용되지 않는다. 원칙적으로, 프레임 및 Z-버퍼는 함께 모든 픽셀이 칼라 데이터(RGB) 및 깊이(Z) 둘 다를 갖는다는 것을 의미하는 소위 '영상+깊이(image+depth)' 데이터 구조를 형성한다. 어떤 다른 뷰 포인트들로부터의 영상을 적당한 처리량으로 렌더링하는 것이 프레임에서 RGBZ로부터 가능하다. 그러나, 이러한 유형의 부가적인 뷰 포인트 렌더링은 실질적인 결점을 갖는다: 남아 있는 뷰 포인트들에 대해 렌더링되는 영상들의 품질이 뷰 포인트보다 낮다. 프레임 버퍼 내의 영상은 메인 뷰 포인트로부터 보여지는 다수의 물체들을 포함하며, 어디서 이러한 동일한 물체들이 다른 뷰 포인트로부터의 영상이 되는지를 계산하여 그 뷰 포인트로부터의 영상을 계산하는 것이 가능할지라도, 나머지 뷰 포인트들로부터, 다른 물체들이 보일 수 있고(보여야만 하고), 메인 뷰 포인트로부터 보이지 않을 수 있다는 문제가 남게 된다. 이와 같은 물체들은 프레임/Z-버퍼에서 존재하지 않으므로, 부가적인 뷰 포인트에 대한 영상들에서 결코 정확하게 렌더링될 수 없다. 마찬가지로, 메인 뷰 포인트로부터 보이는 것과 같이 영상에서 볼 수 있는 물체들도 메인 뷰 포인트로부터 볼 수 있는 것이 아니라, 다른 뷰 포인트들로부터 볼 수 있는 파트들을 가질 수 있다.
본 발명에서, 초기 스테이지의 출력은 프레임/Z-버퍼가 아니라, 메인 뷰 포인트 Z-스택이다. 이러한 Z-스택은 메인 뷰 포인트에 특정될지라도, 메인 뷰 포인트로부터 가까운 그리고 더 떨어진 모든 남아 있는 뷰 포인트들로부터의 영상들의 생성에 필요한 거의 모든 관련 정보를 포함한다. 본 발명의 개념 내에서 Z-스택은 데이터(RGB-(또는 모노칼라) 및 Z-값, 그리고 가능한 α-값)를 갖는 요소들의 한 스택의 어레이들이며, 여기서, 제 1 층은 먼저 뷰의 메인 포인트로부터 보이는 것과 같은 그러한 물체들(의 파트들) 및 요소들을 포함하고, 제 2 층은 제 1 층의 물체들 또는 물체들의 파트들 뒤의 뷰의 포인트로부터 보이는 것과 같은 물체들 및 위치된 물체들의 파트들을 포함하며, 제 3 층은 스택의 제 2 층에서의 물체들 또는 물체들의 파트들 뒤의 물체들을 포함한다. 계산들이 요즘 통상적으로 어떤 컴퓨터 또는 컴퓨터 프로그램에 의해 행해지므로, "스택(stack)"은 이러한 관점, 즉, 컴퓨터에서 발생되고/되거나 저장된 데이터의 배열의 서술로서 해석되어야 한다는 것이 당업자들에게는 명백할 것이다. 메인 뷰 포인트에서는 보이지 않는, 즉, 다른 물체들 또는 물체들의 파트들에 의한 뷰로부터 숨겨진 (그리하여 상술된 바와 같이 프레임/Z-버퍼에서 존재하지 않는) 물체들(또는 물체들의 파트들)은 메인 뷰 Z-스택, 즉, 스택의 제 2, 제 3 등의 층에 여전히 존재한다. 단일 물체의 파트들이 스택 내의 하나 이상의 층에 걸쳐 분포될 수 있다는 것이 주의되어야 한다.
본 발명에 따른 장치는 메인 뷰 포인트에 대한 Z-스택을 토대로 하여, 각각의 부가 정보에 대한 Z-스택을 렌더링하는, 초기 스테이지 및 부가적인 3-D 렌더링 스테이지 다음에 Z-스택 컨스트럭터를 포함한다. 그래서, 각각의 부가적인 뷰 포인트들에 대하여, 새로운 Z-스택이 메인 뷰 포인트 Z-스택을 토대로 만들어진다. 하나의 뷰 포인트, 즉 메인 뷰 포인트는 렌더링 파이프에 들어가서 통상적인 방식으로 처리되는 반면, 부가적인 N-1 뷰 포인트들은 렌더러 내부의 여분의 스테이지에 들어간다. 이 방법에서, 렌더러 파이프의 가장 큰 파트는 모노스코픽으로, 즉, 하나의 뷰 포인트용으로 유지되며, 통상적으로 다음의 오클루젼 시맨틱스 스테이지인 것과 같은 모든 N 개의 영상들을 위해 사용된다.
원래 메인 뷰 Z-스택은 메인 뷰 포인트로부터 가까운 그리고 더 떨어진 모든 남아 있는 뷰 포인트들로부터의 영상들의 생성에 필요한 거의 모든 관련 정보를 포함한다. 이러한 메인 뷰 포인트 Z-스택으로부터, 새로운 Z-스택들이 부가적인 뷰 포인트들을 위해 생성된다. 이러한 Z-스택들 자신들이 또한 거의 모든 정보를 포함하므로, 부가적인 뷰 포인트들에 대한 영상들은 메인 뷰 포인트 영상와 실질적으로 동일한 영상 품질로 이루어진다.
이 방식에서, N 개의 상이한 뷰 포인트들을 개별적으로 구성하는 것에 비하여, 알고리즘의 속도 및 간소화가 크게 증가된다. 또한, 메인 뷰 포인트를 위한 프레임/Z-버퍼를 생성하고 메인 뷰 포인트 프레임/Z-버퍼로부터 다른 뷰 포인트들에 대한 영상을 구성하는 것에 비하여 품질이 크게 증가된다.
이상적으로, 모든 렌더링이 행해진 이후에, 모든 Z-스택들은 각각의 Z-스택에 대응하는 뷰 포인트로부터 보이는 것과 같은 전경 물체들을 포함한다. 물체가 표현되는 요소들의 수는 상이한 뷰 포인트들로부터 볼 때, 물체가 상이한 크기로 나타날 수 있기 때문에, 상이한 Z-스택들에서 동일하지 않을 수 있다. 따라서, Z-스택들 사이의 요소들 간에 일대일 대응이 존재하지 않지만, 물체의 존재가 관련되는 한, 일대일 대응이 존재한다. 하나의 메인 뷰 포인트 Z-스택을 토대로 부가적인 Z-스택들을 구성할 때, 물체들은 하나의 비트마다 복사될 수 있지만, 하나의 비트마다의 하나의 복사 요소들은 불충분하다. 후자는 예를 들어, 물체가 메인 Z-스택에서 100 요소들에 의해 표현되지만, 새로운 Z-스택에서 110 또는 90 요소들에 의해 표현되어야 할 때, 문제를 초래할 것이다. 예를 들어, 외삽 또는 축약에 의한 물체 내에서 요소들의 수의 스케일링과 함께 물체-바이-물체 방법이 엘리먼트-바이-엘리먼트에 비하여 바람직하다는 것을 본 발명자들이 인식하였다.
따라서, 렌더러는 Z-스택으로부터 물체들의 추출을 위한 물체 추출자를 포함하는 것이 바람직하다. 본 발명의 프레임워크 내에서 추출하는 것은 그룹핑 기준을 토대로 한 그룹들 내로 Z-스택의 요소들을 그룹핑하는 것을 의미한다. 하나이고 동일한 물체에 속하는 요소들은 통상적으로 동일하거나 유사한 Z-값들을 갖는다(또는 이 요소들이 갖지 않는다면, 하나의 요소로부터 인접한 요소로 가는 Z-값들의 명백한 규칙적인 변화가 존재한다). 더구나, 이 요소들은 동일하거나 유사한 RGB 값들을 가질 수 있다.
메인 뷰 포인트 Z-스택의 요소들을 물체들 내로 그룹핑하는 것이 유용하다. 이것은 부가적인 뷰 포인트에 대하여 메인 뷰 포인트 Z-스택으로부터 새로운 Z-스택으로 하나의 비트마다 물체들을 복사하는 것을 가능하게 한다. 축약 및 외삽 동작들은 기본적으로 컴퓨터 그래픽 에어리어에서 널리 공지되어 있는 리샘플링 동작들이다. 바람직한 실시예에서, 물체 추출은 메인 뷰 포인트 Z-스택에 대해서만 행해져서, 부가적인 뷰 포인트들의 수(N-1)와 무관하게 효율을 보장한다. 부가적인 뷰 포인트들의 구성 이전에 물체들의 크기와 형태에 대해 인식하면 외삽 및 축약에 필요로 되는 물체들 내에서의 요소들의 리샘플링의 고-품질 구현들이 가능해진다.
바람직하게는, 렌더러는 DOF 렌더링 스테이지를 포함한다. DOF(depth-of-field: 피사계심도)는 물체의 초점이 맞춰지는 초점 면이 존재하지만, 초점 면으로부터 더 떨어진 물체들이 다소 블러링(blurring)된다는 사실과 관련된다. 블러링(blurring)은 물체 텍스쳐에서 그리고 물체의 에지들 주위에서 RGB 값들의 공간적인 재분배, 또는 물체들의 불투명도의 작은 변화들에 의해 설정된다. DOF 블러링은 부가적인 뷰 포인트 Z-스택들 각각에 대해 수행될 수 있지만, 메인 뷰 포인트 뷰 Z-스택에 대하여 수행되는 것이 바람직하다. 그 결과는 DOF로 인한 블러링을 고려한 RGB 및 Z 값(및 아마도 불투명도를 갖는) 데이터를 갖는 메인 포인트에 대한 Z-스택이다. 초점 면은 뷰의 부가적인 포인트들에 대해 거의 항상 개략적으로 동일하다. 따라서, 뷰의 메인 포인트에 대해 DOF 블러링하고 나서, 모든 부가적인 뷰 포인트들에 대한 Z-스택들을 발생시키는 토대로서 "블러링된(blurred)" 메인 뷰 포인트를 사용하면 메인 뷰 포인트 Z-스택을 사용하고, 부가적인 뷰 포인트들에 대한 Z-스택들을 발생시키고 나서, 모든 뷰 포인트 Z-스택들에 대한 DOF 블러링을 수행하는 것과 (품질에서) 거의 동일한 최종 결과가 제공되는 반면, 속도는 매우 증가된다.
Z-스택 컨스트럭터는 순차적으로(즉, 차례로) 또는 병렬로 부가적인 뷰 포인트 Z-스택들을 구성할 수 있다. 이것이 병렬로 행해진다는 것이 바람직하다. 순차적으로 행해질 때, Z-스택 컨스트럭터는 메인 포인트로부터 제 1의 부가적인 뷰 포인트 Z-스택을 구성, 이를 부가적인 -Z스택들을 구성하는데 사용할 수 있다. 그러나, 이와 같은 순차적인 처리는 작은 에러들이 축적될 위험성을 지닌다. 따라서, 바람직하게는, 순차적인 처리든 병렬 처리든 간에, 각각의 부가적인 Z-스택이 메인 뷰 포인트 Z-스택을 토대로 계산된다.
바람직하게는, 메인 뷰 포인트 Z-스택 데이터는 불투명도에 대한 데이터이며, Z-스택 컨스트럭터는 또한 물체 추출 이후에, 물체들의 불투명도를 조절하는 수단을 포함한다.
물체들의 오클루젼이 상술되었다. 오클루젼(즉, 하나의 물체가 부의 포인트로부터 보이는 것과 같은 다른 물체 뒤에 있을 때, 볼 수 없게 되는 것)과 별도로, 불투명도가 또한 역할을 할 수 있다. 일부 물체들은 (반)-투명일 수 있다. 이와 같은 물체들 뒤에 위치된 물체들은 어느 정도까지 볼 수 있다. 불투명도의 개념, 즉, 물체들에게 또한 불투명도를 제공하는 것은 이와 같은 작용들을 고려하는 것을 가능하게 한다. 기본적으로, 불투명도(예를 들어, 0과 1 사이의 수)는 부가적인 배치 물체들의 어느 정도의 강도가 영상에서 보일 수 있어야 하는지에 대한 측정치를 제공한다. 불투명도가 0일 경우, 물체는 불투명하고(즉, 물체 뒤의 물체는 빛이 투과되지 않고), 불투명도가 1일 경우, 물체는 완전히 투명하며, 부가적인 물체는 빛이 투과된다. 메인 뷰 포인트 Z-스택에서 (통상적으로α로 표시된) 불투명도를 나타내면 더 실물 같은 영상 렌디션(image rendition)이 가능하게 된다. 이러한 불투명도 데이터를 부가적인 뷰 포인트 Z-스택에 단순히 전송하는 것이 유용하다. 그러나, 물체의 불투명도는 뷰의 포인트에 좌우될 수 있는데, 그 이유는 예를 들어, 평활판의 경우, 불투명도는 평활판을 통한 뷰의 각도에 따라 증가하기 때문이다. 불투명도를 조절함으로써, 더 실물 같은 영상 렌디션이 가능하다.
불투명도 데이터가 상이한 칼라들에 대한 상이한 불투명도 데이터로 분리되는 경우에, 이 양상이 훨씬 더 중요해진다.
바람직하게는, Z-스택 컨스트럭터는 또한 물체 추출 이후에, 물체들의 RGB 값들을 조절하는 수단을 포함한다.
메인 뷰 포인트 Z-스택은 칼라 정보, 예를 들어, RGB 값들을 포함한다. 본 발명의 실시예들에서, 이러한 RGB 값들은 뷰 포인트가 변화되지 않은 때, 변화되지 않게 될 수 있다. 그러나, 일부 물체들의 경우에, 칼라는 뷰의 각도가 시프트됨에 따라 변화되어, 더 밝아지거나 더 어두어지거나 뷰의 포인트가 변화됨에 따라 변화된다. 바람직한 실시예들에서, Z-스택 컨스트럭터는 이와 같은 변화들을 허용한다.
바람직하게는, 상기 시스템은 부가적인 뷰 포인트들에 대한 데이터를 위한 입력을 포함한다. Z-스택 컨스트럭터는 부가적인 뷰 포인트들에 대한 데이터를 구성한다. 이것은 자동적으로 행해질 수 있고, 이 경우에, 이것은 예를 들어, 3-D 디스플레이 장치에서의 있을 수 있는 뷰들과 동수, 즉, 가능한 모든 디스플레이 장치들을 커버하는 많은 수의 Z-스택들에 대한 데이터를 구성할 수 있다. 이것은 많은 수의 부가적인 뷰 포인트 Z-스택들이 구성되는 것을 필요로 한다. 그러나, 상기 시스템은 부가적인 뷰 포인트들에 대한 데이터를 부가적인 뷰 포인트 Z-스택 컨스트럭터에게 제공하기 위한 입력을 포함하는 것이 바람직하다. 디스플레이 장치의 유형에 따라서, 부가적인 뷰 포인트들의 수는 변화될 수 있다. 부가적인 뷰 포인트들에 대한 특정 데이터(메인 뷰 포인트에 대한 수 및/또는 위치/방향)를 제공하기 위한 입력을 제공함으로써, Z-스택 컨스트럭터는 요건들에 따라 부가적인 뷰 포인트 Z-스택들을 제공할 수 있어서, 효율을 증가시킨다. 간단한 실시예들에서, 뷰 포인트들에 대한 데이터는 예를 들어, 발생될 뷰들의 수 및 최대 뷰잉 각도 범위일 수 있다. 바람직할 실시예들에서, 상기 시스템은 사용자의 선호도에 따른 뷰 포인트들을 설정하는 수단, 또는 사용자들의 뷰 포인트들에 대응하는 데이터를 제공받는 수단을 포함한다. 예를 들어, 하나 이상의 플레이어가 3-D 게임에 참여할 경우, 고글(goggle)들, 헤드폰들, 레이저 총들, 배지들 등을 사용하는 것은 이와 같은 속성들이 예를 들어, IR 또는 초음파 센서들에 의하여 디스플레이 장치와 관련된 이와 같은 속성들의 위치를 설정하는 수단에 의해 제공되는 경우, 상기 시스템이 디스플레이 장치의 디스플레이 스크린과 관련된 플레이어의 정확하거나 적절한 위치를 설정하는 것을 가능하게 한다. 부가적인 Z-스택 컨스트럭터에 이와 같은 정보를 제공하면 플레이어들에 부합하는 뷰 포인트들이 높은 정확도 또는 리프레시먼트 레이트(refreshment rate)로 처리되는 것이 가능해지는 반면, 다른 뷰 포인트들은 처리되지 않거나, 낮은 정확도 또는 리프레시먼트 레이트로 처리된다. 이로 인해, 비용들의 실질적인 증가를 필요로 함이 없이, 실제로 문제가 되는 그러한 뷰 포인트들, 즉, 플레이어들과 관련된 뷰 포인트들에 대한 속도 및 영상 품질이 상당히 증가된다.
본 발명의 이러한 양상 및 다른 양상들은 이하에 서술된 실시예들로부터 명백해지며, 상기 실시예들과 관련하여 설명될 것이다.
도1은 디스플레이 장치의 기본적인 원리를 도시한 도면.
도2는 두 개의 스테레오 영상들로 분할한 패러랙스 베리어의 기본적인 원리를 도시한 도면.
도3A 및 3B는 베리어 및 렌즈형 스크린의 원리들을 도시한 도면.
도4는 기본적인 패러랙스 베리어 디스플레이에 의한 문제점을 도시한 도면.
도5는 공지된 다수의-뷰 장치들을 도시한 도면.
도6은 현재 렌더링 방법들을 도시한 도면.
도7은 본 발명에 따른 디스플레이 장치 및 방법을 위한 렌더 파이프를 개략적으로 도시한 도면.
도8은 디스플레이 장치 및 방법을 위한 렌더 파이프의 상세도.
도9는 본 발명에 다른 렌더 파이프 및 방법의 상세도.
도10은 본 발명에 따른 방법의 부가적인 상세도.
도면들은 원래 크기대로 도시되어 있지 않다. 일반적으로, 도면에서 동일한 구성요소에는 동일한 도면부호가 병기되어 있다.
도1은 디스플레이 장치를 도시한다. 3-차원 텔레비전의 경우에, 사람들은 다수의 뷰잉 방향들을 요구하며, 여기서 광은 개별적으로 방사된다. 가정용 애플리케이션에서, 뷰잉 거리는 대략 3m이고, 사람들은 대략 3m 폭인 카우치 상에 앉는데, 이는 도1을 참조하라. 그래서, 적어도 60-도의 뷰잉 각도가 필요로 된다. 우리의 눈들은 서로로부터 6:5cm에서 위치된다. 각각의 눈이 상이한 픽처들에 도달하기 위하여, 디스플레이는 3m/6:5cm = 300/6:5 = 50 방향들에서 광을 방사할 필요가 있다. 사람이 자신의 머리를 움직이는 경우 불연속적인 장면전환들 없이 3-차원 픽처에 도달하기 위하여, 3-차원 텔레비전은 50보다 훨씬 많은, 즉, 적어도 100 개의 방향들로 광을 방사한다. 본 발명에 국한되지 않는, 많은 수의 뷰들을 생성하는 하 나의 방법은 패러랙스 베리어를 사용하는 것이다.
도2는 두 개의 스테레오 영상들을 분할한 패러랙스 베리어의 기본적인 원리를 도시한다. 두 개의 스테레오 영상들의 수직 라인들은 예를 들어, 후광을 갖는 공간 광 변조기(가령, LCD) 상에 교호적으로 디스플레이된다. 패러랙스 베리어(7)의 격자 구조는 시청자(4)의 각각의 눈이 적절한 영상(5, 6)를 보는 것을 보장한다. 이것은 3-D 촬상 시스템을 나타내기 위하여 간단하게 도시되어 있고, 본 발명의 범위를 국한하지 않아야 한다.
도3A는 패러랙스 베리어의 사용을 도시한다. 종래의 베리어 오토-스테레오스코픽 디스플레이 시스템에서, 베리어(31)는 디스플레이 어레이(32) 앞에 배치된다. 영상들의 스테레오 쌍의 좌측 및 우측 영상들은 수직적인 스트립(strip)들로 분할된다. 좌측 영상의 스트립들(32L) 및 우측 영상의 스트립들(32R)이 어레이(32) 상에 교호적으로 배치된다. 슬롯들(31A)이 베리어(31) 내에 형성된다. 슬롯들(31A)은 관측자의 좌측 눈(4L)이 좌측 영상의 스트립들(3L)만을 볼 수 있고, 우측 눈(4R)이 상기 쌍의 우측 영상의 스트립들(32R)만을 볼 수 있도록 위치된다. 관측자는 3차원에서 전체 영상을 재구성한다.
도3B를 참조하면, 유사한 원리가 설명되는데, 여기서, 베리어(31)는 상이한 쌍의 좌측 및 우측 영상 스트립들(32L 및 32R)에 각각 대응하는 한 어레이의 수직 원통형 렌즈들(33A)을 갖는 렌즈형 렌즈 스크린으로 대체된다. 동작시에, 각각의 렌즈들은 관측자의 좌측 눈(4L)을 좌측 영상 스트립(32L) 상으로 지향시키고, 관측자의 우측 눈(4R)을 우측 영상 스트립(32R) 상으로 지향시킨다.
도4는 기본적인 스테레오스코픽 장치의 문제를 도시한다. 우측 뷰잉 존 내에 위치되지 않는 시청자는 혼동한다. 뷰잉 존은 매우 좁다. 뷰잉 존 외측에서, 관측자는 다수의 영상들 또는 스테레오 변환들을 보게 되어, 뷰가 매우 양호하지 않게 된다. 실제로 이것은 많은 애플리케이션의 경우에, 예를 들어, 거실들에서, 뷰잉 존이 작아서, 시청자가 3-D 영상을 볼 수 있는 하나의 특정 스폿에 앉아야 한다는 것을 의미한다. 거실용으로는, 이것은 결코 최적이 아닌데, 그 이유는 단지 하나의 시청자만이 단지 한 스폿에 낮을 때만, 3-D 영상을 볼 수 있기 때문이다.
도5는 미국 특허 US5,969,850호로부터 공지된 바와 같은 장치를 개략적으로 도시한다. 이러한 장치에서, 동적 패러랙스 베리어(51), 즉, 베리어 슬릿들이 스크린에 걸쳐 이동하는 패러랙스 베리어를 사용함으로써 좁은 뷰잉 존 문제에 대한 해결책이 제공된다. 패러랙스 베리어 이동들이 스크린에 걸쳐 스캐닝될 때, 많은 수의 뷰들(N 뷰들)이 생성된다. 많은 수의 뷰들을 제공하기 위하여, 이러한 영상들에 대한 데이터가 생성되어야 한다. 상기 도면들은 일부 유형들의 3-D 영상들을 예로서 도시한 것이지만, 본 발명의 범위를 국한하지 않아야 한다. 3-D 영상들을 제공하기 위하여, 특히 N-뷰 디스플레이들을 제공하기 위하여 다른 기술들이 제안되었다.
그러나, 모든 기술들 및 시스템들은 충분히 많은 뷰잉 존을 가능하게 하고 다수의 시청자들이 영상을 뷰잉하는 것을 가능하게 하기 위하여 뷰들의 수가 많아지도록(전형적으로 10 내지 100) 해야 한다. 시청자와 디스플레이된 영상 사이에 상호작용이 종종 존재하여, 넓은 범위의 가능한 뷰 포인트들을 필요로 하는 3-D 게 이밍의 경우에(영화를 보는 경우, 물체들에 대한 시청자의 뷰 포인트가 종종 제한되는 반면, 3-D 게임에서, 이것은 상기 경우보다 훨씬 적음), 상기 시스템은 또한 시청자의 동작들에 반응할 수 있어야 한다. 3-D 이미징의 경우에, 모든 시청자들 및 참여자들이 유사한 품질의 뷰들을 갖는 것이 또한 가장 중요한데, 그렇지 않은 경우, 게임은 "다중-사용자"로서 판매될 수 없는데, 그 이유는 스크린 앞의 우측에 앉은 사람은 더 높은 정확도 또는 속도의 뷰를 가져서, 그 사람이 게임을 승리할 가능성이 더 많고, 이것은 (아마도 승리자를 제외하고는) 수용되지 않기 때문이다.
그래서, 품질이 동일한 많은 수의 뷰들이 상이한 뷰들에 대해 실시간에 유사한 품질로 렌더링되어야 한다. 본 발명의 이 목적은 N 개의 영상들에 대한 데이터를 렌더링하는 것에 관련된다.
도6은 3-D 및 3-D 디스플레이들 둘 다에 대한 3-D 이미징에서의 현재 렌더링 방법들을 도시한다. 게임 동안, 3-D 모델(61)은 동적으로 변화하는 특정 상태들로 특정 위치들에서 모든 물체들을 포함한다. 상기 모델은 카메라 뷰 포인트 또는 뷰 포인트들(63)과 함께 렌더 파이프(렌더러)(62) 내로 공급된다. 통상적인 3-D 디스플레이의 경우에, 렌더 파이프(61)는 단일 영상을 생성한다. 렌더링 파이프에 의해 렌더링되는 영상 데이터(64)는 디스플레이 장치(65)에 전송된다.
3-D 디스플레이를 위하여, 렌더 파이프는 N개의 영상들을 산출한다. 간단한 스테레오 디스플레이들을 위해선 N=2인 반면에, 오토스테로오스코픽 3-D 디스플레이들을 위해선 N은 이보다 크며(N~10), 장차의 3-D 디스플레이를 위해선, N~100일것으로 예측된다. 본 발명은 가장 넓은 의미에서 N=2인 경우에 적용될 수 있지만, 특히 N~뷰(N~10 내지 N~100 또는 그 이상) 디스플레이 장치들에 대해서 유용하다.
현재 렌더링 파이프들은 2개 이상의 풀 모노스코픽 파이프들을 포함하지 않으며, 오히려 단일 모노스코픽 파이프가 템포럴 멀티플렉스에 사용된다. 이는 프레임-레이트(초당 영상들의 수)의 댓가를 치르고 어떠한 계산 트레이드-오프도 가능하게 된다(예를 들어, 어떤 프레임 레이트를 유지하기 위하여 레쥴루션의 감소).
높은 N에서의 렌더 파이프의 부담은 최대가 된다. 3-D 렌더링에서, N=2인 경우만이 현재 사용되어 3-D 고글들(goggles)을 토대로 단지 상업적으로 입수가능한 3-D 디스플레이들을 지원한다.
렌더링하는데 있어 가장 현저한 특징들 중 하나는 앞에 있는 물체들이 다른 멀리 떨어진 물체들을 보이지않게 한다는 것이다. 현재, 이는 소위 프레임/Z-버퍼 방법을 통해서 렌더링 파이프들로 구현된다는 것이다. 3-D 모델에서 각 물체는 (적어도)칼라(RGB) 및 깊이 값(Z)을 갖는 요소들의 세트의 형태로 텍스쳐 스테이지를 유지한다. 오클루젼 시맨틱스 스테이지는 매 요소의 Z-값들을 Z-버퍼내의 적절한 값들과 비교한다. 요소의 Z-값이 더욱 작으면(현재 물체보다 시청자에게 더욱 밀접한 물체), 요소의 RGB 및 Z-값은 프레임 및 Z-버퍼 각각에서 복제된다. 이 방법은 -∞로 충전된 Z-버퍼 및 블랙 프레임 버퍼로 시작하는데, 이 후에 모든 물체들은 파이프를 통해서 입력된다. 최종적으로, 프레임 버퍼는 랜더링 파이의 출력으로서 작용하는 영상을 포함한다. Z-버퍼의 최종 내용들은 사용되지 않는다. 원리적으로, 프레임 및 Z-버퍼 모두는 소위 "영상 +깊이" 데이터 구조를 형성하는데, 이는 매 요소 또는 픽셀이 깊이 Z로서 칼라 데이터 RGB 둘 다를 갖는다. 프레임 버퍼에서 RGBZ 데이터로부터 적절한 처리량으로 일부 다른 뷰 포인트들에 대해서영상들을 렌더링할 수 있다. 그러나, 이 유형의 부가적인 뷰 포인트 렌더링은 실질적인 결점들: 즉 남아 있는 뷰 포인트들을 위하여 랜더링되는 영상들의 품질은 메인 뷰 포인트의 품질보다 낮고, 남아있는 뷰 포인트 및 메인 뷰 포인트 간의 차가 크면 클수록 남아있는 뷰 포인트에 대한 데이터의 품질은 낮게된다. 프레임 버퍼 내의 영상은 메인 뷰 포인트로부터 보여지는 다수의 물체들을 포함한다. 이들 동일한 물체들은 또 다른 뷰 포인트로부터 영상에 있는 경우를 계산하여, 이 뷰 포인트로부터 영상을 계산할 수 있다. 그러나, 남아있는 뷰 포인트들로부터, 다른 물체들이 가시화되며, 이는 이와 같은 물체들이 프레임/Z-버퍼에 제공되지 않아 결코 정확하게 렌더링될 수 없다는 이유로 메인 뷰 포인트로부터 가시화되지 않는다. 마찬가지로, 메인 뷰 포인트로부터 도시된 바와 같은 영상에서 가시화되는 우수 물체들은 메인 뷰 포인트로부터 가시되지 않지만 다른 뷰 포인트들로부터 가시화되는 파트들을 가질 수 있다. 어느 정도로, 이와 같은 "상실 파트들(missing parts)"은 (통상 가시 파트들의 외삽에 의해) 얼마나 유사한지 그리고 메인 뷰 포인트에 근접한 뷰들에 대해서만 얼마나 유용한지를 추측할 수 있다. 예를 들어, 팔이 부분적으로 도시된 경우, 팔의 나머지 위치는 추측될 수 있고, 팔 끝에 손이 있다는 것을 상대적으로 확실하지만, 손에 무슨 무기를 갖고 있는지 팔에 대해서 어떤 위치로 위치되었는지는 알 수 없다.
그러므로, 과도한 계산력 없이 실질적으로 동일한 영상 품질을 갖는 N 영상들을 렌더링할 수 있는 시스템 및 방법을 제공하는 문제가 여전히 존재한다.
도7은 본 발명을 따른 디스플레이 장치 및 본 발명을 따른 방법의 디스플레이 장치를 위한 렌더러(렌더링 파이프)(62)를 도시한다.
렌더러(62)는 메인 뷰 포인트를 위한 Z-스택을 발생시키는 제 1 파트(70)를 포함한다. 이 파트는 이 예에서 메인 뷰 포인트 용 입력(63) 및 3-D 모델을 위한 입력(61)을 포함한다. 모든 기하형태들(물체들의 형상들 및 형태들)은 메인 뷰 포인트에 따라서 지오메트리 트랜스포머(71)에서 변환되는데, 이 데이터는 픽셀라이저(72)에서 픽셀화되는데, 즉 모든 물체들은 X,Y,Z 칼라(RGB) 및 가능한 또한 α(불투명 또는 투명)값을 갖는 픽셀들로 변환되고 텍스쳐는 텍스쳐라이저(73)에 부가된다. 메인 뷰 포인트 DOF(필드의 깊이)는 DOF 렌더러(74)에 부가된다. 이는 메인 뷰 포인트에 관한 데이터에 대해서 행해진다. 이는 부가적인 뷰 포인트들의 수(N-1)에 관계없이 메인 뷰 포인트에 대해서 단지 1회만 행해진다. 그 후, 메인 뷰 포인트에 대해 (후술되는 바와 같이 Z-스택의 형태) 데이터는 3-D 렌더링 스테이지(75)에서 베이시스로서 사용되는데, 이는 남아있는 N-1 부가적인 뷰 포인트들에 관한 데이터 용 입력 및 N-1 부가적인 뷰 포인트들에 대한 출력 N-1 Z-스택들을 렌더링한다. 오클루젼 시맨틱스 스테이지(76)에서, N-1 부가적인 뷰 포인트 Z-스택들(메인 뷰 포인트에 대한 Z-스택에서 데이터와 함께)에서 데이터는 Z-트레이싱에 의해 N개의 상이한 뷰 포인트들로부터 N 개의 영상들을 위한 N 프레임 버퍼들로 변환된다. 계산 요건들은 상대적으로 작은데, 그 이유는 최대 량의 계산력(최대 단계(74)까지)을 필요로 하는 프로세싱의 제 1 파트가 메인 뷰 포인트에 대해서만 행해지기 때문이다. 이 결과의 메인 뷰 포인트 Z-스택(이 예에서 DOF로)은 모든 다른 뷰 포인트들에 대한 베이시스이다.
본 발명을 따른 방법 및 본 발명을 따른 시스템은 N개의 고품질 뷰들의 효율적인 계산을 실행하는 반면에, 프레임/Z-버퍼들을 토대로 한 기존의 방법들은 단지 저품질 뷰들을 제공하고 완전히 독립적인 N 뷰들을 발생시키키는 것을 토대로 한 기존의 방법들은 효율적이지 않다.
도8은 상이한 뷰 포인트들에 대한 프레임 버퍼 및 Z-스택의 구성을 또한 도시한다.
3-D 모델(80)은 모든 정보, 즉 모든 물체들 및 이들의 상호 오리엔테이션을 구비한다. 전체 3-D 모델로부터, 메인 뷰 포인트를 위한 3층 Z-스택(81)이 발생된다. 이는 도8에 개요적으로 도시된 Z-스택 컨스트럭터에 의해 행해지는데, 이는 요소들을 포함하는 3개의 순차적인 버퍼들(이 예에서)의 계층 구조를 형성하는데, 여기서 각 요소(이 예에서)에 대해서, Z, I(이는 칼라를 나타낸다), 알파(이는 불투명 팩터 α를 나타낸다) 값이 저장된다. 근본적으로, Z-스택의 제 1 스택은 우선 뷰 포인트로부터 알 수 있는 모든 요소들의 Z-좌표들(및 가능한 또한 알파 정보 및 가능한 또한 부가적인 정보) 및 RGB(칼라 정보)를 포함한다. 따라서, Z-스택의 제 1층은 이들 물체들 및 우선 보여지는 물체들의 파트들을 포함하는데, 즉 뷰 포인트에 가장근접한 요소들을 포함한다. 이 예에서, 중심선(I-I)을 따른 Z-스택의 제 1 층(S1)은 물체(D)의 파트들, 물체 A의 일부 파트들, 및 물체 F의 외부 핑거들을 포함하며, 제 2 층(S2)은 동일한 라인을 따라서 물체들 B 및 C의 파트들, 물체 F의 파트들, 및 물체 A의 파트들(물체 D 뒤의 파트들)을 포함하며, 제 3 층은 물체 F( 물체 B 및 C 뒤의 파트들) 및 물체 E의 파트들을 포함한다. 메인 뷰 포인트로부터 알수 있는 바와 같이 도시된 제 1, 제 2 또는 제 3 물체라는 사실로 인해, 동일한 물체는 Z-스택에서 여러 층들의 파트를 형성할 수 있다는 점에 유의하여야 한다. Z-스택을 구성하면, 근본적으로 제 1 스택에 디스플레이되는 물체들이 모두 불투명하다면, Z-스택의 제 1 스택(S1)의 데이터를 포함하는 프레임 버퍼가 구성될 수 있다. 물체들이 투명(즉, 알파 수가 1보다 작고, α에 대한 값이 0(불투명) 내지 1(완전 투명)의 범위에 있다면)), 영상 버퍼(82)는 각 층들(S1 내지 S3)로부터 데이터의 조합을 포함한다. 영상 버퍼(82)로부터의 데이터는 직접적으로 또는 부가적인 프로세싱 후에 3-D 디스플레이로 전송된다. 도면의 파트 B에서, 원래 3-D 모델을 구성하는 모든 상이한 물체들(A 내지 E)에 대해서 적어도 일부 데이터를 여전히 포함하는 프레임 버퍼(82)로 결국 3-D 모델(80)이 유도된다. 프레임 버퍼(82)로부터 시작하여, 물체 A 뒤에 B,C,E 물체들의 형상들이 프레임 버퍼에서 가시화될 수 있는 물체들(B,C,E)의 이들 파트들을 토대로 추측되어야 한다면, 어느 정도로, 상이한 뷰들에 대한 영상을 발생시킬 수 있다. 그러나, 이것은 항상 가능한 것이 아니다. 이를 예시하기 위하여, 도8의 이 파트(C)는 물체(D)가 물체(A) 뒤에 현재 배치된다는 점에서 도8의 파트(B)에 도시된 바와 같은 상황과 다르다. Z-스택(81')은 물체(D)를 도시하는 요소들이 제 1 층(S1)의 파트를 더이상 형성하지 않고 층(S2)의 파트를 형성한다는 점에서 이 변화를 반영하다. 영상 버퍼(82')는 더이상 물체(D)의 임의 트레이스를 포함하지 않으며, 물체(D)는 더이상 프레임 버퍼(82')에 제공되지 않는다. 메인 뷰 포인트에 대한 영상(또는 프레임) 버퍼(82')를 토대로, 뷰 포인트를 다르게하는 영상들을 발생시킬 수 있지만, 이들 영상들은 영상 버퍼(82')에 제공된 물체(D)에 대한 정보(요소들)가 존재하지 않는다는 이유로 물체(D)를 포함할 수 없다. 이전 영상들을 토대로, 이와 같은 물체가 존재하거나 제공될 것 같은 경우 조차도, 물체의 실제 위치 및/또는 형상은 추측되어야 한다. 그러나, 상이한 뷰 포인트로부터, 물체(D)는 매우 양호하게 가시화될 수 있다. 이 문제에 대한 한 가지 해결책은 각 부가적인 뷰 포인트에 대해 각 뷰 포인트에 대해 완전히 분리된 렌더링 파이프를 사용하여 Z-스택을 계산(단계들 61-73(74))하는 것이다. 그러나, 이는 매우 상당한 계산력을 필요로 한다. 본 발명을 토대로 이 예에서 물체(D)와 같은 "히든" 물체들에 대한 정보는 메인 뷰 포인트에 대한 3개 이상 일반적으로 n-층 Z-스택(81')에서 제공된다는 것이다. 메인 뷰 포인트에 대해 Z-스택(81')을 사용하면 전경 물체들 뒤에 있는 다수의 물체들을 추적할 수 있다. 디스플레이에 전송되는 최종 영상이 동일한 픽셀에 위치되는 다수의 물체들을 도시한 경우조차도, 이는 또한 반투명한 물체를 정화하게 렌더링할 수 있다. 이 방식에서, 전체 3-D 모델에서 제 1 모든 화면 물체들은 Z-스택으로 렌더링된다. 그 후, Z-트레이스 방법으로서 채택된 단일 널리 공지된 프로세스는 디스플레이에 전송될 프레임 또는 영상 버퍼를 Z-스택으로부터 추출한다. 출력 영상 정보는 간단한 프로토콜에 따라서 Z-스택으로부터 픽셀마다 구성된다. 모든 물체들이 불투명 물체들이면, Z-스택의 제 1 층은 정확히 복제된다. 투명한 물체들에 대해서, 여러 층들이 병합될 수 있다.
본 발명은 도9에 부가적으로 도시되어 있다.
도9는 DOF 및 3-D 렌더링 블록의 내부 구조의 예를 도시한 것이다. 각각은 부갖거인 버퍼-스택을 갖는데, 이 스택에 이전 스테이지로부터의 결과들이 저장된다. 게다가, 둘 다는 물체-추출 유닛으로서 채택된 새로운 유닛을 갖는다.
텍스쳐 스테이지(근본적으로 3-D 모델)의 출력은 Z-스택(91)에서 렌더링되는 제 1의 Z-스택 컨스트럭터에 있다. 이 Z-스택(91)은 메인 뷰 포인트에 대해서 행해진다. 메인 뷰 Z-스택(91)은 물체 추출(92)을 위한 시작 포인트로서 사용된다. 물물체 추출은 Z-스택(91)으로부터 동일한 물체들에 속하는 이들 요소들을 추출하는 절차이다. 도8에 도시된 바와 같이, 물체는 여러 층들(S1 내지 S3)에 분포될 수 있다. 물체-추출 유닛은 스택을 통해서 탐색하고 물체들을 리어셈블한다. 물체들을 리어셈블하는 것은 동일한 물체의 요소들이 RGB 값, Z-값 및/또는 불투명도와 같은 공통적은 특성들을 갖는다는 사실을 이용하여 행해질 수 있다.
이 예에서, 물체 추출후, 메인 뷰 포인트에 대한 데이터는 DOF 렌더링된다(93). DOF(필드의 깊이) 렌더링 없이, 모든 물체들은 동일한 샤프니스로 촬상된다. 그러나, 이는 부자연스런 영상을 초래한다. 영상이 샤프하게 되는 포커스의 필드인 자연적인 영상에서, 시청자에게 근접하거나 더욱 멀리 떨어진 물체들은 초점을 벗어나서 블러링 된다. 블러링은 예를들어 물체들의 에지들 및 텍스쳐를 디포커싱, 물체들 내에서 공간적으로 텍스쳐를 재분포 및 물체 경계들 밖에 어느정도의 강도를 전달 및/또는 물체들의 최외곽 파트들을 반투명하게하는 것보다 앞서 물체 추출에 의해 행해질 수 있다. DOF 렌더링 스테이지는 이 물체를 위한 블러 유닛을 갖는다. DOF 유닛의 결과는 초점을 벗어나서 어느정도 블러링된 물체들 및 메인 뷰 포 인트를 위한 포커스 평면에서 샤프한 물체들을 포함하는 Z-스택(94)이다. DOF 블러링은 이 바람직한 실시예에서 메인 뷰 포인트를 위한 Z-스택(91)내의 데이터에 대해 수행된다. 그 후, 이 DOF 블러링을 위하여 필요로 되는 계산력이 메인 뷰 포인트 영상에 대해서만 필요로 되기 때문에 바람직하다. 엄격하게 말하면, DOF의 블러링 효과에 대한 더욱 양호한 수행성능은 DOF 블러링이 각자 모든 뷰 포인트에 대해서 행해질 때 얻어질 수 있다. 그러나, 부가적인 뷰 포인트를 위한 DOF는 메인 뷰 포인트와 상이하지 않음으로, 바람직한 실시예들에서, DOF는 메인 뷰 포인트를 위한 Z-스택(91)에 대해 수행된다. 이 Z-스택(94)은 물체들을 추출하는 물체 추출자(95)를 위한 입력이다. N개의 남아있는 뷰 포인트들 각각에 대해서 이 추출된 물체들은 메인 뷰 포인트 및 각 뷰 포인트 간의 차에 따라서 시프터(96)에서 시프트된다. 그 후, 이 시프트된 물체들은 새로운 Z-스택(Z-스택 컨스트럭터(97)에서)으로 리어셈블되어, N-1 Z 스택들을 발생시킨다. 최종적으로 3-D 렌더링 스테이지는 Z-트레이스 유닛(98)을 갖는다. 본 발명의 프레임 워크 내에서, 주요 포인트는 각 부가적인 뷰 포인트들에 대해서 메인 뷰 포인트의 Z-스택(91)을 토대로, 부가적인 뷰 포인트들에 대해 Z-스택들(97)이 구성된다는 것이다. 물체 추출(95)은 선택적이다. 그러나, 물체 추출은 매우 유용한 개념이다. 메인 뷰 포인트에 대한 원래 Z-스택(91)의 데이터가 부가적인 뷰 포인트들에 대한 Z-스택을 구성하기 위하여 변환될 때, 상대적으로 적은 물체들(예를 들어, 작은 각도 하에서 보여지는 이들 물체들)은 실질적으로 크기면에서 성장할 수 있다. 변환이 픽셀마다 행해질 때, 크기면에서 성장되는 물체들(예를 들어, 3 픽셀들 내지 10픽셀들)은 픽셀들을 상실한다. 이 상실된 픽셀들은 예를 들어 물체 추출 및 재구성에 의해 재구성될 수 있는데, 즉 어느 픽셀들이 그룹을 형성하는지를 찾아, 픽셀들의 그룹에서 홀(또는 홀들)의 존재를 검출하여, 홀(들)(RGB, Z) 내의 요소들을 맞추는 가능한 최적의 값들을 결정하고 이 홀들을 채움으로써, 그룹의 중간의 상실된 요소들을 재구성하고 물체를 "수리"한다. 이는 시프트 동작(스테이지 96) 후에 행해질 수 있다. 그러나, 즉 시프팅 단계(96)로부터 발생되는 Z-스택들 각각, 즉 부가적인 뷰 포인트들을 위한 Z-스택들(96) 각각에 대해서(간결성을 위하여, 각종 방법 단계들의 결과들이 본원에서 때때로 특정 단계에 속하는 참조 번호로 제공된다)에 대해서 재구성 프로세스 단계가 N-1회 반복되어야 한다. 물체들을 시프팅(96) 하기 전 물체 추출(95)을 수행함으로써, 물체 추출은 메인 뷰 포인트 Z-스택(94)에 대해 단지 1회 수행될 필요가 있음으로, 절차의 복잡성을 감소 및 속도를 증가시킨다.
계산될 뷰 포인트들의 수 및 메인 뷰 포인트에 대한 이들의 위치/오리엔테이션은 고정되거나 바람직하게는 디스플레이로부터 수신된 데이터를 따를 수 있다. 시스템이 부가적인 뷰 포인트들에 대한 데이터를 위한 입력(도7 참조)을 포함하는 것이 바람직하다. Z-스택 컨스트럭터(75)는 부가적인 뷰 포인트들을 위한 데이터를 구성한다 이는 또한 자동적으로 할 수 있는데, 이 경우에 이는 오토스테레오스코픽 장치들에서 뷰들일 수 있는 만큼, 즉 모든 디스플레이 장치들을 커버링하는 가능한 많은 수만큼 Z-스택들(95)을 구성한다. 이는 구성될 많은 수의 부가적인 뷰 포인트들 Z-스택들이 필요로 된다. 그러나, 이 시스템은 부가적인 뷰 포인트 Z-스택 컨스트럭터에 부가적인 뷰 포인트들에 대한 데이터를 공급하는 입력을 포함한다. 디스 플레이 장치들의 유형을 따르면, 부가적인 뷰 포인트들의 수는 가변될 수 있다. 부가적인 뷰 포인트들(메인 뷰 포인트에 대한 수 및/또는 위치/오리엔테이션)에 대한 특정 데이터를 제공하기 위한 입력을 제공함으로써, Z-스택 컨스트럭터는 요건들에 따라서 부가적인 뷰 포인트 Z-스택들을 제공하여 효율을 증가시킨다. 간단한 실시예들에서, 부가적인 뷰 포인트들에 대한 데이터는 발생될 뷰들의 수 및 최대 뷰잉 각도 범위일 수 있다.
바람직한 실시예들에서, 이 시스템은 사용자들에 대응하는 뷰 포인트를 설정하는 수단 또는 사용자들의 뷰 포인트들에 대응하는 데이터를 공급받도록 하는 수단을 포함한다. 예를 들어, 하나 이상의 플레이어가 3-D 게임에 참여할 때, 디스플레이 장치의 디스플레이 스크린에 대해서 플레이어의 정확하거나 적절한 위치를 설정하도록 예를 들어 IR 또는 초음파 센서들에 의해 디스플레이 장치에 대한 이와 같은 속성들의 위치를 설정하는 수단이 이와 같은 속성들에 제공되는 경우, 고글들, 헤드 폰들, 레이저 총들, 배지들 등의 사용은 시스템을 인에이블할 수 있다. 이와 같은 정보를 부가적인 Z-스택 컨스트럭터에 제공하면 플레이어들에 대응하는 뷰 포인트들이 고 정밀도로 또는 리프레시먼트 레이트로 처리되도록 하는 한편, 다른 뷰 포인트들을 위한 데이터가 없다면, 낮은 정밀도로 또는 리프레시먼트 레이트로 처리된다. 이것이 비용의 증가를 필요로 함이 없이 플레이어들에 대한 관련 뷰 포인트들에 대한 영상 품질 및 속도를 상당히 증가시킨다.
도10은 본 발명을 따른 방법을 도시한다. 메인 뷰 포인트를 위한 DOF 블러링된 Z-스택(94)은 물체 추출자에 공급된다. 이 예에서, 물체들은 하우스(H), 2개의 세드들(S1, S2), 그 내에 홀(예를 들어 개방된 문(d))펜스(Fe), 큰 나무(T), 및 숲(F)이다. 메인 뷰 포인트(VP1, View Point 1)에 대한 Z-스택(94)으로부터, 물체들은 물체 추출(95)에서 추출된다. 이 물체들은 시프트된다(근본적으로 x, y, z 값들은 변경되며, 이는 관련 부가적인 뷰 포인트 및 주요 뷰 포인트를 토대로 손쉽게 계산될 수 있다). 새로운 Z-스택(97)은 새롭게 시프트된 물체 데이터를 토대로 계산된다. Z-스택(97)은 부가적인 뷰들(VP2, view point 2)에 대한 영상 버퍼를 위한 베이시스이다. 원래 뷰 포인트(VP1)에서, 숲의 일부는 개구(d)를 통해서 가시화되며, 시프트된 뷰 포인트(VP2)에서, 나무(T)의 일부는 펜스 내의 개구를 통해서 가시화된다. 따라서, 이 예에서, 나무(T)의 부분이 펜스 내의 개구를 통해서 부가적인 뷰에 대해서 가시화될 수 있다는 것을 개요적으로 도시한다. VP2의 Z-스택은 메인 뷰 포인트(VP1) 및 간단한 시프팅 동작에 대한 Z-스택의 베이시스를 토대로 계산되어 많은 뷰들에 대해서 고속으로 행해질 수 있다.
본 발명이 새로운 영상을 N 회 렌더링하는 것과 비교되는 부가적인 뷰들을 위한 영상을 발생시키도록 강하게 감소된 계산력 요건들로 부가적인 뷰들을 위한 영상을 발생시키도록 하지만, 속도 증가가 희생된다. Z-스택층은 다수의 층들을 포함하는데, 이 예에서 3이다. 3개 이상의 물체들이 차례로 위치되면, 일부 물체들은 Z-스택층에 제공되지 않는데, 그 이유는 이들이 메인 뷰 포인트로부터 보여질 제 4, 제 5 등의 물체이기 때문이다. 따라서, 많은 데이터 손실이 발생될 수 있다. Z-스택이 2 내지 5층들, 가장 바람직하게는 3 내지 4층들을 포함하는 것이다. Z-스택에 층들이 많으면 많을수록, 데이터 손실 변화는 적지만, 필요로 되는 계산력은 더 높다. 본 발명가들은 층들, 즉 2-5, 바람직하게는 3-4, 가장 바람직하게는 3의 지적된 범위 내에서 최적의 절충이 실현된다.
부가적인 손실 데이터는 물체(예를 들어, 하우스의 측벽)가 오리엔트되어 메인 뷰 포인트로부터 도시되는데, 이는 단지 하나 또는 단지 작은 수의 픽셀들만을 점유한다. 뷰의 다른 포인트들로부터 뷰들상에 부여될 수 있는 디테일 량은 제공되는 경우 매우 제한된다. 바람직한 실시예들에서, 렌더러는 3-D 모델 및 다수의 n개의 주요 뷰 포인트들을 위한 입력을 갖는 초기 파트를 포함하여 칼라 정보(RGB) 및 Z-값들을 포함하는 스택층들을 포함하는 n개의 메인 뷰 포인트 Z-스택들 형태의 몰체들을 렌더링하는데, 렌더러는 초기 스테이지에 의해 발생되는 n개의 메인 뷰 포인트들 Z-스택들로부터 N-n 부가적인 뷰 포인트들에 대한 Z-스택들이 구성되는 Z-스택 컨스트럭터를더 포함하는데, 여기서 N>>n이고 부가적인 영상 정보 오클루젼 시맨틱스 스테이지는 Z-스택들로부터 영상 정보를 발생시킨다.
n개의 뷰 포인트들을 갖는 장점은 부가적인 뷰 포인트에서 물체를 구성하기 위하여 최적의 메인 뷰 포인트를 선택하도록 한다는 것이다. 이 선택은 대부분의 요소들로 표시되는 메인 뷰 포인트가 최고 디테일을 갖는 물체를 포함하는 것을 토대로 한다. 또한, 예를 들어 n개의 메인 뷰 포인트들에서 물체의 표현의 보간에 의해 조합이 행해질 수 있다. 가장 현재의 3-D 디스프레이들에서, N개의 뷰들은 수평 라인상에 배열되는 뷰 포인트들 위치들이 필요로되어 수평 룩-어라운드 캐퍼빌리터를 허용한다. 그 후, 바람직하게는 n=2가 된다.
제 1 스테이지에 필요로 되는 계산력은 2배가 되지만, 다음 단계에 대해서 다소 동일하게 유지된다. n=2 메인 뷰 포인트들은 극 좌 및 우 뷰 포인트들로서 선택될 수 있다. 이 방식으로, 각 물체는 2개의 메인 뷰들중 하나에서 각 부가적인 뷰 포인트에 대해 필요로 되는 것보다 더 디테일하게 표현된다.
유사하게, 장차의 3-D 디스플레이들은 수평 및 수직 위치들의 그리드에서 배열된 N=NxNy 뷰들을 제공하여 수직 룩-업 캐퍼빌러티를 제공한다. 그 후, 바람직하게는 n=4이며, 메인 뷰 포인트들은 그리드의 4개의 코너들, 좌상부, 우상부, 좌하부, 우하부에 대응한다.
부가적인 데이터 손실은 Z-스택들의 유한 수평 및 수직 디멘죤들으로 인해 발생될 수 있다. 물체들이 각 Z-스택 내의 상이한 위치를 갖기 때문에, 이는 Z-스택내에서 더이상 제공되지 않는 일부 뷰 포인트들에 대해서 발생된다. 이들은 가시 밖에 드롭된다. 이는 물체가 메인 뷰 포인트의 경계를 바로 넘어서 위치되어, 부가적인 뷰 포인트들에서의 구성으 디스에이블한다. 이는 n개의 메인 뷰 포인트들을 갖는 상술된 방법에 의해 해결될 수 있다. 물체가 메인 뷰 포인트들 중 하나에서 가시화되지 않으면, 다른 메인 뷰 포인트들 중 하나에서 가시화될 것이다. n=1이 사용될 때, 바람직한 다른 솔루션은 Q 엑스트라 요소들을 갖는 주 Z-스택의 (수평 및 수직) 디멘죤을 증가시키는 반면에, 모든 부가적인 Z-스택들은 자신들의 원래 디멘죤들을 유지한다. 이는 주 Z-스택이 부가적인 뷰 포인트들에 대해서만 뷰로 시프트되는 물체들을 포함하도록 보장한다. 이 경우에, 이 메인 뷰 포인트 프레임 버퍼는 또한 원래 증가되지 않은 크기를 갖는다. 증가된 디멘죤 솔루션 및 n개의 메 인 뷰 포인트 솔루션 간의 조합이 사용될 수 있다.
부가적인 데이터 손실은 메인 뷰 포인트로부터 부가적인 뷰 포인트들로 물체들의 리샘플링으로 인해 발생될 수 있다. 이는 증가된 레졸루션, 예를 들어 수평 및/또는 수직 방향에서 2개 이상의 요소들의 팩터의 메인 뷰 포인트를 가짐으로써 해결된다. 이 방식으로, 데이터 손실은 무시될 수 있다. n개의 메인 뷰 포인트들을 갖는 솔루션 내에서, 널리 공지된 슈퍼-레졸루션 기술들에 의해 n개의 정상 레졸루션 Z-스택틀로부터 더 많은 레졸루션에서 물체를 추출할 수 있다. 그러나, 이를 위한 현재 기술들은 모든 상황들에서, 예를 들어 n개의 메인 뷰 포인트들이 물체의 정확하게 동일한 정보를 포함하는 축퇴 경우(degenerate case)에 수행성능을 보장하지 못한다. 이 레졸루션은 증가되어 방법이 모든 상황들에서 수행성능을 보장하도록 한다.
본 발명의 개념 내에서 많은 변형들이 가능하다는 것이 명백하다. 당업자는 본 발명이 도시되고 상술된 바에 의해 제한되지 않는다는 것을 이해할 것이다. 본 발명은 각각 그리고 모든 신규한 특징 및 각각 그리고 모든 특성 조합된다. 청구항들에서 참조 번호들은 자신들의 보호 범위를 제한하지 않는다. 구 "포함하다" 및 이의 활용형들의 사용은 청구항들에 서술된 요소들 이외의 요소들의 존재를 배제하지 않는다. 요소 앞의 관사 "a" 또는 "an"의 사용이 다수의 이와 같은 요소들의 존재를 배제하지 않는다.
본 발명은 또한, 프로그램이 컴퓨터상에서 실행될 때 본 발명을 따른 방법을 수행하는 프로그램 코드 수단을 포함하는 임의의 컴퓨터 프로그램으로 구현될 뿐만 아니라 상기 프로그램이 컴퓨터 상에서 실행될 때 본 발명을 따른 방법을 수행하는 컴퓨터 판독가능한 매체 상에 저장된 프로그램 코드 수단을 포함하는 임의의 컴퓨터 프로그램 제품, 또한 본 발명의 특정 작용을 수행하기 위하여 본 발명에 따라서 시스템에 사용하기 위한 프로그램 코드 수단을 포함하는 임의의 프로그램 제품으로 구현된다. 본 발명을 따른 방법은 주어진 예들로 제한되지 않는다. 예를 들면, 언급되는 것은 어드레싱 수단에 공급하기 위한 데이터로 이루어지는데, 이는 어드레싱 수단에 공급되기 전 데이터가 일종의 계산 단계를 겪는다는 것을 배제하지 않는다. 예를 들어, "로우 영상 데이터"(79)를 특정 유형의 디스플레이 또는 특정 유형에 가장 적합한 포맷으로 변환시키는 일부 단계들 일 수 있거나, 이 데이터는 암호화될 수 있다. 따라서, 용어 "어드레스 수단으로의 공급을 위한"은 렌더러를 빠져나갈때 정확한 형태로 데이터가 직접 어드레싱 수단에 공급되어야 한다는 의미에 대해서 제한적으로 해석되지 않으며, 데이터는 디스플레이 스크린 상에 도시된 영상들을 토대로 어드레싱 수단으로 피딩하기 위하여 사용된다.
본 발명은 본 발명을 따른 시스템 사용하기 위한 렌더러로 구체화된다. 본 발명은 또한 3-D 디스플레이 장치의 디스플레이 스크린을 어드레스하기 위한 베이시스로서 상이한 뷰들을 위한 Z-스택들의 형태로 데이터를 렌더링하는 렌더러에 구체화된다. 이 렌더러는 예를 들어 리모트 컴퓨터 상에서 시스템 그 자체로부터 별도로 동작될 수 있다.

Claims (16)

  1. 시스템으로서,
    디스플레이 스크린을 갖는 3-D 디스플레이 장치;
    상기 디스플레이 스크린을 어드레스하는 수단; 및
    상기 어드레싱 수단에 공급하기 위한 영상 정보를 렌더링하는 적어도 하나의 뷰 포인트용 입력 및 3-D 모델용 입력을 갖는 렌더러를 포함하고,
    상기 렌더러는 칼라 정보 및 Z-값들을 포함하는 스택층들(S1, S2, S3)을 포함하는 메인 뷰 포인트 Z-스택(91, 94) 형태의 물체들을 렌더링하는 메인 뷰 포인트 및 상기 3-D 모델용 입력을 갖는 초기 파트(70)를 포함하며,
    상기 렌더러는 초기 스테이지에 의해 발생된 상기 메인 뷰 포인트 Z-스택(91, 94)으로부터, 부가적인 뷰 포인트들에 대한 Z-스택들(97)이 구성되는 Z-스택 컨스트럭터 및 상기 Z-스택들(97)로부터 영상 정보(79)를 발생시키는 부가적인 영상 정보 오클루젼 시맨틱스 스테이지를 더 포함하는, 시스템.
  2. 제 1 항에 있어서,
    상기 렌더러는 뷰 포인트 Z-스택(91, 94)으로부터 물체들의 추출을 위한 물체 추출자(95)를 포함하는, 시스템.
  3. 제 2 항에 있어서,
    상기 물체 추출자(95)는 상기 메인 뷰 포인트 Z-스택(91, 94)으로부터 물체들을 추출하기 위하여 배열되는, 시스템.
  4. 제 1 항에 있어서,
    상기 렌더러는 DOF 렌더링 스테이지(92, 93)를 포함하는, 시스템.
  5. 제 4 항에 있어서,
    상기 DOF 렌더링 스테이지는 DOF 블러링을 포함하는 상기 메인 뷰 포인트 Z-스택(94) 내로 상기 메인 뷰 포인트 Z-스택(91)의 DOF 처리를 위하여 배열되는, 시스템.
  6. 제 2 항에 있어서,
    상기 메인 뷰 포인트 Z-스택(91, 94) 데이터는 불투명도(α)에 대한 데이터를 포함하고 상기 Z-스택 컨스트럭터는 물체 추출 후 물체들의 불투명도를 적응시키는 수단을 포함하는, 시스템.
  7. 제 2 항에 있어서,
    상기 Z-스택 컨스트럭터는 또한 물체 추출 후 물체들의 RGB 값들을 적응시키는 수단을 포함하는, 시스템.
  8. 제 1 항에 있어서,
    상기 시스템은 부가적인 뷰 포인트들 상의 데이터를 위한 입력을 포함하는,시스템.
  9. 제 1 항에 있어서,
    부가적인 뷰 포인트들의 수는 10 이상인, 시스템.
  10. 제 1 항에 청구된 바와 같은 시스템에 사용하기 위한 렌더러.
  11. 3-D 디스플레이 장치의 어드레싱 수단에 공급하기 위하여 Z-스택들을 렌더링하는 렌더러.
  12. 3-D 디스플레이 장치의 어드레싱 수단에 공급될 데이터를 렌더링하는 방법으로서,
    스택층들(S1, S2, S3)을 포함하는 메인 뷰 포인트 Z-스택(94) 형태의 메인 뷰 포인트 물체들은 RGB 및 Z-값들을 포함하여 렌더링되고, 상기 메인 뷰 포인트 Z-스택(94)으로부터, 부가적인 뷰 포인트들을 위한 Z-스택들(97)이 구성되며, 상기 부가적인 뷰 포인트들을 위한 Z-스택들(97)로부터 Z-트레이싱에 의해 어드레싱 수단에 공급될 데이터(79)가 발생되는, 렌더링 방법.
  13. 제 12 항에 있어서,
    DOF 렌더링(74)은 DOF 블러링(94)으로 메인 뷰 포인트 Z-스택을 렌더링하도록 상기 메인 뷰 포인트 Z-스택(91)에서 수행되는, 렌더링 방법.
  14. 제 12 항 또는 제 13 항에 있어서,
    물체 추출(95)은 상기 메인 뷰 포인트 Z-스택(91, 94)에 대해 수행되는, 렌더링 방법.
  15. 상기 프로그램이 컴퓨터상에서 실행될 때, 본 발명에 따른 방법을 수행하는 컴퓨터 판독가능한 매체 상에 저장되는 프로그램 코드 수단을 포함하는, 컴퓨터 프로그램 제품.
  16. 본 발명을 위한 특정 기능성을 수행하기 위하여, 본 발명에 따른 시스템에 사용하기 위한 프로그램 코드 수단을 포함하는, 컴퓨터 프로그램 제품.
KR1020067005480A 2003-09-17 2004-08-31 3-d 영상 디스플레이 스크린상에 3-d 영상들을렌더링하는 시스템 및 방법 KR101095392B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP03103424.2 2003-09-17
EP03103424 2003-09-17
PCT/IB2004/051617 WO2005027052A1 (en) 2003-09-17 2004-08-31 System and method for rendering 3-d images on a 3-d image display screen

Publications (2)

Publication Number Publication Date
KR20060073962A true KR20060073962A (ko) 2006-06-29
KR101095392B1 KR101095392B1 (ko) 2011-12-16

Family

ID=34306953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067005480A KR101095392B1 (ko) 2003-09-17 2004-08-31 3-d 영상 디스플레이 스크린상에 3-d 영상들을렌더링하는 시스템 및 방법

Country Status (6)

Country Link
US (1) US7528830B2 (ko)
EP (1) EP1665166A1 (ko)
JP (1) JP4740135B2 (ko)
KR (1) KR101095392B1 (ko)
CN (1) CN100483463C (ko)
WO (1) WO2005027052A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170091710A (ko) * 2014-12-03 2017-08-09 노키아 테크놀로지스 오와이 디지털 비디오 렌더링

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090008554A1 (en) * 2004-10-22 2009-01-08 Northrop Grumman Corporation Method for infrared imaging of living or non-living objects including terrains that are either natural or manmade
EP1958459B1 (en) * 2005-12-02 2018-06-13 Koninklijke Philips N.V. Depth dependent filtering of image signal
EP2051533B1 (en) * 2007-10-19 2014-11-12 Canon Kabushiki Kaisha 3D image rendering apparatus and method
JP5055214B2 (ja) * 2007-10-19 2012-10-24 キヤノン株式会社 画像処理装置、画像処理方法
KR101367284B1 (ko) * 2008-01-28 2014-02-26 삼성전자주식회사 시점 변화에 따른 영상 복원 방법 및 장치
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
WO2009147581A1 (en) * 2008-06-02 2009-12-10 Koninklijke Philips Electronics N.V. Video signal with depth information
US20090305782A1 (en) * 2008-06-10 2009-12-10 Oberg Gregory Keith Double render processing for handheld video game device
PL2342693T3 (pl) * 2008-09-25 2012-12-31 Koninl Philips Electronics Nv Przetwarzanie danych obrazu trójwymiarowego
WO2010035223A1 (en) * 2008-09-25 2010-04-01 Koninklijke Philips Electronics N.V. Three dimensional image data processing
USRE45394E1 (en) 2008-10-20 2015-03-03 X6D Limited 3D glasses
USD603445S1 (en) 2009-03-13 2009-11-03 X6D Limited 3D glasses
USD666663S1 (en) 2008-10-20 2012-09-04 X6D Limited 3D glasses
USD624952S1 (en) 2008-10-20 2010-10-05 X6D Ltd. 3D glasses
EP2180449A1 (en) * 2008-10-21 2010-04-28 Koninklijke Philips Electronics N.V. Method and device for providing a layered depth model of a scene
CA2684513A1 (en) 2008-11-17 2010-05-17 X6D Limited Improved performance 3d glasses
US8542326B2 (en) 2008-11-17 2013-09-24 X6D Limited 3D shutter glasses for use with LCD displays
US20100245999A1 (en) * 2009-03-30 2010-09-30 Carlow Richard A Cart For 3D Glasses
CN101799930B (zh) * 2009-02-11 2012-06-13 富士通株式会社 指定颜色层提取设备和方法
USD646451S1 (en) 2009-03-30 2011-10-04 X6D Limited Cart for 3D glasses
EP2249312A1 (en) * 2009-05-06 2010-11-10 Thomson Licensing Layered-depth generation of images for 3D multiview display devices
USD672804S1 (en) 2009-05-13 2012-12-18 X6D Limited 3D glasses
USD650956S1 (en) 2009-05-13 2011-12-20 X6D Limited Cart for 3D glasses
GB2470759A (en) * 2009-06-03 2010-12-08 Sony Comp Entertainment Europe Displaying videogame on 3D display by generating stereoscopic version of game without modifying source code
USD671590S1 (en) 2010-09-10 2012-11-27 X6D Limited 3D glasses
USD669522S1 (en) 2010-08-27 2012-10-23 X6D Limited 3D glasses
USD692941S1 (en) 2009-11-16 2013-11-05 X6D Limited 3D glasses
USD662965S1 (en) 2010-02-04 2012-07-03 X6D Limited 3D glasses
EP2375761A3 (en) * 2010-04-07 2013-05-29 Sony Corporation Image synthesis apparatus, image synthesis method and program
US20120005624A1 (en) * 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
US8643569B2 (en) 2010-07-14 2014-02-04 Zspace, Inc. Tools for use within a three dimensional scene
TW201206151A (en) * 2010-07-20 2012-02-01 Chunghwa Picture Tubes Ltd Method and system for generating images of a plurality of views for 3D image reconstruction
USD664183S1 (en) 2010-08-27 2012-07-24 X6D Limited 3D glasses
KR101704685B1 (ko) * 2010-09-10 2017-02-09 삼성디스플레이 주식회사 입체 영상 변환 방법, 이를 이용한 입체 영상 표시 방법 및 상기 입체 영상 표시 방법을 수행하기 위한 입체 영상 표시 장치
US9297995B2 (en) * 2011-02-11 2016-03-29 University Of South Florida Automatic stereological analysis of biological tissue including section thickness determination
KR20130074383A (ko) * 2011-12-26 2013-07-04 삼성전자주식회사 다중-레이어 표현을 사용하는 영상 처리 방법 및 장치
USD711959S1 (en) 2012-08-10 2014-08-26 X6D Limited Glasses for amblyopia treatment
JP5901780B2 (ja) * 2012-09-19 2016-04-13 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2017532847A (ja) * 2014-09-09 2017-11-02 ノキア テクノロジーズ オーユー 立体録画及び再生
CA3086592A1 (en) 2017-08-30 2019-03-07 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display
CN107657654B (zh) * 2017-09-21 2021-11-23 北京小鸟看看科技有限公司 一种虚拟现实场景渲染方法、装置和头戴显示设备
CN111701238B (zh) * 2020-06-24 2022-04-26 腾讯科技(深圳)有限公司 虚拟画卷的显示方法、装置、设备及存储介质
KR20240082793A (ko) 2022-12-02 2024-06-11 충남대학교산학협력단 트리메톡시 스틸벤을 함유하는 미코박테리아 감염 질환의 예방 또는 치료용 약학 조성물

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9009127D0 (en) * 1990-04-24 1990-06-20 Rediffusion Simulation Ltd Image generator
EP0870282B1 (en) * 1995-07-26 2003-05-28 Apple Computer Inc. Method for a span and subspan sorting rendering system
JP3231618B2 (ja) * 1996-04-23 2001-11-26 日本電気株式会社 3次元画像符号化復号方式
GB9715397D0 (en) * 1997-07-23 1997-09-24 Philips Electronics Nv Lenticular screen adaptor
US6363170B1 (en) * 1998-04-30 2002-03-26 Wisconsin Alumni Research Foundation Photorealistic scene reconstruction by voxel coloring
US6456285B2 (en) * 1998-05-06 2002-09-24 Microsoft Corporation Occlusion culling for complex transparent scenes in computer generated graphics
US6515662B1 (en) * 1998-07-16 2003-02-04 Canon Kabushiki Kaisha Computer apparatus for providing stereoscopic views from monographic images and method
US6771264B1 (en) * 1998-08-20 2004-08-03 Apple Computer, Inc. Method and apparatus for performing tangent space lighting and bump mapping in a deferred shading graphics processor
JP4772952B2 (ja) * 2000-08-28 2011-09-14 株式会社バンダイナムコゲームス 立体視画像生成装置及び情報記憶媒体
JP3507039B2 (ja) * 2001-03-07 2004-03-15 株式会社ナムコ プログラム、情報記憶媒体及びゲーム装置
JP4348028B2 (ja) * 2001-06-12 2009-10-21 株式会社リコー 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170091710A (ko) * 2014-12-03 2017-08-09 노키아 테크놀로지스 오와이 디지털 비디오 렌더링

Also Published As

Publication number Publication date
EP1665166A1 (en) 2006-06-07
CN1853200A (zh) 2006-10-25
JP4740135B2 (ja) 2011-08-03
KR101095392B1 (ko) 2011-12-16
US20070057944A1 (en) 2007-03-15
US7528830B2 (en) 2009-05-05
WO2005027052A1 (en) 2005-03-24
CN100483463C (zh) 2009-04-29
JP2007506172A (ja) 2007-03-15

Similar Documents

Publication Publication Date Title
KR101095392B1 (ko) 3-d 영상 디스플레이 스크린상에 3-d 영상들을렌더링하는 시스템 및 방법
US10715782B2 (en) 3D system including a marker mode
US9083963B2 (en) Method and device for the creation of pseudo-holographic images
Schmidt et al. Multiviewpoint autostereoscopic dispays from 4D-Vision GmbH
US8228327B2 (en) Non-linear depth rendering of stereoscopic animated images
EP1967016B1 (en) 3d image display method and apparatus
JP6517245B2 (ja) 三次元画像を生成するための方法及び機器
CN105959664B (zh) 基于场景内容的预定三维视频设置的动态调整
US9438886B2 (en) Parallax scanning methods for stereoscopic three-dimensional imaging
US20060171028A1 (en) Device and method for display capable of stereoscopic vision
CN105723705B (zh) 用于自动立体多视图显示器的图像的生成
Hill et al. 3-D liquid crystal displays and their applications
US10122987B2 (en) 3D system including additional 2D to 3D conversion
Surman et al. Towards the reality of 3D imaging and display
JP2005175539A (ja) 立体映像表示装置及び映像表示方法
JP2012134885A (ja) 画像処理装置及び画像処理方法
Hast 3D Stereoscopic Rendering: An Overview of Implementation Issues
Ludé New Standards for Immersive Storytelling through Light Field Displays
KR20070089554A (ko) 입체 영상 처리 장치
Yendo et al. Ray-space acquisition and reconstruction within cylindrical objective space
Brettle et al. Stereo Rendering: An Overview
KR20110060756A (ko) 3차원 영상 디스플레이 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee