KR20130132922A - Multi-sample resolving of re-projection of two-dimensional image - Google Patents

Multi-sample resolving of re-projection of two-dimensional image Download PDF

Info

Publication number
KR20130132922A
KR20130132922A KR1020137018730A KR20137018730A KR20130132922A KR 20130132922 A KR20130132922 A KR 20130132922A KR 1020137018730 A KR1020137018730 A KR 1020137018730A KR 20137018730 A KR20137018730 A KR 20137018730A KR 20130132922 A KR20130132922 A KR 20130132922A
Authority
KR
South Korea
Prior art keywords
pixel
sample
dimensional
reprojection
samples
Prior art date
Application number
KR1020137018730A
Other languages
Korean (ko)
Other versions
KR101741468B1 (en
Inventor
배리 엠. 제노바
Original Assignee
소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/986,854 external-priority patent/US8619094B2/en
Priority claimed from US12/986,872 external-priority patent/US9183670B2/en
Priority claimed from US12/986,827 external-priority patent/US8514225B2/en
Priority claimed from US12/986,814 external-priority patent/US9041774B2/en
Application filed by 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨 filed Critical 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨
Publication of KR20130132922A publication Critical patent/KR20130132922A/en
Application granted granted Critical
Publication of KR101741468B1 publication Critical patent/KR101741468B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

본 발명에 따르면, 2차원 화상의 재투영의 다중 샘플 분석이 개시된다. 2차원 화상의 하나 이상의 샘플이 3차원 재투영의 각 화소에 대해 식별된다. 하나 이상의 샘플 커버리지의 양은 재투영의 각 화소에 대해 결정된다. 각 커버리지의 양은 대응하는 2차원 샘플에 의해 커버되는 화소의 영역을 식별한다. 최종값은 가중된 샘플 커버리지 양에 따라 화소와 연관된 각 2차원 샘플을 결합하는 것에 의해 재투영의 각 화소에 대해 분석된다.In accordance with the present invention, multiple sample analysis of reprojection of a two-dimensional image is disclosed. One or more samples of the two-dimensional image are identified for each pixel of the three-dimensional reprojection. The amount of one or more sample coverages is determined for each pixel of the reprojection. The amount of each coverage identifies the area of the pixel covered by the corresponding two-dimensional sample. The final value is analyzed for each pixel of the reprojection by combining each two-dimensional sample associated with the pixel according to the weighted sample coverage amount.

Description

2차원 화상의 재투영의 다중 샘플 분석{MULTI-SAMPLE RESOLVING OF RE-PROJECTION OF TWO-DIMENSIONAL IMAGE}Multi-Sample Analysis of Reprojection of Two-Dimensional Images {MULTI-SAMPLE RESOLVING OF RE-PROJECTION OF TWO-DIMENSIONAL IMAGE}

관련 출원에 대한 상호 참조Cross-reference to related application

본 출원은, "DYNAMIC ADJUSTMENT OF PREDETERMINED THREE-DIMENSIONAL RE-PROJECTION SETTINGS BASED ON SCENE CONTENT"라는 명칭으로 2011년 1월 7에 출원하여 공동 양도되고 공동 계류 중인 출원번호 제12/986,814호(대리인 정리번호 SCEA10052US00)에 관한 것이다.This application is filed and filed on January 7, 2011, entitled "DYNAMIC ADJUSTMENT OF PREDETERMINED THREE-DIMENSIONAL RE-PROJECTION SETTINGS BASED ON SCENE CONTENT," ).

본 출원은, "SCALING PIXEL DEPTH VALUES OF USER-CONTROLLED VIRTUAL OBJECT IN THREE-DIMENSIONAL SCENE"이라는 명칭으로 2011년 1월 7일에 출원하여 공동 양도되고 공동 계류 중인 출원번호 제12/986,827호(대리인 정리번호 SCEA10053US00)에 관한 것이다.This application is filed and filed on January 7, 2011, entitled "SCALING PIXEL DEPTH VALUES OF USER-CONTROLLED VIRTUAL OBJECT IN THREE-DIMENSIONAL SCENE," SCEA10053US00).

본 출원은 "MORPHOLOGICAL ANTI-ALIASING (MLAA) OF A RE-PROJECTION OF A TWO-DIMENSIONAL IMAGE"라는 명칭으로 2011년 1월 7일에 출원하여 공동 양도되고 공동 계류 중인 출원번호 제12/986,854호(대리인 정리번호 SCEA10054US00)에 관한 것이다.This application is filed on January 7, 2011, entitled "MORPHOLOGICAL ANTI-ALIASING (MLAA) OF A RE-PROJECTION OF A TWO-DIMENSIONAL IMAGE," Control number SCEA10054US00).

기술 분야Technical field

본 발명의 실시예는 2차원 화상의 3차원 재투영의 다중 샘플 분석 방법에 관한 것이다.Embodiments of the present invention relate to a method for analyzing multiple samples of three-dimensional reprojection of two-dimensional images.

서로 다른 많은 기술에 의해 3차원에서 2차원 화상을 지각하는 능력은 지난 수년간 상당히 널리 알려져 왔다. 심도의 양태를 2차원 화상에 제공함으로써, 임의의 예시된 장면에 대하여 현장감을 잠재적으로 생성하게 된다. 이러한 3차원 시각적 표현을 도입함으로써, 관찰자 경험을 크게 향상시켰으며, 특히 비디오 게임의 영역에서 그러하다.The ability to perceive two-dimensional images in three dimensions by many different techniques has been fairly widely known over the years. By providing aspects of depth to the two-dimensional image, it potentially creates a sense of presence for any illustrated scene. Introducing this three-dimensional visual representation greatly enhances the observer experience, especially in the area of video games.

소정의 화상의 3차원 렌더링을 위한 다수의 기술이 존재한다. 가장 최근에는, 심도 화상 기반 렌더링(depth-image-based rendering: DIBR)으로서 알려진 2차원 화상(들)을 3차원 공간에 투영하는 기술이 제안되었다. "입체" 비디오의 기본 개념, 즉, 2개의 별도의 비디오 스트림 - 하나는 좌안용이며 나머지 하나는 우안용임 - 의 캡처링, 송신, 및 표시에 종종 의존하였던 이러한 제안과는 대조적으로, 이러한 새로운 사상은 더욱 유연한 모노스코픽 비디오(즉, 단일 비디오 스트림) 및 연관된 화소당 심도 정보의 결합 송신에 기초한다. 이 데이터 표현으로부터, 3D 장면의 하나 이상의 "가상" 뷰를, 소위 DIBR 기술들에 의해 수신기측에서 실시간으로 생성할 수 있다. 이러한 3차원 화상 렌더링에 대한 새로운 방안은 이전의 방안들에 비해 여러 장점들을 제시한다.There are a number of techniques for three-dimensional rendering of a given image. Most recently, a technique has been proposed for projecting two-dimensional image (s) in three-dimensional space, known as depth-image-based rendering (DIBR). In contrast to this proposal, which often relied on the basic concept of "stereo" video, namely, two separate video streams, one for the left eye and the other for the right eye, often this idea Is based on a more flexible monoscopic video (ie, a single video stream) and associated transmission of associated per-pixel depth information. From this data representation, one or more "virtual" views of the 3D scene can be generated in real time at the receiver side by so-called DIBR techniques. This new approach to 3D image rendering offers several advantages over previous approaches.

2개의 개별적인 화상을 관찰자에게 제시하여 심도 환영(illusion of depth)을 생성하는 데에는 일반적으로 2가지 방식이 있다. 3D 화상을 스크린 상으로 투영하는 데 흔히 사용되는 시스템에서는, 좌안 화상과 우안 화상을 위한 2개의 개별적인 동기 프로젝터들이 있다. 양안을 위한 화상들은 스크린 상으로 동시에 투영되지만, 직교 편광이 있으며, 예를 들어, 좌안 화상을 위한 수직 편광과 우안 화상을 위한 수평 편광이 있다. 관찰자는 좌안과 우안을 위해 적절하게 편광된(예를 들어, 좌안을 위해 수직으로 편광되고 우안을 위해 수평으로 편광된) 렌즈를 구비하는 특별한 편광 3D 관찰 안경을 착용한다. 렌즈와 화상의 편광 때문에, 관찰자는 좌안으로는 좌안 화상만을 지각하고 우안으로는 우안 화상만을 지각한다. 심도 환영의 정도는 부분적으로 스크린 상에서의 두 개의 화상 간의 오프셋의 기능이다.There are generally two ways of presenting two separate images to the observer to produce an illusion of depth. In a system commonly used to project 3D images onto a screen, there are two separate synchronous projectors for the left eye image and the right eye image. Images for both eyes are simultaneously projected onto the screen, but there is orthogonal polarization, for example vertical polarization for the left eye image and horizontal polarization for the right eye image. The observer wears special polarized 3D viewing glasses with lenses that are properly polarized for the left and right eyes (eg, vertically polarized for the left eye and horizontally polarized for the right eye). Because of the polarization of the lens and image, the observer perceives only the left eye image with the left eye and only the right eye image with the right eye. The degree of depth illusion is partly a function of the offset between the two pictures on the screen.

3D 비디오 시스템에서, 좌안 화상과 우안 화상은 비디오 디스플레이 스크린에 의해 표시되지만 동시에 정확하게 표시되지는 않는다. 대신에, 좌안 화상과 우안 화상은 교번 방식으로 표시된다. 관찰자는, 우안 화상이 표시될 때 좌안을 셔터 차단하고 그 반대의 경우로도 차단하는 활성 셔터 안경을 착용한다.In a 3D video system, the left eye picture and the right eye picture are displayed by the video display screen but are not displayed correctly at the same time. Instead, the left eye image and the right eye image are displayed in an alternating manner. The observer wears active shutter glasses that block the left eye when the right eye image is displayed and vice versa.

3D 비디오의 경험은 인간 시각의 특성에 다소 의존할 수 있다. 예를 들어, 인간의 눈은 구별된 개수의 광 수용기들을 갖지만, 인간은 심지어 주변 시야에서도 어떠한 화소들도 구별하지 못한다. 더욱 놀라운 점은, 인간 망막에서의 색 감지 원뿔체들(color-sensitive cones)의 개수가 개인들 간에 급격하게 다를 수 있으며 최대 40까지 다를 수 있다는 점이다. 그럼에도 불구하고, 사람들은 색들을 동일한 방식으로 지각하는 것으로 보이며, 우리는 본질적으로 뇌를 이용하여 본다. 또한, 인간의 시계는 원뿔체 폭의 일부에서 사물의 정렬을 알아내는 능력(초시력)을 갖고 있다. 이는 왜 공간 에일리어싱 아티팩트(aliasing artifact)(즉, 시각적 불규칙성)가 색 오차보다 뚜렷한지를 설명해준다.The experience of 3D video may depend somewhat on the characteristics of human vision. For example, the human eye has a distinct number of light receptors, but a human cannot distinguish any pixels even in the surrounding field of view. More surprisingly, the number of color-sensitive cones in the human retina can vary dramatically between individuals and up to 40. Nevertheless, people seem to perceive colors in the same way, and we essentially use the brain. In addition, the human watch has the ability (super vision) to determine the alignment of objects at a fraction of the cone's width. This explains why spatial aliasing artifacts (ie, visual irregularities) are more pronounced than color errors.

이러한 사실로 인해, 그래픽 하드웨어 판매자들은 색 정확성을 공간 연속성에 대하여 조절함으로써 에일리어싱 아티팩트를 보상하는 데 상당히 노력한다. 디지털 카메라의 집적 성질과 마찬가지로 가중 색 샘플들을 혼합하는 것에 기초하여 다수의 기술들이 하드웨어에서 지원된다.Because of this fact, graphics hardware vendors make great efforts to compensate for aliasing artifacts by adjusting color accuracy to spatial continuity. As with the integration nature of digital cameras, a number of techniques are supported in hardware based on mixing weighted color samples.

물론, 어떠한 에일리어싱 아티팩트도, 표시 해상도와 샘플링 레이트가 증가하면, 결국에는 사라지게 된다. 에일리어싱 아티팩트는, 또한, 화소당 다수의 샘플들을 컴퓨팅하고 평균화함으로써 저 해상도에서 다룰 수 있다. 그러나, 여전히 대부분의 화상 렌더링 알고리즘들에 있어서, 이들 솔루션은 하드웨어 제약으로 인해 매우 실현 가능하지 않을 수 있다.Of course, any aliasing artifacts will eventually disappear as the display resolution and sampling rate increase. Aliasing artifacts can also be handled at low resolutions by computing and averaging multiple samples per pixel. However, for still most image rendering algorithms, these solutions may not be very feasible due to hardware constraints.

본 발명의 실시예들은 이러한 관점 내에서 이루어진 것이다.Embodiments of the invention have been made within this context.

도 1a 내지 도 1d는 관찰자의 인식된 심도에서 대응하는 3차원 화소들 간 거리가 가질 수 있는 효과를 도시한 개략도;
도 2a 내지 도 2c는 2차원 화상의 3차원 재투영에서 심도 티어링(depth tearing)의 효과를 도시한 개략도;
도 3a 내지 도 3c는 종래 기술에 따른 2차원 화상의 3차원 재투영의 다중 샘플 분석 방법을 도시한 개략도;
도 4는 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 다중 샘플 분석 방법을 도시하는 흐름도;
도 5a 내지 도 5b는 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 다중 샘플 분석 방법을 도시한 개략도;
도 5c는 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 다중 샘플 분석에서 화소 샘플들 간의 중첩을 도시한 개략도;
도 6은 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 다중 샘플 분석 장치를 도시한 블록도;
도 7은 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 다중 샘플 분석 장치의 셀 프로세서 구현의 일례를 도시한 블록도;
도 8은 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 다중 샘플 분석을 구현하기 위한 명령들을 갖는 비일시적 컴퓨터 판독가능 저장 매체의 일례를 도시한 도면.
1A-1D are schematic diagrams illustrating the effect that distances between corresponding three-dimensional pixels may have on an observer's perceived depth;
2A-2C are schematic diagrams illustrating the effect of depth tearing on three-dimensional reprojection of a two-dimensional image;
3A-3C are schematic diagrams illustrating a multi-sample analysis method of three-dimensional reprojection of a two-dimensional image according to the prior art;
4 is a flowchart illustrating a multi-sample analysis method of three-dimensional reprojection of a two-dimensional image according to an embodiment of the present invention;
5A-5B are schematic diagrams illustrating a multi-sample analysis method of three-dimensional reprojection of a two-dimensional image according to an embodiment of the present invention;
5C is a schematic diagram illustrating superposition between pixel samples in multi-sample analysis of three-dimensional reprojection of a two-dimensional image in accordance with one embodiment of the present invention;
6 is a block diagram showing an apparatus for analyzing multiple samples of three-dimensional reprojection of a two-dimensional image according to an embodiment of the present invention;
7 is a block diagram showing an example of a cell processor implementation of a multi-sample analysis apparatus of three-dimensional reprojection of a two-dimensional image according to an embodiment of the present invention;
8 illustrates an example of a non-transitory computer readable storage medium having instructions for implementing multiple sample analysis of three-dimensional reprojection of a two-dimensional image in accordance with an embodiment of the present invention.

도입Introduction

2차원 화상의 3차원 재투영은 관찰자가 심도의 환상을 인식하도록 화상의 2개의 별개의 뷰(view)(즉, 각 눈에 하나씩)를 표시하는 것에 의해 관찰될 수 있다. 3차원 화상을 볼 때, 좌안과 우안은 심도를 가지고 단일 화소를 시뮬레이팅하기 위해 2개의 대응하는 화소(즉, 좌안 화소와 우안 화소)를 수렴시킨다. Three-dimensional reprojection of a two-dimensional image can be observed by displaying two separate views of the image (ie, one for each eye) so that the viewer recognizes the illusion of depth. When viewing a three-dimensional image, the left and right eyes converge two corresponding pixels (ie, left eye pixel and right eye pixel) to simulate a single pixel with depth of field.

도 1a 내지 도 1d는 관찰자의 인식된 심도에서 대응하는 화소들 간 거리가 가질 수 있는 영향을 도시한 개략도이다. 화소 사이즈는 시각적 디스플레이(예를 들어, 3차원 텔레비전)에서 하드웨어에 의하여 불가피하게 제한되는 디스플레이 해상도에 의해 부여되는 고정된 경계이다. 대응하는 화소의 분리 거리가 증가함에 따라 인식된 심도 위치는 스크린으로부터 점진적으로 더 멀어지게 된다.1A-1D are schematic diagrams illustrating the effect that distances between corresponding pixels may have on an observer's perceived depth. Pixel size is a fixed boundary imparted by display resolution that is inevitably limited by hardware in visual displays (eg, three-dimensional television). As the separation distance of the corresponding pixel increases, the perceived depth position gradually moves further away from the screen.

도 1a는 중첩하는 2개의 대응하는 화소를 도시한다. 이들 2개의 화소는 스크린(예를 들어, 시각적 디스플레이)의 면에 놓여있는 인식된 심도(101)를 형성할 수 있다. 대응하는 화소들이 도 1b에서 떨어져(즉, 서로 인접하게 위치되어) 성장할 때에는, 인식된 심도(101)는 강화되어 스크린으로 약간의 거리에 놓여 있다. 대응하는 화소들이 도 1c에서 더 멀리 떨어져(즉, 화소 폭만큼 분리되어) 성장할 때에는 인식된 심도(101)는 스크린으로 훨씬 더 멀리 놓여있는 것으로 보인다. 좌안 화소를 도 1d에서 우안 화소의 우측으로 가게 하는 것에 의해, 인식된 심도는 스크린보다 더 가까이 보일 수 있다. 인식된 심도는 대응하는 화소들 간의 거리에 선형 비례하지 않는다는 것을 주목하는 것이 중요하다. 그리하여, 대응하는 화소의 분리 거리의 작은 증가는 대응하는 화소와 연관된 인식된 심도의 상당한 증가를 초래할 수 있다.1A shows two corresponding pixels overlapping. These two pixels may form a perceived depth 101 lying on the side of the screen (eg, a visual display). As the corresponding pixels grow apart (ie, located adjacent to each other) in FIG. 1B, the perceived depth 101 is enhanced and lies some distance to the screen. When corresponding pixels grow farther apart (ie separated by pixel width) in FIG. 1C, the perceived depth 101 appears to lie far further into the screen. By directing the left eye pixel to the right of the right eye pixel in FIG. 1D, the perceived depth can be seen closer than the screen. It is important to note that the perceived depth is not linearly proportional to the distance between the corresponding pixels. Thus, a small increase in the separation distance of the corresponding pixel can result in a significant increase in the perceived depth associated with the corresponding pixel.

대응하는 화소의 분리 거리와 인식된 화소 심도 간의 상호 작용은 심도값의 평활한 전이를 오히려 어렵게 한다. 이것은 대응하는 화소들의 각 쌍이 화소들 간 분리 거리에 의해 결정된 특정 심도 면으로 투영되기 때문이다. 도 2a 내지 도 2c는 본 명세서에서 심도 티어링(depth tearing)이라고 언급되는 이러한 효과를 도시한 개략도이다.The interaction between the separation distance of the corresponding pixel and the perceived pixel depth makes the smooth transition of the depth value rather difficult. This is because each pair of corresponding pixels is projected to a particular depth plane determined by the separation distance between the pixels. 2A-2C are schematic diagrams illustrating this effect, referred to herein as depth tearing.

심도 티어링으로 알려진 3차원 시각적 아티팩트는 도 2a에 도시된 바와 같이 경사진 심도(sloped depth)를 가지는 3차원 요소(201)를 위치시키는 시도를 할 때 발생한다. 단일 대각면에 위치된 것으로 요소(201)를 인식하는 것이 아니라 요소는 도 2b에 도시된 바와 같이 스크린과 평행한 다중 면(203)에 위치된 것으로 인식될 가능성이 있다.Three-dimensional visual artifacts, known as depth tiering, occur when attempting to locate three-dimensional element 201 having a sloped depth as shown in FIG. 2A. Rather than recognizing element 201 as being located on a single diagonal surface, it is likely that the element is perceived to be located on multiple sides 203 parallel to the screen as shown in FIG. 2B.

이상적인 상황에서, 표시되는 화상의 해상도를 단순히 증가시키는 것은 심도 티어링의 문제를 해결할 수 있다. 그러나, 3차원 재투영의 과정이 하드웨어 제약에 의해 제한되므로, 이 솔루션은 실용적이지 않다. 그 대신, 심도 티어링의 효과는 인접한 3차원 화소의 컬러 또는 다른 화소값을 혼합/블렌딩하는 것에 의해 최소화된다. 결과는 도 2c에 도시된 바와 같이 직선 대각면이 아니라 부드러운 파형(muted waveform)(205)이다. 불완전하지만, 이것은 훨씬 더 자연스런 3차원 화상을 보는 것을 관찰자에 제공한다.In an ideal situation, simply increasing the resolution of the displayed image may solve the problem of depth tearing. However, this solution is not practical because the process of three-dimensional reprojection is limited by hardware constraints. Instead, the effect of depth tearing is minimized by mixing / blending the colors or other pixel values of adjacent three-dimensional pixels. The result is a smoothed waveform 205 rather than a straight diagonal as shown in FIG. 2C. Although incomplete, this provides the observer with a much more natural three-dimensional image.

더 평활한 심도 면을 형성하기 위해 3차원 화소를 블렌딩하기 위해, 안티 에일리어싱(anti-aliasing) 솔루션이 사용된다. 종래 기술의 안티 에일리어싱 솔루션은 추가적인 버퍼링된 데이터의 저장을 요구하는 시간적인 안티 에일리어싱을 포함한다. 예를 들어, 3D 화상의 경우에 이것은 미리 재투영된 컬러와 심도 버퍼 또는 좌안 및 우안 화상의 2개의 컬러 버퍼를 저장하는 것을 의미한다. 720P 화상에서 이것은 약 7메가바이트의 데이터에 대한 메모리 공간을 요구한다. 3D 게임이 제2 안(eye) 화상에 대해 이미 증가된 저장 버퍼를 요구하는 것을 고려하면 이것은 바로 이미 높은 메모리 압력을 더 악화시킨다.To blend three-dimensional pixels to form a smoother depth plane, an anti-aliasing solution is used. Prior art anti-aliasing solutions include temporal anti-aliasing which requires the storage of additional buffered data. For example, in the case of a 3D picture, this means storing a pre-reprojected color and depth buffer or two color buffers of left and right eye images. In a 720P picture this requires about 7 megabytes of memory space for data. Considering that the 3D game requires an already increased storage buffer for the second eye picture, this further exacerbates the already high memory pressure.

풀 스크린 안티 에일리어싱(FSAA: full screen anti-aliasing)이라고 알려진 다른 종래 기술의 솔루션은 또한 더 큰 버퍼를 요구하여 메모리 압력을 증가시킨다. FSAA는 본질적으로 바로 해상도를 증가시킨 후 스마트 다운샘플을 적용하는 것을 수반한다. 심도 티어링을 여전히 구비하는 것에 더하여 큰 문제는 더 높은 해상도의 감소된 성능이다.Other prior art solutions known as full screen anti-aliasing (FSAA) also require larger buffers to increase memory pressure. FSAA inherently involves increasing the resolution and then applying smart downsamples. In addition to still having depth tearing, the big problem is reduced performance at higher resolutions.

추가적인 솔루션은 FSAA와 유사한 다중 샘플 안티 에일리어싱(MSAA: multi sampling anti-aliasing)으로 알려져 있지만 컬러값을 선택하는 작업은 샘플 해상도보다 더 작은 해상도에서 수행된다. 이것은 처리 부하와 메모리 면에서 훨씬 더 값싼 구현을 야기한다. 일반적으로 MSAA는 화상에 추가적인 작업이 행해지기 전에 수행될 분석을 요구한다. 일반적으로 이것은 소스 화상의 후 처리로 인해 시간 재투영으로 손실된 모든 추가적인 샘플 데이터가 적용되는 것을 의미한다. 샘플 정보가 저장되는 경우에도 (전술된 고정된 샘플 위치로 인해) 이 정보에는 심도 티어링이 있다. FSAA 및 MSAA에 대한 메모리 요구조건은 시간적인 안티 에일리어싱보다 더 과도적이다.An additional solution is known as multisampling anti-aliasing (MSAA), similar to FSAA, but the selection of color values is done at a smaller resolution than the sample resolution. This results in a much cheaper implementation in terms of processing load and memory. In general, MSAA requires an analysis to be performed before additional work is done on the picture. In general, this means that any additional sample data lost due to time reprojection due to post-processing of the source picture is applied. Even if sample information is stored (due to the fixed sample location described above), this information has depth tiering. Memory requirements for FSAA and MSAA are more transient than temporal anti-aliasing.

도 3a 내지 도 3d는 종래 기술과 연관된 문제와 함께 다중 샘플링을 위한 종래 기술의 다중 샘플링 안티 에일리어싱 방법을 도시한다. 3차원 화상(즉, 좌안 뷰 또는 우안 뷰)의 각 3차원 화소는 버킷(bucket)으로 표현될 수 있다. 일반적으로, 화소 버킷은 단일 샘플만을 포함한다. 예를 들어, 발명을 제한함이 없이, 이 샘플은 3차원으로 재투영될 대응하는 2차원 화상으로부터 화소, 서브화소, 또는 임의의 화소 그룹일 수 있다. 샘플은 컬러 프로파일을 기술하는 값의 세트에 의해 특성화할 수 있다. 그리하여, 다중 샘플링을 구현하지 않는 재투영 구조에서, 3차원 화소의 컬러 프로파일은 이것이 단일 샘플을 포함하는 것을 특징으로 할 수 있다.3A-3D illustrate prior art multi-sampling anti-aliasing methods for multi-sampling with the problems associated with the prior art. Each three-dimensional pixel of the three-dimensional image (ie, left eye view or right eye view) may be represented by a bucket. In general, a pixel bucket contains only a single sample. For example, without limiting the invention, this sample may be a pixel, subpixel, or any group of pixels from the corresponding two-dimensional image to be reprojected in three dimensions. The sample can be characterized by a set of values describing the color profile. Thus, in a reprojection structure that does not implement multiple sampling, the color profile of the three-dimensional pixel may be characterized as comprising a single sample.

다중 샘플링에서, 각 화소 버킷은 하나를 초과하는 샘플을 포함하는 것이 허용된다. 일반적인 다중 샘플링 구조에서, 샘플 위치는 3차원 화소 내에 할당되고 샘플은 현재 렌더링 형상에 의해 커버되는 경우 그 위치에 기록된다. 도 3a는 2X 다중 샘플링을 구현하는 3차원 화소(301)의 행을 도시한다. 흑색 도트(dot)는 다중 샘플링 동안 사용될 각 3차원 화소(301)가 할당된 샘플 위치를 나타낸다. 2X 다중 샘플에서, 각 3차원 화소(301)는 대응하는 2차원 화상으로부터 최대 2개의 샘플을 특징으로 할 수 있다. 도시된 예는 3차원 화소마다 2개의 샘플을 사용하는 것으로 제한되지만, 임의의 개수의 샘플이 다중 샘플링 구조에 사용될 수 있다는 것을 주목하는 것이 중요하다. 나아가, 재투영 이동 방향에 따라 샘플은 임의의 방향으로부터 유도될 수 있다. 재투영 이동이 (즉, 평행 이동 카메라를 사용하여) 수평 방향으로만 발생하는 경우, 샘플은 2차원 화상의 수평 스캔으로부터 유도될 수 있다. 이 기술은 한번에 단 하나의 스캔라인이 저장될 것을 요구하므로 상대적으로 적은 메모리 오버헤드를 요구한다.In multiple sampling, each pixel bucket is allowed to contain more than one sample. In a typical multisampling structure, sample positions are assigned within three-dimensional pixels and samples are recorded at those positions if covered by the current rendering shape. 3A shows a row of three-dimensional pixels 301 implementing 2X multi-sampling. Black dots represent sample positions to which each three-dimensional pixel 301 to be used during multiple sampling is assigned. In 2X multiple samples, each three-dimensional pixel 301 may be characterized by up to two samples from the corresponding two-dimensional image. Although the example shown is limited to using two samples per three-dimensional pixel, it is important to note that any number of samples can be used in a multiple sampling structure. Furthermore, the sample may be derived from any direction depending on the reprojection direction of movement. If reprojection movement occurs only in the horizontal direction (ie using a parallel movement camera), the sample can be derived from the horizontal scan of the two-dimensional image. This technique requires only one scanline to be stored at a time, requiring relatively little memory overhead.

다중 샘플링은 2차원 화상으로부터 샘플을 3차원 재투영의 각 화소에 대한 샘플 위치에 할당한다. 그러나, 다중 샘플을 조합하여 단일 컬러 프로파일을 얻는 실제 공정은 분석(resolving)이라고 알려져 있다. 두 개의 단계가 전술된 대각면에 대해 부드러운 파형을 달성하는데 필요하다. 일반적인 분석 공정은 각 샘플의 커버리지가 3차원 화소마다 샘플의 총 개수에 비례하는 것을 가정한다. 따라서, 2X 다중 샘플링/분석에서 주어진 3차원 화소에서의 각 샘플은 50% 가중치가 제공되고, 이 값은 함께 더해진다. 그래서 좌측 샘플이 100% 적색이고 우측 샘플이 100% 청색이라면, 3차원 화소는 50% 적색과 50% 청색(또는 일종의 보라색(purple color))의 컬러 프로파일을 취한다. 유사하게는, 4X 다중 샘플링/분석으로 처리하는 경우, 각 샘플은 25% 가중치를 운반한다. 다른 블렌드 조합이 사용될 수 있으나 분석되는 화소로부터 샘플 포인트의 고정된 위치에서 벗어날 수 있다.Multisampling assigns a sample from a two-dimensional image to the sample position for each pixel of the three-dimensional reprojection. However, the actual process of combining multiple samples to obtain a single color profile is known as resolving. Two steps are necessary to achieve a smooth waveform for the diagonal described above. The general analysis process assumes that the coverage of each sample is proportional to the total number of samples per 3D pixel. Thus, each sample in a given 3D pixel in 2X multiple sampling / analysis is given a 50% weight, and these values are added together. So if the left sample is 100% red and the right sample is 100% blue, the 3D pixel takes a color profile of 50% red and 50% blue (or some sort of purple color). Similarly, when processed with 4X multiple sampling / analysis, each sample carries 25% weight. Other blend combinations may be used but may deviate from the fixed position of the sample point from the pixel being analyzed.

종래 기술의 다중 샘플링 방법에 따른 문제는 주어진 3차원 화소 내에 샘플 위치의 실제 위치가 있다는 것이다. 도 3b 내지 도 3d는 2X 다중 샘플링/분석의 문맥에서 이 문제를 도시한다. 이 예에서, 2차원 화상으로부터 각 샘플은 2차원 화상으로부터 개별 화소일 수 있다. 3차원 재투영(301)의 각 화소는 최대 2개의 상이한 샘플로 표현될 수 있다. 각 3차원 화소 내 샘플 위치는 고정된다.The problem with the multiple sampling method of the prior art is that there is an actual position of the sample position within a given three-dimensional pixel. 3b to 3d illustrate this problem in the context of 2 × multiple sampling / analysis. In this example, each sample from the two-dimensional image can be a separate pixel from the two-dimensional image. Each pixel of the three-dimensional reprojection 301 may be represented by up to two different samples. The sample position in each three-dimensional pixel is fixed.

도 3b에서, 2개의 흑색 화소 샘플(303A, 303B) 이후에 우측으로 재투영되는 2차원 화상의 2개의 백색 화소 샘플(305A, 305B)이 따라온다. 제1 흑색 화소(303A)는 행(301)에서 제1 (가장 좌측) 재투영 화소(301A)의 좌측 샘플 위치를 커버한다. 제2 흑색 화소(303B)는 제1 재투영 화소의 우측 샘플 위치와 제2 재투영 화소(301B)의 좌측 샘플 위치를 커버한다. 제1 백색 화소(305A)는 제2 재투영 화소(301B)의 우측 샘플 위치와 제3 재투영 화소(301C)의 좌측 샘플 위치를 커버한다. 제2 백색 화소(305B)는 제3 재투영 화소(301C)의 우측 샘플 위치와 제4 재투영 화소(301D)의 좌측 샘플 위치를 커버한다. 이 예를 위하여, 제4 재투영 화소(301D)의 우측 샘플 위치는 초기값(예를 들어, 무색 또는 백색)이 할당될 수 있는데, 이것은 2차원 화상으로부터 대응하는 화소값이 할당되지 않기 때문이다. 각 샘플 위치가 주어질 때 50% 가중치는 제1 재투영 화소(307A)가 흑색을 양산하게 하는데 그 이유는 이 화소에 대한 샘플 위치는 흑색 화소값으로 커버되기 때문이다. 제2 재투영 화소(307B)는 회색(grey)(즉, 50% 백색과 50% 흑색)으로 분석되는데 그 이유는 이 화소에 대한 하나의 샘플 위치는 흑색 화소로 커버되고 다른 것은 백색 화소로 커버되기 때문이다. 분석된 화소 행(307)에서 제3 재투영 화소(307C)는 백색으로 분석되는데 그 이유는 이 화소에 대한 두 샘플 위치는 백색 화소값으로 커버되기 때문이다. 분석되는 화소 행(307)에서 제4 재투영 화소(307D)는 백색으로 분석되는데 그 이유는 하나의 샘플 위치는 백색 화소(307D)로 커버되고, 이 예에서, 다른 샘플 위치는 백색의 값으로 초기화되었기 때문이다. 일반적인 MSAA 구현에서 모든 샘플 점은 일부 초기값, 예를 들어, 흑색, 백색 또는 회색으로 커버될 필요성이 있다는 것이 주목된다. 구체적으로, 버퍼가 초기에 백색으로 클리어링(cleared)되는 경우 백색 화소 샘플(305A, 305B)은 무시될 수 있다. In FIG. 3B, two black pixel samples 303A and 303B are followed by two white pixel samples 305A and 305B of the two-dimensional image that are reprojected to the right. The first black pixel 303A covers the left sample position of the first (leftmost) reprojection pixel 301A in row 301 . The second black pixel 303B covers the right sample position of the first reprojection pixel and the left sample position of the second reprojection pixel 301B . The first white pixel 305A covers the right sample position of the second reprojection pixel 301B and the left sample position of the third reprojection pixel 301C . The second white pixel 305B covers the right sample position of the third reprojection pixel 301C and the left sample position of the fourth reprojection pixel 301D . For this example, the right sample position of the fourth reprojection pixel 301D may be assigned an initial value (eg, colorless or white) since no corresponding pixel value is assigned from the two-dimensional image. . Given each sample position, the 50% weight causes the first reprojected pixel 307A to produce black because the sample position for this pixel is covered with a black pixel value. The second reprojection pixel 307B is analyzed to be gray (ie 50% white and 50% black) because one sample location for this pixel is covered with black pixels and the other with white pixels. Because it becomes. In the analyzed pixel row 307 the third reprojection pixel 307C is analyzed as white because the two sample positions for this pixel are covered with white pixel values. In the pixel row 307 being analyzed, the fourth reprojection pixel 307D is analyzed as white because one sample location is covered by the white pixel 307D , and in this example, the other sample location is a white value. Because it is initialized. It is noted that in a typical MSAA implementation all sample points need to be covered with some initial value, for example black, white or grey. Specifically, white pixel samples 305A and 305B may be ignored when the buffer is initially cleared to white.

도 3c에서, 화소(303A, 303B, 305A, 305B)는 우측으로 약간 이동되었다. 그러나, 이 이동은 행(301)에서 샘플 위치의 커버리지가 변하지 않을 만큼 충분히 작다. 구체적으로, 제1 재투영 화소(301A)에서 샘플 위치는 흑색 화소(303A, 303B)로 커버되고, 제2 재투영 화소에서 샘플 위치는 흑색 화소(303B)와 백색 화소(305A)로 커버되고, 제3 재투영 화소(301C)에서 샘플 위치는 백색 화소(305A, 305B)로 커버되고, 제4 화소(301D)에서 하나의 샘플 위치는 백색 화소(305B)로 커버되고, 다른 것은 커버되지 않고 백색으로 초기화된다. 그 결과, 분석된 화소 행(307)에서 화소(307A, 307B, 307C, 307D)는 도 3b에서와 같이 다시 흑색, 회색, 백색 및 백색으로 각각 분석된다. 재투영 화소(301A, 301B, 301C, 301D)는 고정된 샘플 위치를 가지고 있으므로, 2차원 화상의 재투영에서의 작은 이동은 2차원 화소(303A, 303B, 305A, 305B)가 우측으로 이동할 때 재투영 화소의 값 프로파일을 변경시키지 않는다.In Fig. 3C, the pixels 303A, 303B, 305A, and 305B have been slightly moved to the right. However, this movement is small enough that the coverage of the sample position in row 301 does not change. Specifically, the sample position in the first reprojection pixel 301A is covered by the black pixels 303A and 303B, and the sample position in the second reprojection pixel is covered by the black pixel 303B and the white pixel 305A , In the third reprojection pixel 301C , the sample position is covered with the white pixels 305A, 305B , and in the fourth pixel 301D , one sample position is covered with the white pixel 305B , and the other is not covered, but white Is initialized to As a result, the pixels 307A, 307B, 307C, and 307D in the analyzed pixel row 307 are again analyzed as black, gray, white, and white as shown in FIG. 3B. Since the reprojection pixels 301A, 301B, 301C, and 301D have fixed sample positions, small movements in the reprojection of the two-dimensional image are caused when the two-dimensional pixels 303A, 303B, 305A, and 305B move to the right. It does not change the value profile of the projection pixel.

그러나, 2차원 화소(303A, 303B, 305A, 305B)가 도 3c에서보다 우측으로 약간 더 이동하면, 재투영 화소(301A, 301B, 301C, 301D)에서 샘플 위치의 커버리지는 급격히 변한다. 구체적으로, 도 3d에 도시된 바와 같이 우측으로 약간 이동한 결과, 제1 및 제2 재투영 화소(301A, 301B)에서 두 샘플 위치는 이제 흑색 화소(303A, 303B)에 의해 각각 커버되고, 제3 및 제4 재투영 화소(301C, 301D)에서의 두 샘플 위치는 백색 화소(305A, 305B)에 의해 각각 커버된다. 그 결과, 제1의 2개의 분석된 재투영 화소(307A, 307B)는 흑색으로 분석되고, 제2의 2개의 분석된 재투영된 화소(307C, 307D)는 백색으로 분석된다.However, if the two-dimensional pixels 303A, 303B, 305A, and 305B move slightly further to the right than in FIG. 3C, the coverage of the sample position in the reprojected pixels 301A, 301B, 301C, and 301D changes drastically. Specifically, as a result of slightly shifting to the right as shown in FIG. 3D, the two sample positions in the first and second reprojection pixels 301A and 301B are now covered by the black pixels 303A and 303B , respectively. The two sample positions in the third and fourth reprojection pixels 301C, 301D are covered by white pixels 305A, 305B , respectively. As a result, the first two analyzed reprojected pixels 307A, 307B are analyzed in black, and the second two analyzed reprojected pixels 307C, 307D are analyzed in white.

도 3b 내지도 3d는 일반적인 2X 다중 샘플/분석 구조에서 2차원 화상의 재투영에 이산 이동이 있을 때 분석된 화소에서만 값의 차이가 있는 것을 도시한다. 분석된 3차원 화소의 값이 재투영에서 각 점진적인 이동으로 점진적으로 변환하는 것이 아니라, 일반적인 다중 샘플링/분석 방법은 컬러값과 같은 3차원 화소값에서 이산 이동만을 허용한다. 사람의 눈이 컬러를 상당히 정확하게 매치업(match up)할 수 있으므로, 이것은 인식된 심도면의 증가(즉, 보다 깊은 티어링)를 초래한다.3b to 3d show that there is a difference in values only in the analyzed pixels when there is a discrete shift in the reprojection of a two-dimensional image in a typical 2X multisample / analysis structure. Rather than gradually converting the values of the analyzed three-dimensional pixels to each gradual movement in reprojection, the general multiple sampling / analysis method allows only discrete movements in three-dimensional pixel values such as color values. Since the human eye can match up the colors fairly accurately, this results in an increase in the perceived depth plane (ie, deeper tearing).

샘플 카운트를 증가시키는 것은 관찰자에 의해 인식되는 심도면의 수를 더 크게 하면서도 3차원 화소값 프로파일을 보다 점진적으로 전이할 수 있게 한다. 시각적 아티팩트는 단일 스캔라인에서 그리 나쁘지 않다(관찰자는 전체 섹션이 약간 이동된 것만을 인식한다). 그러나, 다중 스캔라인이 사용되는 풀 화상에서 문제는 증폭된다. 다중 스캔라인에서 관찰자는 하나의 라인은 심도가 이동된 것인 반면 다른 라인은 동일한 심도에 유지되는 것을 인식할 수 있다.Increasing the sample count allows for a more progressive transition of the three-dimensional pixel value profile while increasing the number of depth planes perceived by the observer. Visual artifacts are not so bad in a single scanline (observers only notice that the entire section is slightly shifted). However, the problem is amplified in full images where multiple scan lines are used. In multiple scan lines, the observer can recognize that one line is shifted in depth while the other line remains at the same depth.

3차원 화소마다 샘플 위치의 수를 크게 증가시키는 것은 관찰자에 의해 인식되는 시각적 아티팩트의 수를 감소시킨다. 그러나, 샘플 카운트를 상당히 증가시키는 것은 시스템의 메모리 제약으로 인해 실현가능하지 않다. 예를 들어, RGBA를 사용하는 일반적인 720p 버퍼는 약 3.5M에 이른다. 3차원 화소에 제2 샘플 위치를 추가하는 것은 요구되는 메모리 양을 배가시킨다.Increasing the number of sample positions per three-dimensional pixel significantly reduces the number of visual artifacts recognized by the viewer. However, increasing the sample count significantly is not feasible due to the memory constraints of the system. For example, a typical 720p buffer using RGBA reaches about 3.5M. Adding a second sample location to the three dimensional pixel doubles the amount of memory required.

본 발명의 실시예는 재투영에서의 이동에 대해 3차원 화소 컬러 프로파일에서 보다 점진적인 전이를 형성하면서도 주어진 3차원 화소에 필요한 2차원 샘플의 수를 제한할 것을 추구한다. 본 발명의 실시예는 2개를 초과하는 샘플을 사용할 수 있다. 그러나, 수평 방향으로만 이동하는 재투영을 가지는 실시예에서 시각적 개선은 2개 대신에 4개의 샘플이 사용될 때 무시가능한 것으로 관찰되었다. 임의의 동작 이론으로 제한됨이 없이 이것은 테스트되는 실시예에서 모든 화소가 재투영시에 동일한 사이즈인 것으로 인한 것일 수 있다. 일반적인 장면에서 최대 4개의 샘플을 허용하는 경우에 2개를 초과하는 샘플을 유지할 필요가 있는 방식으로 중첩되지 않는 샘플의 패턴이 거의 없다. 수평으로 및 수직으로 화소를 재투영하는 실시예는 2개를 초과하는 샘플을 사용하여 개선된 시각적 품질을 양산할 수 있다. 본 발명의 실시예에서, 3차원 재투영에서 각 화소에 대한 화소값은 대응하는 샘플의 "커버리지"의 양에 기초하여 연산된다. 사실상, 커버리지의 양은 재투영에서 대응하는 3차원 화소값을 계산할 때 각 2차원 샘플값에 적용할 가중치를 결정하는데 사용될 수 있다.Embodiments of the present invention seek to limit the number of two-dimensional samples required for a given three-dimensional pixel while forming a more gradual transition in the three-dimensional pixel color profile for movement in reprojection. Embodiments of the invention may use more than two samples. However, in embodiments with reprojection moving only in the horizontal direction, visual improvement was observed to be negligible when four samples were used instead of two. Without being limited to any theory of operation, this may be due to all pixels being the same size upon reprojection in the embodiment being tested. When a typical scene allows up to four samples, there are few patterns of samples that do not overlap in such a way that it is necessary to hold more than two samples. Embodiments of reprojecting pixels horizontally and vertically can yield improved visual quality using more than two samples. In an embodiment of the present invention, the pixel value for each pixel in three-dimensional reprojection is calculated based on the amount of "coverage" of the corresponding sample. In fact, the amount of coverage can be used to determine the weight to apply to each two-dimensional sample value when calculating the corresponding three-dimensional pixel value in reprojection.

실시예Example

도 4는 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 다중 샘플 분석 방법을 도시하는 흐름도이다. 2차원 화상(401)이 3차원으로 재투영되기 전에, 샘플은 대응하는 3차원 화소와 사용하기 위해 식별되어야 한다(단계 403). 3차원 재투영은 실제 심도 환상을 생성하도록 수렴하는 다중 별개의 뷰(즉, 우안 뷰와 좌안 뷰)의 조합이다. 3차원 재투영의 각 뷰에 대해, 제일 먼저 2차원 샘플이 이 특정 뷰에 대해 각 3차원 화소에 대응하는지가 결정되어야 한다. 전술된 바와 같이, 샘플은 2차원 화상 내 화소, 서브 화소, 또는 화소의 임의의 다른 그룹을 말한다. 3차원 화소는 샘플의 임의의 개수가 2차원 화상에서 수행되는 재투영의 유형에 따라 좌우되는 것을 특징으로 할 수 있다. 또한, 임의의 2차원 샘플은 하나를 초과하는 3차원 화소와 중첩할 수 있다.4 is a flowchart illustrating a multi-sample analysis method of three-dimensional reprojection of a two-dimensional image according to an embodiment of the present invention. Before the two-dimensional image 401 is reprojected in three dimensions, the sample must be identified for use with the corresponding three dimensional pixel (step 403 ). Three-dimensional reprojection is a combination of multiple distinct views (ie, right eye view and left eye view) that converge to produce a real depth illusion. For each view of the three-dimensional reprojection, it must first be determined whether the two-dimensional sample corresponds to each three-dimensional pixel for this particular view. As mentioned above, a sample refers to a pixel, sub-pixel, or any other group of pixels in a two-dimensional image. The three-dimensional pixel may be characterized in that any number of samples depends on the type of reprojection performed on the two-dimensional image. In addition, any two-dimensional sample may overlap with more than one three-dimensional pixel.

3차원 화소마다 최대로 허용가능한 수를 초과하는 샘플이 있을 수 있으므로, 사용할 샘플을 선택하는 것이 있을 수 있다. 재투영할 때 샘플은 전경 대상물(foreground object)을 유지하도록 선택될 수 있다. 이것은 각 샘플에 대한 심도 테스트에 또는 병렬 이동된 카메라의 경우에 수행될 수 있고 2차원 화소 샘플의 특정 역방향 순서를 선택하여 최초 또는 최후 샘플이 기록되게 할 수 있다. 다중 샘플을 유지하는 것은 FIFO와 같은 일반적인 캐시 제거 정책(cache eviction policy)을 통해 선택하는 것에 의해 달성될 수 있다.Since there may be more than the maximum allowable number of samples per three-dimensional pixel, there may be a choice of samples to use. When reprojecting the sample may be selected to keep the foreground object. This can be done in a depth test for each sample or in the case of a camera that has been moved in parallel and can select the particular reverse order of the two-dimensional pixel samples so that the first or last sample can be recorded. Maintaining multiple samples can be accomplished by choosing through a common cache eviction policy such as FIFO.

샘플의 단순한 선택을 허용하기 위하여, 본 실시예에서는 2가지 유형의 샘플, 즉 "선두(leading)" 샘플과 "말미(trailing)" 샘플을 지정한다. 선두 샘플은 3차원 화소의 좌측 에지를 횡단(cross)하는 샘플이다. 마찬가지로, 말미 샘플은 3차원 화소의 우측 에지와 접촉하거나 이를 횡단한다. 이것은 말미 샘플로서 어느 에지와도 횡단하지 않는 샘플을 분류한다. 재투영될 때 2차원 화소의 폭이 3차원 화소의 폭과 동일한 실시예에서, 이것은 에지와 접촉하거나 이를 횡단하는 것이 보장된다. 다른 실시예는 2차원 화소의 폭이 재투영에서 화소의 폭과 동일할 것을 요구할 필요가 없다는 것이 주목된다. 예로서, 도 5a에서, 흑색 화소 샘플(503)은 화소 행(501)의 제1 화소에서는 말미 샘플이고 이 행에서 제2 화소에서는 선두 샘플이다. 4개의 샘플이 사용되는 경우에 다수의 선두 및 다수의 말미 샘플이 유지될 수 있고 커버리지 양은 다른 선두 및 말미 샘플에 기초하여 조절될 수 있다. 이렇게 하는 것은 거의 시각적 영향을 주지 않는 것으로 관찰되었다.In order to allow a simple selection of samples, this embodiment designates two types of samples, a "leading" sample and a "trailing" sample. The leading sample is a sample that crosses the left edge of the three-dimensional pixel. Similarly, the trailing sample contacts or crosses the right edge of the three-dimensional pixel. This classifies the sample as a trailing sample that does not traverse any edge. In an embodiment where the width of the two-dimensional pixel is equal to the width of the three-dimensional pixel when reprojected, it is guaranteed to contact or traverse the edge. It is noted that other embodiments do not need to require the width of the two-dimensional pixel to be the same as the width of the pixel in reprojection. For example, in FIG. 5A, the black pixel sample 503 is the last sample in the first pixel of the pixel row 501 and the leading sample in the second pixel in this row. If four samples are used, multiple leading and multiple trailing samples may be maintained and the coverage amount may be adjusted based on the other leading and trailing samples. This was observed to have little visual impact.

일단 2차원 샘플이 각 3차원 화소에 대응하는 것으로 결정되면, 각 샘플에 대한 샘플 커버리지가 결정되어야 한다(단계 405). 샘플 커버리지 양은 대응하는 2차원 샘플에 의해 커버되는 화소의 영역(area)을 말한다. 재투영 이동 방향에 따라 샘플은 임의의 방향으로부터 유도될 수 있다. 예를 들어 제한함이 없이 병렬 이동 카메라를 사용하는 3차원 재투영 시스템은 재투영 이동이 수평 방향으로만 발생하므로 2차원 화상의 수평 방향 스캔으로부터 샘플을 유도할 수 있다. 샘플 위치가 3차원 화소값을 분석하는데 사용되는 종래 기술과 대조적으로, 본 발명의 실시예는 주어진 3차원 화소와 연관된 각 샘플의 실제 커버리지 양을 추적한다. 하나의 샘플의 커버리지 양은 다른 샘플에 의해 영향을 받을 수 있다. 이것의 주요 발생은 중첩하는 샘플로부터 온다. 심도값은 통상 재투영되는 2개의 2차원 화소들 간의 차이이므로 종종 화소는 중첩된다. 전술된 바와 같이 전경 대상물에 대한 정보는 통상 배경 대상물(background object)보다 더 중요하다.Once the two-dimensional sample is determined to correspond to each three-dimensional pixel, sample coverage for each sample must be determined (step 405 ). The sample coverage amount refers to the area of the pixel covered by the corresponding two-dimensional sample. Depending on the reprojection direction of movement the sample may be derived from any direction. For example, a three-dimensional reprojection system using a parallel mobile camera without limitation can derive a sample from a horizontal scan of a two-dimensional image since the reprojection movement occurs only in the horizontal direction. In contrast to the prior art in which sample positions are used to analyze three-dimensional pixel values, embodiments of the present invention track the actual amount of coverage of each sample associated with a given three-dimensional pixel. The coverage amount of one sample may be affected by another sample. The main occurrence of this comes from overlapping samples. Since the depth value is usually the difference between two two-dimensional pixels that are reprojected, the pixels often overlap. As mentioned above, information about the foreground object is usually more important than the background object.

단계 403에서 샘플을 식별하고 단계 405에서 커버리지 양을 결정하는 것은 동시에 발생할 수 있고 샘플을 선택하는 것은 커버리지 양에 기초할 수 있다(더 높은 커버리지 양을 가지는 샘플을 유지하는 선택을 하는 것과 같이)는 것이 주목된다.Identifying the sample in step 403 and determining the coverage amount in step 405 may occur simultaneously and selecting the sample may be based on the coverage amount (such as making a choice to keep the sample with the higher coverage amount). It is noted that.

도 5c는 2개의 상이한 샘플(512, 514)의 중첩 효과와 "선두" 샘플과 "말미" 샘플의 개념을 도시한다. 2개의 대시 라인들 사이에 영역은 2개의 샘플 사이의 중첩 영역을 나타낸다. 흑색 샘플(512)은 행(501)에서 제2 화소에 대해 선두 샘플이다. 회색 샘플(514)은 제2 화소에 대해서는 말미 샘플이다. 도 5c에 도시된 샘플에서, 회색 샘플(514)은 관찰자에 더 가까운 샘플을 또한 나타낸다. 이 경우에 흑색 선두 샘플(512)의 커버리지는 회색 샘플과 커버리지 중첩의 양만큼 감소될 수 있다. 하나의 샘플의 커버리지는 다른 샘플을 완전히 제거하는 것(또는 다른 샘플의 커버리지를 제로로 감소시키는 것)이 가능하다.5C illustrates the superposition effect of two different samples 512, 514 and the concept of a "leading" sample and a "end" sample. The area between the two dashed lines represents the overlapping area between two samples. The black sample 512 is the leading sample for the second pixel in row 501 . Gray sample 514 is the last sample for the second pixel. In the sample shown in FIG. 5C, the gray sample 514 also represents a sample closer to the viewer. In this case the coverage of the black leading sample 512 can be reduced by the amount of overlap of the gray sample with the coverage. Coverage of one sample is possible to completely remove the other sample (or to reduce the coverage of another sample to zero).

모두 3차원 화소에 대응하는 모든 샘플에 대해 커버리지 양을 결정한 후에 이들 커버리지 양에 따라 최종 화소값(예를 들어, 컬러)을 분석하는 것이 수행될 수 있다(단계 407). 주어진 3차원 화소에 대해, 이 화소에 대응하는 각 샘플은 커버리지 양에 따라 가중되고 이후 최종 화소값을 생성하도록 조합될 수 있다. 최종 화소값은 화상에서 화소를 한정하는데 사용되는 임의의 데이터 채널에 대한 최종값일 수 있다. 예를 들어, 제한함이 없이 최종 화소값은 최종 컬러값일 수 있다. 그러나, 본 발명의 실시예는 최종값이 컬러값인 구현으로만 제한되는 것은 아니다.After determining coverage amounts for all samples corresponding to all three-dimensional pixels, analyzing the final pixel values (eg, color) according to these coverage amounts may be performed (step 407 ). For a given three-dimensional pixel, each sample corresponding to this pixel can be weighted according to the amount of coverage and then combined to produce the final pixel value. The final pixel value may be the final value for any data channel used to define the pixel in the image. For example, without limitation, the final pixel value may be the final color value. However, embodiments of the present invention are not limited to implementations where the final value is a color value.

최종 화소값을 분석하는데 사용되는 샘플의 가중치는 총 100%의 일반적인 재투영을 하지 않는 경우에 홀 충진(hole-filling)이 발생할 수 있다. 예를 들어, 제한함이 없이 커버리지 양은 임의의 갭(gap)을 밸런싱하는 것을 도와주는 3차원 화소의 총 커버리지로 분할될 수 있다. 주어진 3차원 화소에 대한 샘플이 전혀 없다면, 이러한 화소는 홀 충진을 통과하는 것이 허용될 수 있다. 특정 실시예에서, 도 4에 도시된 방법은 단계 408에 표시된 선택적인 홀 충진 단계를 포함할 수 있다. 일반적으로, 홀 충진은 최종값에 기여하는 모든 샘플에 대한 총 가중된 커버리지 양이 100% 미만인 임의의 화소에 대해 최종값을 조절할 수 있다. 예를 들어, 제한함이 없이 홀 충진 단계에서 인접 화소 배경값을 주어진 화소로 복사하는 것을 수반할 수 있는데 이는 통상 눈에 덜 띄기 때문이다. 일부 구현에서, 이것은 분석 동안 특정 처리 순서를 통해 단계 407에서 최종 화소값 분석의 일부로서 수행될 수 있다.The weight of the sample used to analyze the final pixel value may cause hole-filling when the total reproducing of 100% is not performed. For example, without limitation, the coverage amount can be divided into the total coverage of the three-dimensional pixels to help balance any gap. If there are no samples for a given three dimensional pixel, such a pixel may be allowed to pass through hole filling. In a particular embodiment, the method shown in FIG. 4 may include an optional hole filling step indicated in step 408 . In general, hole filling can adjust the final value for any pixel where the total weighted coverage amount for all samples contributing to the final value is less than 100%. For example, without limitation, it may involve copying adjacent pixel background values to a given pixel in the hole filling step, as this is usually less noticeable. In some implementations, this may be performed as part of the final pixel value analysis at step 407 through a specific processing sequence during analysis.

일단 3차원 화소값이 3차원 재투영을 위해 분석되면, 재투영된 화상은 단계 409에 기재된 바와 같이 표시될 수 있다.Once the three-dimensional pixel values have been analyzed for three-dimensional reprojection, the reprojected image can be displayed as described in step 409 .

샘플에 대한 커버리지 양은 다수의 상이한 방식으로 임시적으로 저장될 수 있다는 것이 주목된다. 예를 들어, 커버리지값은 어레이에 저장될 수 있다. 예를 들어, 32비트값으로 저장된 RGBA 데이터의 경우에 재투영 화소마다 2개의 32비트값이 있을 수 있다(이는 2개의 샘플이 사용되기 때문이다). 이것은 본 발명의 실시예가 메모리 오버헤드를 감소시키기 위해 리스트 또는 색인을 사용하는 것을 방해하지 않는다. 그러나, 2개의 샘플 리스트는 추가적인 오버헤드를 도입할 가능성이 더 높고 이를 감소시킬 것 같지는 않다. 이것은 예를 들어, 가변 사이즈의 리스트를 사용하는 것에 의해 극복될 수 있다.It is noted that the coverage amount for the sample can be stored temporarily in a number of different ways. For example, coverage values may be stored in an array. For example, in the case of RGBA data stored as a 32-bit value, there may be two 32-bit values per reprojected pixel (since two samples are used). This does not prevent embodiments of the present invention from using lists or indexes to reduce memory overhead. However, the two sample lists are more likely to introduce additional overhead and are unlikely to reduce it. This can be overcome, for example, by using a list of variable size.

3차원 입체 좌안과 우안 화상들의 경우에, 좌안과 우안 화상에 대한 화소값은 도 4에 설명된 바와 같이 분석될 수 있다는 것이 주목된다. 이 경우에 각 재투영 타깃(즉, 좌안과 우안)에 대해 별개의 샘플 세트가 존재하고 각 타깃은 독립적으로 분석될 필요가 있다. 수행을 위해 두 타깃은 동시에 분석될 수 있으나 여전히 독립적으로 분석될 수 있다. 입체 화상(예를 들어, 렌티큘러 렌즈 어레이 디스플레이에 사용된 바와 같이 상이한 뷰로부터 인터레이싱된 화상)에 대한 화소값은 또한 독립적으로 분석될 수 있다는 것이 주목된다. 원하는 경우, 이러한 화상은 동시에, 예를 들어 적절히 구성된 병렬 처리 시스템 및 소프트웨어를 사용하여 독립적으로 분석될 수 있다. It is noted that in the case of three-dimensional stereoscopic left and right eye images, the pixel values for the left and right eye images can be analyzed as described in FIG. In this case there is a separate set of samples for each reprojection target (ie left and right eyes) and each target needs to be analyzed independently. Both targets can be analyzed simultaneously for performance, but can still be analyzed independently. It is noted that the pixel values for stereoscopic images (eg, images interlaced from different views as used in lenticular lens array displays) can also be analyzed independently. If desired, such images can be analyzed simultaneously, independently, for example using suitably configured parallel processing systems and software.

좌안과 우안 화상은 디스플레이의 성질에 따라 순차적으로 또는 동시에 표시될 수 있다. 예를 들어, 좌안과 우안 화상들은, 능동 셔터 안경과 함께 사용되는 3D 텔레비전 디스플레이의 경우에 순차적으로 표시될 수 있다. 대안으로, 좌안과 우안 화상들은, 서로 다른 색 또는 서로 다른 편광의 좌안과 우안 렌즈들을 갖는 수동 3D 뷰 안경과 함께 사용되는 이중 투영 유형 디스플레이의 경우에, 동시에 표시될 수도 있다.The left eye and right eye images may be displayed sequentially or simultaneously depending on the nature of the display. For example, left and right eye images may be displayed sequentially in the case of a 3D television display used with active shutter glasses. Alternatively, the left eye and right eye images may be displayed simultaneously in the case of a dual projection type display used with manual 3D view glasses having left and right eye lenses of different colors or different polarizations.

도 5a 내지 도 5b는 2차원 화상의 3차원 재투영의 다중 샘플 분석에서 커버리지의 사용을 더 도시한다. 예로서, 제한함이 없이, 도 5a 내지 도 5b는 본 발명의 일 실시예에 따라 2차원 화상의 3차원 재투영의 2X 다중 샘플 분석 방법을 도시한다. 2X 다중 샘플에서, 행(501)에서 주어진 재투영 화소는 연관된 최대 2개의 2차원 샘플을 구비할 수 있다. 도 5a에서, 2개의 흑색 화소 샘플(503A, 503B) 바로 다음에는 우측으로 재투영되는 2차원 화상의 2개의 백색 화소 샘플(505A, 505B)이 따라온다. 일반적인 장면의 재투영에서 대부분의 화소는 인접한 화소에 인접하게 유지되어 이동되지 않는 것으로 예상하는 것이 합리적인 것임이 주목된다. 이동된 화소의 일부 중첩은 이동된 화소들 간에 갭으로 허용된다. 각 2차원 샘플(503A, 503B, 505A, 505B)의 커버리지 양이 이후 결정된다. 도 5a에 도시된 예에서, 제1 흑색 샘플(503A)은 제1 재투영 화소(501A)의 50% 커버리지를 구비한다. 제2 흑색 샘플(503B)은 제1 재투영 화소(501A)의 50% 커버리지와 제2 재투영 화소(501B)의 50% 커버리지를 구비한다. 제1 백색 샘플(505A)은 제2 재투영 화소(501B)의 50% 커버리지와 제3 재투영 화소(501C)의 50% 커버리지를 구비한다. 제2 백색 샘플(505B)은 제3 3차원 화소(501C)의 50% 커버리지와 제4 재투영 화소(501D)의 50% 커버리지를 구비한다. 이 예시를 위하여, 재투영 화소는 샘플을 가지지 않거나 제로 커버리지를 가지는 것으로 초기화되었다고 가정된다. 커버리지 양을 가중치로 사용하고 제4 재투영 화소에 전술된 바와 같이 총 커버리지 분할을 적용하면, 흑색, 회색, 백색 및 백색의 값을 각각 구비하는 분석된 재투영 행(507)에서 분석된 재투영 화소(507A, 507B, 507C, 507D)를 얻는다.5A-5B further illustrate the use of coverage in multi-sample analysis of three-dimensional reprojection of two-dimensional images. By way of example and not by way of limitation, Figures 5A-5B illustrate a 2X multisample analysis method of three-dimensional reprojection of a two-dimensional image in accordance with one embodiment of the present invention. In a 2X multisample, the reprojection pixel given in row 501 may have up to two two-dimensional samples associated with it. In FIG. 5A, immediately after the two black pixel samples 503A and 503B are followed by two white pixel samples 505A and 505B of the two-dimensional image which are reprojected to the right. It is noted that it is reasonable to expect that most of the pixels in the reprojection of a general scene remain adjacent to adjacent pixels and do not move. Some overlap of the shifted pixels is allowed as a gap between the shifted pixels. The coverage amount of each two-dimensional sample 503A, 503B, 505A, 505B is then determined. In the example shown in FIG. 5A, the first black sample 503A has 50% coverage of the first reprojected pixel 501A . The second black sample 503B has 50% coverage of the first reprojected pixel 501A and 50% coverage of the second reprojected pixel 501B . The first white sample 505A has 50% coverage of the second reprojection pixel 501B and 50% coverage of the third reprojection pixel 501C . The second white sample 505B has 50% coverage of the third 3D pixel 501C and 50% coverage of the fourth reprojection pixel 501D . For this example, it is assumed that the reprojected pixel has been initialized to have no sample or to have zero coverage. Using the coverage amount as a weight and applying the total coverage division as described above to the fourth reprojection pixel, the analyzed reprojection in the analyzed reprojection row 507 , each having a value of black, gray, white and white, respectively. The pixels 507A, 507B, 507C, and 507D are obtained.

그러나, 커버리지가 약간만 상이한 경우에는 상황이 달라진다. 구체적으로, 도 5b에서 2차원 화소(503A, 503B, 505A, 505B)는 우측으로 더 재투영되어 2차원 화소(503A, 503B, 505A, 505B)에 대해 상이한 커버리지 양을 초래한다. 도 5b에 도시된 예에서 이들 커버리지는 다음과 같다. 제1 흑색 샘플(503A)은 제1 재투영 화소(501A)의 75% 커버리지를 구비한다. 제2 흑색 샘플(503B)은 제1 재투영 화소(501A)의 25% 커버리지와 제2 재투영 화소(501B)의 75% 커버리지를 구비한다. 제1 백색 샘플(505A)은 제2 재투영 화소(501B)의 25% 커버리지와 제3 재투영 화소(501C)의 75% 커버리지를 구비한다. 제2 백색 샘플(505B)은 제3 3차원 화소(501C)의 25% 커버리지와 제4 재투영 화소(501D)의 75% 커버리지를 구비한다. 다시, 이 예시를 위하여, 재투영 화소(제4 재투영 화소(501D)를 포함함)는 샘플을 가지지 않거나 제로 커버리지를 가지는 것으로 초기화된 것으로 가정된다. 커버리지 양을 가중치로 사용하고 제4 재투영 화소에 총 커버리지 분할을 적용하면, 흑색, 진한 회색, 백색 및 백색의 값을 각각 구비하는 분석된 재투영 행(507)에서 분석된 재투영 화소(507A, 507B, 507C, 507D)를 얻는다. 제2 분석된 재투영 화소(507B)에 대해 회색값이 더 진하면, 백색 화소(505A)와 비교해서 흑색 화소(503B)에 의한 제2 재투영 화소(501B)의 퍼센트 커버리지가 더 높다는 결과를 초래한다.However, the situation is different when the coverage is only slightly different. Specifically, in FIG. 5B the two-dimensional pixels 503A, 503B, 505A, 505B are further reprojected to the right, resulting in different coverage amounts for the two-dimensional pixels 503A, 503B, 505A, 505B . In the example shown in FIG. 5B these coverages are as follows. The first black sample 503A has 75% coverage of the first reprojected pixel 501A . The second black sample (503B) is provided with a coverage of 75% to 25% coverage and a second re-projected pixel (501B) of the first re-projected pixel (501A). The first white sample 505A has 25% coverage of the second reprojection pixel 501B and 75% coverage of the third reprojection pixel 501C . The second white sample 505B has 25% coverage of the third 3D pixel 501C and 75% coverage of the fourth reprojection pixel 501D . Again, for this example, it is assumed that the reprojection pixel (including the fourth reprojection pixel 501D ) has been initialized as having no sample or having zero coverage. Using the coverage amount as a weight and applying the total coverage division to the fourth reprojection pixel, the analyzed reprojection pixel 507A in the analyzed reprojection row 507 having values of black, dark gray, white and white, respectively , 507B, 507C, 507D ). A higher gray value for the second analyzed reprojection pixel 507B results in a higher percentage coverage of the second reprojection pixel 501B by the black pixel 503B compared to the white pixel 505A . do.

종래 기술의 방법은 최종 3차원 화소값을 결정하는데 3차원 화소 내의 샘플 위치에 의존하는 반면, 본 발명의 방법은 최종 컬러를 분석할 때 3차원 화소의 샘플 커버리지를 찾는다. 이것은 종래 기술과 비교할 때 보다 정확한 분석 단계를 허용한다. 전술된 바와 같이 종래 기술은 재투영시에 이산 이동이 발생하는 3차원 화소에 대해 화소값의 전이만을 허용한다. 반면, 본 발명의 방법은 재투영시 임의의 이동에 응답하여 평활한 컬러 전이를 허용하는 샘플 커버리지 양을 사용하여 각 3차원 화소의 최종값을 분석한다.The prior art method relies on the sample position in the three-dimensional pixel to determine the final three-dimensional pixel value, while the method of the present invention finds the sample coverage of the three-dimensional pixel when analyzing the final color. This allows for a more accurate analysis step when compared to the prior art. As described above, the prior art only allows the transition of pixel values for three-dimensional pixels in which discrete movement occurs upon reprojection. In contrast, the method of the present invention analyzes the final value of each three-dimensional pixel using a sample coverage amount that allows for smooth color transition in response to any movement upon reprojection.

따라서, 본 발명의 실시예는 3차원 재투영 동안 심도 티어링 문제를 해결할 수 있을 뿐만 아니라 보다 자연스런 3차원 화상을 보는 것을 생성할 수 있다.Thus, embodiments of the present invention may not only solve the depth tearing problem during three-dimensional reprojection, but also create a more natural looking three-dimensional image.

최종 3차원 화상을 표시하기 위해 렌티큘러 렌즈 어레이와 같은 입체 디스플레이를 사용하는 경우에 각 관점에 대응하는 화상과 다른 관점의 화상 사이에 이동의 양은 상당히 작은 것으로 예상된다. 본 발명의 실시예는 관점들 사이를 이동하는 동안 인식된 점프를 생성하는 것을 또한 도와준다. 종래 기술의 3D 시스템에서 상이한 대상물은 그 위치에 "스냅(snap)"하는 경향이 있는 반면, 관찰자는 상이한 관점 사이에 변화된다. 본 발명의 실시예는 관찰자가 위치를 이동할 때 3차원 장면에서 모든 대상물의 보다 자연스런 이동을 허용한다.When using a stereoscopic display such as a lenticular lens array to display the final three-dimensional image, the amount of movement between the image corresponding to each viewpoint and the image of another viewpoint is expected to be quite small. Embodiments of the present invention also assist in generating recognized jumps while moving between viewpoints. Different objects in the prior art 3D systems tend to "snap" to that location, while the observer changes between different points of view. Embodiments of the present invention allow for more natural movement of all objects in the three-dimensional scene as the viewer moves position.

도 5a 내지 도 5b는 샘플(503, 505)이 3차원 화소(501)에 대해 수평으로는 이동되지만 수직으로는 이동되지 않는 예를 도시한다는 것이 주목된다. 그러나, 본 발명의 실시예는 샘플이 수직으로 이동하는 구현 또는 샘플이 수직으로 및 수평으로 이동되는 구현을 포함할 수 있다.5A-5B show an example where the samples 503, 505 are moved horizontally with respect to the three-dimensional pixel 501 but not vertically. However, embodiments of the invention may include implementations in which the sample is moved vertically or implementations in which the sample is moved vertically and horizontally.

도 6은 2차원 화상의 3차원 재투영의 다중 샘플 분석 방법을 구현하는 데 사용될 수 있는 컴퓨터 장치의 블록도를 도시한다. 장치(600)는 일반적으로 프로세서 모듈(601)과 메모리(605)를 포함할 수 있다. 프로세서 모듈(6 01)은 하나 이상의 프로세서 코어를 포함할 수 있다. 다수의 프로세서 모듈들을 사용하는 처리 시스템의 일례는, 셀 프로세서이며, 그 예로는, 예를 들어, 문헌[Cell Broadband Engine Architecture]에 상세히 설명되어 있으며, 이는 본 명세서에 참고로 포함된 http://www306.ibm.com/chip/techlib/techlib.nsf/techdocs/1AEEE 1270EA2776387257060006E61BA/$file/CBEA_01_pub.pdf에서 온라인으로 이용가능하다.6 shows a block diagram of a computer device that can be used to implement a method for multiple sample analysis of three-dimensional reprojection of two-dimensional images. Apparatus 600 may generally include a processor module 601 and a memory 605 . The processor module 6 01 may include one or more processor cores. An example of a processing system using multiple processor modules is a cell processor, an example of which is described in detail in, for example, the Cell Broadband Engine Architecture, which is incorporated herein by reference http: // Available online at www306.ibm.com/chip/techlib/techlib.nsf/techdocs/1AEEE 1270EA2776387257060006E61BA / $ file / CBEA_01_pub.pdf.

메모리(605)는 집적 회로의 형태일 수 있으며, 예를 들어, RAM, DRAM, ROM 등일 수 있다. 메모리(605)는 또한 프로세서 모듈들 모두에 의해 액세스 가능한 메인 메모리일 수 있다. 일부 실시예들에서, 프로세서 모듈(601)은 각 코어에 연관된 로컬 메모리들을 가질 수 있다. 프로그램(603)은, 프로세서 모듈들에서 실행될 수 있는 프로세서 판독가능 명령의 형태로 메인 메모리(605)에 저장될 수 있다. 프로그램(603)은 2차원 화상의 3차원 투영의 다중 샘플 분석을 수행하도록 구성될 수 있다. 프로그램(603)은, 임의의 적절한 프로세서 판독가능 언어로, 예를 들어, C, C++, 자바, 어셈블리, 매트랩, 포트란 및 다수의 기타 언어로 기입될 수 있다. 입력 데이터(607)도 메모리에 저장될 수 있다. 이러한 입력 데이터(607)는, 사용될 샘플의 별식, 및 샘플 커버리지의 양에 관한 정보를 포함할 수 있다. 프로그램(603)의 실행 동안, 프로그램 코드 및/또는 데이터의 일부들은, 다수의 프로세서 코어들에 의한 병렬 처리를 위해 프로세서 코어들의 로컬 저장 장치들이나 메모리에 로딩될 수 있다.The memory 605 may be in the form of an integrated circuit, and may be, for example, RAM, DRAM, ROM, or the like. Memory 605 may also be main memory accessible by all of the processor modules. In some embodiments, processor module 601 may have local memories associated with each core. Program 603 may be stored in main memory 605 in the form of processor readable instructions that may be executed in processor modules. Program 603 may be configured to perform multiple sample analysis of three-dimensional projection of a two-dimensional image. The program 603 may be written in any suitable processor readable language, for example C, C ++, Java, assembly, Matlab, Fortran and many other languages. Input data 607 may also be stored in memory. This input data 607 may include information about the identification of the sample to be used and the amount of sample coverage. During execution of program 603 , portions of program code and / or data may be loaded into local storage or memory of processor cores for parallel processing by multiple processor cores.

또한, 장치(600)는, 입력/출력(I/O) 요소(611), 전원(P/S)(613), 클록(CLK)(6 15) 및 캐시(617) 등의 널리 알려져 있는 지지 기능들(609)을 포함할 수 있다. 장치(600)는, 선택 사항으로, 프로그램 및/또는 데이터를 저장하기 위한 디스크 드라이브, CD-ROM, 테이프 드라이브 등의 대용량 저장 디바이스(619)를 포함할 수도 있다. 디바이스(600)는, 선택 사항으로, 사용자와 장치 간의 상호 작용을 용이하게 하도록 표시 유닛(621)과 사용자 인터페이스 유닛(625)을 포함할 수도 있다. 예를 들어, 표시 유닛(621)은, 텍스트, 숫자, 그래픽 기호, 또는 기타 시각적 대상물을, 3D 뷰 안경(627)으로 지각되는 입체 화상들로서 표시하는 3D 준비 완료 텔레비전 세트의 형태일 수 있지만, 이러한 예로 한정되지 않는다.Device 600 also includes well-known support, such as input / output (I / O) element 611 , power supply (P / S) 613 , clock (CLK) 6 15 , and cache 617 . May include functions 609 . The apparatus 600 may optionally include a mass storage device 619 , such as a disk drive, CD-ROM, tape drive, for storing programs and / or data. The device 600 may optionally include a display unit 621 and a user interface unit 625 to facilitate interaction between the user and the device. For example, display unit 621 may be in the form of a 3D ready television set that displays text, numbers, graphic symbols, or other visual objects as stereoscopic images perceived by 3D view glasses 627 , although It is not limited to the example.

사용자 인터페이스(625)는, 키보드, 마우스, 조이스틱, 라이트 펜, 또는 그래픽 사용자 인터페이스(GUI)와 함께 사용될 수 있는 기타 디바이스를 포함할 수 있다. 또한, 장치(600)는 디바이스가 인터넷 등의 네트워크를 통해 다른 디바이스들과 통신할 수 있게 하는 네트워크 인터페이스(623)를 포함할 수 있다.User interface 625 may include a keyboard, mouse, joystick, light pen, or other device that may be used with a graphical user interface (GUI). In addition, the apparatus 600 may include a network interface 623 that enables the device to communicate with other devices via a network, such as the Internet.

프로세서(601), 메모리(605), 지원 기능(609), 대용량 저장 디바이스(619), 사용자 인터페이스(625), 네트워크 인터페이스(623) 및 시각적 디스플레이(621)를 포함한 시스템(600)의 구성요소들은, 하나 이상의 데이터 버스(629)를 통해 서로 동작가능하게 접속될 수 있다. 이러한 구성요소들은, 하드웨어, 소프트웨어, 펌웨어, 또는 이들 중 두 개 이상의 소정의 조합으로 구현될 수 있다.Processor 601, memory 605, support functions 609, components of the mass storage device 619, user interface 625, network interface 623 and the system including a visual display 621, 600 are It may be operatively connected to each other via one or more data buses 629 . Such components may be implemented in hardware, software, firmware, or some combination of two or more thereof.

장치의 다수의 프로세서들을 이용하여 병렬 처리를 간소화하는 많은 추가 방식들이 있다. 예를 들어, 두 개 이상의 프로세서 코어 상에 코드를 복제하고 각 프로세서 코어가 다른 데이터를 처리하기 위한 코드를 구현하게 함으로써, 처리 루프들을 "전개"(unroll)할 수 있다. 이러한 구현은 루프를 설정하는 것에 연관된 레이턴시(latency)를 피할 수 있다. 본 발명에 적용된 바와 같이, 다수의 프로세서들은 3차원 재투영에서 화소에 대응하는 2차원 샘플을 병렬로 식별할 수 있다. 추가적으로, 다수의 프로세서는 병렬로 3차원 화소 샘플 커버리지 양을 결정하거나 병렬로 3차원 화소에 대한 최종 컬러를 분석할 수 있다. 데이터를 병렬 처리하는 능력은 상당한 처리 시간을 세이브하여, 2차원 화상의 3차원 재투영의 다중 샘플 분석을 위한 시스템을 더욱 효율적이고 간소화한다.There are many additional ways to simplify parallel processing using multiple processors in the device. For example, one can "unroll" processing loops by duplicating code on two or more processor cores and having each processor core implement code for processing different data. Such an implementation may avoid latency associated with establishing a loop. As applied to the present invention, multiple processors can identify two-dimensional samples corresponding to pixels in three-dimensional reprojection in parallel. Additionally, many processors can determine the amount of three-dimensional pixel sample coverage in parallel or analyze the final color for the three-dimensional pixels in parallel. The ability to process data in parallel saves significant processing time, making the system for multiple sample analysis of three-dimensional reprojection of two-dimensional images more efficient and simplified.

특히, 3개 이상의 프로세서에서 병렬 처리를 구현할 수 있는 처리 시스템의 일례가 셀 프로세서이다. 셀 프로세서들로서 분류될 수 있는 다수의 서로 다른 프로세서 아키텍처들이 있다. 예를 들어, 도 7은 셀 프로세서의 한 유형을 도시하지만, 이러한 예로 한정되지 않는다. 셀 프로세서(700)는, 메인 메모리(701), 단일 전력 프로세서 요소(power processor element: PPE)(7 07), 및 8개의 시너지 프로세서 요소(synergistic processor element: SPE)(7 11)를 포함한다. 대안으로, 셀 프로세서는 임의의 개수의 SPE로 구성될 수도 있다. 도 7에 관하여, 메모리(701), PPE(707) 및 SPE(711)는 링 유형 상호접속 버스(717)를 통해 서로 통신할 수 있고 I/O 디바이스(715)와 통신할 수 있다.In particular, an example of a processing system capable of implementing parallel processing on three or more processors is a cell processor. There are a number of different processor architectures that can be classified as cell processors. For example, FIG. 7 illustrates one type of cell processor, but is not limited to this example. The cell processor 700 includes a main memory 701 , a single power processor element (PPE) 7 07 , and eight synergistic processor elements (SPEs) 7 11 . In the alternative, the cell processor may be configured in any number of SPEs. With respect to FIG. 7, the memory 701 , the PPE 707 , and the SPE 711 can communicate with each other and the I / O device 715 via a ring type interconnect bus 717 .

메모리(701)는 전술한 프로그램과 공통되는 특징을 갖는 입력 데이터(703)를 포함한다. SPE(711)들 중 적어도 하나는 자신의 로컬 저장 장치(LS)에 2차원 화상 명령(713)의 3차원 재투영의 다중 샘플 분석 및/또는 예를 들어 전술한 바와 같이 병렬 처리될 입력 데이터의 일부를 포함할 수 있다. PPE(707)는, 자신의 L1 캐시 내에, 전술한 프로그램과 공통되는 특징을 갖는 2차원 화상 명령(709)의 3차원 재투영의 다중 샘플 분석을 포함할 수 있다. 또한, 명령(705)과 데이터(703)는 필요시 SPE(711)와 PPE(707)에 의한 액세스를 위해 메모리(701)에 저장될 수 있다. 본 발명의 2차원 화상의 3차원 재투영의 다중 샘플 분석의 방법에 포함된 임의의 개수의 프로세스들은 셀 프로세서를 사용하여 병렬화될 수 있다는 점에 주목해야 한다.The memory 701 includes input data 703 having features in common with the above-described program. At least one of the SPEs 711 may be multi-sample analysis of three-dimensional reprojection of the two-dimensional image command 713 to its local storage LS and / or input data to be processed in parallel, for example as described above. May include some. PPE 707 may include, in its L1 cache, multi-sample analysis of three-dimensional reprojection of two-dimensional picture instruction 709 having features common to the above-described program. Further, instruction 705 and data 703 may be stored in memory 701 for access by SPE 711 and PPE 707 as needed. It should be noted that any number of processes included in the method of multi-sample analysis of three-dimensional reprojection of two-dimensional images of the present invention can be parallelized using a cell processor.

예를 들어, PPE(707)는 연관된 캐시를 구비하는 64비트 파워 PC 프로세서 유닛(PPU)일 수 있다. PPE(707)는 선택 사항인 벡터 멀티미디어 확장 유닛을 포함할 수 있다. 각 SPE(711)는 시너지 프로세서 유닛(SPU) 및 로컬 저장 장치(LS)를 포함한다. 일부 구현예에서, 로컬 저장 장치는, 예를 들어, 데이터와 프로그램을 위한 메모리의 약 256킬로 바이트의 용량을 가질 수 있다. SPU들은, 통상적으로 시스템 관리 기능을 수행하지 않는다는 점에서, PPU보다 덜 복잡한 계산 유닛들이다. SPU들은 단일 명령 다수 데이터(SIMD) 능력을 가질 수 있고, 통상적으로, 할당된 태스크들을 수행하기 위해 데이터를 처리하고 (PPE에 의해 설정된 성질들에 액세스하기 위한) 임의의 필요한 데이터 전달을 개시한다. SPU들은 시스템이 더욱 높은 계산 단위 밀도를 필요로 하는 애플리케이션들을 구현할 수 있게 하며, 제공된 명령 세트를 효과적으로 사용할 수 있다. PPE에 의해 관리되는 시스템 내의 SPU들의 상당 개수는 애플리케이션들의 넓은 범위에 걸쳐 비용 효과적인 처리를 가능하게 한다. 예를 들어, 셀 프로세서는 셀 브로드밴드 엔진 아키텍처(CBEA)로서 알려져 있는 아키텍처를 특징으로 할 수 있다. CBEA-호환성 아키텍처에서, 다수의 PPE들은 PPE 그룹으로 조합될 수 있고, 다수의 SPE들은 SPE 그룹으로 조합될 수 있다. 예를 들어, 셀 프로세서는, 단일 SPE와 단일 PPE와 함께 단일 SPE 그룹과 단일 PPE 그룹을 갖는 것으로서 도시되어 있다. 대안으로, 셀 프로세서는 전력 프로세서 요소들의 다수의 그룹들(PPE 그룹들) 및 시너지 프로세서 요소들의 다수의 그룹들(SPE 그룹들)을 포함할 수 있다. CBEA-호환성 프로세서들은, 예를 들어, https://www306.ibm.com/chips/techlib/techlib.nsf/techdocs/1AEEE1270EA277638725706000E61BA/$file/CBEA_01_pub.pdf에서 온라인으로 이용가능한 Cell Broadband Engine Architecture에 상세히 설명되어 있으며, 이는 본 명세서에서 참고로 통합된다.For example, PPE 707 may be a 64-bit Power PC Processor Unit (PPU) with an associated cache. PPE 707 may include an optional vector multimedia expansion unit. Each SPE 711 includes a Synergy Processor Unit (SPU) and Local Storage (LS). In some implementations, local storage can have a capacity of about 256 kilobytes of memory, for example, for data and programs. SPUs are computation units that are less complex than PPU in that they typically do not perform system management functions. SPUs may have a single instruction multiple data (SIMD) capability and typically process data to perform assigned tasks and initiate any necessary data transfer (to access properties set by the PPE). SPUs enable the system to implement applications that require higher computational unit densities and can effectively use the provided instruction set. A significant number of SPUs in a system managed by the PPE allow for cost effective processing over a wide range of applications. For example, the cell processor may feature an architecture known as cell broadband engine architecture (CBEA). In a CBEA-compatible architecture, multiple PPEs can be combined into PPE groups and multiple SPEs can be combined into SPE groups. For example, a cell processor is shown as having a single SPE group and a single PPE group together with a single SPE and a single PPE. In the alternative, the cell processor may include multiple groups of power processor elements (PPE groups) and multiple groups of synergy processor elements (SPE groups). CBEA-compatible processors are described in detail in, for example, the Cell Broadband Engine Architecture available online at https://www306.ibm.com/chips/techlib/techlib.nsf/techdocs/1AEEE1270EA277638725706000E61BA/$file/CBEA_01_pub.pdf. Which is incorporated herein by reference.

다른 일 실시예에 따르면, 2차원 화상의 3차원 재투영의 다중 샘플 분석을 위한 명령이 컴퓨터 판독가능 저장 매체에 저장될 수 있다. 예를 들어, 도 8은 본 발명의 일 실시예에 따른 비일시적 컴퓨터 판독가능 저장 매체(800)의 일례를 도시하지만, 이러한 예로 한정되지 않는다. 저장 매체(800)는 컴퓨터 처리 디바이스에 의해 검색, 변환, 및 실행될 수 있는 포맷으로 저장된 컴퓨터 판독가능 명령들을 포함한다. 예를 들어, 컴퓨터 판독가능 저장 매체는, RAM 또는 ROM 등의 컴퓨터 판독가능 메모리, 고정된 디스크 드라이브를 위한 컴퓨터 판독가능 저장 디스크(예를 들어, 하드 디스크 드라이브), 또는 탈착가능 디스크 드라이브일 수 있지만, 이러한 예로 한정되지 않는다. 또한, 컴퓨터 판독가능 저장 매체(800)는, 플래시 메모리 디바이스, 컴퓨터 판독가능 테이프, CD-ROM, DVD-ROM, 블루레이, HD-DVD, UMD, 또는 다른 광학 저장 매체일 수 있다.According to another embodiment, instructions for multiple sample analysis of three-dimensional reprojection of a two-dimensional image may be stored in a computer readable storage medium. For example, FIG. 8 shows an example of a non-transitory computer readable storage medium 800 according to one embodiment of the invention, but is not limited to this example. Storage medium 800 includes computer readable instructions stored in a format that can be retrieved, converted, and executed by a computer processing device. For example, the computer readable storage medium may be a computer readable memory such as RAM or ROM, a computer readable storage disk (eg, a hard disk drive) for a fixed disk drive, or a removable disk drive. However, such examples are not limited. Computer readable storage medium 800 may also be a flash memory device, computer readable tape, CD-ROM, DVD-ROM, Blu-ray, HD-DVD, UMD, or other optical storage medium.

저장 매체(800)는, 2차원 화상의 3차원 재투영의 다중 샘플 분석을 위한 명령들(801)을 포함한다. 2차원 화상의 3차원 재투영의 다중 샘플 분석을 위한 명령들(801)은, 전술한 방법들에 따라 다중 샘플 분석을 구현하도록 구성될 수 있다. 구체적으로, 다중 샘플 분석 명령(801)은 3차원 재투영의 화소에 대응하는 2차원 화상으로부터 하나 이상의 샘플을 결정하는데 사용되는 2차원 샘플 명령(803)을 식별하는 단계를 포함할 수 있다.Storage medium 800 includes instructions 801 for multisample analysis of three-dimensional reprojection of a two-dimensional image. The instructions 801 for multisample analysis of three-dimensional reprojection of a two-dimensional image may be configured to implement multisample analysis in accordance with the methods described above. Specifically, the multisample analysis instruction 801 may include identifying a two-dimensional sample instruction 803 used to determine one or more samples from a two-dimensional image corresponding to a pixel of three-dimensional reprojection.

다중 샘플 분석 명령(801)은 주어진 2차원 샘플이 3차원 화소에서 차지하는 영역을 결정하도록 구성된 샘플 커버리지 양을 결정하는 명령(805)을 더 포함할 수 있다. 병렬 카메라 이동을 구현하는 3차원 재투영에서 이 샘플링은 수평 방향으로만 수행된다(즉, 샘플은 임의의 3차원 화소에 대해 수직 방향으로 균일하다). 다중 샘플링은 임의의 개수의 상이한 방향으로 달성될 수 있다.The multisample analysis instruction 801 may further include an instruction 805 for determining a sample coverage amount configured to determine the area that a given two-dimensional sample occupies in the three-dimensional pixel. In three-dimensional reprojection that implements parallel camera movement, this sampling is performed only in the horizontal direction (ie, the sample is uniform in the vertical direction for any three-dimensional pixel). Multiple sampling can be accomplished in any number of different directions.

또한, 다중 샘플 분석 명령(801)은 가중된 샘플 커버리지 양을 결합하는 것에 의해 3차원 화소 컬러를 결정하도록 구성된 최종 화소 컬러 분석 명령(807)을 더 포함할 수 있다. 예를 들어, 주어진 3차원 화소가 80% 커버리지를 갖는 적색 샘플과 20% 커버리지를 갖는 청색 샘플을 구비하는 경우, 최종 화소 컬러 분석 명령(807)은 더 높은 커버리지로 인해 적색의 세기가 더 큰 보라색의 셰이드(shade)인 것으로 3차원 화소 컬러를 분석할 수 있다. 임의의 개수의 가중 방법이 샘플 커버리지 양에 기초하여 최종 컬러를 분석하는데 사용될 수 있다는 것을 주목하는 것이 중요하다.In addition, the multisample analysis instruction 801 may further comprise a final pixel color analysis instruction 807 configured to determine the three-dimensional pixel color by combining the weighted sample coverage amount. For example, if a given three-dimensional pixel has a red sample with 80% coverage and a blue sample with 20% coverage, the final pixel color analysis command 807 is purple with a higher intensity of red due to higher coverage. 3D pixel color can be analyzed by being a shade of. It is important to note that any number of weighting methods can be used to analyze the final color based on the sample coverage amount.

다중 샘플 분석 명령(801)은 실행될 때 최종값에 기여하는 모든 샘플에 대한 총 가중된 커버리지 양이 100% 미만인 임의의 화소에 대해 최종값을 조절할 수 있는 홀 충진 명령(808)을 선택적으로 포함할 수 있다.The multisample analysis instruction 801 may optionally include a hole fill instruction 808 that , when executed, may adjust the final value for any pixel having a total weighted coverage amount of less than 100% for all samples contributing to the final value. Can be.

다중 샘플 분석 명령(801)은 다중 샘플 분석이 발생한 후에 2차원 화상의 3차원 재투영을 표시하는 3차원 재투영 표시 명령(809)을 추가적으로 포함할 수 있다.The multisample analysis command 801 may further include a 3D reprojection display command 809 that displays a 3D reprojection of the 2D image after the multisample analysis has occurred.

수동형 또는 능동형 3D 뷰 안경을 사용하여 입체 3D 화상들을 보는 구현예들을 설명하였지만, 본 발명의 실시예들은 이러한 구현예들로 한정되지 않는다. 특히, 본 발명의 실시예들은, 머리 추적이나 수동형 또는 능동형 3D 뷰 안경에 의존하지 않는 입체 3D 비디오 기술들에 적용될 수 있다. 이러한 "안경 없는" 입체 3D 비디오 기술들의 예들은 때때로 오토스테레오스코픽 기술 또는 오토스테레오스코피(Autostereoscopy)라 칭한다. 이러한 기술들의 예로는, 렌티큘러 렌즈의 사용에 기초하는 기술들이 있지만, 이에 한정되지 않는다. 렌티큘러 렌즈는, 약간 다른 각도에서 볼 때 서로 다른 화상들이 확대되도록 설계된 확대 렌즈들의 어레이이다. 서로 다른 화상들은 렌티큘러 렌즈를 다른 각도에서 볼 때 3차원 뷰 효과를 제공하도록 선택될 수 있다. 생성된 화상들의 개수는 스크린을 위한 뷰포인트들의 개수에 비례하여 증가한다.Although embodiments have been described for viewing stereoscopic 3D images using passive or active 3D view glasses, embodiments of the present invention are not limited to these embodiments. In particular, embodiments of the present invention may be applied to stereoscopic 3D video techniques that do not rely on head tracking or passive or active 3D view glasses. Examples of such “glasses free” stereoscopic 3D video technologies are sometimes referred to as autostereoscopic techniques or autostereoscopy. Examples of such techniques include, but are not limited to, techniques based on the use of lenticular lenses. A lenticular lens is an array of magnifying lenses designed to magnify different images when viewed from slightly different angles. Different images may be selected to provide a three-dimensional viewing effect when viewing the lenticular lens from different angles. The number of generated images increases in proportion to the number of viewpoints for the screen.

더욱 구체적으로, 렌티큘러 렌즈 비디오 시스템에서, 약간 다른 뷰 각도에서의 장면의 재투영 화상들은, 화상의 각 화소마다 심도 정보 및 초기 2D 화상으로부터 생성될 수 있다. 재투영 기술을 이용함으로써, 점진적으로 서로 다른 뷰 각도에서의 장면의 서로 다른 뷰들을 초기 2D 화상과 심도 정보로부터 생성할 수 있다. 서로 다른 뷰들을 나타내는 화상들은 스트립들로 나누어질 수 있고, 렌티큘러 렌즈 어레이와 뷰 위치 간에 배치된 디스플레이 스크린을 갖는 오토스테레오스코픽 디스플레이 상에 인터레이싱 방식으로 표시될 수 있다. 렌티큘러 렌즈들을 구성하는 렌즈들은 스트립들과 정렬되는 원통형 확대 렌즈들일 수 있으며, 일반적으로 스트립들의 폭의 두 배이다. 관찰자는 스크린을 보는 각도에 따라 장면의 서로 다른 뷰들을 지각한다. 서로 다른 뷰들은 표시되고 있는 장면에서 심도 환영을 제공하도록 선택될 수 있다.More specifically, in a lenticular lens video system, reprojected images of a scene at slightly different viewing angles may be generated from depth information and an initial 2D image for each pixel of the image. By using the reprojection technique, progressively different views of the scene at different viewing angles can be generated from the initial 2D image and depth information. Images representing different views can be divided into strips and displayed in an interlaced manner on an autostereoscopic display having a display screen disposed between the lenticular lens array and the view position. The lenses that make up the lenticular lenses may be cylindrical magnifying lenses that are aligned with the strips, and are generally twice the width of the strips. The viewer perceives different views of the scene according to the angle of view of the screen. Different views may be selected to provide depth welcome in the scene being displayed.

또한, 본 발명의 일부 실시예들은 2차원 화상의 3차원 재투영의 경우에 심도 티어링 문제를 해결할 수 있고 재투영을 위해 하나보다 많은 화상을 생성하는 것을 포함하지만, 실시예들은 재투영의 넌-3D 경우에 더욱 일반적으로 적용가능하다. 본 명세서에 설명된 재투영된 화소의 다중 샘플 분석은 이동의 구배(gradient)로 인해 재투영된 화상에 더 우수한 화상 품질을 생성할 수 있다. 이러한 다중 샘플 분석은 예를 들어 재투영된 화상의 일반적인 래스터화(rasterization) 동안 구현될 수 있다.In addition, some embodiments of the present invention may solve the depth tearing problem in the case of three-dimensional reprojection of a two-dimensional image and include generating more than one image for reprojection, although embodiments are non-reprojected. More generally applicable in 3D case. Multiple sample analysis of the reprojected pixels described herein can produce better image quality in the reprojected image due to the gradient of movement. Such multiple sample analysis can be implemented, for example, during normal rasterization of the reprojected image.

또한, 일부 3차원 구현예에서는, 두 개 이상의 화상을 생성할 필요가 없을 수도 있다. 예를 들어, 스테레오스코픽 디스플레이의 경우에, 재투영을 통해 좌안과 우안 화상들 모두를 생성할 필요가 없을 수 있다. 대안으로, 하나의 새로운 화상만을 생성할 수도 있다. 예를 들어, 좌안 화상을 위해 각 화소마다 색과 심도 정보로 시작할 수 있고, 재투영을 통해 대응하는 우안 화상을 생성할 수 있고(또는 그 반대의 경우도 가능하고), 이에 따라 스테레오스코픽 디스플레이에서의 표시에 충분한 화상들이 발생할 수 있다. 이는 재투영된 단일 화상만을 생성하는 것을 포함한다. In addition, in some three-dimensional implementations, it may not be necessary to generate more than one image. For example, in the case of a stereoscopic display, it may not be necessary to generate both left and right eye images via reprojection. Alternatively, only one new picture may be generated. For example, you can start with color and depth information for each pixel for a left eye image, and create a corresponding right eye image through reprojection (or vice versa), so that in a stereoscopic display Sufficient images may be generated for the display of. This involves generating only a reprojected single picture.

상기한 바는 본 발명의 바람직한 실시예의 완전한 설명이지만, 여러 대안, 변형 및 균등물을 사용하는 것이 가능하다.While the foregoing is a complete description of the preferred embodiments of the present invention, it is possible to use various alternatives, modifications, and equivalents.

본 발명의 일부 바람직한 버전들에 관하여 매우 상세히 본 발명을 설명하였지만, 다른 버전들도 가능하다. 따라서, 청구범위의 사상과 범위는 본 명세서에 포함된 바람직한 버전들의 설명으로 한정되지 않아야 한다. 대신에, 본 발명의 범위는 청구범위를 청구범위의 균등물의 전체 범위와 함께 참조하여 결정되어야 한다.Although the invention has been described in great detail with respect to some preferred versions of the invention, other versions are possible. Accordingly, the spirit and scope of the claims should not be limited to the description of the preferred versions contained herein. Instead, the scope of the invention should be determined with reference to the claims, along with the full scope of equivalents of the claims.

(청구범위, 요약, 도면을 비롯한) 본 명세서에서 개시한 모든 특징들은, 달리 명확하게 언급하지 않는 한, 동일한, 균등한, 또는, 유사한 목적에 기여하는 대안 특징들로 대체될 수도 있다. 따라서, 달리 명확하게 언급하지 않는 한, 개시한 각 특징은 일련의 균등한 또는 유사한 특징들의 일반적인 일례이다. 바람직한 것이든 아니든 임의의 특징을 바람직한 것이든 아니든 다른 임의의 특징과 조합할 수도 있다. 이하의 청구범위에서, "한" 또는 "하나"인 부정관사는, 달리 명확하게 언급하지 않는 한, 구를 뒤따르는 항목의 하나 이상의 양을 가리킨다. 특정 기능을 수행하는 "을 위한 수단"을 명시적으로 언급하지 않는 청구항에서의 임의의 요소는, 미국 특허법(

Figure pct00001
)에서 특정한 바와 같이 "수단" 또는 "단계" 절로서 해석되어선 안 된다. 구체적으로, 본 명세서의 청구범위에서 "하는 단계"라는 사용은 미국 특허법(
Figure pct00002
)의 규정을 적용하려는 것이 아니다.All features disclosed in this specification (including claims, summaries, and drawings) may be replaced by alternative features that serve the same, equivalent, or similar purpose unless explicitly stated otherwise. Thus, unless expressly stated otherwise, each feature disclosed is a general example of a series of equivalent or similar features. Any feature, whether preferred or not, may be combined with any other feature, whether desired or not. In the following claims, the indefinite article "a" or "an" refers to one or more quantities of items following the phrase, unless expressly stated otherwise. Any element in a claim that does not expressly refer to "means for" performing a particular function is described in US Patent Law (
Figure pct00001
) Shall not be construed as a "means" or "step" clause as specified in. Specifically, the use of "steps" in the claims herein refers to US patent law (
Figure pct00002
Is not intended to apply.

당업자는, 본 명세서와 동시에 제출되었으며 본 명세서와 함께 대중의 의한 검사를 위해 개방된 모든 논문과 문헌에 주목하기 바라며, 이들 논문과 문헌의 내용은 본 명세서에 참고로 통합된다.Those skilled in the art are interested in paying attention to all papers and documents submitted concurrently with this specification and open for examination by the public with this specification, the contents of which are incorporated herein by reference.

Claims (32)

2차원 화상의 재투영의 다중 샘플 분석(multi-sample resolving)을 위한 방법으로서,
a) 상기 재투영에서 각 화소에 대해 2차원 화상의 하나 이상의 샘플을 식별하는 단계;
b) 상기 재투영의 각 화소에 대해 하나 이상의 샘플 커버리지 양을 결정하는 단계로서, 각 샘플 커버리지 양은 대응하는 2차원 샘플에 의해 커버되는 화소의 영역을 식별하는 것인, 상기 결정하는 단계;
c) 가중된 샘플 커버리지 양에 따라 화소와 연관된 각 2차원 샘플을 결합하는 것에 의해 상기 재투영의 각 화소에 대해 최종값을 분석하는 단계; 및
d) 상기 재투영을 표시하는 단계를 포함하는 것을 특징으로 하는 방법.
A method for multi-sample resolving of reprojection of two-dimensional images,
a) identifying one or more samples of a two-dimensional image for each pixel in the reprojection;
b) determining one or more sample coverage amounts for each pixel of the reprojection, wherein each sample coverage amount identifies an area of a pixel covered by a corresponding two-dimensional sample;
c) analyzing a final value for each pixel of the reprojection by combining each two-dimensional sample associated with the pixel according to the weighted sample coverage amount; And
d) indicating the reprojection.
제1항에 있어서, a) 단계에서 각 샘플을 식별하는 단계는 수평 스캔을 사용하여 달성되는 것을 특징으로 하는 방법.The method of claim 1, wherein identifying each sample in step a) is accomplished using a horizontal scan. 제1항에 있어서, a) 단계는 상기 3차원 재투영에서 각 화소에 대해 최대 2개의 샘플을 식별하는 것을 수반하는 것을 특징으로 하는 방법.The method of claim 1, wherein step a) involves identifying up to two samples for each pixel in the three-dimensional reprojection. 제1항에 있어서, b) 단계는 3차원 화소와 연관된 특정 샘플이 인접한 화소에서 선두 샘플(leading sample)을 가지는지 여부를 결정하는 것을 더 포함하는 것을 특징으로 하는 방법.The method of claim 1, wherein step b) further comprises determining whether a particular sample associated with the three-dimensional pixel has a leading sample in an adjacent pixel. 제4항에 있어서, b) 단계는 3차원 화소와 연관된 특정 샘플이 인접한 화소에서 말미 샘플(trailing sample)을 가지는지 여부를 결정하는 것을 더 포함하는 것을 특징으로 하는 방법.5. The method of claim 4, wherein step b) further comprises determining whether a particular sample associated with the three-dimensional pixel has a trailing sample in the adjacent pixel. 제1항에 있어서, a), b), c) 및 d) 단계는 입체 디스플레이를 위해 대응하는 좌안과 우안 화상에 대해 수행되는 것을 특징으로 하는 방법.The method of claim 1, wherein steps a), b), c) and d) are performed on corresponding left and right eye images for stereoscopic display. 제1항에 있어서, 상기 2차원 화상은 입체 디스플레이를 위한 제1 안 뷰(eye view)이고, a), b) 및 c) 단계는 대응하는 제2 안 뷰에 대해 수행되는 것을 특징으로 하는 방법.The method of claim 1, wherein the two-dimensional image is a first eye view for stereoscopic display, and steps a), b) and c) are performed for the corresponding second eye view. . 제1항에 있어서, a), b), c) 및 d) 단계는 입체 디스플레이를 위해 2개 이상의 상이한 뷰에 대응하는 2개 이상의 화상에 대해 수행되는 것을 특징으로 하는 방법.The method of claim 1, wherein steps a), b), c) and d) are performed on at least two images corresponding to at least two different views for stereoscopic display. 제1항에 있어서, b) 단계는 2개 이상의 샘플 사이의 중첩을 결정하는 것을 포함하고, c) 단계는 관찰자로부터 더 먼 심도를 가지는 상기 2개 이상의 샘플 중 하나의 샘플에 대한 커버리지 양을 상기 2개 이상의 샘플 중 하나 이상의 다른 샘플과 커버리지 중첩의 양만큼 감소시키는 것을 포함하는 것을 특징으로 하는 방법.The method of claim 1, wherein b) comprises determining an overlap between the two or more samples, and c) wherein the c) includes a coverage amount for one of the two or more samples having a depth further from the observer. Reducing the amount of coverage overlap with one or more other samples of the two or more samples. 제1항에 있어서, 최종값에 기여하는 모든 샘플에 대한 총 가중된 커버리지 양이 100% 미만인 임의의 화소에 대해 상기 최종값을 조절하는 단계를 더 포함하는 것을 특징으로 하는 방법.2. The method of claim 1, further comprising adjusting the final value for any pixel where the total weighted coverage amount for all samples contributing to the final value is less than 100%. 다중 샘플링 장치로서,
프로세서;
메모리; 및
상기 메모리 내에 구현되고 상기 프로세서에 의해 실행가능한 컴퓨터 코딩된 명령을 포함하되,
상기 컴퓨터 코딩된 명령은 2차원 화상의 재투영의 다중 샘플 분석 방법을 구현하도록 구성되고,
상기 방법은,
a) 상기 재투영에서 각 화소에 대해 2차원 화상의 하나 이상의 샘플을 식별하는 단계;
b) 상기 재투영의 각 화소에 대해 하나 이상의 샘플 커버리지 양을 결정하는 단계로서, 각 샘플 커버리지 양은 대응하는 2차원 샘플에 의해 커버되는 화소의 영역을 식별하는 것인, 상기 결정하는 단계; 및
c) 가중된 샘플 커버리 양에 따라 화소와 연관된 각 2차원 샘플을 결합하는 것에 의해 상기 재투영의 각 화소에 대한 최종값을 분석하는 단계를 포함하는 것을 특징으로 하는 다중 샘플링 장치.
As a multiple sampling device,
A processor;
Memory; And
Computer coded instructions implemented in the memory and executable by the processor,
The computer coded instructions are configured to implement a multi-sample analysis method of reprojection of a two-dimensional image,
The method comprises:
a) identifying one or more samples of a two-dimensional image for each pixel in the reprojection;
b) determining one or more sample coverage amounts for each pixel of the reprojection, wherein each sample coverage amount identifies an area of a pixel covered by a corresponding two-dimensional sample; And
c) analyzing the final value for each pixel of the reprojection by combining each two-dimensional sample associated with the pixel according to the weighted sample coverage amount.
제11항에 있어서, 다중 샘플 분석 후에 재투영을 표시하도록 구성된 3차원 비주얼 디스플레이를 더 포함하는 것을 특징으로 하는 다중 샘플링 장치.12. The multisampling device of claim 11, further comprising a three-dimensional visual display configured to display reprojection after multisample analysis. 제12항에 있어서, 상기 방법은,
d) 상기 3차원 비주얼 디스플레이 상에 상기 재투영을 표시하는 단계를 더 포함하는 것을 특징으로 하는 다중 샘플링 장치.
13. The method of claim 12,
d) displaying the reprojection on the three-dimensional visual display.
제11항에 있어서, a) 단계에서 각 샘플을 식별하는 단계는 수평 스캔을 사용하여 달성되는 것을 특징으로 하는 다중 샘플링 장치.12. The multiple sampling apparatus of claim 11, wherein identifying each sample in step a) is accomplished using a horizontal scan. 제11항에 있어서, a) 단계는 상기 3차원 재투영에서 각 화소에 대해 최대 2개의 샘플을 식별하는 것을 수반하는 것을 특징으로 하는 장치.12. The apparatus of claim 11, wherein step a) involves identifying at most two samples for each pixel in the three-dimensional reprojection. 제11항에 있어서, b) 단계는 상기 재투영에 있는 화소와 연관된 특정 샘플이 인접한 화소에서 선두 샘플을 가지는지 여부를 결정하는 것을 더 포함하는 것을 특징으로 하는 다중 샘플링 장치.12. The multiple sampling apparatus of claim 11, wherein step b) further comprises determining whether a particular sample associated with the pixel under reprojection has a leading sample at an adjacent pixel. 제16항에 있어서, b) 단계는 상기 재투영에 있는 화소와 연관된 특정 샘플이 인접한 화소에서 말미 샘플을 가지는지 여부를 결정하는 것을 더 포함하는 것을 특징으로 하는 다중 샘플링 장치.17. The multisampling apparatus of claim 16, wherein step b) further comprises determining whether a particular sample associated with the pixel under reprojection has a trailing sample at an adjacent pixel. 제11항에 있어서, a), b) 및 c) 단계는 입체 디스플레이를 위해 대응하는 좌안과 우안 화상에 대해 수행되는 것을 특징으로 하는 다중 샘플링 장치.12. The multiple sampling apparatus of claim 11, wherein steps a), b), and c) are performed on corresponding left and right eye images for stereoscopic display. 제11항에 있어서, a), b), c) 및 d) 단계는 입체 디스플레이를 위해 2개 이상의 상이한 뷰에 대응하는 2개 이상의 화상에 대해 수행되는 것을 특징으로 하는 다중 샘플링 장치.12. The multiple sampling apparatus of claim 11, wherein steps a), b), c), and d) are performed on at least two images corresponding to at least two different views for stereoscopic display. 제11항에 있어서, 상기 2차원 화상은 입체 디스플레이를 위한 제1안 뷰이고, a), b) 및 c) 단계는 대응하는 제2안 뷰에 대해 수행되는 것인 다중 샘플링 장치.12. The multiple sampling apparatus of claim 11, wherein the two-dimensional image is a first eye view for stereoscopic display, and steps a), b) and c) are performed for a corresponding second eye view. 제11항에 있어서, b) 단계는 2개 이상의 샘플 사이의 중첩을 결정하는 것을 포함하고, c) 단계는 관찰자로부터 더 먼 심도를 가지는 상기 2개 이상의 샘플 중 하나의 샘플에 대한 커버리지 양을 상기 2개 이상의 샘플 중 하나 이상의 다른 샘플과의 커버리지 중첩의 양만큼 감소시키는 것을 포함하는 것을 특징으로 하는 다중 샘플링 장치.12. The method of claim 11, wherein step b) comprises determining an overlap between two or more samples, and step c) recalling an amount of coverage for one of the two or more samples having a depth further from the observer. And reducing the amount of coverage overlap with one or more other samples of the two or more samples. 제11항에 있어서, 상기 방법은 최종값에 기여하는 모든 샘플에 대한 총 가중된 커버리지 양이 100% 미만인 임의의 화소에 대해 상기 최종값을 조절하는 단계를 더 포함하는 것을 특징으로 하는 다중 샘플링 장치.12. The apparatus of claim 11, wherein the method further comprises adjusting the final value for any pixel where the total weighted coverage amount for all samples contributing to the final value is less than 100%. . 컴퓨터 프로그램 제품으로서,
2차원 화상의 재투영의 다중 샘플 분석을 위해 컴퓨터 판독가능 저장 매체 내에 구현된 프로그램 코드를 갖는 비일시적 컴퓨터 판독가능 저장 매체를 포함하며,
상기 컴퓨터 프로그램 제품은,
a) 재투영의 각 화소에 대응하는 2차원 화상의 하나 이상의 샘플을 식별하기 위한 컴퓨터 판독가능 프로그램 코드 수단;
b) 3차원 재투영의 각 화소에 대해, 상기 대응하는 2차원 샘플에 의해 커버되는 상기 화소의 영역을 각각 식별하는 하나 이상의 샘플 커버리지 양을 결정하기 위한 컴퓨터 판독가능 프로그램 코드 수단;
c) 가중된 샘플 커버리지 양에 따라 화소와 연관된 각 2차원 샘플을 결합하는 것에 의해 상기 3차원 재투영의 각 화소에 대한 최종값을 분석하기 위한 컴퓨터 판독가능 프로그램 코드 수단; 및
d) 상기 재투영을 표시하기 위한 컴퓨터 판독가능 프로그램 코드 수단을 포함하는 것을 특징으로 하는 컴퓨터 프로그램 제품.
As a computer program product,
A non-transitory computer readable storage medium having program code embodied in the computer readable storage medium for multiple sample analysis of reprojection of a two-dimensional image,
The computer program product,
a) computer readable program code means for identifying one or more samples of a two-dimensional image corresponding to each pixel of the reprojection;
b) computer readable program code means for determining, for each pixel of three-dimensional reprojection, one or more sample coverage amounts, each identifying an area of the pixel covered by the corresponding two-dimensional sample;
c) computer readable program code means for analyzing a final value for each pixel of said three-dimensional reprojection by combining each two-dimensional sample associated with the pixel according to the weighted sample coverage amount; And
d) computer readable program code means for displaying the reprojection.
제23항에 있어서, a) 단계에서 각 샘플을 식별하는 단계는 수평 스캔을 사용하여 달성되는 것을 특징으로 하는 컴퓨터 프로그램 제품.24. The computer program product of claim 23, wherein identifying each sample in step a) is accomplished using a horizontal scan. 제23항에 있어서, a) 단계는 상기 3차원 재투영의 각 화소에 대해 최대 2개의 샘플을 식별하는 것을 수반하는 것을 특징으로 하는 컴퓨터 프로그램 제품.24. The computer program product of claim 23, wherein step a) involves identifying at most two samples for each pixel of the three-dimensional reprojection. 제23항에 있어서, b) 단계는 3차원 화소와 연관된 특정 샘플이 인접한 화소에서 선두 샘플을 가지는지 여부를 결정하는 것을 더 포함하는 것을 특징으로 하는 컴퓨터 프로그램 제품.24. The computer program product of claim 23, wherein step b) further comprises determining whether a particular sample associated with the three-dimensional pixel has a leading sample in an adjacent pixel. 제26항에 있어서, b) 단계는 3차원 화소와 연관된 특정 샘플이 인접한 화소에서 말미 샘플을 가지는지 여부를 결정하는 것을 더 포함하는 것을 특징으로 하는 컴퓨터 프로그램 제품.27. The computer program product of claim 26, wherein step b) further comprises determining whether a particular sample associated with the three-dimensional pixel has a trailing sample at an adjacent pixel. 제23항에 있어서, a), b), c) 및 d) 단계는 입체 디스플레이를 위해 대응하는 좌안과 우안 화상에 대해 수행되는 것을 특징으로 하는 컴퓨터 프로그램 제품.24. The computer program product of claim 23, wherein steps a), b), c) and d) are performed on corresponding left and right eye images for stereoscopic display. 제23항에 있어서, a), b), c) 및 d) 단계는 입체 디스플레이를 위해 2개 이상의 상이한 뷰에 대응하는 2개 이상의 화상에 대해 수행되는 것을 특징으로 하는 컴퓨터 프로그램 제품.24. The computer program product of claim 23, wherein steps a), b), c), and d) are performed on two or more images corresponding to two or more different views for stereoscopic display. 제23항에 있어서, 상기 2차원 화상은 입체 디스플레이를 위한 제1안 뷰이고, a), b) 및 c) 단계는 대응하는 제2안 뷰에 대해 수행되는 것을 특징으로 하는 컴퓨터 프로그램 제품.24. The computer program product of claim 23, wherein the two-dimensional image is a first eye view for stereoscopic display, and steps a), b) and c) are performed on the corresponding second eye view. 제23항에 있어서, b) 단계는 2개 이상의 샘플 사이의 중첩을 결정하는 것을 포함하고, c) 단계는 관찰자로부터 더 먼 심도를 가지는 상기 2개 이상의 샘플 중 하나의 샘플에 대한 커버리지의 양을 상기 2개 이상의 샘플 중 하나 이상의 다른 샘플과의 커버리지 중첩의 양만큼 감소시키는 것을 포함하는 것을 특징으로 하는 컴퓨터 프로그램 제품.24. The method of claim 23, wherein step b) comprises determining an overlap between the two or more samples, and step c) determining the amount of coverage for one of the two or more samples having a depth further from the observer. Reducing the amount of coverage overlap with one or more other samples of the two or more samples. 제23항에 있어서, 상기 방법은 최종값에 기여한 모든 샘플에 대한 총 가중된 커버리지 양이 100% 미만인 임의의 화소에 대해 상기 최종값을 조절하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 프로그램 제품.24. The computer program product of claim 23, wherein the method further comprises adjusting the final value for any pixel where the total weighted coverage amount for all samples that contributed to the final value is less than 100%.
KR1020137018730A 2011-01-07 2011-12-02 Multi-sample resolving of re-projection of two-dimensional image KR101741468B1 (en)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US12/986,872 2011-01-07
US12/986,814 2011-01-07
US12/986,854 US8619094B2 (en) 2011-01-07 2011-01-07 Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image
US12/986,854 2011-01-07
US12/986,872 US9183670B2 (en) 2011-01-07 2011-01-07 Multi-sample resolving of re-projection of two-dimensional image
US12/986,827 2011-01-07
US12/986,827 US8514225B2 (en) 2011-01-07 2011-01-07 Scaling pixel depth values of user-controlled virtual object in three-dimensional scene
US12/986,814 US9041774B2 (en) 2011-01-07 2011-01-07 Dynamic adjustment of predetermined three-dimensional video settings based on scene content
PCT/US2011/063010 WO2012094077A1 (en) 2011-01-07 2011-12-02 Multi-sample resolving of re-projection of two-dimensional image

Publications (2)

Publication Number Publication Date
KR20130132922A true KR20130132922A (en) 2013-12-05
KR101741468B1 KR101741468B1 (en) 2017-05-30

Family

ID=46457655

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020137018730A KR101741468B1 (en) 2011-01-07 2011-12-02 Multi-sample resolving of re-projection of two-dimensional image
KR1020137016936A KR101851180B1 (en) 2011-01-07 2011-12-02 Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020137016936A KR101851180B1 (en) 2011-01-07 2011-12-02 Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image

Country Status (5)

Country Link
KR (2) KR101741468B1 (en)
CN (7) CN103329165B (en)
BR (1) BR112013017321A2 (en)
RU (2) RU2573737C2 (en)
WO (4) WO2012094075A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9911203B2 (en) * 2013-10-02 2018-03-06 Given Imaging Ltd. System and method for size estimation of in-vivo objects
CN105323573B (en) 2014-07-16 2019-02-05 北京三星通信技术研究有限公司 3-D image display device and method
WO2016010246A1 (en) * 2014-07-16 2016-01-21 삼성전자주식회사 3d image display device and method
EP3232406B1 (en) * 2016-04-15 2020-03-11 Ecole Nationale de l'Aviation Civile Selective display in a computer generated environment
CN107329690B (en) * 2017-06-29 2020-04-17 网易(杭州)网络有限公司 Virtual object control method and device, storage medium and electronic equipment
CN109398731B (en) 2017-08-18 2020-09-08 深圳市道通智能航空技术有限公司 Method and device for improving depth information of 3D image and unmanned aerial vehicle
GB2571306A (en) * 2018-02-23 2019-08-28 Sony Interactive Entertainment Europe Ltd Video recording and playback systems and methods
CN109992175B (en) * 2019-04-03 2021-10-26 腾讯科技(深圳)有限公司 Object display method, device and storage medium for simulating blind feeling
RU2749749C1 (en) * 2020-04-15 2021-06-16 Самсунг Электроникс Ко., Лтд. Method of synthesis of a two-dimensional image of a scene viewed from a required view point and electronic computing apparatus for implementation thereof
CN111275611B (en) * 2020-01-13 2024-02-06 深圳市华橙数字科技有限公司 Method, device, terminal and storage medium for determining object depth in three-dimensional scene
CN112684883A (en) * 2020-12-18 2021-04-20 上海影创信息科技有限公司 Method and system for multi-user object distinguishing processing
US20230334736A1 (en) * 2022-04-15 2023-10-19 Meta Platforms Technologies, Llc Rasterization Optimization for Analytic Anti-Aliasing
US11882295B2 (en) 2022-04-15 2024-01-23 Meta Platforms Technologies, Llc Low-power high throughput hardware decoder with random block access

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2724033B1 (en) * 1994-08-30 1997-01-03 Thomson Broadband Systems SYNTHESIS IMAGE GENERATION METHOD
US5790086A (en) * 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
GB9511519D0 (en) * 1995-06-07 1995-08-02 Richmond Holographic Res Autostereoscopic display with enlargeable image volume
EP2357835A3 (en) * 2002-03-27 2012-02-22 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
KR20050010846A (en) 2002-06-03 2005-01-28 코닌클리케 필립스 일렉트로닉스 엔.브이. Adaptive scaling of video signals
EP1437898A1 (en) * 2002-12-30 2004-07-14 Koninklijke Philips Electronics N.V. Video filtering for stereo images
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US8094927B2 (en) * 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US20050248560A1 (en) * 2004-05-10 2005-11-10 Microsoft Corporation Interactive exploded views from 2D images
US7643672B2 (en) * 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
KR20070119018A (en) * 2005-02-23 2007-12-18 크레이그 써머스 Automatic scene modeling for the 3d camera and 3d video
JP4555722B2 (en) * 2005-04-13 2010-10-06 株式会社 日立ディスプレイズ 3D image generator
US20070146360A1 (en) * 2005-12-18 2007-06-28 Powerproduction Software System And Method For Generating 3D Scenes
GB0601287D0 (en) * 2006-01-23 2006-03-01 Ocuity Ltd Printed image display apparatus
US8044994B2 (en) * 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
US7778491B2 (en) 2006-04-10 2010-08-17 Microsoft Corporation Oblique image stitching
CN100510773C (en) * 2006-04-14 2009-07-08 武汉大学 Single satellite remote sensing image small target super resolution ratio reconstruction method
US20080085040A1 (en) * 2006-10-05 2008-04-10 General Electric Company System and method for iterative reconstruction using mask images
US20080174659A1 (en) 2007-01-18 2008-07-24 Mcdowall Ian Wide field of view display device and method
GB0716776D0 (en) * 2007-08-29 2007-10-10 Setred As Rendering improvement for 3D display
WO2009047681A1 (en) * 2007-10-11 2009-04-16 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
US20090147073A1 (en) * 2007-12-11 2009-06-11 David Getty Methods and Systems for Stereoscopic Three Dimensional Viewing
BRPI0822142A2 (en) * 2008-01-29 2015-06-30 Thomson Licensing Method and system for converting 2d image data to stereoscopic image data
JP4695664B2 (en) * 2008-03-26 2011-06-08 富士フイルム株式会社 3D image processing apparatus, method, and program
US9019381B2 (en) * 2008-05-09 2015-04-28 Intuvision Inc. Video tracking systems and methods employing cognitive vision
US8106924B2 (en) 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor
US8743114B2 (en) 2008-09-22 2014-06-03 Intel Corporation Methods and systems to determine conservative view cell occlusion
CN101383046B (en) * 2008-10-17 2011-03-16 北京大学 Three-dimensional reconstruction method on basis of image
EP2340648B1 (en) * 2008-10-28 2019-12-11 Koninklijke Philips N.V. A three dimensional display system
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
CN101783966A (en) * 2009-01-21 2010-07-21 中国科学院自动化研究所 Real three-dimensional display system and display method
RU2421933C2 (en) * 2009-03-24 2011-06-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." System and method to generate and reproduce 3d video image
US8289346B2 (en) 2009-05-06 2012-10-16 Christie Digital Systems Usa, Inc. DLP edge blending artefact reduction
US9269184B2 (en) * 2009-05-21 2016-02-23 Sony Computer Entertainment America Llc Method and apparatus for rendering image based projected shadows with multiple depth aware blurs
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
CN101937079B (en) * 2010-06-29 2012-07-25 中国农业大学 Remote sensing image variation detection method based on region similarity

Also Published As

Publication number Publication date
CN103329165B (en) 2016-08-24
KR101851180B1 (en) 2018-04-24
CN105898273B (en) 2018-04-10
CN105959664A (en) 2016-09-21
CN105894567B (en) 2020-06-30
WO2012094077A1 (en) 2012-07-12
RU2562759C2 (en) 2015-09-10
CN103348360B (en) 2017-06-20
RU2573737C2 (en) 2016-01-27
CN103329165A (en) 2013-09-25
BR112013017321A2 (en) 2019-09-24
BR112013016887A2 (en) 2020-06-30
CN103283241B (en) 2016-03-16
CN103348360A (en) 2013-10-09
CN103947198A (en) 2014-07-23
WO2012094075A1 (en) 2012-07-12
CN103283241A (en) 2013-09-04
CN103947198B (en) 2017-02-15
CN105894567A (en) 2016-08-24
WO2012094076A9 (en) 2013-07-25
KR101741468B1 (en) 2017-05-30
WO2012094074A2 (en) 2012-07-12
CN105898273A (en) 2016-08-24
RU2013129687A (en) 2015-02-20
KR20140004115A (en) 2014-01-10
WO2012094076A1 (en) 2012-07-12
RU2013136687A (en) 2015-02-20
WO2012094074A3 (en) 2014-04-10
CN105959664B (en) 2018-10-30

Similar Documents

Publication Publication Date Title
KR101741468B1 (en) Multi-sample resolving of re-projection of two-dimensional image
US9183670B2 (en) Multi-sample resolving of re-projection of two-dimensional image
KR101994121B1 (en) Create efficient canvas views from intermediate views
JP5011316B2 (en) Rendering the output image
US9916517B2 (en) Image processing method and apparatus
US7689031B2 (en) Video filtering for stereo images
JP6639877B2 (en) Image processing apparatus and method
KR101385514B1 (en) Method And Apparatus for Transforming Stereoscopic Image by Using Depth Map Information
CN100565589C (en) The apparatus and method that are used for depth perception
KR20200012875A (en) Methods and systems for rendering virtual reality content based on two-dimensional (2D) capture images of three-dimensional (3D) scenes
TWI683281B (en) Method and apparatus for generating a three dimensional image
US20070229653A1 (en) Method and system for acquiring and displaying 3D light fields
EP2175663B1 (en) Image processing apparatus
KR102464523B1 (en) Method and apparatus for processing image property maps
JP2007533022A (en) Ghost artifact reduction for rendering 2.5D graphics
US20140340486A1 (en) Image processing system, image processing method, and image processing program
US8619094B2 (en) Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image
CN114514746B (en) System and method for motion adaptive filtering as pre-processing for video encoding
WO2012176526A1 (en) Stereoscopic image processing device, stereoscopic image processing method, and program
Sun et al. Real-time depth-image-based rendering on GPU
CN112929631B (en) Method and device for displaying bullet screen in 3D video and 3D display device
Langseth et al. An experimental evaluation of debayering algorithms on gpus for recording panoramic video in real-time
JP2024509782A (en) System and method for detecting multi-view file formats
Gao et al. Uncrowded Window Inspired Ultra High Definition Television Display
Doyen et al. Display independent real-time multi-view rendering engine

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant