KR20140004115A - Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image - Google Patents

Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image Download PDF

Info

Publication number
KR20140004115A
KR20140004115A KR1020137016936A KR20137016936A KR20140004115A KR 20140004115 A KR20140004115 A KR 20140004115A KR 1020137016936 A KR1020137016936 A KR 1020137016936A KR 20137016936 A KR20137016936 A KR 20137016936A KR 20140004115 A KR20140004115 A KR 20140004115A
Authority
KR
South Korea
Prior art keywords
images
neighboring
pixel
dimensional
reprojected
Prior art date
Application number
KR1020137016936A
Other languages
Korean (ko)
Other versions
KR101851180B1 (en
Inventor
배리 엠. 제노바
토비아스 버그호프
Original Assignee
소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/986,872 external-priority patent/US9183670B2/en
Priority claimed from US12/986,827 external-priority patent/US8514225B2/en
Priority claimed from US12/986,854 external-priority patent/US8619094B2/en
Priority claimed from US12/986,814 external-priority patent/US9041774B2/en
Application filed by 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨 filed Critical 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨
Publication of KR20140004115A publication Critical patent/KR20140004115A/en
Application granted granted Critical
Publication of KR101851180B1 publication Critical patent/KR101851180B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명에 따르면, 더욱 적은 개수의 프로세서 자원들을 사용하면서 더욱 양호한 결과를 생성하는 방식으로 2차원 화상의 재투영의 형태학적 안티 에일리어싱(MLAA)을 구현할 수 있다. 2차원 화상의 각각의 이웃하는 화소 간의 하나 이상의 불연속성을 결정한다. 하나 이상의 불연속성에 의해 형성된 하나 이상의 미리 규정된 패턴을 식별한다. 식별된 미리 규정된 패턴에 이웃하는 각 화소마다 혼합량을 계산한다. 재투영을 각 화소마다 혼합량과 2차원 화상에 적용하여 재투영된 혼합량들을 생성한다. 이어서, 재투영의 이웃하는 화소들을 재투영된 혼합량들에 따라 혼합한다.According to the present invention, it is possible to implement morphological anti-aliasing (MLAA) of reprojection of two-dimensional images in a manner that produces better results while using fewer processor resources. Determine one or more discontinuities between each neighboring pixel of the two-dimensional image. Identify one or more predefined patterns formed by one or more discontinuities. The blending amount is calculated for each pixel neighboring the identified predefined pattern. Reprojection is applied to the blend amount and the two-dimensional image for each pixel to generate the reprojected blend amounts. Then, neighboring pixels of the reprojection are mixed according to the reprojected blending amounts.

Description

2차원 화상의 재투영의 형태학적 안티 에일리어싱{MORPHOLOGICAL ANTI-ALIASING (MLAA) OF A RE-PROJECTION OF A TWO-DIMENSIONAL IMAGE}Morphological Antialiasing of Reprojection of Two-Dimensional Image (MORPHOLOGICAL ANTI-ALIASING (MLAA) OF A RE-PROJECTION OF A TWO-DIMENSIONAL IMAGE)

관련 출원에 대한 상호 참조Cross-reference to related application

본 출원은, "DYNAMIC ADJUSTMENT OF PREDETERMINED THREE-DIMENSIONAL RE-PROJECTION SETTINGS BASED ON SCENE CONTENT"라는 명칭으로 2011년 1월 7에 출원하여 공동 양도되고 공동 계류중인 출원번호 제12/986,814호(대리인 정리번호 SCEA10052US00)에 관한 것이다.This application is filed and filed on January 7, 2011, entitled "DYNAMIC ADJUSTMENT OF PREDETERMINED THREE-DIMENSIONAL RE-PROJECTION SETTINGS BASED ON SCENE CONTENT," ).

본 출원은, "SCALING PIXEL DEPTH VALUES OF USER-CONTROLLED VIRTUAL OBJECT IN THREE-DIMENSIONAL SCENE"이라는 명칭으로 2011년 1월 7일에 출원하여 공동 양도되고 공동 계류중인 출원번호 제12/986,827호(대리인 정리번호 SCEA10053US00)에 관한 것이다.This application is filed and filed on January 7, 2011, entitled "SCALING PIXEL DEPTH VALUES OF USER-CONTROLLED VIRTUAL OBJECT IN THREE-DIMENSIONAL SCENE," co-transferred and co-pending application number 12 / 986,827 (Representative No. SCEA10053US00).

본 출원은 "MULTI-SAMPLE RESOLVING OF RE-PROJECTION OF TWO-DIMENSIONAL IMAGE"라는 명칭으로 2011년 1월 7일에 출원하여 공동 양도되고 공동 계류중인 출원번호 제12/986,872호(대리인 정리번호 SCEA10055US00)에 관한 것이다.This application is filed on January 7, 2011, entitled "MULTI-SAMPLE RESOLVING OF RE-PROJECTION OF TWO-DIMENSIONAL IMAGE," and is hereby assigned and co-pended to Application No. 12 / 986,872 (Agent No. SCEA10055US00). It is about.

서로 다른 많은 기술들에 의해 3차원에서 2차원 화상을 지각하는 능력은 지난 수년간 상당히 널리 알려져 왔다. 심도의 양태를 2차원 화상에 제공함으로써, 임의의 예시된 장면에 대하여 현장감을 잠재적으로 생성하게 된다. 이러한 3차원 시각적 표현을 도입함으로써, 관찰자 경험을 크게 향상시켰으며, 특히 비디오 게임의 영역에서 그러하다.The ability to perceive two-dimensional images in three dimensions by many different techniques has been fairly well known over the years. By providing aspects of depth to the two-dimensional image, it potentially creates a sense of presence for any illustrated scene. Introducing this three-dimensional visual representation greatly enhances the observer experience, especially in the area of video games.

소정의 화상의 3차원 렌더링을 위한 다수의 기술이 존재한다. 가장 최근에는, 심도 화상 기반 렌더링(depth-image-based rendering: DIBR)으로서 알려진 2차원 화상(들)을 3차원 공간에 투영하는 기술이 제안되었다. "입체" 비디오의 기본 개념, 즉, 2개의 별도의 비디오 스트림 - 하나는 좌안용이며 나머지 하나는 우안용임 - 의 캡처링, 송신, 및 표시에 종종 의존하였던 이러한 제안과는 대조적으로, 이러한 새로운 사상은 더욱 유연한 모노스코픽 비디오(즉, 단일 비디오 스트림) 및 연관된 화소당 심도 정보의 결합 송신에 기초한다. 이 데이터 표현으로부터, 3D 장면의 하나 이상의 "가상" 뷰를, 소위 DIBR 기술들에 의해 수신기측에서 실시간으로 생성할 수 있다. 이러한 3차원 화상 렌더링에 대한 새로운 방안은 이전의 방안들에 비해 여러 장점들을 제시한다.There are a number of techniques for three-dimensional rendering of a given image. Most recently, a technique has been proposed for projecting two-dimensional image (s) in three-dimensional space, known as depth-image-based rendering (DIBR). In contrast to this proposal, which often relied on the basic concept of "stereo" video, namely, two separate video streams, one for the left eye and the other for the right eye, often this idea Is based on a more flexible monoscopic video (ie, a single video stream) and associated transmission of associated per-pixel depth information. From this data representation, one or more "virtual" views of the 3D scene can be generated in real time at the receiver side by so-called DIBR techniques. This new approach to 3D image rendering offers several advantages over previous approaches.

2개의 개별적인 화상을 관찰자에게 제시하여 심도 환영(illusion of depth)을 생성하는 데에는 일반적으로 2가지 방식이 있다. 3D 화상을 스크린 상으로 투영하는 데 흔히 사용되는 시스템에서는, 좌안 화상과 우안 화상을 위한 2개의 개별적인 동기 프로젝터들이 있다. 양안을 위한 화상들은 스크린 상으로 동시에 투영되지만, 직교 편광이 있으며, 예를 들어, 좌안 화상을 위한 수직 편광과 우안 화상을 위한 수평 편광이 있다. 관찰자는 좌안과 우안을 위해 적절하게 편광된(예를 들어, 좌안을 위해 수직으로 편광되고 우안을 위해 수평으로 편광된) 렌즈를 구비하는 특별한 편광 3D 관찰 안경을 착용한다. 렌즈와 화상의 편광 때문에, 관찰자는 좌안으로는 좌안 화상만을 지각하고 우안으로는 우안 화상만을 지각한다. 심도 환영의 정도는 부분적으로 스크린 상에서의 두 개의 화상 간의 오프셋의 기능이다.There are generally two ways of presenting two separate images to the observer to produce an illusion of depth. In a system commonly used to project 3D images onto a screen, there are two separate synchronous projectors for the left eye image and the right eye image. Images for both eyes are simultaneously projected onto the screen, but there is orthogonal polarization, for example vertical polarization for the left eye image and horizontal polarization for the right eye image. The observer wears special polarized 3D viewing glasses with lenses that are properly polarized for the left and right eyes (eg, vertically polarized for the left eye and horizontally polarized for the right eye). Because of the polarization of the lens and image, the observer perceives only the left eye image with the left eye and only the right eye image with the right eye. The degree of depth illusion is partly a function of the offset between the two pictures on the screen.

3D 비디오 시스템에서, 좌안 화상과 우안 화상은 비디오 디스플레이 스크린에 의해 표시되지만 동시에 정확하게 표시되지는 않는다. 대신에, 좌안 화상과 우안 화상은 교번 방식으로 표시된다. 관찰자는, 우안 화상이 표시될 때 좌안을 셔터 차단하고 그 반대의 경우로도 차단하는 활성 셔터 안경을 착용한다.In a 3D video system, the left eye picture and the right eye picture are displayed by the video display screen but are not displayed correctly at the same time. Instead, the left eye image and the right eye image are displayed in an alternating manner. The observer wears active shutter glasses that block the left eye when the right eye image is displayed and vice versa.

3D 비디오의 경험은 인간 시각의 특성에 다소 의존할 수 있다. 예를 들어, 인간의 눈은 구별된 개수의 광 수용기들을 갖지만, 인간은 심지어 주변 시야에서도 어떠한 화소들도 구별하지 못한다. 더욱 놀라운 점은, 인간 망막에서의 색 감지 원뿔체들(color-sensitive cones)의 개수가 개인들 간에 급격하게 다를 수 있으며 최대 40까지 다를 수 있다는 점이다. 그럼에도 불구하고, 사람들은 색들을 동일한 방식으로 지각하는 것으로 보이며, 우리는 본질적으로 뇌를 이용하여 본다. 또한, 인간의 시계는 원뿔체 폭의 일부에서 사물의 정렬을 알아내는 능력(초시력)을 갖고 있다. 이는 왜 공간 에일리어싱 아티팩트(즉, 시각적 불규칙성)가 색 오차보다 뚜렷한지를 설명해준다.The experience of 3D video may depend somewhat on the characteristics of human vision. For example, the human eye has a distinct number of light receptors, but a human cannot distinguish any pixels even in the surrounding field of view. More surprisingly, the number of color-sensitive cones in the human retina can vary dramatically between individuals and up to 40. Nevertheless, people seem to perceive colors in the same way, and we essentially use the brain. In addition, the human watch has the ability (super vision) to determine the alignment of objects at a fraction of the cone's width. This explains why spatial aliasing artifacts (ie, visual irregularities) are more pronounced than color errors.

이러한 사실로 인해, 그래픽 하드웨어 판매자들은 색 정확성을 공간 연속성에 대하여 조절함으로써 에일리어싱 아티팩트를 보상하는 데 상당히 노력한다. 디지털 카메라의 집적 성질과 마찬가지로 가중 색 샘플들을 혼합하는 것에 기초하여 다수의 기술들이 하드웨어에서 지원된다.Because of this fact, graphics hardware vendors make great efforts to compensate for aliasing artifacts by adjusting color accuracy to spatial continuity. As with the integration nature of digital cameras, a number of techniques are supported in hardware based on mixing weighted color samples.

물론, 어떠한 에일리어싱 아티팩트도, 표시 해상도와 샘플링 레이트가 증가하면, 결국에는 사라지게 된다. 이는, 또한, 화소당 다수의 샘플들을 컴퓨팅하고 평균화함으로써 저 해상도에서 다룰 수 있다. 그러나, 여전히 대부분의 화상 렌더링 알고리즘들(예를 들어, 레이 트레이싱, 래스터화 기반 렌더링)에 있어서, 이는 매우 실현 가능하지 않을 수 있으며, 결국 평균화를 통해 폐기되는 색 샘플들을 컴퓨팅함으로써 전체 성능을 급격하게 감소시킬 수 있다.Of course, any aliasing artifacts will eventually disappear as the display resolution and sampling rate increase. It can also be handled at low resolutions by computing and averaging multiple samples per pixel. However, for most image rendering algorithms (e.g. ray tracing, rasterization based rendering) this may not be very feasible, resulting in a dramatic increase in overall performance by computing color samples that are discarded through averaging. Can be reduced.

형태학적 안티 에일리어싱(morphological anti-aliasing: MLAA)은 화상 내의 소정의 패턴들의 인식에 기초하는 기술이다. 일단 이러한 패턴들을 찾으면, 가장 발생가능한 소정의 화상의 귀납적 추정을 달성하고자, 색들을 이러한 패턴들 주위에서 혼합할 수 있다. MLAA는 다른 안티 에일리어싱 알고리즘들과 구별되는 고유한 특성들의 세트를 갖는다. MLAA는 렌더링 파이프라인으로부터 완전하게 독립적이다. 이것은, 메인 알고리즘이 CPU에서 실행되더라도 GPU에서 구현될 수 있는 단일 후처리 커널(kernel)을 나타낸다. MLAA는, 비최적화된 구현예에서도, 상당히 빨라서 단일 3GHz 코어에서 초당 약 20M 화소를 처리한다.Morphological anti-aliasing (MLAA) is a technique based on the recognition of certain patterns in an image. Once these patterns are found, the colors can be blended around these patterns to achieve an inductive estimation of the most likely predetermined image. MLAA has a set of unique characteristics that distinguish it from other anti-aliasing algorithms. MLAA is completely independent from the rendering pipeline. This represents a single post-processing kernel that can be implemented on the GPU even if the main algorithm runs on the CPU. MLAA, even in non-optimized implementations, is quite fast and handles about 20M pixels per second on a single 3GHz core.

MLAA는 2차원 화상을 위해 확립된 안티 에일리어싱 기술이다. 그러나, 3차원 재투영에 대하여 2차원 화상들에 사용되는 동일한 MLAA 기술을 수행함으로써, 다루어야 할 추가 문제점들이 발생한다.MLAA is an anti-aliasing technique established for two-dimensional images. However, by performing the same MLAA technique used for two-dimensional images for three-dimensional reprojection, additional problems arise.

본 발명의 실시예들은 이러한 관점 내에서 이루어진 것이다.Embodiments of the invention have been made within this context.

에일리어싱은, 저 해상도에서 고 해상도 화상을 표현함으로써 야기되는 시각적 왜곡 아티팩트(즉, 이웃하는 화소들 간의 들쭉날쭉한 가장자리들) 의 생성을 가리킨다. 형태학적 안티 에일리어싱은, 소정의 화상의 화소 불연속성들 간에 발생하는 그러한 들쭉날쭉한 가장자리들을 혼합하여 관찰자가 보기에 더욱 매끄러운 화상을 생성하는 프로세스이다. 일반적으로, 2차원 화상에 대한 형태학적 안티 에일리어싱은 3개의 스테이지에서 발생하는데, 즉, 1) 소정의 화상에서의 화소들 간의 불연속성을 찾는 경우, 2) 그러한 불연속성에 의해 생성되는 미리 규정된 패턴들을 식별하는 경우, 및 3) 그러한 미리 규정된 패턴들의 이웃에서 색들을 혼합하여 더욱 매끄러운 화상을 생성하는 경우이다.Aliasing refers to the generation of visual distortion artifacts (ie, jagged edges between neighboring pixels) caused by representing a high resolution image at low resolution. Morphological anti-aliasing is the process of mixing such jagged edges that occur between pixel discontinuities of a given image to produce a smoother image for the viewer to see. In general, morphological anti-aliasing for a two-dimensional image occurs in three stages, i.e. 1) when looking for discontinuities between pixels in a given image, 2) pre-defined patterns generated by such discontinuities. And 3) mixing colors in the neighborhood of such predefined patterns to produce a smoother image.

그러나, 2차원 화상의 재투영을 위한 형태학적 안티 에일리어싱은 2차원 화상의 안티 에일리어싱 동안 문제점들의 세트를 추가로 생성한다. 3차원으로 재투영될 2차원 화상에 대하여, 2개의 개별적인 비디오 화상(한 개당 하나의 눈을 위한 것임)의 배치가 심도 환영을 생성하도록 그러한 비디오 화상을 관찰자에게 제시해야 한다. 이렇게 추가된 심도 치수는 2차원 형태학적 안티 에일리어싱을 위해 사용되는 기술을 적용하는 것을 어렵게 한다.However, morphological anti-aliasing for reprojection of two-dimensional images further creates a set of problems during anti-aliasing of two-dimensional images. For a two-dimensional picture to be reprojected in three dimensions, such a video picture must be presented to the observer so that the placement of two separate video pictures (one for one eye per eye) creates a depth illusion. This added depth dimension makes it difficult to apply the techniques used for two-dimensional morphological antialiasing.

3차원에서 형태학적 안티 에일리어싱을 구현하기 위한 가능한 제1해결책은 2차원 화상이 각 뷰포인트에 재투영된 후 각각의 2차원 화상에서 형태학적 안티 에일리어싱을 실행하는 것을 포함한다. 따라서, 화소 불연속성의 결정 및 혼합은, 좌안과 우안에 재투영하는 경우에, 3차원에서 재투영되도록 각각의 2차원 화소마다 두 번 행해진다. 이론상으로는, 이 해결책은 3차원 재투영의 형태학적 안티 에일리어싱을 위한 정확한 프로시저(procedure)를 제공할 수 있지만, 실제로, 이는 구현하려면 매우 고가이다. 또한, 3차원으로 재투영될 각각의 2차원 화상마다 한번보다 많이 형태학적 안티 에일리어싱을 실행하게 되면, 일부 3D 비디오 애플리케이션들(예를 들어, 비디오 게임 또는 비디오 게임 시스템 프로세서)의 성능을 상당히 저하시킨다. 추가로 서로 다른 가장자리들이 서로 다른 화상들 간에 검출될 수 있어서, 한 눈은 혼합된 가장자리를 볼 수 있는 한편 나머지 한 눈은 여전히 에일리어싱된 가장자리를 보게 된다. 이는 망막 경합의 형태이어서, 전체적인 입체 효과의 신빙성을 감소시키고, 지각된 3D 화상에 대한 소정의 불편함을 추가한다.A first possible solution for implementing morphological antialiasing in three dimensions involves performing morphological antialiasing on each two dimensional image after the two dimensional image is reprojected to each viewpoint. Therefore, determination and mixing of pixel discontinuity are performed twice for each two-dimensional pixel so as to be reprojected in three dimensions when reprojection is performed on the left eye and the right eye. In theory, this solution can provide an accurate procedure for morphological antialiasing of three-dimensional reprojection, but in practice, this is very expensive to implement. In addition, performing morphological anti-aliasing more than once for each two-dimensional image to be reprojected in three dimensions significantly degrades the performance of some 3D video applications (eg, video games or video game system processors). . In addition, different edges can be detected between different images, such that one eye can see the mixed edge while the other eye still sees the aliased edge. This is a form of retinal contention, which reduces the reliability of the overall stereoscopic effect and adds some inconvenience to perceived 3D images.

3차원으로 형태학적 안티 에일리어싱을 구현하기 위한 제2해결책은, 3차원 재투영 전에 각각의 2차원 화상에 대하여 형태학적 안티 에일리어싱을 한 번만 실행하는 것을 포함한다. 이는 비용 효과적인 해결책을 제공하지만, 이것도 3차원 재투영에 할로잉 아티팩트(haloing artifact)를 부가한다. 재투영 전의 혼합에 따라, 전경 화소들이 배경 화소들과 혼합될 수 있다. 재투영 동안, 전경 화소는 배경 화소와는 다른 양으로 시프트된다. 때때로, 이는 이러한 화소들 간에 홀을 남긴다. 할로잉 아티팩트는 홀의 타측에서 보이는 장면에서의 요소의 색 또는 형상 정보를 가리킨다. 형태학적 안티 에일리어싱 동안 심도 값들을 혼합된 2차원 화상 화소들에 지정하는 것은, 어떠한 단일 값도 홀의 양측을 나타낼 수 없으므로, 어렵다. 단일 값은 홀을 두 개의 홀로 분리하여, 홀 크기를 감소시킬 수 있지만 문제점을 실제로 해결하지는 못한다. 혼합된 2차원 화상들의 화소 심도 값들을 결정하는 충분한 방법이 존재하지 않기 때문에, 이러한 할로잉 아티팩트는, 3차원 재투영 전에 형태학적 안티 에일리어싱이 행해지는 경우 순환 발생하는 문제점이 된다.A second solution for implementing morphological antialiasing in three dimensions involves performing morphological antialiasing once for each two-dimensional image before three-dimensional reprojection. This provides a cost effective solution, but this also adds haloing artifacts to the three-dimensional reprojection. Depending on the mixing before reprojection, the foreground pixels may be mixed with the background pixels. During reprojection, the foreground pixel is shifted by a different amount than the background pixel. Sometimes, this leaves a hole between these pixels. The hollowing artifacts refer to the color or shape information of the elements in the scene as seen from the other side of the hole. It is difficult to assign depth values to mixed two-dimensional image pixels during morphological antialiasing, since no single value can represent both sides of the hole. A single value can separate the hole into two holes, reducing the hole size but does not actually solve the problem. Since there is not enough way to determine the pixel depth values of the mixed two-dimensional images, this hauling artifact is a problem that occurs cyclically if morphological antialiasing is done before three-dimensional reprojection.

본 발명의 실시예들은 다른 방안을 활용한다. 재투영 전에 혼합을 행하는 것 대신에, 재투영 전에 혼합량을 계산하지만 재투영 전에 혼합을 화소들에 적용하지는 않는다. 대신에, 재투영을 계산된 혼합량에 적용하여 재투영된 혼합량을 생성한다. 재투영 후에, 이러한 재투영된 혼합량들을 재투영 화상의 관련된 화소들에 적용한다. 특히, 2차원 화상의 각각의 이웃하는 화소 간의 불연속성을 결정할 수 있다. 하나 이상의 불연속성에 의해 형성된 미리 규정된 패턴들을 식별할 수 있고, 미리 규정된 패턴들에 이웃하는 각 화소마다 혼합량을 계산할 수 있다. 이어서, 3차원 재투영을 2차원 화상 및 그에 대응하는 혼합량들에 적용할 수 있다. 그 결과, 재투영된 혼합량들을 3차원 재투영의 이웃하는 화소들에 적용할 수 있다. 이 기술은, 계산상으로 전술한 해결책들 중 어떠한 것보다도 덜 집중되어 있으며 강건한 방안보다 양호한 결과를 생성한다는 점에서 유리하다.Embodiments of the present invention utilize other approaches. Instead of blending before reprojection, the amount of blending is calculated before reprojection but no blending is applied to the pixels before reprojection. Instead, reprojection is applied to the calculated blend amount to produce a reprojected blend amount. After reprojection, these reprojected blend amounts are applied to the relevant pixels of the reprojection image. In particular, the discontinuity between each neighboring pixel of the two-dimensional image can be determined. Predefined patterns formed by one or more discontinuities can be identified, and the blending amount can be calculated for each pixel neighboring the predefined patterns. Three-dimensional reprojection can then be applied to the two-dimensional image and the corresponding blend amounts. As a result, the reprojected blend amounts can be applied to neighboring pixels of the three-dimensional reprojection. This technique is advantageous in that it is computationally less concentrated than any of the solutions described above and produces better results than a robust solution.

본 발명에 따르면, 전체적인 입체 효과의 신빙성을 감소시키고 지각된 3D 화상에 대한 소정의 불편함이 발생하는 문제점, 및 할로잉 아티펙트가 3차원 재투영 전에 형태학적 안티 에일리어싱이 행해지는 경우 순환 발생하는 문제점을 방지할 수 있다. According to the present invention, there is a problem of reducing the reliability of the overall stereoscopic effect and causing some inconvenience to the perceived 3D image, and a problem of circulating occurring when the morphological anti-aliasing is performed before the halo artifact is three-dimensional reprojection. Can be prevented.

도 1은 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱(MLAA) 방법을 도시하는 흐름도;
도 2는 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱 장치를 도시하는 블록도;
도 3은 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱 장치의 셀 프로세서 구현의 일례를 도시한 블록도;
도 4는 본 발명의 일 실시예에 따른 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱을 구현하기 위한 명령어들을 갖는 비일시적 컴퓨터 판독가능 저장 매체의 일례를 도시한 도면.
1 is a flowchart illustrating a morphological anti-aliasing (MLAA) method of three-dimensional reprojection of a two-dimensional image in accordance with one embodiment of the present invention;
2 is a block diagram illustrating a morphological antialiasing apparatus for three-dimensional reprojection of a two-dimensional image according to an embodiment of the present invention;
3 is a block diagram illustrating an example of a cell processor implementation of a morphological anti-aliasing device of three-dimensional reprojection of a two-dimensional image in accordance with one embodiment of the present invention;
4 illustrates an example of a non-transitory computer readable storage medium having instructions for implementing morphological antialiasing of three-dimensional reprojection of a two-dimensional image in accordance with an embodiment of the present invention.

도 1은 2차원 화상의 재투영의 형태학적 안티 에일리어싱(MLAA) 방법을 도시하는 흐름도이다. 본 발명의 방법(100)은, 소정의 화상에 대하여 한번보다 많이 MLAA를 실행하는 것과 연관된 비용을 감소시키는 한편, 선 재투영(pre-re-projection) MLAA에 연관된 할로잉 아티팩트/에일리어싱의 발생 비율도 감소시킨다. 이 방법(100)은 MLAA 처리를 두 개의 별도의 스테이지로 분리하고, 하나는 재투영 전에 실행되는 것이고, 나머지 하나는 재투영이 발생한 후에 실행되는 것이다.1 is a flowchart illustrating a morphological anti-aliasing (MLAA) method of reprojection of a two-dimensional image. The method 100 of the present invention reduces the cost associated with running MLAA more than once for a given image, while the incidence rate of hauling artifacts / aliasing associated with pre-re-projection MLAA Also reduces. This method 100 separates the MLAA process into two separate stages, one to be run before reprojection and the other to be run after reprojection has occurred.

이 방법(100)은 3차원 표시를 위해 2차원 좌안과 우안 화상들의 재투영에 적용될 수 있다. 좌안과 우안에서는, 사용하는 처리 시스템의 성질에 따라 MLAA와 재투영이 순차적으로 또는 동시에 발생할 수 있다. 화상들(101)은 가상 환경에 대한 데이터에 기초하여 컴퓨터 그래픽 프로그램에 의해 생성될 수 있다. 가상 환경, 예를 들어, 비디오 게임 환경은, 가상 환경 내의 대상물(object)들을 위한 물리적 특성들(예를 들어, 크기, 위치, 텍스처, 조명 등)을 나타내는 데이터로부터 생성될 수 있다. 환경의 뷰는, 때때로 가상 카메라 위치라고도 칭하는 규정된 뷰포인트로부터 생성될 수 있다. 이 뷰포인트가 알려져 있으면, 시계(field of view)를 계산할 수 있다. 시계는 3차원 형상으로 간주할 수 있으며, 예를 들어, 원뿔, 피라미드, 또는 각뿔대일 수 있다. 그래픽 소프트웨어는 가상 대상물들이 3차원 형상 내에 있는지를 결정할 수 있다. 3차원 형상 내에 있다면, 이러한 대상물들은 시야 내에 있으며, 대응하는 뷰포인트로부터의 화상의 일부일 수 있다. 시계 밖의 가상 대상물들은 화상으로부터 배제될 수 있다. 두 개의 별도의 뷰포인트 및 서로 약간 오프셋된 대응하는 시계들을 이용하여 가상 세계의 3D 뷰를 위한 좌안과 우안 화상들을 생성할 수도 있다는 점에 주목한다.This method 100 can be applied to reprojection of two-dimensional left and right eye images for three-dimensional display. In the left and right eyes, MLAA and reprojection may occur sequentially or simultaneously, depending on the nature of the processing system used. Images 101 may be generated by a computer graphics program based on data for a virtual environment. The virtual environment, eg, a video game environment, can be generated from data indicative of physical properties (eg, size, location, texture, lighting, etc.) for objects within the virtual environment. A view of the environment can be created from a defined viewpoint, sometimes referred to as a virtual camera location. If this viewpoint is known, the field of view can be calculated. The field of view can be considered a three-dimensional shape and can be, for example, a cone, a pyramid, or a pyramid. The graphics software can determine if the virtual objects are in a three-dimensional shape. If within the three-dimensional shape, these objects are in view and may be part of the image from the corresponding viewpoint. Virtual objects outside the field of view may be excluded from the image. Note that two separate viewpoints and corresponding clocks slightly offset from each other may be used to generate left and right eye images for the 3D view of the virtual world.

우선, 소정의 2차원 화상(101)은, 관찰자에게 매끄러운 3차원 재투영으로서 제시되기 전에 일련의 처리 단계들을 거친다. 우선, 2차원 화상(101)을 횡단하여 화소 불연속성을 결정한다(103). 소정의 화상을 수직으로 횡단한 후 수평으로 횡단할 수 있으며, 또는 그 반대로도 가능하다. 화소 불연속성은 이웃하는 화소들이 일관성 없는 특성들을 갖는 경우 그러한 이웃하는 화소들(예를 들어, 수직 이웃과 수평 이웃 모두) 간에 발생한다. 예를 들어, 이러한 특성들은 소정의 화소에 연관된 색 또는 형상 프로파일을 포함할 수 있지만, 이러한 예로 한정되지 않는다. 화소들 간의 서로 다른 특성들의 임의의 개수를 포함하도록 불연속성들을 규정할 수 있다는 점에 주목하는 것이 중요하다.First, a given two-dimensional image 101 undergoes a series of processing steps before being presented to the viewer as smooth three-dimensional reprojection. First, pixel discontinuity is determined by traversing the two-dimensional image 101 ( 103 ). It is possible to traverse a given image vertically and then horizontally, or vice versa. Pixel discontinuity occurs between neighboring pixels (eg, both vertical and horizontal neighbors) if the neighboring pixels have inconsistent characteristics. For example, such properties may include, but are not limited to, a color or shape profile associated with a given pixel. It is important to note that discontinuities can be defined to include any number of different characteristics between the pixels.

일단 소정의 2차원 화상에 대한 화소 불연속성들이 결정되었다면, 이러한 화소 불연속성들에 의해 형성된 미리 규정된 패턴들을 식별할 수 있다(105). 예를 들어, 두 개의 화소를 분리하는 라인에 의해 그 두 개의 화소 간의 불연속성을 식별할 수 있지만, 이러한 예로 한정되지 않는다. 각 화소는 최대 4개의 서로 다른 불연속성(즉, 상부, 하부, 좌측, 우측)에 의해 특징화될 수 있다. 인접하며 서로 직교하는 화소 불연속성들은, 2차원 화상의 화소들 간의 변화를 특징화하는 미리 규정된 패턴들을 형성할 수 있다. 예를 들어, 이러한 미리 규정된 패턴들은 L 형상, U 형상, Z 형상을 포함할 수 있지만, 이러한 예로 한정되지 않는다. L 형상 패턴은, 하나 이상의 화소 불연속성들의 체인이 하나 이상의 화소 불연속성들의 직교 체인과 교차할 때 형성된다. U 형상 패턴은, 하나 이상의 화소 불연속성들의 체인이 대향측들 상의 하나 이상의 화소 불연속성들의 두 개의 직교 체인들과 교차할 때 형성되며, 각각의 직교 체인은 동일한 길이를 갖고 동일한 방향을 향한다. Z 형상 패턴은, 하나 이상의 화소 불연속성들의 체인이 대향측들 상의 하나 이상의 화소 불연속성들의 두 개의 직교 체인들과 교차할 때 형성되고, 각각의 직교 체인은 반대 방향을 향한다. 이러한 미리 규정된 패턴들은 화소 혼합량을 계산하기 위한 청사진을 제공한다.Once pixel discontinuities for a given two-dimensional image have been determined, one can identify the predefined patterns formed by these pixel discontinuities ( 105 ). For example, a discontinuity between the two pixels can be identified by a line separating the two pixels, but the example is not limited thereto. Each pixel can be characterized by up to four different discontinuities (ie, top, bottom, left, right). Adjacent and orthogonal pixel discontinuities may form predefined patterns that characterize changes between the pixels of the two-dimensional image. For example, such predefined patterns may include L shape, U shape, Z shape, but are not limited to this example. An L-shaped pattern is formed when a chain of one or more pixel discontinuities intersects an orthogonal chain of one or more pixel discontinuities. A U-shaped pattern is formed when a chain of one or more pixel discontinuities intersects two orthogonal chains of one or more pixel discontinuities on opposite sides, each orthogonal chain having the same length and pointing in the same direction. A Z-shaped pattern is formed when a chain of one or more pixel discontinuities intersects two orthogonal chains of one or more pixel discontinuities on opposite sides, with each orthogonal chain facing in the opposite direction. These predefined patterns provide a blueprint for calculating the pixel mixing amount.

화소 불연속성들에 의해 형성된 미리 규정된 패턴들이 소정의 2차원 화상에 대하여 식별된 후, 참조 번호 (107)로 표시한 바와 같이, 식별된 패턴들에 이웃하는 화소들에 대한 혼합량들을 계산할 수 있다. 미리 규정된 패턴을 둘러싸는 이웃하는 화소들의 배치에 따라, 각각의 개별적인 화소마다 다른 혼합량을 선택할 수 있다. 혼합량은, 불연속 화소들 간의 매끄러운 전이에 사용되는 소정의 화소에 대한 가중 색/형상 프로파일을 가리킨다. 예를 들어, 미리 규정된 패턴에 더욱 가깝게 있는 화소는 더욱 멀리 있는 화소보다 많은 혼합량을 경험할 수 있지만, 이러한 예로 한정되지는 않는다. 식별된 미리 규정된 패턴들에 기초한 다양한 식들을 이용하여, 화상의 각 화소마다 혼합량을 결정할 수 있다. 이 단계는 2차원 화상의 3차원 투영의 형태학적 안티 에일리어싱의 제1스테이지를 종료한다.After predefined patterns formed by the pixel discontinuities have been identified for a given two-dimensional image, as indicated by reference numeral 107 , the blending amounts for the pixels neighboring the identified patterns can be calculated. Depending on the arrangement of neighboring pixels surrounding the predefined pattern, a different blending amount can be selected for each individual pixel. The blend amount refers to the weighted color / shape profile for a given pixel used for smooth transitions between discrete pixels. For example, a pixel that is closer to a predefined pattern may experience a greater amount of mixing than a pixel that is farther away, but is not limited to this example. Various equations based on the identified predefined patterns can be used to determine the blending amount for each pixel of the image. This step ends the first stage of morphological antialiasing of the three-dimensional projection of the two-dimensional image.

혼합량의 결정에 이어서, 화소 혼합 전에, 참조 번호 (109)로 표시한 바와 같이, 재투영을 수행한다. 재투영은 하나 이상의 2차원 화상을 3차원 공간으로 매핑하는 것을 포함한다. 동일한 화상의 다른 뷰를 각 눈에 제시하여, 심도 환영을 생성한다. 일반적으로, 2차원 화상의 각 화소에는 재투영 동안 색 프로파일과 심도 값이 지정된다. 이어서, 각 뷰(즉, 좌안 뷰, 우안 뷰)마다 이러한 값들을 조절하여 3차원 재투영을 생성한다. 본 발명의 방법에 있어서, 혼합량에 대응하는 추가 정보를 각 화소에 지정하고, 그 정보를 각 뷰마다 적절한 값들로 변환한다(즉, 각 화소마다 혼합량의 재투영). 따라서, 재투영을 각 화소마다 혼합량과 하나 이상의 2차원 화상에 적용함으로써, 화상들의 각 화소마다 재투영된 혼합량들 및 하나 이상의 재투영된 화상들을 생성한다.Following determination of the blending amount, re-projection is performed, as indicated by reference numeral 109 , before pixel mixing. Reprojection involves mapping one or more two-dimensional images to three-dimensional space. Different views of the same image are presented to each eye, creating a depth illusion. In general, each pixel of a two-dimensional image is assigned a color profile and depth value during reprojection. Then, these values are adjusted for each view (ie, left eye view, right eye view) to generate three-dimensional reprojection. In the method of the present invention, additional information corresponding to the blending amount is assigned to each pixel, and the information is converted into appropriate values for each view (i.e., reprojection of the blending amount for each pixel). Thus, the reprojection is applied to each blend of pixels and the one or more two-dimensional images, thereby producing the reprojected blend amounts and one or more reprojected images for each pixel of the images.

화상들과 혼합량들의 재투영 후에, 참조 번호 (111)로 표시한 바와 같이, 재투영된 혼합량들을 재투영(3차원 재투영의 각각의 2차원 뷰)에 적용하여 출력 화상들을 생성할 수 있다. 재투영된 화상(들)의 이웃하는 화소들은 재투영된 혼합량들에 따라 혼합되고, 이에 따라 하나 이상의 출력 화상들을 생성한다. 하나 이상의 2차원 화상(101)이 장면의 좌안과 우안 뷰들을 포함하는 경우, 출력 화상들은 그 장면의 재투영된 좌안과 우안 화상들에 대응한다는 점에 주목한다. 출력 화상들은, 참조 번호 (113)으로 표시한 바와 같이 디스플레이 상에 제시될 수 있다. 3차원 입체 좌안과 우안 화상들의 경우에, 디스플레이의 성질에 따라 화상들을 순차적으로 또는 동시에 표시할 수 있다는 점에 주목한다. 예를 들어, 좌안과 우안 화상들은, 능동 셔터 안경과 함께 사용되는 3D 텔레비전 디스플레이의 경우에 순차적으로 표시될 수 있다. 대안으로, 좌안과 우안 화상들은, 서로 다른 색 또는 서로 다른 편광의 좌안과 우안 렌즈들을 갖는 수동 3D 뷰 안경과 함께 사용되는 이중 투영 유형의 경우에, 동시에 표시될 수도 있다.After reprojection of the images and blending amounts, as indicated by reference numeral 111 , the reprojected blending amounts may be applied to the reprojection (each two-dimensional view of the three-dimensional reprojection) to produce output images. Neighboring pixels of the reprojected image (s) are blended according to the reprojected blend amounts, thereby producing one or more output images. Note that if one or more two-dimensional images 101 include left and right eye views of the scene, the output pictures correspond to the reprojected left and right eye images of the scene. The output pictures can be presented on the display as indicated by reference numeral 113 . Note that in the case of three-dimensional stereoscopic left and right eye images, the images can be displayed sequentially or simultaneously depending on the nature of the display. For example, left and right eye images may be displayed sequentially in the case of a 3D television display used with active shutter glasses. Alternatively, the left eye and right eye images may be displayed simultaneously in the case of the dual projection type used with manual 3D view glasses having left and right eye lenses of different colors or different polarizations.

재투영 전에 혼합량들을 결정하였지만, 화상 가장자리들은 2차원으로부터 3차원으로의 재투영 동안 상당히 변하지 않을 것으로 예상된다. 이처럼, 전술한 두 개의 가능한 해결책들에 연관된 결과들 중 어떠한 것으로부터도 영향을 받지 않고 매끄러운 화상을 생성할 수 있다.Although the blend amounts were determined prior to reprojection, the image edges are expected to not change significantly during reprojection from two to three dimensions. As such, it is possible to produce a smooth image without being affected by any of the results associated with the two possible solutions described above.

도 2는 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱(MLAA) 방법을 구현하는 데 사용될 수 있는 컴퓨터 장치의 블록도를 도시한다. 장치(200)는 일반적으로 프로세서 모듈(201)과 메모리(205)를 포함할 수 있다. 프로세서 모듈(201)은 하나 이상의 프로세서 코어를 포함할 수 있다. 다수의 프로세서 모듈들을 사용하는 처리 시스템의 일례는, 셀 프로세서이며, 그 예로는, 예를 들어, 문헌[Cell Broadband Engine Architecture, Version 1.0, August 8, 2005]에 상세히 설명되어 있으며, 이는 본 명세서에 참고로 포함된다. 이 문헌의 카피는 http://www.ief.u-psud.fr/~lacas/Computer Architecture/CBE_Architecture_v10.pdf인 URL에서 온라인으로 이용가능하다.2 shows a block diagram of a computer device that may be used to implement a morphological anti-aliasing (MLAA) method of three-dimensional reprojection of two-dimensional images. The device 200 may generally include a processor module 201 and a memory 205 . The processor module 201 may include one or more processor cores. One example of a processing system using multiple processor modules is a cell processor, examples of which include, for example, Cell. Broadband Engine Architecture , Version 1.0, August 8, 2005, which is incorporated herein by reference. A copy of this document is available online at the URL: http://www.ief.u-psud.fr/~lacas/Computer Architecture / CBE_Architecture_v10.pdf.

메모리(205)는 집적 회로의 형태일 수 있으며, 예를 들어, RAM, DRAM, ROM 등일 수 있다. 메모리(205)는 또한 프로세서 모듈들 모두에 의해 액세스 가능한 메인 메모리일 수 있다. 일부 실시예들에서, 프로세서 모듈(201)은 각 코어에 연관된 로컬 메모리들을 가질 수 있다. 프로그램(203)은, 프로세서 모듈들에서 실행될 수 있는 프로세서 판독가능 명령어의 형태로 메인 메모리(205)에 저장될 수 있다. 프로그램(203)은 2차원 화상의 3차원 투영의 형태학적 안티 에일리어싱(MLAA)을 수행하도록 구성될 수 있다. 프로그램(203)은, 임의의 적절한 프로세서 판독가능 언어로, 예를 들어, C, C++, 자바, 어셈블리, 매트랩, 포트란, 및 다수의 기타 언어로 기입될 수 있다. 입력 데이터(207)도 메모리에 저장될 수 있다. 이러한 입력 데이터(207)는, 이웃하는 화소 불연속성들, 미리 규정된 패턴들의 식별, 및 화소 혼합량들에 관한 정보를 포함할 수 있다. 프로그램(203)의 실행 동안, 프로그램 코드 및/또는 데이터의 일부들은, 다수의 프로세서 코어들에 의한 병렬 처리를 위해 프로세서 코어들의 로컬 저장 장치들이나 메모리에 로딩될 수 있다.The memory 205 may be in the form of an integrated circuit, and may be, for example, RAM, DRAM, ROM, or the like. Memory 205 may also be main memory accessible by all of the processor modules. In some embodiments, processor module 201 may have local memories associated with each core. The program 203 may be stored in the main memory 205 in the form of processor readable instructions that may be executed in the processor modules. Program 203 may be configured to perform morphological anti-aliasing (MLAA) of three-dimensional projection of a two-dimensional image. The program 203 can be written in any suitable processor readable language, for example C, C ++, Java, assembly, Matlab, Fortran, and many other languages. Input data 207 may also be stored in the memory. This input data 207 may include information regarding neighboring pixel discontinuities, identification of predefined patterns, and pixel blend amounts. During execution of program 203 , portions of program code and / or data may be loaded into local storage or memory of processor cores for parallel processing by multiple processor cores.

또한, 장치(200)는, 입력/출력(I/O) 요소(211), 전원(P/S)(213), 클록(CLK)(215) 및 캐시(217) 등의 널리 알려져 있는 지지 기능들(209)을 포함할 수 있다. 장치(200)는, 선택 사항으로, 프로그램 및/또는 데이터를 저장하기 위한 디스크 드라이브, CD-ROM, 테이프 드라이브 등의 대용량 저장 디바이스(219)를 포함할 수도 있다. 디바이스(200)는, 선택 사항으로, 사용자와 장치 간의 상호 작용을 용이하게 하도록 표시 유닛(221)과 사용자 인터페이스 유닛(225)을 포함할 수도 있다. 예를 들어, 표시 유닛(221)은, 텍스트, 숫자, 그래픽 기호, 또는 기타 시각적 대상물을, I/O 요소(211)에 연결된 셔터 안경일 수 있는 3D 뷰 안경(227)으로 지각되는 입체 화상들로서 표시하는 3D 준비 완료 텔레비전 세트의 형태일 수 있지만, 이러한 예로 한정되지 않는다. 대안으로, 표시 유닛(221)은 스크린 상에 좌안과 우안 화상들을 동시에 투영하는 3D 프로젝터를 포함할 수 있다. 이러한 경우에, 3D 뷰 안경은, 서로 다른 색의 또는 서로 다른 편광의 좌안과 우안 렌즈들을 구비하는 수동형 안경일 수 있다. 입체 영상은, 각 눈에 약간 다른 화상을 제시함으로써 2차원 화상에서의 심도 환영의 향상을 가리킨다. 사용자 인터페이스(225)는, 키보드, 마우스, 조이스틱, 라이트 펜, 또는 그래픽 사용자 인터페이스(GUI)와 함께 사용될 수 있는 기타 디바이스를 포함할 수 있다. 또한, 장치(200)는 디바이스가 인터넷 등의 네트워크를 통해 다른 디바이스들과 통신할 수 있게 하는 네트워크 인터페이스(223)를 포함할 수 있다.In addition, device 200 includes well-known support functions such as input / output (I / O) element 211 , power supply (P / S) 213 , clock (CLK) 215 , and cache 217 . 209 may be included. The apparatus 200 may optionally include a mass storage device 219 , such as a disk drive, CD-ROM, tape drive, for storing programs and / or data. The device 200 may optionally include a display unit 221 and a user interface unit 225 to facilitate interaction between the user and the device. For example, display unit 221 displays text, numbers, graphic symbols, or other visual objects as stereoscopic images perceived by 3D view glasses 227 , which may be shutter glasses connected to I / O element 211 . It may be in the form of a 3D ready television set, but is not limited to this example. Alternatively, the display unit 221 may include a 3D projector that simultaneously projects left and right eye images on the screen. In this case, the 3D viewing glasses may be passive glasses having left and right eye lenses of different colors or different polarizations. Stereoscopic images indicate an improvement in depth illusion in two-dimensional images by presenting slightly different images for each eye. The user interface 225 can include a keyboard, mouse, joystick, light pen, or other device that can be used with a graphical user interface (GUI). The apparatus 200 may also include a network interface 223 that allows the device to communicate with other devices via a network such as the Internet.

프로세서(201), 메모리(205), 지원 기능(209), 대용량 저장 디바이스(219), 사용자 인터페이스(225), 네트워크 인터페이스(223), 및 디스플레이(221)를 포함한 시스템(200)의 구성요소들은, 하나 이상의 데이터 버스(229)를 통해 서로 동작가능하게 접속될 수 있다. 이러한 구성요소들은, 하드웨어, 소프트웨어, 또는, 펌웨어, 또는 이들 중 두 개 이상의 소정의 조합으로 구현될 수 있다.The components of system 200 , including processor 201 , memory 205 , support function 209 , mass storage device 219 , user interface 225 , network interface 223 , and display 221 , It may be operatively connected to each other via one or more data buses 229. These components may be implemented in hardware, software, or firmware, or some combination of two or more thereof.

장치의 다수의 프로세서들을 이용하여 병렬 처리를 간소화하는 많은 추가 방식들이 있다. 예를 들어, 두 개 이상의 프로세서 코어 상에 코드를 복제하고 각 프로세서 코어가 다른 데이터를 처리하기 위한 코드를 구현하게 함으로써, 처리 루프들을 "전개"(unroll)할 수 있다. 이러한 구현은 루프를 설정하는 것에 연관된 레이턴시(latency)를 피할 수 있다. 본 발명에 적용된 바와 같이, 다수의 프로세서들은 소정의 화상에 대하여 화소들 간의 불연속성들을 병행 결정할 수 있다(예를 들어, 하나의 프로세서는 수평 패스를 수행하고 다른 프로세서는 수직 패스를 수행한다). 데이터를 병렬 처리하는 능력은 상당한 처리 시간을 세이브하여, 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱을 위한 시스템을 더욱 효율적이고 간소화한다.There are many additional ways to simplify parallel processing using multiple processors in the device. For example, one can "unroll" processing loops by duplicating code on two or more processor cores and having each processor core implement code for processing different data. Such an implementation may avoid latency associated with establishing a loop. As applied to the present invention, multiple processors may determine discontinuities between pixels for a given image in parallel (eg, one processor performs a horizontal pass and another processor performs a vertical pass). The ability to process data in parallel saves significant processing time, making the system for morphological antialiasing of three-dimensional reprojection of two-dimensional images more efficient and simplified.

특히, 3개 이상의 프로세서에서 병렬 처리를 구현할 수 있는 처리 시스템의 일례가 셀 프로세서이다. 셀 프로세서들로서 분류될 수 있는 다수의 서로 다른 프로세서 아키텍처들이 있다. 예를 들어, 도 3은 셀 프로세서의 한 유형을 도시하지만, 이러한 예로 한정되지 않는다. 셀 프로세서(300)는, 메인 메모리(301), 단일 전력 프로세서 요소(power processor element: PPE)(307), 및 8개의 시너지 프로세서 요소(synergistic processor element: SPE)(311)를 포함한다. 대안으로, 셀 프로세서는 임의의 개수의 SPE로 구성될 수도 있다. 도 3에 관하여, 메모리(301), PPE(307) 및 SPE(311)는 링 유형 요소 상호접속 버스(317)를 통해 서로 통신할 수 있고 I/O 디바이스(315)와 통신할 수 있다. 메모리(301)는 전술한 프로그램과 공통되는 특징을 갖는 입력 데이터(303)를 포함한다. SPE(311)들 중 적어도 하나는 자신의 로컬 저장 장치(LS)에 2차원 화상 명령어(313)의 3차원 재투영의 형태학적 안티 에일리어싱 및/또는 예를 들어 전술한 바와 같이 병렬 처리될 입력 데이터의 일부를 포함할 수 있다. PPE(307)는, 자신의 L1 캐시 내에, 전술한 프로그램과 공통되는 특징을 갖는 2차원 화상 명령어(309)의 3차원 재투영의 형태학적 안티 에일리어싱을 포함할 수 있다. 또한, 명령어(305)와 데이터(303)는 필요시 SPE(311)와 PPE(307)에 의한 액세스를 위해 메모리(301)에 저장될 수 있다. 본 발명의 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱의 방법에 포함된 임의의 개수의 프로세스들은 셀 프로세서를 사용하여 병렬화될 수 있다는 점에 주목해야 한다. MLAA는, 상당한 병렬화 잠재력을 갖고 있으며, 멀티 코어 머신에서는, 아이들 스레드(렌더링을 종료하는 스레드 또는 가속 구조의 일부를 구축하는 것을 종료하는 스레드)에서 최종 출력 화상을 처리함으로써 더욱 양호한 로드 밸런싱을 달성하도록 사용될 수 있다.In particular, an example of a processing system capable of implementing parallel processing on three or more processors is a cell processor. There are a number of different processor architectures that can be classified as cell processors. For example, FIG. 3 shows one type of cell processor, but is not limited to this example. The cell processor 300 includes a main memory 301 , a single power processor element (PPE) 307 , and eight synergistic processor elements (SPEs) 311 . In the alternative, the cell processor may be configured in any number of SPEs. 3, the memory 301 , the PPE 307 , and the SPE 311 may communicate with each other and the I / O device 315 via a ring type element interconnect bus 317 . The memory 301 includes input data 303 having features in common with the above-described program. At least one of the SPEs 311 is in its local storage LS a morphological anti-aliasing of the three-dimensional reprojection of the two-dimensional picture instruction 313 and / or input data to be processed in parallel, for example as described above. It may include part of. The PPE 307 may include, in its L1 cache, morphological anti-aliasing of three-dimensional reprojection of two-dimensional image instructions 309 having features common to those described above. Further, instructions 305 and data 303 may be stored in memory 301 for access by SPE 311 and PPE 307 as needed. It should be noted that any number of processes included in the method of morphological antialiasing of three-dimensional reprojection of two-dimensional images of the present invention can be parallelized using a cell processor. MLAA has significant parallelization potential, and in multi-core machines, to achieve better load balancing by processing the final output image in idle threads (threads that terminate rendering or those that terminate building part of the acceleration structure). Can be used.

예를 들어, PPE(307)는 연관된 캐시를 구비하는 64비트 파워 PC 프로세서 유닛(PPU)일 수 있다. PPE(307)는 선택 사항인 벡터 멀티미디어 확장 유닛을 포함할 수 있다. 각 SPE(311)는 시너지 프로세서 유닛(SPU) 및 로컬 저장 장치(LS)를 포함한다. 일부 구현예에서, 로컬 저장 장치는, 예를 들어, 데이터와 프로그램을 위한 메모리의 약 256킬로 바이트의 용량을 가질 수 있다. SPU들은, 통상적으로 시스템 관리 기능을 수행하지 않는다는 점에서, PPU보다 덜 복잡한 계산 유닛들이다. SPU들은 단일 명령어 다수 데이터(SIMD) 능력을 가질 수 있고, 통상적으로, 할당된 태스크들을 수행하기 위해 데이터를 처리하고 (PPE에 의해 설정된 성질들에 액세스하기 위한) 임의의 필요한 데이터 전달을 개시한다. SPU들은 시스템이 더욱 높은 계산 단위 밀도를 필요로 하는 애플리케이션들을 구현할 수 있게 하며, 제공된 명령어 세트를 효과적으로 사용할 수 있다. PPE에 의해 관리되는 시스템 내의 SPU들의 상당 개수는 애플리케이션들의 넓은 범위에 걸쳐 비용 효과적인 처리를 가능하게 한다. 예를 들어, 셀 프로세서는 셀 브로드밴드 엔진 아키텍처(CBEA)로서 알려져 있는 아키텍처를 특징으로 할 수 있다. CBEA-호환성 아키텍처에서, 다수의 PPE들은 PPE 그룹으로 조합될 수 있고, 다수의 SPE들은 SPE 그룹으로 조합될 수 있다. 예를 들어, 셀 프로세서는, 단일 SPE와 단일 PPE와 함께 단일 SPE 그룹과 단일 PPE 그룹을 갖는 것으로서 도시되어 있다. 대안으로, 셀 프로세서는 전력 프로세서 요소들의 다수의 그룹들(PPE 그룹들) 및 시너지 프로세서 요소들의 다수의 그룹들(SPE 그룹들)을 포함할 수 있다. CBEA-호환성 프로세서들은, 예를 들어, https://www306.ibm.com/chips/techlib/techlib.nsf/techdocs/1AEEE1270EA277638725706000E61BA/$file/CBEA_01_pub.pdf에서 온라인으로 이용가능한 Cell Broadband Engine Architecture에 상세히 설명되어 있으며, 이는 본 명세서에서 참고로 통합된다.For example, PPE 307 may be a 64-bit Power PC Processor Unit (PPU) with an associated cache. The PPE 307 may include an optional vector multimedia expansion unit. Each SPE 311 includes a Synergy Processor Unit (SPU) and Local Storage (LS). In some implementations, local storage can have a capacity of about 256 kilobytes of memory, for example, for data and programs. SPUs are computation units that are less complex than PPU in that they typically do not perform system management functions. SPUs may have a single instruction multiple data (SIMD) capability and typically process data to perform assigned tasks and initiate any necessary data transfer (to access properties set by the PPE). SPUs enable the system to implement applications that require higher computational unit densities and can effectively use the provided instruction set. A significant number of SPUs in a system managed by the PPE allow for cost effective processing over a wide range of applications. For example, the cell processor may feature an architecture known as cell broadband engine architecture (CBEA). In a CBEA-compatible architecture, multiple PPEs can be combined into PPE groups and multiple SPEs can be combined into SPE groups. For example, a cell processor is shown as having a single SPE group and a single PPE group together with a single SPE and a single PPE. In the alternative, the cell processor may include multiple groups of power processor elements (PPE groups) and multiple groups of synergy processor elements (SPE groups). CBEA-compatible processors are, for example, Cell available online at https://www306.ibm.com/chips/techlib/techlib.nsf/techdocs/1AEEE1270EA277638725706000E61BA/$file/CBEA_01_pub.pdf It is described in detail in the Broadband Engine Architecture , which is incorporated herein by reference.

다른 일 실시예에 따르면, 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱을 위한 명령어가 컴퓨터 판독가능 저장 매체에 저장될 수 있다. 예를 들어, 도 4는 본 발명의 일 실시예에 따른 비일시적 컴퓨터 판독가능 저장 매체(400)의 일례를 도시하지만, 이러한 예로 한정되지 않는다. 저장 매체(400)는 컴퓨터 처리 디바이스에 의해 검색, 변환, 및 실행될 수 있는 포맷으로 저장된 컴퓨터 판독가능 명령어들을 포함한다. 예를 들어, 컴퓨터 판독가능 저장 매체는, RAM 또는 ROM 등의 컴퓨터 판독가능 메모리, 고정된 디스크 드라이브를 위한 컴퓨터 판독가능 저장 디스크(예를 들어, 하드 디스크 드라이브), 또는 탈착가능 디스크 드라이브일 수 있지만, 이러한 예로 한정되지 않는다. 또한, 컴퓨터 판독가능 저장 매체(400)는, 플래시 메모리 디바이스, 컴퓨터 판독가능 테이프, CD-ROM, DVD-ROM, 블루레이, HD-DVD, UMD, 또는 다른 광학 저장 매체일 수 있다.According to another embodiment, instructions for morphological antialiasing of three-dimensional reprojection of a two-dimensional image may be stored in a computer readable storage medium. For example, FIG. 4 shows an example of a non-transitory computer readable storage medium 400 according to one embodiment of the invention, but is not limited to this example. Storage medium 400 includes computer readable instructions stored in a format that can be retrieved, converted, and executed by a computer processing device. For example, the computer readable storage medium may be a computer readable memory such as RAM or ROM, a computer readable storage disk (eg, a hard disk drive) for a fixed disk drive, or a removable disk drive. However, such examples are not limited. In addition, computer readable storage medium 400 may be a flash memory device, computer readable tape, CD-ROM, DVD-ROM, Blu-ray, HD-DVD, UMD, or other optical storage medium.

저장 매체(400)는, 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱을 위한 명령어들(401)을 포함한다. 2차원 화상의 3차원 재투영의 형태학적 안티 에일리어싱을 위한 명령어들(401)은, 도 1에 관하여 전술한 방법들에 따라 형태학적 안티 에일리어싱을 구현하도록 구성될 수 있다. 구체적으로, 형태학적 안티 에일리어싱을 위한 명령어들(401)은, 소정의 화상의 이웃하는 화소들 간의 불연속성들을 결정하는 데 사용되는 이웃하는 화소 불연속성 명령어들(403)을 결정하는 것을 포함할 수 있다. 불연속성의 결정은 두 개의 스테이지로 완료될 수 있다. 한 스테이지에서 이웃하는 수직 화소들 간의 수직 불연속성을 결정할 수 있고, 다른 한 스테이지에서 이웃하는 수평 화소들 간의 수평 불연속성을 결정할 수 있다. 대안으로, 수직 및 수평 불연속성들은 동시에 결정될 수도 있다. 불연속성은, 두 개의 이웃하는 화소 간에 색 프로파일들의 차이가 있을 때, 두 개의 이웃하는 화소 간에 형상 프로파일들의 차이가 있을 때, 또는 소정의 화상에서의 이웃하는 화소들 간에 임의의 개수의 다른 차이가 있을 때, 발생할 수 있다.Storage medium 400 includes instructions 401 for morphological anti-aliasing of three-dimensional reprojection of a two-dimensional image. Instructions 401 for morphological antialiasing of three-dimensional reprojection of a two-dimensional image may be configured to implement morphological antialiasing according to the methods described above with respect to FIG. 1. In particular, the instructions 401 for morphological anti-aliasing may include determining neighboring pixel discontinuity instructions 403 used to determine discontinuities between neighboring pixels of a given image. The determination of discontinuity can be completed in two stages. Vertical discontinuity between neighboring vertical pixels in one stage may be determined, and horizontal discontinuity between neighboring horizontal pixels in another stage may be determined. Alternatively, vertical and horizontal discontinuities may be determined simultaneously. A discontinuity may be when there is a difference in color profiles between two neighboring pixels, when there is a difference in shape profiles between two neighboring pixels, or in any number of other differences between neighboring pixels in a given image. When, it can happen.

또한, 형태학적 안티 에일리어싱 명령어들(401)은 화소들 간의 불연속성들에 의해 형성된 하나 이상의 미리 규정된 패턴들을 식별하는 미리 규정된 패턴 명령어들(405)을 식별하는 것을 포함할 수 있다. 이러한 미리 규정된 패턴들은, 전술한 바와 같이 U 형상 패턴, Z 형상 패턴 및 L 형상 패턴을 포함할 수 있다.Morphological anti-aliasing instructions 401 may also include identifying predefined pattern instructions 405 that identify one or more predefined patterns formed by discontinuities between pixels. Such predefined patterns may include a U-shaped pattern, a Z-shaped pattern, and an L-shaped pattern as described above.

형태학적 안티 에일리어싱 명령어들(401)은, 불연속성들에 의해 형성된 미리 규정된 패턴들에 이웃하는 화소들을 위한 혼합량들을 계산하도록 구성된 혼합량 명령어들(407)을 계산하는 것을 더 포함할 수 있다. 혼합량은 불연속 화소들 간의 매끄러운 전이에 사용되는 소정의 화소에 대한 가중 색/형상 프로파일을 가리킨다. 예를 들어, 백색 화소에 이웃하는 흑색 화소는, 불연속성에 의해 야기되는 들쭉날쭉한 가장자리 느낌이 관찰자에 의해 지각될 때 가라앉도록, 흑색 화소(및 아마도 다른 이웃하는 화소들)를 그레이 화소로 변환하는 혼합량을 생성할 수 있다.Morphological anti-aliasing instructions 401 may further include calculating blend amount instructions 407 configured to calculate blend amounts for pixels neighboring predefined patterns formed by discontinuities. The blend amount refers to the weighted color / shape profile for a given pixel used for smooth transitions between discrete pixels. For example, a black pixel neighboring a white pixel converts a black pixel (and possibly other neighboring pixels) into a gray pixel so that the jagged edge feeling caused by discontinuity subsides when perceived by the viewer. Mixing amounts can be produced.

형태학적 안티 에일리어싱 명령어들(401)은, 2차원 화상과 이에 대응하는 혼합량 모두에 재투영을 적용하는 3차원 재투영 명령어들(409)을 적용하는 것을 포함할 수 있다. 재투영 전에 혼합량을 2차원 화상에 적용하기보다는, 이러한 명령어들은, 혼합이 추후 단계에서 발생할 수 있도록 혼합량들을 3차원 재투영한다(즉, 혼합량들을 해당하는 대응 3차원 재투영 값들로 변환한다).Morphological anti-aliasing instructions 401 may include applying three-dimensional reprojection instructions 409 that apply reprojection to both the two-dimensional image and the corresponding blend amount. Rather than applying the blending amount to the two-dimensional image before reprojection, these instructions three-dimensional reprojection of the blending amounts (ie, converting the blending amounts into corresponding corresponding three-dimensional reprojection values) so that blending can occur in a later step.

형태학적 안티 에일리어싱 명령어들(401)은, 재투영된 혼합 값들에 따라 2차원 화상의 3차원 재투영을 혼합하는 3차원 재투영 명령어들(411)을 혼합하고 이에 따라 하나 이상의 출력 화상을 생성하는 것을 더 포함할 수 있다.Morphological anti-aliasing instructions 401 mix three-dimensional reprojection instructions 411 that blend three-dimensional reprojection of a two-dimensional image according to the reprojected blend values and thereby generate one or more output images. It may further include.

형태학적 안티 에일리어싱 명령어들(401)은, 디스플레이 상의 표시를 위해 출력 화상들을 포맷화하는 표시 명령어들(413)을 더 포함할 수 있다.Morphological anti-aliasing instructions 401 may further include display instructions 413 that format the output pictures for display on the display.

본 발명의 실시예들은, MLAA를 구현하는 프로세서들에 의해 행해져야 하는 작업량을 감소시키면서 종래의 방안들보다 양호한 MLAA 결과를 생성할 수 있는 방식으로 MLAA를 구현할 수 있다.Embodiments of the present invention can implement MLAA in a manner that can produce better MLAA results than conventional approaches while reducing the amount of work that must be done by processors implementing MLAA.

수동형 또는 능동형 3D 뷰 안경을 사용하여 입체 3D 화상들을 보는 구현예들을 설명하였지만, 본 발명의 실시예들은 이러한 구현예들로 한정되지 않는다. 특히, 본 발명의 실시예들은, 머리 추적이나 수동형 또는 능동형 3D 뷰 안경에 의존하지 않는 입체 3D 비디오 기술들에 적용될 수 있다. 이러한 "안경 없는" 입체 3D 비디오 기술들의 예들은 때때로 오토스테레오스코픽 기술 또는 오토스테레오스코피(Autostereoscopy)라 칭한다. 이러한 기술들의 예로는, 렌티큘러 렌즈의 사용에 기초하는 기술들이 있지만, 이에 한정되지 않는다. 렌티큘러 렌즈는, 약간 다른 각도에서 볼 때 서로 다른 화상들이 확대되도록 설계된 확대 렌즈들의 어레이이다. 서로 다른 화상들은 렌티큘러 렌즈를 다른 각도에서 볼 때 3차원 뷰 효과를 제공하도록 선택될 수 있다. 생성된 화상들의 개수는 스크린을 위한 뷰포인트들의 개수에 비례하여 증가한다. 이러한 시스템에서 더욱 많은 화상들을 사용할수록, 이러한 시스템에서 형태학적 안티 에일리어싱을 구현하는 본 발명의 실시예들이 더욱 유용해진다.Although embodiments have been described for viewing stereoscopic 3D images using passive or active 3D view glasses, embodiments of the present invention are not limited to these embodiments. In particular, embodiments of the present invention may be applied to stereoscopic 3D video techniques that do not rely on head tracking or passive or active 3D view glasses. Examples of such “glasses free” stereoscopic 3D video technologies are sometimes referred to as autostereoscopic techniques or autostereoscopy. Examples of such techniques include, but are not limited to, techniques based on the use of lenticular lenses. A lenticular lens is an array of magnifying lenses designed to magnify different images when viewed from slightly different angles. Different images may be selected to provide a three-dimensional viewing effect when viewing the lenticular lens from different angles. The number of generated images increases in proportion to the number of viewpoints for the screen. The more pictures used in such a system, the more useful embodiments of the present invention for implementing morphological antialiasing in such a system.

더욱 구체적으로, 렌티큘러 렌즈 비디오 시스템에서, 약간 다른 뷰 각도에서의 장면의 재투영 화상들은, 화상의 각 화소마다 심도 정보 및 초기 2D 화상으로부터 생성될 수 있다. 재투영 기술을 이용함으로써, 점진적으로 서로 다른 뷰 각도에서의 장면의 서로 다른 뷰들을 초기 2D 화상과 심도 정보로부터 생성할 수 있다. 서로 다른 뷰들을 나타내는 화상들은 스트립들로 나누어질 수 있고, 렌티큘러 렌즈 어레이와 뷰 위치 간에 배치된 디스플레이 스크린을 갖는 오토스테레오스코픽 디스플레이 상에 인터레이싱 방식으로 표시될 수 있다. 렌티큘러 렌즈들을 구성하는 렌즈들은 스트립들과 정렬되는 원통형 확대 렌즈들일 수 있으며, 일반적으로 스트립들의 폭의 두 배이다. 관찰자는 스크린을 보는 각도에 따라 장면의 서로 다른 뷰들을 지각한다. 서로 다른 뷰들은 표시되고 있는 장면에서 심도 환영을 제공하도록 선택될 수 있다.More specifically, in a lenticular lens video system, reprojected images of a scene at slightly different viewing angles may be generated from depth information and an initial 2D image for each pixel of the image. By using the reprojection technique, progressively different views of the scene at different viewing angles can be generated from the initial 2D image and depth information. Images representing different views can be divided into strips and displayed in an interlaced manner on an autostereoscopic display having a display screen disposed between the lenticular lens array and the view position. The lenses that make up the lenticular lenses may be cylindrical magnifying lenses that are aligned with the strips, and are generally twice the width of the strips. The viewer perceives different views of the scene according to the angle of view of the screen. Different views may be selected to provide depth welcome in the scene being displayed.

또한, 본 발명의 일부 실시예들은 2차원 화상의 3차원 재투영의 경우에 에일리어싱 문제를 해결할 수 있고 재투영을 위해 하나보다 많은 화상을 생성하는 것을 포함하지만, 실시예들은 재투영의 넌-3D 경우에 더욱 일반적으로 적용가능하다. 또한, 일부 3차원 구현예에서는, 두 개 이상의 화상을 생성할 필요가 없을 수도 있다. 예를 들어, 스테레오스코픽 디스플레이의 경우에, 재투영을 통해 좌안과 우안 화상들 모두를 생성할 필요가 없을 수 있다. 대안으로, 재투영을 통해 하나의 새로운 화상만을 생성할 수도 있다. 예를 들어, 좌안 화상을 위해 각 화소마다 색과 심도 정보로 시작할 수 있고, 재투영을 통해 대응하는 우안 화상을 생성할 수 있고(또는 그 반대의 경우도 가능하고), 이에 따라 스테레오스코픽 디스플레이에서의 표시에 충분한 화상들이 발생할 수 있다. 이는 재투영된 단일 화상만을 생성하는 것을 포함한다.In addition, some embodiments of the present invention may solve the aliasing problem in the case of three-dimensional reprojection of a two-dimensional image and include generating more than one image for reprojection, although embodiments are non-3D of reprojection. More generally applicable. In addition, in some three-dimensional implementations, it may not be necessary to generate more than one image. For example, in the case of a stereoscopic display, it may not be necessary to generate both left and right eye images via reprojection. Alternatively, only one new picture may be generated through reprojection. For example, you can start with color and depth information for each pixel for a left eye image, and create a corresponding right eye image through reprojection (or vice versa), so that in a stereoscopic display Sufficient images may be generated for the display of. This involves generating only a reprojected single picture.

본 발명의 일부 바람직한 버전들에 관하여 매우 상세히 본 발명을 설명하였지만, 다른 버전들도 가능하다. 따라서, 청구범위의 사상과 범위는 본 명세서에 포함된 바람직한 버전들의 설명으로 한정되지 않아야 한다. 대신에, 본 발명의 범위는 청구범위를 청구범위의 균등물의 전체 범위와 함께 참조하여 결정되어야 한다.Although the invention has been described in great detail with respect to some preferred versions of the invention, other versions are possible. Accordingly, the spirit and scope of the claims should not be limited to the description of the preferred versions contained herein. Instead, the scope of the invention should be determined with reference to the claims, along with the full scope of equivalents of the claims.

(청구범위, 요약, 도면을 비롯한) 본 명세서에서 개시한 모든 특징들은, 달리 명확하게 언급하지 않는 한, 동일한, 균등한, 또는, 유사한 목적에 기여하는 대안 특징들로 대체될 수도 있다. 따라서, 달리 명확하게 언급하지 않는 한, 개시한 각 특징은 일련의 균등한 또는 유사한 특징들의 일반적인 일례이다. 바람직한 것이든 아니든 임의의 특징을 바람직한 것이든 아니든 다른 임의의 특징과 조합할 수도 있다. 이하의 청구범위에서, "한" 또는 "하나"인 부정관사는, 달리 명확하게 언급하지 않는 한, 구를 뒤따르는 항목의 하나 이상의 양을 가리킨다. 특정 기능을 수행하는 "을 위한 수단"을 명시적으로 언급하지 않는 청구항에서의 임의의 요소는, 미국 특허법(35 USC § 112, ¶ 6)에서 특정한 바와 같이 "수단" 또는 "단계" 절로서 해석되어선 안 된다. 구체적으로, 본 명세서의 청구범위에서 "하는 단계"라는 사용은 미국 특허법(35 USC § 112, ¶ 6)의 규정을 적용하려는 것이 아니다.All features disclosed in this specification (including claims, summaries, and drawings) may be replaced by alternative features that serve the same, equivalent, or similar purpose unless explicitly stated otherwise. Thus, unless expressly stated otherwise, each feature disclosed is a general example of a series of equivalent or similar features. Any feature, whether preferred or not, may be combined with any other feature, whether desired or not. In the following claims, the indefinite article "a" or "an" refers to one or more quantities of items following the phrase, unless expressly stated otherwise. Any element in a claim that does not explicitly mention "means for" to perform a particular function is to be construed as a "means" or "step" clause as specified in US Patent Law (35 USC § 112, ¶ 6). It should not be. Specifically, the use of “steps” in the claims herein is not intended to apply the provisions of US patent law (35 USC § 112, ¶ 6).

당업자는, 본 명세서와 동시에 제출되었으며 본 명세서와 함께 대중의 의한 검사를 위해 개방된 모든 논문과 문헌에 주목하기 바라며, 이들 논문과 문헌의 내용은 본 명세서에 참고로 통합된다.Those skilled in the art are interested in paying attention to all papers and documents submitted concurrently with this specification and open for examination by the public with this specification, the contents of which are incorporated herein by reference.

Claims (24)

하나 이상의 2차원 화상의 재투영의 형태학적 안티 에일리어싱 방법으로서,
a) 상기 하나 이상의 2차원 화상의 각각의 이웃하는 화소 간의 하나 이상의 불연속성을 결정하는 단계;
b) 상기 a) 단계에서의 하나 이상의 불연속성에 의해 형성된 하나 이상의 미리 규정된 패턴을 식별하는 단계;
c) 상기 b) 단계에서 식별된 미리 규정된 패턴에 이웃하는 각 화소마다 혼합량을 계산하는 단계;
d) 각 화소마다 상기 혼합량과 상기 하나 이상의 2차원 화상에 재투영을 적용하여 하나 이상의 재투영된 화상과 재투영된 혼합량을 생성하는 단계;
e) 상기 재투영된 혼합량에 따라 상기 하나 이상의 재투영된 화상의 이웃하는 화소들을 혼합하여 하나 이상의 출력 화상을 생성하는 단계; 및
f) 상기 하나 이상의 출력 화상을 표시하는 단계를 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.
A method of morphological antialiasing of reprojection of one or more two-dimensional images,
a) determining one or more discontinuities between each neighboring pixel of the one or more two-dimensional images;
b) identifying one or more predefined patterns formed by one or more discontinuities in step a);
c) calculating a blending amount for each pixel neighboring the predefined pattern identified in step b);
d) applying reprojection to the blend amount and the one or more two-dimensional images for each pixel to produce one or more reprojected images and a reprojected blend amount;
e) blending neighboring pixels of the one or more reprojected images according to the reprojected blending amount to produce one or more output images; And
f) displaying the one or more output images.
제1항에 있어서, 상기 하나 이상의 출력 화상은 장면의 좌안과 우안 뷰들을 포함하고, 이에 의해, 상기 출력 화상이 상기 장면의 재투영된 좌안과 우안 화상들에 대응하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.The method of claim 1, wherein the one or more output pictures comprise left and right eye views of a scene, whereby the output picture corresponds to reprojected left and right eye images of the scene. Aliasing method. 제1항에 있어서, 상기 f) 단계는 재투영된 좌안과 우안 화상들을 3차원 디스플레이 상에 표시하는 단계를 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.2. The method of claim 1, wherein step f) comprises displaying the reprojected left and right eye images on a three-dimensional display. 제1항에 있어서, 각 화소가 서로 다른 색 프로파일을 갖는 경우 이웃하는 화소들 간에 불연속성이 발생하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.2. The method of claim 1, wherein discontinuity occurs between neighboring pixels when each pixel has a different color profile. 제1항에 있어서, 각 화소가 서로 다른 형상 프로파일을 갖는 경우 이웃하는 화소들 간에 불연속성이 발생하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.2. The method of claim 1, wherein discontinuity occurs between neighboring pixels when each pixel has a different shape profile. 제1항에 있어서, 상기 a) 단계는, 이웃하는 수평 화소들 간의 수평 불연속성들을 발견하거나 이웃하는 수직 화소들 간의 수직 불연속성들을 발견하는 단계를 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.2. The method of claim 1, wherein step a) comprises discovering horizontal discontinuities between neighboring horizontal pixels or vertical discontinuities between neighboring vertical pixels. 제1항에 있어서, 상기 a) 단계는, 이웃하는 수평 화소들 간의 수평 불연속성들을 발견하고 이웃하는 수직 화소들 간의 수직 불연속성들을 발견하는 단계를 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.2. The method of claim 1, wherein step a) comprises finding horizontal discontinuities between neighboring horizontal pixels and finding vertical discontinuities between neighboring vertical pixels. 제1항에 있어서, 상기 f) 단계는, 상기 하나 이상의 2차원 화상을 스트립들로 나누는 단계와, 상기 스트립들을 장면의 서로 다른 뷰의 하나 이상의 서로 다른 2차원 화상의 스트립들로 인터레이싱하여 인터레이싱된 화상들의 세트를 생성하는 단계와, 디스플레이 스크린과 뷰 위치 사이에 배치된 렌티큘러 렌즈를 갖는 오토스테레오스코픽 디스플레이 상에 인터레이싱된 화상들을 표시하는 단계를 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.The method of claim 1, wherein f) comprises: dividing the one or more two-dimensional images into strips, interlacing the strips into strips of one or more different two-dimensional images of different views of the scene, and interleaving. Generating a set of raced images and displaying the interlaced images on an autostereoscopic display having a lenticular lens disposed between the display screen and the view position. . 제1항에 있어서, 상기 b) 단계에서의 상기 미리 규정된 패턴은 L 형상 패턴을 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.The method according to claim 1, wherein the predefined pattern in step b) comprises an L-shaped pattern. 제1항에 있어서, 상기 b) 단계에서의 상기 미리 규정된 패턴은 U 형상 패턴을 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.The method of claim 1 wherein the predefined pattern in step b) comprises a U-shaped pattern. 제1항에 있어서, 상기 b) 단계에서의 상기 미리 규정된 패턴은 Z 형상 패턴을 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 방법.The method of claim 1, wherein the predefined pattern in step b) comprises a Z-shaped pattern. 형태학적 안티 에일리어싱 장치로서,
프로세서;
메모리; 및
상기 메모리 내에 구체화되고 상기 프로세서에 의해 실행가능한 컴퓨터 코딩 명령어들을 포함하되,
상기 컴퓨터 코딩 명령어들은, 하나 이상의 2차원 화상의 재투영의 형태학적 안티 에일리어싱 방법을 구현하도록 구성되고,
상기 방법은,
a) 상기 하나 이상의 2차원 화상의 각각의 이웃하는 화소 간의 하나 이상의 불연속성을 결정하는 단계;
b) 상기 하나 이상의 불연속성에 의해 형성된 하나 이상의 미리 규정된 패턴을 식별하는 단계;
c) 상기 b) 단계에서 식별된 미리 규정된 패턴에 이웃하는 각 화소마다 혼합량을 계산하는 단계;
d) 각 화소마다 상기 혼합량과 상기 하나 이상의 2차원 화상에 재투영을 적용하여 하나 이상의 재투영된 화상과 재투영된 혼합량을 생성하는 단계; 및
e) 상기 재투영된 혼합량에 따라 상기 하나 이상의 재투영된 화상의 이웃하는 화소들을 혼합하여 하나 이상의 출력 화상을 생성하는 단계를 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.
As a morphological antialiasing device,
A processor;
Memory; And
Computer coded instructions embodied in the memory and executable by the processor,
The computer-coded instructions are configured to implement a morphological anti-aliasing method of reprojection of one or more two-dimensional images,
The method comprises:
a) determining one or more discontinuities between each neighboring pixel of the one or more two-dimensional images;
b) identifying one or more predefined patterns formed by the one or more discontinuities;
c) calculating a blending amount for each pixel neighboring the predefined pattern identified in step b);
d) applying reprojection to the blend amount and the one or more two-dimensional images for each pixel to produce one or more reprojected images and a reprojected blend amount; And
and e) generating at least one output image by mixing neighboring pixels of said at least one reprojected image in accordance with said reprojected blending amount.
제12항에 있어서, 상기 하나 이상의 출력 화상을 표시하도록 구성된 3차원 비주얼 디스플레이를 더 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.13. The morphological anti-aliasing device of claim 12, further comprising a three-dimensional visual display configured to display the one or more output images. 제13항에 있어서, 상기 하나 이상의 2차원 화상은 장면의 좌안과 우안 뷰들을 포함하고, 이에 의해, 상기 출력 화상들이 상기 장면의 재투영된 좌안과 우안 화상들에 대응하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.14. The morphological form of claim 13, wherein the one or more two-dimensional images comprise left and right eye views of a scene, whereby the output pictures correspond to reprojected left and right eye images of the scene. Anti-aliasing device. 제13항에 있어서, 상기 디스플레이는 디스플레이 스크린과 뷰 위치 사이에 배치된 렌티큘러 렌즈를 구비하는 오토스테레오스코픽 디스플레이인 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.14. The morphological anti-aliasing device of claim 13, wherein the display is an autostereoscopic display having a lenticular lens disposed between the display screen and the view position. 제15항에 있어서, 상기 하나 이상의 2차원 화상을 스트립들로 나누고, 상기 스트립들을 장면의 서로 다른 뷰의 하나 이상의 서로 다른 2차원 화상의 스트립들로 인터레이싱하여 인터레이싱된 화상들의 세트를 생성하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.The method of claim 15, wherein dividing the one or more two-dimensional images into strips and interlacing the strips into strips of one or more different two-dimensional images of different views of the scene to produce a set of interlaced images. Morphological anti-aliasing device, characterized in that. 제12항에 있어서, 각 화소가 서로 다른 색 프로파일을 갖는 경우 이웃하는 화소들 간에 불연속성이 발생하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.13. The morphological anti-aliasing device of claim 12, wherein discontinuity occurs between neighboring pixels when each pixel has a different color profile. 제12항에 있어서, 각 화소가 서로 다른 형상 프로파일을 갖는 경우 이웃하는 화소들 간에 불연속성이 발생하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.13. The morphological anti-aliasing device of claim 12, wherein discontinuity occurs between neighboring pixels when each pixel has a different shape profile. 제12항에 있어서, 상기 a) 단계는 먼저 이웃하는 수평 화소들 간의 수평 불연속성들을 발견한 후 이웃하는 수직 화소들 간의 수직 불연속성들을 발견하는 단계를 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.13. The morphological anti-aliasing device of claim 12, wherein step a) comprises first discovering horizontal discontinuities between neighboring horizontal pixels and then finding vertical discontinuities between neighboring vertical pixels. 제12항에 있어서, 상기 a) 단계는 먼저 이웃하는 수직 화소들 간의 수직 불연속성들을 발견한 후 이웃하는 수평 화소들 간의 수평 불연속성들을 발견하는 단계를 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.13. The morphological anti-aliasing device of claim 12, wherein step a) includes first discovering vertical discontinuities between neighboring vertical pixels and then finding horizontal discontinuities between neighboring horizontal pixels. 제12항에 있어서, 상기 b) 단계에서 미리 규정된 패턴은 L 형상 패턴을 포함하는 것인, 형태학적 안티 에일리어싱 장치.13. The morphological anti-aliasing device of claim 12, wherein the predefined pattern in step b) comprises an L-shaped pattern. 제12항에 있어서, 상기 b) 단계에서 미리 규정된 패턴은 U 형상 패턴을 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.13. The morphological anti-aliasing device of claim 12, wherein the predefined pattern in step b) comprises a U-shaped pattern. 제12항에 있어서, 상기 b) 단계에서 미리 규정된 패턴은 Z 형상 패턴을 포함하는 것을 특징으로 하는 형태학적 안티 에일리어싱 장치.13. The morphological anti-aliasing device of claim 12, wherein the predefined pattern in step b) comprises a Z-shaped pattern. 컴퓨터 프로그램 제품으로서,
2차원 화상의 재투영의 형태학적 안티 에일리어싱(MLAA)을 위한 컴퓨터 판독가능 프로그램 코드를 갖는 비일시적 컴퓨터 판독가능 저장 매체를 포함하되,
상기 컴퓨터 판독가능 프로그램 코드는 상기 비일시적 컴퓨터 판독가능 저장 매체 내에 구체화되고, 상기 컴퓨터 프로그램 제품은,
a) 2차원 화상의 각각의 이웃하는 화소 간의 하나 이상의 불연속성을 결정하기 위한 컴퓨터 판독가능 프로그램 코드 수단;
b) 상기 하나 이상의 불연속성에 의해 형성된 하나 이상의 미리 규정된 패턴들을 식별하기 위한 컴퓨터 판독가능 프로그램 코드 수단;
c) 상기 b) 단계에서 식별된 미리 규정된 패턴에 이웃하는 각 화소마다 혼합량을 계산하기 위한 컴퓨터 판독가능 프로그램 코드 수단;
d) 각 화소마다 상기 혼합량과 상기 2차원 화상에 재투영을 적용하여 재투영된 화상과 재투영된 혼합량을 생성하기 위한 컴퓨터 판독가능 프로그램 코드 수단;
e) 상기 재투영된 혼합량에 따라 상기 재투영된 화상의 이웃하는 화소들을 혼합하여 하나 이상의 출력 화상을 생성하기 위한 컴퓨터 판독가능 프로그램 코드 수단; 및
f) 상기 하나 이상의 출력 화상을 표시하기 위한 컴퓨터 판독가능 프로그램 코드 수단을 포함하는 것을 특징으로 하는 컴퓨터 프로그램 제품.
As a computer program product,
A non-transitory computer readable storage medium having computer readable program code for morphological antialiasing (MLAA) of reprojection of two-dimensional images,
The computer readable program code is embodied in the non-transitory computer readable storage medium, and the computer program product includes:
a) computer readable program code means for determining one or more discontinuities between each neighboring pixel of the two-dimensional image;
b) computer readable program code means for identifying one or more predefined patterns formed by the one or more discontinuities;
c) computer readable program code means for calculating a blending amount for each pixel neighboring the predefined pattern identified in step b);
d) computer readable program code means for applying a reprojection to the blend amount and the two-dimensional image for each pixel to produce a reprojected image and a reprojected blend amount;
e) computer readable program code means for mixing one or more output images by blending neighboring pixels of the reprojected image according to the amount of reprojected blending; And
f) computer readable program code means for displaying said at least one output image.
KR1020137016936A 2011-01-07 2011-12-02 Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image KR101851180B1 (en)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US12/986,872 US9183670B2 (en) 2011-01-07 2011-01-07 Multi-sample resolving of re-projection of two-dimensional image
US12/986,854 2011-01-07
US12/986,827 US8514225B2 (en) 2011-01-07 2011-01-07 Scaling pixel depth values of user-controlled virtual object in three-dimensional scene
US12/986,872 2011-01-07
US12/986,814 2011-01-07
US12/986,854 US8619094B2 (en) 2011-01-07 2011-01-07 Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image
US12/986,827 2011-01-07
US12/986,814 US9041774B2 (en) 2011-01-07 2011-01-07 Dynamic adjustment of predetermined three-dimensional video settings based on scene content
PCT/US2011/063003 WO2012094076A1 (en) 2011-01-07 2011-12-02 Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image

Publications (2)

Publication Number Publication Date
KR20140004115A true KR20140004115A (en) 2014-01-10
KR101851180B1 KR101851180B1 (en) 2018-04-24

Family

ID=46457655

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020137016936A KR101851180B1 (en) 2011-01-07 2011-12-02 Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image
KR1020137018730A KR101741468B1 (en) 2011-01-07 2011-12-02 Multi-sample resolving of re-projection of two-dimensional image

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020137018730A KR101741468B1 (en) 2011-01-07 2011-12-02 Multi-sample resolving of re-projection of two-dimensional image

Country Status (5)

Country Link
KR (2) KR101851180B1 (en)
CN (7) CN105898273B (en)
BR (2) BR112013017321A2 (en)
RU (2) RU2562759C2 (en)
WO (4) WO2012094075A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016010246A1 (en) * 2014-07-16 2016-01-21 삼성전자주식회사 3d image display device and method
KR20160009487A (en) * 2014-07-16 2016-01-26 삼성전자주식회사 Device and Method of 3D Image Display

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110136191B (en) * 2013-10-02 2023-05-09 基文影像公司 System and method for size estimation of in vivo objects
EP3232406B1 (en) * 2016-04-15 2020-03-11 Ecole Nationale de l'Aviation Civile Selective display in a computer generated environment
CN107329690B (en) * 2017-06-29 2020-04-17 网易(杭州)网络有限公司 Virtual object control method and device, storage medium and electronic equipment
CN109398731B (en) 2017-08-18 2020-09-08 深圳市道通智能航空技术有限公司 Method and device for improving depth information of 3D image and unmanned aerial vehicle
GB2571306A (en) * 2018-02-23 2019-08-28 Sony Interactive Entertainment Europe Ltd Video recording and playback systems and methods
CN109992175B (en) * 2019-04-03 2021-10-26 腾讯科技(深圳)有限公司 Object display method, device and storage medium for simulating blind feeling
RU2749749C1 (en) * 2020-04-15 2021-06-16 Самсунг Электроникс Ко., Лтд. Method of synthesis of a two-dimensional image of a scene viewed from a required view point and electronic computing apparatus for implementation thereof
CN111275611B (en) * 2020-01-13 2024-02-06 深圳市华橙数字科技有限公司 Method, device, terminal and storage medium for determining object depth in three-dimensional scene
CN112684883A (en) * 2020-12-18 2021-04-20 上海影创信息科技有限公司 Method and system for multi-user object distinguishing processing
US11882295B2 (en) 2022-04-15 2024-01-23 Meta Platforms Technologies, Llc Low-power high throughput hardware decoder with random block access
US20230334736A1 (en) * 2022-04-15 2023-10-19 Meta Platforms Technologies, Llc Rasterization Optimization for Analytic Anti-Aliasing

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2724033B1 (en) * 1994-08-30 1997-01-03 Thomson Broadband Systems SYNTHESIS IMAGE GENERATION METHOD
US5790086A (en) * 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
GB9511519D0 (en) * 1995-06-07 1995-08-02 Richmond Holographic Res Autostereoscopic display with enlargeable image volume
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
EP2357836B1 (en) * 2002-03-27 2015-05-13 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US20050226538A1 (en) * 2002-06-03 2005-10-13 Riccardo Di Federico Video scaling
EP1437898A1 (en) * 2002-12-30 2004-07-14 Koninklijke Philips Electronics N.V. Video filtering for stereo images
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US8094927B2 (en) * 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US20050248560A1 (en) * 2004-05-10 2005-11-10 Microsoft Corporation Interactive exploded views from 2D images
US7643672B2 (en) * 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
CA2599483A1 (en) * 2005-02-23 2006-08-31 Craig Summers Automatic scene modeling for the 3d camera and 3d video
JP4555722B2 (en) * 2005-04-13 2010-10-06 株式会社 日立ディスプレイズ 3D image generator
US20070146360A1 (en) * 2005-12-18 2007-06-28 Powerproduction Software System And Method For Generating 3D Scenes
GB0601287D0 (en) * 2006-01-23 2006-03-01 Ocuity Ltd Printed image display apparatus
US8044994B2 (en) * 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
US7778491B2 (en) 2006-04-10 2010-08-17 Microsoft Corporation Oblique image stitching
CN100510773C (en) * 2006-04-14 2009-07-08 武汉大学 Single satellite remote sensing image small target super resolution ratio reconstruction method
US20080085040A1 (en) * 2006-10-05 2008-04-10 General Electric Company System and method for iterative reconstruction using mask images
US20080174659A1 (en) * 2007-01-18 2008-07-24 Mcdowall Ian Wide field of view display device and method
GB0716776D0 (en) * 2007-08-29 2007-10-10 Setred As Rendering improvement for 3D display
WO2009047681A1 (en) * 2007-10-11 2009-04-16 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
US8493437B2 (en) * 2007-12-11 2013-07-23 Raytheon Bbn Technologies Corp. Methods and systems for marking stereo pairs of images
US9137518B2 (en) * 2008-01-29 2015-09-15 Thomson Licensing Method and system for converting 2D image data to stereoscopic image data
JP4695664B2 (en) * 2008-03-26 2011-06-08 富士フイルム株式会社 3D image processing apparatus, method, and program
US9019381B2 (en) * 2008-05-09 2015-04-28 Intuvision Inc. Video tracking systems and methods employing cognitive vision
US8106924B2 (en) 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor
US8743114B2 (en) * 2008-09-22 2014-06-03 Intel Corporation Methods and systems to determine conservative view cell occlusion
CN101383046B (en) * 2008-10-17 2011-03-16 北京大学 Three-dimensional reconstruction method on basis of image
EP2340648B1 (en) * 2008-10-28 2019-12-11 Koninklijke Philips N.V. A three dimensional display system
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
CN101783966A (en) * 2009-01-21 2010-07-21 中国科学院自动化研究所 Real three-dimensional display system and display method
RU2421933C2 (en) * 2009-03-24 2011-06-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." System and method to generate and reproduce 3d video image
US8289346B2 (en) 2009-05-06 2012-10-16 Christie Digital Systems Usa, Inc. DLP edge blending artefact reduction
US9269184B2 (en) * 2009-05-21 2016-02-23 Sony Computer Entertainment America Llc Method and apparatus for rendering image based projected shadows with multiple depth aware blurs
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
CN101937079B (en) * 2010-06-29 2012-07-25 中国农业大学 Remote sensing image variation detection method based on region similarity

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016010246A1 (en) * 2014-07-16 2016-01-21 삼성전자주식회사 3d image display device and method
KR20160009487A (en) * 2014-07-16 2016-01-26 삼성전자주식회사 Device and Method of 3D Image Display
US10666933B2 (en) 2014-07-16 2020-05-26 Samsung Electronics Co., Ltd. 3D image display device and method

Also Published As

Publication number Publication date
WO2012094074A2 (en) 2012-07-12
WO2012094075A1 (en) 2012-07-12
CN103283241A (en) 2013-09-04
BR112013016887B1 (en) 2021-12-14
WO2012094076A9 (en) 2013-07-25
CN103348360B (en) 2017-06-20
CN105898273B (en) 2018-04-10
WO2012094076A1 (en) 2012-07-12
CN103947198A (en) 2014-07-23
KR101741468B1 (en) 2017-05-30
CN105894567A (en) 2016-08-24
CN103283241B (en) 2016-03-16
CN103947198B (en) 2017-02-15
BR112013017321A2 (en) 2019-09-24
BR112013016887A2 (en) 2020-06-30
CN103348360A (en) 2013-10-09
RU2013136687A (en) 2015-02-20
CN105959664A (en) 2016-09-21
CN105894567B (en) 2020-06-30
CN105898273A (en) 2016-08-24
WO2012094074A3 (en) 2014-04-10
CN103329165A (en) 2013-09-25
KR101851180B1 (en) 2018-04-24
WO2012094077A1 (en) 2012-07-12
KR20130132922A (en) 2013-12-05
RU2562759C2 (en) 2015-09-10
RU2573737C2 (en) 2016-01-27
RU2013129687A (en) 2015-02-20
CN105959664B (en) 2018-10-30
CN103329165B (en) 2016-08-24

Similar Documents

Publication Publication Date Title
KR101851180B1 (en) Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image
EP1582074B1 (en) Video filtering for stereo images
KR101907945B1 (en) Displaying graphics in multi-view scenes
US8669979B2 (en) Multi-core processor supporting real-time 3D image rendering on an autostereoscopic display
CN100565589C (en) The apparatus and method that are used for depth perception
US8619094B2 (en) Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image
Tsai et al. A real-time 1080p 2D-to-3D video conversion system
JP7181233B2 (en) Processing 3D image information based on texture maps and meshes
US8982187B2 (en) System and method of rendering stereoscopic images
KR20110116671A (en) Apparatus and method for generating mesh, and apparatus and method for processing image
US9565414B2 (en) Efficient stereo to multiview rendering using interleaved rendering
US20230381646A1 (en) Advanced stereoscopic rendering
JP2008243046A (en) Texture processing device, method, and program
Kellnhofer et al. Optimizing disparity for motion in depth
Northam et al. Stereoscopic 3D image stylization
KR101425321B1 (en) System for displaying 3D integrated image with adaptive lens array, and method for generating elemental image of adaptive lens array
Sun et al. Real-time depth-image-based rendering on GPU
Rößing et al. Real‐Time Disparity Map‐Based Pictorial Depth Cue Enhancement
Ahn et al. Application of DIBR algorithm in real-time image
Jung et al. Parallel view synthesis programming for free viewpoint television
Yu et al. Layered depth-of-field rendering using color spreading
TW201325202A (en) Three-dimension image processing method
Chen et al. Stereoscopic image transforms to autostereoscopic multiplexed image
Le Feuvre et al. Graphics Composition for Multiview Displays
Doyen et al. Display independent real-time multi-view rendering engine

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant