KR20130138177A - 다중 시점 장면에서의 그래픽 표시 - Google Patents
다중 시점 장면에서의 그래픽 표시 Download PDFInfo
- Publication number
- KR20130138177A KR20130138177A KR1020137003419A KR20137003419A KR20130138177A KR 20130138177 A KR20130138177 A KR 20130138177A KR 1020137003419 A KR1020137003419 A KR 1020137003419A KR 20137003419 A KR20137003419 A KR 20137003419A KR 20130138177 A KR20130138177 A KR 20130138177A
- Authority
- KR
- South Korea
- Prior art keywords
- different
- dimensional
- representations
- predetermined
- depth information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
컴퓨팅 장치는 명령어를 기억하기 위한 메모리와 프로세서를 포함한다. 프로세서는 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현 내에 포함된 콘텐츠의 깊이 정보를 이용해서 미리 정해진 3차원 공간 내에서의 그래픽 요소에 대한 위치를 식별하기 위해 명령어를 실행하도록 구성된다. 또한, 프로세서는 그래픽 요소를 포함하는 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 생성하도록 구성된다.
Description
본 발명은 이미지, 텍스트, 및 사용자 인터페이스 등의 그래픽을 다중 시점 장면으로 표현하는 것에 관한 것이다.
기존의 3차원(3D) 이미지를 영화관(예를 들어, IMAX 3D 영화관) 및 방송 프로그래밍(예를 들어, 디지털 지상 또는 케이블 시스템을 통한 3D 텔레비전) 등의 2차원 스크린상에 제시하는 분야에서, 장면의 다중 이미지(예를 들어, 입체 이미지)는 인간의 눈이 깊이를 인지하도록 만들어지는 경우가 많다. 예를 들어, 좌측 및 우측 눈의 시점의 이미지를 동시에 제시함으로써, 깊이는 컬러 필터, 편광 필터, 시간 기반의 셔터 등의 다양한 별개의 기술을 사용해서 시뮬레이션될 수 있다. 이러한 별개의 기술은 심도 지각을 제공하지만, 3D 장면의 인간 지각에 따르지 않는 그래픽과 이미지를 중첩하는 것은 뷰어의 관찰 경험을 열화시킬 수 있다.
본 개시의 시스템 및 기술은 뷰어의 심도 지각을 보존하면서, 그래픽 요소를 미리 정해진 3차원 장면에 위치 설정하기 위한 위치를 결정하는 것에 관한 것이다.
하나의 관점에서, 컴퓨터로 구현되는 방법은, 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현 내에 포함되는 콘텐츠의 깊이 정보(depth information)를 사용하여 미리 정해진 3차원 장면 내에서의 그래픽 요소에 대한 위치를 식별하는 단계를 포함한다. 또한, 본 방법은, 그래픽 요소를 포함하는 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 생성하는 단계를 포함한다.
구현은 이하의 특징들 중 임의의 것 또는 모두를 포함할 수 있다. 본 방법은 또한, 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현으로부터 깊이 정보를 판정하는 단계를 더 포함한다. 깊이 정보를 판정하는 단계는, 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 필터링하는 단계를 포함할 수 있다. 깊이 정보를 판정하는 단계는, 미리 정해진 3차원 장면의 필터링된 둘 이상의 상이한 2차원 표현을 비교하는 단계를 포함할 수 있다. 둘 이상의 상이한 2차원 표현을 필터링하는 단계는, 콘텐츠의 에지 부분을 식별하는 단계를 포함할 수 있다. 필터링하는 단계는, 둘 이상의 상이한 2차원 표현 내에 표현된 높은 공간 주파수 특징을 식별하기 위해 고역 통과 필터링하는 단계를 포함할 수 있다. 둘 이상의 상이한 2차원 표현은 미리 정해진 3차원 장면의 상이한 시점(view)을 나타낼 수 있다. 깊이 정보를 판정하는 단계는, 둘 이상의 상이한 2차원 표현 간의 시차(parallax)를 계산하는 단계를 포함할 수 있다. 두 개의 상이한 표현을 생성하는 단계는, 둘 이상의 상이한 2차원 시점으로 그래픽 요소를 표현하는 단계를 포함할 수 있다. 그래픽 요소는 기하학적 물체, 사용자 인터페이스의 일부, 이미지, 및 텍스트 중의 적어도 하나를 표현할 수 있다. 깊이 정보는 압축된 영상 데이터로부터 판정될 수 있다.
다른 관점에서, 컴퓨팅 장치는 명령어를 기억하기 위한 메모리와, 프로세서를 포함한다. 프로세서는, 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현 내에 포함된 콘텐츠의 깊이 정보를 이용해서 미리 정해진 3차원 공간 내에서의 그래픽 요소에 대한 위치를 식별하기 위해 명령어를 실행하도록 구성된다. 프로세서는 또한 그래픽 요소를 포함하는 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 생성하도록 구성된다.
구현은 이하의 특징들 중 임의의 것 또는 모두를 포함할 수 있다. 프로세서는 미리 정해진 3차원 장면의 둘 이상의 상이한 표현으로부터 깊이 정보를 판정하도록 구성될 수 있다. 프로세서는, 깊이 정보를 판정하기 위해, 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 필터링하도록 구성될 수 있다. 프로세서는, 깊이 정보를 판정하기 위해, 미리 정해진 3차원 장면의 필터링된 둘 이상의 상이한 2차원 표현을 비교하도록 구성될 수 있다. 프로세서는, 둘 이상의 상이한 2차원 표현을 필터링하기 위해, 콘텐츠의 에지 부분을 식별하도록 구성될 수 있다. 프로세서는, 필터링하기 위해, 둘 이상의 상이한 2차원 표현 내에 표현되는 높은 공간 주파수 특징을 식별하도록 고역 통과 필터링하도록 구성될 수 있다. 둘 이상의 상이한 2차원 표현은 미리 정해진 3차원 장면의 상이한 시점을 표현할 수 있다. 프로세서는, 깊이 정보를 판정하기 위해, 둘 이상의 상이한 2차원 표현 간의 시차를 계산하도록 구성될 수 있다. 프로세서는, 두 개의 상이한 표현을 생성하기 위해, 둘 이상의 상이한 2차원 시점으로 그래픽 요소를 표현하도록 구성될 수 있다. 그래픽 요소는 기하학적 물체, 사용자 인터페이스의 일부, 이미지, 및 텍스트 중의 적어도 하나를 표현할 수 있다. 깊이 정보는 압축된 영상 데이터로부터 판정될 수 있다.
또 다른 관점에서, 처리 장치에 의해 실행가능한 명령어를 기억하는 하나 이상의 컴퓨터로 판독가능한 매체에 있어서, 처리 장치로 하여금, 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현 내에 포함되는 콘텐츠의 깊이 정보(depth information)를 사용하여 미리 정해진 3차원 장면 내에서의 그래픽 요소에 대한 위치를 식별하는 동작을 수행하도록 할 수 있다. 또한, 동작에는, 그래픽 요소를 포함하는 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 생성하는 동작을 수행하도록 할 수 있다.
구현은 이하의 특징들 중 임의의 것 또는 모두를 포함할 수 있다. 상기 동작은, 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현으로부터 깊이 정보를 판정하는 동작을 더 포함할 수 있다. 깊이 정보를 판정하는 동작은, 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 필터링하는 동작을 포함할 수 있다. 깊이 정보를 판정하는 동작은, 미리 정해진 3차원 장면의 필터링된 둘 이상의 상이한 2차원 표현을 비교하는 동작을 포함할 수 있다. 둘 이상의 상이한 2차원 표현을 필터링하는 동작은, 콘텐츠의 에지 부분을 식별하는 동작을 포함할 수 있다. 필터링하는 동작은, 둘 이상의 상이한 2차원 표현 내에 표현된 높은 공간 주파수 특징을 식별하기 위해 고역 통과 필터링하는 동작을 포함할 수 있다. 둘 이상의 상이한 2차원 표현은 미리 정해진 3차원 장면의 상이한 시점(view)을 나타낼 수 있다. 깊이 정보를 판정하는 동작은, 둘 이상의 상이한 2차원 표현 간의 시차(parallax)를 계산하는 동작을 포함할 수 있다. 두 개의 상이한 표현을 생성하는 동작은 둘 이상의 상이한 2차원 시점으로 그래픽 요소를 표현하는 동작을 포함할 수 있다. 그래픽 요소는 기하학적 물체, 사용자 인터페이스의 일부, 이미지, 및 텍스트 중의 적어도 하나를 표현할 수 있다. 깊이 정보는 압축된 영상 데이터로부터 판정될 수 있다.
이들 및 다른 관점 및 특징과 이들의 다양한 조합은, 방법, 장치, 기능을 수행하기 위한 수단, 프로그램 제품, 및 그외 다른 방식으로 표현될 수 있다.
다른 특징과 장점에 대해서는, 이하의 상세한 설명과 청구범위로부터 명백할 것이다.
도 1 및 도 2는 3차원 장면의 입체 이미지를 나타낸다.
도 3은 초점 면을 식별하기 위해 이미지를 처리하는 것을 나타낸다.
도 4는 3차원 장면의 2개의 시점 사이의 공간적 차이를 나타낸다.
도 5는 심도 지각을 제공하기 위해 입체 이미지 내에 시점을 위치 설정하는 것을 나타낸다.
도 6은 입체 이미지 내에 그래픽 요소를 위치 설정하기 위한 동작을 나타내는 플로차트이다.
도 7은 컴퓨팅 장치 및 시스템을 나타내는 블록도이다.
도 3은 초점 면을 식별하기 위해 이미지를 처리하는 것을 나타낸다.
도 4는 3차원 장면의 2개의 시점 사이의 공간적 차이를 나타낸다.
도 5는 심도 지각을 제공하기 위해 입체 이미지 내에 시점을 위치 설정하는 것을 나타낸다.
도 6은 입체 이미지 내에 그래픽 요소를 위치 설정하기 위한 동작을 나타내는 플로차트이다.
도 7은 컴퓨팅 장치 및 시스템을 나타내는 블록도이다.
도 1을 참조하면, 3차원(3D) 장면의 2차원(2D) 입체 이미지가 제시된다. 특히, 달의 이미지가 입체 이미지(100)의 전경에 도시되고, 별의 장막이 배경에 있다. 뷰어에 대한 심도 지각을 제공(및 3D 장면을 시뮬레이트)하기 위해, 입체 이미지(100)는 두 개의 다른 장면 (예를 들어, 우측 눈으로 본 하나의 장면 및 좌측 눈으로 본 또 다른 장면)을 포함한다. 일반적으로 이 두 장면은 표면(예를 들어, 영화 스크린, 종이, 컴퓨터 디스플레이, 등)에 겹쳐지고 장면 사이의 작은 차이에 기초하여 뷰어는 심도를 지각한다. 일반적으로, 이러한 3D 장면의 다중 시점을 볼 때, 각각의 눈에 의해 관찰된 시각 정보는 독립적으로 지각되며 양안시는 뷰어에게 3D 심도를 제공하도록 설정된다. 이러한 입체 이미지에서, 뷰어의 적절한 눈에 의해 받아들여지기 위해 두 장면을 분리하는 기술이 사용된다. 예를 들어, 컬러 필터, 편광 필터(예를 들어, 영화관에서 종종 사용되는) 및 시간 기반 셔터가, 두서너 가지 예만 들자면, 두 장면을 분리하기 위해 사용될 수 있어서 뷰어의 시각 시스템에 의해 수용된 이미지가 각 눈에 다르고 3D 공간에서 이미지를 보는 환상을 만들어 낸다. 이런 환상에서, 좌측 및 우측 눈이 보는 별이 있는 배경의 장면이 특히 큰 별의 두 개의 표상(102, 104)에 의해 확실해 진다.
이러한 두 개의 시점(예를 들어, 양안시를 제공하는)이 실질적으로 사실적인 3D 표현이 가능하지만, 시청 체험을 향상시키기 위해 추가의 요소가 필요할 수 있다. 예를 들어, 부가적인 그래픽 콘텐츠(예를 들어, 텍스트, 이미지, 사용자 인터페이스 등)가 시청자를 돕기 위해 장면에 포함될 수 있다. 종종 이러한 부가적인 콘텐츠는 자연스런 3D 장면의 입체 장면이 제작된 후에 포함된다. 이러한 후-생성 콘텐츠 부가는 시청 체험을 반감시킬 수 있는데, 특히 부가 콘텐츠가 이전에 정해진 3D 장면의 입체 장면에 단순히 덮이는 경우가 그렇다. 예를 들어, 3D 텔레비전 스크린 위에 제공된 일련의 단순 텍스트는 사람에 의해 텔레비전 스크린 위에 정확하게 위치한다고 감지되는 심도를 가질 수 있고, 3D 장면의 또 다른 불투명한 물체 뒤에 위치하도록 나타날 수 있는데, 읽기 힘든 텍스트가 제공되거나 뷰어의 3D 감각을 방해할 수 있다. 일반적으로, 그래픽 콘텐츠를 이전에 정해진 3D 장면 위에 중복시킬 때, 직선 원근법, 상대적인 물체의 크기와 위치, 폐색 및 운동 시차와 같은 다른 요소들이 인간 시각 시스템에 의해 인지될 때에 깊이에 영향을 미칠 수 있으며, 이들을 고려해야 한다.
일부 종래의 3D 시스템은 추가의 콘텐츠를 새로운 콘텐츠(예를 들어, 텍스트, 이미지, 사용자 인터페이스)를 거의 항상 다중 시점 3D 이미지의 전경에 위치 설정함으로써 3D 장면의 이전에 생성된 입체 시점에 포함시킨다. 이와 같이, 뷰어는 (텍스트가 위치한) 전경 및 (입체 시점에 의해 주어지는) 3D 콘텐츠가 인지되는 장면의 일부 사이로 눈의 초점 면을 지속적으로 옮길 필요가 있다. 이러한 초점 조정 및 초점 재조정은 특히 산만하게 하고 (관찰의 눈에 부담을 주어) 3D 경험의 질을 저하하는 눈의 피로를 발생시킬 수 있다.
본 예시에서, 두 단어(106, 108) (즉, "배경" 및 "전경")은 입체 이미지(100)에 포함되는 장면 위에 겹쳐진다. 단순히 이미지의 면 위에 놓으면, 이 단어 각각은 이미지(100)에 포함된 관련 콘텐츠에 해당하는 깊이에서 인지되지 않을 것이다. 예를 들어, 입체 이미지(100)에 포함된 두 개의 다른 장면에 기초하여, 별이 이미지 안으로 가라앉아 보이는 반면 달이 이미지 밖으로 나오는 것처럼 보인다. 텍스트를 겹쳐 놓음으로써, 단어 106, 108 모두 별 또는 달의 깊이에 위치하는 것처럼 보이지 않는다. 입체 이미지(100)의 오른쪽에, 깊이 차트(110)는 장면에 포함된 콘텐츠의 감지된 깊이를 제시한다. 뷰어의 (상징적인 눈(112)으로 제시되는) 시점에서, 달은 시점이 투사되는 평면(예를 들어, 페이지의 평면)을 나타내는 평면(116)으로 포워드되는 평면(114) 위에 있는 것처럼 인지된다.
입체 이미지(100)에 의해 제공되는 인지된 깊이에 기초하여, 다른 평면(118)은 달의 평면(114)과 비교해서 별이 나타내는 깊이를 정의한다. 이와 같이, 뷰어는 달이 더 가까이 위치해 있으며, 별은 더 먼 뒤쪽에 있는 것으로 인지한다. 단어(106, 108)는 이미지가 투영되는 표면 위에 중첩되어 있기 때문에, 이들은 달(평면 114) 또는 별(평면 110)의 깊이에서 인지되지 않는다. 이와 같이, 뷰어는 자신의 눈을, 단어를 읽기 위해 평면(116)에 초점을 맞추도록 조정할 필요가 있는데, 이에 의해 피로해 질 수 있고, 시청 체감이 열화될 수 있다. 또한, 그 위치 때문에, 단어(108)는 달의 표시에 의해 잘 보이지 않을 수 있다. 그래서, 뷰어에 대해 초점 맞춤의 문제를 생기게 하는 위치에 텍스트를 위치 설정하는 것과 함께, 추가의 텍스트성 콘텐츠가 인간 뷰어의 3D 시청 체험을 약화시킬 수 있으며, 입체 이미지를 명확하게 알아보기 힘들게 할 수 있다.
이러한 집중에 방해를 주는 효과를 감소시키고 뷰어가 피로해지는 것을 방지하기 위해, 3D 장면의 미리 정해진 입체 이미지 내에 도입되는 그래픽 요소의 위치 및 깊이를 판정하기 위한 하나 이상의 기술이 구현될 수 있다. 예를 들어, 텍스트(예를 들어, 레이블, 자막 등)를, 해당 텍스트가 입체 이미지 내에 이미 표현된 대응하는 대상에 근사적으로 동등한 깊이에서 인지될 수 있도록 처리될 수 있다. 도 1에 나타낸 장면을 참조하면, 단어(106, 108)는 이들이 관련된 그래픽의 등가의 깊이에서 인지되도록 위치되도록(예를 들어, 단어 "Background"(106)는 별의 평면(118)에 위치되고, 단어 "Foreground"(106)는 달이 인지되는 평면(114)의 깊이에서 인지되도록), 처리될 수 있다.
도 2를 참조하면, 제시된 텍스트(예를 들어, 도 1에 나타낸 단어(106, 108))는 관련 그래픽과 등가인 인지된 깊이에서 각 단어를 각각 위치 설정하도록 처리된다. 이 예에서, 단어 "background"는 별이 뷰어(112)에 의해 인지되는 평면(118)의 깊이(깊이 차트(200)에 나타낸 것과 같이)에 위치한다. 마찬가지로, 단어 "foreground"는 달의 그래픽의 인지된 깊이를 나타내는 평면(114)의 깊이에 위치한다. 이와 같이, 뷰어(112)는 텍스트 및 관련 이미지를 인지된 깊이에 초점을 맞추기 위해 자신의 눈을 실질적으로 조정할 필요가 없다. 더 만족스런 시청 체험을 제공하면서, 시각적인 오락 외에 눈의 긴장을 감소시킬 수 있다.
이러한 그래픽 요소(예를 들어, 단어 "background", "foreground")를 3D 장면의 미리 정해진 입체 이미지와 관련된 인지된 깊이에서 위치 설정하기 위한 하나 이상의 기술이 구현될 수 있다. 예를 들어, 각 단어에 대한 좌측 및 우측 원근 시점이 생성될 수 있고, 3D 장면의 입체 이미지상에 적절하게 위치 설정될 수 있다. 본 예에서, 3D 장면의 입체 이미지(202)는 별이 가득한 하늘의 적절한 깊이(예를 들어, 평면(118)으로 표현된)에 인지되기 위해 위치된 단어 "Background"의 좌측 및 우측 원근 그래픽 표현(204, 206)을 포함한다. 마찬가지로, 그래픽 표현(208, 210)은 단어 "Foreground"가 뷰어(112)에 의해 달의 그래픽에 등가인 깊이(예를 들어, 평면(114)에 표현된)에 있는 것으로 인지되도록 입체 이미지(200) 내에 생성되고 위치된다. 이러한 그래픽 요소를 이러한 입체 이미지 내에 위치시키기 위해, 3D 장면과 관련된 깊이 정보가 필요하다. 다중 시점 데이터(장면의 좌측 및 우측 시점을 나타냄)로부터 이러한 정보를 판정하기 위한 하나 이상의 기술이 사용될 수 있다. 예를 들어, 깊이 정보를 제공하기 위해, 시차라고도 부르는, 입체 시점에 명백한 변위 또는 차이가 판정될 수 있다. 시점 간의 시차로부터 깊이 정보를 계산하기 전에, 다수의 시점을 처리해야 이들 각각의 초점 면을 식별할 수 있다. 예를 들어, 이미지의 정확하게 초점이 맞은 부분(예를 들어, 높은 공간 주파수 요소 또는 에지)이 하나 이상의 기술(예를 들어, 고역통과 필터, 압축 이미지의 이산 코사인 변환(DCT) 계수의 분석)을 이용하여 식별될 수 있다. 이러한 깊이 정보는 입체 이미지의 생성 동안 판정될 수 있으며, 수신자에 의한 추가의 처리가 필요하지 않는 콘텐츠(예를 들어, 비디오)가 제공될 수 있다.
도 3을 참조하면, 3D 장면의 입체 시점(예를 들어, 좌측 및 우측 눈의 시점) 간의 차이를 판정하기 전에, 시점의 초점 면을 하나 이상의 처리 기술을 사용하여 식별할 수 있다. 상대적으로 얕은 심도(depth of field)를 가지며 특정 시점에서의 하나의 영역(또는 초점 면)에 일반적으로 초점을 맞추는 인간의 눈과 유사하게, 대 구경(wide aperture)에 대해 조정되는 카메라 렌즈에 의해 장면의 하나의 특정 영역이 선명하게 보이고 초점을 맞추지만 해당 장면의 남은 부분은 흐릿하게 될 것이다. 이러한 기술은 이미지 프레임 내의 사용자가 주목한 특정 피사체를 촬상하기 위해 영화 및 사진에 종종 그리고 의도적으로 사용된다. 쌍을 이루는 다중 시점 이미지 (예를 들어, 입체 이미지에 의해 제공되는 좌측 및 우측 눈의 시점)의 각각의 여러 요소의 초점 면을 판정함으로써, 적절한 콘텐츠가 식별되어 시차를 계산하는 데에 사용될 수 있다. 예를 들어, 이미지(300)는 3개의 물체를 나타내는 사진인데, 이 중 하나의 물체(수평방향으로 위치한 병)는 초점이 맞춰진 상태로 전경에 위치해 있다. 이와 전혀 다르게, 이미지(302)는 등가의 콘텐츠를 포함하지만, 초점 면은 이미지의 변경으로 이동해 있다. 예를 들어, 수평방향으로 위치한 병(전경에 있는)은 흐릿하게 보이고, 수직방향으로 위치한 병과 기어(배경에 있는)는 초점이 맞춰져 있다.
초점이 맞춰진(초점 면에서) 콘텐츠를 적절하게 식별하기 위해, 하나 이상의 처리 기술이 사용될 수 있다. 예를 들어, 초점 면에 있는 이미지 부분(예를 들어, 물체의 에지 부분 등의 선명한 전이 부분)의 상세를 나타내기 위해 하나 이상의 도메인(예를 들어, 공간 도메인, 주파수 도메인 등)에서 이미지가 필터링 및 평가될 수 있다. 도시한 예에서, 이미지(300, 302)에 필터(예를 들어, 고역 통과 필터)를 적용해서, 필터링된 이미지(304, 306)를 생성한다. 필터를 적용함으로써, 이미지의 상대적으로 높은 주파수 콘텐츠를 포함하는 부분이 검출되고 대응하는 필터링된 이미지 내에 포함된다. 이와 같이, 초점이 맞춰진 물체의 에지 부분이 필터링된 이미지에 매핑된다. 시각화를 위한 필터에 의해 적용된 구배를 갖는 필터링된 이미지(304)는 주로 이미지의 전경에 수평방향으로 위치한 병의 에지를 나타낸다. 마찬가지로, 동등한 유형의 필터에 의해 처리되는 필터링된 이미지(306)는 주로 해당 이미지로부터 초점이 맞춰진 물체(예를 들어, 수직방향으로 위치한 병과 기어)의 에지 부분을 나타낸다.
고역 통과 필터릴 등이 필터링 기술을 사용해서 공간 주파수 정보를 취득할 수 있지만, 다른 기술도 사용할 수 있다. 예를 들어, 공간 정보는 압축된 이미지 데이터를 평가함으로써 취득될 수 있다. JPEG(Joint Photographic Experts Group) 표준, 고해상 비디오 인코딩(예를 들어, H.264/MPEG-4 AVC 표준) 등에 의해 사용되는 것 등과 같은 압축 기술을 적용해서 처리된 데이터가 공간 주파수 정보의 소스로서 사용될 수 있다. 이러한 손실이 많은 압축 기법은 일반적으로 이미지를 공간에서 주파수 도메인으로 변환해서, 이미지의 품질을 크게 열화시키지 않으면서 제거될 수 있는 이미지 콘텐츠의 양을 판정할 수 있다. 압축된 이미지 데이터를 부호화하고 주파수 도메인에 저장한다. 이와 같이, 저장된 데이터는 하나 이상의 필터 또는 다른 유형의 필터링 동작을 적용할 필요 없이, 공간 주파수 정보를 분석 및 식별하기 위해 검색될 수 있다.
도면에서 처리된 이미지(300, 302)와 마찬가지로, 입체 이미지의 다수의 시점을 처리하여, 초점이 맞춰진 물체(예를 들어, 에지 부분 등의 선명한 전이 부분을 가진)와 해당 시점의 대응하는 초점 면을 판정할 수 있다. 이들 처리된 시점으로부터, 해당 시점에 포함된 하나 이상의 물체의 명백한 변위(예를 들어, 시차)가 추정될 수 있다. 예를 들어, 입체 이미지의 좌측 및 우측 눈의 시점이 독립적으로 처리되어(예를 들어, 고역 통과 필터링을 거쳐), 시점에 포함된 초점이 맞춰진 물체의 에지의 위치를 식별할 수 있다. 2개의 필터링된 시점을 동시에 비교함으로써, 시차 값이 추정될 수 있는데, 입체 이미지와 연관된 깊이 정보를 생성하기 위해 등가의 물체의 대응하는 에지 부분의 변위를 추정하는 것에 의해 이루어질 수 있다. 깊이 정보로부터, 초점 면에서의 그래픽 요소(예를 들어, 텍스트, 이미지, 사용자 인터페이스 등)를 위치 설정하기 위한 적절한 위치가 판정될 수 있다. 추가로, 초점 면의 상대 심도가 판정될 수 있다.
도 4를 참조하면, 2개의 시점으로부터 와이어 프레임 처리된(wire-framed) 물체를 각각 나타내는 2개의 이미지를 나타낸다. 특히, 이미지(400)는 좌측 눈의 시점으로부터 인지되는 와이어 프레임 처리된 물체의 시점을 나타내고, 다른 이미지(402)는 관찰자의 우측 눈으로부터 인지되는 물체의 시점을 나타낸다. 와이어 프레임 표시의 특성에 의해, 각각의 이미지는 입체 이미지의 대응하는 시점의 필터링된 버젼(예를 들어, 고역 통과 필터링 처리된)인 것으로 고려될 수 있다. 각각의 이미지(400, 402)에 의해 제공되는 시점은 유사한 것으로 보이지만, 이들 이미지를 비교해 보면, 이미지의 시차에 대응하는 공간적 차이가 있다. 와이어 프레임 처리된 물체의 등가 부분들 간의 시차를 평가함으로써, 깊이 정보가 생성될 수 있다. 계속해서, 깊이 정보는 시점을 포함하는 입체 이미지 내의 그래픽 요소(예를 들어, 텍스트, 이미지, 사용자 인터페이스 등)를 렌더링하기 위한 위치 및 깊이를 판정하는 데에 사용될 수 있다. 이미지(400, 402)에 의해 제공되는 시점 간의 시차를 나타내기 위해, 각 시점으로부터 와이어 프레임 처리된 물체의 표시가 이미지(404)에 중첩된다. 3D 내의 와이어 프레임 물체를 인지하기 위한 색 분리 등의 다양한 타입의 분리 기술 중의 하나가 사용될 수 있다. 중첩된 시점에 대한 편광을 할당하고 편광된 글래스를 사용하거나, 시간 기준의 셔터 글래스와 동기해서 좌측 및 우측 눈의 시점을 반복해서 표시하는 것 등에 의해 시점을 분리하기 위한 다른 기술을 사용함으로써 유사한 결과를 얻을 수 있다.
와이어 프레임 처리된 물체의 중첩된 시점은 물체의 등가 부분의 공간적 차이를 나타낸다. 또한, 중첩된 시점은 물체의 상이한 부분에 대한 시차 값에서의 분산을 나타낸다. 예를 들어, 중첩된 물체의 왼쪽 상부 부분(이미지의 배경에 근접해서 위치한 것으로 보이는 부분)에 비해 상대적으로 큰 공간적 차이가 중첩된 물체의 오른쪽 하부(이미지 중의 인간 관찰자에 가까운 것으로 인지되는 부분에 대응)에 제시된다. 이러한 공간적 차이로부터, 깊이 정보(예를 들어, 맵)가, 예를 들어, 와이어 프레임 물체의 등가 부분을 비교함으로써 생성될 수 있다. 정량화하면, 깊이 정보는 그래픽 요소(예를 들어, 텍스트, 이미지, 사용자 인터페이스 등)을 위치 설정하기 위한 적절한 위치 및 깊이를 판정하는 데에 사용될 수 있다. 이러한 위치 설정에 의해, 그래픽 요소는 3D 장면의 미리 생성된 입체 이미지와 연관된 초점 면 내에 위치될 수 있으며, 이에 따라 관찰자가 입체 이미지의 원본 콘텐츠와 새롭게 포함된 그래픽 요소 간의 재초점 맞춤을 해야 하는 경우의 횟수를 감소시킬 수 있다. 또한, 3D 이미지의 합성에 관한 이러한 정보에 의해, 그래픽 요소는 장면에 포함되는 물체에 의해 차단되지 않도록 그리고 이미지의 부분들 간의 깊이 인식을 보존하도록 위치될 수 있어서, 관찰자의 3D 시청 체험을 향상시킬 수 있다.
깊이 정보를 생성하기 위해 공간적 차이를 정량화하는 하나 이상의 기술이 사용될 수 있다. 시차 값은, 예를 들어 좌측 및 우측 눈의 시점을 스캐닝하고, 초기 스캔 위치로부터 초점 면에서의 물체의 에지까지의 거리를 측정함으로써 판정될 수 있다. 스크린 면에 수렴하는 포인트는 0의 값을 가지며(예를 들어, 좌측 및 우측 눈의 시점에서의 대응하는 포인트가 등가의 위치에 위치함), 비영(non-zero) 시차 값(즉, 양의 값 및 음의 값)은 스크린 면의 앞쪽 또는 뒤쪽에 위치하는 것으로 보이는 이미지의 부분을 정의한다.
도 5를 참조하면, 그래픽 요소의 위치 설정은 요소가 입체 이미지의 상이한 초점 면에 있는 것으로 보이도록 도시되어 있다. 본 예에서, 그래픽 요소의 시점을 나타내는 한 쌍의 이미지는 미리 정의된 3D 장면의 입체 이미지에 중첩된다. 이 한 쌍의 이미지에는, 그래픽 요소의 좌측 눈의 시점을 나타내는 이미지와 그래픽 요소의 우측 눈의 시점을 나타내는 이미지가 포함된다. 이미지가 위치하는 위치와 사용되는 분리 기술(예를 들어, 컬러 필터, 편광 필터, 시간 기준 셔터 등)에 기초하여, 그래픽 요소는 관찰자(500)에 의해 특정의 깊이에서 인지될 수 있다. 예를 들어, 그래픽 요소의 좌측 눈의 시점(검은 원(502)으로 나타냄)과 그래픽 요소의 우측 눈의 시점(흰색 원(504)으로 나타냄)은 이전에 생성한 입체 이미지를 포함하는 표면(506) 위에 중첩된다. 본 예에서, 시점(502, 504)의 위치(거리 S1로 나타냄)와 이용가능한 분리 기술 중의 하나에 기초하여, 그래픽 요소(빗금친 원(508)으로 나타냄)는 배경 면(510)의 깊이에서 인지되는 것이 일반적이다. 이와 같이, 그래픽 요소(예를 들어, 단어 "Background")는 배경 면(510)에 위치한 다른 그래픽 요소(예를 들어, 도 1의 별이 가득한 하늘의 입체 이미지)의 등가의 초점 면에 위치하는 것으로 인지되기 때문에, 그래픽 요소를 보기 위해 필요한 재초점화의 양과 이전에 정의한 입체 이미지의 콘텐츠를 크게 줄일 수 있다.
마찬가지로, 한 쌍의 이미지가 표면(506) 위에 중첩되는데, 이미지에 의해 나타낸 그래픽 요소가 전경 내의 깊이에서 관찰자(500)에 의해 인지되도록 중첩된다. 예를 들어, 좌측 눈의 시점과 우측 눈의 시점(시점(502, 504)과 비교해서)을 바꿈으로써, 시점에 의해 나타내는 그래픽 요소가 전경에 있는 것으로 보이게 된다. 도시한 예에서, 그래픽 요소의 좌측 눈의 시점의 위치(검은 원(512)으로 나타냄)와 그래픽 요소의 우측 눈의 시점의 위치(흰색 원(514)으로 나타냄)가 바뀌게 되고 표면 위에 위치하게 된다(거리 S2로 나타냄). 시점(512, 514)의 위치와 사용되는 분리 기술에 기초하여, 그래픽 요소는 전경 면(516)의 깊이(빗금친 원(518)으로 나타냄)에서 입체적으로 인지될 수 있다. 이와 같이, 그래픽 요소(예를 들어, 단어 "Foreground")는 이전에 생성된 그래픽 요소(예를 들어, 달의 입체 이미지)에 의해 공유되는 초점 면에서 인지될 수 있다. 따라서, 관찰자(500)는 미리 정의된 3D 장면 중의 전경 면(516)에서 인지되는 부분 및 그래픽 요소를 선명하게 볼 수 있기 때문에, 복합의 3D 장면을 관찰하면서 자신의 눈의 초점을 다시 맞출 필요가 줄어든다. 도시한 예는 위치 설정 시점에 의해 그래픽 요소가 3D 장면의 미리 생성된 입체 이미지에 삽입되는 것을 나타낸다. 또한, 시점의 위치를 제어함으로써, 그래픽 요소는 미리 정의된 입체 이미지의 콘텐츠에 의해 방해를 받지 않도록 위치될 수 있다.
도 6을 참조하면, 플로차트(600)는 3D 장면의 미리 정의된 입체 이미지 내에 하나 이상의 그래픽 요소(예를 들어, 텍스트, 이미지, 사용자 인터페이스 등)를 포함하기 위한 컴퓨터 시스템 등의 컴퓨팅 장치의 동작을 나타낸다. 이러한 동작은 전형적으로 단일의 컴퓨팅 장치에 의해 실행되지만, 동작의 실행은 다수의 컴퓨팅 장치에 의해 실행될 수 있다. 단일의 위치(예를 들어, 컴퓨팅 장치의 위치)에서 실행되는 것과 함께, 동작 실행은 둘 이상의 위치에 분산될 수 있다.
컴퓨팅 장치의 동작은 미리 정의된 3D 장면(예를 들어, 입체 이미지)의 둘 이상의 시점을 수신하는 과정(602)을 포함할 수 있다. 예를 들어, 3D 장면의 좌측 눈 시점과 우측 눈 시점이 수신될 수 있다. 동작에는, 둘 이상의 시점으로부터 깊이 정보를 판정하는 과정(604)을 포함할 수 있다. 예를 들어, 각각의 시점을 처리해서(예를 들어, 필터링), 시점 내에 포함된 물체의 에지(또는 다른 콘텐츠)를 식별할 수 있다. 다수의 이미지 간의 시차 등의 공간적 차이는 처리된 시점 내에 표현된 대응 에지의 위치를 비교함으로써 판정될 수 있다. 깊이 정보로부터, 시점의 초점 면이 3D 공간 내의 초점 면의 위치 등의 다른 정보와 함께 식별될 수 있다. 깊이 정보를 이용함으로써, 동작은, 3D 장면 내에 그래픽 요소를 포함하기 위한 위치를 식별하는 과정(606)을 포함할 수 있다. 예를 들어, 깊이 정보는 초점 면에 대한 관찰자에 의해 인지될 그래픽 요소의 입체 시점의 위치(예를 들어, 2차원 좌표) 및 크기를 판정하는 데에 사용될 수 있다. 그래픽 요소에 대한 위치 정보(예를 들어, 위치, 크기 등)가 판정되면, 동작은, 해당 그래픽 요소를 포함하는 3D 장면(예를 들어, 입체 이미지)의 둘 이상의 시점을 생성하는 과정(608)을 포함할 수 있다. 예를 들어, 관찰자에 의해 관찰될 때에 요소가 3D 공간 내에 적절하게 인지되도록 그래픽 요소를 각각 포함하는 좌측 눈 시점과 우측 눈 시점이 렌더링될 수 있다.
도 7은 그래픽 요소의 시점을 3D 장면의 미리 정의된 입체 이미지에 포함시키는 것과 관련된 동작을 수행하는 데에 사용될 수 있는 컴퓨팅 장치의 블록도이다. 컴퓨팅 장치(700)는 디지털 TV 세트, 셋톱 박스 및 수상기(예를 들어, 케이블, 지상, 인터넷 프로토콜 텔레비전(IPTV) 등), 랩탑, 데스크탑, 워크스테이션, 개인 정보 단말기(PDA), 셀폰 등의 모바일 장치, 서버, 블레이드 서버, 메인프레임, 및 기타 적절한 컴퓨터 등과 같은 다양한 유형의 디지털 컴퓨터나 이미지 처리 장치 등이 될 수 있다.
컴퓨팅 장치(700)는 프로세서(702), 메모리(704), 기억 장치(706), 메모리(704)와 고속 확장 포트(710)에 연결된 고속 인터페이스(708), 및 저속 버스(714)와 기억 장치(706)에 연결된 저속 인터페이스(712)를 포함한다. 각각의 구성요소(702, 704, 706, 708, 710, 712)는 다양한 버스를 이용하여 연결되어 있으며, 공통의 마더보드 또는 다른 적절한 방법으로 탑재될 수 있다. 프로세서(702)는 고속 인터페이스(708)에 연결된 디스플레이(716) 등의, GUI에 대한 그래픽 정보를 외부 입출력 장치상에 표시하기 위해, 메모리(704) 내에 또는 기억 장치(706)에 기억된 명령어를 포함하는, 컴퓨팅 장치(700) 내의 실행을 위한 명령어를 처리할 수 있다. 다른 구현으로서, 다수의 프로세서 및/또는 다수의 버스가 다수의 메모리 및 여러 유형의 메모리와 함께 적절하게 사용될 수 있다. 또한, 다수의 컴퓨팅 장치(700)가 필요한 동작을 하는 부분을 제공하는 각각의 장치(예를 들어, 서버 뱅크, 블레이드 서브 그룹, 다중프로세서 시스템)와 연결될 수 있다.
메모리(704)는 컴퓨팅 장치(700) 내에 정보를 저장한다. 일례로, 메모리(704)는 컴퓨터로 판독가능한 매체이다. 일례로, 메모리(704)는 하나 또는 다수의 휘발성 메모리 유닛이다. 다른 예에서, 메모리(704)는 하나 또는 다수의 불휘발성 메모리 유닛이다.
기억 장치(706)는 컴퓨팅 장치(700)에 대한 대용량 기억 공간을 제공할 수 있다. 일례로, 기억 장치(706)는 컴퓨터로 판독가능한 매체이다. 다양한 여러 예에서, 기억 장치(706)는 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 또는 테이프 장치, 플래시 메모리 또는 기타 고체 메모리 장치, 또는 기억 영역 네트워크 또는 다른 구성 내의 장치를 포함하는 장치의 어레이가 될 수 있다. 일례로, 컴퓨터 프로그램 제품은 정보 캐리어 내에 물리적으로 포함된다. 컴퓨터 프로그램 제품은 실행될 때에 상기 설명한 것과 같은 하나 이상의 방법을 수행하는 명령어를 포함한다. 정보 캐리어는 메모리(704), 기억 장치(706), 메모리 온 프로세서(702) 등과 같은 컴퓨터 또는 기계로 판독가능한 매체이다.
고속 컨트롤러(708)는 컴퓨팅 장치(700)에 대한 대역폭 집약형 동작을 관리하고, 저속 컨트롤러(712)는 상대적으로 적은 대역폭 집약형 동작을 관리한다. 이러한 직무의 할당은 예에 불과하다. 일례로, 고속 컨트롤러(708)가 메모리(707), 디스플레이(716)(예를 들어, 그래픽 프로세서 또는 그래픽 가속기를 통해), 및 다양한 확장 카드(도시 안 됨)를 수용할 수 있는 고속 확장 포트(710)에 연결된다. 일례로, 저속 컨트롤러(712)는 기억 장치()706) 및 저속 확장 포트(714)에 연결된다. 다양한 통신 포트(예를 들어, USB, 블루투스, 이더넷, 무선 이더넷)를 포함할 수 있는 저속 확장 포트는 키보드, 포인팅 장치, 스캐너, 또는 스위치나 라우터 등의 네트워크 장치 등의 하나 이상의 입출력 장치에, 예를 들어 네트워크 어댑터를 통해 접속될 수 있다.
컴퓨팅 장치(700)는 도면에 나타낸 바와 같이 다수의 여러 형태로 구현될 수 있다. 예를 들어, 컴퓨팅 장치는 표준 서버(720)로서 또는 이러한 서버의 그룹 내에서 여러 번 구현될 수 있다. 또한, 랙 서버 시스템(724)의 일부로서 구현도리 수도 있다. 또한, 랩탑 컴퓨터(722) 등의 개인용 컴퓨터에서 구현될 수 있다. 이와 달리, 컴퓨팅 장치(700)로부터의 구성요소가 모바일 장치(도시 안 됨) 내의 다른 구성요소와 결합될 수 있다.
본 개시의 실시예 및 본 명세서에 기재된 기능적인 동작은, 본 명세서에 개시된 구조 및 이들의 구조적 등가 구조 또는 이들의 조합을 포함하여, 디지털 전자 회로, 또는 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어로 실현될 수 있다. 본 명세서에 기재된 본 개시의 실시예는 하나 이상의 컴퓨터 프로그램 제품, 즉 데이터 처리 장치에 의해 또는 데이터 처리 장치의 동작을 제어하기 위한 실행을 위한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독가능한 매체는 기계로 판독가능한 기억 장치, 기계로 판독가능한 저장 기판, 메모리 장치, 기계로 판독가능한 전파 신호의 효과를 갖는 구성요소, 또는 그들의 하나 이상의 조합이 될 수 있다. 용어 "데이터 처리 장치"는 프로그램가능한 프로세서, 컴퓨터 또는 다수의 프로세서 또는 컴퓨터를 포함하는, 데이터를 처리하기 위한 모든 장치, 디바이스 및 기계를 포함하는 것으로 사용된다. 장치는 하드웨어뿐만 아니라, 컴퓨터 프로그램을 위한 실행 환경을 생성하는 코드, 예를 들어, 프로세서 펌웨어, 프로토콜 스택, 데이터베이스 운영 시스템, 운영 시스템, 또는 이들의 하나 이상의 조합을 구성하는 코드를 포함할 수 있다.
컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 스크립트 또는 코드로 알려진 것)은 컴파일 또는 인터프리터 언어를 포함한 여러 형태의 프로그래밍 언어로 작성될 수 있다. 컴퓨터 프로그램은 반드시 파일 시스템 내의 파일에 대응할 필요는 없다. 프로그램은 해당 프로그램에 전용인 단일 파일에, 또는 다수의 편성된 파일(하나 이상의 모듈, 서브 프로그램 또는 코드의 일부를 저장하는 파일)에, 다른 프로그램이나 데이터(예를 들어, 마크업 언어 문서에 기억된 하나 이상의 스크립트)를 유지하는 파일의 일부에 기억될 수 있다. 컴퓨터 프로그램은 하나의 지점 또는 분산된 여러 위치에 위치하는 하나의 컴퓨터 또는 다수의 컴퓨터에서 실행되는 그리고 통신 네트워크에 의해 상호접속되도록 배치될 수 있다.
본 명세서에 개시된 프로세스 및 논리 흐름은 입력 데이터에 대해 연산하고 출력을 생성하는 것에 의해 기능을 수행하는 하나 이상의 컴퓨터 프로그램을 실행하는 하나 이상의 프로그램가능한 프로세서에 의해 수행될 수 있다. 프로세스 및 논리 흐름은 필드 프로그램가능 게이트 어레이(FPGA) 또는 ASIC(applicaiton-specific integrated circuit) 등과 같은 전용의 논리 회로에 의해 수행될 수 있으며, 이러한 논리 회로로서 구현될 수 있다.
컴퓨터 프로그램의 실행에 적합한 프로세서는, 범용 및 전용 마이크로프로세서를 포함할 수 있으며, 임의의 종류의 디지털 컴퓨터의 하나 이상의 임의의 프로세서를 포함할 수 있다. 일반적으로, 프로세서는 판독 전용의 메모리 또는 랜덤 액세스 메모리 또는 이들 모두로부터 명령 및 데이터를 수신할 것이다. 컴퓨터의 필수 요소는 명령과 데이터를 기억하기 위한 하나 이상의 메모리 장치와 명령을 수행하기 위한 프로세서이다. 일반적으로, 컴퓨터는 자기 디스크, 광자기 디스크 또는 광 디스크 등의, 데이터를 기억하기 위한 하나 이상의 대용량 기억 장치를 포함하거나, 이들과 데이터를 주고 받도록 연결될 수 있다. 그러나, 컴퓨터는 이러한 장치를 반드시 구비할 필요는 없다. 또한, 컴퓨터는 모바일 전화, PDA, 모바일 오디오 플레이어, GPS 수신기 등의 다른 장치에 구현될 수 있다. 컴퓨터 프로그램 명령 및 데이터를 기억하기에 적합한 컴퓨터로 판독가능한 매체는 모든 유형의 비휘발성 메모리, 매체 및 메모리 장치를 포함하며, EPROM, EEPROM, 플래시 메모리 장치 등과 같은 반도체 메모리 장치와, 내부 하드 디스크나 제거가능한 디스크 등의 자기 디스크와, 광자기 디스크와, CD-ROM 및 DVD-ROM 디스크를 포함한다. 프로세서와 메모리는 전용 논리 회로가 추가되거나 이에 의해 구현될 수 있다.
본 명세서에 개시된 주제의 실시예는 데이터 서버 등의 백엔드 구성요소, 또는 애플리케이션 서브 등의 미들웨어 구성요소, 또는 그래픽 유저 인터페이스나 사용자가 본 명세서에 개시된 주제의 구현과 상호작용할 수 있는 웹브라우저를 갖는 클라이언트 컴퓨터 등의 프론트엔드 구성요소, 또는 이러한 백엔드, 미들웨어 또는 프론트엔드 구성요소의 하나 이상의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 구성요소는 통신 네트워크 등의 디지털 데이터 통신의 임의의 형태 또는 매체에 의해 상호접속될 수 있다. 통신 네트워크로는, LAN(local area network), 인터넷 등의 WAN(wide area network)이 있다.
컴퓨팅 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 원격에 위치해 있으며, 통신 네트워크를 통해 상호작용하는 것이 전형적이다. 클라이언트와 서버 간의 관계는 클라이언트-서버 관계를 가지며 각 컴퓨터에서 실행되는 컴퓨터 프로그램에 의해 이루어진다.
본 명세서는 많은 특정의 예를 포함하고 있지만, 이들 예는 본 발명의 범위를 제한하기 위한 것이 아니며, 본 발명의 특정의 실시예를 설명하기 위한 것으로 분석되어야 한다. 별개의 실시예에 의해 본 명세서에 개시된 소정의 특징은 하나의 실시예에서 조합하여 구현될 수 있다. 이와 반대로, 하나의 실시예에 개시된 여러 특징이 여러 실시예에서 개별적으로 또는 임의의 적절한 부분 조합으로 구현될 수 있다. 또한, 특징은 소정의 조합으로 작용하는 것으로 상기 개시될 수 있으며, 이것이 처음에 청구된 것이라 할지라도 그러하며, 청구된 조합으로부터의 하나 이상의 특징은 일부의 경우에 그 조합으로부터 실행될 수 있으며, 청구된 조합은 부분 조합에 관한 것 또는 부분 조합의 변형이 될 수 있다.
마찬가지로, 동작은 도면에서 특정의 순서로 되어 있지만, 이것은 이러한 동작이 나타낸 특정의 순서 또는 순차적인 순서로만, 또는 원하는 결과를 얻기 위해 예시된 모든 동작이 수행될 것을 요구하는 것으로 분석되어서는 안 된다. 또한, 상기 개시된 실시에에서의 다양한 시스템의 구성요소의 분리는 모든 실시예에서의 이러한 분리를 필요로 하는 것으로 이해해서는 안 되며, 개시된 프로그램 구성요소 및 시스템은 단일의 소프트웨어 제품에 함께 통합되거나 또는 다수의 소프트웨어 제품으로 패키지화될 수 있는 것이 일반적이다.
따라서, 본 발명의 특정의 실시예를 개시하고 있다. 다른 실시예도 이하의 청구범위의 범위 내에 포함된다. 예를 들어, 청구범위에서 나타낸 동작은 상이한 순서로 수행될 수 있으며, 이에 의해서도 원하는 결과를 얻을 수 있다.
Claims (33)
- 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현 내에 포함되는 콘텐츠의 깊이 정보(depth information)를 사용하여 상기 미리 정해진 3차원 장면 내에서의 그래픽 요소에 대한 위치를 식별하는 단계; 및
상기 그래픽 요소를 포함하는 상기 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 생성하는 단계
를 포함하는 것을 특징으로 하는 컴퓨터로 구현하는 방법. - 제1항에 있어서,
상기 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현으로부터 깊이 정보를 판정하는 단계를 더 포함하는, 컴퓨터로 구현하는 방법. - 제2항에 있어서,
상기 깊이 정보를 판정하는 단계는, 상기 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 필터링하는 단계를 포함하는, 컴퓨터로 구현하는 방법. - 제3항에 있어서,
상기 깊이 정보를 판정하는 단계는, 상기 미리 정해진 3차원 장면의 필터링된 둘 이상의 상이한 2차원 표현을 비교하는 단계를 포함하는, 컴퓨터로 구현하는 방법. - 제3항에 있어서,
상기 둘 이상의 상이한 2차원 표현을 필터링하는 단계는, 콘텐츠의 에지 부분을 식별하는 단계를 포함하는, 컴퓨터로 구현하는 방법. - 제3항에 있어서,
상기 필터링하는 단계는, 상기 둘 이상의 상이한 2차원 표현 내에 표현된 높은 공간 주파수 특징을 식별하기 위해 고역 통과 필터링하는 단계를 포함하는, 컴퓨터로 구현하는 방법. - 제1항에 있어서,
상기 둘 이상의 상이한 2차원 표현은 상기 미리 정해진 3차원 장면의 상이한 시점(view)을 나타내는, 컴퓨터로 구현하는 방법. - 제2항에 있어서,
상기 깊이 정보를 판정하는 단계는, 상기 둘 이상의 상이한 2차원 표현 간의 시차(parallax)를 계산하는 단계를 포함하는, 컴퓨터로 구현하는 방법. - 제1항에 있어서,
상기 두 개의 상이한 표현을 생성하는 단계는, 둘 이상의 상이한 2차원 시점으로 상기 그래픽 요소를 표현하는 단계를 포함하는, 컴퓨터로 구현하는 방법. - 제1항에 있어서,
상기 그래픽 요소는 기하학적 물체, 사용자 인터페이스의 일부, 이미지, 및 텍스트 중의 적어도 하나를 표현하는, 컴퓨터로 구현하는 방법. - 제1항에 있어서,
상기 깊이 정보는 압축된 영상 데이터로부터 판정되는 것인, 컴퓨터로 구현하는 방법. - 명령어를 기억하기 위한 메모리; 및
미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현 내에 포함된 콘텐츠의 깊이 정보를 이용해서 상기 미리 정해진 3차원 공간 내에서의 그래픽 요소에 대한 위치를 식별하기 위해 상기 명령어를 실행하고, 상기 그래픽 요소를 포함하는 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 생성하도록 구성된 프로세서
를 포함하는 것을 특징으로 하는 컴퓨팅 장치. - 제12항에 있어서,
상기 프로세서는 상기 미리 정해진 3차원 장면의 둘 이상의 상이한 표현으로부터 깊이 정보를 판정하도록 구성된, 컴퓨팅 장치. - 제13항에 있어서,
상기 프로세서는, 상기 깊이 정보를 판정하기 위해, 상기 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 필터링하도록 구성된, 컴퓨팅 장치. - 제14항에 있어서,
상기 프로세서는, 상기 깊이 정보를 판정하기 위해, 상기 미리 정해진 3차원 장면의 필터링된 둘 이상의 상이한 2차원 표현을 비교하도록 구성된, 컴퓨팅 장치. - 제14항에 있어서,
상기 프로세서는, 상기 둘 이상의 상이한 2차원 표현을 필터링하기 위해, 콘텐츠의 에지 부분을 식별하도록 구성된, 컴퓨팅 장치. - 제14항에 있어서,
상기 프로세서는, 필터링하기 위해, 상기 둘 이상의 상이한 2차원 표현 내에 표현되는 높은 공간 주파수 특징을 식별하도록 고역 통과 필터링하도록 구성된, 컴퓨팅 장치. - 제12항에 있어서,
상기 둘 이상의 상이한 2차원 표현은 상기 미리 정해진 3차원 장면의 상이한 시점을 표현하는, 컴퓨팅 장치. - 제13항에 있어서,
상기 프로세서는, 상기 깊이 정보를 판정하기 위해, 상기 둘 이상의 상이한 2차원 표현 간의 시차를 계산하도록 구성된, 컴퓨팅 장치. - 제12항에 있어서,
상기 프로세서는, 상기 두 개의 상이한 표현을 생성하기 위해, 둘 이상의 상이한 2차원 시점으로 상기 그래픽 요소를 표현하도록 구성된, 컴퓨팅 장치. - 제12항에 있어서,
상기 그래픽 요소는 기하학적 물체, 사용자 인터페이스의 일부, 이미지, 및 텍스트 중의 적어도 하나를 표현하는, 컴퓨팅 장치. - 제12항에 있어서,
상기 깊이 정보는 압축된 영상 데이터로부터 판정되는 것인, 컴퓨팅 장치. - 처리 장치에 의해 실행가능한 명령어를 기억하는 하나 이상의 컴퓨터로 판독가능한 매체에 있어서,
상기 처리 장치로 하여금,
미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현 내에 포함되는 콘텐츠의 깊이 정보(depth information)를 사용하여 상기 미리 정해진 3차원 장면 내에서의 그래픽 요소에 대한 위치를 식별하는 동작; 및
상기 그래픽 요소를 포함하는 상기 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 생성하는 동작
을 수행하도록 하는 것을 특징으로 하는, 컴퓨터로 판독가능한 매체. - 제23항에 있어서,
상기 동작은, 상기 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현으로부터 깊이 정보를 판정하는 동작을 더 포함하는, 컴퓨터로 판독가능한 매체. - 제24항에 있어서,
상기 깊이 정보를 판정하는 동작은, 상기 미리 정해진 3차원 장면의 둘 이상의 상이한 2차원 표현을 필터링하는 동작을 포함하는, 컴퓨터로 판독가능한 매체. - 제25항에 있어서,
상기 깊이 정보를 판정하는 동작은, 상기 미리 정해진 3차원 장면의 필터링된 둘 이상의 상이한 2차원 표현을 비교하는 동작을 포함하는, 컴퓨터로 판독가능한 매체. - 제25항에 있어서,
상기 둘 이상의 상이한 2차원 표현을 필터링하는 동작은, 콘텐츠의 에지 부분을 식별하는 동작을 포함하는, 컴퓨터로 판독가능한 매체. - 제25항에 있어서,
상기 필터링하는 동작은, 상기 둘 이상의 상이한 2차원 표현 내에 표현된 높은 공간 주파수 특징을 식별하기 위해 고역 통과 필터링하는 동작을 포함하는, 컴퓨터로 판독가능한 매체. - 제23항에 있어서,
상기 둘 이상의 상이한 2차원 표현은 상기 미리 정해진 3차원 장면의 상이한 시점(view)을 나타내는, 컴퓨터로 판독가능한 매체. - 제24항에 있어서,
상기 깊이 정보를 판정하는 동작은, 상기 둘 이상의 상이한 2차원 표현 간의 시차(parallax)를 계산하는 동작을 포함하는, 컴퓨터로 판독가능한 매체. - 제23항에 있어서,
상기 두 개의 상이한 표현을 생성하는 동작은 둘 이상의 상이한 2차원 시점으로 상기 그래픽 요소를 표현하는 동작을 포함하는, 컴퓨터로 판독가능한 매체. - 제23항에 있어서,
상기 그래픽 요소는 기하학적 물체, 사용자 인터페이스의 일부, 이미지, 및 텍스트 중의 적어도 하나를 표현하는, 컴퓨터로 판독가능한 매체. - 제23항에 있어서,
상기 깊이 정보는 압축된 영상 데이터로부터 판정되는 것인, 컴퓨터로 판독가능한 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/853,859 | 2010-08-10 | ||
US12/853,859 US10134150B2 (en) | 2010-08-10 | 2010-08-10 | Displaying graphics in multi-view scenes |
PCT/US2011/046924 WO2012021443A2 (en) | 2010-08-10 | 2011-08-08 | Displaying graphics in multi-view scenes |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130138177A true KR20130138177A (ko) | 2013-12-18 |
KR101907945B1 KR101907945B1 (ko) | 2018-10-15 |
Family
ID=45564501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137003419A KR101907945B1 (ko) | 2010-08-10 | 2011-08-08 | 다중 시점 장면에서의 그래픽 표시 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10134150B2 (ko) |
EP (1) | EP2603902B1 (ko) |
JP (2) | JP2013541067A (ko) |
KR (1) | KR101907945B1 (ko) |
WO (1) | WO2012021443A2 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021189068A1 (en) * | 2020-03-16 | 2021-09-23 | Snap Inc. | 3d cutout image modification |
US11995757B2 (en) | 2021-10-29 | 2024-05-28 | Snap Inc. | Customized animation from video |
US12020358B2 (en) | 2021-10-29 | 2024-06-25 | Snap Inc. | Animated custom sticker creation |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9681117B2 (en) * | 2010-10-28 | 2017-06-13 | Lg Electronics Inc. | Receiver apparatus and method for receiving a three-dimensional broadcast signal in a mobile environment |
KR101587623B1 (ko) * | 2010-12-09 | 2016-01-21 | 한국전자통신연구원 | 시각적 피로 최소화를 지원하는 입체영상 제작시스템 및 그 방법 |
FR2971875B1 (fr) * | 2011-02-23 | 2017-11-03 | Mobiclip | Dispositif et procede de gestion de la position du plan focal dans une scene stereoscopique |
EP2648414B1 (en) * | 2012-04-03 | 2016-03-23 | Samsung Electronics Co., Ltd | 3d display apparatus and method for processing image using the same |
US20140192158A1 (en) * | 2013-01-04 | 2014-07-10 | Microsoft Corporation | Stereo Image Matching |
JP2014203017A (ja) * | 2013-04-09 | 2014-10-27 | ソニー株式会社 | 画像処理装置、画像処理方法、表示装置、および電子機器 |
KR102143473B1 (ko) * | 2013-11-13 | 2020-08-12 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 그 다시점 영상 디스플레이 방법 |
US20150228119A1 (en) | 2014-02-11 | 2015-08-13 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20160048019A1 (en) * | 2014-08-12 | 2016-02-18 | Osterhout Group, Inc. | Content presentation in head worn computing |
KR101545511B1 (ko) * | 2014-01-20 | 2015-08-19 | 삼성전자주식회사 | 의료 영상 재생 방법, 의료 영상 재생 장치, 및 컴퓨터 판독가능 기록매체 |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US9852545B2 (en) | 2014-02-11 | 2017-12-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US12112089B2 (en) | 2014-02-11 | 2024-10-08 | Mentor Acquisition One, Llc | Spatial location presentation in head worn computing |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
US10878775B2 (en) | 2015-02-17 | 2020-12-29 | Mentor Acquisition One, Llc | See-through computer display systems |
KR102143463B1 (ko) * | 2015-09-24 | 2020-08-12 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 그 제어 방법 |
US10591728B2 (en) | 2016-03-02 | 2020-03-17 | Mentor Acquisition One, Llc | Optical systems for head-worn computers |
US10667981B2 (en) | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
US10846918B2 (en) * | 2017-04-17 | 2020-11-24 | Intel Corporation | Stereoscopic rendering with compression |
JP6644735B2 (ja) * | 2017-07-07 | 2020-02-12 | 株式会社藤商事 | 遊技機 |
JP6814703B2 (ja) * | 2017-07-07 | 2021-01-20 | 株式会社藤商事 | 遊技機 |
JP6644736B2 (ja) * | 2017-07-07 | 2020-02-12 | 株式会社藤商事 | 遊技機 |
JP6644734B2 (ja) * | 2017-07-07 | 2020-02-12 | 株式会社藤商事 | 遊技機 |
JP6647251B2 (ja) * | 2017-07-07 | 2020-02-14 | 株式会社藤商事 | 遊技機 |
CN108055452B (zh) * | 2017-11-01 | 2020-09-18 | Oppo广东移动通信有限公司 | 图像处理方法、装置及设备 |
US12044625B2 (en) | 2018-02-01 | 2024-07-23 | University of Pittsburgh—of the Commonwealth System of Higher Education | Systems and methods for robust background correction and/or emitter localization for super-resolution localization microscopy |
US10972714B2 (en) * | 2018-02-15 | 2021-04-06 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and storage medium for storing program |
JP7137313B2 (ja) | 2018-02-15 | 2022-09-14 | キヤノン株式会社 | 出力装置、画像処理方法およびプログラム |
WO2019173556A1 (en) * | 2018-03-09 | 2019-09-12 | Northwestern University | Adaptive sampling for structured light scanning |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6005607A (en) * | 1995-06-29 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
EP0830034B1 (en) * | 1996-09-11 | 2005-05-11 | Canon Kabushiki Kaisha | Image processing for three dimensional display of image data on the display of an image sensing apparatus |
JP2927350B2 (ja) * | 1997-03-27 | 1999-07-28 | 株式会社モノリス | 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法 |
JP3802653B2 (ja) | 1997-05-21 | 2006-07-26 | オリンパス株式会社 | 立体画像表示装置 |
US6504569B1 (en) * | 1998-04-22 | 2003-01-07 | Grass Valley (U.S.), Inc. | 2-D extended image generation from 3-D data extracted from a video sequence |
US6807295B1 (en) | 1999-06-29 | 2004-10-19 | Fuji Photo Film Co., Ltd. | Stereoscopic imaging apparatus and method |
JP2001016612A (ja) | 1999-06-29 | 2001-01-19 | Fuji Photo Film Co Ltd | 視差画像撮像装置及び視差画像撮像方法 |
EP1314138A1 (en) * | 2000-08-04 | 2003-05-28 | Dynamic Digital Depth Research Pty. Ltd. | Image conversion and encoding technique |
GB2378108B (en) * | 2001-07-24 | 2005-08-17 | Imagination Tech Ltd | Three dimensional graphics system |
JP2005037378A (ja) | 2003-06-30 | 2005-02-10 | Sanyo Electric Co Ltd | 奥行計測方法と奥行計測装置 |
KR100520707B1 (ko) | 2003-10-20 | 2005-10-17 | 엘지전자 주식회사 | 3차원 지도에서의 다중레벨 텍스트데이터 표시방법 |
US7412110B1 (en) * | 2004-01-28 | 2008-08-12 | Adobe Systems Incorporated | Using forward and backward kernels to filter images |
JP2005236442A (ja) * | 2004-02-17 | 2005-09-02 | Sanyo Electric Co Ltd | 電子透かし埋め込み装置と方法ならびに電子透かし抽出装置と方法 |
JP4737711B2 (ja) * | 2005-03-23 | 2011-08-03 | 富士ゼロックス株式会社 | 復号化装置、逆量子化方法、分布決定方法及びこのプログラム |
JP2006325165A (ja) | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法 |
US8384763B2 (en) * | 2005-07-26 | 2013-02-26 | Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada | Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging |
JP4556798B2 (ja) | 2005-07-29 | 2010-10-06 | トヨタ自動車株式会社 | 画像処理装置 |
US20090284584A1 (en) * | 2006-04-07 | 2009-11-19 | Sharp Kabushiki Kaisha | Image processing device |
JP2007316693A (ja) * | 2006-05-23 | 2007-12-06 | Monolith Co Ltd | 画像符号化方法および画像符号化装置 |
US9076265B2 (en) * | 2006-06-16 | 2015-07-07 | Ati Technologies Ulc | System and method for performing depth testing at top and bottom of graphics pipeline |
US20080205791A1 (en) * | 2006-11-13 | 2008-08-28 | Ramot At Tel-Aviv University Ltd. | Methods and systems for use in 3d video generation, storage and compression |
US8594137B2 (en) * | 2007-02-20 | 2013-11-26 | Teradici Corporation | Apparatus and methods for image decoding |
CA2627999C (en) * | 2007-04-03 | 2011-11-15 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images |
TWI327536B (en) * | 2007-05-16 | 2010-07-21 | Univ Nat Defense | Device and method for detecting obstacle by stereo computer vision |
KR100899422B1 (ko) | 2007-08-06 | 2009-05-27 | 삼성모바일디스플레이주식회사 | 스테레오 매칭 시스템 및 이를 이용한 스테레오 매칭방법 |
JP2009135686A (ja) | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
JP4657313B2 (ja) * | 2008-03-05 | 2011-03-23 | 富士フイルム株式会社 | 立体画像表示装置および方法並びにプログラム |
JP4792127B2 (ja) * | 2008-07-24 | 2011-10-12 | パナソニック株式会社 | 立体視再生が可能な再生装置、再生方法、プログラム |
EP3454549B1 (en) | 2008-07-25 | 2022-07-13 | Koninklijke Philips N.V. | 3d display handling of subtitles |
US8665374B2 (en) * | 2008-08-22 | 2014-03-04 | Disney Enterprises, Inc. | Interactive video insertions, and applications thereof |
MX2011002553A (es) * | 2008-09-18 | 2011-04-04 | Panasonic Corp | Dispositivo de reproduccion de video estereoscopico y dispositivo de presentacion visual de video estereoscopico. |
EP2356818B1 (en) * | 2008-12-01 | 2016-04-13 | Imax Corporation | Methods and systems for presenting three-dimensional motion pictures with content adaptive information |
KR101506926B1 (ko) | 2008-12-04 | 2015-03-30 | 삼성전자주식회사 | 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법 |
US8269821B2 (en) | 2009-01-27 | 2012-09-18 | EchoStar Technologies, L.L.C. | Systems and methods for providing closed captioning in three-dimensional imagery |
EP2401870A4 (en) * | 2009-02-27 | 2012-12-26 | Deluxe Lab Inc | SYSTEMS, DEVICES AND METHODS FOR SUBTITLEING STEREOSCOPIC CONTENT |
US9129644B2 (en) * | 2009-06-23 | 2015-09-08 | Disney Enterprises, Inc. | System and method for rendering in accordance with location of virtual objects in real-time |
US20110025830A1 (en) * | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
NL2008690C2 (en) * | 2011-04-25 | 2014-07-15 | Google Inc | Dynamic highlighting of geographic entities on electronic maps. |
US10573039B2 (en) * | 2016-10-03 | 2020-02-25 | Netflix, Inc. | Techniques for incorporating a text-containing image into a digital image |
-
2010
- 2010-08-10 US US12/853,859 patent/US10134150B2/en not_active Expired - Fee Related
-
2011
- 2011-08-08 JP JP2013524146A patent/JP2013541067A/ja active Pending
- 2011-08-08 KR KR1020137003419A patent/KR101907945B1/ko active IP Right Grant
- 2011-08-08 EP EP11816873.1A patent/EP2603902B1/en not_active Not-in-force
- 2011-08-08 WO PCT/US2011/046924 patent/WO2012021443A2/en active Application Filing
-
2016
- 2016-04-22 JP JP2016085698A patent/JP2016178655A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021189068A1 (en) * | 2020-03-16 | 2021-09-23 | Snap Inc. | 3d cutout image modification |
US11217020B2 (en) | 2020-03-16 | 2022-01-04 | Snap Inc. | 3D cutout image modification |
US11775165B2 (en) | 2020-03-16 | 2023-10-03 | Snap Inc. | 3D cutout image modification |
US11995757B2 (en) | 2021-10-29 | 2024-05-28 | Snap Inc. | Customized animation from video |
US12020358B2 (en) | 2021-10-29 | 2024-06-25 | Snap Inc. | Animated custom sticker creation |
Also Published As
Publication number | Publication date |
---|---|
WO2012021443A3 (en) | 2012-05-10 |
US10134150B2 (en) | 2018-11-20 |
JP2013541067A (ja) | 2013-11-07 |
EP2603902A4 (en) | 2014-08-13 |
US20120038641A1 (en) | 2012-02-16 |
JP2016178655A (ja) | 2016-10-06 |
WO2012021443A2 (en) | 2012-02-16 |
EP2603902B1 (en) | 2018-10-03 |
EP2603902A2 (en) | 2013-06-19 |
KR101907945B1 (ko) | 2018-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101907945B1 (ko) | 다중 시점 장면에서의 그래픽 표시 | |
CN106251403B (zh) | 一种虚拟立体场景实现的方法、装置和系统 | |
JP4879326B2 (ja) | 3次元画像を合成するシステム及び方法 | |
US8213708B2 (en) | Adjusting perspective for objects in stereoscopic images | |
US20120140038A1 (en) | Zero disparity plane for feedback-based three-dimensional video | |
US8982187B2 (en) | System and method of rendering stereoscopic images | |
US8094148B2 (en) | Texture processing apparatus, method and program | |
JP7184748B2 (ja) | 場面の積層深度データを生成するための方法 | |
KR20140004115A (ko) | 2차원 화상의 재투영의 형태학적 안티 에일리어싱 | |
US20130027389A1 (en) | Making a two-dimensional image into three dimensions | |
Schmeing et al. | Depth image based rendering: A faithful approach for the disocclusion problem | |
US20130321409A1 (en) | Method and system for rendering a stereoscopic view | |
US8619094B2 (en) | Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image | |
KR102459850B1 (ko) | 3d 이미지 처리 방법 및 장치, 및 그래픽 처리 장치 | |
WO2012014009A1 (en) | Method for generating multi-view images from single image | |
Xie et al. | Depth-tunable three-dimensional display with interactive light field control | |
KR20160056132A (ko) | 영상 변환 장치 및 그 영상 변환 방법 | |
Schild et al. | Integrating stereoscopic video in 3D games | |
Saito et al. | Data conversion from multi-view cameras to layered light field display for aliasing-free 3D visualization | |
CN116610213A (zh) | 虚拟现实中的交互显示方法、装置、电子设备、存储介质 | |
Kovács et al. | Analysis and optimization of pixel usage of light-field conversion from multi-camera setups to 3D light-field displays | |
CN118229884A (zh) | 绘制三维场景的方法、装置、设备和介质 | |
Hrozek et al. | Depth Map Calculation for Autostereoscopic 3D Display | |
KR20120012589A (ko) | 입체 프리젠테이션 영상 제작 프로그램이 저장된 컴퓨터로 읽을 수 있는 매체, 그 프로그램이 저장된 서버 시스템 및 무 안경 방식의 다 시점 입체영상 출력 엔진용 입체 프리젠테이션 영상 제작방법 | |
Güvendi̇k | FPGA Based Stereo Camera Depth Map Generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |