KR20160022295A - 2차원 비디오를 3차원 비디오로 변환하기 위한 방법 및 시스템 - Google Patents

2차원 비디오를 3차원 비디오로 변환하기 위한 방법 및 시스템 Download PDF

Info

Publication number
KR20160022295A
KR20160022295A KR1020157031808A KR20157031808A KR20160022295A KR 20160022295 A KR20160022295 A KR 20160022295A KR 1020157031808 A KR1020157031808 A KR 1020157031808A KR 20157031808 A KR20157031808 A KR 20157031808A KR 20160022295 A KR20160022295 A KR 20160022295A
Authority
KR
South Korea
Prior art keywords
frame
video
viewing
video frame
viewing frame
Prior art date
Application number
KR1020157031808A
Other languages
English (en)
Other versions
KR101729883B1 (ko
Inventor
베루츠 에이. 말레키
사르베나츠 사르코쉬
Original Assignee
비트애니메이트 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비트애니메이트 인코포레이티드 filed Critical 비트애니메이트 인코포레이티드
Publication of KR20160022295A publication Critical patent/KR20160022295A/ko
Application granted granted Critical
Publication of KR101729883B1 publication Critical patent/KR101729883B1/ko

Links

Images

Classifications

    • H04N13/0434
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G02B27/22
    • G02B27/26
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/044
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 2차원 비디오를 3차원 비디오로 변환하기 위한 방법에 관한 것이다. 이 방법은 비디오 프레임 x의 부분과 비디오 프레임 y의 부분 사이의 이동을 결정하도록 비디오 프레임 x의 적어도 부분을 비디오 프레임 y의 상응하는 적어도 부분에 비교하고, 결정된 이동에 기초하여 이동 방향 및 이동 범위를 계산하고, 이동 방향에 기초하여 뷰잉 프레임 L 및 뷰잉 프레임 R을 결정하며, 수정된 뷰잉 프레임 R'을 생성하도록 이동 방향 및 이동 범위에 기초하여 뷰잉 프레임 R을 수정하는 단계들을 포함한다. 하나의 대안적인 실시예는 2차원 비디오를 3차원 비디오로 변환하기 위한 비디오 디스플레이 디바이스이다. 다른 대안적인 실시예는 실행되었을 때 2차원 비디오에서 3차원 비디오로 변환하도록 비디오 디스플레이 디바이스를 구성하는 실행가능한 명령어를 저장하는 하나 이상의 디바이스-판독가능한 매체를 포함한다.

Description

2차원 비디오를 3차원 비디오로 변환하기 위한 방법 및 시스템{TWO-DIMENSIONAL VIDEO TO THREE-DIMENSIONAL VIDEO CONVERSION METHOD AND SYSTEM}
본 발명은 2차원(모노스코픽) 비디오를 3차원(입체) 비디오로 변환하기 위한 방법 및 시스템이 관한 것으로, 보다 구체적으로는 2차원(모노스코픽) 비디오를 3차원(입체) 비디오로 실시간 변환하기 위한 방법 및 시스템에 관한 것이다.
사람은 대략 2와 1/2인치(대략 6.5cm) 떨어진 두 개의 눈을 사용하는 양안시계(binocular vision system)를 가진다. 각각의 눈은 미세하게 다른 시각에서 세상을 바라본다. 뇌는 거리를 계산하거나 추정하기 위해 이러한 시각의 차를 사용한다. 이러한 양안시계는 대략 20피트에 이르는 거리만큼 떨어진 객체의 거리를 비교적 우수한 정확도로 결정하는 능력을 책임진다. 시야 내의 다수의 객체의 상대적인 거리 또한 결정될 수 있다. 오직 하나의 눈만을 사용하는 것은 이러한 거리 결정의 정확도를 상당히 감소시킬 것이다.
종래의 3차원 영화 또는 비디오(아래에서는 일반적으로 "비디오들"로 지칭됨)는 약 3인치(예를 들어, 사람의 눈들 사이의 간격과 동일한 거리) 내지 8인치 떨어져 나란히 장착된 두 개의 비디오 소스(예를 들어, 카메라들)를 사용하여 제작된다. 이러한 거리는 종종 축 사이(interaxial) 또는 눈 사이(interoccular) 거리로 지칭된다. 두 개의 비디오 소스들은 실질적으로 하나는 왼쪽 눈을 위한 것이고 하나는 오른쪽 눈을 위한 것인 두 개의 비디오들을 생성한다. 각 비디오는 일련의 "프레임들"("프레임들" 또는 "비디오 프레임들"로 지칭됨)로 구성된다.
통상적으로, 3차원 비디오의 프로젝션 또는 디스플레이는 예를 들어 색 차별화 시스템(color differentiation system) 또는 편광 시스템을 사용하여 복수의 비디오들을 프로젝팅 또는 디스플레이함으로써 달성되어왔다. 이것은 비디오들 중 하나를 각각 디스플레이하는 복수의 프로젝션 또는 디스플레이 디바이스들(예를 들어, 프로젝터)을 사용하여 수행될 수 있다. 이것은 또한 오버래핑 또는 인터리빙(interleaving) 방식으로 비디오를 디스플레이하는 단일 프로젝션 또는 디스플레이 디바이스(예를 들어, 컴퓨터의 디지털 또는 아날로그 디스플레이 시스템, BETAMAX® 플레이어, VCR, DVD 플레이어, 블루레이 플레이어, 텔레비전)를 사용하여 수행되었다. 각각의 눈이 오버랩핑 또는 인터리빙 디스플레이들 중 하나만을 보기 때문에 사람의 양안시계는 이러한 오버래핑 디스플레이들을 자동으로 보정할 수 있다.
도 1은 차별화를 위해 색상을 사용하는 3차원 비디오(22)를 프로젝팅 또는 디스플레이하기 위한 예시적인 종래의 색 차별화 시스템(20)을 도시한다. 제1 비디오 소스(24)는 제1 컬러 필터(예를 들어, 적색)를 통해 프로젝팅하고 제2 비디오 소스(26)는 제2 컬러 필터(예를 들어, 청색)를 통해 프로젝팅한다. 이 도면에서 비디오(22)는 과장된 이중 이미지로 도시되었다. 시청자들은 상응하는 컬러 렌즈(30, 32)를 갖는 특별한 안경(28)을 착용한다. 예를 들어, 제1 렌즈(30)는 컬러 필터들 중 하나와 동일한 색상일 수 있고(예를 들어, 청색 - 도면 페이지의 바닥에 평행한 수평 라인으로 도시됨) 제2 렌즈(32)는 다른 컬러 필터와 동일한 색상일 수 있다(예를 들어, 적색 - 도면 페이지의 측면에 평행한 수직 라인으로 도시됨). 스크린 디스플레이는 (스크린으로부터 프로젝팅하는 화살표로서 도시된) 두 개의 색상들을 가질 수 있다. 제1 렌즈(30)에 의해 커버된 눈은 상반된 색상을 프로젝팅하거나 디스플레이하는 비디오 소스(24)에 의해 프로젝팅되거나 디스플레이되는 픽처(picture)를 볼 것이다. 제2 렌즈(32)에 의해 커버된 눈은 상반된 색상을 프로젝팅하거나 디스플레이하는 비디오 소스(26)에 의해 프로젝팅하거나 디스플레이되는 픽처를 볼 것이다. ChromaDepth®는 동일한 기본 원리 상에서 작동하는 (유사한 2-색상 기술을 갖는 마이크로-프리즘을 이용한) 안경을 생산한다.
도 2는 차별화를 위해 편광을 이용하는 3차원 비디오(42)를 프로젝팅 또는 디스플레이하기 위한 예시적인 편광 차별화 시스템(40)을 도시한다. 이 도면에서의 비디오(42)에는 과장된 이중 이미지가 도시되었다. 이 시스템은 편광된 광이 둘 모두 동일한 방향으로 편광되었을 때에만 편광 안경을 통과할 것이라는 사실을 이용한다. 따라서, 제1 비디오 소스(44)는 (예를 들어, 수평인) 제1 편광 필터를 통해 프로젝팅하고 제2 비디오 소스(46)는 (예를 들어, 수직인) 제2 편광 필터를 통해 프로젝팅한다. 시청자는 상응하는 편광 렌즈(50, 52)를 갖는 특별한 안경(48)을 착용한다. 예를 들어, 제1 렌즈(50)가 (예를 들어, 수직 점선으로 도시된) 편광 필터들 중 하나와 동일한 편광을 가질 것이고 제2 렌즈(52)가 (예를 들어, 수평 점선으로 도시된) 다른 편광 필터와 동일한 편광을 가질 것이다. 이 예에서, 제1 렌즈(50)에 의해 커버된 눈은 수평 편광된 픽처를 프로젝팅하는 비디오 소스(44)에 의해 프로젝팅되거나 디스플레이된 픽처를 볼 것이고 제2 렌즈(52)에 의해 커버된 눈은 수직 편광된 픽처를 프로젝팅하는 비디오 소스(46)에 의해 프로젝팅되거나 디스플레이된 픽처를 볼 것이다.
3차원 영화를 보여주기 위해 사용되는 다른 기술은 LCD 셔터 안경을 사용한다. LCD 셔터 안경은 전압이 인가되어 어두워질 때까지 투명한 편광 필터 및 액정을 사용하는 렌즈를 구비한다. IR 이미터는 렌즈가 먼저 한쪽 눈에 그 다음 다른 눈에 교대 방식으로 투명함과 어두움 사이에서 전환하도록 전압을 트리거하도록 IR 신호를 전송한다. 이러한 투명함/어두움 교대는 교대-프레임 시퀀싱으로 지칭되는 기술을 이용하는 제1 눈에 대한 제1 시각의 디스플레이 및 제2 눈에 대한 제2 디스플레이 사이에서 교대하는 전문화된 디스플레이 스크린의 재생률(refresh rate)과 동기화된다. 함께 사용되었을 때, LCD 셔터 안경과 전문화된 디스플레이 스크린이 3차원 픽처(또는 적어도 3차원 픽처의 요소들)의 일루전(illusion)을 생성한다.
3차원 영화는 긴 시간 동안 존재해왔다. 그러나 1950년대 전성기 후에, 매체로서의 3차원 영화는 내리막길을 걸었고 영화 제작자는 그들의 관심을 다른 기술로 돌렸다. 그러나 (편광 차별화 시스템을 포함한) 새로운 기술은 이 매체를 더욱 매력적으로 만들어왔고 새로운 영화들이 3차원 영화로 제작되거나 배포되었다. 이것의 1차적인 원인은 3차원 영화의 품질에서의 뚜렷한 향상이 있었다는 점이다. 3차원 영화가 인기를 얻게 된 다른 이유는 영화를 보는 대중들이 이러한 특별한 효과에 대한 프리미엄을 지불할 의지를 나타낸다는 점이다.
영화 제작자가 새로운 3차원 영화를 제작하기 위한 새로운 기술에 투자할 의지가 있다고 해도, 2차원 기술을 이용하는 것에 비교해 3차원 기술을 이용하여 영화를 촬영하는 것의 비용이 상당히 더 높다. 또한, 이미 제작된 수백만 개의 2차원 영화들이 존재한다. 따라서 2차원 영화를 3차원 영화로 변환하기 위한 시스템 또는 방법을 찾는 것이 필요하다.
이러한 필요성을 보아, 발명자는 2차원 영화에서 3차원 영화로 변환하기 위한 방법 및 30 시스템을 생성하고자 노력 해왔다. 예를 들어, 2차원 영화를 3차원 감상을 위해 변환하기 위한 방법 및 시스템에 관한 다수의 특허가 존재한다. 이러한 다수의 특허는 장면 내의 하나 이상의 요소 또는 객체를 "식별", "컷아웃", 및/또는 "시프트"한 다음 깊이의 일루전을 생성하도록 요소들 또는 객체들을 레이어링하는 일부 분석 타입을 기술한다. 이러한 카테고리에 들어가는 특허는 Richards에 의한 미국 특허 제6,477,267호 및 Naske에 의한 미국 특허 제7,321,374호를 포함하지만 이것으로 제한되지 않는다. 그러나 3차원(입체) 감상을 위해 2차원 영화들을 변환하기 위한 이들 종래 기술 방법은 전혀 작동하지 않고(즉, 이론상으로는 작동할 수 있지만, 실제로는 현재 이용가능한 컴퓨터 기술이 이러한 컴퓨터 계산 집약적인 방법을 구현하기 충분히 강력하지 않기 때문에 작동할 수 없음), 리소스 집약적이고/이거나, 수용가능한 결과(예를 들어, 판지 컷-아웃 효과(cardboard cut-out effect))를 생산하지 않는다. 예를 들어, 일부 종래의 방법들은 너무나 컴퓨터 계산 집약적이어서 현재의 프로세서들이 각 주어진 장면 내의 적지 않은 요소들 또는 객체들에 대한 컴퓨터 계산을 핸들링하기에 충분히 강력하지 않다.
본 발명의 바람직한 실시예는 2차원 비디오를 3차원 비디오로 변환하기 위한 방법에 관한 것이다. 이 방법은 비디오 프레임 x의 부분과 비디오 프레임 y의 부분 사이의 이동을 결정하도록 비디오 프레임 x의 적어도 부분을 비디오 프레임 y의 상응하는 적어도 부분에 비교하고, 결정된 이동에 기초하여 이동 방향 및 이동 범위를 계산하고, 이동 방향에 기초하여 뷰잉 프레임(viewing frame) L 및 뷰잉 프레임 R을 결정하며, 수정된 뷰잉 프레임 R'을 생성하도록 이동 방향 및 이동 범위에 기초하여 뷰잉 프레임 R을 수정하는 단계들을 포함한다.
바람직한 실시예들에서, 비교 단계는 비디오 프레임 x의 부분과 비디오 프레임 y의 부분 사이의 이동을 결정하도록 비디오 프레임 x의 사전결정된 수의 픽셀들을 비디오 프레임 y의 상응하는 사전결정된 수의 픽셀들에 비교하는 단계를 더 포함한다. 다른 바람직한 실시예에서, 비교 단계는 비디오 프레임 x의 부분과 비디오 프레임 y의 부분 사이의 이동을 결정하도록 비디오 프레임 x의 에지에 있는 적어도 하나의 픽셀을 비디오 프레임 y의 에지에 있는 상응하는 적어도 하나의 픽셀에 비교하는 단계, 비디오 프레임 x의 중간에 있는 적어도 하나의 픽셀을 비디오 프레임 y의 중간에 있는 상응하는 적어도 하나의 픽셀에 비교하는 단계, 및/또는 비디오 프레임 x의 적어도 두 코너들에서의 적어도 하나의 픽셀을 비디오 프레임 y의 적어도 두 코너들에서의 상응하는 적어도 하나의 픽셀에 비교하는 단계를 더 포함한다.
바람직한 실시예들에서, 이동 방향에 기초하여 뷰잉 프레임 L 및 뷰잉 프레임 R을 결정하는 단계는 (1) 만약 이동 방향이 우측 방향이면 비디오 프레임 x가 뷰잉 프레임 L이고 비디오 프레임 y가 뷰잉 프레임 R이도록 설정하는 단계 및 (2) 만약 이동 방향이 좌측 방향이면 비디오 프레임 x가 뷰잉 프레임 R이고 비디오 프레임 y가 뷰잉 프레임 L이도록 설정하는 단계를 더 포함한다.
바람직한 실시예들에서, 뷰잉 프레임 R을 수정하는 단계는 수정된 뷰잉 프레임 R'을 생성하도록 뷰잉 프레임 R을 디지털 방식으로 왜곡(digitally distorting)하는 단계를 더 포함한다. 디지털 왜곡은 수정된 뷰잉 프레임 R'을 생성하도록 뷰잉 프레임 R을 스트레치된 사다리꼴로 디지털 방식으로 왜곡하는 것일 수 있다. 디지털 왜곡은 수정된 뷰잉 프레임 R'을 생성하도록 뷰잉 프레임 R을 원본 프레임 크기를 넘는 에지가 잘려진(cropped off) 스트레치된 사다리꼴로 디지털 방식으로 왜곡하는 것일 수 있다.
본 발명은 또한 2차원 비디오를 3차원 비디오로 변환하기 위한 비디오 디스플레이 디바이스에 관한 것일 수 있다.
본 발명은 또한 실행되었을 때 2차원 비디오를 3차원 비디오로 변환하도록 비디오 디스플레이 디바이스를 구성하는 실행가능한 명령어들을 저장하는 하나 이상의 디바이스-판독가능한 매체에 관한 것이다.
전술된 본 발명의 목적, 특성 및 장점들 및 다른 목적, 특성 및 장점들은 첨부된 도면들과 함께 본 발명의 아래의 상세한 설명을 고려함으로써 더욱 쉽게 이해될 것이다.
본 명세서 내에 포함되고 그 일부를 구성하는 첨부된 도면은 다양한 예시적인 실시예들을 도시한다.
도 1은 예시적인 종래의 색상 차별화 시스템의 단순화된 사시도.
도 2는 예시적인 종래의 편광 차별화 시스템의 단순화된 사시도.
도 3은 2차원 비디오를 3차원 비디오로 변환하기 위한 10 방법 또는 시스템의 예시적인 바람직한 실시예를 도시한 순서도.
도 4는 색상 차별화 시스템의 예시적인 바람직한 실시예를 이용하여 뷰잉 프레임들을 생성하도록 연이은 비디오 프레임들의 쌍들을 결합하는 시스템의 예시적인 바람직한 실시예의 단순화된 블록도.
도 5는 편광 차별화 시스템의 예시적인 바람직한 실시예를 이용하여 뷰잉 프레임들을 생성하도록 연이은 비디오 프레임들의 쌍들을 결합하는 시스템의 예시적인 바람직한 실시예의 단순화된 블록도.
도 6은 각각이 비디오 프레임 x 내에 예시적인 에지 영역, 예시적인 중간 영역 및 두 개의 예시적인 코너들과 비디오 프레임 y 내에 상응하는 예시적인 에지 영역, 상응하는 예시적인 중간 영역 및 두 개의 상응하는 예시적인 코너들의 픽셀들의 어레이(P) 및 그래픽 표시들을 갖는 예시적인 비디오 프레임 x 및 y의 세트의 단순화된 도면.
도 7은 25개의 다양한 영역들이 연속적으로 잇따라 확인되는 방법의 예시적인 바람직한 실시예의 순서도.
도 8a-8d는 이동이 우측 방향일 때 본 발명의 예시적인 바람직한 실시예의 일련의 그래픽 표현들을 도시한 도면.
도 9a-9d는 이동이 좌측 방향일 때 본 발명의 예시적인 바람직한 실시예의 일련의 그래픽 표현들을 도시한 도면.
도 10은 픽셀들의 어레이(P) 상에 오버레이된 두 개의 연이은 프레임들로부터의 요소로서, 두 프레임들 사이의 소수의 픽셀들(P)을 이동시키는 요소들을 갖는 픽셀들의 어레이(P)의 단순화된 도면.
도 11은 픽셀들의 어레이(P) 상에 오버레이된 두 개의 연이은 프레임들로부터의 요소로서, 두 프레임들 사이의 다수의 픽셀들(P)을 이동시키는 요소들을 갖는 픽셀들의 어레이(P)의 단순화된 도면.
도 12는 뷰잉 프레임 R의 10개의 구성요소들(X)이 자신의 원래 형태인 균등하게 배치된 어레이의 단순화된 스크린 뷰를 도시한 도면.
도 13은 길이연장 스트레칭 왜곡(elongating stretching distortion) 후 뷰잉 프레임 R 의 구성요소들(X)의 어레이의 단순화된 스크린 뷰를 도시한 도면.
도 14는 사다리꼴 스트레칭 왜곡 후 뷰잉 프레임 R의 구성요소들(X)의 어레이의 단순화된 스크린 뷰를 도시한 도면.
본 발명은 2차원(모노스코픽) 비디오를 3차원(입체) 비디오로 변환하기 위한 방법 및 시스템에 관한 것이다. 본 발명은 변환이 실시간으로 발생할 수 있도록 최소 컴퓨터 계산 리소스를 사용한다. 리소스 비용이 높은 장면 내의 요소들 또는 객체들의 분석 또는 식별을 사용하고, 식별된 요소들 또는 객체들을 컷아웃하기 위해 리소스 비용이 높은 프로세스를 사용한 다음, (때때로 빈 공간을 채워야만 하는) 이러한 요소들 또는 객체들만을 시프트하기 위한 리소스 비용이 높은 프로세스를 사용하는 종래 기술과 비교하여, 본 발명은 리소스를 크게 절약한다. 이것은 본 발명이 2차원 비디오를 3차원 비디오로 실시간 변환하는 것을 가능하게 한다.
본 명세서에 기술된 발명, 예시 및 실시예들이 구체적으로 예시된 재료들, 방법들, 및/또는 구조들로 제한되지 않는다는 것이 이해되어야만 한다. 또한, 본 명세서의 위 또는 아래에서 언급된 모든 공개문헌, 특허 및 특허출원은 그 전체가 본 명세서에 참조로서 포함된다.
본 발명 및 도면을 설명하기 전에, 몇몇 용어들이 명백해야만 한다.
전술된 바와 같이, "비디오"라는 용어는 ("프레임" 또는 "비디오 프레임"으로 지칭되는) 일련의 "프레임들"로 이루어진 영화 또는 비디오를 기술하도록 사용된다. 명확성을 위해서, 연이은 비디오 프레임들이 비디오 프레임 x 및 비디오 프레임 y로 지칭될 것이다. 이러한 용어들은 상관적인 것으로 여겨지며, 따라서 비디오 프레임 y는 이것을 따르는 프레임에 대해서는 비디오 프레임 x가 될 것이다. 논의되는 바와 같이, 왼쪽 눈에 디스플레이되는 비디오 프레임은 뷰잉 프레임 L로 지칭될 것이고, 오른쪽 눈에 디스플레이되는 비디오 프레임은 뷰잉 프레임 R로 지칭될 것이다. 그러나, 뷰잉 프레임 L 및 뷰잉 프레임 R 중 하나 또는 둘 모두가 수정될 수 있다. 만약 디스플레이된 수정 버전이라면, 디스플레이된 뷰잉 프레임은 "수정된 뷰잉 프레임"으로 기술될 것이다.
각 비디오 프레임 및/또는 뷰잉 프레임은 요소들 또는 객체들(일반적으로 "요소들"로 지칭됨)을 포함하는 "픽처"를 디스플레이한다. 예를 들어, 하늘의 "픽처" 내에서, 비행기 "요소"가 스크린을 가로질러 날아갈 수 있다. 요소들은 이동 요소이거나 정지 요소일 수 있다. 디지털 이미징에서, "픽셀"이라는 용어는 일반적으로 이미지 내의 정보의 가장 작은 아이템을 기술하도록 사용된다. 픽셀들은 일반적으로 2차원 격자 내에 배치된다. "픽셀"이라는 용어는 주로 픽처 또는 요소를 디스플레이하도록 사용되는 디스플레이 디바이스 상의 픽셀들의 형태로 본 발명에서 사용된다. 이것은 또한 오리지널 비디오 프레임들 x 및 y의 디지털 데이터를 기술하도록 사용될 수도 있다. 픽셀들(P)은 예를 들어 도 6, 10 및 11과 관련하여 도시되고 논의되었다. 본 발명의 이해를 위해서, 픽처는 어레이 내에 배치된 픽처의 작은 부분들을 나타내는 구성요소들(X)의 어레이로 구성된 것으로 기술될 수도 있다. 디지털 매체에서, 구성요소들(X)은 예를 들어 전자 데이터 및/또는 픽셀일 수 있다. 아날로그 매체(예를 들어, 필름 및 비디오 테이프)에서, 구성요소들(X)은 실제 셀룰로이드일 수 있다. 구성요소들(X)은 예를 들어 도 12-14와 관련하여 도시되고 논의되었다. 일부 환경에서 이들이 상호교환가능할 수 있지만, 픽셀들(P)로부터 구성요소들(X)을 구별하는 본 발명의 목적은 구성요소들(X)이 왜곡 프로세스에서 대체될 수 있다는 것이다. 이것은 도 12 및 도 14를 참조하여 더욱 잘 이해될 수 있다. 도 12에서, 우측 상단 코너 구성요소(X)가 (도시되지 않은) 우측 상단 코너 픽셀(P)과 동일할 수도 있지만, 프레임이 도 14에서와 같이 왜곡된 후에, 우측 상단 코너 구성요소(X)는 프레임 밖으로 나갈 수 있으며 도 12에서와 같은 위치에 남아있을 (도시되지 않은) 우측 상단 코너 픽셀(P)과 동일하지 않을 것이다.
본 발명이 본 명세서에서 전부 "비디오 디스플레이 디바이스"로 지칭되는 비디오 디스플레이 시스템(예를 들어, VCR, 영화 프로젝터, 텔레비전 및 다른 프로젝션 또는 디스플레이 디바이스), 컴퓨터(예를 들어, 워크스테이션, 휴대용 기술적 디바이스 또는 다른 프로그램가능한 장치들), 비디오를 프로젝팅 또는 디스플레이할 수 있는 전용 또는 범용 디바이스, 또는 비디오를 프로젝팅 또는 디스플레이할 수 있는 사실상 임의의 현재 또는 미래의 기술 수단을 포함하지만 이것으로 제한되지 않는 서로 다른 타입의 기술을 이용하여 구현될 수 있다. 비디오 디스플레이 디바이스는 하나 이상의 프로세싱 유닛으로 이루어질 수 있다. 비디오 디스플레이 디바이스는 또한 본 발명의 비디오 디스플레이 디바이스로서 함께 기능하는 텔레비전 또는 첨부된 "박스"와 같은 디바이스들의 조합일 수 있다. 또한, 본 발명의 비디오 디스플레이 디바이스는 예를 들어 녹음 단계(예를 들어, CD, DVD 또는 테이프 굽기 또는 녹음) 및 재생 단계(예를 들어, CD, DVD 또는 테이프 재생)를 갖는 두 개의 시간적 및/또는 물리적으로 구별되는 단계들로 구현될 수 있다. 비디오 디스플레이 디바이스들은 본 발명에 대해 특별하게 구축될 수 있고/있거나 본 발명과 함께 사용하도록 프로그램되거나 다른 방식으로 적응될 수 있다.
본 발명의 방법은 비디오 디스플레이 디바이스 또는 비디오 디스플레이 디바이스와 관련하여 작동하는 디바이스에 의해 "판독"될 수 있는 매체 상에서 인코딩 및/또는 저장될 수 있음이 인지되어야만 한다. 이 매체는 본 명세서에서 전부가 "메모리", "메모리 수단" 및/또는 "디바이스-판독가능한 매체"로서 지칭되는 메모리 매체(예를 들어 RAM, PROM, EPROM, 또는 FLASH-EPROM), 자기 매체(예를 들어, 플로피 디스크, 가요성 디스크, 하드 디스크, 또는 자기 테이프), 광학 매체(예를 들어, CDROM 및 DVD), 물리적 매체(예를 들어, 펀칭된 카드 또는 종이 테이프), 또는 사실상 임의의 현재 또는 미래의 메모리 및/또는 저장 매체를 포함하지만 이것으로 제한되지 않는다. 메모리는 휘발성 및/또는 비휘발성일 수 있다. 메모리는 비디오 디스플레이 디바이스와 통합될 수 있고/있거나 구별될 수 있다. 예로서, 만약 비디오 디스플레이 디바이스가 컴퓨터였다면, 메모리는 실행되었을 때 본 발명에 따라 비디오 디스플레이 디바이스가 2차원 비디오를 3차원 비디오로 변환시킬 것을 지시하는 컴퓨터-실행가능한 명령어를 구비하는 컴퓨터-판독가능한 매체일 수 있다.
본 발명이 2차원 비디오를 3차원 비디오로 변환하기 위한 방법으로서 구현될 수 있음이 인지되어야만 한다. 본 발명은 2차원 비디오를 3차원 비디오로 변환하기 위한 시스템으로서 구현될 수 있음이 인지되어야만 한다. "시스템"은 실행되었을 때 2차원 비디오를 3차원 비디오로 변환하기 위한 비디오 디스플레이 디바이스를 구성하는 실행가능한 명령어를 저장하는 하나 이상의 디바이스-판독가능한 매체 및/또는 비디오 디스플레이 디바이스일 수 있음이 인지되어야만 한다.
용어들 및 구들은 명세서 전반에 걸쳐 추가적인 정의 및/또는 예를 가질 수 있음을 인지해야 한다. 다른 방식으로 특별히 정의되지 않은 단어, 구 및 두문자어가 당업계에서의 전형적인 의미로 주어진다. 예시적인 실시예들은 도면을 참조로 하여 더욱 잘 이해될 수 있지만, 이러한 실시예들은 제한적인 것으로 의도되지 않는다. 동일한 참조번호가 도면들 및 본 명세서의 설명 전반에 걸쳐 동일하거나 유사한 부분을 지칭하도록 사용될 것이다. 마지막으로, 본 명세서 및 첨부된 특허청구범위에서 사용된 바와 같이, 단수 형태의 명사들은 내용에서 명백하게 표시하지 않는 한 복수 형태를 포함한다.
도 3 및 7은 방법 및 시스템을 도시한 순서도이다. 방법의 단계들의 측면에서 기술되었지만, 이러한 순서도들의 각 블록 및 블록들의 조합이 소프트웨어(예를 들어, 프로그램 명령, 소프트웨어 프로그램 및 하위프로그램), 하드웨어(예를 들어, 프로세서 및 메모리), 펌웨어, 및/또는 이들 형태의 조합에 의해 구현될 수 있다. 예를 들어, 소프트웨어의 경우에서, 프로그램 명령어가 기계를 제작하기 위해 비디오 디스플레이 디바이스(또는 비디오 디스플레이 디바이스의 메모리) 상에 로딩될 수 있으며, 그에 따라 비디오 디스플레이 디바이스 상에서 실행하는 명령어가 순서도 블록 또는 블록들 내에 명시된 기능들을 구현하기 위한 구조물을 생성한다. 이러한 프로그램 명령어들은 또한 비디오 디스플레이 디바이스가 특정 방식으로 기능할 것을 지시할 수 있는 메모리 내에 저장될 수 있으며, 그에 따라 메모리 내에 저장된 명령어들이 순서도 블록 또는 블록들 내에 명시된 기능을 구현하는 명령어 구조를 포함하는 제품을 생산한다. 프로그램 명령어들은 또한 비디오 디스플레이 디바이스 구현된 프로세스를 생산하도록 일련의 동작 단계들이 비디오 디스플레이 디바이스에 의해서 또는 비디오 디스플레이 디바이스 상에서 수행되게 하기 위해서 비디오 디스플레이 디바이스 상에 로딩될 수 있으며, 그에 따라 비디오 디스플레이 디바이스 상에서 실행하는 명령어들은 순서도 블록 또는 블록들 내에 명시된 함수들을 구현하기 위한 단계들을 제공한다. 따라서, 순서도의 블록들은 명시된 기능들을 수행하기 위한 단계들, 구조들, 및/또는 모듈들의 조합을 지원한다. 또한 순서도의 각 블록 및 순서도 내의 블록들의 조합이 본 발명의 범주에 영향을 미치지 않고 분할될 수 있고/있거나 순서도의 다른 블록들과 결합될 수 있음이 이해될 것이다.
예비 사항으로서, 본 발명이 단일 2차원 비디오로 시작할 수 있다는 것이 강조되어야만 한다. 도 1 및 2와 관련하여 논의된 종래 기술은 두 개의 2차원 비디오들로 시작되며, 각각이 두 개의 비디오 소스들 중 분리된 하나의 소스로부터 제작된다.
도 3은 4개의 기본 단계들을 포함하는 2차원 비디오로부터 3차원 비디오로 변환하기 위한 방법을 도시한 순서도이다. 단계(100)에서 도시된 바와 같은 제1 단계는 비디오 프레임 x의 적어도 부분을 상응하는 비디오 프레임 y의 적어도 부분에 비교하여 이들 사이의 이동을 결정한다. 단계(102)에서 도시된 바와 같은 제2 단계는, 결정된 이동에 기초한 이동 방향 및 이동 범위를 계산한다. 단계(104)에서 도시된 바와 같은 제3 단계는, 이동 방향에 기초해 뷰잉 프레임 L과 뷰잉 프레임 R을 결정한다. 단계(106)에서 도시된 바와 같은 제4 단계는, 이동 방향 및 이동 범위에 기초해 뷰잉 프레임 R을 수정하여 수정된 뷰잉 프레임 R'을 생성한다. 이러한 단계들은 본 명세서에서 더욱 자세하게 기술될 것이다. 이들 단계들(단계들(100, 102, 104, 106))은 다수의 연이은 프레임들에 반복될 수 있다. 전술된 바와 같이, 본 명세서의 모든 순서도에서의 경우처럼, 이 방법이 소프트웨어에 의해서만 구현될 수 있는 것은 아니며, 하드웨어, 펌웨어, 및/또는 하드웨어, 펌웨어 및/또는 소프트웨어의 조합을 사용하는 시스템으로서 구현될 수 있다.
도 4 및 5는 본 발명의 두 예시적인 실시예들을 설명하도록 사용될 수 있는 단순화된 블록도이다. 도 4는 색상 차별화 시스템을 이용하는 예시적인 바람직한 실시예에서 사용될 수 있고, 도 5는 이전 시스템들보다 초당 더 많은 프레임을 디스플레이할 수 있는 최신 시스템을 사용하는 예시적인 편광 차별화 시스템을 이용하는 예시적인 바람직한 실시예에서 사용될 수 있다. 예를 들어, 종래의 시스템은 초당 오직 24개의 프레임만을 디스플레이하지만, 더욱 최신의(그리고 미래의) 시스템은 초당 60, 120, 144, 또는 더 많은 프레임을 디스플레이할 수 있다. 이들 두 도면의 박스들의 상단 행 내에, F1-F5가 비디오 내의 연이은 프레임들을 나타내도록 사용되었다. 두 연이은 프레임들은 비디오 프레임 x(제1) 및 비디오 프레임 y(제2)로 지정될 수 있다. 도 4의 박스들의 하단 행은 동시에 디스플레이되는 뷰잉 프레임 L 및 수정된 뷰잉 프레임 R'을 나타낸다. 뷰잉 프레임 L 및 수정된 뷰잉 프레임 R' 모두가 수정될 수 있거나(뷰잉 프레임 L) 또는 미래에 수정될 수 있으며(수정된 뷰잉 프레임 R') 그에 따라 각각의 눈에 의해서만 볼 수 있다는 것이 인지되어야만 한다(예를 들어, 프레임에 적용되는 컬러 필터를 가질 수 있다). 이러한 수정 또는 추가적인 수정은 수정된 뷰잉 프레임 R'의 왜곡 수정 이전 또는 이후에 발생할 수 있다는 것이 인지되어야만 한다. 도 5의 박스들의 하단 행은 인터리빙 방식으로 디스플레이되는 뷰잉 프레임 L 및 수정된 뷰잉 프레임 R'을 나타낸다. 뷰잉 프레임 L 및 수정된 뷰잉 프레임 R'은 수정될 수 있거나(뷰잉 프레임 L) 또는 추가로 수정될 수 있으며(수정된 뷰잉 프레임 R') 그에 따라 개별 눈에 의해서만 볼 수 있다는 것이 인지되어야만 한다(예를 들어, 박스들의 하단 행 아래의 방향 화살표에 의해 도시된 바와 같이, 프레임들은 교대 극성으로 디스플레이될 수 있다). 이러한 수정 또는 추가적인 수정이 수정된 뷰잉 프레임 R'의 왜곡 수정 이전 또는 이후에 발생할 수 있음이 인지되어야만 한다.
도 3의 단계(100)는 비디오 프레임 x의 적어도 부분을 비디오 프레임 y의 상응하는 적어도 부분에 비교하여 이들 사이의 이동을 결정하기 위한 것이다. 본 발명의 바람직한 실시예들이 비디오 프레임 x의 부분을 비디오 프레임 y의 상응하는 부분에만 비교하기 때문에, 컴퓨터 계산 리소스가 절약된다. 제1 프레임 내의 모든 픽셀들을 제2 프레임 내의 모든 픽셀들에 비교하는 종래의 비교 방안에 비교하여, 본 발명은 모든 비디오 프레임 x를 모든 비디오 프레임 y에 비교하는 시스템에 의해 사용되는 컴퓨터 계산 리소스의 1%보다 훨씬 미만을 사용한다.
도 6은 과장된 픽셀들(P)을 갖는 비디오 프레임들 x 및 y의 단순화된 세트를 도시한다. 일 예시적인 스크린은 픽셀들(P)의 1920×1080 어레이를 구비할 수 있다. 그러나, 본 발명은 임의의 크기의 픽셀들(P)의 어레이와도 작동할 것임이 인지되어야만 한다. 대안적인 바람직한 실시예들에서, 단계(100)는 이들 사이의 픽셀들(P)의 이동을 결정하기 위해 의사-패턴 인식을 사용하여 달성될 수 있다. 대다수의 임의의 패턴 인식 또는 의사-패턴 인식 방안이 이러한 목적을 위해 사용될 수 있지만, 예시 및/또는 실시가능성을 제공하기 위해서, 이러한 목적으로 사용될 수 있는 예시적인 방안들이 Kaneko 외 다수에 의한 미국 특허 공개번호 제20070217685호, Nystad 외 다수에 의한 미국 특허 공개번호 제20070146380호, Cavallaro 외 다수에 의한 미국 특허 공개번호 제20090028425호, Florent에 의한 미국 특허 제5,406,501호 및 Lo 외 다수에 의한 미국 특허 제5,109,435호에 개시되었다. 이러한 참조문헌들은 본 명세서에 참조로서 포함된다. 다른 대안적인 실시예들에서, 단계(100)가 비디오 프레임 x의 사전결정된 수의 픽셀들(P)을 비디오 프레임 y의 상응하는 사전결정된 수의 픽셀들(P)에 비교함으로써 달성되어 이들 사이의 이동을 결정할 수 있다. 예로서, 사전결정된 픽셀들(P)의 수는 픽셀들(P)의 1920×1080 어레이를 갖는 예시적인 디스플레이에 대한 5와 30 픽셀들(P) 사이일 수 있다. 사전결정된 픽셀들(P)의 수가 단순한 사전설정된 수, 스크린의 특징에 기초하여 결정된 수(예를 들어 픽셀들의 크기 및/또는 수), 또는 예를 들어 초당 프레임 수, 스크린의 치수 및/또는 스크린 상의 픽셀들의 수에 기초하여 계산된 수일 수 있음이 인지되어야만 한다. 본 발명의 바람직한 실시예들에서, 픽셀들(P)의 사전결정된 수는 스크린의 픽셀들의 총 개수의 10%보다 작을 것임이 인지되어야만 한다. 본 발명의 대안적인 바람직한 실시예들에서, 픽셀들(P)의 사전결정된 수는 스크린의 픽셀들의 총 개수의 1% 미만일 것임이 인지되어야만 한다.
다른 대안적인 바람직한 실시예들에서, 단계(100)는 비디오 프레임 x와 비디오 프레임 y 사이의 이동을 결정하도록 비디오 프레임 x의 에지에 있는 적어도 하나의 픽셀(P)을 비디오 프레임 y의 에지에 있는 상응하는 적어도 하나의 픽셀(P)에 비교함으로써, 비디오 프레임 x와 비디오 프레임 y 사이의 이동을 결정하도록 비디오 프레임 x의 중간의 적어도 하나의 픽셀(P)을 비디오 프레임 y의 중간의 상응하는 적어도 하나의 픽셀(P)에 비교함으로써, 및/또는 비디오 프레임 x와 비디오 프레임 y 사이의 이동을 결정하도록 비디오 프레임 x의 적어도 두 코너들에서의 적어도 하나의 픽셀(P)을 비디오 프레임 y의 상응하는 적어도 두 코너들에서의 적어도 하나의 픽셀(P)에 비교함으로써 달성될 수 있다. 도 6은 예시적인 에지 영역(120), 예시적인 중간 영역(122) 및 두 개의 예시적인 코너들(124a, 124b)을 갖는 비디오 프레임 x 및 상응하는 예시적인 에지 영역(120'), 상응하는 예시적인 중간 영역(122') 및 두 개의 상응하는 예시적인 코너들(124a', 124b')을 갖는 비디오 프레임 y를 도시한다. 이러한 예시적인 영역들은 본 발명의 범주를 제한하지 않는다.
전술된 바와 같이, 단계(100)는 비디오 프레임 x와 비디오 프레임 y 사이의 이동을 결정하도록 비디오 프레임 x의 에지에 있는 적어도 하나의 픽셀(P)을 비디오 프레임 y의 에지에 있는 상응하는 적어도 하나의 픽셀(P)에 비교함으로써, 비디오 프레임 x와 비디오 프레임 y 사이의 이동을 결정하도록 비디오 프레임 x의 중간의 적어도 하나의 픽셀(P)을 비디오 프레임 y의 중간의 상응하는 적어도 하나의 픽셀(P)에 비교함으로써, 및/또는 비디오 프레임 x와 비디오 프레임 y 사이의 이동을 결정하도록 비디오 프레임 x의 적어도 두 코너들에서의 적어도 하나의 픽셀(P)을 비디오 프레임 y의 적어도 두 코너들에서의 상응하는 적어도 하나의 픽셀(P)에 비교함으로써 달성될 수 있다(후자의 비교는 적어도 하나의 코너에서의 적어도 하나의 픽셀 및 적어도 제2 코너에서의 적어도 하나의 픽셀을 의미하며-두 개의 코너를 사용하는 것은 장면이 줌-인, 즉 근접하거나, 줌-아웃, 즉 더 멀어질 때 특히 효율적일 것이다). 임의의 이러한 비교들이 개별적으로 또는 임의의 조합 또는 순서로 수행될 수 있다. 또한, 단계들은 서로 다른 치수들 및/또는 범위들을 이용하여 반복될 수 있다(예를 들어, 먼저 주어진 영역에서 5 픽셀들(P)을 비교하고, 그 다음 동일한 주어진 영역에서 10 픽셀들(P)을 비교하며, 그 다음 동일한 주어진 영역에서 20 픽셀들(P)을 비교). 그러나 일 바람직한 실시예에서, 다양한 영역들이 연속으로 잇따라 검사되지만, 순서가 달라질 수 있음이 인지되어야만 한다. 도 7은 이것이 작동할 수 있는 방식의 예를 도시한 순서도이다. 단계(130)에서 도시된 바와 같이, 비디오 프레임 x의 에지에 있는 적어도 하나의 픽셀(P)이 비디오 프레임 y의 에지에 있는 상응하는 적어도 하나의 픽셀(P)에 비교되어 이들 사이의 이동을 결정할 것이다. 결정 단계(132)는 단계(130)에서 이동이 발견되었는지 여부를 묻는다. 만약 이동이 발견되었다면, 분석이 완료되고 다음 단계는 도 3의 단계(102)일 것이다(결정된 이동에 기초하여 이동 방향 및 이동 범위 계산). 다른 한편으로, 만약 이동이 발견되지 않았다면, 단계(134)에 도시된 바와 같이, 비디오 프레임 x의 중간의 적어도 하나의 픽셀(P)이 비디오 프레임 y의 중간의 상응하는 적어도 하나의 픽셀(P)에 비교되어 이들 사이의 이동을 결정할 것이다. 결정 단계(136)는 단계(134)에서 이동이 발견되었는지 여부를 질문한다. 만약 이동이 발견되었다면, 분석이 완료되고 다음 단계는 도 3의 단계(102)일 것이다(결정된 이동에 기초하여 이동 방향 및 이동 범위 계산). 다른 한편으로, 만약 이동이 발견되지 않았다면, 단계(138)에 도시된 바와 같이, 비디오 프레임 x의 적어도 두 개의 코너들에서의 적어도 하나의 픽셀(P)이 비디오 프레임 y의 적어도 두 개의 코너들에서의 상응하는 적어도 하나의 픽셀(P)에 비교되어 이들 사이의 이동이 결정될 것이다. 결정 단계(140)는 단계(138)에서 이동이 발견되었는지 여부를 질문한다. 만약 이동이 발견되었다면, 분석이 완료되고 다음 단계는 도 3의 단계(102)일 것이다(결정된 이동에 기초하여 이동 방향 및 이동 범위 계산). 다른 한편으로, 만약 이동이 발견되지 않았다면, 몇몇 가능한 시나리오가 존재한다. 일 바람직한 예시적인 실시예에서, 비디오 프레임 x 및 비디오 프레임 y의 다른 "영역들"이 비교된다. 다른 바람직한 예시적인 실시예에서, 비디오 프레임 x 및 비디오 프레임 y의 모든 픽셀들(P)이 비교된다. 또 다른 바람직한 예시적인 실시예에서, 분석이 종료되고 비디오 프레임 x 및 비디오 프레임 y가 디스플레이된다.
도 7에 도시된 단계들의 순서는 달라질 수 있다. 예를 들어, 중간 영역이 항상 가장 먼저 고려될 수 있다. 또한, 어떤 영역이 먼저 고려되는지에 대한 선택은 "지능적"일 수 있다. 예를 들어, 만약 단계(130)(에지 영역)에서 모션이 발견되지 않았지만 단계(134)(중간 영역)에서 발견되었다면, 다음 세트 비디오 프레임들은 단계(134)를 먼저 이용하여 비교될 수 있다. 이러한 옵션은 모션이 일련의 프레임들에서 유사하다는 사실을 이용한다. 예를 들어, 만약 영화 장면이 스크린의 중심에서 움직이는 사람들을 포함한다면, 일련의 프레임들은 해당 영역 내에 모션을 가질 것이다.
위에서 언급된 바와 같이, 도 4 및 5는 일련의 비디오 프레임들의 단순화된 블록도 및 연이은 비디오 프레임들이 색상 차별화 시스템(도 4) 및 편광 차별화 시스템(도 5)을 이용하여 뷰잉 프레임들을 생성하도록 결합되는 방식을 도시한다. 비디오의 비디오 프레임 x 및 비디오 프레임 y와 뷰잉 프레임들 L 및 R' 사이의 단계들(예를 들어, 도 3으로부터의 단계들(102, 104, 106))에 대한 더욱 세부적인 사항들이 도 8a-8d 및 도 9a-9d에 도시되었다. 도 8a-8d와 도 9a-9d 사이의 가장 뚜렷한 차이는 도 8a-8d가 우측(좌측에서 우측) 방향으로의 이동을 나타내고, 도 9a-9d가 좌측(우측에서 좌측) 방향으로의 이동을 나타낸다는 점이다. 따라서, 유사한 아이템들이 오직 서로 다른 수식어(도 8a-8d에 대해서는 "a"이고 도 9a-9d에 대해서는 "b")를 갖는 동일한 참조번호를 사용하여 기술될 것이다. 수식어가 없는 참조번호들은 두 도면 세트들에 모두 적용된다. 본 발명의 일부 양태들이 이들 도면들에서 크게 과장되었음이 인지되어야만 한다(예를 들어, "왜곡"의 크기는 총 스크린 영역의 훨씬 더 작은 비율일 것이다). 다른 양태들은 다른 도면들에서 더욱 명백하게 도시되었다(예를 들어, 사다리꼴 왜곡은 도 14에서 더욱 명백하게 도시되었다).
전술된 바와 같이, 본 발명의 예시적인 프로세스의 바람직한 실시예의 제2 단계(102)(도 3)는 결정된 이동에 기초해 이동 방향 및 이동 범위를 계산하는 것이다. 이 단계는 단계(100)(비디오 프레임 x의 적어도 부분을 비디오 프레임 y의 상응하는 적어도 부분에 비교하여 이들 사이의 이동을 결정)로부터 획득된 정보를 이용하여 수행된다. 도 8a 및 9a를 보면, (x 및 y로 라벨링된) 두 개의 순차적인 비디오 프레임들이 자신들의 중간 영역(직사각형(150a, 150b)으로 도시됨) 내에 이동을 가진다. 도 8a에서, 직사각형(150a)의 이동 방향은 비디오 프레임 x 내의 직사각형(150a)이 프레임의 좌측 절반 내에 있고, 비디오 프레임 y 내의 직사각형(150a)이 프레임의 더욱 중심 위치로 우측을 향해 이동하였다는 점에서 우측 방향이다. 도 9a에서, 직사각형(150b)의 이동 방향은 비디오 프레임 x 내의 직사각형(150b)이 프레임의 우측 절반 내에 있고, 비디오 프레임 y 내의 직사각형(150b)이 프레임의 더욱 중심 위치로 좌측을 향해 이동하였다는 점에서 좌측 방향이다. 우측 방향 또는 좌측 방향은 이동 방향일 것이다. 일부 바람직한 실시예들에 있어서, 다른 방향(예를 들어, 위쪽 방향 및 아래쪽 방향)이 무시되고 여전히 다른 방향들(예를 들어, 각도)은 오직 그들의 좌측 방향 및 우측 방향 구성요소들에 대해 주어진 "크레딧(credit)"이다.
이동 범위는 비디오 프레임 x와 비디오 프레임 y 사이에서 이동이 이루어진 정도이다. 이동 범위는 픽셀들(P) 내에서 측정될 수 있다. 느린 이동(예를 들어, 일련의 다수의 프레임 내의 픽처에 걸쳐 서서히 떠다니는 구름 요소)은 "소수의" 픽셀들(P)을 이동시킬 것이며 작은 이동 범위를 가진다. 빠른 이동(예를 들어, 일련의 프레임들 내의 픽처에 걸쳐 질주하는 레이싱 카 요소)은 "다수의" 픽셀들(P)을 이동시킬 것이며 큰 이동 범위를 가질 것이다. "소수" 및 "다수"는 픽셀들(P)의 사전결정된 수에 기초하여 상대적이다. 이러한 픽셀들(P)의 사전결정된 수는 "그림자(shadow)" 효과를 생성하기 위해 필요할 수 있는 "이상적인" 픽셀들(P)의 수일 수 있다. 예를 들어, 픽셀들(P)의 1920×1080 어레이를 갖는 예시적인 스크린을 이용하여, 픽셀들(P)의 이상적인 수가 10과 20 픽셀(P) 사이일 수 있다. 본 발명을 논의하기 위한 목적으로, 픽셀들(P)의 사전결정된 수는 15 픽셀들(P)로 논의될 것이다.
작은 이동 범위의 예로서, 도 10은 자신의 위에 오버레이된 두 개의 연이은 프레임들로부터의 요소들(152, 154)을 갖는 (예시적인 스크린의 단지 작은 섹션일 수 있는) 픽셀들(P)의 어레이를 도시한다. 요소들(152, 154)은 그 안에 더하기 부호를 갖는 원으로 도시되었다(요소(154)는 흐릿하게 도시되었다). 더하기 부호의 중심을 이용하고 위쪽 방향/아래쪽 방향 이동을 무시하여, 오직 소수의 픽셀들(P)(4개로 도시됨)만이 프레임들의 요소들(152, 154) 사이에 존재한다. 만약 요소(152)가 제1 요소이고(뷰잉 프레임 x) 요소(154)가 제2 요소이면(뷰잉 프레임 y), 이동 방향은 좌측 방향일 것이고 이동 범위는 4 픽셀들(P)일 것이다. 만약 요소(154)가 제1 요소(뷰잉 프레임 x)이고 요소(152)가 제2 프레임(뷰잉 프레임 y)이면, 이동 방향은 우측 방향일 것이고 이동 범위는 여전히 4 픽셀들(P)일 것이다.
큰 이동 범위의 예로서, 도 11은 자신의 위에 오버레이된 두 개의 연이은 프레임들로부터의 요소들(156, 158)을 갖는 (예시적인 스크린의 단지 작은 섹션일 수 있는) 픽셀들(P)의 어레이를 도시한다. 요소들(156, 158)은 그 안에 더하기 부호를 갖는 원으로 도시되었다(요소(158)는 흐릿하게 도시되었다). 더하기 부호의 중심을 이용하고 위쪽 방향/아래쪽 방향 이동을 무시하여, 프레임들의 요소들(156, 158) 사이에 다수의 픽셀들(P)(11개로 도시됨)이 존재한다. 만약 요소(156)가 제1 요소이고(뷰잉 프레임 x) 요소(158)가 제2 요소이면(뷰잉 프레임 y), 이동 방향은 좌측 방향일 것이고 이동 범위는 11 픽셀들(P)일 것이다. 만약 요소(158)가 제1 요소(뷰잉 프레임 x)이고 요소(156)가 제2 프레임(뷰잉 프레임 y)이면, 이동 방향은 우측 방향일 것이고 이동 범위는 여전히 11 픽셀들(P)일 것이다.
전술된 바와 같이, 본 발명의 예시적인 프로세스의 바람직한 실시예의 제3 단계(104)(도 3)는 이동 방향에 기초해 뷰잉 프레임 L 및 뷰잉 프레임 R을 결정하는 것이다. 바람직한 실시예들에서, 만약 이동 방향이 우측 방향이면, 비디오 프레임 x은 뷰잉 프레임 L로 설정되고 비디오 프레임 y은 뷰잉 프레임 R로 설정된다. 이것은 도 8a와 8b 사이의 전이(transition)로서 도시되었다. 또한, 바람직한 실시예들에서, 만약 이동 방향이 좌측 방향이면, 비디오 프레임 x은 뷰잉 프레임 R로 설정되고 비디오 프레임 y은 뷰잉 프레임 L로 설정된다. 이것은 도 9a와 9b 사이의 전이로서 도시되었다.
전술된 바와 같이, 본 발명의 예시적인 프로세스의 바람직한 실시예의 제4 단계(106)(도 3)는 수정된 뷰잉 프레임 R'을 생성하도록 이동 방향 및 이동 범위에 기초하여 뷰잉 프레임 R을 수정하는 것이다. 이 단계를 이해하기 위해서, 자신의 원본 형태로, 뷰잉 프레임 R에 도시된 픽처의 구성요소들(X)이 도 12에 도시된 바와 같은 어레이 내에 균등하게 배치되었다. 이동 방향은 뷰잉 프레임 R'을 생성하기 위해서 뷰잉 프레임 R이 수정되는 방향을 결정한다. 이동 범위는 뷰잉 프레임 R'을 생성하기 위해서 뷰잉 프레임 R이 수정되는 정도를 결정한다.
단계(106)의 일 바람직한 실시예는 수정된 뷰잉 프레임 R'을 생성하기 위해서 뷰잉 프레임 R을 디지털 방식으로 "왜곡"하는 것을 포함한다. 이동 방향은 프레임 내에 도시된 픽처의 "왜곡" 방향을 결정한다. "왜곡"이라는 용어는 임의의 타입의 왜곡일 수 있지만, 예들에서 길이연장 스트레칭(도 13) 및 사다리꼴 스트레칭(도 14)으로 도시되었다(이는 아래에서 논의될 것이다). 원본 픽처(도 12)로부터 길이연장 스트레치된 왜곡을 갖는 수정된 뷰잉 프레임 R' 픽처(도 13)로의 변화에 의해 도시된 바와 같이, 이동 방향이 우측 방향이기 때문에, 좌측 에지는 자리에 유지되고 우측 에지는 디지털 방식으로 당겨진다. 도 12에서, 구성요소들(X)은 자신의 원본 형태로, 실질적으로 균등하게 배치되었다. 도 13은 좌측 에지에 더 가까운 픽처의 구성요소들(X)이 덜 왜곡되고 우측 에지에 더 가까운 픽처의 구성요소들(X)이 더 왜곡되도록 왜곡된(길이연장 스트레치된) 뷰잉 프레임을 도시한다. 왜곡된 것은 (도 8b의 직사각형(150a)과 같은) 개별적인 요소가 아니고 왜곡된 전체 "픽처"의 구성요소들이다(개별적인 요소들은 픽처의 구성요소들(X)의 나머지와 비례적으로 왜곡된다). 이동 방향이 좌측 방향이었다면 우측 에지가 자리에 유지되고 좌측 에지가 도 9c에 도시된 방식과 유사하게 디지털 방식으로 당겨졌을(길이연장 스트레칭) 것임이 인지되어야만 한다. 픽처가 왜곡된 정도는 이동 범위에 의존한다. 만약 이동 범위가 작으면(예를 들어, 4 픽셀들(P)), 더 많은 길이연장 스트레칭 왜곡이 사용된다. 예를 들어, 만약 "이상적인" 픽셀들(P)의 수가 15개라면, 길이연장 스트레칭 왜곡은 11개일 것이다(이것은 실질적인 수보다 적은 이상적인 개수이다). 만약 이동 범위가 크다면(예를 들어, 11 픽셀들(P)), 더 적은 길이연장 스트레칭 왜곡이 사용된다. 예를 들어, 만약 "이상적인" 픽셀들(P)의 수가 15개라면, 길이연장 스트레칭 왜곡은 4일 것이다(이것은 실질적인 수보다 적은 이상적인 개수이다). 만약 이동 범위가 이상적인 개수보다 더 많다면, 바람직한 실시예들에서 뷰잉 프레임 R이 추가적인 왜곡 없이 수정된 뷰잉 프레임 R'으로서 디스플레이될 수 있다. (희미하게 도시된) 원본 프레임 크기를 넘는 에지는 바람직하게는 "잘리거나(cropped off)" 또는 다른 방식으로 수정된 뷰잉 프레임 R'의 부분으로서 디스플레이되지 않는다.
단계(106)의 다른 바람직한 실시예는 도 14에 도시된 것과 같은 사다리꼴로 스트레치된 수정된 뷰잉 프레임 R'을 생성하도록 뷰잉 프레임 R을 디지털 방식으로 "왜곡"하는 것을 포함한다. 원본 픽처(도 12)로부터 사다리꼴로 스트레치된 왜곡을 갖는 수정된 뷰잉 프레임 R' 픽처(도 14)로의 변화에 의해 도시된 바와 같이, 이동 방향이 우측 방향이기 때문에, 좌측 에지가 제자리에 유지되고 우측 에지가 디지털 방식으로 당겨진다. 도 12에서, 구성요소들(X)은 자신의 원본 형태로, 실질적으로 균등하게 배치되었다. 도 14는 좌측 에지에 더 가까운 픽처의 구성요소들(X)이 덜 왜곡되고 우측 에지에 더 가까운 픽처의 구성요소들(X)이 더 왜곡되도록 왜곡된(길이연장 스트레치된) 뷰잉 프레임을 도시한다. 또한, 프레임의 우측 상에 (위아래 모두로의) 일부 수직 왜곡이 존재한다. 일 바람직한 실시예에서, 수직 왜곡은 수평 왜곡과 동일하거나 또는 유사하다(예를 들어, 50% 내지 150%). 예를 들어, 만약 수평 왜곡이 10 픽셀들(P)(또는 10 픽셀들(P)에 동등한 길이)이면, 10 픽셀(P)(또는 10 픽셀들(P)과 동등한 길이)의 수직 왜곡(예를 들어, 5 픽셀들(P)은 위로 그리고 5 픽셀들(P)은 아래로)이 존재할 것이다. 왜곡된 것은 (도 8b의 직사각형(150a)과 같은) 개별적인 요소가 아니고 왜곡된 전체 "픽처"의 구성요소들이다(개별적인 요소들은 픽처의 구성요소들(X)의 나머지와 비례적으로 왜곡된다). 이것은 직사각형(150a)이 픽처의 나머지의 왜곡에 실질적으로 비례한 사다리꼴(150a')로 왜곡되었던 도 8c에서 어느 정도 볼 수 있다. 만약 이동 방향이 좌측 방향이었다면 우측 에지가 제자리에 유지되고 좌측 에지가 도 9c에 도시된 바와 같이 왜곡되었을 것임이 인지되어야만 한다. 픽처가 왜곡된 정도는 이전 예에서 논의된 바와 같이 이동 범위에 의존한다. 만약 이동 범위가 이상적인 개수보다 더 많다면, 바람직한 실시예들에서 뷰잉 프레임 R이 추가적인 왜곡 없이 또는 수직 왜곡만을 가지고 수정된 뷰잉 프레임 R'으로서 디스플레이될 수 있다. (희미하게 도시된) 원본 프레임 크기를 넘는 에지는 바람직하게는 "잘리거나" 또는 다른 방식으로 수정된 뷰잉 프레임 R'의 부분으로서 디스플레이되지 않는다.
도 8d 및 9d가 수정되지 않은 뷰잉 프레임 L 및 수정된 뷰잉 프레임 R'에 대해 논의된 1차 수정을 도시하지만, 본 발명의 일부 바람직한 실시예들에서 뷰잉 프레임 L 및 수정된 뷰잉 프레임 R' 모두가 뷰잉 프레임으로 하여금 특정 눈에 의해 보일 수 있게 하는 추가적인 수정을 가질 수 있다. 예를 들어, 프레임 L은 사용자의 좌측 눈으로 보기 위해 수정될 수 있고 수정된 프레임 R'은 사용자의 오른쪽 눈으로 보기 위해 수정될 수 있다. 이러한 수정은 예를 들어 뷰잉 프레임 L으로부터 제1 색상(예를 들어, 적색)을 제거하는 것 및 수정된 뷰잉 프레임 R'로부터 제2 색상(예를 들어, 청색 또는 녹색)을 제거하는 것일 수 있다. 다른 예는 이 수정이 뷰잉 프레임 L로부터 제1 방향(예를 들어, 수직)으로 편광하는 것 및 뷰잉 프레임 R'로부터 제2 방향(예를 들어, 수평)으로 편광하는 것일 수 있다. 뷰잉 프레임 L 및 수정된 뷰잉 프레임 R'은 다른 알려진 아직 개발되지 않은 기술들(예를 들어, LCD 셔터 안경을 이용하는 기술)에 대해 수정될 수 있음이 인식되어야만 한다.
뷰잉 프레임 L 및 수정된 뷰잉 프레임 R'이 특정 눈에 의해 보일 수 있도록 이들을 수정하는 단계가 본 발명의 방법의 몇몇 서로 다른 포인트들에서 발생할 수 있음이 인지되어야만 한다. 예를 들어, 일 바람직한 실시예에서, 이러한 수정은 단계(102)(결정된 이동에 기초하여 이동 방향 및 이동 범위 계산) 이전에, 이후에, 또는 동시에 발생할 수 있다. 다른 바람직한 실시예에서, 이러한 수정은 단계(104)(이동 방향에 기초해 뷰잉 프레임 L 및 뷰잉 프레임 R을 결정) 이전에, 이후에, 또는 동시에 발생할 수 있다. 다른 바람직한 실시예에서, 이러한 수정은 단계(106)(수정된 뷰잉 프레임 R'을 생성하도록 이동 방향 및 이동 범위에 기초하여 뷰잉 프레임 R을 수정) 이전에, 이후에, 또는 동시에 발생할 수 있다.
본 발명의 바람직한 실시예들은 바람직하게는 사용자의 좌측 눈에 의해 보기 위한 뷰잉 프레임 L 및 사용자의 우측 눈에 의해 보기 위한 수정된 뷰잉 프레임 R'을 디스플레이하는 단계를 포함한다. 이러한 "디스플레이"는 도 4와 관련하여 논의된 바와 같이 동시에 발생할 수 있거나, 또는 도 5와 관련하여 논의된 바와 같이 인터리빙 방식으로 발생할 수 있다. 대안적인 기술들(예를 들어, LCD 셔터 안경)이 대안적인 디스플레이 방법을 가질 수 있다. 이러한 디스플레이 단계는 프로젝션 또는 디스플레이 디바이스를 이용하여 달성될 수 있다.
본 발명의 다른 바람직한 실시예는 바람직하게는 사용자의 좌측 눈에 의해 보기 위한 뷰잉 프레임 L 및 사용자의 우측 눈에 의해 보기 위한 수정된 뷰잉 프레임 R'을 저장하는 단계를 포함한다. 이것은 효율적으로 2차원 비디오가 3차원 비디오로 변환될 수 있으며 이후의 디스플레이를 위해 메모리(예를 들어, 메모리 매체, 자기 매체, 광학 매체) 내에 저장될 수 있음을 의미할 것이다. 예를 들어, 새롭게 생성된 3차원 비디오는 이후의 디스플레이를 위해 CD, DVD, 또는 테이프에 저장될 수 있다.
본 명세서에 논의된 방법의 바람직한 실시예들은 논의된 단계들을 구현하기 위한 적어도 하나의 프로세싱 유닛을 포함하는 비디오 디스플레이 디바이스 상에서 구현되도록 설계된다. 프로세싱 유닛들은 CPU(중앙 처리 장치), GPU(그래픽 처리 장치), 수학 프로세서, 및/또는 알려진 또는 아직 개발되지 않은 전용으로 적응되는 프로세서를 포함하지만, 이것으로 제한되지 않는다. 다수의 프로세싱 유닛은 조합하여 사용될 수 있다. 예를 들어, CPU는 그래픽 카드 상에 위치된 GPU에 명령 및 기하 데이터를 전송할 수 있다. 일 바람직한 실시예에서, GPU가 사용하는 명령어들은 컴파일된 섀딩 언어 프로그램("섀이더(shader)")의 형태이다. 컴퓨터 그래픽 분야에서 섀이더는 높은 정도의 유연성을 갖는 그래픽 하드웨어 상에서 렌더링 효과를 계산하기 위해 1차로 사용되는 소프트웨어 명령어들의 세트이다. 섀이더들의 예시적인 타입은 버텍스 섀이더(vertex shader), 픽셀 섀이더 및 기하 섀이더(geometry shader)이다. 섀이더들은 한번에 큰 요소들의 세트에 대해, 예를 들어 스크린의 영역 내의 각 픽셀(P)에 대해, 또는 모델의 모든 버텍스에 대해 변환을 적용할 수 있다. 섀이더들은 예를 들어 사다리꼴 스트레칭 또는 왜곡을 위해 및/또는 필터(예로서, 색상 및/또는 편광)를 적용하기 위해 사용될 수 있다.
달리 언급되지 않는 한, "또는"이라는 표현은 자신의 배타적이지 않은 형태로 사용되었음이 인지되어야만 한다(예를 들어, "A 또는 B"는 A, B, A 및 B, 또는 임의의 조합을 포함하지만, 이러한 가능성을 모두 포함해야만 하는 것은 아니다). 달리 언급되지 않는 한, "및/또는"이라는 표현도 유사하게 사용되었음이 인지되어야만 한다(예를 들어, "A 및/또는 B"는 A, B, A 및 B, 또는 임의의 조합을 포함하지만, 이러한 가능성을 모두 포함해야만 하는 것은 아니다). 달리 언급되지 않는 한, "포함한다"는 표현은 "포괄한다"를 의미한다는 것이 인지되어야만 한다(예를 들어, A 및 B를 포함하거나 포괄하는 디바이스는 A 및 B를 함유하지만 선택적으로 C 또는 A 및 B 외의 추가적인 구성요소를 함유할 수 있다). 달리 언급되지 않는 한, 단수형 명사는 맥락에서 명백하게 표시되어 있지 않다면 해당 명사의 복수형을 포함하는 것임이 인지되어야만 한다.
위의 명세에서 사용된 용어들 및 표현들은 제한적인 관점이 아닌 설명의 관점으로서 사용되었으며, 도시되고 기술된 특성들의 등가물을 배제하고자 하는 것은 아니다. 본 출원은 본 발명의 임의의 각색 및 변화를 커버한다. 동일한 목적을 달성하기 위해 계산된 임의의 배치가 도시된 특정 실시예를 대체할 수 있음이 당업자에 의해 이해될 것이다. 또한 아래의 특허청구범위는 본 명세서에 기술된 본 발명의 모든 일반적인 특성 및 특정한 특성과 이들 사이에 포함되도록 언급될 수 있는 본 발명의 범주에 대한 모든 언급을 커버하도록 의도되는 것으로 이해되어야만 한다.

Claims (20)

  1. 일련의 비디오 프레임들을 구비한 2차원 비디오를 3차원 비디오로 변환하기 위한 방법으로서,
    (A) 비디오 프레임 x의 부분과 비디오 프레임 y의 부분 사이의 이동 방향 및 이동 범위를 계산하는 단계;
    (B) 상기 이동 방향에 기초하여 뷰잉 프레임(viewing frame) L 및 뷰잉 프레임 R을 결정하는 단계;
    (C) 수정된 뷰잉 프레임 R'을 생성하도록 상기 이동 방향 및 상기 이동 범위에 기초하여 뷰잉 프레임 R을 수정하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  2. 제 1 항에 있어서,
    다수의 연이은 비디오 프레임들에 대해 (A) 내지 (C)를 반복하는 단계를 더 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  3. 제 1 항에 있어서,
    상기 이동을 결정하도록 상기 비디오 프레임 x의 부분을 상기 비디오 프레임 y의 부분에 비교하는 단계를 더 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  4. 제 3 항에 있어서,
    상기 비디오 프레임 x의 부분을 상기 비디오 프레임 y의 부분에 비교하는 단계는 의사-패턴 인식(pseudo-pattern recognition)을 수행하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  5. 제 3 항에 있어서,
    상기 비디오 프레임 x의 부분을 상기 비디오 프레임 y의 부분에 비교하는 단계는 비디오 프레임 x의 사전결정된 수의 픽셀들을 비디오 프레임 y의 상응하는 사전결정된 수의 픽셀들에 비교하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  6. 제 3 항에 있어서,
    상기 비디오 프레임 x의 부분을 상기 비디오 프레임 y의 부분에 비교하는 단계는 비디오 프레임 x의 에지에 있는 적어도 하나의 픽셀을 비디오 프레임 y의 에지에 있는 상응하는 적어도 하나의 픽셀에 비교하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  7. 제 3 항에 있어서,
    상기 비디오 프레임 x의 부분을 상기 비디오 프레임 y의 부분에 비교하는 단계는 비디오 프레임 x의 실질적으로 중간 근처에 있는 적어도 하나의 픽셀을 비디오 프레임 y의 실질적으로 중간 근처에 있는 상응하는 적어도 하나의 픽셀에 비교하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  8. 제 3 항에 있어서,
    상기 비디오 프레임 x의 부분을 상기 비디오 프레임 y의 부분에 비교하는 단계는 비디오 프레임 x의 둘 이상의 코너들 각각에 있는 적어도 하나의 픽셀을 비디오 프레임 y의 둘 이상의 코너들 각각에 있는 상응하는 적어도 하나의 픽셀에 비교하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  9. 제 3 항에 있어서,
    상기 비디오 프레임 x의 부분을 상기 비디오 프레임 y의 부분에 비교하는 단계는:
    (a) 비디오 프레임 x의 에지에 있는 적어도 하나의 픽셀을 비디오 프레임 y의 에지에 있는 상응하는 적어도 하나의 픽셀에 비교하는 단계;
    (b) 만약 (a)에서 이동이 발견되지 않으면, 비디오 프레임 x의 실질적으로 중간 근처에 있는 적어도 하나의 픽셀을 비디오 프레임 y의 실질적으로 중간 근처에 있는 상응하는 적어도 하나의 픽셀에 비교하는 단계; 및
    (c) 만약 (a) 및 (b)에서 이동이 발견되지 않으면, 비디오 프레임 x의 둘 이상의 코너들 각각에 있는 적어도 하나의 픽셀을 비디오 프레임 y의 둘 이상의 코너들 각각에 있는 상응하는 적어도 하나의 픽셀에 비교하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  10. 제 1 항에 있어서,
    상기 이동 방향에 기초하여 뷰잉 프레임 L 및 뷰잉 프레임 R을 결정하는 단계는:
    (a) 만약 이동 방향이 우측 방향이면, 비디오 프레임 x가 뷰잉 프레임 L이고 비디오 프레임 y가 뷰잉 프레임 R이도록 설정하는 단계; 및
    (b) 만약 이동 방향이 좌측 방향이면, 비디오 프레임 x가 뷰잉 프레임 R이고 비디오 프레임 y가 뷰잉 프레임 L이도록 설정하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  11. 제 1 항에 있어서,
    수정된 뷰잉 프레임 R'을 생성하도록 상기 이동 방향 및 상기 이동 범위에 기초하여 뷰잉 프레임 R을 수정하는 단계는 수정된 뷰잉 프레임 R'을 생성하도록 뷰잉 프레임 R을 디지털 방식으로 왜곡(digitally distortion)하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  12. 제 1 항에 있어서,
    수정된 뷰잉 프레임 R'을 생성하도록 상기 이동 방향 및 상기 이동 범위에 기초하여 뷰잉 프레임 R을 수정하는 단계는 수정된 뷰잉 프레임 R'을 생성하도록 뷰잉 프레임 R을 스트레치된 사다리꼴로 디지털 방식으로 왜곡하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  13. 제 1 항에 있어서,
    수정된 뷰잉 프레임 R'을 생성하도록 상기 이동 방향 및 상기 이동 범위에 기초하여 뷰잉 프레임 R을 수정하는 단계는 수정된 뷰잉 프레임 R'을 생성하도록 뷰잉 프레임 R을 원본 프레임 크기를 넘는 에지가 잘려진(cropped off) 스트레치된 사다리꼴로 디지털 방식으로 왜곡하는 단계를 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  14. 제 1 항에 있어서,
    사용자의 좌측 눈으로 보기 위해 프레임 L을 수정하는 단계; 및
    사용자의 우측 눈으로 보기 위해 프레임 R을 수정하는 단계를 더 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  15. 제 1 항에 있어서,
    제1 색상을 제거함으로써 사용자의 좌측 눈으로 보기 위해 뷰잉 프레임 L을 수정하는 단계; 및
    제2 색상을 제거함으로써 사용자의 우측 눈으로 보기 위해 뷰잉 프레임 R을 수정하는 단계를 더 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  16. 제 1 항에 있어서,
    제1 방향으로 편광시킴으로써 사용자의 좌측 눈으로 보기 위해 뷰잉 프레임 L을 수정하는 단계; 및
    제2 방향으로 편광시킴으로써 사용자의 우측 눈으로 보기 위해 뷰잉 프레임 R을 수정하는 단계를 더 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  17. 제 1 항에 있어서,
    사용자의 좌측 눈에 의해 보기 위한 뷰잉 프레임 L 및 사용자의 우측 눈에 의해 보기 위한 수정된 뷰잉 프레임 R'을 디스플레이하는 단계를 더 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  18. 제 1 항에 있어서,
    사용자의 좌측 눈에 의해 보기 위한 뷰잉 프레임 L 및 사용자의 우측 눈에 의해 보기 위한 수정된 뷰잉 프레임 R'을 저장하는 단계를 더 포함하는, 2차원 비디오를 3차원 비디오로 변환하기 위한 방법.
  19. 일련의 비디오 프레임들을 구비한 2차원 비디오를 3차원 비디오로 변환하기 위한 비디오 디스플레이 디바이스로서,
    (a) 프로세싱 유닛; 및
    (b) 비디오 디스플레이 디바이스-실행가능한 명령어들을 구비하는 메모리 구조물을 포함하되,
    상기 실행가능한 명령어들이 실행되었을 때 상기 프로세싱 유닛으로 하여금,
    비디오 프레임 x의 적어도 부분을 비디오 프레임 y의 상응하는 적어도 부분에 비교하여 비디오 프레임 x와 비디오 프레임 y 사이의 이동을 결정하고;
    상기 결정된 이동에 기초하여 이동 방향 및 이동 범위를 계산하고, 상기 이동 방향에 기초하여 뷰잉 프레임 L 및 뷰잉 프레임 R을 결정하며;
    수정된 뷰잉 프레임 R'을 생성하도록 상기 이동 방향 및 상기 이동 범위에 기초하여 뷰잉 프레임 R을 수정하도록 지시하는, 비디오 디스플레이 디바이스.
  20. 실행되었을 때 비디오 디스플레이 디바이스가 일련의 비디오 프레임들을 구비한 2차원 비디오를 3차원 비디오로 변환시키도록 구성하는 실행가능한 명령어들을 저장하는 하나 이상의 디바이스-판독가능한 매체로서, 상기 하나 이상의 디바이스-판독가능한 매체는 실행가능한 명령어들을 저장하고, 상기 실행가능한 명령어들은, 실행되었을 때 상기 비디오 디스플레이 디바이스가
    (a) 비디오 프레임 x의 사전결정된 수의 픽셀들을 비디오 프레임 y의 상응하는 사전결정된 수의 픽셀들에 비교하여 비디오 프레임 x와 비디오 프레임 y 사이의 이동을 결정하는 단계;
    (b) 상기 결정된 이동에 기초하여 이동 방향 및 이동 범위를 계산하는 단계;
    (c) 상기 이동 방향에 기초하여 뷰잉 프레임 L 및 뷰잉 프레임 R을 결정하는 단계로서,
    (i) 만약 이동 방향이 우측 방향이면, 비디오 프레임 x가 뷰잉 프레임 L이고 비디오 프레임 y가 뷰잉 프레임 R이도록 설정하는 단계; 및
    (ii) 만약 이동 방향이 좌측 방향이면, 비디오 프레임 x가 뷰잉 프레임 R이고 비디오 프레임 y가 뷰잉 프레임 L이도록 설정하는 단계를 포함하는 상기 뷰잉 프레임 L 및 프레임 R을 결정하는 단계; 및
    (d) 수정된 뷰잉 프레임 R'를 생성하도록 상기 이동 방향 및 상기 이동 범위에 기초하여 뷰잉 프레임 R을 디지털 방식으로 왜곡하는 단계를 포함하는 동작들을 추가로 수행하도록 구성하는, 하나 이상의 디바이스-판독가능한 매체.
KR1020157031808A 2013-04-09 2013-04-09 2차원 비디오를 3차원 비디오로 변환하기 위한 방법 및 시스템 KR101729883B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2013/035843 WO2014168614A1 (en) 2013-04-09 2013-04-09 Two-dimensional video to three-dimensional video conversion method and system

Publications (2)

Publication Number Publication Date
KR20160022295A true KR20160022295A (ko) 2016-02-29
KR101729883B1 KR101729883B1 (ko) 2017-04-24

Family

ID=51689873

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157031808A KR101729883B1 (ko) 2013-04-09 2013-04-09 2차원 비디오를 3차원 비디오로 변환하기 위한 방법 및 시스템

Country Status (9)

Country Link
EP (1) EP2984820A4 (ko)
JP (1) JP6333952B2 (ko)
KR (1) KR101729883B1 (ko)
CN (1) CN105531997B (ko)
AU (1) AU2013385831B2 (ko)
CA (1) CA2909245C (ko)
RU (1) RU2642367C2 (ko)
SG (1) SG11201508332YA (ko)
WO (1) WO2014168614A1 (ko)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07307961A (ja) * 1994-05-13 1995-11-21 Pioneer Electron Corp 立体表示方法及び装置
JP2951230B2 (ja) * 1994-09-22 1999-09-20 三洋電機株式会社 2次元映像から3次元映像を生成する方法
JPH08149510A (ja) * 1994-11-18 1996-06-07 Sanyo Electric Co Ltd 2次元3次元映像変換方法
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
JP4226730B2 (ja) * 1999-01-28 2009-02-18 株式会社東芝 物体領域情報生成方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
WO2001039512A1 (en) * 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
US8325220B2 (en) * 2005-12-02 2012-12-04 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input
RU2454025C2 (ru) * 2006-12-19 2012-06-20 Конинклейке Филипс Электроникс Н.В. Способ и система для преобразования двухмерного видео в трехмерное видео
KR20100127423A (ko) * 2009-05-26 2010-12-06 엘지전자 주식회사 영상표시기기에서 영상 디스플레이 장치 및 방법
RU92595U1 (ru) * 2009-12-24 2010-03-20 Михаил Михайлович Слепко Устройство для формирования 3d стереоскопического изображения из 2d моноскопического изображения
KR101660910B1 (ko) * 2010-04-28 2016-09-29 주식회사 알티캐스트 영상 데이터 처리장치 및 방법
US9261710B2 (en) * 2010-06-01 2016-02-16 Intel Corporation 2D quality enhancer in polarized 3D systems for 2D-3D co-existence
US10158846B2 (en) * 2010-12-06 2018-12-18 Teranex Systems, Inc. Pseudo-3d forced perspective methods and devices
US9300947B2 (en) * 2011-03-24 2016-03-29 Kodak Alaris Inc. Producing 3D images from captured 2D video
KR20130010613A (ko) * 2011-07-19 2013-01-29 엘지전자 주식회사 2차원 영상을 3차원 영상으로 변환하는 장치 및 방법
CN102724530B (zh) * 2012-05-29 2014-10-22 清华大学 基于反馈控制的平面视频立体化方法

Also Published As

Publication number Publication date
AU2013385831B2 (en) 2016-09-01
CA2909245A1 (en) 2014-10-16
EP2984820A4 (en) 2017-03-22
SG11201508332YA (en) 2015-11-27
KR101729883B1 (ko) 2017-04-24
CN105531997A (zh) 2016-04-27
CN105531997B (zh) 2018-07-13
WO2014168614A1 (en) 2014-10-16
CA2909245C (en) 2018-02-27
RU2642367C2 (ru) 2018-01-24
AU2013385831A1 (en) 2015-11-12
EP2984820A1 (en) 2016-02-17
JP2016519905A (ja) 2016-07-07
RU2015147541A (ru) 2017-05-12
JP6333952B2 (ja) 2018-05-30

Similar Documents

Publication Publication Date Title
US8358332B2 (en) Generation of three-dimensional movies with improved depth control
US6208348B1 (en) System and method for dimensionalization processing of images in consideration of a pedetermined image projection format
US8922628B2 (en) System and process for transforming two-dimensional images into three-dimensional images
US6496598B1 (en) Image processing method and apparatus
US8570319B2 (en) Perceptually-based compensation of unintended light pollution of images for projection display systems
RU2692432C2 (ru) Способ и устройство для формирования трехмерного изображения
Devernay et al. Stereoscopic cinema
KR101583289B1 (ko) 영상 중첩 영역의 보정 방법, 기록 매체 및 실행 장치
US20130135299A1 (en) Image processing apparatus and method for subpixel rendering
CN102379127A (zh) 影像处理装置、影像处理方法以及计算机程序
JP2015043573A (ja) 映像重合領域の補正方法、記録媒体、及び起動装置
JPH04504333A (ja) 2次元画像を3次元画像に変換する方法
CN104702929A (zh) 修正图像交叠区的失真的方法、记录介质和执行装置
KR20210038659A (ko) 2차원 이미지를 외삽하기 위해 깊이 정보를 사용하는 시스템 및 방법
US9172940B2 (en) Two-dimensional video to three-dimensional video conversion based on movement between video frames
US20170142398A1 (en) 3d system including rendering with eye displacement
JP6170631B2 (ja) 多面上映館におけるコンテンツサイズのノーマライズ方法、装置およびコンピュータにて読取り可能な記録媒体
KR101729883B1 (ko) 2차원 비디오를 3차원 비디오로 변환하기 위한 방법 및 시스템
US20170142391A1 (en) 3d system including rendering with variable displacement
KR101425321B1 (ko) 적응형 렌즈 어레이를 구비하는 3차원 집적 영상 디스플레이 시스템 및 적응형 렌즈 어레이에 대한 요소 영상 생성 방법
Taherkhani et al. Designing a high accuracy 3D auto stereoscopic eye tracking display, using a common LCD monitor
JP2021111859A (ja) 立体画像生成装置及びそのプログラム
MXPA00002201A (en) Image processing method and apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant