KR20120079101A - 3d 스크린 사이즈 보상 - Google Patents

3d 스크린 사이즈 보상 Download PDF

Info

Publication number
KR20120079101A
KR20120079101A KR1020127009618A KR20127009618A KR20120079101A KR 20120079101 A KR20120079101 A KR 20120079101A KR 1020127009618 A KR1020127009618 A KR 1020127009618A KR 20127009618 A KR20127009618 A KR 20127009618A KR 20120079101 A KR20120079101 A KR 20120079101A
Authority
KR
South Korea
Prior art keywords
offset
source
target
display
data
Prior art date
Application number
KR1020127009618A
Other languages
English (en)
Inventor
빌헬무스 헨드리쿠스 알폰수스 브룰스
구네비크 레이니에 베르나르두스 마리아 클라인
달프센 아게 요헴 반
필립 스티븐 뉴턴
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP09170382A external-priority patent/EP2309764A1/en
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20120079101A publication Critical patent/KR20120079101A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

디바이스는 소스 공간 뷰잉 구성에 대해 구성된 3차원[3D] 화상 데이터를 타겟 공간 뷰잉 구성에서의 3D 디스플레이에 대한 3D 디스플레이 신호(56)로 변환한다. 3D 디스플레이 메타데이터는 타겟 공간 뷰잉 구성에서의 3D 디스플레이의 타겟 폭 Wt를 나타내는 타겟 폭 데이터를 갖는다. 프로세서(52, 18)는 화상들 L 및 R의 상호 수평 위치를 오프셋 O만큼 변경시켜 소스 공간 뷰잉 구성과 타겟 공간 뷰잉 구성 사이의 차이들을 보상한다. 프로세서(52)는 오프셋 O를 계산하기 위한 3D 화상 데이터에 대해 제공된 소스 오프셋 데이터를 검색하고, 소스 오프셋 데이터에 종속하는 오프셋 O를 결정한다. 유리하게도, 뷰어에 대한 3D 인식은 검색된 소스 오프셋 데이터에 기초하여 자동으로 적응되어 스크린 사이즈에 상관없이 실질적으로 균등해진다.

Description

3D 스크린 사이즈 보상{3D SCREEN SIZE COMPENSATION}
본 발명은 타겟 공간 뷰잉 구성(target spatial viewing configuration)에서 뷰어에 대한 3D 디스플레이 상의 디스플레이를 위한 3차원[3D] 화상 데이터의 처리를 위한 디바이스에 관한 것이며, 렌더링된 화상들이 소스 폭을 갖는 소스 공간 뷰잉 구성에서 3D 화상 데이터는 좌측 눈에 대해 렌더링될 좌측 화상 L과 우측 눈에 대해 렌더링될 우측 화상 R을 적어도 나타내고, 디바이스는, 소스 공간 뷰잉 구성과 타겟 공간 뷰잉 구성 사이의 차들을 보상하기 위해 화상들 L 및 R의 상호 수평 위치를 오프셋 O만큼 변경함으로써 3D 디스플레이를 위한 3D 디스플레이 신호를 생성하기 위해 3D 화상 데이터를 처리하기 위한 프로세서를 포함한다.
또한, 본 발명은 3D 화상 데이터의 처리 방법에 관한 것이며, 본 방법은, 소스 공간 뷰잉 구성과 타겟 공간 뷰잉 구성 사이의 차들을 보상하기 위해 오프셋 O만큼 화상들 L 및 R의 상호 수평 위치를 변경함으로써 3D 디스플레이를 위해 3D 디스플레이 신호를 생성하기 위해 3D 화상 데이터를 처리하는 단계를 포함한다.
또한, 본 발명은 뷰어에 대해 3D 디스플레이 상에 디스플레이하기 위해 3D 화상 데이터를 전송하기 위한 신호 및 기록 캐리어에 관한 것이다.
본 발명은 3D 디스플레이 상에 디스플레이하고, 3D 화상 디바이스와 3D 디스플레이 디바이스 사이에서 예를 들어, 3D 비디오인 3D 화상 데이터를 담고 있는 디스플레이 신호와 예를 들어, HDMI(High Definition Multimedia Interface)인 고속 디지털 인터페이스를 통해 전송하기 위해 3D 화상 데이터를 처리하고 광 디스크 또는 인터넷과 같은 매체를 통해 3D 화상 데이터를 제공하는 분야에 관한 것이다.
2D 비디오 데이터를 소싱하기 위한 디바이스들은, 예를 들어, 디지털 비디오 신호들을 제공하는 DVD 플레이어들 또는 셋탑 박스들과 같은 비디오 플레이어들로 알려져 있다. 이러한 디바이스는 TV 셋 또는 모니터와 같은 디스플레이 디바이스에 연결된다. 화상 데이터는 적절한 인터페이스, 바람직하게는 HDMI와 같은 고속 디지털 인터페이스를 통해 디바이스로부터 디스플레이 신호에 의해 전송된다. 현재 3차원(3D) 화상 데이터를 소싱하고 처리하기 위한 진보된 3D 디바이스가 제안되고 있다. 마찬가지로 3D 화상 데이터를 디스플레이하기 위한 디바이스들이 제안되고 있다. 소스 디바이스로부터 디스플레이 디바이스로 3D 비디오 신호들을 전송하기 위해 예를 들어,기존의 HDMI 표준에 기초하고 이와 호환가능한 새로운 고속 데이터 레이트 디지털 인터페이스 표준들이 개발되고 있다.
"Reconstruction of Correct 3-D perception on Screens viewed at different distances; R. Kutka 저; IEEE transactions on Communications, Vol.42,No.1, January 1994" 논문은, 뷰어의 좌측 눈에 의해 인지될 좌측 화상 L과 우측 눈에 의해 인지될 우측 화상 R을 제공하는 뷰어 관찰 3D 디스플레이의 인지 깊이에 대해 설명한다. 상이한 스크린 사이즈들의 영향이 논의된다. 스테레오 화상들 사이의 시프트에 의존하는 사이즈를 적용하는 것이 제안되었다. 이러한 시프트는 상이한 스크린들의 사이즈 비율에 의존하여 계산되며, 올바른 3-D 기하 형태(geometry)를 재구성하기에 충분하다는 것이 판명되었다.
Kutka의 논문은 상이한 스크린 사이즈들을 보상하기 위한 공식을 설명하고, 이 논문이, 스테레오 화상들 사이의 시프트에 의존하는 사이즈가 3D 기하 형태를 재구성하기에 필요 충분하다는 것을 언급하고 있지만, 텔레비젼 스크린이 제조되거나 설치될 때 시프트가 한번만 조정되어야 하며 그 후 언제나 일정하게 유지되어야 하는 것으로 결론짓는다.
뷰어에 의해 인지되는 3D 디스플레이 신호를 통해 3D 화상을 제공하여 3D 화상 데이터의 소스의 발신자(originator)에 의해 실질적으로 의도된 3D 효과를 갖도록 하는 것이 본 발명의 목적이다.
이를 위하여, 본 발명의 제 1 양태에 따르면, 서문에 설명된 디바이스는, 타겟 공간 뷰잉 구성에서 디스플레이되는 3D 데이터의 타겟 폭 Wt를 나타내는 타겟 폭 데이터를 포함하는 3D 디스플레이 메타데이터를 제공하기 위한 디스플레이 메타데이터 수단, 및 소스 공간 뷰잉 구성에서 뷰어의 소스 눈 거리 Es 및 소스 폭 Ws에 기초하여 3D 화상 데이터를 위해 제공된 L 화상과 R 화상 사이의 불일치를 나타내고, L 및 R 화상들의 상호 수평 위치를 변경시키기 위한 오프셋 파라미터를 포함하는 소스 오프셋 데이터를 검색하기 위한 입력 수단을 포함하고, 프로세서가 오프셋 파라미터에 종속하는 오프셋 O를 결정하도록 추가적으로 구성된다.
이를 위하여, 본 발명의 제 2 양태에 따르면, 본 방법은, 타겟 공간 뷰잉 구성에서 디스플레이되는 3D 데이터의 타겟 폭 Wt를 나타내는 타겟 폭 데이터를 포함하는 3D 디스플레이 메타데이터를 제공하는 단계, 소스 공간 뷰잉 구성에서 뷰어의 소스 눈 거리 Es 및 소스 폭 Ws에 기초하여 3D 화상 데이터를 위해 제공된 L 화상과 R 화상 사이의 불일치를 나타내고, L 및 R 화상의 상호 수평 위치를 변경시키기 위한 오프셋 파라미터를 포함하는 소스 오프셋 데이터를 검색하는 단계, 및 오프셋 파라미터에 종속하는 오프셋 O를 결정하는 단계를 포함한다.
이를 위하여, 3D 화상 신호는, 소스 공간 뷰잉 구성에서 좌측 눈에 대해 렌더링되는 좌측 화상 L과 우측 눈에 대해 렌더링되는 우측 화상 R을 적어도 나타내고, 상기 3D 화상 데이터, 및 소스 공간 뷰잉 구성에서 뷰어의 소스 눈 거리 Es 및 소스 폭 Ws에 기초하여 3D 화상 데이터를 위해 제공된 L 화상과 R 화상 사이의 불일치를 나타내는 소스 오프셋 데이터를 포함하고, 소스 오프셋 데이터는, 화상들 L 및 R의 상호 수평 위치를 오프셋 O만큼 변경시킴으로써 디스플레이되는 3D 데이터의 타겟 폭 Wt를 갖는 타겟 공간 뷰잉 구성과 소스 공간 뷰잉 구성 사이의 차이를 보상하기 위해 오프셋 O를 결정하기 위한 오프셋 파라미터를 포함한다.
이러한 수단은, 실제 디스플레이의 사이즈에 상관없이 소스 공간 뷰잉 구성에서 의도된 대로 동일한 깊이를 가지며 물체들이 나타나도록, L 및 R 화상들 사이의 오프셋이 조정되는 효과를 갖는다. 또한, 소스 시스템은, 소스 공간 뷰잉 구성에서의 뷰어의 소스 눈 거리 Es 및 소스 폭 Ws에 기초하여, L 화상과 R 화상 사이의 불일치를 나타내는 소스 오프셋 데이터를 제공한다. 소스 오프셋 데이터는 디바이스에 의해 검색 및 적용되어 오프셋 O에 대한 실제값을 계산한다. 소스 오프셋 데이터는 소스 3D 화상 데이터에 나타나는 불일치 또는 알려진 사이즈의 디스플레이에서 디스플레이될 때 소스 화상 데이터에 적용되는 불일치를 나타낸다. 디스플레이 메타데이터 수단은 타겟 공간 뷰잉 구성에서 디스플레이되는 3D 데이터의 타겟 폭 Wt를 나타내는 3D 디스플레이 메타데이터를 제공한다. 실제 오프셋 O는 검색된 소스 오프셋 데이터와 타겟 3D 디스플레이 메타데이터에 기초하며, 특히 타겟 폭 Wt에 기초한다. 실제 오프셋은 예를 들어, O=E/Wt-Os에 의해 눈 거리 E 및 소스 오프셋 Os를 사용하여, 타겟 폭 및 검색된 소스 오프셋 데이터에 기초하여 용이하게 계산될 수 있다. 유리하게는, 실제 오프셋은 타겟 뷰어를 위해 디스플레이되는 3D 화상 데이터의 폭으로 자동으로 적응되어 소스에 의해 의도된 3D 효과를 제공하며, 이러한 적응은 상기 소스 오프셋 데이터를 제공함으로써 소스의 제어 하에 있다.
3D 화상 신호에서 소스 오프셋 데이터를 제공하는 것은, 소스 오프셋 데이터가 소스 3D 화상 데이터에 직접 연결되는 이점을 갖는다. 실제 소스 오프셋 데이터는 입력 유닛에 의해 검색되고 수신 디바이스에 알려지며, 상술한 오프셋의 계산을 위해 사용된다. 소스 오프셋 데이터를 검색하는 것은 3D 화상 신호로부터, 별도의 데이터 신호로부터, 메모리로부터 소스 오프셋 데이터를 검색하는 것을 포함할 수 있고/있거나 네트워크를 통해 데이터베이스 액세스를 호출할 수 있다. 신호는 광 기록 캐리어와 같은 저장 매체에 제공된 물리적 패턴의 마크들에 의해 구현될 수 있다.
소스 시스템은 소스 공간 뷰잉 구성, 즉 화상 데이터가 제작되고 예컨대 무비 씨어터와 같이 디스플레이를 위한 사용으로 의도되는 기준 구성에 대한 3D 화상 데이터를 제공할 수 있다는 점에 유의한다. 디바이스는 3D 화상 데이터를 처리하여 디스플레이 신호를 타겟 공간 뷰잉 구성, 예를 들어, 홈 TV 셋으로 적응하도록 설치된다. 그러나, 3D 화상 데이터는 표준 TV 셋, 예를 들어, 100cm에 대해서도 제공될 수 있으며, 집에서 250cm의 홈 씨어터 스크린 상에 디스플레이될 수도 있다. 사이즈의 차이를 조정하기 위하여, 디바이스는 소스 데이터를 처리하여, 타겟 뷰어의 타겟 눈 거리 Et를 갖는 타겟 공간 뷰잉 구성에서의 3D 디스플레이의 타겟 폭 Wt를 나타내는 타겟 폭 데이터로 적응한다. 타겟 눈 거리 Et는 표준값으로 고정될 수 있거나, 다른 뷰어를 위해 측정 또는 입력될 수 있다.
일 실시예에서, 오프셋 파라미터는,
- 타겟 3D 디스플레이의 제 1 타겟 폭 Wt1에 대한 적어도 제 1 타겟 오프셋값 Ot1으로서, 프로세서(52)는 제 1 타겟 폭 Wt1 및 타겟 폭 Wt의 대응성에 종속하는 오프셋 O를 결정하도록 구성됨;
-
Figure pct00001
에 기초한 소스 오프셋 거리 비율값 Osd;
-
Figure pct00002
에 기초하여 화소들의 소스 수평 해상도 HPs를 갖는 3D 화상 데이터에 대한 소스 오프셋 화소값 Osp;
- 소스 공간 뷰잉 구성에서 상기 디스플레이에 대한 뷰어의 기준 거리를 나타내는 소스 뷰잉 거리 데이터(42);
- 좌측 화상 L의 위치 및 우측 화상 R의 위치에 대한 오프셋 O의 스프레드(spread)를 나타내는 경계 오프셋 데이터;
중 적어도 하나를 포함하며,
프로세서(52)는 각각의 오프셋 파라미터에 종속하는 오프셋 O를 결정하도록 구성된다. 디바이스는 아래의 방식 중 하나에 의해 각 오프셋 데이터를 적용하도록 구성된다.
제 1 타겟 폭 Wt1 및 실제 타겟 폭 Wt의 대응성에 기초하여, 수신 디바이스가 제공된 타겟 오프셋값을 직접 적용할 수 있다. 또한, 상이한 타겟 폭들에 대한 몇개의 값들이 신호에 포함될 수 있다. 또한, 내삽 또는 외삽법이 제공된 타겟 폭(들)과 실제 타겟 폭 사이의 차이들을 보상하기 위해 적용될 수 있다. 선형 내삽법이 중간값(intermediate value)들을 정확하게 제공한다는 것에 유의한다.
제공된 소스 오프셋 거리값 또는 화소값에 기초하여 실제 오프셋이 결정된다. 이러한 계산은 물리적 사이즈(예를 들어, 미터 또는 인치)로 수행될 수 있고, 그 후에 화소로 변환되거나 바로 화소들로 된다. 유리하게도, 오프셋의 계산은 단순화된다.
소스 뷰잉 거리에 기초하여 타겟 오프셋이 실제 타겟 뷰잉 거리에 대해 보상될 수 있다. 불일치는 무한보다 가까운 물체들에 대하여 뷰잉 거리에 의해 영향을 받는다. 타겟 뷰잉 거리가 소스 뷰잉 거리와 비례하여 매칭하지 않는 경우, 깊이 왜곡들이 발생한다. 유리하게도, 이러한 왜곡들은 소스 뷰잉 거리에 기초하여 감소될 수 있다.
경계 오프셋에 기초하여 타겟 오프셋은 좌측 및 우측 화상들에 대해 스프레딩된다. 3D 화상 데이터에 대하여 제공된 스프레드를 적용하는 것은, 시프팅된 화소들이 경계들에서 크로핑되는 경우에 특히 적합하다.
디바이스의 일 실시예에서, 프로세서(52)는,
- 제 1 타겟 폭 Wt1 및 타겟 폭 Wt의 대응성에 종속하는 오프셋 O를 결정;
-
Figure pct00003
에 기초하여 타겟 뷰어의 타겟 눈 거리 Et 및 타겟 폭 Wt에 대한 타겟 거리 비율로서의 오프셋 Otd를 결정;
-
Figure pct00004
에 기초하여, 화소들의 타겟 수평 해상도 HPt를 갖는 3D 디스플레이 신호에 대한 타겟 뷰어의 타겟 눈 거리 Et 및 타겟 폭 Wt에 대한 화소들의 오프셋 Op를 결정;
- 제 1 타겟 오프셋값, 소스 오프셋 거리값, 및 소스 오프셋 화소값 중 적어도 하나와 소스 뷰잉 거리 데이터의 조합에 종속하는 오프셋 O를 결정;
- 경계 오프셋 데이터에 종속하는 좌측 화상 L의 위치와 우측 화상 R의 위치에 대해 오프셋 O의 스프레드를 결정
하는 것 중 적어도 하나를 위해 구성된다.
디바이스는 규정된 관계와 제공된 소스 오프셋 데이터에 기초하여 사용되는 실제 오프셋을 결정하도록 구성된다. 유리하게도, 오프셋의 계산은 효율적이다. 파라미터 눈 거리(Et)는 디바이스를 호출하여 특정 눈 거리값을 제공하거나 취득할 수 있다는 것이 유의된다. 대안으로, 계산은 65mm와 같은 눈 거리에 대해 일반적으로 수용되는 평균값에 기초될 수도 있다.
디바이스의 일 실시예에서, 소스 오프셋 데이터는, 제 1 타겟 폭 Wt1에 대해, 제 1 뷰잉 거리에 대한 적어도 제 1 타겟 오프셋값 Ot11과 제 2 뷰잉 거리에 대한 적어도 제 2 타겟 오프셋값 Ot112를 포함하고, 프로세서는 제 1 타겟 폭 Wt1과 타겟 폭 Wt의 대응성 및 실제 뷰잉 거리와 상기 제 1 또는 제 2 뷰잉 거리의 대응성에 종속하는 오프셋 O를 결정하도록 구성된다. 예를 들면, 실제 오프셋은 실제 타겟 폭 Wt와 타겟 오프셋값 및 뷰잉 거리의 2차원 테이블에 기초한 실제 뷰잉 거리 모두에 종속하여 선택될 수 있다.
타겟 디스플레이 상의 실제 3D 효과는, 뷰어 거리가 비례하여 균등한 경우에, 즉, 기준 구성에서 의도된 소스 뷰잉 거리가 스크린 사이즈들의 비율로 곱해지는 경우에 실질적으로 균등하다는 것이 주의된다. 그러나, 실제 뷰잉 거리는 다를 수 있다. 3D 효과는 더이상 균등할 수 없다. 유리하게도, 다른 뷰잉 거리에 대해 다른 오프셋값들을 제공함으로써, 실제 오프셋값이 실제 뷰잉 거리에 기초하여 결정될 수 있다.
일 실시예에서, 디바이스는 3D 디스플레이에 대해 뷰어의 공간 뷰잉 파라미터들을 규정하는 뷰어 메타데이터를 제공하기 위한 뷰어 메타데이터 수단을 포함하고, 공간 뷰잉 파라미터들은,
- 타겟 눈 거리 Et;
- 3D 디스플레이에 대한 뷰어의 타겟 뷰잉 거리 Dt ;
중 적어도 하나를 포함하고, 프로세서는 타겟 눈 거리 Et와 타겟 뷰잉 거리 Et 중 적어도 하나에 종속하는 오프셋을 결정하도록 구성된다.
뷰어 메타데이터 수단은 3D 디스플레이에 대하여 사용자의 뷰잉 파라미터들을 결정하도록 구성된다. 뷰어 눈 거리 Et는 입력되거나 측정될 수 있으며, 또는 뷰어 카테고리가 예를 들어, 어린이 모드 또는 연령으로 설정될 수 있다(어른에 비해 보다 작은 눈 거리를 설정함). 또한, 뷰잉 거리는 입력되거나 측정될 수 있고, 또는, 예를 들어, 디스플레이에 통상적으로 가까이에 있는 중앙 스피커로부터의 거리에 대한 서라운드 사운드 설정들과 같은 다른 파라미터값들로부터 검색될 수 있다. 이는, 실제 뷰어 눈 거리가 오프셋을 계산하기 위해 사용된다고 하는 이점을 갖는다.
디바이스의 일 실시예에서, 프로세서는 3D 디스플레이에 대한 뷰어의 타겟 뷰잉 거리 Dt에 대해 보상된 오프셋 Ocv를 결정하도록 구성되고, 소스 공간 뷰잉 구성은
Figure pct00005
에 기초하여, 소스 뷰잉 거리 Ds를 갖는다. 보상된 오프셋은, 뷰잉 거리 Dt와 소스 뷰잉 거리 Ds의 비율이 스크린 사이즈 비율
Figure pct00006
에 비례하여 매칭되지 않는 타겟 공간 뷰잉 구성에 대해 결정된다.
보통은, 집에서의 뷰어 거리 및 스크린 사이즈는 무비 씨어터와 매칭되지 않을 것이며, 통상적으로 훨씬 멀리 떨어져 있을 것이다. 상술한 오프셋 보정은 대형 스크린에서와 정확하게 동일한 뷰 경험을 만들 수는 없다. 발명자들은, 보상된 오프셋이 향상된 뷰잉 경험을 제공한다는 것을 발견하였으며, 특히 소스 스크린에 가까운 깊이를 갖는 물체들에 대해 그러하다. 유리하게도, 보상된 오프셋은, 제작자가 통상적으로 스크린에 가까운 초점에 물체들의 깊이들을 유지하는 통상적인 비디오 재료에서의 물체들의 큰 양에 대해 보상할 것이다.
디바이스의 일 실시예는 기록 캐리어로부터 소스 3D 화상 데이터를 검색하기 위한 입력 수단을 포함한다. 추가적인 실시예에서, 소스 3D 화상 데이터는 소스 오프셋 데이터를 포함하며, 프로세서는 소스 3D 화상 데이터로부터 소스 오프셋 데이터를 검색하기 위해 구성된다. 이는, Blu-Ray Disc(BD)와 같은 광 기록 캐리어와 같은 매체를 통해 배포된 소스 3D 화상 데이터가 입력 수단에 의해 매체로부터 검색되는 이점을 갖는다. 또한, 유리하게도 소스 오프셋 데이터는 소스 3D 화상 데이터로부터 검색될 수 있다.
또 다른 추가적인 실시예에서, 소스 3D 화상 데이터는 소스 기준 디스플레이 사이즈 및 -뷰잉 거리 파라미터들을 포함하고, 프로세서는 HDMI를 통해 싱크(sink) 디바이스, 디스플레이로 송신되는 출력 신호에 이러한 파라미터를 삽입하도록 구성된다. 디스플레이가 스스로 기준 스크린 사이즈에 비해 실제 스크린 사이즈를 조정함으로써 오프셋을 계산하도록 구성된다.
디바이스의 일 실시예에서, 프로세서는,
- 변경으로 인해 디스플레이를 초과하는 화상 데이터를 크로핑(cropping);
- 디스플레이 영역을 확장하기 위해 3D 디스플레이 신호의 좌측 및/또는 우측 경계에 화소들을 추가;
- 상호 변경된 L 및 R 화상들을 스케일링하여 상기 디스플레이 영역 내에 맞춤;
- 상기 변경으로 인해 상기 디스플레이 영역을 초과하는 화상 데이터를 크로핑하고 다른 화상 내의 대응 데이터를 블랭킹(blanking)하는 것 중 적어도 하나를 상기 디스플레이 영역에 대해 의도된 3D 디스플레이 신호에 적용함으로써 상기 상호 변경된 수평 위치들을 조정하도록 구성된다. 상기 변경으로 인한 디스플레이 영역을 초과하는 화상 데이터를 크로핑할 때, 및 다른 화상의 대응 데이터를 블랭킹할 때, 커튼의 일루전(illusion)이 얻어진다.
이제 디바이스는 상기 처리 옵션 중 하나를 조정하여 오프셋을 적용한 후의 3D 디스플레이 신호를 변형한다. 유리하게도, 수평 방향의 현재 화소들의 개수를 초과하는 임의의 화소들을 크로핑하는 것은 표준 디스플레이 신호 해상도 내의 신호를 유지한다. 유리하게도, 수평 방향으로 현재 화소들의 개수를 초과하는 화소들을 추가하는 것은 표준 디스플레이 신호 해상도를 확장시키지만, 디스플레이 영역의 좌측 및 우측 에지들에서 하나의 눈에 대해 몇몇 화소들이 결손되는 것을 회피한다. 마지막으로, 유리하게도, 이용가능한 수평 라인 상의 수평 방향으로의 현재 화소들의 개수를 초과하는 임의의 화소들을 매핑하기 위해 화상들을 스케일링하는 것은 표준 디스플레이 신호 해상도 내에 신호를 유지하고 디스플레이 영역의 좌측 및 우측 에지들에서 하나의 눈에 대한 몇몇 화소들이 결손되는 것을 회피한다.
본 발명에 따른 디바이스 및 방법의 추가적인 바람직한 실시예들은, 그 기재가 참조로써 본 명세서에 통합되는 첨부된 청구항에 주어진다.
본 발명의 이러한 양태 및 다른 양태는 첨부 도면을 참조하여 후술하는 설명에서 예시의 방식으로 설명되는 실시예들을 참조함으로써 명백해질 것이며, 더욱 명확해질 것이다.
본 발명은 뷰어에 의해 인지되는 3D 디스플레이 신호를 통해 3D 화상을 제공하여 3D 화상 데이터의 소스의 발신자(originator)에 의해 실질적으로 의도된 3D 효과를 갖도록 한다.
도 1은 3차원(3D) 화상 데이터를 처리하기 위한 시스템을 도시한 도면.
도 2는 스크린 사이즈 보상을 도시한 도면.
도 3은 스크린 사이즈 보상에 대한 경계 효과들을 도시한 도면.
도 4는 제어 메시지 내의 소스 오프셋 데이터를 도시한 도면.
도 5는 소스 오프셋 데이터를 제공하는 플레이리스트의 일부를 도시한 도면.
도 6은 뷰잉 거리의 보상을 도시한 도면.
도 7은 뷰잉 거리에 대해 보상할 때의 커튼(curtain)들의 사용을 도시한 도면.
도 8은 커튼들을 사용할 때의 투영된 화상들을 도시한 도면.
도면들은 단지 도식적인 것이며, 스케일대로 도시된 것이 아니다. 도면들에서, 이미 설명된 요소들에 대응하는 요소들은 동일한 참조 부호들을 갖는다.
도 1은 비디오, 그래픽들 또는 다른 비주얼 정보와 같은 3차원(3D) 화상 데이터를 처리하기 위한 시스템을 도시한다. 3D 화상 디바이스(10)는 3D 디스플레이 신호(56)를 전송하기 위해 3D 디스플레이 디바이스(13)에 연결된다.
3D 화상 디바이스는 화상 정보를 수신하기 위한 입력 유닛(51)을 갖는다. 예를 들면, 입력 유닛은 DVD 또는 Blu-Ray 디스크와 같은 광 기록 캐리어(54)로부터의 각종 유형들의 화상 정보를 검색하기 위한 광 디스크 유닛(58)을 포함할 수 있다. 일 실시예에서, 입력 유닛은, 예를 들어, 인터넷 또는 브로드캐스트 네트워크인 네트워크(55)로의 연결을 위한 네트워크 인터페이스 유닛(59)을 포함할 수 있으며, 이러한 디바이스는 통상적으로 셋탑 박스라 칭해진다. 화상 데이터는 원격 미디어 서버(57)로부터 검색될 수 있다. 또한, 3D 화상 디바이스는, 위성 수신기 또는 디스플레이 신호들을 직접 제공하는 미디어 서버, 즉 디스플레이 유닛에 직접 연결되는 3D 디스플레이 신호를 출력하는 임의의 적절한 디바이스일 수 있다.
3D 화상 디바이스는, 화상 인터페이스 유닛(12)을 통해 디스플레이 디바이스에 전송되는 3D 디스플레이 신호(56)를 생성하기 위해 화상 정보를 처리하기 위한, 입력 유닛(51)에 연결된 화상 프로세서(52)를 갖는다. 프로세서(52)는 디스플레이 디바이스(13) 상의 디스플레이를 위해 3D 디스플레이 신호(56)에 포함된 화상 데이터를 생성하기 위해 구성된다. 화상 디바이스에는, 콘트라스트 또는 컬러 파라미터와 같은, 화상 데이터의 디스플레이 파라미터들을 제어하기 위해 사용자 제어 요소(15)가 제공된다.
3D 화상 디바이스는 메타데이터를 제공하기 위한 메타데이터 유닛(11)을 갖는다. 그 유닛은 3D 디스플레이의 공간 디스플레이 파라미터들을 규정하는 3D 디스플레이 메타데이터를 제공하기 위한 디스플레이 메타데이터 유닛(112)을 갖는다.
일 실시예에서, 메타데이터 유닛은, 3D 디스플레이에 대해 뷰어의 공간 뷰잉 파라미터들을 규정하는 뷰어 메타데이터를 제공하기 위한 뷰어 메타데이터 유닛(111)을 포함할 수 있다. 뷰어 메타데이터는 이하의 공간 뷰어 파라미터들 중 적어도 하나를 포함할 수 있다: 눈 거리라고도 칭하는 뷰어의 동공간(inter-pupil) 거리; 3D 디스플레이에 대한 뷰어의 뷰잉 거리.
3D 디스플레이 메타데이터는 타겟 공간 뷰잉 구성에서 3D 디스플레이의 타겟 폭 Wt를 나타내는 타겟 폭 데이터를 포함한다. 타겟 폭 Wt는 스크린 폭과 통상적으로 동등한 뷰잉 영역의 유효 폭이다. 뷰잉 영역은 다르게 선택될 수도 있으며, 예를 들어, 스크린의 일부로서 3D 디스플레이 윈도우가 서브타이틀들 또는 메뉴들과 같은 다른 화상들을 디스플레이하기 위해 이용가능한 스크린의 추가적인 영역을 보유한다. 윈도우는 예를 들어, 화면 속 화면(picture in picture)인, 3D 화상 데이터의 스케일링된 버전일 수 있다. 또한, 윈도우는 게임 또는 Java 어플리케이션과 같은 상호작용 어플리케이션에 의해 사용될 수 있다. 어플리케이션은 소스 오프셋 데이터를 검색할 수 있고, 윈도우 및/또는 그에 따른 주변 영역(메뉴 등)에서 3D 데이터를 구성할 수 있다. 타겟 공간 뷰잉 구성은 타겟 뷰어의 타겟 눈 거리 Et를 포함하거나 상정한다. 타겟 눈 거리는 표준 평균 눈 거리(예를 들면, 65mm), 입력 또는 측정된 실제 뷰어 눈 거리, 또는 뷰어에 의해 설정된 선택된 눈 거리가 되도록 상정될 수 있다. 예를 들면, 어린이가 뷰어들 사이에 있는 경우, 뷰어는 보다 작은 눈 거리를 갖는 어린이 모드를 설정할 수 있다.
상술한 파라미터들은 3D 디스플레이 및 뷰어의 기하 형태 구성을 규정한다. 소스 3D 화상 데이터는 좌측 눈에 대해 렌더링되는 좌측 화상 L과 우측 눈에 대해 렌더링되는 우측 화상 R을 적어도 포함한다. 프로세서(52)는 소스 공간 뷰잉 구성에 대해 구성된 소스 3D 화상 데이터를 처리하기 위해 구성되어, 타겟 공간 뷰잉 구성에서 3D 디스플레이(17) 상의 디스플레이를 위해 3D 디스플레이 신호(56)를 생성한다. 이 처리는 메타데이터 유닛(11)으로부터 이용가능한 3D 디스플레이 메타데이터에 따른 타겟 공간 구성에 기초한다.
소스 3D 화상 데이터는 소스 공간 뷰잉 구성과 타겟 공간 뷰잉 공간 사이의 차들에 기초하여 이하와 같이 타겟 3D 디스플레이 데이터로 변환된다. 또한, 소스 시스템은 L 화상과 R 화상 사이의 불일치를 나타내는 소스 오프셋 데이터 Os를 제공한다. 예를 들면, Os는 뷰어의 소스 눈 거리 Es에 기초하여 소스 공간 뷰잉 구성에서 디스플레이될 때, 3D 화상 데이터의 디스플레이 폭 Ws에서의 불일치를 나타낼 수 있다. 소스 시스템은, 화상 데이터가 만들어지고 디스플레이, 예를 들어, 무비 씨어터를 위해 사용되도록 의도된 소스 공간 뷰잉 구성, 즉 기준 구성을 위한 3D 화상 데이터를 제공한다는 점에 유의한다.
입력 유닛(51)은 소스 오프셋 데이터를 검색하도록 구성된다. 소스 오프셋 데이터는 소스 3D 화상 데이터 신호에 포함되고 이로부터 검색될 수 있다. 아니면, 소스 오프셋 데이터는 예를 들어, 인터넷을 통해 별도로 전송되거나 수동으로 입력될 수 있다.
프로세서(52)는, 소스 공간 뷰잉 구성과 타겟 공간 뷰잉 구성 사이의 차들을 보상하기 위해 화상들 L 및 R의 상호 수평 위치를 오프셋 O만큼 변경함으로써 3D 디스플레이에 대한 3D 디스플레이 신호(56)를 생성하도록 3D 화상 데이터를 처리하고, 소스 오프셋 데이터에 따라 오프셋 O를 결정하도록 구성된다. 오프셋은 화상들 L 및 R의 상호 수평 위치를 오프셋 O만큼 수정하도록 적용된다. 통상적으로 양(both) 화상들은 오프셋의 50%만큼 시프트되지만, 택일적으로 하나의 화상만이 (풀(full) 오프셋만큼) 시프트될 수 있거나; 다른 스프레드(spread)가 사용될 수 있다.
일 실시예에서, 소스 오프셋 데이터는 좌측 화상 L의 위치 및 우측 화상 R의 위치에 대해 오프셋 O의 스프레드를 나타내는 경계 오프셋 데이터를 포함한다. 프로세서는, 경계 오프셋 데이터, 즉 좌측 화상에 적용되는 전체 오프셋의 일부와 우측 화상에 적용되는 오프셋의 나머지 일부에 기초하여 스프레드를 결정하도록 구성된다. 경계 오프셋은 3D 화상 신호의 파라미터, 예를 들면 도 4 또는 도 5에 나타낸 테이블 내의 추가적인 요소들일 수 있다. 경계 오프셋은 퍼센티지, 또는 좌측 시프트 또는 우측 시프트만을 나타내는 아주 약간의 상태 비트들 또는 양자에 대해 50%일 수 있다. 3D 화상 데이터에 포함된 스프레드를 적용하는 것은, 후술할 바와 같이 시프트된 화소들이 경계들에서 크로핑되는 경우에 특히 적절하다. 이러한 오프셋의 비대칭적 배분은, L 및 R 화상들이 시프트될 때 일부 화소들의 결손을 야기하는 크로핑 효과들을 개선한다. 화상의 종류에 따라, 스크린의 좌측 또는 우측 에지의 화소들은 컨텐트 내에서 중요한 역할을 할 수 있으며, 예를 들어, 소위 "경계 효과"를 피하기 위해 주연 배우의 얼굴 부분일 수 있거나 인공적으로 창작된 3D 커튼일 수 있다. 오프셋의 비대칭적 배분은, 뷰어가 그/그녀의 관심을 덜 주목할 것 같은 화소들을 제거한다.
오프셋을 결정하고 적용하는 기능들을 상세하게 후술되는 것이 유의된다. 오프셋을 계산 및 적용함으로써, 프로세서는 디스플레이 신호를 타겟 공간 뷰잉 구성, 예를 들면 홈 TV 셋으로 개조한다. 소스 데이터는, 타겟 뷰어의 타겟 눈 거리 Et를 갖는 타겟 공간 뷰잉 구성에서의 3D 디스플레이의 타겟 폭 Wt를 나타내는 타겟 폭 데이터로 적응된다. 이러한 효과에 대해 도 2 및 3을 참조하여 추가적으로 후술된다.
소스 눈 거리 Es 및 타겟 눈 거리 Et 모두는 동등할 수 있거나, 표준값으로 고정될 수 있거나 상이할 수 있다. 일반적으로, 스크린 사이즈의 차이를 조정하기 위해서, 오프셋은 타겟 폭과 소스 폭의 비율에, 타겟 눈 거리로부터 소스 눈 거리를 감산한 것을 곱함으로써 계산된다.
타겟 공간 뷰잉 구성은 실제 뷰잉 공간에서의 실제 스크린의 셋업을 규정하며, 여기에서 스크린은 물리적 사이즈와 추가적인 3D 디스플레이 파라미터들을 갖는다. 뷰잉 구성은, 예를 들면 뷰어의 눈들에 대한 디스플레이 스크린의 거리인, 실제 뷰어 시청자의 위치 및 배치를 추가로 포함할 수 있다. 현재의 방식에서는, 단독의 뷰어만이 존재하는 경우에 있어서의 뷰어가 논의된다는 점에 유의한다. 명확하게, 복수의 뷰어들도 존재할 수 있으며, 공간 뷰잉 구성의 계산들 및 3D 화상 처리는, 예를 들어, 평균값들, 특정 뷰잉 영역에 대한 최적의 값들 또는 뷰어의 유형 등을 사용하여, 상기 복수의 뷰어에 대해 가능한 최적의 3D 경험을 조정하도록 구성될 수 있다.
3D 디스플레이 디바이스(13)는 3D 화상 데이터를 디스플레이하기 위한 것이다. 디바이스는 3D 화상 디바이스(10)로부터 전송되는 3D 화상 데이터를 포함하는 3D 디스플레이 신호(56)를 수신하기 위한 디스플레이 인터페이스 유닛(14)을 갖는다. 디스플레이 디바이스에는, 콘트라스트, 컬러 또는 깊이 파라미터들과 같은 디스플레이의 디스플레이 파라미터들을 설정하기 위한 사용자 제어 요소들(16)이 추가적으로 제공된다. 전송된 화상 데이터는 사용자 제어 요소들로부터의 설정 명령들에 따라 화상 처리 유닛(18)에서 처리되며, 3D 화상 데이터에 기초하여 3D 디스플레이 상에 3D 화상 데이터를 렌더링하기 위한 디스플레이 제어 신호들을 생성한다. 디바이스는, 예를 들어, 듀얼(dual) 또는 렌즈형 LCD인, 처리된 화상 데이터를 디스플레이하기 위한 디스플레이 제어 신호들을 수신하는 3D 디스플레이(17)를 갖는다. 디스플레이 디바이스(13)는 3D 디스플레이라고도 칭하는 임의의 종류의 스테레오스코픽 디스플레이일 수 있으며, 화살표(44)에 의해 나타내어진 디스플레이 깊이 범위를 갖는다.
일 실시예에서, 3D 화상 디바이스는 메타데이터를 제공하기 위한 메타데이터 유닛(19)을 갖는다. 메타데이터 유닛은 3D 디스플레이의 공간 디스플레이 파라미터들을 규정하는 3D 디스플레이 메타데이터를 제공하기 위한 디스플레이 메타데이터 유닛(192)을 갖는다. 또한, 3D 디스플레이에 대하여 뷰어의 공간 뷰잉 파라미터들을 규정하는 뷰어 메타데이터를 제공하기 위한 뷰어 메타데이터 유닛(191)을 추가적으로 포함할 수도 있다.
일 실시예에서, 뷰어 메타데이터를 제공하는 것은, 예를 들어, 사용자 인터페이스(15)를 통해 각각의 공간 디스플레이 또는 뷰잉 파라미터들을 설정함으로써 3D 화상 디바이스에서 수행된다. 대안으로, 디스플레이 및/또는 뷰어 메타데이터를 제공하는 것은, 예를 들어, 사용자 인터페이스(16)를 통해 각 파라미터들을 설정함으로써 3D 디스플레이 디바이스에서 수행될 수 있다. 또한, 소스 공간 뷰잉 구성을 타겟 공간 뷰잉 구성에 적응하는 3D 데이터의 상기 처리는 상기 디바이스들 중 어느 하나에서 수행될 수 있다.
일 실시예에서, 디스플레이 디바이스 내의 3D 화상 처리 유닛(18)은, 소스 공간 뷰잉 구성에 대해 구성된 소스 3D 화상 데이터를 처리하는 기능을 위해 구성되어 타겟 공간 뷰잉 구성에서의 3D 디스플레이 상에 디스플레이하기 위한 타겟 3D 디스플레이 데이터를 생성한다. 이러한 처리는 3D 화상 디바이스(10) 내의 프로세서(52)에 대해 설명한 처리와 기능적으로 동등하다.
따라서, 상기 메타데이터를 제공하고 3D 화상 데이터를 처리하는 시스템의 다양한 구성들은 화상 디바이스와 3D 디스플레이 디바이스 중 어느 하나에 제공된다. 또한, 양측 디바이스들은 단일의 멀티 기능 디바이스에 결합될 수 있다. 따라서, 상기 다양한 시스템 구성들에서의 양측 디바이스들의 실시예들에서, 화상 인터페이스 유닛(12) 및/또는 디스플레이 인터페이스 유닛(14)은 상기 뷰어 메타데이터를 송신 및/또는 수신하도록 구성될 수 있다. 또한, 디스플레이 메타데이터는 3D 디스플레이 디바이스로부터 3D 화상 디바이스의 인터페이스(12)까지 인터페이스(14)를 통해 전송될 수 있다. 소스 오프셋 데이터는, 예를 들면 값 Osp에 대해서, 3D 디스플레이 디바이스에서의 처리를 위한 3D 디스플레이 신호, 예를 들어, HDMI 신호에 3D 화상 디바이스에 의해 계산되고 포함될 수 있다는 점에 유의한다.
또는, 소스 오프셋 데이터는 3D 화상 디바이스에 의해 3D 디스플레이 신호로, 예를 들어, HDMI 신호에 매립된 기준 디스플레이 사이즈 및 -뷰잉 거리로부터 디스플레이에서 결정될 수 있다는 점에 유의한다.
3D 디스플레이 신호는 잘 알려진 HDMI 인터페이스(예를 들면, "High Definition Multimedia Interface Specification Version 1.3a of Nov 10 2006)와 같은, 적절한 고속 디지털 비디오 인터페이스를 통해 전송될 수 있고, 확장되어 아래에 규정하는 오프셋 메타데이터 및/또는 기준 디스플레이 사이즈 및 -뷰잉 거리와 같은 디스플레이 메타데이터, 또는 화상 디바이스에 의해 계산된 오프셋을 규정하고, 디스플레이 디바이스에 의해 적용된다.
도 1은 3D 화상 데이터의 캐리어로서의 기록 캐리어(54)를 추가적으로 나타낸다. 기록 캐리어는 디스크형이며 트랙 및 중앙 홀을 갖는다. 일련의 물리적인 검출가능 마크로 구성되는 트랙은 정보 레이어 상에서 실질적으로 평행한 트랙을 구성하는 턴들의 동심원형 또는 나사형 패턴에 따라 구성된다. 기록 캐리어는 광학적으로 판독가능하며, 광학 디스크, 예를 들면 CD, DVD 또는 BD(Blu-ray Disc)라 칭해질 수 있다. 정보는 트랙, 예를 들면 피트(pits)와 랜드(lands)를 따라 광학적으로 검출가능한 마크들에 의해 정보 레이어 상에서 나타내어진다. 또한, 트랙 구조는 통상적으로 정보 블록들이라 칭하는 정보 유닛들의 위치를 나타내기 위한 위치 정보, 예를 들면 헤더들 및 어드레스들을 포함한다. 기록 캐리어(54)는 뷰어를 위해 3D 디스플레이 상에 디스플레이하기 위한 디지털로 인코딩된 3D 화상 데이터를 나타내는 3D 화상 신호를 구현하는 물리적인 마크들을 갖는다. 기록 캐리어는 우선 마스터 디스크를 제공하고, 후속적으로 물리적 마크들의 패턴을 제공하기 위해 프레싱 및/또는 몰딩에 의해 제품을 다양화하는 방법에 의해 제조될 수 있다.
이하의 섹션은 인간에 의한 3D 깊이 인지의 개요를 제공한다. 3D 디스플레이들은, 보다 생생한 깊이 인지를 제공할 수 있다는 의미에서 2D 디스플레이와 상이하다. 이는, 3D 디스플레이가 단안(monocular) 깊이만을 나타낼 수 있는 2D 디스플레이보다 많은 깊이 큐(cue)들과 움직임에 기초한 큐들을 제공하기 때문에 달성된다.
단안(또는 정적 또는 2D) 깊이 큐들은 단안(single eye)을 사용해서 정적 화상으로부터 얻어질 수 있다. 화가들은 그들의 그림에서 깊이감을 생성하기 위해 종종 단안 큐를 사용한다. 이러한 큐들은 상대적인 사이즈, 수평에 대한 높이, 가림(occlusion), 원근, 텍스트 경사들, 및 조명/음영들을 포함한다.
쌍안 불일치는, 우리의 양쪽눈이 약간 상이한 화상을 본다는 사실로부터 도출되는 깊이 큐이다. 디스플레이에서 쌍안 불일치를 재생성하는 것은, 각각이 디스플레이 상의 약간 상이한 화상을 보는 좌측 눈 및 우측 눈에 대해 디스플레이가 뷰를 분할할 수 있는 것을 요구한다. 쌍안 불일치를 재생성할 수 있는 디스플레이들은 3D 또는 스테레오스코픽 디스플레이라 칭해지는 특수 디스플레이들이다. 3D 디스플레이들은 인간의 눈에 의해 실제로 인지되는 깊이 치수에 따라 화상들을 디스플레이할 수 있으며, 본 명세서에서는 3D 디스플레이가 디스플레이 깊이 범위를 갖는 것이라 칭한다. 따라서, 3D 디스플레이들은 좌측 및 우측 눈에 대해 L 화상 및 R 화상이라 칭하는 상이한 뷰를 제공한다.
2개의 상이한 뷰들을 제공할 수 있는 3D 디스플레이들은 긴 시간 동안 많은 경험을 하였다. 이들 대부분은 안경을 사용하여 좌측 및 우측 눈의 뷰를 분할하는 것에 기초한다. 현재에는 디스플레이 기술의 진보로 안경을 사용하지 않고 입체 뷰를 제공할 수 있는 새로운 디스플레이들이 시장에 진입하였다. 이러한 디스플레이들을 자동 스테레오스코픽 디스플레이들이라 칭한다.
도 2는 스크린 사이즈 보상을 나타낸다. 이 도면은, 화살표 W1로 나타낸 소스 폭 Ws를 갖는 스크린(22)을 갖는 소스 공간 뷰잉 구성을 상면도에서 나타낸다. 뷰어에 대한 소스 거리는 화살표 D1으로 나타낸다. 소스 공간 뷰잉 구성은, 소스 재료가 만들어진 기준 구성, 즉 무비 씨어터이다. 뷰어의 눈들(Left eye=Leye, Right eye=Reye)은 개략적으로 나타내어졌으며, 소스 눈 거리 Es를 갖는 것으로 상정된다.
또한, 도면은 화살표 W2로 나타낸 소스 폭 Wt를 갖는 스크린(23)을 갖는 타겟 공간 뷰잉 구성을 나타낸다. 뷰어에 대한 타겟 거리는 화살표 D2로 나타낸다. 타겟 공간 뷰잉 구성은, 3D 화상 데이터가 디스플레이되는 실제 구성, 예를 들면 홈 씨어터이다. 뷰어의 눈들은 개략적으로 나타내어졌으며 타겟 눈 거리 Et를 갖는 것으로 상정된다. 도면에서, 소스 및 타겟 눈들은 일치하며 Es는 Et와 동등하다. 또한, 뷰잉 거리는 스크린 폭들의 비율에 비례하여 선택된다(따라서 W1/D1=W2/D2).
도면에서, 가상 물체 A가 스크린 W1 상에서 Reye에 의해 RA에 보이고, Leye에 의해 LA에 보인다. 원래 화상 데이터가 어떠한 보상도 없이 스크린 W2에 디스플레이되면, RA는 W2 상의 스케일링된 위치 상의 RA'로 되고, 유사하게 LA->LA'로 된다. 따라서, 보상이 없으면, 스크린 W2 상에서 물체 A는 A'로 인지된다(따라서, 깊이 위치가 양측 스크린들 상에서 상이하게 보인다). 또한, -oo(먼 무한)은 -oo'로 되며, 이는 실제 -oo에서 더 멀지 않다.
이하의 보상이 깊이 인지에서의 상술한 차이들에 대해 보정하기 위해 적용된다. W2 상의 화소들은 오프셋 21로 시프트될 것이다. 디바이스의 일 실시예에서, 소스 눈 거리 Es와 동등한 타겟 눈 거리 Et에 기초한 상기 변환을 위해 프로세서가 구성된다.
디바이스의 일 실시예에서, 프로세서는 비율 Es/Ws를 나타내는 소스 오프셋 파라미터를 포함하는 소스 오프셋 데이터에 기초한 상기 보상을 위해 구성된다. 소스 눈 거리 Es와 소스 폭 Ws의 비율에 대한 단일 파라미터값은 Et/Wt에 의해 타겟 구성의 무한대에서의 물체에 대한 오프셋 값을 결정하고 소스 오프셋 값을 감산함으로써 오프셋이 계산될 수 있게 한다. 계산은 물리적 사이즈(예를 들면, 미터 또는 인치)로 수행되고 후속적으로 화소들로 변환되거나, 바로 화소들로 수행될 수 있다. 소스 오프셋 데이터는 이하에 기초한 소스 오프셋 거리 값 Osd이다.
Figure pct00007
프로세서(52)는 이하에 기초하여 타겟 뷰어의 타겟 눈 거리 Et와 타겟 폭 Wt에 대한 오프셋을 결정하기 위해 구성된다.
Figure pct00008
;
실제 디스플레이 신호는 통상적으로 화소들, 즉 타겟 수평 화소 해상도 HPt로 표현된다. 화소들의 소스 수평 해상도 HPs를 갖는 3D 화상 데이터에 대한 소스 오프셋 화소값 Osp는 이하에 기초한다.
Figure pct00009
화소들의 오프셋 Op에 대한 공식은 이하와 같다:
Figure pct00010
공식의 첫번째 파트가 특정 디스플레이에 대해 고정되면, 이하와 같이 한번만 계산될 수도 있다.
Figure pct00011
따라서, 상기 소스 오프셋값만을 갖는 3D 화상 신호에 대해 계산된 오프셋은 아래의 감산이다.
Figure pct00012
일례에서, 실제의 값들은 눈 거리=0.065m, W2=1m, W1=2m, HP=1920이며, 이는 오프셋 Osp=62.4 화소들 및 Op=62.4 화소들로 귀결된다.
도면에서, Reye에 대해 RA'는 RA''로 되고, 물체 A는 스크린 W1 상에서와 동일한 깊이에서 다시 스크린 W2 상에 보이므로, 보정되지 않은 깊이 위치 A'가 이제 보상되게 된다. 또한, 위치 -oo'는 -oo''로 되며, 이는 이제 다시 실제 -oo에 있다.
놀랍게도 보상된 깊이는 모든 물체들에 대해 정확하며, 즉 오프셋 보정으로 인해 모든 물체들이 동일한 깊이에서 나타나므로, 타겟 공간 뷰잉 구성에서의 깊이감은 (예를 들면, 감독이 대형 스크린 상에 의도한 바와 같이) 소스 공간 뷰잉 구성에서와 동일하다.
오프셋을 계산하기 위해서, 예를 들어, 기록 캐리어 상에 저장되거나 네트워크를 통해 분포된 3D 화상 데이터 신호가 제공된 소스 오프셋 데이터 Os로서 소스의 원래 오프셋이 알려져야만 한다. 타겟 스크린 사이즈 Wt도 디스플레이 메타데이터로서 알려져야만 한다. 디스플레이 메타데이터는 상술한 바와 같이 HDMI 신호로부터 도출될 수 있거나, 사용자에 의해 입력될 수 있다.
플레이어는 (Os 및 Wt에 기초하여) 계산된 오프셋을 적용해야 한다. 특정 오프셋을 적용하면, 물체 A가 씨어터에서와 정확하게 동일한 위치에 보인다는 것을 알 수 있다. 이는 현재 모든 물체들에 대해 유효하므로, 뷰잉 경험은 가정에서와 정확하게 동일하다. 따라서, 실제 스크린 사이즈와 소스 구성 사이의 차이들이 보정된다. 대안으로 디스플레이는 3D 디스플레이 화상 신호에 매립된 오프셋으로부터 계산된 오프셋을 적용하거나, 예를 들어, HDMI를 통해 3D 디스플레이 화상 신호에 매립된 기준 스크린 폭 및 -뷰잉 거리로부터 오프셋을 계산한다.
일 실시예에서, 디바이스(플레이어 및/또는 디스플레이)는 추가적으로 뷰어가 다른 오프셋을 설정할 수 있게 한다. 예를 들면, 디바이스는, 사용자가 예를 들어, 명목 오프셋의 75%로 오프셋을 스케일링하기 위해 우선도를 설정할 수 있게 할 수 있다.
디바이스의 일 실시예에서, 디바이스는 3D 디스플레이에 대해 뷰어의 공간 뷰잉 파라미터들을 규정하는 뷰어 메타데이터를 제공하기 위한 뷰어 메타데이터 수단을 포함하며, 공간 뷰잉 파라미터는 타겟 눈 거리 Et를 포함한다. 실제의 뷰어 눈 거리는 오프셋을 계산하는 데 사용될 것이다. 뷰어가 그의 눈 거리를 실제로 입력할 수 있거나, 측정이 수행될 수 있거나, 예를 들어, 어린이 모드 또는 연령인 뷰어 카테고리가 설정될 수 있다. 카테고리는, 예를 들어, 어른보다는 어린이에 대해 더 작은 눈 거리인, 다른 타겟 눈 거리를 설정하기 위해 디바이스에 의해 변환된다.
도 3은 스크린 사이즈 보상에 대한 경계 효과를 나타낸다. 도면은 도 2와 유사한 상면도이며, 화살표 W1로 나타내어지는 소스 폭 Ws를 갖는 스크린(34)을 갖는 소스 공간 뷰잉 구성을 나타낸다. 뷰어에 대한 소스 거리는 화살표 D1로 나타내어진다. 또한, 도면은 화살표 W2에 의해 나타내어진 소스 폭 Wt를 갖는 스크린(35)을 갖는 타겟 공간 뷰잉 구성을 나타낸다. 뷰어에 대한 타겟 거리는 화살표 D2에 의해 나타내어진다. 도면에서, 소스 및 타겟 눈은 일치하고 Es는 Et와 동등하다. 또한, 뷰잉 거리는 스크린 폭들의 비율에 비례하여 선택된다(따라서, W1/D1=W2/D2). 화살표(31, 32, 33)로 나타낸 오프셋은 상술한 스크린 사이즈 차이에 대해 보상하기 위해 적용된다.
도면에서, 가상의 물체 ET는 스크린 W1의 최좌측 경계에 있고, 스크린 W1의 깊이 34에 있는 것으로 상정된다. 물체는 L 화상과 또한 보정되지 않은 R 화상에서도 ET'로서 나타내어진다. R 화상에 대해 오프셋(31)을 적용한 후에, 물체는 ET''에서 나타내어진다. 뷰어는 원래 깊이에서 물체를 다시 인지할 것이다. 또한, 위치 -oo'는 -oo''로 되어, 물체는 이제 다시 실제 -oo에 있다.
하지만, 스크린 W2는 EB'에서 끝나므로 스크린 W2 상의 물체 EB'가 EB''로 시프트될 수 없으므로, 스크린 W2의 최우측 경계에서 문제가 발생한다. 따라서, L 화상 및 R 화상 양측이 오프셋에 따라 시프트되면(통상적으로 각 화상에 대해 50% 오프셋이지만, 전체 오프셋을 상이하게 분할하는 것도 가능함), 경계 즉 양측 경계에서의 측정들이 필요하다. 이하, 몇가지 옵션에 대해 설명한다. 디바이스는 오프셋을 적용한 후에 3D 디스플레이 신호를 수정하는 상기 처리 옵션들 중 하나를 조정한다.
디바이스의 일 실시예에서, 프로세서는 디스플레이를 위해 의도된 3D 디스플레이 신호에 이하에서 적어도 하나를 적용함으로써 상기 상호 변경된 수평 위치들을 조정하도록 구성된다.
- 상기 변경으로 인해 디스플레이 영역을 초과하는 화상 데이터를 크로핑(cropping);
- 디스플레이 영역을 확장하기 위해 3D 디스플레이 신호의 좌측 및/또는 우측 경계에 화소들을 추가;
- 디스플레이 영역 내에 알맞도록 상호 변경된 L 및 R 화상들을 스케일링.
- 상기 변경으로 인해 디스플레이 영역을 초과하는 화상 데이터를 크로핑하고 다른 화상 내의 대응 데이터를 블랭킹(blanking). 상기 변경으로 인해 디스플레이 영역을 초과하는 화상 데이터를 크로핑하고, 다른 화상 내의 대응 데이터를 블랭킹할 때, 커튼의 일루전(illusion)이 얻어진다.
첫번째 처리 옵션은 수평 방향에서 화소들의 현재 수를 초과하는 임의의 화소들을 크로핑하는 것이다. 크로핑은 표준 디스플레이 신호 해상도 내의 신호를 유지한다. 도면에서, 이는 예를 들어, 블랙 화소들로 채워져 ET''의 좌측 파트가 크로핑되어야한다는 것을 의미한다. 우측 눈에 의해 바라본 우측 경계 EB는 보정 없이 EB'로 매핑되고, 오프셋 보정 후에 EB''로 될 것이다. 그러나, EB'의 우측에 있는 화소들은 디스플레이될 수 없고 폐기된다.
일 실시예에서, 수평 해상도는 원래 해상도에 대해 약간 증가한다. 예를 들면, 3D 화상 데이터의 수평 해상도는 1920 화소들이고, 디스플레이 신호의 해상도는 2048 화소들에서 설정된다. 수평 방향에서 화소들의 현재 수를 초과하는 화소들을 추가하는 것은 표준 디스플레이 신호 해상도를 증가시키지만, 디스플레이 영역의 좌측 및 우측 에지들에서 하나의 눈에 대한 일부 화소들의 결손을 회피한다.
최대 물리적 오프셋은 언제나 눈 거리보다 작다는 것에 유의한다. 기준 스크린 W1이 매우 크고(예를 들면, 대형 씨어터에 대해 20m), 사용자 스크린이 매우 작으면(예를 들어, 소형 랩탑에 대해 0.2m), 상술한 오프셋 공식에 의해 결정된 오프셋은 눈 거리의 약 99%이다. 이러한 소형 스크린에 대한 화소들의 확장은 약 0.065/0.2*1920=624 화소들일 것이며, 그 전체는 1920+624=2544 화소일 것이다. 전체 해상도는, 매우 작은 스크린에 대해 오프셋들을 조정하는 2560 화소들(고해상도 디스플레이 신호들에 대한 통상의 값)로 설정될 수 있다. 0.4m의 스크린에 대해 최대 확장은 0.065/0.4*1920=312 화소들일 것이다. 따라서, 이러한 신호를 디스플레이할 수 있도록, 스크린 수평 사이즈는 ('최대 오프셋'에 대응하는 값으로) 확장되어야 한다. 3D 디스플레이의 실제 스크린 사이즈는 스크린의 물리적 사이즈에 대해 예측되는 최대 오프셋에 따라 선택될 수 있으며, 즉 물리적 스크린 폭을 대략 눈 거리만큼 확장시킨다.
대안으로 또는 추가적으로, L 및 R 화상들은 이용가능한 수평 해상도에 대한 화소들(수평 방향에서 원래 화소들의 수를 초과하는 임의의 화소들을 포함함)의 전체 수를 매핑하기 위해 축소될 수 있다. 따라서, 디스플레이 신호는 표준 디스플레이 신호 해상도 내에 맞추어진다. 0.2m에 대한 상술한 실제예에서, 2544의 확장된 해상도가 1920으로 축소될 것이다. 스케일링은 수평 방향으로만 적용될 수 있거나(원래 애스팩트(aspect) 비율의 미소한 변형을 초래함), 수직 방향으로도 적용될 수 있으며, 이는 스크린의 탑(top) 및/또는 바닥 상에 약간의 블랙 바(black bar) 영역을 초래한다. 스케일링은 디스플레이 영역의 좌측 및 우측 에지들에 있는 하나의 눈에 대한 화소 결손들을 회피한다. 스케일링은 디스플레이 신호를 생성하기 전에 소스 디바이스에 의해 적용될 수 있거나, 적용된 오프셋을 이미 갖고 상술한 확장된 수평 해상도를 갖는 3D 디스플레이 신호를 수신하고 있는 3D 디스플레이 디바이스에서 적용될 수 있다. 이용가능한 수평 라인 상에서 수평 방향에서의 현재 화소들의 수를 초과하는 임의의 화소들을 매핑하기 위해 화상들을 스케일링하는 것은 표준 디스플레이 신호 해상도 내에서 신호를 보유하며 디스플레이 영역의 좌측 및 우측 에지들에 있는 하나의 눈에 대해 일부 화소들의 결손을 회피한다.
대안으로 또는 추가적으로, 첫번째 처리 옵션(크로핑)에 대한 확장으로서, R 화상이 크로핑될 때 L 화상 내의 대응 영역이 블랭킹된다. 도 7을 참조하면, 오프셋(33)이 R 화상에 적용될 때, 그 화상 내의 영역(71)은 상술한 바와 같이 크로핑될 것이다. 지각적으로, 이는 스크린으로부터 이전에 돌출된 물체들 - 일부 뷰어들에 의해 장대하게 고려되는 효과 -가 이제는 (일부) 스크린의 뒤에 있을 수 있다는 것을 의미한다. 이러한 "돌출" 효과를 복구하기 위해서, 원래 스크린(34)의 위치와 동일한 사용자로부터의 거리에서 스크린의 우측 상에 커튼의 일루전을 생성할 수 있다. 즉, 오프셋의 적용 전에 스크린으로부터 돌출된 물체들은 돌출하였지만 이제는 인위적으로 생성된 커튼에 대하여 원래 디스플레이의 위치에 있는 일루전을 여전히 담고 있다. 이러한 커튼 화상을 생성하기 위하여, 크로핑된 우측 화상의 영역에 대응하는 left 화상의 영역이 블랭킹된다(블랙으로 중복기입됨).
이에 대해 도 8에서 추가적으로 설명한다. 탑에서, 소스 L 및 R 화상(81)이 L 화상의 물체들(84)(블랙)과 R 화상의 대응 물체들(85)(회색)와 함께 나타내어진다. 오프셋(33)이 R 소스 화상에 적용될 때, 결과(82)가 R 화상에 삽입된 블랙 영역(86) 및 크로핑된 영역(87)과 함께 얻어지며, 이는 더 낮은 정도의 "돌출"로 귀결된다. 추가적인 스텝에서, L 화상의 영역(88)도 블랙으로 설정되어 83으로 귀결되고, 원래 스크린(34)이 위치에서 스크린의 우측 상에 커튼의 일루전을 생성한다. 오프셋(33)이 우측에 대한 부분 오프셋과 좌측 화상에 대한 반대의 보상 오프셋으로 분할되면, (사용자로부터 동일한 거리에 있는) 디스플레이의 좌측 상의 유사한 커튼이 우측 화상의 좌측 상의 대응 영역을 블랭킹함으로써 생성될 수 있다.
상술한 대안적인 옵션들은 결합되고/되거나 부분적으로 적용될 수 있다. 예를 들면, 수평 방향으로 실제 스케일링을 적용하는 것은 컨텐트 소유자들 및/또는 뷰어들에 의해 종종 선호되지 않는다. 스케일링은 스케일링 후의 오프셋 화소들의 양의 일부 크로핑과 결합되거나 제한될 수 있다. 또한, 시프팅은 대칭 또는 비대칭으로 행해질 수 있다. 어떻게 크로핑 및/또는 시프팅하는지에 대한 제어를 제작자에게 주기 위해 3D 화상 신호에 포함된 플래그 또는 파라미터가 있을 수 있다(예를 들어, -50 내지 +50의 스케일에서, 0은 대칭을 의미하고, -50은 좌측의 모든 크로핑을 의미하고, +50은 우측의 모든 크로핑을 의미함). 시프트 파라미터는 계산된 오프셋에 곱해져 실제 시프트를 결정한다.
3D 화상 신호는 기본적으로 좌측 눈에 대해 렌더링되는 좌측 화상 L 및 우측 눈에 대해 렌더링되는 우측 화상 R을 적어도 나타내는 소스 3D 화상 데이터를 포함한다. 추가적으로, 3D 화상 신호는 소스 오프셋 데이터 및/또는 기준 스크린 사이즈 및 -뷰잉 거리를 포함한다. 신호는, 도 1에 나타낸 바와 같이 광 기록 캐리어(54)와 같은 저장 매체에 제공된 마크들의 물리적 패턴에 의해 구현될 수 있음에 유의한다. 소스 오프셋 데이터는 3D 화상 신호의 포맷에 따라 소스 3D 화상 데이터에 직접 결합된다. 포맷은 Blu-ray Disc(BD)와 같은 알려진 저장 포맷의 확장일 수 있다. 이하, 소스 오프셋 데이터 및/또는 오프셋 데이터 및/또는 기준 스크린 사이즈 및 -뷰잉 거리를 포함하는 다양한 옵션들에 대해 설명한다.
도 4는 제어 메시지의 소스 오프셋 데이터를 나타낸다. 제어 메시지는, 예를 들어, 확장된 BD 포맷의 MVC 의존 기본 비디오 스트림의 일부로서, 어떻게 신호를 처리하는지 디코더에 알리기 위한 3D 화상 신호에 포함된 부호 메시지일 수 있다. 부호 메시지는 MPEG 시스템들에서 규정된 SEI 메시지와 같이 포맷팅된다. 표는 비디오 데이터의 특정 인스턴트에 대한 오프셋 메타데이터의 신택스(syntax)를 나타낸다.
3D 화상 신호에서, 소스 오프셋 데이터는, 소스 스크린 사이즈(도 2의 W1) 상의 소스 눈 거리 Es에서의 소스 오프셋을 나타내는 기준 오프셋(41)을 적어도 포함한다. 추가적인 파라미터가 포함될 수 있다: 소스 공간 뷰잉 구성에서 스크린에 대한 뷰어의 기준 거리(42)(도 2의 D1). 일례에서, 소스 오프셋 데이터는 비디오 및 그래픽스 오프셋 메타데이터 또는 스테레오스코픽 비디오에 대한 STN_table 내의 PlayList에 저장된다. 추가적인 옵션은 특정 타겟 스크린 폭에 대해 좌측 및 우측 뷰의 화소들의 시프트량을 나타내는 오프셋 메타데이터를 실제로 포함한다. 상술한 바와 같이, 이러한 시프트는 상이한 각도 불일치들을 생성하여 상이한 디스플레이 사이즈들에 대해 보상한다.
다른 오프셋 메타데이터가 종속 코딩된 비디오 스트림 내의 Sign Message에 저장될 수 있다. 통상적으로, 종속 스트림은 "R" 뷰에 대한 비디오를 갖는 스트림이다. Blu-ray Disc 사양은, Sign Messages가 스트림 내에 포함되어야 하고 플레이어에 의해 처리되어야 한다는 것을 요구한다. 도 4는, 기준 오프셋(41)과 함께 메타데이터 정보의 구조가 어떻게 Sign Messages에 담겨지는지를 나타낸다. 기준 오프셋은 각 프레임에 대해 포함된다; 대안으로 소스 오프셋 데이터는 보다 큰 단편에 대해, 예를 들어, 사진들의 그룹에 대해, 샷에 대해, 전체 비디오 프로그램에 대해 플레이리스트 등을 통해 제공될 수 있다.
일 실시예에서, 소스 오프셋 데이터도 도 4에 나타낸 바와 같이 기준 뷰잉 거리(42)를 포함한다. 기준 뷰잉 거리는, 실제 타겟 뷰잉 거리가 상술한 바와 같이 비례하여 정확한지 여부를 검증하는 데 사용될 수 있다. 또한, 기준 뷰잉 거리는 후술하는 바와 같이 타겟 오프셋을 적응하는 데 사용될 수 있다.
도 5는 소스 오프셋 데이터를 제공하는 플레이리스트의 일부를 나타낸다. 표는 3D 화상 신호에 포함되며, 스테레오스코픽 뷰 표 내의 스트림의 규정을 나타낸다. 소스 오프셋 데이터의 양을 감소시키기 위해, Reference Offset(51)(그리고 선택적으로 Reference_viewing_distance(52))이 현재 BD 사양의 PlayList에 저장된다. 이러한 값들은 전체 무비에 대해 일관적이고, 프레임 기초로 시그널링될 필요가 없다. PlayList는 프리젠테이션을 함께 이루는 플레이아이템들의 시퀀스를 나타내는 리스트이고, 플레이아이템은 개시 및 종료 시간과, PlayItem의 주기 동안 스트림이 플레이백되어야 하는 리스트들을 갖는다. 3D 스테레오스코픽 비디오의 플레이백에 대해 이러한 표는 STN_table_for_Stereoscopic이라 칭해진다. 표는 스트림 식별자들의 리스트를 제공하여 PlayItem 동안 디코딩되고 프리젠팅되어야 할 스트림들을 식별한다. 우측 눈 뷰를 포함하는 종속 비디오 스트림에 대한 엔트리(entry)(SS_dependent_view_block이라 칭함)는 도 5에 나타낸 바와 같이 스크린 사이즈 및 뷰잉 거리 파라미터들을 포함한다.
기준 뷰잉 거리(42, 52)는 옵션 파라미터이며 실제 뷰어에 대한 소스 공간 뷰잉 구성의 셋업을 부여한다. 디바이스는 기준 스크린 사이즈와 타겟 스크린 사이즈의 비율에 기초하여 최적의 타겟 뷰잉 거리 Dt를 계산하기 위해 구성될 수 있다:
Dt=Dref*Wt/Ws
타겟 뷰잉 거리는 뷰어에게 보여질 수 있으며, 예를 들어, 그래픽 사용자 인터페이스를 통해 디스플레이된다. 일 실시예에서, 뷰어 시스템은 실제 뷰잉 거리를 측정하고, 예를 들어, 뷰어가 올바른 타겟 뷰잉 거리에 있을 때에는 녹색 표시자, 뷰어가 너무 가깝거나 너무 멀 때에는 다른 컬러로 나타냄으로써, 뷰어에게 최적의 거리를 나타내도록 구성된다.
3D 화상 신호의 일 실시예에서, 소스 오프셋 데이터는, 타겟 폭 Wt와 제 1 타겟 폭 Wt1의 비율에 종속하는 오프셋 Ot1에 기초하여 화상 L 및 R의 상호 수평 위치를 변경할 수 있도록 타겟 3D 디스플레이의 제 1 타겟 폭 Wt1에 대응하는 제 1 타겟 오프셋값 Ot1을 적어도 포함한다. 실제 디스플레이 스크린 상의 제 1 타겟 폭 Wt1 및 실제 타겟 폭 Wt의 대응에 기초하여, 수신 디바이스는 제공받은 타겟 오프셋값을 직접 적용할 수 있다. 또한, 다른 타겟 폭들에 대한 몇몇 값들이 신호에 포함될 수 있다. 추가적인 내삽(interpolation) 또는 외삽(extrapolation)이 제공된 타겟 폭(들)과 실제 타겟 폭 사이의 차이들을 보상하기 위해 적용될 수 있다. 선형 내삽이 올바르게 중간값들을 제공한다는 것에 유의한다.
또한, 상이한 타겟 폭들에 대한 몇몇 값들의 표는 컨텐트 작성자가 적용된 실제 오프셋을 제어할 수 있게 하며, 예를 들어, 각각의 타겟 스크린 사이즈들에서 3D 효과에 대한 작성자의 선호도에 기초하여 오프셋에 추가적인 보정을 추가할 수 있게 한다는 것이 유의된다.
스테레오스코픽 3D 데이터가 그 내에 담겨지게 할 때 스크린 사이즈 종속 시프트를 3D 화상 신호에 추가하는 것은, 3D 화상 신호를 렌더링하는 디스플레이의 디스플레이 스크린 사이즈와 컨텐트 작성자에 의해 규정된 시프트 사이의 관계를 규정하는 것을 포함할 수 있다.
단순화된 실시예에서, 이러한 관계는 스크린 사이즈와 시프트 사이의 관계의 파라미터들을 포함함으로써 나타내어질 수 있으며, 이 관계는 바람직한 실시예에서 고정된다. 하지만, 보다 넓은 범위의 해상도들을 조정하고 컨텐트 작성자들에게 유연성(flexibility)을 제공하기 위해, 이러한 관계는 3D 화상 신호의 표에 의해 제공되는 것이 바람직하다. 이러한 데이터를 데이터 스트림에 통합함으로써, 작성자는, 스크린 사이즈가 종속 시프트가 적용되어야 할지 여부에 대한 제어를 갖는다. 또한, 사용자 선호도 설정을 고려하는 것도 가능하게 된다.
제안된 시프트는 스테레오스코픽 비디오 신호뿐만 아니라 임의의 그래픽스 오버레이들 모두에 적용되는 것이 바람직하다.
본 발명의 가능한 어플리케이션 및 상술한 표들은 BD 표준에 대해 3D 확장을 제공하기 위한 어플리케이션이다.
바람직한 실시예에서, SDS Preference 필드가 플레이백 디바이스 상태 레지스터에 추가되어 사용자의 플레이백 디바이스의 출력 모드 선호도를 나타낸다. 이하, PSR21이라 칭해지는 레지스터는 스크린 사이즈 종속 시프트(SDS)를 적용하기 위해 사용자 선호도를 나타낼 수 있다.
바람직한 실시예에서, SDS Status 필드가 플레이백 디바이스의 Stereoscopic Mode Status를 나타내는 플레이백 디바이스 상태 레지스터에 추가되며, 이하 이러한 레지스터를 PSR22이라 칭할 것이다. SDS Status 필드는 현재 적용되고 있는 시프트의 값을 나타내는 것이 바람직하다. 바람직한 실시예에서, Screen Width 필드는 플레이백 디바이스의 출력을 렌더링하는 디바이스의 Display Capability를 나타내는 플레이백 디바이스 상태 레지스터에 추가되며, 이하 PSR23이라 칭한다. Screen Width 필드값은 시그널링을 통해 디스플레이 디바이스 자체로부터 얻어지는 것이 바람직하지만, 대안으로 이 필드값은 플레이백 디바이스의 사용자에 의해 제공된다.
바람직한 실시예에서, 스크린 폭과 시프트 사이의 관계를 규정하는 엔트리들을 제공하기 위해 Playlist 확장 데이터에 표가 추가된다. 보다 바람직하게는 표 내의 엔트리들은 16비트 엔트리들이다. 대안으로, 표 엔트리들은 플래그를 제공하여 SDS 선호도 설정을 지배하는 것이 바람직하다. 대안으로, 표는 Clip Information 확장 데이터에 포함된다.
PlayList 확장 데이터 내의 포함에 대한 SDS_table()의 예가 아래와 같이 표 1로서 제공된다.
Figure pct00013
length 필드는 SDS_table()의 바이트 수를 나타내며, 이러한 length 필드 직후부터 SDS_table()의 끝까지 length 필드는 16비트이거나 보다 선택적으로 32비트가 되도록 선택되는 것이 바람직하다.
overrule_user_preference 필드는 사용자 선호도의 어플리케이션을 허용 또는 차단할 가능성을 나타내는 것이 바람직하여, 보다 바람직하게는 1b의 값은 사용자 선호도가 지배되는 것을 나타내고 0b의 값은 사용자 선호도가 지배하는 것을 나타낸다. 표가 Clip Information 확장 데이터에 포함되면, overrule_user_preference 필드는 표로부터 분리되어 Playlist 확장 데이터에 포함되는 것이 바람직하다.
number_of_entries 필드는 표에 존재하는 엔트리들의 수를 나타내고, screen_width 필드는 스크린의 폭을 나타내는 것이 바람직하다. 보다 바람직하게는 이러한 필드는 액티브 사진 영역의 폭을 cm으로 규정한다.
sds_direction 플래그는 오프셋 방향을 나타내는 것이 바람직하고, sds_offset 필드는 2로 나누어진 화소들의 오프셋을 나타낸다.
표 2는 출력 모드 선호도를 나타내는 플레이백 디바이스 상태 레지스터의 바람직한 구현을 나타낸다. PSR21이라 칭하는 이러한 레지스터는 사용자의 Output Mode Preference를 나타낸다. SDS Preference 필드의 0b 값은 SDS가 적용되지 않는다는 것을 시사하고, SDS Preference 필드의 1b 값은 SDS가 적용된다는 것을 시사한다. Output Mode Preference의 값이 0b이면, SDS Preference도 0b로 설정될 것이다.
바람직하게는 플레이백 디바이스 네비게이션이 명령을 내리고, 또는 BD의 경우에, BD-java 어플리케이션들은 이 값을 변경할 수 없다.
Figure pct00014
표 3은 플레이백 디바이스의 스테레오스코픽 모드 상태를 나타내는 플레이백 디바이스 상태 레지스터의 바람직한 구현을 나타내며, 이하 상태 레지스터를 PSR22라 칭한다. PSR22는 BD-ROM Player의 경우에 현재 Output Mode 및 PG TextST Alignment를 나타낸다. PSR22에 포함된 Output Mode의 값이 변경되면, Output Mode of Primary Video, PG TextST 및 Interactive Graphics 스트림이 그에 대응되게 변경될 것이다.
PSR22에 포함된 PG TextST Alignment의 값이 변경되면, PG Text ST Alignment가 그에 대응되게 변결될 것이다.
표 3에서, 필드 SDS Direction은 오프셋 방향을 나타낸다. SDS offset 필드는 2로 나누어진 화소들의 오프셋 값을 포함한다. SDS Direction 및 SDS Offset의 값이 변경되면, 플레이어의 비디오 출력의 좌측 뷰와 우측 뷰 사이의 수평 오프셋이 그에 대응되게 변경된다.
Figure pct00015
표 4는 이하 PSR23이라 칭하는, 디스플레이 성능을 나타내는 플레이백 디바이스 상태 레지스터의 바람직한 실시예를 나타낸다. 이하에 제시된 screen width 필드는 접속된 TV 시스템의 스크린 폭을 cm으로 나타내는 것이 바람직하다. 0b의 값은, 스크린 폭이 규정되지 않았거나 알려지지 않은 것을 의미하는 것이 바람직하다.
Figure pct00016
대안적인 실시예에서, 오프셋을 적용하는 디바이스는 디스플레이이다. 본 실시예에서, 표 1로부터의 오프셋과 기준 스크린 사이즈 또는 폭 및 기준 뷰잉 거리가 화상 또는 플레이백 디바이스(BD-플레이어)에 의해 HDMI를 통해 디스플레이로 송신된다. 플레이백 디바이스의 프로세서는 인스턴스에 대한 기준 디스플레이 메타데이터를 HDMI 벤더 특정 InfoFrame에 임베딩한다. HDMI의 InfoFrame은 HDMI 인터페이스를 통해 전송된 패킷들에 포함된 값들의 표이다. 이러한 InfoFrame의 포맷의 일부의 예가 아래의 표 5에 나타내어진다.
Figure pct00017
이하의 표 6은 타겟 오프셋과 기준 스크린 폭과 같은 디스플레이 메타데이터를 담는 데 사용될 수 있는 벤더 특정 인포프레임의 2 종류를 나타낸다. 표 1로부터의 오프셋 및/또는 기준 스크린 폭 파라미터가 ISO23002-3 파라미터들에 담겨지거나, 표 1로부터 디스플레이 메타데이터를 전송하기 위해 새로운 메타데이터 종류가 구체적으로 규정된다.
Figure pct00018
3D_Metadata_type=001의 경우에, 3D_Metadata_1...N은 이하의 값으로 채워짐:
Figure pct00019
대안으로 타겟 오프셋과 기준 스크린 폭 모두와 -거리가 ISO23002-3에 규정된 바와 같이 시차 정보 필드들에 담겨진다. ISO23002-3은 이하의 필드들을 규정한다:
Figure pct00020
오프셋과 기준 스크린 폭 및 -뷰잉 거리는 아래와 같이 ISO 23002-3 메타데이터 필드들에 담겨지는 것을 제안한다:
Figure pct00021
sds_offset, sds_direction, view_distance 및 screenwidth가 모두 제공될 필요는 없다. 일 실시예에서는 sds_offset 및 sds_direction만이 제공된다. 이들은 공식에 기초하거나 도 4의 표를 사용하여 상술한 바와 같이 화상 디바이스에서 연산될 수 있다. 이 경우에, 디스플레이 디바이스는 오프셋을 3D 소스 화상 데이터에 직접 적용한다.
다른 실시예에서는, view_distance 및 screenwidth만이 화상 디바이스와 디스플레이 디바이스 사이의 인터페이스를 통해 메타데이터로서 공급된다. 이 경우에, 디스플레이 디바이스는 소스 3D 화상 데이터에 적용되는 오프셋을 연산하여야 한다.
또 다른 실시예에서는, 도 4의 표가 화상 디바이스에 의해 디스플레이 디바이스로 전달된다. 디스플레이 디바이스는 (자기 자신의) 타겟 디스플레이 사이즈 및/또는 거리의 지식을 사용하여 소스 화상 데이터에 적용되는, 이러한 표로부터의 적절한 오프셋을 선택한다. 이전 실시예에 대한 이점은, 소스 화상 데이터에 적용된 오프셋에 대한 적어도 일부 제어를 남겨 둔다는 것이다.
단순화된 실시예에서는 기준 스크린 폭 및 -뷰잉 거리만이 디스크 상의 3D 소스 화상 데이터를 제공받는다. 이러한 단순화된 경우에는, 기준 스크린 폭 및 뷰잉 거리만이 디스플레이로 전송되고, 디스플레이는 실제 스크린 폭과 관련하여 이러한 값에 따라 오프셋을 계산한다. 이 경우에는, SDS_table이 요구되지 않고, 기준 스크린 폭 및 -뷰잉 거리가 비디오 포맷, 프레임 레이트 등과 같은 비디오 컨텐트에 대한 파라미터들을 포함하는, 기존 표인 AppInfoBDMV 표에 임베딩된다. AppInfoBDMV의 섹션들은 기준 스크린 폭 및 뷰잉 거리 파라미터들을 갖는 이러한 표의 확장의 예로서 이하의 표 7에 제공된다.
Figure pct00022
length: 이 표의 바이트 수를 나타냄.
video_format: 이 필드는 디스크 상에 포함되고 HDMI를 통해 디스플레이로 송신되는 컨텐트의 비디오 포맷을 나타냄, 예를 들면, 1920x1080p.
frame_rate: 이 필드는 HDMI 인터페이스를 통해 디스플레이로 송신된 컨텐트의 프레임 레이트를 나타냄.
ref_screenwidth: 디스플레이의 기준 스크린 폭을 cm으로 나타냄. 0 값은 스크린 폭이 규정되지 않았거나 알려지지 않았음을 의미함.
ref_view_distance: 디스플레이에 대한 기준 뷰잉 거리를 cm으로 나타냄. 0 값은 뷰잉 거리가 규정되지 않았거나 알려지지 않았음을 의미함.
따라서, 표 5 내지 7을 참조하여 설명한 상술한 실시예에서, 비디오, 그래픽스 또는 3D 디스플레이 신호를 전송하기 위해 3D 디스플레이 디바이스에 결합된 3D 화상 디바이스를 포함하는 다른 비주얼 정보와 같은 3차원(3D) 화상 데이터를 처리하기 위한 시스템이 제공된다. 본 실시예에서, 본 발명에 따른 3D 화상 디바이스는, 소스 공간 뷰잉 구성에서 소스 폭 Ws 및 뷰어의 소스 눈 거리 Es에 기초하여 3D 화상 데이터에 대해 제공된 L 화상과 R 화상 사이의 불일치를 나타내는 소스 오프셋 데이터를 검색하기 위한 입력 수단(51), 및 3D 디스플레이 신호를 출력하기 위한 출력 수단을 포함하며, 3D 화상 디바이스는 소스 공간 뷰잉 구성에서 소스 폭 Ws 및 뷰어의 소스 눈 거리 Es에 기초하여 3D 화상 데이터에 대해 제공된 L 화상과 R 화상 사이의 불일치를 나타내는 소스 오프셋 데이터를 적어도 나타내는 3D 디스플레이 신호 메타데이터를 추가하도록 구성되는 것을 특징으로 한다.
본 발명의 이러한 실시예에 따른 3D 디스플레이 디바이스는 L 및 R 화상을 포함하는 3D 디스플레이 신호를 수신하고, 화상 L 및 R의 상호 수평 위치를 오프셋 O만큼 변경하여 소스 공간 뷰잉 구성과 타겟 공간 뷰잉 구성 사이의 차이들을 보상하도록 구성되고,
- 타겟 공간 뷰잉 구성에서 디스플레이되는 3D 데이터의 타겟 폭 Wt를 나타내는 타겟 데이터를 포함하는 3D 디스플레이 메타데이터를 제공하기 위한 디스플레이 메타데이터 수단(112, 192), 및
- 소스 공간 뷰잉 구성에서 뷰어의 소스 눈 거리 Es와 소스 폭 Ws에 기초하여 3D 화상 데이터에 대해 제공된 L 화상 및 R 화상 사이의 불일치를 나타내는 소스 오프셋 데이터를 3D 디스플레이 신호로부터 추출하기 위한 수단을 포함하고,
3D 디스플레이 디바이스는 소스 오프셋 데이터에 종속하는 오프셋 O를 결정하기 위해 추가적으로 구성된다.
따라서, 표 5 내지 7을 참조하여 설명된 시스템의 실시예는, 3D 소스 디바이스에 의해 수행된 처리의 일부가 3D 디스플레이 디바이스에 의해 수행되는 기계적인 전환에 대응한다. 따라서, 본 발명의 추가적인 실시예에서, 3D 디스플레이 디바이스는 본 발명의 다른 실시예에서 설명된 3D 화상 처리(화상 크로핑, 리스케일링, 측면 커튼의 부가 등)를 수행할 수 있다.
본 발명의 추가적인 개선에서, Picture in Picture(PIP)의 경우에 시프트를 다루는 능력도 언급된다.
스테레오스코픽 화상에서의 깊이의 양은 화상의 사이즈와 화상에 대한 뷰어의 거리에 의존한다. 스테레오스코픽 PIP 양을 도입하면, 이 문제는 몇몇 스케일링 팩터가 사용될 수 있는 PIP에 대해 한층 더욱 현저해진다. 각 스케일링 팩터는 스테레오스코픽 PIP에서 깊이의 다른 인지를 초래할 것이다.
BLu-Ray 디스크의 경우에서의 특정 실시예에 따르면, PIP 어플리케이션에 대한 스케일링 팩터는 종속 비디오 스트림에 담겨진 오프셋 메타데이터 스트림의 선택과 연결되며, 선택된 오프셋 메타데이터는 (스케일링 팩터를 통해 간접 또는 직접) PIP의 사이즈에 의존한다.
이하의 정보 단편 중 적어도 하나가 PIP의 스케일링/사이즈를 오프셋 메타데이터 스트림에 연결하는 것을 가능하게 하기 위해 필요하다:
- STN_table_SS를 스테레오스코픽 PIP에 대한 엔트리로 확장한다. 이는 "secondary_video_stream" 엔트리를 현재 규정된 STN_table_SS에 추가함으로써 행해진다.
- 이러한 새로운 엔트리에서, PIP에 대해 어느 오프셋 스트림을 선택할지를 식별하기 위해 PIP_offset_reference_ID를 추가한다. PIP의 스케일링 팩터가 플레이리스트의 pip_metadata 확장 데이터에서 규정되며, 이는, 플레이리스트에 대해 스케일링된 PIP에 대해 스케일링 팩터만이 존재한다는 것을 의미한다. 또한, PIP의 풀(full) 스크린 버전에 대해 PIP_offset_reference_ID가 존재한다.
- 선택적으로, 스테레오스코픽 비디오가 오프셋을 갖고 2D 비디오가 오프셋을 갖는 것을 허용하도록 엔트리를 확장한다.
- 선택적으로, 스테레오스코픽 PIP가 서브타이틀을 지원한다면, 이러한 엔트리들도 스테레오스코픽 서브타이틀들과 2D+ 오프셋에 기초한 서브타이틀들에 대해 확장될 필요가 있다. 2D+오프셋 PIP에 대해, PiP 서브타이틀들이 PiP 자신과 동일한 오프셋을 사용할 것이라고 가정한다.
알려진 STN_table_SS의 변경들의 상세한 예는 아래와 같다.
Figure pct00023
테이블에서, 이하의 시맨틱들이 사용된다:
PiP _ offset _ sequence _ id _ ref: 이 필드는 오프셋 값들의 스트림을 참조하는 식별자를 특정한다. 이러한 오프셋 값들의 스트림은 GOP 당 하나로 MVC SEI 메시지들 내의 표로서 담겨진다. 적용된 오프셋량은 plane_offset_value 및 plane_offset_direction에 종속한다.
PiP _ Full _ Screen _ offset _ sequence _ id _ ref: 이필드는, PiP 스케일링 팩터가 풀 스크린으로 설정되었을 때 오프셋 값들의 스트림을 참조하는 식별자를 특정한다.
is _ SS _ PiP: PiP가 스테레오스코픽 스트림인지 여부를 나타내는 플래그.
stream _ entry (): 디스크 상의 Transportstream에 PiP 스트림을 포함하는 패킷들의 PID를 포함함.
stream _ attributes (): 비디오의 코딩 종류를 나타냄.
SS _ PiP _ offset _ sequence _ id _ ref: 이 필드는 스테레오스코픽 PIP에 대한 오프셋 값들의 스트림을 참조하는 식별자를 특정한다.
SS _ PIP _ PG _ textST _ offset _ sequence _ id _ ref: 이 필드는 스테레오스코픽 PiP의 서브타이틀들에 대한 오프셋 값들의 스트림을 참조하는 식별자를 특정한다.
dialog _ region _ offset _ valid _ flag: 서브타이틀들에 기초한 텍스트에 대해 적용할 오프셋량을 나타냄.
Left _ eye _ SS _ PIP _ SS _ PG _ textST _ stream _ id _ ref: 이 필드는 스테레오스코픽 PiP에 대한 좌측 눈 스테레오스코픽 서브타이틀 스트림에 대한 식별자를 나타낸다.
Right _ eye _ SS _ PIP _ SS _ PG _ textST _ stream _ id _ ref: 이 필드는 스테레오스코픽 PiP에 대한 우측 눈 입체 서브타이틀 스트림에 대한 식별자를 나타낸다.
SS _ PiP _ SS _ PG _ text _ ST _ offset _ sequence _ id _ ref: 이 필드는 입체 PiP의 스테레오스코픽 서브타이틀에 대한 오프셋 값들의 스트림을 참조하는 식별자를 특정한다.
SS _ PiP _ Full _ Screen _ SS _ PG _ textST _ offset _ sequence _ id _ ref: 이 필드는 풀 스크린 모드의 스테레오스코픽 PiP의 스테레오스코픽 서브타이틀에 대한 오프셋 값들의 스트림을 참조하는 식별자를 특정한다.
도 6은 뷰잉 거리의 보상을 나타낸다. 이 도면은 도 2와 유사한 상면도이며, 화살표 W1로 나타내어진 소스 폭 Ws를 갖는 스크린(62)을 갖는 소스 공간 뷰잉 구성을 나타낸다. 뷰어에 대한 소스 거리 Ds는 화살표 D1로 나타내어진다. 또한, 도면은 화살표 W2로 나타내어진 소스 폭 Wt를 갖는 스크린(61)을 갖는 타겟 공간 뷰잉 구성을 나타낸다. 뷰어에 대한 타겟 거리 Dt는 화살표 D3으로 나타내어진다. 도면에서, 소스 및 타겟 눈들은 일치하며, Es는 Et와 동등하다. 최적의 뷰잉 거리 D2는 스크린 폭들의 비율에 비례하여 선택된다(따라서 W1/D1=W2/D2). 화살표(63)로 나타내어진 대응하는 최적 오프셋은 상술한 바와 같이 스크린 사이즈 차이에 대해 보상하기 위한 뷰잉 거리 보상 없이 적용될 것이다.
그러나, 실제 뷰잉 거리 D3은 최적 거리 D2로부터 벗어난다. 실제로 집에서의 뷰어 거리는 D2/D1=W2/W1과 매칭되지 않을 수 있고, 통상적으로 뷰어는 더 멀리 있을 것이다. 따라서, 상술한 오프셋 보정은 대형 스크린 상에서와 정확하게 동일한 뷰 경험을 만들 수 없을 것이다. 이하, 뷰어가 D3>D2에 있다고 가정한다. 소스 뷰어는 소스 스크린(62)의 전방의 물체를 볼 것이며, 이 물체는 대형 스크린으로 더 가깝게 뷰잉될 때 뷰어에게 더 가깝게 이동할 것이다. 하지만, 명목 오프셋 보정이 적용되었고 D3에서 뷰잉되었을 때, 소형 스크린 상에 디스플레이된 물체는 의도한 것보다 뷰어로부터 더 멀리 나타날 것이다.
대형 스크린 깊이에 위치된 물체는, 소형(오프셋 보상된) 스크린 상의 D3에서 뷰잉될 때 대형 스크린 깊이 뒤의 물체로 된다. 소스 스크린 상에서 뷰잉되었을 때 물체가 여전히 그 의도된 깊이(즉, 대형 스크린 깊이)에서 나타나는 방식으로, 화살표(63)로 나타내어진 뷰잉 거리에 대해 보상된 오프셋 Ocv로 잘못된 위치 결정을 보상하는 것이 제안된다. 예를 들면, 시네마가 소스 구성이고, 홈이 타겟 구성이다. 뷰잉 거리의 차에 대해 개조하는 오프셋의 보상은 화살표(64)로 나타내어지며, 아래와 같이 계산된다. 3D 디스플레이에 대한 뷰어의 타겟 뷰잉 거리 Dt에 대한 보상된 오프셋 Ocv, 및 소스 뷰잉 거리 Ds를 갖는 소스 공간 뷰잉 구성은 아래에 기초하여 결정된다.
Figure pct00024
대안으로, 화소들의 해상도 HPt 및 스크린 사이즈들에 기초하여, 공식은 이하와 같다.
Figure pct00025
보상된 오프셋은, 뷰잉 거리 Dt 및 소스 뷰잉 거리 Ds의 비율이 스크린 사이즈 비율 Wt/W에 비례적으로 매칭되지 않는 타겟 공간 뷰잉 구성에 대해 결정된다.
하지만, 불일치와 깊이 사이의 관계는 비선형이며, 제한된 범위(대형 스크린 주위의 깊이들)가 선형으로 근사될 수 있다. 따라서, 물체들이 대형 스크린으로부터의 깊이에서 너무 멀리 있지 않으면, 뷰잉 거리 보상 오프셋을 적용할 때 소형 스크린 상의 D3에서 뷰잉되면, "비왜곡"으로 나타날 것이다.
물체들이 대형 스크린으로부터 상대적으로 멀리 있으면, 어느 정도의 왜곡이 존재할 것이지만, 보상된 오프셋으로 인해 이는 일반적으로 최소로 될 것이다. 디렉터(director)가 보통 이를 발견할 것이며, 대부분의 물체들은 대형 스크린 주위에 존재한다(대략 대칭적으로 분포됨)고 가정한다. 따라서, 대부분의 경우들에 왜곡은 최소일 것이다. 뷰어가 의도된 것보다 스크린으로부터 멀리 있으면, 물체들은 여전히 너무 작으며, 깊이는 적어도 일부 보상된다는 것에 유의한다. 이러한 보상은 인지된 2D 사이즈와 최대 깊이 보정 사이의 중간 방식을 달성한다.
소스 스크린 폭은 Ws=Es/Os에 의해 계산될 수 있다는 것에 유의한다. 스크린 사이즈 비율은 (동일한 눈 거리를 가정하여) 아래의 식으로 귀결되는 소스 오프셋 Os와 타겟 오프셋 O의 비율로 치환될 수 있다.
Figure pct00026
일 실시예에서, 오프셋 값들과 뷰잉 거리들의 표가 3D 화상 신호에 포함될 수 있다. 이하, 몇몇 카메라 샷들에 대해 상기 왜곡이 최소가 아니라면, 컨텐트 제작자는 다양한 홈 스크린 사이즈들 및 거리들에 대한 오프셋 정보를 포함하는 표를 통해 보상된 오프셋을 수정할 수 있다. 이러한 표들은, 각각의 새로운 프레임 또는 사진들의 그룹, 또는 새로운 카메라 샷에서의 3D 화상 신호에 포함될 수 있으며, 물체 거리들에 대한 무게 중심은 대형 스크린 거리와 상이하다. 상기 반복적인 표들을 통해, 오프셋은 인간 뷰어에 대해 편안한 속도록 수정될 수 있다.
본 발명은 프로그램가능한 요소들을 사용하여, 하드웨어 및/또는 소프트웨어로 구현될 수 있다. 본 발명을 구현하기 위한 방법은 이하의 단계들을 갖는다. 첫번째 단계는 3D 디스플레이의 공간 디스플레이 파라미터들을 규정하는 3D 디스플레이 메타데이터를 제공하는 것이다. 다음 단계는 소스 공간 뷰잉 구성을 위해 구성된 소스 3D 화상 데이터를 처리하여 타겟 공간 뷰잉 구성에서의 3D 디스플레이상에 디스플레이하기 위한 3D 디스플레이 신호를 생성하는 것이다. 상술한 바와 같이, 3D 디스플레이 메타데이터는 타겟 뷰어의 타겟 눈 거리 Et를 갖는 타겟 공간 뷰잉 구성에서 3D 디스플레이의 타겟 폭 Wt를 나타내는 타겟 폭 데이터를 포함한다. 본 방법은 디바이스에 대해 상술한 바와 같이 소스 오프셋 데이터를 제공하고 적용하는 단계를 추가적으로 포함한다.
Blu-Ray Disc를 사용한 실시예로 본 발명을 주로 설명하였지만, 본 발명은 예를 들어, 임의의 3D 신호와, 예를 들어, 인터넷을 통한 배포를 위해 포맷팅된 전송 또는 저장 포맷에 대해서도 적합하다. 또한, 소스 오프셋 데이터는 3D 화상 신호에 포함될 수도 있고 별도로 제공될 수도 있다. 소스 오프셋 데이터는 예를 들어, 미터, 인치, 및/또는 미리 규정된 전체 스크린 사이즈에 대한 화소들과 같은 다양한 방식들로 제공될 수 있다. 본 발명은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합을 포함하는 임의의 적절한 형태로 구현될 수 있다. 선택적으로, 본 발명은 오더링(authoring) 또는 디스플레잉 셋업에서 방법으로서 구현될 수 있거나, 하나 이상의 데이터 프로세서들 및/또는 디지털 신호 프로세서들을 실행시키는 컴퓨터 소프트웨어로서 적어도 일부 구현될 수 있다.
명료화를 위해 상술한 설명은 상이한 기능 유닛들 및 프로세서들을 참조하여 본 발명의 실시예들을 설명하였다는 것이 이해될 것이다. 하지만, 본 발명은 이러한 실시예들에 한정되지 않으며, 설명한 각각의 그리고 모든 새로운 특징과 특징들의 조합에 존재한다. 상이한 기능 유닛들 또는 프로세서들 사이의 기능의 적절한 분배가 사용될 수 있다. 예를 들면, 별개의 유닛들, 프로세서들 또는 컨트롤러들에 의해 수행되도록 설명된 기능이 동일한 프로세서 또는 컨트롤러들에 의해 수행될 수도 있다. 따라서, 특정의 기능 유닛들에 대한 참조들은 엄격한 논리적 또는 물리적 구성 또는 구조를 나타내는 것이 아니라 설명된 기능을 제공하기 위한 적절한 수단에 대한 참조로서만 간주되어야 한다.
또한, 개별적으로 나열되었지만, 복수의 수단, 요소들 또는 방법 단계는 예를 들어, 단일 유닛 또는 프로세서에 의해 구현될 수도 있다. 또한, 각 개별 특징들이 다른 청구항들에 포함될 수 있지만, 이들은 유리하게 결합될 수 있으며, 다른 클레임들에서의 포함이, 특징들의 조합이 불가능하고/하거나 유리하다는 것을 시사하지는 않는다. 또한, 청구항의 하나의 카테고리 내의 특징의 포함은 이러한 카테고리에 대한 제한을 시사하는 것이 아니라, 특징이 다른 청구항의 카테고리들에 동등하고 적절하게 적용가능하다는 것을 나타낸다. 또한, 청구항의 특징들의 순서는, 특징들이 실시되어야 하는 임의의 특정 순서를 시사하는 것이 아니며, 특히 방법 청구항의 개별 단계들의 순서는, 그 단계들이 이 순서대로 수행되어야 한다는 것을 시사하지 않는다. 오히려, 단계들은 임의의 적절한 순서로 수행될 수 있다. 또한, 단일 호칭은 복수를 배제하지 않는다. 따라서, "어느(a)", "어느(an)", "첫번째", "두번째" 등에 대한 호칭은 복수를 배제하지 않는다. 청구항의 참조 부호들은 단순히 명확하게 하는 예로서 제공되었으며, 어떠하든지 청구항의 범위를 제한하는 것으로 해석되어서는 안된다. '포함하는(comprising)'이라는 용어는 나열된 것들 외에 다른 요소들 또는 단계들의 존재를 배제하지 않는다.

Claims (16)

  1. 타겟 공간 뷰잉 구성(target spatial viewing configuration)에서의 뷰어(viewer)를 위한 3D 디스플레이 상의 디스플레이를 위해 3차원[3D] 화상 데이터를 처리하기 위한 디바이스에 있어서,
    상기 3D 화상 데이터는, 렌더링된(rendered) 화상들이 소스 폭(source width)을 갖는 소스 공간 뷰잉 구성에서 좌측 눈에 대해 렌더링되는 좌측 화상 L과 우측 눈에 대해 렌더링되는 우측 화상 R을 적어도 나타내고,
    상기 디바이스는:
    상기 3D 화상 데이터를 처리하여, 상기 소스 공간 뷰잉 구성과 상기 타겟 공간 뷰잉 구성 사이의 차이들을 보상하기 위하여 화상들 L 및 R의 상호 수평 위치를 오프셋 O만큼 변경시킴으로써 상기 3D 디스플레이를 위한 3D 디스플레이 신호(56)를 생성하는 프로세서(52, 18),
    상기 타겟 공간 뷰잉 구성에서 디스플레이되는 3D 데이터의 타겟 폭 Wt를 나타내는 타겟 데이터를 포함하는 3D 디스플레이 메타데이터를 제공하기 위한 디스플레이 메타데이터 수단(112, 192), 및
    상기 소스 공간 뷰잉 구성에서 뷰어의 소스 눈 거리 Es 및 소스 폭 Ws에 기초하여 상기 3D 화상 데이터를 위해 제공된 상기 L 화상과 상기 R 화상 사이의 불일치를 나타내는 소스 오프셋 데이터를 검색하기 위한 입력 수단(51)으로서, 상기 소스 오프셋 데이터는 상기 화상들 L 및 R의 상호 수평 위치를 변경시키기 위한 오프셋 파라미터를 포함하는, 상기 입력 수단(51)을 포함하고,
    상기 프로세서(52)는 상기 오프셋 파라미터에 종속하는 상기 오프셋 O를 결정하도록 추가적으로 구성되는, 3차원 화상 데이터 처리 디바이스.
  2. 제 1 항에 있어서,
    상기 오프셋 파라미터는,
    타겟 3D 디스플레이의 제 1 타겟 폭 Wt1에 대한 적어도 제 1 타겟 오프셋 값 Ot1;
    Osd=Es/Ws에 기초한 소스 오프셋 거리 비율값 Osd;
    Osp=HPs*Es/Ws에 기초하여 화소들의 소스 수평 해상도 HPs를 갖는 상기 3D 화상 데이터에 대한 소스 오프셋 화소값 Osp;
    상기 소스 공간 뷰잉 구성에서 상기 디스플레이에 대한 뷰어의 기준 거리를 나타내는 소스 뷰잉 거리 데이터(42); 및
    좌측 화상 L의 위치 및 우측 화상 R의 위치에 대한 상기 오프셋 O의 스프레드(spread)를 나타내는 경계 오프셋 데이터,
    중 적어도 하나를 포함하고,
    상기 프로세서(52)는 각각의 오프셋 파라미터에 종속하는 상기 오프셋 O를 결정하도록 구성되는, 3차원 화상 데이터 처리 디바이스.
  3. 제 2 항에 있어서,
    상기 프로세서(52)는,
    상기 제 1 타겟 폭 Wt1 및 상기 타겟 폭 Wt의 대응성에 종속하는 상기 오프셋 O를 결정;
    Otd=Et/Wt-Osd에 기초하여, 타겟 뷰어의 타겟 눈 거리 Et 및 상기 타겟 폭 Wt에 대한 타겟 거리 비율로서의 오프셋 Otd를 결정;
    Op= HPt*Et/Wt-Osp에 기초하여, 화소들의 타겟 수평 해상도 HPt를 갖는 3D 디스플레이 신호에 대한 타겟 뷰어의 타겟 눈 거리 Et 및 상기 타겟 폭 Wt에 대한 화소들의 오프셋 Op를 결정;
    상기 제 1 타겟 오프셋값, 상기 소스 오프셋 거리값 및 상기 소스 오프셋 화소값 중 적어도 하나와 상기 소스 뷰잉 거리 데이터의 조합에 종속하는 오프셋 O를 결정; 및
    상기 경계 오프셋 데이터에 종속하는 좌측 화상 L의 위치와 우측 화상 R의 위치에 대해 상기 오프셋 O의 스프레드를 결정하는 것 중 적어도 하나를 위해 구성되는, 3차원 화상 데이터 처리 디바이스.
  4. 제 1 항에 있어서,
    상기 소스 오프셋 데이터는, 제 1 타겟 폭 Wt1에 대해, 제 1 뷰잉 거리에 대한 적어도 제 1 타겟 오프셋값 Ot11과 제 2 뷰잉 거리에 대한 적어도 제 2 타겟 오프셋값 Ot112를 포함하고,
    상기 프로세서(52)는 상기 제 1 타겟 폭 Wt1과 상기 타겟 폭 Wt의 대응성 및 실제 뷰잉 거리와 상기 제 1 또는 제 2 뷰잉 거리의 대응성에 종속하는 오프셋 O를 결정하도록 구성되는, 3차원 화상 데이터 처리 디바이스.
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 디바이스는 상기 3D 디스플레이에 대해 상기 뷰어의 공간 뷰잉 파라미터들을 규정하는 뷰어 메타데이터를 제공하기 위한 뷰어 메타데이터 수단(111, 191)을 포함하고,
    상기 공간 뷰잉 파라미터들은,
    타겟 눈 거리 Et;
    상기 3D 디스플레이에 대한 상기 뷰어의 타겟 뷰잉 거리 Dt, 중 적어도 하나를 포함하고,
    상기 프로세서는 상기 타겟 눈 거리 Et와 상기 타겟 뷰잉 거리 Dt 중 적어도 하나에 종속하는 오프셋을 결정하도록 구성되는, 3차원 화상 데이터 처리 디바이스.
  6. 제 1 항에 있어서,
    상기 프로세서(52)는 상기 3D 디스플레이에 대한 뷰어의 상기 타겟 뷰잉 거리 Dt에 대해 보상된 오프셋 Ocv를 결정하도록 구성되고,
    상기 소스 공간 뷰잉 구성은 Ocv=O/(1+Dt/Ds-Wt/Ws)에 기초하여 소스 뷰잉 거리 Ds를 갖는, 3차원 화상 데이터 처리 디바이스.
  7. 제 1 항에 있어서,
    상기 소스 3D 화상 데이터가 상기 소스 오프셋 데이터를 포함하고,
    상기 프로세서(52)는 상기 소스 3D 화상 데이터로부터 상기 소스 오프셋 데이터를 검색하도록 구성되는, 3차원 화상 데이터 처리 디바이스.
  8. 제 1 항에 있어서,
    상기 디바이스는 기록 캐리어(record carrier)로부터 소스 3D 화상 데이터를 검색하기 위한 입력 수단(51)을 포함하는, 3차원 화상 데이터 처리 디바이스.
  9. 제 1 항에 있어서,
    상기 디바이스는 3D 디스플레이 디바이스이고, 상기 3D 화상 데이터를 디스플레이하기 위한 3D 디스플레이(17)를 포함하는, 3차원 화상 데이터 처리 디바이스.
  10. 제 1 항에 있어서,
    상기 프로세서(52)는,
    변경으로 인해 상기 디스플레이를 초과하는 화상 데이터를 크로핑(cropping);
    디스플레이 영역을 확장하기 위해 상기 3D 디스플레이 신호의 좌측 및/또는 우측 경계에 화소들을 추가;
    상호 변경된 L 및 R 화상들을 스케일링하여 상기 디스플레이 영역 내에 맞춤;
    상기 변경으로 인해 상기 디스플레이 영역을 초과하는 화상 데이터를 크로핑하고 다른 화상 내의 대응 데이터를 블랭킹(blanking)하는 것, 중 적어도 하나를 상기 디스플레이 영역에 대해 의도된 상기 3D 디스플레이 신호에 적용함으로써 상기 상호 변경된 수평 위치들을 조정하도록 구성되는, 3차원 화상 데이터 처리 디바이스.
  11. 타겟 공간 뷰잉 구성에서의 뷰어를 위한 3D 디스플레이 상의 디스플레이를 위해 3차원[3D] 화상 데이터를 처리하는 방법으로서,
    상기 3D 화상 데이터는 렌더링된 화상들이 소스 폭을 갖는 소스 공간 뷰잉 구성에서 좌측 눈에 대해 렌더링되는 좌측 화상 L과 우측 눈에 대해 렌더링되는 우측 화상 R을 적어도 나타내는, 상기 방법에 있어서,
    상기 3D 화상 데이터를 처리하여, 상기 소스 공간 뷰잉 구성과 상기 타겟 공간 뷰잉 구성 사이의 차이들을 보상하기 위하여 화상들 L 및 R의 상호 수평 위치를 오프셋 O만큼 변경시킴으로써 상기 3D 디스플레이를 위한 3D 디스플레이 신호를 생성하는 단계,
    상기 타겟 공간 뷰잉 구성에서 디스플레이되는 상기 3D 데이터의 타겟 폭 Wt를 나타내는 타겟 폭 데이터를 포함하는 3D 디스플레이 메타데이터를 제공하는 단계,
    상기 소스 공간 뷰잉 구성에서 뷰어의 소스 눈 거리 Es 및 소스 폭 Ws에 기초하여 상기 3D 화상 데이터를 위해 제공된 L 화상과 R 화상 사이의 불일치를 나타내는 소스 오프셋 데이터를 검색하는 단계로서, 상기 소스 오프셋 데이터는 L 및 R 화상들의 상호 수평 위치를 변경시키기 위한 오프셋 파라미터를 포함하는, 상기 소스 오프셋 데이터를 검색하는 단계, 및
    상기 오프셋 파라미터에 종속하는 상기 오프셋 O를 결정하는 단계를 포함하는, 3차원 화상 데이터 처리 방법.
  12. 타겟 공간 뷰잉 구성에서의 뷰어를 위한 3D 디스플레이 상의 디스플레이를 위해 3차원[3D] 화상 데이터를 전송하기 위한 3D 화상 신호에 있어서,
    상기 3D 화상 데이터는 렌더링된 화상들이 소스 폭을 갖는 소스 공간 뷰잉 구성에서 좌측 눈에 대해 렌더링되는 좌측 화상 L과 우측 눈에 대해 렌더링되는 우측 화상 R을 적어도 나타내고,
    소스 오프셋 데이터(41)는 상기 소스 공간 뷰잉 구성에서 뷰어의 소스 눈 거리 Es 및 소스 폭 Ws에 기초하여 상기 3D 화상 데이터를 위해 제공된 L 화상과 R 화상 사이의 불일치를 나타내고, 상기 소스 오프셋 데이터는, 화상들 L 및 R의 상호 수평 위치를 오프셋 O만큼 변경시킴으로써 디스플레이되는 3D 데이터의 타겟 폭 Wt를 갖는 상기 타겟 공간 뷰잉 구성과 상기 소스 공간 뷰잉 구성 사이의 차이들을 보상하기 위해 상기 오프셋 O를 결정하기 위한 오프셋 파라미터를 포함하는, 3D 화상 신호.
  13. 제 12 항에 있어서,
    각각의 오프셋 파라미터에 종속하는 상기 오프셋 O를 결정하기 위해, 상기 오프셋 파라미터는:
    타겟 3D 디스플레이의 제 1 타겟 폭 Wt1에 대한 적어도 제 1 타겟 오프셋값 Ot1;
    Osd=Es/Ws에 기초한 소스 오프셋 거리 비율값 Osd;
    Osp=HPs*Es/Ws에 기초하여 화소들의 소스 수평 해상도 HPs를 갖는 상기 3D 화상 데이터에 대한 소스 오프셋 화소값 Osp;
    상기 소스 공간 뷰잉 구성에서 상기 디스플레이에 대한 뷰어의 기준 거리를 나타내는 소스 뷰잉 거리 데이터(42); 및
    좌측 화상 L의 위치 및 우측 화상 R의 위치에 대한 상기 오프셋 O의 스프레드를 나타내는 경계 오프셋 데이터 중 적어도 하나를 포함하는, 3D 화상 신호.
  14. 제 12 항에 있어서,
    상기 신호는 상기 3D 화상 데이터의 각 단편(fragment)들에 대한 소스 오프셋 데이터의 복수의 인스턴스(instance)들을 포함하고, 상기 단편들은 프레임들; 사진들의 그룹; 샷들; 플레이리스트들; 시간 구간들 중 하나인, 3D 화상 신호.
  15. 제 12 항 내지 제 14 항 중 어느 한 항에 따른 상기 3D 화상 신호를 나타내는 물리적으로 검출가능한 마크들을 포함하는, 기록 캐리어(record carrier).
  16. 프로그램이 프로세서로 하여금 제 11 항에 따른 방법을 수행하게 하는, 뷰어를 위해 3D 디스플레이 상에 디스플레이하기 위한 3차원[3D] 화상 데이터의 처리를 위한, 컴퓨터 프로그램 제품.
KR1020127009618A 2009-09-16 2010-09-08 3d 스크린 사이즈 보상 KR20120079101A (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
EP09170382.7 2009-09-16
EP09170382A EP2309764A1 (en) 2009-09-16 2009-09-16 3D screen size compensation
EP09171274.5 2009-09-24
EP09171274 2009-09-24
EP09173414 2009-10-19
EP09173414.5 2009-10-19
EP10150819 2010-01-15
EP10150819.0 2010-01-15

Publications (1)

Publication Number Publication Date
KR20120079101A true KR20120079101A (ko) 2012-07-11

Family

ID=42946630

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127009618A KR20120079101A (ko) 2009-09-16 2010-09-08 3d 스크린 사이즈 보상

Country Status (9)

Country Link
US (1) US20120206453A1 (ko)
EP (1) EP2478706A1 (ko)
JP (1) JP5698243B2 (ko)
KR (1) KR20120079101A (ko)
CN (1) CN102484738B (ko)
BR (1) BR112012005588A2 (ko)
RU (1) RU2559735C2 (ko)
TW (1) TWI542192B (ko)
WO (1) WO2011033423A1 (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120015165A (ko) * 2010-08-11 2012-02-21 엘지전자 주식회사 영상의 깊이감 조절 방법 및 이를 이용하는 이동 단말기
KR20120067879A (ko) * 2010-12-16 2012-06-26 한국전자통신연구원 삼차원 영상 표시 장치 및 그 표시 방법
JP2012205267A (ja) * 2011-03-28 2012-10-22 Sony Corp 表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システム
JP5242762B2 (ja) * 2011-11-30 2013-07-24 株式会社東芝 画像再生装置、画像再生方法及びデータ構造
WO2013108633A1 (ja) * 2012-01-18 2013-07-25 パナソニック株式会社 送信装置、映像表示装置、送信方法、映像処理方法、映像処理プログラム及び集積回路
KR20150008408A (ko) * 2012-04-13 2015-01-22 코닌클리케 필립스 엔.브이. 깊이 시그널링 데이터
EP2858363A4 (en) * 2012-06-05 2015-12-09 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING BROADCASTING SIGNALS FOR 3D BROADCASTING SERVICE
IN2015DN02130A (ko) * 2012-09-27 2015-08-14 Dolby Lab Licensing Corp
US9516271B2 (en) * 2012-10-31 2016-12-06 Microsoft Technology Licensing, Llc Auto-adjusting content size rendered on a display
PL2982107T3 (pl) * 2013-04-05 2018-06-29 Koninklijke Philips N.V. Ponowne nakierowywanie sygnału trójwymiarowego obrazu
KR101545511B1 (ko) * 2014-01-20 2015-08-19 삼성전자주식회사 의료 영상 재생 방법, 의료 영상 재생 장치, 및 컴퓨터 판독가능 기록매체
US10176553B2 (en) * 2015-06-26 2019-01-08 Sony Corporation Image processing system with three-dimensional viewing and method of operation thereof
CA3086592A1 (en) 2017-08-30 2019-03-07 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display
KR102377499B1 (ko) * 2018-02-08 2022-03-24 이노베이션스 마인드트릭 인크. 뷰어-조정식 입체 이미지 디스플레이
JP6837031B2 (ja) 2018-05-22 2021-03-03 Eizo株式会社 立体画像表示装置、立体画像表示方法及びプログラム
TWI820623B (zh) * 2022-03-04 2023-11-01 英特艾科技有限公司 全像訊息系統

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2097940C1 (ru) * 1995-04-18 1997-11-27 Акционерное общество закрытого типа "Ракурс-ЗД" Способ получения и воспроизведения объемного изображения и устройство для его реализации
RU2157056C2 (ru) * 1998-02-03 2000-09-27 Логутко Альберт Леонидович Способ объемного телевидения
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
US7417664B2 (en) 2003-03-20 2008-08-26 Seijiro Tomita Stereoscopic image picking up and display system based upon optical axes cross-point information
JP4490074B2 (ja) * 2003-04-17 2010-06-23 ソニー株式会社 立体視画像処理装置、立体視画像表示装置、立体視画像提供方法、および立体視画像処理システム
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
KR100667810B1 (ko) * 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
WO2007057497A1 (en) * 2005-11-17 2007-05-24 Nokia Corporation Method and devices for generating, transferring and processing three-dimensional image data
EP1994767B1 (en) * 2006-03-03 2011-02-23 Koninklijke Philips Electronics N.V. Autostereoscopic display device using controllable liquid crystal lens array for 3d/2d mode switching
KR101345303B1 (ko) * 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
US8224067B1 (en) * 2008-07-17 2012-07-17 Pixar Animation Studios Stereo image convergence characterization and adjustment
US8363090B1 (en) * 2008-07-17 2013-01-29 Pixar Animation Studios Combining stereo image layers for display
JP2010045584A (ja) * 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体
US8406619B2 (en) * 2009-03-23 2013-03-26 Vincent Pace & James Cameron Stereo camera with automatic control of interocular distance

Also Published As

Publication number Publication date
RU2559735C2 (ru) 2015-08-10
TW201125353A (en) 2011-07-16
US20120206453A1 (en) 2012-08-16
EP2478706A1 (en) 2012-07-25
WO2011033423A1 (en) 2011-03-24
CN102484738B (zh) 2015-08-12
TWI542192B (zh) 2016-07-11
JP2013504968A (ja) 2013-02-07
CN102484738A (zh) 2012-05-30
BR112012005588A2 (pt) 2019-09-24
RU2012114878A (ru) 2013-10-27
JP5698243B2 (ja) 2015-04-08

Similar Documents

Publication Publication Date Title
JP5698243B2 (ja) 3dスクリーン・サイズ補償
JP5647242B2 (ja) 3dビデオ及び補助データの結合
US9438879B2 (en) Combining 3D image and graphical data
KR101806531B1 (ko) 3d 비디오 및 2d 비디오 사이의 전환
RU2517402C2 (ru) Обработка 3d отображения субтитров
CA2747106C (en) Method and device for overlaying 3d graphics over 3d video
AU2010250871B2 (en) Entry points for 3D trickplay
RU2589870C2 (ru) Передача данных 3d-изображения
EP2282550A1 (en) Combining 3D video and auxiliary data
EP2309764A1 (en) 3D screen size compensation
US20110316848A1 (en) Controlling of display parameter settings
US20150062296A1 (en) Depth signaling data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application