KR20110114670A - 3d 이미지 데이터의 전송 - Google Patents

3d 이미지 데이터의 전송 Download PDF

Info

Publication number
KR20110114670A
KR20110114670A KR1020117019095A KR20117019095A KR20110114670A KR 20110114670 A KR20110114670 A KR 20110114670A KR 1020117019095 A KR1020117019095 A KR 1020117019095A KR 20117019095 A KR20117019095 A KR 20117019095A KR 20110114670 A KR20110114670 A KR 20110114670A
Authority
KR
South Korea
Prior art keywords
frame
display
frame type
video
image data
Prior art date
Application number
KR1020117019095A
Other languages
English (en)
Other versions
KR101630866B1 (ko
Inventor
필립 에스. 뉴턴
헤라르뒤스 베. 테. 판 데 헤이덴
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20110114670A publication Critical patent/KR20110114670A/ko
Application granted granted Critical
Publication of KR101630866B1 publication Critical patent/KR101630866B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Abstract

3차원(3D) 이미지를 전송하는 시스템이 기술된다. 3D 소스 디바이스(10)는 HDMI와 같은 고속 디지털 인터페이스를 통해 디스플레이(13)에 3D 디스플레이 신호(56)를 제공한다. 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 3D 이미지 데이터를 구성하는 프레임들을 갖고, 상기 포맷에서 프레임들은 적어도 2개의 다른 프레임 유형들을 포함한다. 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 부분적인 3D 데이터 구조를 나타낸다. 3D 소스 디바이스는 3D 디스플레이 신호에서 프레임 유형 동기화 표시자들을 포함한다. 디스플레이는 프레임 유형 동기화 표시자들 및 프레임 유형들을 검출하고, 프레임 유형 동기화 표시자들에 의존하여 부분적인 3D 데이터 구조들을 동기화하는 것에 기초하여 디스플레이 제어 신호들을 생성한다.

Description

3D 이미지 데이터의 전송{TRANSFERRING OF 3D IMAGE DATA}
본 발명은 3차원(3D) 이미지 데이터를 전송하는 방법에 관한 것으로서, 3D 소스 디바이스에서, 3D 디스플레이 신호를 생성하기 위해 소스 이미지 데이터를 처리하는 단계로서, 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 3D 이미지 데이터를 구성하는 프레임들을 포함하고, 상기의 포맷에서 프레임들은 적어도 2개의 다른 프레임 유형들을 포함하는, 상기 소스 이미지 데이터 처리 단계, 및 3D 디스플레이 신호를 출력하는 단계를 포함하고; 3D 디스플레이 디바이스에서, 3D 디스플레이에 대한 3D 이미지 데이터를 디스플레이하는 단계, 3D 디스플레이 신호를 수신하는 단계, 수신된 3D 디스플레이 신호에서 다른 프레임 유형들을 검출하는 단계, 및 다른 프레임 유형들에 기초하여 3D 디스플레이에 대한 3D 이미지 데이터를 렌더링하기 위한 디스플레이 제어 신호들을 생성하는 단계를 포함한다.
본 발명은 또한 상기에서 언급된 3D 소스 디바이스, 3D 디스플레이 신호 및 3D 디스플레이 디바이스에 관한 것이다.
본 발명은 3D 디스플레이 디바이스 상에서 디스플레이하기 위해 3차원 이미지 데이터, 예를 들면, 3D 비디오를 고속 디지털 인터페이스, 예를 들면, HDMI를 통해 전송하는 분야에 관한 것이다.
2D 비디오 데이터를 소싱하는 디바이스들은 예를 들면, 디지털 비디오 신호들을 제공하는 DVD 플레이어들 또는 셋톱 박스들과 같은 비디오 플레이어들로 알려진다. 소스 디바이스는 TV 셋 또는 모니터와 같은 디스플레이 디바이스에 연결된다. 이미지 데이터는 적합한 인터페이스, 바람직하게는 HDMI와 같은 고속 디지털 인터페이스를 통해 소스 디바이스로부터 전송된다. 현재 3차원(3D) 이미지 데이터를 소싱하는 3D의 개선된 디바이스들이 제안되고 있다. 유사하게, 3D 이미지 데이터를 디스플레이하는 디바이스들이 제안되고 있다. 소스 디바이스로부터 디스플레이 디바이스로 3D 비디오 신호들을 전송하기 위해 새로운 고 데이터 레이트 디지털 인터페이스 표준들이, 예를 들면, 현존하는 HDMI 표준과 호환할 수 있고 기초하여 개발되고 있다. 2D 디지털 이미지 신호들을 디스플레이 디바이스에 전송하는 것은 일반적으로 프레임 단위로 비디오 화소 데이터를 전송하는 것을 포함하고, 이러한 프레임들은 순차적으로 디스플레이될 것이다. 그와 같은 프레임들은 점진적인 비디오 신호의 비디오 프레임들(전체 프레임들) 또는 (잘 알려진 라인 인터레이싱에 기초하고, 하나의 프레임은 홀수 라인들을 제공하고, 다음 프레임은 순차적으로 디스플레이되도록 짝수 라인들을 제공하는) 인터레이싱된 비디오 신호의 비디오 프레임들을 나타낸다.
문서 US 4,979,033은 인터레이싱된 포맷을 갖는 전통적인 비디오 신호의 예를 기술한다. 전통적인 신호는 전통적인 텔레비전상에 홀수 및 짝수 프레임들의 라인들 및 프레임들을 디스플레이하는 수평 및 수직 동기화 신호들을 포함한다. 입체적인 비디오 시스템 및 방법은 입체적인 비디오의 동기화를 셔터 안경을 이용하는 디스플레이에 허용하는 것을 제안한다. 홀수 및 짝수 프레임들은 입체적인 비디오 신호의 각각의 좌 및 우 이미지들을 전송하도록 이용된다. 제안된 3D 디스플레이 디바이스는 좌 및 우 LCD 디스플레이 유닛들에 대한 디스플레이 신호들 생성하는 대신에 전통적인 홀수/짝수 프레임들을 검출하기 위해 전통적인 엔빌로프 검출기를 포함한다. 특히 수직 귀선 소거 기간 동안 발생하고 전통적인 인터레이싱된 아날로그 비디오 신호에서의 홀수 및 짝수 프레임들과는 다른 등화 펄스들은 좌측 및 우측 필드 각각을 식별하도록 카운트된다. 상기 시스템은 셔터 안경과 동조하도록 이러한 정보를 이용하고, 상기 셔터 안경은 스테레오 비디오와 동조하여 교대로 열리고 닫힌다.
문서 US 4,979,033은 2개의 3D 프레임 유형들(좌/우)이 전통적인 아날로그 비디오 신호에서 존재하는 수평선 동기화 펄스들에 기초하여 검출되는 디스플레이 디바이스의 예를 제공한다. 하지만, 특히 인터레이싱된 비디오 신호들에 대해 수평선 동기화 펄스들을 조작하기 위한 어떤 옵션들도 존재하지 않는다. 상기에서 언급된 현재 시스템들에서 발생하는 문제는 셔터 안경으로는 좌 및 우 비디오 프레임들의 완전한 동기화가 발생하지 않는 것이다. 이런 동기화는 상대적이다. 실제로 이것은 종종 좌우 이미지들이 바뀌어져 왼쪽 눈이 오른쪽 눈에 의도된 이미지들을 보거나 그 반대의 경우가 발생하는 것을 의미한다. 보통 3D CAD 디자이너와 같은 전문가들은 이러한 점을 빠르게 인식하여 소스 디바이스 일반적으로 PC에서 좌 및 우를 바꾸어 줌으로써 문제가 발생하지 않는다.
종래의 입체적인 3D 시스템의 평범한 이용자들이 좌 및 우 이미지들이 바뀌었을 때를 적절하게 인식하지 못하는 경우가 발견된다. 이것은 심각한 눈의 피로감 및 심지어 메스꺼움을 유발하는 것과 같은 커다란 문제를 발생시킬 수 있다. 그와 같은 시스템이 널리 이용된다면, 소비자들 사이에서 불만이 발생하여 기술의 정착이 어려워질 수 있다. 따라서, 알려진 3D 디스플레이 신호는 소비자용으로는 다양한 디지털 3D 이미지 신호들을 전달하는데 이용될 수 없다.
본 발명의 목적은 3D 비디오 신호들을 디스플레이 장치에 전송하기 위한 더욱 유연하고 신뢰할 수 있는 시스템을 제공하는 것이다.
이러한 목적을 위해, 본 발명의 제 1 양태에 따라, 서두부에 기술된 방법에서, 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 각 프레임 유형은 부분적인 3D 데이터 구조를 나타내고, 상기 방법은 3D 소스 디바이스에서, 3D 디스플레이 신호에 적어도 하나의 프레임 유형 동기화 표시자를 포함하는 단계를 포함하고, 상기 검출하는 단계는 3D 디스플레이 신호로부터 프레임 유형 동기화 표시자를 검색하는 단계를 포함하고, 상기 생성하는 단계는 프레임 유형 동기화 표시자에 의존하여 부분적인 3D 데이터 구조들을 동기화하는 것에 기초한다.
이러한 목적을 위해, 본 발명의 제 2 양태에 따라, 서두부에 기술된 것처럼, 3D 이미지 데이터를 3D 디스플레이 디바이스에 전송하기 위한 3D 소스 디바이스는 3D 디스플레이 신호를 생성하기 위해 소스 이미지 데이터를 처리하기 위한 생성 수단으로서, 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 상기 3D 이미지 데이터를 구성하는 프레임들을 포함하고, 상기의 포맷에서 프레임들은 적어도 2개의 다른 프레임 유형들을 포함하는, 상기 생성 수단, 및 3D 디스플레이 신호를 출력하기 위한 출력 인터페이스 수단을 포함하고, 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 각 프레임 유형은 부분적인 3D 데이터 구조를 나타내고, 상기 디바이스는 프레임 유형 동기화 표시자에 의존하여 부분적인 3D 데이터 구조들을 동기화하는 것에 기초하여 디스플레이 디바이스에서 디스플레이 제어 신호들을 생성하기 위한 3D 디스플레이 신호에 적어도 하나의 프레임 유형 동기화 표시자를 포함하는 전송 동기화 수단을 포함한다.
이러한 목적을 위해, 본 발명의 다른 양태에 따라, 서두부에 기술된 것과 같은 3D 디스플레이 디바이스는 3D 이미지 데이터를 디스플레이하기 위한 3D 디스플레이, 3D 디스플레이 신호를 수신하기 위한 입력 인터페이스 수단으로서, 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 3D 이미지 데이터를 구성하는 프레임들을 포함하고, 상기의 포맷에서 프레임들은 적어도 2개의 다른 프레임 유형들을 포함하는, 상기 입력 인터페이스 수단, 수신된 3D 디스플레이 신호에서 다른 프레임 유형들을 검출하기 위한 검출 수단, 및 다른 프레임 유형들에 기초하여 3D 디스플레이에 대한 3D 이미지 데이터를 렌더링하기 위한 디스플레이 제어 신호들을 생성하기 위한 처리 수단을 포함하고, 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 각 프레임 유형은 부분적인 3D 데이터 구조를 나타내고, 검출 수단은 3D 디스플레이 신호로부터 프레임 유형 동기화 표시자를 검색하도록 배치되고, 처리 수단은 프레임 유형 동기화 표시자에 의존하여 부분적인 3D 데이터 구조들을 동기화하는 것에 기초하여 디스플레이 제어 신호들을 생성하도록 배치된다.
이러한 목적을 위해, 본 발명의 다른 양태에 따라, 서두부에 기술된 것처럼, 3D 이미지 데이터를 3D 디스플레이 디바이스에 전송하기 위한 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 3D 이미지 데이터를 구성하는 프레임들을 포함하고, 상기의 포맷에서 프레임들은 적어도 2개의 다른 프레임 유형들을 포함하고, 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 각 프레임 유형은 부분적인 3D 데이터 구조를 나타내고, 3D 디스플레이 신호는 프레임 유형 동기화 표시자에 의존하여 부분적인 3D 데이터 구조들을 동기화하는 것에 기초하여 디스플레이 제어 신호들을 생성하는 적어도 하나의 프레임 유형 동기화 표시자를 포함한다.
상기 수단들은 3D 디스플레이 신호가 프레임들의 시퀀스로서 구성되는 반면에, 개별 프레임들은 프레임 유형 동기화 표시자에 의해 지시된 것처럼 다른 유형들을 가진다. 유리하게, 디스플레이 신호는 2D 디스플레이 신호의 기본적인 구조를 유지하는 한편 동시에 프레임 유형 동기화 표시자에 의해 지시된 것처럼 프레임 기능 및 타이밍에 기초하여 디스플레이 제어 신호들을 생성하도록 수신하는 3D 디스플레이 디바이스에 결합된 각각의 구현하는 부분적인 3D 데이터 구조들에 다른 프레임 유형들의 범위를 전송하는 것을 허용한다. 프레임 유형 동기화 표시자는 상대적인 동기화를 실행하는 것이 아닌 절대적인 동기화를 달성하도록 한다. 이것은 좌 및 우 이미지들이 바뀌는 것에 대해 이용자들이 결정하는 것을 방지한다.
본 발명은 또한 다음과 같은 인식에 기초한다. 모든 레거시 아날로그 및 디지털 디스플레이 인터페이스 신호들은 내재적으로, 상기에서 기술된 프레임 시퀀스들 및 수평선 동기화 펄스들과 같은 디스플레이 제어 신호들을 직접 생성하도록 설계된다. 따라서 신호 자체는 디스플레이 제어 신호들의 타이밍 및 생성을 나타내는 반면에, 이어지는 각 프레임의 기능은 신호에서 그것의 위치에 포함된다. 전통적인 디스플레이 유닛은 이미지 데이터를 처리하지 않고 디스플레이 인터페이스 신호를 엄격하게 따른다. 본 발명자들은 3D 디스플레이 신호들에 대해 디스플레이 신호 자체에 최종 3D 디스플레이 제어 신호들을 구성할 필요를 갖는 것을 보여주고 있고, 이는 3D 이미지 데이터의 구성요소들이 결합되면, 여러 디스플레이 유형 신호들, 및 시청자 상태들 및 설정들이 인터페이스 신호에서 미리 규정된 고정된 방식으로 소스 디바이스에 의해 최적으로 달성될 수 없기 때문이다. 따라서, 새로운 3D 디스플레이 신호에서 여러 구성요소들은 다른 프레임 유형들의 프레임들에서 개별적으로 전송된다. 수반하여, 본 발명자들은 다른 프레임 유형들의 3D 데이터 구조들을 전송할 때, 디스플레이 디바이스에서 발생하는, 다른 프레임 유형들을 검출하는 과정 및 부분적인 데이터 구조들을 결합하는 과정이 또한 전송기 소스 디바이스에 의해 제어되는 것을 보여주고 있다. 그것에 본 발명자들은 지금 3D 디스플레이 신호에 포함된 프레임 유형 동기화 표시자를 제공한다.
시스템의 일 실시예에서, 3D 비디오 전송 포맷에서 다른 프레임 유형들은 좌측 프레임 유형; 우측 프레임 유형; 2차원[2D] 프레임 유형; 깊이(depth) 프레임 유형; 투명도 프레임 유형; 폐색(occlusion) 프레임 유형; 프레임 유형들의 서브-프레임들의 조합을 나타내는 조합 프레임 유형 중 적어도 하나를 포함하고, 프레임 유형 동기화 표시자는, 3D 제어 신호들을 생성하기 위한 3D 비디오 전송 포맷으로 각각의 프레임 유형들로부터 상기 부분적인 3D 데이터 구조들의 각각을 시간 내에 동기화하기 위해 프레임 유형들에 대응하는 프레임 유형 표시자를 포함한다. 상기에서 언급된 2D 프레임 유형은 중앙 프레임 유형일 수 있고, 좌 및 우 프레임 유형들은 또한 예를 들면, 깊이 프레임 또는 폐색 프레임 유형과 조합하여 이용될 수 있는 2D 프레임 유형들일 수 있고, 상기 프레임 유형들의 많은 다른 조합들은 3D 이미지 데이터를 전송하기 위해 효과적으로 이용될 수 있는 것이 알려진다. 효과는, 입체적인 이미지들에 대한 좌 및 우 프레임 유형들의 기본적인 조합으로부터 좌, 우, 깊이, 폐색 및 투명도 프레임들을 갖는 복잡한 3D 포맷들까지의 범위를 갖는 다양한 3D 비디오 포맷들은 개별의 프레임 유형 동기화 표시자들을 통해 동기화된다.
시스템의 일 실시예에서, 3D 비디오 전송 포맷은 각각의 프레임 유형들을 통해 전송된 주된 비디오 및 적어도 하나의 부가된 비디오 층을 포함하고, 상기 프레임 유형 동기화 표시자는 주된 프레임 유형 표시자 및 부가된 층 프레임 유형 표시자 중 적어도 하나를 포함한다. 효과는 각각의 층들이 디스플레이 디바이스에서 편리한 방식으로 결합될 수 있는 반면에, 결합된 이미지는 또한 프레임 유형 동기화 표시자로 인해 층들 사이에 정확한 타이밍 관계를 유지한다. 유리하게도, 부가적인 층은 소스 디바이스에서 생성된 온 스크린 디스플레이(OSD) 또는 메뉴와 같은 그래픽 정보 또는 서브타이틀일 수 있고, 소스 디바이스는 디스플레이 디바이스의 능력들에 따라 주된 비디오 정보와 결합될 수 있다.
시스템의 일 실시예에서, 프레임 유형 동기화 표시자는 3D 디스플레이 신호의 다음 섹션에 상기 3D 비디오 전송 포맷을 나타내는 3D 비디오 포맷 표시자를 포함한다. 유리하게도 그와 같은 3D 포맷 표시자는 디스플레이 디바이스에서 즉시 이어지는 소스 디바이스에서 점프들 또는 모드 변경들과 같은 비디오 스트림의 갑작스러운 변경들을 허용한다.
시스템의 일 실시예에서, 프레임 유형 동기화 표시자는 적어도 하나의 프레임 유형의 주파수 및/또는 상기 다른 프레임 유형들의 순서를 나타내는 프레임 시퀀스 표시자를 포함한다. 효과는 다른 프레임 유형들은 다른 프레임 주파수들에서 및/또는 미리 규정된 순서로 멀티플레싱되고, 각각의 순서 또는 시퀀스는 디스플레이 디바이스에서 검출가능하다. 디스플레이 디바이스는 전송될 프레임들의 시퀀스를 알것이고, 따라서 자원들을 처리하는 것을 조정할 수 있다.
본 발명에 따른 방법, 3D 디바이스 및 신호의 다른 바람직한 실시예들이 첨부된 청구항들에 주어지고, 그것들의 개시는 참조에 의해 여기에서 통합된다.
본 발명의 여러 실시예들은 하기의 기술에서 예들에 의해 기술된 예들 및 수반하는 도면들을 참조하여 설명되고 나타날 것이다.
도 1은 3D 이미지 데이터를 전송하기 위한 시스템을 도시한 도면.
도 2는 3D 이미지의 예를 도시한 도면.
도 3은 재생 디바이스 및 디스플레이 디바이스 조합을 도시한 도면.
도 4는 프레임 유형 동기화 표시자로 확장된 AVI-인포 프레임의 표를 도시한 도면.
도 5는 3D 비디오 포맷들의 표를 도시한 도면.
도 6은 프레임 동기화 신호를 도시한 도면.
도 7은 부가적인 비디오 층들에 대한 값들을 도시한 도면.
도면들에서 이미 기술된 요소들에 대응하는 요소들은 동일한 참조 번호들을 갖는다.
도 1은 비디오, 그래픽들 또는 다른 시각 정보와 같은 3차원(3D) 이미지 데이터를 전송하기 위한 시스템을 도시한다. 3D 소스 디바이스(10)는 3D 디스플레이 신호(56)를 전송하는 3D 디스플레이 디바이스(13)에 연결된다. 3D 소스 디바이스는 이미지 정보를 수신하는 입력 유닛(51)을 갖는다. 예를 들면, 입력 유닛 디바이스는 DVD 또는 블루레이 디스크와 같은 광학적 기록 운반자(54)로부터 여러 유형의 이미지 정보들을 검색하는 광학적 디스크 유닛(58)을 포함할 수 있다. 대안으로, 입력 유닛은 일반적으로 셋-탑 박스로 불리는 그와 같은 디바이스를 네트워크(55), 예를 들면, 인터넷 또는 브로드캐스트 네트워크에 연결하는 네트워크 인터페이스 유닛(59)을 포함할 수 있다. 이미지 데이터는 원격 매체 서버(57)로부터 검색될 수 있다. 소스 디바이스는 또한 위성 수신기, 또는 디스플레이 신호들을 직접 제공하는 매체 서버, 즉, 디스플레이 유닛에 직접 연결될 3D 디스플레이 신호를 출력하는 어떤 적합한 디바이스일 수 있다.
3D 소스 디바이스는 디스플레이 디바이스에 출력 인터페이스 유닛(12)을 통해 전송될 3D 디스플레이 신호(56)를 생성하기 위해 이미지 정보를 처리하는 입력 유닛(51)에 연결된 처리 유닛(52)을 갖는다. 처리 유닛(52)은 디스플레이 디바이스(13)에서 디스플레이하기 위한 3D 디스플레이 신호(56)에 포함된 이미지 데이터를 생성하도록 배치된다. 소스 디바이스는 명암 또는 색 파라미터와 같은 이미지 데이터의 디스플레이 파라미터들을 제어하는 이용자 제어 요소들(15)을 갖는다. 그와 같은 이용자 제어 요소들은 잘 알려져 있고, 재생 및 기록 기능들과 같은 3D 소스 디바이스의 여러 기능들을 제어하도록 여러 버튼들 및/또는 커서 제어 기능들을 갖고, 예를 들면, 그래픽 이용자 인터페이스 및/또는 메뉴들을 통해 상기 디스플레이 파라미터들을 설정하는 원격 제어 유닛을 포함할 수 있다.
소스 디바이스는 3D 디스플레이 신호에서 적어도 하나의 프레임 유형 동기화 표시자를 제공하는 동기화 유닛(11)을 갖고, 이 표시자는 출력 인터페이스 유닛(12)의 3D 디스플레이 신호에 포함되고, 출력 인터페이스 유닛(12)은 또한 3D 디스플레이 신호(56)로서 소스 디바이스로부터 디스플레이 디바이스로 프레임 유형 동기화 표시자들 및 이미지 데이터를 갖는 3D 디스플레이 신호를 전송하도록 배치된다. 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 3D 이미지 데이터를 구성하는 프레임들의 시퀀스를 포함하고, 이러한 포맷에서 상기 프레임들은 적어도 2개의 다른 프레임 유형들을 포함한다. 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 디지털 이미지 화소 데이터의 시퀀스는 일반적으로 미리결정된 해상도에 따라 다수의 화소들의 수평선들의 시퀀스로서 배치된다. 각 프레임 유형은 부분적인 3D 데이터 구조를 나타낸다. 예를 들면, 3D 비디오 전송 포맷의 프레임 유형들에서 3D 부분의 데이터 구조들은 좌 및 우 이미지들, 또는 2D 이미지 및 부가적인 깊이(depth), 및/또는 아래에서 논의되는 것 같은 폐색(occlusion) 또는 투명성 정보와 같은 3D 데이터가 될 수 있다. 프레임 유형은 또한 상기의 프레임 유형들의 서브 프레임들, 예를 들면, 단일 풀 해상도 프레임에 위치된 저 해상도를 갖는 4개의 서브 프레임들의 조합을 나타내는 조합 프레임 유형이 될 수 있음을 알 수 있다. 또한, 다수의 다-시점 이미지들은 동시에 디스플레이될 프레임들의 비디오 스트림으로 인코딩될 수 있다.
3D 디스플레이 디바이스(13)는 3D 이미지 데이터를 디스플레이하는 것이다. 상기 디바이스는 소스 디바이스(10)로부터 전송된 프레임 유형 동기화 표시자들 및 프레임들에 3D 이미지 데이터를 포함하는 3D 디스플레이 신호(56)를 수신하기 위한 입력 인터페이스 유닛(14)을 갖는다. 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 각 프레임 유형은 부분적인 3D 데이터 구조를 나타낸다. 디스플레이 디바이스는 명암, 색 또는 깊이 파라미터들과 같은 디스플레이의 디스플레이 파라미터들을 설정하는 다른 이용자 제어 요소들(16)이 설치된다. 전송된 이미지 데이터는 이용자 제어 요소들로부터의 명령들을 설정하고, 다른 프레임 유형들에 기초하여 3D 디스프레이 상에 3D 이미지 데이터를 렌더링하는 디스플레이 제어 신호들을 생성하는 것에 따라 처리 유닛(18)에서 처리된다. 디바이스는 처리된 이미지 데이터를 디스플레이하기 위한 디스플레이 제어 신호들을 수신하는 3D 디스플레이(17), 예를 들면, 듀얼 LCD를 갖는다. 디스플레이 디바이스(13)는 화살표(44)에 의해 지시되는 디스플레이 깊이 범위를 갖는 3D 디스플레이라고도 불리는 입체적인 디스플레이이다. 3D 이미지 데이터의 디스플레이는 개별의 부분적인 3D 이미지 데이터 구조를 각각 제공하는 다른 프레임들에 의존하여 실행된다.
디스플레이 디바이스는 또한 3D 디스플레이 신호로부터 프레임 유형 동기화 표시자를 검색하고 수신된 3D 디스플레이 신호에서 다른 프레임 유형들을 검출하는 처리 유닛(18)에 연결된 검출 유닛(19)을 포함한다. 처리 유닛(18)은 개별 3D 비디오 포맷의 부분적인 3D 데이터 구조들에 의해 규정된 이미지 데이터의 여러 유형, 예를 들면, 2D 이미지 및 깊이 프레임에 기초하여 디스플레이 제어 신호들을 생성하도록 배치된다. 개별의 프레임들은 개별 프레임 유형 동기화 표시자들에 의해 지시된 시간에 인식되고 동기화된다.
프레임 유형 동기화 표시자들은 동시에 디스플레이되도록 결합되어져야 하는 프레임들의 일부들을 검출하도록 하고, 또한 개별의 부분적인 3D 데이터가 검색되고 처리될 수 있도록 프레임 유형을 나타낸다. 3D 디스플레이 신호는 잘 알려진 HDMI 인터페이스(예를 들면, 2006년 11월 10일자 "고선명 멀티미디어 인터페이스 사양 버전 1.3a)와 같은 적합한 고속 디지털 비디오 인터페이스를 통해 전송될 수 있다.
도 l은 또한 3D 이미지 데이터의 캐리어로서 기록 캐리어(54)를 또한 도시한다. 기록 캐리어는 디스크 유형이고 트랙을 갖고 중앙에 구멍이 있다. 일련의 물리적인 검출가능한 마스크들에 의해 구성되는 트랙은 정보 층 상에 주로 평행한 트랙들을 구성하는 나선형 또는 동심원형의 패턴의 턴들에 따라 배치된다. 기록 캐리어는 광학 디스크, 예를 들면, CD, DVD 또는 BD(블루-레이 디스크)라 불리고, 광학적으로 기록가능하다. 정보는 트랙, 예를 들면, 파인 부분들 및 평평한 부분들에 따라 광학적으로 검출가능한 마크들에 의해 정보 층에 표시된다. 트랙 구조는 일반적으로 정보 블록들로 불리는 정보의 유닛들의 위치를 나타내기 위해 위한 위치 정보, 예를 들면, 헤더들 및 어드레스들을 또한 포함한다. 기록 캐리어(54)는 DVD 또는 BD 포맷과 같은 미리 규정된 기록 포맷으로, 예를 들면, MPEG 2 또는 MPEG 4 인코딩 시스템에 따라 인코딩된 비디오 같은 디지털적으로 인코딩된 이미지 데이터를 나타내는 정보를 운송한다.
플레이어는 여러 포맷들을 플레이하는 것을 지원할 수 있지만, 비디오 포맷들을 트랜스코드할 수 없고, 디스플레이 디바이스는 비디오 포맷들의 제한된 세트를 플레이할 수 있는 것으로 알려진다. 이것은 플레이될 수 있는 통상의 디바이더가 존재한다는 것을 의미한다. 디스크 또는 콘텐트에 의존하여 포맷은 시스템의 재생/동작 동안 변경될 수 있음을 알 수 있다. 포맷의 실시간 동기화가 발생될 필요가 있고, 포맷들의 실시간 스위칭은 프레임 유형 동기화 표시자에 의해 제공된다.
다음의 섹션은 3차원 디스플레이들의 개관 및 사람들에 의한 깊이의 인식을 제공한다. 3D 디스플레이는 깊이의 더욱 생생한 인식을 제공할 수 있다는 점에서 2D 디스플레이들과는 다르다. 이러한 것은 단안용 깊이 큐들 및 움직임에 기초한 큐들만을 보여줄 수 있는 2D 디스플레이들에 더 많은 깊이 큐들을 제공할 수 있기에 달성된다.
단안용 (또는 정적인) 깊이 큐들은 하나의 눈을 이용하여 정적인 이미지로부터 얻어질 수 있다. 화가들은 종종 그들의 그림에서 깊이의 인식을 생성하기 위해 단안용 큐들을 이용한다. 이러한 큐들은 상대적인 크기, 수평선에 대한 높이, 폐색, 원근감, 결 구배 및 명/암을 포함한다. 움직이는 눈의 큐들은 관찰자들의 눈들의 근육들의 긴장으로부터 도출된 깊이 큐들이다. 상기의 눈들은 눈의 수정체들 당김과 함께 눈들의 회전을 위한 근육들도 갖는다. 수정체들의 당김 및 이완은 조절로 불리고 이미지에 집중할 때 일어난다. 수정체 근육들의 당김 및 이완의 양은 물체가 얼마나 먼지 또는 가까운지에 대한 큐를 제공한다. 눈들의 회전은 수렴이라 불리는 두 눈이 동일한 물체에 집중하는 것에서 발생한다. 마지막으로, 움직임 시차는 관찰자들에 가까운 물체가 멀리있는 물체보다 더 빠르게 움직이는 것처럼 보이는 효과다.
양안 부등은 두 눈이 경미하게 다른 이미지를 보는 사실로부터 도출되는 깊이 큐이다. 단안용 깊이 큐들은 임의의 2D 시각 디스플레이 유형에서 이용되거나 이용될 수 있다. 디스플레이에서 부등 시차를 재생성하기 위해서는 디스플레이가 왼쪽 및 오른쪽 눈에 대한 시각을 분할할 수 있어 각 눈이 디스플레이 상의 경미하게 다른 이미지를 보는 것이 요구된다. 부등 시차를 재생성할 수 있는 디스플레이들은 3D 또는 입체적인 디스플레이들이라 부르는 특별한 디스플레이들이다. 3D 디스플레이들은 이 문서에서 디스플레이 깊이 범위를 갖는 3D 디스플레이라 불리는 사람들의 눈들에 의해 동적으로 인식되는 깊이 차원에 따라 이미지들을 디스플레이할 수 있다. 따라서 3D 디스플레이는 왼쪽 및 오르쪽 눈에 다른 시각을 제공한다.
2개의 다른 시점들을 제공할 수 있는 3D 디스플레이들은 오래동안 주위에 있어왔다. 이러한 것들의 대부분은 왼쪽 및 오른쪽 눈의 시각들을 분리하기 위해 안경을 이용하는 것에 기초한다. 근래 디스플레이 기술의 발전에 따라, 새로운 디스플레이들이 안경의 이용없이 입체적인 시각을 제공할 수 있는 시장에 진입하고 있다. 이러한 디스플레이들은 자동-입체 디스플레이라 불린다.
첫 번째 접근은 이용자가 안경없이 입체의 비디오를 시청하도록 하는 LCD 디스플레이들에 기초한다. 이러한 것들은 2개의 기술인, 렌티큘러 스크린 및 격벽 디스플레이들 중 하나에 기초한다. 렌티큘러 디스플레이를 갖는, LCD는 한 장의 렌티큘러 렌즈들에 의해 커버된다. 이러한 렌즈들은 왼쪽 및 오른쪽 눈이 다른 화소들로부터 빛을 수신하도록 디스플레이로부터 빛을 회절한다. 이러한 것은 2개의 다른 이미지들을 왼쪽 눈에 대한 시각에 대한 하나 및 오른쪽 눈에 대한 시각에 대한 하나에 디스플레이되도록 허용한다.
렌티큘러 스크린의 대안은 격벽 디스플레이들로서, LCD에서 화소들로부터 빛을 분리하기 위해 LCD 뒤 및 백라이트 앞에 시차 격벽을 이용한다. 격벽은 스크린 앞의 설정 위치로부터, 왼쪽 눈들이 오른쪽 눈과 다른 화소들을 보기 위한 것이다. 격벽은 또한 LCD 및 시청자 사이에 존재할 수 있어 디스플레이의 행의 화소들은 외쪽 및 오른쪽 눈에 의해 교대로 볼 수 있다. 격벽 디스플레이가 갖는 문제점은 밝기 및 해상도에서 손실을 갖고 또한 매우 좁은 시야각을 갖는다. 이러한 것들이 예를 들면, 9개의 시각들 및 여러 개의 시청 지역들을 갖는 렌티큘러 스크린과 비교하여 거실 TV로서는 덜 매력적이다.
다른 접근은 높은 재생률(예를 들면, 120Hz)로 프레임들을 디스플레이할 수 있는 고-해상도 빔 발사기와 결합하여 셔터 안경을 이용하는 것에 여전히 기초한다. 셔터 안경 방법에서는 외쪽 및 오른쪽 눈의 시점이 번갈아 디스플레이되기 때문에, 높은 재생률이 요구된다. 안경을 쓰는 시청자는 60Hz에서 스테레오 비디오를 인식한다. 셔터-안경 방법은 고품질의 비디오 및 상당한 수준의 깊이를 가능하게 한다.
자동 입체 디스플레이들 및 셔터 안경 법은 모두 조절-수렴의 불일치로부터 어려움을 갖는다. 이것은 이러한 디바이스들을 이용하여 편안하게 시청될 수 있는 시간 및 깊이의 양을 제한한다. 이와 같은 어려움을 갖지 않는 홀로그래픽 및 체적형 디스플레이들과 같은 다른 디스플레이 기술들이 존재한다. 현재의 발명은 깊이 범위를 갖는 3D 디스플레이의 어떤 유형에 대해 이용될 수 있는 것으로 알려진다.
3D 디스플레이들에 대한 이미지 데이터는 전자, 일반적으로 디지털 데이터로서 이용가능하도록 추정된다. 현재 발명은 그와 같은 이미지 데이터에 관련되고 디지털 영역에서 이미지 데이터를 조작한다. 소스로부터 전송될 때 이미지 데이터는 예를 들면, 듀얼 카메라들을 이용함으로써 3D 정보를 이미 포함할 수 있거나, 전용 처리 시스템은 2D 이미지들로부터 3D 정보를 (재)생성하는 것을 포함할 수 있다. 이미지 데이터는 슬라이들처럼 정적일 수 있거나, 영화들처럼 움직이는 비디오를 포함할 수 있다. 일반적으로 그래픽 데이터라 불리는 다른 이미지 데이터는 저장된 객체들로 이용가능할 수 있거나 애플리케이션에 의해 요구된 온 더 플라이에서 생성될 수 있다. 예를 들면, 메뉴들, 내비게이션 아이템들 또는 텍스트 및 도움 주석들과 같은 이용자 제어 정보가 다른 이미지 데이터에 부가될 수 있다.
스테레오 이미지들이 포맷될 수 있는, 3D 이미지 포맷으로 불리는 많은 다른 방법들이 존재한다. 일부 포맷들은 입체적인 정보를 또한 전달하기 위해 2D 채널을 이용하는 것을 기초로 한다. 예를 들면, 왼쪽 및 오른쪽 시점은 인터레이싱되거나 나란히 그리고, 위 아래로 배치될 수 있다. 이러한 방법들은 입체적인 정보를 전달하기 위해 해상도를 희생한다. 다른 선택은 색상을 희생하는 것으로, 이러한 접근은 여색 입체(anaglyphic stereo)로 불린다. 여색 입체는 보색들에서 2개의 분리되고 덮여진 이미지들을 디스플레이하는 것에 기초한다. 컬러 필터들을 갖는 안경을 이용함으로써, 각각의 눈은 눈 앞에 있는 필터를 통해 동일의 색깔의 이미지만을 본다. 따라서, 예를 들면, 오른쪽 눈은 붉은색 이미지만을 보고, 왼쪽 눈은 녹색 이미지만을 보게된다.
다른 3D 포맷은 2D 이미지 및 깊이 맵이라 불리는 2D 이미지에서 물체들의 깊이에 관한 정보를 전달하는 부가적인 깊이 이미지를 이용하는 2개의 시점들에 기초한다. 이미지+깊이이라 불리는 포맷은 소위 "깊이"를 갖는 2D 이미지의 조합 또는 이격 맵(disparity map)인 것과는 다르다. 이것은 그레이 스케일 이미지로서, 화소의 그레이 스케일 값은 관련된 2D 이미지에서 대응하는 화소에 대한 이격(깊이 맵의 경우에선 깊이)의 양을 가리킨다. 디스플레이 디바이스는 입력으로서 2D 이미지를 갖는 부가적인 시점들을 계산하기 위해 이격, 깊이 또는 시차 맵을 이용한다. 이것은 화소들과 연관된 이격 값에 의존하여 화소들을 왼쪽 또는 오른쪽으로 이동시키는 것에 관한 문제로서 여러가지 방식들로, 가장 간단한 형식으로 행해질 수 있다. 크리스토프 펜에 의해 작성된 "3D TV로의 새로운 접근에 대한 렌더링, 압축 및 전송에 기초한 깊이 이미지"이란 제목의 논문은 이러한 기술의 뛰어난 개관을 제공한다(http://iphome.hhi.de/fehn/Publications/fehn_EI2004.pdf)를 참조).
도 2는 3D 이미지의 예를 도시한다. 이미지 데이터의 왼쪽 부분은 일반적인 색상의 2D 이미지(21)이고, 이미지 데이터의 오른쪽 부분은 깊이 맵(22)이다. 2D 이미지 정보는 가장 적합한 이미지 포맷으로 표현될 수 있다. 깊이 맵 정보는 2D 이미지와 비교하여 가능한 감소된 해상도로 각 화소에 대해 깊이 값을 갖는 부가적인 데이터 스트림일 수 있다. 깊이 맵에서 그레이 스케일 값들은 2D 이미지에서 결합된 화소의 깊이를 가리킨다. 백색은 시청자와 가까운 것을 가리키고, 흑색은 시청자로부터 먼 큰 깊이를 가리킨다. 3D 디스플레이는 깊이 맵으로부터 깊이 값을 이용하고 필요한 화소 변형들을 계산함으로써 입체에 대해 요구된 부가적인 시점을 계산할 수 있다. 폐색들은 추정 또는 홀 매우기 기술들을 이용하여 해소될 수 있다. 부가적인 프레임들은 예를 들면, 폐색 맵, 시차 맵 및/또는 배경 앞에서 움직이는 투명한 물체에 대한 투명 맵과 같은 깊이 맵 포맷 및 이미지에 더 부가된 데이터 스트림에 포함될 수 있다.
입체감을 비디오에 부가하는 것은 블루레이 디스크와 같은 플레이어 디바이스로부터 입체 디스플레이에 전송될 때 비디오의 포맷에 영향을 준다. 2D 경우에서는 2D 비디오 스트림만이 (디코딩된 픽쳐 데이터로) 전송된다. 입체적인 비디오를 갖고, 비디오 스트림이 (입체감을 위한) 제 2 시점 또는 깊이 맵을 포함하여 전송되어져야 하기에 이러한 영향은 증가한다. 이러한 영향은 전기적인 인터페이스상에서 요구된 비트레이트를 두배로 증가시킬 수 있다. 다른 접근은 제 2 시점 또는 깊이 맵이 인터레이싱되거나 2D 비디오와 나란히 배치되도록 스트림을 포맷하거나 해상도를 희생시킬 수 있다.
도 2는 2D 데이터 및 깊이 맵의 예를 도시한다. 디스플레이에 전송되는 깊이 디스플레이 파라미터들은 디스플레이가 깊이 정보를 정확하게 해석하도록 한다. 비디오에서 부가적인 정보를 포함하는 예들은 ISO 표준 23002-3 "보조의 비디오 및 추가 정보의 표현"에서 기술된다(예를 들면, 2007년 7월의 ISO/IEC JTC1/SC29/WG11 N8259를 참조). 보조의 스트림의 유형에 따라 부가적인 이미지 데이터는 4 또는 2개의 파라미터들 중 하나로 구성된다. 프레임 유형 동기화 표시자는 3D 디스플레이 신호의 다음 섹션에서 개별의 3D 비디오 전송 포맷을 나타내는 3D 비디오 포맷 표시자를 포함할 수 있다. 이것은 3D 비디오 전송 포맷을 나타내거나 변경 또는 전송 시퀀스를 재설정, 또는 다른 동기화 파라미터를 설정 또는 재설정하도록 허용한다.
실시예에서 프레임 유형 동기화 표시자는 적어도 하나의 프레임 유형의 주파수를 나타내는 프레임 시퀀스 표시자를 포함한다. 일부 프레임 유형들은 감지된 3D 이미지, 예를 들면, 폐색 데이터의 실질적인 열화 없는 더 낮은 주파수의 전송을 허용한다. 더욱이, 다른 프레임 유형들의 순서는 반복될 다른 프레임 유형들의 시퀀스로서 표시될 수 있다.
실시예에서 프레임 유형 동기화 표시자는 프레임 시퀀스 넘버를 포함한다. 개별의 프레임들은 또한 프레임 시퀀스 넘버를 제공받을 수 있다. 시퀀스 넘버는 정기적으로 증분되는데 예를 들면, 단일 3D 이미지를 구성하는 모든 프레임들은 전달되고 이어지는 프레임들은 다음 3D 이미지에 소속된다. 따라서, 시퀀스 넘버는 매 동기화 사이클에 대해 다르거나, 더 큰 섹션에 대해서만 변경될 수 있다. 따라서, 점프가 실행될 때 동일한 개별의 시퀀스 넘버를 갖는 프레임들의 세트는 이미지 디스플레이가 재개될 수 있기 전에 전달되어져야 한다. 디스플레이 디바이스는 벗어나는 프레임 시퀀스 넘버를 검출할 것이고, 완전한 프레임들의 세트만을 결합할 것이다. 이것은 새로운 위치로의 점프 후에 프레임들의 잘못된 조합이 이용되는 것을 방지한다.
비디오에 그래픽들을 부가할 때, 다른 개별의 데이터 스트림들은 디스플레이 유닛에서 부가의 층들을 덮을 때 이용될 수 있다. 그와 같은 층 데이터는 아래에서 자세하게 논의된 3D 디스플레이 신호에서 각각의 프레임 유형 동기화 표시자들을 부가함으로써 개별적으로 마크된 다른 프레임 유형들로 포함된다. 이제 3D 비디오 전송 포맷은 메인 비디오 및 각각의 프레임 유형들을 통해 전달된 적어도 하나의 부가된 비디오 층을 포함하고, 프레임 유형 동기화 표시자는 적어도 하나의 메인 프레임 유형 표시자 및 부가된 층 프레임 유형 표시자를 포함한다. 부가된 비디오 층은 예를 들면, 서브타이틀들 또는 메뉴 또는 다른 OSD(On Screen Data)과 같은 다른 그래픽 정보일 수 있다.
프레임 유형 동기화 표시자는 상기 부가된 비디오 층에 대해, 층 시그널링 파라미터들을 포함할 수 있다. 상기 파라미터들은,
- 부가된 층의 유형 및/또는 포맷;
- 상기 주된 비디오의 디스플레이에 관한 상기 부가된 층의 디스플레이의 위치;
- 상기 부가된 층의 디스플레이의 크기;
- 상기 부가된 층의 디스플레이의 출현, 소멸 및/또는 지속의 시간; 및
- 부가된 3D 디스플레이 설정들 또는 3D 디스플레이 파라미터들 중 적어도 하나를 나타낸다.
다른 상세한 예들은 아래에서 논의된다.
도 3은 재생 디바이스 및 디스플레이 디바이스 조합을 도시한다. 플레이어(10)는 디스플레이(13)의 능력들을 판독하고, 디스플레이가 처리할 수 있는 시간적인과 동시에 공간적으로 최고의 해상도 비디오를 전송하도록 타이밍 파라미터 및 포맷을 조정한다. 실제로, EDID라 불리는 표준이 이용된다. 확장된 디스플레이 식별 데이터(Extended display identification data; EDID)는 이미지 소스, 예를 들면, 그래픽 카드에 디스플레이의 능력들을 기술하도록 디스플레이 디바이스에 의해 제공된 데이터 구조이다. 그것은 최신의 개인용 컴퓨터에 어떤 종류의 모니터가 접속되어야하는지를 알 수 있게 한다. EDID는 비디오 일렉트로닉스 표준화 협회(VESA)에 의해 공표된 표준에 의해 규정된다. http://www.vesa.org를 통해 이용가능한 2008년 1월 11일, VESA 디스플레이포트 표준 버전 1, 수정 1a에서 또한 인용된다.
EDID는 제조자 이름, 제품 유형, 형광체 또는 필터 유형, 디스플레이에 의해 지원되는 타이밍들, 디스플레이 크기, 휘도 데이터 및 (디지털 디스플레이만을 위한) 화소 맵핑 데이터를 포함한다. 디스플레이로부터 그래픽 카드로 EDID로 전송하는 채널은 일반적으로 I2C버스라 불리는 것이다. EDID 및 I2C버스의 조합은 디스플레이 데이터 채널 버전 2, 또는 DDC2라 불린다. 2는 다른 일련의 포맷으로 이용된 VESA의 원래의 DDC로부터 DDC2를 구별시킨다. EDID는 I2C버스와 호환되는 일련의 PROM(프로그램가능한 판독 전용 메모리) 또는 EEPROM(전자적으로 삭제가능한 PROM)이라 불리는 메모리 디바이스내의 모니터에 종종 저장된다.
재생 디바이스는 DDC2 채널을 통해 디스플레이에 E-EDID를 전송한다. 디스플레이는 E-EDID 정보를 전송함으로써 응답한다. 플레이어는 가장 양호한 포맷을 결정하고 비디오 채널을 통해 전송하기 시작한다. 디스플레이의 오래된 유형들에서 디스플레이는 DDC 채널 상에 E-EDID 정보를 연속해서 전송한다. 어떠한 요구된 전송되지 않는다. 인터페이스 상에서 이용되는 비디오 포맷을 다르게 규정하기 위해 다른 단체(CEA: Consumer Electronics Association)는 TV 유형의 디스플레이들에 이용하기에 더욱 적합하도록 E-EDID에 여러 부가적인 제한들 및 확장들을 규정하고 있다. 특정한 E-EDID에 요건들에 더하여 (상기에서 참조된) HDMI 표준은 많은 다른 비디오 포맷들에 대한 관련된 타이밍 정보 및 식별 코드들을 지원한다. 예를 들면, CEA 861-D 표준은 인터페이스 표준 HDMI에 채택된다. HDMI는 물리적인 링크를 규정하고 더 높은 레벨의 시그널링을 다루도록 CEA 861-D 및 VESA E-EDID 표준들을 지원한다. VESA E-EDID 표준은 디스플레이가 입체적인 비디오 전송을 지원하지 여부와 그것이 어떤 포맷인지를 나타내는 것을 허용한다. 디스플레이의 능력들에 대한 그와 같은 정보는 소스 디바이스로 다시 돌아가는 것으로 알려진다. 알려진 VESA 표준들은 디스플레이에서 3D 처리를 제어하는 어떤 앞선 3D 정보를 규정하지 않는다.
일 실시예에서 3D 디스플레이 신호의 프레임 유형 비동기화 표시자는, 예를 들면, 그것과 연관된 각각의 프레임을 식별하는 동안 데이터 스트림에서 개별 패킷으로 비동기적으로 전달된다. 패킷은 비디오와 정확하게 동기화하는 프레임에 대한 다른 데이터를 포함할 수 있고, 연속적인 비디오 프레임들 사이에서 귀선 소거 기간(blanking intervals) 중 적절한 시간에 삽입될 수 있다. 실제의 구현에서 프레임 유형 동기화 표시자는 HDMI 데이터 아일랜드들 내의 패킷들에 삽입된다.
오디오 비디오 데이터(AV) 스트림의 HDMI에서 규정된 것처럼 보조의 비디오 정보(AVI) 내에서 프레임 동기화 표시자를 포함하는 예는 다음과 같다. AVI는 인포 프레임(Info Frame)으로서 소스 디바이스로부터 디지털 텔레비전(DTV) 모니터로의 AV-스트림으로 운반된다. 소스 디바이스가 보조의 비디오 정보(AVI)의 전송을 지원하고, DTV 모니터가 그러한 정보를 수신할 수 있는 것을 소스 디바이스가 결정하면, AVI를 VSYNC 기간당 한번 DTV 모니터에 전송할 것이다. 데이터는 비디오 데이터의 다음 전체 프레임에 적용된다.
예를 들면, 디스플레이에서 3D 비디오의 적절한 렌더링에 대한 부가적인 정보 및 좌-우 시그널링에 대한 프레임 유형 동기화 표시자를 수용하기 위해 AVI-인포 프레임들에서 블랙바 정보를 이용하는 것이 제안된다. AVI-인포 프레임은 적어도 모든 2개의 필드들에 전송되는 데이터 블록이다. 이러한 이유로, AVI-인포 프레임은 그것이 입체적인 비디오 신호의 동기화를 위해 이용되어지면, 필요조건인 프레임 기반으로 시그널링을 전송할 수 있는 유일한 인포 프레임이다. 상대적인 시그널링에 의존하거나 특정 인포-프레임들의 공급처에 의존하는 다른 해결책들과 비교된 이러한 해결책의 장점은 HDMI를 위한 현재의 칩셋들과 호환가능한 것과 시그널링을 위한 충분한 공간(8바이트들) 및 정확한 동기화를 프레임에 제공하는 것이다.
대안의 실시예에서, 이어지는 비디오 데이터가 왼쪽 또는 오른쪽 비디오 프레임인 신호에 HDMI으로 규정된 프리엠블 비트들을 이용하는 것이 제안된다. HDMI 챕터 5.2.1.1은 각각의 비디오 데이터 기간 또는 데이터 아일랜드 기간의 바로 앞을 프리엠블이라고 규정한다. 이것은 다가오는 데이터 기간인지 또는 데이터 아일랜드 기간인지를 나타내는 8개의 동일한 제어 특성들의 시퀀스이다. CTL0, CTL1, CTL2, 및 CTL3의 값들은 이어지는 데이터 기간의 유형을 나타낸다. 남은 제어 신호들인, HSYNC 및 VSYNC는 이러한 시퀀스 동안 변할수 있다. 현재의 프리엠블은 4비트들로, CTL0, CTL1, CTL3, 및 CTL4이다. 지금 값들로서 1000 및 1010 만이 이용된다. 예를 들면, 비디오 데이터가 외쪽 또는 오른쪽 비디오 프레임 중 하나를 포함하거나, 대안으로 이미지 및/또는 깊이 정보를 포함하는 프레임들을 포함하는 것을 나타내도록 값들인 1100 또는 1001이 지금 규정될 수 있다. 또한, 프레임 유형들의 다른 차이가 프레임 유형 동기화 시퀀스에 따라 다른 데이터 프레임에 의해 규정될 수 있는 동안, 프리엠블 비트들은 시퀀스의 첫번째 3D 프레임 또는 3D 프레임 유형만을 나타낼 수 있다. 또한, HSYNC 및 VSYNC 시그널링은 프레임 유형 동기화의 적어도 일부, 예를 들면, 프레임이 왼쪽 또는 오른쪽 비디오 프레임인지 여부를 전달하도록 적용될 수 있다. HSYNC는 비디오 정보의 왼쪽 프레임의 비디오 데이터를 선행하도록 배치되고, VSYNC는 비디오 정보의 우측 프레임의 비디오 데이터를 선행하도록 배치된다. 동일한 원리가 2D 이미지 및 깊이 정보와 같은 다른 프레임 유형들에 적용될 수 있다.
도 4는 프레임 유형 동기화 표시자로 확장된 AVI-인포 프레임의 표를 도시한다. AVI-인포 프레임은 CEA에 의해 정의되고, 색상 및 채도, 오버스캔 및 언더스캔, 및 종횡비에 관한 프레임 시그널링을 제공하기 위해 HDMI 및 다른 비디오 전송 표준들에 의해 채택된다. 부가적인 정보는 아래와 같이 프레임 유형 동기화 표시자를 실행하도록 부가된다.
데이터 바이트 1의 마지막 비트; F17 및 데이터 바이트 4의 마지막 비트; F47은 표준 AVI-인포 프레임에서 보유된다. 프레임 유형 동기화 표시자의 일 실시예에서, 블랙-바 정보의 입체적인 시그널링의 존재를 나타내도록 이용된다. 블랙 바 정보는 일반적으로 데이터 바이트 6 내지 13에 포함된다. 바이트들 14 내지 27은 일반적으로 HDMI에 보유되고 따라서 현재 하드웨어로 정확하게 송신되지 못할 수 있다. 따라서 이러한 필드들은 중요성이 덜한 OSD 위치 정보를 제공하는데 이용된다. 표의 신텍스는 다음과 같다. F17이 설정되면(=1), 13까지의 데이터 바이트는 3D 파라미터 정보를 포함한다. 디폴트 케이스는 어떤 3D 정보도 존재하는 않는 것을 의미하는 F17이 설정되지 않을 때(=0)이다.
데이터 바이트들이 12 내지 19인 것은 OSD/서브타이틀 중첩의 위치를 나타낸다. 부가적인 층은 주 비디오 층보다 더 작을 수 있고, 바이트들 12 내지 19의 위치 데이터에 기초하여 배치된다. 이것은 3D 디스플레이로 하여금 프레임 유형 동기화 표시자에 의해 지시된 스크린의 영역에 대해 구체적인 렌더링을 실행하도록 한다. 프레임 유형 동기화 표시자는, 예를 들면, 서브타이틀/OSD 정보가 도 4에서 렌더링 파라미터들로 불리는 데이터 바이트들 20-27에서 나타나고/나타나거나 사라질 때를 나타내는 동기화 타이밍 정보를 추가로 포함할 수 있다.
도 5는 3D 비디오 포맷들의 표를 도시한다. 왼쪽 열들에 있는 값들은 각각의 다른 프레임 유형들을 갖는 구체적인 비디오 포맷을 각각 나타낸다. 선택된 값은 도 4의 표에서 프레임 동기화 표시자, 예를 들면, 데이터 바이트 7에 포함된다. 데이터 바이트 7은 소스(플레이어)가 전송하는 입체적인 비디오 포맷을 기술한다. 도 5의 표는 가능한 값들의 일부를 나열한다. 값 0은 연관된 프레임이 2D인 것을 나타내고, 이것은 3D 타이틀일 동안 2D 비디오의 세그먼트들을 전송할 때 유용하다. 디스플레이 디바이스(3D-TV)는 3D 비디오 포맷의 이러한 변경에 대한 내적인 이미지 처리를 실행하는 것, 예를 들면, 프레임 순차 포맷의 경우에서 일시적인 업컨버전을 스위치 오프하는 것이 가능하다.
도 6는 프레임 동기화 신호를 도시한다. 동기화 신호는 프레임 동기화 표시자, 예를 들면, 도 4의 데이터 바이트 8에 포함될 수 있다. 데이터 바이트 8은 입체 동기화 신호를 전달하고, 이에 대해 도 6은 동기화 신호의 포맷을 도시한다. 동기화 신호는 비디오 프레임의 콘텐트를 비디오 포맷과 함께 나타낸다.
도 4의 데이터 바이트 9 및 10의 값들은 비디오 포맷에 의존한다. 예를 들면, (자동-)입체 비디오에 대해 상기 데이터 바이트 9 및 10의 값들은 비디오 콘텐트의 최대 및 최소 시차를 나타낸다. 대안으로, 상기 데이터 바이트 9 및 10의 값들은 "깊이" 정보의 오프셋 및 스케일링 팩터를 나타낼 수 있다. 더 높은 비트 정확성 요건의 경우(즉, 10-비트 깊이)에서, 부가적인 레지스터들이 더 낮은 비트들을 저장하도록 이용할 수 있다.
도 7은 부가적인 비디오 층들에 대한 값들을 도시한다. 비디오 포맷은 3D 비디오 신호에서 서브타이틀들 또는 메뉴들(온 스크린 데이터 OSD)과 같은 부가적인 층들에 대한 프레임들을 개별적으로 포함할 수 있도록 확대될 수 있다. 도 4에서 데이터 바이트 11은 서브타이틀들 또는 OSD 중첩의 존재를 나타낼 수 있다. 도 7은 부가적인 층들을 나타내는 다수의 비디오 포맷 파라미터 값들을 도시한다. 도 4의 나머지 바이트들 20 내지 27은 3D 디스플레이들에 관련된 스케일링된 깊이 및 폐색 정보에 대한 정보를 나타내기 위해 구체적인 파라미터들을 제공하도록 이용될 수 있다.
본 발명은 프로그램가능한 구성요소들을 이용하여, 하드웨어 및/또는 소프트웨어에서 구현될 수 있는 것을 알 수 있다. 본 발명을 구현하는 방법은 도 1을 참조하여 설명된 3D 이미지 데이터의 전달에 대응하는 처리 단계들을 갖는다. 본 발명은 광학 기록 운반자들 또는 인터넷을 이용하는 실시예들에 의해 주로 설명되지만, 본 발명은 또한 3D 개인용 컴퓨터[PC] 디스플레이 인터페이스, 또는 무선 3D 디스플레이 디바이스에 연결된 3D 미디어 센터 PC와 같은 어떤 이미지 인터페이싱 환경에 적합할 수 있다.
본 문서에서 단어 '포함하는'은 배열된 것과 다른 요소들 또는 단계들의 존재를 배제하지 않고, 단수를 나타내는 용어는 그와 같은 복수의 요소의 존재를 배제하지 않고, 어떠한 참조 기호도 청구항들의 범위를 제한하지 않고, 본 발명은 하드웨어 및 소프트웨어 모두에 의해 구현될 수 있고, 여러 '수단' 및 '유닛'들은 동일한 하드웨어 또는 소프트웨어의 아이템에 의해 나타내질 수 있고, 프로세서는 가능한 하드웨어 요소들과 협력하여 하나 이상의 유닛들의 기능을 이행할 수 있다. 또한, 본 발명은 실시예들에 한정되지 않고, 상기에서 언급된 각각의 그리고 모든 새로운 특징 또는 특징들의 조합 안에 두어진다.
10: 3D 소스 디바이스 11: 동기화 유닛
13: 3D 디스플레이 디바이스
14: 입력 인터페이스 유닛 18: 처리 유닛
19: 검출 유닛 51: 입력 유닛
57: 원격 매체 서버 58: 광학적 디스크 유닛
59: 네트워크 인터페이스 유닛

Claims (12)

  1. 3D 소스 디바이스에서 3차원[3D] 이미지 데이터를 전송하는 방법에 있어서,
    - 3D 디스플레이 신호를 생성하기 위해 소스 이미지 데이터를 처리하는 단계로서, 상기 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 상기 3D 이미지 데이터를 구성하는 프레임들을 포함하고, 상기의 포맷에서 상기 프레임들은 적어도 2개의 다른 프레임 유형들을 포함하는, 상기 소스 이미지 데이터 처리 단계; 및
    - 상기 3D 디스플레이 신호를 출력하는 단계를 포함하고, 3D 디스플레이 디바이스에서,
    - 상기 3D 디스플레이 신호를 수신하는 단계;
    - 상기 수신된 3D 디스플레이 신호에서 상기 다른 프레임 유형들을 검출하는 단계; 및
    - 상기 다른 프레임 유형들에 기초하여 3D 디스플레이에 대한 상기 3D 이미지 데이터를 렌더링하기 위한 디스플레이 제어 신호들을 생성하는 단계를 포함하고,
    - 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 각 프레임 유형은 부분적인 3D 데이터 구조를 나타내고, 상기 방법은 상기 3D 소스 디바이스에서,
    - 상기 3D 디스플레이 신호에 적어도 하나의 프레임 유형 동기화 표시자를 포함하는 단계를 포함하고,
    - 상기 검출하는 단계는 상기 3D 디스플레이 신호로부터 상기 프레임 유형 동기화 표시자를 검색하는 단계를 포함하고,
    - 상기 디스 플레이 제어 신호들을 생성하는 단계는 상기 프레임 유형 동기화 표시자에 의존하여 상기 부분적인 3D 데이터 구조들을 동기화하는 것에 기초하는, 3D 소스 디바이스에서 3차원[3D] 이미지 데이터를 전송하는 방법.
  2. 제 1 항에 있어서,
    상기 3D 비디오 전송 포맷에서 상기 다른 프레임 유형들은,
    - 좌측 프레임 유형;
    - 우측 프레임 유형;
    - 2차원[2D] 프레임 유형;
    - 깊이 프레임 유형;
    - 투명도 프레임 유형;
    - 폐색(occlusion) 프레임 유형; 및
    - 상기 프레임 유형들의 서브-프레임들의 조합을 나타내는 조합 프레임 유형 중 적어도 하나를 포함하고,
    상기 프레임 유형 동기화 표시자는 상기 3D 제어 신호들을 생성하기 위한 상기 3D 비디오 전송 포맷으로 각각의 프레임 유형들로부터 상기 부분적인 3D 데이터 구조들의 각각을 시간 내에 동기화하기 위해 상기 프레임 유형들에 대응하는 프레임 유형 표시자를 포함하는, 3D 소스 디바이스에서 3차원[3D] 이미지 데이터를 전송하는 방법.
  3. 제 1 항에 있어서,
    상기 3D 비디오 전송 포맷은 각각의 프레임 유형들을 통해 전송된 주된 비디오 및 적어도 하나의 부가된 비디오 층을 포함하고, 상기 프레임 유형 동기화 표시자는 주된 프레임 유형 표시자 및 부가된 층 프레임 유형 표시자 중 적어도 하나를 포함하는, 3D 소스 디바이스에서 3차원[3D] 이미지 데이터를 전송하는 방법.
  4. 제 3 항에 있어서,
    상기 부가된 비디오 층은 그래픽 정보 또는 서브타이틀들을 포함하는, 3D 소스 디바이스에서 3차원[3D] 이미지 데이터를 전송하는 방법.
  5. 제 3 항에 있어서,
    프레임 유형 동기화 표시자는 상기 부가된 비디오 층에 대해,
    - 부가된 층의 유형 및/또는 포맷;
    - 상기 주된 비디오의 디스플레이에 관한 상기 부가된 층의 디스플레이의 위치;
    - 상기 부가된 층의 디스플레이의 크기;
    - 상기 부가된 층의 디스플레이의 출현, 소멸 및/또는 지속의 시간; 및
    - 부가된 3D 디스플레이 설정들 또는 3D 디스플레이 파라미터들 중 적어도 하나를 나타내는 층 시그널링 파라미터들을 포함하는, 3D 소스 디바이스에서 3차원[3D] 이미지 데이터를 전송하는 방법.
  6. 제 1 항에 있어서,
    상기 프레임 유형 동기화 표시자는 상기 3D 디스플레이 신호의 다음 섹션에 상기 3D 비디오 전송 포맷을 나타내는 3D 비디오 포맷 표시자를 포함하는, 3D 소스 디바이스에서 3차원[3D] 이미지 데이터를 전송하는 방법.
  7. 제 1 항에 있어서,
    상기 프레임 유형 동기화 표시자는 적어도 하나의 프레임 유형의 주파수 및/또는 상기 다른 프레임 유형들의 순서를 나타내는 프레임 시퀀스 표시자를 포함하는, 3D 소스 디바이스에서 3차원[3D] 이미지 데이터를 전송하는 방법.
  8. 제 1 항에 있어서,
    상기 프레임 유형 동기화 표시자는 프레임 시퀀스 넘버를 포함하는, 3D 소스 디바이스에서 3차원[3D] 이미지 데이터를 전송하는 방법.
  9. 3차원[3D] 이미지 데이터를 3D 디스플레이 디바이스에 전송하기 위한 3D 소스 디바이스에 있어서,
    - 3D 디스플레이 신호(56)를 생성하기 위해 소스 이미지 데이터를 처리하기 위한 생성 수단(52)으로서, 상기 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 상기 3D 이미지 데이터를 구성하는 프레임들을 포함하고, 상기의 포맷에서 상기 프레임들은 적어도 2개의 다른 프레임 유형들을 포함하는, 상기 생성 수단(52); 및
    - 상기 3D 디스플레이 신호를 출력하기 위한 출력 인터페이스 수단(12)을 포함하고,
    - 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 각 프레임 유형은 부분적인 3D 데이터 구조를 나타내고, 상기 디바이스는,
    - 상기 프레임 유형 동기화 표시자에 의존하여 상기 부분적인 3D 데이터 구조들을 동기화하는 것에 기초하여 상기 디스플레이 디바이스에서 디스플레이 제어 신호들을 생성하기 위한 상기 3D 디스플레이 신호에 적어도 하나의 프레임 유형 동기화 표시자를 포함하는 전송 동기화 수단(11)을 포함하는, 3차원[3D] 이미지 데이터를 3D 디스플레이 디바이스에 전송하기 위한 3D 소스 디바이스.
  10. 3D 디스플레이 디바이스에 있어서,
    - 3D 이미지 데이터를 디스플레이하기 위한 3D 디스플레이(17);
    - 3D 디스플레이 신호를 수신하기 위한 입력 인터페이스 수단(14)으로서, 상기 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 상기 3D 이미지 데이터를 구성하는 프레임들을 포함하고, 상기의 포맷에서 상기 프레임들은 적어도 2개의 다른 프레임 유형들을 포함하는, 상기 입력 인터페이스 수단(14), 상기 수신된 3D 디스플레이 신호에서 상기 다른 프레임 유형들을 검출하기 위한 검출 수단(19); 및
    - 상기 다른 프레임 유형들에 기초하여 상기 3D 디스플레이에 대한 상기 3D 이미지 데이터를 렌더링하기 위한 디스플레이 제어 신호들을 생성하기 위한 처리 수단(18)을 포함하고,
    - 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 각 프레임 유형은 부분적인 3D 데이터 구조를 나타내고,
    - 상기 검출 수단(19)은 상기 3D 디스플레이 신호로부터 상기 프레임 유형 동기화 표시자를 검색하도록 배치되고,
    - 상기 처리 수단(18)은 상기 프레임 유형 동기화 표시자에 의존하여 상기 부분적인 3D 데이터 구조들을 동기화하는 것에 기초하여 상기 디스플레이 제어 신호들을 생성하도록 배치되는, 3D 디스플레이 디바이스.
  11. 제 10 항에 있어서,
    상기 3D 비디오 전송 포맷은 각각의 프레임 유형들을 통해 전송된 주된 비디오 및 적어도 하나의 부가된 비디오 층을 포함하고, 상기 프레임 유형 동기화 표시자는 주된 프레임 유형 표시자 및 부가된 층 프레임 유형 표시자 중 적어도 하나를 포함하고, 상기 처리 수단(18)은 상기 프레임 유형 동기화 표시자에 의존하여 상기 부분적인 3D 데이터 구조들로 나타내어진 상기 다른 층들을 결합하도록 배치되는, 3D 디스플레이 디바이스.
  12. 3차원[3D] 이미지 데이터를 3D 디스플레이 디바이스에 전송하기 위한 3D 디스플레이 신호에 있어서,
    상기 3D 디스플레이 신호는 3D 비디오 전송 포맷에 따라 상기 3D 이미지 데이터를 구성하는 프레임들을 포함하고, 상기의 포맷에서 상기 프레임들은 적어도 2개의 다른 프레임 유형들을 포함하고,
    - 각 프레임은 디지털 이미지 화소 데이터의 시퀀스를 나타내는 데이터 구조를 갖고, 각 프레임 유형은 부분적인 3D 데이터 구조를 나타내고, 상기 3D 디스플레이 신호는,
    - 상기 프레임 유형 동기화 표시자에 의존하여 상기 부분적인 3D 데이터 구조들을 동기화하는 것에 기초하여 디스플레이 제어 신호들을 생성하는 적어도 하나의 프레임 유형 동기화 표시자를 포함하는, 3차원[3D] 이미지 데이터를 3D 디스플레이 디바이스에 전송하기 위한 3D 디스플레이 신호.
KR1020117019095A 2009-01-20 2010-01-13 3d 이미지 데이터의 전송 KR101630866B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP09150939.8 2009-01-20
EP09150939 2009-01-20

Publications (2)

Publication Number Publication Date
KR20110114670A true KR20110114670A (ko) 2011-10-19
KR101630866B1 KR101630866B1 (ko) 2016-06-16

Family

ID=42026550

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117019095A KR101630866B1 (ko) 2009-01-20 2010-01-13 3d 이미지 데이터의 전송

Country Status (9)

Country Link
US (2) US10257493B2 (ko)
EP (1) EP2389666A2 (ko)
JP (1) JP5809064B2 (ko)
KR (1) KR101630866B1 (ko)
CN (1) CN102292995B (ko)
BR (1) BRPI1005146A2 (ko)
RU (1) RU2536388C2 (ko)
TW (1) TWI528780B (ko)
WO (1) WO2010084437A2 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105744284B (zh) * 2009-02-19 2019-04-19 交互数字麦迪逊专利控股公司 使用3d视频格式的装置
US9083958B2 (en) * 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
JP2012039476A (ja) * 2010-08-09 2012-02-23 Sony Corp 送受信装置および送受信方法
JP5549476B2 (ja) * 2010-08-24 2014-07-16 ソニー株式会社 画像処理装置と画像処理方法
KR20120020627A (ko) * 2010-08-30 2012-03-08 삼성전자주식회사 3d 영상 포맷을 이용한 영상 처리 장치 및 방법
KR20120047055A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 디스플레이 장치 및 이에 적용되는 그래픽 영상 제공방법
US9888232B2 (en) * 2011-01-17 2018-02-06 Sony Corporation 3D motion picture processing device
US20120200670A1 (en) * 2011-02-04 2012-08-09 Nokia Corporation Method and apparatus for a disparity limit indicator
WO2012128069A1 (ja) 2011-03-18 2012-09-27 ソニー株式会社 画像処理装置および画像処理方法
CN103430529B (zh) * 2011-03-18 2017-07-11 索尼公司 图像处理设备和图像处理方法
WO2013014177A1 (en) * 2011-07-25 2013-01-31 Sony Corporation In-painting method for 3d stereoscopic views generation
WO2013031573A1 (ja) 2011-08-31 2013-03-07 ソニー株式会社 符号化装置および符号化方法、復号装置および復号方法
EP2590417A1 (en) * 2011-11-01 2013-05-08 Acer Incorporated Stereoscopic image display apparatus
JPWO2013108531A1 (ja) * 2012-01-19 2015-05-11 ソニー株式会社 受信装置、受信方法および電子機器
CN102595165A (zh) * 2012-02-29 2012-07-18 广州博冠光电技术有限公司 3d液晶快门眼镜2d/3d功能自由切换方法及装置
US20130271565A1 (en) * 2012-04-16 2013-10-17 Qualcomm Incorporated View synthesis based on asymmetric texture and depth resolutions
CN103260090B (zh) * 2013-04-26 2016-03-30 电子科技大学 一种用于p2p三维流媒体系统中的视频段调度及传输方法
US10764473B2 (en) * 2016-01-14 2020-09-01 Disney Enterprises, Inc. Automatically synchronizing multiple real-time video sources
US11475862B2 (en) 2017-07-07 2022-10-18 Hewlett-Packard Development Company, L.P. Selection of an extended display identification data standard
CN110430423A (zh) * 2019-07-26 2019-11-08 深圳市创凯智能股份有限公司 数据同步方法、系统、装置及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004128769A (ja) * 2002-10-01 2004-04-22 Pioneer Electronic Corp 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、記録又は再生制御用のコンピュータプログラム、並びに制御信号を含むデータ構造
EP1705929A1 (en) * 2003-12-25 2006-09-27 Brother Kogyo Kabushiki Kaisha Image display device and signal processing device
KR20060130450A (ko) * 2005-06-14 2006-12-19 삼성전자주식회사 영상 송신 및 수신 방법과 장치 및 이의 전송 스트림 구조

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4979033A (en) 1988-09-27 1990-12-18 Stephens Berton H Stereoscopic video system and method with field synchronization and intensity control
EP0888018B1 (en) 1996-02-28 2006-06-07 Matsushita Electric Industrial Co., Ltd. Optical disk having plural streams of digital video data recorded thereon in interleaved manner, and apparatuses and methods for recording on, and reproducing from, the optical disk
RU2157056C2 (ru) * 1998-02-03 2000-09-27 Логутко Альберт Леонидович Способ объемного телевидения
JP4707782B2 (ja) * 1999-02-05 2011-06-22 ソニー株式会社 画像処理装置およびその方法
KR100382108B1 (ko) * 2000-06-24 2003-05-01 학교법인연세대학교 3차원 그래픽 가속기 및 그의 그래픽 가속처리 방법
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
KR100461339B1 (ko) 2002-05-14 2004-12-10 주식회사 포디컬쳐 영상데이터 전송장치 및 방법
JP2006005418A (ja) 2004-06-15 2006-01-05 Sharp Corp 情報受信・再生装置、情報受信・再生方法、情報受信・再生プログラム及びプログラム記録媒体
US7515759B2 (en) * 2004-07-14 2009-04-07 Sharp Laboratories Of America, Inc. 3D video coding using sub-sequences
KR100658222B1 (ko) * 2004-08-09 2006-12-15 한국전자통신연구원 3차원 디지털 멀티미디어 방송 시스템
KR100781510B1 (ko) 2005-05-10 2007-12-03 삼성전자주식회사 A/v 네트워크 상에 존재하는 a/v 장치에 대한 구별정보를 생성하는 장치, 시스템 및 방법
EP1897056B1 (en) * 2005-06-23 2016-08-10 Koninklijke Philips N.V. Combined exchange of image and related data
US20070247477A1 (en) * 2006-04-21 2007-10-25 Lowry Gregory N Method and apparatus for processing, displaying and viewing stereoscopic 3D images
JP4179387B2 (ja) * 2006-05-16 2008-11-12 ソニー株式会社 伝送方法、伝送システム、送信方法、送信装置、受信方法及び受信装置
JP5132690B2 (ja) * 2007-03-16 2013-01-30 トムソン ライセンシング テキストを3次元コンテンツと合成するシステム及び方法
KR100962696B1 (ko) * 2007-06-07 2010-06-11 주식회사 이시티 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
CN102067591B (zh) * 2008-06-26 2014-03-19 松下电器产业株式会社 再现装置、记录装置、再现方法及记录方法
JP5338166B2 (ja) * 2008-07-16 2013-11-13 ソニー株式会社 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
JP2010088092A (ja) * 2008-09-02 2010-04-15 Panasonic Corp 立体映像伝送システム、映像表示装置および映像出力装置
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004128769A (ja) * 2002-10-01 2004-04-22 Pioneer Electronic Corp 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、記録又は再生制御用のコンピュータプログラム、並びに制御信号を含むデータ構造
EP1705929A1 (en) * 2003-12-25 2006-09-27 Brother Kogyo Kabushiki Kaisha Image display device and signal processing device
KR20060130450A (ko) * 2005-06-14 2006-12-19 삼성전자주식회사 영상 송신 및 수신 방법과 장치 및 이의 전송 스트림 구조

Also Published As

Publication number Publication date
CN102292995B (zh) 2015-01-28
RU2011134888A (ru) 2013-02-27
EP2389666A2 (en) 2011-11-30
US10257493B2 (en) 2019-04-09
JP5809064B2 (ja) 2015-11-10
RU2536388C2 (ru) 2014-12-20
BRPI1005146A2 (pt) 2018-02-20
TW201119348A (en) 2011-06-01
CN102292995A (zh) 2011-12-21
WO2010084437A2 (en) 2010-07-29
JP2012516070A (ja) 2012-07-12
US20110279645A1 (en) 2011-11-17
KR101630866B1 (ko) 2016-06-16
US20190215508A1 (en) 2019-07-11
TWI528780B (zh) 2016-04-01
WO2010084437A3 (en) 2010-09-30

Similar Documents

Publication Publication Date Title
KR101630866B1 (ko) 3d 이미지 데이터의 전송
KR101634569B1 (ko) 3d 이미지 데이터의 전송
US20110298795A1 (en) Transferring of 3d viewer metadata
US20110293240A1 (en) Method and system for transmitting over a video interface and for compositing 3d video and 3d overlays
US11381800B2 (en) Transferring of three-dimensional image data
JP6085626B2 (ja) 3d画像データの転送

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant