KR20180130012A - 디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송 - Google Patents

디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송 Download PDF

Info

Publication number
KR20180130012A
KR20180130012A KR1020187034617A KR20187034617A KR20180130012A KR 20180130012 A KR20180130012 A KR 20180130012A KR 1020187034617 A KR1020187034617 A KR 1020187034617A KR 20187034617 A KR20187034617 A KR 20187034617A KR 20180130012 A KR20180130012 A KR 20180130012A
Authority
KR
South Korea
Prior art keywords
data
image data
interface
audio
stereoscopic image
Prior art date
Application number
KR1020187034617A
Other languages
English (en)
Inventor
니콜 비. 쉐퍼드
Original Assignee
코닌클리케 필립스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 엔.브이. filed Critical 코닌클리케 필립스 엔.브이.
Publication of KR20180130012A publication Critical patent/KR20180130012A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43632Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43637Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • H04N5/067Arrangements or circuits at the transmitter end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Abstract

디지털 디스플레이 인터페이스(40)는 제 1 오디오-비주얼 디바이스(10)를 제 2 오디오-비주얼 디바이스(20)에 연결한다. 입체 이미지 데이터는 디스플레이 인터페이스(40)를 통해 송신된다. 기존의 깊은 컬러 모드는 이 목적을 위해 재-이용될 수 있다. 입체 이미지 데이터를 식별하거나 디코딩하는데 도움을 주는 시그널링 정보는 보조 데이터 전달 요소들에 전달된다. 입체 이미지 데이터는 이미지 데이터 전달 데이터 요소들과 보조 데이터 전달 데이터 요소들 사이에 분배될 수 있다. 보조 데이터 전달 요소들은 수평 또는 수직 공백 기간들에 송신될 수 있고, HDMI 데이터 아일랜드 패킷들을 포함할 수 있다. 입체 이미지 데이터는 보조 데이터 채널을 통해 전송될 수 있다. 보조 데이터 채널은 디스플레이 인터페이스의 주 채널을 전달하는데 이용된 것과 동일한 케이블의 일부, 별도의 케이블, 또는 무선 링크를 형성할 수 있다.

Description

디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송{TRANSPORT OF STEREOSCOPIC IMAGE DATA OVER A DISPLAY INTERFACE}
본 발명은 입체 이미지들(stereoscopic images)의 디스플레이를 위한 이미지 데이터의 전송에 관한 것이다.
3차원 이미지들(정적 또는 동영상들)을 디스플레이하기 위한 다양한 방식들이 알려져 있다. 하나의 잘 알려진 방식은 상이한 광학적 편광들, 또는 컬러들(예를 들면, 적색 및 녹색)에 의해 좌측 눈 및 우측 눈에 대해 인코딩되는 2개의 이미지들을 동시에 디스플레이하는 것이다. 관람자는 좌측 및 우측 눈들 앞에 렌즈들을 갖는 한 쌍의 특수 안경을 착용한다. 렌즈들은 해당 눈에 대해 의도된 이미지만을 통과시키도록 배열되는데; 즉, 좌측 눈은 해당 눈에 대해 의도된 이미지만을 본다. 또 다른 입체 디스플레이 기술은 좌측 눈에 대해 의도된 이미지, 및 우측 눈에 대해 의도된 이미지를 순차적으로 제공하는 것이다. 이용자는 좌측 눈 이미지가 디스플레이되는 기간 동안 좌측 눈 셔터가 개방되고, 우측 이미지가 디스플레이되는 기간 동안 우측 눈 셔터가 개방되도록 디스플레이된 이미지들과 동기하여 셔터되는 특수한 한 쌍의 안경을 착용한다.
자동 입체 디스플레이 기술들은 이용자가 특수 안경을 착용할 필요성을 제거한다. 하나의 알려진 방식은 디스플레이 소자들 앞에 장착된 다중측면의 경사진 벤트리큘러 렌즈들(multisided slanted ventricular lenses)을 갖는 평면 패널 디스플레이를 이용한다. 이러한 종류의 디스플레이의 예는 WO07/069195 A2에 기술된다.
연역적으로, 3D 디스플레이들은 맞춤의 고비용 디스플레이 장치를 제공하는 것이 가능한 특수화된 애플리케이션들(applications)(예를 들면, 의학 이미징) 또는 특수한 필름 프리젠테이션으로 제한된다. 이제, 소비자 전자기기 시장을 포함하는 매우 광범위한 시청자에게 입체 콘텐트를 전달하는데 상당한 관심이 존재한다. 그러나, 소비자 전자기기들 환경에서 입체 이미지들을 전달하는데 있어 이슈는 종래의 디스플레이들, 및 디스플레이들 또는 프로젝터들을 미디어 재생기들에 연결하는 디스플레이 인터페이스들이 종래의 2D 이미지들의 디스플레이를 위해 특별히 설계되었다는 것이다.
기존의 디스플레이 인터페이스들의 한계들 내에서 입체 이미지 데이터를 전달하기 위한 방식들은 입체 이미지를 렌더링(rendering)하는데 필요한 부가 데이터를 전달하도록 이미지의 활성부의 일부를 희생하는 경향이 있다. 코닌클리케 필립스 일렉트로닉스 엔.브이. 사에 의해 개발된 WOWvx 포맷은 전체 디스플레이 프레임을 상이한 데이터가 전달될 수 있는 다수의 개별 영역들로 분할한다. 전체 프레임은 나란히 배열된 2개의 서브-프레임들로 분할되는데: 제 1 서프-프레임은 2D 이미지 데이터를 전달하고, 제 2 서브-프레임은 깊이 정보를 전달한다. 헤더가 프레임의 상부 좌측 모서리의 선두에 부가된다. 이미지 데이터는 디스플레이 인터페이스를 통해 보통의 방식으로 전달된다. 디스플레이는 제 2 서브-프레임으로부터 깊이 데이터를 추출하고 제 1 서브-프레임의 해상도를 갖는 3D 이미지를 생성한다. 그 다음, 이 3D 이미지는 디스플레이의 전체 가시 영역을 차지하도록 '스트레치될(stretched)" 수 있다.
디지털 디스플레이들 및 미디어 재생기들에는 점차로 고선명 멀티미디어 인터페이스(High Definition Multimedia Interface; HDMI)와 같은 디지털 디스플레이 인터페이스들이 구비되고 있다.
본 발명은 디지털 디스플레이 인터페이스를 통해 입체 이미지 데이터를 전달하는 대안적인 방식을 제공하고자 한다.
본 발명의 관련된 양태는 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이에 디지털 디스플레이 인터페이스를 지원하기 위한 제 1 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부를 제공하는 것이며, 상기 인터페이스부는,
이미지 데이터를 수신하기 위한 입력부; 및
인터페이스를 통한 전송을 위해 데이터를 포맷하도록 배열된 포맷기를 포함하고, 상기 포맷기는:
포맷기가 2D 이미지의 화소 데이터를 전달하는 제 1 데이터 요소들의 스트림을 생성하는 제 1 모드; 및
포맷기가 입체 이미지의 구성요소들의 멀티플렉싱된 조합을 전달하는 제 2 데이터 요소들의 스트림을 생성하는 제 2 모드로 동작가능하다.
이 장치의 이점은 기존의 인터페이스 용량을 이용하여 입체 이미지 데이터가 디지털 디스플레이 인터페이스를 통해 전달될 수 있다는 것이다. 유리하게는, 디스플레이 인터페이스는 24-비트 컬러 뿐만 아니라, 48-비트 컬러와 같은 다양한 이미지 데이터의 컬러 깊이들을 지원하는 경우, 보다 높은 컬러 깊이 데이터를 전송하도록 의도되는 보다 높은 용량 전송 모드들이 멀티플렉싱된 입체 이미지 데이터를 전달하는데 재-이용될 수 있다. 그러므로, 입체 데이터를 전달하기 위해 어떠한 부가적인 용량도 인터페이스로부터 필요로 되지 않고, 여전히 입체 콘텐츠에 대한 양호한 컬러 깊이를 허용한다. 또한, 디스플레이 인터페이스를 규정하는 기존의 표준에 대한 변경이 거의 또는 전혀 필요로 되지 않는다는 장점을 갖는다. 또한, 입체 이미지 데이터를 전달하기 위해 활성 이미지 영역의 일부를 희생하는 방식들보다 상당히 높은 해상도로 입체 이미지 콘텐트가 전송되도록 허용한다.
유리하게는, 제 2 데이터 요소들은 제 1 데이터 요소들보다 크지 않은 및, 바람직하게는 동일한 용량을 갖는다. 이는 입체 데이터가 인터페이스를 규정하는 표준들에 대해 최소한의 수정으로 전달되는 것을 허용한다.
용어 "입체 이미지 데이터 구성요소들"은 입체(또는 자동 입체) 디스플레이를 구성하는 데이터를 이용자에게 전송하는 임의의 방식을 포함하도록 의도되고, 좌측 눈 이미지 데이터 및 우측 눈 이미지 데이터를 전송하는 방식들; 2D 이미지 데이터 및 이미지 깊이 데이터를 전송하는 방식들; 2D 이미지 데이터 및 이미지 깊이 데이터를 전송하는 방식들 및 화상에서의 어떤 오브젝트들(objects)이 다른 오브젝트들에 의해 폐색되는지를 나타내는 폐색 정보를 포함한다.
좌측 눈 및 우측 눈 이미지 데이터를 이용하는 입체 이미지의 경우에, 포맷기는 좌측 눈 이미지 데이터를 전달하기 위해 제 2 데이터 요소의 일부를 이용할 수 있고 우측 눈 이미지 데이터를 전달하기 위해 제 2 데이터 요소의 또 다른 부분을 이용할 수 있다.
2D + 깊이 데이터를 이용하는 입체 이미지의 경우에, 포맷기는 2D 이미지 데이터를 전달하기 위해 제 2 데이터 요소의 일부를 이용할 수 있고 이미지 깊이 데이터를 전달하기 위해 제 2 데이터 요소의 또 다른 부분을 이용할 수 있다. 깊이 데이터는 수평 또는 수직 공백 기간들 내의 기간들과 같은 신호의 다른 부분들에서 또한 전달될 수 있다. HDMI에서, 데이터 아일랜드 패킷들(Data Island Packets)은 이 기간들 내에 전달되고, 특정한 데이터 아일랜드 패킷들은 깊이 데이터를 전달하는 것으로서 식별될 수 있다.
유리하게는, 포맷기가 어느 모드를 이용하는지를 식별하는 시그널링 정보가 인터페이스를 통해 전송되고, 추가의 시그널링 정보는 제 2 오디오-비주얼 디바이스(예를 들면, 디스플레이 또는 프로젝터)가 해당 포맷팅 모드에서 전송된 입체 데이터를 랜더링하는 성능을 갖는지의 여부를 표시하는 것을 허용할 수 있다.
고선명 멀티미디어 인터페이스(HDMI)에서, 시그널링은 이미지 데이터 사이의 데이터 아일랜드들 내에 전달된 패킷들에 의해 전달될 수 있다. 입체 이미지를 핸들링(handling)하는 싱크 디바이스의 성능은 HDMI 디스플레이 데이터 채널(DDC) 채널을 이용하여 인터페이스부들 사이에서 시그널링될 수 있고, 성능 데이터는 싱크의 확장된 디스플레이 식별 데이터(EDID) ROM에 저장된다.
본 발명의 관련된 양태는 오디오-비주얼 디바이스와 또 다른 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 지원하기 위한 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부를 제공하는 것이며, 상기 인터페이스부는:
인터페이스로부터 포맷된 이미지 데이터를 수신하기 위한 입력부; 및
이미지 데이터를 추출하도록 배열된 처리기를 포함하고, 처리기는:
처리기가 제 1 데이터 요소들의 스트림으로부터 2D 이미지의 화소 이미지 데이터를 추출하는 제 1 모드; 및
처리기가 입체 이미지의 구성요소들의 멀티플렉싱된 조합을 전달하는 제 2 데이터 요소들의 스트림으로부터 입체 이미지의 구성요소들을 디멀티플렉싱하는 제 2 모드로 동작가능하다.
본 발명의 관련된 양태는 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 통한 전송을 위해 제 1 오디오-비주얼 디바이스의 디지털 디스플레이 인터페이스부에서 이미지 데이터를 포맷하는 방법을 제공하는 것이며, 방법은:
이미지 데이터를 수신하는 단계; 및
제 1 모드에서, 2D 이미지의 화소 데이터를 전달하는 제 1 데이터 요소들의 스트림을 생성하고
제 2 모드에서, 입체 이미지의 구성요소들의 멀티플렉싱된 조합을 전달하는 제 2 데이터 요소들의 스트림을 생성함으로써 인터페이스를 통한 전송을 위해 이미지 데이터를 포맷하는 단계를 포함한다.
본 발명의 관련된 양태는 오디오-비주얼 디바이스의 디지털 디스플레이 인터페이스부에서 이미지 데이터를 처리하는 방법을 제공하는 것이며, 방법은:
인터페이스로부터 포맷된 이미지 데이터를 수신하는 단계; 및
제 1 모드에서, 제 1 데이터 요소들의 스트림으로부터 2D 이미지에 대한 화소 이미지 데이터를 추출하고,
제 2 모드에서, 입체 이미지의 구성요소들의 멀티플렉싱된 조합을 전달하는 제 2 데이터 요소들의 스트림으로부터 입체 이미지의 구성요소들을 디멀티플렉싱함으로써 이미지 데이터를 추출하는 단계를 포함한다.
본 발명의 또 다른 양태는 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 지원하기 위한 제 1 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부를 제공하는 것이며, 인터페이스부는:
입체 이미지 데이터를 수신하기 위한 입력부; 및
인터페이스를 통한 전송을 위해 데이터를 포맷하도록 배열된 포맷기를 포함하고, 포맷기는 인터페이스의 주 이미지 데이터 전송 채널을 통해 입체 이미지 데이터의 일부를 전송하고 보조 데이터 채널을 통해 입체 이미지의 또 다른 부분을 전송하도록 동작가능하다.
인터페이스부는 주 데이터 채널과 보조 데이터 채널 사이에서 입체 데이터가 어떻게 분배되어 있는지를 식별하는 시그널링 정보를 인터페이스를 통해 전송할 수 있다.
유리하게는, 입체 이미지 데이터는 2D 이미지 데이터 및 이미지 깊이 데이터를 포함하고, 포맷기는 보조 데이터 채널을 통해 깊이 데이터를 전송하도록 배열된다.
보조 데이터 채널은 주 채널과 동일한 케이블 내에 별도의 라인, 또는 라인들; 주 채널을 전달하는 제 1 케이블과 별개의 제 2 케이블; 또는 무선 링크를 포함할 수 있다.
본 발명의 관련된 양태는 오디오-비주얼 디바이스와 또 다른 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 지원하기 위한 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부를 제공하는 것이며, 인터페이스부는:
인터페이스의 주 이미지 데이터 전송 채널 및 보조 데이터 채널에 연결하기 위한 입력부; 및
인터페이스의 주 이미지 데이터 전송 채널로부터 입체 이미지의 일부를 추출하고 보조 데이터 채널로부터 입체 이미지 데이터의 또 다른 부분을 추출하도록 배열된 처리기를 포함한다.
본 발명의 관련된 양태는 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 통해 입체 이미지 데이터를 전송하는 방법을 제공하는 것이며, 방법은 제 1 오디오-비주얼 디바이스에서:
인터페이스를 통한 전송을 위해 입체 이미지 데이터를 수신하는 단계; 및
인터페이스의 주 이미지 데이터 전송 채널을 통해 입체 이미지 데이터의 일부 및 보조 데이터 채널을 통해 입체 이미지 데이터의 또 다른 부분을 전송하는 단계를 포함한다.
본 발명의 관련된 양태는 오디오-비주얼 디바이스와 또 다른 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 지원하기 위한 오디오-비주얼 디바이스에서 입체 이미지 데이터를 처리하는 방법을 제공하는 것이며, 방법은:
인터페이스의 주 이미지 데이터 전송 채널로부터 입체 이미지 데이터의 일부를 추출하고 보조 데이터 채널로부터 입체 이미지 데이터의 또 다른 부분을 추출하는 단계를 포함한다.
본 발명의 또 다른 양태는 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 지원하기 위한 제 1 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부를 제공하는 것이며, 인터페이스부는:
입체 이미지 데이터를 수신하기 위한 입력부; 및
스트림에서 간격을 두고 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들의 스트림을 생성하도록 배열된 포맷기를 포함하고, 입체 이미지 데이터를 디코딩하는데 이용하는 시그널링 정보는 보조 데이터 요소들 중 적어도 하나에 의해 전달된다.
입체 이미지 데이터가 좌측 눈 이미지 데이터 및 우측 눈 이미지 데이터를 포함하는 경우, 시그널링 정보는 어떤 데이터 요소들이 좌측 눈 이미지 데이터를 전달하고, 어떤 데이터 요소들이 우측 눈 이미지 데이터를 전달하는지를 명시할 수 있다. 좌측 눈 이미지들 및 우측 눈 이미지들이 라인 단위 원칙으로 인터리빙(interleaving)되는 경우, 시그널링 정보는 필드 또는 프레임 당 한번과 같은, 매우 적은 빈도로 전송될지라도 인터리빙된 라인들 각 쌍에 대해 한번 전송될 수 있다.
입체 이미지 데이터가 2D 이미지 데이터 및 깊이 정보를 포함하는 경우, 시그널링 정보는 전송 위치, 깊이 정보의 양 중 적어도 하나를 명시할 수 있다.
유리하게는, 입체 이미지 데이터가 복수의 상이한 가능한 포맷들을 갖는 경우, 시그널링 정보는 그 포맷을 명시한다. 입체 이미지 데이터에 대한 포맷들 중 하나는 종래의 2D 이미지 포맷 내에 입체 이미지 데이터를 인코딩하는 방식일 수 있다.
유리하게는, 시그널링 정보는 수평 또는 수직 공백 기간에 전달되고, 고선명 멀티미디어 인터페이스(HDMI)에 있어서 시그널링 정보는 데이터 아일랜드 패킷으로 전송될 수 있다.
본 발명의 관련된 양태는 오디오-비주얼 디바이스와 또 다른 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 지원하기 위한 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부를 제공하는 것이며, 인터페이스부는:
인터페이스로부터, 스트림에서 간격을 두고 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들의 스트림을 수신하기 위한 입력부를 포함하고;
입체 이미지 데이터를 디코딩하기 위해 보조 데이터 요소들 중 적어도 하나에 전달된 시그널링 정보를 이용한다.
본 발명의 관련된 양태는 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 통해 제 1 오디오-비주얼 디바이스에서 입체 이미지 데이터를 전송하는 방법을 제공하는 것이며, 방법은:
입체 이미지 데이터를 수신하는 단계; 및
스트림에서 간격을 두고 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들의 스트림을 생성하는 단계를 포함하고, 입체 이미지 데이터를 디코딩하는데 이용하기 위한 시그널링 정보는 보조 데이터 요소들 중 적어도 하나에 전달된다.
본 발명의 관련된 양태는 오디오-비주얼 디바이스의 디지털 디스플레이 인터페이스부에서 입체 이미지 데이터를 처리하는 방법을 제공하는 것이며, 방법은:
인터페이스로부터, 스트림에서 간격을 두고 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들의 스트림을 수신하는 단계; 및
입체 이미지 데이터를 디코딩하기 위해 보조 데이터 요소들 중 적어도 하나에 전달된 시그널링 정보를 이용하는 단계를 포함한다.
본 발명의 또 다른 양태는 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 지원하기 위한 상기 제 1 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부를 제공하는 것이며, 인터페이스부는:
입체 이미지 데이터 구성요소들을 수신하기 위한 입력부; 및
스트림에서 간격을 두고 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들의 스트림을 생성하도록 배열된 포맷기를 포함하고, 입체 이미지 데이터는 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들 사이에 분배된다.
유리하게는, 입체 이미지 데이터 구성요소들은 2D 이미지 데이터 및 이미지 깊이 데이터이고, 깊이 데이터는 보조 데이터 전달 데이터 요소들에 전달된다. 유리하게는, 스트림은 이미지의 어느 부분이 깊이 정보와 관련되는지를 명시하는 보조 데이터 전달 데이터 요소 내에 전달되는 시그널링 정보를 추가로 포함한다.
보조 데이터 전달 데이터 요소들은 HDMI 데이터 아일랜드 패킷들과 같은, 수평 또는 수직 공백 기간에 전송된다.
본 발명의 관련된 양태는 오디오-비주얼 디바이스와 또 다른 오디오-비주얼 디바이스 사이에 디지털 디스플레이 인터페이스를 지원하기 위한 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부를 제공하는 것이며, 인터페이스부는:
인터페이스로부터, 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들의 스트림을 수신하기 위한 입력부; 및
이미지 데이터 전달 데이터 요소들로부터 입체 이미지 데이터 및 보조 데이터 전달 데이터 요소들로부터 입체 이미지 데이터의 적어도 일부를 추출하도록 배열된 처리기를 포함한다.
본 발명의 관련된 양태는 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 통해 입체 데이터를 전송하는 방법을 제공하는 것이며, 방법은 상기 제 1 오디오-비주얼 디바이스에서:
입체 이미지 데이터 구성요소들을 수신하는 단계; 및
스트림에서 간격을 두고 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들의 스트림을 생성하고, 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들 사이에 입체 이미지 데이터를 분배하는 단계를 포함한다.
본 발명의 관련된 양태는 오디오-비주얼 디바이스의 디지털 디스플레이 인터페이스부에서 입체 이미지를 처리하는 방법을 제공하는 것이며, 방법은:
인터페이스로부터, 이미지 데이터 전달 데이터 요소들 및 보조 데이터 전달 데이터 요소들의 스트림을 수신하는 단계; 및
이미지 데이터 전달 데이터 요소들로부터 입체 이미지 데이터 및 보조 데이터 전달 데이터 요소들로부터 입체 이미지 데이터의 적어도 일부를 추출하는 단계를 포함한다.
여기서 기술된 기능성은 소프트웨어, 하드웨어 또는 이들의 조합으로 구현될 수 있다. 본 발명은 몇 개의 독특한 요소들을 포함하는 하드웨어에 의해, 및 적합하게 프로그래밍된 컴퓨터에 의해 구현될 수 있다. 따라서, 본 발명의 추가의 양태들은 임의의 방법들을 구현하기 위한 소프트웨어를 제공한다. 소프트웨어는 전자 메모리 디바이스, 하드 디스크, 광학 디스크 또는 다른 기계-판독가능한 저장 매체 상에 저장될 수 있다. 소프트웨어는 컴퓨터-판독가능한 캐리어 상의 컴퓨터 프로그램 제품으로서 전달될 수 있거나 네트워크 연결을 통해 AV 디바이스에 다운로드될 수 있다.
또한 본 발명은 방법들 중 임의의 방법으로부터 초래되는 디스플레이 인터페이스를 통한 전송용 신호들로 확장된다.
본 발명의 다양한 양태들의 특징들은 조합될 수 있다.
본 발명의 실시예들은 첨부 도면들을 참조하여 예시로만 기술될 것이다.
본 발명에 따라, 디지털 디스플레이 인터페이스를 통해 입체 이미지 데이터를 전달하는 대안적인 방식을 제공할 수 있다.
도 1은 두 AV 디바이스 사이에 이미지 데이터를 전달하기 위한 디스플레이 인터페이스를 도시하는 도면.
도 2는 인터페이스의 하나의 종단에서의 포맷팅 기능을 도시하는 도면.
도 3은 디스플레이 인터페이스를 통해 2D 이미지 데이터를 전송하는 종래의 방식을 도시하는 도면.
도 4 및 도 5는 디스플레이 인터페이스를 통해 입체 이미지 데이터를 전송하는 방식들을 도시하는 도면.
도 6은 HDMI 비디오 프레임의 포맷을 도시하는 도면.
도 7은 보조 데이터 채널을 포함하는 디스플레이 인터페이스를 도시하는 도면.
도 1은 본 발명이 이용될 수 있는 일 예시적인 시나리오를 도시한다. 도 1에서, 디지털 AV 콘텐트의 소스를 제공할 수 있는 AV 디바이스(10)는 디지털 디스플레이 인터페이스(DDI)(40)를 통해 디스플레이(또는 비디오 프로젝터)(20)에 연결된다. 디바이스들(10, 20)의 인터페이스부들(12, 22)은 인터페이스(40)를 지원하고, 인터페이스(40)를 규정하는 표준들에 의해 요구되는 형태로 신호들을 포맷하는 것과 같은 기능들을 제공한다. 소스 디바이스(10)는 하드 디스크, 고체 상태 메모리 또는 광학 디스크 또는 임의의 다른 고정된 또는 제거가능한 저장 매체 또는 디바이스와 같은 기억장치(11)로부터 디지털 AV 콘텐트를 검색할 수 있는 디바이스일 수 있다. 디바이스(10)의 예들은 개인 비디오 레코더(PVR), DVD 재생기와 같은 광학 디스크 재생기, HD-DVD 재생기 또는 블루-레이 재생기를 포함한다. 대안적으로, 디바이스(10)는 분배 채널(브로드캐스트 채널 또는 광대역 네트워크 또는 다른 형태의 네트워크(예를 들면, 홈 네트워크)와 같은)로부터 콘텐트를 수신하는 셋-톱 박스의 형태를 취할 수 있다.
입체(3D) 이미지들을 디스플레이하는 다양한 방법들이 있다. 인터페이스를 통해 3D 이미지 데이터를 전달하기 위한 2개의 주요한 방법들은 사람 눈들이 보게 되는 좌측 및 우측 뷰들을 나타내는 2개의 완전한, 개별적인 입체 이미지들을 송신하는 것, 및 디스플레이 내에서 입체 이미지들을 생성하도록 이용될 수 있는 연관된 깊이 정보를 갖는 보통의 2D 이미지를 전송하는 것이다. 제 1 방법은 보통 인터페이스를 통해 상당히 높은 대역폭(2D 이미지가 필요로 하는 것보다 2배까지)을 필요로 하지만, 디스플레이에서의 처리는 거의 필요로 되지 않고, 제 2 방법은 대역폭에서 보다 적은 증가를 필요로 할 수 있지만, 깊이 정보를 처리하도록 디스플레이에서 임의의 빠른 실시간 처리를 요구한다.
HDMI와 같은, 현재의 디지털 디스플레이 인터페이스들은 매우 높은 대역폭을 제공한다. 이 인터페이스들은 그들의 대역폭 제한들로 인해 압축된 이미지들을 전송해야 하는 다른 전송 매커니즘들(예를 들면, 이더넷, USB, IEEE1394)과 달리 압축되지 않은 화소 정보를 전송한다. 원래, HDMI에 의해 전달되는 이미지들은 소위 "24-비트 컬러"이라 칭하는 화소 당 컬러 당 8비트들로 제한된다. 버전 1.3으로부터 HDMI에 대한 개선들은 HDMI가 화소 당 컬러 당 10, 12 및 16비트들(즉 48-비트 컬러까지)을 전달하는 옵션들을 구비하여 화소 당 보다 많은 비트들을 전달하는 것을 허용한다. HDMI는 막 기술한 보다 높은 컬러 깊이들을 허용하는 깊은 컬러 화소 패킹 모드들(HDMI 1.3a, 섹션 6.5.3)을 기술한다.
본 발명의 하나의 실시예에 따라, 깊은 컬러 모드들이 입체 이미지 데이터를 전송하는데 이용된다. 입체 이미지 데이터는 좌측 이미지 데이터 + 우측 이미지 데이터 또는 2D + 깊이 정보일 수 있다. 도 2는 인터페이스부(12) 내에서 이용된 포맷 기능(15)을 도시한다. 포맷기(15)는 다수의 상이한 모드들 중 하나로 선택적으로 동작할 수 있다. 이는 처리를 위해 입력들의 세트들 중 하나: 2D 이미지 데이터(31); 2D + 깊이 이미지 데이터(32, 33); 또는 좌측 눈 및 우측 눈 이미지 데이터(34, 35)를 선택하는 포맷기 및 인터페이스 출력(39)으로의 선택적인 연결(38)에 의해 개략적으로 도시된다. 포맷기(15)는 24-비트 컬러 이미지 데이터(31)와 같은, 종래의 2D 이미지 데이터(31)를 수신할 수 있다. 통상적으로 이는 RGB 또는 구성요소 비디오(Y, Cr, Cb) 포맷으로 수신된다. 입체 이미지 데이터를 수신하면, 포맷기(15)는 이미지 데이터 구성요소들을 멀티플렉싱(36, 37)시킨다. 좌측 눈/우측 눈 데이터에 있어, 좌측 눈 데이터 및 우측 눈 데이터는 통상적으로 화소들을 조합하기 위한 다른 알고리즘들이 본 발명의 범위 내에 또한 있지만, 좌측 눈/우측 눈 프레임들에서 동일한 화소들 또는 이미지들의 필드들로부터 취해질 것이다. 2D 이미지 + 깊이 정보에 있어서, 2D 이미지 데이터는 단일의 화소(예를 들면, RGB 또는 구성요소 비디오 포맷)에 통상적으로 대응할 것이고, 깊이 정보는 다른 형태를 취할 것이고, 및 2D 이미지의 화소와 상이한 이미지 영역에 대응할 수 있다. 포맷기(15)는 3D 포맷들(즉, 단지 L + R, 또는 단지 2D + 깊이) 중 하나만 지원하거나 3D 포맷의 두 유형들을 지원할 수 있다.
도 3 내지 도 5는 이미지 데이터가 멀티플렉싱될 수 있는 상이한 방식들의 범위를 도시한다. 도 3은 종래의 이미지 데이터를 도시한다. HDMI에서, 3개의 컬러 구성요소들(R, G, B 또는 Y, Cr, Cb)이 3개의 TMDS(Transition Minimised Differential Signaling) 채널들(41) 상에서 동시에 전송된다. TMDS는 데이터 스트림에서 천이들의 수의 감소 뿐만 아니라, 대략의 DC 균형을 유지하도록 데이터에 적용되는 라인-레벨 코딩을 지칭한다. 각각의 컬러 구성요소는 표준 컬러 깊이(예를 들면, 화소 당 컬러 당 8비트들) 또는 화소 당 컬러 당 16비트들과 같은, 향상된 컬러 깊이를 이용하여 전송될 수 있다. 도 4는 입체 좌측 눈/우측 눈 데이터가 멀티플렉싱될 수 있는 방식을 도시한다. 좌측 눈 데이터(R, G, B 또는 Y, Cr, Cb)의 구성요소들이 각 데이터 전달 구성요소의 제 1 부분에서 전송되고, 그 다음, 우측 눈 데이터(R, G, B 또는 Y, Cr, Cb)의 구성요소들이 바로 이어진다. 좌측 눈 및 우측 눈은 동일한 패킷, 연속적인 이미지 데이터 패킷들, 또는 연속적인 이미지 데이터 패킷들의 부분들 내에서 전송된다. 화소 당 컬러 당 16-비트 모드가 이용되는 예로서, 비트들(0 내지 7)은 좌측 이미지 Y 데이터를 전달할 수 있고, 비트들(8 내지 15)은 우측 이미지 Y 데이터를 전달한다. HDMI 1.3a는 일반적으로 화소 당 컬러 당 16-비트들까지(48-비트 컬러)의 컬러 깊이를 허용한다. 도 4는 인터페이스로부터 어떠한 부가적인 용량도 필요로 하지 않고 기존의 48-비트 컬러 모드 내에서 전달될 수 있다. HDMI(및 다른 것) 명세들의 미래의 개정안들은 보다 큰 깊이를 허용하도록 대역폭을 확장할 수 있다는 것이 이해될 것이며, 이는 좌측 눈 및 우측 눈 이미지들 각각이 화소 당 보다 많은 비트들을 이용하도록 허용하여 보다 풍부한 3D 이미지들을 허용할 것이다.
도 5는 2D 이미지 데이터 + 깊이 정보를 전송하기 위한 방식을 도시하고, 여기서 2D 데이터가 앞서 전송되고, 그 다음, 깊이 데이터가 이어진다. 각 컬러 구성요소(R, G, B 또는 Y, Cr, Cb)는 동일한 포맷을 따른다. 도 6에서, 패킷의 용량은 임의의 다른 분할이 가능할지라도, 2D 데이터와 깊이 정보 사이에 균등하게 분할된다. 2D 데이터보다 상당히 적은 깊이 데이터를 전송하는 것이 가능할 수 있는데, 이는 2D 이미지가 넓은 컬러 팔레트 및/또는 고해상도를 이용하는 것을 허용할 수 있다. 수평 및 수직 라인 공백 기간들 내에서 전달되는 특정 HDMI 데이터 아일랜드 패킷들 내에서와 같은, 송신된 데이터 스트림의 상이한 부분들의 깊이 정보 중 일부 - 또는 모두 - 를 전송하는 것도 가능하다. 이는 예를 들면, 이미지의 영역에 적용하는 바와 같이 특정 화소에 직접 부착되지 않는 깊이 정보에 대해 특히 유용하다.
인터페이스부(12)는 예를 들면, 이미지 데이터가 2D, 스테레오(L+R) 또는 스테레오(2D + 깊이)인지의 여부를 나타내는 이미지 데이터의 포맷을 나타내는 시그널링(42)을 전송한다. 또한, 시그널링은 컬러 깊이 모드가 멀티플렉싱된 데이터, 2D 데이터에 할당되는 데이터 요소 당 비트들의 수 및 깊이 데이터에 할당되는 데이터 요소 당 비트들의 수를 전달하는데 이용되는 멀티플렉싱 방식의 부가적인 상세들을 표시할 수 있다. 이 시그널링은 스테레오 데이터가 인터페이스(40)를 통해 전송된 데이터 전달 요소들에 할당되는 방법 면에서의 유연성을 허용하고, 디스플레이될 콘텐트의 요건들에 따라 동적으로 변경되는 깊이 정보의 양을 참작한다. HDMI에서, 데이터 아일랜드 패킷들은 수평 및 수직 라인 공백 기간들에서 전송된다. 시그널링 정보는 데이터 아일랜드 패킷 내에서 편리하게 전달될 수 있다. 도 6은 TMDS 채널들을 통해 화소 데이터가 전송되는 영역(61), 수평 공백 기간(63) 및 수직 공백 기간을 도시하는 HDMI 비디오 프레임의 레이아웃(layout)을 도시한다. 데이터 아일랜드 패킷들(64)은 수평 및 수직 공백 기간들(62, 63) 내에 위치한 데이터 아일랜드 기간들 내에서 전송된다. 시그널링 데이터는 일반적인 제어 패킷, 보조 비디오 인포프레임(AVI) 패킷 또는 이런 목적을 위해 특수하게 설계된 인포프레임 패킷에서 전달될 수 있다. 깊이 데이터가 데이터 요소들을 전달하는 화소 데이터 및 스트림의 다른 장소들 둘 모두 내에 전달되는 경우, 시그널링은 깊이 데이터가 발견되는 곳을 나타낼 수 있다. 깊이 데이터의 양 및 깊이 데이터의 위치(들)는 이미지 또는 이미지들의 시퀀스 동안 동적인 원리에 따라, 이미지의 요구되는 컬러 깊이, 해상도 또는 복잡성(예를 들면, 이미지 내의 깊이 정보의 양)에 의존하여 변할 수 있다.
AV 디바이스(20)는 3D 이미지를 렌더링하도록 적합한 처리를 데이터에 적용한다. 이용자가 별도의 좌측 및 우측 이미지들을 동시에 또는 순차적으로 제공받는 입체 디스플레이의 경우, 처리기(21)는 별도의 좌측 눈 및 우측 눈 이미지들을 구성하고, 이들(24)을 요구된 시간에 출력한다. 순차적인 입체 디스플레이들에 있어서, 추가적인 출력(23)은 셔터된 안경들의 동작에 동기화하도록 제공된다. 벤트리큘러 스크린을 이용하는 디스플레이와 같은, 입체 디스플레이의 경우에, 처리기(21)는 입체 디스플레이를 생성하도록 디스플레이 요소들에 출력(24)될 필요가 있는 이미지 데이터를 구성한다. 인터페이스부(22) 및 처리기(21)는:
입체 이미지 데이터가 전송되고 있는지를 결정하고; 어떤 일반적인 입체 이미지 포맷이 이용되는지를 결정하고(예를 들면, 좌측+ 우측 이미지; 2D + 깊이; 활성 이미지 데이터 내에 인코딩된 스테레오);
이미지 데이터가 인터페이스상에서 어떻게 인코딩되고 있는지에 관한 추가의 상세를 결정하고, 이에 따라 어떤 디코딩 방식이 수신기에서 이용되어야 할지를 결정하도록 인터페이스를 통해 전송된 시그널링 정보를 이용한다. 이는 이용되고 있는 깊은 컬러 모드에 관한 정보, 2D와 깊이 데이터 사이의 비트 할당, 깊이 데이터의 전송 위치(예를 들면, 특정한 데이터 아일랜드 패킷들 또는 보조 채널 위치들)를 포함할 수 있다.
AV 디바이스들(10, 20) 사이의 추가적인 시그널링은 싱크 디바이스(20)가 이미지 데이터를 수신 및 처리하는 자신의 성능들을 표시하는 것을 허용한다. 성능 정보는 2D 및 스테레오 이미지 데이터를 전송하는 각 모드에 대해 최대 허용된 대역폭을 나타낼 수 있다. HDMI에서, 싱크 디바이스의 성능은 디스플레이 데이터 채널(DDC)을 이용할 수 있고, 성능 데이터는 싱크에서의 확장된 디스플레이 식별 데이터(EDID) ROM에 기억된다.
인터페이스는 입체 데이터를 전송하기 위한 다른 방식들을 지원할 수 있다. 제 1 대안은 순차적으로 전달되는(완전한 좌측 이미지 후에 완전한 우측 이미지가 뒤따름) 2개의 개별적인 완전한 이미지들을 전송하는 것이다. 좌측 및 우측 이미지의 표시는 HDMI 데이터 아일랜드 패킷과 같은, 이미지 데이터의 위치에 바로 인접하여 전달되는 시그널링 정보에 의해 표시될 수 있다.
제 2 대안은 2개의 이미지들의 라인들이 인터레이싱(interlaced)된 채로 2개의 개별적인 이미지들을 전송하는 것이다. 예를 들면, 좌측 이미지의 제 1 라인이 먼저 송신되고, 우측 이미지의 제 1 라인이 후속되는 등이다.
제 3 대안은 종래의 방식으로 2D 이미지를 전송하고, 깊이 정보를 전달하는데 전용된 특정 데이터 아일랜드 패킷들에서 깊이 정보를 전달시키는 것이다.
이러한 대안들 각각에서, HDMI 데이터 아일랜드 패킷과 같은, 이미지 데이터의 위치에 바로 인접하여 전달된 시그널링 정보는 어떤 이미지 데이터가 대응하는지를 표시할 수 있다. 제 3 대안에 있어서, 시그널링 정보는 이미지의 어떤 부분이 깊이 데이터에 관련되는지를 특정할 수 있다. 상술한 바와 같이, HDMI 데이터 아일랜드 패킷들은 일반적인 제어 패킷, 보조 비디오 인포프레임(AVI) 패킷 또는 이런 목적을 위해 특별히 설계된 인포프레임 패킷일 수 있다. 3개의 패킷들의 정보는;
이용되고 있는(상술함) 현재 입체 방법(필드, 라인 또는 바이트);
깊은 컬러 화소 패킹 모드가 3D 정보 또는 깊은 컬러 모드 2D 정보를 전달하기 위해 이용되고 있는지의 여부;
현재 필드, 라인 또는 바이트에 대한 좌측 및 우측 이미지들의 맵핑;
얼마나 많은 데이터 아일랜드 패킷 패킷들/서브-패킷들이 깊이 정보를 전달하기 위해 이용되고 있는지; 및
다른 입체 이미지 데이터 구성요소들의 위치를 식별할 수 있다.
상술한 실시예들은 별도의 입체 이미지 구성요소들이 디스플레이 인터페이스를 통해 어떻게 전달되는지를 도시한다. 특별히 벤트리큘러 스크린 상에 디스플레이를 위해 의도된 일부 애플리케이션들에서, 인터페이스부(12)에서 수신된 화상은 입체 콘텐트로 이미 인코딩되어 있을 수 있다. 예로서, 기술분야 부분에서 기술한 WOWvx 인코딩된 이미지는 2D 이미지, 깊이 정보 및/또는 종래의 이미지의 개별 영역들에 이미 임베딩된 폐색 정보를 포함한다. 일 실시예에서, 2D 이미지는 이미지 화소들의 1/4(예를 들면, 화상의 총 라인들의 절반에 대한 라인의 절반에서)에서 전달된다. 연관된 깊이 및/또는 폐색 정보는 제공된 화상의 나머지 3/4에서 전달된다. 이 경우, 화상의 라인들은 이들이 모든 가용한 라인들에 대해 각 라인 모두를 차지하는 단일의 2D 이미지가라고 판단하기 때문에 HDMI 링크를 통해 전송된다. 이러한 3D 이미지를 식별하기 위해 HDMI 데이터 아일랜드 패킷(통상적으로 일반적인 제어 패킷, 보조 비디오 인포프레임(AVI) 패킷, 또는 특별히 설계된 인포프레임 패킷)은 이러한 방법을 표시한다. 이 패킷의 정보는:
- 이용되고 있는 현재 입체 방법(예를 들면, 2D + 깊이); 및
- 디스플레이에 의해 필요로 되는 이 방법에 속하는 임의의 정보를 식별한다.
싱크는 이 정보를 이용하고 그에 따라 화상을 처리하기 때문에 송신된 화상을 식별한다. 또한, 싱크는 이 방법을 지원한다는 것을 표시하는 EDID의 정보를 전달한다.
상기 기술에서, 입체 이미지 데이터는 채널들의 요소들을 전달하는 보통의 데이터 내의 입체 이미지를 멀티플렉싱하거나, 동일한 채널을 통해 전달된 다른 패킷들(예를 들면, 데이터 아일랜드 패킷들) 내의 입체 이미지 데이터의 적어도 부분을 전달함으로써 인터페이스(예를 들면, HDMI 전송 스트림)의 채널을 통해 전달된다. 본 발명의 추가의 실시예는 기가비트 이더넷, IEEE1394 또는 고속 무선 링크와 같은 연관된 고속 보조 데이터 링크를 통해 입체 이미지의 적어도 일부를 전달한다. 시그널링 정보는 어느 정보가 인터페이스의 주 채널들에 의해 전달되고, 어느 것이 연관된 보조 링크에 의해 전달되는지를 식별한다. HDMI에서, 시그널링 정보는 데이터 아일랜드 패킷으로 전달될 수 있다. 유사한 또는 보충적인 식별 정보는 연관된 고속 보조 링크 상에서 또한 전달될 수 있다. 싱크는 어떤 링크 상에 어떤 정보가 전달되는지를 식별하도록 수신된 데이터 아일랜드 패킷들을 이용하고, 프리젠테이션 또는 처리를 위해 필요한 포맷으로 2개의 데이터 스트림들을 조합한다. HDMI 및 연관된 보조 링크의 특성들에 의존하여, 그들 사이의 동기를 유지하기 위해 두 스트림들에 포함된 데이터를 버퍼링할 필요가 있을 수 있다. 상기 실시예를 이용하는 하나의 실시예에서, 보조 링크를 위한 연관된 배선들이 HDMI 케이블 내에 전달되고; 이 선택은 인터페이스부들(12, 22)의 모듈들(51, 52)을 연결하는 부가선(50)에 의해 도 7에서 도시된다. 다른 실시예들에서, 연관된 보조 링크는 디바이스들(10,20)을 연결하는 별도의 케이블, 또는 고속 무선 링크에 전달될 수 있다.
개시된 실시예들에 대한 다른 변동들은 도면들, 개시들 및 첨부된 청구범위의 연구로부터, 청구된 발명을 실시하는 당업자들에 의해 이해 및 달성될 수 있다. 청구범위에서, 단어 "포함하는(comprising)"은 다른 요소들 또는 단계들을 배제하지 않고, 부정관사("a" 또는 "an")는 복수를 배제하지 않는다. 단일 처리기 또는 다른 유닛은 청구범위에 인용된 몇 개의 항목들의 기능들을 충족시킬 수 있다. 특정한 측정들이 상호적으로 상이한 종속 청구항들에서 인용된다는 단순한 사실이 이러한 측정들의 조합이 유리하게 이용되지 않는다는 것을 나타내지 않는다. 청구범위에서 임의의 참조 부호들은 범위를 제한하는 것으로서 해석되서는 안된다.
10: AV 디바이스 11: 기억장치
12: 인터페이스부 15, 25: 포맷기
17, 27: 제어부 20: AV 디바이스
21: 처리기 22: 인터페이스부
23, 24: 출력부
31, 32: 2D 이미지 데이터 33: 깊이 정보
34: 좌측 눈 이미지 데이터
35: 우측 눈 이미지 데이터 36, 37: 멀티플렉서
39: 인터페이스 출력부
40: 디지털 디스플레이 인터페이스 41: TMDS 채널
51, 52: 모듈
61: 화소 데이터 송신 영역
64: 데이터 아일랜드 패킷

Claims (18)

  1. 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 지원하기 위해 상기 제 1 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부(digital display interface part)로서, 상기 디지털 디스플레이 인터페이스는 압축되지 않은 화소 정보를 전송하기 위해 알려진 데이터 전달 용량(a known data carrying capacity)을 갖는, 상기 디지털 디스플레이 인터페이스부에 있어서:
    이미지 데이터를 수신하기 위한 입력부; 및
    상기 인터페이스를 통한 전송을 위해 상기 데이터를 포맷(format)하도록 구성된 포맷기를 포함하고, 상기 포맷기는, 상기 제 2 오디오-비주얼 디바이스로부터 수신되는 신호 정보에 따라서:
    상기 알려진 데이터 전달 용량 이하의 데이터 전달 용량에서, 제 1 데이터 요소들의 스트림(stream)을 생성하는 제 1 모드로서, 상기 제 1 데이터 요소는 2D 이미지의 화소 데이터를 포함하는, 상기 제 1 모드; 및
    입체 이미지의 구성요소들의 멀티플렉싱된 조합을 전달하는 제 2 데이터 요소들의 스트림을 생성하는 제 2 모드로서, 상기 입체 이미지 요소들의 상기 구성요소들은 상기 인터페이스의 제 1 부분과 상기 인터페이스의 제 2 부분으로 전송되고, 상기 제 1 부분 및 상기 제 2 부분 각각은 상기 알려진 데이터 전달 용량보다 더 작은 데이터 전달 용량을 갖고, 상기 제 1 부분 및 상기 제 2 부분은 상기 알려진 데이터 전달 용량 이하의 조합된 데이터 전달 용량을 갖고, 상기 인터페이스부는 상기 인터페이스를 통해 시그널링 정보를 송신하도록 구성되고, 상기 시그널링 정보는 상기 포맷기가 어떠한 모드를 사용하고 있는지 및 상기 제 2 데이터 요소들의 스트림의 특성들을 식별하는, 상기 제 2 모드로 동작가능한, 디지털 디스플레이 인터페이스부.
  2. 제 1 항에 있어서,
    상기 시그널링 정보는 상기 제 2 오디오-비주얼 디바이스로 하여금 상기 제 2 모드에서 사용되고 있는 입체 이미지 포맷을 결정하도록 하기 위한 정보를 포함하는, 디지털 디스플레이 인터페이스부.
  3. 제 2 항에 있어서,
    상기 시그널링 정보는 수평 및 수직 공백 기간 중 하나에서 수행되는, 디지털 디스플레이 인터페이스부.
  4. 제 1 항에 있어서,
    상기 인터페이스는 고선명 멀티미디어 인터페이스(High Definition Multimedia Interface; HDMI)이고, 상기 시그널링 정보는 이미지 데이터 사이에서 데이터 아일랜드 패킷(Data Island Packet)으로 전송되는, 디지털 디스플레이 인터페이스부.
  5. 제 4 항에 있어서,
    상기 인터페이스를 통해 수신되는 상기 시그널링 정보는 상기 제 2 오디오-비주얼 디바이스의 성능들을 명시하는, 디지털 디스플레이 인터페이스부.
  6. 제 1 항에 있어서,
    상기 입체 이미지 데이터 구성요소들은 좌측 눈 이미지 데이터 및 우측 눈 이미지 데이터인, 디지털 디스플레이 인터페이스부.
  7. 제 6 항에 있어서,
    상기 좌측 눈 이미지 데이터 및 우측 눈 이미지 데이터를 연속적으로 전송하도록 구성되는, 디지털 디스플레이 인터페이스부.
  8. 제 7 항에 있어서,
    상기 좌측 및 우측 눈 이미지 데이터의 표시는 상기 이미지 데이터의 위치에 바로 인접하여 전달되는 시그널링 정보에 의해 표시되는, 디지털 디스플레이 인터페이스부.
  9. 제 6 항에 있어서,
    라인 인터리빙(line interleaving)에 의해 상기 좌측 눈 이미지 데이터 및 상기 우측 눈 이미지 데이터를 전송하도록 구성되는, 디지털 디스플레이 인터페이스부.
  10. 제 1 항에 있어서,
    상기 입체 이미지 데이터 구성요소들은 2D 이미지 데이터 및 이미지 깊이 데이터인, 디지털 디스플레이 인터페이스부.
  11. 제 10 항에 있어서,
    상기 포맷기는 2D 이미지 데이터를 전달하기 위해 제 2 데이터 요소의 일부분 및 이미지 깊이 데이터를 전달하기 위해 제 2 데이터 요소의 또 다른 부분을 이용하도록 구성되는, 디지털 디스플레이 인터페이스부.
  12. 오디오-비주얼 디바이스에서 이용하기 위한 디지털 디스플레이 인터페이스부(digital display interface part)로서, 상기 인터페이스부는 상기 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 알려진 데이터 전달 용량을 갖는 디지털 디스플레이 인터페이스를 지원하는, 상기 디지털 디스플레이 인터페이스부에 있어서:
    상기 인터페이스로부터 포맷된 이미지 데이터를 수신하기 위한 입력부; 및
    상기 이미지 데이터를 추출하도록 구성된 처리기를 포함하고, 상기 처리기는, 상기 제 2 오디오-비주얼 디바이스의 성능들에 따라:
    상기 처리기가 상기 알려진 데이터 전달 용량 이하의 데이터 전달 용량에서 제 1 데이터 요소들의 스트림으로부터 2D 이미지에 대한 화소 이미지 데이터를 추출하는 제 1 모드; 및
    상기 처리기가 입체 이미지의 구성요소들의 멀티플렉싱된 조합을 전달하는 제 2 데이터 요소들의 스트림으로부터 입체 이미지의 구성요소들을 디멀티플렉싱하는 제 2 모드로서, 상기 입체 이미지 요소들의 상기 구성요소들은 상기 인터페이스의 제 1 부분과 상기 인터페이스의 제 2 부분으로 전송되고, 상기 제 1 부분 및 상기 제 2 부분 각각은 상기 알려진 데이터 전달 용량보다 더 작은 데이터 전달 용량을 갖고, 상기 제 1 부분 및 상기 제 2 부분은 상기 알려진 데이터 전달 용량 이하의 조합된 데이터 전달 용량을 갖고, 상기 인터페이스부는 상기 인터페이스를 통해 시그널링 정보를 수신하도록 더 구성되고, 상기 시그널링 정보는 상기 제 1 모드 및 상기 제 2 모드 중에서 어떠한 것이 사용되는지 및 상기 제 2 데이터 요소들의 스트림의 특성들을 식별하는, 상기 제 2 모드로 동작가능한, 디지털 디스플레이 인터페이스부.
  13. 제 12 항에 있어서,
    상기 시그널링 정보는:
    상기 오디오-비주얼 디바이스로 하여금 사용되고 있는 입체 이미지 포맷을 결정하도록 하기 위한 정보를 포함하고,
    상기 인터페이스부는 상기 사용되고 있는 입체 이미지 포맷을 결정하도록 구성되는, 디지털 디스플레이 인터페이스부.
  14. 제 12 항에 있어서,
    상기 인터페이스는 고선명 멀티미디어 인터페이스(High Definition Multimedia Interface; HDMI)이고, 상기 시그널링 정보는 이미지 데이터 사이에서 데이터 아일랜드 패킷(Data Island Packet)으로 수신되는, 디지털 디스플레이 인터페이스부.
  15. 제 12 항에 있어서,
    상기 입체 이미지 데이터 구성요소들은 좌측 눈 이미지 데이터 및 우측 눈 이미지 데이터인, 디지털 디스플레이 인터페이스부.
  16. 제 1 오디오-비주얼 디바이스와 제 2 오디오-비주얼 디바이스 사이의 디지털 디스플레이 인터페이스를 통한 전송을 위해 상기 제 1 오디오-비주얼 디바이스의 디지털 디스플레이 인터페이스부에서 이미지 데이터를 포맷하는 방법으로서, 상기 디지털 디스플레이 인터페이스는 압축되지 않은 화소 정보를 전송하기 위해 알려진 데이터 전달 용량을 갖는, 상기 이미지 데이터를 포맷하는 방법에 있어서, 상기 방법은 상기 디지털 디스플레이 인터페이스부에서 프로세서로 하여금:
    이미지 데이터를 수신하는 단계; 및
    시그널링 정보에서 수신되는 상기 제 2 오디오-비주얼 디바이스의 성능에 따라, 상기 인터페이스를 통한 전송을 위해 상기 이미지 데이터를 포맷하는 단계를 포함하여 실행하도록 하고, 상기 포맷하는 단계는:
    제 1 모드에서, 상기 알려진 데이터 전달 용량 이하의 데이터 전달 용량에서, 제 1 데이터 요소들의 스트림을 생성하는 단계로서, 상기 제 1 데이터 요소들은 2D 이미지의 화소 데이터를 포함하는, 상기 제 1 데이터 요소들의 스트림을 생성하는 단계; 및
    제 2 모드에서, 제 2 데이터 요소들의 스트림을 생성하는 단계로서, 상기 제 2 데이터 요소들은 입체 이미지의 구성요소들의 멀티플렉싱된 조합을 포함하고, 상기 입체 이미지 데이터 요소들의 상기 구성요소들은 상기 인터페이스의 제 1 부분과 상기 인터페이스의 제 2 부분으로 전송되고, 상기 제 1 부분 및 상기 제 2 부분 각각은 상기 알려진 데이터 전달 용량보다 더 작은 데이터 전달 용량을 갖고, 상기 제 1 부분 및 상기 제 2 부분은 상기 알려진 데이터 전달 용량 이하의 조합된 데이터 전달 용량을 갖고, 상기 제 2 데이터 요소들의 스트림의 특성들은 제 2 시그널링 정보에 표시되는, 상기 제 2 데이터 요소들의 스트림을 생성하는 단계를 포함하는, 이미지 데이터 포맷 방법.
  17. 제 16 항에 있어서,
    상기 제 2 시그널링 정보는 상기 제 2 오디오-비주얼 디바이스로 하여금 사용되고 있는 입체 이미지 포맷을 결정하도록 하기 위한 정보를 포함하는, 이미지 데이터 포맷 방법.
  18. 오디오-비주얼 디바이스의 디지털 디스플레이 인터페이스부에서 이미지 데이터를 처리하는 방법으로서, 상기 디지털 디스플레이 인터페이스부는 압축되지 않은 화소 정보를 전달하기 위해 알려진 데이터 전달 용량을 갖는 디지털 디스플레이 인터페이스를 지원하는, 상기 이미지 데이터 처리 방법에 있어서, 상기 방법은 상기 디지털 디스플레이 인터페이스부에서 프로세서로 하여금:
    상기 인터페이스로부터 시그널링 정보 및 포맷된 이미지 데이터를 수신하는 단계; 및
    상기 오디오 비주얼 디바이스의 성능에 따라 이미지 데이터를 추출하는 단계를 포함하여 실행하도록 하고, 상기 이미지 데이터를 추출하는 단계는,
    제 1 모드에서 상기 알려진 데이터 전달 용량 이하의 데이터 전달 용량에서 제 1 데이터 요소들의 스트림으로부터 2D 이미지에 대한 화소 이미지 데이터를 추출하는 단계와,
    제 2 모드에서 입체 이미지의 구성요소들의 멀티플렉싱된 조합을 전달하는 제 2 데이터 요소들의 스트림으로부터 입체 이미지의 구성요소들을 디멀티플렉싱하는 단계로서, 상기 입체 이미지 데이터 요소들의 상기 구성요소들은 상기 인터페이스의 제 1 부분과 상기 인터페이스의 제 2 부분으로 전송되고, 상기 제 1 부분 및 상기 제 2 부분 각각은 상기 알려진 데이터 전달 용량보다 더 작은 데이터 전달 용량을 갖고, 상기 제 1 부분 및 상기 제 2 부분은 상기 알려진 데이터 전달 용량 이하의 조합된 데이터 전달 용량을 갖고, 상기 제 2 데이터 요소들의 스트림의 특성들은 상기 시그널링 정보에 표시되는, 상기 디멀티플렉싱하는 단계에 의한 것인, 이미지 데이터 처리 방법.
KR1020187034617A 2007-12-18 2008-12-15 디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송 KR20180130012A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP07123461 2007-12-18
EP07123461.1 2007-12-18
PCT/IB2008/055305 WO2009077969A2 (en) 2007-12-18 2008-12-15 Transport of stereoscopic image data over a display interface

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020167025357A Division KR101964993B1 (ko) 2007-12-18 2008-12-15 디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송

Publications (1)

Publication Number Publication Date
KR20180130012A true KR20180130012A (ko) 2018-12-05

Family

ID=40473426

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020187034617A KR20180130012A (ko) 2007-12-18 2008-12-15 디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송
KR1020167025357A KR101964993B1 (ko) 2007-12-18 2008-12-15 디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송
KR1020107015661A KR20100095464A (ko) 2007-12-18 2008-12-15 디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020167025357A KR101964993B1 (ko) 2007-12-18 2008-12-15 디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송
KR1020107015661A KR20100095464A (ko) 2007-12-18 2008-12-15 디스플레이 인터페이스를 통한 입체 이미지 데이터의 전송

Country Status (8)

Country Link
US (3) US9036010B2 (ko)
EP (1) EP2235956A2 (ko)
JP (3) JP2011509558A (ko)
KR (3) KR20180130012A (ko)
CN (1) CN101904175B (ko)
BR (1) BRPI0820848B1 (ko)
RU (1) RU2516499C2 (ko)
WO (1) WO2009077969A2 (ko)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10742953B2 (en) 2009-01-20 2020-08-11 Koninklijke Philips N.V. Transferring of three-dimensional image data
RU2538333C2 (ru) * 2009-01-20 2015-01-10 Конинклейке Филипс Электроникс Н.В. Передача данных 3d изображения
CA2750211C (en) 2009-03-19 2015-06-16 Lg Electronics Inc. Method for processing three dimensional (3d) video signal and digital broadcast receiver for performing the processing method
JP5469911B2 (ja) * 2009-04-22 2014-04-16 ソニー株式会社 送信装置および立体画像データの送信方法
GB2470402A (en) * 2009-05-21 2010-11-24 British Broadcasting Corp Transmitting three-dimensional (3D) video via conventional monoscopic (2D) channels as a multiplexed, interleaved data stream
WO2010143441A1 (ja) * 2009-06-11 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体
WO2010143439A1 (ja) * 2009-06-12 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体
EP2449788A4 (en) * 2009-06-30 2015-05-13 Lg Electronics Inc DATA PROCESSING METHOD FOR THREE DIMENSIONAL IMAGES AND AUDIO / VIDEO SYSTEM
RU2547706C2 (ru) * 2009-07-27 2015-04-10 Конинклейке Филипс Электроникс Н.В. Переключение между трехмерным и двумерным видеоизображениями
US9083958B2 (en) * 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
JP5604827B2 (ja) * 2009-08-21 2014-10-15 ソニー株式会社 送信装置、受信装置、プログラム、及び通信システム
US20110085023A1 (en) * 2009-10-13 2011-04-14 Samir Hulyalkar Method And System For Communicating 3D Video Via A Wireless Communication Link
KR20110062987A (ko) * 2009-12-04 2011-06-10 삼성전자주식회사 3차원 영상 제공방법, 3차원 영상 표시방법 및 이를 적용한 3차원 영상 제공장치 및 3차원 영상 디스플레이 장치
JP2011166757A (ja) * 2010-01-15 2011-08-25 Sony Corp 送信装置、送信方法および受信装置
JP2011244218A (ja) * 2010-05-18 2011-12-01 Sony Corp データ伝送システム
US9143767B2 (en) 2010-06-01 2015-09-22 Intel Corporation Method and apparatus for adaptive stable image timing in stereoscopic 3D systems
FR2963528B1 (fr) * 2010-07-29 2012-08-24 Television Francaise 1 Telediffusion d'une video stereoscopique
JP2012039476A (ja) * 2010-08-09 2012-02-23 Sony Corp 送受信装置および送受信方法
US20120050462A1 (en) * 2010-08-25 2012-03-01 Zhibing Liu 3d display control through aux channel in video display devices
US8896664B2 (en) * 2010-09-19 2014-11-25 Lg Electronics Inc. Method and apparatus for processing a broadcast signal for 3D broadcast service
JP2013545344A (ja) * 2010-10-13 2013-12-19 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート ステレオスコピック映像情報の送信方法及び装置
JP2012120142A (ja) * 2010-11-08 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
KR101831775B1 (ko) * 2010-12-07 2018-02-26 삼성전자주식회사 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법
WO2012077981A2 (ko) 2010-12-07 2012-06-14 삼성전자 주식회사 컨텐츠를 구성하는 데이터를 송신하는 송신 장치와 그 데이터를 수신하여 처리하는 수신 장치 및 그 방법
KR20120065943A (ko) * 2010-12-13 2012-06-21 한국전자통신연구원 스테레오스코픽 비디오 서비스 위한 시그널링 방법 및 이러한 방법을 사용하는 장치
KR20120066433A (ko) * 2010-12-14 2012-06-22 삼성전자주식회사 영상송신장치 및 그 제어방법과, 영상수신장치 및 그 제어방법
JP4908624B1 (ja) * 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法
KR101817939B1 (ko) 2011-03-28 2018-01-15 삼성디스플레이 주식회사 3차원 영상 데이터 처리 방법 및 이를 수행하는 표시 장치
KR20140043372A (ko) * 2011-07-05 2014-04-09 삼성전자주식회사 송신장치, 수신장치, 영상 신호 전송 방법 및 영상 신호 수신 방법
CN102780894B (zh) * 2012-05-31 2016-12-14 新奥特(北京)视频技术有限公司 一种3d图像的编解码方法
EP2670130B1 (en) * 2012-06-01 2019-03-27 Alcatel Lucent Method and apparatus for mixing a first video signal and a second video signal
TWI630815B (zh) 2012-06-14 2018-07-21 杜比實驗室特許公司 用於立體及自動立體顯示器之深度圖傳遞格式
EP3123712B1 (en) 2014-03-26 2018-05-16 Koninklijke Philips N.V. A transmitter, receiver, system and signal for transmitting auxiliary data frame synchronously across an hdmi interface
CN110012310B (zh) * 2019-03-28 2020-09-25 北京大学深圳研究生院 一种基于自由视点的编解码方法及装置
TWI723683B (zh) * 2019-12-17 2021-04-01 瑞昱半導體股份有限公司 視訊介面轉換裝置及方法
US11307249B1 (en) 2020-12-29 2022-04-19 Nanya Technology Corporation Method for characterizing resistance state of programmable element

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3081675B2 (ja) * 1991-07-24 2000-08-28 オリンパス光学工業株式会社 画像記録装置および画像再生装置
EP0888018B1 (en) * 1996-02-28 2006-06-07 Matsushita Electric Industrial Co., Ltd. Optical disk having plural streams of digital video data recorded thereon in interleaved manner, and apparatuses and methods for recording on, and reproducing from, the optical disk
US20050146521A1 (en) * 1998-05-27 2005-07-07 Kaye Michael C. Method for creating and presenting an accurate reproduction of three-dimensional images converted from two-dimensional images
US20020009137A1 (en) * 2000-02-01 2002-01-24 Nelson John E. Three-dimensional video broadcasting system
JP3789794B2 (ja) 2001-09-26 2006-06-28 三洋電機株式会社 立体画像処理方法、装置、およびシステム
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
US7088398B1 (en) * 2001-12-24 2006-08-08 Silicon Image, Inc. Method and apparatus for regenerating a clock for auxiliary data transmitted over a serial link with video data
KR100768837B1 (ko) * 2003-04-17 2007-10-19 샤프 가부시키가이샤 3차원 화상 작성 장치, 3차원 화상 재생 장치, 3차원 화상 처리 장치, 3차원 화상 처리 프로그램을 기록한 기록 매체
KR100657275B1 (ko) * 2004-08-26 2006-12-14 삼성전자주식회사 입체 영상 신호 발생 방법 및 이에 적합한 스케일링 방법
RU2289161C1 (ru) * 2005-02-21 2006-12-10 Валерий Александрович Бимаков Устройство обработки двухмерных и трехмерных изображений
JP4451804B2 (ja) 2005-04-06 2010-04-14 日本電信電話株式会社 3次元表示方法、画像生成装置、および画像表示装置
KR100828358B1 (ko) * 2005-06-14 2008-05-08 삼성전자주식회사 영상 디스플레이 모드 전환 방법, 장치, 및 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
RU2409008C2 (ru) * 2005-06-23 2011-01-10 Конинклейке Филипс Электроникс Н.В. Комбинированная передача изображения и соответствующих данных о глубине
JP5431726B2 (ja) * 2005-06-23 2014-03-05 コーニンクレッカ フィリップス エヌ ヴェ 画像および関連データの組み合わされた交換
US7800703B2 (en) 2005-12-13 2010-09-21 Koninklijke Philips Electronics N.V. Display device
US8167431B2 (en) * 2005-12-21 2012-05-01 International Business Machines Corporation Universal stereographic trigger peripheral for electronic equipment
CN1852446A (zh) * 2006-05-12 2006-10-25 哈尔滨工业大学 基于单机图形工作站的双通道被动立体显示系统
JP4957083B2 (ja) 2006-06-02 2012-06-20 ソニー株式会社 通信システム、送信装置及び受信装置、通信方法、並びにプログラム
JP4179387B2 (ja) * 2006-05-16 2008-11-12 ソニー株式会社 伝送方法、伝送システム、送信方法、送信装置、受信方法及び受信装置
JP5030538B2 (ja) 2006-11-07 2012-09-19 株式会社リコー データ通信システム、ユニットおよびデータ通信方法
JP5086632B2 (ja) * 2006-12-22 2012-11-28 株式会社東芝 映像表示装置、映像表示システムおよび映像表示方法
US20080240146A1 (en) * 2007-03-27 2008-10-02 Harkirat Singh System and method for wireless communication of uncompressed video having data transmission on a secondary low rate channel

Also Published As

Publication number Publication date
CN101904175B (zh) 2012-12-26
RU2516499C2 (ru) 2014-05-20
JP6849315B2 (ja) 2021-03-24
US9036010B2 (en) 2015-05-19
JP2019030011A (ja) 2019-02-21
WO2009077969A3 (en) 2009-08-13
KR101964993B1 (ko) 2019-04-03
KR20100095464A (ko) 2010-08-30
US20100315489A1 (en) 2010-12-16
RU2010129914A (ru) 2012-01-27
KR20160113310A (ko) 2016-09-28
EP2235956A2 (en) 2010-10-06
BRPI0820848B1 (pt) 2020-12-01
US20150172638A1 (en) 2015-06-18
WO2009077969A2 (en) 2009-06-25
BRPI0820848A2 (pt) 2015-06-16
CN101904175A (zh) 2010-12-01
JP2011509558A (ja) 2011-03-24
JP2016197860A (ja) 2016-11-24
US20160373720A1 (en) 2016-12-22
US9462258B2 (en) 2016-10-04
US9843786B2 (en) 2017-12-12

Similar Documents

Publication Publication Date Title
US9843786B2 (en) Transport of stereoscopic image data over a display interface
EP2389765B1 (en) Transferring of 3d image data
US20190215508A1 (en) Transferring of 3d image data
JP5446913B2 (ja) 立体画像データ送信装置および立体画像データ送信方法
JP5531972B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US20110141238A1 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving data receiving method
US20100277567A1 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, stereoscopic image data receiving method, relaying apparatus and stereoscopic image data relaying method
US11381800B2 (en) Transferring of three-dimensional image data
JP2011166757A (ja) 送信装置、送信方法および受信装置
WO2012063675A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP6085626B2 (ja) 3d画像データの転送

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2019101003957; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20191129

Effective date: 20200724