KR101386816B1 - 송신 장치, 입체 화상 데이터 송신 방법, 수신 장치 및 입체 화상 데이터 수신 방법 - Google Patents

송신 장치, 입체 화상 데이터 송신 방법, 수신 장치 및 입체 화상 데이터 수신 방법 Download PDF

Info

Publication number
KR101386816B1
KR101386816B1 KR1020097026595A KR20097026595A KR101386816B1 KR 101386816 B1 KR101386816 B1 KR 101386816B1 KR 1020097026595 A KR1020097026595 A KR 1020097026595A KR 20097026595 A KR20097026595 A KR 20097026595A KR 101386816 B1 KR101386816 B1 KR 101386816B1
Authority
KR
South Korea
Prior art keywords
data
image data
transmission
transmission method
pixel
Prior art date
Application number
KR1020097026595A
Other languages
English (en)
Other versions
KR20110030253A (ko
Inventor
야스히사 나카지마
카즈요시 스즈키
아키히코 타오
시게히로 카와이
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20110030253A publication Critical patent/KR20110030253A/ko
Application granted granted Critical
Publication of KR101386816B1 publication Critical patent/KR101386816B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43632Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43632Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/38Transmitter circuitry for the transmission of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/045Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial
    • G09G2370/047Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial using display data channel standard [DDC] communication
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/10Use of a protocol of communication by packets in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/22Detection of presence or absence of input display information or of connection or disconnection of a corresponding information source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Abstract

과제
기기 간에 있어서 입체 화상 데이터의 전송을 양호하게 할 수 있도록 한다.
해결 수단
소스 기기(디스크 플레이어;210)는, 싱크 기기(텔레비전 수신기;250)로부터, HDMI 케이블(350)의 DDC를 통해 E-EDID를 수신한다. 이 E-EDID에는, 싱크 기기가 대응 가능한 3D 화상 데이터의 전송 방식의 정보가 포함되고 있다. 소스 기기는, 싱크 기기로부터의 3D 화상 데이터의 전송 방식 정보에 근거하고, 싱크 기기가 대응 가능한 3D 화상 데이터의 전송 방식으로부터 소정의 전송 방식을 선택한다. 싱크 기기는, 선택한 전송 방식이 다가오는 3D 화상 데이터를 싱크 기기로 송신한다. 소스 기기는, 싱크 기기에 있어서 처리 편리를 위해, 송신 3D 화상 데이터의 전송 방식의 정보를 AVI Info Frame 패킷 등을 이용하고, 싱크 기기로 송신한다. 싱크 기기는, 소스 기기로부터 수신한 3D 화상 데이터를 그 전송 방식에 따라 처리를 행하고, 좌안 및 우안의 화상 데이터를 얻는다.
Figure R1020097026595
송신 장치, 수신 장치

Description

송신 장치, 입체 화상 데이터 송신 방법, 수신 장치 및 입체 화상 데이터 수신 방법{TRANSMITTING APPARATUS, STEREO IMAGE DATA TRANSMITTING METHOD, RECEIVING APPARATUS, AND STEREO IMAGE DATA RECEIVING METHOD}
이 발명은, 송신 장치, 입체 화상 데이터 송신 방법, 수신 장치 및 입체 화상 데이터 수신 방법에 관한 것이다. 자세한 것은, 이 발명은, 외부 기기에 입체 화상 데이터를 송신하는 때에 송신하는 입체 화상 데이터의 전송 방식을, 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식 정보를 이 외부 기기로부터 수신하여 결정하고, 또, 송신한 입체 화상 데이터의 전송 방식 정보를 외부 기기로 송신하는 것에 의해 기기 간에 있어서 입체 화상 데이터의 전송을 양호하게 할 수 있도록 하는 송신 장치 등에 관계되는 것이다.
근래, 예를 들면, DVD(Digital Versatile Disc) 레코더나, 세트 톱 박스, 그 밖의 AV 소스(Audio Visual source)로부터, 텔레비전 수신기, 프로젝터, 그 밖의 디스플레이에 대하여 디지털 영상 신호, 즉, 비 압축(전용선 접속 시스템)의 영상 신호(화상 데이터)와, 그 영상 신호에 부수된 디지털 음성 신호(음성 데이터)를 고속으로 전송하는 통신 인터페이스로서, HDMI(High Definition Multimedia Interface)가 보급되고 있다. 예를 들면, 비 특허 문헌 1에는, HDMI 규격의 상세한 것에 대하여의 기재가 있다.
도 42는, AV(Audio Visual) 시스템(10)의 구성예를 나타내고 있다. 이 AV 시스템(10)은, 소스 기기로서의 디스크 플레이어(11)와, 싱크 기기로서의 텔레비전 수신기(12)를 갖고 있다. 디스크 플레이어(11) 및 텔레비전 수신기(12)는, HDMI 케이블(13)을 통해 접속되고 있다. 디스크 플레이어(11)에는, HDMI 송신부(HDMITx)11b가 접속된 HDMI 단자(11a)가 마련되어 있다. 텔레비전 수신기(12)에는, HDMI 수신부(HDMIRx)12b가 접속된 HDMI 단자(12a)가 마련되어 있다. HDMI 케이블(13)의 한 끝은 디스크 플레이어(11)의 HDMI 단자(11a)에 접속되고, 이 HDMI 케이블(13)의 다른 한단은 텔레비전 수신기(12)의 HDMI 단자(12a)에 접속되고 있다.
도 42에 나타내는 AV 시스템(10)에 있어, 디스크 플레이어(11)로 재생되고 얻어진 비 압축의 화상 데이터는 HDMI 케이블(13)을 통해 텔레비전 수신기(12)에 송신되고, 해당 텔레비전 수신기(12)에서는 디스크 플레이어(11)로부터 송신된 화상 데이터에 의한 화상이 표시되는. 또, 디스크 플레이어(11)로 재생되고 얻어진 비 압축의 음성 데이터는 HDMI 케이블(13)을 통해 텔레비전 수신기(12)에 송신되고, 해당 텔레비전 수신기(12)에서는 디스크 플레이어(11)로부터 송신된 음성 데이터에 의한 음성이 출력된다.
도 43은, 도 42의 AV 시스템(10)에 있어서, 디스크 플레이어(11)의 HDMI 송신부(HDMI 소스;11b)와, 텔레비전 수신기(12)의 HDMI 수신부(HDMI 싱크;12b)의 구성예를 나타내고 있다.
HDMI 송신부(11b)는, 1의 수직 동기 신호로부터 다음 수직 동기 신호까지의 구간에서, 수평 귀선 구간 및 수직 귀선 구간을 제외한 구간인 유효 화상 구간(이하, 적절히, 액티브 비디오 구간이라고도 하다)에 있어, 비 압축의 1 화면분의 화상의 픽셀 데이터에 대응한 차동 신호를 복수의 채널로, HDMI 수신부(12b)에 일방향으로 송신함과 동시에, 수평 귀선 구간 또는 수직 귀선 구간에 있어, 적어도 화상에 부수된 음성 데이터나 제어 데이터, 그 밖의 보조 데이터 등에 대응한 차동 신호를 복수의 채널로, HDMI 수신부(12b)에 일방향으로 송신한다.
즉, HDMI 송신부(11b)는, HDMI 트랜스미터(81)를 갖는다. 트랜스미터(81)는, 예를 들면, 비 압축의 화상의 픽셀 데이터를 대응하는 차동 신호로 변환하고, 복수의 채널인 3개의 TMDS(Transition Minimized Differential Signaling)채널(#0, #1, #2)로, HDMI 케이블(13)을 통해 접속되고 있는 HDMI 수신부(12b)에, 일방향으로 시리얼 전송한다.
또, 트랜스미터(81)는, 비 압축의 화상에 부수된 음성 데이터, 나아가서는, 필요한 제어 데이터 그 밖의 보조 데이터 등을, 대응하는 차동 신호로 변환하고, 3개의 TMDS 채널(#0, #1, #2)로 HDMI 케이블(13)을 통해 접속되고 있는 HDMI 수신부(12b)에, 일방향으로 시리얼 전송한다.
또한, 트랜스미터(81)는, 3개의 TMDS 채널(#0, #1, #2)로 송신한 픽셀 데이터에 동기한 픽셀 클록을, TMDS 클록 채널로, HDMI 케이블(13)을 통해 접속되고 있는 HDMI 수신부(12b)에 송신한다. 여기에서, 1개의 TMDS 채널#i(i = 0, 1, 2)에서는, 픽셀 클록의 1 클록의 사이에, 10 비트의 픽셀 데이터가 송신된다.
HDMI 수신부(12b)는, 액티브 비디오 구간에 있어, 복수의 채널로, HDMI 송신 부(11b)로부터 일방향으로 송신되어 오는 픽셀 데이터에 대응한 차동 신호를 수신함과 동시에, 수평 귀선 구간 또는 수직 귀선 구간에 있어, 복수의 채널로, HDMI 송신부(11b)로부터 일방향으로 송신되어 오는 음성 데이터나 제어 데이터에 대응한 차동 신호를 수신한다.
즉, HDMI 수신부(12b)는, HDMI 수신기(82)를 갖는다. 수신기(82)는, TMDS 채널(#0, #1, #2)로, HDMI 케이블(13)을 통해 접속되고 있는 HDMI 송신부(11b)로부터 일방향으로 송신되어 오는 픽셀 데이터에 대응한 차동 신호와, 음성 데이터나 제어 데이터에 대응한 차동 신호를 동일하게 HDMI 송신부(11b)로부터 TMDS 클록 채널로 송신되어 오는 픽셀 클록에 동기하고 수신한다.
HDMI 소스 송신부(11b)와 HDMI 수신부(12b)로 된 HDMI 시스템의 전송 채널에는, HDMI 송신부(11b)로부터 HDMI 수신부(12b)에 대하여 픽셀 데이터 및 음성 데이터를 픽셀 클록에 동기하고, 일방향으로 시리얼 전송하기 위한 전송 채널으로서의 3개의 TMDS 채널(#0) 내지 #2와, 픽셀 클록을 전송하는 전송 채널으로서의 TMDS 클록 채널외에, DDC(Display Data Channel;83)이나 CEC(Consumer Electronics Control)라인(84)이라고 불리는 전송 채널이 있다.
DDC(83)는, HDMI 케이블(13)에 포함된 도시하지 않는 2개의 신호선으로 되고, HDMI 송신부(11b)가, HDMI 케이블(13)을 통해 접속된 HDMI 수신부(12b)로부터, E-EDID(Enhanced Extended Display Identification Data)를 판독하기 위해 사용된다.
즉, HDMI 수신부(12b)는, HDMI 수신기(81)외에, 자신의 성 능(Configuration/capability)에 관한 성능 정보인 E-EDID를 기억하고 있다, EDIDROM(Read Only Memory) 85를 갖고 있다. HDMI 송신부(11b)는, HDMI 케이블(13)을 통해 접속되고 있는 HDMI 수신부(12b)로부터, 해당 HDMI 수신부(12b)의 E-EDID를 DDC(83)를 이용하고 해독하고, 그 E-EDID에 근거하고, HDMI 수신부(12b)의 성능의 설정, 즉, 예를 들면, HDMI 수신부(12b)를 갖는 전자 기기가 대응하고 있는 화상의 포맷(프로파일), 예를 들면, RGB, YCbCr 4 : 4 : 4, YCbCr 4 : 2 : 2 등을 인식한다.
CEC 라인(84)은, HDMI 케이블(13)에 포함된 도시하지 않는 1개의 신호선으로 되고, HDMI 송신부(11b)와 HDMI 수신부(12b)와의 사이에서, 제어용의 데이터의 쌍방향 통신을 행하는데도 사용된다.
또, HDMI 케이블(13)에는, HPD(Hot Plug Detect)와 불리는 핀에 접속된 라인(HPD 라인)86이 포함되고 있다. 소스 기기는, 해당 라인(86)을 이용하고, 싱크 기기의 접속을 검출한 것을 할 수 있다. 또, HDMI 케이블(13)에는, 소스 기기로부터 싱크 기기에 전원을 공급하기 위해 사용된 라인(전원 라인)87이 포함되고 있다. 또한, HDMI 케이블(13)에는, 리저브 라인(88)이 포함되고 있다.
도 44는, TMDS 전송 데이터 예를 나타내고 있다. 도 44는, TMDS 채널(#0, #1, #2)에 있어, 횡×세로가 1920 픽셀×1080 라인의 화상 데이터가 전송된 경우의, 각종의 전송 데이터의 구간을 나타내고 있다.
HDMI의 3개의 TMDS 채널(#0, #1, #2)로 연고 송 데이터가 전송된 비디오 필드(Video Field)에는, 전송 데이터의 종류에 따라, 비디오 데이터 구간(Video Data period), 데이터 아일랜드 구간(Data Island period) 및 컨트롤 구간(Control period)의 3 종류의 구간이 존재한다.
여기에서, 비디오 필드 구간은, 있는 수직 동기 신호의 탄성 에지(activeedge)로부터 다음 수직 동기 신호의 탄성 에지까지의 구간이고, 수평 블랭킹 기간(horizon talblanking), 수직 블랭킹 기간(vertical blanking) 및 비디오 필드 구간에서, 수평 블랭킹 기간 및 수직 블랭킹 기간을 제외한 구간인 액티브 비디오 구간(Active Video)으로 나눠진다.
비디오 데이터 구간은, 액티브 비디오 구간에 할당된다. 이 비디오 데이터 구간에서는, 비 압축의 1 화면분의 화상 데이터를 구성한 1920 픽셀(화소)×1080 라인 부분의 유효 픽셀(Active pixel)의 데이터가 전송된다.
데이터 아일랜드 구간 및 컨트롤 구간은, 수평 블랭킹 기간 및 수직 블랭킹 기간에 할당된다. 이 데이터 아일랜드 구간 및 컨트롤 구간에서는, 보조 데이터(Auxiliary data)가 전송된다. 즉, 데이터 아일랜드 구간은, 수평 블랭킹 기간과 수직 블랭킹 기간의 일부분에 할당되고 있다. 이 데이터 아일랜드 구간에서는, 보조 데이터중, 제어에 관계되지 않는 데이터이며, 예를 들면, 음성 데이터의 패킷 등이 전송된다.
컨트롤 구간은, 수평 블랭킹 기간과 수직 블랭킹 기간의 다른 부분에 할당되고 있다. 이 컨트롤 구간에서는, 보조 데이터중의, 제어에 관계된 데이터이며, 예를 들면, 수직 동기 신호 및 수평 동기 신호, 제어 패킷 등이 전송된다.
도 45는, HDMI의 3개의 TMDS 채널(#0, #1, #2)로 화상 데이터(24 비트)를 전 송하는 때의 패킹 포맷 예를 나타내고 있다. 화상 데이터의 전송 방식으로서, RGB4: 4:4 와 YCbCr 4: 4: 4 와 YCbCr 4: 2: 2 의 3 길(통로)을 나타내고 있다. 여기에서, TMDS 클록과 픽셀(Pixel)클록의 관계는, TMDS 클록=픽셀 클록의 관계가 되어 있다.
RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서 각 픽셀(화소)의 데이터 영역에, 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다. YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서 각 픽셀(화소)의 데이터 영역에, 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다.
YCbCr 4: 2: 2 방식으로는, TMDS 채널(#0)의 각 픽셀(화소)의 데이터 영역에, 휘도(Y) 데이터의 비트(0) ~ 비트(3)의 데이터가 배치되고 있음과 동시에, 청색차(Cb) 데이터의 비트(0) ~ 비트(3)의 데이터와 적색차(Cr) 데이터의 비트(0) ~ 비트(3)의 데이터가 1픽셀마다 교대로 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#1)의 각 픽셀(화소)의 데이터 영역에, 휘도(Y) 데이터의 비트(4) ~ 비트(11)의 데이터가 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#2)의 각 픽셀(화소)의 데이터 영역에, 청색차(Cb) 데이터의 비트(4) ~ 비트(11)의 데이터와 적색차(Cr) 데이터의 비트(4) ~ 비트(11)의 데이터가 1픽셀마다 교대로 배치되고 있다.
도 46은, HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 딥 컬러의 화상 데이터(48 비트)를 전송하는 때의 패킹 포맷 예를 나타내고 있다. 화상 데이터의 전송 방식으 로서, RGB 4: 4: 4 와 YCbCr 4: 4: 4 의 2 길을 나타내고 있다. 여기에서, TMDS 클록과 픽셀(Pixel)클록의 관계는, TMDS 클록=2×픽셀 클록의 관계가 되어 있다.
RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0)에 있어서 각 픽셀(화소)의 전반 및 후반의 데이터 영역에, 16 비트의 청색(B) 데이터의 비트(0) ~ 비트(7)의 데이터와 비트(8) ~ 비트(15)의 데이터가 배치되고 있다. 또, RGB 4: 4: 4 의 방식으로는, TMDS 채널(#1)에 있어서 각 픽셀(화소)의 전반 및 후반의 데이터 영역에, 16 비트의 녹색(G) 데이터의 비트(0) ~ 비트(7)의 데이터와 비트(8) ~ 비트(15)의 데이터가 배치되고 있다. 또, RGB 4: 4: 4 의 방식으로는, TMDS 채널(#2)에 있어서 각 픽셀(화소)의 전반 및 후반의 데이터 영역에, 16 비트의 적색(R) 데이터의 비트(0) ~ 비트(7)의 데이터와 비트(8) ~ 비트(15)의 데이터가 배치되고 있다.
또, YCbCr 4: 4: 4 의 방식으로는, TMDS 채널(#0)에 있어서 각 픽셀(화소)의 전반 및 후반의 데이터 영역에, 16 비트의 청색차(Cb) 데이터의 비트(0) ~ 비트(7)의 데이터와 비트(8) ~ 비트(15)의 데이터가 배치되고 있다. 또, YCbCr 4: 4: 4 의 방식으로는, TMDS 채널(#1)에 있어서 각 픽셀(화소)의 전반 및 후반의 데이터 영역에, 16 비트의 휘도(Y) 데이터의 비트(0) ~ 비트(7)의 데이터와 비트(8) ~ 비트(15)의 데이터가 배치되고 있다. 또, YCbCr 4: 4: 4 의 방식으로는, TMDS 채널(#2)에 있어서 각 픽셀(화소)의 전반 및 후반의 데이터 영역에, 16 비트의 적색차(Cr) 데이터의 비트(0) ~ 비트(7)의 데이터와 비트(8) ~ 비트(15)의 데이터가 배치되고 있다.
HDMI 접속된 기기 간으로, 금후 실용화된 입체 화상 데이터의 전송사양이 없 기 때문에, 동일한 메이커 사이에서의 접속 밖에 실현할 수 없었다. 특히, 타사 세트와의 접속으로는 서로 접속 보증은 되어 있지 않다. 예를 들면, 특허 문헌 1에는, 입체 화상 데이터의 전송 방식 및 그 판정에 관한 제안은 되어 있지만, HDMI 등의 디지털 인터페이스로의 전송에 관해서는 제안되고 있지 않다. 또, 특허 문헌 2에는, 입체 화상 데이터의 텔레비전 방송 전파를 이용한 전송 방식에 관해서는 제안되고 있지만, 디지털 인터페이스로의 전송에 관해서는 제안되고 있지 않다.
[선행 기술 문헌]
[특허 문헌 1]
일본국 특개2003-111101호 공보
[특허 문헌 2]
일본국 특개2005-6114호 공보
[비 특허 문헌 1]
High-Definition MultimediaInterface Specification Version1.3a, November102006
발명이 해결하고자 하는 과제
상술했던 것처럼, 종래, HDMI 등의 디지털 인터페이스로의 입체 화상 데이터의 전송 사양에 관해서는 하등 제안되고 있지 않다.
이 발명의 목적은, 기기 간에 있어서 입체 화상 데이터의 전송을 양호하게 할 수 있도록 하는 것에 있다.
과제를 해결하기 위한 수단
이 발명의 개념은, 입체시 화상을 표시하기 위한 입체 화상 데이터를 전송로를 통해 외부 기기로 송신한 데이터 송신부와, 상기 외부 기기로부터 상기 전송로를 통해 보내져 오는, 그 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식 정보를 수신한 전송 방식 정보 수신부와, 상기 전송 방식 정보 수신부에서 수신된 전송 방식 정보에 근거하고, 상기 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식으로부터, 상기 데이터 송신부에서 송신된 상기 입체 화상 데이터의 전송 방식으로서 소정의 전송 방식을 선택한 전송 방식 선택부와, 상기 데이터 송신부에서 송신된 상기 입체 화상 데이터의 전송 방식의 정보를 상기 전송로를 이용하고 상기 외부 기기에 송신한 전송 방식 정보 송신부를 구비한 송신 장치에 있다.
또, 이 발명의 개념은, 외부 기기로부터, 전송로를 통하여 입체시 화상을 표시하기 위한 입체 화상 데이터를 수신한 데이터 수신부와, 상기 외부 기기로부터, 상기 데이터 수신부에서 수신된 입체 화상 데이터의 전송 방식 정보를 수신한 전송 방식 정보 수신부와, 상기 전송 방식 정보 수신부에서 수신된 전송 방식 정보에 근거하고, 상기 데이터 수신부에서 수신된 입체 화상 데이터를 처리하고 좌안 화상 데이터 및 우안 화상 데이터를 생성한 데이터 처리부와, 자신이 대응 가능한 입체 화상 데이터의 전송 방식 정보를 기억해 두는 전송 방식 정보 기억부와, 상기 전송 방식 정보 기억부에 기억되고 있는 전송 방식 정보를 상기 전송로를 이용하고 상기 외부 기기에 송신한 전송 방식 정보 송신부를 구비한 수신 장치에 있다.
이 발명에 있어, 송신 장치는, 외부 기기(수신 장치)로부터 전송로를 통하여 이 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식 정보를 수신한다. 이 경우, 수신 장치는, 자신이 대응한 입체 화상 데이터의 전송 방식 정보를 기억부에 기억하고 있고, 이 전송 방식 정보를 전송로를 이용하고 외부 기기(송신 장치)에 송신한다.
송신 장치는, 외부 기기(수신 장치)로부터 수신한 전송 방식 정보에 근거하고, 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식으로부터 소정의 전송 방식을 선택한다. 이 경우, 송신 장치는, 예를 들면, 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식이 여러 있는 경우에는, 가장 화질 열화가 적은 전송 방식을 선택한다.
예를 들면, 송신 장치는, 외부 기기(수신 장치)로부터 전송로의 전송 레이트 정보를 수신한다. 이 경우, 수신 장치는, 에러 레이트 등의 데이터 수신 상태에 근거하고 전송로의 전송 레이트 정보를 취득하고, 이 전송 레이트 정보를 전송로를 이용하고 외부 기기(송신 장치)에 송신한다.
송신 장치는, 상술했던 것처럼, 외부 기기로부터 전송로의 전송 레이트 정보를 수신한 경우에는, 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식 정보와 함께, 전송로의 전송 레이트 정보에 근거하고, 소정의 전송 방식을 선택한다. 예를 들면, 송신 장치는, 소정의 전송 방식으로서, 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식이고, 입체 화상 데이터의 전송에 필요로 한 전송 레이트가 전송로의 전송 레이트 내에 있는 전송 방식을 선택한다. 이것에 의해, 송신 장치는, 수신 장치에, 전송로의 상태의 변화에 관계없이, 입체 화상 데이터를 항상 양호하게 송신할 수 있다.
송신 장치는, 선택한 전송 방식의 입체 화상 데이터를 전송로를 통하여 외부 기기(수신 장치)에 송신한다. 예를 들면, 송신 장치는, 입체 화상 데이터를 여러 채널로, 차동 신호에 의해, 전송로를 통하여 외부 기기로 송신한다. 예를 들면, 입체 화상 데이터가 2차원 화상 데이터 및 각 픽셀에 대응한 심층(depth) 데이터를 포함한 경우, 송신 장치는, 각 픽셀의 데이터 영역에, 2차원 데이터를 구성한 픽셀 데이터 및 이 픽셀 데이터에 대응한 심층 데이터를 배치하고 송신한다.
또, 예를 들면, 입체 화상 데이터는 제 1의 데이터 및 제 2의 데이터를 포함하고, 송신 장치는, 제 1의 데이터를 제 1의 전송로를 이용하고 외부 기기에 송신하고, 제 2의 데이터를 제 2의 전송로를 통해 외부 기기로 송신한다. 예를 들면, 제 2의 전송로는 제 1의 전송로의 소정 라인을 이용하여 구성된 쌍방향 통신로이고, 송신 장치는, 외부 기기에 제 1의 전송로를 통하여 제 1의 데이터를 복수의 채널로, 차동 신호에 의해 송신하여 외부 기기에 쌍방향 통신로를 통하여 제 2의 데이터를 송신한다. 예를 들면, 제 1의 데이터는 좌안 화상 데이터 또는 우안 화상 데이터이고, 제 2의 데이터는 우안 화상 데이터 또는 좌안 화상 데이터이다. 또, 예를 들면, 제 1의 데이터는 2차원 화상 데이터이고, 제 2의 데이터는 각 픽셀에 대응한 심층 데이터이다.
송신 장치는, 송신한 입체 화상 데이터의 전송 방식의 정보를 전송로를 통하여 외부 기기(수신 장치)로 송신한다. 예를 들면, 송신 장치는, 전송 방식의 정보를 입체 화상 데이터의 블랭킹 기간에 삽입하는 것으로, 외부 기기로 송신한다. 또, 예를 들면, 송신 장치는, 전송 방식의 정보를 전송로를 구성한 제어 데이터 라인을 통해 외부 기기로 송신한다.
또, 예를 들면, 송신 장치는, 전송 방식의 정보를 전송로의 소정 라인을 이용하여 구성된 쌍방향 통신로를 통하여 외부 기기로 송신한다. 예를 들면, 쌍방향 통신로는 한 쌍의 차동 전송로이고, 이 한 쌍의 차동 전송로 중 적어도 한편은 직류 바이어스 전위에 의해 외부 기기의 접속 상태를 통지하는 기능을 갖는 것으로 된다(HDMI 케이블의 HPD 라인 등).
수신 장치는, 외부 기기(송신 장치)로부터 보내져 오는 입체 화상 데이터를 수신한다. 또, 수신 장치는, 외부 기기로부터 보내져 오는 입체 화상 데이터의 전송 방식 정보를 수신한다. 그리고, 수신 장치는, 전송 방식 정보에 근거하여 수신한 입체 화상 데이터를 처리하고, 좌안 화상 데이터 및 우안 화상 데이터를 생성한다.
이처럼, 송신 장치로부터 수신 장치에 입체 화상 데이터를 송신한 때에, 송신 장치는, 송신한 입체 화상 데이터의 전송 방식을, 수신 장치가 대응 가능한 입체 화상 데이터의 전송 방식 정보를 이 수신 장치로부터 수신하고 결정한다. 또, 이 때에, 송신 장치는, 송신한 입체 화상 데이터의 전송 방식 정보를 수신 장치에 송신한다. 그 때문에, 송신 장치와 수신 장치와의 사이(기기 간)에 있어서 입체 화상 데이터의 전송을 양호하게 행할 수 있다.
발명의 효과
이 발명에 의하면, 송신 장치가 수신 장치(외부 기기)에 입체 화상 데이터를 송신한 때에, 송신 장치는, 송신한 입체 화상 데이터의 전송 방식을, 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식 정보를 이 외부 기기로부터 수신하고 결정하고, 또, 송신 장치는, 송신한 입체 화상 데이터의 전송 방식 정보를 외부 기기에 송신한 것이고, 기기 간에 있어서 입체 화상 데이터의 전송을 양호하게 행할 수 있다.
도 1은 본 발명의 실시의 형태로서의 AV 시스템의 구성예를 도시하는 블록도.
도 2는 입체시 화상의 표시 방식 예이다, 「필드 순차 방식」 및「위상차 플레이트 방식」을 도시하는 도면.
도 3은 AV 시스템을 구성한 디스크 플레이어(소스 기기)의 구성예를 도시하는 블록도.
도 4는 AV 시스템을 구성한 텔레비전 수신기(싱크 기기)의 구성예를 도시하는 블록도.
도 5는 HDMI 송신부(HDMI 소스)와 HDMI 수신부(HDMI 싱크)의 구성예를 도시하는 블록도.
도 6은 HDMI 송신부를 구성하는 HDMI 트랜스미터와, HDMI 수신부를 구성하는 HDMI 수신기의 구성예를 도시하는 블록도.
도 7은 TMDS 전송 데이터의 구조예(횡×세로가 1920 픽셀×1080 라인의 화상 데이터가 전송된 경우)를 도시하는 도면.
도 8은 소스 기기 및 싱크 기기의 HDMI 케이블이 접속된 HDMI 단자의 핀 배열(타입 A)을 도시하는 도면.
도 9는 소스 기기 및 싱크 기기에 있어서, HDMI 케이블의 리저브 라인 및 HDD 라인을 이용하여 구성된 쌍방향 통신로의 인터페이스이다, 고속 데이터 라인 인터페이스의 구성예를 도시하는 접속도.
도 10은 좌안(L) 및 우안(R)의 화상 데이터(1920×1080p의 픽셀 포맷의 화상 데이터)를 도시하는 도면.
도 11은 3D(입체)화상 데이터의 전송 방식이다,(a)좌안 화상 데이터의 픽셀 데이터와 우안 화상 데이터의 픽셀 데이터를 TMDS 클록마다 순차적으로 바꾸어 전송하는 방식,(b)좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식,(c)좌안 화상 데이터와 우안 화상 데이터를 필드마다 순차적으로 바꾸어 전송하는 방식을 설명하기 위한 도면.
도 12는 3D(입체)화상 데이터의 전송 방식이다,(a)좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식,(b)수직 방향의 전반으로는 좌안 화상 데이터의 각 라인의 데이터를 전송하고, 수직 방향의 후반으로는 좌안 화상 데이터의 각 라인의 데이터를 전송하는 방식,(c)수평 방향의 전반으로는 좌안 화상 데이터의 픽셀 데이터를 전송하고, 수평 방향의 후반으로는 좌안 화상 데이터의 픽셀 데이터를 전송하는 방식을 설명하기 위한 도면.
도 13은 좌안 화상 데이터의 픽셀 데이터와 우안 화상 데이터의 픽셀 데이터를 TMDS 클록마다 순차적으로 바꾸어 전송하는 방식(방식(1))에 있어서 TMDS 전송 데이터 예를 도시하는 도면.
도 14는 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(1)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 도시하는 도면.
도 15는 좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식(방식(2))에 있어서 TMDS 전송 데이터 예를 도시하는 도면.
도 16은 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(2)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 도시하는 도면.
도 17은 좌안 화상 데이터와 우안 화상 데이터를 필드마다 순차적으로 바꾸어 전송하는 방식(방식(3))에 있어서 TMDS 전송 데이터 예를 도시하는 도면.
도 18은 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(3)의 3D 화상 데이터를 전송하는 때의 홀수 필드의 패킹 포맷 예를 도시하는 도면.
도 19는 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(3)의 3D 화상 데이터를 전송하는 때의 짝수 필드의 패킹 포맷 예를 도시하는 도면.
도 20은 좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식(방식(4))에 있어서 TMDS 전송 데이터 예를 도시하는 도면.
도 21은 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(4)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 도시하는 도면.
도 22는 수직 방향의 전반으로는 좌안 화상 데이터의 각 라인의 데이터를 전송하고, 수직 방향의 후반으로는 우안 화상 데이터의 각 라인의 데이터를 전송하는 방식(방식(5))에 있어서 TMDS 전송 데이터 예를 도시하는 도면.
도 23은 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(5)의 3D 화상 데이터를 전송하는 때의 수직 전반의 패킹 포맷 예를 도시하는 도면.
도 24는 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(5)의 3D 화상 데이터를 전송하는 때의 수직 후반의 패킹 포맷 예를 도시하는 도면.
도 25는 수평 방향의 전반으로는 좌안 화상 데이터의 픽셀 데이터를 전송하고, 수평 방향의 후반으로는 우안 화상 데이터의 픽셀 데이터를 전송하는 방식(방식(6))에 있어서 TMDS 전송 데이터 예를 도시하는 도면.
도 26은 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(6)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 도시하는 도면.
도 27은 MPEG-C 방식의 3D 화상 데이터를 구성한 2차원(2D)화상 데이터 및 심층 데이터를 도시하는 도면.
도 28은 MPEG-C 방식에 있어서 TMDS 전송 데이터 예를 도시하는 도면.
도 29는 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, MPEG-C 방식의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 설명하기 위한 도면.
도 30은 MPEG-C 방식의 3D 화상 데이터를 수신한 싱크 기기(텔레비전 수신기)에 있어서 디코드 처리를 설명하기 위한 도면.
도 31은 싱크 기기(텔레비전 수신기)에 기억되고 있는 E-EDID의 데이터 구조예를 도시하는 도면.
도 32는 E-EDID의 Vender Specific 영역의 데이터 구조예를 도시하는 도면.
도 33은 데이터 아일랜드 구간에 배치되는, AVI Info Frame 패킷의 데이터 구조예를 도시하는 도면.
도 34는 영상 포맷 데이터 예를 도시하는 도면.
도 35는 Deep Color 정보를 전송하는 GCP(General Control Protocol)패킷의 구조예를 도시하는 도면.
도 36은 데이터 아일랜드 구간에 배치되는, Audio Info Frame 패킷의 데이터 구조예를 도시하는 도면.
도 37은 디스크 플레이어(소스 기기)에 있어서, 텔레비전 수신기(싱크 기기)의 접속시의 처리 순서를 도시하는 플로차트.
도 38은 디스크 플레이어(소스 기기)에 있어서 3D 화상 데이터의 전송 방식의 결정 처리의 순서를 도시하는 도면.
도 39는 전용선 접속 시스템 디지털 인터페이스로서 DP 인터페이스를 이용한 DP 시스템의 구성예를 나타내는 도면.
도 40은 전용선 접속 시스템 디지털 인터페이스로서 무선 인터페이스를 이용한 무선 시스템의 구성예를 도시하는 도면.
도 41은 전송로의 전송 레이트를 확인해 3D 화상 데이터의 전송 방식을 결정하는 전송 시스템의 구성예를 도시하는 도면.
도 42는 종래의 HDMI 인터페이스를 이용한 AV 시스템의 구성예를 도시하는 도면.
도 43은 디스크 플레이어(소스 기기)의 HDMI 송신부와, 텔레비전 수신기(싱크 기기)의 HDMI 수신부의 구성예를 나타내는 도면.
도 44는 횡×세로가 1920 픽셀×1080 라인의 화상 데이터가 전송된 경우에 있어서 TMDS 전송 데이터 예를 도시하는 도면.
도 45는 HDMI의 3개의 TMDS 채널(#0, #1, #2)로 화상 데이터(24 비트)를 전송하는 때의 패킹 포맷 예를 도시하는 도면.
도 46은 HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 딥 컬러의 화상 데이터(48 비트)를 전송하는 때의 패킹 포맷 예를 도시하는 도면.
(부호의 설명)
200 : AV 시스템
210 : 디스크 플레이어
211 : HDMI 단자
212 : HDMI 송신부
213 : 고속 데이터 라인 인터페이스
214 : CPU
215 : CPU 버스
216 : SDRAM
217 : 플래시 ROM
218 : 리모트 컨트롤 수신부
219 : 리모트 컨트롤 송신기
220 : IED 인터페이스
221 : BD 드라이브
222 : 내부 버스
223 : 이서넷 인터페이스
224 : 네트워크 단자
225 : MPEG 디코더
226 : 그래픽 생성 회로
227 : 영상 출력 단자
228 : 음성 출력 단자
229 : 3D 신호 처리부
230 : DTCP 회로
250 : 텔레비전 수신기
251 : HDMI 단자
252 : HDMI 수신부
253 : 고속 데이터 라인 인터페이스
254 : 3D 신호 처리부
255 : 안테나 단자
256 : 디지털 튜너
257 : 디멀티플렉서
258 : MPEG 디코더
259 : 영상 신호 처리 회로
260 : 그래픽 생성 회로
261 : 패널 구동 회로
262 : 표시 패널
263 : 음성 신호 처리 회로
264 : 음성 증폭 회로
265 : 스피커
170 : 내부 버스
271 : CPU
272 : 플래시 ROM
273 : DRAM
274 : 이서넷 인터페이스
275 : 네트워크 단자
276 : 리모트 컨트롤 수신부
277 : 리모트 컨트롤 송신기
278 : DTCP 회로
350 : HDMI 케이블
00 : 전송 시스템
610 : 송신 장치
611 : 제어부
612 : 기억부
613 : 재생부
614 : 3D 신호 처리부
615 : 전송부
650 : 수신 장치
651 : 제어부
652 : 기억부
653 : 전송부
654 : 3D 신호 처리부
655 : 표시부
656 : 검출부
이하, 도면을 참조하면서, 이 발명의 실시의 형태에 관하여 설명한다. 도 1은, 실시의 형태로서의 AV(Audio Visual) 시스템(200)의 구성예를 나타내고 있다. 이 AV 시스템(200)은, 소스 기기로서의 디스크 플레이어(210)와, 싱크 기기로서의 텔레비전 수신기(250)를 갖고 있다.
디스크 플레이어(210) 및 텔레비전 수신기(250)는, HDMI 케이블(350)을 통해 접속되고 있다. 디스크 플레이어(210)에는, HDMI 송신부HDMITx(212) 및 고속 데이터 라인 인터페이스I/F(213)이 접속된 HDMI 단자(211)가 마련되어 있다. 텔레비전 수신기(250)에는, HDMI 수신부HDMIRx(252) 및 고속 데이터 라인 인터페이스(I/F)253이 접속된 HDMI 단자(251)가 마련되어 있다. HDMI 케이블(350)의 한 끝은 디스크 플레이어(210)의 HDMI 단자(211)에 접속되고, 이 HDMI 케이블(350)의 다 른 한단은 텔레비전 수신기(250)의 HDMI 단자(251)에 접속되고 있다.
도 1에 나타내는 AV 시스템(200)에 있어, 디스크 플레이어(210)로 재생되고 얻어진 비 압축(전용선 접속 시스템)의 화상 데이터는 HDMI 케이블(350)을 통해 텔레비전 수신기(250)에 송신되고, 해당 텔레비전 수신기(250)에서 디스크 플레이어(210)로부터 송신된 화상 데이터에 의한 화상이 표시되는. 또, 디스크 플레이어(210)로 재생되고 얻어진 비 압축의 음성 데이터는 HDMI 케이블(350)을 통해 텔레비전 수신기(250)에 송신되고, 해당 텔레비전 수신기(250)에서는 디스크 플레이어(210)로부터 송신된 음성 데이터에 의한 음성이 출력된다.
또한, 디스크 플레이어(210)로부터 송신되어 오는 화상 데이터가 입체시 화상을 표시하기 위한 3D 화상 데이터(입체 화상 데이터)로 있는 경우에는, 텔레비전 수신기(250)에서는 유저에게 입체 화상을 제공하기 위한 입체시 화상이 표시되는.
이 입체시 화상의 표시 방식예에 관하여 또한 설명한다. 입체시 화상의 표시 방식으로서는, 예를 들면, 도 2(a)에 나타내듯이 필드마다, 좌안(L)화상과 우안(R)화상을 교대로 표시한 방식, 이른바「필드 순차 방식」이 있다. 이 표시 방식으로는, 텔레비전 수신기측으로 통상의 프레임 레이트의 배의 구동이 필요해진다. 또, 이 표시 방식으로는, 표시부에 광학적인 필름을 피착한 필요는 없지만, 유저가 쓰는 안경 측에서 표시부의 필드에 동기하고 좌우의 렌즈 부의 셔터의 개폐를 바꾸는 필요가 있다.
또, 입체시 화상의 표시 방식으로서는, 예를 들면, 도 2(b)에 나타내듯이 라인마다 좌안(L)화상과 우안(R)화상을 바꾸고 표시한 방식, 이른바「위상차 플레이 트 방식」이 있다. 이 표시 방식으로는, 텔레비전 수신기측으로 표시부에 라인마다 편광 방향이 90°다를 것 같은 편광판을 피착해 둔다. 유저가 쓰는 편광 안경에 의해 역안의 화상의 빛을 차광함으로서 입체시를 실현한다.
도 3은, 디스크 플레이어(210)의 구성예를 나타내고 있다. 이 디스크 플레이어(210)는, HDMI 단자(211)와, HDMI 송신부(212)와, 고속 데이터 라인 인터페이스(213)과, DTCP(Digital Transmission Content Protection) 회로(230)를 갖고 있다. 또, 이 디스크 플레이어(210)는, CPU(Central Processing Unit ; 214)와, CPU 버스(215)와, 플래시 ROM(Read Only Memory) 216과, SDRAM(SynchronousDRAM ; 217)과, 리모트 컨트롤 수신부(218)와, 리모트 컨트롤 송신기(219)를 갖고 있다.
또, 디스크 플레이어(210)는, IDE 인터페이스(220)와, BD(Blu-ray Disc) 드라이브(221)와, 내부 버스(222)와, 이서넷 인터페이스(Ethernet I/F ;223)과, 네트워크 단자(224)를 갖고 있다. 또, 디스크 플레이어(210)는, MPEG(Moving Picture Expert Group) 디코더(225)와, 그래픽 생성 회로(226)와, 영상 출력 단자(227)와, 음성 출력 단자(228)와, 3D 신호 처리부(229)를 갖고 있다. 또한,「이서넷」 및「Ethernet」는 등록상표이다.
CPU(214), 플래시 ROM(216), SDRAM(217) 및 리모트 컨트롤 수신부(218)는, CPU 버스(215)에 접속되고 있다. 또, CPU(214), IDE 인터페이스(220), 이서넷 인터페이스(223), DTCP 회로(230) 및 MPEG 디코더(225)는, 내부 버스(222)에 접속되고 있다.
CPU(214)는, 디스크 플레이어(210)의 각 부분의 동작을 제어한다. 플래시 ROM(216)은, 제어 소프트웨어의 격납 및 데이터의 보관을 행한다. SDRAM(217)은, CPU(214)의 워크 지역을 구성한다. CPU(214)는, 플래시 ROM(216)으로부터 판독 소프트웨어나 데이터를 SDRAM(217) 위에 전개하고 소프트웨어를 시동시켜 디스크 플레이어(210)의 각 부분을 제어한다. 리모트 컨트롤 수신부(218)는, 리모트 컨트롤 송신기(219)로부터 송신된 리모트 컨트롤 호(리모트 컨트롤 코드)를 수신하고, CPU(214)에 공급한다. CPU(214)는, 리모트 컨트롤 코드에 따라 디스크 플레이어(210)의 각 부분을 제어한다.
BD 드라이브(221)는, 디스크상 기록 미디어로서의 BD(도시생략)에 대하여 내용 데이터를 기록하고, 또는, 이 BD로부터 내용 데이터를 재생한다. 이 BD 드라이브(221)는, IDE 인터페이스(220)를 통해 내부 버스(222)에 접속되고 있다. MPEG 디코더(225)는, BD 드라이브(221)로 재생된 MPEG2 스트림에 대하여 디코드 처리를 행하고 화상 및 음성의 데이터를 얻는다.
DTCP 회로(230)는, BD 드라이브(221)로 재생된 내용 데이터를 네트워크 단자(224)를 통해 네트워크에, 또는 고속 데이터 라인 인터페이스(213)로부터 HDMI 단자(211)를 통해 쌍방향 통신로로 송출하는 때에 필요에 따라 암호화한다.
그래픽 생성 회로(226)는, MPEG 디코더(225)로 얻어진 화상 데이터에 대하여 필요에 따라 그래픽스 데이터의 중첩 처리등을 행한다. 영상 출력 단자(227)는, 그래픽 생성 회로(226)로부터 출력된 화상 데이터를 출력한다. 음성 출력 단자(228)는, MPEG 디코더(225)로 얻어진 음성 데이터를 출력한다.
HDMI 송신부(HDMI 소스)212는, HDMI에 준거한 통신에 의해 전용선 접속 시스 템의 화상(영상)과 음성의 데이터를 HDMI 단자(211)로부터 송출한다. 이 HDMI 송신부(212)의 상세한 것은 후술한다. 고속 데이터 라인 인터페이스(213)는, HDMI 케이블(350)을 구성한 소정 라인(이 실시의 형태에 있어서는, 리저브 라인, HPD 라인)을 이용하여 구성된 쌍방향 통신로의 인터페이스이다.
이 고속 데이터 라인 인터페이스(213)는, 이서넷 인터페이스(223)와 HDMI 단자(211)와의 사이에 삽입되고 있다. 이 고속 데이터 라인 인터페이스(213)는, CPU(214)로부터 공급된 송신 데이터를 HDMI 단자(211)로부터 HDMI 케이블(350)을 이용하고 상대측의 기기로 송신한다. 또, 이 고속 데이터 라인 인터페이스(213)는, HDMI 케이블(350)로부터 HDMI 단자(211)를 이용하고 상대측의 기기로부터 수신된 수신 데이터를 CPU(214)에 공급한다. 이 고속 데이터 라인 인터페이스(213)의 상세한 것은 후술한다.
3D 신호 처리부(229)는, MPEG 디코더(225)로 얻어진 화상 데이터중, 입체시 화상을 표시하기 위한 3D 화상 데이터를 HDMI의 TMDS 채널로 송신한 때에, 해당 3D 화상 데이터를 전송 방식에 따른 상태로 가공 처리한다. 여기에서, 3D 화상 데이터는, 좌안 화상 데이터 및 우안 화상 데이터로 구성되거나, 또는 2차원 화상 데이터 및 각 픽셀에 대응한 심층 데이터로 구성된다(MPEG-C 방식). 3D 화상 데이터의 전송 방식의 종류, 전송 방식의 선택, 각 방식의 패킹 포맷 등의 상세한 것은 후술한다.
도 3에 나타내는 디스크 플레이어(210)의 동작을 간단하게 설명한다. 기록시에는, 도시되지 않는 디지털 튜너의 MPEG 스트림, 또는 네트워크 단자(224)로부터 이서넷 인터페이스(223)를 이용하고, 또는 HDMI 단자(211)로부터 고속 데이터 라인 인터페이스(213) 및 이서넷 인터페이스(223)를 통하여 기록해야 할 내용 데이터가 취득된다. 이 내용 데이터는, IDE 인터페이스(220)에 입력되고, BD 드라이브(221)에 의하여 BD에 기록된다. 경우에 의해서는 IDE 인터페이스(220)에 접속됐다, 도시되지 않는 HDD(하드 디스크 드라이브)에 기록해도 좋다.
재생시에는, BD 드라이브(221)에 의하여 BD로부터 재생된 내용 데이터(MPEG 스트림)는, IDE 인터페이스(220)를 통해 MPEG 디코더(225)에 공급된다. MPEG 디코더(225)로는, 재생된 내용 데이터에 대하여 디코드 처리가 행해지고, 전용선 접속 시스템의 화상 및 음성의 데이터를 얻을 수 있다. 화상 데이터는, 그래픽 생성 회로(226)을 통하여 영상 출력 단자(227)에 출력된다. 또, 음성 데이터는, 음성 출력 단자(228)에 출력된다.
또, 이 재생시에, MPEG 디코더(225)로 얻어진 화상 및 음성의 데이터를 HDMI의 TMDS 채널로 송신한 경우에는, 이들 화상 및 음성의 데이터는, HDMI 송신부(212)에 공급되고 패킹 되고, 이 HDMI 송신부(212)로부터 HDMI 단자(211)에 출력된다. 또한, 화상 데이터가 3D 화상 데이터인 경우에는, 이 3D 화상 데이터는, 3D 신호 처리부(229)에 의해 선택된 전송 방식에 따른 상태에 가공 처리된 후에, HDMI 송신부(212)에 공급된다.
또, 재생시에, BD 드라이브(221)로 재생된 내용 데이터를 네트워크에 송출한 때에는, 해당 내용 데이터는, DTCP 회로(230)로 암호화된 후, 이서넷 인터페이스(223)을 이용하고, 네트워크 단자(224)에 출력된다. 마찬가지로, 재생시에, BD 드라이브(221)로 재생된 내용 데이터를 HDMI 케이블(350)의 쌍방향 통신로로 송출하는 때에는, 해당 내용 데이터는, DTCP 회로(230)로 암호화된 후, 이서넷 인터페이스(223), 고속 데이터 라인 인터페이스(213)을 이용하고, HDMI 단자(211)에 출력된다.
도 4는, 텔레비전 수신기(250)의 구성예를 나타내고 있다. 이 텔레비전 수신기(250)는, HDMI 단자(251)와, HDMI 수신부(252)와, 고속 데이터 라인 인터페이스(253)과, 3D 신호 처리부(254)를 갖고 있다. 또, 텔레비전 수신기(250)는, 안테나 단자(255)와, 디지털 튜너(256)와, 디멀티플렉서(257)와, MPEG 디코더(258)와, 영상 신호 처리 회로(259)와, 그래픽 생성 회로(260)와, 패널 구동 회로(261)와, 표시 패널(262)를 갖고 있다.
또, 텔레비전 수신기(250)는, 음성 신호 처리 회로(263)과, 음성 증폭 회로(264)와, 스피커(265)와, 내부 버스 270과, CPU(271)과, 플래시 ROM(272)와, DRAM(Dynamic Random Access Memory ; 273)을 갖고 있다. 또, 텔레비전 수신기(250)는, 이서넷 인터페이스(Ethernet I/F ; 274)와, 네트워크 단자(275)와, 리모트 컨트롤 수신부(276)와, 리모트 컨트롤 송신기(277)와, DTCP 회로(278)를 갖고 있다.
안테나 단자(255)는, 수신 안테나(도시생략)로 수신된 텔레비전 방송 신호를 입력한 단자이다. 디지털 튜너(256)은, 안테나 단자(255)에 입력된 텔레비전 방송 신호를 처리하고, 유저의 선택 채널에 대응한 소정의 수송 스트림을 출력한다. 디멀티플렉서(257)는, 디지털 튜너(256)로 얻어진 수송 스트림으로부터, 유저의 선택 채널에 대응한 파샬 TS(Transport Stream)(영상 데이터의 TS 패킷, 음성 데이터의 TS 패킷)를 추출한다.
또, 디멀티플렉서(257)는, 디지털 튜너(256)로 얻어진 수송 스트림으로부터, PSI/SI(Program Specific Information/Service Information)를 취출하고, CPU(271)에 출력한다. 디지털 튜너(256)로 얻어진 수송 스트림에는, 복수의 채널이 다중화되고 있다. 디멀티플렉서(257)로, 해당 수송 스트림으로부터 임의의 채널의 파샬 TS를 추출하는 처리는, PSI/SI(PAT/PMT)로부터 해당 임의의 채널의 패킷 ID(PID)의 정보를 얻는 것으로 가능해진다.
MPEG 디코더(258)은, 디멀티플렉서(257)로 얻어지는 영상 데이터의 TS 패킷에 의해 구성된 영상 PES(Packetized Elementary Stream) 패킷에 대하여 디코드 처리를 행하고 화상 데이터를 얻는다. 또, MPEG 디코더(258)은, 디멀티플렉서(257)로 얻어지는 음성 데이터의 TS 패킷에 의해 구성된 음성 PES 패킷에 대하여 디코드 처리를 행하고 음성 데이터를 얻는다.
영상 신호 처리 회로(259) 및 그래픽 생성 회로(260)은, MPEG 디코더(258)로 얻어진 화상 데이터, 또는 HDMI 수신부(252)로 수신된 화상 데이터에 대하여 필요에 따라 스케일링 처리(해상도 변환 처리), 그래픽스 데이터의 중첩 처리등을 행한다. 또, 영상 신호 처리 회로(259)는, HDMI 수신부(252)로 수신된 화상 데이터가, 3D 화상 데이터인 경우에는, 좌안 화상 데이터 및 우안 화상 데이터에 대하여 입체시 화상(도 2 참조)을 표시하기 위한 처리를 행한다. 패널 구동 회로(261)은, 그래픽 생성 회로(260)으로부터 출력된 영상(화상) 데이터에 근거하고, 표시 패널(262) 를 구동한다.
표시 패널(262)는, 예를 들면, LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 등으로 구성되고 있다. 음성 신호 처리 회로(263)은 MPEG 디코더(258)로 얻어진 음성 데이터에 대해 D/A 변환등의 필요한 처리를 행한다. 음성 증폭 회로(264)는, 음성 신호 처리 회로(263)으로부터 출력된 음성 신호를 증폭하고 스피커(265)에 공급한다.
CPU(271)은, 텔레비전 수신기(250)의 각 부분의 동작을 제어한다. 플래시 ROM(272)는, 제어 소프트웨어의 격납 및 데이터의 보관을 행한다. DRAM(273)은, CPU(271)의 워크 지역을 구성한다. CPU(271)는, 플래시 ROM(272)으로부터 판독 소프트웨어나 데이터를 DRAM(273) 위에 전개하고 소프트웨어를 시동시켜 텔레비전 수신기(250)의 각 부분을 제어한다.
리모트 컨트롤 수신부(276)는, 리모트 컨트롤 송신기(277)로부터 송신된 리모컨트롤 호(리모트 컨트롤 코드)를 수신하고, CPU(271)에 공급한다. CPU(271)는, 이 리모트 컨트롤 코드에 근거하고, 텔레비전 수신기(250)의 각 부분을 제어한다. 네트워크 단자(275)는, 네트워크에 접속한 단자이고, 이서넷 인터페이스(274)에 접속된다. CPU(271), 플래시 ROM(272), DRAM(273) 및 이서넷 인터페이스(274)는, 내부 버스(270)에 접속되고 있다.
DTCP 회로(278)는, 네트워크 단자(275) 또는 고속 데이터 라인 인터페이스(253)로부터 이서넷 인터페이스(274)에 공급된 암호화 데이터를 복호한다.
HDMI 수신부(HDMI 싱크)252는, HDMI에 준거한 통신에 의해 HDMI 케이블(350) 을 이용해 HDMI 단자(251)에 공급된 전용선 접속 시스템의 화상(영상)과 음성의 데이터를 수신한다. 이 HDMI 수신부(252)의 상세한 것은 후술한다. 고속 데이터 라인 인터페이스(253)는, 상술한 디스크 플레이어(210)의 고속 데이터 라인 인터페이스(213)와 마찬가지로, HDMI 케이블(350)을 구성한 소정의 라인(이 실시의 형태에 있어서는, 리저브 라인, HPD 라인)을 이용하여 구성된 쌍방향 통신로의 인터페이스이다.
이 고속 데이터 라인 인터페이스(253)는, 이서넷 인터페이스(274)와 HDMI 단자(251)와의 사이에 삽입되고 있다. 이 고속 데이터 라인 인터페이스(253)는, CPU(271)로부터 공급된 송신 데이터를 HDMI 단자(251)로부터 HDMI 케이블(350)을 이용하고 상대측의 기기로 송신한다. 또, 이 고속 데이터 라인 인터페이스(253)는, HDMI 케이블(350)로부터 HDMI 단자(251)를 이용하고 상대측의 기기로부터 수신된 수신 데이터를 CPU(271)에 공급한다. 이 고속 데이터 라인 인터페이스(253)의 상세한 것은 후술한다.
3D 신호 처리부(254)는, HDMI 수신부(252)로 수신된 3D 화상 데이터에 대하여 전송 방식에 대응한 처리(디코드 처리)를 행하고, 좌안 화상 데이터 및 우안 화상 데이터를 생성한다. 즉, 이 3D 신호 처리부(254)는, 상술한 디스크 플레이어(210)의 3D 신호 처리부(229)란 반대의 처리를 행하고, 3D 화상 데이터를 구성하는 좌안 화상 데이터 및 우안 화상 데이터, 또는 2차원 화상 데이터 및 심층 데이터를 취득한다. 또, 이 3D 신호 처리부(229)는, 2차원 화상 데이터 및 심층 데이터를 취득한 경우에는(MPEG-C 방식), 또한, 이들 2차원 화상 데이터 및 심층 데이터 를 이용하고, 좌안 화상 데이터 및 우안 화상 데이터를 생성한 연산을 행한다.
도 4에 가리키는 텔레비전 수신기(250)의 동작을 간단하게 설명한다. 안테나 단자(255)에 입력된 텔레비전 방송 신호는 디지털 튜너(256)에 공급된다. 이 디지털 튜너(256)로는, 텔레비전 방송 신호를 처리하고, 유저의 선택 채널에 대응한 소정의 수송 스트림이 출력되고, 해당 소정의 수송 스트림은 디멀티플렉서(257)에 공급된다. 이 디멀티플렉서(257)로는, 수송 스트림으로부터, 유저의 선택 채널에 대응한 파샬 TS(영상 데이터의 TS 패킷, 음성 데이터의 TS 패킷)가 추출되고, 해당 파샬 TS는 MPEG 디코더(258)에 공급된다.
MPEG 디코더(258)로는, 영상 데이터의 TS 패킷에 의해 구성된 영상 PES 패킷에 대하여 디코드 처리가 행해지고 영상 데이터를 얻을 수 있다. 이 영상 데이터는, 영상 신호 처리 회로(259) 및 그래픽 생성 회로(260)에 있어, 필요에 따라, 스케일링 처리(해상도 변환 처리), 스케일링 처리, 그래픽스 데이터의 중첩 처리 등이 행해진 후에, 패널 구동 회로(261)에 공급된다. 그 때문에, 표시 패널(262)에는, 유저의 선택 채널에 대응한 화상이 표시되는.
또, MPEG 디코더(258)로는, 음성 데이터의 TS 패킷에 의해 구성된 음성 PES 패킷에 대하여 디코드 처리가 행해지고 음성 데이터를 얻을 수 있다. 이 음성 데이터는, 음성 신호 처리 회로(263)로 D/A 변환 등의 필요한 처리가 행해지고, 또한, 음성 증폭 회로(264)로 증폭된 후에, 스피커(265)에 공급된다. 그 때문에, 스피커(265)로부터, 유저의 선택 채널에 대응한 음성이 출력된다.
또, 네트워크 단자(275)로부터 이서넷 인터페이스(274)에 공급되는, 또는, HDMI 단자(251)로부터 고속 데이터 라인 인터페이스(253)를 이용하고 이서넷 인터페이스(274)에 공급되는, 암호화되고 있는 내용 데이터(화상 데이터, 음성 데이터)는, DTCP 회로(274)로 복호화된 후에, MPEG 디코더(258)에 공급된다. 이후는, 상술한 텔레비전 방송 신호의 수신시와 동일한 동작으로 되고, 표시 패널(262)에 화상이 표시되고, 스피커(265)로부터 음성이 출력된다.
또, HDMI 수신부(252)로는, HDMI 단자(251)에 HDMI 케이블(350)을 통해 접속되고 있는 디스크 플레이어(210)로부터 송신되어 오는 화상 데이터 및 음성 데이터가 취득된다. 화상 데이터는, 3D 신호 처리부(254)를 이용하고 영상 신호 처리 회로(259)에 공급된다. 또, 음성 데이터는, 직접, 음성 신호 처리 회로(263)에 공급된다. 이후는, 상술한 텔레비전 방송 신호의 수신시와 동일한 동작으로 되고, 표시 패널(262)에 화상이 표시되고, 스피커(265)로부터 음성이 출력된다.
또한, HDMI 수신부(252)로 수신된 화상 데이터가 3D 화상 데이터인 경우에는, 3D 신호 처리부(254)에 있어, 해당 3D 화상 데이터에 대하여 전송 방식에 대응한 처리(디코드 처리)가 행해지고, 좌안 화상 데이터 및 우안 화상 데이터가 생성된다. 그리고, 3D 신호 처리부(254)로부터 영상 신호 처리부(259)에는, 좌안 화상 데이터 및 우안 화상 데이터가 공급된다. 또, 영상 신호 처리 회로(259)로는, 3D 화상 데이터를 구성한 좌안 화상 데이터 및 우안 화상 데이터가 공급된 경우에는, 좌안 화상 데이터 및 우안 화상 데이터에 근거하고, 입체시 화상(도 2 참조)을 표시하기 위한 화상 데이터가 생성된다. 그 때문에, 표시 패널(262)에는, 입체시 화상이 표시된다.
도 5는, 도 1의 AV 시스템(200)에 있어서, 디스크 플레이어(210)의 HDMI 송신부(HDMI 소스 ; 212)와, 텔레비전 수신기(250)의 HDMI 수신부(HDMI 싱크 ; 252)의 구성예를 나타내고 있다.
HDMI 송신부(212)는, 1의 수직 동기 신호로부터 다음 수직 동기 신호까지의 구간에서, 수평 귀선 구간 및 수직 귀선 구간을 제외한 구간인 유효 화상 구간(이하, 적절히, 액티브 비디오 구간이라고도 하다)에 있어, 비 압축의 1 화면분의 화상의 픽셀 데이터에 대응한 차동 신호를 복수의 채널로, HDMI 수신부(252)에 일방향으로 송신함과 동시에, 수평 귀선 구간 또는 수직 귀선 구간에 있어, 적어도 화상에 부수된 음성 데이터나 제어 데이터, 그 밖의 보조 데이터 등에 대응한 차동 신호를 복수의 채널로, HDMI 수신부(252)에 일방향으로 송신한다.
즉, HDMI 송신부(212)는, HDMI 트랜스미터(81)를 갖는다. 트랜스미터(81)는, 예를 들면, 비 압축의 화상의 픽셀 데이터를 대응하는 차동 신호로 변환하고, 복수의 채널인 3개의 TMDS 채널(# 0, # 1, # 2)로, HDMI 케이블(350)을 통해 접속되고 있는 HDMI 수신부(252)에, 일방향으로 시리얼 전송한다.
또, 트랜스미터(81)는, 비 압축의 화상에 부수된 음성 데이터, 나아가서는, 필요한 제어 데이터 그 밖의 보조 데이터 등을, 대응하는 차동 신호로 변환하고, 3개의 TMDS 채널(# 0, # 1, # 2)로 HDMI 케이블(350)을 통해 접속되고 있는 HDMI 싱크(252)에, 일방향으로 시리얼 전송한다.
또한, 트랜스미터(81)는, 3개의 TMDS 채널(# 0, # 1, # 2)로 송신한 픽셀 데이터에 동기한 픽셀 클록을, TMDS 클록 채널로, HDMI 케이블(350)을 통해 접속되고 있는 HDMI 수신부(252)에 송신한다. 여기에서, 1개의 TMDS 채널# i(i = 0, 1, 2)로는, 픽셀 클록의 1 클록의 사이에, 10 비트의 픽셀 데이터가 송신된다.
HDMI 수신부(252)는, 액티브 비디오 구간에 있어, 복수의 채널로, HDMI 송신부(212)로부터 일방향으로 송신되어 오는 픽셀 데이터에 대응한 차동 신호를 수신함과 동시에, 수평 귀선 구간 또는 수직 귀선 구간에 있어, 복수의 채널로, HDMI 송신부(212)로부터 일방향으로 송신되어 오는 음성 데이터나 제어 데이터에 대응한 차동 신호를 수신한다.
즉, HDMI 수신부(252)는, HDMI 수신기(82)를 갖는다. 수신기(82)는, TMDS 채널(#0, #1, #2)로, HDMI 케이블(350)을 통해 접속되고 있는 HDMI 송신부(212)로부터 일방향으로 송신되어 오는 픽셀 데이터에 대응한 차동 신호와, 음성 데이터나 제어 데이터에 대응한 차동 신호를 동일하게 HDMI 송신부(212)로부터 TMDS 클록 채널로 송신되어 오는 픽셀 클록에 동기하고 수신한다.
HDMI 송신부(212)와 HDMI 수신부(252)로 된 HDMI 시스템의 전송 채널에는, HDMI 송신부(212)로부터 HDMI 수신부(252)에 대하여 픽셀 데이터 및 음성 데이터를 픽셀 클록에 동기하고, 일방향으로 시리얼 전송하기 위한 전송 채널으로서의 3 개의 TMDS 채널(#0) 내지#2 와, 픽셀 클록을 전송하는 전송 채널으로서의 TMDS 클록 채널외에, DDC(Display Data Channel)83 야CEC 라인(84)와 불리는 전송 채널이 있다.
DDC(83)는, HDMI 케이블(350)에 포함된 도시하지 않는 2 개의 신호선으로 되고, HDMI 송신부(212)가, HDMI 케이블(350)을 통해 접속된 HDMI 수신부(252)로부 터, E-EDID(Enhanced Extended Display Identification Data)를 판독하기 위해 사용된다.
즉, HDMI 수신부(252)는, HDMI 수신기(81)외에, 자신의 성능 (Configuration/capability)에 관한 성능 정보인 E-EDID를 기억하고 있다, EDIDROM(Read Only Memory ; 85)을 갖고 있다. HDMI 송신부(212)는, 예를 들면, CPU(214)로부터의 요구에 따라, HDMI 케이블(350)을 통해 접속되고 있는 HDMI 수신부(252)로부터, 해당 HDMI 수신부(252)의 E-EDID를 DDC(83)를 이용하고 판독한다. HDMI 송신부(212)는, 판독한 E-EDID를 CPU(214)에 보낸다. CPU(214)는, 이 E-EDID를. 플래시 ROM(272) 또는 DRAM(273)에 격납한다.
CPU(214)는, E-EDID에 근거하고, HDMI 수신부(252)의 성능의 설정을 인식할 수 있다. 예를 들면, CPU(214)는, HDMI 수신부(252)를 갖는 전자 기기가 대응하고 있는 화상의 포맷(프로파일), 예를 들면, RGB, YCbCr 4 : 4 : 4, YCbCr 4 : 2 : 2 등을 인식한다. 또, 이 실시의 형태에 있어, CPU(214)는, E-EDID에 포함된 3D 화상 데이터의 전송 방식 정보에 근거하고, HDMI 수신부(252)를 갖는 전자 기기가 대응 가능한 3D 화상·음성 데이터의 전송 방식을 인식한다.
CEC 라인(84)은, HDMI 케이블(350)에 포함된 도시하지 않는 1 개의 신호선으로 되고, HDMI 송신부(212)와 HDMI 수신부(252)와의 사이에서, 제어용의 데이터의 쌍방향 통신을 행하는데도 사용된다.
또, HDMI 케이블(350)에는, HPD(Hot Plug Detect)와 불리는 핀에 접속된 라인(HPD 라인 ; 86)이 포함되고 있다. 소스 기기는, 해당 라인(86)을 이용하고, 싱 크 기기의 접속을 검출한 것을 할 수 있다. 또, HDMI 케이블(350)에는, 소스 기기로부터 싱크 기기에 전원을 공급하기 위해 사용된 라인(87)이 포함되고 있다. 또한, HDMI 케이블(350)에는, 리저브 라인(88)이 포함되고 있다.
도 6은, 도 5의 HDMI 트랜스미터(81)와 HDMI 수신기(82)의 구성예를 나타내고 있다.
HDMI 트랜스미터(81)는, 3개의 TMDS 채널(#0, #1, #2)에 각각 대응한 3개의 인코더/시리얼라이저(81A, 81B, 81C)를 갖는다. 그리고, 인코더/시리얼라이저(81A, 81B, 81C)의 각각은, 거기에 공급된 화상 데이터, 보조 데이터, 제어 데이터를 인코드하여, 패럴렐 데이터로부터 시리얼 데이터로 변환하고, 차동 신호에 의해 송신한다. 여기에서, 화상 데이터가, 예를 들면 R(적), G(녹), B(청)의 3성분을 갖는 경우, B성분(B component)은 인코더/시리얼라이저(81A)에 공급되고, G성분(G component)은 인코더/시리얼라이저(81B)에 공급되고, R성분(R component)은 인코더/시리얼라이저(81C)에 공급된다.
또, 보조 데이터로서는, 예를 들면, 음성 데이터나 제어 패킷이 있고, 제어 패킷은, 예를 들면, 인코더/시리얼라이저(81A)에 공급되고, 음성 데이터는, 인코더/시리얼라이저(81B, 81C)에 공급된다.
또한, 제어 데이터로서는, 1 비트의 수직 동기 신호(VSYNC), 1 비트의 수평 동기 신호(HSYNC) 및 각각 1 비트의 제어 비트(CTL0, CTL1, CTL2, CTL3)가 있다. 수직 동기 신호 및 수평 동기 신호는, 인코더/시리얼라이저(81A)에 공급된다. 제어 비트(CTL0, CTL1)는 인코더/시리얼라이저(81B)에 공급되고, 제어 비트(CTL2, CTL3) 는 인코더/시리얼라이저(81C)에 공급된다.
인코더/시리얼라이저(81A)는, 거기에 공급된 화상 데이터의 B성분, 수직 동기 신호 및 수평 동기 신호 및 보조 데이터를 시분할로 송신한다. 즉, 인코더/시리얼라이저(81A)는, 거기에 공급된 화상 데이터의 B성분을, 고정의 비트 수인 8 비트 단위의 패럴렐 데이터라고 한다. 또한, 인코더/시리얼라이저(81A)는, 그 패럴렐 데이터를 인코드하여 시리얼 데이터로 변환하고, TMDS 채널(#0)로 송신한다.
또, 인코더/시리얼라이저(81A)는, 거기에 공급된 수직 동기 신호 및 수평 동기 신호의 2 비트의 패럴렐 데이터를 인코드하여 시리얼 데이터로 변환하고, TMDS 채널(#0)로 송신한다. 또한, 인코더/시리얼라이저(81A)는, 거기에 공급된 보조 데이터를 4 비트 단위의 패럴렐 데이터라고 한다. 그리고, 인코더/시리얼라이저(81A)는, 그 패럴렐 데이터를 인코드하여 시리얼 데이터로 변환하고, TMDS 채널(#0)로 송신한다.
인코더/시리얼라이저(81B)는, 거기에 공급된 화상 데이터의 G성분, 제어 비트(CTL0, CTL1) 및 보조 데이터를 시분할로 송신한다. 즉, 인코더/시리얼라이저(81B)는, 거기에 공급된 화상 데이터의 G성분을, 고정의 비트 수인 8 비트 단위의 패럴렐 데이터라고 한다. 또한, 인코더/시리얼라이저(81B)는, 그 패럴렐 데이터를 인코드하여 시리얼 데이터로 변환하여 TMDS 채널(#1)로 송신한다.
또, 인코더/시리얼라이저(81B)는, 거기에 공급된 제어 비트(CTL0, CTL1)의 2 비트의 패럴렐 데이터를 인코드하여 시리얼 데이터로 변환하고, TMDS 채널(#1)로 송신한다. 또한, 인코더/시리얼라이저(81B)는, 거기에 공급된 보조 데이터를 4 비 트 단위의 패럴렐 데이터라고 한다. 그리고, 인코더/시리얼라이저(81B)는, 그 패럴렐 데이터를 인코드하여 시리얼 데이터로 변환하고, TMDS 채널(#1)로 송신한다.
인코더/시리얼라이저(81C)는, 거기에 공급된 화상 데이터의 R성분, 제어 비트(CTL2, CTL3) 및 보조 데이터를 시분할로 송신한다. 즉, 인코더/시리얼라이저(81C)는, 거기에 공급된 화상 데이터의 R성분을, 고정의 비트 수인 8 비트 단위의 패럴렐 데이터라고 한다. 또한, 인코더/시리얼라이저(81C)는, 그 패럴렐 데이터를 인코드하여 시리얼 데이터로 변환하고, TMDS 채널(#2)로 송신한다.
또, 인코더/시리얼라이저(81C)는, 거기에 공급된 제어 비트(CTL2, CTL3)의 2 비트의 패럴렐 데이터를 인코드하여 시리얼 데이터로 변환하고, TMDS 채널(#2)로 송신한다. 또한, 인코더/시리얼라이저(81C)는, 거기에 공급된 보조 데이터를 4 비트 단위의 패럴렐 데이터라고 한다. 그리고, 인코더/시리얼라이저(81C)는, 그 패럴렐 데이터를 인코드하여 시리얼 데이터로 변환하고, TMDS 채널(#2)로 송신한다.
HDMI 수신기(82)는, 3개의 TMDS 채널(#0, #1, #2)에 각각 대응한 3개의 리커버리/디코더(82A, 82B, 82C)를 갖는다. 그리고, 리커버리/디코더(82A, 82B, 82C)의 각각은, TMDS 채널(#0, #1, #2)로 차동 신호에 의해 송신되어 오는 화상 데이터, 보조 데이터, 제어 데이터를 수신한다. 또한, 리커버리/디코더(82A, 82B, 82C)의 각각은, 화상 데이터, 보조 데이터, 제어 데이터를 시리얼 데이터로부터 패럴렐 데이터로 변환하고, 또한 디코드하여 출력한다.
즉, 리커버리/디코더(82A)는, TMDS 채널(#0)로 차동 신호에 의해 송신되어 오는 화상 데이터의 B성분, 수직 동기 신호 및 수평 동기 신호, 보조 데이터를 수 신한다. 그리고, 리커버리/디코더(82A)는, 그 화상 데이터의 B성분, 수직 동기 신호 및 수평 동기 신호, 보조 데이터를 시리얼 데이터로부터 패럴렐 데이터로 변환하고, 디코드하여 출력한다.
리커버리/디코더(82B)는, TMDS 채널(#1)로 차동 신호에 의해 송신되어 오는 화상 데이터의 G성분, 제어 비트(CTL0, CTL1), 보조 데이터를 수신한다. 그리고, 리커버리/디코더(82B)는, 그 화상 데이터의 G성분, 제어 비트(CTL0, CTL1), 보조 데이터를 시리얼 데이터로부터 패럴렐 데이터로 변환하고, 디코드하여 출력한다.
리커버리/디코더(82C)는, TMDS 채널(#2)로 차동 신호에 의해 송신되어 오는 화상 데이터의 R성분, 제어 비트(CTL2, CTL3), 보조 데이터를 수신한다. 그리고, 리커버리/디코더(82C)는, 그 화상 데이터의 R성분, 제어 비트(CTL2, CTL3), 보조 데이터를 시리얼 데이터로부터 패럴렐 데이터로 변환하고, 디코드하여 출력한다.
도 7은, TMDS 전송 데이터의 구조예를 나타내고 있다. 도 7은, TMDS 채널(#0, #1, #2)에 있어, 횡×세로가 1920 픽셀×1080 라인의 화상 데이터가 전송된 경우의, 각종의 전송 데이터의 구간을 나타내고 있다.
HDMI의 3개의 TMDS 채널(#0, #1, #2)로 전송 데이터가 전송된 비디오 필드(Video Field)에는, 전송 데이터의 종류에 따라, 비디오 데이터 구간(Video Data period), 데이터 아일랜드 구간(Data Island period) 및 컨트롤 구간(Control period)의 3 종류의 구간이 존재한다.
여기에서, 비디오 필드 구간은, 있는 수직 동기 신호의 탄성 에지(activeedge)로부터 다음 수직 동기 신호의 탄성 에지까지의 구간이고, 수평 블 랭킹 기간(horizon talblanking), 수직 블랭킹 기간(vertical blanking) 및 비디오 필드 구간에서, 수평 블랭킹 기간 및 수직 블랭킹 기간을 제외한 구간인 액티브 비디오 구간(Active Video)으로 나눠진다.
비디오 데이터 구간은, 액티브 비디오 구간에 할당된다. 이 비디오 데이터 구간에서는, 비 압축의 1 화면분의 화상 데이터를 구성한 1920 픽셀(화소)×1080 라인 부분의 유효 픽셀(Active pixel)의 데이터가 전송된다.
데이터 아일랜드 구간 및 컨트롤 구간은, 수평 블랭킹 기간 및 수직 블랭킹 기간에 할당된다. 이 데이터 아일랜드 구간 및 컨트롤 구간에서는, 보조 데이터(Auxiliary data)가 전송된다. 즉, 데이터 아일랜드 구간은, 수평 블랭킹 기간과 수직 블랭킹 기간의 일부분에 할당되고 있다. 이 데이터 아일랜드 구간에서는, 보조 데이터중, 제어에 관계되지 않는 데이터이며, 예를 들면, 음성 데이터의 패킷 등이 전송된다.
컨트롤 구간은, 수평 블랭킹 기간과 수직 블랭킹 기간의 다른 부분에 할당되고 있다. 이 컨트롤 구간에서는, 보조 데이터중의, 제어에 관계된 데이터이며, 예를 들면, 수직 동기 신호 및 수평 동기 신호, 제어 패킷 등이 전송된다.
도 8은, HDMI 단자(211, 251)의 핀 배열의 일예를 나타내고 있다. 도 8에 나타내는 핀 배열은 타입 A(type-A)라고 불리고 있다.
TMDS 채널#i의 차동 신호인 TMDSData#i+와 TMDSData#i-가 전송된 차동 선인 2개의 라인은, TMDSData#i+가 할당되고 있는 핀(핀 번호가 1, 4, 7의 핀)과, TMDSData#i-가 할당되고 있는 핀(핀 번호가 3, 6, 9의 핀)에 접속된다.
또, 제어용의 데이터인 CEC 신호가 전송된 CEC 라인(84)은, 핀 번호가 13인 핀에 접속되고, 핀 번호가 14의 핀은 비고(Reserved)핀으로 되어 있다. 또, E-EDID 등의 SDA(Serial Data) 신호가 전송된 라인은, 핀 번호가 16인 핀에 접속되고, SDA 신호의 송수신시의 동기에 사용된 클록 신호인 SCL(Serial Clock) 신호가 전송된 라인은, 핀 번호가 15인 핀에 접속된다. 상술의 DDC(83)는, SDA 신호가 전송된 라인 및 SCL 신호가 전송된 라인에 의해 구성된다.
또, 상술했던 것처럼 소스 기기가 싱크 기기의 접속을 검출하기 위한 HPD 라인(86)은, 핀 번호가 19인 핀에 접속된다. 또, 상술했던 것처럼 전원을 공급하기 위한 라인(87)은, 핀 번호가 18인 핀에 접속된다.
다음에, 디스크 플레이어(210)의 고속 데이터 라인 인터페이스(213) 및 텔레비전 수신기(250)의 고속 데이터 라인 인터페이스(253)에 관하여 설명한다. 또한, 여기에서는, 디스크 플레이어(210)를 소스 기기로 하여, 텔레비전 수신기(250)를 싱크 기기로서 설명한다.
도 9는, 소스 기기 및 싱크 기기의 고속 데이터 라인 인터페이스의 구성예를 나타내고 있다. 이 고속 데이터 라인 인터페이스는, LAN(Local Area Network) 통신을 행한 통신부를 구성한다. 이 통신부는, HDMI 케이블을 구성한 복수의 라인중, 1대의 차동 전송 라인, 이 실시의 형태에 있어서는, 비고(Reserve)핀(14핀)에 대응한 리저브 라인(Ether + 라인) 및 HPD 핀(19핀)에 대응한 HPD 라인(Ether - 라인)에 의해 구성된 쌍방향 통신로를 통하여 통신을 행한다.
소스 기기는, LAN 신호 송신 회로(411), 종단 저항(412), AC 결합 용량(413, 414), LAN 신호 수신 회로(415), 감산 회로(416), 풀업 저항(421), 저역 필터를 구성한 저항(422) 및 용량(423), 비교기(424), 풀 다운 저항(431), 저역 필터를 형성한 저항(432) 및 용량(433) 및 비교기(434)를 갖고 있다. 여기에서, 고속 데이터 라인 인터페이스(고속 데이터 라인 I/F)는, LAN 신호 송신 회로(411), 종단 저항(412), AC 결합 용량(413, 414), LAN 신호 수신 회로(415), 감산 회로(416)에 의해 구성되고 있다.
전원선(+5. 0V)과 접지선과의 사이에는, 풀업 저항(421), AC 결합 용량(413), 종단 저항(412), AC 결합 용량(414) 및 풀 다운 저항(431)의 직렬 회로가 접속된다. AC 결합 용량(413)과 종단 저항(412)의 서로의 접속점(P1)은, LAN 신호 송신 회로(411)의 정출 력측에 접속됨과 동시에, LAN 신호 수신 회로(415)의 정 입력측에 접속된다. 또, AC 결합 용량(414)과 종단 저항(412)의 서로의 접속점(P2)은, LAN 신호 송신 회로(411)의 부출력측에 접속됨과 동시에, LAN 신호 수신 회로(415)의 부 입력측에 접속된다. LAN 신호 송신 회로(411)의 입력측에는, 송신 신호(송신 데이터)SG(411)가 공급된다.
또, 감산 회로(416)의 정측 단자에는, LAN 신호 수신 회로(415)의 출력 신호 SG(412)가 공급되고, 이 감산 회로(416)의 부측 단자에는, 송신 신호(송신 데이터)SG(411)가 공급된다. 이 감산 회로(416)로는, LAN 신호 수신 회로(415)의 출력 신호 SG(412)로부터 송신 신호 SG(411)가 감산되고, 수신 신호(수신 데이터)SG(413)를 얻을 수 있다.
또, 풀업 저항(421) 및 AC 결합 용량(413)의 서로의 접속점(Q1)은, 저 항(422) 및 용량(423)의 직렬 회로를 이용하고 접지선에 접속된다. 그리고, 저항(422) 및 용량(423)의 서로의 접속점에 얻어지는 저역 필터의 출력 신호는 비교기(424)의 한편의 입력단자에 공급된다. 이 비교기(424)로는, 저역 필터의 출력 신호가 다른 편의 입력단자에 공급된 기준 전압(Vref1)(+3. 75V)와 비교된다. 이 비교기(424)의 출력 신호 SG(414)는, 소스 기기의 제어부(CPU)에 공급된다.
또, AC 결합 용량(414) 및 풀 다운 저항(431)의 서로의 접속점(Q2)은, 저항(432) 및 용량(433)의 직렬 회로를 이용하고 접지선에 접속된다. 그리고, 저항(432) 및 용량(433)의 서로의 접속점에 얻어지는 저역 필터의 출력 신호는 비교기(434)의 한편의 입력단자에 공급된다. 이 비교기(434)로는, 저역 필터의 출력 신호가 다른 편의 입력단자에 공급된 기준 전압 V ref2(+1. 4V)와 비교된다. 이 비교기(434)의 출력 신호 SG(415)는, 소스 기기의 제어부(CPU)에 공급된다.
싱크 기기는, LAN 신호 송신 회로(441), 종단 저항(442), AC 결합 용량(443, 444), LAN 신호 수신 회로(445), 감산 회로(446), 풀 다운 저항(451), 저역 필터를 구성한 저항(452) 및 용량(453), 비교기(454), 초크 코일(461), 저항(462) 및 저항(463)을 갖고 있다. 여기에서, 고속 데이터 라인 인터페이스(고속 데이터 라인 I/F)는, LAN 신호 송신 회로(441), 종단 저항(442), AC 결합 용량(443, 444), LAN 신호 수신 회로(445), 감산 회로(446)에 의해 구성되고 있다.
전원선(+5. 0V)과 접지선과의 사이에는, 저항(462) 및 저항(463)의 직렬 회로가 접속된다. 그리고, 이 저항(462)과 저항(463)의 서로의 접속점과, 접지선과의 사이에는, 초크 코일(461), AC 결합 용량(444), 종단 저항(442), AC 결합 용 량(443) 및 풀 다운 저항(451)의 직렬 회로가 접속된다.
AC 결합 용량(443)과 종단 저항(442)의 서로의 접속점(P3)은, LAN 신호 송신 회로(441)의 정출 력측에 접속됨과 동시에, LAN 신호 수신 회로(445)의 정 입력측에 접속된다. 또, AC 결합 용량(444)과 종단 저항(442)의 서로의 접속점 P4는, LAN 신호 송신 회로(441)의 부출력측에 접속됨과 동시에, LAN 신호 수신 회로(445)의 부 입력측에 접속된다. LAN 신호 송신 회로(441)의 입력측에는, 송신 신호(송신 데이터)SG(417)가 공급된다.
또, 감산 회로(446)의 정측 단자에는, LAN 신호 수신 회로(445)의 출력 신호 SG(418)가 공급되고, 이 감산 회로(446)의 부측 단자에는, 송신 신호 SG(417)가 공급된다. 이 감산 회로(446)로는, LAN 신호 수신 회로(445)의 출력 신호 SG(418)로부터 송신 신호 SG(417)가 감산되고, 수신 신호(수신 데이터)SG(419)를 얻을 수 있다.
또, 풀 다운 저항(451) 및 AC 결합 용량(443)의 서로의 접속점(Q3)은, 저항(452) 및 용량(453)의 직렬 회로를 이용하고 접지선에 접속된다. 그리고, 저항(452) 및 용량(453)의 서로의 접속점에 얻어지는 저역 필터의 출력 신호는 비교기(454)의 한편의 입력단자에 공급된다. 이 비교기(454)로는, 저역 필터의 출력 신호가 다른 편의 입력단자에 공급된 기준 전압 V ref3(+1. 25V)와 비교된다. 이 비교기(454)의 출력 신호 (SG416)는, 싱크 기기의 제어부(CPU)에 공급된다.
HDMI 케이블에 포함된 리저브 라인(501) 및 HPD 라인(502)은, 차동 트위스트 페어를 구성하고 있다. 리저브 라인(501)의 소스측 단(511)은, 소스 기기의 HDMI 단자의 14핀에 접속되고, 해당 리저브 라인(501)의 싱크측 단(521)은 싱크 기기의 HDMI 단자의 14핀에 접속된다. 또, HPD 라인(502)의 소스측 단(512)은 소스 기기의 HDMI 단자의 19핀에 접속되고, 해당 HPD 라인(502)의 싱크측 단(522)은 싱크 기기의 HDMI 단자의 19핀에 접속된다.
소스 기기에 있어, 상술한 풀업 저항(421)과 AC 결합 용량(413)의 서로의 접속점(Q1)은, HDMI 단자의 14핀에 접속되고, 또, 상술한 풀 다운 저항(431)과 AC 결합 용량(414)의 서로의 접속점(Q2)는 HDMI 단자의 19핀에 접속된다. 한편, 싱크 기기에 있어, 상술한 풀 다운 저항(451)과 AC 결합 용량(443)의 서로의 접속점(Q3)은 HDMI 단자의 14핀에 접속되고, 또, 상술한 초크 코일(461)과 AC 결합 용량(444)의 서로의 접속점(Q4)은 HDMI 단자의 19핀에 접속된다.
다음에, 상술한 것과 같이 구성되는 고속 데이터 라인 인터페이스에 의한 LAN 통신의 동작을 설명한다.
소스 기기에 있어, 송신 신호(송신 데이터)SG(411)는 LAN 신호 송신 회로(411)의 입력측에 공급되고, 이 LAN 신호 송신 회로(411)로부터 송신 신호 SG(411)에 대응한 차동 신호(정 출력 신호, 부 출력 신호)가 출력된다. 그리고, LAN 신호 송신 회로(411)로부터 출력된 차동 신호는, 접속점(P1, P2)에 공급되고, HDMI 케이블의 1대의 차동 전송 라인(리저브 라인(501), HPD 라인(502))을 통하여, 싱크 기기에 송신된다.
또, 싱크 기기에 있어, 송신 신호(송신 데이터)SG(417)는 LAN 신호 송신 회로(441)의 입력측에 공급되고, 이 LAN 신호 송신 회로(441)로부터 송신 신호 SG(417)에 대응한 차동 신호(정 출력신호, 부 출력 신호)가 출력된다. 그리고, LAN 신호 송신 회로(441)로부터 출력된 차동 신호는, 접속점(P3, P4)에 공급되고, HDMI 케이블의 1대의 라인(리저브 라인(501), HPD 라인(502))을 통하여, 소스 기기에 송신된다.
또, 소스 기기에 있어, LAN 신호 수신 회로(415)의 입력측은 접속점(P1, P2)에 접속되고 있는 것으로, 해당 LAN 신호 수신 회로(415)의 출력 신호 SG(412)로서, LAN 신호 송신 회로(411)로부터 출력된 차동 신호(전류 신호)에 대응한 송신 신호와, 상술했던 것처럼 싱크 기기로부터 송신되어 오는 차동 신호에 대응한 수신 신호와의 가산 신호를 얻을 수 있다. 감산 회로(416)로는, LAN 신호 수신 회로(415)의 출력 신호 SG(412)로부터 송신 신호 SG(411)가 감산된다. 그 때문에, 이 감산 회로(416)의 출력 신호 SG(413)는, 싱크 기기의 송신 신호(송신 데이터)SG(417)에 대응하는 것으로 된다.
또, 싱크 기기에 있어, LAN 신호 수신 회로(445)의 입력측은 접속점(P3, P4)에 접속되고 있는 것으로, 해당 LAN 신호 수신 회로(445)의 출력 신호 SG(418)로서, LAN 신호 송신 회로(441)로부터 출력된 차동 신호(전류 신호)에 대응한 송신 신호와, 상술했던 것처럼 소스 기기로부터 송신되어 오는 차동 신호에 대응한 수신 신호와의 가산 신호를 얻을 수 있다. 감산 회로(446)로는, LAN 신호 수신 회로(445)의 출력 신호 SG(418)로부터 송신 신호 SG(417)가 감산된다. 그 때문에, 이 감산 회로(446)의 출력 신호 SG(419)는, 소스 기기의 송신 신호(송신 데이터)SG(411)에 대응하는 것으로 된다.
이처럼, 소스 기기의 고속 데이터 라인 인터페이스와, 싱크 기기의 고속 데이터 라인 인터페이스와의 사이에서는, 쌍방향 의 LAN 통신을 행할 수 있다.
또한, 도 9에 있어, HPD 라인(502)은, 상술의 LAN 통신의 그외에, DC 바이어스 레벨에서, HDMI 케이블이 싱크 기기에 접속된 것을 소스 기기에 전달한다. 즉, 싱크 기기내의 저항(462, 463)과 초크 코일(461)은, HDMI 케이블이 싱크 기기에 접속된 때, HPD 라인(502)을, HDMI 단자의 19핀을 이용하고, 약 4V로 바이어스 한다. 소스 기기는, HPD 라인(502)의 DC 바이어스를 저항(432)과 용량(433)으로 된 저역 필터로 추출하고, 비교기(434)로 기준 전압 Vref2(예를 들면, 1. 4V)와 비교한다.
소스 기기의 HDMI 단자의 19핀의 전압은, HDMI 케이블이 싱크 기기에 접속되고 있지 않으면, 풀 다운 저항(431)이 존재하기 때문에 기준 전압 V ref2 보다 낮고, 역으로, HDMI 케이블이 싱크 기기에 접속되고 있으면 기준 전압 V ref2 보다(부터) 높다. 따라서 비교기(434)의 출력 신호 SG(415)는, HDMI 케이블이 싱크 기기에 접속되고 있는 때는 고레벨(level)로 되고, 그렇지 않는 때는 저레벨(level)로 된다. 이것에 의해, 소스 기기의 제어부(CPU)는, 비교기(434)의 출력 신호 SG(415)에 근거하고, HDMI 케이블이 싱크 기기에 접속되었는지 아닌지를 인식할 수 있다.
또, 도 9에 있어, 리저브 라인(501)의 DC 바이어스 전위로, HDMI 케이블의 양단에 접속된 기기가, LAN 통신이 가능한 기기(이하, 「eHDMI 대응 기기」라고 칭함)이지만, LAN 통신이 불가능한 기기(이하, 「eHDMI비 대응 기기」인지를 서로 인식하는 기능을 갖고 있다.
상술했던 것처럼, 소스 기기는 리저브 라인(501)을 저항(421)으로 풀업(+5V) 하여, 싱크 기기는 리저브 라인(501)을 저항(451)으로 풀 다운한다. 저항(421, 451)은, eHDMI비 대응 기기에는 존재하지 않는다.
소스 기기는, 상술했던 것처럼, 비교기(424)로, 저항(422) 및 용량(423)으로 된 저역 필터를 통과한 리저브 라인(501)의 DC 전위를 기준 전압(Vref1)과 비교한다. 싱크 기기가, eHDMI 대응 기기로 풀 다운 저항(451)이 있는 때에는, 리저브 라인(501)의 전압이 2. 5V로 된다. 그러나, 싱크 기기가, eHDMI비 대응 기기로 풀 다운 저항(451)이 없는 때에는, 리저브 라인(501)의 전압이 풀업 저항(421)의 존재에 의해 5V로 된다.
그 때문에, 기준 전압(Vref1) 이 예를 들면 3.75V로 된 것으로, 비교기(424)의 출력 신호 SG(414)는, 싱크 기기가 eHDMI 대응 기기인 때는 저레벨(level)로 되고, 그렇지 않은 때는 고레벨(level)로 된다. 이것에 의해, 소스 기기의 제어부(CPU)는, 비교기(424)의 출력 신호 SG(414)에 근거하고, 싱크 기기가 eHDMI 대응 기기인 지 아닌지를 인식할 수 있다.
마찬가지로, 싱크 기기는, 상술했던 것처럼, 비교기(454)로, 저항(452) 및 용량(453)으로 된 저역 필터를 통과한 리저브 라인(501)의 DC 전위를 기준 전압 V ref3 와 비교한다. 소스 기기가, eHDMI 대응 기기로 풀업 저항(421)이 있는 때에는, 리저브 라인(501)의 전압이 2. 5V로 된다. 그러나, 소스 기기가, eHDMI비 대응 기기로 풀업 저항(421)이 없는 때에는, 리저브 라인(501)의 전압이 풀 다운 저항(451)의 존재에 의하여 0V로 된다.
그 때문에, 기준 전압 V ref3 이 예를 들면 1. 25V로 된 것으로, 비교기(454)의 출력 신호 (SG416)는, 소스 기기가 eHDMI 대응 기기인 때는 고레벨(level)로 되고, 그렇지 않는 때는 저레벨(level)로 된다. 이것에 의해, 싱크 기기의 제어부(CPU)는, 비교기(454)의 출력 신호 (SG416)에 근거하고, 소스 기기가 eHDMI 대응 기기인 지 아닌지를 인식할 수 있다.
도 9에 나타내는 구성예에 의하면, 1개의 HDMI 케이블로 화상(영상)과 음성의 데이터 전송과 접속 기기 정보의 교환 및 인증과 기기 제어 데이터의 통신과 LAN 통신을 행한 인터페이스에 있어, LAN 통신이 1대의 차동 전송로를 이용한 쌍방향 통신으로 행해지고, 전송로 중의 적어도 한 쪽의 DC 바이어스 전위에 의해 인터페이스의 접속 상태가 통지된 것으로, 물리적에 SCL 라인, SDA 라인을 LAN 통신에 쓰지 않는 공간적 분리를 행하는 것이 가능해진다. 그 결과, DDC에 관하여 규정된 전기적 사양과 무관계하게 LAN 통신을 위한 회로를 형성할 수 있고, 안정하게 확실한 LAN 통신을 값이 싸게 실현할 수 있다.
또한, 도 9에 나타냈던 풀업 저항(421)이, 소스 기기내가 아니라, HDMI 케이블 안에 마련되어 있도록 하여도 좋다. 그러한 경우, 풀업 저항(421)의 단자의 각각은, HDMI 케이블 안에 설치된 라인중, 리저브 라인(501) 및 전원(전원 전위)에 접속된 라인의 각각(신호선)에 접속된다.
또한, 도 9에 나타냈던 풀 다운 저항(451) 및 저항(463)이 싱크 기기내가 아니라, HDMI 케이블 안에 마련되어 있도록 하여도 좋다. 그러한 경우, 풀 다운 저항(451)의 단자의 각각은, HDMI 케이블 안에 설치된 라인중, 리저브 라인(501) 및 그라운드(기준 전위)에 접속된 라인의 각각(그라운드 선)에 접속된다. 또, 저항(463)의 단자의 각각은, HDMI 케이블 안에 설치된 라인중, HPD 라인(502) 및 그라운드(기준 전위)에 접속된 라인의 각각(그라운드 선)에 접속된다.
다음에, 3D 화상 데이터의 전송 방식에 관하여 설명한다. 처음에, 원신호의 3D 화상 데이터가, 좌안(L)화상 및 우안(R)의 화상 데이터로 구성된 경우에 관하여 설명한다. 여기에서는, 도 10에 나타내듯이 좌안(L) 및 우안(R)의 화상 데이터가, 각각, 1920×1080p의 픽셀 포맷의 화상 데이터인 경우를 예로 들어 설명한다. 이 원신호를 전용선 접속 시스템 디지털 인터페이스로 전송하는 때, 예를 들면, 이하의 6 길의 전송 방식이 고려된다.
방식(1) ~ (3)는, 원신호의 품위를 저하시키는 일 없이 전송이 가능하는 것으로, 가장 바람직한 방식이다. 그러나, 전송 대역이 현재의 상태의 2배 필요해지는 것으로, 전송 대역에 여유가 있는 때에 가능으로 된다. 또, 방식(4) ~ (6)는, 현재의 상태의 1920×1080p의 전송 대역으로 3D 화상 데이터를 전송하는 때의 방식이다.
방식(1)은, 도 11(a)에 나타내듯이 좌안 화상 데이터의 픽셀 데이터와 우안 화상 데이터의 픽셀 데이터를 TMDS 클록마다 순차적으로 바꾸어 전송하는 방식이다. 이 경우, 픽셀 클록의 주파수는 종래와 동일로 좋지만, 픽셀마다의 변경 회로가 필요해진다. 또한, 도 11(a)으로는, 수평 방향의 픽셀 수를 3840 픽셀이라고 했지만, 1920 픽셀 2 라인으로 구성해도 좋다.
방식(2)은, 도 11(b)에 나타내듯이 좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식으로, 라인 메모리에 의해 라인을 바꾼다. 이 경우, 영상 포맷으로서, 1920×2160이라고 말한 신규 영상 포맷의 정의가 필요해진다.
방식(3)은, 도 11(c)에 나타내듯이 좌안 화상 데이터와 우안 화상 데이터를 필드마다 순차적으로 바꾸어 전송하는 방식이다. 이 경우, 변환 처리를 위해 필드 메모리가 필요해지지만, 소스 기기에서의 신호 처리는 가장 간단한 것으로 된다.
방식(4)은, 도 12(a)에 나타내듯이 좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식이다. 이 경우, 좌안 화상 데이터 및 우안 화상 데이터는, 각각, 라인이 1/2로 솎아 내진다. 이 방식은, 상술의 「위상차 플레이트 방식」이라고 불리는 입체시 화상의 표시 방식의 영상 신호 그 자체이고, 싱크 기기의 표시부로의 신호 처리가 가장 간단한 방식이지만, 원신호에 대하여 수직 해상도는 반으로 된다.
방식(5)은, 도 12(b)에 나타내듯이 수직 방향의 전반으로는 좌안 화상 데이터의 각 라인의 데이터를 전송하고, 수직 방향의 후반으로는 우안 화상 데이터의 각 라인의 데이터를 전송하는 방식이다. 이 경우, 상술의 방식(4)과 마찬가지로, 좌안 화상 데이터 및 우안 화상 데이터의 라인이 1/2로 솎아 내지는 것으로 원신호에 대하여 수직 해상도는 반으로 되지만, 라인마다의 전환은 필요없다.
방식(6)은, 현재 실험 방송에서 사용되고 있는「Side By Side」방식으로, 도 12(c)에 나타내듯이 수평 방향의 전반으로는 좌안 화상 데이터의 픽셀 데이터를 전송하고, 수평 방향의 후반으로는 우안 화상 데이터의 픽셀 데이터를 전송하는 방식 이다. 이 경우, 좌안 화상 데이터 및 우안 화상 데이터는, 각각, 수평 방향의 픽셀 데이터가 1/2로 솎아 내지는 것으로, 상술의 방식(4), 방식(5)과 비교하고 수평 해상도는 1/2로 된다. 그러나, 3D 화상 데이터에 비 대응의 싱크 기기라도 내용을 판단할 수 있고, 종래의 싱크 기기의 표시부와의 상호 교환성이 높은 방식이다.
상술의 디스크 플레이어(210)의 3D 신호 처리부(229)는, 방식(1) ~ (6)의 어느 한쪽이 선택된 경우, 원신호의 3D 화상 데이터(좌안(L)화상 및 우안(R)의 화상 데이터)으로부터, 선택된 전송 방식에 따른 합성 데이터(도 11(a) ~ (c), 도 12(a) ~ (c)참조)를 생성한 처리를 행한다. 또, 그 경우, 상술의 텔레비전 수신기(250)의 3D 신호 처리부(254)는, 합성 데이터로부터 좌안(L)화상 데이터 및 우안(R)화상 데이터를 분리 추출하는 처리를 행한다.
다음에, 상술한 방식(1) ~ (6)에 있어서 전송 데이터 및 그 패킹 포맷에 관하여 설명한다.
도 13은, 방식(1)의 TMDS 전송 데이터 예를 나타내고 있다. 이 경우, 1920 픽셀×1080 라인의 액티브 비디오 구간에, 3840 픽셀(화소)×1080 라인 부분의 유효 픽셀(Active pixel)의 데이터(좌안(L)화상 데이터 및 우안(R)화상 데이터의 합성 데이터)가 배치된다.
도 14는, HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(1)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 나타내고 있다. 화상 데이터의 전송 방식으로서, RGB4: 4:4 와 YCbCr 4: 4: 4 의 2 길을 나타내고 있다. 여기에서, TMDS 클록과 픽셀(Pixel)클록의 관계는, TMDS 클록=2×픽셀 클록의 관계가 되어 있다.
RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서 각 픽셀(화소)의 전반의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다. 또, 이 RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서 각 픽셀(화소)의 후반의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다.
YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서 각 픽셀(화소)의 전반의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다. 또, 이 YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서 각 픽셀(화소)의 후반의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다.
또한, 이 방식(1)에 있어서는, 각 픽셀의 전반의 데이터 영역에 좌안 화상 데이터를 배치하고, 각 픽셀의 후반의 데이터 영역에 우안 화상 데이터를 배치해도 좋다.
도 15는, 방식(2)의 TMDS 전송 데이터 예를 나타내고 있다. 이 경우, 1920 픽셀×2160 라인의 액티브 비디오 구간에, 1920 픽셀(화소)×2160 라인 부분의 유효 픽셀(Active pixel)의 데이터(좌안(L)화상 데이터 및 우안(R)화상 데이터의 합 성 데이터)가 배치된다.
도 16은, HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(2)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 나타내고 있다. 화상 데이터의 전송 방식으로서, RGB 4: 4: 4 와 YCbCr 4: 4: 4 의 2 길을 나타내고 있다. 여기에서, TMDS 클록과 픽셀(Pixel)클록의 관계는, TMDS 클록=픽셀 클록의 관계가 되어 있다.
RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 홀수 라인의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다. 또, 이 RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 짝수 라인의 각 픽셀(화소)의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다.
YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 홀수 라인의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다. 또, 이 YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 짝수 라인의 각 픽셀(화소)의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다.
또한, 이 방식(2)에 있어서는, 홀수 라인에 우안 화상 데이터를 배치하고, 짝수 라인에 좌안 화상 데이터를 배치해도 좋다.
도 17은, 방식(3)의 TMDS 전송 데이터 예를 나타내고 있다. 이 경우, 홀수 필드의 1920 픽셀×1080 라인의 액티브 비디오 구간에, 1920 픽셀(화소)×1080 라인 부분의 유효 픽셀(Active pixel)의 좌안(L)화상 데이터가 배치된다. 또, 짝수 필드의 1920 픽셀×1080 라인의 액티브 비디오 구간에, 1920 픽셀(화소)×1080 라인 부분의 유효 픽셀(Active pixel)의 우안(R)화상 데이터가 배치된다.
도 18, 도 19는, HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(3)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 나타내고 있다. 화상 데이터의 전송 방식으로서, RGB 4: 4: 4 와 YCbCr 4: 4: 4 의 2 길을 나타내고 있다. 여기에서, TMDS 클록과 픽셀(Pixel)클록의 관계는, TMDS 클록=픽셀 클록의 관계가 되어 있다.
RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 홀수 필드의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다. 또, 이 RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 짝수 필드의 각 픽셀(화소)의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다.
YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 홀수 필드의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색 차(Cr) 데이터가 배치되고 있다. 또, 이 YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 짝수 필드의 각 픽셀(화소)의 후반의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다.
또한, 이 방식(3)에 있어서는, 홀수 필드의 각 픽셀의 데이터 영역에 우안 화상 데이터를 배치하고, 짝수 필드의 각 픽셀의 데이터 영역에 좌안 화상 데이터를 배치해도 좋다.
도 20은, 방식(4)의 TMDS 전송 데이터 예를 나타내고 있다. 이 경우, 1920 픽셀×1080 라인의 액티브 비디오 구간에, 1920 픽셀(화소)×1080 라인 부분의 유효 픽셀(Active pixel)의 데이터(좌안(L)화상 데이터 및 우안(R)화상 데이터의 합성 데이터)가 배치된다.
또한, 이 방식(4)의 경우, 상술했던 것처럼, 좌안 화상 데이터 및 우안 화상 데이터는, 각각, 수직 방향의 라인이 1/2로 솎아 내진다. 여기에서, 전송해야 할 좌안 화상 데이터는 홀수 라인 또는 짝수 라인의 어느 한쪽이고, 마찬가지로, 전송해야 할 우안 화상 데이터는 홀수 라인 또는 짝수 라인의 어느 한쪽이다. 따라서 조합으로서는, 좌안 화상 데이터 및 우안 화상 데이터의 쌍방 모두 홀수 라인, 좌안 화상 데이터 및 우안 화상 데이터의 쌍방 모두 짝수 라인, 좌안 화상 데이터는 홀수 라인으로 우안 화상 데이터는 짝수 라인, 좌안 화상 데이터는 짝수 라인, 우안 화상 데이터는 홀수 라인의 4길이 있다. 도 20은, 좌안 화상 데이터는 홀수 라인으로 우안 화상 데이터는 짝수 라인의 경우를 나타내고 있다.
도 21은, HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(4)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 나타내고 있다. 화상 데이터의 전송 방식으로서, RGB 4: 4: 4 와 YCbCr 4: 4: 4 와 YCbCr 4: 2: 2 의 3 길을 나타내고 있다. 여기에서, TMDS 클록과 픽셀(Pixel)클록의 관계는, TMDS 클록=픽셀 클록의 관계가 되어 있다.
RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 홀수 라인의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다. 또, 이 RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 짝수 라인의 각 픽셀(화소)의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다.
YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 홀수 라인의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다. 또, 이 YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 짝수 라인의 각 픽셀(화소)의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다.
YCbCr 4: 2: 2 방식으로는, TMDS 채널(#0)에 있어서, 홀수 라인의 각 픽셀 (화소)의 데이터 영역에, 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 휘도(Y) 데이터의 비트(0) ~ 비트(3)의 데이터가 배치되고 있음과 동시에, 청색차(Cb) 데이터의 비트(0) ~ 비트(3)의 데이터와 적색차(Cr) 데이터의 비트(0) ~ 비트(3)의 데이터가 1픽셀마다 교대로 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#1)에 있어서, 홀수 라인의 각 픽셀(화소)의 데이터 영역에, 좌안(L)화상 데이터의 휘도(Y) 데이터의 비트(4) ~ 비트(11)의 데이터가 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#2)에 있어서, 홀수 라인의 각 픽셀(화소)의 데이터 영역에, 좌안(L)화상 데이터의 청색차(Cb) 데이터의 비트(4) ~ 비트(11)의 데이터와 적색차(Cr) 데이터의 비트(4) ~ 비트(11)의 데이터가 1픽셀마다 교대로 배치되고 있다.
또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#0)에 있어서, 짝수 라인의 각 픽셀(화소)의 데이터 영역에, 우안(R)화상 데이터의 픽셀 데이터를 구성하는 휘도(Y) 데이터의 비트(0) ~ 비트(3)의 데이터가 배치되고 있음과 동시에, 청색차(Cb) 데이터의 비트(0) ~ 비트(3)의 데이터와 적색차(Cr) 데이터의 비트(0) ~ 비트(3)의 데이터가 1픽셀마다 교대로 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#1)에 있어서, 짝수 라인의 각 픽셀(화소)의 데이터 영역에, 우안(R)화상 데이터의 휘도(Y) 데이터의 비트(4) ~ 비트(11)의 데이터가 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#2)에 있어서, 짝수 라인의 각 픽셀(화소)의 데이터 영역에, 우안(R)화상 데이터의 청색차(Cb) 데이터의 비트(4) ~ 비트(11)의 데이터와 적색차(Cr) 데이터의 비트(4) ~ 비트(11)의 데이터가 1픽셀마 다 교대로 배치되고 있다.
또한, 이 방식(4)에 있어서는, 홀수 라인에 우안 화상 데이터를 배치하고, 짝수 라인에 좌안 화상 데이터를 배치해도 좋다.
도 22는, 방식(5)의 TMDS 전송 데이터 예를 나타내고 있다. 이 경우, 1920 픽셀×1080 라인의 액티브 비디오 구간에, 1920 픽셀(화소)×1080 라인 부분의 유효 픽셀(Active pixel)의 데이터(좌안(L)화상 데이터 및 우안(R)화상 데이터의 합성 데이터)가 배치된다.
또한, 이 방식(5)의 경우, 상술했던 것처럼, 좌안 화상 데이터 및 우안 화상 데이터는, 각각, 수직 방향의 라인이 1/2로 솎아 내진다. 여기에서, 전송해야 할 좌안 화상 데이터는 홀수 라인 또는 짝수 라인의 어느 한쪽이고, 마찬가지로, 전송해야 할 우안 화상 데이터는 홀수 라인 또는 짝수 라인의 어느 한쪽이다. 따라서 조합으로서는, 좌안 화상 데이터 및 우안 화상 데이터의 쌍방 모두 홀수 라인, 좌안 화상 데이터 및 우안 화상 데이터의 쌍방 모두 짝수 라인, 좌안 화상 데이터는 홀수 라인으로 우안 화상 데이터는 짝수 라인, 좌안 화상 데이터는 짝수 라인, 우안 화상 데이터는 홀수 라인의 4길이 있다. 도 22는, 좌안 화상 데이터는 홀수 라인으로 우안 화상 데이터는 짝수 라인의 경우를 나타내고 있다.
도 23, 도 24는, HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(5)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 나타내고 있다. 화상 데이터의 전송 방식으로서, RGB 4: 4: 4 와 YCbCr 4: 4: 4 와 YCbCr 4: 2: 2 의 3 길을 나타내고 있다. 여기에서, TMDS 클록과 픽셀(Pixel)클록의 관계는, TMDS 클록=픽셀 클록의 관계가 되어 있다.
RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 수직 전반의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다. 또, 이 RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 수직 후반의 각 픽셀(화소)의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다.
YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 수직 전반의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다. 또, 이 YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 수직 후반의 각 픽셀(화소)의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다.
YCbCr 4: 2: 2 방식으로는, TMDS 채널(#0)에 있어서, 수직 전반의 각 픽셀(화소)의 데이터 영역에, 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 휘도(Y) 데이터의 비트(0) ~ 비트(3)의 데이터가 배치되고 있음과 동시에, 청색차(Cb) 데이터의 비트(0) ~ 비트(3)의 데이터와 적색차(Cr) 데이터의 비트(0) ~ 비트(3)의 데이터가 1픽셀마다 교대로 배치되고 있다.
또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#1)에 있어서, 수직 전반의 각 픽셀(화소)의 데이터 영역에, 좌안(L)화상 데이터의 휘도(Y) 데이터의 비트(4) ~ 비트(11)의 데이터가 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#2)에 있어서, 수직 전반의 각 픽셀(화소)의 데이터 영역에, 좌안(L)화상 데이터의 청색차(Cb) 데이터의 비트(4) ~ 비트(11)의 데이터와 적색차(Cr) 데이터의 비트(4) ~ 비트(11)의 데이터가 1픽셀마다 교대로 배치되고 있다.
또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#0)에 있어서, 수직 후반의 각 픽셀(화소)의 데이터 영역에, 우안(R)화상 데이터의 픽셀 데이터를 구성하는 휘도(Y) 데이터의 비트(0) ~ 비트(3)의 데이터가 배치되고 있음과 동시에, 청색차(Cb) 데이터의 비트(0) ~ 비트(3)의 데이터와 적색차(Cr) 데이터의 비트(0) ~ 비트(3)의 데이터가 1픽셀마다 교대로 배치되고 있다.
또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#1)에 있어서, 수직 후반의 각 픽셀(화소)의 데이터 영역에, 우안(R)화상 데이터의 휘도(Y) 데이터의 비트(4) ~ 비트(11)의 데이터가 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#2)에 있어서, 수직 후반의 각 픽셀(화소)의 데이터 영역에, 우안(R)화상 데이터의 청색차(Cb) 데이터의 비트(4) ~ 비트(11)의 데이터와 적색차(Cr) 데이터의 비트(4) ~ 비트(11)의 데이터가 1픽셀마다 교대로 배치되고 있다.
또한, 이 방식(5)에 있어서는, 수직 전반의 각 픽셀의 데이터 영역에 우안 화상 데이터를 배치하고, 수직 후반의 각 픽셀의 데이터 영역에 좌안 화상 데이터를 배치해도 좋다.
도 25는, 방식(6)의 TMDS 전송 데이터 예를 나타내고 있다. 이 경우, 1920 픽셀×1080 라인의 액티브 비디오 구간에, 1920 픽셀(화소)×1080 라인 부분의 유효 픽셀(Active pixel)의 데이터(좌안(L)화상 데이터 및 우안(R)화상 데이터의 합성 데이터)가 배치된다.
또한, 이 방식(6)의 경우, 상술했던 것처럼, 좌안 화상 데이터 및 우안 화상 데이터는, 각각, 수평 방향의 픽셀 데이터가 1/2로 솎아 내진다. 여기에서, 전송해야 할 좌안 화상 데이터는 홀수 픽셀 또는 짝수 픽셀의 어느 한쪽이고, 마찬가지로, 전송해야 할 우안 화상 데이터는 홀수 픽셀 또는 짝수 픽셀의 어느 한쪽이다. 따라서 조합으로서는, 좌안 화상 데이터 및 우안 화상 데이터의 쌍방 모두 홀수 픽셀, 좌안 화상 데이터 및 우안 화상 데이터의 쌍방 모두 짝수 픽셀, 좌안 화상 데이터는 홀수 픽셀로 우안 화상 데이터는 짝수 픽셀, 좌안 화상 데이터는 짝수 픽셀, 우안 화상 데이터는 홀수 픽셀의 4길이 있다.
도 26은, HDMI의 3개의 TMDS 채널(#0, #1, #2)로, 방식(6)의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 나타내고 있다. 화상 데이터의 전송 방식으로서, RGB 4: 4: 4 와 YCbCr 4: 4: 4 와 YCbCr 4: 2: 2 의 3 길을 나타내고 있다. 여기에서, TMDS 클록과 픽셀(Pixel)클록의 관계는, TMDS 클록=픽셀 클록의 관계가 되어 있다.
RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 수평 전반의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데 이터가 배치되고 있다. 또, 이 RGB 4: 4: 4 의 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 수평 후반의 각 픽셀(화소)의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색(B) 데이터, 8 비트의 녹색(G) 데이터, 8 비트의 적색(R) 데이터가 배치되고 있다.
YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 수평 전반의 각 픽셀(화소)의 데이터 영역에, 각각 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다. 또, 이 YCbCr 4: 4: 4 방식으로는, TMDS 채널(#0, #1, #2)에 있어서, 수평 후반의 각 픽셀(화소)의 데이터 영역에, 각각 우안(R)화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다.
YCbCr 4: 2: 2 방식으로는, TMDS 채널(#0)에 있어서, 수평 전반의 각 픽셀(화소)의 데이터 영역에, 좌안(L)화상 데이터의 픽셀 데이터를 구성하는 휘도(Y) 데이터의 비트(0) ~ 비트(3)의 데이터가 배치되고 있음과 동시에, 청색차(Cb) 데이터의 비트(0) ~ 비트(3)의 데이터와 적색차(Cr) 데이터의 비트(0) ~ 비트(3)의 데이터가 1픽셀마다 교대로 배치되고 있다.
또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#1)에 있어서, 수평 전반의 각 픽셀(화소)의 데이터 영역에, 좌안(L)화상 데이터의 휘도(Y) 데이터의 비트(4) ~ 비트(11)의 데이터가 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#2)에 있어서, 수평 전반의 각 픽셀(화소)의 데이터 영역에, 좌안(L)화상 데이터의 청색차(Cb) 데이터의 비트(4) ~ 비트(11)의 데이터와 적색차(Cr) 데이터의 비트(4) ~ 비트(11)의 데이터가 1픽셀마다 교대로 배치되고 있다.
또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#0)에 있어서, 수평 후반의 각 픽셀(화소)의 데이터 영역에, 우안(R)화상 데이터의 픽셀 데이터를 구성하는 휘도(Y) 데이터의 비트(0) ~ 비트(3)의 데이터가 배치되고 있음과 동시에, 청색차(Cb) 데이터의 비트(0) ~ 비트(3)의 데이터와 적색차(Cr) 데이터의 비트(0) ~ 비트(3)의 데이터가 1픽셀마다 교대로 배치되고 있다.
또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#1)에 있어서, 수평 후반의 각 픽셀(화소)의 데이터 영역에, 우안(R)화상 데이터의 휘도(Y) 데이터의 비트(4) ~ 비트(11)의 데이터가 배치되고 있다. 또, YCbCr 4: 2: 2 방식으로는, TMDS 채널(#2)에 있어서, 수평 후반의 각 픽셀(화소)의 데이터 영역에, 우안(R)화상 데이터의 청색차(Cb) 데이터의 비트(4) ~ 비트(11)의 데이터와 적색차(Cr) 데이터의 비트(4) ~ 비트(11)의 데이터가 1픽셀마다 교대로 배치되고 있다.
또한, 이 방식(6)에 있어서는, 수평 전반의 각 픽셀의 데이터 영역에 우안 화상 데이터를 배치하고, 수평 후반의 각 픽셀의 데이터 영역에 좌안 화상 데이터를 배치해도 좋다.
다음에, 원신호의 3D 화상 데이터가, 2차원(2D)화상 데이터(도 27(a)참조) 및 각 픽셀에 대응한 심층 데이터(도 27(b)참조)로 구성되는, MPEG-C 방식의 경우에 관하여 설명한다.
이 MPEG-C 방식의 경우, 4 : 4 : 4 방식의 2차원 화상 데이터를 4 : 2 : 2 방식에 변환하고, 빈 영역에, 심층 데이터를 배치하고, 2차원 화상 데이터 및 심층 데이터의 합성 데이터를 HDMI의 TMDS 채널로 전송한다. 즉, 이 경우, 각 픽셀(화상)의 데이터 영역에, 2차원 화상 데이터를 구성한 픽셀 데이터 및 이 픽셀 데이터에 대응한 심층 데이터가 배치된다.
도 28은, MPEG-C 방식의 TMDS 전송 데이터 예를 나타내고 있다. 이 경우, 1920 픽셀×1080 라인의 액티브 비디오 구간에, 1920 픽셀(화소)×1080 라인 부분의 유효 픽셀(Active pixel)의 데이터( 2차원 화상 데이터 및 심층 데이터의 합성 데이터)가 배치된다.
도 29는, HDMI의 3개의 TMDS 채널(#0, #1, #2)로, MPEG-C 방식의 3D 화상 데이터를 전송하는 때의 패킹 포맷 예를 나타내고 있다. 여기에서, TMDS 클록과 픽셀(Pixel)클록의 관계는, TMDS 클록=픽셀 클록의 관계가 되어 있다.
도 29(a)는, YCbCr 4: 4: 4 방식의 2차원 화상 데이터의 패킹 포맷을, 비교를 위해 나타내고 있다. TMDS 채널(#0, #1, #2)에 있어서 각 픽셀(화소)의 데이터 영역에, 각각 2차원 화상 데이터의 픽셀 데이터를 구성하는 8 비트의 청색차(Cb) 데이터, 8 비트의 휘도(Y) 데이터, 8 비트의 적색차(Cr) 데이터가 배치되고 있다.
도 29(b)는, 2차원 화상 데이터 및 심층 데이터의 합성 데이터의 패킹 포맷을 나타내고 있다. TMDS 채널(#0)에 있어서 각 픽셀(화소)의 데이터 영역에, 8 비트의 청색차(Cb) 데이터와 8 비트의 적색차(Cr) 데이터가 1픽셀마다 교대로 배치되고 있다. 또, TMDS 채널(#1)에 있어서 각 픽셀(화소)의 데이터 영역에, 8 비트의 휘도(Y) 데이터가 배치되고 있다. 또, TMDS 채널(#2)에 있어서 각 픽셀(화소)의 데이터 영역에, 8 비트의 심층 데이터(D)가 배치되고 있다.
이처럼, 1픽셀 클록으로, 8 비트의 휘도 신호 및8 비트의 심층 데이터를 전송하기 때문에, 도 29(b)에 나타내는 방식을, 「YCbCrD 4: 2: 2:4」방식이라고 부른다. 이 방식으로는, 색 신호차 Cb, Cr의 픽셀 데이터는 1/2로 솎아 내지고 있는 것에 대하여 심층 데이터에 관해서는 솎아 냄을 행하고 있지 않다. 이것은, 심층 데이터는 휘도(Y) 데이터에 관련된 8 비트 데이터이고, 솎아 내지 않고 휘도(Y) 데이터와 동등의 품위를 유지할 필요가 있는 것에 의한다.
상술의 디스크 플레이어(210)의 3D 신호 처리부(인코드 부)229는, MPEG-C 방식이 선택된 경우, 원신호의 3D 화상 데이터( 2차원 화상 데이터 및 심층 데이터)로부터, 상술의 「YCbCrD 4: 2: 2:4」방식에 대응한 합성 데이터를 생성한 처리를 행한다. 또, 그 경우, 상술의 텔레비전 수신기(250)의 3D 신호 처리부(디코드 부)254는, 도 30(a)에 나타내는「YCbCrD 4: 2: 2:4」방식의 합성 데이터로부터, 2차원 화상 데이터와 심층 데이터를 분리 추출한다. 그리고, 3D 신호 처리부(254)는, 2차원 화상 데이터에 관해서는, 도 30(b)에 나타내듯이 색차 데이터 Cb, Cr에 보간 처리를 행하고, YCbCr 4: 4: 4 방식의 2차원 화상 데이터로 변환한다. 또한, 3D 신호 처리부(254)는, 2차원 화상 데이터와 심층 데이터를 이용한 연산을 행하고, 좌안(L)화상 데이터 및 우안(R)화상 데이터를 생성한다.
도 1에 나타내는 AV 시스템(200)에 있어, 디스크 플레이어(210)의 CPU(214)는, 텔레비전 수신기(250)의 HDMI 수신부(252)로부터 판독한 E-EDID에 근거하고, 텔레비전 수신기(250)가 대응 가능한 3D 화상 데이터의 전송 방식 등을 인식한다.
도 31은, E-EDID의 데이터 구조예를 나타내고 있다. 이 E-EDID는, 기본 블록과 확장 블록으로 되고 있다. 기본 블록의 선두에는, “E- EDID1. 3 Basic Structure”로 표시되는 E- EDID1. 3의 규격으로 정해진 데이터가 배치되고, 계속되고“Preferred timing”로 표시되는 종래의 EDID와의 상호 교환성을 유지하기 위한 타이밍 정보 및“2nd timing”로 표시되는 종래의 EDID와의 상호 교환성을 유지하기 위한“Preferred timing”와는 다른 타이밍 정보가 배치되고 있다.
또, 기본 블록에는, “2nd timing”에 계속되고, “Monitor NAME”로 표시되는 표시 장치의 이름을 나타내는 정보 및“Monitor Range Limits”로 표시되는, 종횡비가 4 : 3 및 16 : 9인 경우에 관한 표시 가능한 픽셀삭을 나타내는 정보가 순번대로 배치되고 있다.
확장 블록의 선두에는, “Short Video Descriptor”가 배치되고 있다. 이것은, 표시 가능한 화상 사이즈(해상도), 프레임 레이트, 인터레이스인지 프로그렉시브인지를 나타내는 정보이다. 이어서, “Short Audio Descriptor”가 배치되고 있다. 이것은 재생 가능한 음성 코덱 방식, 샘플링 주파수, 컷오프대역, 코덱비트 수 등의 정보이다. 이어서, “Speaker Allocation”로 표시되는 좌우의 스피커에 관한 정보가 배치되고 있다.
또, 확장 블록에는, “Speaker Allocation”에 이어서, “Vender Specific”로 표시되는 메이커마다 고유하게 정의된 데이터, “3rd timing”로 표시되는 종래의 EDID와의 상호 교환성을 유지하기 위한 타이밍 정보 및“4th timing”로 표시되 는 종래의 EDID와의 상호 교환성을 유지하기 위한 타이밍 정보가 배치되고 있다.
이 실시의 형태에 있어서는, 이 Vender Specific 영역에, 3D(입체)화상 정보를 기억하기 때문에 확장한 데이터 지역을 정의한다. 도 32는, Vender Specific 영역의 데이터 구조예를 나타내고 있다. 이 Vender Specific 영역에는, 1 바이트의 블록제 0 블록 내지 제 N 블록이 마련되어 있다. 이미 정의된 제 0 바이트로부터 제 7 바이트에 계속된 제 8 바이트로부터 제 11 바이트에, 싱크 기기(이 실시의 형태로는, 텔레비전 수신기(250))가 기억해 두는 것이 당연한 3D 화상·음성 정보의 데이터 영역을 정의한다.
우선, 제 0 바이트로부터 제 7 바이트에 관하여 설명한다. “Vender Specific”로 표시되는 데이터의 선두에 배치된 제 0 바이트에는, “Vendor-Specific tag code(= 3) ”로 표시되는 데이터“Vender Specific”의 데이터 영역을 나타내는 헤더 및“Length(= N) ”로 표시되는 데이터“Vender Specific”의 길이를 나타내는 정보가 배치된다.
또, 제 1 바이트 내지 제 3 바이트에는, “24bit IEEE Registration Identifier(0x000C03) LSB first”로 표시되는 HDMI(R)용으로서 등록된 번호“0x000C03“을 나타내는 정보가 배치된다. 또한, 제 4 바이트 및 제 5 바이트에는, "A", "B", "C" 및 "D"의 각각에 의해 표시되는, 24bit의 싱크 기기의 물리 어드레스를 나타내는 정보가 배치된다.
제 6 바이트에는, “Supports- AI”로 표시되는 싱크 기기가 대응하고 있는 기능을 나타내는 플래그, “DC- 48bit”, “DC- 36bit” 및“DC- 30bit”의 각각으 로 표시되는 1픽셀 해당의 비트 수를 지정한 정보의 각각, “DC- Y444”로 표시되는, 싱크 기기가 YCbCr4 : 4 : 4의 화상의 전송에 대응하고 있는지를 나타내는 플래그 및“DVI- Dual”로 표시되는, 싱크 기기가 듀얼 DVI(Digital VisualInterface)에 대응하고 있는지를 나타내는 플래그가 배치되고 있다.
또, 제 7 바이트에는, “Max- TMDS- Clock”로 표시되는 TMDS의 픽셀 클록의 최대의 주파수를 나타내는 정보가 배치된다.
다음에, 제 8 바이트로부터 제 11 바이트에 관하여 설명한다. 제 8 바이트로부터 제 10 바이트에는, 3D 화상에 관한 정보가 기억되고 있다. 제 8 바이트로는 RGB 4: 4: 4 데노 대응을, 제 9 바이트로는 YCbCr 4: 4: 4 데노 대응을, 제 10 바이트로는 YCbCr 4: 2: 2 데노 대응을 나타내고 있다. 제 8 바이트로부터 제 10 바이트의 각각의 제 7 비트로부터 제 1 비트에는, 싱크 기기가 대응하고 있는 3D 화상의 6길(상술의 방식(1) ~ (6))의 비디오 포맷(RGB 4: 4: 4 포맷, YCbCr 4: 4: 4 포맷, YCbCr 4: 2: 2 포맷)을 나타내는 데이터가 기록된다.
제 7 비트로는, 좌안 화상 데이터의 픽셀 데이터와 우안 화상 데이터의 픽셀 데이터를 TMDS 클록마다 순차적으로 바꾸어 전송하는 방식(방식(1) :「Pixel ALT」)에 대응하고 있는지 아닌지를 나타낸다. 제 6 비트로는, 좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식(방식(2) :「Simul」)에 대응하고 있는지 아닌지를 나타낸다.
제 5 비트로는, 좌안 화상 데이터와 우안 화상 데이터를 필드마다 순차적으로 바꾸어 전송하는 방식(방식(3) :「Field Seq.」)에 대응하고 있는지 아닌지를 나타낸다. 제 4 비트로는, 좌안 화상 데이터와 우안 화상 데이터를 각각 수직 방향에 1/2로 솎아 내고, 좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식(방식(4) :「LineSeq.」)에 대응하고 있는지 아닌지를 나타낸다.
제 3 비트로는, 좌안 화상 데이터와 우안 화상 데이터를 각각 수직 방향에 1/2로 솎아 내고, 전반으로는 좌안 화상 데이터의 각 라인의 데이터를 전송하고, 후반으로는 좌안 화상 데이터의 각 라인의 데이터를 전송하는 방식(방식(5) :「Top & Bottom」)에 대응하고 있는지 아닌지를 나타낸다. 제 2 비트로는, 좌안 화상 데이터와 우안 화상 데이터를 각각 수평 방향에 1/2로 솎아 내고, 전반으로는 좌안 화상 데이터의 각 픽셀 데이터를 전송하고, 후반으로는 좌안 화상 데이터의 각 픽셀의 데이터를 전송하는 방식(방식(6) :「Side by Side」)에 대응하고 있는지 아닌지를 나타낸다.
제 1 비트로는, MPEG-C로 규정된 2차원 화상(본 화상) 및 심층 데이터에 의한 전송 방식(MPEG-C 방식)에 대응하고 있는지 아닌지를 나타낸다. 그 이후의 비트는, 이것 이외의 방식이 제안된 경우에, 할당이 가능해지고 있다.
제 11 바이트에는, 3D 음성에 관한 정보가 기억된다. 제 7 비트로부터 제 5 비트에 싱크 기기가 대응하고 있는 3D 음성의 전송 형식을 나타낸다. 예로서, 제 7 비트로는, 방식A에의 대응, 제 6 비트로는 방식B에의 대응, 제 5 비트로는 방식(C)에의 대응을 나타낸다. 그 이후의 비트는 이것 이외의 방식이 제안된 경우에, 할당이 가능해지고 있다. 또한, 방식(A) ~ (C)에 관한 설명은 생략한다.
도 1에 가리키는 AV 시스템(200)에 있어, 디스크 플레이어(210)의 CPU(214)는, HPD 라인으로, 텔레비전 수신기(싱크 기기;250)의 접속을 확인한 후, DDC를 이용하고, 텔레비전 수신기(250)로부터 E-EDID, 따라서 3D 화상·음성 정보를 해독하고, 텔레비전 수신기(싱크 기기)가 대응한 3D 화상·음성 데이터의 전송 방식을 인식한다.
도 1에 가리키는 AV 시스템(200)에 있어, 디스크 플레이어(소스 기;210)는, 3D 화상·음성의 데이터(3D 화상 데이터, 3D 음성 데이터)를 텔레비전 수신기(싱크 기기;250)에 전송하는 때, 종전에 상술했던 것처럼 텔레비전 수신기(250)로부터 판독 3D 화상·음성 정보에 근거하고, 텔레비전 수신기(250)가 대응 가능한 3D 화상·음성 데이터의 전송 방식 중 어느 쪽인지를 선택하고, 전송한다.
그 때, 디스크 플레이어(소스 기기;210)은, 텔레비전 수신기(싱크 기기;250)에, 현재 전송하고 있는 화상·음성 포맷에 관한 정보를 송신한다. 이 경우, 디스크 플레이어(210)는, 텔레비전 수신기(250)에 송신한 3D 화상 데이터(영상 신호)의 블랭킹 기간에 그 정보를 삽입하는 것으로, 해당 정보를 텔레비전 수신기(250)에 송신한다. 여기에서, 디스크 플레이어(210)는, 예를 들면, HDMI의 AVI(Auxiliary Video Information)Info Frame 패킷, Audio Info Frame 패킷 등을 이용하고, 현재 전송하고 있는 화상·음성 포맷에 관한 정보를 3D 화상 데이터의 블랭킹 기간에 삽입한다.
AVI Info Frame 패킷은, 상술한 데이터 아일랜드 구간에 배치된다. 도 33은, AVI Info Frame 패킷의 데이터 구조예를 나타내고 있다. HDMI로는, 해당 AVI Info Frame 패킷에 의해 화상에 관한 부대 정보를 소스 기기로부터 싱크 기기로 전송 가능해하게 되어 있다.
제 0 바이트에 데이터 패킷의 종류를 나타내는「Packet Type」가 정의되고 있다. AVI Info Frame 패킷의 「Packet Type」는 「0x82」로 되어 있다. 제 1 바이트에 패킷 데이터 정의의 버전 정보를 기술한다. AVI Info Frame 패킷은, 현재「0x02」이지만, 이 발명으로 3D 화상 데이터의 전송 방식을 정의한 경우는, 도시와 같이「0x03」가 된다. 제 2 바이트에, 패킷 장을 나타내는 정보를 기술한다. AVI Info Frame 은, 현재「0x0D」이지만, 이 발명으로 3D 화상 출력 포맷 정보가 제 17 바이트에 정의한 경우는, 도시와 같이, 「0x0E」가 된다. AVI Info Frame 의 각각은, CEA-861-DSection6-4 로 정의되고 있기 때문에 생략한다.
제 17 바이트에 관하여 설명한다. 제 17 바이트는, 소스 기기(이 실시의 형태로는, 디스크 플레이어(210))가 선택한 3D 화상 데이터의 전송 방식의 어느 한쪽 1개를 지정한다. 제 7 비트로는, 좌안 화상 데이터의 픽셀 데이터와 우안 화상 데이터의 픽셀 데이터를 TMDS 클록마다 순차적으로 바꾸어 전송하는 방식(방식(1) :「Pixel ALT」)을 나타낸다. 제 6 비트로는, 좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식(방식(2) :「Simul」)을 나타낸다.
제 5 비트로는, 좌안 화상 데이터와 우안 화상 데이터를 필드마다 순차적으로 바꾸어 전송하는 방식(방식(3) :「Field Seq.」)을 나타낸다. 제 4 비트로는, 좌안 화상 데이터와 우안 화상 데이터를 각각 수직 방향에 1/2로 솎아 내고, 좌안 화상 데이터의 1라인 부분과 우안 화상 데이터의 1라인 부분을 교대로 전송하는 방식(방식(4) :「Line Seq.」)을 나타낸다. 제 3 비트로는, 좌안 화상 데이터와 우안 화상 데이터를 각각 수직 방향에 1/2로 솎아 내고, 전반으로는 좌안 화상 데이터의 각 라인의 데이터를 전송하고, 후반으로는 좌안 화상 데이터의 각 라인의 데이터를 전송하는 방식(방식(5) :「Top & Bottom」)을 나타낸다.
제 2 비트로는, 좌안 화상 데이터와 우안 화상 데이터를 각각 수평 방향에 1/2로 솎아 내고, 전반으로는 좌안 화상 데이터의 각 픽셀 데이터를 전송하고, 후반으로는 좌안 화상 데이터의 각 픽셀의 데이터를 전송하는 방식(방식(6) :「Side by Side」)을 나타낸다. 제 1 비트로는, MPEG-C로 규정된 2차원 화상과 심층 데이터에 의한 전송 방식(MPEG-C 방식)의 선택을 나타낸다.
따라서 싱크 기기(이 실시의 형태로는, 텔레비전 수신기(250))는, 제 7 비트로부터 제 1 비트의 어느 한쪽의 비트가 설정되고 있는 경우에, 3D 화상 데이터가 전송되고 있다고 판정할 수 있다. 또한, 방식(1)으로는 3840×1080이라고 말한 영상 포맷을 이용하고, 방식(2)으로는 1920×2160이라고 말한 영상 포맷을 이용한다. 그 때문에, AVI Info Frame 의 제 7 바이트의 VIC6으로부터 VIC0 비트로 지정된 영상 포맷에, 도 34로 나타낼 것 같은 영상 포맷 중(속)에서, 방식에 대응한 것을 선택한다. 또한, AVI Info Frame 의 제 4 바이트의 제 6 비트와 제 5 비트로 RGB 4: 4: 4, YCbCr 4: 4: 4, YCbCr 4: 2: 2 의 지정이 된다.
또, AVI Info Frame 와는 다른 패킷으로, Deep Color 정보를 전송하지 않으면 안된다. 그 때문에, 도 35에 나타내듯이 General Control Protocol 패킷의 CD3 으로부터 CD0의 비트로, 방식(1) ~ (3)의 경우는, 48 bit(0x7)을 지정한다.
Audio Info Frame 패킷은, 상술한 데이터 아일랜드 구간에 배치된다. 도 36은, Audio Info Frame 패킷의 데이터 구조를 나타내고 있다. HDMI로는, 해당 Audio Info Frame 패킷에 의해 음성에 관한 부대 정보를 소스 기기로부터 싱크 기기에 전송 가능해지고 있다.
제 0 바이트에 데이터 패킷의 종류를 나타내는「Packet Type」가 정의되고 있고, 이 발명으로 사용된다 Audio Info Frame 은 「0x84」로 되어 있다. 제 1 바이트에 패킷 데이터 정의의 버전 정보를 기술한다. Audio Info Frame 패킷은, 현재「0x01」이지만, 이 발명으로 3D 음성 데이터의 전송 방식을 정의한 경우는, 도시와 같이「0x02」가 된다. 제 2 바이트에, 패킷 장을 나타내는 정보를 기술한다. Audio Info Frame 은, 현재「0x0A」이다.
이 발명에 있어서 3D 음성 출력 포맷 정보는, 제 9 바이트에 정의된다. 제 7 비트로부터 제 5 비트에, 싱크 기기가 대응하고 있는 3D 음성 데이터의 전송 방식중, 선택된 전송 방식의 어느 한쪽 1개를 지정한다. 예로서, 제 7 비트는 방식(A), 제 6 비트는 방식(B), 제 5 비트는 방식(C)으로의 전송을 나타낸다.
다음에, 도 1에 나타내는 AV 시스템(200)에 있어, 디스크 플레이어(소스 기기;210)(CPU221)에 있어서, 텔레비전 수신기(싱크 기기)의 접속시의 처리에 관하여, 도 37의 플로차트를 참조하고 설명한다.
디스크 플레이어(210)는, 스텝(ST1)에 있어, 처리를 시작하고, 그 후에, 스텝(ST2)의 처리로 이전된다. 이 스텝(ST2)에 있어, 디스크 플레이어(210)는, HPD 신호가 하이 레벨「H」에 있는지 아닌지를 판정한다. HPD 신호가 하이 레벨「H」에 없을 때, 디스크 플레이어(210)에 텔레비전 수신기(싱크 기기;250)가 접속되고 있지 않다. 이 때, 디스크 플레이어(210)는, 곧, 스텝(ST8)으로 나가 처리를 종료한다.
HPD 신호가 하이 레벨「H」에 있는 때, 디스크 플레이어(210)는, 스텝(ST3)에 있어, 텔레비전 수신기(싱크 기기;250)의 E-EDID(도 31, 도 32 참조)를 판독한다. 그리고, 디스크 플레이어(210)는, 스텝(ST4)에 있어, 3D 화상·음성 정보가 있는지 아닌지를 판정한다.
3D 화상·음성 정보가 없는 때, 디스크 플레이어(210)는, 스텝(ST9)에 있어, AVI Info Frame 패킷 및 Audio Info Frame 패킷에 3D 화상·음성의 비 전송을 나타내는 데이터를 설정하고, 그 후에, 스텝(ST8)에 나아가고, 처리를 종료한다. 여기에서, 3D 화상·음성의 비 전송을 나타내는 데이터의 설정이란, AVI Info Frame 패킷(도 33 참조)의 제 17 바이트의 제 7 비트로부터 제 4 비트의 전부를 「0」에 설정하고, 또, Audio Info Frame 패킷(도 36 참조)의 제 9 바이트의 제 7 비트로부터 제 5 비트의 전부를 「0」으로 설정하는 것을 의미한다.
또, 스텝(ST4)에서 3D 화상·음성 정보가 있을 때, 디스크 플레이어(210)는, 스텝(ST5)에 있어, 3D 화상·음성 데이터의 전송 방식을 결정한다. 그리고, 디스크 플레이어(210)는, 스텝(ST6)에 있어, 3D 화상·음성 데이터의 전송 시작인지 아닌지를 판정한다. 3D 화상·음성의 전송 시작이 아닌 때, 디스크 플레이어(210)는, 스텝(ST9)에 있어, AVI Info Frame 패킷 및 Audio Info Frame 패킷에 3D 화상·음 성의 비 전송을 나타내는 데이터를 설정하고, 그 후에, 스텝(ST8)으로 나아가 처리를 종료한다.
스텝(ST6)에서 3D 화상·음성 데이터의 전송 시작인 때, 디스크 플레이어(210)는, 스텝(ST7)에 있어, AVI Info Frame 패킷 및 Audio Info Frame 패킷에, 3D 화상·음성 데이터의 전송 방식을 나타내는 데이터를 설정하고, 그 후에, 스텝(ST8)으로 나아가 처리를 종료한다.
다음에, 도 1에 나타내는 AV 시스템(200)에 있어, 디스크 플레이어(소스 기기;210)에 있어서 3D 화상 데이터의 전송 방식의 결정 처리(도 37의 스텝(ST5)의 처리)에 관하여, 도 38의 플로차트를 참조하고 설명한다.
디스크 플레이어(210)는, 스텝(ST1)1에 있어, 처리를 시작하고, 그 후에, 스텝(ST12)의 처리로 이전된다. 이 스텝(ST12)에 있어, 디스크 플레이어(210)는, Vender Specific 영역의 제 8부터 제 10 바이트의 제 7 비트로부터 제 5 비트가 설정되고 있는지 아닌지를 판단한다. 이러한 비트 설정에 관계된 전송 방식은, 가장 화질 품위가 높은 좌안 화상 및 우안 화상의 데이터를 열화 없이 전송하는 방식이고, 싱크 기기로의 처리가 가장 용이한 방식이다. 그 때문에, 제 7 비트로부터 제 5 비트가 설정되고 있는 때, 디스크 플레이어(210)는, 스텝(ST13)에 있어, 이러한 비트로 설정되고 있는 방식(1) ~ (3)의 전송 방식 중의 어느 한쪽에 전송 방식을 선택하고, 그 후에, 스텝(ST14)에 있어, 처리를 종료한다.
제 7 비트로부터 제 5 비트가 설정되고 있지않은 때, 디스크 플레이어(210)는, 스텝(ST15)의 처리로 이전된다. 이 스텝(ST15)에 있어, 디스크 플레이어(210) 는, Vender Specific 영역의 제 8로부터 제 10 바이트의 제 4 비트로부터 제 3 비트가 설정되고 있는지 아닌지를 판단한다. 이러한 비트 설정에 관계된 전송 방식은, 다음에 화질 품위가 높은 독립한 좌안 화상 및 우안 화상의 데이터를 라인마다 순차적으로 전송하는 방식으로, 싱크 기기의 처리가 2프레임 단위로 되고 메모리가 필요해진다. 제 4 비트로부터 제 3 비트가 설정되고 있는 때, 디스크 플레이어(210)는, 스텝(ST16)에 있어, 이러한 비트로 설정되고 있는 방식(4) 또는 (5)의 어느 한쪽 전송 방식을 선택하고, 그 후에, 스텝(ST14)에 있어 처리를 종료한다.
제 4 비트로부터 제 3 비트가 설정되고 있지않은 때, 디스크 플레이어(210)는, 스텝(ST17)의 처리로 이전된다. 이 스텝(ST17)에 있어, 디스크 플레이어(210)는, Vender Specific 영역의 제 8로부터 제 10 바이트의 제 2 비트가 설정되고 있는지 아닌지를 판단한다. 이 비트 설정에 관계된 전송 방식은, 다음에 화질 품위가 높은 독립한 좌안 화상 및 우안 화상의 데이터를 동일한 프레임 안에 「Side by Side」라고 불리는 방식으로 수평 해상도를 각각 반에 하여 전송하는 방식이고, 싱크 기기의 처리로 수평 해상도를 2배로 신장한 처리가 필요해진다. 제 2 비트가 설정되고 있는 때, 디스크 플레이어(210)는, 스텝(ST18)에 있어, 이 비트로 설정되고 있는 방식(6)의 전송 방식을 선택하고, 그 후에, 스텝(ST14)에 있어, 처리를 종료한다.
제 2 비트가 설정되고 있지않은 때, 디스크 플레이어(210)는, 스텝(ST19)의 처리로 이전된다. 이 스텝(ST19)에 있어, 디스크 플레이어(210)는, Vender Specific 영역의 제 8로부터 제 10 바이트의 제 1 비트가 설정되고 있는지 아닌지 를 판단한다. 이 비트 설정에 관계된 전송 방식은, 좌안 및 우안의 공통 화상 데이터인 2차원 화상 데이터와, 좌안 및 우안의 심층 데이터를 제각기 전송하는 MPEG-C 방식이다. 이 방식으로는, 싱크 기기의 처리에 의해 이들 2차원 화상 데이터 및 심층 데이터로부터 좌안 화상 데이터 및 우안 화상 데이터를 생성한 필요가 있고, 처리가 복잡하게 된다. 제 1 비트가 설정되고 있는 때, 디스크 플레이어(210)는, 스텝(ST20)에 있어, 이 비트로 설정되고 있는 MPEG-C 방식의 전송 방식을 선택하고, 그 후에, 스텝(ST14)에 있어, 처리를 종료한다.
제 1 비트가 설정되고 있지않은 때, 디스크 플레이어(210)는, 스텝(ST21)의 처리로 이전된다. 이 스텝(ST21)에 있어, 디스크 플레이어(210)는, 3D 화상 데이터의 전송 가능한 방식이 없다고 판단하고, 3D비 선택을 설정하고, 그 후에, 스텝(ST14)에 있어, 처리를 종료한다.
이상 설명했던 것처럼, 도 1에 나타내는 AV 시스템(200)에 있어서는, 디스크 플레이어(210)로부터 텔레비전 수신기(250)에, 3D 화상·음성 데이터를 송신한 때에, 디스크 플레이어(210)는, 송신한 3D 화상·음성 데이터의 전송 방식을, 텔레비전 수신기(250)가 대응 가능한 3D 화상·음성 데이터의 전송 방식 정보를 수신하고 송신한다. 또, 그 때에, 디스크 플레이어(210)는, 송신한 3D 화상·음성 데이터의 전송 방식 정보를 AVI Info Frame 패킷, Audio Info Frame 패킷을 이용하고, 텔레비전 수신기(250)에 송신한다. 따라서 디스크 플레이어(210)와 텔레비전 수신기(250)와의 사이에 둘 수 있는 3D 화상·음성 데이터의 전송을 양호하게 행할 수 있다.
또한, 상술 실시의 형태에 있어서는, 디스크 플레이어(소스 기기;210)는, 텔레비전 수신기(250)에 송신한 3D 화상·음성 데이터의 전송 방식 정보를 AVI Info Frame 패킷, Audio Info Frame 패킷을 이용하고, 화상 데이터(영상 신호)의 블랭킹 기간에 삽입하는 것으로, 텔레비전 수신기(250)에 송신하고 있다.
예를 들면, 디스크 플레이어(소스 기기:210)는, 텔레비전 수신기(250)에 송신한 3D 화상·음성 데이터의 전송 방식 정보를 HDMI 케이블(350)의 제어 데이터 라인인 CEC 라인(84)을 이용하고, 텔레비전 수신기(250)에 송신하도록 하여도 좋다. 또, 예를 들면, 디스크 플레이어(210)는, 텔레비전 수신기(250)에 송신한 3D 화상·음성 데이터의 전송 방식 정보를 HDMI 케이블(350)의 리저브 라인 및 HPD 라인으로 구성된 쌍방향 통신로를 통하여 텔레비전 수신기(250)에 송신하는 취하다고 하여도 좋다.
또, 상술 실시의 형태에 있어서는, 텔레비전 수신기(250)의 E-EDID에는, 해당 텔레비전 수신기(250)가 대응한 3D 화상·음성 데이터의 전송 방식 정보가 포함되고 있고, 디스크 플레이어(210)는, HDMI 케이블(350)의 DDC(83)를 이용해 E-EDID를 판독하는 것으로, 텔레비전 수신기(250)가 대응한 3D 화상·음성 데이터의 전송 방식 정보를 취득하도록 하고 있다.
그러나, 디스크 플레이어(210)는, 텔레비전 수신기(250)가 대응한 3D 화상·음성 데이터의 전송 방식 정보를 텔레비전 수신기(250)로부터, HDMI 케이블(350)의 제어 데이터 라인인 CEC 라인(84)을 이용하고, 또는 HDMI 케이블(350)의 리저브 라인 및 HPD 라인으로 구성된 쌍방향 통신로를 이용하고 수신하도록 하여도 좋다.
또한, 상술 실시의 형태는, HDMI의 전송로를 이용한 것을 나타내고 있다. 그러나, 전용선 접속 시스템 디지털 인터페이스로서는, HDMI외에, DVI(Digital Visual Interface), DP(Display Port) 인터페이스, 60GH 1-10밀리미터의 전파를 이용한 무선 인터페이스 등이 있다. 이 발명은, 이러한 디지털 인터페이스로, 3D 화상·음성 데이터를 전송하는 경우에도 마찬가지로 적용할 수 있다.
DVI의 경우, 상술한 HDMI와 마찬가지로, 수신 장치가 대응한 3D 화상·음성 데이터의 전송 방식은, 해당 수신 장치가 보유한 E-EDID라고 불리는 영역에 기억되고 있다. 따라서 이 DVI의 경우, 상술한 HDMI의 경우와 똑같이 하며, 송신 장치는, 3D 화상·음성 데이터를 수신 장치에 송신한 때에는, DDC(Display Data Channel)를 이용하고 수신 장치의 E-EDID로부터 상술의 3D 화상·음성 정보를 해독하고, 전송 방식을 정한 것을 할 수 있다.
도 39는, DP 인터페이스를 이용한 DP 시스템의 구성예를 나타내고 있다. 이 DP 시스템은, 디스플레이 포트 송신기기와 디스플레이 포트 수신기기가, DP 인터페이스에 의해 접속되고 있다. 그리고, 디스플레이 포트 송신기기는 디스플레이 포트 트랜스미터를 구비하고, 디스플레이 포트 수신기기는 디스플레이 포트 수신기를 구비하고 있다.
메인 링크는, 1개, 2개, 또는 4개의 이중 종단 차동 신호 페어(페어 레인)로 구성되고, 전용의 클록 신호는 갖지 않고, 대신에 8B/10B 부호화 데이터 스트림에 클록이 매입되고 있다. DP 인터페이스로는, 2개의 전송 속도가 정해져 있다. 1개는 페어 레인 해당의 대역폭이 2. 16Gbps로 있다. 또 1개는, 페어 레인 해당의 대역폭 이 1. 296Gbps로 있다. 따라서, 이 DP 인터페이스의 전송로에 있어서 논리상의 상한전송 비트 레이트는, 1 포트 당 2. 16Gbps이며, 최대 4 포트에서 8. 64Gbps이다.
이 DP 인터페이스에서는, HDMI와 달리, 전송 속도와 픽셀 주파수는 독립되어 있고, 픽셀의 깊이나 해상도, 프레임 주파수 및 전송 스트림 안의 음성 데이터나 DRM 정보 등의 부가 데이터의 유무 및 그 양을 자유롭게 조정할 수 있다.
또, DP 인터페이스에서는, 메인 링크와는 다르게, 대역폭 1M 비트 / 초, 최대 지연 500ms 의 반이중 쌍방향 의 외부(보조)채널이 있고, 이 쌍방향 통신에 의해 송신기기와 수신기기와의 사이의 기능에 관한 정보 교환을 행한다. 이 발명에서는, 이 외부(보조)채널을 이용하고 3D 화상·음성에 관한 정보의 전송을 행하다. 또한, 이 DP 인터페이스의 경우, 도시하고 있지 않지만, 수신기기가 대응한 3D 화상·음성 데이터의 전송 방식 정보는, HDMI와 동일한 EDID에 기록되고 있다. 핫 플러그 검지는, 접속처가 변경된 것을 검출하기 위해 구비되어 있다.
도 40은, 무선 인터페이스를 이용한 무선 시스템의 구성예를 나타내고 있다. 송신 장치는, 화상·음성 데이터의 재생부, 무선 송수신부, 기억부와, 이들을 제어하는제어부로 구성되고 있다. 또, 수신 장치는, 영상·음성의 출력부, 무선 송수신부, 기억부와, 이들을 제어하는 제어부로 구성되어 있다. 송신 장치와 수신 장치의 사이는, 무선 전송로로서 접속되고 있다.
이 발명에서는, 수신 장치가 대응 가능한 3D 화상·음성 데이터의 전송 방식의 정보는, 해당 수신 장치의 기억부에 기억되고 있고, 무선 전송로에서 송신 장치에 보내진다. 또, 송신 장치로부터의 3D 화상·음성 데이터의 전송 방식 정보는, 영상·음성·제어 신호로 다중화되어 무선 전송로에서 수신 장치로 보내진다.
케이블 혹은 무선에 의한 접속의 경우는, 각각의 전송로에서의 논리상의 상한 전송 레이트(HDMI에서는 10. 2Gbps, DVI로는 3. 96Gbps, DP로는 1 포트 당 2. 16Gbps로 최대4 포트의 8. 64Gbps, 기가 비트 Ether·광파이버는 1Gbps 혹은 10Gbps)가 규정되어 있다.
그러나, 이러한 전송로에서는, 전송로 길이나 전송로의 전기적 특성 등에 의해 상한 전송 레이트에 이르지 않는 것이 있으며, 송신 장치가 전송하려고 한 3D 화상 데이터의 전송에 필요로 되는 전송 레이트를 얻을 수 없는 경우가 있다. 그 때, 3D 화상 데이터의 전송 방식을 적절하게 선택할 필요가 있다.
도 41은, 전송로의 전송 레이트를 확인해 3D 화상 데이터의 전송 방식을 결정하는 전송 시스템(600)의 구성예를 나타내고 있다. 전송 시스템(600)은, 송신 장치(610) 및 수신 장치(650)가 전송로(660)에서 접속되는 구성으로 되어 있다.
송신 장치(610)는, 제어부(611), 기억부(612), 재생부(613), 3D 신호 처리부(614), 전송부(615)를 갖고 있다. 제어부(611)는, 송신 장치(610)의 각 부분의 동작을 제어한다. 재생부(613)는, 광디스크, HDD, 반도체 메모리 등의 기록 미디어로부터, 송신해야 할 3D 화상 데이터를 재생한다. 3D 신호 처리부(614)는, 재생부(613)로 재생된 3D 화상 데이터(예를 들면, 좌안 화상 데이터 및 우안 화상 데이터)를 제어부(611)로부터 지정된 전송 방식에 일치한 상태(도 11, 도 12, 도 28 참조)가 되도록 가공 처리한다.
전송부(615)는, 3D 신호 처리부(614)로 얻어진 3D 화상 데이터를 수신 장 치(650)에 송신한다. 또, 전송부(615)는, 송신한 3D 화상 데이터의 전송 방식 정보를 예를 들면, AVI Info Frame 패킷 등을 통하여 수신 장치(650)로 송신한다. 또, 전송부(615)는, 수신 장치(650)로부터 보내져 오는 해당 수신 장치(650)가 대응한 3D 화상 데이터의 전송 방식 정보 및 전송 레이트 정보를 수신하고, 제어부(611)에 공급한다.
수신 장치(650)는, 제어부(651), 기억부(652), 전송부(653), 3D 신호 처리부(654) 및 출력부(655) 및 검출부(656)를 갖고 있다. 제어부(611)는, 수신 장치(650)의 각 부분의 동작을 제어한다. 기억부(652)에는, 수신 장치(650)가 대응한 3D 화상 데이터의 전송 방식의 정보가 기억되고 있다.
전송부(653)는, 송신 장치(653)로부터 보내져 오는 3D 화상 데이터를 수신한다. 또, 전송부(653)는, 송신 장치(653)로부터 보내져 오는 3D 화상 데이터의 전송 방식 정보를 수신하고, 제어부(651)에 공급한다. 또, 전송부(653)는, 기억부(652)에 기억되고 있다, 수신 장치(650)가 대응한 3D 화상 데이터의 전송 방식 정보를 송신 장치(610)에 송신한다.
또, 전송부(653)는, 제어부(651)로 얻어지는 전송 레이트 정보를 송신 장치(610)에 송신한다. 즉, 검출부(656)는, 전송부(653)로부터 공급된 예를 들면 비트 에러 정보 등에 근거하고, 전송로(660)의 상태를 판정한다. 제어부(651)는, 검출부(656)의 판정 결과에 근거하고, 전송로(660)의 품위를 판단하고, 전송로(660)의 전송 레이트가, 송신 장치(610)로부터 통지된 3D 화상 데이터의 전송 방식으로 필요로 한 전송 레이트를 밑도는 경우, 그 취지를 나타내는 전송 레이트 정보를 전 송부(653)를 통하여 송신 장치(610)로 보낸다.
3D 신호 처리부(654)는, 전송부(653)로 수신된 3D 화상 데이터를 처리하고, 좌안 화상 데이터 및 우안 화상 데이터를 생성한다. 제어부(651)는, 송신 장치(610)로부터 보내져 오는 3D 화상 데이터의 전송 방식 정보에 근거하고, 3D 신호 처리부(654)의 동작을 제어한다. 표시부(656)는, 3D 신호 처리부(654)로 생성된 좌안 화상 데이터 및 우안 화상 데이터에 의한 입체시 화상을 표시한다.
도 41에 가리키는 전송 시스템(600)의 동작을 설명한다. 송신 장치(610)에 있어, 재생부(613)로 재생된 3D 화상 데이터를(좌안 화상 데이터 및 우안 화상 데이터, 또는 2차원 화상 데이터 및 심층 데이터)3D 신호 처리부(614)에 공급한다. 제어부(611)에서는, 수신 장치(650)로부터 수신되는 해당 수신 장치(650)가 대응한 3D 화상 데이터의 전송 방식 정보에 근거하고, 수신 장치(650)가 대응한 전송 방식중, 소정의 전송 방식이 선택된다.
3D 신호 처리부(614)에서는, 제어부(611)로 선택된 전송 방식에 일치한 상태로 되도록, 재생부(613)에서 재생된 3D 화상 데이터가 가공 처리된다. 3D 신호 처리부(614)로 가공 처리된 3D 화상 데이터는, 전송부(615)에 의해 전송로(660)를 이용하고, 수신 장치(650)로 송신된다. 또, 전송부(615)로부터, 제어부(611)로 선택된 전송 방식의 정보가, 수신 장치(650)로 송신된다.
수신 장치(650)에 있어, 전송부(653)에서는, 송신 장치(610)로부터 보내져 오는 3D 화상 데이터가 수신되고, 이 3D 화상 데이터는 3D 신호 처리부(654)에 공급된다. 또, 전송부(653)에서는, 송신 장치(610)로부터 보내져 오는 3D 화상 데이 터의 전송 방식 정보가 수신되고, 이 전송 방식 정보는 제어부(651)에 공급된다. 3D 신호 처리부(654)에서는, 제어부(651)의 제어하에 전송부(653)에서 수신된 3D 화상 데이터에 대하여 그 전송 방식에 따른 처리가 행해지고, 좌안 화상 데이터 및 우안 화상 데이터가 생성된다.
이 좌안 화상 데이터 및 우안 화상 데이터는, 표시부(655)에 공급된다. 그리고, 이 표시부(656)에서는, 3D 신호 처리부(654)로 생성된 좌안 화상 데이터 및 우안 화상 데이터에 의한 입체시 화상이 표시된다(도 2 참조).
또, 수신 장치(650)에 있어, 검출부(656)에서는, 전송부(653)로부터 공급된 예를 들면 비트 에러 정보 등에 근거하고, 전송로(660)의 상태가 판정되고, 그 판정 결과는 제어부(651)에 공급된다. 제어부(651)에서는, 검출부(656)의 판정 결과에 근거하여 전송로(660)의 품위가 판단된다. 그리고, 전송로(660)의 전송 레이트가, 송신 장치(610)로부터 통지된 3D 화상 데이터의 전송 방식으로 필요로 한 전송 레이트를 밑도는 경우, 제어부(651)로부터 그 취지를 나타내는 전송 레이트 정보가 발생되고, 이 전송 레이트 정보는 전송부(653)로부터 송신 장치(610)로 송신된다.
송신 장치(610)에 있어, 전송부(650)에서는, 수신 장치(650)로부터 보내져 오는 전송 레이트 정보가 수신되고, 이 전송 레이트 정보는 제어부(611)에 공급된다. 제어부(611)에서는, 전송 레이트 정보에 근거하고, 전송로(660)의 전송 레이트 이내에 수습되도록, 3D 화상 데이터의 전송 방식의 선택이 변경된다. 3D 신호 처리부(614)에서는, 변경후의 전송 방식에 일치한 상태로 되도록, 재생부(613)에서 재생된 3D 화상 데이터가 가공 처리된다. 그리고, 가공 처리된 3D 화상 데이터는, 전 송부(615)에 의해 전송로(660)를 통해, 수신 장치(650)로 송신된다. 또, 전송부(615)로부터, 제어부(611)로 변경된 전송 방식의 정보가 수신 장치(650)로 송신된다.
도 41에 나타내는 전송 시스템(600)에 있어서는, 상술했던 것처럼, 송신 장치(610)는, 수신 장치(650)로부터 보내져 오는 전송 레이트 정보에 근거하고, 송신해야 할 3D 화상 데이터의 전송 방식으로서, 필요 전송 레이트가 전송로(660)의 전송 레이트안에 수납된 전송 방식을 선택할 수 있다. 따라서 전송로 상태의 변화에 관계없이, 입체 화상 데이터를 항상 양호하게 송신할 수 있다.
또한, 상술에서는, 수신 장치(650)로부터 송신 장치(610)로 보내지는 전송 레이트 정보가, 전송로(660)의 전송 레이트가 송신 장치(610)로부터 통지된 3D 화상 데이터의 전송 방식에서 필요로 하는 전송 레이트를 밑도는 취지를 나타내는 것이었지만, 이 전송 레이트 정보는, 전송로(660)의 전송 레이트를 나타내는 것이어도 좋다.
또, 상술에서는, 전송로(660)의 전송 레이트가 송신 장치(610)로부터 통지된 3D 화상 데이터의 전송 방식으로 필요로 한 전송 레이트를 밑도는 경우, 수신 장치(650)로부터 송신 장치(610)에 그 취지를 나타내는 전송 레이트 정보가 송신되는 것을 나타냈지만, 이하와 같이 해도 좋다. 즉, 그 경우, 기억부(652)에 기억되고 있는 E-EDID중, 수신 장치(650)가 대응 가능한 3D 화상 데이터의 전송 방식 정보가 개서되고, 전송로(660)의 전송 레이트 이내에 수습된 전송 방식만이 유효하게 된다.
이 경우, 수신 장치(650)는 송신 장치(610)에 E-EDID의 변경을 통지할 필요가 있다. 예를 들면, 전송로(660)가 HDMI 인터페이스의 경우에는, HPD 신호가 일시적으로「L」로 제어되고, 송신 장치(610)가 한번 더 E-EDID를 판독하도록 제어된다.
또한, 상술 실시의 형태에 있어서는, 3D 화상 데이터를 구성한 좌안 화상 데이터 및 우안 화상 데이터, 또는 2차원 화상 데이터 및 심층 데이터를 가공 처리한 후에, HDMI의 TMDS 채널로 송신한 예를 나타냈다. 그러나, 3D 화상 데이터를 구성한 2 종류의 데이터를 다른 전송로에서 송신하는 것도 고려된다.
예를 들면, 3D 화상 데이터가 좌안 화상 데이터 및 우안 화상 데이터로 구성된 경우에는, 어느 한쪽인가 한편을 TMDS 채널로 송신하고, 다른 편을 HDMI 케이블(350)의 소정 라인(이 실시의 형태로는, 리저브 라인 및 HPD 라인)으로 구성된 쌍방향 통신로를 통하여 송신하도록 하여도 좋다. 또, 예를 들면, 3D 화상 데이터가 2차원 화상 데이터 및 심층 데이터로 구성된 경우에는, 2차원 화상 데이터를 TMDS 채널로 송신하고, 심층 데이터를 HDMI 케이블(350)의 소정 라인(이 실시의 형태로는, 리저브 라인 및 HPD 라인)으로 구성된 쌍방향 통신로, 또는 HDMI의 데이터 아일랜드 구간에서 송신해도 좋다.
또, 상술한 실시의 형태에 있어서는, 송신 장치(소스 기기)로서 디스크 플레이어(210)를 사용하고, 수신 장치(싱크 기기)로서 텔레비전 수신기(250)를 사용한 예로 했지만, 그 밖의 송신 장치, 수신 장치를 사용하는 것에도, 이 발명을 마찬가지로 적용할 수 있다.
이 발명은, 송신 장치로부터 수신 장치에, 수신 장치에 있어서 3D 화상 데이터의 전송 방식의 대응 정보에 근거하고 선택된 전송 방식으로 3D 화상 데이터를 양호하게 전송하는 것이고, 예를 들면 다른 메이커의 송신 장치 및 수신 장치로 구성된 3D 화상 데이터의 전송 시스템에 적용할 수 있다.

Claims (29)

  1. 입체시 화상을 표시하기 위한 입체 화상 데이터를, 복수의 채널로, 차동 신호에 의해, 전송로를 통해 외부 기기로 송신하는 데이터 송신부와,
    상기 외부 기기로부터 상기 전송로를 통해 보내져 오는, 그 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식 정보를 수신하는 전송 방식 정보 수신부와,
    상기 전송 방식 정보 수신부에서 수신된 전송 방식 정보에 근거하여, 상기 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식으로부터, 상기 데이터 송신부에서 송신되는 상기 입체 화상 데이터의 전송 방식으로서 소정의 전송 방식을 선택하는 전송 방식 선택부와,
    상기 데이터 송신부에서 송신되는 상기 입체 화상 데이터의 전송 방식의 정보를, 그 입체 화상 데이터의 블랭킹 기간에 삽입하는 것으로, 상기 전송로를 통해 상기 외부 기기에 송신하는 전송 방식 정보 송신부를 구비한 것을 특징으로 하는 송신 장치.
  2. 제1항에 있어서,
    상기 외부 기기로부터 상기 전송로를 통해 보내져 오는 그 전송로의 전송 레이트 정보를 수신하는 전송 레이트 정보 수신부를 구비하고,
    상기 전송 방식 선택부는, 상기 전송 방식 정보 수신부에서 수신된 전송 방식 정보와 함께, 상기 전송 레이트 정보 수신부에서 수신된 전송 레이트 정보에 근거하여, 상기 소정의 전송 방식을 선택하는 것을 특징으로 하는 송신 장치.
  3. 제1항에 있어서,
    상기 입체 화상 데이터는 2차원 화상 데이터 및 각 픽셀에 대응한 심층 데이터를 포함하고,
    상기 데이터 송신부는, 각 픽셀의 데이터 영역에, 상기 2차원 데이터를 구성하는 픽셀 데이터 및 그 픽셀 데이터에 대응한 상기 심층 데이터를 배치하여 송신하는 것을 특징으로 하는 송신 장치.
  4. 외부 기기로부터 전송로를 통해 보내져 오는, 그 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식 정보를 수신하는 전송 방식 정보 수신 스텝과,
    상기 전송 방식 정보 수신 스텝에서 수신된 전송 방식 정보에 근거하여, 상기 외부 기기가 대응 가능한 입체 화상 데이터의 전송 방식으로부터 소정의 전송 방식을 선택하는 전송 방식 선택 스텝과,
    상기 전송 방식 선택 스텝에서 선택된 전송 방식의 입체 화상 데이터를, 복수의 채널로, 차동 신호에 의해, 상기 전송로를 통해 상기 외부 기기로 송신하는 데이터 송신 스텝과,
    상기 데이터 송신 스텝에서 송신되는 상기 입체 화상 데이터의 전송 방식 정보를, 그 입체 화상 데이터의 블랭킹 기간에 삽입하는 것으로, 상기 전송로를 통해 상기 외부 기기로 송신하는 전송 방식 정보 송신 스텝을 갖는 것을 특징으로 하는 입체 화상 데이터 송신 방법.
  5. 외부 기기로부터, 복수의 채널로, 차동 신호에 의해, 전송로를 통해, 입체시 화상을 표시하기 위한 입체 화상 데이터를 수신하는 데이터 수신부와,
    상기 데이터 수신부에서 수신된 상기 입체 화상 데이터의 블랭킹 기간으로부터, 그 입체 화상 데이터의 전송 방식 정보를 추출하는 전송 방식 정보 수신부와,
    상기 전송 방식 정보 수신부에서 추출된 전송 방식 정보에 근거하여, 상기 데이터 수신부에서 수신된 입체 화상 데이터를 처리하고 좌안 화상 데이터 및 우안 화상 데이터를 생성하는 데이터 처리부와,
    수신 장치가 대응 가능한 입체 화상 데이터의 전송 방식 정보를 기억해 두는 전송 방식 정보 기억부와,
    상기 전송 방식 정보 기억부에 기억되어 있는 전송 방식 정보를, 상기 전송로를 통해 상기 외부 기기로 송신하는 전송 방식 정보 송신부를 구비하는 것을 특징으로 하는 수신 장치.
  6. 제5항에 있어서,
    상기 데이터 수신부의 데이터 수신 상태에 근거하여, 상기 전송로의 전송 레이트 정보를 취득하는 전송 레이트 정보 취득부와,
    상기 전송 레이트 정보 취득부에서 취득된 전송 레이트 정보를, 상기 전송로를 통해 상기 외부 기기로 송신하는 전송 레이트 정보 송신부를 또한 구비하는 것을 특징으로 하는 수신 장치.
  7. 수신 장치가 대응 가능한 입체 화상 데이터의 전송 방식 정보를, 전송로를 통하여, 외부 기기에 송신하는 전송 방식 정보 송신 스텝과,
    상기 외부 기기로부터, 복수의 채널로, 차동 신호에 의해, 상기 전송로를 통해, 입체 화상 데이터를 수신하는 데이터 수신 스텝과,
    상기 데이터 수신 스텝에서 수신된 상기 입체 화상 데이터의 블랭킹 기간으로부터, 그 입체 화상 데이터의 전송 방식 정보를 추출하는 전송 방식 정보 수신 스텝과,
    상기 전송 방식 정보 수신 스텝에서 추출된 전송 방식 정보에 근거하여, 상기 데이터 수신 스텝에서 수신된 입체 화상 데이터를 처리하고 좌안 화상 데이터 및 우안 화상 데이터를 생성하는 데이터 처리 스텝을 갖는 것을 특징으로 하는 입체 화상 데이터 수신 방법.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
KR1020097026595A 2008-07-16 2009-07-15 송신 장치, 입체 화상 데이터 송신 방법, 수신 장치 및 입체 화상 데이터 수신 방법 KR101386816B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2008-184520 2008-07-16
JP2008184520A JP5338166B2 (ja) 2008-07-16 2008-07-16 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
PCT/JP2009/062788 WO2010008012A1 (ja) 2008-07-16 2009-07-15 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法

Publications (2)

Publication Number Publication Date
KR20110030253A KR20110030253A (ko) 2011-03-23
KR101386816B1 true KR101386816B1 (ko) 2014-04-29

Family

ID=41550414

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097026595A KR101386816B1 (ko) 2008-07-16 2009-07-15 송신 장치, 입체 화상 데이터 송신 방법, 수신 장치 및 입체 화상 데이터 수신 방법

Country Status (10)

Country Link
US (6) US9185385B2 (ko)
EP (4) EP3389262B1 (ko)
JP (1) JP5338166B2 (ko)
KR (1) KR101386816B1 (ko)
CN (2) CN101803382B (ko)
BR (1) BRPI0904809A2 (ko)
ES (1) ES2626302T3 (ko)
RU (1) RU2522424C2 (ko)
TW (3) TWI514846B (ko)
WO (1) WO2010008012A1 (ko)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102239696B (zh) 2008-12-04 2014-02-19 日本电气株式会社 图像传输系统、图像传输设备和图像传输方法
WO2010084437A2 (en) * 2009-01-20 2010-07-29 Koninklijke Philips Electronics N.V. Transferring of 3d image data
US20120069154A1 (en) * 2009-01-20 2012-03-22 Koninklijke Philips Electronics N.V. Transferring of 3d image data
US9971458B2 (en) 2009-03-25 2018-05-15 Mep Tech, Inc. Projection of interactive environment
US20110165923A1 (en) * 2010-01-04 2011-07-07 Davis Mark L Electronic circle game system
US20110256927A1 (en) 2009-03-25 2011-10-20 MEP Games Inc. Projection of interactive game environment
JP2010258583A (ja) * 2009-04-22 2010-11-11 Panasonic Corp 立体画像表示装置、立体画像再生装置および立体画像視認システム
US9131215B2 (en) * 2009-09-29 2015-09-08 Samsung Electronics Co., Ltd. Method and apparatus for transmitting and receiving uncompressed three-dimensional video data via digital data interface
JP5588144B2 (ja) * 2009-10-14 2014-09-10 パナソニック株式会社 映像信号処理装置及び映像信号処理方法
KR20110064722A (ko) * 2009-12-08 2011-06-15 한국전자통신연구원 영상 처리 정보와 컬러 정보의 동시 전송을 위한 코딩 장치 및 방법
US9491432B2 (en) 2010-01-27 2016-11-08 Mediatek Inc. Video processing apparatus for generating video output satisfying display capability of display device according to video input and related method thereof
CN102763421B (zh) 2010-02-15 2015-08-26 汤姆森许可贸易公司 处理视频内容的装置和方法
CN105791804A (zh) * 2010-02-18 2016-07-20 三星电子株式会社 图像显示系统及其显示方法
KR101376066B1 (ko) * 2010-02-18 2014-03-21 삼성전자주식회사 영상 표시 시스템 및 그 표시 방법
JP5665074B2 (ja) * 2010-03-19 2015-02-04 シリコンライブラリ株式会社 無線伝送システム並びにそれに用いられる無線送信機、無線受信機、無線送信方法、無線受信方法、及び無線通信方法
US9055281B2 (en) * 2010-05-20 2015-06-09 Samsung Electronics Co., Ltd. Source device and sink device and method of transmitting and receiving multimedia service and related data
JP4861495B2 (ja) 2010-05-31 2012-01-25 株式会社東芝 映像変換装置及び映像変換方法
JP4861496B2 (ja) 2010-05-31 2012-01-25 株式会社東芝 映像変換装置及び映像変換方法
JP4861493B2 (ja) * 2010-05-31 2012-01-25 株式会社東芝 情報出力制御装置及び情報出力制御方法
JP4861494B2 (ja) * 2010-05-31 2012-01-25 株式会社東芝 映像出力制御装置及び映像出力制御方法
US9143767B2 (en) 2010-06-01 2015-09-22 Intel Corporation Method and apparatus for adaptive stable image timing in stereoscopic 3D systems
TWI423197B (zh) * 2010-07-20 2014-01-11 Innolux Corp 驅動方法與顯示裝置
KR20120017228A (ko) * 2010-08-18 2012-02-28 엘지전자 주식회사 이동 단말기 및 상기 이동 단말기의 영상 표시 방법
US20120050462A1 (en) * 2010-08-25 2012-03-01 Zhibing Liu 3d display control through aux channel in video display devices
JP2012053165A (ja) * 2010-08-31 2012-03-15 Sony Corp 情報処理装置、プログラムおよび情報処理方法
TWI406559B (zh) * 2010-09-28 2013-08-21 Innolux Corp 顯示方法及執行其之電腦可讀取媒體
JP2012120142A (ja) * 2010-11-08 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
US8553072B2 (en) 2010-11-23 2013-10-08 Circa3D, Llc Blanking inter-frame transitions of a 3D signal
KR20120058702A (ko) * 2010-11-27 2012-06-08 전자부품연구원 디지털 방송에서 서비스 호환 방식 전송 방법
KR20120058700A (ko) 2010-11-27 2012-06-08 전자부품연구원 디지털 방송의 전송 모드 제공 및 인지 방법
WO2012077208A1 (ja) * 2010-12-09 2012-06-14 Necディスプレイソリューションズ株式会社 信号処理回路およびその制御方法
KR20120066433A (ko) * 2010-12-14 2012-06-22 삼성전자주식회사 영상송신장치 및 그 제어방법과, 영상수신장치 및 그 제어방법
JP5811602B2 (ja) * 2010-12-16 2015-11-11 ソニー株式会社 画像生成装置、プログラム、画像表示システム、および画像表示装置
US8526714B2 (en) * 2011-01-13 2013-09-03 Himax Media Solutions, Inc. Method and system for reconstructing a stereoscopic image stream from quincunx sampled frames
JP5673172B2 (ja) * 2011-02-09 2015-02-18 ソニー株式会社 電子機器、電子機器における立体画像情報送信方法、および電子機器における立体画像情報受信方法
EP2676446B1 (en) 2011-02-15 2018-07-04 Thomson Licensing DTV Apparatus and method for generating a disparity map in a receiving device
US9412330B2 (en) * 2011-03-15 2016-08-09 Lattice Semiconductor Corporation Conversion of multimedia data streams for use by connected devices
KR101817939B1 (ko) * 2011-03-28 2018-01-15 삼성디스플레이 주식회사 3차원 영상 데이터 처리 방법 및 이를 수행하는 표시 장치
JP5790132B2 (ja) * 2011-05-06 2015-10-07 富士通株式会社 情報処理装置、情報処理方法、情報処理プログラム
KR101852349B1 (ko) * 2011-06-23 2018-04-27 삼성디스플레이 주식회사 입체 영상 표시 방법 및 입체 영상 표시 장치
US9351028B2 (en) 2011-07-14 2016-05-24 Qualcomm Incorporated Wireless 3D streaming server
JP5328852B2 (ja) * 2011-07-25 2013-10-30 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、プログラム及び情報記憶媒体
CN103718548B (zh) 2011-08-29 2016-04-20 Nec显示器解决方案株式会社 3d图像信号处理设备
US8891894B2 (en) * 2011-09-30 2014-11-18 Apple Inc. Psychovisual image compression
JP5694412B2 (ja) * 2011-10-20 2015-04-01 株式会社東芝 送信装置、受信装置、送信方法及び受信方法
JP5232319B2 (ja) 2011-10-20 2013-07-10 株式会社東芝 通信装置及び通信方法
JP4940376B2 (ja) * 2011-11-02 2012-05-30 株式会社東芝 映像出力制御装置及び映像出力制御方法
JP5060650B2 (ja) * 2011-11-02 2012-10-31 株式会社東芝 情報出力制御装置及び情報出力制御方法
TWI541586B (zh) * 2011-12-16 2016-07-11 鴻海精密工業股份有限公司 立體攝像裝置
WO2013122387A1 (en) * 2012-02-15 2013-08-22 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transceiving system, data transmitting method, and data receiving method
WO2013122385A1 (en) 2012-02-15 2013-08-22 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transreceiving system, data transmitting method, data receiving method and data transreceiving method
JP5002734B2 (ja) * 2012-02-22 2012-08-15 株式会社東芝 映像出力制御装置及び映像出力制御方法
CN102780894B (zh) * 2012-05-31 2016-12-14 新奥特(北京)视频技术有限公司 一种3d图像的编解码方法
JP5390667B2 (ja) 2012-06-11 2014-01-15 株式会社東芝 映像送信機器及び映像受信機器
US9317109B2 (en) 2012-07-12 2016-04-19 Mep Tech, Inc. Interactive image projection accessory
US9355613B2 (en) 2012-10-09 2016-05-31 Mediatek Inc. Data processing apparatus for transmitting/receiving compression-related indication information via display interface and related data processing method
CN103986549B (zh) * 2013-02-07 2018-03-13 辉达公司 用于网络数据传送的设备、系统以及方法
TWI684364B (zh) * 2013-06-21 2020-02-01 日商新力股份有限公司 送訊裝置、高動態範圍影像資料送訊方法、收訊裝置、高動態範圍影像資料收訊方法及程式
US9778546B2 (en) 2013-08-15 2017-10-03 Mep Tech, Inc. Projector for projecting visible and non-visible images
JP6456980B2 (ja) * 2014-02-10 2019-01-23 エルジー エレクトロニクス インコーポレイティド 3d放送サービスのための放送信号の送受信方法及び装置
JP6811607B2 (ja) * 2014-02-26 2021-01-13 ソニー株式会社 受信装置および受信方法
CN103929610B (zh) * 2014-04-23 2017-08-08 利亚德光电股份有限公司 用于led电视的数据处理方法、装置及led电视
US9973787B2 (en) * 2014-05-01 2018-05-15 Sony Corporation Communication device and communication method
US10637972B2 (en) * 2014-05-06 2020-04-28 Lattice Semiconductor Corporation System for dynamic audio visual capabilities exchange
JP5948508B2 (ja) * 2014-05-08 2016-07-06 オリンパス株式会社 ビデオプロセッサ、ビデオプロセッサの作動方法
WO2015168903A1 (en) * 2014-05-08 2015-11-12 Lattice Semiconductor Corporation Caching of capabilities information of counterpart device for efficient handshaking operation
WO2015190864A1 (ko) * 2014-06-12 2015-12-17 엘지전자(주) 고속 인터페이스를 이용하여 객체 기반 오디오 데이터를 처리하는 방법 및 장치
KR102310241B1 (ko) * 2015-04-29 2021-10-08 삼성전자주식회사 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
US10621690B2 (en) * 2015-09-17 2020-04-14 Qualcomm Incorporated Storing bandwidth-compressed graphics data
US10102606B2 (en) * 2016-09-30 2018-10-16 Intel Corporation Transmission of data based on a configuration database
EP3531705B1 (en) * 2016-10-20 2021-08-11 Aim Electronics Co., Ltd. Hdmi optical cable and hdmi optical conversion apparatus
EP3373595A1 (en) 2017-03-07 2018-09-12 Thomson Licensing Sound rendering with home cinema system and television
CN106973188A (zh) * 2017-04-11 2017-07-21 北京图森未来科技有限公司 一种图像传输装置和方法
US10462417B2 (en) * 2017-08-31 2019-10-29 Apple Inc. Methods and apparatus for reducing electromagnetic interference resultant from data transmission over a high-speed audio/visual interface
JP2022031983A (ja) 2018-10-02 2022-02-24 ソニーセミコンダクタソリューションズ株式会社 送信装置、受信装置及び送受信システム
TWI723683B (zh) * 2019-12-17 2021-04-01 瑞昱半導體股份有限公司 視訊介面轉換裝置及方法
JP2021150790A (ja) 2020-03-18 2021-09-27 ソニーグループ株式会社 送信装置、送信方法および受信装置
JP2021150791A (ja) 2020-03-18 2021-09-27 ソニーグループ株式会社 撮像装置および撮像装置の制御方法
CN114302194B (zh) * 2021-01-14 2023-05-05 海信视像科技股份有限公司 一种显示设备及多设备切换时的播放方法
US11363050B1 (en) 2021-03-25 2022-06-14 Bank Of America Corporation Information security system and method for incompliance detection in data transmission
US11412177B1 (en) * 2021-07-12 2022-08-09 Techpoint, Inc. Method and apparatus for transmitting and receiving audio over analog video transmission over a single coaxial cable
TWI783845B (zh) * 2022-01-04 2022-11-11 大陸商北京集創北方科技股份有限公司 級聯驅動電路之資料傳輸方法、led顯示驅動電路、led顯示裝置及資訊處理裝置
JP2024053934A (ja) * 2022-10-04 2024-04-16 ザインエレクトロニクス株式会社 送信装置、受信装置および送受信システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060006706A (ko) * 2004-07-15 2006-01-19 삼성전자주식회사 다차원 영상 포맷의 변환장치 및 방법
JP2007336518A (ja) * 2006-05-16 2007-12-27 Sony Corp 伝送方法、伝送システム、送信方法、送信装置、受信方法及び受信装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2010453C1 (ru) * 1989-12-18 1994-03-30 Сергей Николаевич Сидоров Устройство для телевизионной передачи и приема стереоскопического изображения
JP2001061164A (ja) * 1999-08-19 2001-03-06 Toshiba Corp 立体映像信号伝送方法
TW580826B (en) * 2001-01-12 2004-03-21 Vrex Inc Method and apparatus for stereoscopic display using digital light processing
JP3789794B2 (ja) 2001-09-26 2006-06-28 三洋電機株式会社 立体画像処理方法、装置、およびシステム
US7277121B2 (en) 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
KR100397511B1 (ko) 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
JP4154569B2 (ja) 2002-07-10 2008-09-24 日本電気株式会社 画像圧縮伸長装置
JP4190357B2 (ja) 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
KR20050004339A (ko) * 2003-07-02 2005-01-12 엘지전자 주식회사 고밀도 광디스크의 그래픽 데이터 관리방법 및 그에 따른고밀도 광디스크
JP2005051547A (ja) * 2003-07-29 2005-02-24 Matsushita Electric Ind Co Ltd 映像音声出力装置、映像音声受信装置、映像音声出力方法、映像音声受信方法、およびコンピュータプログラム
JP4483457B2 (ja) * 2004-03-31 2010-06-16 日本ビクター株式会社 伝送システム
EP1587035A1 (en) * 2004-04-14 2005-10-19 Koninklijke Philips Electronics N.V. Ghost artifact reduction for rendering 2.5D graphics
CN1697521A (zh) * 2004-05-13 2005-11-16 孙道明 一种视讯数据传输与处理的方法
EP1617370B1 (en) 2004-07-15 2013-01-23 Samsung Electronics Co., Ltd. Image format transformation
CN1756317A (zh) * 2004-10-01 2006-04-05 三星电子株式会社 变换多维视频格式的设备和方法
JP3112392U (ja) 2005-05-10 2005-08-11 船井電機株式会社 Hdtv
JP5431726B2 (ja) * 2005-06-23 2014-03-05 コーニンクレッカ フィリップス エヌ ヴェ 画像および関連データの組み合わされた交換
KR100722855B1 (ko) * 2005-09-06 2007-05-30 삼성전자주식회사 미디어 수신장치와 이를 포함하는 미디어 시스템 및 그제어방법
JP2007166277A (ja) * 2005-12-14 2007-06-28 Nippon Telegr & Teleph Corp <Ntt> 3次元画像情報の伝送方法、送信側装置および受信側装置
US20070242062A1 (en) 2006-04-18 2007-10-18 Yong Guo EDID pass through via serial channel
US7576663B2 (en) * 2006-04-21 2009-08-18 Locolabs, Llc Inline audio/visual conversion
JP5055570B2 (ja) * 2006-08-08 2012-10-24 株式会社ニコン カメラおよび画像表示装置並びに画像記憶装置
RU66644U1 (ru) * 2006-10-18 2007-09-10 Михаил Сергеевич Цветков Модуль многоканального ввода-вывода и обработки hd/sd sdi видео dvi/hdmi графики
AU2007318585A1 (en) * 2006-11-07 2008-05-15 Sony Corporation Communication system, transmitting device, receiving device, communication method, program and communication cable
JP2008131282A (ja) 2006-11-20 2008-06-05 Sony Corp 映像伝送方法、映像伝送システム及び映像処理装置
JP2008145679A (ja) * 2006-12-08 2008-06-26 Sharp Corp 表示装置及びavシステム
JP4967731B2 (ja) * 2007-03-15 2012-07-04 セイコーエプソン株式会社 画像表示装置及びそのための光学部材
US8207962B2 (en) * 2007-06-18 2012-06-26 Mediatek Inc. Stereo graphics system based on depth-based image rendering and processing method thereof
US7836223B2 (en) * 2007-07-02 2010-11-16 Silicon Image, Inc. Operation of media interface to provide bidirectional communications
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR101520620B1 (ko) * 2008-08-18 2015-05-18 삼성전자주식회사 2차원/3차원 재생 모드 결정 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060006706A (ko) * 2004-07-15 2006-01-19 삼성전자주식회사 다차원 영상 포맷의 변환장치 및 방법
JP2007336518A (ja) * 2006-05-16 2007-12-27 Sony Corp 伝送方法、伝送システム、送信方法、送信装置、受信方法及び受信装置

Also Published As

Publication number Publication date
JP5338166B2 (ja) 2013-11-13
US20170374349A1 (en) 2017-12-28
TWI432014B (zh) 2014-03-21
CN101803382B (zh) 2012-11-14
US20100182402A1 (en) 2010-07-22
EP3598743A1 (en) 2020-01-22
EP3174288A1 (en) 2017-05-31
RU2522424C2 (ru) 2014-07-10
RU2010108478A (ru) 2011-09-20
TWI425822B (zh) 2014-02-01
EP3389262B1 (en) 2019-10-23
EP2302925B1 (en) 2017-03-29
KR20110030253A (ko) 2011-03-23
TW201415865A (zh) 2014-04-16
EP3389262A1 (en) 2018-10-17
US9185385B2 (en) 2015-11-10
US20140092211A1 (en) 2014-04-03
US10015468B2 (en) 2018-07-03
EP2302925A1 (en) 2011-03-30
ES2626302T3 (es) 2017-07-24
US9451235B2 (en) 2016-09-20
TW201012197A (en) 2010-03-16
US20170223336A1 (en) 2017-08-03
US9762887B2 (en) 2017-09-12
EP3174288B1 (en) 2018-09-12
BRPI0904809A2 (pt) 2015-06-30
CN102883215A (zh) 2013-01-16
US20160080721A1 (en) 2016-03-17
JP2010028261A (ja) 2010-02-04
CN101803382A (zh) 2010-08-11
TW201349843A (zh) 2013-12-01
TWI514846B (zh) 2015-12-21
WO2010008012A1 (ja) 2010-01-21
CN102883215B (zh) 2016-10-19
US9807363B2 (en) 2017-10-31
EP3598743B1 (en) 2021-04-07
US20160330429A1 (en) 2016-11-10
EP2302925A4 (en) 2012-12-26

Similar Documents

Publication Publication Date Title
KR101386816B1 (ko) 송신 장치, 입체 화상 데이터 송신 방법, 수신 장치 및 입체 화상 데이터 수신 방법
EP2091253B1 (en) Transmitting device, video signal transmitting method in transmitting device, recieving device and video signal recieving method in recieving device
US8810563B2 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method
US20100277567A1 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, stereoscopic image data receiving method, relaying apparatus and stereoscopic image data relaying method
JP5784810B2 (ja) 送信装置、受信装置、送信方法及び受信方法
JP5477499B2 (ja) 送信装置および立体画像データ送信方法
JP6304417B2 (ja) 受信方法および受信装置
JP6098678B2 (ja) 送信方法および送信装置
JP5790859B2 (ja) 送受信システム
JP5621944B2 (ja) 送信装置および送信方法
JP5583866B2 (ja) 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
JP2014131272A (ja) 受信装置および情報処理方法

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190329

Year of fee payment: 6