KR20140044283A - 송신 장치, 송신 방법 및 수신 장치 - Google Patents

송신 장치, 송신 방법 및 수신 장치 Download PDF

Info

Publication number
KR20140044283A
KR20140044283A KR1020137006405A KR20137006405A KR20140044283A KR 20140044283 A KR20140044283 A KR 20140044283A KR 1020137006405 A KR1020137006405 A KR 1020137006405A KR 20137006405 A KR20137006405 A KR 20137006405A KR 20140044283 A KR20140044283 A KR 20140044283A
Authority
KR
South Korea
Prior art keywords
data
subtitle
stream
information
data stream
Prior art date
Application number
KR1020137006405A
Other languages
English (en)
Inventor
이쿠오 츠카고시
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20140044283A publication Critical patent/KR20140044283A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Abstract

레거시의 2D 대응의 수신 장치의 수신 처리의 방해가 되지 않도록 시차정보의 송신을 행한다.
다중화 데이터 스트림에, 중첩정보의 데이터를 포함하는 제1의 프라이빗 데이터 스트림(2D 스트림)과 시차정보를 포함하는 제2의 프라이빗 데이터 스트림(3D 확장 스트림)을 갖게 한다. 다중화 데이터 스트림은, 제1의 프라이빗 데이터 스트림 및 상기 제2의 프라이빗 데이터 스트림에 대응하여 각각 언어 정보를 갖는 제1의 디스크립터 및 제2의 디스크립터가 삽입되어 있다. 제2의 디스크립터가 갖는 언어 정보는 비언어를 나타낸다. 레거시의 2D 대응의 수신 장치는, 이 언어 정보에 의거하여, 다중화 데이터 스트림으로부터 2D 스트림만을 용이하며 정밀도 좋게 추출하여 디코드할 수 있다. 즉, 3D 확장 스트림의 디코드를 행하지 않기 때문에, 그에 의한 수신 처리의 방해를 회피할 수 있다.

Description

송신 장치, 송신 방법 및 수신 장치{TRANSMISSION DEVICE, TRANSMISSION METHOD, AND RECEIVING DEVICE}
본 기술은, 송신 장치, 송신 방법 및 수신 장치에 관한 것이다. 특히, 본 기술은, 좌안화상 데이터 및 우안화상 데이터를 갖는 입체화상 데이터와 함께, 중첩정보의 데이터 및 시차정보를 송신하는 송신 장치 등에 관한 것이다.
예를 들면, 특허 문헌 1에는, 입체화상 데이터의 텔레비전 방송 전파를 이용한 전송 방식에 관해 제안되어 있다. 이 전송 방식에서는, 좌안용 화상 데이터 및 우안용 화상 데이터를 갖는 입체화상 데이터가 송신되고, 양안 시차를 이용한 입체화상 표시가 행하여진다.
도 64는, 양안 시차를 이용한 입체화상 표시에서, 스크린상에서의 오브젝트(물체)의 좌우상의 표시 위치와, 그 입체상의 재생 위치와의 관계를 도시하고 있다. 예를 들면, 스크린상에 도시하는 바와 같이 좌상(La)이 우측으로 우상(Ra)이 좌측으로 어긋나서 표시되어 있는 오브젝트(A)에 관해서는, 좌우의 시선이 스크린면보다 앞에서 교차하기 때문에, 그 입체상의 재생 위치는 스크린면보다 앞이 된다. DPa는, 오브젝트(A)에 관한 수평 방향의 시차벡터를 나타내고 있다.
또한, 예를 들면, 스크린상에 도시하는 바와 같이 좌상(Lb) 및 우상(Rb)이 동일 위치에 표시되어 있는 오브젝트(B)에 관해서는, 좌우의 시선이 스크린면에서 교차하기 때문에, 그 입체상의 재생 위치는 스크린면상이 된다. 또한, 예를 들면, 스크린상에 도시하는 바와 같이 좌상(Lc)이 좌측으로 우상(Rc)이 우측으로 어긋나서 표시되어 있는 오브젝트(C)에 관해서는, 좌우의 시선이 스크린면보다 속에서 교차하기 때문에, 그 입체상의 재생 위치는 스크린면보다 속이 된다. DPc는, 오브젝트(C)에 관한 수평 방향의 시차벡터를 나타내고 있다.
특허 문헌 1 : 일본국 특개2005-6114호 공보
상술한 바와 같이 입체화상 표시에서, 시청자는, 양안 시차를 이용하여, 입체화상의 원근감을 지각하는 것이 보통이다. 화상에 중첩되는 중첩정보, 예를 들면 자막 등에 관해서도, 2차원 공간적뿐만 아니라, 3차원의 깊이감(奧行感)으로서도, 입체화상 표시와 연동하여 렌더링되는 것이 기대된다. 예를 들면, 화상에 자막을 중첩(오버레이) 표시하는 경우, 원근감으로 말하는 바의 가장 가까운 화상 내의 물체(오브젝트)보다도 앞에 표시되지 않으면, 시청자는, 원근감의 모순을 느끼는 경우가 있다.
그래서, 중첩정보의 데이터와 함께, 좌안화상 및 우안화상 사이의 시차정보를 송신하고, 수신측에서, 좌안 중첩정보 및 우안 중첩정보 사이에 시차를 부여하는 것이 생각된다. 이와 같이 입체화상을 표시할 수 있는 수신 장치에서 시차정보는 가치가 있는 정보이다. 한편, 레거시의 2D 대응의 수신 장치에 있어서, 이 시차정보는 불필요한 것이다. 이 2D 대응의 수신 장치에 있어서, 이 시차정보의 송신이 정상적인 수신 처리의 방해가 되는 일이 없도록 어떠한 시책을 강구할 필요가 있다.
본 기술의 목적은, 시차정보의 송신이 레거시의 2D 대응의 수신 장치의 수신 처리의 방해가 되는 것을 방지하는 것에 있다.
본 기술의 개념은,
입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 출력하는 화상 데이터 출력부와,
상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 출력하는 중첩정보 데이터 출력부와,
상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 출력하는 시차정보 출력부와,
상기 화상 데이터 출력부로부터 출력되는 화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 중첩정보 데이터 출력부로부터 출력되는 중첩정보의 데이터를 포함하는 제1의 프라이빗 데이터 스트림과, 상기 시차정보 출력부로부터 출력되는 시차정보를 포함하는 제2의 프라이빗 데이터 스트림을 갖는 다중화 데이터 스트림을 송신하는 데이터 송신부를 구비하고,
상기 다중화 데이터 스트림에는, 상기 제1의 프라이빗 데이터 스트림 및 상기 제2의 프라이빗 데이터 스트림에 대응하여 각각 언어 정보를 갖는 제1의 디스크립터 및 제2의 디스크립터가 삽입되어 있고, 상기 제2의 디스크립터가 갖는 언어 정보는 비언어(非言語)를 나타내도록 설정되어 있는 송신 장치에 있다.
본 기술에 있어서, 화상 데이터 출력부에 의해, 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터가 출력된다. 중첩정보 데이터 출력부에 의해, 좌안화상 데이터 및 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터가 출력된다. 여기서, 중첩정보는, 화상에 중첩되는 자막, 그래픽스, 텍스트 등의 정보이다. 시차정보 출력부에 의해, 좌안화상 데이터 및 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보가 출력된다.
데이터 송신부에 의해, 다중화 데이터 스트림이 송신된다. 이 다중화 데이터 스트림은, 화상 데이터를 포함하는 비디오 데이터 스트림과, 중첩정보의 데이터를 포함하는 제1의 프라이빗 데이터 스트림과, 시차정보를 포함하는 제2의 프라이빗 데이터 스트림을 갖는 것으로 된다.
다중화 데이터 스트림에는, 제1의 프라이빗 데이터 스트림 및 제2의 프라이빗 데이터 스트림에 대응하여 각각 언어 정보를 갖는 제1의 디스크립터 및 제2의 디스크립터가 삽입되어 있다. 그리고, 제2의 디스크립터가 갖는 언어 정보는, 비언어를 나타내도록 설정되어 있다.
예를 들면, 중첩정보의 데이터는, DVB(Digital Video Broadcasting) 방식의 서브타이틀 데이터이고, 디스크립터는, 컴포넌트·디스크립터 및 서브타이틀·디스크립터이다. 또한, 예를 들면, 비언어를 나타내는 언어 정보는, ISO 언어 코드의 비언어를 나타내는 「zxx」, 또는, ISO 언어 코드의 「qaa」부터 「qrz」의 공간에 포함되는 언어 코드의 어느 하나이다.
이와 같이 본 기술에 있어서, 다중화 데이터 스트림은, 중첩정보의 데이터를 포함하는 제1의 프라이빗 데이터 스트림과, 시차정보를 포함하는 제2의 프라이빗 데이터 스트림을 갖는 것으로 된다. 그리고, 다중화 데이터 스트림에는, 각각 언어 정보를 갖는 제1의 디스크립터 및 제2의 디스크립터가 삽입되어 있다. 그 때문에, 수신측의 레거시의 2D 대응의 수신 장치에서는, 디스크립터가 갖는 언어 정보에 의거하여, 다중화 데이터 스트림으로부터 제1의 프라이빗 데이터 스트림만을 추출하여 디코드하는 것이 가능해진다. 따라서, 제2의 프라이빗 데이터 스트림이 디코드되는 것을 방지할 수가 있어서, 시차정보의 송신이 레거시의 2D 대응의 수신 장치의 수신 처리의 방해가 되는 것을 방지할 수 있다.
또한, 본 기술에 있어서, 예를 들면, 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고, 다중화 데이터 스트림에는, 제1의 프라이빗 데이터 스트림 및 제2의 프라이빗 데이터 스트림에 각각 대응한 제1의 서브타이틀·디스크립터 및 제2의 서브타이틀·디스크립터가 삽입되어 있고, 제1의 서브타이틀·디스크립터의 서브타이틀 타입 정보가 가리키는 서브타이틀 타입과 제2의 서브타이틀·디스크립터의 서브타이틀 타입 정보가 나타내는 서브타이틀 타입은 다르도록 되어 있어도 좋다.
이 경우, 수신측의 레거시의 2D 대응의 수신 장치에서는, 서브타이틀·디스크립터가 갖는 서브타이틀 타입 정보에 의거하여, 다중화 데이터 스트림으로부터 제1의 프라이빗 데이터 스트림만을 추출하여 디코드하는 것이 가능해진다. 따라서, 제2의 프라이빗 데이터 스트림이 디코드되는 것을 방지할 수가 있어서, 시차정보의 송신이 레거시의 2D 대응의 수신 장치의 수신 처리의 방해가 되는 것을 방지할 수 있다.
또한, 본 기술에 있어서, 예를 들면, 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고, 제1의 프라이빗 데이터 스트림의 중첩정보의 데이터가 포함되는 세그먼트와 제2의 프라이빗 데이터 스트림의 시차정보가 포함되는 세그먼트의 페이지 ID는 동일하게 되어 있어도 좋다. 이 경우, 수신측의 3D 대응의 수신 장치에서는, 이 페이지 ID에 의거하여, 중첩정보의 데이터가 포함되는 세그먼트와 시차정보가 포함되는 세그먼트를 결합하는 것이 용이해진다.
또한, 본 기술에 있어서, 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고, 제2의 프라이빗 데이터 스트림에 포함되는 시차정보를 앤실러리·페이지로서 운용하도록 되어도 좋다. 이 경우, 다언어의 서비스에 대응할 때에, 시차정보를 포함하는 제2의 프라이빗 데이터 스트림을 각 서비스 공통으로 보낼 수가 있어서, 전송 대역의 효율적 이용이 실현된다.
또한, 본 기술의 다른 개념은,
입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 포함하는 제1의 서브타이틀 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 포함하는 제2의 서브타이틀 데이터 스트림을 갖는 다중화 데이터 스트림을 수신하는 데이터 수신부와,
상기 데이터 수신부에서 수신된 상기 다중화 데이터 스트림으로부터 상기 비디오 데이터 스트림을 추출하여 디코드하는 비디오 디코드부와,
상기 데이터 수신부에서 수신된 다중화 데이터 스트림으로부터 상기 제1의 서브타이틀 데이터 스트림을 추출하여 디코드하는 서브타이틀 디코드부를 구비하고,
상기 다중화 데이터 스트림에는, 상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응하여 각각 서브타이틀 타입 정보를 갖는 디스크립터가 삽입되어 있고,
상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응한 디스크립터가 갖는 서브타이틀 타입 정보는 다른 서브타이틀 타입을 나타내도록 설정되어 있고,
상기 서브타이틀 디코드부는, 상기 디스크립터에 삽입되어 있는 서브타이틀 타입 정보에 의거하여, 상기 다중화 데이터 스트림으로부터 추출하여 디코드하여야 할 서브타이틀 데이터 스트림을 결정한 수신 장치에 있다.
본 기술에 있어서, 데이터 수신부에 의해, 비디오 데이터 스트림, 제1의 서브타이틀 데이터 스트림 및 제2의 서브타이틀 데이터 스트림을 갖는 다중화 데이터 스트림이 수신된다. 그리고, 비디오 디코드부에 의해, 다중화 데이터 스트림으로부터 비디오 데이터 스트림이 추출되어 디코드된다. 또한, 서브타이틀 디코드부에 의해, 다중화 데이터 스트림으로부터 제1의 서브타이틀 데이터 스트림이 추출되어 디코드된다.
여기서, 다중화 데이터 스트림에는, 제1의 서브타이틀 데이터 스트림 및 제2의 서브타이틀 데이터 스트림에 대응하여 각각 서브타이틀 타입 정보를 갖는 디스크립터가 삽입되어 있다. 그리고, 제1의 서브타이틀 데이터 스트림 및 제2의 서브타이틀 데이터 스트림에 대응한 디스크립터가 갖는 서브타이틀 타입 정보는 다른 서브타이틀 타입을 나타내도록 설정되어 있다.
서브타이틀 디코드부에서는, 디스크립터에 삽입되어 있는 서브타이틀 타입 정보에 의거하여, 다중화 데이터 스트림으로부터 추출하여 디코드하여야 할 서브타이틀 데이터 스트림이 결정된다. 이에 의해, 예를 들면, 수신측의 레거시의 2D 대응의 수신 장치에서는, 시차정보가 포함되는 제2의 서브타이틀 데이터 스트림이 디코드되는 것을 방지할 수가 있어서, 시차정보의 송신이 레거시의 2D 대응의 수신 장치의 수신 처리의 방해가 되는 것을 방지할 수 있다.
또한, 본 기술의 다른 개념은,
입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 포함하는 제1의 서브타이틀 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 포함하는 제2의 서브타이틀 데이터 스트림을 갖는 다중화 데이터 스트림을 수신하는 데이터 수신부와,
상기 데이터 수신부에서 수신된 상기 다중화 데이터 스트림으로부터 상기 비디오 데이터 스트림을 추출하여 디코드하는 비디오 디코드부와,
상기 데이터 수신부에서 수신된 다중화 데이터 스트림으로부터 상기 제1의 서브타이틀 데이터 스트림을 추출하여 디코드하는 서브타이틀 디코드부를 구비하고,
상기 다중화 데이터 스트림에는, 상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응하여 각각 언어 정보를 갖는 디스크립터가 삽입되어 있고,
상기 제2의 서브타이틀 데이터 스트림에 대응한 디스크립터가 갖는 언어 정보는 비언어를 나타내도록 설정되어 있고,
상기 서브타이틀 디코드부는, 상기 디스크립터에 삽입되어 있는 언어 정보에 의거하여, 상기 다중화 데이터 스트림으로부터 추출하여 디코드하여야 할 서브타이틀 데이터 스트림을 결정하는 수신 장치에 있다.
본 기술에 있어서, 데이터 수신부에 의해, 비디오 데이터 스트림, 제1의 서브타이틀 데이터 스트림 및 제2의 서브타이틀 데이터 스트림을 갖는 다중화 데이터 스트림이 수신된다. 그리고, 비디오 디코드부에 의해, 다중화 데이터 스트림으로부터 비디오 데이터 스트림이 추출되어 디코드된다. 또한, 서브타이틀 디코드부에 의해, 다중화 데이터 스트림으로부터 제1의 서브타이틀 데이터 스트림이 추출되어 디코드된다.
여기서, 다중화 데이터 스트림에는, 상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응하여 각각 언어 정보를 갖는 디스크립터가 삽입되어 있다. 그리고, 제2의 서브타이틀 데이터 스트림에 대응한 디스크립터가 갖는 언어 정보는 비언어를 나타내도록 설정되어 있다.
서브타이틀 디코드부에서는, 디스크립터에 삽입되어 있는 언어 정보에 의거하여, 다중화 데이터 스트림으로부터 추출하여 디코드하여야 할 서브타이틀 데이터 스트림이 결정된다. 이에 의해, 예를 들면, 수신측의 레거시의 2D 대응의 수신 장치에서는, 시차정보가 포함되는 제2의 서브타이틀 데이터 스트림이 디코드되는 것을 방지할 수가 있어서, 시차정보의 송신이 레거시의 2D 대응의 수신 장치의 수신 처리의 방해가 되는 것을 방지할 수 있다.
본 기술에 의하면, 시차정보의 송신이 레거시의 2D 대응의 수신 장치의 수신 처리의 방해가 되는 것을 방지할 수 있다.
도 1은 본 발명의 실시의 형태로서의 화상 송수신 시스템의 구성례를 도시하는 블록도.
도 2는 방송국에서의 송신 데이터 생성부의 구성례를 도시하는 블록도.
도 3은 1920×1080의 픽셀 포맷의 화상 데이터를 도시하는 도면.
도 4는 입체화상 데이터(3D 화상 데이터)의 전송 방식인 「Top & Bottom」 방식, 「Side By Side」 방식, 「Frame Sequential」 방식을 설명하기 위한 도면.
도 5는 좌안화상에 대한 우안화상의 시차벡터를 검출하는 예를 설명하기 위한 도면.
도 6은 시차벡터를 블록 매칭 방식으로 구하는 것을 설명하기 위한 도면.
도 7은 픽셀(화소)마다의 시차벡터의 값을 각 픽셀(각 화소)의 휘도치로서 이용한 경우의 화상례를 도시하는 도면.
도 8은 블록(Block)마다의 시차벡터의 한 예를 도시하는 도면.
도 9는 송신 데이터 생성부의 시차정보 작성부에서 행하여지는 다운사이징 처리를 설명하기 위한 도면.
도 10은 서브타이틀 데이터에 있어서, 화면상에 정의되는 리전과, 이 리전 내에 정의되는 서브리전의 한 예를 도시하는 도면.
도 11은 트랜스포트 스트림(TS)이 갖는 2D 스트림 및 3D 확장 스트림의 구성을 도시하는 도면.
도 12는 2D 스트림(PES1(1) : PES#1)과 3D 확장 스트림(PES2(2) : PES#2)의 PES 헤더에 삽입되는 타임 스탬프(PTS)의 값이 관련지어지는 것을 설명하기 위한 도면.
도 13은 2D 스트림과 3D 확장 스트림의 타임 스탬프(PTS)의 값이 다른 값으로 설정되는 예를 도시하는 도면.
도 14는 2D 스트림과 3D 확장 스트림의 타임 스탬프(PTS)의 값이 다른 값으로 설정되는 다른 예를 도시하는 도면.
도 15는 2D 스트림 및 3D 확장 스트림을 갖는 트랜스포트 스트림(TS)의 구성례를 도시하는 도면.
도 16은 서브타이틀 데이터를 구성하는 PCS(page_composition_segment)의 구조를 도시하는 도면.
도 17은 「segment_type」의 각 값과 세그먼트 타입과의 대응 관계를 도시하는 도면.
도 18은 새롭게 정의된 3D용 서브타이틀의 포맷을 나타내는 정보(Component_type=0x15, 0x25)를 설명하기 위한 도면.
도 19는 트랜스포트 스트림에 삽입되어 있는 서브타이틀·디스크립터(Subtitling_descriptor) 및 컴포넌트·디스크립터(Component_descriptor)를 취출하여 도시한 도면.
도 20은 트랜스포트 스트림에 삽입되어 있는 PES 스트림(2D 스트림, 3D 확장 스트림)을 취출하여 도시한 도면.
도 21은 비언어를 나타내는 ISO 언어 코드로서, ISO 언어 코드의 「qaa」부터 「qrz」의 공간에 포함되는 언어 코드의 어느 하나를 사용하는 것을 도시하는 도면.
도 22는 ISO 언어 코드(ISO 639-2 Code) 리스트의 발췌를 도시하는 도면.
도 23은 서브타이틀 데이터 스트림(2D 스트림 및 3D 확장 스트림)의 스트림 구성례를 도시하는 도면.
도 24는 컴포넌트·디스크립터(Component_descriptor)의 구조례(syntax)를 도시하는 도면.
도 25는 서브타이틀·디스크립터(Subtitling_descriptor)의 구조례(syntax)를 도시하는 도면.
도 26은 인터벌 기간(Interval period)을 이용한 시차정보의 갱신례로서, 인터벌 기간이 고정이고, 게다가, 그 기간이 갱신 기간과 같은 경우를 도시하는 도면.
도 27은 인터벌 기간(Interval period)을 이용한 시차정보의 갱신례로서, 인터벌 기간을 단기간으로 한 경우의 시차정보의 갱신례를 도시하는 도면.
도 28은 3D 확장 스트림의 구성례를 도시하는 도면.
도 29는 DSS 세그먼트를 순차적으로 송신하는 경우에 있어서의, 시차정보의 갱신례를 도시하는 도면.
도 30은 갱신 프레임 간격이 단위 기간으로서의 인터벌 기간(ID : Interval Duration)의 배수로 표시되는 시차정보(disparity)의 갱신례를 도시하는 도면.
도 31은 페이지 영역(Area for Page_default)에 자막 표시 영역으로서의 리전(Region)이 2개 포함되어 있는 서브타이틀의 표시례를 도시하는 도면.
도 32는 DSS의 세그먼트에, 자막 표시 기간에 순차적으로 갱신되는 시차정보(Disparity)로서, 리전 단위의 시차정보와 모든 리전을 포함하는 페이지 단위의 시차정보의 쌍방이 포함되어 있는 경우에 있어서, 각 리전과 페이지의 시차정보 커브의 한 예를 도시하는 도면.
도 33은 페이지 및 각 리전의 시차정보가 어떤 구조로 보내지는지를 도시하는 도면.
도 34는 DSS의 구조례(syntax)를 도시하는 도면(1/3).
도 35는 DSS의 구조례를 도시하는 도면(2/3).
도 36은 DSS의 구조례를 도시하는 도면(3/3).
도 37은 DSS의 주요한 데이터 규정 내용(Semantics)을 도시하는 도면(1/4).
도 38은 DSS의 주요한 데이터 규정 내용을 도시하는 도면(2/4).
도 39는 DSS의 주요한 데이터 규정 내용을 도시하는 도면(3/4).
도 40은 DSS의 주요한 데이터 규정 내용을 도시하는 도면(4/4).
도 41은 셋톱 박스 및 텔레비전 수신기가 3D 대응 기기인 경우의 방송 수신 개념을 도시하는 도면.
도 42는 셋톱 박스(3D 대응 기기)에서의 2D 스트림 및 3D 확장 스트림의 추출 처리를 개략적으로 도시하는 도면.
도 43은 셋톱 박스 및 텔레비전 수신기가 레거시 2D 대응 기기인 경우의 방송 수신 개념을 도시하는 도면.
도 44는 셋톱 박스(2D 대응 기기)에서의 2D 스트림만의 추출 처리를 개략적으로 도시하는 도면.
도 45는 수신기가 레거시의 2D 대응 기기(2D Receiver)인 경우 및 3D 대응 기기(3D Receiver)인 경우의 방송 수신 개념을 정리하여 도시하는 도면.
도 46은 화상상에서의 자막(그래픽스 정보)의 표시례와, 배경, 근경 오브젝트, 자막의 원근감을 도시하는 도면.
도 47은 화상상에서의 자막의 표시례와, 자막을 표시하기 위한 좌안 자막(LGI) 및 우안 자막(RGI)을 도시하는 도면.
도 48은 화상 송수신 시스템을 구성하는 셋톱 박스의 구성례를 도시하는 블록도.
도 49는 셋톱 박스를 구성하는 비트 스트림 처리부의 구성례(3D 대응)를 도시하는 블록도.
도 50은 2D 스트림, 3D 확장 스트림을 관련짓기 위해 사용할 수 있는 멀티·디코딩·디스크립터의 구조례(syntax)를 도시하는 도면.
도 51은 멀티·디코딩·디스크립터의 구조례에서의 주요한 정보의 내용(Semantics)을 도시하는 도면.
도 52는 멀티·디코딩·디스크립터를 배치한 경우에 있어서의, 트랜스포트 스트림(TS)의 구성례를 도시하는 도면.
도 53은 셋톱 박스를 구성하는 비트 스트림 처리부의 다른 구성례(2D 대응)를 도시하는 블록도.
도 54는 화상 송수신 시스템을 구성하는 텔레비전 수신기의 구성례를 도시하는 블록도.
도 55는 3D 확장 스트림에 포함되는 시차정보를 앤실러리·페이지(ancillary_page)로서 운용하는 경우에 있어서의 트랜스포트 스트림(TS)의 구성례를 도시하는 도면.
도 56은 트랜스포트 스트림에 삽입되어 있는 서브타이틀·디스크립터(Subtitling_descriptor) 및 컴포넌트·디스크립터(Component_descriptor)를 취출하여 도시한 도면.
도 57은 트랜스포트 스트림에 삽입되어 있는 PES 스트림(2D 스트림, 3D 확장 스트림)을 취출하여 도시한 도면.
도 58은 3D 확장 스트림에 포함되는 시차정보를 앤실러리·페이지(ancillary_page)로서 운용하는 경우에 있어서의 서브타이틀 데이터 스트림(2D 스트림 및 3D 확장 스트림)의 스트림 구성례를 도시하는 도면.
도 59는 3D 대응 기기에 있어서의 2D 스트림 및 3D 확장 스트림의 추출 처리를 개략적으로 도시하는 도면.
도 60은 2D 대응 기기에 있어서의 2D 스트림만의 추출 처리를 개략적으로 도시하는 도면.
도 61은 화상 송수신 시스템을 구성하는 셋톱 박스의 다른 구성례를 도시하는 블록도.
도 62는 화상 송수신 시스템을 구성하는 텔레비전 수신기의 다른 구성례를 도시하는 블록도.
도 63은 화상 송수신 시스템의 다른 구성례를 도시하는 블록도.
도 64는 양안 시차를 이용한 입체화상 표시에서, 스크린상에서의 오브젝트의 좌우상의 표시 위치와, 그 입체상의 재생 위치와의 관계를 설명하기 위한 도면.
이하, 발명을 실시하기 위한 형태(이하, 「실시의 형태」라고 한다)에 관해 설명한다. 또한, 설명을 이하의 순서로 행한다.
1. 실시의 형태
2. 변형례
<1. 실시의 형태>
[화상 송수신 시스템의 구성례]
도 1은, 실시의 형태로서의 화상 송수신 시스템(10)의 구성례를 도시하고 있다. 이 화상 송수신 시스템(10)은, 방송국(100)과, 셋톱 박스(STB)(200)와, 텔레비전 수신기(TV)(300)를 갖고 있다.
셋톱 박스(200) 및 텔레비전 수신기(300)는, HDMI(High Definition Multimedia Interface)의 디지털 인터페이스로 접속되어 있다. 셋톱 박스(200) 및 텔레비전 수신기(300)는, HDMI 케이블(400)을 이용하여 접속되어 있다. 셋톱 박스(200)에는, HDMI 단자(202)가 마련되어 있다. 텔레비전 수신기(300)에는, HDMI 단자(302)가 마련되어 있다. HDMI 케이블(400)의 일단은 셋톱 박스(200)의 HDMI 단자(202)에 접속되고, 이 HDMI 케이블(400)의 타단은 텔레비전 수신기(300)의 HDMI 단자(302)에 접속되어 있다.
[방송국의 설명]
방송국(100)은, 트랜스포트 스트림(TS)을, 방송파에 실어서 송신한다. 방송국(100)은, 트랜스포트 스트림(TS)을 생성하는 송신 데이터 생성부(110)를 구비하고 있다. 이 트랜스포트 스트림(TS)에는, 입체화상 데이터, 음성 데이터, 중첩정보의 데이터, 시차정보 등이 포함된다. 입체화상 데이터는 소정의 전송 포맷을 가지며, 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 갖고 있다. 중첩정보는, 일반적으로는, 자막, 그래픽스 정보, 텍스트 정보 등이지만, 이 실시의 형태에서는 서브타이틀(자막)이다.
「송신 데이터 생성부의 구성례」
도 2는, 방송국(100)에서의 송신 데이터 생성부(110)의 구성례를 도시하고 있다. 이 송신 데이터 생성부(110)는, 기존의 방송 규격의 하나인 DVB(Digital Video Broadcasting) 방식에 용이하게 연휴할 수 있는 데이터 구조로 시차정보(시차벡터)를 송신한다. 이 송신 데이터 생성부(110)는, 데이터 취출부(111)와, 비디오 인코더(112)와, 오디오 인코더(113)를 갖고 있다. 또한, 이 송신 데이터 생성부(110)는, 서브타이틀 발생부(114)와, 시차정보 작성부(115)와, 서브타이틀 처리부(116)와, 서브타이틀 인코더(118)와, 멀티플렉서(119)를 갖고 있다.
데이터 취출부(111)에는, 데이터 기록 매체(111a)가, 예를 들면, 착탈 자유롭게 장착된다. 이 데이터 기록 매체(111a)에는, 좌안화상 데이터 및 우안화상 데이터를 포함하는 입체화상 데이터와 함께, 음성 데이터, 시차정보가 대응지어져서 기록되어 있다. 데이터 취출부(111)는, 데이터 기록 매체(111a)로부터, 입체화상 데이터, 음성 데이터, 시차정보 등을 취출하여 출력한다. 데이터 기록 매체(111a)는, 디스크형상 기록 매체, 반도체 메모리 등이다.
데이터 기록 매체(111a)에 기록되어 있는 입체화상 데이터는, 소정의 전송 방식의 입체화상 데이터이다. 입체화상 데이터(3D 화상 데이터)의 전송 방식의 한 예를 설명한다. 여기서는, 이하의 제1 내지 제3의 전송 방식을 들지만, 이들 이외의 전송 방식이라도 좋다. 또한, 여기서는, 도 3에 도시하는 바와 같이, 좌안(L) 및 우안(R)의 화상 데이터가, 각각, 결정된 해상도, 예를 들면, 1920×1080의 픽셀 포맷의 화상 데이터인 경우를 예로 들어 설명한다.
제1의 전송 방식은, 톱·앤드·보텀(Top & Bottom) 방식으로, 도 4(a)에 도시하는 바와 같이, 수직 방향의 전반에서는 좌안화상 데이터의 각 라인의 데이터를 전송하고, 수직 방향의 후반에서는 좌안화상 데이터의 각 라인의 데이터를 전송하는 방식이다. 이 경우, 좌안화상 데이터 및 우안화상 데이터의 라인이 1/2로 솎아 내어지기 때문에 원신호에 대해 수직 해상도는 반분이 된다.
제2의 전송 방식은, 사이드·바이·사이드(Side By Side) 방식으로, 도 4(b)에 도시하는 바와 같이, 수평 방향의 전반에서는 좌안화상 데이터의 픽셀 데이터를 전송하고, 수평 방향의 후반에서는 우안화상 데이터의 픽셀 데이터를 전송하는 방식이다. 이 경우, 좌안화상 데이터 및 우안화상 데이터는, 각각, 수평 방향의 픽셀 데이터가 1/2로 솎아 내어진다. 원신호에 대해, 수평 해상도는 반분이 된다.
제3의 전송 방식은, 프레임·시퀀셜(Frame Sequential) 방식, 또는, L/R 노인터리빙(L/RNo interleaving)으로, 도 4(c)에 도시하는 바와 같이, 좌안화상 데이터와 우안화상 데이터를 프레임마다 순차적으로 전환하여 전송하는 방식이다. 또한, 이 방식은, 풀·프레임(Full Frame) 방식, 또는 종래의 2D 포맷에 대한 서비스 컴패터블(service compatible) 방식도 포함한다.
또한, 데이터 기록 매체(111a)에 기록되어 있는 시차정보는, 예를 들면, 화상을 구성하는 픽셀(화소)마다의 시차벡터이다. 시차벡터의 검출례에 관해 설명한다. 여기서는, 좌안화상에 대한 우안화상의 시차벡터를 검출하는 예에 관해 설명한다. 도 5에 도시하는 바와 같이, 좌안화상을 검출 화상으로 하고, 우안화상을 참조 화상으로 한다. 이 예에서는, (xi, yi) 및 (xj, yj)의 위치에서의 시차벡터가 검출된다.
(xi, yi)의 위치에서의 시차벡터를 검출하는 경우를 예로 들어 설명한다. 이 경우, 좌안화상에, (xi, yi)의 위치의 화소를 좌상으로 하는, 예를 들면 4×4, 8×8 또는 16×16의 화소 블록(시차 검출 블록)(Bi)이 설정된다. 그리고, 우안화상에서, 화소 블록(Bi)과 매칭하는 화소 블록이 탐색된다.
이 경우, 우안화상에, (xi, yi)의 위치를 중심으로 하는 탐색 범위가 설정되고, 그 탐색 범위 내의 각 픽셀을 순차적으로 주목 픽셀로 하여, 상술한 화소 블록(Bi)과 같은 예를 들면 4×4, 8×8 또는 16×16의 비교 블록이 순차적으로 설정되어 간다.
픽셀 블록(Bi)과 순차적으로 설정되는 비교 블록과의 사이에서, 대응하는 화소마다의 차분 절대치의 총합이 구하여진다. 여기서, 도 6에 도시하는 바와 같이, 화소 블록(Bi)의 화소치를 L(x, y)로 하고, 비교 블록의 화소치를 R(x, y)로 할 때, 화소 블록(Bi)과, 어느 비교 블록과의 사이에서의 차분 절대치의 총합은, Σ|L(x, y)-R(x, y)|로 표시된다.
우안화상에 설정되는 탐색 범위에 n개의 화소가 포함되어 있을 때, 최종적으로 n개의 총합(S1 내지 Sn)이 구하여지고, 그 중에서 최소의 총합(Smin)이 선택된다. 그리고, 이 총합(Smin)이 얻어진 비교 블록으로부터 좌상의 화소의 위치가 (xi', yi')가 얻어진다. 이에 의해, (xi, yi)의 위치에서의 시차벡터는, (xi'-xi, yi'-yi)와 같이 검출된다. 상세 설명은 생략하지만, (xj, yj)의 위치에서의 시차벡터에 대해서도, 좌안화상에, (xj, yj)의 위치의 화소를 좌상(左上)으로 하는, 예를 들면 4×4, 8×8 또는 16×16의 화소 블록(Bj)이 설정되고, 마찬가지 처리 과정으로 검출된다.
비디오 인코더(112)는, 데이터 취출부(111)로부터 취출된 입체화상 데이터에 대해, MPEG4-AVC, MPEG2, VC-1 등의 부호화를 시행하고, 비디오 데이터 스트림(비디오 엘리멘터리 스트림)을 생성한다. 오디오 인코더(113)는, 데이터 취출부(111)로부터 취출된 음성 데이터에 대해, AC3, AAC 등의 부호화를 시행하고, 오디오 데이터 스트림(오디오 엘리멘터리 스트림)을 생성한다.
서브타이틀 발생부(114)는, DVB(Digital Video Broadcasting) 방식의 자막 데이터인 서브타이틀 데이터를 발생한다. 이 서브타이틀 데이터는, 2차원 화상용의 서브타이틀 데이터이다. 이 서브타이틀 발생부(114)는, 중첩정보 데이터 출력부를 구성하고 있다.
시차정보 작성부(115)는, 데이터 취출부(111)로부터 취출된 픽셀(화소)마다의, 또는 복수의 픽셀에 대한 시차벡터(수평 방향 시차벡터)에 대해, 다운사이징 처리를 시행하고, 이하에 나타내는 바와 같이, 각 계층의 시차정보를 생성한다. 또한, 시차정보는 반드시 시차정보 작성부(115)에서 생성될 필요는 없고, 외부로부터 별도 공급되는 구성도 가능하다.
도 7은, 각 픽셀(화소)의 휘도치와 같이 하여 주어지는 상대적인 깊이 방향의 데이터의 예를 도시하고 있다. 여기서, 상대적인 깊이 방향의 데이터는 소정의 변환에 의해 화소마다의 시차벡터로서 취급하는 것이 가능해진다. 이 예에서, 인물 부분의 휘도치는 높게 되어 있다. 이것은, 인물 부분의 시차벡터의 값이 큰 것을 의미하고, 따라서 입체화상 표시에서는, 이 인물 부분이 도드라진 상태로 지각되는 것을 의미하고 있다. 또한, 이 예에서, 배경 부분의 휘도치는 낮게 되어 있다. 이것은, 배경 부분의 시차벡터의 값이 작은 것을 의미하고, 따라서 입체화상 표시에서는, 이 배경 부분이 잠긴 상태로 지각되는 것을 의미하고 있다.
도 8은, 블록(Block)마다의 시차벡터의 한 예를 도시하고 있다. 블록은, 최하층에 위치하는 픽셀(화소)의 상위층에 해당한다. 이 블록은, 화상(픽처) 영역이, 수평 방향 및 수직 방향으로 소정의 크기로 분할됨으로써 구성된다. 각 블록의 시차벡터는, 예를 들면, 그 블록 내에 존재하는 전 픽셀(화소)의 시차벡터로부터, 가장 값의 큰 시차벡터가 선택됨으로써 얻어진다. 이 예에서는, 각 블록의 시차벡터를 화살표로 나타내고 있고, 화살표의 길이가 시차벡터의 크기에 대응하고 있다.
도 9는, 시차정보 작성부(115)에서 행하여지는 다운사이징 처리의 한 예를 도시하고 있다. 최초에, 시차정보 작성부(115)는, 도 9(a)에 도시하는 바와 같이, 픽셀(화소)마다의 시차벡터를 이용하여, 블록마다의 부호 부착 시차벡터를 구한다. 상술한 바와 같이, 블록은, 최하층에 위치하는 픽셀(화소)의 상위층에 해당하고, 화상(픽처) 영역이 수평 방향 및 수직 방향으로 소정의 크기로 분할됨으로써 구성된다. 그리고, 각 블록의 시차벡터는, 예를 들면, 그 블록 내에 존재하는 전 픽셀(화소)의 시차벡터로부터, 가장 값이 작은, 또는 가장 절대치가 큰 부의 값을 갖는 시차벡터가 선택됨으로써 얻어진다.
다음에, 시차정보 작성부(115)는, 도 9(b)에 도시하는 바와 같이, 블록마다의 시차벡터를 이용하여, 그룹(Group Of Block)마다의 시차벡터를 구한다. 그룹은, 블록의 상위층에 해당하고, 복수개의 근접하는 블록을 정리하여 그룹화함으로써 얻어진다. 도 9(b)의 예에서는, 각 그룹은, 파선테두리로 묶여지는 4개의 블록에 의해 구성되어 있다. 그리고, 각 그룹의 시차벡터는, 예를 들면, 그 그룹 내의 전 블록의 시차벡터로부터, 가장 값이 작은, 또는 가장 절대치가 큰 부의 값을 갖는 시차벡터가 선택됨으로써 얻어진다.
다음에, 시차정보 작성부(115)는, 도 9(c)에 도시하는 바와 같이, 그룹마다의 시차벡터를 이용하여, 파티션(Partition)마다의 시차벡터를 구한다. 파티션은, 그룹의 상위층에 해당하고, 복수개의 근접하는 그룹을 정리하여 그룹화함으로써 얻어진다. 도 9(c)의 예에서는, 각 파티션은, 파선테두리로 묶여지는 2개의 그룹에 의해 구성되어 있다. 그리고, 각 파티션의 시차벡터는, 예를 들면, 그 파티션 내의 전 그룹의 시차벡터로부터, 가장 값이 작은, 또는 가장 절대치가 큰 부의 값을 갖는 시차벡터가 선택됨으로써 얻어진다.
다음에, 시차정보 작성부(115)는, 도 9(d)에 도시하는 바와 같이, 파티션마다의 시차벡터를 이용하여, 최상위층에 위치하는 화상 전체(화상 전체)의 시차벡터를 구한다. 도 9(d)의 예에서는, 화상 전체에는, 파선테두리로 묶여지는 4개의 파티션이 포함되어 있다. 그리고, 화상 전체의 시차벡터는, 예를 들면, 화상 전체에 포함되는 전 파티션의 시차벡터로부터, 가장 값이 작은, 또는 가장 절대치가 큰 부의 값을 갖는 시차벡터가 선택됨으로써 얻어진다.
이와 같이 하여, 시차정보 작성부(115)는, 최하층에 위치하는 픽셀(화소)마다의 시차벡터에 다운사이징 처리를 시행하여, 블록, 그룹, 파티션, 화상 전체의 각 계층의 각 영역의 시차벡터를 구할 수 있다. 또한, 도 9에 도시하는 다운사이징 처리의 한 예에서는, 최종적으로, 픽셀(화소)의 계층 외에, 블록, 그룹, 파티션, 화상 전체의 4계층의 시차벡터를 구하고 있다. 그러나, 계층수 및 각 계층의 영역의 자르는 방식이나 영역의 수는 이것으로 한정되는 것이 아니다.
도 2로 되돌아와, 서브타이틀 처리부(116)는, 서브타이틀 발생부(114)에서 발생된 서브타이틀 데이터에 의거하여, 리전 내에 서브리전의 영역을 정의할 수 있다. 또한, 서브타이틀 처리부(116)는, 시차정보 작성부(115)에서 작성된 시차정보에 의거하여, 좌안화상 및 우안화상에서의 중첩정보의 표시 위치를 시프트 조정하기 위한 시차정보를 설정한다. 이 시차정보는, 서브리전 또는 리전마다, 또는 페이지마다 설정 가능하게 되어 있다.
도 10(a)는, 서브타이틀 데이터에 있어서, 화면상에 정의되는 리전과, 이 리전 내에 정의되는 서브리전의 한 예를 도시하고 있다. 이 예에서는, 「Region_Starting Position」이 R0인 리전(0)(Region0)에, 「SubRegion 1」, 「SubRegion 2」의 2개의 서브리전이 정의되어 있다. 「SubRegion 1」의 수평 방향 위치(Horizontal Position)(x)는 SR1이고, 「SubRegion 2」의 수평 방향 위치(Horizontal Position)(x)는 SR2이다. 그리고, 이 예에서는, 서브리전 「SubRegion 1」에 대해 시차정보「Disparity 1」가 설정되고, 서브리전 「SubRegion 2」에 대해 시차정보「disparity 2」가 설정된다.
도 10(b)는, 시차정보에 의한 좌안화상에서의 서브리전 영역 내의 시프트 조정례를 도시하고 있다. 서브리전 「SubRegion 1」에 대해 시차정보「Disparity 1」가 설정되어 있다. 그 때문에, 서브리전 「SubRegion 1」에 관해서는, 수평 방향 위치(Horizontal Position)(x)가 SR1-disparity 1이 되도록 시프트 조정된다. 또한, 서브리전 「SubRegion(2)」에 대해 시차정보「disparity 2」가 설정되어 있다. 그 때문에, 서브리전 「SubRegion 2」에 관해서는, 수평 방향 위치(Horizontal Position)(x)가 SR2-disparity 2가 되도록 시프트 조정된다.
도 10(c)는, 시차정보에 의한 우안화상에서의 서브리전 영역 내의 시프트 조정례를 도시하고 있다. 서브리전 「SubRegion 1」에 대해 시차정보「Disparity 1」가 설정되어 있다. 그 때문에, 서브리전 「SubRegion 1」에 관해서는, 상술한 좌안화상과는 역방향으로, 수평 방향 위치(HorizontalPosition)(x)가 SR1+disparity 1이 되도록 시프트 조정된다. 또한, 서브리전 「SubRegion 2」에 대해 시차정보「disparity 2」가 설정되어 있다. 그 때문에, 서브리전 「SubRegion 2」에 관해서는, 상술한 좌안화상과는 역방향으로, 수평 방향 위치(HorizontalPosition)(x)가 SR2+disparity 2가 되도록 시프트 조정된다.
서브타이틀 처리부(116)는, 서브타이틀 발생부(114)에서 발생된 서브타이틀 데이터와 함께, 상술한 서브리전 영역의 영역 정보, 시차정보 등의 표시 제어 정보를 출력한다. 또한, 시차정보에 관해서는, 상술한 바와 같이 서브리전 단위로 설정할 수 있는 외에, 리전 단위, 또는 페이지 단위로도 설정할 수 있다.
서브타이틀 데이터는, DDS, PCS, RCS, CDS, ODS, EDS 등의 세그먼트를 갖는다. DDS(display definition segment)는, HDTV용의 표시(display) 사이즈를 지정한다. PCS(page composition segment)는, 페이지(page) 내의 리전(Region) 위치를 지정한다. RCS(region compositionsegment)는, 리전(Region)의 크기나 오브젝트(object)의 부호화 모드를 지정하고, 또한, 오브젝트(object)의 시작 위치를 지정한다.
CDS(CLUT definition segment)는, CLUT 내용의 지정을 한다. ODS(objectdata segment)는, 부호화 픽셀 데이터(Pixeldata)를 포함한다. EDS(end of display set segment)는, DDS의 세그먼트로부터 시작되는 서브타이틀 데이터의 종료를 나타낸다. 이 실시의 형태에서는, DSS(Display Signaling Segment)의 세그먼트가 또한 정의된다. 이 DSS의 세그먼트에, 상술한 표시 제어 정보가 삽입된다.
도 2로 되돌아와, 서브타이틀 인코더(118)는, 제1 및 제2의 프라이빗 데이터 스트림(제1 및 제2의 서브타이틀 데이터 스트림)을 생성한다. 즉, 서브타이틀 인코더(118)는, DDS, PCS, RCS, CDS, ODS, EDS의 세그먼트를 포함하는 제1의 프라이빗 데이터 스트림(2D 스트림)을 생성한다. 또한, 서브타이틀 인코더(118)는, DDS, DSS, EDS의 세그먼트를 포함하는 제2의 프라이빗 데이터 스트림(3D 확장 스트림)을 생성한다.
멀티플렉서(119)는, 비디오 인코더(112), 오디오 인코더(113) 및 서브타이틀 인코더(118)로부터의 각 데이터 스트림을 다중화하고, 다중화 데이터 스트림으로서의 트랜스포트 스트림(TS)을 얻는다. 이 트랜스포트 스트림(TS)은, PES(Packetized Elementary Stream)의 스트림으로서, 비디오 데이터 스트림, 오디오 데이터 스트림, 제1 및 제2의 프라이빗 데이터 스트림을 갖는 것으로 된다.
도 11은, 트랜스포트 스트림(TS)이 갖는, 제1의 프라이빗 데이터 스트림(2D 스트림) 및 제2의 프라이빗 데이터 스트림(3D 확장 스트림)의 구성을 도시하고 있다. 도 11(a)는, 2D 스트림을 나타내고, 선두에 PES 헤더(PES Header)가 배치되고, 그에 계속해서, DDS, PCS, RCS, CDS, ODS, EDS의 각 세그먼트를 포함하는 PES 페이로드(PES Payload)가 배치되어 있다.
또한, 도 11(b)는, 3D 확장 스트림을 나타내고, 선두에 PES 헤더(PES Header)가 배치되고, 그에 계속해서, DDS, DSS, EDS의 각 세그먼트를 포함하는 PES 페이로드(PES Payload)가 배치되어 있다. 또한, 이 3D 확장 스트림은, 도 11(c)에 도시하는 바와 같이, PES 페이로드(PES Payload)에 DDS, PCS, DSS, EDS의 각 세그먼트를 포함하는 구성이라도 좋다. 그 경우, PCS의 PAGE STATE는 NORMAL CASE가 되고, 중첩 데이터(bitmap)에는 변화가 없는 것을 나타낸다.
여기서, 2D 스트림 및 3D 확장 스트림에 포함되는 각 세그먼트의 페이지 ID(page_id)는 동일하게 된다. 이에 의해, 수신측의 3D 대응의 수신 장치에서는, 이 페이지 ID에 의거하여, 2D 스트림의 세그먼트와 3D 확장 스트림의 세그먼트를 결합하는 것이 용이해진다.
멀티플렉서(119)는, 2D 스트림 및 3D 확장 스트림에, 수신측에서 중첩정보의 데이터에 의한 표시와 시차정보(Disparity)에 의한 시프트 제어를 동기시키기 위한 동기 정보를 포함한다. 구체적으로는, 멀티플렉서(119)는, 도 12에 도시하는 바와 같이, 2D 스트림(PES1(1) : PES#1)과 3D 확장 스트림(PES2(2) : PES#2)의 PES 헤더에 삽입되는 타임 스탬프(PTS : Presentation Time Stamp)의 값이 관련지어진 것으로 한다.
도 12는, 2D 스트림과 3D 확장 스트림의 타임 스탬프(PTS)의 값이 같은 값, 즉 PTS1로 설정되는 예를 도시하고 있다. 이 경우, 수신측(디코드측)에서는, 서브타이틀 데이터(중첩정보의 데이터)에 의한 자막 패턴의 표시가 PTS1로부터 시작되고, 자막 패턴을 3D 표시로 하기 위한 시차정보에 의한 시프트 제어도 PTS1로부터 시작된다.
또한, 도 12의 예에서, 3D 확장 스트림에는, PTS1의 프레임의 시차정보와, 그 후의 소정 프레임의 시차정보의 2개의 시차정보가 포함되어 있는 것을 나타내고 있다. 수신측(디코드측)에서는, 그들 2개의 프레임 사이의 임의의 프레임의 시차정보를 보간 처리로 구하여 시프트 제어를 다이내믹하게 행할 수 있는 것이 나타나 있다.
또한, 도 12에서, 2D 스트림에 포함되는 "Conventional Segments"는, DDS, PCS, RCS, CDS, ODS, EDS의 각 세그먼트를 의미하고 있다. 또한, 3D 확장 스트림에 포함되는 "Extended Segments"는, DDS, DSS, EDS의 각 세그먼트, 또는 DDS, PCS, DSS, EDS의 각 세그먼트를 의미하고 있다. 또한, 도 12에서, 2D 스트림의 "Elementary_PID"는 ID1이고, 3D 확장 스트림의 "Elementary_PID"는 ID2이다. 이것은, 이하의 도 13, 도 14에서도 마찬가지이다.
도 13은, 2D 스트림과 3D 확장 스트림의 타임 스탬프(PTS)의 값이 다른 값으로 설정되는 예를 도시하고 있다. 즉, 도 12의 예에서는, 2D 스트림의 타임 스탬프(PTS)의 값은 PTS1로 설정되고, 3D 확장 스트림의 타임 스탬프(PTS)의 값은 PTS1보다 후의 PTS2로 설정되는 예를 도시하고 있다. 이 경우, 수신측(디코드측)에서는, 서브타이틀 데이터(중첩정보의 데이터)에 의한 자막 패턴의 표시가 PTS1로부터 시작되고, 자막 패턴을 3D 표시로 하기 위한 시차정보에 의한 시프트 제어가 PTS2로부터 시작된다.
또한, 도 13의 예에서, 3D 확장 스트림에는, PTS2의 프레임의 시차정보와, 그 후의 복수의 프레임의 시차정보가 포함되어 있는 것을 나타내고 있다. 수신측(디코드측)에서는, 그들 복수의 프레임 사이의 임의의 프레임의 시차정보를 보간 처리로 구하여 시프트 제어를 다이내믹하게 행할 수 있는 것이 나타나 있다.
도 14는, 도 13과 마찬가지로, 2D 스트림과 3D 확장 스트림의 타임 스탬프(PTS)의 값이 다른 값으로 설정되는 예이고, 게다가, 타임 스탬프(PTS)의 값이 다른 3D 확장 스트림이 복수개 존재하는 예를 도시하고 있다. 즉, 도 14의 예에서는, 2D 스트림의 타임 스탬프(PTS)의 값은 PTS1로 설정되어 있다. 또한, 복수의 3D 확장 프레임의 타입 스탬프(PTS)의 값은, PTS1보다 후의 PTS2, PTS3, PTS4, …로 설정되어 있다.
이 경우, 수신측(디코드측)에서는, 서브타이틀 데이터(중첩정보의 데이터)에 의한 자막 패턴의 표시가 PTS1로부터 시작된다. 또한, 자막 패턴을 3D 표시로 하기 위한 시차정보에 의한 시프트 제어가 PTS2로부터 시작되고, 그 후에 순차적으로 갱신된다. 또한, 도 14의 예에서, 복수개의 3D 확장 스트림에는 각각 타입 스탬프로 나타나는 프레임의 시차정보만이 포함되어 있고, 수신측(디코드측)에서는, 그들 복수의 프레임 사이의 임의의 프레임의 시차정보를 보간 처리로 구하여 시프트 제어를 다이내믹하게 행할 수 있는 것이 나타나 있다.
도 2에 도시하는 송신 데이터 생성부(110)의 동작을 간단히 설명한다. 데이터 취출부(111)로부터 취출된 입체화상 데이터는, 비디오 인코더(112)에 공급된다. 이 비디오 인코더(112)에서는, 그 입체화상 데이터에 대해 MPEG4-AVC, MPEG2, VC-1 등의 부호화가 시행되어, 부호화 비디오 데이터를 포함하는 비디오 데이터 스트림이 생성된다. 이 비디오 데이터 스트림은 멀티플렉서(119)에 공급된다.
데이터 취출부(111)에서 취출된 음성 데이터는 오디오 인코더(113)에 공급된다. 이 오디오 인코더(113)에서는, 음성 데이터에 대해, MPEG-2Audio AAC, 또는, MPEG-4 AAC 등의 부호화가 시행되어, 부호화 오디오 데이터를 포함하는 오디오 데이터 스트림이 생성된다. 이 오디오 데이터 스트림은 멀티플렉서(119)에 공급된다.
서브타이틀 발생부(114)에서는, DVB의 자막 데이터인 서브타이틀 데이터(2차원 화상용)가 발생된다. 이 서브타이틀 데이터는, 시차정보 작성부(115) 및 서브타이틀 처리부(116)에 공급된다.
데이터 취출부(111)로부터 취출된 픽셀(화소)마다의 시차벡터는, 시차정보 작성부(115)에 공급된다. 이 시차정보 작성부(115)에서는, 픽셀마다의, 또는 복수의 픽셀에 대한 시차벡터에 대해 다운사이징 처리가 시행되어, 각 계층의 시차정보(disparity)가 작성된다. 이 시차정보는, 서브타이틀 처리부(116)에 공급된다.
서브타이틀 처리부(116)에서는, 서브타이틀 발생부(114)에서 발생된 서브타이틀 데이터에 의거하여, 예를 들면, 리전 내에 서브리전의 영역이 정의된다. 또한, 서브타이틀 처리부(116)에서는, 시차정보 작성부(115)에서 작성된 시차정보에 의거하여, 좌안화상 및 우안화상에서의 중첩정보의 표시 위치를 시프트 조정하기 위한 시차정보가 설정된다. 이 경우, 시차정보는, 서브리전 또는 리전마다, 또는 페이지마다 설정된다.
서브타이틀 처리부(116)로부터 출력되는 서브타이틀 데이터 및 표시 제어 정보는, 서브타이틀 인코더(118)에 공급된다. 표시 제어 정보에는, 서브리전 영역의 영역 정보, 시차정보 등이 포함되어 있다. 이 서브타이틀 인코더(118)에서는, 제1 및 제2의 프라이빗 데이터 스트림(엘리멘터리 스트림)이 생성된다.
즉, DDS, PCS, RCS, CDS, ODS, EDS의 각 세그먼트를 포함하는 제1의 프라이빗 데이터 스트림(2D 스트림)이 생성된다. 또한, DDS, DSS, EDS의 각 세그먼트를 포함하는 제2의 프라이빗 데이터 스트림(3D 확장 스트림)이 생성된다. 상술한 바와 같이, DSS의 세그먼트는, 표시 제어 정보를 포함하는 세그먼트이다.
멀티플렉서(119)에는, 상술한 바와 같이, 비디오 인코더(112), 오디오 인코더(113) 및 서브타이틀 인코더(118)로부터의 각 데이터 스트림이 공급된다. 그리고, 이 멀티플렉서(119)에서는, 각 데이터 스트림이 PES 패킷화되어 다중되고, 다중화 데이터 스트림으로서의 트랜스포트 스트림(TS)이 얻어진다. 이 트랜스포트 스트림(TS)은, PES 스트림으로서, 비디오 데이터 스트림, 오디오 데이터 스트림 외에, 제1 및 제2의 프라이빗 데이터 스트림(제1 및 제2의 서브타이틀 데이터 스트림)을 갖는 것으로 된다.
도 15는, 트랜스포트 스트림(TS)의 구성례를 도시하고 있다. 또한, 이 도면에서는, 도면의 간단화를 위해, 비디오 및 오디오에 관계되는 부분의 도시를 생략하고 있다. 이 트랜스포트 스트림(TS)에는, 각 엘리멘터리 스트림을 패킷화하여 얻어진 PES 패킷이 포함되어 있다.
이 구성례에서는, 2D 스트림(제1의 프라이빗 데이터 스트림)의 PES 패킷「Subtitle PES1」과, 3D 확장 스트림(제2의 프라이빗 데이터 스트림)의 PES 패킷「Subtitle PES2」이 포함되어 있다. 2D 스트림(PES 스트림)에는, DDS, PCS, RCS, CDS, ODS, EDS의 각 세그먼트가 포함되어 있다. 3D 확장 스트림(PES 스트림)에는, DDS, DSS, EDS의 각 세그먼트가 포함되어 있다. 이 경우, 2D 스트림, 3D 확장 스트림의 "Elementary_PID"가 PID1, PID2와 같이 다르도록 설정되어, 이들의 스트림이 다른 PES 스트림인 것이 나타난다.
도 16은, PCS(page_composition_segment)의 구조를 도시하고 있다. 이 PCS의 세그먼트 타입은, 도 17에 도시하는 바와 같이, 「0x10」이다. 「region_horizontal_address」, 「region_vertical_address」는, 리전(Region)의 시작 위치를 나타낸다. 또한, DDS, RCS, ODS 등의 그 밖의 세그먼트에 관해서는, 그 구조의 도시는 생략한다. 도 17에 도시하는 바와 같이, DDS의 세그먼트 타입은 「0x14」이고, RCS의 세그먼트 타입은 「0x11」이고, CDS의 세그먼트 타입은 「0x12」이고, ODS의 세그먼트 타입은 「0x13」이고, EDS의 세그먼트 타입은 「0x80」이다. 또한, 도 17에 도시하는 바와 같이, DSS의 세그먼트 타입은, 「0x15」이다. 이 DSS의 세그먼트의 상세 구조에 관해서는, 후술한다.
도 15로 되돌아와, 또한, 트랜스포트 스트림(TS)에는, PSI(Program Specific Information)로서, PMT(ProgramMap Table)가 포함되어 있다. 이 PSI는, 트랜스포트 스트림에 포함되는 각 엘리멘터리 스트림이 어느 프로그램에 속하고 있는지를 기록한 정보이다. 또한, 트랜스포트 스트림에는, 이벤트 단위의 관리를 행하는 SI(Serviced Information)로서의 EIT(EventInformation Table)가 포함되어 있다. 이 EIT에는, 방송프로그램 단위의 메타 데이터가 기재된다.
PMT의 배하(配下)에, 서브타이틀의 내용을 나타내는 서브타이틀·디스크립터(Subtitling_descriptor)가 삽입되어 있다. 또한, EIT의 배하에, 스트림마다, 배신 내용을 나타내는 컴포넌트·디스크립터(Component_descriptor)가 삽입되어 있다. 도 18에 도시하는 바와 같이, 컴포넌트·디스크립터의 "stream_content"가 서브타이틀(subtitle)을 나타내는 경우, "component_type"이 「0x15」 또는 「0x25」인 때는 3D용 서브타이틀을 나타내고, 그 밖의 값일 때는 2D용 서브타이틀을 나타낸다. 도 15에 도시하는 바와 같이, 서브타이틀·디스크립터의 "subtitling_type"은, "component_type"과 같은 값으로 설정된다.
또한, PMT에는, 서브타이틀 엘리멘터리 스트림에 관련된 정보를 갖는 서브타이틀 엘리멘터리·루프가 존재한다. 이 서브타이틀 엘리멘터리·루프에는, 스트림마다, 패킷 식별자(PID) 등의 정보가 배치됨과 함께, 도시하지 않지만, 그 엘리멘터리 스트림에 관련되는 정보를 기술하는 기술자(디스크립터)도 배치된다.
도 19는, 도 15에 도시되어 있는 서브타이틀·디스크립터(Subtitling_descriptor) 및 컴포넌트·디스크립터(Component_descriptor)를 취출하여 도시하고 있다. 또한, 도 20은, 도 15에 도시되어 있는 PES 스트림(2D 스트림, 3D 확장 스트림)을 취출하여 도시하고 있다.
3D 확장 스트림에 포함되는 각 세그먼트가 2D 스트림의 각 세그먼트에 관련되는 것을 나타내도록, 서브타이틀·디스크립터의 컴포지션·페이지 ID "composition_page_id"가 설정된다. 즉, 3D 확장 스트림과 2D 스트림에서, 이 "composition_page_id"는, 같은 값(도시에서는 「0xXXXX」)을 공유하도록 설정된다. 또한, 3D 확장 스트림에 포함되는 각 세그먼트가 2D 스트림의 각 세그먼트에 관련되는 것을 나타내도록, 쌍방의 PES 스트림에서, 관련되는 각 세그먼트의 "page_id"가 같은 값을 갖도록 인코드된다.
서브타이틀·디스크립터 및 컴포넌트·디스크립터에는, 언어 정보로서, 예를 들면, ISO 언어 코드(ISO_639_language_code)가 기술된다. 2D 스트림에 대응한 디스크립터의 ISO 언어 코드는, 서브타이틀(자막)의 언어를 나타내도록 설정된다. 도시한 예에서는, 영어를 나타내는 「eng」로 설정되어 있다. 3D 확장 스트림은, 시차정보를 갖는 DSS의 세그먼트를 갖지만, ODS의 세그먼트는 갖고 있지 않고, 따라서 언어에는 의존하지 않는다. 이 3D 확장 스트림에 대응한 디스크립터에 기술되는 ISO 언어 코드는, 예를 들면, 비언어를 나타내는 「zxx」로 설정된다.
또한, 비언어를 나타내는 ISO 언어 코드로서, ISO 언어 코드의 「qaa」부터 「qrz」의 공간에 포함되는 언어 코드의 어느 하나를 사용하는 것도 생각된다. 도 21은, 그 경우에 있어서의 서브타이틀·디스크립터(Subtitling_descriptor) 및 컴포넌트·디스크립터(Component_descriptor)를 나타내고 있다. 또한, 참고로서, 도 22에, ISO 언어 코드(ISO 639-2 Code) 리스트의 발췌를 도시한다.
도 23은, 서브타이틀 데이터 스트림(2D 스트림 및 3D 확장 스트림)의 스트림 구성례를 도시하고 있다. 이 예는, 영어 "eng"와 독일어 "ger"의 2개의 언어 서비스례이다. 3D 확장 스트림이, 각 언어의 서비스 중에, 「composition_page_id」로 받아들여지고 있고, 「subtitling_type=3D」, 「ISO_639_language_code=zxx」로 지정된다.
도 24는, 컴포넌트·디스크립터(Component_descriptor)의 구조례(syntax)를 도시하고 있다. 「descriptor_tag」의 8비트 필드는, 이 디스크립터가 컴포넌트·디스크립터인 것을 나타낸다. 「descriptor_length」의 8비트 필드는, 이 필드 이후의 전체의 바이트 사이즈를 나타낸다.
「stream_content」의 4비트 필드는, 메인의 스트림의 예를 들면 비디오, 오디오, 서브타이틀 등의 스트림 타입을 나타낸다. 「component_type」의 4비트 필드는, 메인의 스트림의 예를 들면 비디오, 오디오, 서브타이틀 등의 컴포넌트 타입을 나타낸다.
메인의 스트림이 2D 스트림인 경우, 즉 2D 스트림에 대응한 컴포넌트·디스크립터에서는, 「stream_content」는 서브타이틀 "subtitle"이 되고, 「component_type」은, 2차원용 "2D"가 된다. 또한, 메인의 스트림이 3D 확장 스트림인 경우, 즉 3D 확장 스트림에 대응한 컴포넌트·디스크립터에서는, 「stream_content」는 서브타이틀 "subtitle"이 되고, 「component_type」은, 3차원용 "3D"가 된다.
「component_tag」의 8비트 필드는, 메인의 스트림에 대응한 스트림·아이덴티파이어·디스크립터(stream_identifier descriptor) 내의 「component_tag」와 같은 값을 갖는다. 이에 의해, 스트림·아이덴티파이어·디스크립터와, 컴포넌트·디스크립터가, 「component_tag」로 관련지어진다. 「ISO_639_language_code」의 24비트 필드는, ISO 언어 코드를 나타낸다.
도 25는, 서브타이틀·디스크립터(Subtitling_descriptor)의 구조례(syntax)를 도시하고 있다. 「descriptor_tag」의 8비트 필드는, 이 디스크립터가 서브타이틀·디스크립터인 것을 나타낸다. 「descriptor_length」의 8비트 필드는, 이 필드 이후의 전체의 바이트 사이즈를 나타낸다.
「ISO_639_language_code」의 24비트 필드는, ISO 언어 코드를 나타낸다. 「subtitling_type」의 8비트 필드는, 서브타이틀 타입 정보를 나타낸다. 메인의 스트림이 2D 스트림인 경우, 즉 2D 스트림에 대응한 서브타이틀·디스크립터에서는, 「subtitling_type」은 "2D"가 된다. 한편, 메인의 스트림이 3D 확장 스트림인 경우, 즉 3D 확장 스트림에 대응한 서브타이틀·디스크립터에서는, 「subtitling_type」은 "3D"가 된다. 「composition_page_id」의 16비트 필드는, 컴포지션·페이지 ID를 나타내고, 메인의 스트림에 포함되는 세그먼트의 페이지 ID 「page_id」와 같은 값을 갖는다.
[시차정보의 갱신]
상술한 바와 같이, 3D 확장 스트림에 의해 시차정보가 송신된다. 이 시차정보의 갱신에 관해 설명한다.
도 26, 도 27은, 인터벌 기간(Interval period)을 이용한 시차정보의 갱신례를 도시하고 있다. 도 26은, 인터벌 기간(Interval period)이 고정이고, 게다가, 그 기간이 갱신 기간과 같은 경우를 나타내고 있다. 즉, A-B, B-C, C-D, …의 각 갱신 기간은, 1개의 인터벌 기간으로 이루어져 있다.
도 27은, 일반적인 것으로, 인터벌 기간(Interval period)을 단기간(예를 들면, 프레임 주기라도 좋다)으로 한 경우의, 시차정보의 갱신례를 도시하고 있다. 이 경우, 인터벌 기간의 개수는, 각 갱신 기간에서, M, N, P, Q, R이 된다. 또한, 도 26, 도 27에서, "A"는 자막 표시 기간의 시작 프레임(시작 시점)을 나타내고, "B" 내지 "F"는, 그 후의 갱신 프레임(갱신 시점)을 나타내고 있다.
자막 표시 기간 내에서 순차적으로 갱신되는 시차정보를 수신측(셋톱 박스(200) 등)에 보내는 경우, 수신측에서는, 갱신 기간마다의 시차정보에 보간 처리를 시행함으로써, 임의의 프레임 간격, 예를 들면, 1프레임 간격의 시차정보를 생성하여 사용하는 것이 가능하다.
도 28은, 3D 확장 스트림의 구성례를 도시하고 있다. 또한, 이 구성례에서는, PES 데이터 페이로드(PES data Payload)에 DDS, DSS, EDS의 각 세그먼트를 포함하는 경우를 나타내고 있지만, PES 데이터 페이로드에 DDS, PCS, DSS, EDS의 각 세그먼트를 포함하는 경우도 마찬가지이다.
도 28(a)는, DSS의 세그먼트가 1개만 삽입된 예를 도시하고 있다. PES 헤더에는, 시간 정보(PTS)가 포함되어 있다. 또한, PES 페이로드 데이터로서, DDS, DSS, EDS의 각 세그먼트가 포함되어 있다. 이들은, 서브타이틀 표시 기간의 시작 전에 일괄 송신된다. 이 1개의 DSS의 세그먼트에는, 자막 표시 기간에서 순차적으로 갱신되는 복수의 시차정보가 포함된다.
또한, 1개의 DSS에 자막 표시 기간에서 순차적으로 갱신되는 복수의 시차정보를 포함하지 않고, 이 복수의 시차정보를 수신측(셋톱 박스(200) 등)에 보낼 수도 있다. 이 경우, 3D 확장 스트림에, 갱신을 행하는 타이밍마다 DSS의 세그먼트가 삽입된다. 도 28(b)는, 그 경우의 3D 확장 스트림의 구성례를 도시하고 있다.
도 29는, 상술한 도 28(b)에 도시하는 바와 같이, DSS의 세그먼트를 순차적으로 송신하는 경우에 있어서의, 시차정보의 갱신례를 도시하고 있다. 또한, 도 29에서, "A"는 자막 표시 기간의 시작 프레임(시작 시점)을 나타내고, "B" 내지 "F"는, 그 후의 갱신 프레임(갱신 시점)을 나타내고 있다.
DSS 세그먼트를 순차적으로 송신하여, 자막 표시 기간 내에서 순차적으로 갱신되는 시차정보를 수신측(셋톱 박스(200) 등)에 보내는 경우도, 수신측에서는, 상술한 바와 마찬가지의 처리가 가능하다. 즉, 이 경우도, 수신측에서는, 갱신 기간마다의 시차정보에 보간 처리를 시행함으로써, 임의의 프레임 간격, 예를 들면, 1프레임 간격의 시차정보를 생성하여 사용하는 것이 가능하다.
도 30은, 상술한 도 27과 마찬가지의, 시차정보(disparity)의 갱신례를 도시하고 있다. 갱신 프레임 간격은, 단위 기간으로서의 인터벌 기간(ID : Interval Duration)의 배수로 표시된다. 예를 들면, 갱신 프레임 간격 「divisionPeriod 1」은 "ID*M"으로 표시되고, 갱신 프레임 간격 「division Period 2」는 "ID*N"으로 표시되고, 이하의 각 갱신 프레임 간격도 마찬가지로 표시된다. 도 30에 도시하는 시차정보의 갱신례에서는, 갱신 프레임 간격은 고정이 아니라, 시차정보 커브에 응한 갱신 프레임 간격의 설정이 행하여지고 있다.
또한, 이 시차정보(disparity)의 갱신례에서, 수신측에서는, 자막 표시 기간의 시작 프레임(시작 시각)(T1_0)은, 이 시차정보가 포함되는 PES 스트림의 헤더에 삽입되어 있는 PTS(PresentationTime Stamp)로 주어진다. 그리고, 수신측에서는, 시차정보의 각 갱신 시각이, 각 갱신 프레임 간격의 정보인 인터벌 기간의 정보(단위 기간의 정보) 및 그 인터벌 기간의 개수의 정보에 의거하여 구하여진다.
이 경우, 자막 표시 기간의 시작 프레임(시작 시각)(T1_0)으로부터, 이하의 (1)식에 의거하여, 순차적으로 각 갱신 시각이 구하여진다. 이 (1)식에서, 「interval_count」는 인터벌 기간의 개수를 나타내고, 도 30에서의 M, N, P, Q, R, S에 상당하는 값이다. 또한, 이 (1)식에서, 「interval_time」은, 도 30에서의 인터벌 기간(ID)에 상당하는 값이다.
Tm_n=Tm_(n-1)+(interval_time*interval_count) … (1)
예를 들면, 도 30에 도시하는 갱신례에서는, 이 (1)식에 의거하여, 각 갱신 시각이 이하와 같이 구하여진다. 즉, 갱신 시각(T1_1)은, 시작 시각(T1_0)과, 인터벌 기간(ID)과, 개수(M)가 이용되어, 「T1_1=T1_0+(ID*M)」과 같이 구하여진다. 또한, 갱신 시각(T1_2)은, 갱신 시각(T1_1)과, 인터벌 기간(ID)과, 개수(N)가 이용되어, 「T1_2=T1_1+(ID*N)」과 같이 구하여진다. 이후의 각 갱신 시각도 마찬가지로 구하여진다.
도 30에 도시하는 갱신례에서, 수신측에서는, 자막 표시 기간 내에서 순차적으로 갱신되는 시차정보에 관해, 보간 처리가 시행되어, 자막 표시 기간 내에서의 임의의 프레임 간격, 예를 들면, 1프레임 간격의 시차정보가 생성되어 사용된다. 예를 들면, 이 보간 처리로서, 선형 보간 처리가 아니라, 시간 방향(프레임 방향)으로 로우패스 필터(LPF) 처리를 수반한 보간 처리가 행하여짐으로써, 보간 처리 후의 소정 프레임 간격의 시차정보의 시간 방향(프레임 방향)의 변화가 완만하게 된다. 도 30의 파선(a)은 LPF 출력례를 도시하고 있다.
도 31은, 자막으로서의 서브타이틀의 표시례를 도시하고 있다. 이 표시례에서는, 페이지 영역(Area for Page_default)에, 자막 표시 영역으로서의 리전(Region)이 2개(리전(1), 리전(2)) 포함되어 있다. 리전에는 하나 또는 복수의 서브리전이 포함되어 있다. 여기서는, 리전에 하나의 서브리전이 포함되어 있고, 리전 영역과 서브리전 영역이 같은 것으로 한다.
도 32는, DSS의 세그먼트에, 자막 표시 기간에 순차적으로 갱신되는 시차정보(Disparity)로서, 리전 단위의 시차정보와 페이지 단위의 시차정보의 쌍방이 포함되어 있는 경우에 있어서, 각 리전과 페이지의 시차정보 커브의 한 예를 도시하고 있다. 여기서, 페이지의 시차정보 커브는, 2개의 리전의 시차정보 커브의 최소치를 채택하는 형태로 되어 있다.
리전(1)(Region(1))에 관해서는, 시작 시각인 T1_0과, 그 후의 갱신 시각인 T1_1, T1_2, T1_3, …, T1_6의 7개의 시차정보가 존재한다. 또한, 리전(2)(Region(2))에 관해서는, 시작 시각인 T2_0과, 그 후의 갱신 시각인 T2_1, T2_2, T2_3, …, T2_7의 8개의 시차정보가 존재한다. 또한, 페이지(Page_default)에 관해서는, 시작 시각인 T0_0과, 그 후의 갱신 시각인 T0_1, T0_2, T0_3, …, T0_6의 7개의 시차정보가 존재한다.
도 33은, 도 32에 도시하는 페이지 및 각 리전의 시차정보가 어떤 구조로 보내지는지를 나타내고 있다. 최초에 페이지 레이어에 관해 설명한다. 이 페이지 레이어에는, 시차정보의 고정치인 「page_default_disparity」가 배치된다. 그리고, 자막 표시 기간에 순차적으로 갱신되는 시차정보에 관해서는, 시작 시각과 그 후의 각 갱신 시각에 대응한, 인터벌 기간의 개수를 나타내는 「interval_count」와, 시차정보를 나타내는 「disparity_page_updete」가, 순차적으로 배치된다. 또한, 시작 시각의 「interval_count」는 "0"이 된다.
다음에, 리전 레이어에 관해 설명한다. 리전(1)(서브리전(1))에 관해서는, 시차정보의 고정치인 「subregion_disparity_integer_part」 및 「subregion_disparity_fractional_part」가 배치된다. 여기서, 「subregion_disparity_integer_part」는 시차정보의 정수 부분을 나타내고, 「subregion_disparity_fractional_part」는 시차정보의 소수 부분을 나타내고 있다.
그리고, 자막 표시 기간에 순차적으로 갱신되는 시차정보에 관해서는, 시작 시각과 그 후의 각 갱신 시각에 대응한, 인터벌 기간의 개수를 나타내는 「interval_count」와, 시차정보를 나타내는 「disparity_region_updete_integer_part」 및 「disparity_region_updete_fractional_part」가, 순차적으로 배치된다. 여기서, 「disparity_region_updete_integer_part」는 시차정보의 정수 부분을 나타내고, 「disparity_region_updete_fractional_part」는 시차정보의 소수 부분을 나타내고 있다. 또한, 시작 시각의 「interval_count」는 "0"이 된다.
리전(2)(서브리전(2))에 관해서는, 상술한 리전(1)과 마찬가지이고, 시차정보의 고정치인 「subregion_disparity_integer_part」 및 「subregion_disparity_fractional_part」가 배치된다. 그리고, 자막 표시 기간에 순차적으로 갱신되는 시차정보에 관해서는, 시작 시각과 그 후의 각 갱신 시각에 대응한, 인터벌 기간의 개수를 나타내는 「interval_count」와, 시차정보를 나타내는 「disparity_region_updete_integer_part」 및 「disparity_region_updete_fractional_part」가, 순차적으로 배치된다.
도 34 내지 도 36은, DSS(Disparity_Signaling_ Segment)의 구조례(syntax)를 도시하고 있다. 도 37 내지 도 40은, DSS의 주요한 데이터 규정 내용(Semantics)을 나타내고 있다. 이 구조에는, 「sync_byte」, 「segment_type」, 「page_id」, 「segment_length」, 「dss_version_number」의 각 정보가 포함되어 있다. 「segment_type」은, 세그먼트 타입을 나타내는 8비트의 데이터이고, 여기서는, DSS를 나타내는 값이 된다. 「segment_length」는, 이후의 바이트수를 나타내는 8비트의 데이터이다.
「disparity_shift_update_sequence_page_flag」의 1비트 플래그는, 페이지 단위의 시차정보로서 자막 표시 기간에 순차적으로 갱신되는 시차정보가 있는지의 여부를 나타낸다. "1"은 존재하는 것을 나타내고, "0"은 존재하지 않는 것을 나타낸다. 「page_default_disparity_shift」의 8비트 필드는, 페이지 단위의 고정의 시차정보, 즉, 자막 표시 기간 내에서 공통으로 사용되는 시차정보를 나타낸다. 상술한 「disparity_page_update_sequence_flag」의 플래그가 "1"일 때, 「disparity_shift_update_sequence()」의 판독이 행하여진다.
도 36은, 「disparity_shift_update_sequence()」의 구조례(syntax)를 도시하고 있다. 「disparity_page_update_sequence_length」는, 이후의 바이트수를 나타내는 8비트의 데이터이다. 「interval_duration[23..0]」의 24비트 필드는, 단위 기간으로서의 인터벌 기간(Interval Duration)(도 30 참조)을 90KHz 단위로 지정한다. 즉, 「interval_duration[23..0]」은, 이 인터벌 기간(Interval Duration)을 90KHz의 클록으로 계측한 값을 24비트 길이로 나타낸다.
PES의 헤더부에 삽입되어 있는 PTS가 33비트 길이임에 대해, 24비트 길이로 되어 있는 것은, 이하의 이유 때문이다. 즉, 33비트 길이로는 24시간분을 초과하는 시간을 표현할 수 있지만, 자막 표시 기간 내의 이 인터벌 기간(Interval Duration)으로서는 불필요한 길이이다. 또한, 24비트로 함으로써, 데이터 사이즈를 축소할 수 있고, 컴팩트한 전송을 행할 수 있다. 또한, 24비트는 8×3비트이고, 바이트 얼라인이 용이하게 된다.
「division_period_count」의 8비트 필드는, 시차정보가 영향을 미치는 기간(Division Period)의 수를 나타낸다. 예를 들면, 도 30에 도시하는 갱신례의 경우에는, 시작 시각인 T1_0과 그 후의 갱신 시각인 T1_1 내지 T1_6에 대응하여, 이 수는 "7"이 된다. 이 「division_period_count」의 8비트 필드가 나타내는 수만큼, 이하의 for 루프가 반복된다.
「interval_count」의 8비트 필드는, 인터벌 기간의 개수를 나타낸다. 예를 들면, 도 30에 도시하는 갱신례의 경우에는, M, N, P, Q, R, S가 상당한다. 「disparity_shift_update_integer_part」의 8비트 필드는, 시차정보를 나타낸다. 시작 시각의 시차정보(시차정보의 초기치)에 대응하여 「interval_count」는 "0"이 된다. 즉, 「interval_count」가 "0"일 때, 「disparity_page_update」는 시작 시각의 시차정보(시차정보의 초기치)를 나타낸다.
도 34의 while 루프는, 그때까지 처리한 데이터 길이(processed_length)가, 세그먼트 데이터 길이(segment_length)에 달하지 않은 때, 반복된다. 이 while 루프 중에, 리전 단위, 또는 리전 내의 서브리전 단위의 시차정보가 배치된다. 여기서, 리전에는 하나 또는 복수의 서브리전이 포함되고, 서브리전 영역과 리전 영역이 같은 경우도 있다.
이 while 루프 중에, 「region_id」의 정보가 포함되어 있다. 「disparity_shift_update_sequence_region_flag」의 1비트 플래그는, 리전 내의 전 서브리전을 위한 「disparity_shift_update_sequence()」가 존재하는지의 여부를 나타내는 플래그 정보이다. 「number_of_subregions_minus_1」의 2비트 필드는, 리전 내의 서브리전의 수로부터 1을 뺀 값을 나타낸다. 「number_of_subregions_minus_1=0」일 때, 에어리어는, 에어리어와 같은 치수의 하나의 서브리전을 갖는다.
「number_of_subregions_minus_1>0」일 때, 에어리어는, 수평 방향으로 나눠진 복수의 서브리전을 갖는다. 도 35의 for 루프 중에, 서브리전의 수의 분만큼, 「subregion_horizontal_position」, 「subregion_width」의 정보가 포함된다. 「subregion_horizontal_position」의 16비트 필드는, 서브리전의 좌단의 픽셀 위치를 나타낸다. 「subregion_width」는 서브리전의 수평 방향의 폭을 픽셀 수로 나타낸다.
「subregion_disparity_shift_integer_part」의 8비트 필드는, 리전 단위(서브리전 단위)의 고정의 시차정보, 즉, 자막 표시 기간 내에서 공통으로 사용되는 시차정보의 정수 부분을 나타낸다. 「subregion_disparity_shift_fractional_part」의 4비트 필드는, 리전 단위(서브리전 단위)의 고정의 시차정보, 즉, 자막 표시 기간 내에서 공통으로 사용되는 시차정보의 소수 부분을 나타낸다. 상술한 「disparity_shift_update_sequence_region_flag」의 플래그가 "1"일 때, 「disparity_shift_update_sequence()」(도 36 참조)의 판독이 행하여진다.
[방송 수신 개념]
도 41은, 셋톱 박스(200) 및 텔레비전 수신기(300)가 3D 대응 기기인 경우의 방송 수신 개념을 도시하고 있다. 이 경우, 방송국(100)에서는, 리전「Region 0」 내에 서브리전 「SR 00」이 정의되고, 그 시차정보「Disparity 1」가 설정된다. 여기서는, 리전「Region 0」과 서브리전 「SR 00」은 같은 영역이라고 한다. 방송국(100)으로부터, 입체화상 데이터와 함께, 서브타이틀 데이터, 표시 제어 정보(서브리전의 영역 정보「Position」, 시차정보「Disparity 1」)가 송신된다.
최초에, 3D 대응 기기인 셋톱 박스(200)에서 수신되는 경우에 관해 설명한다. 이 경우, 셋톱 박스(200)는, 2D 스트림으로부터 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터를 판독하고, 3D 확장 스트림으로부터 시차정보 등의 표시 제어 정보를 포함하는 DSS의 세그먼트의 데이터를 판독하여 이용한다. 이 경우, 셋톱 박스(200)는, 서브타이틀 타입 정보, 언어 정보에 의거하여, 트랜스포트 스트림(TS)으로부터 유저가 선택한 언어의 2D 스트림 및 3D 확장 스트림을 추출하여 디코드한다
상술한 바와 같이, 트랜스포트 스트림(TS)에는, 2D 스트림, 3D 확장 스트림에 각각 대응하여, 서브타이틀·디스크립터가 삽입되어 있다(도 15 참조). 그리고, 2D 스트림에 대응한 서브타이틀·디스크립터의 서브타이틀 타입 정보「subtitling_type」는 "2D"로 되어 있다. 또한, 3D 스트림에 대응한 서브타이틀·디스크립터의 서브타이틀 타입 정보「subtitling_type」는 "3D"로 되어 있다.
또한, 상술한 바와 같이, 트랜스포트 스트림(TS)에는, 2D 스트림, 3D 확장 스트림에 각각 대응하여, 컴포넌트·디스크립터 및 서브타이틀·디스크립터가 삽입되어 있다(도 15 참조). 그리고, 2D 스트림에 대응한 디스크립터의 언어 정보(ISO 언어 코드)는 언어를 나타내도록 설정되고, 3D 확장 스트림에 대응한 디스크립터의 언어 정보(ISO 언어 코드)는 비언어를 나타내도록 설정되어 있다.
셋톱 박스(200)는, 3D 대응 기기이다. 그 때문에, 셋톱 박스(200)는, 서브타이틀 타입 정보에 의거하여, 서브타이틀 타입 "2D(HD, SD)"에 대응한 2D 스트림과, 서브타이틀 타입 "3D"에 대응한 3D 확장 스트림을 추출하여야 할 스트림으로서 결정한다(후술하는 도 42의 「○」표시 참조). 또한, 셋톱 박스(200)는, 유저가 선택한 언어의 2D 스트림과, 언어 정보(ISO 언어 코드)가 비언어를 나타내고 있는 3D 확장 스트림을 추출하여야 할 스트림으로서 결정한다(후술하는 도 42의 「○」표시 참조).
도 42는, 예를 들면, 상술한 도 23에 도시하는 스트림 구성례에 있어서, 유저가 선택한 언어 서비스가 영어 "eng"인 경우의, 셋톱 박스(200)에서의 상술한 2D 스트림 및 3D 확장 스트림의 추출 처리를 개략적으로 도시하고 있다. 이 경우, 서브타이틀 타입 정보 및 언어 정보에 의거하여, 결과적으로, 영어 "eng"에 대응하는 2D 스트림과, 그 언어 서비스 중에, 「composition_page_id=A」로 받아들여지고 있는 3D 확장 스트림이, 추출하여야 할 스트림으로서 결정된다.
셋톱 박스(200)는, 서브타이틀 데이터에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터를 생성한다. 그리고, 셋톱 박스(200)는, 리전의 표시 데이터를, 입체화상 데이터를 구성하는 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1) 부분에 각각 중첩하여, 출력입체화상 데이터를 얻는다.
이 때, 셋톱 박스(200)는, 시차정보에 의거하여, 각각에 중첩되는 표시 데이터의 위치를 시프트 조정한다. 또한, 셋톱 박스(200)는, 입체화상 데이터의 전송 포맷(사이드·바이·사이드 방식, 톱·앤드·보텀 방식, 프레임·시퀀셜 방식, 또는, 각 뷰가 풀 화면 사이즈를 갖는 포맷 방식)에 응하여, 적절히, 중첩 위치, 사이즈 등의 변경을 행한다.
셋톱 박스(200)는, 상술한 바와 같이 하여 얻어진 출력입체화상 데이터를, 예를 들면 HDMI의 디지털 인터페이스를 통하여, 3D 대응의 텔레비전 수신기(300)에 송신한다. 텔레비전 수신기(300)는, 셋톱 박스(200)로부터 보내 오는 입체화상 데이터에 3D신호 처리를 시행하고, 서브타이틀이 중첩된 좌안화상 및 우안화상의 데이터를 생성한다. 그리고, 텔레비전 수신기(300)는, LCD 등의 표시 패널에, 유저에게 입체화상을 인식시키기 위한 양안 시차 화상(좌안화상 및 우안화상)을 표시한다.
다음에, 3D 대응 기기인 텔레비전 수신기(300)에서 수신되는 경우에 관해 설명한다. 이 경우, 텔레비전 수신기(300)는, 2D 스트림으로부터 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터를 판독하고, 3D 확장 스트림으로부터 시차정보 등의 표시 제어 정보를 포함하는 DSS의 세그먼트의 데이터를 판독하여 이용한다. 이 경우, 텔레비전 수신기(300)는, 상술한 셋톱 박스(200)와 마찬가지로, 서브타이틀 타입 정보, 언어 정보 등에 의해, 트랜스포트 스트림(TS)으로부터 유저가 선택한 언어의 2D 스트림 및 3D 확장 스트림을 추출하여 디코드한다
텔레비전 수신기(300)는, 서브타이틀 데이터에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터를 생성한다. 그리고, 텔레비전 수신기(300)는, 리전의 표시 데이터를, 입체화상 데이터에 전송 포맷에 응한 처리를 하여 얻어진 좌안화상 데이터 및 우안화상 데이터에 각각 중첩하여, 서브타이틀이 중첩된 좌안화상 및 우안화상의 데이터를 생성한다. 그리고, 텔레비전 수신기(300)는, LCD 등의 표시 패널에, 유저에게 입체화상을 인식시키기 위한 양안 시차 화상(좌안화상 및 우안화상)을 표시한다.
도 43은, 셋톱 박스(200) 및 텔레비전 수신기(300)가 레거시의 2D 대응 기기인 경우의 방송 수신 개념을 도시하고 있다. 이 경우, 상술한 도 41의 경우와 마찬가지로, 방송국(100)으로부터, 입체화상 데이터와 함께, 서브타이틀 데이터, 표시 제어 정보(서브리전의 영역 정보「Position」, 시차정보「Disparity 1」)가 송신된다.
최초에, 레거시의 2D 대응 기기인 셋톱 박스(200)에서 수신되는 경우에 관해 설명한다. 이 경우, 셋톱 박스(200)는, 2D 스트림으로부터 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터를 판독하여 이용한다. 이 경우, 셋톱 박스(200)는, 서브타이틀 타입 정보, 언어 정보 등에 의해, 트랜스포트 스트림(TS)으로부터 유저가 선택한 언어의 2D 스트림만을 추출하여 디코드한다. 즉, 셋톱 박스(200)는, 시차정보 등의 표시 제어 정보를 포함하는 DSS의 세그먼트의 판독을 행하지 않기 때문에, 그 판독이 수신 처리의 방해가 되는 것을 회피할 수 있다.
상술한 바와 같이, 트랜스포트 스트림(TS)에는, 2D 스트림, 3D 확장 스트림에 각각 대응하여, 서브타이틀·디스크립터가 삽입되어 있다(도 15 참조). 그리고, 2D 스트림에 대응한 서브타이틀·디스크립터의 서브타이틀 타입 정보「subtitling_type」는 "2D"로 되어 있다. 또한, 3D 스트림에 대응한 서브타이틀·디스크립터의 서브타이틀 타입 정보「subtitling_type」는 "3D"로 되어 있다.
또한, 상술한 바와 같이, 트랜스포트 스트림(TS)에는, 2D 스트림, 3D 확장 스트림에 각각 대응하여, 컴포넌트·디스크립터 및 서브타이틀·디스크립터가 삽입되어 있다(도 15 참조). 그리고, 2D 스트림에 대응한 디스크립터의 언어 정보(ISO 언어 코드)는 언어를 나타내도록 설정되고, 3D 확장 스트림에 대응한 디스크립터의 언어 정보(ISO 언어 코드)는 비언어를 나타내도록 설정되어 있다.
셋톱 박스(200)는, 2D 대응 기기이다. 그 때문에, 셋톱 박스(200)는, 서브타이틀 타입 정보에 의거하여, 서브타이틀 타입 "2D(HD, SD)"에 대응한 2D 스트림을 추출하여야 할 스트림으로서 결정한다. 또한, 셋톱 박스(200)는, 유저가 선택한 언어의 2D 스트림을 추출하여야 할 스트림으로서 결정한다.
도 44는, 예를 들면, 상술한 도 23에 도시하는 스트림 구성례에 있어서, 유저가 선택한 언어 서비스가 영어 "eng"인 경우의, 셋톱 박스(200)에서의 2D 스트림의 추출 처리를 개략적으로 도시하고 있다. 이 경우, 셋톱 박스(200)는, 서브타이틀 타입 정보에 의거하여, 서브타이틀 타입 "2D(HD, SD)"에 대응한 2D 스트림을 추출하여야 할 스트림으로서 결정할 수 있다. 여기서, 셋톱 박스(200)는, 레거시의 2D 대응 기기이고, 서브타이틀 타입 "3D"를 해석할 수가 없고, 3D 확장 스트림도, 추출하여야 할 스트림으로서 결정할 우려가 있다(「△」표시로 도시).
그러나, 이 경우, 셋톱 박스(200)는, 언어 정보에 의거하여, 영어 "eng"에 대응한 2D 스트림을 추출하여야 할 스트림으로서 결정하고, 언어 정보가 비언어를 나타내는 3D 확장 스트림은 추출하여야 할 스트림으로서 결정하지 않는다(「×」표시로 도시). 그 결과, 셋톱 박스(200)는, 영어 "eng"에 대응하는 2D 스트림만을 추출하여야 할 스트림으로서 결정한다. 이에 의해, 셋톱 박스(200)는, 시차정보를 갖는 DSS의 세그먼트가 포함되는 3D 확장 스트림에 대해 디코드 처리를 행하는 것을 보다 확실하게 방지할 수가 있어서, 그 처리가 수신 처리의 방해가 되는 것을 회피할 수 있다.
셋톱 박스(200)는, 서브타이틀 데이터에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터를 생성한다. 그리고, 셋톱 박스(200)는, 리전의 표시 데이터를, 입체화상 데이터에 대해 전송 포맷에 응한 처리가 시행되어 얻어진 2차원 화상 데이터에 중첩하여, 출력 2차원 화상 데이터를 얻는다.
셋톱 박스(200)는, 상술한 바와 같이 하여 얻어진 출력 2차원 화상 데이터를, 예를 들면 HDMI의 디지털 인터페이스를 통하여, 텔레비전 수신기(300)에 송신한다. 텔레비전 수신기(300)는, 셋톱 박스(200)로부터 보내 오는 2차원 화상 데이터에 의한 2차원 화상을 표시한다.
다음에, 2D 대응 기기인 텔레비전 수신기(300)에서 수신되는 경우에 관해 설명한다. 이 경우, 텔레비전 수신기(300)는, 2D 스트림으로부터 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터를 판독하여 이용한다. 이 경우, 텔레비전 수신기(300)는, 상술한 셋톱 박스(200)와 마찬가지로, 서브타이틀 타입 정보, 언어 정보에 의해, 트랜스포트 스트림(TS)으로부터 유저가 선택한 언어의 2D 스트림만을 추출하여 디코드한다. 즉, 텔레비전 수신기(300)는, 시차정보 등의 표시 제어 정보를 포함하는 DSS의 세그먼트의 판독을 행하지 않기 때문에, 그 판독이 수신 처리의 방해가 되는 것을 회피할 수 있다.
텔레비전 수신기(300)는, 서브타이틀 데이터에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터를 생성한다. 텔레비전 수신기(300)는, 이 리전의 표시 데이터를, 입체화상 데이터에 대해 전송 포맷에 응한 처리가 시행되어 얻어진 2차원 화상 데이터에 중첩하여, 2차원 화상 데이터를 얻는다. 그리고, 텔레비전 수신기(300)는, 이 2차원 화상 데이터에 의한 2차원 화상을 표시한다.
도 45는, 상술한 수신기(셋톱 박스(200), 텔레비전 수신기(300))가 레거시의 2D 대응 기기(2D Receiver)인 경우 및 3D 대응 기기(3D Receiver)인 경우의 방송 수신 개념을 정리하여 도시하고 있다. 또한, 이 도면에서는, 입체화상 데이터(3D 화상 데이터)의 전송 방식을 사이드·바이·사이드(Side By Side) 방식으로 하고 있다.
또한, 3D 대응 기기(3D Receiver)에서는, 3D 모드(3D mode) 또는 2D 모드(2D mode)의 선택이 가능하게 하고 있다. 유저에 의해 3D 모드(3D mode)가 선택된 경우에는, 상술한 도 41에서 설명한 바와 같다. 유저에 의해 2D 모드(2D mode)가 선택된 경우에는, 상술한 도 43에서 설명한 2D 대응 기기(2D Receiver)의 경우와 마찬가지가 된다.
도 2에 도시하는 송신 데이터 생성부(110)에서, 멀티플렉서(119)로부터 출력되는 다중화 데이터 스트림으로서의 트랜스포트 스트림(TS)은, 2개의 프라이빗 데이터 스트림(서브타이틀 데이터 스트림)이 포함되는 것으로 된다. 즉, 이 트랜스포트 스트림(TS)에는, 2D 스트림 및 3D 확장 스트림이 포함된다(도 11 참조).
그 때문에, 수신측의 레거시의 2D 대응의 수신 장치에서는, 2D 스트림으로부터 서브타이틀 데이터를 구성하는 각 세그먼트만을 판독하여 수신 처리를 행할 수가 있다. 즉, 2D 대응의 수신 장치에서는, 3D 확장 스트림으로부터 DSS의 세그먼트를 판독하지 않고서 끝나, 그 판독이 수신 처리의 방해가 되는 것을 회피할 수 있다.
또한, 도 2에 도시하는 송신 데이터 생성부(110)에서, 트랜스포트 스트림(TS)에 2D 스트림 및 3D 확장 스트림에 대응하여 삽입되어 있는 컴포넌트·디스크립터, 서브타이틀·디스크립터에는, 각각의 스트림을 식별 가능하게 서브타이틀 타입 정보 및 언어 정보가 설정된다. 그 때문에, 2D 대응의 수신 장치는, 당해 서브타이틀 타입 정보, 언어 정보에 의거하여, 트랜스포트 스트림(TS)으로부터 유저가 선택한 언어의 2D 스트림만을 용이하며 정밀도 좋게 추출하여 디코드할 수 있다. 이에 의해, 2D 대응의 수신 장치는, 시차정보를 갖는 DSS의 세그먼트가 포함되는 3D 확장 스트림에 대해 디코드 처리를 행하는 것을 보다 확실하게 방지할 수가 있어서, 그 처리가 수신 처리의 방해가 되는 것을 회피할 수 있다.
또한, 도 2에 도시하는 송신 데이터 생성부(110)에서는, 트랜스포트 스트림(TS)에 삽입되는 2D 스트림 및 3D 확장 스트림에 포함되는 각 세그먼트의 페이지 ID(page_id)는 동일하게 된다. 그 때문에, 수신측의 3D 대응의 수신 장치에서는, 이 페이지 ID에 의거하여, 2D 스트림의 세그먼트와 3D 확장 스트림의 세그먼트를 결합하는 것이 용이해진다.
또한, 도 2에 도시하는 송신 데이터 생성부(110)에서는, 서브타이틀 표시 기간에서 순차적으로 갱신되는 시차정보를 포함하는 DSS 세그먼트를 송신할 수 있기 때문에, 좌안 서브타이틀 및 우안 서브타이틀의 표시 위치를 동적으로 제어할 수 있다. 이에 의해, 수신측에서는, 좌안 서브타이틀 및 우안 서브타이틀의 사이에 부여하는 시차를 화상 내용의 변화에 연동하여 동적으로 변화시키는 것이 가능해진다.
또한, 도 2에 도시하는 송신 데이터 생성부(110)에서는, 서브타이틀 인코더(118)에서 얻어지는 DSS의 세그먼트에 포함되는 갱신 프레임 간격마다의 프레임의 시차정보는, 전회의 시차정보로부터의 오프셋값이 아니라, 시차정보 그 자체이다. 그 때문에, 수신측에서, 보간 과정에서 에러가 생겨도, 일정 지연 시간 내에 에러로부터의 복귀가 가능해진다.
[셋톱 박스의 설명]
도 1로 되돌아와, 셋톱 박스(200)는, 방송국(100)으로부터 방송파에 실어서 송신되어 오는 트랜스포트 스트림(TS)을 수신한다. 이 트랜스포트 스트림(TS)에는, 좌안화상 데이터 및 우안화상 데이터를 포함하는 입체화상 데이터, 음성 데이터가 포함되어 있다. 또한, 트랜스포트 스트림(TS)에는, 서브타이틀(자막)을 표시하기 위한 입체화상용의 서브타이틀 데이터(표시 제어 정보를 포함한다)도 포함되어 있다.
즉, 트랜스포트 스트림(TS)은, PES의 스트림으로서, 비디오 데이터 스트림, 오디오 데이터 스트림, 제1 및 제2의 프라이빗 데이터 스트림(서브타이틀 데이터 스트림)을 갖고 있다. 상술한 바와 같이, 제1 및 제2의 프라이빗 데이터 스트림은, 각각, 2D 스트림 및 3D 확장 스트림이다(도 11 참조).
셋톱 박스(200)는, 비트 스트림 처리부(201)를 갖고 있다. 셋톱 박스(200)가 3D 대응 기기(3D STB)인 경우, 비트 스트림 처리부(201)는, 트랜스포트 스트림(TS)으로부터, 입체화상 데이터, 음성 데이터, 서브타이틀 데이터(표시 제어 정보를 포함한다)를 취득한다. 이 경우, 비트 스트림 처리부(201)는, 2D 스트림으로부터 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터를 취득하고, 3D 확장 스트림으로부터 시차정보 등의 표시 제어 정보를 포함하는 DSS의 세그먼트의 데이터를 취득한다.
그리고, 비트 스트림 처리부(201)는, 입체화상 데이터, 서브타이틀 데이터(표시 제어 정보를 포함한다)를 이용하여, 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1) 부분에 각각 서브타이틀이 중첩된 출력입체화상 데이터를 생성한다(도 41 참조). 이 경우, 좌안화상에 중첩하는 서브타이틀(좌안 서브타이틀)과 우안화상에 중첩하는 서브타이틀(우안 서브타이틀)과의 사이에 시차를 부여할 수 있다.
예를 들면, 상술한 바와 같이, 방송국(100)으로부터 보내 오는 입체화상용의 서브타이틀 데이터에 부가되어 있는 표시 제어 정보에는, 시차정보가 포함되어 있고, 이 시차정보에 의거하여, 좌안 서브타이틀 및 우안 서브타이틀의 사이에 시차를 부여할 수 있다. 이와 같이, 좌안 서브타이틀과 우안 서브타이틀과의 사이에 시차가 부여됨으로써, 유저는, 서브타이틀(자막)을 화상의 앞에 인식 가능해진다.
도 46(a)는, 화상상에 있어서의 서브타이틀(자막)의 표시례를 도시하고 있다. 이 표시례에서는, 배경과 근경 오브젝트로 이루어지는 화상상에, 자막이 중첩된 예이다. 도 46(b)는, 배경, 근경 오브젝트, 자막의 원근감을 나타내고, 자막이 가장 앞에 인식되는 것을 나타내고 있다.
도 47(a)는, 도 46(a)와 같은, 화상상에 있어서의 서브타이틀(자막)의 표시례를 도시하고 있다. 도 47(b)는, 좌안화상에 중첩되는 좌안 자막(LGI)과, 우안화상에 중첩되는 우안 자막(RGI)을 나타내고 있다. 도 47(c)는, 자막이 가장 앞에 인식되기 때문에, 좌안 자막(LGI)과 우안 자막(RGI)의 사이에 시차가 주어지는 것을 나타내고 있다.
또한, 셋톱 박스(200)가 레거시의 2D 대응 기기(2D STB)인 경우, 비트 스트림 처리부(201)는, 트랜스포트 스트림(TS)으로부터, 입체화상 데이터, 음성 데이터, 서브타이틀 데이터(표시 제어 정보를 포함하지 않는 비트맵·패턴 데이터)를 취득한다. 그리고, 비트 스트림 처리부(201)는, 입체화상 데이터, 서브타이틀 데이터를 이용하여, 서브타이틀이 중첩된 2차원 화상 데이터를 생성한다(도 43 참조).
이 경우, 비트 스트림 처리부(201)는, 2D 스트림으로부터 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터를 취득한다. 즉, 이 경우, 3D 확장 스트림으로부터 DSS의 세그먼트를 판독하는 것을 행하지 않기 때문에, 그 판독이 수신 처리의 방해가 되는 것을 회피할 수 있다. 이 경우, 비트 스트림 처리부(201)는, 서브타이틀 타입 정보, 언어 정보에 의거하여, 트랜스포트 스트림(TS)으로부터 2D 스트림만을 용이하며 정밀도 좋게 추출하여 디코드한다.
[셋톱 박스의 구성례]
셋톱 박스(200)의 구성례를 설명한다. 도 48은, 셋톱 박스(200)의 구성례를 도시하고 있다. 이 셋톱 박스(200)는, 비트 스트림 처리부(201)와, HDMI 단자(202)와, 안테나 단자(203)와, 디지털 튜너(204)와, 영상신호 처리 회로(205)와, HDMI 송신부(206)와, 음성신호 처리 회로(207)를 갖고 있다. 또한, 이 셋톱 박스(200)는, CPU(211)와, 플래시 ROM(212)과, DRAM(213)과, 내부 버스(214)와, 리모트 컨트롤 수신부(RC 수신부)(215)와, 리모트 컨트롤 송신기(RC 송신기)(216)를 갖고 있다.
안테나 단자(203)는, 수신 안테나(도시 생략)에서 수신된 텔레비전 방송 신호를 입력하는 단자이다. 디지털 튜너(204)는, 안테나 단자(203)에 입력된 텔레비전 방송 신호를 처리하여, 유저의 선택 채널에 대응한 트랜스포트 스트림(TS)(비트 스트림 데이터)을 출력한다.
비트 스트림 처리부(201)는, 트랜스포트 스트림(TS)에 의거하여, 서브타이틀이 중첩된 출력입체화상 데이터 및 음성 데이터를 출력한다. 이 비트 스트림 처리부(201)는, 셋톱 박스(200)가 3D 대응 기기(3D STB)인 경우, 트랜스포트 스트림(TS)으로부터, 입체화상 데이터, 음성 데이터, 서브타이틀 데이터(표시 제어 정보를 포함한다)를 취득한다.
비트 스트림 처리부(201)는, 입체화상 데이터를 구성하는 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1) 부분에 각각 서브타이틀이 중첩된 출력입체화상 데이터를 생성한다(도 41 참조). 이 때, 시차정보에 의거하여, 좌안화상에 중첩하는 서브타이틀(좌안 서브타이틀)과 우안화상에 중첩하는 서브타이틀(우안 서브타이틀)과의 사이에 시차를 부여한다.
즉, 비트 스트림 처리부(201)는, 서브타이틀 데이터에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터를 생성한다. 그리고, 비트 스트림 처리부(201)는, 리전의 표시 데이터를, 입체화상 데이터를 구성하는 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1) 부분에 각각 중첩하여, 출력입체화상 데이터를 얻는다. 이 때, 비트 스트림 처리부(201)는, 시차정보에 의거하여, 각각에 중첩되는 표시 데이터의 위치를 시프트 조정한다.
또한, 비트 스트림 처리부(201)는, 셋톱 박스(200)가 2D 대응 기기(2D STB)인 경우, 입체화상 데이터, 음성 데이터, 서브타이틀 데이터(표시 제어 정보를 포함하지 않는다)를 취득한다. 비트 스트림 처리부(201)는, 입체화상 데이터, 서브타이틀 데이터를 이용하여, 서브타이틀이 중첩된 2차원 화상 데이터를 생성한다(도 43 참조).
즉, 비트 스트림 처리부(201)는, 서브타이틀 데이터에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터를 생성한다. 그리고, 비트 스트림 처리부(201)는, 리전의 표시 데이터를, 입체화상 데이터에 대해 전송 포맷에 응한 처리가 시행되어 얻어진 2차원 화상 데이터에 중첩하여, 출력 2차원 화상 데이터를 얻는다.
영상신호 처리 회로(205)는, 비트 스트림 처리부(201)에서 얻어진 화상 데이터에 대해 필요에 응하여 화질 조정 처리 등을 행하고, 처리 후의 화상 데이터를 HDMI 송신부(206)에 공급한다. 음성신호 처리 회로(207)는, 비트 스트림 처리부(201)로부터 출력된 음성 데이터에 대해 필요에 응하여 음질 조정 처리 등을 행하고, 처리 후의 음성 데이터를 HDMI 송신부(206)에 공급한다.
HDMI 송신부(206)는, HDMI에 준거한 통신에 의해, 예를 들면, 비압축의 화상 데이터 및 음성 데이터를, HDMI 단자(202)로부터 송출한다. 이 경우, HDMI의 TMDS 채널로 송신하기 위해, 화상 데이터 및 음성 데이터가 패킹되어, HDMI 송신부(206)로부터 HDMI 단자(202)에 출력된다.
CPU(211)는, 셋톱 박스(200)의 각 부분의 동작을 제어한다. 플래시 ROM(212)은, 제어 소프트웨어의 격납 및 데이터의 보관을 행한다. DRAM(213)은, CPU(211)의 워크 에어리어를 구성한다. CPU(211)는, 플래시 ROM(212)으로부터 판독한 소프트웨어나 데이터를 DRAM(213)상에 전개하여 소프트웨어를 기동시켜, 셋톱 박스(200)의 각 부분을 제어한다.
RC 수신부(215)는, RC 송신기(216)로부터 송신된 리모트 컨트롤 신호(리모트 코드)를 수신하고, CPU(211)에 공급한다. CPU(211)는, 이 리모트 코드에 의거하여, 셋톱 박스(200)의 각 부분을 제어한다. CPU(211), 플래시 ROM(212) 및 DRAM(213)은 내부 버스(214)에 접속되어 있다.
셋톱 박스(200)의 동작을 간단히 설명한다. 안테나 단자(203)에 입력된 텔레비전 방송 신호는 디지털 튜너(204)에 공급된다. 이 디지털 튜너(204)에서는, 텔레비전 방송 신호가 처리되어, 유저의 선택 채널에 대응한 트랜스포트 스트림(비트 스트림 데이터)(TS)이 출력된다.
디지털 튜너(204)로부터 출력되는 트랜스포트 스트림(비트 스트림 데이터)(TS)은, 비트 스트림 처리부(201)에 공급된다. 이 비트 스트림 처리부(201)에서는, 이하와 같이 하여, 텔레비전 수신기(300)에 출력하기 위한 출력 화상 데이터가 생성된다.
셋톱 박스(200)가 3D 대응 기기(3D STB)인 경우, 트랜스포트 스트림(TS)으로부터, 입체화상 데이터, 음성 데이터, 서브타이틀 데이터(표시 제어 정보를 포함한다)가 취득된다. 그리고, 이 비트 스트림 처리부(201)에서는, 입체화상 데이터를 구성하는 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1) 부분에 각각 서브타이틀이 중첩된 출력입체화상 데이터가 생성된다. 이 때, 시차정보에 의거하여, 좌안화상에 중첩하는 좌안 서브타이틀과 우안화상에 중첩하는 우안 서브타이틀과의 사이에 시차가 부여된다.
또한, 셋톱 박스(200)가 2D 대응 기기(2D STB)인 경우, 입체화상 데이터, 음성 데이터, 서브타이틀 데이터(표시 제어 정보를 포함하지 않는다)가 취득된다. 그리고, 이 비트 스트림 처리부(201)에서는, 입체화상 데이터, 서브타이틀 데이터를 이용하여, 서브타이틀이 중첩된 2차원 화상 데이터가 생성된다.
비트 스트림 처리부(201)에서 얻어진 출력 화상 데이터는, 영상신호 처리 회로(205)에 공급된다. 이 영상신호 처리 회로(205)에서는, 출력 화상 데이터에 대해, 필요에 응하여 화질 조정 처리 등이 시행된다. 이 영상신호 처리 회로(205)로부터 출력되는 처리 후의 화상 데이터는, HDMI 송신부(206)에 공급된다.
또한, 비트 스트림 처리부(201)에서 얻어진 음성 데이터는, 음성신호 처리 회로(207)에 공급된다. 이 음성신호 처리 회로(207)에서는, 음성 데이터에 대해, 필요에 응하여 음질 조정 처리 등의 처리가 행하여진다. 이 음성신호 처리 회로(207)로부터 출력되는 처리 후의 음성 데이터는, HDMI 송신부(206)에 공급된다. 그리고, HDMI 송신부(206)에 공급된 화상 데이터 및 음성 데이터는, HDMI의 TMDS 채널에 의해, HDMI 단자(202)로부터 HDMI 케이블(400)에 송출된다.
[비트 스트림 처리부의 구성례]
도 49는, 셋톱 박스(200)가 3D 대응 기기(3D STB)인 경우에 있어서의 비트 스트림 처리부(201)의 구성례를 도시하고 있다. 이 비트 스트림 처리부(201)는, 상술한 도 2에 도시하는 송신 데이터 생성부(110)에 대응하는 구성으로 되어 있다. 이 비트 스트림 처리부(201)는, 디멀티플렉서(221)와, 비디오 디코더(222)와, 오디오 디코더(229)를 갖고 있다.
또한, 이 비트 스트림 처리부(201)는, 부호화 데이터 버퍼(223)와, 서브타이틀 디코더(224)와, 픽셀 버퍼(225)와, 시차정보 보간부(226)와, 위치 제어부(227)와, 비디오 중첩부(228)를 갖고 있다. 여기서, 부호화 데이터 버퍼(223)는, 디코드 버퍼를 구성하고 있다.
디멀티플렉서(221)는, 트랜스포트 스트림(TS)으로부터, 비디오 데이터 스트림, 오디오 데이터 스트림의 패킷을 추출하고, 각 디코더에 보내서 디코드한다. 또한, 디멀티플렉서(221)는, 또한, 이하의 스트림을 추출하여, 부호화 데이터 버퍼(223)에 일시적으로 축적한다. 이 경우, 디멀티플렉서(221)는, 상술한 도 41에서 설명한 바와 같이, 서브타이틀 정보 및 언어 정보에 의거하여, 유저가 선택한 언어의 2D 스트림과 3D 확장 스트림을 추출한다.
CPU(211)는, 2D 스트림, 3D 확장 스트림에 관련되어 PMT 내의 ES 루프에 배치된 서브타이틀·디스크립터 내의 "composition_page_id"의 값에 의거하여, 쌍방의 PES 스트림을 디코드하여야 할 것을 인식한다. 즉, "composition_page_id"의 값이 같은 경우, 쌍방의 PES 스트림을 디코드하는 것을 의미한다. 또는, composition_page_id"의 값이 같은 값이고, 게다가 특별한 값(미리 정의되는)인 경우, 쌍방의 PES 스트림을 디코드하는 것을 의미한다.
또한, 2D 스트림, 3D 확장 스트림의 2개의 PES 스트림의 쌍방을 디코드하여야 할 것을 나타내는, 2개의 스트림을 관련짓는 디스크립터를 신규 정의하고, 소정의 장소에 배치하는 것도 생각된다. CPU(211)는, 이 디스크립터에 의해, 쌍방의 PES 스트림을 디코드하여야 할 것을 인식하고, 비트 스트림 처리부(201)를 제어한다.
도 50은, 2D 스트림, 3D 확장 스트림을 관련짓기 위해 사용할 수 있는 멀티·디코딩·디스크립터(multi_decoding descriptor)의 구조례(syntax)를 도시하고 있다. 도 51은, 그 구조례에서의 주요한 정보의 내용(Semantics)을 나타내고 있다.
「descriptor_tag」의 8비트 필드는, 이 디스크립터가 멀티·디코딩·디스크립터인 것을 나타낸다. 「descriptor_length」의 8비트 필드는, 이 필드 이후의 전체의 바이트 사이즈를 나타낸다.
「stream_content」의 4비트 필드는, 메인의 스트림의 예를 들면 비디오, 오디오, 서브타이틀 등의 스트림 타입을 나타낸다. 「component_type」의 4비트 필드는, 메인의 스트림의 예를 들면 비디오, 오디오, 서브타이틀 등의 컴포넌트 타입을 나타낸다. 이들 「stream_content」, 「component_type」에는, 메인의 스트림에 대응하는 컴포넌트·디스크립터 내의 「stream_content」, 「component_type」와 같은 정보가 된다.
이 실시의 형태에서, 메인의 스트림이 2D 스트림이 되고, 「stream_content」는 서브타이틀 "subtitle"이 되고, 「component_type」은, 2차원용 "2D"가 된다.
「component_tag」는, 메인의 스트림에 대응한 스트림·아이덴티파이어·디스크립터(stream_identifier descriptor) 내의 「component_tag」와 같은 값을 갖는다. 이에 의해, 스트림·아이덴티파이어·디스크립터와, 멀티·디코딩·디스크립터를, 「component_tag」로 관련짓는다.
「multi_decoding_count」의 4비트 필드는, 메인의 스트림에 관련짓는 타겟의 스트림의 수를 나타낸다. 이 실시의 형태에서, 메인의 스트림인 2D 스트림에 관련되는 타겟의 스트림은 3D 확장 스트림이고, 「multi_decoding_count」는 「1」이 된다.
「target_stream_component_type」의 8비트 필드는, 메인의 스트림에 추가되는 스트림의 예를 들면 비디오, 오디오, 서브타이틀 등의 스트림 타입을 나타낸다. 「component_type」의 4비트 필드는, 타겟의 스트림의 컴포넌트 타입을 나타낸다. 또한, 「target_stream_component_tag」의 8비트 필드는, 타겟의 스트림에 대응한 스트림·아이덴티파이어·디스크립터(stream_identifier descriptor) 내의 「component_tag」와 같은 값을 갖는다.
이 실시의 형태에서, 타겟의 스트림이 3D 확장 스트림이 되고, 「target_stream_component_type」은 3차원용 "3D"가 되고, 「target_stream_component_tag」는 3D 확장 스트림의 「component_tag」와 같은 값이 된다.
멀티·디코딩·디스크립터는, 예를 들면, PMT의 배하, 또는 EIT의 배하에 배치된다. 도 52는, 멀티·디코딩·디스크립터를 배치한 경우에 있어서의, 트랜스포트 스트림(TS)의 구성례를 도시하고 있다.
도 49로 되돌아와, 비디오 디코더(222)는, 상술한 송신 데이터 생성부(110)의 비디오 인코더(112)와는 반대의 처리를 행한다. 즉, 비디오 디코더(222)는, 디멀티플렉서(221)에서 추출된 비디오의 패킷으로부터 비디오 데이터 스트림을 재구성하고, 복호화 처리를 행하여, 좌안화상 데이터 및 우안화상 데이터를 포함하는 입체화상 데이터를 얻는다. 이 입체화상 데이터의 전송 포맷은, 예를 들면, 사이드·바이·사이드 방식, 톱·앤드·보텀 방식, 프레임·시퀀셜 방식, 또는 각 뷰가 풀 화면 사이즈를 차지하는 비디오 전송 포맷의 방식 등이다.
서브타이틀 디코더(224)는, 상술한 송신 데이터 생성부(110)의 서브타이틀 인코더(125)와는 반대의 처리를 행한다. 즉, 이 서브타이틀 디코더(224)는, 부호화 데이터 버퍼(223)에 축적되어 있는 각 스트림의 패킷으로부터 각 스트림을 재구성하고, 복호화 처리를 행하여, 이하의 세그먼트의 데이터를 취득한다.
즉, 서브타이틀 디코더(224)는, 2D 스트림을 디코드하여 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터를 취득한다. 또한, 서브타이틀 디코더(224)는, 3D 확장 스트림을 디코드하여 DSS의 세그먼트의 데이터를 취득한다. 상술한 바와 같이, 2D 스트림 및 3D 확장 스트림에 포함되는 각 세그먼트의 페이지 ID(page_id)는 동일하게 되어 있다. 그 때문에, 서브타이틀 디코더(224)에서는, 이 페이지 ID에 의거하여, 2D 스트림의 세그먼트와 3D 확장 스트림의 세그먼트를 용이하게 결합할 수 있다.
서브타이틀 디코더(224)는, 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터 및 서브리전의 영역 정보에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터(비트맵 데이터)를 생성한다. 여기서, 리전 내에 있으며 서브리전으로서 둘러싸여지지 않은 영역은, 투명색이 할당된다. 픽셀 버퍼(225)는, 이 표시 데이터를 일시적으로 축적한다.
비디오 중첩부(228)는, 출력입체화상 데이터(Vout)를 얻는다. 이 경우, 비디오 중첩부(228)는, 비디오 디코더(222)에서 얻어진 입체화상 데이터의 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1)의 부분에, 각각, 픽셀 버퍼(225)에 축적되어 있는 표시 데이터를 중첩한다. 이 경우, 비디오 중첩부(228)는, 입체화상 데이터의 전송 방식(사이드·바이·사이드 방식, 톱·앤드·보텀 방식, 프레임·시퀀셜 방식, MVC 방식 등)에 응하여, 적절히, 중첩 위치, 사이즈 등의 변경을 행한다. 이 비디오 중첩부(228)는, 출력입체화상 데이터(Vout)를, 비트 스트림 처리부(201)의 외부에 출력한다.
시차정보 보간부(226)는, 서브타이틀 디코더(224)에서 얻어지는 시차정보를 위치 제어부(227)에 보낸다. 시차정보 보간부(226)는, 시차정보에 대해, 필요에 응하여, 보간 처리를 시행하여, 위치 제어부(227)에 보낸다. 위치 제어부(227)는, 시차정보에 의거하여, 각각의 프레임에 중첩되는 표시 데이터의 위치를 시프트 조정한다(도 41 참조). 이 경우, 위치 제어부(227)는, 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1) 부분에 중첩되는 표시 데이터(자막 패턴 데이터)를, 시차정보에 의거하여, 서로 반대 방향이 되도록 시프트 조정하여, 시차를 부여한다.
또한, 표시 제어 정보에는, 자막 표시 기간 내에서 공통으로 사용되는 시차정보가 포함된다. 또한, 이 표시 제어 정보에는, 또한, 자막 표시 기간 내에서 순차적으로 갱신되는 시차정보가 포함되는 일도 있다. 이 자막 표시 기간 내에서 순차적으로 갱신되는 시차정보는, 상술한 바와 같이, 자막 표시 기간의 최초의 프레임의 시차정보와, 그 후의 갱신 프레임 간격마다의 프레임의 시차정보로 이루어져 있다.
위치 제어부(227)는, 자막 표시 기간 내에서 공통으로 사용되는 시차정보에 관해서는, 그대로 사용한다. 한편, 위치 제어부(227)는, 자막 표시 기간 내에서 순차적으로 갱신되는 시차정보에 관해서는, 시차정보 보간부(226)에서 필요에 응하여 보간 처리가 행하여진 것을 사용한다. 예를 들면, 시차정보 보간부(226)는, 자막 표시 기간 내에서의 임의의 프레임 간격, 예를 들면, 1프레임 간격의 시차정보를 생성한다.
시차정보 보간부(226)는, 이 보간 처리로서, 선형 보간 처리가 아니라, 예를 들면, 시간 방향(프레임 방향)으로 로우패스 필터(LPF) 처리를 수반한 보간 처리를 행한다. 이에 의해, 보간 처리 후의 소정 프레임 간격의 시차정보의 시간 방향(프레임 방향)의 변화가 완만하게 된다.
또한, 오디오 디코더(229)는, 상술한 송신 데이터 생성부(110)의 오디오 인코더(113)와는 반대의 처리를 행한다. 즉, 이 오디오 디코더(229)는, 디멀티플렉서(221)에서 추출된 오디오의 패킷으로부터 오디오의 엘리멘터리 스트림을 재구성하고, 복호화 처리를 행하여, 출력 음성 데이터(Aout)를 얻는다. 이 오디오 디코더(229)는, 출력 음성 데이터(Aout)를, 비트 스트림 처리부(201)의 외부에 출력한다.
도 49에 도시하는 비트 스트림 처리부(201)의 동작을 간단히 설명한다. 디지털 튜너(204)(도 48 참조)로부터 출력되는 트랜스포트 스트림(TS)은, 디멀티플렉서(221)에 공급된다. 이 디멀티플렉서(221)에서는, 트랜스포트 스트림(TS)으로부터, 비디오 데이터 스트림, 오디오 데이터 스트림의 패킷이 추출되고, 각 디코더에 공급된다. 또한, 이 디멀티플렉서(221)에서는, 또한, 유저가 선택한 언어의 2D 스트림 및 3D 확장 스트림의 패킷이 추출되어, 부호화 데이터 버퍼(223)에 일시적으로 축적된다.
비디오 디코더(222)에서는, 디멀티플렉서(221)에서 추출된 비디오 데이터의 패킷으로부터 비디오 데이터 스트림이 재구성되고, 또한 복호화 처리가 행하여져서, 좌안화상 데이터 및 우안화상 데이터를 포함하는 입체화상 데이터가 얻어진다. 이 입체화상 데이터는, 비디오 중첩부(228)에 공급된다.
서브타이틀 디코더(224)에서는, 부호화 데이터 버퍼(223)로부터 2D 스트림 및 3D 확장 스트림의 패킷이 판독되어 디코드된다. 그리고, 서브타이틀 디코더(224)에서는, 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터 및 서브리전의 영역 정보에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터(비트맵 데이터)가 생성된다. 이 표시 데이터는, 픽셀 버퍼(225)에 일시적으로 축적된다.
비디오 중첩부(228)에서는, 비디오 디코더(222)에서 얻어진 입체화상 데이터의 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1)의 부분에, 각각, 픽셀 버퍼(225)에 축적되어 있는 표시 데이터가 중첩된다. 이 경우, 입체화상 데이터의 전송 방식(사이드·바이·사이드 방식, 톱·앤드·보텀 방식, 프레임·시퀀셜 방식, MVC 방식 등)에 응하여, 적절히, 중첩 위치, 사이즈 등이 변경된다. 이 비디오 중첩부(228)에서 얻어지는 출력입체화상 데이터(Vout)는, 비트 스트림 처리부(201)의 외부에 출력된다.
또한, 서브타이틀 디코더(224)에서 얻어지는 시차정보는, 시차정보 보간부(226)를 통하여 위치 제어부(227)에 보내진다. 시차정보 보간부(226)에서는, 필요에 응하여, 보간 처리가 행하여진다. 예를 들면, 자막 표시 기간 내에서 순차적으로 갱신되는 수 프레임 간격의 시차정보에 관해서는, 시차정보 보간부(226)에서 필요에 응하여 보간 처리가 시행되어, 임의의 프레임 간격, 예를 들면, 1프레임 간격의 시차정보가 생성된다.
위치 제어부(227)에서는, 비디오 중첩부(228)에서 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1) 부분에 중첩되는 표시 데이터(자막 패턴 데이터)를, 시차정보에 의거하여, 서로 반대 방향이 되도록 시프트 조정하는 것이 행하여진다. 이에 의해, 좌안화상에 표시되는 좌안 서브타이틀과 우안화상에 표시되는 우안 서브타이틀과의 사이에 시차가 부여된다. 따라서, 입체화상의 내용에 응한, 서브타이틀(자막)의 3D 표시가 실현된다.
또한, 오디오 디코더(229)에서는, 디멀티플렉서(221)에서 추출된 오디오의 패킷으로부터 오디오 엘리멘터리 스트림이 재구성되고, 또한 복호화 처리가 행하여지고, 상술한 표시용 입체화상 데이터(Vout)에 대응하는 음성 데이터(Aout)가 얻어진다. 이 음성 데이터(Aout)는, 비트 스트림 처리부(201)의 외부에 출력된다.
도 53은, 셋톱 박스(200)가 2D 대응 기기(2D STB)인 경우에 있어서의 비트 스트림 처리부(201)의 구성례를 도시하고 있다. 이 도 53에서, 도 49와 대응하는 부분에는, 동일 부호를 붙이고, 그 상세 설명은 생략한다. 이하, 설명의 편리를 위해, 도 49에 도시하는 비트 스트림 처리부(201)를 3D 대응 비트 스트림 처리부(201)로 부르고, 도 53에 도시하는 비트 스트림 처리부(201)를 2D 대응 비트 스트림 처리부(201)로 부르기로 한다.
도 49에 도시하는 3D 대응 비트 스트림 처리부(201)에서, 비디오 디코더(222)는, 디멀티플렉서(221)에서 추출된 비디오의 패킷으로부터 비디오 데이터 스트림을 재구성하고, 복호화 처리를 행하여, 좌안화상 데이터 및 우안화상 데이터를 포함하는 입체화상 데이터를 취득한다. 그에 대해, 도 53에 도시하는 2D 대응 비트 스트림 처리부(201)에서, 비디오 디코더(222)는, 입체화상 데이터를 취득한 후, 좌안화상 데이터 또는 우안화상 데이터를 잘라내고, 필요에 응하여 스케일링 처리 등을 행하여 2차원 화상 데이터를 얻는다.
또한, 도 49에 도시하는 3D 대응 비트 스트림 처리부(201)에서, 디멀티플렉서(221)는, 상술한 바와 같이, 유저가 선택한 언어의 2D 스트림 및 3D 확장 스트림의 패킷을 추출하고, 서브타이틀 디코더(224)에 보낸다. 그에 대해, 도 53에 도시하는 2D 대응 비트 스트림 처리부(201)에서, 디멀티플렉서(221)는, 도 43에서 설명한 바와 같이, 유저가 선택한 언어의 2D 스트림의 패킷만을 추출하고, 서브타이틀 디코더(224)에 보낸다.
이 경우, 디멀티플렉서(221)는, 서브타이틀 타입 정보, 언어 정보에 의거하여, 트랜스포트 스트림(TS)으로부터 2D 스트림만을 용이하며 정밀도 좋게 추출하여 디코드한다. 즉, 트랜스포트 스트림(TS)에는, 2D 스트림 및 3D 확장 스트림에 대응하여 삽입되어 있는 컴포넌트·디스크립터, 서브타이틀·디스크립터가 삽입되어 있다(도 15 참조).
이러한 디스크립터에는, 2D 스트림 및 3D 확장 스트림을 각각 식별 가능하게 서브타이틀 타입 정보「subtitling_type」 및 언어 정보「ISO_639_language_code」가 설정되어 있다(도 15, 도 19 참조). 그 때문에, 디멀티플렉서(221)는, 당해 서브타이틀 타입 정보, 언어 정보에 의거하여, 트랜스포트 스트림(TS)으로부터 2D 스트림만을 용이하며 정밀도 좋게 추출하는 것이 가능해진다.
또한, 도 49에 도시하는 3D 대응 비트 스트림 처리부(201)에서, 서브타이틀 디코더(224)는, 상술한 바와 같이, 예를 들면, 2D 스트림으로부터 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터를 취득하고, 또한, 3D 확장 스트림으로부터 DSS의 세그먼트의 데이터를 취득한다.
그에 대해, 도 53에 도시하는 2D 대응 비트 스트림 처리부(201)에서, 서브타이틀 디코더(224)는, 2D 스트림으로부터 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터만을 취득한다. 그리고, 서브타이틀 디코더(224)는, 이 각 세그먼트의 데이터 및 서브리전의 영역 정보에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터(비트맵 데이터)를 생성하고, 픽셀 버퍼(225)에 일시적으로 축적한다. 이 경우, 서브타이틀 디코더(224)는, DSS의 세그먼트의 데이터의 판독을 행하지 않는다. 그 때문에, 그 판독이 수신 처리의 방해가 되는 것을 회피할 수 있다.
또한, 도 49에 도시하는 3D 대응 비트 스트림 처리부(201)에서, 비디오 중첩부(228)는, 출력입체화상 데이터(Vout)를 얻어서, 비트 스트림 처리부(201)의 외부에 출력한다. 이 경우, 비디오 디코더(222)에서 얻어진 입체화상 데이터의 좌안화상 프레임(frame0) 부분 및 우안화상 프레임(frame1)의 부분에, 각각, 픽셀 버퍼(225)에 축적되어 있는 표시 데이터를 중첩하여, 출력입체화상 데이터(Vout)를 얻는다. 그리고, 위치 제어부(227)는, 그 표시 데이터를, 시차정보에 의거하여, 서로 반대 방향이 되도록 시프트 조정하고, 좌안화상에 표시되는 좌안 서브타이틀과 우안화상에 표시되는 우안 서브타이틀과의 사이에 시차를 부여한다.
그에 대해, 도 53에 도시하는 2D 대응 비트 스트림 처리부(201)에서, 비디오 중첩부(228)는, 비디오 디코더(222)에서 얻어진 2차원 화상 데이터에 픽셀 버퍼(225)에 축적되어 있는 표시 데이터를 중첩하고, 출력 2차원 화상 데이터(Vout)를 얻는다. 그리고, 비디오 중첩부(228)는, 이 출력 2차원 화상 데이터(Vout)를, 비트 스트림 처리부(201)의 외부에 출력한다.
도 53에 도시하는 2D 비트 스트림 처리부(201)의 동작을 간단히 설명한다. 또한, 오디오계의 동작에 관해서는, 도 49에 도시하는 3D 비트 스트림 처리부(201)와 마찬가지이기 때문에 생략한다.
디지털 튜너(204)(도 48 참조)로부터 출력되는 트랜스포트 스트림(TS)은, 디멀티플렉서(221)에 공급된다. 이 디멀티플렉서(221)에서는, 트랜스포트 스트림(TS)으로부터, 비디오 데이터 스트림, 오디오 데이터 스트림의 패킷이 추출되고, 각 디코더에 공급된다. 또한, 이 디멀티플렉서(221)에서는, 또한, 2D 스트림의 패킷이 추출되어, 부호화 데이터 버퍼(223)에 일시적으로 축적된다.
비디오 디코더(222)에서는, 디멀티플렉서(221)에서 추출된 비디오 데이터의 패킷으로부터 비디오 데이터 스트림이 재구성되고, 또한 복호화 처리가 행하여져서, 좌안화상 데이터 및 우안화상 데이터를 포함하는 입체화상 데이터가 얻어진다. 그리고, 비디오 디코더(222)에서는, 또한, 이 입체화상 데이터로부터 좌안화상 데이터 또는 우안화상 데이터가 잘라내어지고, 필요에 응하여 스케일링 처리 등이 시행되어, 2차원 화상 데이터가 얻어진다. 이 2차원 화상 데이터는, 비디오 중첩부(228)에 공급된다.
또한, 서브타이틀 디코더(224)에서는, 부호화 데이터 버퍼(223)로부터 2D 스트림이 판독되어 디코드된다. 그리고, 서브타이틀 디코더(224)에서는, 서브타이틀 데이터를 구성하는 각 세그먼트의 데이터에 의거하여, 서브타이틀을 표시하기 위한 리전의 표시 데이터(비트맵 데이터)가 생성된다. 이 표시 데이터는, 픽셀 버퍼(225)에 일시적으로 축적된다.
비디오 중첩부(228)에서는, 비디오 디코더(222)에서 얻어진 2차원 화상 데이터에 대해 픽셀 버퍼(225)에 축적되어 있는 서브타이틀의 표시 데이터(비트맵 데이터)가 중첩되고, 출력 2차원 화상 데이터(Vout)가 얻어진다. 이 출력 2차원 화상 데이터(Vout)는, 비트 스트림 처리부(201)의 외부에 출력된다.
도 48에 도시하는 셋톱 박스(200)에서, 디지털 튜너(204)로부터 출력되는 트랜스포트 스트림(TS)에는, 입체화상 데이터, 서브타이틀 데이터 외에, 표시 제어 정보도 포함된다. 이 표시 제어 정보에는, 표시 제어 정보(서브리전의 영역 정보, 시차정보 등)가 포함되어 있다. 그 때문에, 좌안 서브타이틀 및 우안 서브타이틀의 표시 위치에 시차를 부여할 수 있고, 서브타이틀(자막)의 표시에서, 화상 내의 각 물체와의 사이의 원근감의 정합성을 최적의 상태로 유지하는 것이 가능해진다.
또한, 도 48에 도시하는 셋톱 박스(200)에서, 3D 대응 비트 스트림 처리부(201)(도 46 참조)의 서브타이틀 디코더(224)에서 취득되는 표시 제어 정보에 자막 표시 기간 내에서 순차적으로 갱신되는 시차정보가 포함되는 경우, 좌안 서브타이틀 및 우안 서브타이틀의 표시 위치를 동적으로 제어할 수 있다. 이에 의해, 좌안 서브타이틀 및 우안 서브타이틀의 사이에 부여하는 시차를 화상 내용의 변화에 연동하여 동적으로 변화시키는 것이 가능해진다.
또한, 도 48에 도시하는 셋톱 박스(200)에서, 3D 비트 스트림 처리부(201)(도 49 참조)의 시차정보 보간부(226)에서, 자막 표시 기간(소정수의 프레임 기간) 내에서 순차적으로 갱신되는 시차정보를 구성하는 복수 프레임의 시차정보에 대해 보간 처리가 시행된다. 이 경우, 송신측부터 갱신 프레임 간격마다 시차정보가 송신되는 경우라도, 좌안 서브타이틀 및 우안 서브타이틀의 사이에 부여하는 시차를, 미세한 간격으로, 예를 들면 프레임마다 제어하는 것이 가능해진다.
또한, 도 48에 도시하는 셋톱 박스(200)에서, 3D 비트 스트림 처리부(201)(도 49 참조)의 시차정보 보간부(226)에서의 보간 처리는, 예를 들면, 시간 방향(프레임 방향)의 로우패스 필터 처리를 수반하도록 할 수도 있다. 그 때문에, 송신측부터 갱신 프레임 간격마다 시차정보가 송신되는 경우라도, 보간 처리 후의 시차정보의 시간 방향의 변화를 완만하게 할 수가 있어서, 좌안 서브타이틀 및 우안 서브타이틀의 사이에 부여된 시차의 추이가, 갱신 프레임 간격마다 불연속으로 됨에 의한 위화감을 억제할 수 있다.
또한, 도 48에 도시하는 셋톱 박스(200)에서, 2D 비트 스트림 처리부(201)(도 53 참조)의 디멀티플렉서(221)는, 서브타이틀 타입 정보, 언어 정보에 의거하여, 트랜스포트 스트림(TS)으로부터 2D 스트림만을 용이하며 정밀도 좋게 추출한다. 이에 의해, 서브타이틀 디코더(224)가 시차정보를 갖는 DSS의 세그먼트가 포함되는 3D 확장 스트림에 대해 디코드 처리를 행하는 것을 강고하게 방지할 수가 있어서, 그 처리가 수신 처리의 방해가 되는 것을 회피할 수 있다.
또한, 위에서 설명하고는 있지 않지만, 셋톱 박스(200)가 3D 대응 기기인 경우로서, 2차원 표시 모드 또는 3차원 표시 모드의 유저 선택이 가능한 구성도 생각된다. 그 경우, 3차원 표시 모드가 선택될 때에는, 비트 스트림 처리부(201)는, 상술한 3D 대응 비트 스트림 처리부(201)(도 49 참조)와 같은 구성, 동작으로 된다. 한편, 2차원 표시 모드가 선택될 때에는, 비트 스트림 처리부(201)는, 상술한 2D 대응 비트 스트림 처리부(201)(도 53 참조)와 실질적으로 같은 구성, 동작으로 된다.
[텔레비전 수신기의 설명]
도 1로 되돌아와, 텔레비전 수신기(300)는, 3D 대응 기기인 경우, 셋톱 박스(200)로부터 HDMI 케이블(400)을 통하여 보내 오는 입체화상 데이터를 수신한다. 이 텔레비전 수신기(300)는, 3D신호 처리부(301)를 갖고 있다. 이 3D신호 처리부(301)는, 입체화상 데이터에 대해, 전송 포맷에 대응한 처리(디코드 처리)를 행하여, 좌안화상 데이터 및 우안화상 데이터를 생성한다.
[텔레비전 수신기의 구성례]
3D 대응의 텔레비전 수신기(300)의 구성례를 설명한다. 도 54는, 텔레비전 수신기(300)의 구성례를 도시하고 있다. 이 텔레비전 수신기(300)는, 3D신호 처리부(301)와, HDMI 단자(302)와, HDMI 수신부(303)와, 안테나 단자(304)와, 디지털 튜너(305)와, 비트 스트림 처리부(306)를 갖고 있다.
또한, 이 텔레비전 수신기(300)는, 영상·그래픽 처리 회로(307)와, 패널 구동 회로(308)와, 표시 패널(309)과, 음성신호 처리 회로(310)와, 음성 증폭 회로(311)와, 스피커(312)를 갖고 있다. 또한, 이 텔레비전 수신기(300)는, CPU(321)와, 플래시 ROM(322)과, DRAM(323)과, 내부 버스(324)와, 리모트 컨트롤 수신부(RC 수신부)(325)와, 리모트 컨트롤 송신기(RC 송신기)(326)를 갖고 있다.
안테나 단자(304)는, 수신 안테나(도시 생략)에서 수신된 텔레비전 방송 신호를 입력하는 단자이다. 디지털 튜너(305)는, 안테나 단자(304)에 입력된 텔레비전 방송 신호를 처리하여, 유저의 선택 채널에 대응한 트랜스포트 스트림(비트 스트림 데이터)(TS)을 출력한다.
비트 스트림 처리부(306)는, 트랜스포트 스트림(TS)에 의거하여, 서브타이틀이 중첩된 출력입체화상 데이터 및 음성 데이터를 출력한다. 이 비트 스트림 처리부(201)는, 상세 설명은 생략하지만, 예를 들면, 상술한 셋톱 박스(200)의, 3D 대응 비트 스트림 처리부(201)(도 49 참조)와 같은 구성으로 된다. 이 비트 스트림 처리부(306)는, 입체화상 데이터에 대해, 좌안 서브타이틀 및 우안 서브타이틀의 표시 데이터를 합성하고, 서브타이틀이 중첩된 출력입체화상 데이터를 생성하여 출력한다.
또한, 이 비트 스트림 처리부(306)는, 예를 들면, 입체화상 데이터의 전송 포맷이 사이드·바이·사이드 방식, 또는 톱·앤드·보텀 방식 등인 경우, 스케일링 처리를 시행하여, 풀 해상도의 좌안화상 데이터 및 우안화상 데이터를 출력한다. 또한, 비트 스트림 처리부(306)는, 화상 데이터에 대응하는 음성 데이터를 출력한다.
HDMI 수신부(303)는, HDMI에 준거한 통신에 의해, HDMI 케이블(400)을 통해 HDMI 단자(302)에 공급되는 비압축의 화상 데이터 및 음성 데이터를 수신한다. 이 HDMI 수신부(303)는, 그 버전이 예를 들면 HDMI1.4a로 되어 있고, 입체화상 데이터의 취급이 가능한 상태에 있다.
3D신호 처리부(301)는, HDMI 수신부(303)에서 수신된 입체화상 데이터에 대해, 디코드 처리를 행하여, 풀 해상도의 좌안화상 데이터 및 우안화상 데이터를 생성한다. 3D신호 처리부(301)는, TMDS 전송 데이터 포맷에 대응하는 디코드 처리를 행하다. 또한, 3D신호 처리부(301)는, 비트 스트림 처리부(306)에서 얻어진 풀 해상도의 좌안화상 데이터 및 우안화상 데이터에 대해서는 아무것도 하지 않다.
영상·그래픽 처리 회로(307)는, 3D신호 처리부(301)에서 생성된 좌안화상 데이터 및 우안화상 데이터에 의거하여, 입체화상을 표시하기 위한 화상 데이터를 생성한다. 또한, 영상·그래픽 처리 회로(307)는, 화상 데이터에 대해, 필요에 응하여, 화질 조정 처리를 행한다.
또한, 영상·그래픽 처리 회로(307)는, 화상 데이터에 대해, 필요에 응하여, 메뉴, 방송프로그램표 등의 중첩정보의 데이터를 합성한다. 패널 구동 회로(308)는, 영상·그래픽 처리 회로(307)로부터 출력되는 화상 데이터에 의거하여, 표시 패널(309)을 구동한다. 표시 패널(309)은, 예를 들면, LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 등으로 구성되어 있다.
음성신호 처리 회로(310)는, HDMI 수신부(303)에서 수신된, 또는 비트 스트림 처리부(306)에서 얻어진 음성 데이터에 대해 D/A 변환 등의 필요한 처리를 행한다. 음성 증폭 회로(311)는, 음성신호 처리 회로(310)로부터 출력되는 음성신호를 증폭하여 스피커(312)에 공급한다.
CPU(321)는, 텔레비전 수신기(300)의 각 부분의 동작을 제어한다. 플래시 ROM(322)은, 제어 소프트웨어의 격납 및 데이터의 보관을 행한다. DRAM(323)은, CPU(321)의 워크 에어리어를 구성한다. CPU(321)는, 플래시 ROM(322)으로부터 판독한 소프트웨어나 데이터를 DRAM(323)상에 전개하여 소프트웨어를 기동시켜, 텔레비전 수신기(300)의 각 부분을 제어한다.
RC 수신부(325)는, RC 송신기(326)로부터 송신된 리모트 컨트롤 신호(리모트 코드)를 수신하고, CPU(321)에 공급한다. CPU(321)는, 이 리모트 코드에 의거하여, 텔레비전 수신기(300)의 각 부분을 제어한다. CPU(321), 플래시 ROM(322) 및 DRAM(323)은, 내부 버스(324)에 접속되어 있다.
도 54에 도시하는 텔레비전 수신기(300)의 동작을 간단히 설명한다. HDMI 수신부(303)에서는, HDMI 단자(302)에 HDMI 케이블(400)을 통하여 접속되어 있는 셋톱 박스(200)로부터 송신되어 오는, 입체화상 데이터 및 음성 데이터가 수신된다. 이 HDMI 수신부(303)에서 수신된 입체화상 데이터는, 3D신호 처리부(301)에 공급된다. 또한, 이 HDMI 수신부(303)에서 수신된 음성 데이터는 음성신호 처리 회로(310)에 공급된다.
안테나 단자(304)에 입력된 텔레비전 방송 신호는 디지털 튜너(305)에 공급된다. 이 디지털 튜너(305)에서는, 텔레비전 방송 신호가 처리되어, 유저의 선택 채널에 대응한 트랜스포트 스트림(비트 스트림 데이터)(TS)이 출력된다. 이 트랜스포트 스트림(TS)은, 비트 스트림 처리부(306)에 공급된다.
비트 스트림 처리부(306)에서는, 비디오 데이터 스트림, 오디오 데이터 스트림, 나아가서는, 2D 스트림, 3D 확장 스트림, 3D 스트림에 의거하여, 서브타이틀이 중첩된 출력입체화상 데이터 및 음성 데이터가 얻어진다. 이 경우, 입체화상 데이터에 대해, 좌안 서브타이틀 및 우안 서브타이틀의 표시 데이터가 합성되어, 서브타이틀이 중첩된 출력입체화상 데이터(풀 해상도의 좌안화상 데이터 및 우안화상 데이터)가 생성된다. 이 출력입체화상 데이터는, 3D신호 처리부(301)를 통하여, 영상·그래픽 처리 회로(307)에 공급된다.
3D신호 처리부(301)에서는, HDMI 수신부(303)에서 수신된 입체화상 데이터에 대해 디코드 처리가 행하여져서, 풀 해상도의 좌안화상 데이터 및 우안화상 데이터가 생성된다. 이 좌안화상 데이터 및 우안화상 데이터는, 영상·그래픽 처리 회로(307)에 공급된다. 이 영상·그래픽 처리 회로(307)에서는, 좌안화상 데이터 및 우안화상 데이터에 의거하여, 입체화상을 표시하기 위한 화상 데이터가 생성되고, 필요에 응하여, 화질 조정 처리, OSD(온스크린 디스플레이) 등의 중첩정보 데이터의 합성 처리도 행하여진다.
이 영상·그래픽 처리 회로(307)에서 얻어지는 화상 데이터는 패널 구동 회로(308)에 공급된다. 그 때문에, 표시 패널(309)에 의해 입체화상이 표시된다. 예를 들면, 표시 패널(309)에, 좌안화상 데이터에 의한 좌안화상 및 우안화상 데이터에 의한 우안화상이 교대로 시분할적으로 표시된다. 시청자는, 예를 들면, 표시 패널(309)의 표시에 동기하여 좌안 셔터 및 우안 셔터가 교대로 열리는 셔터 안경을 장착함으로써, 좌안으로는 좌안화상만을 볼 수 있고, 우안으로는 우안화상만을 볼 수가 있어서, 입체화상을 지각할 수 있다.
또한, 비트 스트림 처리부(306)에서 얻어진 음성 데이터는, 음성신호 처리 회로(310)에 공급된다. 이 음성신호 처리 회로(310)에서는, HDMI 수신부(303)에서 수신된, 또는 비트 스트림 처리부(306)에서 얻어진 음성 데이터에 대해 D/A 변환 등의 필요한 처리가 시행된다. 이 음성 데이터는, 음성 증폭 회로(311)에서 증폭된 후에, 스피커(312)에 공급된다. 그 때문에, 스피커(312)로부터 표시 패널(309)의 표시 화상에 대응한 음성이 출력된다.
또한, 도 54는 상술한 바와 같이 3D 대응의 텔레비전 수신기(300)이다. 상세 설명은 생략하지만, 레거시의 2D 대응의 텔레비전 수신기도 거의 같은 구성으로 된다. 단, 레거시의 2D 대응의 텔레비전 수신기의 경우, 비트 스트림 처리부(306)는, 상술한 도 53에 도시하는 2D 대응 비트 스트림 처리부(201)와 같은 구성, 동작으로 된다. 또한, 레거시의 2D 대응의 텔레비전 수신기의 경우, 3D신호 처리부(301)는 불필요하게 된다.
또한, 3D 대응의 텔레비전 수신기(300)에서, 2차원 표시 모드 또는 3차원 표시 모드의 유저 선택이 가능한 구성도 생각된다. 그 경우, 3차원 표시 모드가 선택될 때에는, 비트 스트림 처리부(306)는, 상술한 바와 마찬가지의 구성, 동작으로 된다. 한편, 2차원 표시 모드가 선택될 때에는, 비트 스트림 처리부(306)는, 상술한 도 53에 도시하는 2D 대응 비트 스트림 처리부(201)와 같은 구성, 동작으로 된다.
<2. 변형례>
또한, 상술한 실시의 형태에서는, 3D 확장 스트림에 포함되는 시차정보를, 컴포지션·페이지(composition_page)로서 운용하는 것을 나타내었다(도 15, 도 19, 도 23 참조). 그 경우, 상술한 바와 같이, 3D 확장 스트림이, 각 언어의 서비스 중에, 「composition_page_id」로 받아들여지고, 「subtitling_type=3D」, 「ISO_639_language_code=zxx」로 지정된다.
이에 대해, 3D 확장 스트림에 포함되는 시차정보를, 앤실러리·페이지(ancillary_page)로서 운용하는 것도 생각된다. 이 경우, 3D 확장 스트림이 각 언어 서비스 공통의 앤실러리·페이지 ID(ancillary_page_id)로 지정되면, 각 언어 서비스로부터 공통으로 참조되는 것이 되고, 서브타이틀 서비스의 효율적인 부호화가 가능해진다. 또한, 그 경우에도, 3D 확장 스트림은, 「subtitling_type=3D」, 「ISO_639_language_code=zxx」로 지정되는 것은 변하지 않는다. 단, 3D 확장 스트림의 구성이, DDS, DSS, EDS의 경우로 한한다. PCS는, 서비스 사이에서 공유는 허용되어 있지 않고, 따라서, "page_id"는, 항상, "composition_page_id"와 동일할 것이 요구되기 때문이다.
도 55는, 그 경우에 있어서의 트랜스포트 스트림(TS)의 구성례를 도시하고 있다. 이 도면에서도, 상술한 도 15에 도시하는 트랜스포트 스트림(TS)의 구성례와 마찬가지로, 도면의 간단화를 위해, 비디오 및 오디오에 관계되는 부분의 도시를 생략하고 있다. 이 도 55에서, 도 15와 대응하는 부분에 관해서는, 적절히, 그 설명을 생략한다.
PMT의 배하에, 2D 스트림 및 3D 확장 스트림에 각각 대응하는 서브타이틀·디스크립터(Subtitling_descriptor)가 삽입되어 있다. 2D 스트림에서는, 앤실러리·페이지 ID(ancillary_page_id)를 운용하지 않는다. 그 때문에, 2D 스트림에 대응한 서브타이틀·디스크립터의 앤실러리·페이지 ID "ancillary_page_id"는, 컴포지션·페이지 ID "composition_page_id"와 같은 값(도시에서는 「0xXXXX」)으로 설정된다. 즉, 앤실러리·페이지 ID를 운용하지 않는 경우는, 쌍방의 페이지 ID의 값은 같게 될 것이 요구되기 때문이다. 2D 스트림의 각 세그먼트의 "page_id"는, "composition_page_id"와 같은 값을 갖도록 인코드된다.
한편, 3D 확장 스트림에서는, 앤실러리·페이지 ID "ancillary_page_id"를 운용한다. 그 때문에, 3D 확장 스트림에 대응한 서브타이틀·디스크립터의 앤실러리·페이지 ID "ancillary_page_id"는, 컴포지션·페이지 ID "composition_page_id"와 다른 값(도시에서는 「0xPPPP」)으로 설정된다. 3D 확장 스트림의 각 세그먼트의 "page_id"는, "ancillary_page_id"와 같은 값을 갖도록 인코드된다. 이에 의해, 3D 확장 스트림은, 앤실러리·페이지 ID "ancillary_page_id"와 같은 페이지 ID "page_id"의 값으로, 각 언어 서비스 공통으로 참조된다.
도 56은, 도 55에 도시되어 있는 서브타이틀·디스크립터(Subtitling_descriptor) 및 컴포넌트·디스크립터(Component_descriptor)를 취출하여 도시하고 있다. 또한, 도 57은, 도 55에 도시되어 있는 PES 스트림(2D 스트림, 3D 확장 스트림)을 취출하여 도시하고 있다.
3D 확장 스트림에 포함되는 각 세그먼트가 2D 스트림의 각 세그먼트에 관련되는 것을 나타내도록, 서브타이틀·디스크립터의 컴포지션·페이지 ID "composition_page_id"가 설정된다. 즉, 3D 확장 스트림과 2D 스트림에서, 이 "composition_page_id"는, 같은 값(도시에서는 「0xXXXX」)을 공유하도록 설정된다.
또한, 서브타이틀·디스크립터 및 컴포넌트·디스크립터에는, 언어 정보로서, 예를 들면, ISO 언어 코드(ISO_639_language_code)가 기술된다. 2D 스트림에 대응한 디스크립터의 ISO 언어 코드는, 서브타이틀(자막)의 언어를 나타내도록 설정된다. 도시한 예에서는, 영어를 나타내는 「eng」로 설정되어 있다. 3D 확장 스트림은, 시차정보를 갖는 DSS의 세그먼트를 갖지만, ODS의 세그먼트는 갖고 있지 않고, 따라서 언어에는 의존하지 않는다. 이 3D 확장 스트림에 대응한 디스크립터에 기술되는 ISO 언어 코드는, 예를 들면, 비언어를 나타내는 「zxx」로 설정된다.
또한, 2D 스트림에 대응한 서브타이틀·디스크립터의 앤실러리·페이지 ID "ancillary_page_id"는, 컴포지션·페이지 ID "composition_page_id"와 같은 값(도시에서는 「0xXXXX」)으로 설정되어 있다. 한편, 3D 확장 스트림에 대응한 서브타이틀·디스크립터의 앤실러리·페이지 ID "ancillary_page_id"는, 컴포지션·페이지 ID "composition_page_id"와 다른 값(도시에서는 「0xPPPP」)으로 설정어 있다.
도 58은, 서브타이틀 데이터 스트림(2D 스트림 및 3D 확장 스트림)의 스트림 구성례를 도시하고 있다. 이 예는, 도 23의 구성례와 마찬가지로, 영어 "eng"와 독일어 "ger"의 2개의 언어 서비스례이다. 도 23의 구성례와는 달리, 3D 확장 스트림이 각 언어의 서비스의 중에 「composition_page_id」로 받아들여져 있지 않다. 이 구성례에서는, 3D 확장 스트림은, 각 언어 서비스 공통의 앤실러리·페이지 ID "ancillary_page_id"로, 각 언어 서비스로부터 공통으로 참조된다.
도 59는, 3D 대응 기기(셋톱 박스, 텔레비전 수신기 등)에서, 유저가 선택한 언어 서비스가 영어 "eng"인 경우의, 2D 스트림 및 3D 확장 스트림의 추출 처리를 개략적으로 도시하고 있다.
이 경우, 3D 대응 기기는, 서브타이틀 타입 정보에 의거하여, 서브타이틀 타입 "2D(HD, SD)"에 대응한 2D 스트림과, 서브타이틀 타입 "3D"에 대응한 3D 확장 스트림을 추출하여야 할 스트림으로서 결정한다(「○」표시 참조). 또한, 수신 장치는, 유저가 선택한 언어(영어)의 2D 스트림과, 언어 정보(ISO 언어 코드)가 비언어를 나타내고 있는 3D 확장 스트림을 추출하여야 할 스트림으로서 결정한다(「○」표시 참조).
이 경우, 서브타이틀 타입 정보 및 언어 정보에 의거하여, 결과적으로, 영어 "eng"에 대응하는 2D 스트림과, "ancillary_page_id"로 각 언어 서비스로부터 공통으로 참조되는 3D 확장 스트림이, 추출하여야 할 스트림으로서 결정된다.
도 60은, 레거시의 2D 대응 기기(셋톱 박스, 텔레비전 수신기 등)에서, 유저가 선택한 언어 서비스가 영어 "eng"인 경우의, 2D 스트림만의 추출 처리를 개략적으로 도시하고 있다.
이 경우, 2D 대응 기기는, 서브타이틀 타입 정보에 의거하여, 서브타이틀 타입 "2D(HD, SD)"에 대응한 2D 스트림을 추출하여야 할 스트림으로서 결정할 수 있다. 여기서, 2D 대응 기기는, 서브타이틀 타입 "3D"를 해석할 수가 없고, 3D 확장 스트림도, 추출하여야 할 스트림으로서 결정할 우려가 있다(「△」표시로 도시).
그러나, 이 경우, 2D 대응 기기는, 언어 정보에 의거하여, 영어 "eng"에 대응한 2D 스트림을 추출하여야 할 스트림으로서 결정하고, 언어 정보가 비언어를 나타내는 3D 확장 스트림은 추출하여야 할 스트림으로서 결정하지 않는다(「×」표시로 도시). 그 결과, 2D 대응 기기는, 영어 "eng"에 대응하는 2D 스트림만을 추출하여야 할 스트림으로서 결정한다. 이에 의해, 2D 대응 기기는, 시차정보를 갖는 DSS의 세그먼트가 포함되는 3D 확장 스트림에 대해 디코드 처리를 행하는 것을 보다 확실하게 방지할 수가 있어서, 그 처리가 수신 처리의 방해가 되는 것을 회피할 수 있다.
또한, 도 48에 도시하는 셋톱 박스(200)에서는, 디지털 튜너(204)에 접속되는 안테나 입력단자(203)가 마련되는 것을 나타내었다. 그러나, 케이블을 통하여 송신되어 오는 RF 신호를 입력하는 셋톱 박스도 마찬가지로 구성할 수 있다. 그 경우, 안테나 단자(203) 대신에 케이블 단자가 마련되는 것으로 된다.
또한, 인터넷, 홈 네트워크가 직접, 또는 그들이 루터 경유로 접속되는 셋톱 박스도 마찬가지로 구성할 수 있다. 즉, 그 경우, 셋톱 박스에는, 상술한 트랜스포트 스트림(TS)이 인터넷, 홈 네트워크로부터 직접, 또는 그들로부터 루터 경유로 보내 오는 것으로 된다.
도 61은, 그 경우에 있어서의 셋톱 박스(200A)의 구성례를 도시하고 있다. 이 도 61에서, 도 48과 대응하는 부분에는 동일 부호를 붙여서 나타내고 있다. 이 셋톱 박스(200A)는, 네트워크 인터페이스(209)에 접속된 네트워크 단자(208)를 갖고 있다. 그리고, 이 네트워크 인터페이스(209)로부터 트랜스포트 스트림(TS)이 출력되고, 비트 스트림 처리부(201)에 공급된다. 상세 설명은 생략하지만, 이 셋톱 박스(200A)의 기타는, 도 48에 도시하는 셋톱 박스(200)와 마찬가지로 구성되고, 같은 동작을 한다.
또한, 도 54에 도시하는 텔레비전 수신기(300)에서는, 디지털 튜너(204)에 접속된 안테나 입력단자(304)가 마련되는 것을 나타내었다. 그러나, 케이블을 통하여 송신되어 오는 RF 신호를 입력한 텔레비전 수신기도 마찬가지로 구성할 수 있다. 그 경우, 안테나 단자(304) 대신에 케이블 단자가 마련되는 것으로 된다.
또한, 인터넷, 홈 네트워크에 직접, 또는 그들이 루터 경유로 접속된 텔레비전 수신기도 마찬가지로 구성할 수 있다. 즉, 그 경우, 텔레비전 수신기에는, 상술한 트랜스포트 스트림(TS)이 인터넷, 홈 네트워크로부터 직접, 또는 그들로부터 루터 경유로 보내 오는 것으로 된다.
도 62는, 그 경우에 있어서의 텔레비전 수신기(300A)의 구성례를 도시하고 있다. 이 도 62에서, 도 54와 대응하는 부분에는 동일 부호를 붙여서 나타내고 있다. 이 텔레비전 수신기(300A)는, 네트워크 인터페이스(314)에 접속된 네트워크 단자(313)을 갖고 있다. 그리고, 이 네트워크 인터페이스(314)로부터 트랜스포트 스트림(TS)이 출력되고, 비트 스트림 처리부(306)에 공급된다. 상세 설명은 생략하지만, 이 텔레비전 수신기(300A)의 기타는, 도 54에 도시하는 텔레비전 수신기(300)와 마찬가지로 구성되고, 같은 동작을 한다.
또한, 상술한 실시의 형태에서는, 화상 송수신 시스템(10)이, 방송국(100), 셋톱 박스(200) 및 텔레비전 수신기(300)로 구성되어 있는 것을 나타내었다. 그러나, 텔레비전 수신기(300)는, 도 54에 도시하는 바와 같이, 셋톱 박스(200) 내의 비트 스트림 처리부(201)와 마찬가지로 기능하는 비트 스트림 처리부(306)를 구비하고 있다. 따라서 도 63에 도시하는 바와 같이, 방송국(100) 및 텔레비전 수신기(300)로 구성된 화상 송수신 시스템(10A)도 생각된다.
또한, 상술한 실시의 형태에서는, 셋톱 박스(200)와, 텔레비전 수신기(300)가, HDMI의 디지털 인터페이스로 접속되는 것을 나타내고 있다. 그러나, 이들이, HDMI의 디지털 인터페이스와 같은 디지털 인터페이스(유선 외에 무선도 포함한다)로 접속된 경우에서도, 본 발명을 마찬가지로 적용할 수 있다.
또한, 상술한 실시의 형태에서는, 중첩정보로서 서브타이틀(자막)을 취급하는 것을 나타내었다. 그러나, 그 밖의 그래픽스 정보, 텍스트 정보 등의 중첩정보를 위시하여, 기본 스트림과 추가 스트림으로 분할된 것이 관련되어 출력되도록 인코더 되는 것으로, 오디오의 스트림에 관해 취급하는 것에도, 본 발명을 마찬가지로 적용할 수 있다.
또한, 본 기술은, 이하와 같은 구성을 취할 수도 있다.
(1) 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 출력하는 화상 데이터 출력부와,
상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 출력하는 중첩정보 데이터 출력부와,
상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 출력하는 시차정보 출력부와,
상기 화상 데이터 출력부로부터 출력되는 화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 중첩정보 데이터 출력부로부터 출력되는 중첩정보의 데이터를 포함하는 제1의 프라이빗 데이터 스트림과, 상기 시차정보 출력부로부터 출력되는 시차정보를 포함하는 제2의 프라이빗 데이터 스트림을 갖는 다중화 데이터 스트림을 송신하는 데이터 송신부를 구비하고,
상기 다중화 데이터 스트림에는, 상기 제1의 프라이빗 데이터 스트림 및 상기 제2의 프라이빗 데이터 스트림에 대응하여 각각 언어 정보를 갖는 제1의 디스크립터 및 제2의 디스크립터가 삽입되어 있고, 상기 제2의 디스크립터가 갖는 언어 정보는 비언어를 나타내도록 설정되어 있는 송신 장치.
(2) 상기 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고,
상기 디스크립터는, 컴포넌트·디스크립터 및 서브타이틀·디스크립터인 상기 (1)에 기재된 송신 장치.
(3) 상기 비언어를 나타내는 언어 정보는, ISO 언어 코드의 비언어를 나타내는 「zxx」인 상기 (1) 또는 (2)에 기재된 송신 장치.
(4) 상기 비언어를 나타내는 언어 정보는, ISO 언어 코드의 「qaa」부터 「qrz」의 공간에 포함되는 언어 코드의 어느 하나인 상기 (1) 또는 (2)에 기재된 송신 장치.
(5) 상기 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고,
상기 다중화 데이터 스트림에는, 상기 제1의 프라이빗 데이터 스트림 및 상기 제2의 프라이빗 데이터 스트림에 각각 대응한 제1의 서브타이틀·디스크립터 및 제2의 서브타이틀·디스크립터가 삽입되어 있고,
상기 제1의 서브타이틀·디스크립터의 서브타이틀 타입 정보가 나타내는 서브타이틀 타입과 상기 제2의 서브타이틀·디스크립터의 서브타이틀 타입 정보가 나타내는 서브타이틀 타입은 다르도록 되어 있는 상기 (1)부터 (4)의 어느 하나에 기재된 송신 장치.
(6) 상기 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고,
상기 제1의 프라이빗 데이터 스트림의 상기 중첩정보의 데이터가 포함되는 세그먼트와 상기 제2의 프라이빗 데이터 스트림의 상기 시차정보가 포함되는 세그먼트의 페이지 ID는 동일하게 되어 있는 상기 (1)부터 (5)의 어느 하나에 기재된 송신 장치.
(7) 상기 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고,
상기 제2의 프라이빗 데이터 스트림에 포함되는 시차정보를 앤실러리·페이지로서 운용하는 상기 (1)부터 (5)의 어느 하나에 기재된 송신 장치.
(8) 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 출력하는 화상 데이터 출력 스텝과,
상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 출력하는 중첩정보 데이터 출력 스텝과,
상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 출력하는 시차정보 출력 스텝과,
상기 화상 데이터 출력 스텝에서 출력되는 화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 중첩정보 데이터 출력 스텝에서 출력되는 중첩정보의 데이터를 포함하는 제1의 프라이빗 데이터 스트림과, 상기 시차정보 출력 스텝에서 출력되는 시차정보를 포함하는 제2의 프라이빗 데이터 스트림을 갖는 다중화 데이터 스트림을 송신하는 데이터 송신 스텝을 구비하고,
상기 다중화 데이터 스트림에는, 상기 제1의 프라이빗 데이터 스트림 및 상기 제2의 프라이빗 데이터 스트림에 대응하여 각각 언어 정보를 갖는 제1의 디스크립터 및 제2의 디스크립터가 삽입되어 있고, 상기 제2의 디스크립터가 갖는 언어 정보는 비언어를 나타내도록 설정되어 있는 송신 방법.
(9) 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 포함하는 제1의 서브타이틀 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 포함하는 제2의 서브타이틀 데이터 스트림을 갖는 다중화 데이터 스트림을 수신하는 데이터 수신부와,
상기 데이터 수신부에서 수신된 상기 다중화 데이터 스트림으로부터 상기 비디오 데이터 스트림을 추출하여 디코드하는 비디오 디코드부와,
상기 데이터 수신부에서 수신된 다중화 데이터 스트림으로부터 상기 제1의 서브타이틀 데이터 스트림을 추출하여 디코드하는 서브타이틀 디코드부를 구비하고,
상기 다중화 데이터 스트림에는, 상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응하여 각각 서브타이틀 타입 정보를 갖는 디스크립터가 삽입되어 있고,
상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응한 디스크립터가 갖는 서브타이틀 타입 정보는 다른 서브타이틀 타입을 나타내도록 설정되어 있고,
상기 서브타이틀 디코드부는, 상기 디스크립터에 삽입되어 있는 서브타이틀 타입 정보에 의거하여, 상기 다중화 데이터 스트림으로부터 추출하여 디코드하여야 할 서브타이틀 데이터 스트림을 결정하는 수신 장치.
(10) 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 포함하는 제1의 서브타이틀 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 포함하는 제2의 서브타이틀 데이터 스트림을 갖는 다중화 데이터 스트림을 수신하는 데이터 수신부와,
상기 데이터 수신부에서 수신된 상기 다중화 데이터 스트림으로부터 상기 비디오 데이터 스트림을 추출하여 디코드하는 비디오 디코드부와,
상기 데이터 수신부에서 수신된 다중화 데이터 스트림으로부터 상기 제1의 서브타이틀 데이터 스트림을 추출하여 디코드하는 서브타이틀 디코드부를 구비하고,
상기 다중화 데이터 스트림에는, 상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응하여 각각 언어 정보를 갖는 디스크립터가 삽입되어 있고,
상기 제2의 서브타이틀 데이터 스트림에 대응한 디스크립터가 갖는 언어 정보는 비언어를 나타내도록 설정되어 있고,
상기 서브타이틀 디코드부는, 상기 디스크립터에 삽입되어 있는 언어 정보에 의거하여, 상기 다중화 데이터 스트림으로부터 추출하여 디코드하여야 할 서브타이틀 데이터 스트림을 결정하는 수신 장치.
10, 10A : 화상 송수신 시스템
100 : 방송국
111L, 111R : 카메라
112 : 비디오 프레이밍부
113 : 시차벡터 검출부
114 : 마이크로폰
115 : 데이터 취출부
115a : 데이터 기록 매체
116 내지 118 : 전환 스위치
119 : 비디오 인코더
120 : 오디오 인코더
121 : 서브타이틀 발생부
122 : 시차정보 작성부
123 : 서브타이틀 처리부
125 : 서브타이틀 인코더
126 : 멀티플렉서
200, 200A : 셋톱 박스(STB)
201 : 비트 스트림 처리부
202 : HDMI 단자
203 : 안테나 단자
204 : 디지털 튜너
205 : 영상신호 처리 회로
206 : HDMI 송신부
207 : 음성신호 처리 회로
208 : 네트워크 단자
209 : 네트워크 인터페이스
211 : CPU
215 : 리모트 컨트롤 수신부
216 : 리모트 컨트롤 송신기
221 : 디멀티플렉서
222 : 비디오 디코더
223 : 부호화 데이터 버퍼
224 : 서브타이틀 디코더
225 : 픽셀 버퍼
226 : 시차정보 보간부
227 : 위치 제어부
228 : 비디오 중첩부
229 : 오디오 디코더
300, 300A : 텔레비전 수신기(TV)
301 : 3D신호 처리부
302 : HDMI 단자
303 : HDMI 수신부
304 : 안테나 단자
305 : 디지털 튜너
306 : 비트 스트림 처리부
307 : 영상·그래픽 처리 회로
308 : 패널 구동 회로
309 : 표시 패널
310 : 음성신호 처리 회로
311 : 음성 증폭 회로
312 : 스피커

Claims (10)

  1. 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 출력하는 화상 데이터 출력부와,
    상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 출력하는 중첩정보 데이터 출력부와,
    상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 출력하는 시차정보 출력부와,
    상기 화상 데이터 출력부로부터 출력되는 화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 중첩정보 데이터 출력부로부터 출력되는 중첩정보의 데이터를 포함하는 제1의 프라이빗 데이터 스트림과, 상기 시차정보 출력부로부터 출력되는 시차정보를 포함하는 제2의 프라이빗 데이터 스트림을 갖는 다중화 데이터 스트림을 송신하는 데이터 송신부를 구비하고,
    상기 다중화 데이터 스트림에는, 상기 제1의 프라이빗 데이터 스트림 및 상기 제2의 프라이빗 데이터 스트림에 대응하여 각각 언어 정보를 갖는 제1의 디스크립터 및 제2의 디스크립터가 삽입되어 있고, 상기 제2의 디스크립터가 갖는 언어 정보는 비언어를 나타내도록 설정되어 있는 것을 특징으로 하는 송신 장치.
  2. 제1항에 있어서,
    상기 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고,
    상기 디스크립터는, 컴포넌트·디스크립터 및 서브타이틀·디스크립터인 것을 특징으로 하는 송신 장치.
  3. 제1항에 있어서,
    상기 비언어를 나타내는 언어 정보는, ISO 언어 코드의 비언어를 나타내는 「zxx」인 것을 특징으로 하는 송신 장치.
  4. 제1항에 있어서,
    상기 비언어를 나타내는 언어 정보는, ISO 언어 코드의 「qaa」부터 「qrz」의 공간에 포함되는 언어 코드의 어느 하나인 것을 특징으로 하는 송신 장치.
  5. 제1항에 있어서,
    상기 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고,
    상기 다중화 데이터 스트림에는, 상기 제1의 프라이빗 데이터 스트림 및 상기 제2의 프라이빗 데이터 스트림에 각각 대응한 제1의 서브타이틀·디스크립터 및 제2의 서브타이틀·디스크립터가 삽입되어 있고,
    상기 제1의 서브타이틀·디스크립터의 서브타이틀 타입 정보가 나타내는 서브타이틀 타입과 상기 제2의 서브타이틀·디스크립터의 서브타이틀 타입 정보가 나타내는 서브타이틀 타입은 다르도록 되어 있는 것을 특징으로 하는 송신 장치.
  6. 제1항에 있어서,
    상기 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고,
    상기 제1의 프라이빗 데이터 스트림의 상기 중첩정보의 데이터가 포함되는 세그먼트와 상기 제2의 프라이빗 데이터 스트림의 상기 시차정보가 포함되는 세그먼트의 페이지 ID는 동일하게 되어 있는 것을 특징으로 하는 송신 장치.
  7. 제1항에 있어서,
    상기 중첩정보의 데이터는, DVB 방식의 서브타이틀 데이터이고,
    상기 제2의 프라이빗 데이터 스트림에 포함되는 시차정보를 앤실러리·페이지로서 운용하는 것을 특징으로 하는 송신 장치.
  8. 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 출력하는 화상 데이터 출력 스텝과,
    상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 출력하는 중첩정보 데이터 출력 스텝과,
    상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 출력하는 시차정보 출력 스텝과,
    상기 화상 데이터 출력 스텝에서 출력되는 화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 중첩정보 데이터 출력 스텝에서 출력되는 중첩정보의 데이터를 포함하는 제1의 프라이빗 데이터 스트림과, 상기 시차정보 출력 스텝에서 출력되는 시차정보를 포함하는 제2의 프라이빗 데이터 스트림을 갖는 다중화 데이터 스트림을 송신하는 데이터 송신 스텝을 구비하고,
    상기 다중화 데이터 스트림에는, 상기 제1의 프라이빗 데이터 스트림 및 상기 제2의 프라이빗 데이터 스트림에 대응하여 각각 언어 정보를 갖는 제1의 디스크립터 및 제2의 디스크립터가 삽입되어 있고, 상기 제2의 디스크립터가 갖는 언어 정보는 비언어를 나타내도록 설정되어 있는 것을 특징으로 하는 송신 방법.
  9. 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 포함하는 제1의 서브타이틀 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 포함하는 제2의 서브타이틀 데이터 스트림을 갖는 다중화 데이터 스트림을 수신하는 데이터 수신부와,
    상기 데이터 수신부에서 수신된 상기 다중화 데이터 스트림으로부터 상기 비디오 데이터 스트림을 추출하여 디코드하는 비디오 디코드부와,
    상기 데이터 수신부에서 수신된 다중화 데이터 스트림으로부터 상기 제1의 서브타이틀 데이터 스트림을 추출하여 디코드하는 서브타이틀 디코드부를 구비하고,
    상기 다중화 데이터 스트림에는, 상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응하여 각각 서브타이틀 타입 정보를 갖는 디스크립터가 삽입되어 있고,
    상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응한 디스크립터가 갖는 서브타이틀 타입 정보는 다른 서브타이틀 타입을 나타내도록 설정되어 있고,
    상기 서브타이틀 디코드부는, 상기 디스크립터에 삽입되어 있는 서브타이틀 타입 정보에 의거하여, 상기 다중화 데이터 스트림으로부터 추출하여 디코드하여야 할 서브타이틀 데이터 스트림을 결정하는 것을 특징으로 하는 수신 장치.
  10. 입체화상을 표시하기 위한 좌안화상 데이터 및 우안화상 데이터를 포함하는 비디오 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보의 데이터를 포함하는 제1의 서브타이틀 데이터 스트림과, 상기 좌안화상 데이터 및 상기 우안화상 데이터에 의한 화상에 중첩하는 중첩정보를 시프트시켜서 시차를 부여하기 위한 시차정보를 포함하는 제2의 서브타이틀 데이터 스트림을 갖는 다중화 데이터 스트림을 수신하는 데이터 수신부와,
    상기 데이터 수신부에서 수신된 상기 다중화 데이터 스트림으로부터 상기 비디오 데이터 스트림을 추출하여 디코드하는 비디오 디코드부와,
    상기 데이터 수신부에서 수신된 다중화 데이터 스트림으로부터 상기 제1의 서브타이틀 데이터 스트림을 추출하여 디코드하는 서브타이틀 디코드부를 구비하고,
    상기 다중화 데이터 스트림에는, 상기 제1의 서브타이틀 데이터 스트림 및 상기 제2의 서브타이틀 데이터 스트림에 대응하여 각각 언어 정보를 갖는 디스크립터가 삽입되어 있고,
    상기 제2의 서브타이틀 데이터 스트림에 대응한 디스크립터가 갖는 언어 정보는 비언어를 나타내도록 설정되어 있고,
    상기 서브타이틀 디코드부는, 상기 디스크립터에 삽입되어 있는 언어 정보에 의거하여, 상기 다중화 데이터 스트림으로부터 추출하여 디코드하여야 할 서브타이틀 데이터 스트림을 결정하는 것을 특징으로 하는 수신 장치.
KR1020137006405A 2011-08-04 2012-07-03 송신 장치, 송신 방법 및 수신 장치 KR20140044283A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011171398 2011-08-04
JPJP-P-2011-171398 2011-08-04
PCT/JP2012/067016 WO2013018489A1 (ja) 2011-08-04 2012-07-03 送信装置、送信方法および受信装置

Publications (1)

Publication Number Publication Date
KR20140044283A true KR20140044283A (ko) 2014-04-14

Family

ID=47629021

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137006405A KR20140044283A (ko) 2011-08-04 2012-07-03 송신 장치, 송신 방법 및 수신 장치

Country Status (10)

Country Link
US (1) US20130188015A1 (ko)
EP (1) EP2600620A4 (ko)
KR (1) KR20140044283A (ko)
CN (1) CN103404153A (ko)
AU (1) AU2012291320A1 (ko)
BR (1) BR112013007730A2 (ko)
CA (1) CA2810853A1 (ko)
ID (1) IDP201301164A (ko)
MX (1) MX2013003573A (ko)
WO (1) WO2013018489A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3196877A4 (en) * 2014-09-08 2018-02-28 Sony Corporation Coding device and method, decoding device and method, and program
EP3029943B1 (en) * 2014-12-04 2018-01-31 Axis AB Method and device for determining properties of a graphical overlay for a video stream
CN105052740B (zh) * 2015-08-11 2017-05-17 中国热带农业科学院橡胶研究所 一种利用橡胶草叶片再生植株的方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100212449B1 (ko) * 1996-10-09 1999-08-02 이계철 무궁화 위성방송의 송/수신기 정합 방법
JP4190357B2 (ja) 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
DE602006004033D1 (de) * 2005-04-19 2009-01-15 Koninkl Philips Electronics Nv Tiefenwahrnehmung
EP2356820B1 (en) * 2008-12-02 2017-07-19 LG Electronics Inc. 3d caption display method and 3d display apparatus for implementing the same
US8704874B2 (en) * 2009-01-08 2014-04-22 Lg Electronics Inc. 3D caption signal transmission method and 3D caption display method
JP5407968B2 (ja) * 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
JP2011030180A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5429034B2 (ja) * 2009-06-29 2014-02-26 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR20110018261A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
KR20110053159A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
JP5457465B2 (ja) * 2009-12-28 2014-04-02 パナソニック株式会社 表示装置と方法、送信装置と方法、及び受信装置と方法
US8760498B2 (en) * 2011-03-14 2014-06-24 Sony Corporation Disparity data transport in standard caption service
EP2408211A1 (en) * 2010-07-12 2012-01-18 Koninklijke Philips Electronics N.V. Auxiliary data in 3D video broadcast

Also Published As

Publication number Publication date
EP2600620A4 (en) 2014-03-26
EP2600620A1 (en) 2013-06-05
AU2012291320A1 (en) 2013-03-14
CA2810853A1 (en) 2013-02-07
IDP201301164A (ko) 2013-03-19
MX2013003573A (es) 2013-08-29
BR112013007730A2 (pt) 2016-06-07
WO2013018489A1 (ja) 2013-02-07
CN103404153A (zh) 2013-11-20
US20130188015A1 (en) 2013-07-25

Similar Documents

Publication Publication Date Title
JP5454444B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013031549A1 (ja) 送信装置、送信方法および受信装置
WO2013005571A1 (ja) 送信装置、送信方法および受信装置
KR20130132241A (ko) 영상 데이터 송신 장치, 영상 데이터 송신 방법, 영상 데이터 수신 장치 및 영상 데이터 수신 방법
WO2012060198A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR20140044282A (ko) 송신 장치, 송신 방법 및 수신 장치
KR20130090318A (ko) 입체화상 데이터 송신 장치, 입체화상 데이터 송신 방법, 입체화상 데이터 수신 장치 및 입체화상 데이터 수신 방법
EP2600619A1 (en) Transmitter, transmission method and receiver
KR20130132239A (ko) 입체화상 데이터 송신 장치, 입체화상 데이터 송신 방법, 입체화상 데이터 수신 장치 및 입체화상 데이터 수신 방법
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR20140044283A (ko) 송신 장치, 송신 방법 및 수신 장치
WO2013172142A1 (ja) 送信装置、送信方法、受信装置および受信方法

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid