WO2012147596A1 - 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法 - Google Patents

画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法 Download PDF

Info

Publication number
WO2012147596A1
WO2012147596A1 PCT/JP2012/060516 JP2012060516W WO2012147596A1 WO 2012147596 A1 WO2012147596 A1 WO 2012147596A1 JP 2012060516 W JP2012060516 W JP 2012060516W WO 2012147596 A1 WO2012147596 A1 WO 2012147596A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
stream
elementary
information
elementary stream
Prior art date
Application number
PCT/JP2012/060516
Other languages
English (en)
French (fr)
Inventor
塚越 郁夫
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US13/805,999 priority Critical patent/US20130088572A1/en
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to BR112012033102A priority patent/BR112012033102A2/pt
Priority to CN2012800021064A priority patent/CN103026725A/zh
Priority to KR1020127032608A priority patent/KR20140003319A/ko
Priority to EP12776603.8A priority patent/EP2574053A4/en
Publication of WO2012147596A1 publication Critical patent/WO2012147596A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream

Definitions

  • the present technology relates to an image data transmission device, an image data transmission method, an image data reception device, and an image data reception method, and more particularly to an image data transmission device that transmits stereoscopic image data, scalable encoded image data, and the like.
  • H.264 has been used as a video encoding method.
  • H.264 / AVC Advanced Video Coding
  • H.264 H.264 / MVC Multi-view Video Coding
  • MVC a mechanism for collectively encoding multi-view image data is employed.
  • multi-view image data is encoded as one base-view image data and one or more non-baseview image data.
  • H.264 / SVC Scalable Video Coding
  • SVC Scalable Video Coding
  • the transport stream Transport Stream
  • PSI Program Specific Information
  • the PMT may not always be dynamically updated depending on the transmission side equipment.
  • the following inconveniences can be considered when the delivery content is switched from a stereoscopic (3D) image to a two-dimensional (2D) image. That is, the receiver may continue to wait for the data on the assumption that the stream type (Stream_Type) is “0x1B” and the stream type (Stream_Type) is “0x20”.
  • FIG. 27 shows a configuration example of a video elementary stream and a PMT (ProgramMap Table) in the transport stream.
  • the period of the access units (AU: Access ⁇ Unit)“ 001 ”to“ 009 ”of the video elementary streams ES1 and ES2 is a period in which two video elementary streams exist. This period is a main period of a 3D program, for example, and these two streams constitute a stream of stereoscopic (3D) image data.
  • the subsequent period of access units “010” to “014” of the video elementary stream ES1 is a period in which only one video elementary stream exists. This period is, for example, a CM period inserted between the main body periods of the 3D program, and this one stream constitutes a stream of two-dimensional image data.
  • the subsequent period of access units “0015” to “016” of video elementary streams ES1 and ES2 is a period in which two video elementary streams exist. This period is a main period of a 3D program, for example, and these two streams constitute a stream of stereoscopic (3D) image data.
  • the period (for example, 100 msec) for updating the registration of the video elementary stream in the PMT cannot follow the video frame period (for example, 33.3 msec).
  • the configuration in the transport stream of the elementary stream and the PMT is asynchronous. Don't be.
  • a conventional AVC (in this case, a high profile) stream may be considered.
  • stereoscopic (3D) image data is used, but the base view video elementary stream remains the same as the conventional AVC (2D) video elementary stream. May be recommended.
  • the stream of stereoscopic image data includes an AVC (2D) video elementary stream and a non-base-view video elementary stream (Non-Base-view sub-bitstream).
  • TS Tranport Stream
  • a stream of stereoscopic image data is composed of some of the video elementary streams. For example, consider a case where the following video stream is multiplexed on one transport stream.
  • the video elementary stream of “PID0” is a conventional two-dimensional (2D) image data stream itself.
  • This video elementary stream constitutes a stream of stereoscopic (3D) image data together with a non-base-view video elementary stream of “PID2” (Non-Base) view sub-bitstream).
  • AVC 3D FrameatCompatible indicates stereoscopic (3D) image data such as a side-by-side method or a top-and-bottom method.
  • the encoding method of base-view image data and the encoding method of non-base-view image data is MPEG4-AVC.
  • the encoding method of the base view image data and the encoding method of the non-base view image data are other encoding methods such as the MPEG2 video method
  • the encoding method of the base view image data and the non-viewing image data encoding method is not the same and may be different.
  • the purpose of the present technology is to enable a receiver corresponding to MVC or SVC, for example, to accurately respond to dynamic changes in distribution contents and perform correct stream reception.
  • the concept of this technology is A first elementary stream including first image data and a predetermined number of second elementary streams each including a predetermined number of second image data and / or metadata related to the first image data.
  • the encoding part to generate, A transmission unit for transmitting a transport stream having each packet obtained by packetizing each elementary stream generated by the encoding unit;
  • the encoding unit is in at least an image data transmitting apparatus that inserts stream association information indicating the association of each elementary stream into the first elementary stream.
  • the encoding unit includes a predetermined number of first elementary streams including the first image data and a predetermined number of second image data and / or metadata related to the first image data.
  • a second elementary stream is generated.
  • the transmission unit transmits a transport stream including each packet obtained by packetizing each elementary stream generated by the encoding unit.
  • an arbitrary encoding method may be used as the encoding method of the first image data included in the first elementary stream and the encoding method of the second image data included in the predetermined number of second elementary streams. Can be combined.
  • the encoding method is only MPEG4-AVC
  • the encoding method is only MPEG2 video
  • a combination of these encoding methods can be considered. Note that the encoding method is not limited to these MPEG4-AVC and MPEG2 video.
  • the first image data is base view image data constituting stereoscopic (3D) image data
  • the second image data is a view (non-base) other than the base view constituting stereoscopic image (3D) data.
  • View) image data
  • the first image data is one of left eye and right eye image data for obtaining a stereo stereoscopic image
  • the second image data is a left eye and right eye for obtaining a stereo stereoscopic image. This is the other image data of the eye.
  • the metadata is disparity information (disparity vector, depth data, etc.) corresponding to stereoscopic image data.
  • the first image data is the lowest layer encoded image data constituting the scalable encoded image data
  • the second image data is other than the lowest layer constituting the scalable encoded image data. This is encoded image data of a hierarchy.
  • the stream association information is a position indicating which view in the multi-viewing should be displayed in the stereoscopic display when the view based on the image data included in the elementary stream in which the stream association information is inserted. Information may be included.
  • the stream association information indicating the association of each elementary stream is inserted into at least the first elementary stream by the encoding unit.
  • the stream association information indicates an association of each elementary stream by using an identifier for identifying each elementary stream.
  • a descriptor (descriptor) indicating the correspondence between the identifier of each elementary stream and the packet identifier or component tag of each elementary stream is inserted into the transport stream.
  • this descriptor is inserted under the program map table. Note that this correspondence may be defined in advance. As a result, the registration status of each elementary stream in the transport stream layer and the stream association information are linked.
  • the receiving side can easily determine whether or not the transport stream includes the second elementary stream related to the first elementary stream based on the stream association information.
  • the receiving side can accurately respond to the change in the configuration of the elementary stream, that is, the dynamic change in the delivery content, based on this stream association information. The correct stream reception can be performed.
  • the stream association information may include prelude information informing that the change occurs before the change of the association of each elementary stream actually occurs.
  • prelude information informing that the change occurs before the change of the association of each elementary stream actually occurs.
  • the encoding unit may insert the stream association information into the elementary stream in units of pictures or GOPs.
  • the configuration of elementary streams for example, the change in the number of views of stereoscopic image data or the change in the number of layers of scalable encoded image data can be managed in units of pictures or GOPs.
  • the transmission unit determines whether the stream association information is inserted into the elementary stream or whether the stream association information inserted into the elementary stream is changed in the transport stream. May be inserted. With this descriptor, it is possible to prompt the reference of the stream association information inserted in the elementary stream, and a stable reception operation can be performed on the reception side.
  • the stream association information may further include control information of output resolutions of the first image data and the second image data.
  • the receiving side can adjust the output resolution of the first image data and the second image data to a predetermined resolution based on the control information.
  • the stream association information may further include control information that specifies whether display is mandatory for each of a predetermined number of second image data.
  • control information specifies whether display is mandatory for each of a predetermined number of second image data.
  • a first elementary stream including first image data and a predetermined number of second elementary streams each including a predetermined number of second image data and / or metadata related to the first image data.
  • a receiving unit for receiving a transport stream having each packet obtained by packetization; In the first elementary stream, stream association information indicating the association of each elementary stream is inserted, Based on the stream association information, the first image data is acquired from the first elementary stream received by the receiving unit, and the predetermined number of second elementary streams received by the receiving unit.
  • an image data receiving device further comprising a data acquisition unit for acquiring the second image data and / or metadata related to the first image data.
  • the transport stream is received by the receiving unit.
  • the transport stream includes a first elementary stream that includes first image data and a predetermined number of second images and / or metadata that includes a predetermined number of second image data and / or metadata associated with the first image data.
  • Each of the packets obtained by packetizing the elementary stream is inserted into the first elementary stream.
  • the image data and / or metadata is acquired from the transport stream received by the receiving unit by the data acquiring unit.
  • first image data is acquired from the first elementary stream
  • second image data and / or metadata is acquired from a predetermined number of second elementary streams. Is done.
  • stream association information indicating the association of each elementary stream is inserted into the transport stream. Therefore, based on this stream association information, it can be easily determined whether or not the transport stream includes the second elementary stream related to the first elementary stream. Also, since the stream association information is inserted into the elementary stream itself, it is possible to accurately respond to a change in the configuration of the elementary stream, that is, a dynamic change in the distribution contents, based on this stream association information, and the correct stream Can receive.
  • a resolution adjustment unit that adjusts and outputs the resolutions of the first image data and the second image data acquired by the data acquisition unit
  • the stream association information includes the first image data
  • the resolution adjustment unit adjusts the resolution of the first image data and the second image data based on the output resolution control information. May be. In this case, even if the resolutions of the first image data and the predetermined number of second image data are different, the output resolution can be adjusted by the resolution adjustment unit.
  • the present technology further includes, for example, an image display mode selection unit that selects an image display mode based on the first image data and the second image data acquired by the data acquisition unit, and the stream association information includes a predetermined number Control information for designating whether or not display is mandatory for each of the second image data, and the image display mode selection unit is limited to select an image display mode based on the control information. May be.
  • the metadata acquired by the data acquisition unit is disparity information corresponding to stereoscopic image data
  • the first image data and the first image data acquired by the data acquisition unit using the disparity information are used.
  • the image processing apparatus may further include a post processing unit that performs interpolation processing on the second image data to obtain display image data of a predetermined number of views.
  • the reception side it is possible to accurately cope with the configuration change of the elementary stream, that is, the dynamic change of the delivery content, and the stream reception can be performed satisfactorily.
  • FIG. 1st Embodiment of this invention It is a block diagram which shows the structural example of the image transmission / reception system as 1st Embodiment of this invention. It is a figure which shows the example in which a program is comprised by two video elementary streams. It is a block diagram which shows the structural example of the transmission data generation part of the broadcasting station which comprises an image transmission / reception system. It is a figure which shows the structural example of the general transport stream containing a video elementary stream, a graphics elementary stream, an audio elementary stream, etc. It is a figure which shows the structural example of a transport stream in the case of inserting stream association information in an elementary stream, and inserting an ES_ID descriptor and an ES_association descriptor in a transport stream.
  • FIG. 10 is a diagram illustrating a structure example (Syntax) of “user_data ()”.
  • FIG. 10 is a diagram illustrating a structure example (Syntax) of stream association information “stream_association ()”. It is a figure which shows the content (Semantics) of each information in the structural example (Syntax) of stream association information "stream_association ()". It is a figure which shows an example in case a transport stream has the stream of the base view (base
  • the transport stream TS includes an MVC base-view stream ES1, an MVC non-base-view stream ES2, and a metadata stream ES3.
  • Embodiment 2 modes for carrying out the present technology (hereinafter referred to as “embodiments”) will be described. The description will be given in the following order. 1. Embodiment 2. FIG. Modified example
  • FIG. 1 shows a configuration example of an image transmission / reception system 10 as an embodiment.
  • the image transmission / reception system 10 includes a broadcasting station 100 and a receiver 200.
  • the broadcast station 100 transmits a transport stream on a broadcast wave.
  • the transport stream includes image data and metadata constituting a program.
  • the transport stream includes a first elementary stream that includes the first image data and a predetermined number that includes a predetermined number of second image data and / or metadata associated with the first image data.
  • PES Packetized Elementary Stream
  • the predetermined number includes 0.
  • the transport stream is a packet obtained by packetizing the first elementary stream including the first image data. Will have only.
  • the first image data When only the first elementary stream including the first image data exists, the first image data constitutes two-dimensional (2D) image data.
  • the first image data and the predetermined number are included.
  • the second image data constitutes stereoscopic (3D) image data.
  • the first image data is base view image data
  • the predetermined number of second image data constitutes non-base view image data.
  • the non-base view image data constituting the stereoscopic image data is single. That is, the predetermined number is 1.
  • the image data of the base view is image data of one of the left eye and the right eye
  • the image data of the non-base view is image data of the other of the left eye and the right eye.
  • FIG. 2 shows an example in which a program is composed of a plurality of video elementary streams, for example, two video elementary streams.
  • At least stream association information indicating the association of each elementary stream is inserted in the first elementary stream.
  • This stream association information is inserted in GOP (Group of Picture) units that are display access units including a picture unit or a predicted image. Details of this stream association information will be described later.
  • the receiver 200 receives a transport stream sent from the broadcasting station 100 on a broadcast wave. As described above, this transport stream has each packet obtained by packetizing the first elementary stream and a predetermined number of second elementary streams.
  • the first elementary stream includes first image data.
  • the predetermined number of second elementary streams includes a predetermined number of second image data and / or metadata related to the first image data.
  • At least stream association information indicating the association of each elementary stream is inserted in the first elementary stream. Based on the stream association information, the receiver 200 acquires first image data from the first elementary stream, and acquires image data and metadata from a predetermined number of second elementary streams.
  • FIG. 3 shows a configuration example of the transmission data generation unit 110 that generates the above-described transport stream in the broadcast station 100.
  • the transmission data generation unit 110 includes a data extraction unit (archive unit) 111, a video encoder 112, a parallax information encoder 113, and an audio encoder 114.
  • the transmission data generation unit 110 includes a graphics generation unit 115, a graphics encoder 116, and a multiplexer 117.
  • a data recording medium 111a is detachably attached to the data extraction unit 111, for example.
  • audio data corresponding to the image data is recorded along with the image data of the program to be transmitted.
  • the image data is switched to stereoscopic (3D) image data or two-dimensional (2D) image data according to the program.
  • the image data is switched to stereoscopic image data or two-dimensional image data in the program according to the contents of the main story and commercials.
  • the stereoscopic image data includes base view image data and a predetermined number of non-base view image data.
  • parallax information is also recorded on the data recording medium 111a corresponding to the stereoscopic image data.
  • This disparity information is a disparity vector indicating the disparity between the base view and each non-base view, or depth data.
  • the depth data can be handled as a disparity vector by a predetermined conversion.
  • the disparity information is, for example, disparity information for each pixel (pixel) or disparity information of each divided region obtained by dividing a view (image) into a predetermined number.
  • this parallax information is used on the receiving side to adjust the position of the same superimposition information (graphics information or the like) to be superimposed on the images of the base view and each non-base view to give parallax.
  • the disparity information is used on the reception side to obtain display image data of a predetermined number of views by performing interpolation processing (post processing) on the image data of the base view and each non-base view.
  • the data recording medium 111a is a disk-shaped recording medium, a semiconductor memory, or the like.
  • the data extraction unit 111 extracts and outputs image data, audio data, parallax information, and the like from the data recording medium 111a.
  • the video encoder 112 performs encoding such as MPEG4-AVC (MVC) or MPEG2 video on the image data output from the data extraction unit 111 to obtain encoded video data. Further, the video encoder 112 generates a video elementary stream by a stream formatter (not shown) provided in the subsequent stage.
  • MVC MPEG4-AVC
  • MPEG2 MPEG2 video
  • the video encoder 112 when the image data is 2D image data, the video encoder 112 generates a video elementary stream including the 2D image data (first image data). In addition, when the image data is stereoscopic image data, the video encoder 112 and a video elementary stream including base view image data (first image data) and a predetermined number of non-base view image data (second A video elementary stream including (image data) is generated.
  • the video encoder 112 inserts stream association information into a video elementary stream (first elementary stream) including at least the first image data.
  • This stream association information is information indicating the association of each elementary stream.
  • the second elementary stream includes the above-described second image data and / or metadata.
  • the video encoder 112 inserts this stream association information in units of pictures or units of GOP that are display access units including a predicted image.
  • the audio encoder 114 performs encoding such as MPEG2 Audio AAC on the audio data output from the data extraction unit 111 to generate an audio elementary stream.
  • the disparity information encoder 113 performs predetermined encoding on the disparity information output from the data extraction unit 111, and generates an elementary stream of disparity information. Note that when the disparity information is disparity information for each pixel (pixel) as described above, the disparity information can be handled like pixel data. In this case, the disparity information encoder 113 can generate disparity information elementary streams by encoding the disparity information using the same encoding method as that of the above-described image data. In this case, a configuration in which the video encoder 112 encodes the disparity information output from the data extraction unit 111 is also conceivable. In this case, the disparity information encoder 113 is not necessary.
  • the graphics generation unit 115 generates data (graphics data) of graphics information (including subtitle information) to be superimposed on an image.
  • the graphics encoder 116 generates a graphics elementary stream including the graphics data generated by the graphics generating unit 115.
  • the graphics information constitutes superimposition information.
  • the graphics information is, for example, a logo.
  • the subtitle information is, for example, a caption.
  • This graphics data is bitmap data.
  • the graphics data is added with idling offset information indicating the superimposed position on the image.
  • the idling offset information indicates, for example, offset values in the vertical direction and the horizontal direction from the upper left origin of the image to the upper left pixel of the superimposed position of the graphics information.
  • the standard for transmitting caption data as bitmap data is standardized and operated as “DVB_Subtitling” in DVB, which is a European digital broadcasting standard.
  • the multiplexer 117 packetizes and multiplexes the elementary streams generated by the video encoder 112, the disparity information encoder 113, the audio encoder 114, and the graphics encoder 116, and generates a transport stream TS.
  • Image data (stereoscopic image data or two-dimensional image data) output from the data extraction unit 111 is supplied to the video encoder 112.
  • video encoder 112 for example, MPEG4-AVC (MVC), MPEG2 video, or the like is encoded on the image data, and a video elementary stream including the encoded video data is generated and supplied to the multiplexer 117. .
  • MVC MPEG4-AVC
  • MPEG2 video or the like
  • a video elementary stream including the 2D image data (first image data) is generated.
  • the image data is stereoscopic (3D) image data
  • this video encoder 112 at least a video elementary stream (first video elementary stream) including the first image data is streamed in units of pictures or in units of GOPs which are display access units including predicted images. Association information is inserted. As a result, information indicating the presence or absence of the second elementary stream including the second image data is transmitted to the receiving side with respect to the first elementary stream including the first image data. Become.
  • the parallax information corresponding to the stereoscopic image data is also output from the data extraction unit 111.
  • This parallax information is supplied to the parallax information encoder 113.
  • the disparity information encoder 113 performs predetermined encoding on the disparity information, and generates a disparity information elementary stream including the encoded data. This disparity information elementary stream is supplied to the multiplexer 117.
  • audio data corresponding to the image data is also output from the data extracting unit 111.
  • This audio data is supplied to the audio encoder 114.
  • the audio encoder 114 performs encoding such as MPEG2Audio AAC on the audio data, and generates an audio elementary stream including the encoded audio data. This audio elementary stream is supplied to the multiplexer 117.
  • the graphics generation unit 115 in response to the image data output from the data extraction unit 111, the graphics generation unit 115 generates data (graphics data) of graphics information (including subtitle information) to be superimposed on the image (view).
  • This graphics data is supplied to the graphics encoder 116.
  • the graphics data is subjected to predetermined coding, and a graphics elementary stream including the coded data is generated. This graphics elementary stream is supplied to the multiplexer 117.
  • the elementary streams supplied from the encoders are packetized and multiplexed to generate a transport stream TS.
  • the transport stream TS includes a base-view video elementary stream and a predetermined number of non-base-view video elementary streams during a period in which stereoscopic (3D) image data is output from the data extraction unit 111.
  • a transport stream TS has a video elementary stream including the two-dimensional image data during a period in which the two-dimensional (2D) image data is output from the data extraction unit 111.
  • FIG. 4 shows a configuration example of a general transport stream including a video elementary stream, an audio elementary stream, and the like.
  • the transport stream includes PES packets obtained by packetizing each elementary stream.
  • two video elementary stream PES packets “Video PES1” and “Video PES2” are included.
  • a PES packet “Graphics PES” of the graphics elementary stream and a PES packet “DisparityData PES” of the private elementary stream are included.
  • the PES packet “AudioPES” of the audio elementary stream is included.
  • the transport stream includes (Program Map Table) as PSI (Program Specific Information).
  • PSI Program Specific Information
  • This PSI is information describing to which program each elementary stream included in the transport stream belongs.
  • the transport stream includes an EIT (EventInformation Table) as SI (Serviced Information) for managing each event.
  • the PMT has a program descriptor (ProgramDescriptor) that describes information related to the entire program.
  • the PMT includes an elementary loop having information related to each elementary stream. In this configuration example, there are a video elementary loop, a graphics elementary loop, a private elementary loop, and an audio elementary loop.
  • information such as a packet identifier (PID) and a stream type (Stream_Type) is arranged for each stream, and although not shown, there is a descriptor that describes information related to the elementary stream. Be placed.
  • PID packet identifier
  • Stream_Type stream type
  • the video encoder 112 inserts stream association information into a video elementary stream (first elementary stream) including at least first image data in units of pictures or GOPs.
  • This stream association information is information indicating the association of each elementary stream.
  • This stream association information indicates an association of each elementary stream by using an identifier for identifying each elementary stream.
  • the multiplexer 117 inserts into the transport stream a descriptor indicating the correspondence between the identifier of each elementary stream and the packet identifier or component tag of each elementary stream, that is, an ES_ID descriptor.
  • the multiplexer 117 inserts this ES_ID descriptor, for example, under the PMT.
  • the multiplexer 117 inserts a descriptor indicating the presence of stream association information, that is, an ES_association descriptor, into the transport stream.
  • This descriptor indicates whether or not the above-described stream association information is inserted into the elementary stream, or whether or not there is a change in the above-described stream association information inserted into the elementary stream.
  • the multiplexer 117 inserts this ES_association descriptor under the PMT or the EIT.
  • FIG. 5 shows a configuration example of the transport stream in the case where the stream association information is inserted into the first elementary stream and further the ES_ID descriptor and the ES_association descriptor are inserted into the transport stream.
  • the transport stream includes the PES packet “Video PES1” of the video elementary stream (Stream_Type video 1) of the base view.
  • the transport stream includes a PES packet “Video PES2” of a non-base-view video elementary stream (Stream_Type video 2).
  • illustration of other PES packets is omitted for simplification of the drawing.
  • an ES_ID descriptor indicating the correspondence between the identifier ES_ID of each elementary stream and the packet identifier PID or component tag of each elementary stream is inserted in the video elementary loop.
  • FIG. 6 shows a structural example (Syntax) of the ES_ID descriptor.
  • “Descriptor_tag” is 8-bit data indicating a descriptor type, and here indicates an ES_ID descriptor.
  • “Descriptor _length” is 8-bit data indicating the length (size) of the descriptor. This data indicates the number of bytes after “descriptor _length” as the length of the descriptor.
  • Stream_count_for_association is 4-bit data indicating the number of streams. Repeat the for loop for the number of streams.
  • a 4-bit field of “stream_Association_ID” indicates an identifier (ES_ID) of each elementary stream.
  • the 13-bit field of “Associated_stream_Elementary_PID” indicates the packet identifier PID of each elementary stream.
  • “Component_tag” is arranged instead of “Associated_stream_Elementary_PID”.
  • FIG. 7A shows a structural example (Syntax) of the ES_association descriptor.
  • “Descriptor_tag” is 8-bit data indicating a descriptor type, and here indicates that it is an ES_association descriptor.
  • “Descriptor_length” is 8-bit data indicating the length (size) of the descriptor. This data indicates the number of bytes after “descriptor _length” as the length of the descriptor.
  • the 1-bit field of “existence_of_stream_association_info” is a flag indicating whether stream association information exists in the elementary stream, as shown in FIG. 7B. “1” indicates that stream association information exists in the elementary stream, and “0” indicates that stream association information does not exist in the elementary stream. Alternatively, “1” indicates that there is a change in the stream association information inserted in the elementary stream, and “0” indicates that there is no change in the stream association information inserted in the elementary stream.
  • FIG. 8 shows an example of the relationship between the stream association information inserted in the elementary stream and the ES_association descriptor inserted in the transport stream. Since the stream association information exists in the elementary stream, the ES_association descriptor is inserted and transmitted under the PMT, for example, of the transport stream so as to prompt the reference on the receiving side.
  • the decoder on the receiving side refers to the ES_association descriptor and can detect in advance that the association configuration of each elementary stream changes from the next GOP, so that a stable reception operation is possible.
  • the ES_association descriptor is placed under the EIT.
  • stream association information indicating the relationship between the base view elementary stream and the non-base view video elementary stream is inserted into the base view elementary stream.
  • This stream association information is inserted in picture units or GOP units using the user data area.
  • the stream association information is inserted in the “SELs” portion of the access unit as “Stream Association Information SEI message”.
  • FIG. 9A shows the top access unit of a GOP (Group Of Pictures)
  • FIG. 9B shows an access unit other than the top of the GOP.
  • “Stream Association Information SEI message” is inserted only in the first access unit of the GOP.
  • FIG. 10A shows a structural example (Syntax) of “Stream ⁇ Association InformationSEI message ”. “Uuid_iso_iec_11578” has a UUID value indicated by “ISO / IEC 11578: 1996AnnexA.”. “Userdata_for_stream_association ()” is inserted in the field of “user_data_payload_byte”.
  • FIG. 10B shows a structural example (Syntax) of “userdata_for_stream_association ()”, in which “stream_association ()” is inserted as stream association information. “Stream_association_id” is an identifier of stream association information indicated by unsigned 16 bits.
  • FIG. 11 illustrates a structure example (Syntax) of “user_data ()”.
  • a 32-bit field of “user_data_start_code” is a start code of user data (user_data), and is a fixed value of “0x000001B2”.
  • a 16-bit field following this start code is an identifier for identifying the contents of user data.
  • it is “Stream_Association_identifier”, and it is possible to identify that the user data is stream association information.
  • “stream_association ()” as stream association information is inserted.
  • FIG. 12 shows a structure example (Syntax) of the stream association information “stream_association ()”.
  • FIG. 13 shows the contents (Semantics) of each piece of information in the structural example shown in FIG.
  • the 8-bit field of “stream_association_length” indicates the entire byte size after this field.
  • a 4-bit field of “stream_count_for_association” indicates the number of elementary streams to be associated, and takes a value of 0 to 15.
  • the 4-bit field of “self_ES_id” indicates the association identifier of the elementary stream (this elementary stream) itself in which this stream association information is arranged. For example, the identifier of the basic elementary stream (first elementary stream including the first image data) is set to “0”.
  • the 1-bit field of “indication_of_selected_stream_display” is a flag indicating whether or not there is a display-required elementary stream that displays the decoder output in addition to this elementary stream. “1” indicates that there is an elementary stream that must be displayed in addition to this elementary stream. “0” indicates that there is no display-required elementary stream other than this elementary stream. In the case of “1”, the non-base view elementary stream set by “display_mandatory_flag” described later is required to be displayed together with the base view video elementary stream.
  • the 1-bit field of “indication_of_other_resolution_master” is a flag indicating whether or not another elementary stream is a display reference for resolution or sampling frequency, not this elementary stream. “1” indicates that another elementary stream is a display reference. “0” indicates that this elementary stream is a display reference.
  • “1-bit field of“ terminating_current_association_flag ” indicates whether the configuration of the elementary stream is changed from the next access unit (AU: Access Unit). “1” indicates that the configuration of the elementary stream is changed from the next access unit. “0” indicates that the next access unit also has the same elementary stream configuration as the current access unit. This flag information constitutes prelude information.
  • the 4-bit field of “display_position” indicates which view in the multi-viewing is to be displayed when the view based on the image data included in the elementary stream is displayed in 3D (3D). It takes a value of ⁇ 15.
  • a view Non baseNview
  • FIG. 15 shows a view display example at the time of stereoscopic (3D) display on the receiving side in that case. That is, the view based on the image data included in the base view stream is displayed as a view at the display position “0”. Further, the view based on the image data included in the non-base view stream is displayed as a view at the display position “15”.
  • 3D stereoscopic
  • the 4-bit field of “associated_ES_id” indicates an identifier (association identifier) of the elementary stream associated with this elementary stream, and takes a value of 0 to 15.
  • a 1-bit field of “display_mandatory_flag” indicates whether or not the elementary stream of “associated_ES_id” is mandatory to be displayed. “1” indicates that the corresponding elementary stream must be displayed. “0” indicates that the corresponding elementary stream is not necessarily displayed.
  • the 1-bit field of “resolution_master_flag” indicates whether the elementary stream of “associated_ES_id” is a display standard for resolution or sampling frequency. “1” indicates that the corresponding elementary stream is a display standard. “0” indicates that the corresponding elementary stream is not a display standard.
  • FIG. 16 shows an insertion example of “indication_of_selected_stream_display”.
  • the base view elementary stream includes left eye (L) image data, and there are two non-base view elementary streams each including right eye (R) image data and center (C) image data. It is an example.
  • “indication_of_selected_stream_display” is abbreviated as “indication_display”
  • “display_mandatory_flag” is abbreviated as “mandatory_flag”.
  • the display essential in the receiver is the left eye (L), right eye (R), and center (C) images.
  • FIG. 17 shows a configuration example of the receiver 200.
  • the receiver 200 includes a CPU 201, a flash ROM 202, a DRAM 203, an internal bus 204, a remote control receiver 205, and a remote controller transmitter 206.
  • the receiver 200 also includes an antenna terminal 211, a digital tuner 212, a transport stream buffer (TS buffer) 213, and a demultiplexer 214.
  • TS buffer transport stream buffer
  • the receiver 200 also includes a video decoder 215, view buffers 216, 216-1 to 216-N, scalers 224, 224-1 to 224-N, and video superimposing units 217 and 217-1 to 217-N.
  • the receiver 200 includes a graphics decoder 218, a graphics generation unit 219, a disparity information decoder 220, graphics buffers 221, 221-1 to 221-N, an audio decoder 222, and a channel processing unit 223. Yes.
  • the CPU 201 controls the operation of each unit of receiver 200.
  • the flash ROM 202 stores control software and data.
  • the DRAM 203 constitutes a work area for the CPU 201.
  • the CPU 201 develops software and data read from the flash ROM 202 on the DRAM 203 and activates the software to control each unit of the receiver 200.
  • the remote control receiving unit 205 receives a remote control signal (remote control code) transmitted from the remote control transmitter 206 and supplies it to the CPU 201.
  • CPU201 controls each part of receiver 200 based on this remote control code.
  • the CPU 201, flash ROM 202 and DRAM 203 are connected to the internal bus 204.
  • the antenna terminal 211 is a terminal for inputting a television broadcast signal received by a receiving antenna (not shown).
  • the digital tuner 212 processes the television broadcast signal input to the antenna terminal 211 and outputs a predetermined transport stream (bit stream data) TS corresponding to the user's selected channel.
  • the transport stream buffer (TS buffer) 213 temporarily accumulates the transport stream TS output from the digital tuner 212.
  • this transport stream TS has each packet obtained by packetizing elementary streams such as video, disparity information, graphics, and audio.
  • the transport stream TS has a first elementary stream including the first image data.
  • the transport stream TS has a predetermined number of second elementary streams each including a predetermined number of second image data and / or metadata related to the first image data.
  • the first image data when only the first elementary stream including the first image data exists, the first image data constitutes two-dimensional (2D) image data.
  • the first image data and the predetermined number are included.
  • the second image data constitutes stereoscopic (3D) image data.
  • the first image data constitutes base view image data
  • the predetermined number of second image data constitutes non-base view image data.
  • the stream association information is obtained using the user data area in units of pictures or units of GOP. (See FIG. 12) is inserted.
  • an ES_ID descriptor (see FIG. 6) is inserted in the transport stream TS, for example, under the PMT.
  • This ES_ID descriptor indicates the correspondence between the identifier of each elementary stream and the packet identifier or component tag of each elementary stream.
  • the stream association information indicates an association of each elementary stream using an identifier for identifying each elementary stream. Therefore, the ES_ID descriptor links the registration state of each elementary stream in the transport stream layer with the stream association information.
  • an ES_association descriptor (see FIG. 7A) is inserted into the transport stream TS, for example, under the PMT or EIT.
  • This ES_association descriptor indicates whether or not stream association information is inserted in the elementary stream, or whether or not there is a change in the stream association information inserted in the elementary stream. Therefore, the ES_association descriptor prompts reference to stream association information.
  • the demultiplexer 214 extracts video, disparity information, graphics, and audio elementary streams from the transport stream TS temporarily stored in the TS buffer 213.
  • the disparity information elementary stream is extracted only when the transport elementary stream includes a video elementary stream of stereoscopic (3D) image data.
  • the demultiplexer 214 extracts the ES_ID descriptor and the ES_association descriptor included in the transport stream TS, and supplies them to the CPU 201.
  • the CPU 201 recognizes the correspondence between the identifier of each elementary stream and the packet identifier or component tag of each elementary stream using the ES_ID descriptor. Further, the CPU 201 uses the ES_association descriptor to determine whether or not stream association information is inserted into a video elementary stream, for example, a video elementary stream including the first image data, or whether or not the information is changed. recognize.
  • the video decoder 215 performs processing reverse to that of the video encoder 112 of the transmission data generation unit 110 described above. That is, the video decoder 215 performs a decoding process on the encoded image data included in each video elementary stream extracted by the demultiplexer 214 to obtain decoded image data.
  • the video decoder 215 obtains the first image data as two-dimensional (2D) image data.
  • the video decoder 215 performs stereoscopic (3D) Obtain image data. That is, the first image data is obtained as base view image data, and a predetermined number of second image data is obtained as non-base view image data.
  • the video decoder 215 extracts stream association information from a video elementary stream, for example, a first elementary stream including first image data, and supplies the stream association information to the CPU 201.
  • the video decoder 215 performs this extraction process under the control of the CPU 201.
  • the CPU 201 can recognize whether the stream association information exists or whether there is a change in the information using the ES_association descriptor. Therefore, the video decoder 215 performs the extraction process as necessary. Can be done.
  • the CPU 201 can recognize the presence of a predetermined number of second elementary streams related to the first elementary stream including the first image data based on the stream association information extracted by the video decoder 215. Based on this recognition, the CPU 201 controls the demultiplexer 214 so that a predetermined number of second elementary streams related to the first elementary stream are extracted together with the first elementary stream.
  • the view buffer (video buffer) 216 temporarily stores the first image data acquired by the video decoder 215 under the control of the CPU 201.
  • the first image data is two-dimensional image data or base view image data constituting stereoscopic image data.
  • the view buffers (video buffers) 216-1 to 216-N temporarily store N non-base view image data constituting the stereoscopic image data acquired by the video decoder 215 under the control of the CPU 201, respectively. To do.
  • the CPU 201 performs read control of the view buffers 216 and 216-1 to 216-N.
  • the CPU 201 can know in advance whether or not the configuration of the elementary stream is changed from the next access unit (picture) based on the “terminating_current_association_flag” flag included in the stream association information. Therefore, it is possible to change the reading control from the view buffers 216 and 216-1 to 216-N dynamically and smartly.
  • the scalers 224 and 224-1 to 224-N control the CPU 201 so that the output resolution of the image data of each view output from the view buffers 216 and 216-1 to 216-N becomes a predetermined resolution. Adjust to.
  • the scalers 224, 224-1 to 224-N constitute a resolution adjustment unit. Image data of each view whose resolution is adjusted is sent to the video superimposing units 217 and 217-1 to 217-N.
  • the CPU 201 acquires the resolution information of the image data of each view from the video decoder 215.
  • the CPU 201 executes the filter settings of the scalers 224 and 224-1 to 224-N based on the resolution information of each view so that the output resolution of the image data of each view becomes the target resolution.
  • the scalers 224 and 224-1 to 224-N when the resolution of the input image data is different from the target resolution, resolution conversion is performed by interpolation processing, and output image data of the target resolution is obtained.
  • the CPU 201 sets the target resolution based on the “indication_of_other_resolution_master” and “resolution_master_flag” flags included in the stream association information. That is, the resolution of the image data included in the elementary stream that is set as the resolution reference by these flags is set as the target resolution.
  • the graphics decoder 218 performs processing reverse to that of the graphics encoder 116 of the transmission data generation unit 110 described above. That is, the graphics decoder 218 obtains decoded graphics data (including subtitle data) by performing a decoding process on the encoded graphics data included in the graphics elementary stream extracted by the demultiplexer 214.
  • the disparity information decoder 220 performs processing opposite to that of the disparity information encoder 113 of the transmission data generation unit 110 described above. That is, the disparity information decoder 220 performs decoding processing on the encoded disparity information included in the disparity information elementary stream extracted by the demultiplexer 214 to obtain decoded disparity information.
  • This disparity information is a disparity vector indicating the disparity between the base view and each non-base view, or depth data.
  • the depth data can be handled as a disparity vector by a predetermined conversion.
  • the disparity information is, for example, disparity information for each pixel (pixel) or disparity information for each divided region obtained by dividing a view (image) into a predetermined number.
  • the graphics generation unit 219 generates graphics information data to be superimposed on an image based on the graphics data obtained by the graphics decoder 218 under the control of the CPU 201.
  • the graphics generator 219 When only two-dimensional image data (first image data) is output from the video decoder 215, the graphics generator 219 generates graphics information data to be superimposed on the two-dimensional image data.
  • image data of each view constituting stereoscopic (3D) image data is output from the video decoder 215, the graphics generation unit 219 generates data of graphics information to be superimposed on the image data of each view.
  • the graphics buffer 221 stores graphics information data to be superimposed on the first image data generated by the graphics generation unit 219 under the control of the CPU 201.
  • the first image data is two-dimensional image data or base view image data constituting stereoscopic image data.
  • the graphics buffers 221-1 to 221-N store graphics information data to be superimposed on the N non-base view image data generated by the graphics generation unit 219.
  • the video superimposing unit (display buffer) 217 outputs first image data on which graphics information is superimposed under the control of the CPU 201.
  • the first image data is two-dimensional image data SV or base view image data BN constituting stereoscopic image data.
  • the video superimposing unit 217 superimposes the graphics information data accumulated in the graphics buffer 221 on the first image data whose resolution is adjusted by the scaler 224.
  • the video superimposing units (display buffers) 217-1 to 217-N output N pieces of non-base view image data NB-1 to NB-N on which graphics information is superimposed under the control of the CPU 201.
  • the video superimposing units 217-1 to 217-N respectively store the graphics stored in the graphics buffers 221-1 to 221-N in the base view image data whose resolution is adjusted by the scalers 224-1 to 224-N, respectively. Superimpose information data.
  • the video decoder 215 when the image data of each view constituting the stereoscopic (3D) image data is output from the video decoder 215, basically, as described above, the video superimposing units 217, 217-1 to 217-N transmit them. Image data is output. However, the CPU 201 controls the output of non-base view image data in accordance with the user's selection operation.
  • the CPU 201 performs control so that non-base view image data, which must be displayed, is always output regardless of the user's selection operation.
  • the CPU 201 can recognize the non-base view image data that is required to be displayed based on the “indication_of_selected_stream_display” and “display_mandatory_flag” flags included in the stream association information.
  • the audio decoder 222 performs processing opposite to that of the audio encoder 114 of the transmission data generation unit 110 described above. That is, the audio decoder 222 performs decoding processing on the encoded audio data included in the audio elementary stream extracted by the demultiplexer 214 to obtain decoded audio data.
  • the channel processing unit 223 generates and outputs audio data SA of each channel for realizing, for example, 5.1ch surround with respect to the audio data obtained by the audio decoder 222.
  • a television broadcast signal input to the antenna terminal 211 is supplied to the digital tuner 212.
  • the television broadcast signal is processed, and a predetermined transport stream TS corresponding to the user's selected channel is output.
  • This transport stream TS is temporarily stored in the TS buffer 213.
  • the demultiplexer 214 extracts elementary streams of video, disparity information, graphics, and audio from the transport stream TS temporarily stored in the TS buffer 213.
  • the disparity information elementary stream is extracted only when the transport elementary stream includes a video elementary stream of stereoscopic (3D) image data.
  • the ES_ID descriptor and the ES_association descriptor included in the transport stream TS are extracted and supplied to the CPU 201.
  • the CPU 201 the correspondence between the identifier of each elementary stream and the packet identifier or component tag of each elementary stream is recognized by the ES_ID descriptor.
  • the CPU 201 uses the ES_association descriptor to determine whether or not stream association information is inserted into a video elementary stream, for example, a video elementary stream including the first image data, or whether or not the information is changed. Be recognized.
  • the video decoder 215 performs a decoding process on the encoded image data included in each video elementary stream extracted by the demultiplexer 214 to obtain decoded image data.
  • the video decoder 215 obtains the first image data as two-dimensional (2D) image data.
  • the video decoder 215 performs stereoscopic (3D). Image data is obtained. That is, the first image data is obtained as base view image data, and a predetermined number of second image data is obtained as non-base view image data.
  • the video decoder 215 extracts stream association information from a video elementary stream, for example, a first elementary stream including first image data, and supplies the stream association information to the CPU 201.
  • this extraction process is performed under the control of the CPU 201.
  • the CPU 201 can recognize whether the stream association information exists or whether there is a change in the information using the ES_association descriptor. Therefore, the video decoder 215 performs the extraction process as necessary. Can be done.
  • the CPU 201 recognizes the presence of a predetermined number of second elementary streams related to the first elementary stream including the first image data based on the stream association information extracted by the video decoder 215. Based on this recognition, the CPU 201 controls the demultiplexer 214 so that a predetermined number of second elementary streams related to the first elementary stream are extracted together with the first elementary stream. Is called.
  • the first image data acquired by the video decoder 215 is temporarily accumulated under the control of the CPU 201.
  • the first image data is two-dimensional image data or base view image data constituting stereoscopic image data.
  • N pieces of non-base view image data constituting the stereoscopic image data acquired by the video decoder 215 are temporarily stored under the control of the CPU 201, respectively. Is done.
  • the CPU 201 controls the reading of the view buffers 216 and 216-1 to 216-N.
  • the CPU 201 recognizes in advance whether or not the configuration of the elementary stream is changed from the next access unit (picture) based on the “terminating_current_association_flag” flag included in the stream association information. Therefore, the read control from the view buffers 216, 216-1 to 216-N can be dynamically changed dynamically.
  • the output resolution of the image data of each view output from view buffers 216 and 216-1 to 216-N becomes a predetermined resolution. Adjusted to Then, the image data of each view whose resolution is adjusted is sent to the video superimposing units 217 and 217-1 to 217-N. In this case, the CPU 201 acquires resolution information of image data of each view from the video decoder 215.
  • the CPU 201 performs filter settings of the scalers 224 and 224-1 to 224-N based on the resolution information of each view so that the output resolution of the image data of each view becomes the target resolution. Therefore, in the scalers 224, 224-1 to 224-N, when the resolution of the input image data is different from the target resolution, resolution conversion is performed by interpolation processing, and output image data of the target resolution is obtained.
  • the CPU 201 sets the target resolution based on the “indication_of_other_resolution_master” and “resolution_master_flag” flags included in the stream association information. In this case, the resolution of the image data included in the elementary stream that is set as the resolution reference by these flags is set as the target resolution.
  • decoding processing is performed on the encoded graphics data included in the graphics elementary stream extracted by the demultiplexer 214, and decoded graphics data (including subtitle data) is obtained.
  • disparity information decoder 220 decoding processing is performed on the encoded disparity information included in the disparity information elementary stream extracted by the demultiplexer 214, and decoded disparity information is obtained.
  • This disparity information is a disparity vector indicating the disparity between the base view and each non-base view, or depth data.
  • the depth data can be handled as a disparity vector by a predetermined conversion.
  • the graphics generation unit 219 generates graphics information data to be superimposed on the image based on the graphics data obtained by the graphics decoder 218.
  • the graphics generator 219 When only two-dimensional image data (first image data) is output from the video decoder 215, the graphics generator 219 generates graphics information data to be superimposed on the two-dimensional image data. Further, in the graphics generation unit 219, when image data of each view constituting stereoscopic (3D) image data is output from the video decoder 215, data of graphics information to be superimposed on the image data of each view is generated.
  • 3D stereoscopic
  • the graphics buffer 221 data of graphics information to be superimposed on the first image data generated by the graphics generator 219 is accumulated.
  • the first image data is two-dimensional image data or base view image data constituting stereoscopic image data.
  • graphics information data to be superimposed on N non-base view image data generated by the graphics generating unit 219 is accumulated.
  • the graphics information data accumulated in the graphics buffer 221 is superimposed on the first image data whose resolution is adjusted by the scaler 224.
  • the video superimposing unit 217 outputs first image data on which graphics information is superimposed.
  • the first image data is two-dimensional image data SV or base view image data BN constituting stereoscopic image data.
  • the base view image data whose resolution is adjusted by the scalers 224-1 to 224-N are stored in the graphics buffers 221-1 to 221-N, respectively.
  • the graphics information data is superimposed.
  • the video superimposing units 217-1 to 217-N output N non-base view image data NB-1 to NB-N on which graphics information is superimposed.
  • the audio decoder 222 performs a decoding process on the encoded audio data included in the audio elementary stream extracted by the demultiplexer 214 to obtain decoded audio data.
  • the audio data obtained by the audio decoder 222 is processed, and for example, audio data SA of each channel for realizing 5.1ch surround is generated and output.
  • the stream association information indicating the association of each elementary stream is included in the elementary stream included in the transport stream TS transmitted from the broadcasting station 100 to the receiver 200. Inserted (see FIG. 12).
  • the stream association information includes a first elementary stream including first image data (two-dimensional image data or base view image data), and a second including a predetermined number of second image data and / or metadata. It shows the relationship with elementary streams. Therefore, the receiver 200 can accurately cope with a dynamic change in the configuration of the elementary stream, that is, a dynamic change in the distribution contents, based on the stream association information, and can perform correct stream reception.
  • An example in which ES2 is intermittently included is shown. In this case, stream association information is inserted into the stream ES1. Note that the identifier ES_id of the stream ES1 is 0, and the identifier ES_id of the stream ES2 is 1.
  • the first image data for example, left eye image data
  • the second image data for example, right eye image data
  • An example in which ES2 is intermittently included is shown. In this case, stream association information is inserted into the stream ES1. Note that the identifier ES_id of the stream ES1 is 0, and the identifier ES_id of the stream ES2 is 1.
  • the first image data for example, left eye image data
  • the second image data for example, right eye image data
  • the stream association information inserted into the elementary stream is control information for designating whether display is mandatory for each of a predetermined number of second image data. It is included. That is, the stream association information includes “indication_of_selected_stream_display” and “display_mandatory_flag” (see FIG. 12). Therefore, the receiver 200 can know which of the predetermined number of second image data is display-required based on this control information, and can limit the selection of the image display mode by the user. It becomes.
  • An example in which the base view stream ES2 is continuously included is illustrated. In this case, stream association information is inserted into the stream ES1. Note that the identifier ES_id of the stream ES1 is 0, and the identifier ES_id of the stream ES2 is 1.
  • both streams ES1 and ES2 are extracted and decoded, and base view image data such as left eye image data and non-base view image data such as right eye image data are displayed as display image data.
  • the three-dimensional (3D) display is performed.
  • both streams ES1 and ES2 are extracted and decoded.
  • display of the stream ES2 is not indispensable, two-dimensional (2D) display is permitted in addition to stereoscopic (3D) display by a user's selection operation.
  • base view image data such as left eye image data and non-base view image data such as right eye image data are output as display image data.
  • base view image data is output as display image data.
  • the stream association information inserted into the elementary stream includes pre-notification information for informing that the change occurs before the change of the association of each elementary stream actually occurs.
  • the stream association information includes “terminating_current_association_flag” (see FIG. 12). Therefore, in the receiver 200, it is possible to skillfully and dynamically change the read control from the decoder buffer on the basis of the preceding information.
  • stream association information is inserted into the stream ES1. Note that the identifier ES_id of the stream ES1 is 0, and the identifier ES_id of the stream ES2 is 1.
  • terminatating_current_association_flag 1” is set, indicating that the configuration of the elementary stream is changed from the next access unit.
  • “terminating_current_association_flag” is abbreviated as “Terminating_flg”.
  • both the streams ES1 and ES2 are extracted and decoded, and base-view image data, for example, left-eye image data, and non-base-view image data, for example, right-eye image data, are output as display image data.
  • 3D) Display is performed.
  • stream association information is inserted into the elementary stream in units of pictures or units of GOP. Therefore, the receiver 200 can manage the configuration of elementary streams, for example, changes in the number of views of stereoscopic image data, in units of pictures or units of GOPs.
  • the stream association information inserted into the elementary stream includes control information of the output resolution of the first image data and the second image data. That is, this stream association information includes “indication_of_other_resolution_master” and “resolution_master_flag”. Therefore, the receiver 200 can adjust the output resolution of the first image data and the second image data to the display reference resolution based on this control information.
  • stream association information is inserted into the stream ES1
  • stream association information is also inserted into the streams ES2 and ES3.
  • the identifier ES_id of the stream ES1 is 0, the identifier ES_id of the stream ES2 is 1, and the identifier ES_id of the stream ES3 is 2.
  • stream association information is inserted into the stream ES1
  • the stream ES2 is inserted.
  • Stream association information is also inserted into ES 3. It is assumed that the identifier ES_id of stream ES1 is 0, the identifier ES_id of stream ES2 is 1, and the identifier ES_id of stream ES3 is 2.
  • MPEG4-AVC and MPEG2 video encoding are used as the image data encoding method.
  • the encoding applied to the image data is not limited to these.
  • the base view and the predetermined number of non-base view streams are associated mainly by the stream association information.
  • this stream association information for example, it is conceivable to associate metadata related to the image data of the base view.
  • the metadata for example, disparity information (disparity vector or depth data) can be considered.
  • stream association information is not inserted in the streams ES2 and ES3.
  • FIG. 26 illustrates a configuration example of a receiver 200A including a post processing unit.
  • the receiver 200A includes a CPU 201, a flash ROM 202, a DRAM 203, an internal bus 204, a remote control receiving unit 205, and a remote control transmitter 206.
  • the receiver 200 also includes an antenna terminal 211, a digital tuner 212, a transport stream buffer (TS buffer) 213, and a demultiplexer 214.
  • TS buffer transport stream buffer
  • the receiver 200A also includes a video decoder 215, view buffers 216, 216-1 to 216-N, video superimposing units 217, 217-1 to 217-N, a metadata buffer 225, and a post processing unit 226.
  • the receiver 200 includes a graphics decoder 218, a graphics generation unit 219, a disparity information decoder 220, graphics buffers 221, 221-1 to 221-N, an audio decoder 222, and a channel processing unit 223. Yes.
  • the metadata buffer 225 temporarily stores disparity information for each pixel (pixel) acquired by the video decoder 215.
  • the parallax information is parallax information for each pixel (pixel)
  • the parallax information can be handled like pixel data.
  • the video decoder 215 obtains disparity information for each pixel (pixel)
  • the disparity information is encoded on the transmission side by the same encoding method as the image data on the disparity information. A stream is being generated.
  • the post processing unit 226 uses the disparity information for each pixel (pixel) accumulated in the metadata buffer 225, and performs interpolation processing on the image data of each view output from the view buffers 216, 216-1 to 216-N ( Post-processing) to obtain display image data Display View 1 through Display View P for a predetermined number of views.
  • receiver 200A shown in FIG. 26 are omitted from the detailed description, but are configured in the same manner as the receiver 200 shown in FIG.
  • the SVC stream includes a video elementary stream of encoded image data of the lowest layer that constitutes scalable encoded image data. Further, the SVC stream includes video elementary streams of a predetermined number of higher-layer encoded image data other than the lowest layer constituting the scalable encoded image data.
  • the transport stream TS is distributed on the broadcast wave.
  • the present invention is similarly applied when the transport stream TS is distributed through a network such as the Internet. Applicable.
  • the above-described association data configuration can be applied to Internet distribution in a container file format other than the transport stream TS.
  • this technique can also take the following structures.
  • a predetermined number of second elementary elements each including a first elementary stream including first image data and a predetermined number of second image data and / or metadata related to the first image data.
  • An encoding unit for generating a stream;
  • a transmission unit for transmitting a transport stream having each packet obtained by packetizing each elementary stream generated by the encoding unit;
  • the said encoding part is an image data transmission apparatus which inserts the stream correlation information which shows the relationship of each said elementary stream at least to said 1st elementary stream.
  • the stream association information includes pre-notification information for notifying that the change occurs before the change of the association of each elementary stream actually occurs.
  • the image data transmitting apparatus according to (1) or (2), wherein the encoding unit inserts the stream association information into the elementary stream in units of pictures or GOPs.
  • the stream association information indicates an association of each elementary stream using an identifier for identifying each elementary stream.
  • the image data transmission according to any one of (1) to (3) apparatus.
  • the transmission unit inserts, into the transport stream, a descriptor indicating a correspondence relationship between the identifier of each elementary stream and the packet identifier or component tag of each elementary stream.
  • the transmission unit determines whether or not the stream association information is inserted in the elementary stream in the transport stream, or there is a change in the stream association information inserted in the elementary stream.
  • the image data transmitting device according to any one of (1) to (5), wherein a descriptor indicating whether or not is inserted.
  • (7) As an encoding method of the first image data included in the first elementary stream and an encoding method of the second image data included in the predetermined number of second elementary streams, an arbitrary The image data transmitting apparatus according to any one of (1) to (6), wherein a combination of encoding methods is possible.
  • the first image data is image data of a base view constituting stereoscopic image data
  • the image data transmitting device according to any one of (1) to (7), wherein the second image data is image data of a view other than the base view constituting the stereoscopic image data.
  • the first image data is image data of one of the left eye and the right eye for obtaining a stereo stereoscopic image
  • the image data transmitting device according to any one of (8) to (10), including position information indicating: (12)
  • the first image data is encoded image data of the lowest layer constituting the scalable encoded image data
  • the image data transmitting device according to any one of (1) to (11), wherein the second image data is encoded image data of a layer other than the lowest layer constituting the scalable encoded image data.
  • the image data transmission device according to any one of (1) to (12), wherein the stream association information further includes output resolution control information of the first image data and the second image data.
  • the stream association information further includes control information for designating whether display is mandatory for each of the predetermined number of second image data.
  • a predetermined number of second elementary streams each including a first elementary stream including first image data and a predetermined number of second image data and / or metadata related to the first image data.
  • An encoding step to generate a stream;
  • At least the first elementary stream is inserted with stream association information indicating the association of each elementary stream.
  • a predetermined number of second elementary elements each including a first elementary stream including first image data and a predetermined number of second image data and / or metadata related to the first image data.
  • a receiving unit for receiving a transport stream having each packet obtained by packetizing the stream; At least stream association information indicating the association of each elementary stream is inserted in the first elementary stream, Based on the stream association information, the first image data is acquired from the first elementary stream received by the receiving unit, and the predetermined number of second elementary streams received by the receiving unit.
  • An image data receiving apparatus further comprising: a data acquisition unit that acquires the second image data and / or metadata related to the first image data.
  • the stream association information includes control information of output resolution of the first image data and the second image data, The image data receiving device according to (16), wherein the resolution adjustment unit adjusts the resolution of the first image data and the second image data based on control information of the output resolution.
  • the image display mode selection unit further selects an image display mode based on the first image data and the second image data acquired by the data acquisition unit, The stream association information includes control information for designating whether display is mandatory for each of the predetermined number of second image data, The image data receiving device according to (16) or (17), wherein the image display mode selection unit is restricted from selecting an image display mode based on the control information.
  • the metadata acquired by the data acquisition unit is disparity information corresponding to the stereoscopic image data
  • the image processing apparatus further includes a post processing unit that performs interpolation processing on the first image data and the second image data acquired by the data acquisition unit using the parallax information to obtain display image data of a predetermined number of views.
  • the image data receiving device according to any one of (16) to (18).
  • a predetermined number of second elementary streams each including a first elementary stream including first image data and a predetermined number of second image data and / or metadata related to the first image data.
  • An image data receiving method further comprising: a data acquisition step of acquiring the second image data and / or metadata related to the first image data from the first image data.
  • DESCRIPTION OF SYMBOLS 10 ... Image transmission / reception system 100 ... Broadcasting station 110 ... Transmission data generation part 111 ... Data extraction part 111a ... Data recording medium 112 ... Video encoder 113 ... Parallax information encoder 114- ..Audio encoder 115 ... Graphics generator 116 ... Graphics encoder 117 ... Multiplexer 200, 200A ... Receiver 201 ... CPU 212: Digital tuner 213: Transport stream buffer (TS buffer) 214 ... Demultiplexer 215 ... Video decoder 216, 216-1 to 216-N ... View buffer 217, 217-1 to 217-N ... Video superimposing unit 218 ...
  • TS buffer Transport stream buffer
  • Video decoder 216, 216-1 to 216-N ... View buffer 217, 217-1 to 217-N ... Video superimposing unit 218 ...
  • Graphics decoder 219 ... ⁇ Graphics generation unit 220... Parallax information decoder 221, 221-1 to 221-N... Graphics buffer 222... Audio decoder 223... Channel processing unit 224, 224-1 to 224-N. Scaler 225 ... Metadata buffer 226 ... Post processing section

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 受信側において、エレメンタリストリームの構成変化に的確に対応可能とする。 トランスポートストリーム(TS)に含まれる各エレメンタリストリーム(ES)の関連を示すストリーム関連付け情報を、ESに挿入する。このストリーム関連付け情報は、第1の画像データを含む第1のESと、第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のESとの関連を示す。ストリーム関連付け情報は、例えば、各ESを識別するための識別子を用いて、各ESの関連を示す。例えば、TSに、各ESの識別子と、各ESのパケット識別子またはコンポーネント・タグとの対応関係を示す記述子を挿入し、各ESのTSレイヤでの登録状態と、ストリーム関連付け情報との連携を図る。

Description

画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
 本技術は、画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法に関し、特に、立体画像データ、スケーラブル符号化画像データ等を送信する画像データ送信装置等に関する。
 従来、動画像の符号化方式として、H.264/AVC(Advanced VideoCoding)が知られている(非特許文献1参照)。また、このH.264/AVCの拡張方式として、H.264/MVC(Multi-view Video Coding)が知られている(非特許文献2参照)。MVCでは、マルチビューの画像データをまとめて符号化する仕組みが採用されている。MVCでは、マルチビュー画像データを、1個のベースビュー(base view)の画像データと、1個以上のノンベースビュー (non-baseview)の画像データとして符号化する。
 なお、このH.264/AVCの拡張方式として、 H.264/SVC(Scalable
 Video Coding)も知られている(非特許文献3参照)。SVCは、画像を階層的に符号化する技術である。SVCでは、動画像を最低限の品質で復号化するのに必要な画像データを有する基本階層(最下位階層)と、この基本階層に付加することによって動画像の品質を高める画像データを有する拡張階層(上位階層)に分けられている。
「Draft Errata List withRevision-Marked Corrections for H.264/AVC」, JVT-1050,Thomas Wiegand et al., Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG,2003 Joint Draft 4.0 on MultiviewVideo Coding, Joint Video Team of ISO/IEC MPEG & ITU-T VCEG,JVT-X209, July2007 Heiko Schwarz, Detlev Marpe, andThomas Wiegand,"Overview of the Scalable Video CodingExtension of the H.264/AVC Standard ", IEEETRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, VOL.17, NO.9,SEPTEMBER 2007, pp.1103-1120.
 AVCストリームとMVCストリームとが、動的に切り替わる配信環境において、MVCに対応した受信機は、「Stream_Type=0x1B」のみのストリームか、「Stream_Type=0x1B」と「Stream_Type=0x20」の両方があるストリームかを判断して、受信モードの切換えを行うことが期待される。
 通常のAVC(2D)のビデオエレメンタリストリームは、PMT(Program MapTable)の「Stream_Type=0x1B」で送られる。また、MVCのベースビュー(Base view)のビデオエレメンタリストリーム(Base viewsub-bitstream)は、PMTの「Stream_Type=0x1B」で送られる場合がある。MVCの場合、ベースビューの画像データと、ノンベースビュー(Non base view)の画像データとがまとめて送られる場合がある。つまり、ベースビューの画像データと、ノンベースビューの画像データとが分かれて送られる場合には、MVCのベースビューのビデオエレメンタリストリーム(Base view sub-bitstream)は、PMTの「Stream_Type=0x1B」で送られることがある。
 トランスポートストリーム(Transport Stream)の中のセクション(Section)部分には、PSI(Program SpecificInformation)としてのPMTのレベルで、AVCストリームであるかMVCストリームであるかが分かる仕組みが提供されている。すなわち、ビデオエレメンタリストリームが「Stream_Type=0x1B」のみのときは、2DAVCストリームであることが分かる。また、ビデオエレメンタリストリームが「Stream_Type=0x1B」と「Stream_Type=0x20」の両方があるときは、MVCストリームであることが分かる。
 しかし、PMTというのは、送信側設備によっては、必ずしも動的に更新されない場合がある。その場合には、配信内容が立体(3D)画像から二次元(2D)画像に切り替わる際に、以下の不都合が考えられる。すなわち、受信機は、ストリームタイプ(Stream_Type)が「0x1B」のエレメンタリストリームと共に、ストリームタイプ(Stream_Type)が「0x20」のストリームも継続受信するものとして、そのデータを待ち続けることが考えられる。
 配信内容が二次元(2D)画像に切り替わった後には、「0x20」のエレメンタリストリームは受信されないわけだが、受信機内部では、「0x20」のエレメンタリストリームがくるものとして、待ち続ける。その結果、正しいデコードに至らず、正常な表示ができなくなるおそれがある。このように、受信機が、PMTの[Stream_type]の種類のみを当てにして自らのモードを決定した場合、そのモードが正しくなく、正しいストリーム受信でない可能性が出てくる。
 図27は、トランスポートストリーム内におけるビデオエレメンタリストリームとPMT(ProgramMap Table)の構成例を示している。ビデオエレメンタリストリームES1,ES2の「001」~「009」のアクセスユニット(AU:Access Unit)の期間は、2本のビデオエレメンタリストリームが存在する期間である。この期間は、例えば3D番組の本体期間であり、この2本のストリームは立体(3D)画像データのストリームを構成している。
 それに続く、ビデオエレメンタリストリームES1の「010」~「014」のアクセスユニットの期間は、1本のビデオエレメンタリストリームのみ存在する期間である。この期間は、例えば、3D番組の本体期間の間に挿入されているCM期間であり、この1本のストリームは2次元画像データのストリームを構成している。
 さらに、それに続く、ビデオエレメンタリストリームES1,ES2の「0015」~「016」のアクセスユニットの期間は、2本のビデオエレメンタリストリームが存在する期間である。この期間は、例えば3D番組の本体期間であり、この2本のストリームは立体(3D)画像データのストリームを構成している。
 PMTにおけるビデオエレメンタリストリームの登録をアップデートする周期(例えば、100msec)は、ビデオのフレーム周期(例えば、33.3msec)に追従できない。トランスポートストリームを構成するエレメンタリストリームの動的変化をPMTによって知らせる方法では、エレメンタリストリームとPMTのトランスポートストリーム内の構成が非同期なため、受信機に対して正しい動作を約束させるものにはならない。
 また、既存の信号規格(MPEG)では、「Stream_Type=0x1B」のMVCのベースビューのビデオエレメンタリストリーム(Baseview sub-bitstream)には、PMTの記述子として、「MVC_extensiondescriptor」のデスクリプタを挿入することが必須とされている。このデスクリプタが存在すれば、ノンベースビューのビデオエレメンタリストリーム(Non-Base view sub-bitstream)の存在が分かる。
 しかし、「Stream_Type=0x1B」が指す「Elementary PID」のビデオエレメンタリストリームは、上述のMVCのベースビュー(Base view)のビデオエレメンタリストリーム
(Base view sub-bitstream)であるとは限らない。従来のAVC(この場合、多くはHigh Profile)のストリームである場合も考えられる。特に、既存の2D受信機との互換性を保証するために、立体(3D)画像データであるが、ベースビューのビデオエレメンタリストリームが、従来のAVC(2D)のビデオエレメンタリストリームそのままであることが推奨される場合がある。
 この場合、立体画像データのストリームは、AVC(2D)のビデオエレメンタリストリームと、ノンベースビューのビデオエレメンタリストリーム(Non-Base view sub-bitstream)とで構成される。その場合、「Stream_Type=0x1B」のビデオエレメンタリストリームには、「MVC_extension descriptor」の記述子は関連付けされない。そのため、ベースビューのビデオエレメンタリストリームに相当するAVC(2D)のビデオエレメンタリストリーム以外に、ノンベースビューのビデオエレメンタリストリーム(Non-Base view sub-bitstream)の存在が分からないことになる。
 また、上述したように、AVC(2D)ストリームとMVCストリームとが、動的に切り替わる配信環境において、MVCに対応した受信機は、「Stream_Type=0x1B」のみのストリームか、「Stream_Type=0x1B」と「Stream_Type=0x20」の両方あるストリームかを判断して、受信モードの切換えを行うことが期待される。通常のAVC(2D)のビデオエレメンタリストリームは、PMT(Program Map Table)の「Stream_Type=0x1B」で送られる。また、MVCのベースビュー(Base view)のビデオエレメンタリストリーム(Base viewsub-bitstream)は、PMTの「Stream_Type=0x1B」で送られる場合がある。
 その際、1つのトランスポートストリーム(TS:Tranport Stream)の中に、複数のビデオエレメンタリストリームを多重化することが可能である。そして、そのうちの幾つかのビデオエレメンタリストリームで、立体画像データのストリームが構成される場合がある。例えば、1つのトランスポートストリームに、以下のようなビデオストリームが多重されている場合を考える。
  PID0 (AVC 2D) stream_type =0x1B
  PID1 (AVC 3D FrameCompatible) stream_type = 0x1B
  PID2 (MVC non-base substream)stream_type = 0x20
 「PID0」のビデオエレメンタリストリームは、これ自体は従来の2次元(2D)画像データのストリームそのものである。このビデオエレメンタリストリームが、「PID2」のノンベースビューのビデオエレメンタリストリーム(Non-Base viewsub-bitstream)と共に、立体(3D)画像データのストリームを構成する。しかし、単に、「stream_type」だけで3D構成要素としてのビデオストリームを関連付けできるわけではない。すなわち、「stream_type=0x1B」は、「PID1」のビデオエレメンタリストリームにも当てはまるからである。なお、「AVC 3D Frame Compatible」は、サイドバイサイド方式やトップアンドボトム方式等の立体(3D)画像データを示している。
 なお、上述では、ベースビューの画像データの符号化方式とノンベースビューの画像データの符号化方式がMPEG4-AVCである例を示した。しかし、ベースビューの画像データの符号化方式とノンベースビューの画像データの符号化方式がMPEG2video方式等の他の符号化方式である場合、さらには、ベースビューの画像データの符号化方式とノンベースビューの画像データの符号化方式が同一ではなく、異なる場合も考えられる。
 また、上述では、トランスポートストリームに含まれるエレメンタリストリームが立体(3D)画像データを構成しているか否かの判断が困難であること、さらには、トランスポートストリームに含まれるエレメンタリストリームのうち、立体(3D)画像データを構成するエレメンタリストリームがどれであるかの特定が困難であること等を説明した。詳細説明は省略するが、これらの不都合は、AVCストリームと上述のSVCストリームとを時分割的に送信する場合にも生じる。
 本技術の目的は、例えば、MVCあるいはSVC等に対応する受信機が、配信内容の動的な変化に的確に対応し、正しいストリーム受信を行い得るようにすることにある。
 本技術の概念は、
 第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとを生成するエンコード部と、
 上記エンコード部で生成された上記各エレメンタリストリームをパケット化して得られた各パケットを有するトランスポートストリームを送信する送信部を備え、
 上記エンコード部は、少なくとも、上記第1のエレメンタリストリームに、上記各エレメンタリストリームの関連を示すストリーム関連付け情報を挿入する
 画像データ送信装置にある。
 本技術において、エンコード部により、第1の画像データを含む第1のエレメンタリストリームと、第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとが生成される。そして、送信部により、エンコード部で生成された各エレメンタリストリームをパケット化して得られた各パケットを有するトランスポートストリームが送信される。この場合、所定数の第2の画像データのみが存在する状態、所定数のメタデータのみが存在する状態、さらには、第2の画像データおよびメタデータを合わせて所定数存在する状態などがある。
 例えば、第1のエレメンタリストリームに含まれる第1の画像データの符号化方式と、所定数の第2のエレメンタリストリームに含まれる第2の画像データの符号化方式として、任意の符号化方式の組み合わせが可能とされる。例えば、符号化方式がMPEG4-AVCのみである場合、符号化方式がMPEG2videoのみである場合、さらには、それらの符号化方式の組み合わせが考えられる。なお、符号化方式は、これらMPEG4-AVC、MPEG2videoに限定されない。
 例えば、第1の画像データは、立体(3D)画像データを構成するベースビューの画像データであり、第2の画像データは、立体画像(3D)データを構成するベースビュー以外のビュー(ノンベースビュー)の画像データである。この場合、例えば、第1の画像データは、ステレオ立体画像を得るための左眼および右眼の一方の画像データであり、第2の画像データは、ステレオ立体画像を得るための左眼および右眼の他方の画像データである。
 また、例えば、メタデータは、立体画像データに対応した視差情報(視差ベクトル、奥行きデータなど)である。例えば、受信側においては、この視差情報を用い、受信画像データに補間処理(ポスト処理)を施して、所定数のビューの表示画像データを得ることが可能となる。また、例えば、第1の画像データは、スケーラブル符号化画像データを構成する最下位層の符号化画像データであり、第2の画像データは、スケーラブル符号化画像データを構成する最下位層以外の階層の符号化画像データである。
 例えば、ストリーム関連付け情報は、このストリーム関連付け情報が挿入されたエレメンタリストリームに含まれる画像データによるビューが、立体表示の際に、マルチビューイング中のいずれのビューとして表示されるべきかを示すポジション情報を含む、ようにされてもよい。
 エンコード部により、少なくとも、第1のエレメンタリストリームに、各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入される。例えば、ストリーム関連付け情報は、各エレメンタリストリームを識別するための識別子を用いて、各エレメンタリストリームの関連を示すようにされる。
 例えば、トランスポートストリームに、各エレメンタリストリームの識別子と、各エレメンタリストリームのパケット識別子またはコンポーネント・タグとの対応関係を示す記述子(デスクリプタ)が挿入される。例えば、この記述子は、プログラム・マップ・テーブルの配下に挿入される。なお、この対応関係が予め定義されていてもよい。これにより、各エレメンタリストリームのトランスポートストリームレイヤでの登録状態と、ストリーム関連付け情報との連携がとられる。
 このように、本技術においては、少なくとも、第1のエレメンタリストリームに、各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入される。そのため、受信側では、このストリーム関連付け情報に基づいて、このトランスポートストリームに、第1のエレメンタリストリームと関連する第2のエレメンタリストリームが含まれるか否かを容易に判断できる。また、エレメンタリストリーム自体にストリーム関連付け情報が挿入されることから、受信側では、このストリーム関連付け情報に基づいて、エレメンタリストリームの構成変化、つまり、配信内容の動的な変化に的確に対応でき、正しいストリーム受信を行い得る。
 なお、本技術において、例えば、ストリーム関連付け情報は、各エレメンタリストリームの関連の変化が実際に起きる前に、この変化が起きることを知らせる前触れ情報を含む、ようにされてもよい。この前触れ情報に基づいて、受信側では、デコーダバッファからの読み出し制御を手際よく動的に変えることが可能となる。
 また、本技術において、例えば、エンコード部は、エレメンタリストリームに、ストリーム関連付け情報をピクチャ単位あるいはGOP単位で挿入する、ようにされてもよい。これにより、受信側では、エレメンタリストリームの構成、例えば、立体画像データのビュー数の変化、あるいはスケーラブル符号化画像データの階層数の変化等を、ピクチャ単位あるいはGOP単位で管理可能となる。
 また、本技術において、送信部は、トランスポートストリームに、エレメンタリストリームにストリーム関連付け情報が挿入されているか否か、あるいは、エレメンタリストリームに挿入されているストリーム関連付け情報に変更があるか否かを示す記述子を挿入する、ようにされてもよい。この記述子により、エレメンタリストリームに挿入されているストリーム関連付け情報の参照を促すことができ、受信側において安定した受信動作が可能となる。
 また、本技術において、例えば、ストリーム関連付け情報は、第1の画像データおよび第2の画像データの出力解像度の制御情報をさらに含む、ようにされてもよい。これにより、受信側においては、この制御情報に基づいて、第1の画像データおよび第2の画像データの出力解像度を所定解像度に調整することが可能となる。
 また、本技術において、例えば、ストリーム関連付け情報は、所定数の第2の画像データのそれぞれに対して表示必須とするか否かを指定する制御情報をさらに含む、ようにされてもよい。これにより、受信側においては、この制御情報に基づいて、所定数の第2の画像データのどれが表示必須であるかを知ることができ、ユーザによる画像表示態様の選択を制限可能となる。
 また、本技術の他の概念は、
 第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとをパケット化して得られた各パケットを有するトランスポートストリームを受信する受信部を備え、
 上記第1のエレメンタリストリームには、上記各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入されており、
 上記ストリーム関連付け情報に基づいて、上記受信部で受信された上記第1のエレメンタリストリームから上記第1の画像データを取得し、上記受信部で受信された上記所定数の第2のエレメンタリストリームから上記第1の画像データに関連した上記第2の画像データおよび/またはメタデータを取得するデータ取得部をさらに備える
 画像データ受信装置にある。
 本技術において、受信部により、トランスポートストリームが受信される。このトランスポートストリームは、第1の画像データを含む第1のエレメンタリストリームおよびこの第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームをパケット化して得られた各パケットを有している。この場合、第1のエレメンタリストリームには、各エレメンタリストリームの関連を示すストリーム関連付け情報を挿入されている。
 データ取得部により、受信部で受信されたトランスポートストリームから画像データおよび/またはメタデータが取得される。この場合、ストリーム関連付け情報に基づいて、第1のエレメンタリストリームから第1の画像データが取得され、さらに、所定数の第2のエレメンタリストリームから第2の画像データおよび/またはメタデータが取得される。
 本技術においては、トランスポートストリームに、各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入されている。そのため、このストリーム関連付け情報に基づいて、このトランスポートストリームに、第1のエレメンタリストリームと関連する第2のエレメンタリストリームが含まれるか否かを容易に判断できる。また、エレメンタリストリーム自体にストリーム関連付け情報が挿入されていることから、このストリーム関連付け情報に基づいて、エレメンタリストリームの構成変化、つまり、配信内容の動的な変化に的確に対応でき、正しいストリーム受信を行い得る。
 なお、本技術において、例えば、データ取得部で取得された第1の画像データおよび第2の画像データの解像度を調整して出力する解像度調整部をさらに備え、ストリーム関連付け情報は、第1の画像データおよび第2の画像データの出力解像度の制御情報を含み、解像度調整部は、出力解像度の制御情報に基づいて、第1の画像データおよび第2の画像データの解像度を調整する、ようにされてもよい。この場合、第1の画像データおよび所定数の第2の画像データの解像度が異なる場合であっても、解像度調整部によりそれらの出力解像度を合わせることが可能となる。
 また、本技術において、例えば、データ取得部で取得された第1の画像データおよび第2の画像データに基づく画像表示態様を選択する画像表示態様選択部をさらに備え、ストリーム関連付け情報は、所定数の第2の画像データのそれぞれに対して表示必須とするか否かを指定する制御情報を含み、画像表示態様選択部は、この制御情報に基づいて画像表示態様の選択が制限される、ようにされてもよい。
 また、本技術において、例えば、データ取得部で取得されたメタデータは、立体画像データに対応した視差情報であり、この視差情報を用い、データ取得部で取得された第1の画像データおよび第2の画像データに補間処理を施して、所定数のビューの表示画像データを得るポスト処理部をさらに備える、ようにされてもよい。
 本技術によれば、受信側では、エレメンタリストリームの構成変化、つまり、配信内容の動的な変化に的確に対応でき、ストリーム受信を良好に行うことができる。
この発明の第1の実施の形態としての画像送受信システムの構成例を示すブロック図である。 番組が2本のビデオエレメンタリストリームにより構成される例を示す図である。 画像送受信システムを構成する放送局の送信データ生成部の構成例を示すブロック図である。 ビデオエレメンタリストリーム、グラフィクスエレメンタリストリーム、オーディオエレメンタリストリーム等を含む一般的なトランスポートストリームの構成例を示す図である。 エレメンタリストリームにストリーム関連付け情報を挿入し、トランスポートストリームに、ES_IDデスクリプタおよびES_associationデスクリプタを挿入する場合におけるトランスポートストリームの構成例を示す図である。 ES_IDデスクリプタの構造例(Syntax)を示す図である。 ES_associationデスクリプタの構造例(Syntax)を示す図である。 エレメンタリストリームに挿入されているストリーム関連付け情報と、トランスポートストリームに挿入されているES_associationデスクリプタとの関係の一例を示す図である。 符号化方式がMPEG4-AVCである場合、ストリーム関連付け情報がアクセスユニットの“SELs”の部分に挿入されることを説明するための図である。 Stream Association Information SEImessage」および「userdata_for_stream_association()」の構造例(Syntax)を示す図である。 「user_data()」の構造例(Syntax)を示す図である。 ストリーム関連付け情報「stream_association()」の構造例(Syntax)を示す図である。 ストリーム関連付け情報「stream_association()」の構造例(Syntax)における各情報の内容(Semantics)を示す図である。 トランスポートストリームが、MVCのベースビュー(base view)のストリームとMVCのノンベースビュー(Non base view)のストリームを有する場合の例を示す図である。 受信側における立体(3D)表示の際のビュー表示例を示す図である。 「indication_of_selected_stream_display」の挿入例を示す図である。 画像送受信システムを構成する受信機の構成例を示すブロック図である。 トランスポートストリームTSに、MVCのベースビューのストリームES1と、MVCのノンベースビューのストリームES2が含まれる場合の例を示す図である。 トランスポートストリームTSに、MPEG2videoストリームES1,ES2が含まれる場合の例を示す図である。 トランスポートストリームTSに、MPEG2videoストリームES1と、AVCストリームES2が含まれる場合の例を示す図である。 トランスポートストリームTSに、MVCのベースビューのストリームES1と、MVCのノンベースビューのストリームES2が含まれる場合の他の例を示す図である。 トランスポートストリームTSに、MVCのベースビューのストリームES1と、MVCのノンベースビューのストリームES2が含まれる場合のさらに他の例を示す図である。 トランスポートストリームTSに、MVCのベースビューのストリームES1と、MVCのノンベースビューのストリームES2,ES3が含まれる場合の例を示す図である。 トランスポートストリームTSに、MVCのベースビューのストリームES1と、MVCのノンベースビューのストリームES2,ES3が含まれる場合の他の例を示す図である。 トランスポートストリームTSに、MVCのベースビューのストリームES1と、MVCのノンベースビューのストリームES2と、メタデータストリームES3が含まれる場合の例を示している。 画像送受信システムを構成する受信機の他の構成例を示すブロック図である。 トランスポートストリーム内におけるビデオエレメンタリストリームとPMT(ProgramMap Table)の構成例を示す図である。
 以下、本技術を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 <1.実施の形態>
 [画像送受信システム]
 図1は、実施の形態としての画像送受信システム10の構成例を示している。この画像送受信システム10は、放送局100および受信機200により構成されている。放送局100は、トランスポートストリームを、放送波にのせて送信する。トランスポートストリームは、番組を構成する画像データやメタデータを含んでいる。
 すなわち、このトランスポートストリームは、第1の画像データを含む第1のエレメンタリストリームと、この第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームをパケット化して得られた各パケットを有している。このパケットは、PES(Packetized Elementary Stream)パケットである。
 この場合、所定数の第2の画像データのみが存在する状態、所定数のメタデータのみが存在する状態、さらには、第2の画像データおよびメタデータを合わせて所定数存在する状態などがある。なお、所定数には0が含まれる。その場合、第1の画像データに関連する第2の画像データやメタデータは存在せず、トランスポートストリームは、第1の画像データを含む第1のエレメンタリストリームをパケット化して得られたパケットのみを有することとなる。
 第1の画像データを含む第1のエレメンタリストリームのみが存在する場合、この第1の画像データは2次元(2D)画像データを構成する。一方、第1の画像データを含む第1のエレメンタリストリームの他に、第2の画像データを含む単数あるいは複数の第2のエレメンタリストリームが存在する場合、これら第1の画像データおよび所定数の第2の画像データは立体(3D)画像データを構成する。ここで、第1の画像データはベースビューの画像データであり、所定数の第2の画像データはノンベースビューの画像データを構成している。
 なお、ステレオ立体(3D)画像データの場合、立体画像データを構成するノンベースビューの画像データは単数である。すなわち、所定数は1である。この場合、ベースビューの画像データは左眼および右眼の一方の画像データであり、ノンベースビューの画像データは左眼および右眼の他方の画像データである。
 図2は、番組が複数本、例えば2本のビデオエレメンタリストリームにより構成される例を示している。図2(a)は、PMTの「Stream_Type=0x1B」で送られるMVCのベースビュー(base view)のストリームと、PMTの「Stream_Type=0x20」で送られるMVCのノンベースビュー(Non baseview)のストリームから構成されている。また、図2(b)は、PMTの「Stream_Type=0x20」で送られるMPEG2videoストリームと、PMTの「Stream_Type=0x1B」で送られるAVCストリームとから構成されている。さらに、図2(c)は、PMTの「Stream_Type=0x20」で送られるMPEG2videoストリームが2本で構成されている。
 少なくとも、第1のエレメンタリストリームには、各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入されている。このストリーム関連付け情報は、ピクチャ単位あるいは予測画像を含めた表示アクセス単位であるGOP(Group of Picture)単位で挿入されている。このストリーム関連付け情報の詳細説明は後述する。
 受信機200は、放送局100から放送波にのせて送られてくるトランスポートストリームを受信する。このトランスポートストリームは、上述したように、第1のエレメンタリストリームと所定数の第2のエレメンタリストリームをパケット化して得られた各パケットを有している。第1のエレメンタリストリームには、第1の画像データが含まれている。また、所定数の第2のエレメンタリストリームには、この第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータがそれぞれ含まれている。
 少なくとも、第1のエレメンタリストリームには、各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入されている。受信機200は、このストリーム関連付け情報に基づいて、第1のエレメンタリストリームから第1の画像データを取得し、所定数の第2のエレメンタリストリームから画像データやメタデータを取得する。
 「送信データ生成部の構成例」
 図3は、放送局100において、上述したトランスポートストリームを生成する送信データ生成部110の構成例を示している。この送信データ生成部110は、データ取り出し部(アーカイブ部)111と、ビデオエンコーダ112と、視差情報エンコーダ113と、オーディオエンコーダ114を有している。また、この送信データ生成部110は、グラフィクス発生部115と、グラフィクスエンコーダ116と、マルチプレクサ117を有している。
 データ取り出し部111には、データ記録媒体111aが、例えば、着脱自在に装着される。このデータ記録媒体111aには、送信すべき番組の画像データと共に、この画像データに対応した音声データが記録されている。例えば、画像データは、番組に応じて、立体(3D)画像データあるいは二次元(2D)画像データに切り替わる。また、例えば、画像データは、番組内においても、本編やコマーシャルなどの内容に応じて、立体画像データあるいは二次元画像データに切り替わる。立体画像データは、上述したように、ベースビューの画像データと、所定数のノンベースビューの画像データとからなっている。
 画像データが立体画像データである場合、データ記録媒体111aには、この立体画像データに対応して、視差情報も記録されている。この視差情報は、ベースビューと各ノンベースビューとの間の視差を示す視差ベクトル、あるいは奥行きデータ等である。奥行きデータは、所定の変換により視差ベクトルとして扱うことが可能となる。視差情報は、例えば、ピクセル(画素)毎の視差情報、あるいはビュー(画像)を所定数に分割して得られた各分割領域の視差情報などである。
 例えば、この視差情報は、受信側において、ベースビューおよび各ノンベースビューの画像にそれぞれ重畳する同一の重畳情報(グラフィクス情報等)の位置を調整して視差を付与するために用いられる。また、例えば、この視差情報は、受信側において、ベースビューおよび各ノンベースビューの画像データに補間処理(ポスト処理)を施して所定数のビューの表示画像データを得るために用いられる。データ記録媒体111aは、ディスク状記録媒体、半導体メモリ等である。データ取り出し部111は、データ記録媒体111aから、画像データ、音声データ、視差情報等を取り出して出力する。
 ビデオエンコーダ112は、データ取り出し部111から出力される画像データに対して、例えば、MPEG4-AVC(MVC)、MPEG2videoなどの符号化を施して符号化ビデオデータを得る。また、このビデオエンコーダ112は、後段に備えるストリームフォーマッタ(図示せず)により、ビデオエレメンタリストリームを生成する。
 すなわち、このビデオエンコーダ112は、画像データが2次元画像データであるとき、この2次元画像データ(第1の画像データ)を含むビデオエレメンタリストリームを生成する。また、このビデオエンコーダ112は、画像データが立体画像データであるとき、ベースビューの画像データ(第1の画像データ)を含むビデオエレメンタリストリームおよび所定数のノンベースビューの画像データ(第2の画像データ)を含むビデオエレメンタリストリームを生成する。
 また、このビデオエンコーダ112は、少なくとも、第1の画像データを含むビデオエレメンタリストリーム(第1のエレメンタリストリーム)に、ストリーム関連付け情報を挿入する。このストリーム関連付け情報は、各エレメンタリストリームの関連を示す情報である。第2のエレメンタリストリームには、上述した第2の画像データおよび/またはメタデータが含まれる。ビデオエンコーダ112は、このストリーム関連付け情報を、ピクチャ単位あるいは予測画像を含めた表示アクセス単位であるGOP単位で挿入する。
 オーディオエンコーダ114は、データ取り出し部111から出力される音声データに対して、MPEG2 Audio AAC等の符号化を施し、オーディオのエレメンタリストリームを生成する。
 視差情報エンコーダ113は、データ取り出し部111から出力される視差情報に対して所定の符号化を施し、視差情報のエレメンタリストリームを生成する。なお、視差情報が、上述したようにピクセル(画素)毎の視差情報である場合、この視差情報を画素データのように取り扱うことができる。この場合、視差情報エンコーダ113は、視差情報に対して、上述した画像データと同様の符号化方式で符号化を施し、視差情報エレメンタリストリームを生成できる。なお、この場合、データ取り出し部111から出力される視差情報の符号化をビデオエンコーダ112で行う構成も考えられ、その場合には、視差情報エンコーダ113は不要となる。
 グラフィクス発生部115は、画像に重畳するグラフィクス情報(サブタイトル情報も含む)のデータ(グラフィクスデータ)を発生する。グラフィクスエンコーダ116は、グラフィクス発生部115で発生されたグラフィクスデータを含むグラフィクスエレメンタリストリームを生成する。ここで、グラフィクス情報は、重畳情報を構成している。
 グラフィクス情報は、例えば、ロゴなどである。サブタイトル情報は、例えば、字幕である。このグラフィクスデータは、ビットマップデータである。このグラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。このアイドリングオフセット情報は、例えば、画像の左上の原点から、グラフィクス情報の重畳位置の左上の画素までの垂直方向、水平方向のオフセット値を示す。なお、字幕データをビットマップデータとして伝送する規格は、ヨーロッパのデジタル放送規格であるDVBで「DVB_Subtitling」として規格化され、運用されている。
 マルチプレクサ117は、ビデオエンコーダ112、視差情報エンコーダ113、オーディオエンコーダ114およびグラフィクスエンコーダ116で生成された各エレメンタリストリームをパケット化して多重し、トランスポートストリームTSを生成する。
 図3に示す送信データ生成部110の動作を簡単に説明する。データ取り出し部111から出力される画像データ(立体画像データあるいは2次元画像データ)は、ビデオエンコーダ112に供給される。このビデオエンコーダ112では、その画像データに対して、例えばMPEG4-AVC(MVC)、MPEG2videoなどの符号化が施され、符号化ビデオデータを含むビデオエレメンタリストリームが生成され、マルチプレクサ117に供給される。
 すなわち、このビデオエンコーダ112では、画像データが2次元画像データであるとき、この2次元画像データ(第1の画像データ)を含むビデオエレメンタリストリームが生成される。また、このビデオエンコーダ112では、画像データが立体(3D)画像データであるとき、ベースビューの画像データ(第1の画像データ)を含むビデオエレメンタリストリームおよび所定数のノンベースビューの画像データ(第2の画像データ)を含むビデオエレメンタリストリームが生成される。
 なお、このビデオエンコーダ112では、ピクチャ単位あるいは予測画像を含めた表示アクセス単位であるGOP単位で、少なくとも、第1の画像データを含むビデオエレメンタリストリーム(第1のビデオエレメンタリストリーム)に、ストリーム関連付け情報が挿入される。これにより、第1の画像データが含まれる第1のエレメンタリストリームに対して、第2の画像データが含まれる第2のエレメンタリストリームの有無などを示す情報が受信側に送信されることになる。
 また、データ取り出し部111から立体画像データが出力されるとき、このデータ取り出し部111からその立体画像データに対応した視差情報も出力される。この視差情報は、視差情報エンコーダ113に供給される。視差情報エンコーダ113では、視差情報に対して所定の符号化が施され、符号化データを含む視差情報エレメンタリストリームが生成される。この視差情報エレメンタリストリームはマルチプレクサ117に供給される。
 また、データ取り出し部111から画像データが出力されるとき、このデータ取り出し部111からその画像データに対応した音声データも出力される。この音声データは、オーディオエンコーダ114に供給される。このオーディオエンコーダ114では、音声データに対して、MPEG2Audio AAC等の符号化が施され、符号化オーディオデータを含むオーディオエレメンタリストリームが生成される。このオーディオエレメンタリストリームはマルチプレクサ117に供給される。
 また、データ取り出し部111から出力される画像データに対応してグラフィクス発生部115では、画像(ビュー)に重畳するグラフィクス情報(サブタイトル情報を含む)のデータ(グラフィクスデータ)が発生される。このグラフィクスデータは、グラフィクスエンコーダ116に供給される。グラフィクスエンコーダ116では、このグラフィクスデータに対して所定の符号化が施され、符号化データを含むグラフィクスエレメンタリストリームが生成される。このグラフィクスエレメンタリストリームはマルチプレクサ117に供給される。
 マルチプレクサ117では、各エンコーダから供給されるエレメンタリストリームがパケット化されて多重され、トランスポートストリームTSが生成される。このトランスポートストリームTSは、データ取り出し部111から立体(3D)画像データが出力される期間は、ベースビューのビデオエレメンタリストリームと、所定数のノンベースビューのビデオエレメンタリストリームとを有するものとなる。また、このトランスポートストリームTSは、データ取り出し部111から二次元(2D)画像データが出力される期間は、この二次元画像データを含むビデオエレメンタリストリームを有するものとなる。
 図4は、ビデオエレメンタリストリーム、オーディオエレメンタリストリーム等を含む一般的なトランスポートストリームの構成例を示している。トランスポートストリームには、各エレメンタリストリームをパケット化して得られたPESパケットが含まれている。この構成例では、2つのビデオエレメンタリストリームのPESパケット「Video PES1」、「Video PES2」が含まれている。また、この構成例では、グラフィクスエレメンタリストリームのPESパケット「Graphics PES」およびプライベートエレメンタリストリームのPESパケット「DisparityData PES」が含まれている。さらに、この構成例では、オーディオエレメンタリストリームのPESパケット「AudioPES」が含まれている。
 また、トランスポートストリームには、PSI(Program SpecificInformation)として、(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。また、トランスポートストリームには、イベント単位の管理を行うSI(Serviced Information)としてのEIT(EventInformation Table)が含まれている。
 PMTには、プログラム全体に関連する情報を記述するプログラム・デスクリプタ(ProgramDescriptor)が存在する。また、このPMTには、各エレメンタリストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、ビデオエレメンタリ・ループ、グラフィクスエレメンタリ・ループ、プライベートエレメンタリ・ループおよびオーディオエレメンタリ・ループが存在する。各エレメンタリ・ループには、ストリーム毎に、パケット識別子(PID)、ストリームタイプ(Stream_Type)等の情報が配置されると共に、図示していないが、そのエレメンタリストリームに関連する情報を記述するデスクリプタも配置される。
 [ストリーム関連付け情報]
 上述したように、ビデオエンコーダ112は、少なくとも、第1の画像データを含むビデオエレメンタリストリーム(第1のエレメンタリストリーム)に、ストリーム関連付け情報を、ピクチャ単位あるいはGOP単位で挿入する。このストリーム関連付け情報は、各エレメンタリストリームの関連を示す情報である。
 このストリーム関連付け情報は、各エレメンタリストリームを識別するための識別子を用いて、各エレメンタリストリームの関連を示すものとされる。この場合、各エレメンタリストリームのトランスポートストリームレイヤでの登録状態と、ストリーム関連付け情報との連携をとる必要がある。例えば、各エレメンタリストリームの識別子と、各エレメンタリストリームのパケット識別子またはコンポーネント・タグとの対応関係を予め定義することが考えられる。
 この実施の形態において、マルチプレクサ117は、トランスポートストリームに、各エレメンタリストリームの識別子と、各エレメンタリストリームのパケット識別子またはコンポーネント・タグとの対応関係を示す記述子、つまりES_IDデスクリプタを挿入する。マルチプレクサ117は、このES_IDデスクリプタを、例えば、PMTの配下に挿入する。
 また、この実施の形態において、マルチプレクサ117は、トランスポートストリームに、ストリーム関連付け情報の存在などを示す記述子、つまりES_associationデスクリプタを挿入する。この記述子は、エレメンタリストリームに上述のストリーム関連付け情報が挿入されているか否か、あるいは、エレメンタリストリームに挿入されている上述のストリーム関連付け情報に変更があるか否かを示す。マルチプレクサ117は、このES_associationデスクリプタを、PMTの配下、あるいはEITの配下に挿入する。
 図5は、第1のエレメンタリストリームにストリーム関連付け情報を挿入し、さらに、トランスポートストリームに、ES_IDデスクリプタおよびES_associationデスクリプタを挿入する場合におけるトランスポートストリームの構成例を示している。
 この構成例では、トランスポートストリームに、ベースビューのビデオエレメンタリストリーム(Stream_Type video1)のPESパケット「Video PES1」が含まれている。また、この構成例では、トランスポートストリームに、ノンベースビューのビデオエレメンタリストリーム(Stream_Type video2)のPESパケット「Video PES2」が含まれている。なお、この構成例では、図面の簡単化のために、その他のPESパケットに関しては、図示を省略している。
 この構成例では、ビデオエレメンタリ・ループに、各エレメンタリストリームの識別子ES_IDと、各エレメンタリストリームのパケット識別子PIDまたはコンポーネント・タグとの対応関係を示すES_IDデスクリプタが挿入されている。
 図6は、ES_IDデスクリプタの構造例(Syntax)を示している。「descriptor_tag」は、デスクリプタタイプを示す8ビットのデータであり、ここでは、ES_IDデスクリプタであることを示す。「descriptor _length」は、デスクリプタの長さ(サイズ)を示す8ビットのデータである。このデータは、デスクリプタの長さとして、「descriptor _length」以降のバイト数を示す。
 「stream_count_for_association」は、ストリームの本数を示す4ビットのデータである。このストリームの本数分だけ、forループを繰り返す。「stream_Association_ID 」の4ビットフィールドは、各エレメンタリストリームの識別子(ES_ID)を示す。また、「Associated_stream_Elementary_PID」の13ビットフィールドは、各エレメンタリストリームのパケット識別子PIDを示す。なお、各エレメンタリストリームの識別子と、各エレメンタリストリームのコンポーネント・タグとの対応関係を示す場合には、「Associated_stream_Elementary_PID」の代わりに、「Component_tag」が配されることとなる。
 図7(a)は、ES_associationデスクリプタの構造例(Syntax)を示している。「descriptor_tag」は、デスクリプタタイプを示す8ビットのデータであり、ここでは、ES_associationデスクリプタであることを示す。「descriptor_length」は、デスクリプタの長さ(サイズ)を示す8ビットのデータである。このデータは、デスクリプタの長さとして、「descriptor _length」以降のバイト数を示す。
 「existence_of_stream_association_info」の1ビットフィールドは、図7(b)に示すように、エレメンタリストリームに、ストリーム関連付け情報が存在するかなどを示すフラグである。“1”はエレメンタリストリーム内にストリーム関連付け情報が存在することを示し、“0”は、エレメンタリストリーム内にストリーム関連付け情報が存在しないことを示す。あるいは、“1”はエレメンタリストリーム内に挿入されているストリーム関連付け情報に変更があることを示し、“0”はエレメンタリストリーム内に挿入されているストリーム関連付け情報に変更がないことを示す。
 図8は、エレメンタリストリームに挿入されているストリーム関連付け情報と、トランスポートストリームに挿入されているES_associationデスクリプタとの関係の一例を示している。ストリーム関連付け情報がエレメンタリストリームに存在するので、受信側においてその参照を促すように、トランスポートストリームの例えばPMTの配下にES_associationデスクリプタを挿入して伝送する。
 受信側のデコーダは、ES_associationデスクリプタを参照し、次のGOPから各エレメンタリストリームの関連付け構成が変わることを事前に検知できるので、安定した受信動作が可能となる。なお、番組単位に固定的に配置する際には、ES_associationデスクリプタは、EIT配下に置かれる。
 また、図4の構成例では、ベースビューのエレメンタリストリームに、このベースビューのエレメンタリストリームと、ノンベースビューのビデオエレメンタリストリームとの関連を示すストリーム関連付け情報が挿入される。このストリーム関連付け情報は、ユーザデータ領域を利用して、ピクチャ単位あるいはGOP単位で挿入される。
 例えば、符号化方式がMPEG4-AVCである場合、ストリーム関連付け情報は、アクセスユニットの“SELs”の部分に、「Stream Association Information SEI message」として、挿入される。図9(a)は、GOP(Group Of Pictures)の先頭のアクセスユニットを示しており、図9(b)は、GOPの先頭以外のアクセスユニットを示している。ストリーム関連付け情報がGOP単位で挿入される場合、GOPの先頭のアクセスユニットにのみ「Stream Association Information SEI message」が挿入される。
 図10(a)は、「Stream Association InformationSEI message」の構造例(Syntax)を示している。「uuid_iso_iec_11578」は、“ISO/IEC 11578:1996AnnexA.”で示されるUUID値をもつ。「user_data_payload_byte」のフィールドに、「userdata_for_stream_association()」が挿入される。図10(b)は、「userdata_for_stream_association()」の構造例(Syntax)を示しており、この中に、ストリーム関連付け情報としての「stream_association()」が挿入される。「stream_association_id」は、符号なし16ビットで示されるストリーム関連付け情報の識別子である。
 また、例えば、符号化方式がMPEG2 videoである場合、ストリーム関連付け情報は、ピクチャヘッダ部のユーザデータ領域に、ユーザデータ「user_data()」として挿入される。図11は、「user_data()」の構造例(Syntax)を示している。「user_data_start_code」の32ビットフィールドは、ユーザデータ(user_data)の開始コードであり、“0x000001B2”の固定値とされる。この開始コードに続く16ビットフィールドは、ユーザデータの内容を識別する識別子である。ここでは、「Stream_Association_identifier」とされ、ユーザデータが、ストリーム関連付け情報であることを識別可能とする。この識別子の後のデータ本体として、ストリーム関連付け情報としての「stream_association()」が挿入される。
 図12は、ストリーム関連付け情報「stream_association()」の構造例(Syntax)を示している。図13は、図12に示す構造例における各情報の内容(Semantics)を示している。「stream_association_length」の8ビットフィールドは、このフィールド以後の全体のバイトサイズを示す。「stream_count_for_association」の4ビットフィールドは、関連付けされるエレメンタリストリームの数を示し、0~15の値をとる。
 「self_ES_id」の4ビットフィールドは、本ストリーム関連付け情報が配置されるエレメンタリストリーム(本エレメンタリストリーム)自身の関連付け識別子を示す。例えば、基本となるエレメンタリストリーム(第1の画像データを含む第1のエレメンタリストリーム)の識別子を“0”とする。
 「indication_of_selected_stream_display」の1ビットフィールドは、本エレメンタリストリーム以外にデコーダ出力を表示させる、表示必須のエレメンタリストリームが存在するか否かを指示するフラグである。“1”は、本エレメンタリストリーム以外に表示必須のエレメンタリストリームがあることを示す。“0”は、本エレメンタリストリーム以外に表示必須のエレメンタリストリームがないことを示す。“1”の場合、後述の「display_mandatory_flag」でセットされたノンベースビューのエレメンタリストリームは、ベースビューのビデオエレメンタリストリームと共に表示必須となる。
 「indication_of_other_resolution_master」の1ビットフィールドは、本エレメンタリストリームではなく、他のエレメンタリストリームが解像度あるいはサンプリング周波数の表示基準であるか否かを示すフラグである。“1”は、他のエレメンタリストリームが表示基準になることを示す。“0”は、本エレメンタリストリームが表示基準になることを示す。
 「terminating_current_association_flag」の1ビットフィールドは、エレメンタリストリームの構成が次のアクセスユニット(AU:Access Unit)から変更になるかを示す。 “1”は、次のアクセスユニットからエレメンタリストリームの構成が変更になることを示す。“0”は、次のアクセスユニットも現在のアクセスユニットとエレメンタリストリームの構成が同じであることを示す。このフラグ情報は、前触れ情報を構成している。
 「display_position」の4ビットフィールドは、本エレメンタリストリームに含まれる画像データによるビューが、立体(3D)表示の際に、マルチビューイングの中のいずれのビューとして表示されるべきかを示し、0~15の値をとる。
 例えば、図14に示すように、トランスポートストリームが、PMTの「Stream_Type=0x1B」で送られるMVCのベースビュー(base view)のストリームと、PMTの「Stream_Type=0x20」で送られるMVCのノンベースビュー(Non base view)のストリームを有する場合の例を考える。この場合、ベースビューストリーム内のストリーム関連付け情報では「display_position=0」であり、ノンベースビューストリーム内のストリーム関連付け情報では「display_position=15」であるとする。
 図15は、その場合における、受信側における立体(3D)表示の際のビュー表示例を示している。すなわち、ベースビューストリームに含まれる画像データによるビューは表示ポジション「0」のビューとして表示される。また、ノンベースビューストリームに含まれる画像データによるビューは表示ポジション「15」のビューとして表示される。
 図12に戻って、「associated_ES_id」の4ビットフィールドは、本エレメンタリストリームと関連するエレメンタリストリームの識別子(関連付け識別子)を示し、0~15の値をとる。「display_mandatory_flag」の1ビットフィールドは、「associated_ES_id」のエレメンタリストリームが表示必須であるか否かを示す。“1”は、該当エレメンタリストリームは表示必須であることを示す。“0”は、該当エレメンタリストリームは表示必須でないことを示す。
 「resolution_master_flag」の1ビットフィールドは、「associated_ES_id」のエレメンタリストリームが解像度あるいはサンプリング周波数の表示基準であるか否かを示す。“1”は、該当エレメンタリストリームは表示基準であることを示す。“0”は、該当エレメンタリストリームは表示基準でないことを示す。
 図16は、「indication_of_selected_stream_display」の挿入例を示している。この例は、ベースビューのエレメンタリストリームは左眼(L)画像データを含み、右眼(R)画像データおよび中央(C)画像データをそれぞれ含む2つのノンベースビューのエレメンタリストリームが存在する例である。なお、この図16においては、「indication_of_selected_stream_display」を「indication_display」に、「display_mandatory_flag」を「mandatory_flag」に、略記している。
 ベースビューの他に2つのノンベースビューのエレメンタリストリームを表示必須とする場合を考える。この場合、「indication_of_selected_stream_display=1」とされ、さらに、2つのノンベースビューのエレメンタリストリームについて「display_mandatory_flag=1」とされる。この設定により、受信機における表示必須は、左眼(L)、右眼(R)および中央(C)の画像となる。
 また、ベースビューの他に右眼(R)画像データを含むノンベースビューのエレメンタリストリームを表示必須とする場合を考える。この場合、「indication_of_selected_stream_display=1」とされ、さらに、右眼(R)画像データを含むノンベースビューのエレメンタリストリームについてのみ「display_mandatory_flag=1」とされる。この設定により、受信機における表示必須は、左眼(L)および右眼(R)の画像となる。
 また、ベースビューのエレメンタリストリームのみを表示必須とする場合を考える。この場合、「indication_of_selected_stream_display=0」とされる。この設定により、受信機における表示必須は、左眼(L)の画像のみとなる。
 「受信機の構成例」
 図17は、受信機200の構成例を示している。この受信機200は、CPU201と、フラッシュROM202と、DRAM203と、内部バス204と、リモコン受信部205と、リモコン送信機206を有している。また、この受信機200は、アンテナ端子211と、デジタルチューナ212と、トランスポートストリームバッファ(TSバッファ)213と、デマルチプレクサ214を有している。
 また、受信機200は、ビデオデコーダ215と、ビューバッファ216,216-1~216-Nと、スケーラ224,224-1~224-Nと、ビデオ重畳部217,217-1~217-Nを有している。さらに、受信機200は、グラフィクスデコーダ218と、グラフィクス発生部219と、視差情報デコーダ220と、グラフィクスバッファ221,221-1~221-Nと、オーディオデコーダ222と、チャネル処理部223を有している。
 CPU201は、受信機200の各部の動作を制御する。フラッシュROM202は、制御ソフトウェアの格納およびデータの保管を行う。DRAM203は、CPU201のワークエリアを構成する。CPU201は、フラッシュROM202から読み出したソフトウェアやデータをDRAM203上に展開してソフトウェアを起動させ、受信機200の各部を制御する。リモコン受信部205は、リモコン送信機206から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU201に供給する。CPU201は、このリモコンコードに基づいて、受信機200の各部を制御する。CPU201、フラッシュROM202およびDRAM203は内部バス204に接続されている。
 アンテナ端子211は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ212は、アンテナ端子211に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のトランスポートストリーム(ビットストリームデータ)TSを出力する。トランスポートストリームバッファ(TSバッファ)213は、デジタルチューナ212から出力されたトランスポートストリームTSを一時的に蓄積する。
 このトランスポートストリームTSは、上述したように、ビデオ、視差情報、グラフィクス、オーディオなどのエレメンタリストリームをパケット化して得られた各パケットを有している。そして、この場合、このトランスポートストリームTSは、第1の画像データを含む第1のエレメンタリストリームを有している。また、このトランスポートストリームTSは、この第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームを有している。
 ここで、第1の画像データを含む第1のエレメンタリストリームのみが存在する場合、この第1の画像データは2次元(2D)画像データを構成する。一方、第1の画像データを含む第1のエレメンタリストリームの他に、第2の画像データを含む単数あるいは複数の第2のエレメンタリストリームが存在する場合、これら第1の画像データおよび所定数の第2の画像データは立体(3D)画像データを構成する。ここで、第1の画像データはベースビューの画像データを構成し、所定数の第2の画像データはノンベースビューの画像データを構成している。
 上述したように、トランスポートストリームTSのビデオエレメンタリストリーム、少なくとも第1の画像データを含む第1のエレメンタリストリームには、ピクチャ単位あるいはGOP単位で、ユーザデータ領域を利用して、ストリーム関連付け情報(図12参照)が挿入されている。
 また、上述したように、トランスポートストリームTSには、例えばPMTの配下に、ES_IDデスクリプタ(図6参照)が挿入されている。このES_IDデスクリプタは、各エレメンタリストリームの識別子と、各エレメンタリストリームのパケット識別子またはコンポーネント・タグとの対応関係を示すものである。ストリーム関連付け情報は、各エレメンタリストリームを識別するための識別子を用いて各エレメンタリストリームの関連を示す。従って、ES_IDデスクリプタにより、各エレメンタリストリームのトランスポートストリームレイヤでの登録状態と、ストリーム関連付け情報との連携がとられる。
 また、上述したように、トランスポートストリームTSには、例えばPMTあるいはEITの配下に、ES_associationデスクリプタ(図7(a)参照)が挿入されている。このES_associationデスクリプタは、エレメンタリストリームにストリーム関連付け情報が挿入されているか否か、あるいは、エレメンタリストリームに挿入されているストリーム関連付け情報に変更があるか否かを示すものである。従って、このES_associationデスクリプタにより、ストリーム関連付け情報の参照が促される。
 デマルチプレクサ214は、TSバッファ213に一時的に蓄積されたトランスポートストリームTSから、ビデオ、視差情報、グラフィクスおよびオーディオの各エレメンタリストリームを抽出する。視差情報エレメンタリストリームは、トランスポートストリームTSに立体(3D)画像データのビデオエレメンタリストリームが含まれている場合のみ抽出される。
 また、デマルチプレクサ214は、トランスポートストリームTSに含まれるES_IDデスクリプタおよびES_associationデスクリプタを抽出し、CPU201に供給する。CPU201は、ES_IDデスクリプタにより、各エレメンタリストリームの識別子と、各エレメンタリストリームのパケット識別子またはコンポーネント・タグとの対応関係を認識する。また、CPU201は、ES_associationデスクリプタにより、ビデオエレメンタリストリーム、例えば第1の画像データを含むビデオエレメンタリストリームにストリーム関連付け情報が挿入されているか否か、あるいは、その情報に変更があるか否かを認識する。
 ビデオデコーダ215は、上述の送信データ生成部110のビデオエンコーダ112とは逆の処理を行う。すなわち、このビデオデコーダ215は、デマルチプレクサ214で抽出された各ビデオエレメンタリストリームに含まれる符号化画像データに対して復号化処理を行って復号化された画像データを得る。
 ここで、第1の画像データを含む第1のエレメンタリストリームのみが存在する場合、ビデオデコーダ215は、この第1の画像データを2次元(2D)画像データとして得る。また、第1の画像データを含む第1のエレメンタリストリームの他に、第2の画像データを含む単数あるいは複数の第2のエレメンタリストリームが存在する場合、ビデオデコーダ215は、立体(3D)画像データを得る。すなわち、第1の画像データをベースビューの画像データとして得ると共に、所定数の第2の画像データをノンベースビューの画像データとして得る。
 また、ビデオデコーダ215は、ビデオエレメンタリストリーム、例えば第1の画像データを含む第1のエレメンタリストリームからストリーム関連付け情報を抽出し、CPU201に供給する。ビデオデコーダ215は、この抽出処理を、CPU201の制御のもと行う。CPU201は、上述したように、ES_associationデスクリプタにより、ストリーム関連付け情報が存在するか否か、あるいは、その情報に変更があるか否かを認識できることから、必要に応じて、ビデオデコーダ215に抽出処理を行わせることができる。
 CPU201は、ビデオデコーダ215で抽出されるストリーム関連付け情報により、第1の画像データを含む第1のエレメンタリストリームに関連する所定数の第2のエレメンタリストリームの存在を認識できる。CPU201は、この認識に基づいて、第1のエレメンタリストリームと共に、この第1のエレメンタリストリームに関連する所定数の第2のエレメンタリストリームが抽出されるように、デマルチプレクサ214を制御する。
 ビューバッファ(ビデオバッファ)216は、CPU201の制御により、ビデオデコーダ215で取得される第1の画像データを一時的に蓄積する。この第1の画像データは、二次元画像データ、あるいは立体画像データを構成するベースビューの画像データである。また、ビューバッファ(ビデオバッファ)216-1~216-Nは、CPU201の制御により、ビデオデコーダ215で取得される立体画像データを構成するN個のノンベースビューの画像データをそれぞれ一時的に蓄積する。
 CPU201は、ビューバッファ216,216-1~216-Nの読み出し制御を行う。CPU201は、ストリーム関連付け情報に含まれる「terminating_current_association_flag」のフラグにより、エレメンタリストリームの構成が次のアクセスユニット(ピクチャ)から変更されるか否かを予め知ることができる。そのため、これらビューバッファ216,216-1~216-Nからの読み出し制御を手際よく動的に変えることが可能となる。
 スケーラ224,224-1~224-Nは、CPU201の制御のもと、ビューバッファ216,216-1~216-Nから出力される各ビューの画像データの出力解像度が、所定の解像度となるように調整する。スケーラ224,224-1~224-Nは、解像度調整部を構成している。ビデオ重畳部217,217-1~217-Nには、解像度調整された各ビューの画像データが送られる。
 この場合、CPU201は、ビデオデコーダ215から、各ビューの画像データの解像度情報を取得する。CPU201は、各ビューの画像データの出力解像度が目標解像度となるように、各ビューの解像度情報に基づいて、スケーラ224,224-1~224-Nのフィルタ設定を実行する。スケーラ224,224-1~224-Nでは、入力画像データの解像度が目標解像度と異なるとき、補間処理により解像度変換が行われて、目標解像度の出力画像データが得られる。
 CPU201は、ストリーム関連付け情報に含まれる「indication_of_other_resolution_master」および「resolution_master_flag」のフラグに基づいて、目標解像度の設定を行う。すなわち、これららフラグで解像度基準とされているエレメンタリストリームに含まれる画像データの解像度を目標解像度に設定する。
 グラフィクスデコーダ218は、上述の送信データ生成部110のグラフィクスエンコーダ116とは逆の処理を行う。すなわち、グラフィクスデコーダ218は、デマルチプレクサ214で抽出されたグラフィクスエレメンタリストリームに含まれる符号化グラフィクスデータに対して復号化処理を行って復号化されたグラフィクスデータ(サブタイトルデータを含む)を得る。
 視差情報デコーダ220は、上述の送信データ生成部110の視差情報エンコーダ113とは逆の処理を行う。すなわち、視差情報デコーダ220は、デマルチプレクサ214で抽出された視差情報エレメンタリストリームに含まれる符号化視差情報に対して復号化処理を行って復号化された視差情報を得る。この視差情報は、ベースビューと各ノンベースビューとの間の視差を示す視差ベクトル、あるいは奥行きデータ等である。奥行きデータは、所定の変換により視差ベクトルとして扱うことが可能となる。視差情報は、例えば、ピクセル(画素)毎の視差情報、あるいはビュー(画像)を所定数に分割して得られた各分割領域の視差情報である。
 グラフィクス発生部219は、CPU201の制御により、グラフィクスデコーダ218で得られたグラフィクスデータに基づいて、画像に重畳するグラフィクス情報のデータを発生する。グラフィクス発生部219は、ビデオデコーダ215から二次元画像データ(第1の画像データ)のみが出力されるときは、この2次元画像データに重畳するグラフィクス情報のデータを発生する。また、グラフィクス発生部219は、ビデオデコーダ215から立体(3D)画像データを構成する各ビューの画像データが出力されるときは、各ビューの画像データに重畳するグラフィクス情報のデータを発生する。
 グラフィクスバッファ221は、CPU201の制御により、グラフィクス発生部219で発生される、第1の画像データに重畳すべきグラフィクス情報のデータを蓄積する。この第1の画像データは、二次元画像データ、あるいは立体画像データを構成するベースビューの画像データである。また、グラフィクスバッファ221-1~221-Nは、グラフィクス発生部219で発生される、N個のノンベースビューの画像データに重畳すべきグラフィクス情報のデータを蓄積する。
 ビデオ重畳部(ディスプレイバッファ)217は、CPU201の制御により、グラフィクス情報が重畳された第1の画像データを出力する。この第1の画像データは、二次元画像データSV、あるいは立体画像データを構成するベースビューの画像データBNである。このとき、ビデオ重畳部217は、スケーラ224で解像度調整された第1の画像データに、グラフィクスバッファ221に蓄積されたグラフィクス情報のデータを重畳する。
 また、ビデオ重畳部(ディスプレイバッファ)217-1~217-Nは、CPU201の制御により、グラフィクス情報が重畳されたN個のノンベースビューの画像データNB-1~NB-Nを出力する。このとき、ビデオ重畳部217-1~217-Nは、スケーラ224-1~224-Nで解像度調整されたベースビューの画像データに、それぞれグラフィクスバッファ221-1~221-Nに蓄積されたグラフィクス情報のデータを重畳する。
 なお、ビデオデコーダ215から立体(3D)画像データを構成する各ビューの画像データが出力されるとき、基本的には、上述したように、ビデオ重畳部217,217-1~217-Nからそれらの画像データが出力される。しかし、ユーザの選択操作に応じて、CPU201は、ノンベースビューの画像データの出力を制御する。
 ただし、CPU201は、表示必須とされているノンベースビューの画像データに関しては、ユーザの選択操作に拘わらず、必ず出力されるように制御する。CPU201は、ストリーム関連付け情報に含まれる「indication_of_selected_stream_display」および「display_mandatory_flag」のフラグに基づいて、表示必須とされているノンベースビューの画像データを認識できる。
 例えば、左眼画像データを含むベースビューのビデオエレメンタリストリームに対して、右眼画像データを含むノンベースビューのビデオエレメンタリストリームが関連付けられている場合を考える。この場合、「indication_of_selected_stream_display」が“1”で、ノンベースビューの「display_mandatory_flag」が“1”であるときは、ユーザの選択操作に拘わらず、左眼画像データおよび右眼画像データの双方を表示画像データとして出力させる。一方、「indication_of_selected_stream_display」が“0”であるときは、ユーザの選択操作に応じて、左眼画像データのみ、あるいは左眼画像データおよび右眼画像データの双方を、表示画像データとして出力させる。
 オーディオデコーダ222は、上述の送信データ生成部110のオーディオエンコーダ114とは逆の処理を行う。すなわち、このオーディオデコーダ222は、デマルチプレクサ214で抽出されたオーディオエレメンタリストリームに含まれる符号化音声データに対して復号化処理を行って復号化された音声データを得る。チャネル処理部223は、オーディオデコーダ222で得られる音声データに対して、例えば5.1chサラウンド等を実現するための各チャネルの音声データSAを生成して出力する。
 受信機200の動作を簡単に説明する。アンテナ端子211に入力されたテレビ放送信号はデジタルチューナ212に供給される。このデジタルチューナ212では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のトランスポートストリームTSが出力される。このトランスポートストリームTSは、TSバッファ213に一時的に蓄積される。
 デマルチプレクサ214では、TSバッファ213に一時的に蓄積されたトランスポートストリームTSから、ビデオ、視差情報、グラフィクスおよびオーディオの各エレメンタリストリームが抽出される。視差情報エレメンタリストリームは、トランスポートストリームTSに立体(3D)画像データのビデオエレメンタリストリームが含まれている場合のみ抽出される。
 また、デマルチプレクサ214では、トランスポートストリームTSに含まれるES_IDデスクリプタおよびES_associationデスクリプタが抽出され、CPU201に供給される。CPU201では、ES_IDデスクリプタにより、各エレメンタリストリームの識別子と、各エレメンタリストリームのパケット識別子またはコンポーネント・タグとの対応関係が認識される。また、CPU201では、ES_associationデスクリプタにより、ビデオエレメンタリストリーム、例えば第1の画像データを含むビデオエレメンタリストリームにストリーム関連付け情報が挿入されているか否か、あるいは、その情報に変更があるか否かが認識される。
 ビデオデコーダ215では、デマルチプレクサ214で抽出された各ビデオエレメンタリストリームに含まれる符号化画像データに対して復号化処理が行われ、復号化された画像データが得られる。ここで、第1の画像データを含む第1のエレメンタリストリームのみが存在する場合、ビデオデコーダ215では、この第1の画像データが2次元(2D)画像データとして得られる。また、第1の画像データを含む第1のエレメンタリストリームの他に、第2の画像データを含む単数あるいは複数の第2のエレメンタリストリームが存在する場合、ビデオデコーダ215では、立体(3D)画像データが得られる。すなわち、第1の画像データがベースビューの画像データとして得られると共に、所定数の第2の画像データがノンベースビューの画像データとして得られる。
 また、ビデオデコーダ215では、ビデオエレメンタリストリーム、例えば第1の画像データを含む第1のエレメンタリストリームからストリーム関連付け情報が抽出され、CPU201に供給される。ビデオデコーダ215では、この抽出処理が、CPU201の制御のもと行われる。CPU201は、上述したように、ES_associationデスクリプタにより、ストリーム関連付け情報が存在するか否か、あるいは、その情報に変更があるか否かを認識できることから、必要に応じて、ビデオデコーダ215に抽出処理を行わせることができる。
 CPU201では、ビデオデコーダ215で抽出されるストリーム関連付け情報により、第1の画像データを含む第1のエレメンタリストリームに関連する所定数の第2のエレメンタリストリームの存在が認識される。CPU201では、この認識に基づいて、第1のエレメンタリストリームと共に、この第1のエレメンタリストリームに関連する所定数の第2のエレメンタリストリームが抽出されるように、デマルチプレクサ214の制御が行われる。
 ビューバッファ(ビデオバッファ)216では、CPU201の制御により、ビデオデコーダ215で取得される第1の画像データが一時的に蓄積される。この第1の画像データは、二次元画像データ、あるいは立体画像データを構成するベースビューの画像データである。また、ビューバッファ(ビデオバッファ)216-1~216-Nでは、CPU201の制御により、ビデオデコーダ215で取得される立体画像データを構成するN個のノンベースビューの画像データがそれぞれ一時的に蓄積される。
 CPU201では、ビューバッファ216,216-1~216-Nの読み出し制御が行われる。CPU201では、ストリーム関連付け情報に含まれる「terminating_current_association_flag」のフラグにより、エレメンタリストリームの構成が次のアクセスユニット(ピクチャ)から変更されるか否かが予め認識される。そのため、これらビューバッファ216,216-1~216-Nからの読み出し制御を、手際よく動的に変えることが可能となる。
 スケーラ224,224-1~224-Nでは、CPU201の制御のもと、ビューバッファ216,216-1~216-Nから出力される各ビューの画像データの出力解像度が、所定の解像度となるように調整される。そして、ビデオ重畳部217,217-1~217-Nには、解像度調整された各ビューの画像データが送られる。この場合、CPU201では、ビデオデコーダ215から、各ビューの画像データの解像度情報が取得される。
 そして、CPU201では、各ビューの画像データの出力解像度が目標解像度となるように、各ビューの解像度情報に基づいて、スケーラ224,224-1~224-Nのフィルタ設定が行われる。そのため、スケーラ224,224-1~224-Nでは、入力画像データの解像度が目標解像度と異なるとき、補間処理により解像度変換が行われて、目標解像度の出力画像データが得られる。
 CPU201では、ストリーム関連付け情報に含まれる「indication_of_other_resolution_master」および「resolution_master_flag」のフラグに基づいて、目標解像度の設定が行われる。この場合、これらのフラグによって解像度基準とされているエレメンタリストリームに含まれる画像データの解像度が目標解像度とされる。
 グラフィクスデコーダ218では、デマルチプレクサ214で抽出されたグラフィクスエレメンタリストリームに含まれる符号化グラフィクスデータに対して復号化処理が行われ、復号化されたグラフィクスデータ(サブタイトルデータを含む)が得られる。
 視差情報デコーダ220では、デマルチプレクサ214で抽出された視差情報エレメンタリストリームに含まれる符号化視差情報に対して復号化処理が行われ、復号化された視差情報が得られる。この視差情報は、ベースビューと各ノンベースビューとの間の視差を示す視差ベクトル、あるいは奥行きデータ等である。奥行きデータは、所定の変換により視差ベクトルとして扱うことが可能となる。
 グラフィクス発生部219では、グラフィクスデコーダ218で得られたグラフィクスデータに基づいて、画像に重畳するグラフィクス情報のデータが発生される。グラフィクス発生部219では、ビデオデコーダ215から二次元画像データ(第1の画像データ)のみが出力されるときは、この2次元画像データに重畳するグラフィクス情報のデータが発生される。また、グラフィクス発生部219では、ビデオデコーダ215から立体(3D)画像データを構成する各ビューの画像データが出力されるときは、各ビューの画像データに重畳するグラフィクス情報のデータが発生される。
 グラフィクスバッファ221では、グラフィクス発生部219で発生される、第1の画像データに重畳すべきグラフィクス情報のデータが蓄積される。この第1の画像データは、二次元画像データ、あるいは立体画像データを構成するベースビューの画像データである。また、グラフィクスバッファ221-1~221-Nでは、グラフィクス発生部219で発生される、N個のノンベースビューの画像データに重畳すべきグラフィクス情報のデータが蓄積される。
 ビデオ重畳部(ディスプレイバッファ)217では、スケーラ224で解像度調整された第1の画像データに、グラフィクスバッファ221に蓄積されたグラフィクス情報のデータが重畳される。そして、このビデオ重畳部217からは、グラフィクス情報が重畳された第1の画像データが出力すされる。この第1の画像データは、二次元画像データSV、あるいは立体画像データを構成するベースビューの画像データBNである。
 また、ビデオ重畳部(ディスプレイバッファ)217-1~217-Nでは、スケーラ224-1~224-Nで解像度調整されたベースビューの画像データに、それぞれグラフィクスバッファ221-1~221-Nに蓄積されたグラフィクス情報のデータが重畳される。そして、ビデオ重畳部217-1~217-Nからは、グラフィクス情報が重畳されたN個のノンベースビューの画像データNB-1~NB-Nが出力される。
 オーディオデコーダ222では、デマルチプレクサ214で抽出されたオーディオエレメンタリストリームに含まれる符号化音声データに対して復号化処理が行われ、復号化された音声データが得られる。チャネル処理部223では、オーディオデコーダ222で得られる音声データに対して処理が行われ、例えば5.1chサラウンド等を実現するための各チャネルの音声データSAが生成されて出力される。
 以上説明したように、図1に示す画像送受信システム10において、放送局100から受信機200に送信されるトランスポートストリームTSが有するエレメンタリストリームに、各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入される(図12参照)。このストリーム関連付け情報は、第1の画像データ(二次元画像データあるいはベースビューの画像データ)を含む第1のエレメンタリストリームと、所定数の第2の画像データおよび/メタデータを含む第2のエレメンタリストリームとの関連を示すものである。そのため、受信機200では、ストリーム関連付け情報に基づいて、エレメンタリストリームの構成の動的な変化、つまり配信内容の動的な変化に的確に対応でき、正しいストリーム受信を行うことができる。
 図18は、トランスポートストリームTSに、「Stream_Type=0x1B」で、「PID=01」であるMVCのベースビューのストリームES1が連続して含まれ、「Stream_Type=0x20」で、「PID=11」であるMVCのノンベースビューのストリームES2が間欠的に含まれる場合の例を示している。この場合、ストリームES1に、ストリーム関連付け情報が挿入されている。なお、ストリームES1の識別子ES_idは0であり、ストリームES2の識別子ES_idは1であるとする。
 tn-1,tn+1の期間には、ストリームES1と共に、ストリームES2が存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=1」とされてストリームES1に関連するストリームがひとつ存在し、そのストリームの識別子ES_idが1であることが示される。つまり、ストリーム関連付け情報において、ストリームES1とストリームES2とが関連付けされている。そのため、ストリームES1,ES2の双方が抽出されてデコードされ、ベースビューの画像データ、例えば左眼画像データと、ノンベースビューの画像データ、例えば右眼画像データが表示画像データとして出力され、立体(3D)表示が行われる。
 また、tnの期間には、ストリームES1のみが存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=0」とされてストリームES1に関連するストリームが存在しないことが示される。そのため、ストリームES1のみが抽出されてデコードされて二次元画像データとして出力され、二次元(2D)表示が行われる。
 図19は、トランスポートストリームTSに、「Stream_Type=0x02」で、「PID=01」であるMPEG2videoストリームES1が連続して含まれ、「Stream_Type=0x02」で、「PID=11」であるMPEG2videoストリームES2が間欠的に含まれる場合の例を示している。この場合、ストリームES1に、ストリーム関連付け情報が挿入されている。なお、ストリームES1の識別子ES_idは0であり、ストリームES2の識別子ES_idは1であるとする。
 tn-1,tn+1の期間には、ストリームES1と共に、ストリームES2が存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=1」とされてストリームES1に関連するストリームがひとつ存在し、そのストリームの識別子ES_idが1であることが示される。つまり、ストリーム関連付け情報において、ストリームES1とストリームES2とが関連付けされている。そのため、ストリームES1,ES2の双方が抽出されてデコードされ、第1の画像データ、例えば左眼画像データと、第2の画像データ、例えば右眼画像データが表示画像データとして出力され、立体(3D)表示が行われる。
 また、tnの期間には、ストリームES1のみが存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=0」とされてストリームES1に関連するストリームが存在しないことが示される。そのため、ストリームES1のみが抽出されてデコードされて二次元画像データが出力され、二次元(2D)表示が行われる。
 図20は、トランスポートストリームTSに、「Stream_Type=0x02」で、「PID=01」であるMPEG2videoストリームES1が連続して含まれ、「Stream_Type=0x1B」で、「PID=11」であるAVCストリームES2が間欠的に含まれる場合の例を示している。この場合、ストリームES1に、ストリーム関連付け情報が挿入されている。なお、ストリームES1の識別子ES_idは0であり、ストリームES2の識別子ES_idは1であるとする。
 tn-1,tn+1の期間には、ストリームES1と共に、ストリームES2が存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=1」とされてストリームES1に関連するストリームがひとつ存在し、そのストリームの識別子ES_idが1であることが示される。つまり、ストリーム関連付け情報において、ストリームES1とストリームES2とが関連付けされている。そのため、ストリームES1,ES2の双方が抽出されてデコードされ、第1の画像データ、例えば左眼画像データと、第2の画像データ、例えば右眼画像データが表示画像データとして出力され、立体(3D)表示が行われる。
 また、tnの期間には、ストリームES1のみが存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=0」とされてストリームES1に関連するストリームが存在しないことが示される。そのため、ストリームES1のみが抽出されてデコードされて二次元画像データが出力され、二次元(2D)表示が行われる。
 また、図1に示す画像送受信システム10において、エレメンタリストリームに挿入されるストリーム関連付け情報には、所定数の第2の画像データのそれぞれに対して表示必須とするか否かを指定する制御情報が含まれている。つまり、このストリーム関連付け情報には、「indication_of_selected_stream_display」、「display_mandatory_flag」が含まれている(図12参照)。そのため、受信機200においては、この制御情報に基づいて、所定数の第2の画像データのどれが表示必須であるかを知ることができ、ユーザによる画像表示態様の選択を制限することが可能となる。
 図21は、トランスポートストリームTSに、「Stream_Type=0x1B」で、「PID=01」であるMVCのベースビューのストリームES1と、「Stream_Type=0x20」で、「PID=11」であるMVCのノンベースビューのストリームES2が、連続的に含まれる場合の例を示している。この場合、ストリームES1に、ストリーム関連付け情報が挿入されている。なお、ストリームES1の識別子ES_idは0であり、ストリームES2の識別子ES_idは1であるとする。
 tn-1,tn+1の期間には、ストリームES1と共に、ストリームES2が存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=1」とされてストリームES1に関連するストリームがひとつ存在し、そのストリームの識別子ES_idが1であることが示される。つまり、ストリーム関連付け情報において、ストリームES1とストリームES2とが関連付けされている。
 この期間、ストリーム関連付け情報において、「indication_of_selected_stream_display
=1」とされ、自身のストリーム以外に表示必須のストリームが存在することが示されている。また、このストリーム関連付け情報において、ストリームの識別子ES_IDが1であるストリームでは、「display_mandatory_flag=1」とされ、ストリームES2が表示必須であることが示されている。なお、図21では、「indication_of_selected_stream_display
」が「Selected_display」と略記されている。
 そのため、この期間においては、ストリームES1,ES2の双方が抽出されてデコードされ、ベースビューの画像データ、例えば左眼画像データと、ノンベースビューの画像データ、例えば右眼画像データが表示画像データとして出力され、立体(3D)表示が行われる。
 また、tnの期間にも、tn-1の期間と同様に、ストリームES1と共に、ストリームES2が存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=1」とされてストリームES1に関連するストリームがひとつ存在し、そのストリームの識別子ES_idが1であることが示される。つまり、ストリーム関連付け情報において、ストリームES1とストリームES2とが関連付けされている。
 この期間、ストリーム関連付け情報において、「indication_of_selected_stream_display
=0」とされ、自身のストリーム以外に表示必須のストリームが存在しないことが示されている。また、このストリーム関連付け情報において、ストリームの識別子ES_idが1であるストリームでは、「display_mandatory_flag=0」とされ、ストリームES2が表示必須でないことが示されている。
 そのため、この期間においては、ストリームES1,ES2の双方が抽出されてデコードされる。この場合、ストリームES2が表示必須ではないので、立体(3D)表示の他に、ユーザの選択操作により、二次元(2D)表示も許可される。立体(3D)表示の場合には、ベースビューの画像データ、例えば左眼画像データと、ノンベースビューの画像データ、例えば右眼画像データが表示画像データとして出力される。一方、二次元(2D)表示の場合には、ベースビューの画像データのみが表示画像データとして出力される。
 また、図1に示す画像送受信システム10において、エレメンタリストリームに挿入されるストリーム関連付け情報には、各エレメンタリストリームの関連の変化が実際に起きる前に、この変化が起きることを知らせる前触れ情報を含まれている。つまり、このストリーム関連付け情報には、「terminating_current_association_flag」が含まれている(図12参照)。そのため、受信機200においては、この前触れ情報に基づいて、デコーダバッファからの読み出し制御を手際よく動的に変えることが可能となる。
 図22は、トランスポートストリームTSに、「Stream_Type=0x1B」で、「PID=01」であるMVCのベースビューのストリームES1が連続的に含まれると共に、「Stream_Type=0x20」で、「PID=11」であるMVCのノンベースビューのストリームES2が間欠的に含まれる場合の例を示している。この場合、ストリームES1に、ストリーム関連付け情報が挿入されている。なお、ストリームES1の識別子ES_idは0であり、ストリームES2の識別子ES_idは1であるとする。
 tn-1の期間には、ストリームES1と共に、ストリームES2が存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=1」とされてストリームES1に関連するストリームがひとつ存在し、そのストリームの識別子ES_idが1であることが示される。つまり、ストリーム関連付け情報において、ストリームES1とストリームES2とが関連付けされている。そのため、ストリームES1,ES2の双方が抽出されてデコードされ、ベースビューの画像データ、例えば左眼画像データと、ノンベースビューの画像データ、例えば右眼画像データが表示画像データとして出力され、立体(3D)表示が行われる。
 このtn-1の期間の最後のアクセスユニットに配置されるストリーム関連付け情報において、「terminating_current_association_flag=1」とされ、次のアクセスユニットからエレメンタリストリームの構成が変更になることが示される。なお、図22において、「terminating_current_association_flag」は、「Terminating_flg」と略記されている。
 また、tn-1の期間に続くtnの期間には、ストリームES1のみが存在する。そのため、ストリーム関連付け情報において、「Stream_count_for_association=0」とされてストリームES1に関連するストリームが存在しないことが示される。そのため、ストリームES1のみが抽出されてデコードされて二次元画像データとして出力され、二次元(2D)表示が行われる。
 このtnの期間の最後のアクセスユニットに配置されるストリーム関連付け情報において、「terminating_current_association_flag=1」とされ、次のアクセスユニットからエレメンタリストリームの構成が変更になることが示される。
 さらに、tnの期間に続くtn+1期間には、tn-1期間と同様の状態となる。この期間におけるストリーム関連付け情報の内容は、上述のtn-1の期間と同様となる。そのため、ストリームES1,ES2の双方が抽出されてデコードされ、ベースビューの画像データ、例えば左眼画像データと、ノンベースビューの画像データ、例えば右眼画像データが表示画像データとして出力され、立体(3D)表示が行われる。
 また、図1に示す画像送受信システム10において、エレメンタリストリームには、ストリーム関連付け情報が、ピクチャ単位あるいはGOP単位で挿入される。そのため、受信機200では、エレメンタリストリームの構成、例えば、立体画像データのビュー数の変化等を、ピクチャ単位あるいはGOP単位で管理可能となる。
 また、図1に示す画像送受信システム10において、放送局100から受信機200に送信されるトランスポートストリームTSには、エレメンタリストリームにストリーム関連付け情報が挿入されているか否か、あるいは、エレメンタリストリームに挿入されているストリーム関連付け情報に変更があるか否かを示す記述子が挿入される。つまり、トランスポートストリームTSに、ES_associationデスクリプタが挿入される。このES_associationデスクリプタにより、エレメンタリストリームに挿入されているストリーム関連付け情報の参照を促すことができ、受信機200において安定した受信動作が可能となる。
 また、図1に示す画像送受信システム10において、エレメンタリストリームに挿入されるストリーム関連付け情報には、第1の画像データおよび第2の画像データの出力解像度の制御情報が含まれる。つまり、このストリーム関連付け情報には、「indication_of_other_resolution_master」、「resolution_master_flag」が含まれている。そのため、受信機200においては、この制御情報に基づいて、第1の画像データおよび第2の画像データの出力解像度を表示基準の解像度に調整することが可能となる。
 なお、上述の説明では、第1の画像データ(二次元画像データあるいはベースビューの画像データ)を含む第1のエレメンタリストリームにのみストリーム関連付け情報が挿入されている例を示した(図18等参照)。しかし、第2の画像データ(ノンベースビューの画像データ)を含む第2のエレメンタリストリームにストリーム関連付け情報をさらに挿入することも考えられる。
 図23は、トランスポートストリームTSに、「Stream_Type=0x1B」で、「PID=01」であるMVCのベースビューのストリームES1が含まれ、「Stream_Type=0x20」で、「PID=11」、「PID=21」であるMVCのノンベースビューのストリームES2,ES3が含まれる場合の例を示している。この場合、ストリームES1に、ストリーム関連付け情報が挿入される他、ストリームES2,ES3にもストリーム関連付け情報が挿入されている。なお、ストリームES1の識別子ES_idは0であり、ストリームES2の識別子ES_idは1であり、さらに、ストリームES3の識別子ES_idは2であるとする。
 ストリームES1に挿入されているストリーム関連付け情報においては、「Stream_count_for_association=2」とされ、このストリームES1に関連するストリームが2つ存在し、そのストリームの識別子ES_idが1,2であることが示されている。ストリームES2に挿入されているストリーム関連付け情報においては、「Stream_count_for_association=1」とされ、このストリームES2に関連するストリームがひとつ存在し、そのストリームの識別子ES_idが0であることが示されている。また、ストリームES3に挿入されているストリーム関連付け情報においては、「Stream_count_for_association=1」とされ、このストリームES3に関連するストリームがひとつ存在し、そのストリームの識別子ES_idが0であることが示されている。
 tn-1,tn+1の期間で、ストリームES1に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=1」とされ、自身のストリーム以外に表示必須のストリームが存在することが示されている。そして、ストリームの識別子ES_idが1,2であるストリームでは、「display_mandatory_flag=1」とされ、ストリームES2,ES3の双方が表示必須であることが示されている。
 また、tnの期間で、ストリームES1に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=0」とされ、自身のストリーム以外に表示必須のストリームが存在しないことが示されている。そして、ストリームの識別子ES_idが1,2であるストリームでは、「display_mandatory_flag=0」とされ、ストリにームES2,ES3の双方とも表示必須でないことが示されている。
 図24は、図23と同様に、トランスポートストリームTSに、「Stream_Type=0x1B」で、「PID=01」であるMVCのベースビューのストリームES1が含まれ、「Stream_Type=0x20」で、「PID=11」、「PID=21であるMVCのノンベースビューのストリームES2,ES3が含まれる場合の例を示している。この場合、ストリームES1に、ストリーム関連付け情報が挿入される他、ストリームES2,ES3にもストリーム関連付け情報が挿入されている。なお、ストリームES1の識別子ES_idは0であり、ストリームES2の識別子ES_idは1であり、さらに、ストリームES3の識別子ES_idは2であるとする。
 ストリームES1に挿入されているストリーム関連付け情報においては、「Stream_count_for_association=2」とされ、このストリームES1に関連するストリームが2つ存在し、そのストリームの識別子ES_idが1,2であることが示されている。ストリームES2に挿入されているストリーム関連付け情報においては、「Stream_count_for_association=2」とされ、このストリームES2に関連するストリームが2つ存在し、そのストリームの識別子ES_idが0,2であることが示されている。また、ストリームES3に挿入されているストリーム関連付け情報においては、「Stream_count_for_association=2」とされ、このストリームES3に関連するストリームが2つ存在し、そのストリームの識別子ES_idが0,1であることが示されている。
 tn-1,tnの期間で、ストリームES1に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=1」とされ、自身のストリーム以外に表示必須のストリームが存在することが示されている。そして、ストリームの識別子ES_idが1,2であるストリームでは、「display_mandatory_flag=1」とされ、ストリームES2,ES3の双方が表示必須であることが示されている。
 また、tn-1,tnの期間で、ストリームES2に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=1」とされ、自身のストリーム以外に表示必須のストリームが存在することが示されている。そして、ストリームの識別子ES_idが0,2であるストリームでは、「display_mandatory_flag=1」とされ、ストリームES1,ES3の双方が表示必須であることが示されている。
 さらに、tn-1,tnの期間で、ストリームES3に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=1」とされ、自身のストリーム以外に表示必須のストリームが存在することが示されている。そして、ストリームの識別子ES_idが0,1であるストリームでは、「display_mandatory_flag=1」とされ、ストリームES1,ES2の双方が表示必須であることが示されている。
 また、tnの期間で、ストリームES1に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=0」とされ、自身のストリーム以外に表示必須のストリームが存在しないことが示されている。そして、ストリームの識別子ES_idが1,2であるストリームでは、「display_mandatory_flag=0」とされ、ストリにームES2,ES3の双方とも表示必須でないことが示されている。
 また、このtnの期間で、ストリームES2,ES3に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=0」とされ、自身のストリーム以外に表示必須のストリームが存在しないことが示されている。しかし、上述したように、ストリームES1に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=0」とされ、自身のストリーム以外に表示必須のストリームが存在しないことが示されている。そのため、ストリームES2,ES3に挿入されているストリーム関連付け情報における表示必須の情報は無視される。
 <2.変形例>
 なお、上述実施の形態においては、画像データの符号化方式として、MPEG4-AVCおよびMPEG2videoの符号化をあげている。しかし、画像データに施される符号化はこれらに限定されない。
 また、上述実施の形態においては、主に、ストリーム関連付け情報により、ベースビューおよび所定数のノンベースビューのストリームを関連付けする例を示した。しかし、このストリーム関連付け情報により、例えば、ベースビューの画像データに関連するメタデータをも関連付けすることが考えられる。メタデータとしては、例えば視差情報(視差ベクトルあるいは奥行きデータ)などが考えられる。
 図25は、トランスポートストリームTSに、「Stream_Type=0x1B」で、「PID=01」であるMVCのベースビューのストリームES1が含まれ、「Stream_Type=0x20」で、「PID=11」であるMVCのノンベースビューのストリームES2が含まれ、さらに、「Stream_Type=0xAB」で、「PID=21」であるメタデータストリームES3が含まれている。なお、ストリームES1の識別子ES_idは0であり、ストリームES2の識別子ES_idは1であり、さらに、ストリームES3の識別子ES_idは2であるとする。
 ストリームES1に挿入されているストリーム関連付け情報においては、「Stream_count_for_association=2」とされ、このストリームES1に関連するストリームが2つ存在し、そのストリームの識別子ES_idが1,2であることが示されている。なお、この例では、ストリームES2,ES3に、ストリーム関連付け情報は、挿入されていない。
 tn-1,tn+1の期間で、ストリームES1に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=1」とされ、自身のストリーム以外に表示必須のストリームが存在することが示されている。そして、ストリームの識別子ES_idが1であるストリームでは、「display_mandatory_flag=1」とされ、ストリームES2が表示必須であることが示されている。また、tnの期間で、ストリームES1に挿入されているストリーム関連付け情報において、「indication_of_selected_stream_display=0」とされ、自身のストリーム以外に表示必須のストリームが存在しないことが示されている。
 図26は、ポスト処理部を備える受信機200Aの構成例を示している。この図26において、図17と対応する部分には同一符号を付し、その詳細説明は省略する。なお、この受信機200Aにおいては、スケーラ224,224-1~224-Nを除いたものとしている。この受信機200Aは、CPU201と、フラッシュROM202と、DRAM203と、内部バス204と、リモコン受信部205と、リモコン送信機206を有している。また、この受信機200は、アンテナ端子211と、デジタルチューナ212と、トランスポートストリームバッファ(TSバッファ)213と、デマルチプレクサ214を有している。
 また、受信機200Aは、ビデオデコーダ215と、ビューバッファ216,216-1~216-Nと、ビデオ重畳部217,217-1~217-Nと、メタデータバッファ225と、ポスト処理部226を有している。さらに、受信機200は、グラフィクスデコーダ218と、グラフィクス発生部219と、視差情報デコーダ220と、グラフィクスバッファ221,221-1~221-Nと、オーディオデコーダ222と、チャネル処理部223を有している。
 メタデータバッファ225は、ビデオデコーダ215で取得されるピクセル(画素)毎の視差情報を一時的に蓄積する。なお、視差情報がピクセル(画素)毎の視差情報である場合、この視差情報を画素データのように取り扱うことができる。ビデオデコーダ215でピクセル(画素)毎の視差情報が取得されるものにあっては、送信側において、視差情報に対して画像データと同様の符号化方式で符号化が施されて視差情報エレメンタリストリームが生成されている。
 ポスト処理部226は、メタデータバッファ225に蓄積されているピクセル(画素)毎の視差情報を用い、ビューバッファ216,216-1~216-Nから出力される各ビューの画像データに補間処理(ポスト処理)を施して、所定数のビューの表示画像データDisplay View 1~Display View Pを得る。
 図26に示す受信機200Aにおけるその他は、詳細説明は省略するが、図17に示す受信機200と同様に構成され、同様に動作する。
 また、上述実施の形態においては、立体(3D)表示のためのベースビューとノンベースビューの画像データを含む複数のエレメンタリストリームを、ストリーム関連付け情報によって関連付ける例をあげている。しかし、本技術は、SVCストリームにも同様に適用できる。
 SVCストリームには、スケーラブル符号化画像データを構成する最下位層の符号化画像データのビデオエレメンタリストリームが含まれる。さらに、このSVCストリームには、スケーラブル符号化画像データを構成する最下位層以外の所定数の上位階層の符号化画像データのビデオエレメンタリストリームが含まれる。このSVCストリームに、上述のストリーム関連付け情報と同様の情報を挿入することで、受信側では、SVCストリームの動的な変化、つまり配信内容の動的な変化に的確に対応でき、正しいストリーム受信を行うことが可能となる。
 また、上述実施の形態においては、トランスポートストリームTSを放送波にのせて配信する例を示したが、この発明は、このトランスポートストリームTSを、インターネット等のネットワークを通じて配信する場合にも同様に適用できる。一方で、トランスポートストリームTS以外のコンテナファイルフォーマットにおけるインターネット配信の場合にも、上述の関連付けデータの構成を適用できることは勿論である。
 なお、本技術は、以下のような構成も取ることができる。
 (1)第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとを生成するエンコード部と、
 上記エンコード部で生成された上記各エレメンタリストリームをパケット化して得られた各パケットを有するトランスポートストリームを送信する送信部を備え、
 上記エンコード部は、少なくとも、上記第1のエレメンタリストリームに、上記各エレメンタリストリームの関連を示すストリーム関連付け情報を挿入する
 画像データ送信装置。
 (2)上記ストリーム関連付け情報は、上記各エレメンタリストリームの関連の変化が実際に起きる前に、該変化が起きることを知らせる前触れ情報を含む
 前記(1)に記載の画像データ送信装置。
 (3)上記エンコード部は、上記エレメンタリストリームに、上記ストリーム関連付け情報をピクチャ単位あるいはGOP単位で挿入する
 前記(1)または(2)に記載の画像データ送信装置。
 (4)上記ストリーム関連付け情報は、上記各エレメンタリストリームを識別するための識別子を用いて、上記各エレメンタリストリームの関連を示す
 前記(1)から(3)のいずれかに記載の画像データ送信装置。
 (5)上記送信部は、上記トランスポートストリームに、上記各エレメンタリストリームの識別子と、該各エレメンタリストリームのパケット識別子またはコンポーネント・タグとの対応関係を示す記述子を挿入する
 前記(4)に記載の画像データ送信装置。
 (6)上記送信部は、上記トランスポートストリームに、上記エレメンタリストリームに上記ストリーム関連付け情報が挿入されているか否か、あるいは、上記エレメンタリストリームに挿入されている上記ストリーム関連付け情報に変更があるか否かを示す記述子を挿入する
 前記(1)から(5)のいずれかに記載の画像データ送信装置。
 (7)上記第1のエレメンタリストリームに含まれる第1の画像データの符号化方式と、上記所定数の第2のエレメンタリストリームに含まれる第2の画像データの符号化方式として、任意の符号化方式の組み合わせが可能とされている
 前記(1)から(6)のいずれかに記載の画像データ送信装置。
 (8)上記第1の画像データは、立体画像データを構成するベースビューの画像データであり、
 上記第2の画像データは、上記立体画像データを構成する上記ベースビュー以外のビューの画像データである
 前記(1)から(7)に記載の画像データ送信装置。
 (9)上記第1の画像データは、ステレオ立体画像を得るための左眼および右眼の一方の画像データであり、
 上記第2の画像データは、上記ステレオ立体画像を得るための左眼および右眼の他方の画像データである
 前記(8)に記載の画像データ送信装置。
 (10)上記メタデータは、上記立体画像データに対応した視差情報である
 前記(8)または(9)に記載の画像データ送信装置。
 (11)上記ストリーム関連付け情報は、該ストリーム関連付け情報が挿入されたエレメンタリストリームに含まれる画像データによるビューが、立体表示の際に、マルチビューイングの中のいずれのビューとして表示されるべきかを示すポジション情報を含む
 前記(8)から(10)のいずれかに記載の画像データ送信装置。
 (12)上記第1の画像データは、スケーラブル符号化画像データを構成する最下位層の符号化画像データであり、
 上記第2の画像データは、上記スケーラブル符号化画像データを構成する上記最下位層以外の階層の符号化画像データである
 前記(1)から(11)に記載の画像データ送信装置。
 (13)上記ストリーム関連付け情報は、上記第1の画像データおよび上記第2の画像データの出力解像度の制御情報をさらに含む
 前記(1)から(12)に記載の画像データ送信装置。
 (14)上記ストリーム関連付け情報は、上記所定数の第2の画像データのそれぞれに対して表示必須とするか否かを指定する制御情報をさらに含む
 前記(1)から(13)に記載の画像データ送信装置。
 (15)第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとを生成するエンコードステップと、
 上記エンコードステップで生成された上記各エレメンタリストリームをパケット化して得られた各パケットを有するトランスポートストリームを送信する送信ステップを備え、
 上記エンコードステップでは、少なくとも、上記第1のエレメンタリストリームに、上記各エレメンタリストリームの関連を示すストリーム関連付け情報を挿入する
 画像データ送信方法。
 (16)第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとをパケット化して得られた各パケットを有するトランスポートストリームを受信する受信部を備え、
 少なくとも、上記第1のエレメンタリストリームには、上記各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入されており、
 上記ストリーム関連付け情報に基づいて、上記受信部で受信された上記第1のエレメンタリストリームから上記第1の画像データを取得し、上記受信部で受信された上記所定数の第2のエレメンタリストリームから上記第1の画像データに関連した上記第2の画像データおよび/またはメタデータを取得するデータ取得部をさらに備える
 画像データ受信装置。
 (17)上記データ取得部で取得された上記第1の画像データおよび上記第2の画像データの解像度を調整して出力する解像度調整部をさらに備え、
 上記ストリーム関連付け情報は、上記第1の画像データおよび上記第2の画像データの出力解像度の制御情報を含み、
 上記解像度調整部は、上記出力解像度の制御情報に基づいて、上記第1の画像データおよび上記第2の画像データの解像度を調整する
 前記(16)に記載の画像データ受信装置。
 (18)上記データ取得部で取得された上記第1の画像データおよび上記第2の画像データに基づく画像表示態様を選択する画像表示態様選択部をさらに備え、
 上記ストリーム関連付け情報は、上記所定数の第2の画像データのそれぞれに対して表示必須とするか否かを指定する制御情報を含み、
 上記画像表示態様選択部は、上記制御情報に基づいて画像表示態様の選択が制限される
 前記(16)または(17)に記載の画像データ受信装置。
 (19)上記データ取得部で取得された上記メタデータは、上記立体画像データに対応した視差情報であり、
 該視差情報を用い、上記データ取得部で取得された上記第1の画像データおよび上記第2の画像データに補間処理を施して、所定数のビューの表示画像データを得るポスト処理部をさらに備える
 前記(16)から(18)のいずれかに記載の画像データ受信装置。
 (20)第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとをパケット化して得られた各パケットを有するトランスポートストリームを受信する受信ステップを備え、
 少なくとも、上記第1のエレメンタリストリームには、上記各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入されており、
 上記ストリーム関連付け情報に基づいて、上記受信ステップで受信された上記第1のエレメンタリストリームから上記第1の画像データを取得し、上記受信ステップで受信された上記所定数の第2のエレメンタリストリームから上記第1の画像データに関連した上記第2の画像データおよび/またはメタデータを取得するデータ取得ステップをさらに備える
 画像データ受信方法。
 10・・・画像送受信システム
 100・・・放送局
 110・・・送信データ生成部
 111・・・データ取り出し部
 111a・・・データ記録媒体
 112・・・ビデオエンコーダ
 113・・・視差情報エンコーダ
 114・・・オーディオエンコーダ
 115・・・グラフィクス発生部
 116・・・グラフィクスエンコーダ
 117・・・マルチプレクサ
 200,200A・・・受信機
 201・・・CPU
 212・・・デジタルチューナ
 213・・・トランスポートストリームバッファ(TSバッファ)
 214・・・デマルチプレクサ
 215・・・ビデオデコーダ
 216,216-1~216-N・・・ビューバッファ
 217,217-1~217-N・・・ビデオ重畳部
 218・・・グラフィクスデコーダ
 219・・・グラフィクス発生部
 220・・・視差情報デコーダ
 221,221-1~221-N・・・グラフィクスバッファ
 222・・・オーディオデコーダ
 223・・・チャネル処理部
 224,224-1~224-N・・・スケーラ
 225・・・メタデータバッファ
 226・・・ポスト処理部

Claims (20)

  1.  第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとを生成するエンコード部と、
     上記エンコード部で生成された上記各エレメンタリストリームをパケット化して得られた各パケットを有するトランスポートストリームを送信する送信部を備え、
     上記エンコード部は、少なくとも、上記第1のエレメンタリストリームに、上記各エレメンタリストリームの関連を示すストリーム関連付け情報を挿入する
     画像データ送信装置。
  2.  上記ストリーム関連付け情報は、上記各エレメンタリストリームの関連の変化が実際に起きる前に、該変化が起きることを知らせる前触れ情報を含む
     請求項1に記載の画像データ送信装置。
  3.  上記エンコード部は、上記エレメンタリストリームに、上記ストリーム関連付け情報をピクチャ単位あるいはGOP単位で挿入する
     請求項1に記載の画像データ送信装置。
  4.  上記ストリーム関連付け情報は、上記各エレメンタリストリームを識別するための識別子を用いて、上記各エレメンタリストリームの関連を示す
     請求項1に記載の画像データ送信装置。
  5.  上記送信部は、上記トランスポートストリームに、上記各エレメンタリストリームの識別子と、該各エレメンタリストリームのパケット識別子またはコンポーネント・タグとの対応関係を示す記述子を挿入する
     請求項4に記載の画像データ送信装置。
  6.  上記送信部は、上記トランスポートストリームに、上記エレメンタリストリームに上記ストリーム関連付け情報が挿入されているか否か、あるいは、上記エレメンタリストリームに挿入されている上記ストリーム関連付け情報に変更があるか否かを示す記述子を挿入する
     請求項1に記載の画像データ送信装置。
  7.  上記第1のエレメンタリストリームに含まれる第1の画像データの符号化方式と、上記所定数の第2のエレメンタリストリームに含まれる第2の画像データの符号化方式として、任意の符号化方式の組み合わせが可能とされている
     請求項1に記載の画像データ送信装置。
  8.  上記第1の画像データは、立体画像データを構成するベースビューの画像データであり、
     上記第2の画像データは、上記立体画像データを構成する上記ベースビュー以外のビューの画像データである
     請求項1に記載の画像データ送信装置。
  9.  上記第1の画像データは、ステレオ立体画像を得るための左眼および右眼の一方の画像データであり、
     上記第2の画像データは、上記ステレオ立体画像を得るための左眼および右眼の他方の画像データである
     請求項8に記載の画像データ送信装置。
  10.  上記メタデータは、上記立体画像データに対応した視差情報である
     請求項8に記載の画像データ送信装置。
  11.  上記ストリーム関連付け情報は、該ストリーム関連付け情報が挿入されたエレメンタリストリームに含まれる画像データによるビューが、立体表示の際に、マルチビューイングの中のいずれのビューとして表示されるべきかを示すポジション情報を含む
     請求項8に記載の画像データ送信装置。
  12.  上記第1の画像データは、スケーラブル符号化画像データを構成する最下位層の符号化画像データであり、
     上記第2の画像データは、上記スケーラブル符号化画像データを構成する上記最下位層以外の階層の符号化画像データである
     請求項1に記載の画像データ送信装置。
  13.  上記ストリーム関連付け情報は、上記第1の画像データおよび上記第2の画像データの出力解像度の制御情報をさらに含む
     請求項1に記載の画像データ送信装置。
  14.  上記ストリーム関連付け情報は、上記所定数の第2の画像データのそれぞれに対して表示必須とするか否かを指定する制御情報をさらに含む
     請求項1に記載の画像データ送信装置。
  15.  第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとを生成するエンコードステップと、
     上記エンコードステップで生成された上記各エレメンタリストリームをパケット化して得られた各パケットを有するトランスポートストリームを送信する送信ステップを備え、
     上記エンコードステップでは、少なくとも、上記第1のエレメンタリストリームに、上記各エレメンタリストリームの関連を示すストリーム関連付け情報を挿入する
     画像データ送信方法。
  16.  第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとをパケット化して得られた各パケットを有するトランスポートストリームを受信する受信部を備え、
     少なくとも、上記第1のエレメンタリストリームには、上記各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入されており、
     上記ストリーム関連付け情報に基づいて、上記受信部で受信された上記第1のエレメンタリストリームから上記第1の画像データを取得し、上記受信部で受信された上記所定数の第2のエレメンタリストリームから上記第1の画像データに関連した上記第2の画像データおよび/またはメタデータを取得するデータ取得部をさらに備える
     画像データ受信装置。
  17.  上記データ取得部で取得された上記第1の画像データおよび上記第2の画像データの解像度を調整して出力する解像度調整部をさらに備え、
     上記ストリーム関連付け情報は、上記第1の画像データおよび上記第2の画像データの出力解像度の制御情報を含み、
     上記解像度調整部は、上記出力解像度の制御情報に基づいて、上記第1の画像データおよび上記第2の画像データの解像度を調整する
     請求項16に記載の画像データ受信装置。
  18.  上記データ取得部で取得された上記第1の画像データおよび上記第2の画像データに基づく画像表示態様を選択する画像表示態様選択部をさらに備え、
     上記ストリーム関連付け情報は、上記所定数の第2の画像データのそれぞれに対して表示必須とするか否かを指定する制御情報を含み、
     上記画像表示態様選択部は、上記制御情報に基づいて画像表示態様の選択が制限される
     請求項16に記載の画像データ受信装置。
  19.  上記データ取得部で取得された上記メタデータは、上記立体画像データに対応した視差情報であり、
     該視差情報を用い、上記データ取得部で取得された上記第1の画像データおよび上記第2の画像データに補間処理を施して、所定数のビューの表示画像データを得るポスト処理部をさらに備える
     請求項16に記載の画像データ受信装置。
  20.  第1の画像データを含む第1のエレメンタリストリームと上記第1の画像データに関連した所定数の第2の画像データおよび/またはメタデータをそれぞれ含む所定数の第2のエレメンタリストリームとをパケット化して得られた各パケットを有するトランスポートストリームを受信する受信ステップを備え、
     少なくとも、上記第1のエレメンタリストリームには、上記各エレメンタリストリームの関連を示すストリーム関連付け情報が挿入されており、
     上記ストリーム関連付け情報に基づいて、上記受信ステップで受信された上記第1のエレメンタリストリームから上記第1の画像データを取得し、上記受信ステップで受信された上記所定数の第2のエレメンタリストリームから上記第1の画像データに関連した上記第2の画像データおよび/またはメタデータを取得するデータ取得ステップをさらに備える
     画像データ受信方法。
PCT/JP2012/060516 2011-04-28 2012-04-18 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法 WO2012147596A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US13/805,999 US20130088572A1 (en) 2011-04-28 2012-04-13 Image data transmission device, image data transmission method, image data reception device, and image data reception method
BR112012033102A BR112012033102A2 (pt) 2011-04-28 2012-04-18 dispositivos e métodos de recepção e de transmissão de dados de imagem
CN2012800021064A CN103026725A (zh) 2011-04-28 2012-04-18 图像数据发送设备、图像数据发送方法、图像数据接收设备以及图像数据接收方法
KR1020127032608A KR20140003319A (ko) 2011-04-28 2012-04-18 화상 데이터 송신 장치, 화상 데이터 송신 방법, 화상 데이터 수신 장치 및 화상 데이터 수신 방법
EP12776603.8A EP2574053A4 (en) 2011-04-28 2012-04-18 Image data transmission device, image data transmission method, image data recording device and image data recording method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011102370A JP2012235308A (ja) 2011-04-28 2011-04-28 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
JP2011-102370 2011-04-28

Publications (1)

Publication Number Publication Date
WO2012147596A1 true WO2012147596A1 (ja) 2012-11-01

Family

ID=47072117

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/060516 WO2012147596A1 (ja) 2011-04-28 2012-04-18 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法

Country Status (7)

Country Link
US (1) US20130088572A1 (ja)
EP (1) EP2574053A4 (ja)
JP (1) JP2012235308A (ja)
KR (1) KR20140003319A (ja)
CN (1) CN103026725A (ja)
BR (1) BR112012033102A2 (ja)
WO (1) WO2012147596A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014034463A1 (ja) * 2012-08-27 2014-03-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105409225B (zh) * 2013-07-19 2019-09-17 皇家飞利浦有限公司 Hdr元数据传输

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178594A (ja) * 1996-12-19 1998-06-30 Sanyo Electric Co Ltd 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末
JP2002125162A (ja) * 2000-10-13 2002-04-26 Kenwood Corp ディジタル放送受信機及びディジタル放送受信方法
WO2004004350A1 (ja) * 2002-06-28 2004-01-08 Sharp Kabushiki Kaisha 画像データ配信システムならびにその画像データ送信装置および画像データ受信装置
JP2011066871A (ja) * 2009-08-21 2011-03-31 Sony Corp コンテンツ伝送方法及び表示装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657322B1 (ko) * 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
KR100818933B1 (ko) * 2005-12-02 2008-04-04 한국전자통신연구원 디지털방송 기반 3차원 컨텐츠 서비스 제공 방법
KR101245591B1 (ko) * 2008-12-18 2013-03-20 엘지전자 주식회사 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
US9282315B2 (en) * 2008-12-30 2016-03-08 Lg Electronics Inc. Digital broadcast receiving method providing two-dimensional image and 3D image integration service, and digital broadcast receiving device using the same
WO2010095410A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、集積回路
WO2011046338A2 (en) * 2009-10-13 2011-04-21 Lg Electronics Inc. Broadcast receiver and 3d video data processing method thereof
JP5594002B2 (ja) * 2010-04-06 2014-09-24 ソニー株式会社 画像データ送信装置、画像データ送信方法および画像データ受信装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178594A (ja) * 1996-12-19 1998-06-30 Sanyo Electric Co Ltd 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末
JP2002125162A (ja) * 2000-10-13 2002-04-26 Kenwood Corp ディジタル放送受信機及びディジタル放送受信方法
WO2004004350A1 (ja) * 2002-06-28 2004-01-08 Sharp Kabushiki Kaisha 画像データ配信システムならびにその画像データ送信装置および画像データ受信装置
JP2011066871A (ja) * 2009-08-21 2011-03-31 Sony Corp コンテンツ伝送方法及び表示装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"JVT-X209", July 2007, JOINT VIDEO TEAM OF ISO/IEC MPEG & ITU-T VCEG, article "Joint Draft 4.0 on Multiview Video Coding"
HEIKO SCHWARZ; DETLEV MARPE; THOMAS WIEGAND: "Overview of the Scalable Video Coding Extension of the H.264/AVC, Standard", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 17, no. 9, September 2007 (2007-09-01), pages 1103 - 1120
SAKAE OKUBO: "revised 3rd edition, H.264/AVC Kyokasho", KABUSHIKI KAISHA IMPRESS R&D, 1 January 2009 (2009-01-01), pages 285 - 323, XP008170373 *
See also references of EP2574053A4 *
THOMAS WIEGAND: "JVT-1050", 2003, JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG, article "Draft Errata List with Revision-Marked Corrections for H.264/AVC"

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014034463A1 (ja) * 2012-08-27 2014-03-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JPWO2014034463A1 (ja) * 2012-08-27 2016-08-08 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP6004132B1 (ja) * 2012-08-27 2016-10-05 ソニー株式会社 送信装置および送信方法
JP6004133B1 (ja) * 2012-08-27 2016-10-05 ソニー株式会社 送受信システムおよび送受信方法
US9525895B2 (en) 2012-08-27 2016-12-20 Sony Corporation Transmission device, transmission method, reception device, and reception method
JP2016220218A (ja) * 2012-08-27 2016-12-22 ソニー株式会社 送受信システムおよび送受信方法
JP2016220217A (ja) * 2012-08-27 2016-12-22 ソニー株式会社 送信装置および送信方法

Also Published As

Publication number Publication date
EP2574053A1 (en) 2013-03-27
EP2574053A4 (en) 2014-07-02
CN103026725A (zh) 2013-04-03
JP2012235308A (ja) 2012-11-29
BR112012033102A2 (pt) 2016-11-22
US20130088572A1 (en) 2013-04-11
KR20140003319A (ko) 2014-01-09

Similar Documents

Publication Publication Date Title
JP5594002B2 (ja) 画像データ送信装置、画像データ送信方法および画像データ受信装置
JP5577823B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP6004133B1 (ja) 送受信システムおよび送受信方法
JP6192902B2 (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
WO2013161442A1 (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
US9693033B2 (en) Transmitting apparatus, transmitting method, receiving apparatus and receiving method for transmission and reception of image data for stereoscopic display using multiview configuration and container with predetermined format
WO2013073455A1 (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
KR20140000136A (ko) 화상 데이터 송신 장치, 화상 데이터 송신 방법, 화상 데이터 수신 장치 및 화상 데이터 수신 방법
WO2013054775A1 (ja) 送信装置、送信方法、受信装置および受信方法
WO2012147596A1 (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
JP5928118B2 (ja) 送信装置、送信方法、受信装置および受信方法
WO2014042034A1 (ja) 送信装置、送信方法、受信装置および受信方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280002106.4

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2706/MUMNP/2012

Country of ref document: IN

ENP Entry into the national phase

Ref document number: 20127032608

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12776603

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012776603

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13805999

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112012033102

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112012033102

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20121221