WO2016194563A1 - 送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置 - Google Patents

送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置 Download PDF

Info

Publication number
WO2016194563A1
WO2016194563A1 PCT/JP2016/063932 JP2016063932W WO2016194563A1 WO 2016194563 A1 WO2016194563 A1 WO 2016194563A1 JP 2016063932 W JP2016063932 W JP 2016063932W WO 2016194563 A1 WO2016194563 A1 WO 2016194563A1
Authority
WO
WIPO (PCT)
Prior art keywords
media
information
data
media access
stream
Prior art date
Application number
PCT/JP2016/063932
Other languages
English (en)
French (fr)
Inventor
塚越 郁夫
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to AU2016269886A priority Critical patent/AU2016269886B2/en
Priority to CN202110497015.3A priority patent/CN113242448B/zh
Priority to CN201680029918.6A priority patent/CN107615767B/zh
Priority to EP16803000.5A priority patent/EP3306941A4/en
Priority to JP2017521763A priority patent/JPWO2016194563A1/ja
Priority to US15/567,650 priority patent/US11223857B2/en
Publication of WO2016194563A1 publication Critical patent/WO2016194563A1/ja
Priority to US17/646,218 priority patent/US11956485B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/93Arrangements characterised by the broadcast information itself which locates resources of other pieces of information, e.g. URL [Uniform Resource Locator]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2541Rights Management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders

Definitions

  • the present technology relates to a transmission device, a transmission method, a media processing device, a media processing method, and a reception device, and more particularly to a transmission device that transmits media access information together with a media stream such as video and audio.
  • predetermined information is inserted into an audio compressed data stream from a broadcasting station, a distribution server, and the like, and the set-top box on the receiving side directly transmits the audio compressed data stream via an HDMI digital interface. It is proposed that the television receiver performs information processing using the predetermined information.
  • the purpose of this technology is to enable a series of media access control to be performed satisfactorily on the receiving side.
  • the concept of this technology is A stream transmitter for transmitting a container of a predetermined format including a media stream;
  • the transmission apparatus includes an information insertion unit that sequentially inserts a predetermined number of related media access information for a series of media access control into the media stream layer or the container layer.
  • a container having a predetermined format including a media stream is transmitted by the transmission unit.
  • the information insertion unit sequentially inserts a predetermined number of related media access information for a series of media access control into the media stream layer or the container layer.
  • the media access information may include identification information for distinguishing from other media access information. With this identification information, the media access information can be easily distinguished on the receiving side.
  • the media access information may include identification information for associating with other media access information. With this identification information, the receiving side can easily confirm the related media access information.
  • the media access information may include period information indicating a corresponding scene in the media stream. With this period information, the receiving side can easily acquire media data related to the corresponding scene in the media stream.
  • user interface information for allowing the user to select a reproduction medium may be included.
  • the receiving side can allow the user to select a desired reproduction medium.
  • the media access information may include time information for managing the activation of the action command. This time information enables flexible management of action command activation timing.
  • the media access information may include absolute time information indicating the media reproduction time limit. With this absolute time information, it is possible to set a media playback time limit on the receiving side.
  • the media access information may include notification information for notifying the user of the state.
  • the receiving side can appropriately notify the user of the state.
  • the information insertion unit may be configured to insert each piece of division information obtained by dividing the media access part into a predetermined number of unit parts of the media stream.
  • the media stream may be an audio compressed data stream
  • the information insertion unit may insert the division information into the user data area of the audio frame as a unit part. Since divisional insertion is possible in this way, the size of information inserted into individual media frames can be suppressed even if the overall size of the media access report is large, and media can be transmitted without affecting media data transmission. Access information can be transmitted satisfactorily.
  • a predetermined number of media access information related to a series of media access control is sequentially inserted and transmitted in the media stream layer or the container layer. Therefore, a series of media access control can be performed satisfactorily on the receiving side.
  • a first acquisition unit that acquires first media data and sequentially acquires a predetermined number of media access information for a series of media access control
  • a second acquisition unit that acquires second media data related to the first media data based on the media access information
  • the media processing apparatus includes a presentation processing unit that performs media presentation processing based on the first media data and the second media data.
  • the first acquisition unit acquires the first media data and sequentially acquires a predetermined number of media access information for a series of media access control.
  • the first acquisition unit includes a reception unit that receives a container having a predetermined format including a media stream, and media access information is inserted in a layer of the media stream or a layer of the container.
  • the image processing apparatus may further include a decoding processing unit that performs decoding processing on the media stream to obtain first media data, and an information extraction unit that extracts media access information from the media stream layer or the container layer.
  • the first acquisition unit includes a receiving unit that receives an audio compressed data stream in which video data as the first media data and media access information are inserted from an external device via a digital interface;
  • a decoding processing unit that performs decoding processing on the stream to obtain audio data as first media data, and an information extraction unit that extracts media access information from the audio compression data stream may be included.
  • the second acquisition unit acquires the second media data related to the first media data based on the media access information.
  • the presentation processing unit performs media presentation processing using the first media data and the second media data.
  • a predetermined number of media access information for a series of media access control is sequentially acquired together with the first media data, and the second media data is acquired based on the media access information. Therefore, it is possible to present with the second media data in correspondence with the media presentation with the first media data.
  • a receiving unit for receiving a container in a predetermined format including a media stream; A predetermined number of related media access information for a series of media access control is sequentially inserted into the media stream layer or the container layer, A decoding process for decoding the media stream to obtain first media data; a media data obtaining process for obtaining second media data based on the media access information; the first media data and the second media data;
  • the receiving apparatus includes a control unit that controls a media presentation process for media presentation using media data.
  • the receiving unit receives a container having a predetermined format including the media stream.
  • a predetermined number of related media access information for a series of media access control is sequentially inserted in the media stream layer or the container layer.
  • the control unit controls the decoding process, media data acquisition process, and media presentation process.
  • the media stream is decoded and the first media data is obtained.
  • second media data is acquired based on the media access information.
  • media presentation process media presentation using the first media data and the second media data is performed.
  • a predetermined number of media access information for a series of media access control is sequentially acquired together with the first media data, and the second media data is acquired based on the media access information. Therefore, it is possible to present with the second media data in correspondence with the media presentation with the first media data.
  • a receiver for receiving, via a digital interface, an audio compressed data stream in which video data as first media data and a predetermined number of media access information for a series of media access control are sequentially inserted;
  • a decoding process for decoding the audio compressed data stream to obtain audio data as the first media data;
  • a media data acquiring process for acquiring second media data based on the media access information;
  • the receiving apparatus includes a control unit that controls media presentation processing for media presentation using the media data and the second media data.
  • an audio compressed data stream in which video data as first media data and a predetermined number of media access information for a series of media access control are sequentially inserted by the receiving unit from an external device via a digital interface Received.
  • the control unit controls the decoding process, media data acquisition process, and media presentation process.
  • the audio compression data stream is decoded to obtain audio data as the first media data.
  • second media data is acquired based on the media access information.
  • media presentation process media presentation using the first media data and the second media data is performed.
  • a predetermined number of media access information for a series of media access control is sequentially acquired together with the first media data, and the second media data is acquired based on the media access information. Therefore, it is possible to present with the second media data in correspondence with the media presentation with the first media data.
  • a transmission unit for transmitting a container of a predetermined format including an audio encoded stream in which predetermined information is inserted includes an information insertion unit that inserts information indicating that the encoded stream format is given priority as the audio data transmission format in the container layer.
  • a container having a predetermined format including an audio encoded stream in which predetermined information is inserted is transmitted by the transmission unit.
  • the predetermined information may be such that the predetermined information is a related predetermined number of media access information for a series of media access control.
  • the information insertion unit inserts information indicating that priority is given to the format of the encoded stream as the audio data transmission format into the container layer.
  • the present technology information indicating that the encoded stream is given priority as the audio data transmission format is inserted into the container layer. Therefore, it is possible to prioritize the format of the encoded stream as the audio data transmission format on the receiving side, and reliably supply the predetermined information inserted into the encoded stream from the receiving device to the external device (destination device). It becomes possible.
  • a transmission unit for transmitting a container in a predetermined format including a media stream;
  • An information insertion unit for inserting media access information in the media stream layer or the container layer by adding check information for checking a provider of media data acquired using the media access information.
  • the transmitter In the transmitter.
  • a container of a predetermined format including a media stream is transmitted by the transmission unit.
  • the information insertion unit inserts media access information in the media stream layer or the container layer.
  • the media access information is added with check information for checking a provider of media data acquired using the media access information.
  • the check information may be an identification value uniquely assigned to an individual service based on the media access information, or a supplier or a standards body of this service.
  • check information for checking a provider of media data acquired using the media access information is added to the media access information inserted in the media stream layer or the container layer. The Therefore, the receiving side can easily and easily check the provider of media data acquired using the media access information.
  • media access information is acquired by the media access information acquisition unit.
  • the media access information is added with check information for checking a provider of media data acquired using the media access information.
  • the media data acquisition unit acquires media data based on the media access information. Then, the provider of the acquired media data is checked by the provider check unit based on the check information.
  • the provider of the media data acquired using the media access information is checked based on the check information added to the media access information. Therefore, it becomes possible to easily and easily check the provider of media data acquired using the media access information.
  • FIG. 1 It is a block diagram which shows the other structural example of a set top box. It is a figure which shows the structural example of the MMT stream in the case of inserting media access information (container object data) in an audio stream, and sending. It is a figure which shows the structural example of a MMT stream in the case of inserting media access information (container object data) in a container, and sending. It is a figure which shows the structure of the layer of AC4 simple transport (Simple
  • FIG. 3 is a diagram illustrating a structure example of a transport stream of MPEG-2 TS when an audio compression format is AC4. It is a figure which shows the structural example of the transport stream of MMT in case an audio compression format is AC4. It is a figure which shows the structural example of the MP4 stream (file) containing the data of the audio track in case an audio compression format is AC4. It is a figure which shows the example of a MPD file description. It is a figure which shows the content of the main information in a MPD file description example. It is a block diagram which shows the other structural example of the transmission / reception system. It is a block diagram which shows the other structural example of the transmission / reception system.
  • FIG. 1 shows a configuration example of a transmission / reception system 10 as an embodiment.
  • the transmission / reception system 10 includes a broadcast transmission device 100, a set top box (STB) 200, an audio amplifier (AMP) 300, and a television receiver (TV) 500.
  • a multi-channel speaker system 400 is connected to the audio amplifier 300.
  • the set top box 200 and the audio amplifier 300 are connected via an HDMI cable 610.
  • the set top box 200 is a source and the audio amplifier 300 is a destination.
  • the audio amplifier 300 and the television receiver 500 are connected via an HDMI cable 620.
  • the audio amplifier 300 is a source and the television receiver 500 is a destination.
  • HDMI is a registered trademark.
  • the broadcast transmission apparatus 100 transmits the transport stream TS on a broadcast wave.
  • the transport stream TS includes a video stream and an audio stream (an audio compressed data stream and an audio encoded stream).
  • the broadcast transmission apparatus 100 sequentially inserts a predetermined number of media access information related to a series of media access control into the audio stream as container target data.
  • Each media access information includes identification information “data_id” for distinguishing from other media access information and identification information “information_id” for associating with other media access information.
  • Each media access information includes an ID table (ID_tables), access information (access information), action command (action command), notification (notification), period (period), reference time code (reference time information), Information such as offset time (offset_time), universal time code (UTC: universal : time code), UI selection process (UI selection code) is selectively included.
  • ID_tables ID table
  • access information access information
  • action command action command
  • notification notification
  • period period
  • reference time code reference time information
  • Information such as offset time (offset_time), universal time code (UTC: universal : time code)
  • UI selection process UI selection code
  • the ID table includes an application ID (applicatio_id), a network ID (network_id), a transport ID (transport_id), a service ID (service_id), and the like.
  • the application ID indicates, for example, a hybrid service.
  • the network ID is an original network ID.
  • the transport ID is a transport ID to be associated.
  • the service ID is a service information ID to be associated.
  • Each ID in this ID table and an organization ID (organization_id) indicating ATSC, DVB, etc. constitute identification information of a service supplied with a broadcast wave.
  • Access information indicates the URL of the access destination.
  • the action command is a command for starting an action such as auto start (autostart) or manual start (manual_start).
  • the notification indicates notification information (message) for notifying the user of the state.
  • the period is period information indicating the corresponding scene in the audio stream.
  • the reference time code (reference time code) and offset time (offset_time) are time information for managing the activation of the action command.
  • UTC universal time process
  • the UI selection process is user interface information for allowing the user to select a playback medium.
  • the broadcast transmission apparatus 100 divides and inserts each of the predetermined number of media access information into a predetermined number of audio frames of the audio stream. By dividing in this way, even if the overall size of the media access information is large, the information size inserted in each audio frame can be suppressed, and transmission of predetermined information can be performed without affecting the transmission of audio compressed data. Is possible.
  • the broadcast transmission apparatus 100 adds information indicating the entire size of the predetermined information to the first division information, and information indicating whether the division information is the first division information and information indicating the division position. Append.
  • the predetermined number includes one. When the predetermined number is 1, the media access information is not actually divided and the whole is inserted into one audio frame.
  • a solid line “a” in FIG. 2 schematically shows a change in bit rate when predetermined information having a large overall size is transmitted in one audio frame, but rapidly increases in an audio frame into which media access information is inserted. To do.
  • the bit rate of the audio compression data is 192 kbps and the predetermined information is 40 bytes
  • the bit rate is increased by 15 kbps to 207 kbps.
  • the bit rate suddenly increases like a spike in this way, the transmission of audio compressed data is affected.
  • a broken line b in FIG. 2 schematically shows a change in bit rate when media access information having a large overall size is divided into a plurality of audio frames and transmitted.
  • the bit rate does not increase rapidly. Therefore, media access information having a large overall size can be transmitted satisfactorily without affecting the transmission of audio compressed data.
  • the broadcast transmission device 100 inserts information (transmission format priority information) indicating that the format of the encoded stream is prioritized as the audio data transmission format in the layer of the transport stream TS as the container.
  • the broadcast transmission apparatus 100 inserts this information as a descriptor in an audio elementary stream loop existing under a program map table (PMT: Program Map Table), for example.
  • PMT Program Map Table
  • the set-top box 200 receives the transport stream TS transmitted from the broadcast transmission device 100 on a broadcast wave.
  • the transport stream TS includes a video stream and an audio stream, and a predetermined number of related media access information for a series of media access control is sequentially inserted into the audio stream. .
  • the set-top box 200 transmits the received audio stream itself to the audio amplifier 300 via the HDMI cable 610 together with uncompressed video data obtained by decoding the video stream.
  • the set-top box 200 transmits the audio stream itself to the audio amplifier 300 without performing decoding processing on the audio stream based on the above-described transmission format priority information inserted in the layer of the transport stream TS.
  • the media access information inserted in the audio stream is also sent to the audio amplifier 300 as it is.
  • the audio amplifier 300 receives an audio stream in which media access information is inserted together with uncompressed video data from the set top box 200 via the HDMI cable 610.
  • the audio amplifier 300 decodes the audio stream to obtain multi-channel audio data, and supplies the audio data to the speaker system 400.
  • the audio amplifier 300 transmits the received uncompressed video data and audio stream to the television receiver 500 via the HDMI cable 620.
  • the media access information inserted in the audio stream is also sent to the television receiver 500 as it is.
  • the audio amplifier 300 is instructed by the set top box 200 to prioritize the format of the encoded stream as the transmission format of audio data, for example, by communication using the CEC line.
  • the television receiver 500 receives an audio stream in which a predetermined number of media access information for a series of media access control are sequentially inserted from the audio amplifier 300 via the HDMI cable 620 together with uncompressed video data. Receive.
  • the television receiver 500 displays an image based on uncompressed video data. Also, the television receiver 500 performs a decoding process on the audio stream and acquires media access information.
  • Media access information is divided into a predetermined number of audio frames of the audio stream and inserted.
  • Information indicating the entire size of the media access information is added to the first division information, and information indicating whether the division information is the first division information and information indicating the division position are added to each division information.
  • the television receiver 500 acquires each piece of division information constituting the media access information from a predetermined number of audio frames.
  • the television receiver 500 recognizes information indicating the overall size of the media access information when the first division information is acquired. Then, the television receiver 500 can secure a space for storing predetermined information in the storage medium, and can easily and appropriately perform the media access information acquisition process.
  • the television receiver 500 acquires media data based on a predetermined number of media access information related to a series of media access control. Then, the television receiver 500 displays images and outputs sound using media data acquired based on the media access information in correspondence with image display and sound output using video and audio data sent from the set top box 200. do.
  • FIG. 3 illustrates a configuration example of the stream generation unit 110 included in the broadcast transmission device 100.
  • the stream generation unit 110 includes a control unit 111, a video encoder 112, an audio encoder 113, and a multiplexer 114.
  • the control unit 111 includes a CPU 111a and controls each unit of the stream generation unit 110.
  • the video encoder 112 receives MPEG2, H.264, video data (image data) SV. H.264 / AVC, H.H. Encoding such as H.265 / HEVC is performed to generate a video stream (video elementary stream).
  • the video data SV is, for example, video data reproduced from a recording medium such as a hard disk (HDD) or live video data obtained by a video camera.
  • the audio encoder 113 encodes the audio data (sound data) SA with the MPEG-H 3D Audio compression format to generate an audio stream (audio elementary stream).
  • the audio data SA corresponds to the video data SV described above, and is audio data reproduced from a recording medium such as an HDD or live audio data obtained with a microphone.
  • the audio encoder 113 includes an audio encoding block unit 113a and an audio framing unit 113b.
  • An audio encoding block unit 113a generates an encoding block, and an audio framing unit 113b performs framing.
  • the audio encoder 113 sequentially inserts a predetermined number of media access information related to a series of media access control into the audio stream as container target data under the control of the control unit 111.
  • the audio encoder 113 divides and inserts each of the predetermined number of media access information into a predetermined number (including 1) of audio frames of the audio stream.
  • the audio encoder 113 adds information indicating the entire size of the predetermined information to the first division information.
  • the audio encoder 113 adds to each division information a count number in descending order as information indicating whether or not it is the first division information and information indicating the division position.
  • FIG. 4 shows an example of the structure of an audio frame in MPEG-H 3D Audio transmission data.
  • This audio frame is composed of a plurality of MPEG audio stream packets (mpeg
  • Each MPEG audio stream packet is composed of a header and a payload.
  • the header has information such as packet type (Packet type), packet label (Packet type Label), and packet length (Packet type Length).
  • Information defined by the packet type of the header is arranged in the payload.
  • the payload information includes “SYNC” corresponding to the synchronization start code, “Frame” that is actual data of 3D audio transmission data, and “Config” indicating the configuration of this “Frame”.
  • “Frame” includes channel encoded data and object encoded data constituting 3D audio transmission data.
  • the channel encoded data is composed of encoded sample data such as SCE (Single Channel Element), CPE (Channel Pair Element), and LFE (Low Frequency Element).
  • the object encoded data is composed of SCE (Single Channel Element) encoded sample data and metadata for rendering it by mapping it to a speaker located at an arbitrary position. This metadata is included as an extension element (Ext_element).
  • an element (Ext_universal_metadata) having media access information as universal metadata (universal_metadata) is newly defined as an extension element (Ext_element).
  • configuration information (universal_metadataConfig) of the element is newly defined in “Config”.
  • FIG. 5 shows the correspondence between the type (ExElementType) of the extension element (Ext_element) and its value (Value).
  • 0-7 are decided. Since 128 and beyond can be expanded to other than MPEG, for example, 128 is newly defined as a value of the type “ID_EXT_ELE_universal_metadata”. In the case of a standard such as MPEG, it is possible to define 8 to 127.
  • FIG. 6 shows a structural example (syntax) of a universal metadata frame (universal_metadata_frame ()) including universal metadata as an extension element.
  • FIG. 7, FIG. 8, and FIG. 9 show a structure example (syntax) of access information data (Access_information_data ()) inserted in “bytes_to_carry_access_information_data” of a predetermined number (including 1) of universal metadata frames.
  • 10 and 11 show the contents (semantics) of main information in each structural example.
  • the 32-bit field of “organization_id” indicates an individual service transmitted in the user data area, or a provider or standard organization of this service (for example, “ATSC”, “DVB”). “Etc.) indicates an identification value uniquely assigned.
  • the 8-bit field of “metadata_type” indicates the type of container target data. For example, “0x10” indicates universal metadata of the MPEG-H system, and “0x02” indicates ATSC application metadata.
  • the 8-bit field of “data_id” indicates the ID of container target data (media access information). The same ID is assigned to each piece of division information obtained by dividing the same container target data.
  • start_flag indicates whether or not the container target data starts. “1” indicates start, and “0” indicates not start.
  • the 7-bit field of “fcounter” indicates the division position of the divided container target data in descending count number. “0” indicates the last divided portion. When “start_flag” is “1” and “fcounter” is “0”, it indicates that no division is performed.
  • the 8-bit field “num_of_access_information; N” indicates the number N of information in the media access information.
  • the 8-bit field of “information_id” indicates the ID of the media access information. The same ID is assigned to a predetermined number of related media access information. That is, the application can associate each piece of media access information using this “information_id”.
  • the 8-bit field of “segment_id” shares “information_id” and indicates the ID of each segmented media access information.
  • the access information data (Access_information_data ()) includes information of the number N indicated by “num_of_access_information; N”.
  • An 8-bit field of “information_type” indicates the type of information. “0x00” indicates an ID table (ID_tables).
  • ID_tables When the type of information is an ID table, there are 16-bit fields each indicating an application ID (applicatio_id), a network ID (network_id), a transport ID (transport_id), and a service ID (service_id).
  • “0x01” indicates access information.
  • the code of each character of the URL is arranged in the “bytes” field. Note that the 8-bit field of “url_length” indicates the number of characters of the URL.
  • “0x02” indicates an action command (action command).
  • action command an 8-bit field of “command_type” exists. For example, “1” indicates an autostart (autostart), “2” indicates a manual start (manual_start), “3” indicates a resume (resume), “4” indicates a pause, and “5” “” Indicates stop, “6” indicates user selected (user selected), and “7” indicates deathcard download data (discard download_data).
  • “0x03” indicates a notification.
  • an 8-bit field of “message_type” exists. For example, “1” indicates preparation, “2” indicates access ready, “3” indicates expired, and “4” indicates selection. .
  • “0x04” indicates a period.
  • “period_id” indicates a reference time code (reference time code).
  • “time_code1” indicates a 64-bit field of “time_code1”.
  • “0x06” indicates an offset time (offset_time).
  • offset_time When the information type is an offset time, there is a 64-bit field of “time_code2” and an 8-bit field of “target_segment_id”. This field indicates “segment_id” of the medium access information for specifying the offset time. Note that this “target_segment_id” may not exist when specifying its own offset time.
  • “0x08” indicates a UI selection process (UI selection code).
  • the information type is the UI selection process
  • user interface information for allowing the user to select a reproduction medium is arranged in the “data” field.
  • This user interface information is, for example, HTML data in which information necessary for starting the browser is described. This description includes thumbnail information for user selection, an ID “select_ID” indicating a selection result, and the like.
  • the 8-bit field “html_length” is information for realizing the browser function, and indicates the number of bytes of the related HTML data.
  • the multiplexer 114 converts the video stream output from the video encoder 112 and the audio stream output from the audio encoder 113 into PES packets, further multiplexes them into transport packets, and converts them into a multiplexed stream.
  • a port stream TS is obtained.
  • the multiplexer 114 inserts information (transmission format priority information) indicating that priority is given to the format of the encoded stream (audio compressed data stream) as the audio data transmission format under the program map table (PMT). Specifically, an audio streaming descriptor (Audio_streaming_descriptor ()) is inserted into the audio elementary stream loop.
  • FIG. 12A shows a structure example (Syntax) of the audio streaming descriptor. Moreover, FIG.12 (b) has shown the content (Semantics) of the main information in the structural example.
  • the 8-bit field of “descriptor_tag” indicates the descriptor type. Here, it indicates an audio streaming descriptor.
  • the 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.
  • audio_streaming_flag indicates that the encoded stream format is prioritized as the audio data transmission format. “1” indicates that priority is given to the format of the encoded stream, and “0” indicates that priority is not given to the format of the encoded stream. In this embodiment, “audio_streaming_flag” is set to “1”.
  • the video data SV is supplied to the video encoder 112.
  • H.264 is applied to the video data SV.
  • H.264 / AVC, H.H. Encoding such as H.265 / HEVC is performed, and a video stream including encoded video data is generated.
  • the audio data SA is supplied to the audio encoder 113.
  • the audio data SA is encoded by the MPEG-H 3D Audio compression format to generate an audio stream (audio compressed data stream).
  • the media access information to be inserted into the audio stream is supplied from the control unit 111 to the audio encoder 113 as container target data.
  • container target data (media access information) is divided and inserted into a predetermined number (including 1) of audio frames of the audio stream.
  • the audio encoder 113 adds information indicating the entire size of the container target data (media access information) to the first division information. Also, in the audio encoder 113, a count number in descending order as information indicating whether or not it is the first division information and information indicating the division position is added to each division information.
  • the video stream generated by the video encoder 112 is supplied to the multiplexer 114.
  • the audio stream generated by the audio encoder 113 is supplied to the multiplexer 114.
  • the streams supplied from the encoders are packetized and multiplexed, and a transport stream TS is obtained as transmission data.
  • an audio streaming descriptor (see FIG. 12A) is inserted into the audio elementary stream loop under the program map table (PMT).
  • This descriptor includes information (transmission format priority information) indicating that the encoded stream (audio compressed data stream) format is given priority as the audio data transmission format.
  • FIG. 13 illustrates an example in which container target data (media access information) is transmitted in a plurality of universal metadata frames.
  • the container target data is divided into a plurality of pieces, and each piece of pieces of division information is distributed to a plurality of universal metadata frames and inserted into the field of “bytes_to_carry_access_information_data” (see FIG. 6).
  • start_flag corresponding to the first division information is set to “1”, which indicates the first division information.
  • fcounter corresponding to the first division information is “n ⁇ 1”, and by adding 1 to the value, the division number “n” is indicated.
  • a field “total_data_size” exists corresponding to the first division information, and indicates the entire size of the container target data (media access information).
  • “Start_flag” corresponding to the second and subsequent division information is set to “0”, indicating that it is not the first division information.
  • “fcounter” corresponding to the second and subsequent division information is a count number sequentially decremented from “n ⁇ 1”, indicating a division position and the number of remaining division information. Further, “fcounter” corresponding to the last division information is set to “0”, indicating that it is the last division information.
  • “fcounter” corresponding to the first division information is “n”
  • “fcounter” corresponding to the second and subsequent division information is the count number sequentially decremented from “n”, and corresponds to the last division information. It is also conceivable to set “fcounter” to “1”. “N” of “fcounter” corresponding to the first division information indicates the number of divisions, and that “fcounter” is “1” indicates that it is the last division information.
  • FIG. 14 shows an example in which container target data (media access information) is transmitted in one universal metadata frame.
  • the container target data is not divided and inserted into the “bytes_to_carry_access_information_data” field of one universal metadata frame (see FIG. 6).
  • start_flag is set to “1”, which indicates the first division information.
  • fcounter is set to “0”, indicating that it is the last division information. Therefore, these pieces of information indicate that the data is not divided.
  • a field “total_data_size” exists corresponding to the first division information, and indicates the entire size of the container target data (media access information).
  • FIG. 15 shows an example in which a plurality of container target data (media access information) is transmitted in a plurality of universal metadata frames.
  • the example shown in the figure is an example in which two container target data are transmitted: container target data A in which “data_id” is “0” and container target data B in which “data_id” is “1”.
  • the container target data A is divided into three, and each of the three pieces of divided information is distributed into three universal metadata frames and inserted into the field of “bytes_to_carry_access_information_data” (see FIG. 6).
  • start_flag corresponding to the first division information is set to “1”, which indicates the first division information.
  • fcounter corresponding to the first division information is “2”, and by adding 1 to the value, the division number “3” is indicated.
  • a field “total_data_size” exists corresponding to the first division information, and indicates the entire size of the container target data (media access information).
  • Start_flag corresponding to the second division information is set to “0”, indicating that it is not the first division information.
  • “fcounter” corresponding to the second division information is “1”, which indicates the division position and the number of remaining division information is “1”.
  • start_flag corresponding to the last division information is set to “0”, indicating that it is not the last division information.
  • “fcounter” corresponding to the last division information is set to “0”, indicating that it is the last division information.
  • the container target data B is not divided and inserted into the “bytes_to_carry_access_information_data” field of one universal metadata frame (see FIG. 6).
  • start_flag is set to “1”, which indicates the first division information.
  • fcounter is set to “0”, indicating that it is the last division information. Therefore, these pieces of information indicate that the data is not divided.
  • total_data_size exists corresponding to the first division information, and indicates the entire size of the container target data (media access information).
  • FIG. 16 illustrates a structure example of the transport stream TS.
  • the PES packet includes a PES header (PES_header) and a PES payload (PES_payload). DTS and PTS time stamps are inserted in the PES header.
  • the audio stream (Audio coded stream) is inserted into the PES payload of the PES packet of the audio stream.
  • Access information data (Access_information_data ()) including media access information (container target data) in a universal metadata frame (universal_metadata_frame ()) in a predetermined number (including 1) of audio frames of this audio stream. 7-9) is inserted.
  • the transport stream TS includes a PMT (Program Map Table) as PSI (Program Specific Information).
  • PSI is information describing to which program each elementary stream included in the transport stream belongs.
  • the PMT has a program loop (Program ⁇ ⁇ ⁇ loop) that describes information related to the entire program.
  • an elementary stream loop having information related to each elementary stream.
  • video ES loop video elementary stream loop
  • audio ES loop audio elementary stream loop
  • video elementary stream loop information such as a stream type and PID (packet identifier) is arranged corresponding to the video stream, and a descriptor describing information related to the video stream is also provided. Be placed.
  • the value of “Stream_type” of this video stream is set to “0x24”, and the PID information indicates PID1 given to the PES packet “video PES” of the video stream as described above.
  • HEVCV descriptor is arranged.
  • audio elementary stream loop information such as a stream type and PID (packet identifier) is arranged corresponding to the audio stream, and information related to the audio stream is described.
  • a descriptor is also placed.
  • the value of “Stream_type” of this audio stream is set to “0x2C”, and the PID information indicates the PID2 assigned to the PES packet “audio PES” of the audio stream as described above.
  • the audio streaming descriptor described above is arranged as one of the descriptors.
  • FIG. 17 shows a configuration example of the set top box 200.
  • the set top box 200 includes a CPU 201, a flash ROM 202, a DRAM 203, an internal bus 204, a remote control receiving unit 205, and a remote control transmitter 206.
  • the set top box 200 includes an antenna terminal 211, a digital tuner 212, a demultiplexer 213, a video decoder 214, an audio framing unit 215, an HDMI transmission unit 216, and an HDMI terminal 217.
  • the CPU 201 controls the operation of each part of the set top box 200.
  • the flash ROM 202 stores control software and data.
  • the DRAM 203 constitutes a work area for the CPU 201.
  • the CPU 201 develops software and data read from the flash ROM 202 on the DRAM 203 and activates the software to control each unit of the set top box 200.
  • the remote control receiving unit 205 receives a remote control signal (remote control code) transmitted from the remote control transmitter 206 and supplies it to the CPU 201.
  • CPU201 controls each part of set top box 200 based on this remote control code.
  • the CPU 201, flash ROM 202, and DRAM 203 are connected to the internal bus 204.
  • the antenna terminal 211 is a terminal for inputting a television broadcast signal received by a receiving antenna (not shown).
  • the digital tuner 212 processes the television broadcast signal input to the antenna terminal 211 and outputs a transport stream TS corresponding to the user's selected channel.
  • the demultiplexer 213 extracts a video stream packet from the transport stream TS and sends it to the video decoder 214.
  • the video decoder 214 reconstructs a video stream from the video packets extracted by the demultiplexer 213 and performs decoding processing to obtain uncompressed video data (image data).
  • the demultiplexer 213 extracts audio stream packets from the transport stream TS, and reconstructs the audio stream.
  • the audio framing unit 215 performs framing on the audio stream reconstructed in this way.
  • Media access information (container target data) is inserted into the audio stream as described in the stream generation unit 110 (see FIG. 3).
  • the demultiplexer 213 extracts various information such as descriptor information from the transport stream TS and sends it to the CPU 201.
  • the various types of information include the above-described audio streaming descriptor (Audio_streaming_descriptor ()) information (see FIG. 12A).
  • the CPU 201 recognizes that the format of the encoded stream (audio compressed data stream) is given priority as the audio data transmission format based on the information in the field of “audio_streaming_flag” inserted into the descriptor, that is, the transmission format priority information. To do. Thereby, the CPU 201 controls each part of the set top box 200 so as to transmit the audio stream to the audio amplifier 300 without performing decoding processing on the audio stream.
  • the set-top box 200 includes, for example, an audio decoder, and can also decode the audio stream to obtain audio data.
  • the CPU 201 performs communication with the audio amplifier 300 using, for example, a CEC line, and instructs the audio amplifier 300 to prioritize the format of the encoded stream as the audio data transmission format.
  • the audio amplifier 300 operates to transmit the audio stream as it is to the television receiver 500, as will be described later.
  • the audio amplifier 300 may or may not decode the audio stream. In any case, by giving priority to the encoded stream based on the priority information, the audio encoded stream can reach the final receiving device.
  • the HDMI transmission unit 216 sends the uncompressed video data obtained by the video decoder 214 and the audio stream after being framed by the audio framing unit 215 from the HDMI terminal 217 by communication conforming to HDMI.
  • the HDMI transmission unit 216 packs the video data and the audio stream and outputs them to the HDMI terminal 217 for transmission through the HDMI TMDS channel. Details of the HDMI transmission unit 216 will be described later.
  • a television broadcast signal input to the antenna terminal 211 is supplied to the digital tuner 212.
  • the digital tuner 212 processes the television broadcast signal and outputs a transport stream TS corresponding to the user's selected channel.
  • the transport stream TS output from the digital tuner 212 is supplied to the demultiplexer 213.
  • video elementary stream packets are extracted from the transport stream TS and sent to the video decoder 214.
  • a video stream is reconstructed from the video packets extracted by the demultiplexer 213, and then the video stream is decoded to obtain uncompressed video data.
  • the uncompressed video data is supplied to the HDMI transmission unit 216.
  • audio stream packets are extracted from the transport stream TS, and an audio stream in which media access information (container target data) is inserted is reconstructed.
  • the audio stream is framed by the audio framing unit 215 and then supplied to the HDMI transmission unit 216.
  • the HDMI transmission unit 216 packs the uncompressed video data and the audio stream, and transmits them from the HDMI terminal 217 to the audio amplifier 300 via the HDMI cable 610.
  • FIG. 18 shows a configuration example of the audio amplifier 300.
  • the audio amplifier 300 includes a CPU 301, a flash ROM 302, a DRAM 303, an internal bus 304, a remote control receiving unit 305, and a remote control transmitter 306.
  • the audio amplifier 300 includes an HDMI terminal 311, an HDMI receiving unit 312, an audio decoder 313, an audio processing circuit 314, an audio amplification circuit 315, an audio output terminal 316, an HDMI transmission unit 317, and an HDMI terminal 318. have.
  • the CPU 301 controls the operation of each part of audio amplifier 300.
  • the flash ROM 302 stores control software and data.
  • the DRAM 303 constitutes a work area for the CPU 301.
  • the CPU 301 develops software and data read from the flash ROM 302 on the DRAM 303 to activate the software, and controls each unit of the audio amplifier 300.
  • the remote control receiving unit 305 receives a remote control signal (remote control code) transmitted from the remote control transmitter 306 and supplies it to the CPU 301.
  • the CPU 301 controls each part of the audio amplifier 300 based on the remote control code.
  • the CPU 301, flash ROM 302 and DRAM 303 are connected to the internal bus 304.
  • the HDMI receiving unit 312 receives uncompressed video data and an audio stream supplied to the HDMI terminal 311 via the HDMI cable 610 by communication conforming to HDMI. As described in the above set-top box 200 (see FIG. 17), media access information (container target data) is inserted into the audio stream. Details of the HDMI receiving unit 312 will be described later.
  • the audio decoder 313 performs a decoding process on the audio stream received by the HDMI receiving unit 212 to obtain a predetermined number of channels of uncompressed audio data (audio data).
  • the audio processing circuit 314 performs necessary up / down-mix processing on the uncompressed audio data of a predetermined number of channels according to the configuration of the speaker system 400 (see FIG. 1) to obtain audio data of the required number of channels. At the same time, necessary processing such as D / A conversion is performed.
  • the audio amplification circuit 315 amplifies the audio signal of each channel obtained by the audio processing circuit 314 and outputs it to the audio output terminal 316. Note that the speaker system 400 is connected to the audio output terminal 316.
  • the HDMI transmission unit 317 transmits the uncompressed video data and the audio stream received by the HDMI reception unit 212 from the HDMI terminal 318 by communication conforming to HDMI.
  • the HDMI transmission unit 317 packs uncompressed video data and audio streams for transmission via the HDMI TMDS channel, and outputs them to the HDMI terminal 318. Details of the HDMI transmission unit 317 will be described later.
  • the HDMI receiving unit 312 receives uncompressed video data and an audio stream transmitted from the set top box 200 to the HDMI terminal 311 via the HDMI cable 610.
  • the audio stream received by the HDMI receiving unit 312 is supplied to the audio decoder 313.
  • the audio decoder 313 performs decoding processing on the audio stream to obtain uncompressed audio data having a predetermined number of channels. This audio data is supplied to the audio processing circuit 314.
  • uncompressed audio data having a predetermined number of channels is subjected to necessary up / down mix processing according to the configuration of the speaker system 400 (see FIG. 1), and audio data having the required number of channels is obtained.
  • necessary processing such as D / A conversion is performed.
  • the audio data of each channel output from the audio processing circuit 314 is amplified by the audio amplification circuit 315 and output to the audio output terminal 316. Therefore, a predetermined number of channels of audio output can be obtained from the speaker system 400 connected to the audio output terminal 316.
  • the uncompressed video data and audio stream received by the HDMI receiving unit 312 are supplied to the HDMI transmitting unit 317. Not the uncompressed video data itself received by the HDMI receiving unit 312, but video data obtained by performing processing such as superimposing graphics data on the uncompressed video data is supplied to the HDMI transmitting unit 317. May be.
  • these uncompressed video data and audio stream are packed and transmitted from the HDMI terminal 318 to the television receiver 500 via the HDMI cable 620.
  • FIG. 19 shows a configuration example of the television receiver 500.
  • the television receiver 500 includes a CPU 501, a flash ROM 502, a DRAM 503, an internal bus 504, a remote control receiving unit 505, a remote control transmitter 506, and a communication interface 507.
  • the television receiver 500 includes an antenna terminal 511, a digital tuner 512, a demultiplexer 513, a video decoder 514, an HDMI terminal 515, and an HDMI receiving unit 516.
  • the television receiver 500 includes a video processing circuit 517, a panel drive circuit 518, a display panel 519, an audio decoder 520, an audio processing circuit 521, an audio amplification circuit 522, and a speaker 523.
  • the CPU 501 controls the operation of each part of the television receiver 500.
  • the flash ROM 502 stores control software and data.
  • the DRAM 503 constitutes a work area for the CPU 501.
  • the CPU 501 develops software and data read from the flash ROM 502 on the DRAM 503 to activate the software, and controls each unit of the television receiver 500.
  • the remote control receiving unit 505 receives the remote control signal (remote control code) transmitted from the remote control transmitter 506 and supplies it to the CPU 501.
  • the CPU 501 controls each part of the television receiver 500 based on the remote control code.
  • the CPU 501, flash ROM 502, and DRAM 503 are connected to the internal bus 504.
  • the communication interface 507 communicates with a server existing on a network such as the Internet under the control of the CPU 501.
  • the communication interface 507 is connected to the internal bus 504.
  • the antenna terminal 511 is a terminal for inputting a television broadcast signal received by a receiving antenna (not shown).
  • the digital tuner 512 processes the television broadcast signal input to the antenna terminal 511 and outputs a transport stream TS corresponding to the user's selected channel.
  • the demultiplexer 513 extracts a video stream packet from the transport stream TS and sends it to the video decoder 514.
  • the video decoder 514 reconstructs a video stream from the video packets extracted by the demultiplexer 513 and performs decoding processing to obtain uncompressed video data (image data).
  • the demultiplexer 513 extracts audio stream packets from the transport stream TS, and reconstructs the audio stream.
  • Media access information (container target data) is inserted into the audio stream as described in the stream generation unit 110 (see FIG. 3).
  • the HDMI receiving unit 516 receives uncompressed video data and an audio stream supplied to the HDMI terminal 515 via the HDMI cable 620 by HDMI-compliant communication. As described in the above-described audio amplifier 300 (see FIG. 18), media access information (container target data) is inserted into the audio stream. Details of the HDMI receiving unit 516 will be described later.
  • the video processing circuit 517 performs a scaling process on the video data obtained by the video decoder 514 or obtained by the HDMI receiving unit 516, and further, video data received from a server on the network by the communication interface 507, The video data for display is obtained by performing synthesis processing and the like.
  • the panel driving circuit 518 drives the display panel 519 based on the display image data obtained by the video processing circuit 517.
  • the display panel 519 includes, for example, an LCD (Liquid Crystal Display), an organic EL display (organic electroluminescence display), and the like.
  • the audio decoder 520 performs decoding processing on the audio stream obtained by the demultiplexer 513 or obtained by the HDMI receiving unit 516 to obtain uncompressed audio data (audio data). Also, the audio decoder 520 extracts a predetermined number of media access information (container target data) related to a series of media access control sequentially inserted in the audio stream, and sends it to the CPU 501. The CPU 501 appropriately causes each unit of the television receiver 500 to perform processing using this media access information.
  • the media access information is divided and inserted into a predetermined number (including 1) of audio frames of the audio stream, and information indicating the overall size of the media access information (container target data) is added to the first division information.
  • a count number in descending order as information indicating whether or not the division information is the first division information and information indicating the division position is added to each division information.
  • the audio decoder 520 acquires media access information from a predetermined number of audio frames based on these pieces of information.
  • the audio decoder 520 can recognize the first division information from the information indicating whether or not it is the first division information, and can recognize the division number from the descending count number corresponding to the first division information. Furthermore, the number of remaining division information can be recognized from the count number in descending order. Therefore, the audio decoder 520 can easily and appropriately acquire each piece of division information constituting the media access information from a predetermined number of audio frames.
  • a memory storage medium based on the information indicating the overall size of the media access information when the first division information is acquired.
  • a space sufficient to store the predetermined information can be secured, and the media access information acquisition process can be performed easily and appropriately.
  • the audio processing circuit 521 performs necessary processing such as D / A conversion on the audio data obtained by the audio decoder 520.
  • the audio amplification circuit 522 amplifies the audio signal output from the audio processing circuit 521 and supplies the amplified audio signal to the speaker 523.
  • the CPU 501 controls the communication interface 507, for example, based on a predetermined number of media access information related to a series of media access control acquired by the audio decoder 520.
  • media data is acquired from a server on the network such as the Internet, and image display and audio output are performed using the media data.
  • a specific example of media access control will be described later.
  • the operation of the television receiver 500 shown in FIG. 19 will be briefly described.
  • the television broadcast signal input to the antenna terminal 511 is supplied to the digital tuner 512.
  • the television broadcast signal is processed, and a transport stream TS corresponding to the user's selected channel is obtained.
  • the transport stream TS obtained by the digital tuner 512 is supplied to the demultiplexer 513.
  • the demultiplexer 513 extracts a video stream packet from the transport stream TS and supplies the extracted video stream packet to the video decoder 514.
  • the video decoder 514 a video stream is reconstructed from the video packets extracted by the demultiplexer 513 and subjected to a decoding process to obtain uncompressed video data. This uncompressed video data is supplied to the video processing circuit 517.
  • audio stream packets are extracted from the transport stream TS, and the audio stream is reconfigured. This audio stream is supplied to the audio decoder 520.
  • the HDMI receiving unit 516 receives uncompressed video data and an audio stream supplied to the HDMI terminal 515 via the HDMI cable 620 by HDMI-compliant communication. Uncompressed video data is supplied to the video processing circuit 517. The audio stream is supplied to the audio decoder 520.
  • the video processing circuit 517 performs a scaling process on the video data obtained by the video decoder 514 or obtained by the HDMI receiving unit 516, and further, the video data received from the server on the network by the communication interface 507, Video data for display is obtained by performing synthesis processing and the like.
  • the display video data obtained by the video processing circuit 517 is supplied to the panel drive circuit 518.
  • the panel drive circuit 518 drives the display panel 519 based on the display video data. As a result, an image corresponding to the video data for display is displayed on the display panel 519.
  • the audio stream obtained by the demultiplexer 513 or obtained by the HDMI receiving unit 516 is subjected to decoding processing to obtain uncompressed audio data.
  • Audio data obtained by the audio decoder 520 is supplied to the audio processing circuit 521.
  • the audio processing circuit 521 performs necessary processing such as D / A conversion on the audio data.
  • the audio data is amplified by the audio amplification circuit 522 and then supplied to the speaker 523. Therefore, sound corresponding to the display image on the display panel 519 is output from the speaker 523.
  • the audio decoder 520 a predetermined number of media access information (container target data) related to a series of media access control sequentially inserted in the audio stream is extracted.
  • the media access information extracted by the audio decoder 520 is sent to the CPU 501.
  • the communication interface 507 is controlled by the CPU 501 based on the media access information.
  • media data is acquired from a server on the network such as the Internet, and image display and audio output are performed using the media data.
  • [Configuration Example of HDMI Transmitter and HDMI Receiver] 20 shows a configuration example of the HDMI transmission unit 216 (see FIG. 17) of the set-top box 200 and the HDMI reception unit 312 (see FIG. 18) of the audio amplifier 300 in the transmission / reception system 10 of FIG. Note that the configuration example of the HDMI transmission unit 317 (see FIG. 18) of the audio amplifier 300 and the HDMI reception unit 516 (see FIG. 19) of the television receiver 500 are the same, and thus the description thereof is omitted.
  • the HDMI transmission unit 216 is an effective image section 21 (hereinafter referred to as “active” as appropriate) which is a section obtained by removing the horizontal blanking section 22 and the vertical blanking section 23 from the section from one vertical synchronization signal to the next vertical synchronization signal. (Also referred to as “video section”) (see FIG. 21), a differential signal corresponding to pixel data of an uncompressed image for one screen is transmitted to the HDMI receiving unit 312 in one direction through a plurality of channels.
  • the HDMI transmission unit 216 transmits, at a plurality of channels, differential signals corresponding to at least audio data, control data, and other auxiliary data associated with an image in the horizontal blanking interval 22 or the vertical blanking interval 23. It transmits to the HDMI receiving unit 312 in one direction.
  • the HDMI transmission unit 216 includes the HDMI transmitter 31.
  • the transmitter 31 converts, for example, pixel data of an uncompressed image into a corresponding differential signal, and receives HDMI signals on three TMDS (Transition Minimized Differential Signaling) channels # 0, # 1, and # 2. Serial transmission is performed in one direction to the unit 312.
  • TMDS Transition Minimized Differential Signaling
  • the transmitter 31 converts audio data accompanying the uncompressed image, further necessary control data and other auxiliary data, etc. into corresponding differential signals, and converts them into three TMDS channels # 0, # 1, #. 2, serially transmit to the HDMI receiving unit 312 in one direction.
  • the HDMI receiving unit 312 receives differential signals corresponding to pixel data transmitted in one direction from the HDMI transmitting unit 216 through a plurality of channels in the active video section 21 (see FIG. 21). Further, the HDMI receiving unit 312 transmits audio transmitted in one direction from the HDMI transmitting unit 216 through a plurality of channels in the horizontal blanking interval 22 (see FIG. 21) or the vertical blanking interval 23 (see FIG. 21). A differential signal corresponding to data and control data is received.
  • the transmission channel of the HDMI system including the HDMI transmission unit 216 and the HDMI reception unit 312 transmits the pixel clock with three TMDS channels # 0 to # 2 as transmission channels for transmitting pixel data and audio data.
  • TMDS clock channel as a transmission channel, there are transmission channels called DDC (Display Data Channel) 33 and CEC (Consumer Electronics Control) line 34.
  • the DDC 33 includes two signal lines included in the HDMI cable 610, and is used by the HDMI transmission unit 216 to read out EDID (Extended Display Identification Data) from the HDMI receiving unit 312 connected via the HDMI cable 610. Is done.
  • the HDMI receiving unit 312 has an EDID ROM (Read Only Memory) that stores EDID, which is performance information related to its own performance (Configuration / Capability).
  • EDID ROM Read Only Memory
  • the HDMI transmitting unit 216 reads the EDID, the decoding capability information on the receiving side is sent to the transmitting side.
  • the HDMI transmission unit 216 reads the EDID from the HDMI reception unit 312 connected via the HDMI cable 610 via the DDC 33. Then, the CPU 201 of the set top box 200 recognizes the performance of the audio amplifier 300 having the HDMI receiving unit 312 based on the EDID.
  • the CEC line 34 is composed of one signal line included in the HDMI cable 610, and is used to perform bidirectional communication of control data between the HDMI transmission unit 216 and the HDMI reception unit 312.
  • the HDMI cable 610 includes an HPD line 35 connected to a pin called HPD (Hot Plug Detect).
  • the source device can detect the connection of the sink device (destination device) by using the HPD line 35 by the DC bias potential.
  • the HPD line 35 has a function of receiving a connection state notification from the sink device by a DC bias potential.
  • the HPD line has a function of notifying the source device of the connection state by a DC bias potential.
  • the HDMI cable 610 includes a power supply line 36 used for supplying power from the source device to the sink device.
  • the HDMI cable 610 includes a reserved line 37.
  • HDMI Ethernet channel HDMI Ethernet Channel: HEC
  • audio return channel Audio Return Channel: ARC
  • Ethernet and “Ethernet” are registered trademarks.
  • FIG. 21 shows sections of various transmission data when image data of horizontal ⁇ vertical 1920 pixels ⁇ 1080 lines is transmitted in the TMDS channel.
  • a video field 24 Video Data Period
  • a data island period 25 Data Island Period
  • a video field in which transmission data is transmitted using the three TMDS channels of HDMI There are three types of sections, namely, control section 26 (Control26Period).
  • the video field period is a period from a rising edge (Active Edge) of a certain vertical synchronizing signal to a rising edge of the next vertical synchronizing signal, and includes a horizontal blanking period 22 (Horizontal Blanking) and a vertical blanking period 23 ( Vertical Blanking) and an effective pixel section 21 (Active Video) that is a section obtained by removing the horizontal blanking period and the vertical blanking period from the video field section.
  • the video data section 24 is assigned to the effective pixel section 21.
  • data of 1920 pixels (pixels) ⁇ 1080 lines of effective pixels (Active Pixel) constituting uncompressed image data for one screen is transmitted.
  • the data island period 25 and the control period 26 are assigned to the horizontal blanking period 22 and the vertical blanking period 23.
  • auxiliary data (Auxiliary Data) is transmitted.
  • the data island section 25 is allocated to a part of the horizontal blanking period 22 and the vertical blanking period 23.
  • audio data packets that are not related to the control among the auxiliary data are transmitted.
  • the control section 26 is allocated to other portions of the horizontal blanking period 22 and the vertical blanking period 23.
  • vertical synchronization signals, horizontal synchronization signals, control packets, and the like, which are data related to control, of auxiliary data are transmitted.
  • FIG. 22 shows an example of media access control.
  • the media access information “data1” is divided and inserted into the three audio frames of the audio stream and sent. By receiving these three audio frames, the entire media access information “data1” is taken into the buffer in the audio decoder 520 and then sent to the CPU 501.
  • a rectangular message field 701 is provided on the screen of the display panel 519 as shown in FIG. 22A, for example, “preparing” is displayed. The user is notified that they are in a state of preparing for media access.
  • the media access information “data2” is divided and inserted into the three audio frames of the audio stream. By receiving these three audio frames, the entire media access information “data2” is taken into the buffer in the audio decoder 520 and then sent to the CPU 501.
  • the identification information “information_id” in the media access information “data2” is “information_id2”, which is different from “information_id1” in the media access information “data1”. Thereby, the CPU 501 knows that the media access information “data2” is not related to the media access information “data1”.
  • a rectangular message field 702 is further provided on the screen of the display panel 519 as shown in FIG. 22B, for example, “preparing” is displayed. , The user is informed that they are in a state of preparing for media access.
  • media access information “data3” is inserted into one audio frame of the audio stream and sent. By receiving this one audio frame, the entire media access information “data3” is taken into the buffer in the audio decoder 520 and then sent to the CPU 501.
  • the identification information “information_id” in the media access information “data3” is “information_id1”, which is the same as “information_id1” in the media access information “data1”.
  • the CPU 501 knows that the media access information “data3” is related to the media access information “data1”.
  • “URL” of the media access information “data1” is used to access a server on the network.
  • information of “ID tables” and “period1” of the media access information “data1” is also sent to the server.
  • This “ID ⁇ ⁇ tables” includes an organization ID (organization_id) (see FIG. 6) in addition to an application ID (applicatio_id), a network ID (network_id), a transport ID (transport_id), and a service ID (service_id). It is.
  • sending the information of “ID tables” indicates that the access is authorized access to the server. Also, by sending the information of “period 1”, the server reproduces the media data portion corresponding to the scene indicated by “period 1” of the audio stream and sends it to the television receiver 500.
  • the rectangular message field 701 on the screen of the display panel 519 displays, for example, “access ready 'Is displayed, and the user is notified that the media is being accessed.
  • a rectangular display field 703 is newly provided on the screen of the display panel 519, and media data sent from the server, here, an image based on video data is displayed in the display field 703.
  • the rectangular message field 702 is then deleted at a predetermined timing.
  • the media access information “data4” is inserted into one audio frame of the audio stream and sent.
  • the entire media access information “data4” is taken into the buffer in the audio decoder 520 and then sent to the CPU 501.
  • the identification information “information_id” in the media access information “data4” is “information_id2”, which is the same as “information_id2” in the media access information “data2”.
  • the CPU 501 knows that the media access information “data4” is related to the media access information “data2”.
  • the “URL” of the media access information “data2” is used to access a server on the network.
  • information of “period 2” of the media access information “data 2” is also sent to the server.
  • the server reproduces the media data portion corresponding to the scene indicated by “period2” of the audio stream and sends it to the television receiver 500.
  • a rectangular message field 702 on the screen of the display panel 519 displays, for example, “access ready” 'Is displayed, and the user is notified that the media is being accessed. Further, a rectangular display field 704 is newly provided on the screen of the display panel 519, and media data sent from the server, here, an image based on video data is displayed in the display field 704. The rectangular message field 702 is subsequently deleted.
  • FIGS. 24A, 24B, 24C, and 24D show information included in the media access information “data1,” “data2,” “data3,” and “data4” in that case, respectively.
  • the media access information “data1” includes “ID table”, “URL”, “period1”, “notification'preparing '”, “information_id1”, “segment # 1”.
  • “Reference TC TC1”
  • “offsettime oft1”
  • target_segment_id segment # 3”
  • UTC1 the media access information
  • the media access information “data3” includes “action command'autostart '”, “notification'access ready'”, “information_id1”, and “segment # 3”. Yes. Also, the media access information “data4” includes “action command'autostart '”, “notification'access ready'”, “information_id2”, and “segment # 4” as shown in FIG. Yes.
  • FIG. 25 shows another example of media access control.
  • the media access information “data1” is divided and inserted into the three audio frames of the audio stream and sent. By receiving these three audio frames, the entire media access information “data1” is taken into the buffer in the audio decoder 520 and then sent to the CPU 501.
  • a rectangular message field 801 is provided on the screen of the display panel 519 as shown in FIG. 25A, for example, “preparing” is displayed. The user is notified that he is in preparation for user selection. Also, on this screen, a plurality of thumbnail images 802 are displayed for allowing the user to select a playback medium based on the information of “UI selection process”.
  • the media access information “data2” is inserted into one audio frame of the audio stream and sent.
  • the entire media access information “data2” is taken into a buffer in the audio decoder 520 and then sent to the CPU 501.
  • the identification information “information_id” in the media access information “data2” is “information_id1”, which is the same as “information_id1” in the media access information “data1”.
  • the CPU 501 knows that the media access information “data2” is related to the media access information “data1”.
  • FIG. 25 (b) for example, “user'selected” is displayed in the rectangular message field 801 on the screen of the display panel 519, and the user can select the playback medium. Will be notified.
  • the thumbnail 802a is selected by the user, and the display state thereof is changed. After the user finishes selecting the playback medium in this way, the rectangular message field 801 and the thumbnail display are erased at a predetermined timing.
  • the media access information “data3” is divided and inserted into the three audio frames of the audio stream. By receiving these three audio frames, the entire media access information “data3” is taken into the buffer in the audio decoder 520 and then sent to the CPU 501.
  • the identification information “information_id” in the media access information “data3” is “information_id1”, which is the same as “information_id1” of the media access information “data1” and “data2”.
  • the CPU 501 knows that the media access information “data3” is related to the media access information “data1” and “data2”.
  • a rectangular message field 803 is further provided on the screen of the display panel 519 as shown in FIG. 25C, for example, “preparing” is displayed. , The user is informed that they are in a state of preparing for media access.
  • the media access information “data4” is inserted into one audio frame of the audio stream and sent.
  • the entire media access information “data4” is taken into the buffer in the audio decoder 520 and then sent to the CPU 501.
  • the identification information “information_id” in the media access information “data4” is “information_id1”, which is the same as “information_id1” of the media access information “data1,” “data2,” and “data3”.
  • the CPU 501 knows that the media access information “data4” is related to the media access information “data1”, “data2”, and “data3”.
  • “URL” of the media access information “data3” is used to access a server on the network.
  • the server has the ID “select_ID” for representing the user selection result related to “ID tables” and “period1” of the media access information “data1” and the media access information “data2”. Is also sent.
  • the rectangular message field 803 of the screen of the display panel 519 includes, for example, “access ready” 'Is displayed, and the user is notified that the media is being accessed.
  • a rectangular display field 804 is newly provided on the screen of the display panel 519, and media data sent from the server, here, an image based on video data is displayed in the display field 804.
  • the rectangular message field 803 is then deleted at a predetermined timing.
  • the 32-bit field of “oganization_id” exists in the universal metadata frame (see FIG. 6). This field indicates an identification value uniquely assigned to an individual service transmitted in the user data area, or a supplier or a standards organization of this service (for example, “ATSC”, “DVB”, etc.). It is conceivable to use this “oganization_id” as check information for checking the provider of media data acquired using the media access information.
  • the television receiver 500 is connected to the Internet. Further, server A (Searver A) and server B (Searver B) are connected to the Internet. In this example, the television receiver 500 accesses the server A by the URL 1 supplied directly or through the set top box 200 by the broadcasting service from the A broadcast wave, and the application (media data) linked to the A broadcast via the Internet is obtained. It is an example in the case of receiving.
  • URL1 is supplied to the television receiver 500 by A broadcast wave.
  • “oganization_id” is added.
  • the television receiver 500 accesses the server A through URL1.
  • the server A performs authentication processing for access from the television receiver 500 and returns an Ack response to the television receiver 500, and notifies the IP address of the television receiver 500 to the server B of URL2 by inter-server access and cooperates. Then, access from the television receiver 500 is transferred to the server B.
  • Server B transmits media reproduction related information to the television receiver 500.
  • This media playback related information is, for example, image information of a plurality of thumbnails for allowing the user to select playback media.
  • the television receiver 500 sends a media playback command to the server B after checking the provider whether the media playback related information is from the same service organization as the “organization_id” received from the A broadcast wave.
  • the television receiver 500 performs this provider check as follows, for example. That is, the television receiver 500 recognizes characters associated with the identification value indicated by “organization_id” received from the A broadcast wave, here “ATSC_ch5_net_sports”, from a table or the like. The character “ATSC_ch5_net_sports” may be associated with the URL 1 received together with “organization_id” from the A broadcast wave.
  • the characters “ATSC_ch5_net_sports” are written in the media playback related information sent from the server B to the television receiver 500, or the URL (for example, http: // Check the provider according to whether the characters “ATSC_ch5_net_sports” are written in the information obtained by accessing with //service.organization.information).
  • the TV receiver 500 sends a media playback command to the server B as described above after confirming that the provider is correct by the provider check.
  • Server B performs media playback in accordance with the media playback command, and transmits media playback data (media data) to television receiver 500.
  • the television receiver 500 performs output based on media reproduction data, for example, image display, audio output, and the like.
  • the broadcast transmission apparatus 100 sequentially inserts a predetermined number of related media access information for a series of media access control into an audio stream (audio compressed data stream). To send. Therefore, a series of media access control can be favorably performed on the receiving side.
  • the broadcast transmission apparatus 100 can divide and insert media access information into a predetermined number of audio frames of an audio stream (audio compressed data stream). Therefore, even if the overall size of the media access information is large, the size of information inserted in each audio frame can be suppressed, and predetermined information can be transmitted satisfactorily without affecting the transmission of audio compression data. it can.
  • the television receiver 500 includes a predetermined number of media access controls that are sequentially inserted into an audio stream together with video data and audio data as first media data.
  • Media access information is acquired, and second media data is acquired based on the media access information. Therefore, it is possible to satisfactorily present the second media data in correspondence with the media presentation using the first media data.
  • the broadcast transmission apparatus 100 inserts information indicating that the encoded stream is prioritized as the audio data transmission format in the transport stream layer as a container. Therefore, in the set top box 200 and the audio amplifier 300, it is possible to prioritize the format of the encoded stream as the audio data transmission format. Accordingly, the media access information can be reliably supplied to the television receiver 500 in a state where the media access information is inserted into the audio stream.
  • the broadcast transmission apparatus 100 is obtained using this media access information for media access information inserted into an audio stream (audio compressed data stream) or a transport stream as a container.
  • Check information for example, “oganization_id”, etc.
  • the provider of media data acquired using the media access information can be easily and easily checked based on this check information.
  • the broadcast transmission apparatus 100 sequentially inserts and transmits a predetermined number of media access information related to a series of media access control into an audio stream (audio compressed data stream).
  • the broadcast transmission apparatus 100 sequentially inserts and transmits a predetermined number of media access information into other media streams such as a video stream.
  • the broadcast transmission apparatus 100 sequentially inserts a predetermined number of media access information into the transport stream TS layer as a container and transmits it.
  • FIG. 28 shows a configuration example of the stream generation unit 110A included in the broadcast transmission device 100 in that case.
  • the stream generation unit 110A includes a control unit 111, a video encoder 112, an audio encoder 113A, and a multiplexer 114A.
  • the audio data SA is encoded by the MPEG-H 3D Audio compression format, and an audio stream (audio compressed data stream) is generated.
  • the media access information is not inserted into the audio stream.
  • the video stream generated by the video encoder 112 is supplied to the multiplexer 114A.
  • the audio stream generated by the audio encoder 113A is supplied to the multiplexer 114A.
  • the streams supplied from the encoders are packetized and multiplexed, and a transport stream TS is obtained as transmission data.
  • a predetermined number of media access information related to a series of media access control is sequentially transferred to the transport stream TS layer as a container as container target data. Inserted.
  • a newly defined application descriptor (Application_descriptor) having media access information is inserted under an application information table (AIT: Application Information Table).
  • FIG. 29 shows a structure example (Syntax) of the application descriptor.
  • An 8-bit field of “descriptor_tag” indicates a descriptor type. Here, the application descriptor is indicated.
  • the 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.
  • the 8-bit field of “data_id” indicates the ID of the media access information. This is the same information as the “data_id” field in the above-described universal metadata frame (see FIG. 6). Following the “data_id” field, there is a field of access information data (Access_information_data ()) (see FIG. 7-9) having media access information.
  • FIG. 30 shows a structural example of the transport stream TS when an application descriptor (Application_descriptor) is inserted under the AIT.
  • an audio stream (Audio coded stream) is inserted into the PES payload of the PES packet of the audio stream.
  • access information data (Access_information_data ()) including media access information (container target data) is not inserted into this audio stream.
  • the transport stream TS includes an AIT (Application Information Table) in addition to the PMT (Program Map Table).
  • AIT Application Information Table
  • PMT Program Map Table
  • an application descriptor is arranged together with an application identifier (Application_id).
  • FIG. 31 shows a configuration example of the set-top box 200A when the media access information is inserted into the transport stream TS layer as a container and sent as described above.
  • the set top box 200A includes a CPU 201, a flash ROM 202, a DRAM 203, an internal bus 204, a remote control receiving unit 205, and a remote control transmitter 206.
  • the set-top box 200A includes an antenna terminal 211, a digital tuner 212, a demultiplexer 213A, a video decoder 214, a data insertion unit 218, an audio framing unit 215, an HDMI transmission unit 216, and an HDMI terminal 217. have.
  • the demultiplexer 213 extracts audio stream packets from the transport stream TS, and reconstructs an audio stream (audio compressed data stream). Further, the demultiplexer 213A extracts various descriptors from the transport stream TS and sends them to the CPU 201. This descriptor includes an application descriptor (see FIG. 29) having media access information.
  • the audio stream extracted by the demultiplexer 213A is supplied to the data insertion unit 218.
  • the data insertion unit 218 is supplied with predetermined information from the CPU 201.
  • media access information is inserted into the audio stream under the control of the CPU 201.
  • the media access information is divided and inserted into a predetermined number (including 1) of audio frames of the audio stream (see FIGS. 13-15).
  • information indicating the overall size of the media access information is added to the first division information.
  • a count number in descending order as information indicating whether or not it is the first division information and information indicating the division position is added to each division information.
  • the number of divisions is determined so that the bit rate of the audio stream into which the media access information is inserted falls within the HDMI transmission band capacity range.
  • the entire media access information may be inserted into one audio frame without being divided.
  • the audio stream in which the media access information from the data insertion unit 218 is inserted is framed by the audio framing unit 215 and then supplied to the HDMI transmission unit 216.
  • the other configuration of the set top box 200A shown in FIG. 31 is the same as that of the set top box 200 shown in FIG.
  • the media access information when the media access information is inserted into the layer of the transport stream TS as a container and sent, for example, in the television receiver 500 shown in FIG.
  • the application descriptor possessed (see FIG. 29) is extracted, and the media access information can be used.
  • the set-top box 200 is configured to receive a video stream and an audio stream from a broadcast signal from the broadcast transmission device 100.
  • the set top box 200 may be configured to receive a video stream and an audio stream from a distribution server (streaming server) via a network.
  • a distribution server streaming server
  • the container is a transport stream (MPEG-2 TS)
  • MPEG-2 TS transport stream
  • the present technology can be similarly applied to a system distributed in a container of MP4 or other formats.
  • MMT MPEG-Media-Transport
  • FIG. 32 shows an example of the structure of an MMT stream when media access information (container target data) is inserted into an audio stream and sent.
  • MMT packets of assets such as video and audio.
  • MMT packet of the audio asset identified by ID2 there is an MMT packet of the audio asset identified by ID2 together with an MMT packet of the video asset identified by ID1.
  • Access information data (Access_information_data ()) including media access information is inserted into the universal metadata frame (universal_metadata_frame ()) in a predetermined number (including 1) of audio frames (including 1) of audio assets Has been.
  • message packets such as PA (Packet Access) message packets exist in the MMT stream.
  • the PA message packet includes a table such as an MMT packet table (MMT Package Table).
  • MMT Package Table MMT packet table
  • the MP table includes information for each asset.
  • audio streaming descriptors (see FIG. 12A) are also included as audio asset information.
  • FIG. 33 shows an example of the structure of an MMT stream when media access information (container target data) is inserted into a container and sent.
  • media access information container target data
  • the MMT stream there are MMT packets of assets such as video and audio.
  • MMT packets of assets such as video and audio.
  • media access information is not included in an audio asset (audio stream).
  • message packets such as PA (Packet Access) message packets exist in the MMT stream.
  • the PA message packet includes an MMT packet table (MPT: MMT Package Table) and the like.
  • the MPT includes information for each asset.
  • the PA message packet includes an application information table (AIT). Under this AIT, an application descriptor (Application_descriptor) having access information data (Access_information_data ()) is inserted.
  • AIT application information table
  • the audio compression format is MPEG-H 3D Audio.
  • the present technology can be similarly applied when the audio compression format is another audio compression format such as AAC, AC3, or AC4.
  • FIG. 34 (a) shows the structure of the AC4 Simple Transport layer.
  • a sync word field As shown in FIG. 34B, there is a TOC (Table Of Content) field at the head, and a predetermined number of substream (Substream) fields thereafter.
  • TOC Table Of Content
  • a metadata area exists in the substream (ac4_substream_data ()), and a field of “umd_payloads_substream ()” is provided therein.
  • Universal data (universal_data ()) is placed in the "umd_payload_byte” field in the "umd_payloads_substream ()" field.
  • FIG. 36 shows a structure example (syntax) of universal data
  • FIG. 37 shows contents (semantics) of main information in the structure example.
  • a 1-bit field of “start_flag” indicates whether or not the container target data starts. “1” indicates that the packet is started, and “0” indicates that the packet is not started.
  • the 7-bit field of “fcounter” indicates the division position of the divided container target data in descending count number. “0” indicates the last divided portion. When “start_flag” is “1” and “fcounter” is “0”, it indicates that no division is performed.
  • start_flag When “start_flag” is “1”, there is a 32-bit field of “organization_id” and a 16-bit field of “target_data_size”.
  • the field of “organization_id” indicates an identification value uniquely assigned to an individual service transmitted in the user data area, or a provider or standard organization of this service (for example, “ATSC”, “DVB”, etc.).
  • the field “target_data_size” indicates the data size before division of the container target data in bytes.
  • the entire access information data (Access_information_data ()) (see FIG. 7) or a part thereof (partition information) is inserted in the field of “data_payload_byte”.
  • an AC4 data container descriptor (AC4_datacontainer_desucriptor) is inserted into the container layer.
  • FIG. 38 shows a structural example (syntax) of the AC4 / data container / descriptor
  • FIG. 39 shows contents (semantics) of main information in the structural example.
  • An 8-bit field of “descriptor_tag” indicates a descriptor type. Here, the application descriptor is indicated.
  • the 8-bit field of “descriptor_length” indicates the length (size) of the descriptor, and indicates the number of subsequent bytes as the length of the descriptor.
  • “1-bit field of“ umd_payload_embedded ” indicates whether or not a UMD payload is inserted. “1” indicates that a UMD payload is inserted, and “0” indicates that a UMD payload is not inserted.
  • “umd_payload_embedded” is “1”, there is a 5-bit field of “umd_payload_id” and an 11-bit field of “audio_stream_rate”.
  • the “umd_payload_id” field indicates the identification value of the UMD payload. A specific value is defined as this identification value. For example, “7” indicates that the format is a universal data container.
  • the “audio_stream_rate” field indicates the delivery bit rate of the audio stream.
  • FIG. 40 shows an example structure of an MPEG-2 TS transport stream when the audio compression format is AC4.
  • the portion related to the video stream is omitted.
  • the PES packet includes a PES header (PES_header) and a PES payload (PES_payload). DTS and PTS time stamps are inserted in the PES header.
  • the audio stream (Audio coded stream) is inserted into the PES payload of the PES packet of the audio stream.
  • Access information data (Access_information_data ()) including media access information (container target data) in universal metadata (universal_metadata ()) in a predetermined number (including 1) of substreams of this audio stream (FIG. 7) -See FIG. 9) is inserted.
  • the transport stream of MPEG-2 TS includes a PMT (Program Map Table) as PSI (Program Specific Information).
  • PSI is information describing to which program each elementary stream included in the transport stream belongs.
  • the PMT has a program loop (Program ⁇ ⁇ ⁇ loop) that describes information related to the entire program.
  • an elementary stream loop having information related to each elementary stream.
  • an audio elementary stream loop (audio ES loop) corresponding to the audio stream.
  • information such as stream type and PID (packet identifier) is arranged corresponding to the audio stream, and a descriptor describing information related to the audio stream is also arranged.
  • the value of the stream type “Stream_type” is set to “0x2C”, and the PID information indicates PID1 assigned to the PES packet “audio PES” of the audio stream as described above.
  • the above-described AC4 / data container / descriptor is arranged.
  • an event information table exists in the transport stream of MPEG-2 TS.
  • a component descriptor (component descriptor) is arranged under the EIT. This component descriptor describes that the service includes meta information for net connection.
  • FIG. 41 shows an example of the structure of an MMT transport stream when the audio compression format is AC4.
  • a portion related to a video asset (video stream) is omitted.
  • an MMT packet of an audio asset (audio stream) identified by ID2.
  • Access information data including media access information (container target data) in universal metadata (universal_metadata ()) in a predetermined number (including 1) of substreams of audio assets (audio streams) ) (See FIGS. 7-9) is inserted.
  • message packets such as PA (Packet Access) message packets exist in the MMT transport stream.
  • the PA message packet includes a table such as an MP table (MPT: MMT Package Table).
  • MPT MMT Package Table
  • information such as an asset type (Asset_type) and a packet ID (Packet_id) is arranged corresponding to an audio asset, and a descriptor describing information related to the audio asset is also arranged.
  • Asset_type asset type
  • Packet_id packet ID
  • the above-described AC4 data container descriptor is arranged.
  • EIT Event Information Table
  • component descriptor component descriptor
  • This component descriptor describes that the service includes meta information for net connection.
  • FIG. 42 shows a configuration example of an MP4 stream (file) including audio track (track A) data when the audio compression format is AC4.
  • the illustrated example is an example in the case of fragmented MP4 (Fragmented MP4).
  • a predetermined number of movie fragments (Movie Fragment) configured by a “moof” box containing control information and an “mdat” box containing media data itself are arranged. Since the “mdat” box contains a fragment obtained by fragmenting the track data, the control information entering the “moof” box is control information related to the fragment.
  • tfdt exists in the “moof” box
  • an “sgpd” box exists in the box
  • a “tscl” box exists in the box.
  • parameters of “Audiostreamtype” and “Attribute” are described.
  • the contents of the AC4 data container descriptor shown in FIG. 38 are described as “soundumd”.
  • FIG. 43 shows an MPD file description example.
  • FIG. 44 shows the contents of main information in the description example.
  • a media stream (MP4 stream) and an MPD file as a metafile are transmitted to a receiving side through a communication network transmission path.
  • the set top box 200 and the television receiver 500 are connected via an HDMI cable 610.
  • the set top box 200 is the source, and the television receiver 500 is the destination.
  • the audio amplifier 300 and the television receiver 500 are connected via an HDMI cable 620.
  • the audio amplifier 300 is a source and the television receiver 500 is a destination.
  • an audio stream into which uncompressed video data and media access information (container target data) are inserted is transmitted from the set-top box 200 to the television receiver 500 through an HDMI digital interface.
  • the audio stream itself or decoded audio data is transmitted from the television receiver 500 to the audio amplifier 300 using the HDMI audio return channel.
  • the transmission / reception system 10 including the set-top box 200 and the television receiver 500 is shown.
  • a configuration in which a monitor device, a projector, or the like is arranged instead of the television receiver 500 is also conceivable.
  • a configuration in which a recorder with a reception function, a personal computer, and the like are arranged instead of the set top box 200 is also conceivable.
  • each device on the receiving side is connected by wire via an HDMI digital interface.
  • the present invention can be similarly applied to the case where each device is connected by wire with a digital interface similar to HDMI, and even when connected by wireless.
  • the transmission / reception system 10 that receives the transport stream TS transmitted on the broadcast wave from the broadcast transmission apparatus 100 by the set-top box 200 is shown.
  • a transmission / reception system 10B that directly receives a transport stream TS transmitted from a broadcast transmission apparatus 100 on a broadcast wave by a television receiver 500 is also conceivable.
  • this technique can also take the following structures.
  • a transmission unit that transmits a container in a predetermined format including a media stream;
  • a transmission apparatus comprising: an information insertion unit that sequentially inserts a predetermined number of related media access information for a series of media access control into the media stream layer or the container layer.
  • the media access information includes identification information for distinguishing from other media access information.
  • the media access information includes identification information for associating with other media access information.
  • the transmission device according to any one of (1) to (3), wherein the media access information includes period information indicating a corresponding scene in the media stream.
  • the transmission device includes user interface information for allowing a user to select a reproduction medium.
  • the media access information includes time information for managing activation of an action command.
  • the media access information includes absolute time information indicating a time limit for media playback.
  • the media access information includes notification information for notifying a user of a state.
  • the information insertion unit Each of the division information obtained by dividing the media access part can be inserted into a predetermined number of unit parts of the media stream.
  • the media stream is an audio compressed data stream
  • a first acquisition unit that acquires first media data and sequentially acquires a predetermined number of media access information for a series of media access control
  • a second acquisition unit that acquires second media data related to the first media data based on the media access information
  • a media processing apparatus comprising a presentation processing unit that performs media presentation processing based on the first media data and the second media data.
  • the first acquisition unit includes: A receiving unit for receiving a container of a predetermined format including a media stream; The media access information is inserted into the media stream layer or the container layer, The first acquisition unit includes A decoding processing unit that performs decoding processing on the media stream to obtain the first media data; The media processing device according to (12), further including an information extraction unit that extracts the media access information from the media stream layer or the container layer.
  • the first acquisition unit includes: A receiver that receives the video data as the first media data and the audio compressed data stream in which the media access information is inserted from an external device via a digital interface; A decoding processing unit that performs decoding processing on the audio compressed data stream to obtain audio data as the first media data; The media processing device according to (12), further including an information extraction unit that extracts the media access information from the audio compressed data stream.
  • the first acquisition unit acquires first media data and sequentially acquires a predetermined number of related media access information for a series of media access control corresponding to the first media data.
  • a receiving unit that receives a container in a predetermined format including a media stream, A predetermined number of related media access information for a series of media access control is sequentially inserted into the media stream layer or the container layer, A decoding processing unit that performs decoding processing on the media stream to obtain first media data; An information extractor for extracting the media access information from the media stream layer or the container layer; A media data acquisition unit that acquires second media data based on the media access information;
  • a receiving device comprising: a presentation processing unit that performs a media presentation process using the first media data and the second media data.
  • a receiving unit that receives, via a digital interface, an audio compressed data stream in which video data as first media data and a predetermined number of media access information for a series of media access control are sequentially inserted; , A decoding processing unit that performs decoding processing on the audio compressed data stream to obtain audio data as the first media data; An information extractor for extracting the media access information from the audio compressed data stream; A media data acquisition unit that acquires second media data based on the media access information; A receiving device comprising: a presentation processing unit that performs a media presentation process using the first media data and the second media data.
  • a transmission unit that transmits a container in a predetermined format including an audio encoded stream in which predetermined information is inserted;
  • a transmission apparatus comprising: an information insertion unit configured to insert information indicating that a coded stream is given priority as a transmission format of audio data in the container layer.
  • the predetermined information is a predetermined number of related media access information for a series of media access control.
  • a transmission method comprising: an information insertion step of inserting information indicating that a coded stream is prioritized as a transmission format of audio data into the container layer.
  • a transmission unit that transmits a container in a predetermined format including a media stream; An information insertion unit for inserting media access information in the media stream layer or the container layer by adding check information for checking a provider of media data acquired using the media access information.
  • Transmitter device Transmitter device.
  • the above check information is The transmission device according to (21), wherein the transmission device is an identification value uniquely assigned to an individual service based on the media access information, or a supplier or a standard organization of the service.
  • a media access information acquisition unit for acquiring media access information; Check information for checking a provider of media data acquired using the media access information is added to the media access information, A media data acquisition unit for acquiring media data based on the media access information; A media processing apparatus further comprising a provider check unit that checks a provider of the acquired media data based on the check information.
  • a media processing method further comprising a provider check step for checking a provider of the acquired media data based on the check information.
  • the main feature of the present technology is that a predetermined number of media access information related to a series of media access control is sequentially inserted into a media stream layer or a container layer and transmitted, so that a series of media is received at the receiving side. Access control can be performed satisfactorily (see FIGS. 6-11 and 16).
  • 10, 10A, 10B Transmission / reception system 21: Effective pixel section 22 ... Horizontal blanking period 23 ... Vertical blanking period 24 ... Video data section 25 ... Data island section 26 ... ⁇ Control section 31 ... HDMI transmitter 32 ... HDMI receiver 33 ... DDC 34 ... CEC line 35 ... HPD line 36 ... Power supply line 37 ... Reserved line 100 ... Broadcast sending device 110, 110A ... Stream generation unit 111 ... Control unit 111a ... CPU DESCRIPTION OF SYMBOLS 112 ... Video encoder 113, 113A ... Audio encoder 113a ... Audio encoding block part 113b ... Audio framing part 114, 114A ... Multiplexer 200, 200A ...
  • Set top box (STB) 201 ... CPU 202 ... Flash ROM 203 ... DRAM 204 ... Internal bus 205 ... Remote control receiver 206 ... Remote control transmitter 211 ... Antenna terminal 212 ... Digital tuner 213, 213A ... Demultiplexer 214 ... Video decoder 215 ... Audio framing unit 216 ... HDMI transmission unit 217 ... HDMI terminal 218 ... Data insertion unit 300 ... Audio amplifier (AMP) 301 ... CPU 302 ... Flash ROM 303 ... DRAM 304 ... Internal bus 305 ... Remote control receiver 306 ... Remote control transmitter 311 ... HDMI terminal 312 ... HDMI receiver 313 ... Audio decoder 314 ... Audio processing circuit 315 ...

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

受信側において一連のメディアアクセス制御を良好に行い得るようにする。 メディアストリームを含む所定フォーマットのコンテナを送信する。メディアストリームのレイヤまたはコンテナのレイヤに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を順次挿入する。例えば、メディアアクセス情報には、他のメディアアクセス情報と区別するための識別情報や他のメディアアクセス情報と関連付け行うための識別情報が含まれる。

Description

送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置
 本技術は、送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置に関し、特に、ビデオ、オーディオなどのメディアストリームと共にメディアアクセス情報を送信する送信装置等に関する。
 例えば、特許文献1には、放送局、配信サーバ等から所定の情報をオーディオ圧縮データストリームに挿入して送信し、受信側のセットトップボックスがこのオーディオ圧縮データストリームをそのままHDMIのデジタルインタフェースを介してテレビ受信機に送信し、テレビ受信機が当該所定の情報を利用した情報処理を行うことが提案されている。
特開2012-010311号公報
 本技術の目的は、受信側において一連のメディアアクセス制御を良好に行い得るようにすることにある。
 本技術の概念は、
 メディアストリームを含む所定フォーマットのコンテナを送信するストリーム送信部と、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を順次挿入する情報挿入部を備える
 送信装置にある。
 本技術において、送信部により、メディアストリームを含む所定フォーマットのコンテナが送信される。情報挿入部により、メディアストリームのレイヤまたはコンテナのレイヤに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報が順次挿入される。
 例えば、メディアアクセス情報には、他のメディアアクセス情報と区別するための識別情報が含まれる、ようにされてもよい。この識別情報により、受信側では、各メディアアクセス情報の区別が容易となる。
 また、例えば、メディアアクセス情報には、他のメディアアクセス情報と関連付け行うための識別情報が含まれる、ようにされてもよい。この識別情報により、受信側では、関連したメディアアクセス情報の確認が容易となる。
 また、例えば、メディアアクセス情報には、メディアストリームにおける対応シーンを示す期間情報が含まれる、ようにされてもよい。この期間情報により、受信側では、メディアストリームにおける対応シーンに関連したメディアデータを取得することが容易となる。
 また、例えば、ユーザに再生メディアを選択させるためのユーザインタフェース情報が含まれる、ようにされてもよい。このユーザインタフェース情報により、受信側では、ユーザに所望の再生メディアを選択させることが可能となる。
 また、例えば、メディアアクセス情報には、アクションコマンドの起動を管理するための時刻情報が含まる、ようにされてもよい。この時刻情報により、アクションコマンドの起動タイミングのフレキシブルな管理が可能となる。
 また、例えば、メディアアクセス情報には、メディア再生の期限を示す絶対時刻情報が含まれる、ようにされてもよい。この絶対時刻情報により、受信側におけるメディア再生の期限を設けることが可能となる。
 また、例えば、メディアアクセス情報には、状態をユーザに知らせるための通知情報が含まれる、ようにされてもよい。この通知情報により、受信側では、ユーザに状態を適切に知らせることが可能となる。
 また、例えば、情報挿入部は、メディアストリームの所定数の単位部分に、メディアアクセス部分が分割されて得られた各分割情報のそれぞれを挿入することが可能とされる、ようにされてもよい。この場合、例えば、メディアストリームは、オーディオ圧縮データストリームであり、情報挿入部は、単位部分としてのオーディオフレームのユーザデータ領域に分割情報を挿入する、ようにされてもよい。このように分割挿入が可能とされることで、メディアアクセス報の全体サイズが大きくても個々のメディアフレームに挿入される情報サイズを抑えることができ、メディアデータの送信に影響を与えることなくメディアアクセス情報の送信を良好に行うことが可能となる。
 このように本技術においては、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報がメディアストリームのレイヤまたはコンテナのレイヤに順次挿入されて送信される。そのため、受信側において一連のメディアアクセス制御を良好に行うことが可能となる。
 また、本技術の他の概念は、
 第1のメディアデータを取得すると共に、一連のメディアアクセス制御のための所定数のメディアアクセス情報を順次取得する第1の取得部と、
 上記メディアアクセス情報に基づいて上記第1のメディアデータに関連した第2のメディアデータを取得する第2の取得部と、
 上記第1のメディアデータおよび上記第2のメディアデータによるメディアの提示処理を行う提示処理部を備える
 メディア処理装置にある。
 本技術において、第1の取得部により、第1のメディアデータが取得されると共に、一連のメディアアクセス制御のための所定数のメディアアクセス情報が順次取得される。
 例えば、第1の取得部は、メディアストリームを含む所定フォーマットのコンテナを受信する受信部を有し、メディアストリームのレイヤまたはコンテナのレイヤにメディアアクセス情報が挿入されており、第1の取得部は、メディアストリームにデコード処理を施して第1のメディアデータを得るデコード処理部と、メディアストリームのレイヤまたはコンテナのレイヤからメディアアクセス情報を抽出する情報抽出部をさらに有する、ようにされてもよい。
 また、例えば、第1の取得部は、第1のメディアデータとしてのビデオデータとメディアアクセス情報が挿入されたオーディオ圧縮データストリームを外部機器からデジタルインタフェースを介して受信する受信部と、オーディオ圧縮データストリームにデコード処理を施して第1のメディアデータとしてのオーディオデータを得るデコード処理部と、オーディオ圧縮データストリームからメディアアクセス情報を抽出する情報抽出部を有する、ようにされてもよい。
 第2の取得部により、メディアアクセス情報に基づいて第1のメディアデータに関連した第2のメディアデータが取得される。そして、提示処理部により、第1のメディアデータおよび第2のメディアデータによるメディアの提示処理が行われる。
 このように本技術においては、第1のメディアデータと共に一連のメディアアクセス制御のための所定数のメディアアクセス情報が順次取得され、このメディアアクセス情報に基づいて第2のメディアデータが取得される。そのため、第1のメディアデータによるメディアの提示に対応させて第2のメディアデータによる提示を行うことが可能となる。
 また、本技術の他の概念は、
 メディアストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤに一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報が順次挿入されており、
 上記メディアストリームをデコードして第1のメディアデータを得るデコード処理と、上記メディアアクセス情報に基づいて第2のメディアデータを取得するメディアデータ取得処理と、上記第1のメディアデータおよび上記第2のメディアデータによるメディア提示をするメディア提示処理を制御する制御部を備える
 受信装置にある。
 本技術においては、
 受信部により、メディアストリームを含む所定フォーマットのコンテナが受信される。メディアストリームのレイヤまたはコンテナのレイヤに一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報が順次挿入されている。制御部により、デコード処理、メディアデータ取得処理およびメディア提示処理が制御される。
 デコード処理では、メディアストリームがデコードされて第1のメディアデータが得られる。メディアデータ取得処理では、メディアアクセス情報に基づいて第2のメディアデータが取得される。そして、メディア提示処理では、第1のメディアデータおよび第2のメディアデータによるメディア提示が行われる。
 このように本技術においては、第1のメディアデータと共に一連のメディアアクセス制御のための所定数のメディアアクセス情報が順次取得され、このメディアアクセス情報に基づいて第2のメディアデータが取得される。そのため、第1のメディアデータによるメディアの提示に対応させて第2のメディアデータによる提示を行うことが可能となる。
 また、本技術の他の概念は、
 第1のメディアデータとしてのビデオデータと一連のメディアアクセス制御のための所定数のメディアアクセス情報が順次挿入されたオーディオ圧縮データストリームを外部機器からデジタルインタフェースを介して受信する受信部と、
 上記オーディオ圧縮データストリームをデコードして上記第1のメディアデータとしてのオーディオデータを得るデコード処理と、上記メディアアクセス情報に基づいて第2のメディアデータを取得するメディアデータ取得処理と、上記第1のメディアデータおよび上記第2のメディアデータによるメディア提示をするメディア提示処理を制御する制御部を備える
 受信装置にある。
 本技術において、受信部により、第1のメディアデータとしてのビデオデータと一連のメディアアクセス制御のための所定数のメディアアクセス情報が順次挿入されたオーディオ圧縮データストリームが外部機器からデジタルインタフェースを介して受信される。制御部により、デコード処理、メディアデータ取得処理およびメディア提示処理が制御される。
 デコード処理では、オーディオ圧縮データストリームがデコードされて第1のメディアデータとしてのオーディオデータが得られる。メディアデータ取得処理では、メディアアクセス情報に基づいて第2のメディアデータが取得される。そして、メディア提示処理では、第1のメディアデータおよび第2のメディアデータによるメディア提示が行われる。
 このように本技術においては、第1のメディアデータと共に一連のメディアアクセス制御のための所定数のメディアアクセス情報が順次取得され、このメディアアクセス情報に基づいて第2のメディアデータが取得される。そのため、第1のメディアデータによるメディアの提示に対応させて第2のメディアデータによる提示を行うことが可能となる。
 また、本技術の他の概念は、
 所定の情報が挿入されたオーディオ符号化ストリームを含む所定フォーマットのコンテナを送信する送信部と、
 上記コンテナのレイヤに、オーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることを示す情報を挿入する情報挿入部を備える
 送信装置にある。
 本技術においては、送信部により、所定の情報が挿入されたオーディオ符号化ストリームを含む所定フォーマットのコンテナが送信される。例えば、所定の情報は、所定の情報は、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報である、ようにされてもよい。情報挿入部により、コンテナのレイヤに、オーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることを示す情報が挿入される。
 このように本技術においては、コンテナのレイヤにオーディオデータの伝送フォーマットとして符号化ストリームを優先させることを示す情報が挿入される。そのため、受信側においてオーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることが可能となり、符号化ストリームに挿入された所定の情報を受信機器から外部機器(デスティネーション機器)に確実に供給させることが可能となる。
 また、本技術の他の概念は、
 メディアストリームを含む所定フォーマットのコンテナを送信する送信部と、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤに、メディアアクセス情報を、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報を付加して挿入する情報挿入部を備える
 送信装置にある。
 本技術においては、送信部により、メディアストリームを含む所定フォーマットのコンテナが送信される。情報挿入部により、メディアストリームのレイヤまたはコンテナのレイヤに、メディアアクセス情報が挿入される。このメディアアクセス情報には、このメディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報が付加されている。例えば、チェック情報は、メディアアクセス情報による個々のサービス、あるいはこのサービスの供給元または規格団体に固有に割り当てられる識別値である、ようにされてもよい。
 このように本技術においては、メディアストリームのレイヤまたはコンテナのレイヤに挿入されるメディアアクセス情報に、このメディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報が付加される。そのため、受信側においては、メディアアクセス情報を用いて取得されるメディアデータの提供元を簡単かつ容易にチェックすることが可能となる。
 また、本技術の他の概念は、
 メディアアクセス情報を取得するメディアアクセス情報取得部を備え、
 上記メディアアクセス情報には、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報が付加されており、
 上記メディアアクセス情報に基づいてメディアデータを取得するメディアデータ取得部と、
 上記取得されたメディアデータの提供元を上記チェック情報に基づいてチェックする提供元チェック部をさらに備える
 メディア処理装置にある。
 本技術において、メディアアクセス情報取得部により、メディアアクセス情報が取得される。このメディアアクセス情報には、このメディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報が付加されている。メディアデータ取得部により、メディアアクセス情報に基づいてメディアデータが取得される。そして、提供元チェック部により、チェック情報に基づいて、取得されたメディアデータの提供元がチェックされる。
 このように本技術においては、メディアアクセス情報に付加されているチェック情報に基づいて、メディアアクセス情報を用いて取得されるメディアデータの提供元がチェックされる。そのため、メディアアクセス情報を用いて取得されるメディアデータの提供元を簡単かつ容易にチェックすることが可能となる。
 本技術によれば、受信側において一連のメディアアクセス制御を良好に行い得る。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
実施の形態としての送受信システムの構成例を示すブロック図である。 メディアアクセス情報を分割して送信することによる効果を説明するための図である。 放送送出装置が備えるストリーム生成部の構成例を示すブロック図である。 MPEG-H 3D Audioの伝送データにおけるオーディオフレームの構造例を示す図である。 エクステンションエレメントのタイプとその値の対応関係を示す図である。 ユニバーサル・メタデータをエクステンションエレメントとして含むユニバーサル・メタデータ・フレームの構成例を示す図である。 メディアアクセス情報を持つアクセス・インフォメーション・データの構成例を示す図(1/3)である。 メディアアクセス情報を持つアクセス・インフォメーション・データの構成例を示す図(2/3)である。 メディアアクセス情報を持つアクセス・インフォメーション・データの構成例を示す図(3/3)である。 ユニバーサル・メタデータ・フレームおよびアクセス・インフォメーション・データにおける主要な情報の内容を示す図(1/2)である。 ユニバーサル・メタデータ・フレームおよびアクセス・インフォメーション・データにおける主要な情報の内容を示す図(2/2)である。 オーディオ・ストリーミング・デスクリプタの構造例と、その構造例における主要な情報の内容を示す図である。 コンテナ対象データが複数のユニバーサル・メタデータ・フレームで伝送される場合の例を示す図である。 コンテナ対象データが1つのユニバーサル・メタデータ・フレームで伝送される場合の例を示す図である。 複数のコンテナ対象データが複数のユニバーサル・メタデータ・フレームで伝送される場合の例を示す図である。 メディアアクセス情報(コンテナ対象データ)をオーディオストリームに挿入して送る場合におけるトランスポートストリームTSの構造例を示す図である。 セットトップボックスの構成例を示すブロック図である。 オーディオアンプの構成例を示すブロック図である。 テレビ受信機の構成例を示すブロック図である。 HDMI送信部とHDMI受信部の構成例を示すブロック図である。 TMDSチャネルで画像データが伝送される場合の各種の伝送データの区間を示す図である。 メディアアクセス制御の一例を示す図である。 各メディアアクセス情報に含まれる情報の一例を示す図である。 各メディアアクセス情報に含まれる情報の他の一例を示す図である。 メディアアクセス制御の一例を示す図である。 各メディアアクセス情報に含まれる情報の一例を示す図である。 メディアアクセス情報を用いて取得されたメディアデータの提供元のチェック例を説明するための図である。 放送送出装置が備えるストリーム生成部の他の構成例を示すブロック図である。 アプリケーション・デスクリプタの構造例を示す図である。 メディアアクセス情報(コンテナ対象データ)をコンテナに挿入して送る場合におけるトランスポートストリームTSの構造例を示す図である。 セットトップボックスの他の構成例を示すブロック図である。 メディアアクセス情報(コンテナ対象データ)をオーディオストリームに挿入して送る場合におけるMMTストリームの構造例を示す図である。 メディアアクセス情報(コンテナ対象データ)をコンテナに挿入して送る場合におけるMMTストリームの構造例を示す図である。 AC4のシンプルトランスポート(Simple Transport)のレイヤの構造を示す図である。 TOC(ac4_toc())およびサブストリーム(ac4_substream_data())の概略構成を示す図である。 ユニバーサル・データの構造例を示す図である。 ユニバーサル・データの構造例における主要な情報の内容を示す図である。 AC4・データコンテナ・デスクリプタの構造例を示す図である。 AC4・データコンテナ・デスクリプタの構造例における主要な情報の内容を示す図である。 オーディオ圧縮フォーマットがAC4である場合におけるMPEG-2 TSのトランスポートストリームの構造例を示す図である。 オーディオ圧縮フォーマットがAC4である場合におけるMMTのトランスポートストリームの構造例を示す図である。 オーディオ圧縮フォーマットがAC4である場合におけるオーディオトラックのデータを含むMP4ストリーム(ファイル)の構成例を示す図である。 MPDファイル記述例を示す図である。 MPDファイル記述例における主要な情報の内容を示す図である。 送受信システムの他の構成例を示すブロック図である。 送受信システムのさらに他の構成例を示すブロック図である。
 以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
 1.実施の形態
 2.変形例
 <1.実施の形態>
 [送受信システムの構成例]
 図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、放送送出装置100と、セットトップボックス(STB)200と、オーディオアンプ(AMP)300と、テレビ受信機(TV)500を有している。オーディオアンプ300には、マルチチャネル用のスピーカシステム400が接続されている。
 セットトップボックス200とオーディオアンプ300は、HDMIケーブル610を介して接続されている。この場合、セットトップボックス200がソースで、オーディオアンプ300はディスティネーションである。また、オーディオアンプ300とテレビ受信機500は、HDMIケーブル620を介して接続されている。この場合、オーディオアンプ300がソースで、テレビ受信機500はディスティネーションである。なお、「HDMI」は登録商標である。
 放送送出装置100は、トランスポートストリームTSを、放送波に載せて送信する。このトランスポートストリームTSには、ビデオストリームおよびオーディオストリーム(オーディオ圧縮データストリーム、オーディオ符号化ストリーム)が含まれる。放送送出装置100は、オーディオストリームに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報をコンテナ対象データとして順次挿入する。
 各メディアアクセス情報には、他のメディアアクセス情報と区別するための識別情報「data_id」と、他のメディアアクセス情報と関連付けを行うための識別情報「information_id」が含まれる。
 また、各メディアアクセス情報には、IDテーブル(ID_tables)、アクセスインフォメーション(access information)、アクションコマンド(action command)、ノーティフィケーション(notification)、ピリオド(period)、リファレンスタイムコード(reference time process)、オフセットタイム(offset_time)、ユニバーサルタイムコード(UTC:universal time code)、UIセレクションプロセス(UI selection code)などの情報が選択的に含まれる。
 IDテーブル(ID_tables)には、アプリケーションID(applicatio_id)、ネットワークID(network_id)、トランスポートID(transport_id)、サービスID(service_id)などが含まれる。アプリケーションIDは、例えば、ハイブリットサービス(hybrid service)を示すものとされる。ネットワークIDは、オリジナルネットワークIDである。トランスポートIDは、関連付けする対象のトランスポートIDである。サービスIDは、関連付けするサービス情報IDである。このIDテーブル内の各IDと、ATSC、DVBなどを示すオーガナイゼーションID(organization_id)は、放送波供給されるサービスの識別情報を構成している。
 アクセスインフォメーション(access information)は、アクセス先のURLを示す。アクションコマンド(action command)は、オートスタート(autostart)、マニュアルスタート(manual_start)などのアクションを起動させるためのコマンドである。ノーティフィケーション(notification)は、ユーザに状態を通知するための通知情報(メッセージ)を示す。ピリオド(period)は、オーディオストリームにおける対応シーンを示す期間情報である。
 リファレンスタイムコード(reference time code)およびオフセットタイム(offset_time)は、アクションコマンドの起動を管理するための時刻情報である。UTC(universal time process)は、メディア再生の期限を示す絶対時刻情報である。UIセレクションプロセス(UI selection code)は、ユーザに再生メディアを選択させるためのユーザインタフェース情報である。
 放送送出装置100は、所定数のメディアアクセス情報のそれぞれを、オーディオストリームの所定数のオーディオフレームに分割して挿入する。このように分割することで、メディアアクセス情報の全体サイズが大きくても個々のオーディオフレームに挿入される情報サイズを抑えることができ、オーディオ圧縮データの送信に影響を与えることなく所定の情報の送信が可能となる。
 このとき、放送送出装置100は、最初の分割情報に所定の情報の全体サイズを示す情報を付加し、各分割情報に最初の分割情報であるか否かを示す情報および分割位置を示す情報を付加する。なお、所定数は1を含むものとする。所定数が1であるとき、メディアアクセス情報は、実際には分割されず、その全体が1つのオーディオフレームに挿入される。
 図2の実線aは、全体サイズが大きな所定の情報を1つのオーディオフレームで送信する場合のビットレートの変化を概略的に示しているが、メディアアクセス情報が挿入されるオーディオフレームで急激に増加する。この場合には、例えばオーディオ圧縮データのビットレートが192kbpsであって所定の情報が40バイトであるとき、ビットレートが15kbpsだけ増加して207kbpsとなる。このようにビットレートがスパイク状に急激に増加する場合には、オーディオ圧縮データの送信に影響を与える。
 一方、図2の破線bは、全体サイズが大きなメディアアクセス情報を複数のオーディオフレームで分割して送信する場合のビットレートの変化を概略的に示している。この場合には、ビットレートが急激に増加するということがない。そのため、オーディオ圧縮データの送信に影響を与えることなく、全体サイズが大きなメディアアクセス情報を良好に送信できるようになる。
 また、放送送出装置100は、コンテナとしてのトランスポートストリームTSのレイヤに、オーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることを示す情報(伝送フォーマット優先情報)を挿入する。放送送出装置100は、この情報を、例えば、プログラムマップテーブル(PMT:Program Map Table)の配下に存在するオーディオエレメンタリストリームループ内にデスクリプタとして挿入する。
 セットトップボックス200は、放送送出装置100から放送波に載せて送信されてくるトランスポートストリームTSを受信する。このトランスポートストリームTSには、上述したように、ビデオストリームおよびオーディオストリームが含まれており、オーディオストリームには一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報が順次挿入されている。
 セットトップボックス200は、ビデオストリームにデコード処理を施して得られた非圧縮のビデオデータと共に、受信されたオーディオストリームそのものを、HDMIケーブル610を介して、オーディオアンプ300に送信する。この場合、セットトップボックス200は、トランスポートストリームTSのレイヤに挿入されている上述の伝送フォーマット優先情報に基づいて、オーディオストリームにデコード処理を施すことなく、そのものをオーディオアンプ300に送信する。これにより、オーディオストリームに挿入されているメディアアクセス情報もオーディオアンプ300にそのまま送られることとなる。
 オーディオアンプ300は、セットトップボックス200から、HDMIケーブル610を介して、非圧縮のビデオデータと共に、メディアアクセス情報が挿入されているオーディオストリームを受信する。オーディオアンプ300は、オーディオストリームにデコード処理を施してマルチチャネル用のオーディオデータを得、このオーディオデータをスピーカシステム400に供給する。
 また、オーディオアンプ300は、受信された非圧縮のビデオデータとオーディオストリームを、HDMIケーブル620を介して、テレビ受信機500に送信する。これにより、オーディオストリームに挿入されているメディアアクセス情報もテレビ受信機500にそのまま送られることとなる。この場合、オーディオアンプ300は、セットトップボックス200から、例えばCECラインを用いた通信により、オーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることが指示される。
 テレビ受信機500は、オーディオアンプ300から、HDMIケーブル620を介して、非圧縮のビデオデータと共に、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報が順次挿入されているオーディオストリームを受信する。テレビ受信機500は、非圧縮のビデオデータによる画像を表示する。また、テレビ受信機500は、オーディオストリームにデコード処理を施し、メディアアクセス情報を取得する。
 メディアアクセス情報はオーディオストリームの所定数のオーディオフレームに分割されて挿入されている。最初の分割情報に、メディアアクセス情報の全体サイズを示す情報が付加され、各分割情報に最初の分割情報であるか否かを示す情報および分割位置を示す情報が付加されている。テレビ受信機500は、これらの情報に基づいて、所定数のオーディオフレームから、メディアアクセス情報を構成する各分割情報を取得する。
 この場合、テレビ受信機500は、最初の分割情報が取得される時点で、メディアアクセス情報の全体サイズを示す情報を認識する。そして、テレビ受信機500は、記憶媒体に所定の情報を蓄積するためのスペースを確保でき、メディアアクセス情報の取得処理を容易かつ適切に行うことが可能となる。
 テレビ受信機500は、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報に基づいてメディアデータを取得する。そして、テレビ受信機500は、セットトップボックス200から送られてくるビデオ、オーディオのデータによる画像表示、音声出力等に対応させて、メディアアクセス情報に基づいて取得したメディアデータによる画像表示、音声出力をする。
 [放送送出装置のストリーム生成部]
 図3は、放送送出装置100が備えるストリーム生成部110の構成例を示している。このストリーム生成部110は、制御部111と、ビデオエンコーダ112と、オーディオエンコーダ113と、マルチプレクサ114を有している。
 制御部111は、CPU111aを備えており、ストリーム生成部110の各部を制御する。ビデオエンコーダ112は、ビデオデータ(画像データ)SVに対して、MPEG2、H.264/AVC、H.265/HEVCなどの符号化を施し、ビデオストリーム(ビデオエレメンタリストリーム)を生成する。ビデオデータSVは、例えば、HDD(hard disk drive)などの記録媒体から再生されたビデオデータ、あるいはビデオカメラで得られたライブビデオデータなどである。
 オーディオエンコーダ113は、オーディオデータ(音声データ)SAに対して、MPEG-H 3D Audioの圧縮フォーマットによる符号化を施し、オーディオストリーム(オーディオエレメンタリストリーム)を生成する。オーディオデータSAは、上述のビデオデータSVに対応しており、HDDなどの記録媒体から再生されたオーディオデータ、あるいはマイクロホンで得られたライブオーディオデータなどである。
 オーディオエンコーダ113は、オーディオ符号化ブロック部113aおよびオーディオフレーミング部113bを有している。オーディオ符号化ブロック部113aで符号化ブロックが生成され、オーディオフレーミング部113bでフレーミングが行われる。
 オーディオエンコーダ113は、制御部111による制御のもと、オーディオストリームに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報をコンテナ対象データとして順次挿入する。オーディオエンコーダ113は、所定数のメディアアクセス情報のそれぞれを、オーディオストリームの所定数(1を含む)のオーディオフレームに分割して挿入する。このとき、オーディオエンコーダ113は、最初の分割情報に、所定の情報の全体サイズを示す情報を付加する。また、オーディオエンコーダ113は、各分割情報に、最初の分割情報であるか否かを示す情報および分割位置を示す情報としての降順のカウント数を付加する。
 図4は、MPEG-H 3D Audioの伝送データにおけるオーディオフレームの構造例を示している。このオーディオフレームは、複数のMPEGオーディオストリームパケット(mpeg Audio Stream Packet)からなっている。各MPEGオーディオストリームパケットは、ヘッダ(Header)とペイロード(Payload)により構成されている。
 ヘッダは、パケットタイプ(Packet Type)、パケットラベル(Packet Label)、パケットレングス(Packet Length)などの情報を持つ。ペイロードには、ヘッダのパケットタイプで定義された情報が配置される。このペイロード情報には、同期スタートコードに相当する“SYNC”と、3Dオーディオの伝送データの実際のデータである“Frame”と、この“Frame”の構成を示す“Config”が存在する。
 “Frame”には、3Dオーディオの伝送データを構成するチャネル符号化データとオブジェクト符号化データが含まれる。ここで、チャネル符号化データは、SCE(Single Channel Element)、CPE(Channel Pair Element)、LFE(Low Frequency Element)などの符号化サンプルデータで構成される。また、オブジェクト符号化データは、SCE(Single Channel Element)の符号化サンプルデータと、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータにより構成される。このメタデータは、エクステンションエレメント(Ext_element)として含まれる。
 この実施の形態では、エクステンションエレメント(Ext_element)として、メディアアクセス情報をユニバーサル・メタデータ(universal_metadata)として持つエレメント(Ext_universal_metadata)を新たに定義する。これに伴って、“Config”に、そのエレメントの構成情報(universal_metadataConfig)を新たに定義する。
 図5は、エクステンションエレメント(Ext_element)のタイプ(ExElementType)と、その値(Value)との対応関係を示している。現状は、0~7が決められている。128以降はMPEG以外まで拡張可能なので、例えば、128を、新たに、“ID_EXT_ELE_universal_metadata”のタイプの値として定義する。なお、MPEGなどの規格の場合は、8~127で定義することも可能である。
 図6は、ユニバーサル・メタデータをエクステンションエレメントとして含むユニバーサル・メタデータ・フレーム(universal_metadata_frame())の構造例(syntax)を示している。図7、図8、図9は、所定数(1を含む)のユニバーサル・メタデータ・フレームの「bytes_to_carry_access_information_data」に挿入されるアクセス・インフォメーション・データ(Access_information_data())の構造例(syntax)を示している。図10、図11は、各構造例における主要な情報の内容(semantics)を示している。
 ユニバーサル・メタデータ・フレーム(universal_metadata_frame())において、「organization_id」の32ビットフィールドは、ユーザデータ領域で伝送する個々のサービス、あるいはこのサービスの供給元または規格団体(例えば、“ATSC”,“DVB”など)に固有に割り当てられる識別値を示す。「metadata_type」の8ビットフィールドは、コンテナ対象データの種類を示す。例えば、“0x10”はMPEG-H方式のユニバーサル・メタデータを示し、“0x02”はATSCのアプリケーションメタデータを示す。「data_id」の8ビットフィールドは、コンテナ対象データ(メディアアクセス情報)のIDを示す。同一のコンテナ対象データが分割されて得られた各分割情報には同一のIDが付与される。
 「start_flag」の1ビットフィールドは、コンテナ対象データの開始か否かを示す。“1”は開始を示し、“0”は開始でないことを示す。「fcounter」の7ビットフィールドは、分割されたコンテナ対象データの分割位置を降順のカウント数で示す。“0”が最後の分割部分を示すものである。「start_flag」が“1” かつ、「fcounter」が“0”の場合、分割されていないことを示す。
 「start_flag」が“1”であるとき、「total_data_size」の16ビットフィールドが存在する。このフィールドは、コンテナ対象データのサイズを示す。「bytes_to_carry_access_information_data」のフィールドに、アクセス・インフォメーション・データ(Access_information_data())の全体、あるいはその一部(分割情報)が挿入される。
 アクセス・インフォメーション・データ(Access_information_data())において、「num_of_access_information; N」の8ビットフィールドは、メディアアクセス情報内の情報の数Nを示す。「information_id」の8ビットフィールドは、メディアアクセス情報のIDを示す。関連する所定数のメディアアクセス情報には同一のIDが付与される。つまり、アプリケーションでは、この「information_id」を利用して各々のメディアアクセス情報の関連付けが可能になる。「segment_id」の8ビットフィールドは、「information_id」を共有し、セグメント化された各メディアアクセス情報のIDを示す。
 アクセス・インフォメーション・データ(Access_information_data())には、「num_of_access_information; N」で示される数Nの情報が含まれる。「information_type」の8ビットフィールドは、情報の種類を示す。“0x00”は、IDテーブル(ID_tables)を示す。情報の種類がIDテーブルであるとき、アプリケーションID(applicatio_id)、ネットワークID(network_id)、トランスポートID(transport_id)、サービスID(service_id)を示すそれぞれ16ビットフィールドが存在する。
 “0x01”は、アクセスインフォメーション(access information)を示す。情報の種類がアクセスインフォメーションであるとき、「bytes」のフィールドにURLの各文字のコードが配置される。なお、「url_length」の8ビットフィールドは、URLの文字の数を示す。
 “0x02”は、アクションコマンド(action command)を示す。情報の種類がアクションコマンドであるとき、「command_type」の8ビットフィールドが存在する。例えば、“1”はオートスタート(autostart)を示し、“2”はマニュアルスタート(manual_start)を示し、“3”はレジューム(resume)を示し、“4”はポーズ(pause)を示し、“5”はストップ(stop)を示し、“6”はユーザセレクテッド(user selected)を示し、“7”はデスカード・ダウンロード・データ(discard download_data)を示す。
 “0x03”は、ノーティフィケーション(notification)を示す。情報の種類がノーティフィケーションであるとき、「message_type」の8ビットフィールドが存在する。例えば、“1”はプリペアリング(preparing)を示し、“2”はアクセスレディ(access ready)を示し、“3”はエクスパイヤード(expired)を示し、“4”はセレクション(selection)を示す。
 “0x04”は、ピリオド(period)を示す。情報の種類がピリオドであるとき、「period_id」の8ビットフィールドが存在する。“0x05”は、リファレンスタイムコード(reference time code)を示す。情報の種類がリファレンスタイムコードであるとき、「time_code1」の64ビットフィールドが存在する。
 “0x06”は、オフセットタイム(offset_time)を示す。情報の種類がオフセットタイムであるとき、「time_code2」の64ビットフィールドと、「target_segment_id」の8ビットフィールドが存在する。このフィールドは、オフセットタイムを指定する先のメディアアクセス情報の「segment_id」を示す。なお、自身のオフセットタイムを指定する場合には、この「target_segment_id」が存在しないこともある。
 “0x07”は、UTC(universal time code)を示す。情報の種類がUTCであるときは、「UTC」の64ビットフィールドが存在する。
 “0x08”は、UIセレクションプロセス(UI selection code)を示す。情報の種類がUIセレクションプロセスであるとき、「data」のフィールドにユーザに再生メディアを選択させるためのユーザインタフェース情報が配置される。このユーザインタフェース情報は、例えば、ブラウザ起動に必要な情報が記述されたHTMLデータである。この記述には、ユーザ選択させるためのサムネール情報や、選択結果を表すID“select_ID”などが含まれる。なお、「html_length」の8ビットフィールドは、ブラウザ機能を実現させるための情報で、関連するHTMLデータのバイト数を示す。
 図3に戻って、マルチプレクサ114は、ビデオエンコーダ112から出力されるビデオストリームおよびオーディオエンコーダ113から出力されるオーディオストリームを、PESパケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
 また、マルチプレクサ114は、プログラムマップテーブル(PMT)の配下に、オーディオデータの伝送フォーマットとして符号化ストリーム(オーディオ圧縮データストリーム)のフォーマットを優先させることを示す情報(伝送フォーマット優先情報)を挿入する。具体的には、オーディオエレメンタリストリームループ内に、オーディオ・ストリーミング・デスクリプタ(Audio_streaming_descriptor())を挿入する。
 図12(a)は、オーディオ・ストリーミング・デスクリプタの構造例(Syntax)を示している。また、図12(b)は、その構造例における主要な情報の内容(Semantics)を示している。
 「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、オーディオ・ストリーミング・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。
 「audio_streaming_flag」の1ビットフィールドは、オーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることを示す。“1”は符号化ストリームのフォーマットを優先させることを示し、“0”は符号化ストリームのフォーマットを優先させなくてもよいことを示す。この実施の形態では、「audio_streaming_flag」は“1”に設定される。
 図3に示すストリーム生成部110の動作を簡単に説明する。ビデオデータSVはビデオエンコーダ112に供給される。このビデオエンコーダ112では、ビデオデータSVに対してH.264/AVC、H.265/HEVCなどの符号化が施され、符号化ビデオデータを含むビデオストリームが生成される。
 また、オーディオデータSAは、オーディオエンコーダ113に供給される。このオーディオエンコーダ113では、そのオーディオデータSAに対して、MPEG-H 3D Audioの圧縮フォーマットによる符号化が施され、オーディオストリーム(オーディオ圧縮データストリーム)が生成される。
 この際、制御部111からオーディオエンコーダ113に、オーディオストリームに挿入すべきメディアアクセス情報がコンテナ対象データとして供給される。オーディオエンコーダ113では、オーディオストリームの所定数(1を含む)のオーディオフレームにコンテナ対象データ(メディアアクセス情報)が分割されて挿入される。
 このとき、オーディオエンコーダ113では、最初の分割情報に、コンテナ対象データ(メディアアクセス情報)の全体サイズを示す情報が付加される。また、オーディオエンコーダ113では、各分割情報に、最初の分割情報であるか否かを示す情報および分割位置を示す情報としての降順のカウント数が付加される。
 ビデオエンコーダ112で生成されたビデオストリームは、マルチプレクサ114に供給される。また、オーディオエンコーダ113で生成されたオーディオストリームは、マルチプレクサ114に供給される。そして、このマルチプレクサ114では、各エンコーダから供給されるストリームがパケット化されて多重され、伝送データとしてトランスポートストリームTSが得られる。
 また、マルチプレクサ114では、プログラムマップテーブル(PMT)の配下のオーディオエレメンタリストリームループ内に、オーディオ・ストリーミング・デスクリプタ(図12(a)参照)が挿入される。このデスクリプタには、オーディオデータの伝送フォーマットとして符号化ストリーム(オーディオ圧縮データストリーム)のフォーマットを優先させることを示す情報(伝送フォーマット優先情報)が含まれている。
 [コンテナ対象データ(所定の情報)の挿入]
 オーディオストリームへのコンテナ対象データの挿入についてさらに説明する。図13は、コンテナ対象データ(メディアアクセス情報)が、複数のユニバーサル・メタデータ・フレームで伝送される場合の例を示している。
 この場合、コンテナ対象データは複数に分割され、複数の分割情報のそれぞれが複数のユニバーサル・メタデータ・フレームに振り分けられ、「bytes_to_carry_access_information_data」のフィールドに挿入される(図6参照)。ここで、最初の分割情報に対応した「start_flag」は“1”とされ、最初の分割情報であることが示される。また、最初の分割情報に対応した「fcounter」は“n-1” とされ、その値に1を加算することで分割数“n”が示される。また、この最初の分割情報に対応して、「total_data_size」のフィールドが存在し、コンテナ対象データ(メディアアクセス情報)の全体サイズが示される。
 2番目以降の分割情報に対応した「start_flag」は“0”とされ、最初の分割情報でないことが示される。また、2番目以降の分割情報に対応した「fcounter」は“n-1”から順次デクリメントされたカウント数とされ、分割位置が示されると共に、残りの分割情報の数が示される。また、最後の分割情報に対応した「fcounter」は“0”とされ、最後の分割情報であることが示される。
 なお、最初の分割情報に対応した「fcounter」を“n” とし、2番目以降の分割情報に対応した「fcounter」を“n”から順次デクリメントされたカウント数とし、最後の分割情報に対応した「fcounter」を“1”とすることも考えられる。最初の分割情報に対応した「fcounter」の“n”は分割数を示し、「fcounter」が“1”であることは、最後の分割情報であることを示すものとなる。
 図14は、コンテナ対象データ(メディアアクセス情報)が、1つのユニバーサル・メタデータ・フレームで伝送される場合の例を示している。この場合、コンテナ対象データは分割されずに、1つのユニバーサル・メタデータ・フレームの「bytes_to_carry_access_information_data」のフィールドに挿入される(図6参照)。ここで、「start_flag」は“1”とされ、最初の分割情報であることが示される。また、「fcounter」は“0” とされ、最後の分割情報であることが示される。従って、これらの情報から、分割されていないことが示される。また、この最初の分割情報に対応して、「total_data_size」のフィールドが存在し、コンテナ対象データ(メディアアクセス情報)の全体サイズが示される。
 図15は、複数のコンテナ対象データ(メディアアクセス情報)が、複数のユニバーサル・メタデータ・フレームで伝送される場合の例を示している。図示の例は、「data_id」が“0”で示されるコンテナ対象データAと、「data_id」が“1”であるコンテナ対象データBの2つのコンテナ対象データが伝送される場合の例である。
 この場合、コンテナ対象データAは3分割され、3つの分割情報のそれぞれが3つのユニバーサル・メタデータ・フレームに振り分けられ、「bytes_to_carry_access_information_data」のフィールドに挿入される(図6参照)。ここで、最初の分割情報に対応した「start_flag」は“1”とされ、最初の分割情報であることが示される。また、最初の分割情報に対応した「fcounter」は“2” とされ、その値に1を加算することで分割数“3”が示される。また、この最初の分割情報に対応して、「total_data_size」のフィールドが存在し、コンテナ対象データ(メディアアクセス情報)の全体サイズが示される。
 2番目の分割情報に対応した「start_flag」は“0”とされ、最初の分割情報でないことが示される。また、2番目の分割情報に対応した「fcounter」は“1”とされ、分割位置が示されると共に、残りの分割情報の数が”1“であることが示される。また、最後の分割情報に対応した「start_flag」は“0”とされ、最後の分割情報でないことが示される。そして、最後の分割情報に対応した「fcounter」は“0”とされ、最後の分割情報であることが示される。
 また、コンテナ対象データBは分割されずに、1つのユニバーサル・メタデータ・フレームの「bytes_to_carry_access_information_data」のフィールドに挿入される(図6参照)。ここで、「start_flag」は“1”とされ、最初の分割情報であることが示される。また、「fcounter」は“0” とされ、最後の分割情報であることが示される。従って、これらの情報から、分割されていないことが示される。また、この最初の分割情報に対応して、「total_data_size」のフィールドが存在し、コンテナ対象データ(メディアアクセス情報)の全体サイズが示される。
 [トランスポートストリームTSの構造例]
 図16は、トランスポートストリームTSの構造例を示している。この構造例では、PID1で識別されるビデオストリームのPESパケット「video PES」が存在すると共に、PID2で識別されるオーディオストリームのPESパケット「audio PES」が存在する。PESパケットは、PESヘッダ(PES_header)とPESペイロード(PES_payload)からなっている。PESヘッダには、DTS,PTSのタイムスタンプが挿入されている。
 オーディオストリームのPESパケットのPESペイロードにはオーディオストリーム(Audio coded stream)が挿入される。このオーディオストリームの所定数(1を含む)のオーディオフレーム内のユニバーサル・メタデータ・フレーム(universal_metadata_frame())に、メディアアクセス情報(コンテナ対象データ)を含むアクセス・インフォメーション・データ(Access_information_data())(図7-図9参照)が挿入される。
 また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。PSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。
 また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリストリーム・ループが存在する。この構成例では、ビデオストリームに対応したビデオエレメンタリストリーム・ループ(video ES loop)が存在すると共に、オーディオストリームに対応したオーディオエレメンタリストリーム・ループ(audio ES loop)が存在する
 ビデオエレメンタリストリーム・ループ(video ES loop)には、ビデオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このビデオストリームの「Stream_type」の値は「0x24」に設定され、PID情報は、上述したようにビデオストリームのPESパケット「video PES」に付与されるPID1を示すものとされる。デスクリプタの一つして、HEVC デスクリプタが配置される。
 また、オーディオエレメンタリストリーム・ループ(audio ES loop)には、オーディオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのオーディオストリームに関連する情報を記述するデスクリプタも配置される。このオーディオストリームの「Stream_type」の値は「0x2C」に設定され、PID情報は、上述したようにオーディオストリームのPESパケット「audio PES」に付与されるPID2を示すものとされる。デスクリプタの1つとして、上述したオーディオ・ストリーミング・デスクリプタが配置される。
 [セットトップボックスの構成例]
 図17は、セットトップボックス200の構成例を示している。このセットトップボックス200は、CPU201と、フラッシュROM202と、DRAM203と、内部バス204と、リモコン受信部205と、リモコン送信機206を有している。また、セットトップボックス200は、アンテナ端子211と、デジタルチューナ212と、デマルチプレクサ213と、ビデオデコーダ214と、オーディオフレーミング部215と、HDMI送信部216と、HDMI端子217を有している。
 CPU201は、セットトップボックス200の各部の動作を制御する。フラッシュROM202は、制御ソフトウェアの格納およびデータの保管を行う。DRAM203は、CPU201のワークエリアを構成する。CPU201は、フラッシュROM202から読み出したソフトウェアやデータをDRAM203上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。
 リモコン受信部205は、リモコン送信機206から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU201に供給する。CPU201は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU201、フラッシュROM202およびDRAM203は、内部バス204に接続されている。
 アンテナ端子211は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ212は、アンテナ端子211に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応したトランスポートストリームTSを出力する。
 デマルチプレクサ213は、トランスポートストリームTSからビデオストリームのパケットを抽出し、ビデオデコーダ214に送る。ビデオデコーダ214は、デマルチプレクサ213で抽出されたビデオのパケットからビデオストリームを再構成し、デコード処理を行って非圧縮のビデオデータ(画像データ)を得る。
 また、デマルチプレクサ213は、トランスポートストリームTSからオーディオストリームのパケットを抽出し、オーディオストリームを再構成する。オーディオフレーミング部215は、このように再構成されたオーディオストリームに対してフレーミングを行う。このオーディオストリームには、上述のストリーム生成部110(図3参照)で説明したように、メディアアクセス情報(コンテナ対象データ)が挿入されている。
 また、デマルチプレクサ213は、トランスポートストリームTSからデスクリプタ情報などの各種情報を抽出し、CPU201に送る。この各種情報には、上述したオーディオ・ストリーミング・デスクリプタ(Audio_streaming_descriptor())の情報も含まれる(図12(a)参照)。
 CPU201は、このデスクリプタに挿入されている「audio_streaming_flag」のフィールドの情報、つまり伝送フォーマット優先情報に基づいて、オーディオデータの伝送フォーマットとして符号化ストリーム(オーディオ圧縮データストリーム)のフォーマットを優先させることを認識する。これにより、CPU201は、オーディオストリームにデコード処理を施すことなく、そのものをオーディオアンプ300に送信するように、セットトップボックス200の各部を制御する。なお、図示していないが、セットトップボックス200は、例えば、オーディオデコーダを備え、オーディオストリームにデコード処理を施して、オーディオデータを得ることも可能とされている。
 また、CPU201は、オーディオアンプ300との間で例えばCECラインを用いた通信を行って、オーディオアンプ300に、オーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることを指示する。これにより、オーディオアンプ300は、後述するように、オーディオストリームをそのままテレビ受信機500に送信するように動作する。
 なお、後述の図33の構成の送受信システム10Aの場合には、オーディオアンプ300はオーディオストリームをデコードする場合もあり、またデコードしない場合もある。いずれの場合も優先情報に基づいて符号化ストリームを優先させることで、最終目的の受信デバイスまでオーディオ符号化ストリームが到達可能となる。
 HDMI送信部216は、HDMIに準拠した通信により、ビデオデコーダ214で得られた非圧縮のビデオデータと、オーディオフレーミング部215でフレーミングされた後のオーディオストリームを、HDMI端子217から送出する。HDMI送信部216は、HDMIのTMDSチャネルで送信するため、ビデオデータおよびオーディオストリームをパッキングして、HDMI端子217に出力する。このHDMI送信部216の詳細は後述する。
 セットトップボックス200の動作を簡単に説明する。アンテナ端子211に入力されたテレビ放送信号はデジタルチューナ212に供給される。このデジタルチューナ212では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応したトランスポートストリームTSが出力される。
 デジタルチューナ212から出力されるトランスポートストリームTSは、デマルチプレクサ213に供給される。このデマルチプレクサ213では、トランスポートストリームTSからビデオのエレメンタリストリームのパケットが抽出され、ビデオデコーダ214に送られる。
 ビデオデコーダ214では、デマルチプレクサ213で抽出されたビデオのパケットからビデオストリームが再構成された後、そのビデオストリームに対してデコード処理が行われて、非圧縮のビデオデータが得られる。この非圧縮のビデオデータは、HDMI送信部216に供給される。
 また、デマルチプレクサ213では、トランスポートストリームTSからオーディオストリームのパケットが抽出され、メディアアクセス情報(コンテナ対象データ)が挿入されているオーディオストリームが再構成される。このオーディオストリームはオーディオフレーミング部215でフレーミングされた後に、HDMI送信部216に供給される。そして、HDMI送信部216では、非圧縮のビデオデータおよびオーディオストリームがパッキングされ、HDMI端子217からHDMIケーブル610を介してオーディオアンプ300に送信される。
 [オーディオアンプの構成例]
 図18は、オーディオアンプ300の構成例を示している。オーディオアンプ300は、CPU301と、フラッシュROM302と、DRAM303と、内部バス304と、リモコン受信部305と、リモコン送信機306を有している。また、オーディオアンプ300は、HDMI端子311と、HDMI受信部312と、オーディオデコーダ313と、音声処理回路314と、音声増幅回路315と、音声出力端子316と、HDMI送信部317と、HDMI端子318を有している。
 CPU301は、オーディオアンプ300の各部の動作を制御する。フラッシュROM302は、制御ソフトウェアの格納およびデータの保管を行う。DRAM303は、CPU301のワークエリアを構成する。CPU301は、フラッシュROM302から読み出したソフトウェアやデータをDRAM303上に展開してソフトウェアを起動させ、オーディオアンプ300の各部を制御する。
 リモコン受信部305は、リモコン送信機306から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU301に供給する。CPU301は、このリモコンコードに基づいて、オーディオアンプ300の各部を制御する。CPU301、フラッシュROM302およびDRAM303は、内部バス304に接続されている。
 HDMI受信部312は、HDMIに準拠した通信により、HDMIケーブル610を介してHDMI端子311に供給される非圧縮のビデオデータとオーディオストリームを受信する。オーディオストリームには、上述のセットトップボックス200(図17参照)で説明したように、メディアアクセス情報(コンテナ対象データ)が挿入されている。このHDMI受信部312の詳細は後述する。
 オーディオデコーダ313は、HDMI受信部212で受信されたオーディオストリームに対してデコード処理を施し、所定チャネル数の非圧縮のオーディオデータ(音声データ)を得る。音声処理回路314は、所定チャネル数の非圧縮のオーディオデータに、スピーカシステム400(図1参照)の構成に応じて必要なアップ/ダウンミックス処理を施して、必要なチャネル数のオーディオデータを得ると共に、D/A変換等の必要な処理を施す。
 音声増幅回路315は、音声処理回路314で得られた各チャネルのオーディオ信号を増幅して音声出力端子316に出力する。なお、音声出力端子316には、スピーカシステム400が接続される。
 HDMI送信部317は、HDMIに準拠した通信により、HDMI受信部212で受信された非圧縮のビデオデータとオーディオストリームを、HDMI端子318から送出する。HDMI送信部317は、HDMIのTMDSチャネルで送信するため、非圧縮のビデオデータおよびオーディオストリームをパッキングして、HDMI端子318に出力する。このHDMI送信部317の詳細は後述する。
 図18に示すオーディオアンプ300の動作を簡単に説明する。HDMI受信部312では、セットトップボックス200からHDMIケーブル610を介してHDMI端子311に送信されてくる、非圧縮のビデオデータとオーディオストリームが受信される。
 HDMI受信部312で受信されたオーディオストリームは、オーディオデコーダ313に供給される。オーディオデコーダ313では、オーディオストリームに対してデコード処理が施されて、所定チャネル数の非圧縮のオーディオデータが得られる。このオーディオデータは、音声処理回路314に供給される。
 音声処理回路314では、所定チャネル数の非圧縮のオーディオデータに、スピーカシステム400(図1参照)の構成に応じて必要なアップ/ダウンミックス処理が施されて、必要なチャネル数のオーディオデータが得られると共に、D/A変換等の必要な処理が施される。音声処理回路314から出力される各チャネルのオーディオデータは音声増幅回路315で増幅されて音声出力端子316に出力される。そのため、音声出力端子316に接続されたスピーカシステム400から所定チャネル数の音声出力が得られる。
 また、HDMI受信部312で受信された非圧縮のビデオデータとオーディオストリームは、HDMI送信部317に供給される。なお、HDMI受信部312で受信された非圧縮のビデオデータそのものではなく、この非圧縮のビデオデータにグラフィックスデータの重畳等の処理が施された後のビデオデータがHDMI送信部317に供給されてもよい。HDMI送信部317では、これらの非圧縮のビデオデータおよびオーディオストリームがパッキングされ、HDMI端子318からHDMIケーブル620を介してテレビ受信機500に送信される。
 [テレビ受信機の構成例]
 図19は、テレビ受信機500の構成例を示している。このテレビ受信機500は、CPU501と、フラッシュROM502と、DRAM503と、内部バス504と、リモコン受信部505と、リモコン送信機506と、通信インタフェース507を有している。
 また、テレビ受信機500は、アンテナ端子511と、デジタルチューナ512と、デマルチプレクサ513と、ビデオデコーダ514と、HDMI端子515と、HDMI受信部516を有している。また、テレビ受信機500は、映像処理回路517と、パネル駆動回路518と、表示パネル519と、オーディオデコーダ520と、音声処理回路521と、音声増幅回路522と、スピーカ523を有している。
 CPU501は、テレビ受信機500の各部の動作を制御する。フラッシュROM502は、制御ソフトウェアの格納およびデータの保管を行う。DRAM503は、CPU501のワークエリアを構成する。CPU501は、フラッシュROM502から読み出したソフトウェアやデータをDRAM503上に展開してソフトウェアを起動させ、テレビ受信機500の各部を制御する。
 リモコン受信部505は、リモコン送信機506から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU501に供給する。CPU501は、このリモコンコードに基づいて、テレビ受信機500の各部を制御する。CPU501、フラッシュROM502およびDRAM503は、内部バス504に接続されている。
 通信インタフェース507は、CPU501の制御のもと、インターネット等のネットワーク上に存在するサーバとの間で通信を行う。この通信インタフェース507は、内部バス504に接続されている。
 アンテナ端子511は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ512は、アンテナ端子511に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応したトランスポートストリームTSを出力する。
 デマルチプレクサ513は、トランスポートストリームTSからビデオストリームのパケットを抽出し、ビデオデコーダ514に送る。ビデオデコーダ514は、デマルチプレクサ513で抽出されたビデオのパケットからビデオストリームを再構成し、デコード処理を行って非圧縮のビデオデータ(画像データ)を得る。
 また、デマルチプレクサ513は、トランスポートストリームTSからオーディオストリームのパケットを抽出し、オーディオストリームを再構成する。このオーディオストリームには、上述のストリーム生成部110(図3参照)で説明したように、メディアアクセス情報(コンテナ対象データ)が挿入されている。
 HDMI受信部516は、HDMIに準拠した通信により、HDMIケーブル620を介してHDMI端子515に供給される非圧縮のビデオデータとオーディオストリームを受信する。オーディオストリームには、上述のオーディオアンプ300(図18参照)で説明したように、メディアアクセス情報(コンテナ対象データ)が挿入されている。このHDMI受信部516の詳細は後述する。
 映像処理回路517は、ビデオデコーダ514で得られた、あるいはHDMI受信部516で得られたビデオデータ、さらには、通信インタフェース507でネット上のサーバから受信されたビデオデータなどに対してスケーリング処理、合成処理などを行って、表示用のビデオデータを得る。
 パネル駆動回路518は、映像処理回路517で得られる表示用の画像データに基づいて、表示パネル519を駆動する。表示パネル519は、例えば、LCD(Liquid Crystal Display)、有機ELディスプレイ(organic electroluminescence display)などで構成されている。
 オーディオデコーダ520は、デマルチプレクサ513で得られた、あるいはHDMI受信部516で得られたオーディオストリームに対してデコード処理を施して非圧縮のオーディオデータ(音声データ)を得る。また、オーディオデコーダ520は、オーディオストリームに順次挿入されている、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報(コンテナ対象データ)を抽出し、CPU501に送る。CPU501は、適宜、テレビ受信機500の各部に、このメディアアクセス情報を利用した処理を行わせる。
 ここで、メディアアクセス情報は、オーディオストリームの所定数(1を含む)のオーディオフレームに分割されて挿入され、最初の分割情報にメディアアクセス情報(コンテナ対象データ)の全体サイズを示す情報が付加され、各分割情報に最初の分割情報であるか否かを示す情報および分割位置を示す情報としての降順のカウント数が付加されている。オーディオデコーダ520は、これらの情報に基づいて、所定数のオーディオフレームから、メディアアクセス情報を取得する。
 この場合、オーディオデコーダ520は、最初の分割情報であるか否かを示す情報から最初の分割情報を認識でき、また、この最初の分割情報に対応した降順のカウント数から分割数を認識でき、さらに、降順のカウント数から残りの分割情報の数を認識できる。そのため、オーディオデコーダ520は、所定数のオーディオフレームから、メディアアクセス情報を構成する各分割情報を、容易かつ適切に、取得できる。
 また、降順のカウント数によって、(1)途中の伝送パケットがエラーになった場合に、それを受信側で検出することが可能であり、(2)また、分割された最終パケットが到達するおよその時間を受信側で前もって知ることができる。
 また、最初の分割情報にメディアアクセス情報の全体サイズを示す情報が付加されているので、最初の分割情報が取得される時点でメディアアクセス情報の全体サイズを示す情報に基づいてメモリ(記憶媒体)に当該所定の情報を蓄積できるだけのスペースを確保でき、メディアアクセス情報の取得処理を容易かつ適切に行うことが可能となる。
 音声処理回路521は、オーディオデコーダ520で得られたオーディオデータに対してD/A変換等の必要な処理を行う。音声増幅回路522は、音声処理回路521から出力される音声信号を増幅してスピーカ523に供給する。
 CPU501は、オーディオデコーダ520で取得された、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報に基づいて、例えば通信インタフェース507などを制御する。この場合、インターネットなどのネット上のサーバからメディアデータが取得され、このメディアデータによる画像表示、音声出力がなされる。なお、メディアアクセス制御の具体例については後述する。
 図19に示すテレビ受信機500の動作を簡単に説明する。アンテナ端子511に入力されたテレビ放送信号はデジタルチューナ512に供給される。このデジタルチューナ512では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応したトランスポートストリームTSが得られる。
 デジタルチューナ512で得られるトランスポートストリームTSは、デマルチプレクサ513に供給される。デマルチプレクサ513は、トランスポートストリームTSからビデオストリームのパケットが抽出され、ビデオデコーダ514に供給される。ビデオデコーダ514では、デマルチプレクサ513で抽出されたビデオのパケットからビデオストリームが再構成され、デコード処理が施されて、非圧縮のビデオデータが得られる。この非圧縮のビデオデータは、映像処理回路517に供給される。
 また、デマルチプレクサ513では、トランスポートストリームTSからオーディオストリームのパケットが抽出され、オーディオストリームが再構成される。このオーディオストリームは、オーディオデコーダ520に供給される。
 HDMI受信部516では、HDMIに準拠した通信により、HDMIケーブル620を介してHDMI端子515に供給される非圧縮のビデオデータおよびオーディオストリームが受信される。非圧縮のビデオデータは、映像処理回路517に供給される。また、オーディオストリームはオーディオデコーダ520に供給される。
 映像処理回路517では、ビデオデコーダ514で得られた、あるいはHDMI受信部516で得られたビデオデータ、さらには、通信インタフェース507でネット上のサーバから受信されたビデオデータなどに対してスケーリング処理、合成処理などが施され、表示用のビデオデータが得られる。
 映像処理回路517で得られた表示用のビデオデータはパネル駆動回路518に供給される。パネル駆動回路518では、表示用のビデオデータに基づいて、表示パネル519を駆動することが行われる。これにより、表示パネル519には、表示用のビデオデータに対応した画像が表示される。
 オーディオデコーダ520では、デマルチプレクサ513で得られた、あるいはHDMI受信部516で得られたオーディオストリームに対してデコード処理が施されて非圧縮のオーディオデータが得られる。オーディオデコーダ520で得られるオーディオデータは、音声処理回路521に供給される。音声処理回路521では、オーディオデータに対してD/A変換等の必要な処理が施される。このオーディオデータは、音声増幅回路522で増幅された後に、スピーカ523に供給される。そのため、スピーカ523から、表示パネル519の表示画像に対応した音声が出力される。
 また、オーディオデコーダ520では、オーディオストリームに順次挿入されている、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報(コンテナ対象データ)が抽出される。このようにオーディオデコーダ520で抽出されるメディアアクセス情報は、CPU501に送られる。CPU501により、このメディアアクセス情報に基づいて、例えば通信インタフェース507などが制御される。これにより、インターネットなどのネット上のサーバからメディアデータが取得され、このメディアデータによる画像表示、音声出力がなされる。
 [HDMI送信部、HDMI受信部の構成例]
 図20は、図1の送受信システム10における、セットトップボックス200のHDMI送信部216(図17参照)とオーディオアンプ300のHDMI受信部312(図18参照)の構成例を示している。なお、オーディオアンプ300のHDMI送信部317(図18参照)とテレビ受信機500のHDMI受信部516(図19参照)の構成例に関しては、同様の構成となるので、説明は省略する。
 HDMI送信部216は、一の垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間22および垂直帰線区間23を除いた区間である有効画像区間21(以下、適宜、「アクティブビデオ区間」ともいう)(図21参照)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部312に一方向に送信する。また、HDMI送信部216は、水平帰線区間22または垂直帰線区間23において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部312に一方向に送信する。
 すなわち、HDMI送信部216は、HDMIトランスミッタ31を有する。トランスミッタ31は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDS(Transition Minimized Differential Signaling)チャネル#0,#1,#2で、HDMI受信部312に、一方向にシリアル伝送する。
 また、トランスミッタ31は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2で、HDMI受信部312に一方向にシリアル伝送する。
 HDMI受信部312は、アクティブビデオ区間21(図21参照)において、複数のチャネルで、HDMI送信部216から一方向に送信されてくる、画素データに対応する差動信号を受信する。また、HDMI受信部312は、水平帰線区間22(図21参照)または垂直帰線区間23(図21参照)において、複数のチャネルで、HDMI送信部216から一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。
 HDMI送信部216とHDMI受信部312とからなるHDMIシステムの伝送チャネルには、画素データおよび音声データを伝送するための伝送チャネルとしての3つのTMDSチャネル#0乃至#2と、ピクセルクロックを伝送する伝送チャネルとしてのTMDSクロックチャネルの他に、DDC(Display Data Channel)33やCEC(Consumer Electronics Control)ライン34と呼ばれる伝送チャネルがある。
 DDC33は、HDMIケーブル610に含まれる2本の信号線からなり、HDMI送信部216が、HDMIケーブル610を介して接続されたHDMI受信部312から、EDID(Extended Display Identification Data)を読み出すために使用される。すなわち、HDMI受信部312は、HDMIレシーバ32の他に、自身の性能(Configuration・Capability)に関する性能情報であるEDIDを記憶している、EDID ROM(Read Only Memory)を有している。HDMI送信部216がEDIDを読み出すことで、受信側の復号化能力情報が送信側に送られることになる。
 HDMI送信部216は、HDMIケーブル610を介して接続されているHDMI受信部312から、EDIDを、DDC33を介して読み出す。そして、セットトップボックス200のCPU201は、そのEDIDに基づき、HDMI受信部312を有するオーディオアンプ300の性能を認識する。
 CECライン34は、HDMIケーブル610に含まれる1本の信号線からなり、HDMI送信部216とHDMI受信部312との間で、制御用のデータの双方向通信を行うために用いられる。また、HDMIケーブル610には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるHPDライン35が含まれている。
 ソース機器は、このHPDライン35を利用して、直流バイアス電位により、シンク機器(ディスティネーション機器)の接続を検出することができる。この場合、HPDライン35は、ソース機器側から見ると、直流バイアス電位によってシンク機器から接続状態の通知を受ける機能を有するものとなる。一方、このHPDラインは、シンク機器側から見ると、直流バイアス電位によってソース機器に接続状態を通知する機能を有するものとなる。また、HDMIケーブル610には、ソース機器からシンク機器に電源を供給するために用いられる電源ライン36が含まれている。
 さらに、HDMIケーブル610には、リザーブライン37が含まれている。HPDライン35とリザーブライン37を用いた、イーサネットの信号を伝送するHDMIイーサネットチャネル(HDMI Ethernet Channel : HEC)が存在する。また、HPDライン35とリザーブライン37の双方またはHPDライン35のみを用いた、オーディオデータをディスティネーション機器(シンク機器)からソース機器に伝送するオーディオリターンチャネル(Audio Return Channel : ARC)が存在する。なお、「イーサネット」、「Ethernet」は、登録商標である。
 図21は、TMDSチャネルにおいて、横×縦が1920ピクセル×1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示している。HDMIの3つのTMDSチャネルで伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、ビデオデータ区間24(Video Data Period)、データアイランド区間25(Data Island Period)、およびコントロール区間26(Control Period)の3種類の区間が存在する。
 ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(Active Edge)から次の垂直同期信号の立ち上がりエッジまでの区間であり、水平帰線期間22(Horizontal Blanking)、垂直帰線期間23(Vertical Blanking)、並びに、ビデオフィールド区間から、水平帰線期間および垂直帰線期間を除いた区間である有効画素区間21(Active Video)に分けられる。
 ビデオデータ区間24は、有効画素区間21に割り当てられる。このビデオデータ区間24では、非圧縮の1画面分の画像データを構成する1920ピクセル(画素)×1080ライン分の有効画素(Active Pixel)のデータが伝送される。データアイランド区間25およびコントロール区間26は、水平帰線期間22および垂直帰線期間23に割り当てられる。このデータアイランド区間25およびコントロール区間26では、補助データ(Auxiliary Data)が伝送される。
 すなわち、データアイランド区間25は、水平帰線期間22と垂直帰線期間23の一部分に割り当てられている。このデータアイランド区間25では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。コントロール区間26は、水平帰線期間22と垂直帰線期間23の他の部分に割り当てられている。このコントロール区間26では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。
 [メディアアクセス制御例]
 図22は、メディアアクセス制御の一例を示している。オーディオストリームの3つのオーディオフレームにメディアアクセス情報「data1」が分割挿入されて送られてくる。この3つのオーディオフレームの受信によって、メディアアクセス情報「data1」の全体がオーディオデコーダ520内のバッファに取り込まれ、その後にCPU501に送られる。
 このメディアアクセス情報「data1」には、図23(a)に示すように、“ID tables”、“URL”、“period1”、“notification‘preparing’”、“information_id1”、“reference TC = TC1”、“UTC1”が含まれている。
 このメディアアクセス情報「data1」の受信があった時点で、図22(a)に示すように、表示パネル519の画面には矩形のメッセージ欄701が設けられ、例えば‘preparing’の表示がなされ、ユーザにメディアアクセスの準備中の状態にあることが通知される。
 その後、オーディオストリームの3つのオーディオフレームにメディアアクセス情報「data2」が分割挿入されて送られてくる。この3つのオーディオフレームの受信によって、メディアアクセス情報「data2」の全体がオーディオデコーダ520内のバッファに取り込まれ、その後にCPU501に送られる。
 このメディアアクセス情報「data2」には、図23(b)に示すように、“URL”、“period2”、“notification‘preparing’”、“information_id2”、“reference TC = TC2”、“UTC1”が含まれている。このメディアアクセス情報「data2」における識別情報「information_id」は“information_id2”であって、メディアアクセス情報「data1」の“information_id1”とは異なっている。これにより、CPU501は、メディアアクセス情報「data2」は、メディアアクセス情報「data1」とは関連していないことがわかる。
 このメディアアクセス情報「data2」の受信があった時点で、図22(b)に示すように、表示パネル519の画面には矩形のメッセージ欄702がさらに設けられ、例えば‘preparing’の表示がなされ、ユーザにメディアアクセスの準備中の状態にあることが通知される。
 その後、オーディオストリームの1つのオーディオフレームにメディアアクセス情報「data3」が挿入されて送られてくる。この1つのオーディオフレームの受信によって、メディアアクセス情報「data3」の全体がオーディオデコーダ520内のバッファに取り込まれ、その後にCPU501に送られる。
 このメディアアクセス情報「data3」には、図23(c)に示すように、“action command‘autostart’”、“notification‘access ready’”、“information_id1”、“offset time = oft1”が含まれている。このメディアアクセス情報「data3」における識別情報「information_id」は“information_id1”であって、メディアアクセス情報「data1」の“information_id1”と同じである。これにより、CPU501は、メディアアクセス情報「data3」は、メディアアクセス情報「data1」と関連していることがわかる。
 メディアアクセス情報「data1」の“reference TC = TC1”のリファレンスタイムコードで示されるリファレンスタイムからメディアアクセス情報「data3」の“offset time = oft1”で示されるオフセットタイムだけ経過した時点で、“action command‘autostart’”で示されるアクションコマンド“autostart”が起動される。
 このとき、メディアアクセス情報「data1」の“URL”が用いられ、ネット上のサーバにアクセスされる。そして、このとき、サーバには、メディアアクセス情報「data1」の“ID tables”、“period1”の情報も送られる。なお、この“ID tables”には、アプリケーションID(applicatio_id)、ネットワークID(network_id)、トランスポートID(transport_id)、サービスID(service_id)の他に、オーガナイゼーションID(organization_id)(図6参照)も含まれる。
 このように“ID tables”の情報が送ることで、サーバに当該アクセスがオーソライズされたアクセスであることが示される。また、“period1”の情報が送られることで、サーバでは、オーディオストリームの“period1”で示されるシーンに対応したメディアデータ部分が再生され、テレビ受信機500に送られる。
 このようにメディアアクセス情報「data3」のアクションコマンド“autostart”が起動された時点で、図22(c)に示すように、表示パネル519の画面の矩形のメッセージ欄701には、例えば‘access ready’の表示がなされ、ユーザにメディアアクセスの状態にあることが通知される。また、表示パネル519の画面に新たに矩形の表示欄703が設けられ、この表示欄703にサーバから送られてくるメディアデータ、ここではビデオデータによる画像が表示される。矩形のメッセージ欄702は、その後に所定のタイミングで消去される。
 なお、ここで、リファレンスタイムからオフセットタイムだけ経過した時点に対応した現在時刻(UTC)が、メディアアクセス情報「data1」の“UTC1”で示される時刻より後の時刻であった場合には、期限切れであるとして、アクションコマンド“autostart”は起動されない。
 その後、オーディオストリームの1つのオーディオフレームにメディアアクセス情報「data4」が挿入されて送られてくる。この1つのオーディオフレームの受信によって、メディアアクセス情報「data4」の全体がオーディオデコーダ520内のバッファに取り込まれ、その後にCPU501に送られる。
 このメディアアクセス情報「data4」には、図23(d)に示すように、“action command‘autostart’”、“notification‘access ready’”、“information_id2”、“offset time = oft2”が含まれている。このメディアアクセス情報「data4」における識別情報「information_id」は“information_id2”であって、メディアアクセス情報「data2」の“information_id2”と同じである。これにより、CPU501は、メディアアクセス情報「data4」は、メディアアクセス情報「data2」と関連していることがわかる。
 メディアアクセス情報「data2」の“reference TC = TC2”のリファレンスタイムコードで示されるリファレンスタイムからメディアアクセス情報「data4」の“offset time = oft2”で示されるオフセットタイムだけ経過した時点で、“action command‘autostart’”で示されるアクションコマンド“autostart”が起動される。
 このとき、メディアアクセス情報「data2」の“URL”が用いられ、ネット上のサーバにアクセスされる。そして、このとき、サーバには、メディアアクセス情報「data2」の“period2”の情報も送られる。このように“period2”の情報が送られることで、サーバでは、オーディオストリームの“period2”で示されるシーンに対応したメディアデータ部分が再生され、テレビ受信機500に送られる。
 このようにメディアアクセス情報「data4」のアクションコマンド“autostart”が起動された時点で、図22(d)に示すように、表示パネル519の画面の矩形のメッセージ欄702には、例えば‘access ready’の表示がなされ、ユーザにメディアアクセスの状態にあることが通知される。また、表示パネル519の画面に新たに矩形の表示欄704が設けられ、この表示欄704にサーバから送られてくるメディアデータ、ここではビデオデータによる画像が表示される。矩形のメッセージ欄702は、その後に消去される。
 なお、ここで、リファレンスタイムからオフセットタイムだけ経過した時点に対応した現在時刻(UTC)が、メディアアクセス情報「data2」の“UTC1”で示される時刻より後の時刻であった場合には、期限切れであるとして、アクションコマンド“autostart”は起動されない。
 上述の図22、図23のメディアアクセス制御例では、アクションコマンドが含まれるメディアアクセス情報「data3」,「data4」にオフセットタイムの情報“offset time = oft1”,“offset time = oft2”を含めている。しかし、オフセットタイムを指定する先のメディアアクセス情報の「segment_id」を示す「target_segment_id」の情報を用いることで、メディアアクセス情報「data1」,「data2」にオフセットタイムの情報“offset time = oft1”,“offset time = oft2”を含めることも可能である。
 図24(a),(b),(c),(d)は、その場合において、メディアアクセス情報「data1」、「data2」、「data3」、「data4」にそれぞれ含まれる情報を示している。すなわち、メディアアクセス情報「data1」には、図24(a)に示すように、“ID tables”、“URL”、“period1”、“notification‘preparing’”、“information_id1”、“segment#1”、“reference TC = TC1”、“offsettime = oft1”、“target_segment_id = segment#3”、 “UTC1”が含まれている。
 また、メディアアクセス情報「data2」には、図24(b)に示すように、“URL”、“period2”、“notification‘preparing’”、“information_id2”、“segment#2”、“reference TC = TC2”、“offsettime = oft2”、“target_segment_id = segment#4”、“UTC1”が含まれている。
 また、メディアアクセス情報「data3」には、図24(c)に示すように、“action command‘autostart’”、“notification‘access ready’”、“information_id1”、“segment#3”が含まれている。また、メディアアクセス情報「data4」には、図24(d)に示すように、“action command‘autostart’”、“notification‘access ready’”、“information_id2”、“segment#4”が含まれている。
 図25は、メディアアクセス制御の他の一例を示している。オーディオストリームの3つのオーディオフレームにメディアアクセス情報「data1」が分割挿入されて送られてくる。この3つのオーディオフレームの受信によって、メディアアクセス情報「data1」の全体がオーディオデコーダ520内のバッファに取り込まれ、その後にCPU501に送られる。
 このメディアアクセス情報「data1」には、図26(a)に示すように、“ID tables”、“UI selection process”、“notification‘preparing’”、“information_id1”、“reference TC = TC1”、“UTC1”が含まれている。
 このメディアアクセス情報「data1」の受信があった時点で、図25(a)に示すように、表示パネル519の画面には矩形のメッセージ欄801が設けられ、例えば‘preparing’の表示がなされ、ユーザにユーザ選択の準備中の状態にあることが通知される。また、この画面には、“UI selection process”の情報に基づいて、ユーザに再生メディアを選択させるための複数のサムネール画像802が表示される。
 その後、オーディオストリームの1つのオーディオフレームにメディアアクセス情報「data2」が挿入されて送られてくる。この1つのオーディオフレームの受信によって、メディアアクセス情報「data2」の全体がオーディオデコーダ520内のバッファに取り込まれ、その後にCPU501に送られる。
 このメディアアクセス情報「data2」には、図26(b)に示すように、“action command‘user selected’”、“notification‘user selected’”、“information_id1”、“offset time = oft1”が含まれている。このメディアアクセス情報「data2」における識別情報「information_id」は“information_id1”であって、メディアアクセス情報「data1」の“information_id1”と同じである。これにより、CPU501は、メディアアクセス情報「data2」は、メディアアクセス情報「data1」と関連していることがわかる。
 メディアアクセス情報「data1」の“reference TC = TC1”のリファレンスタイムコードで示されるリファレンスタイムからメディアアクセス情報「data2」の“offset time = oft1”で示されるオフセットタイムだけ経過した時点で、“action command‘user selected’”で示されるアクションコマンド“user selected”が起動され、所定のサムネールを選択することで再生メディアを選択することが可能となる。
 このとき、図25(b)に示すように、表示パネル519の画面の矩形のメッセージ欄801には、例えば‘user selected’の表示がなされ、ユーザに、再生メディアを選択し得る状態にあることが通知される。なお、図25(b)では、サムネール802aがユーザにより選択され、その表示状態が変わったことを示している。このようにユーザによる再生メディアの選択が終わった後には、所定のタイミングで矩形のメッセージ欄801とサムネールの表示は消去される。
 なお、ここで、リファレンスタイムからオフセットタイムだけ経過した時点に対応した現在時刻(UTC)が、メディアアクセス情報「data1」の“UTC1”で示される時刻より後の時刻であった場合には、期限切れであるとして、アクションコマンド“user selected”は起動されない。
 その後、オーディオストリームの3つのオーディオフレームにメディアアクセス情報「data3」が分割挿入されて送られてくる。この3つのオーディオフレームの受信によって、メディアアクセス情報「data3」の全体がオーディオデコーダ520内のバッファに取り込まれ、その後にCPU501に送られる。
 このメディアアクセス情報「data3」には、図26(c)に示すように、“URL”、“notification‘preparing’”、“information_id1”、“reference TC = TC2”、“UTC1”が含まれている。このメディアアクセス情報「data3」における識別情報「information_id」は“information_id1”であって、メディアアクセス情報「data1」、「data2」の“information_id1”と同じである。これにより、CPU501は、メディアアクセス情報「data3」は、メディアアクセス情報「data1」、「data2」と関連していることがわかる。
 このメディアアクセス情報「data3」の受信があった時点で、図25(c)に示すように、表示パネル519の画面には矩形のメッセージ欄803がさらに設けられ、例えば‘preparing’の表示がなされ、ユーザにメディアアクセスの準備中の状態にあることが通知される。
 その後、オーディオストリームの1つのオーディオフレームにメディアアクセス情報「data4」が挿入されて送られてくる。この1つのオーディオフレームの受信によって、メディアアクセス情報「data4」の全体がオーディオデコーダ520内のバッファに取り込まれ、その後にCPU501に送られる。
 このメディアアクセス情報「data4」には、図26(d)に示すように、“action command‘autostart’”、“notification‘access ready’”、“information_id1”、“offset time = oft2”が含まれている。このメディアアクセス情報「data4」における識別情報「information_id」は“information_id1”であって、メディアアクセス情報「data1」、「data2」、「data3」の“information_id1”と同じである。これにより、CPU501は、メディアアクセス情報「data4」は、メディアアクセス情報「data1」、「data2」、「data3」と関連していることがわかる。
 メディアアクセス情報「data3」の“reference TC = TC2”のリファレンスタイムコードで示されるリファレンスタイムからメディアアクセス情報「data4」の“offset time = oft2”で示されるオフセットタイムだけ経過した時点で、“action command‘autostart’”で示されるアクションコマンド“autostart”が起動される。
 このとき、メディアアクセス情報「data3」の“URL”が用いられ、ネット上のサーバにアクセスされる。そして、このとき、サーバには、メディアアクセス情報「data1」の“ID tables”、“period1”の情報、さらには、メディアアクセス情報「data2」に関連したユーザ選択結果を表すためのID“select_ID”も送られる。
 このように“ID tables”の情報が送られることで、サーバに当該アクセスがオーソライズされたアクセスであることが示される。また、“select_ID”、“period1”の情報が送られることで、サーバでは、オーディオストリームの“period1”で示されるシーンに対応した、ユーザ選択の再生メディアのメディアデータ部分が再生され、テレビ受信機500に送られる。
 このようにメディアアクセス情報「data4」のアクションコマンド“autostart”が起動された時点で、図25(d)に示すように、表示パネル519の画面の矩形のメッセージ欄803には、例えば‘access ready’の表示がなされ、ユーザにメディアアクセスの状態にあることが通知される。また、表示パネル519の画面に新たに矩形の表示欄804が設けられ、この表示欄804にサーバから送られてくるメディアデータ、ここではビデオデータによる画像が表示される。矩形のメッセージ欄803は、その後に所定タイミングで消去される。
 なお、ここで、リファレンスタイムからオフセットタイムだけ経過した時点に対応した現在時刻(UTC)が、メディアアクセス情報「data3」の“UTC1”で示される時刻より後の時刻であった場合には、期限切れであるとして、アクションコマンド“autostart”は起動されない。
 上述の図25、図26のメディアアクセス制御例では、アクションコマンドが含まれるメディアアクセス情報「data2」,「data4」にオフセットタイムの情報“offset time = oft1”,“offset time = oft2”を含めている。しかし、オフセットタイムを指定する先のメディアアクセス情報の「segment_id」を示す「target_segment_id」の情報を用いることで、メディアアクセス情報「data1」,「data3」にオフセットタイムの情報“offset time = oft1”,“offset time = oft2”を含めることも可能である。
 「メディアデータの提供元チェック例」
 上述したようにユニバーサル・メタデータ・フレーム(図6参照)に、「oganization_id」の32ビットフィールドが存在する。このフィールドは、ユーザデータ領域で伝送する個々のサービス、あるいはこのサービスの供給元または規格団体(例えば、“ATSC”,“DVB”など)に固有に割り当てられる識別値を示す。この「oganization_id」を、メディアアクセス情報を用いて取得されたメディアデータの提供元をチェックするチェック情報として利用することが考えられる。
 図27のサービスシステムを用いて、「oganization_id」によるメディアデータの提供元チェック例を説明する。図27においては、テレビ受信機500はインターネットに接続されている。また、このインターネットには、サーバA(Searver A)と、サーバB(Searver B)が接続されている。この例は、A放送波からの放送サービスで直接あるいはセットトップボックス200を介して供給されたURL1によって、テレビ受信機500がサーバAにアクセスし、A放送にネット連動したアプリケーション(メディアデータ)を受信する場合の例である。
 A放送波で、テレビ受信機500に、URL1が供給され。このURL1には、「oganization_id」が付加されている。テレビ受信機500は、URL1によってサーバAにアクセスする。サーバAは、テレビ受信機500からのアクセスに認証処理を行ってテレビ受信機500にAck応答を返すと共に、サーバ間アクセスでURL2のサーバBにテレビ受信機500のIPアドレスを通知して連携し、テレビ受信機500からのアクセスをサーバBに移す。
 サーバBは、メディア再生関連情報をテレビ受信機500へ送信する。このメディア再生関連情報は、例えば、ユーザに再生メディアを選択させるための複数のサムネールの画像情報である。テレビ受信機500は、メディア再生関連情報がA放送波から受信した「organization_id」と同一のサービス団体によるものかという提供元のチェックを行った後に、サーバBにメディア再生コマンドを送る。
 テレビ受信機500は、この提供元チェックを、例えば、以下のように行う。すなわち、テレビ受信機500は、A放送波から受信した「organization_id」が示す識別値に対応付けされている文字、ここでは“ATSC_ch5_net_sports”をテーブルなどから認識する。なお、この“ATSC_ch5_net_sports”の文字は、A放送波から「organization_id」と共に受信されたURL1と対応付けられていてもよい。
 テレビ受信機500は、サーバBからテレビ受信機500に送られてくるメディア再生関連情報に“ATSC_ch5_net_sports”の文字が記されているか、あるいはメディア再生関連情報に含まれているURL(例えば、http://service.organization.information)でアクセスして取得された情報に“ATSC_ch5_net_sports”の文字が記されているかにより提供元チェックをする。
 テレビ受信機500は、提供元チェックにより、提供元が正しいことを確認した後に、上述したようにサーバBにメディア再生コマンドを送る。サーバBは、メディア再生コマンドに従ってメディア再生を行って、メディア再生データ(メディアデータ)をテレビ受信機500に送信する。テレビ受信機500は、メディア再生データによる出力、例えば画像表示、音声出力などを行う。
 なお、上述では「oganization_id」を、メディアアクセス情報を用いて取得されたメディアデータの提供元をチェックするチェック情報として利用する例を示した。しかし、チェック情報としてはこの「oganization_id」に限定されるものではなく、メディアアクセス情報に他のチェック情報が付加され、それが利用されて提供元のチェックが行われてもよい。
 上述したように、図1に示す送受信システム10において、放送送出装置100は、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を、オーディオストリーム(オーディオ圧縮データストリーム)に順次挿入して送信する。そのため、受信側では、一連のメディアアクセス制御を良好に行うことができる。
 また、図1に示す送受信システム10において、放送送出装置100は、オーディオストリーム(オーディオ圧縮データストリーム)の所定数のオーディオフレームに、メディアアクセス情報を分割挿入することが可能とされる。そのため、メディアアクセス情報の全体サイズが大きくても個々のオーディオフレームに挿入される情報サイズを抑えることができ、オーディオ圧縮データの送信に影響を与えることなく所定の情報の送信を良好に行うことができる。
 また、図1に示す送受信システム10において、テレビ受信機500は、第1のメディアデータとしてのビデオデータやオーディオデータと共に、オーディオストリームに順次挿入されている一連のメディアアクセス制御のための所定数のメディアアクセス情報を取得し、このメディアアクセス情報に基づいて第2のメディアデータを取得する。そのため、第1のメディアデータによるメディアの提示に対応させて第2のメディアデータによる提示を良好に行うことができる。
 また、図1に示す送受信システム10において、放送送出装置100は、コンテナとしてのトランスポートストリームのレイヤに、オーディオデータの伝送フォーマットとして符号化ストリームを優先させることを示す情報を挿入する。そのため、セットトップボックス200、オーディオアンプ300においてオーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることが可能となる。これにより、メディアアクセス情報をオーディオストリームに挿入した状態でテレビ受信機500に確実に供給できる。
 また、図1に示す送受信システム10において、放送送出装置100は、オーディオストリーム(オーディオ圧縮データストリーム)またはコンテナとしてのトランスポートストリームに挿入されるメディアアクセス情報に、このメディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報(例えば、「oganization_id」など)を付加する。そのため、受信側においては、メディアアクセス情報を用いて取得されるメディアデータの提供元を、このチェック情報に基づいて、簡単かつ容易にチェックすることができる。
 <2.変形例>
 なお、上述実施の形態においては、放送送出装置100は、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を、オーディオストリーム(オーディオ圧縮データストリーム)に順次挿入して送信する。しかし、放送送出装置100は、所定数のメディアアクセス情報をビデオストリームなどのその他のメディアストリームに順次挿入して送信することも考えられる。また、放送送出装置100は、所定数のメディアアクセス情報を、コンテナとしてのトランスポートストリームTSのレイヤに順次挿入して送信することも考えられる。
 図28は、その場合における、放送送出装置100が備えるストリーム生成部110Aの構成例を示している。この図27において、図3と対応する部分には、同一符号を付し、適宜、その詳細説明を省略する。このストリーム生成部110Aは、制御部111と、ビデオエンコーダ112と、オーディオエンコーダ113Aと、マルチプレクサ114Aを有している。
 オーディオエンコーダ113Aでは、オーディオデータSAに対して、MPEG-H 3D Audioの圧縮フォーマットによる符号化が施され、オーディオストリーム(オーディオ圧縮データストリーム)が生成される。このオーディオエンコーダ113Aでは、図3のストリーム生成部110におけるオーディオエンコーダ113とは異なり、オーディオストリームにメディアアクセス情報を挿入することは行われない。
 ビデオエンコーダ112で生成されたビデオストリームは、マルチプレクサ114Aに供給される。また、オーディオエンコーダ113Aで生成されたオーディオストリームは、マルチプレクサ114Aに供給される。そして、このマルチプレクサ114Aでは、各エンコーダから供給されるストリームがパケット化されて多重され、伝送データとしてトランスポートストリームTSが得られる。
 この際、マルチプレクサ114Aでは、制御部111による制御のもと、コンテナとしてのトランスポートストリームTSのレイヤに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報が、コンテナ対象データとして順次挿入される。例えば、マルチプレクサ114Aでは、アプリケーション・インフォメーション・テーブル(AIT:Application Information Table)の配下に、メディアアクセス情報を持つ、新規定義するアプリケーション・デスクリプタ(Application_descriptor)が挿入される。
 図29は、アプリケーション・デスクリプタの構造例(Syntax)を示している。「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、アプリケーション・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。
 「data_id」の8ビットフィールドは、メディアアクセス情報のIDを示す。上述のユニバーサル・メタデータ・フレーム(図6参照)における「data_id」のフィールドと同じ情報である。「data_id」のフィールドに続いて、メディアアクセス情報を持つ、アクセス・インフォメーション・データ(Access_information_data())(図7-9参照)のフィールドが存在する。
 図30は、AITの配下にアプリケーション・デスクリプタ(Application_descriptor)が挿入される場合におけるトランスポートストリームTSの構造例を示している。この構造例では、オーディオストリームのPESパケットのPESペイロードにはオーディオストリーム(Audio coded stream)が挿入される。しかし、このオーディオストリームには、メディアアクセス情報(コンテナ対象データ)を含むアクセス・インフォメーション・データ(Access_information_data())は挿入されない。
 また、トランスポートストリームTSには、PMT(Program Map Table)の他に、AIT(Application Information Table)が含まれている。このAITの配下に、アプリケーション識別子(Application_id)と共に、アプリケーション・デスクリプタ(図29参照)が配置されている。
 図31は、メディアアクセス情報が、上述したように、例えばコンテナとしてのトランスポートストリームTSのレイヤに挿入されて送られてくる場合におけるセットトップボックス200Aの構成例を示している。この図31において、図17と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。このセットトップボックス200Aは、CPU201と、フラッシュROM202と、DRAM203と、内部バス204と、リモコン受信部205と、リモコン送信機206を有している。また、このセットトップボックス200Aは、アンテナ端子211と、デジタルチューナ212と、デマルチプレクサ213Aと、ビデオデコーダ214と、データ挿入部218と、オーディオフレーミング部215と、HDMI送信部216と、HDMI端子217を有している。
 デマルチプレクサ213では、トランスポートストリームTSからオーディオストリームのパケットが抽出され、オーディオストリーム(オーディオ圧縮データストリーム)が再構成される。また、デマルチプレクサ213Aでは、トランスポートストリームTSから各種デスクリプタなどが抽出され、CPU201に送られる。このデスクリプタには、メディアアクセス情報を持つアプリケーション・デスクリプタ(図29参照)も含まれる。
 デマルチプレクサ213Aで抽出されたオーディオストリームはデータ挿入部218に供給される。このデータ挿入部218には、CPU201から所定の情報が供給される。データ挿入部218では、CPU201の制御のもと、オーディオストリームに、メディアアクセス情報が挿入される。
 この場合、図3のストリーム生成部110のオーディオエンコーダ113と同様に、オーディオストリームの所定数(1を含む)のオーディオフレームにメディアアクセス情報が分割されて挿入される(図13-15参照)。このとき、最初の分割情報に、メディアアクセス情報の全体サイズを示す情報が付加される。また、各分割情報に、最初の分割情報であるか否かを示す情報および分割位置を示す情報としての降順のカウント数が付加される。
 なお、この場合、メディアアクセス情報が挿入されたオーディオストリームのビットレートがHDMIの伝送帯域容量範囲に収まるように分割数が決定される。これにより、メディアアクセス情報の全体サイズによっては、分割されずに、1つのオーディオフレームにメディアアクセス情報の全体が挿入される場合もある。
 データ挿入部218からのメディアアクセス情報が挿入されたオーディオストリームは、オーディオフレーミング部215でフレーミングされた後に、HDMI送信部216に供給される。この図31に示すセットトップボックス200Aにおいて、その他は、図17に示すセットトップボックス200と同様に構成される。
 なお、メディアアクセス情報が、上述したように、例えばコンテナとしてのトランスポートストリームTSのレイヤに挿入されて送られてくる場合、図19に示すテレビ受信機500では、デマルチプレクサ513でメディアアクセス情報を持つアプリケーション・デスクリプタ(図29参照)が抽出され、当該メディアアクセス情報の使用が可能となる。
 また、上述実施の形態において、セットトップボックス200は、放送送出装置100からの放送信号からビデオストリームおよびオーディオストリームを受信する構成となっている。しかし、セットトップボックス200は、配信サーバ(ストリーミングサーバ)からネットワークを介してビデオストリームおよびオーディオストリームを受信する構成も考えられる。
 また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG-2 TS)である例を示した。しかし、本技術は、MP4やそれ以外のフォーマットのコンテナで配信されるシステムにも同様に適用できる。例えば、MPEG-DASHベースのストリーム配信システム、あるいは、MMT(MPEG Media Transport)構造伝送ストリームを扱う送受信システムなどである。
 図32は、メディアアクセス情報(コンテナ対象データ)をオーディオストリームに挿入して送る場合におけるMMTストリームの構造例を示している。MMTストリームには、ビデオ、オーディオ等の各アセットのMMTパケットが存在する。この構造例では、ID1で識別されるビデオのアセットのMMTパケットと共に、ID2で識別されるオーディオのアセットのMMTパケットが存在する。
 オーディオのアセット(オーディオストリーム)の所定数(1を含む)のオーディオフレーム内のユニバーサル・メタデータ・フレーム(universal_metadata_frame())に、メディアアクセス情報を含むアクセス・インフォメーション・データ(Access_information_data())が挿入されている。
 また、MMTストリームには、PA(Packet Access)メッセージパケットなどのメッセージパケットが存在する。PAメッセージパケットには、MMT・パケット・テーブル(MMT Package Table)などのテーブルが含まれている。MPテーブルには、アセット毎の情報が含まれている。この場合、オーディオのアセットの情報として、オーディオ・ストリーミング・デスクリプタ(図12(a)参照)も含まれる。
 図33は、メディアアクセス情報(コンテナ対象データ)をコンテナに挿入して送る場合におけるMMTストリームの構造例を示している。MMTストリームには、ビデオ、オーディオ等の各アセットのMMTパケットが存在する。この構造例では、ID1で識別されるビデオのアセットのMMTパケットと共に、ID2で識別されるオーディオのアセットのMMTパケットが存在する。この構造例では、図31の構造例とは異なり、オーディオのアセット(オーディオストリーム)にメディアアクセス情報は含まれない。
 また、MMTストリームには、PA(Packet Access)メッセージパケットなどのメッセージパケットが存在する。PAメッセージパケットには、MMT・パケット・テーブル(MPT:MMT Package Table)などが含まれている。MPTには、アセット毎の情報が含まれている。また、PAメッセージパケットには、アプリケーション・インフォメーション・テーブル(AIT)含まれている。このAITの配下に、アクセス・インフォメーション・データ(Access_information_data())を持つアプリケーション・デスクリプタ(Application_descriptor)が挿入されている。
 また、上述実施の形態においては、オーディオ圧縮フォーマットがMPEG-H 3D Audioである例を示した。しかし、本技術は、オーディオ圧縮フォーマットが、AAC、AC3、AC4などのその他のオーディオ圧縮フォーマットである場合にも、同様に適用できる。
 図34(a)は、AC4のシンプルトランスポート(Simple Transport)のレイヤの構造を示している。シンクワード(syncWord)のフィールドと、フレームレングス(frame Length)のフィールドと、符号化データのフィールドとしての「RawAc4Frame」のフィールドと、CRCフィールドが存在する。「RawAc4Frame」のフィールドには、図34(b)に示すように、先頭にTOC(Table Of Content)のフィールドが存在し、その後の所定数のサブストリーム(Substream)のフィールドが存在する。
 図35(b)に示すように、サブストリーム(ac4_substream_data())の中には、メタデータ領域(metadata)が存在し、その中に「umd_payloads_substream()」のフィールドが設けられる。この「umd_payloads_substream()」のフィールドの中の「umd_payload_byte」のフィールドに、ユニバーサル・データ(universal_data())が置かれる。
 図36は、ユニバーサル・データの構造例(syntax)を示し、図37は、その構造例における主要な情報の内容(semantics)を示している。「start_flag」の1ビットフィールドは、コンテナ対象データの開始か否かを示す。“1”は当パケットから開始されることを示し、“0”は当パケットが開始でないことを示す。「fcounter」の7ビットフィールドは、分割されたコンテナ対象データの分割位置を降順のカウント数で示す。“0”が最後の分割部分を示すものである。「start_flag」が“1” かつ、「fcounter」が“0”の場合、分割されていないことを示す。
 「start_flag」が“1”であるとき、「organization_id」の32ビットフィールド、「target_data_size」の16ビットフィールドが存在する。「organization_id」のフィールドは、ユーザデータ領域で伝送する個々のサービス、あるいはこのサービスの供給元または規格団体(例えば、“ATSC”,“DVB”など)に固有に割り当てられる識別値を示す。「target_data_size」のフィールドは、コンテナ対象データの分割前のデータサイズをバイト数で示す。「data_payload_byte」のフィールドに、アクセス・インフォメーション・データ(Access_information_data())(図7参照)の全体、あるいはその一部(分割情報)が挿入される。
 また、オーディオ圧縮フォーマットがAC4である場合、コンテナのレイヤに、AC4・データコンテナ・デスクリプタ(AC4_datacontainer_desucriptor)が挿入される。
 図38は、AC4・データコンテナ・デスクリプタの構造例(syntax)を示し、図39は、その構造例における主要な情報の内容(semantics)を示している。「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、アプリケーション・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。
 「umd_payload_embedded」の1ビットフィールドは、UMDペイロードが挿入されているか否かを示す。“1”は、UMDペイロードが挿入されていることを示し、“0”は、UMDペイロードが挿入されていないことを示す。「umd_payload_embedded」が“1”であるとき、「umd_payload_id」の5ビットフィールド、「audio_stream_rate」の11ビットフィールドが存在する。
 「umd_payload_id」のフィールドは、UMDペイロードの識別値を示す。この識別値として特定の値を定義する。例えば、“7”は、ユニバーサルデータコンテナのフォーマットであることを示す。「audio_stream_rate」のフィールドは、オーディオストリームの配信ビットレートを示す。
 図40は、オーディオ圧縮フォーマットがAC4である場合におけるMPEG-2 TSのトランスポートストリームの構造例を示している。この構造例では、ビデオストリームに係る部分は省略している。この構造例では、PID2で識別されるオーディオストリームのPESパケット「audio PES」が存在する。PESパケットは、PESヘッダ(PES_header)とPESペイロード(PES_payload)からなっている。PESヘッダには、DTS,PTSのタイムスタンプが挿入されている。
 オーディオストリームのPESパケットのPESペイロードにはオーディオストリーム(Audio coded stream)が挿入される。このオーディオストリームの所定数(1を含む)のサブストリーム内のユニバーサル・メタデータ(universal_metadata())に、メディアアクセス情報(コンテナ対象データ)を含むアクセス・インフォメーション・データ(Access_information_data())(図7-図9参照)が挿入される。
 また、MPEG-2 TSのトランスポートストリームには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。PSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。
 また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリストリーム・ループが存在する。この構成例では、オーディオストリームに対応したオーディオエレメンタリストリーム・ループ(audio ES loop)が存在する。
 このオーディオエレメンタリストリーム・ループには、オーディオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、オーディオストリームに関連する情報を記述するデスクリプタも配置される。ストリームタイプ「Stream_type」の値は「0x2C」に設定され、PID情報は、上述したようにオーディオストリームのPESパケット「audio PES」に付与されるPID1を示すものとされる。デスクリプタの1つとして、上述したAC4・データコンテナ・デスクリプタ(図38参照)が配置される。
 また、MPEG-2 TSのトランスポートストリームには、イベント・インフォメーション・テーブル(EIT:Event Information Table)が存在する。このEITの配下に、コンポーネント・デスクリプタ(component descriptor)が配置される。このコンポーネント・デスクリプタには、ネット接続のためのメタ情報がサービスに含まれることが記述される。
 図41は、オーディオ圧縮フォーマットがAC4である場合におけるMMTのトランスポートストリームの構造例を示している。この構造例では、ビデオアセット(ビデオストリーム)に係る部分は省略している。この構造例では、ID2で識別されるオーディオのアセット(オーディオストリーム)のMMTパケットが存在する。
 オーディオのアセット(オーディオストリーム)の所定数(1を含む)のサブストリーム内のユニバーサル・メタデータ(universal_metadata())に、メディアアクセス情報(コンテナ対象データ)を含むアクセス・インフォメーション・データ(Access_information_data())(図7-図9参照)が挿入される。
 また、MMTのトランスポートストリームには、PA(Packet Access)メッセージパケットなどのメッセージパケットが存在する。PAメッセージパケットには、MPテーブル(MPT:MMT Package Table)などのテーブルが含まれている。MPTには、オーディオのアセットに対応して、アセットタイプ(Asset_type)、パケットID(Packet_id)等の情報が配置されると共に、そのオーディオのアセットに関連する情報を記述するデスクリプタも配置される。このデスクリプタの一つとして、上述したAC4・データコンテナ・デスクリプタ(図38参照)が配置される。
 また、MMTのトランスポートストリームには、イベント・インフォメーション・テーブル(EIT:Event Information Table)が存在する。このEITの配下に、コンポーネント・デスクリプタ(component descriptor)が配置される。このコンポーネント・デスクリプタには、ネット接続のためのメタ情報がサービスに含まれることが記述される。
 図42は、オーディオ圧縮フォーマットがAC4である場合におけるオーディオトラック(トラックA)のデータを含むMP4ストリーム(ファイル)の構成例を示している。図示の例は、フラグメンテッドMP4(Fragmented MP4)の場合の例である。MP4ストリームには、制御情報が入る“moof”ボックスとメディアデータ本体が入る“mdat”ボックスから構成されるムービーフラグメント(Movie Fragment)が所定個数配置される。“mdat”ボックスには、トラックデータが断片化されて得られた断片が入るので、“moof”ボックスに入る制御情報はその断片に関する制御情報となる。
 オーディオトラックに対応したMP4ストリーム「audio bitstream」において、各ムービーフラグメントの“mdat”ボックスには、所定個数のAC4フレームが配置される。また、このMP4ストリーム「audio bitstream」において、各ムービーフラグメントの“moof”ボックス内に“traf”ボックスが存在し、そのボックス内に“tfdt”ボックスが存在する。この“tfdt”ボックスに、“moof”ボックスの後の最初のアクセスユニットのデコードタイム“baseMediaDecodeTime”の記載がある。
 また、“moof”ボックス内に“tfdt”ボックスが存在し、その内に“sgpd”ボックスが存在し、さらに、その内に“tscl”ボックスが存在する。この“tscl”ボックスに、「Audiostreamtype」、「Attribute」のパラメータの記載がある。「Audiostreamtype = AC4」は、オーディオ圧縮フォーマットがAC4であることを示す。「Attribute = soundumd」は、AC4のトラック内にメタデータ(メディアアクセス情報など)の挿入があることを示す。具体的には、「soundumd」として、上述の図38に示すAC4・データコンテナ・デスクリプタの内容が記載される。
 図43は、MPDファイル記述例を示している。また、図44は、その記述例における主要な情報の内容を示す。従来周知のように、MPEG-DASHベースのストリーム配信システムにおいては、メディアストリーム(MP4ストリーム)と、メタファイルとしてのMPDファイルが、通信ネットワーク伝送路を通じて受信側に送信される。
 「<AdaptationSet mimeType=“audio/mp4” group=“1”>」の記述により、オーディオストリームに対するアダプテーションセット(AdaptationSet)が存在し、そのオーディストリームはMP4ファイル構造で供給され、グループ1が割り当てられていることが示されている。 また、「<SupplementaryDescriptor schemeIdUri=“urn:brdcst:codecType” value= “AC4”/>」の記述により、オーディオストリームのコーデックがAC4であることが示されている。「schemeIdUri=“urn:brdcst:codecType”」は、コーデックの種類を示す。例えば、「value」は“mpegh”、”AAC”、”AC3”、”AC4”などとされる。
 また、「<SupplementaryDescriptor schemeIdUri=“urn:brdcst:coordinatedControl” value=“false”/>」の記述により、ネット接続情報が本アダプテーションセットのストリームのみで供給されることが示されている。「schemeIdUri=“urn:brdcst:coordinatedControl”」は、ネット接続に必要な情報が複数のメディアストリーム間で強調して供給されかを示す。例えば、「value」が“true”であるときは、ネット接続情報が他のアダプテーションセットのストリームと協調して供給されることを示す。「value」が“false”であるときは、ネット接続情報が本アダプテーションセットのストリームのみで供給されることを示す。
 また、「<SupplementaryDescriptor schemeIdUri=“urn:brdcst:UMDContained” value=“true”/>」の記述により、オーディオストリームにメタデータが含まれることが示されている。「schemeIdUri=“urn:brdcst:UMDContained”」は、オーディオストリームにメタデータが含まれるかを示す。例えば、「value」が“true”であるときは、オーディオメタ情報が含まれることを示す。「value」が“false”であるときは、オーディオメタ情報が含まれないことを示す。
 また、「<SupplementaryDescriptor schemeIdUri=“urn:brdcst:metaInsertionFrequency” value= “1”/>」の記述により、アクセスユニット単位でメタ情報が供給されることが示されている。「schemeIdUri=“urn:brdcst:metaInsertionFrequency”」は、アクセスユニット単位にメタ情報が供給される頻度を示す。例えば、“1”は、1つのユーザデータエントリが1アクセスユニットに発生することを示す。“2”は、複数のユーザデータエントリが1アクセスユニットに発生することを示す。“3”は、1つ以上のユーザデータエントリが、ランダムアクセスポイントで区切られる期間中に発生することを示す。
 また、「<SupplementaryDescriptor schemeIdUri=“urn:brdcst:type”value=“netlink”/>」の記述により、メタによるサービスの種類がネット接続であることが示されている。「schemeIdUri=“urn:brdcst:type”」は、メタによるサービスの種類を示す。例えば、例えば、「value」が“netlink”であるときは、メタによるサービスの種類がネット接続であることを示す。
 また、上述実施の形態においては、セットトップボックス200とテレビ受信機500との間にオーディオアンプ300が介在される例を示した。しかし、セットトップボックス200がテレビ受信機500に直接接続される、図45に示すような、送受信システム10Aも考えられる。
 この送受信システム10Aにおいては、セットトップボックス200とテレビ受信機500はHDMIケーブル610を介して接続されている。この場合、セットトップボックス200がソースで、テレビ受信機500はディスティネーションである。オーディオアンプ300とテレビ受信機500は、HDMIケーブル620を介して接続されている。この場合、オーディオアンプ300がソースで、テレビ受信機500はディスティネーションである。
 この場合、セットトップボックス200からテレビ受信機500に、HDMIのデジタルインタフェースで、非圧縮のビデオデータと、メディアアクセスネ情報(コンテナ対象データ)が挿入されたオーディオストリームが、送信される。また、テレビ受信機500からオーディオアンプ300にHDMIのオーディオリターンチャネルを利用して、オーディオストリームそのもの、あるいはデコード後のオーディオデータが送信される。
 また、上述実施の形態においては、セットトップボックス200およびテレビ受信機500を有する送受信システム10を示した。しかし、テレビ受信機500の代わりに、モニタ装置、あるいはプロジェクタ等が配置される構成も考えられる。また、セットトップボックス200の代わりに、受信機能付きのレコーダ、パーソナルコンピュータ等が配置される構成も考えられる。
 また、上述実施の形態においては、受信側の各機器がHDMIのデジタルインタフェースにより有線で接続されている。しかし、各機器が、HDMIと同様のデジタルインタフェースで有線接続される場合、さらには、無線によって接続される場合にも、この発明を同様に適用できることは勿論である。
 また、上述実施の形態においては、放送送出装置100から放送波に載せて送信されてくるトランスポートストリームTSをセットトップボックス200で受信する送受信システム10を示した。しかし、図46に示すように、放送送出装置100から放送波に載せて送信されてくるトランスポートストリームTSをテレビ受信機500で直接受信する送受信システム10Bも考えられる。
 なお、本技術は、以下のような構成もとることができる。
 (1)メディアストリームを含む所定フォーマットのコンテナを送信する送信部と、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を順次挿入する情報挿入部を備える
 送信装置。
 (2)上記メディアアクセス情報には、他のメディアアクセス情報と区別するための識別情報が含まれる
 前記(1)に記載の送信装置。
 (3)上記メディアアクセス情報には、他のメディアアクセス情報と関連付け行うための識別情報が含まれる
 前記(1)または(2)に記載の送信装置。
 (4)上記メディアアクセス情報には、上記メディアストリームにおける対応シーンを示す期間情報が含まれる
 前記(1)から(3)のいずれかに記載の送信装置。
 (5)上記メディアアクセス情報には、ユーザに再生メディアを選択させるためのユーザインタフェース情報が含まれる
 前記(1)から(3)のいずれかに記載の送信装置。
 (6)上記メディアアクセス情報には、アクションコマンドの起動を管理するための時刻情報が含まれる
 前記(1)から(3)のいずれかに記載の送信装置。
 (7)上記メディアアクセス情報には、メディア再生の期限を示す絶対時刻情報が含まれる
 前記(1)から(3)のいずれかに記載の送信装置。
 (8)上記メディアアクセス情報には、状態をユーザに知らせるための通知情報が含まれる
 前記(1)から(3)のいずれかに記載の送信装置。
 (9)上記情報挿入部は、
 上記メディアストリームの所定数の単位部分に、上記メディアアクセス部分が分割されて得られた各分割情報のそれぞれを挿入することが可能とされる
 前記(1)から(8)のいずれかに記載の送信装置。
 (10)上記メディアストリームは、オーディオ圧縮データストリームであり、
 上記情報挿入部は、上記単位部分としてのオーディオフレームのユーザデータ領域に上記分割情報を挿入する
 前記(9)記載の送信装置。
 (11)送信部により、メディアストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を順次挿入する情報挿入ステップを有する
 送信方法。
 (12)第1のメディアデータを取得すると共に、一連のメディアアクセス制御のための所定数のメディアアクセス情報を順次取得する第1の取得部と、
 上記メディアアクセス情報に基づいて上記第1のメディアデータに関連した第2のメディアデータを取得する第2の取得部と、
 上記第1のメディアデータおよび上記第2のメディアデータによるメディアの提示処理を行う提示処理部を備える
 メディア処理装置。
 (13)上記第1の取得部は、
 メディアストリームを含む所定フォーマットのコンテナを受信する受信部を有し、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤに上記メディアアクセス情報が挿入されており、
 上記第1の取得部は、
 上記メディアストリームにデコード処理を施して上記第1のメディアデータを得るデコード処理部と、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤから上記メディアアクセス情報を抽出する情報抽出部をさらに有する
 前記(12)に記載のメディア処理装置。
 (14)上記第1の取得部は、
 上記第1のメディアデータとしてのビデオデータと上記メディアアクセス情報が挿入されたオーディオ圧縮データストリームを外部機器からデジタルインタフェースを介して受信する受信部と、
 上記オーディオ圧縮データストリームにデコード処理を施して上記第1のメディアデータとしてのオーディオデータを得るデコード処理部と、
 上記オーディオ圧縮データストリームから上記メディアアクセス情報を抽出する情報抽出部を有する
 前記(12)に記載のメディア処理装置。
 (15)第1の取得部により、第1のメディアデータを取得すると共に、該第1のメディアデータに対応した一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を順次取得する第1の取得ステップと、
 第2の取得部により、上記メディアアクセス情報に基づいて上記第1のメディアデータに関連した第2のメディアデータを取得する第2の取得ステップと、
 上記第1のメディアデータおよび上記第2のメディアデータによるメディアの提示処理を行う提示処理ステップを有する
 メディア処理方法。
 (16)メディアストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤに一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報が順次挿入されており、
 上記メディアストリームにデコード処理を施して第1のメディアデータを得るデコード処理部と、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤから上記メディアアクセス情報を抽出する情報抽出部と、
 上記メディアアクセス情報に基づいて第2のメディアデータを取得するメディアデータ取得部と、
 上記第1のメディアデータおよび上記第2のメディアデータによるメディアの提示処理を行う提示処理部を備える
 受信装置。
 (17)第1のメディアデータとしてのビデオデータと一連のメディアアクセス制御のための所定数のメディアアクセス情報が順次挿入されたオーディオ圧縮データストリームを外部機器からデジタルインタフェースを介して受信する受信部と、
 上記オーディオ圧縮データストリームにデコード処理を施して上記第1のメディアデータとしてのオーディオデータを得るデコード処理部と、
 上記オーディオ圧縮データストリームから上記メディアアクセス情報を抽出する情報抽出部と、
 上記メディアアクセス情報に基づいて第2のメディアデータを取得するメディアデータ取得部と、
 上記第1のメディアデータおよび上記第2のメディアデータによるメディアの提示処理を行う提示処理部を備える
 受信装置。
 (18)所定の情報が挿入されたオーディオ符号化ストリームを含む所定フォーマットのコンテナを送信する送信部と、
 上記コンテナのレイヤに、オーディオデータの伝送フォーマットとして符号化ストリームを優先させることを示す情報を挿入する情報挿入部を備える
 送信装置。
 (19)上記所定の情報は、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報である
 前記(18)に記載の送信装置。
 (20)送信部により、所定の情報がユーザデータ領域に挿入されたオーディオ符号化ストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
 上記コンテナのレイヤに、オーディオデータの伝送フォーマットとして符号化ストリームを優先させることを示す情報を挿入する情報挿入ステップを有する
 送信方法。
 (20)メディアストリームを含む所定フォーマットのコンテナを送信する送信部と、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤに、メディアアクセス情報を、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報を付加して挿入する情報挿入部を備える
 送信装置。
 (21)上記チェック情報は、
 上記メディアアクセス情報による個々のサービス、あるいは該サービスの供給元または規格団体に固有に割り当てられる識別値である
 前記(21)に記載の送信装置。
 (23)送信部により、メディアストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
 上記メディアストリームのレイヤまたは上記コンテナのレイヤに、メディアアクセス情報を、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報を付加して挿入する情報挿入ステップを有する
 送信方法。
 (24)メディアアクセス情報を取得するメディアアクセス情報取得部を備え、
 上記メディアアクセス情報には、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報が付加されており、
 上記メディアアクセス情報に基づいてメディアデータを取得するメディアデータ取得部と、
 上記取得されたメディアデータの提供元を上記チェック情報に基づいてチェックする提供元チェック部をさらに備える
 メディア処理装置。
 (25)メディアアクセス情報取得部により、メディアアクセス情報を取得するメディアアクセス情報取得ステップを有し、
 上記メディアアクセス情報には、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報が付加されており、
 上記メディアアクセス情報に基づいてメディアデータを取得するメディアデータ取得ステップと、
 上記取得されたメディアデータの提供元を上記チェック情報に基づいてチェックする提供元チェックステップをさらに有する
 メディア処理方法。
 本技術の主な特徴は、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を、メディアストリームのレイヤまたはコンテナのレイヤに順次挿入して送信することで、受信側において一連のメディアアクセス制御を良好に行うことを可能としたことである(図6-11、図16参照)。
 10,10A,10B・・・送受信システム
 21・・・有効画素区間
 22・・・水平帰線期間
 23・・・垂直帰線期間
 24・・・ビデオデータ区間
 25・・・データアイランド区間
 26・・・コントロール区間
 31・・・HDMIトランスミッタ
 32・・・HDMIレシーバ
 33・・・DDC
 34・・・CECライン
 35・・・HPDライン
 36・・・電源ライン
 37・・・リザーブライン
 100・・・放送送出装置
 110,110A・・・ストリーム生成部
 111・・・制御部
 111a・・・CPU
 112・・・ビデオエンコーダ
 113,113A・・・オーディオエンコーダ
 113a・・・オーディオ符号化ブロック部
 113b・・・オーディオフレーミング部
 114,114A・・・マルチプレクサ
 200,200A・・・セットトップボックス(STB)
 201・・・CPU
 202・・・フラッシュROM
 203・・・DRAM
 204・・・内部バス
 205・・・リモコン受信部
 206・・・リモコン送信機
 211・・・アンテナ端子
 212・・・デジタルチューナ
 213,213A・・・デマルチプレクサ
 214・・・ビデオデコーダ
 215・・・オーディオフレーミング部
 216・・・HDMI送信部
 217・・・HDMI端子
 218・・・データ挿入部
 300・・・オーディオアンプ(AMP)
 301・・・CPU
 302・・・フラッシュROM
 303・・・DRAM
 304・・・内部バス
 305・・・リモコン受信部
 306・・・リモコン送信機
 311・・・HDMI端子
 312・・・HDMI受信部
 313・・・オーディオデコーダ
 314・・・音声処理回路
 315・・・音声増幅回路
 316・・・音声出力端子
 317・・・HDMI送信部
 318・・・HDMI端子
 400・・・スピーカシステム(SP)
 500・・・テレビ受信機(TV)
 501・・・CPU
 502・・・フラッシュROM
 503・・・DRAM
 504・・・内部バス
 505・・・リモコン受信部
 506・・・リモコン送信機
 507・・・通信インタフェース
 511・・・アンテナ端子
 512・・・デジタルチューナ
 513・・・デマルチプレクサ
 514・・・ビデオデコーダ
 515・・・HDMI端子
 516・・・HDMI受信部
 517・・・映像処理回路
 518・・・パネル駆動回路
 519・・・表示パネル
 520・・・オーディオデコーダ
 521・・・音声処理回路
 522・・・音声増幅回路
 523・・・スピーカ
 610,620・・・HDMIケーブル

Claims (25)

  1.  メディアストリームを含む所定フォーマットのコンテナを送信する送信部と、
     上記メディアストリームのレイヤまたは上記コンテナのレイヤに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を順次挿入する情報挿入部を備える
     送信装置。
  2.  上記メディアアクセス情報には、他のメディアアクセス情報と区別するための識別情報が含まれる
     請求項1に記載の送信装置。
  3.  上記メディアアクセス情報には、他のメディアアクセス情報と関連付け行うための識別情報が含まれる
     請求項1に記載の送信装置。
  4.  上記メディアアクセス情報には、上記メディアストリームにおける対応シーンを示す期間情報が含まれる
     請求項1に記載の送信装置。
  5.  上記メディアアクセス情報には、ユーザに再生メディアを選択させるためのユーザインタフェース情報が含まれる
     請求項1に記載の送信装置。
  6.  上記メディアアクセス情報には、アクションコマンドの起動を管理するための時刻情報が含まれる
     請求項1に記載の送信装置。
  7.  上記メディアアクセス情報には、メディア再生の期限を示す絶対時刻情報が含まれる
     請求項1に記載の送信装置。
  8.  上記メディアアクセス情報には、状態をユーザに知らせるための通知情報が含まれる
     請求項1に記載の送信装置。
  9.  上記情報挿入部は、
     上記メディアストリームの所定数の単位部分に、上記メディアアクセス部分が分割されて得られた各分割情報のそれぞれを挿入することが可能とされる
     請求項1に記載の送信装置。
  10.  上記メディアストリームは、オーディオ圧縮データストリームであり、
     上記情報挿入部は、上記単位部分としてのオーディオフレームのユーザデータ領域に上記分割情報を挿入する
     請求項9記載の送信装置。
  11.  送信部により、メディアストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
     上記メディアストリームのレイヤまたは上記コンテナのレイヤに、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を順次挿入する情報挿入ステップを有する
     送信方法。
  12.  第1のメディアデータを取得すると共に、一連のメディアアクセス制御のための所定数のメディアアクセス情報を順次取得する第1の取得部と、
     上記メディアアクセス情報に基づいて上記第1のメディアデータに関連した第2のメディアデータを取得する第2の取得部と、
     上記第1のメディアデータおよび上記第2のメディアデータによるメディアの提示処理を行う提示処理部を備える
     メディア処理装置。
  13.  上記第1の取得部は、
     メディアストリームを含む所定フォーマットのコンテナを受信する受信部を有し、
     上記メディアストリームのレイヤまたは上記コンテナのレイヤに上記メディアアクセス情報が挿入されており、
     上記第1の取得部は、
     上記メディアストリームにデコード処理を施して上記第1のメディアデータを得るデコード処理部と、
     上記メディアストリームのレイヤまたは上記コンテナのレイヤから上記メディアアクセス情報を抽出する情報抽出部をさらに有する
     請求項12に記載のメディア処理装置。
  14.  上記第1の取得部は、
     上記第1のメディアデータとしてのビデオデータと上記メディアアクセス情報が挿入されたオーディオ圧縮データストリームを外部機器からデジタルインタフェースを介して受信する受信部と、
     上記オーディオ圧縮データストリームにデコード処理を施して上記第1のメディアデータとしてのオーディオデータを得るデコード処理部と、
     上記オーディオ圧縮データストリームから上記メディアアクセス情報を抽出する情報抽出部を有する
     請求項12に記載のメディア処理装置。
  15.  第1の取得部により、第1のメディアデータを取得すると共に、該第1のメディアデータに対応した一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報を順次取得する第1の取得ステップと、
     第2の取得部により、上記メディアアクセス情報に基づいて上記第1のメディアデータに関連した第2のメディアデータを取得する第2の取得ステップと、
     上記第1のメディアデータおよび上記第2のメディアデータによるメディアの提示処理を行う提示処理ステップを有する
     メディア処理方法。
  16.  メディアストリームを含む所定フォーマットのコンテナを受信する受信部を備え、
     上記メディアストリームのレイヤまたは上記コンテナのレイヤに一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報が順次挿入されており、
     上記メディアストリームをデコードして第1のメディアデータを得るデコード処理と、上記メディアアクセス情報に基づいて第2のメディアデータを取得するメディアデータ取得処理と、上記第1のメディアデータおよび上記第2のメディアデータによるメディア提示をするメディア提示処理を制御する制御部を備える
     受信装置。
  17.  第1のメディアデータとしてのビデオデータと一連のメディアアクセス制御のための所定数のメディアアクセス情報が順次挿入されたオーディオ圧縮データストリームを外部機器からデジタルインタフェースを介して受信する受信部と、
     上記オーディオ圧縮データストリームをデコードして上記第1のメディアデータとしてのオーディオデータを得るデコード処理と、上記メディアアクセス情報に基づいて第2のメディアデータを取得するメディアデータ取得処理と、上記第1のメディアデータおよび上記第2のメディアデータによるメディア提示をするメディア提示処理を制御する制御部を備える
     受信装置。
  18.  所定の情報が挿入されたオーディオ符号化ストリームを含む所定フォーマットのコンテナを送信する送信部と、
     上記コンテナのレイヤに、オーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることを示す情報を挿入する情報挿入部を備える
     送信装置。
  19.  上記所定の情報は、一連のメディアアクセス制御のための関連した所定数のメディアアクセス情報である
     請求項18に記載の送信装置。
  20.  送信部により、所定の情報がユーザデータ領域に挿入されたオーディオ符号化ストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
     上記コンテナのレイヤに、オーディオデータの伝送フォーマットとして符号化ストリームのフォーマットを優先させることを示す情報を挿入する情報挿入ステップを有する
     送信方法。
  21.  メディアストリームを含む所定フォーマットのコンテナを送信する送信部と、
     上記メディアストリームのレイヤまたは上記コンテナのレイヤに、メディアアクセス情報を、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報を付加して挿入する情報挿入部を備える
     送信装置。
  22.  上記チェック情報は、
     上記メディアアクセス情報による個々のサービス、あるいは該サービスの供給元または規格団体に固有に割り当てられる識別値である
     請求項21に記載の送信装置。
  23.  送信部により、メディアストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
     上記メディアストリームのレイヤまたは上記コンテナのレイヤに、メディアアクセス情報を、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報を付加して挿入する情報挿入ステップを有する
     送信方法。
  24.  メディアアクセス情報を取得するメディアアクセス情報取得部を備え、
     上記メディアアクセス情報には、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報が付加されており、
     上記メディアアクセス情報に基づいてメディアデータを取得するメディアデータ取得部と、
     上記取得されたメディアデータの提供元を上記チェック情報に基づいてチェックする提供元チェック部をさらに備える
     メディア処理装置。
  25.  メディアアクセス情報取得部により、メディアアクセス情報を取得するメディアアクセス情報取得ステップを有し、
     上記メディアアクセス情報には、該メディアアクセス情報を用いて取得されるメディアデータの提供元をチェックするためのチェック情報が付加されており、
     上記メディアアクセス情報に基づいてメディアデータを取得するメディアデータ取得ステップと、
     上記取得されたメディアデータの提供元を上記チェック情報に基づいてチェックする提供元チェックステップをさらに有する
     メディア処理方法。
PCT/JP2016/063932 2015-06-02 2016-05-10 送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置 WO2016194563A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
AU2016269886A AU2016269886B2 (en) 2015-06-02 2016-05-10 Transmission device, transmission method, media processing device, media processing method, and reception device
CN202110497015.3A CN113242448B (zh) 2015-06-02 2016-05-10 发送装置和方法、媒体处理装置和方法以及接收装置
CN201680029918.6A CN107615767B (zh) 2015-06-02 2016-05-10 发送装置、发送方法、媒体处理装置、媒体处理方法以及接收装置
EP16803000.5A EP3306941A4 (en) 2015-06-02 2016-05-10 TRANSMISSION DEVICE, TRANSMISSION METHOD, MEDIA PROCESSING DEVICE, MEDIA PROCESSING METHOD AND RECEPTION DEVICE
JP2017521763A JPWO2016194563A1 (ja) 2015-06-02 2016-05-10 送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置
US15/567,650 US11223857B2 (en) 2015-06-02 2016-05-10 Transmission device, transmission method, media processing device, media processing method, and reception device
US17/646,218 US11956485B2 (en) 2015-06-02 2021-12-28 Transmission device, transmission method, media processing device, media processing method, and reception device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015112709 2015-06-02
JP2015-112709 2015-06-02
JP2015217148 2015-11-04
JP2015-217148 2015-11-04

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/567,650 A-371-Of-International US11223857B2 (en) 2015-06-02 2016-05-10 Transmission device, transmission method, media processing device, media processing method, and reception device
US17/646,218 Continuation US11956485B2 (en) 2015-06-02 2021-12-28 Transmission device, transmission method, media processing device, media processing method, and reception device

Publications (1)

Publication Number Publication Date
WO2016194563A1 true WO2016194563A1 (ja) 2016-12-08

Family

ID=57442011

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/063932 WO2016194563A1 (ja) 2015-06-02 2016-05-10 送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置

Country Status (6)

Country Link
US (2) US11223857B2 (ja)
EP (1) EP3306941A4 (ja)
JP (3) JPWO2016194563A1 (ja)
CN (2) CN113242448B (ja)
AU (1) AU2016269886B2 (ja)
WO (1) WO2016194563A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112020015531A2 (pt) * 2018-02-22 2021-02-02 Dolby International Ab método e aparelho para processamento de fluxos de mídias auxiliares integrados em um fluxo de áudio mpeg-h 3d

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101535A (ja) * 2001-09-19 2003-04-04 Matsushita Electric Ind Co Ltd 復号装置
WO2004077406A1 (ja) * 2003-02-28 2004-09-10 Matsushita Electric Industrial Co., Ltd. 再生装置および再生方法
JP2008192135A (ja) * 2007-02-05 2008-08-21 Samsung Electronics Co Ltd 無欠性検証の可能なコンテンツ提供方法とコンテンツ利用方法、及びその装置
JP2012010311A (ja) * 2010-05-26 2012-01-12 Sony Corp 送信装置、送信方法、受信装置、受信方法および送受信システム
JP2012033243A (ja) * 2010-08-02 2012-02-16 Sony Corp データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257522B2 (ja) * 1998-10-06 2002-02-18 日本電気株式会社 移動通信端末機
AU4185900A (en) * 1999-03-30 2000-11-14 Tivo, Inc. System for automatic playback position correction after fast forward or reverse
JP4289753B2 (ja) * 2000-02-09 2009-07-01 キヤノン株式会社 再生方法及び装置と表示装置
JP4191932B2 (ja) * 2001-03-08 2008-12-03 パナソニック株式会社 メディア配信装置およびメディア配信方法
JP4041348B2 (ja) * 2001-06-04 2008-01-30 松下電器産業株式会社 記録装置、記録媒体、再生装置、プログラム、方法
US7653928B2 (en) * 2002-08-30 2010-01-26 Sony Corporation Remote user interface for media player
AU2003269550A1 (en) * 2002-10-15 2004-05-04 Electronics And Telecommunications Research Institute Apparatus and method for adapting audio signal according to user's preference
KR100631604B1 (ko) * 2004-10-26 2006-10-09 엘지전자 주식회사 휴대단말기의 mms메시지 표시방법
JP4468796B2 (ja) * 2004-12-02 2010-05-26 ソニー株式会社 再生装置、再生方法および再生プログラム、ならびに、記録媒体
US20070192676A1 (en) * 2006-02-13 2007-08-16 Bodin William K Synthesizing aggregated data of disparate data types into data of a uniform data type with embedded audio hyperlinks
US8327455B2 (en) * 2006-02-15 2012-12-04 Samsung Electronics Co., Ltd. Apparatus and method for controlling copying of AV data and computer readable medium therefor
US8614969B2 (en) * 2006-09-15 2013-12-24 Lg Electronics Inc. Method for cognitive radio based communication and method for broadcasting policy information for the same
CN101202873B (zh) * 2006-12-13 2012-07-25 株式会社日立制作所 信息记录再现装置和信息记录再现方法
US9083938B2 (en) * 2007-02-26 2015-07-14 Sony Computer Entertainment America Llc Media player with networked playback control and advertisement insertion
JP2008263502A (ja) * 2007-04-13 2008-10-30 Victor Co Of Japan Ltd 記録再生装置及び記録再生システム
US8351624B2 (en) * 2007-06-18 2013-01-08 Sony Corporation Audio output apparatus, audio input apparatus, audio control apparatus, audio control system, and audio control method
US7770200B2 (en) * 2007-07-24 2010-08-03 Time Warner Cable Inc. Methods and apparatus for format selection for network optimization
EP2352304B1 (en) * 2008-09-17 2015-07-01 Panasonic Intellectual Property Management Co., Ltd. Recording medium, reproduction device, and integrated circuit
JP5274212B2 (ja) * 2008-11-13 2013-08-28 日本テレビ放送網株式会社 デジタル放送方法及びシステムと、放送局及び受信機
US8135333B2 (en) * 2008-12-23 2012-03-13 Motorola Solutions, Inc. Distributing a broadband resource locator over a narrowband audio stream
US8824327B1 (en) * 2009-04-15 2014-09-02 Shoretel, Inc. Phone URL exchange for improved call quality
US8331542B2 (en) * 2009-04-15 2012-12-11 Shoretel, Inc. Phone URL exchange
CA3008502C (en) * 2009-05-01 2020-11-10 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
KR20120036790A (ko) * 2009-06-11 2012-04-18 파나소닉 주식회사 재생장치, 집적회로, 기록매체
US10575051B2 (en) * 2009-11-13 2020-02-25 Triveni Digital Inc. System and method for enhanced television and delivery of enhanced television content
KR101777348B1 (ko) * 2010-02-23 2017-09-11 삼성전자주식회사 데이터 전송 방법 및 장치와 데이터 수신 방법 및 장치
JP5716302B2 (ja) * 2010-06-30 2015-05-13 ソニー株式会社 情報処理装置、コンテンツ提供方法及びプログラム
FR2973632A1 (fr) * 2011-03-31 2012-10-05 France Telecom Procede d'acces a un service, notamment un portail web, par un terminal de restitution d'un flux multimedia
TWI574565B (zh) * 2011-03-31 2017-03-11 Sony Corp A transmitting apparatus, a transmitting method, a receiving apparatus, a receiving method, a computer-readable medium, and a broadcasting system
CN102752671A (zh) * 2011-04-20 2012-10-24 鸿富锦精密工业(深圳)有限公司 电子装置及其播放内容的版权保护方法
US9554175B2 (en) * 2011-07-20 2017-01-24 Sony Corporation Method, computer program, reception apparatus, and information providing apparatus for trigger compaction
US20130094594A1 (en) * 2011-10-13 2013-04-18 Electronics And Telecommunications Research Institute Method for configuring and transmitting m-unit
WO2013054751A1 (ja) * 2011-10-14 2013-04-18 ソニー株式会社 画像処理装置および方法
US9219950B2 (en) * 2011-11-01 2015-12-22 Sony Corporation Reproduction apparatus, reproduction method, and program
JP5815370B2 (ja) * 2011-11-02 2015-11-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8819755B2 (en) * 2012-03-11 2014-08-26 Broadcom Corporation Audio/video channel transbonding in a network device
US8990418B1 (en) * 2012-06-01 2015-03-24 Google Inc. Providing data feeds for video programs
KR102222166B1 (ko) * 2012-06-19 2021-03-04 소니 주식회사 대화형 텔레비전을 위한 트리거 파라미터 테이블의 확장
EP2870603B1 (en) * 2012-07-09 2020-09-30 Koninklijke Philips N.V. Encoding and decoding of audio signals
US9288603B2 (en) * 2012-07-15 2016-03-15 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for backward-compatible audio coding
KR102078136B1 (ko) * 2013-01-07 2020-02-17 삼성전자주식회사 오디오 데이터를 가지는 이미지를 촬영하기 위한 장치 및 방법
US9607624B2 (en) * 2013-03-29 2017-03-28 Apple Inc. Metadata driven dynamic range control
RU2630754C2 (ru) * 2013-05-24 2017-09-12 Долби Интернешнл Аб Эффективное кодирование звуковых сцен, содержащих звуковые объекты
US9883312B2 (en) * 2013-05-29 2018-01-30 Qualcomm Incorporated Transformed higher order ambisonics audio data
EP2830060A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Noise filling in multichannel audio coding
CA3068668C (en) * 2013-08-19 2022-04-12 Lg Electronics Inc. Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
EP3050278B1 (en) * 2013-09-26 2021-09-15 Coherent Logix, Incorporated Next generation broadcast system and method
US9807452B2 (en) * 2013-10-07 2017-10-31 Samsung Electronics Co., Ltd. Practical delivery of high quality video using dynamic adaptive hypertext transport protocol (HTTP) streaming (DASH) without using HTTP in a broadcast network
CN112019882B (zh) * 2014-03-18 2022-11-04 皇家飞利浦有限公司 为视听内容项生成音频信号的方法和设备
US10412522B2 (en) * 2014-03-21 2019-09-10 Qualcomm Incorporated Inserting audio channels into descriptions of soundfields
EP2928216A1 (en) * 2014-03-26 2015-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for screen related audio object remapping
US9866878B2 (en) * 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
JP5725235B1 (ja) * 2014-04-22 2015-05-27 ソニー株式会社 受信装置及び受信方法、並びに、送信装置及び送信方法
WO2015180866A1 (en) * 2014-05-28 2015-12-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Data processor and transport of user control data to audio decoders and renderers
WO2016009944A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US9875751B2 (en) * 2014-07-31 2018-01-23 Dolby Laboratories Licensing Corporation Audio processing systems and methods
US9736606B2 (en) * 2014-08-01 2017-08-15 Qualcomm Incorporated Editing of higher-order ambisonic audio data
EP3197182B1 (en) * 2014-08-13 2020-09-30 Samsung Electronics Co., Ltd. Method and device for generating and playing back audio signal
EP4060661B1 (en) * 2014-10-10 2024-04-24 Dolby Laboratories Licensing Corporation Transmission-agnostic presentation-based program loudness
TWI631835B (zh) * 2014-11-12 2018-08-01 弗勞恩霍夫爾協會 用以解碼媒體信號之解碼器、及用以編碼包含用於主要媒體資料之元資料或控制資料的次要媒體資料之編碼器
US10341036B2 (en) * 2015-02-10 2019-07-02 Lg Electronics Inc. Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method
US10271094B2 (en) * 2015-02-13 2019-04-23 Samsung Electronics Co., Ltd. Method and device for transmitting/receiving media data
WO2016182371A1 (ko) * 2015-05-12 2016-11-17 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US10693936B2 (en) * 2015-08-25 2020-06-23 Qualcomm Incorporated Transporting coded audio data
US9681111B1 (en) * 2015-10-22 2017-06-13 Gopro, Inc. Apparatus and methods for embedding metadata into video stream

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101535A (ja) * 2001-09-19 2003-04-04 Matsushita Electric Ind Co Ltd 復号装置
WO2004077406A1 (ja) * 2003-02-28 2004-09-10 Matsushita Electric Industrial Co., Ltd. 再生装置および再生方法
JP2008192135A (ja) * 2007-02-05 2008-08-21 Samsung Electronics Co Ltd 無欠性検証の可能なコンテンツ提供方法とコンテンツ利用方法、及びその装置
JP2012010311A (ja) * 2010-05-26 2012-01-12 Sony Corp 送信装置、送信方法、受信装置、受信方法および送受信システム
JP2012033243A (ja) * 2010-08-02 2012-02-16 Sony Corp データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法

Also Published As

Publication number Publication date
JP2021119712A (ja) 2021-08-12
JP7218773B2 (ja) 2023-02-07
EP3306941A4 (en) 2019-01-23
US20180115789A1 (en) 2018-04-26
EP3306941A1 (en) 2018-04-11
US11223857B2 (en) 2022-01-11
US20220124384A1 (en) 2022-04-21
JP2023052611A (ja) 2023-04-11
CN107615767A (zh) 2018-01-19
CN113242448A (zh) 2021-08-10
JPWO2016194563A1 (ja) 2018-03-22
US11956485B2 (en) 2024-04-09
CN107615767B (zh) 2021-05-25
CN113242448B (zh) 2023-07-14
AU2016269886B2 (en) 2020-11-12
AU2016269886A1 (en) 2017-10-26

Similar Documents

Publication Publication Date Title
JP7468575B2 (ja) 受信装置および受信方法
KR102396133B1 (ko) 송신 장치, 송신 방법, 수신 장치 및 수신 방법
JP2023052611A (ja) 送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置
JP6891806B2 (ja) 送信装置、送信方法、受信装置および受信方法
US10812838B2 (en) Transmission device, transmission method, reception device, and reception method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16803000

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017521763

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15567650

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2016269886

Country of ref document: AU

Date of ref document: 20160510

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE