WO2016174960A1 - 受信装置、送信装置、およびデータ処理方法 - Google Patents

受信装置、送信装置、およびデータ処理方法 Download PDF

Info

Publication number
WO2016174960A1
WO2016174960A1 PCT/JP2016/058934 JP2016058934W WO2016174960A1 WO 2016174960 A1 WO2016174960 A1 WO 2016174960A1 JP 2016058934 W JP2016058934 W JP 2016058934W WO 2016174960 A1 WO2016174960 A1 WO 2016174960A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
event
signaling data
signaling
information
Prior art date
Application number
PCT/JP2016/058934
Other languages
English (en)
French (fr)
Inventor
山岸 靖明
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to KR1020177029963A priority Critical patent/KR102499231B1/ko
Priority to US15/568,673 priority patent/US20180139490A1/en
Priority to CN201680023586.0A priority patent/CN107534793B/zh
Priority to EP16786237.4A priority patent/EP3291569A4/en
Priority to JP2017515434A priority patent/JPWO2016174960A1/ja
Priority to MX2017013592A priority patent/MX2017013592A/es
Priority to CA2981270A priority patent/CA2981270A1/en
Publication of WO2016174960A1 publication Critical patent/WO2016174960A1/ja
Priority to US16/818,131 priority patent/US20200221161A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Definitions

  • the present disclosure relates to a receiving device, a transmitting device, and a data processing method. More specifically, the present invention relates to, for example, a receiving apparatus, a transmitting apparatus, and a data processing method compatible with communication data that execute reception or transmission of data via broadcast waves or a network.
  • OTT Over The Top
  • OTT content a delivery service of image (video) data using OTT
  • OTT video OTT-V (Over The Top Video).
  • DASH Dynamic Adaptive Streaming over HTTP
  • HTTP HTTP
  • a content distribution server such as a broadcasting station enables reproduction of content at various clients serving as data distribution destinations, so fragmented files of moving image content of a plurality of bit rates and their attribute information Create a manifest file describing the URL and URL, and provide it to the client.
  • the client acquires the manifest file from the server, selects the optimum bit rate content according to the size of the display unit of the own device and the available communication bandwidth, receives the selected content, and reproduces the selected content. Dynamic change of bit rate is also possible according to fluctuation of network bandwidth, and on the client side, it becomes possible to switch and receive the optimal content according to the situation at any time, and video content with reduced occurrence of video interruption Regeneration is realized.
  • adaptive (adaptive) streaming is described, for example, in Patent Document 1 (Japanese Patent Laid-Open No. 2011-87103).
  • ATSC 3.0 Advanced Television System Committee
  • ATSC-PHY ATSC 3.0 compliant ATSC 3.0 compliant physical layer
  • a configuration is considered in which signaling data including control information for broadcasting and the like is received to enable various control by the signaling data.
  • a server in addition to a dedicated server, PC, TV, tablet, smartphone, etc.
  • receives a broadcast service installed in a home or a hotspot an ATSC 3.0 compliant physical layer (ATSC-PHY), and ATSC 3.0 Implement broadcast reception middleware.
  • ATSC-PHY ATSC 3.0 compliant physical layer
  • ATSC 3.0 ATSC 3.0
  • broadcast reception data to user devices (PC, TV, tablet, smartphone, etc.) via a network (LAN, WiFi such as home network or hotspot, etc.) Transfer
  • the user apparatus that has received the broadcast reception data transferred via the server uses the application (for example, ATSC 3.0 DASH client application) operating on the reproduction control unit of the user apparatus to reproduce the broadcast content or to broadcast It is possible to execute various applications to be delivered.
  • application for example, ATSC 3.0 DASH client application
  • the middleware that executes analysis and the like of signaling data including control information of the ATSC 3.0 broadcast service becomes a termination device that performs an immediate analysis process at the timing of receiving the signaling data.
  • the reproduction control unit and the signaling data processing unit in the latter stage may immediately grasp the content of the signaling data transmitted by the broadcast wave etc., and processing based on the signaling data may be delayed. .
  • the signaling data includes, for example, signaling data update information for notifying such change information in response to change of a program schedule, codec change of transmission data, or the like.
  • Such update information needs to be notified to the downstream signaling data processing unit without delay, and the notification is delayed. Correct processing may not be performed in the signaling data processing unit or the reproduction control unit.
  • An object of the present invention is to provide a receiving device, a transmitting device, and a data processing method that realize an output configuration.
  • the first aspect of the present disclosure is A communication unit that receives event notification data that stores signaling data update information as event data;
  • the receiving apparatus has a signaling data processing unit that executes a signaling data update process based on the signaling data update information stored as event data in an event notification message.
  • a second aspect of the present disclosure is: A communication unit for receiving signaling data; Middleware for generating event notification data in which the signaling data update information is stored as event data; A data processing unit that acquires signaling data update information from the event notification data and outputs the information to a signaling data processing unit; The receiving apparatus has a signaling data processing unit that executes a signaling data update process based on the signaling data update information.
  • the transmitting device has a communication unit that transmits event notification data in which signaling data update information is stored as event data.
  • a fourth aspect of the present disclosure is: A data processing method to be executed in the receiving device;
  • the communication unit receives event notification data storing signaling data update information as event data,
  • the signaling data processing unit executes a signaling data update process based on the signaling data update information stored as event data in the event notification message.
  • a fifth aspect of the present disclosure is: A data processing method to be executed in the receiving device;
  • the communication unit receives the signaling data,
  • the middleware generates event notification data in which the signaling data update information is stored as event data,
  • the data processing unit acquires signaling data update information from the event notification data, and outputs it to the signaling data processing unit,
  • the signaling data processing unit is a data processing method for executing a signaling data update process based on the signaling data update information.
  • a sixth aspect of the present disclosure is: A data processing method to be executed in the transmitting device;
  • the data processing method is such that the communication unit transmits event notification data in which the signaling data update information is stored as event data.
  • a system is a logical set composition of a plurality of devices, and the device of each composition is not limited to what exists in the same case.
  • a configuration is realized in which the signaling data update information is stored in the event notification message and transmitted to the receiving device, and the reliable signaling data updating process in the receiving device can be executed.
  • the transmitting device stores the signaling data update information in the event notification message and transmits it to the receiving device.
  • the receiving apparatus outputs the event data to the signaling data processing unit.
  • the signaling data processing unit executes a signaling data update process based on the signaling data update information.
  • the event notification data is stored in a segment that is data for transmission of AV content, and the receiving device can obtain signaling data update information from the segment and perform signaling data update processing.
  • a configuration is realized in which the signaling data update information is stored in the event notification message and transmitted to the receiving device, and reliable signaling data updating processing in the receiving device can be executed.
  • the effects described in the present specification are merely examples and are not limited, and additional effects may be present.
  • the communication system 10 includes a transmitting device 20 which is a communication device for transmitting contents such as image data and audio data, and a communication for receiving contents transmitted by the transmitting device 20 via broadcast waves or a network. It has a tuner mounted receiver 30 which is an apparatus, a tuner mounted receiver 30 that receives the content to be transmitted by the transmitter 20, and a tuner non-mounted receiver 40 that receives the content via the network.
  • a transmitting device 20 which is a communication device for transmitting contents such as image data and audio data
  • a communication for receiving contents transmitted by the transmitting device 20 via broadcast waves or a network It has a tuner mounted receiver 30 which is an apparatus, a tuner mounted receiver 30 that receives the content to be transmitted by the transmitter 20, and a tuner non-mounted receiver 40 that receives the content via the network.
  • the transmission device 20 is a device that provides content, such as the broadcast station 21 and the content server 22, for example.
  • the tuner mounted receiver 30 is a receiver provided with a tuner for receiving a broadcast wave.
  • it is a client device or home server of a general user, or a relay server installed in a public facility.
  • the relay server including a home server etc.
  • the tuner non-implemented reception device 40 is a reception device not provided with a tuner for receiving a broadcast wave.
  • the PC 41, the portable terminal 42, and the like are examples of the broadcast wave.
  • Data communication between the transmitter 20 and the tuner mounted receiver 30 may be bi-directional communication via a network such as the Internet, one-way communication, or communication using at least one of broadcast waves or the like, or both. Done as.
  • the content transmission from the transmitting device 20 to the tuner mounted receiving device 30 is performed, for example, according to the DASH (MPEG-DASH) standard which is a standard of adaptive (adaptive) streaming technology.
  • DASH Dynamic Adaptive Streaming over HTTP
  • the Dynamic Adaptive Streaming over HTTP (DASH) standard is a standard for adaptive (adaptive) streaming delivery using a streaming protocol based on HTTP (Hyper Text Transfer Protocol) as described above.
  • the MPEG-DASH standard includes the following two standards.
  • a standard relating to a manifest file (MPD: Media Presentation Description) for describing metadata that is management information of video and audio files
  • B Standard concerning file format (segment format) for moving image content transmission, Content distribution from the transmitter 20 to the tuner mounted receiver 30 is performed according to the above-mentioned MPEG-DASH standard.
  • the content received by the tuner mounted receiving apparatus 30 is transferred to the non-tuner mounted receiving apparatus 40 via a network (a home network (LAN / WiFi etc. if in the home, WiFi etc. if the hotspot).
  • a network a home network (LAN / WiFi etc. if in the home, WiFi etc. if the hotspot).
  • the tuner mounted receiver 30 and the tuner non-mounted receiver 40 can reproduce the content transmitted by the transmitter 20.
  • the transmission device 20 encodes content data and generates a data file including encoded data and metadata of the encoded data.
  • the encoding process is performed, for example, in accordance with the MP4 file format defined in the MPEG. Note that the file of encoded data when the transmission device 20 generates a data file of MP4 format is called “mdat”, and the metadata is called “moov” or “moof”.
  • the content provided by the transmitting device 20 to the tuner-mounted receiving device 30 is various data such as music data, video data such as movies, television programs, videos, photographs, documents, pictures and figures, games, software, etc. .
  • Transmission data of the transmission device 20 will be described with reference to FIG.
  • the transmission apparatus 20 that executes data transmission in accordance with the MPEG-DASH standard, as shown in FIG. 2, roughly divides the transmission of a plurality of types of data as described below.
  • the AV segment 60 is configured by an image (Video) to be reproduced by the receiving apparatus, audio (Audio) data, that is, for example, program content provided by a broadcasting station.
  • audio Audio
  • it is configured by the MP4 encoded data (mdat) described above, and metadata (moov, moof).
  • the AV segment is also called a DASH segment.
  • the signaling data 50 includes program schedule information such as a program guide, address information (URL (Uniform Resource Locator) etc.) required for program acquisition, and information necessary for content reproduction processing, for example, codec information (encoding) It is comprised by various control information, such as guidance information which consists of a method etc., application control information.
  • the tuner mounted receiver 30 needs to receive the signaling data 50 prior to the reception of the AV segment 60 storing the program content to be reproduced.
  • the signaling data 50 is transmitted from the transmitting device 20 as data in, for example, the Extensible Markup Language (XML) format.
  • XML Extensible Markup Language
  • the signaling data is repeatedly transmitted as needed. For example, it is repeatedly transmitted frequently, such as every 100 msec. This is to enable the receiving device (client) to obtain signaling data immediately at any time.
  • the client (receiving device) executes processing necessary for reception and reproduction of the program content without delay, such as acquisition of an access address for necessary program content and codec setting processing based on receivable signaling data as needed. It becomes possible.
  • Other data 70 includes, for example, ESG (Electronic Service Guide), NRT content, and the like.
  • ESG is an electronic service guide, and is, for example, guidance information such as a program guide.
  • NRT content is non-real time content.
  • the NRT content includes, for example, various application files executed on the browser of the reception device 30 which is a client, data files such as moving images and still images, and the like.
  • Signaling data 50 B
  • AV segment 60 C
  • Other data ESG, NRT content, etc.
  • FLUTE File Delivery over Uni-directional Transport
  • FLUTE File Delivery over Uni-directional Transport
  • a file identified by a URL and a version
  • a client which is a receiving device, in accordance with the FLUTE protocol.
  • the tuner mounted receiver (client) 30 stores the URL and the version of the received file in association with the file, for example, in the storage unit (client cache).
  • the same URL but different version is regarded as the contents of the file being updated.
  • the FLUTE protocol performs only one-way file transfer control, and there is no selective filtering function for files on the client, the client side uses the metadata that can be transferred to the file controlled by FLUTE to that file. By selective selection, selective filtering can be realized, and local caches reflecting user preferences can be configured and updated.
  • the metadata can be expanded and incorporated into the FLUTE protocol, or can be separately described by a protocol such as ESG (Electronic Service Guide).
  • FLUTE was originally specified as a file transfer protocol in multicast.
  • FLUTE is composed of a combination of FDT and a multicast protocol of scalable file objects called ALC, specifically LCT and FEC components which are its building blocks.
  • ATSC Advanced Television System Committee
  • FIG. 3 is a diagram illustrating an example of a protocol stack of the transmitting device and the receiving device.
  • the example shown in FIG. 3 has two protocol stacks for processing the following two communication data.
  • A Broadcast (including multicast) communication (eg broadcast data distribution)
  • B Unicast (broadband) communication (for example, HTTP type P2P communication)
  • the left side of FIG. 3 is a protocol stack corresponding to (a) broadcast communication (for example, broadcast data distribution).
  • the right side of FIG. 3 is a protocol stack corresponding to (b) unicast (broadband) communication (for example, P2P communication of HTTP type).
  • a protocol stack corresponding to (a) broadcast communication (for example, broadcast type data distribution) shown on the left side of FIG. 3 has the following layers in order from the lower layer.
  • Broadcast physical layer Broadcast PHY
  • IP Multicast IP Multicast
  • ESG ESG
  • NRT content
  • DASH ISO BMFF
  • Video / Audio / CC (6)
  • Application layer Application layer (Applications (HTML 5))
  • a signaling layer is set as an upper layer of the IP multicast layer (IP multicast).
  • the signaling layer is a layer applied to transmission and reception of the signaling data 50 described above with reference to FIG.
  • the signaling data is a guide comprising program schedule information such as a program guide, address information (URL etc.) required for program acquisition, and information necessary for content reproduction processing, such as codec information (coding method etc.) etc. Information, control information, etc. are included.
  • the signaling data is data including access information of an AV segment received and reproduced by the receiving apparatus (client) and guidance information and control information required for processing after receiving the decoding process etc. Data.
  • USD User Service Description
  • MPD Media Presentation Description
  • signaling data are data required for reception, reproduction processing, and control processing of AV segments and applications (application programs) transmitted from the transmission device in the reception device (client), for example, individual files by category It is set as (meta file) and sent from the sending device.
  • Future Extensibility of a new protocol is set as an upper layer of the Broadcast PHY (Broadcast PHY).
  • Broadcast physical layer is a physical layer configured by a communication control unit that controls, for example, a communication unit of a broadcasting system for executing broadcast communication.
  • IP Multicast IP multicast layer
  • the UDP layer is a layer for generating and analyzing UDP packets.
  • the ROUTE layer is a layer that stores and retrieves transfer data in accordance with the ROUTE protocol, which is an extended FLUTE protocol.
  • ROUTE like FLUTE, is a scalable file object multicast protocol called ALC, and is specifically configured by a combination of its building blocks LCT and FEC components.
  • FIG. 4 shows a protocol stack for ROUTE and FLUTE.
  • ESG, NRT content, DASH (ISO BMFF) and Video / Audio / CC are data transferred according to the ROUTE protocol.
  • the broadcast delivery service according to the DASH standard is called MBMS (Multimedia Broadcast Multicast Service).
  • MBMS Multimedia Broadcast Multicast Service
  • eMBMS evolved Multimedia Broadcast Multicast Service
  • MBMS and eMBMS are broadcast type distribution services and distribute the same data, for example, movie content, etc. simultaneously by a common bearer to a plurality of user terminals (UEs) which are receiving apparatuses located in a specific area. It is a service.
  • the same content can be simultaneously provided to a large number of smartphones, PCs, or receivers such as televisions located in the distribution service provision area by broadcast distribution according to MBMS and eMBMS.
  • MBMS and eMBMS define processing for downloading a file according to the 3GPP file format (ISO-BMFF file, MP4 file) according to the transfer protocol ROUTE or FLUTE.
  • 3GPP file format ISO-BMFF file, MP4 file
  • Signaling data 50 (B) AV segment 60 (C) Other data (ESG, NRT content, etc.) 70 Most of these data are transmitted according to the ROUTE protocol or the FLUTE protocol.
  • ESG, NRT content, DASH (ISO BMFF) and Video / Audio / CC are data transferred according to the ROUTE protocol.
  • the ESG is an electronic service guide, and is, for example, guidance information such as a program guide.
  • NRT content is non-real time content.
  • the NRT content includes, for example, various application files executed on the browser of the receiving apparatus which is the client, and data files such as moving pictures and still pictures.
  • Video / Audio / CC is real data to be reproduced, such as video and audio distributed according to the DASH standard.
  • the application layer (Applications (HTML 5)) is an application layer that executes generation, analysis, and other output control of various data according to the ROUTE protocol, for example, data generation to which HTML 5 is applied, Perform analysis, output processing, etc.
  • a protocol stack corresponding to (b) unicast (broadband) communication (for example, HTTP type P2P communication) shown on the right side of FIG. 3 has the following layers in order from the lower layer.
  • Broadband physical layer Broadband PHY
  • IP unicast layer IP Unicast
  • TCP layer (4) HTTP layer (5) ESG, Signaling, NRT content, DASH (ISO BMFF) and Video / Audio / CC (6)
  • Application layer Application layer (Applications (HTML 5))
  • Broadband physical layer is a physical layer configured by a communication control unit such as a device driver that controls a communication unit such as a network card that executes broadband communication.
  • IP unicast layer IP Unicast
  • the HTTP layer is an HTTP packet generation and analysis processing layer. This upper layer is similar to the stack configuration of (a) broadcast communication (for example, broadcast type data distribution) on the left side of FIG.
  • the transmitting device (server) 20 and the tuner mounted receiving device (client) 30 have two processing systems shown in FIG. (A) Broadcast communication (for example, broadcast data delivery) (B) Unicast (broadband) communication (for example, HTTP type P2P communication) Processing according to at least one of these two communication protocol stacks is performed.
  • A Broadcast communication (for example, broadcast data delivery)
  • B Unicast (broadband) communication (for example, HTTP type P2P communication) Processing according to at least one of these two communication protocol stacks is performed.
  • tuner non-implemented receiving apparatus (client) 40 performs the processing on the right side of FIG. (B) Unicast (broadband) communication (for example, HTTP type P2P communication) Execute communication processing according to this communication protocol stack.
  • Unicast Broadband
  • HTTP type P2P communication HyperText Transfer Protocol
  • the attributes (including the URL that is an identifier of a file) of files transferred by multicast according to ROUTE (FLUTE) can be described in the control file of ROUTE (FLUTE), if It can also be described in signaling data that describes the session. Also, further detailed attributes of the file transfer session can be described by ESG (which is also applicable to end user presentation applications).
  • ATSC Advanced Television System Committee
  • IP-based transport stack in ATSC 3.0
  • ROUTE Real-Time Object
  • ISO-BMFF file MP4 file
  • FLUTE File Delivery over Unidirectional Transport
  • fragmented MP4 fragmented MP4 file sequence of DASH standard, MPD (Media Presentation Description) which is a meta file for storing control information (signaling data) of DASH standard, and broadcast distribution Signaling data for USBD / USD, S-TSID (Service based Transport Session Description), etc. can be transferred.
  • MPD Media Presentation Description
  • S-TSID Service based Transport Session Description
  • the ROUTE protocol is a FLUTE based protocol.
  • a metadata file describing transfer control parameters in FLUTE is called FDT (File Delivery Table), and a metadata file describing transfer control parameters in ROUTE is called S-TSID (Service based Transport Session Description).
  • S-TSID is a superset of FDT and includes FDT.
  • SLS Service Layer Signaling
  • the broadcast server 21 transmits an AV segment consisting of broadcast content and the like, signaling data and other data by broadcast waves and broadcast transmission via a network.
  • the data distribution server 22, which is a transmitting device other than the broadcast server 21, also transmits an AV segment consisting of broadcast content and the like, signaling data and other data by broadcast transmission via the network.
  • the tuner mounted receiver 30 includes a middleware 110, an HTTP proxy server 120, a reproduction control unit (DASH client) 131, an output control unit 132, and a signaling data processing unit 140.
  • the middleware 110 receives and analyzes data provided by the broadcast server 21.
  • the middleware 110 includes a communication unit (PHY / MAC) 111, a signaling acquisition unit 112 for acquiring signaling data, a signaling analysis unit 113 for analyzing signaling data, signaling data, program content data such as video and audio, applications, etc. Segment acquisition unit 114 for acquiring data files such as NRT content.
  • the event information is, for example, information to be notified to the receiving apparatus such as change of program guide, change of data aspect of broadcast content, processing to be executed at the time of reproduction of broadcast content in the receiving apparatus, execution of some processing Information to request the
  • the middleware 110 further includes an application file acquisition unit 116 that acquires application files storing various applications (application programs) to be executed by the reception apparatus.
  • the application is, for example, an application for displaying various information such as weather information and news information superimposed on a broadcast program, or player information in the case of baseball relay.
  • Examples of the application include the following.
  • the data received by the middleware 110 is stored in the cache unit (proxy cache) 121 of the proxy server 120.
  • the proxy server 120 further stores data acquired from the data distribution server 22 via the network in the cache unit (proxy cache) 122.
  • the proxy server 120 inputs the data request from the output control unit 130 to the address resolution unit 123, acquires the requested data from the cache unit (proxy cache) 121, 122, or the outside and provides it.
  • a playback control unit (DASH Client) 131 executes playback control of content transmitted according to the DASH (MPEG-DASH) standard.
  • the MPEG-DASH standard includes the following two standards.
  • MPD Media Presentation Description
  • B Standard concerning file format (segment format) for moving image content transmission, Content distribution from the transmitter 20 to the tuner mounted receiver 30 is performed according to the above-mentioned MPEG-DASH standard.
  • the content is transmitted as a segment which is divided data of a predetermined unit in accordance with, for example, the MP4 file format defined in MPEG, and the reproduction control unit (DASH Client) 131 refers to the manifest file (MPD) to reproduce the content to be reproduced. Execute processing such as acquiring the stored segment.
  • MPD manifest file
  • the output control unit 132 extracts and decodes the encoded content from the segment acquired by the reproduction control unit, and outputs the encoded content to an output unit such as a display unit.
  • the signaling data processing unit (SLS Signaling Parser & Viewer) 140 executes processing based on the signaling data transmitted by the transmission device 20 (the broadcast server 21 and the data distribution server 22).
  • the signaling data 50 includes program schedule information such as a program guide, address information (URL (Uniform Resource Locator), etc.) required for program acquisition, and further, reproduction processing of content. , And various control information such as application control information and the like.
  • a signaling data processing unit (SLS Signaling Parser & Viewer) 140 acquires signaling data (SLS: Service Layer Signaling) and executes processing based on the acquired signaling data.
  • the signaling data processing unit 140 performs various processes based on the signaling data. For example, processing for providing the reproduction control unit 131 with program schedule information such as a program guide, address information (URL) required for program acquisition, codec information (such as encoding method), display of signaling data, for example, a program guide Perform display processing of
  • signaling data such as a program schedule (program guide), address information, codec information, etc. may be updated as needed, and the receiving apparatus needs to perform processing using the latest signaling data.
  • the tuner non-mounted receiving apparatus (client B) 40 shown in FIG. 5 is connected to the tuner mounted receiving apparatus (client A) 30 by a network such as Ethernet (registered trademark) or Wi-Fi, for example, (Client A) Execute communication with 30.
  • the tuner non-mounting receiving device (client B) 40 is a tuner mounting receiving device (client A) 30 that receives data such as contents received by the tuner mounting receiving device (client A) 30 from the broadcast server 21 and the data distribution server 22. Receive through and perform content playback.
  • tuner mounted receiver (client A) 30 has Reproduction control unit (DASH Client) 131, An output control unit 132, Of the tuner non-implemented receiver (client B) 40, Playback control unit (DASH Client) 151, Output control unit 152, It is a figure which shows these detailed structures.
  • DASH Client Reproduction control unit
  • An output control unit 132 Of the tuner non-implemented receiver (client B) 40, Playback control unit (DASH Client) 151, Output control unit 152, It is a figure which shows these detailed structures.
  • the reproduction control unit (DASH Client) 131 of the tuner mounted receiving apparatus (client A) 30 includes an MPD acquisition unit 201, an MPD analysis unit 202, a segment acquisition unit 203, a segment (MP4) analysis unit 204, and an event extraction unit 205. .
  • the reproduction control unit (DASH Client) 131 executes reproduction control of the content transmitted according to the DASH (MPEG-DASH) standard.
  • the MPD acquisition unit 201 acquires a manifest file (MPD: Media Presentation Description) which is a management information description file of a moving image or an audio file.
  • MPDs are provided from the broadcast server 21 and the data distribution server 22, stored in the proxy server 120, and then acquired by the reproduction control unit 131.
  • the MPD analysis unit 202 analyzes the description content of the MPD acquired by the MPD acquisition unit 201, and provides the segment acquisition unit with information necessary for acquiring a segment corresponding to the reproduction target data.
  • the segment acquisition unit 203 acquires a segment corresponding to reproduction target data according to the MPD analysis result of the MPD analysis unit 202.
  • a segment is predetermined unit data set in accordance with a file format (segment format) for content transmission consisting of AV data.
  • the segment analysis unit 204 acquires encoded image data, encoded audio data, and the like from the segments acquired by the segment acquisition unit 203, and outputs the acquired data to the decoding unit (decoder) 211 of the output control unit 132.
  • the segment analysis unit 204 outputs the segment to the event extraction unit 205.
  • the event extraction unit 205 outputs the signaling data update information recorded in the segment to the signaling data processing unit 140. Details of this process will be described later.
  • the event extraction unit 205 extracts the event information stored in the segment, and outputs the signaling data update information included in the extracted event information to the signaling data processing unit 140.
  • the signaling data update information is control information related to signaling data to be controlled by the signaling data processing unit 140.
  • This signaling data update information is stored in the segment as event information.
  • the signaling data may be program schedule information such as a program guide, address information (URL (Uniform Resource Locator), etc.) necessary for program acquisition, and information necessary for content reproduction processing, such as codec It is configured by various control information such as guidance information including information (such as encoding method) and application control information.
  • the signaling data processing unit 140 performs various processes based on these pieces of information.
  • processing for providing the reproduction control unit 131 with program schedule information such as a program guide, address information (URL) required for program acquisition, codec information (such as encoding method), display of signaling data, for example, a program guide
  • program schedule information such as a program guide, address information (URL) required for program acquisition, codec information (such as encoding method)
  • codec information such as encoding method
  • display of signaling data for example, a program guide
  • the signaling data processing unit 140 can perform processing to which the updated signaling data is applied according to the signaling data update information. The specific configuration will be described later.
  • the output control unit 132 of the tuner mounted receiver (client A) 30 has a decoding unit (decoder) 211 and an output unit (renderer) 212.
  • the decoding unit (decoder) 211 executes a decoding process (decoding) of the encoded image data and the encoded audio data provided from the segment analysis unit 204.
  • the output unit 212 outputs the decoded image data and audio data to an output unit (display, speaker).
  • the reproduction control unit (DASH Client) 151 of the tuner non-implementation receiving apparatus (client B) 40 includes an MPD acquisition unit 251, an MPD analysis unit 252, a segment acquisition unit 253, a segment (MP4) analysis unit 254, and an event extraction unit. It has 255.
  • the output control unit 152 further includes a decoding unit (decoder) 261 and an output unit (renderer) 262.
  • the configuration and processing to be performed are the same as the configuration and processing of the tuner mounted receiver (client A) 30.
  • the MPD and the segment are input to the reproduction control unit (DASH Client) 151 of the tuner non-implementation receiver (client B) 40 via the proxy server 120 of the tuner implementation receiver (client A) 30 and the network.
  • the signaling data processing unit 160 of the tuner non-implemented receiver (client B) 40 receives signaling data (SLS) via the proxy server 120 of the tuner implemented receiver (client A) 30 and the network.
  • SLS signaling data
  • the tuner mounted receiver (client A) 30 and the reproduction control unit (DASH Client) 131, 151 of the tuner non-mounted receiver (client B) 40 are execution units of the ATSC 3.0 client application (3.0 DASH Client). is there.
  • the ATSC 3.0 client application runs on a browser implemented on an ATSC 3.0 broadcast receiving client device. Alternatively, it may be executed not only as a browser application but also as a native application.
  • the ATSC 3.0 client application executed by the playback control unit (DASH Client) 131, 151 includes an ATSC 3.0 DASH client application (3.0 DASH Client), an ATSC 3.0 stream-associated application (3.0 Application), etc. .
  • the ATSC 3.0 client applications of the playback control units (DASH Client) 131 and 151, and the output control units 132 and 152 are data received by the middleware (Client Local ATSC Middleware) 110, the proxy server (Client Local HTTP Proxy Server) 120 Execute processing of data received via the network.
  • middleware Clientt Local ATSC Middleware
  • proxy server Clientt Local HTTP Proxy Server
  • the DASH-MPD file, DASH segment (segment) file, and other general application files acquired by the middleware 110 or proxy server 120, as well as SLS (Service Level Signaling) files storing signaling data, are input as streams. Render and control the application.
  • This model always accesses the outside world through the proxy server 120 from the ATSC 3.0 client application executed by the playback control unit (DASH Client) 131, 151 and the application executed by the signaling data processing unit 160.
  • DASH Client playback control unit
  • the signaling data processing unit 160 In order to increase the portability of the application, it is not necessary to be aware of the distinction between acquiring the files via broadcast or acquiring via the net (network transparency is provided). It becomes possible. Therefore, it is not necessary to implement an application specifically for broadcasting only, and broadcasting can be implemented regardless of which of the Internet is used.
  • the ATSC 3.0 client application executed by the playback control unit (DASH Client) 131, 151 requests acquisition of DASH-MPD files, DASH segment files, other general application files, and signaling data files (HTTP request) Then, the proxy server 120 that has received it determines whether the address resolution unit (Broadcast / Broadband Address Resolver) 123 acquires it via the broadcast reception stack or acquires it via the net.
  • the address resolution unit Broadcast / Broadband Address Resolver
  • the signaling analysis unit (SLS Signaling Parser) 113 requests the signaling acquisition unit (SLS Signaling Retriever) 112 to acquire USBD / USD, S-TSID, etc., which are signaling metas of ATSC 3.0.
  • the signaling acquisition unit (SLS Signaling Retriever) 112 extracts the signaling meta carried by the SLS LCT packet that is broadcasted and received via the communication unit (ATSC tuner: ATSC 3.0 PHY / MAC) 111.
  • the signaling analysis unit (SLS Signaling Parser) 113 also extracts the signaling meta from the url included in the acquisition request of the segment or application resource, and solves the broadcast distribution address information for acquiring the target file. If broadcast delivery is to be performed, the LCT packet in which the desired file is stored is acquired from the broadcast stream based on the broadcast delivery address information, and is stored in the cache (Proxy Cache) units 121 and 122. expand.
  • the proxy server 120 returns the file to the reproduction control unit 131 or the signaling data processing unit 140 (as an HTTP response). If the url included in the application part acquisition request is not in the signaling meta, the proxy server 120 acquires the file via a normal net stack.
  • middleware (ATSC 3.0 broadcast reception middleware) 110 is mounted on the tuner mounted receiver 30 on which the ATSC 3.0 compliant physical layer (ATSC-PHY) is mounted. Then, we are studying a model to analyze signaling data (ATSC broadcast signaling). That is, a model is considered in which the middleware 110 is used as a terminal device capable of immediate analysis processing at the reception timing of signaling data, and the reproduction control unit (DADH client) or the like is set not to generate an immediate analysis load of signaling data. With this setting, it is possible to realize ATSC broadcast reception and reproduction by directly using the DASH client application used on the Internet.
  • This model transfers the broadcast content received by the tuner mounted receiver 30 and the network received content to the tuner non-mounted receiver 40, and the ATSC 3.0 DASH client executed by the reproduction control unit 151 of the tuner non-mounted receiver 40. It is also possible to perform content reproduction by application processing.
  • the tuner mounted receiver 30 is, for example, a relay server installed in a common space (hot spot), a home server installed in a home, a PC or the like, and is a receiver mounted with a tuner capable of receiving a broadcast wave.
  • the reception data of the tuner mounted receiver 30 is transferred to the tuner non-mounted receiver 40 via a network (a home network (LAN / WiFi etc. for home), a hotspot for example WiFi etc.).
  • the tuner non-implemented reception device 40 executes the ATSC 3.0 DASH client application in the reproduction control unit 151 to perform content reproduction.
  • the middleware 110 of the tuner implemented receiver (client A) 30 executes an immediate analysis process of signaling data provided by the ATSC 3.0 broadcast service.
  • the tuner implemented receiver (client A) 30 provides the receiver using the signaling data update information as soon as it is received.
  • the reproduction control units (DASH Client) 131 and 151 are implemented to continuously execute acquisition of a segment (DASH segment) including content including AV data such as an image and a sound by HTTP.
  • a segment DASH segment
  • a server providing segments DASH segments such as AV segments
  • the proxy server 120 of the tuner implemented receiver (client A) 30 is also a DASH server.
  • the tuner mounted reception device 30 and the reproduction control units 131 and 151 of the tuner non-mounted reception device 40 continuously perform segment acquisition using a Pull type communication session constantly connected with the DASH server, and can be used for broadcast programs and the like. Execute content playback.
  • the signaling data processing unit 140 updates the signaling data that requires processing
  • the signaling data processing unit 140 is immediately notified of the update event or the updated signaling data itself. It will be necessary.
  • the configuration of the present disclosure proposes a configuration that extends the event notification mechanism defined in DASH to extract this signaling data update information and output it to the signaling data processing unit.
  • the signaling data update information acquired by the middleware (ATSC 3.0 broadcast reception middleware) 110 can be inserted, for example, into a stream session. Therefore, for example, the signaling data update information can be transferred in synchronization with the stream also to the tuner non-implemented reception device (client B) 40 in which the communication unit 111 and the middleware 110 are not mounted.
  • Tuner non-implemented reception connected via a tuner mounted receiver (client A) 30 that implements the communication unit 111 and the middleware 110 via a network (home network (LAN / WiFi etc. if at home, WiFi etc. if hotspot)
  • the apparatus (client B) 40 receives the signaling data update information in synchronization with the stream without performing another new signaling sealing session of the AV segment transfer session, and executes processing based on timely signaling data. can do.
  • the DASH standard defines an event notification mechanism called a DASH event.
  • the event notification mechanism may be, for example, notification information such as a broadcast program or change of transmission data or details, information on an application to be executed in the receiving device, information to be notified to the receiving device, and information on processing required for the receiving device Event information notification mechanism.
  • event notification methods are defined as an event notification mechanism in the DASH standard.
  • the MPD can be used to provide the client with information necessary for event processing on a period basis.
  • A Event schedule such as activation (start / execution / activation) timing of various events
  • B event processing to be processed by the client (receiving device) at each timing
  • C Data to be passed to the application running on the client at the time of event execution, etc.
  • FIG. 7 is a diagram showing the format of the MPD.
  • the MPD has a configuration capable of describing information such as an attribute or control information in the following defined range units for each stream of an image and an audio.
  • Period that defines a section on the time axis
  • Adaptation that defines data types such as images and sounds
  • Representation that defines the type of image, the type of audio, etc.
  • SegmentInfo which is an information recording area in image and audio segments (AV segments)
  • FIG. 8 is a diagram in which information (control information, management information, attribute information, etc.) corresponding to AV segments recorded in the MPD is expanded in time series and shown. It is assumed that time passes from left to right. This time axis corresponds to, for example, the reproduction time of the AV content in the receiving device.
  • MPD is a part of signaling data, for example, is sent prior to an AV segment.
  • the MPD can record information in the following data units. (1) Period that defines a section on the time axis (2) Adaptation that defines data types such as images and sounds (3) Representation that defines the type of image, the type of audio, etc. (Representation) (4) Segment Info (SegmentInfo), which is an information recording area in image and audio segments (AV segments)
  • SegmentInfo which is an information recording area in image and audio segments (AV segments)
  • FIG. 8 is a diagram in which these data areas are expanded according to time axis and data type.
  • FIG. 8 shows the following two adaptations (Adaptation).
  • V Adaptation V (Adaptation (V)) which is an image correspondence information recording area
  • A Adaptation A (Adaptation (A)) which is an audio correspondence information recording area
  • V Adaptation V
  • V1 Representation (V1)), which is an information recording area compatible with low bit rate images
  • V2 Representation (V2) Representation (V2)
  • V2 Representation (V2)
  • Adaptation A which is an audio image correspondence information recording area (A)
  • A1 Representation (A1) which is an information recording area corresponding to Japanese voice
  • A2) Representation that is an information recording area for English voice A2 (Representation (A2))
  • each representation has a configuration capable of recording information in units of segments corresponding to a period corresponding to the playback time axis.
  • a receiver which selects and reproduces a high bit rate image and Japanese speech MPD information on the high bit rate image to be reproduced and the Japanese speech when the segment 11 of period 1 is reproduced. I will choose to get from.
  • the record information of the MPD to be selected is the information of the segment areas 301 and 302 shown in the figure.
  • the receiving apparatus selects and refers to only information corresponding to data (segment) to be reproduced by the own apparatus from MPDs transmitted from the transmitting apparatus as signaling data.
  • segment correspondence information of the data type and time unit can be recorded in the MPD.
  • event notifications for notifying various processing requests at the receiving device (client) can also be recorded in this MPD.
  • the MPD including event information has, for example, the following description.
  • This data recording area is a recording area of start time information of the first period corresponding to the data recorded in the MPD. For example, UTC time is used as time information.
  • This data recording area is a period start time information recording area.
  • the offset time from the start time (MPD / @ availabilityStartTime) defined in MPD is recorded.
  • the data recording area is a recording area of event stream designation information indicating an event type and the like and time scale information.
  • timescale '1000'” indicates that the unit time of presentation time to be recorded below is 1/1000 second.
  • the data recording area is a recording area of event data and a recording area of event scheduling data such as activation time (execution start time) and duration of an event.
  • This data recording area is also a recording area of event data, and a recording area of event scheduling data such as activation time (execution start etc.) and duration of an event.
  • ⁇ AdaptationSet> ⁇ Representation /> ⁇ Representation /> These are data recording areas for recording information for each data type.
  • Event in event notification using MPD, that is, in MPD applied event notification method (MPD Event), Define the type of event by EventStream / @ schemeIdUri (and optional EventStream / @ value) attributes, Event data, that is, entity data required to execute an event, metadata such as data such as commands, and access information thereof can be added to the content part of the EventStream / Event element.
  • Event data that is, entity data required to execute an event
  • metadata such as data such as commands, and access information thereof can be added to the content part of the EventStream / Event element.
  • Event stored as data elements under MPD / Period / EventStream / Event (what should be stored) is the value of “EventStream / @ schemeIdUri” attribute (in the example of FIG. Specified (defined) by: xxx).
  • MPD Event is applicable only when the contents of the period described in the MPD can be determined before sending the MPD.
  • FIG. 10 is a diagram for explaining the procedure of analysis processing (parse) of the MPD executed in the receiving apparatus.
  • FIG. 10 shows the following figures. (1) MPD (2) Period unit information (3) Representation unit information (4) Segment unit information
  • the receiving apparatus (client) that receives the AV segment and executes the reproduction process of the AV content acquires the MPD included in the signaling data received in advance before receiving the AV segment, and the information corresponding to the data to be reproduced in the own apparatus Obtain from MPD.
  • period unit information in which information is recorded (specifically, information is recorded corresponding to the AV segment reproduction time) is selected. Furthermore, the presentation unit information corresponding to the type of data to be reproduced is selected in the own apparatus (client), and (4) segment unit information corresponding to the reproduction target segment is selected. With reference to the data recorded in the (4) segment unit information, it is possible to acquire an AV segment to be reproduced and various information necessary for AV segment reproduction.
  • the receiving device When event information is recorded in the segment unit information of the received MPD, the receiving device (client) performs activation (event activation processing such as execution, start, etc.) of the designated event according to the recorded event information. become.
  • activation event activation processing such as execution, start, etc.
  • an event insertion execution device 310 that executes generation (or acquisition) and output of an MPD recording event information, and an event that receives an event recording MPD and executes processing according to the MPD recording event information
  • the configuration and processing example of the execution device 320 will be described.
  • FIG. 11 shows, on the left side, an event insertion and execution apparatus 310 that executes generation (or acquisition) and output of an MPD recording event information. Further, on the right side of FIG. 11, there is shown an event execution device 320 which receives an MPD recording event information and executes processing (event activation) according to the event information recorded in the MPD.
  • the event insertion execution device 310 receives signaling data such as MPD, and the broadcasting server 21 that transmits an AV segment, the data distribution server 22, or signaling data such as MPD in a receiving device, and an AV segment. It is the middleware 110 (middleware 110 shown in FIG. 5 and FIG. 6) of the reception apparatus to output to the reproduction control unit 131 of the reception apparatus.
  • the event execution device 320 shown on the right side of FIG. 11 is a reproduction control unit of the reception device that receives the signaling data such as MPD and the AV segment and executes the content reproduction processing (FIGS. 5 and 6).
  • the process executed by the event insertion and execution device 310 will be described.
  • the event insertion execution device 310 has a data output unit (DASH server) 311 and an event processing unit (event server) 312. Note that these server functions include the functions of the broadcast server 21 that transmits signaling data such as MPD, etc., the AV segment, the data distribution server 22, and the middleware 110 (middleware 110 shown in FIGS. 5 and 6) of the receiving apparatus. It is.
  • the processing executed by the event insertion and execution device 310 will be described below for each processing step.
  • Step S11 First, in step S11, the data output unit (DASH server) 311 of the event insertion execution device 310 generates or acquires a segment including MPD as signaling data and AV data constituting playback content.
  • DASH server data output unit
  • event insertion and execution apparatus 310 When the event insertion and execution apparatus 310 is the broadcast server 21 and the data distribution server 22, processing is performed to generate or acquire an MPD and a segment.
  • processing is performed to acquire the MPD and the segment from the received data.
  • Step S12 the event processing unit (event server) 312 of the event insertion execution device 310 generates or acquires event information.
  • the event information notifies or requests execution of some processing to the receiving apparatus, for example, change of a program guide, change of data mode of broadcast content, processing to be executed when reproducing broadcast content in the receiving apparatus, or the like It is information for.
  • event insertion and execution apparatus 310 When the event insertion and execution apparatus 310 is the broadcast server 21 and the data distribution server 22, processing for generating or acquiring event information is performed.
  • event insertion and execution apparatus 310 is the middleware 110 (middleware 110 shown in FIGS. 5 and 6) of the reception apparatus, processing for acquiring event information from received data is performed.
  • Step S13 the data output unit (DASH server) 311 of the event insertion execution device 310 inserts event information into the MPD as signaling data.
  • the event information record MPD described above with reference to FIG. 9 is generated.
  • the event information recording MPD shown in FIG. The type and content of the event, the activation time of the event, duration information and the like are recorded.
  • the receiving device can activate (for example, execute) the designated event at the designated time according to the event information recorded in the MPD, and can perform processing such as continuing the designated duration.
  • step S14 the data output unit (DASH server) 311 of the event insertion execution device 310 transmits (outputs) an event information record MPD in which event information is recorded in MPD as signaling data.
  • DASH server data output unit 311 of the event insertion execution device 310
  • the event information record MPD is transmitted via a broadcast wave or a network.
  • the event information record MPD is output to the proxy server or the reproduction control unit.
  • Steps S15 to S16 Next, in steps S15 to S16, the data output unit (DASH server) 311 of the event insertion execution device 310 transmits (outputs) a segment storing AV content and the like. Segment transmission is continuously performed from step S16.
  • DASH server data output unit
  • the segment is transmitted via a broadcast wave or a network.
  • the event insertion execution device 310 is the middleware 110 (the middleware 110 shown in FIGS. 5 and 6) of the reception device, the segment is output to the proxy server or the reproduction control unit.
  • the event execution device 320 receives the signaling data such as MPD, etc., and the AV segment, and executes the content reproduction process.
  • the reproduction control unit of the reception device (reproduction control units 131 and 151 shown in FIG. 5 and FIG. ).
  • the processing executed by the event execution device 320 shown in FIG. 11 is processing executed by the reproduction control units 131 and 151 of the reception device.
  • the reproduction control unit is illustrated as a configuration separated into processing type units corresponding to the type of processing to be executed. Specifically, a reproduction control unit (event client) 321 as an event handling process execution unit, a reproduction control unit (DASH client) 322 that executes a content reproduction process to which an MPD or an AV segment is applied, and these two processing units It shows.
  • Step S21 First, the reproduction control unit (DASH client) 322 of the event execution device 320 requests the event insertion execution device 310 to acquire an MPD as signaling data in step S21.
  • DASH client reproduction control unit
  • Step S22 the reproduction control unit (DASH client) 322 of the event execution device 320 acquires event information from the MPD acquired from the event insertion execution device 310 in step S22.
  • the MPD acquired here is an event information recording MPD, that is, event information MPD shown in FIG.
  • event information record MPD the type and content of the event, the activation time of the event (for example, activation such as execution or stop) time, duration information and the like are recorded.
  • the receiving device can activate (for example, execute) the designated event at the designated time according to the event information recorded in the MPD, and can perform processing such as continuing the designated duration.
  • Step S23 the reproduction control unit (event client) 321 of the event execution device 320 performs event application scheduling processing in accordance with the event information acquired from the MPD.
  • the event information record MPD the type and content of the event, the activation (activation) time of the event, the duration time information, and the like are recorded, and the reproduction control unit (event client) of the event execution device 320 Reference numeral 321 refers to these pieces of information and performs event execution scheduling processing.
  • Step S24 the reproduction control unit (DASH client) 322 of the event execution device 320 sends a segment acquisition request to the event insertion execution device 310 in step S24.
  • Step S25 the reproduction control unit (DASH client) 322 of the event execution device 320 acquires AV content and the like from the segment acquired in step S24 and executes reproduction processing.
  • DASH client DASH client
  • Step S26 the reproduction control unit (event client) 321 of the event execution device 320 performs application processing of an event scheduled according to the event information acquired from the MPD, that is, event activation (event execution, start, etc.) processing. .
  • Steps S27 to S29 The processes of steps S27 to S29 are similar to the processes of steps S24 to S26. This series of processing will be performed continuously.
  • the receiving apparatus can execute various events according to the event information recorded in the MPD in addition to the process of receiving and reproducing the AV segment.
  • segment application event notification method In-band Event Signaling
  • segment application event notification method In-band Event Signaling
  • the transmission device 20 illustrated in FIG. 1 encodes content data, and generates and transmits a data file including encoded data and metadata of the encoded data.
  • the encoding process is performed, for example, in accordance with the MP4 file format defined in the MPEG.
  • the file of encoded data when the transmission device 20 generates a data file of MP4 format is called “mdat”, and the metadata is called “moov” or “moof”.
  • the content provided by the transmission device 20 is, for example, various data such as music data, movies, television programs, videos, picture data such as pictures, documents, pictures and diagrams, and games and software.
  • Initialization segment is a segment storing initialization data such as setting information required to execute content reproduction, such as setting of a decoder in the receiving device 30.
  • the initialization segment includes the following information.
  • media segment includes the following information as shown in FIG. (B1) header information (msdh) including file type information of segments, etc. (B2) access information (sidx) indicating boundary information of a plurality of sub-segments (Sub-Segment) stored in the media segment or a random access point of media data (mdat) which is encoded content stored in the media segment ), (B3) Multiple sub-segments (Sub-Segment),
  • Sub-Segment is composed of one or more fragments (Fragment).
  • the fragment (Fragment) contains the following data.
  • Media data (mdat) which is encoded content to be reproduced
  • Metadata (moof) corresponding to media data (mdat)
  • Various information control information, management information, attribute information, etc. corresponding to media data (mdat).
  • Media data (mdat), metadata (moof), and other various information (control information, management information, attribute information, etc.) are individually stored in a box defined in the MP4 format.
  • AV data is stored in the mdat box.
  • Metadata is stored in the moof box.
  • Various other information is also stored in the box defined according to each information.
  • Event information is stored in an event information storage box [emsg box] defined in MP4 format as a box for storing event information as part of various information.
  • FIG. 13 shows data of two event information storage boxes (emsg) in which two pieces of event information of event identifiers 1 and 2 are individually stored.
  • the event information storage box (emsg) has, for example, the following description.
  • box_type 'emsg' This data recording area is a box type recording area. It describes that this box (data storage box defined in MP4) is an event information storage box (emsg).
  • the data recording area is a recording area of event specification information indicating an event type and the like.
  • timescale 1000
  • the data recording area is a recording area of time scale information.
  • event scheduling data such as activation (execution start etc.) time and duration of an event.
  • activation activation / execution
  • time 0 of the event specified by the event specification information it is specified to continue until time 0xFFFF.
  • 0xFFFF indicates that the end time is not defined, and it is specified that the event may or may not be continued until the end of reproduction of the AV content corresponding to the segment set in the event information storage box.
  • This data recording area is an event identification information recording area.
  • message_data [] event data -1
  • This data recording area is a recording area of event data.
  • the event data is constituted by data such as entity data, metadata, commands and the like required to execute the event, access information thereof and the like.
  • event information can be recorded and transferred in a segment stream (in-stream).
  • event notification method In-band Event Signaling
  • type of event can be defined in the “scheme_id_uri” field and the optional “value” field.
  • event data that is, entity data, metadata, data such as commands, etc. required to execute an event, access information thereof, etc. can be added to the “message_data” field.
  • an event insertion / execution device 310 that executes generation (or acquisition) and output of a segment recording event information, and event recording information segment received and recorded in the segment
  • the configuration and process example of the event execution device 320 that executes the corresponding process will be described.
  • FIG. 14 shows, on the left side, an event insertion and execution apparatus 310 that executes generation (or acquisition) and output of a segment recording event information. Also, on the right side of FIG. 14 is shown an event execution device 320 which inputs a segment in which event information is recorded and executes processing (event activation) according to the event information recorded in the segment.
  • the event insertion execution device 310 receives signaling data such as MPD, and the broadcasting server 21 that transmits an AV segment, the data distribution server 22, or signaling data such as MPD in a receiving device, and an AV segment. It is the middleware 110 (middleware 110 shown in FIG. 5 and FIG. 6) of the reception apparatus to output to the reproduction control unit 131 of the reception apparatus.
  • the event execution device 320 shown on the right side of FIG. 14 is a reproduction control unit of the reception device that receives the signaling data such as MPD and the AV segment and executes the content reproduction process (FIGS. 5 and 6).
  • the process executed by the event insertion and execution device 310 will be described.
  • the event insertion execution device 310 has a data output unit (DASH server) 311 and an event processing unit (event server) 312. Note that these server functions include the functions of the broadcast server 21 that transmits signaling data such as MPD, etc., the AV segment, the data distribution server 22, and the middleware 110 (middleware 110 shown in FIGS. 5 and 6) of the receiving apparatus. It is.
  • the processing executed by the event insertion and execution device 310 will be described below for each processing step.
  • Step S31 First, in step S31, the data output unit (DASH server) 311 of the event insertion execution device 310 generates or acquires a segment including MPD as signaling data and AV data constituting playback content.
  • DASH server data output unit
  • event insertion and execution apparatus 310 When the event insertion and execution apparatus 310 is the broadcast server 21 and the data distribution server 22, processing is performed to generate or acquire an MPD and a segment.
  • processing is performed to acquire the MPD and the segment from the received data.
  • Step S32 the event processing unit (event server) 312 of the event insertion execution device 310 generates or acquires event information in step S32.
  • the event information notifies or requests execution of some processing to the receiving apparatus, for example, change of a program guide, change of data mode of broadcast content, processing to be executed when reproducing broadcast content in the receiving apparatus, or the like It is information for.
  • event insertion and execution apparatus 310 When the event insertion and execution apparatus 310 is the broadcast server 21 and the data distribution server 22, processing for generating or acquiring event information is performed.
  • event insertion and execution apparatus 310 is the middleware 110 (middleware 110 shown in FIGS. 5 and 6) of the reception apparatus, processing for acquiring event information from received data is performed.
  • Step S33 the data output unit (DASH server) 311 of the event insertion execution device 310 inserts event information into the segment.
  • a segment including an emsg box which is an event information recording box defined in the MP4 format described above with reference to FIG. 13 is generated.
  • the event information recording box (emsg) i shown in FIG. The type and content of the event, the activation time of the event, duration information and the like are recorded.
  • the receiving apparatus can activate (for example, execute) the designated event at the designated time according to the event information recorded in the emsg box in the segment, and perform processing such as continuing the designated duration.
  • Step S34 Next, the data output unit (DASH server) 311 of the event insertion execution device 310 transmits (outputs) the MPD as signaling data in step S34.
  • DASH server data output unit 311 of the event insertion execution device 310
  • the MPD is transmitted via a broadcast wave or a network.
  • the MPD is output to the proxy server or the reproduction control unit.
  • Steps S35 to S36 the data output unit (DASH server) 311 of the event insertion execution device 310 transmits (outputs) a segment storing AV content and the like.
  • the segment to be transmitted is a segment including an event information recording box (emsg) defined in the MP4 format. Segment transmission is continuously performed from step S36.
  • the segment is transmitted via a broadcast wave or a network.
  • the event insertion execution device 310 is the middleware 110 (the middleware 110 shown in FIGS. 5 and 6) of the reception device, the segment is output to the proxy server or the reproduction control unit.
  • the event execution device 320 receives the signaling data such as MPD, etc., and the AV segment, and executes the content reproduction process.
  • the reproduction control unit of the reception device (reproduction control units 131 and 151 shown in FIG. 5 and FIG. ).
  • the processing executed by the event execution device 320 shown in FIG. 14 is processing executed by the playback control units 131 and 151 of the reception device.
  • the reproduction control unit is shown separately according to the type of processing to be performed. In other words, it is divided into two processing units of a reproduction control unit (event client) 321 as an event handling process execution unit and a reproduction control unit (DASH client) 322 that executes content reproduction processing to which an MPD or AV segment is applied. ing.
  • Step S41 First, the reproduction control unit (DASH client) 322 of the event execution device 320 requests the event insertion and execution device 310 to acquire an MPD as signaling data in step S41.
  • DASH client reproduction control unit
  • Step S42 the reproduction control unit (DASH client) 322 of the event execution device 320 sends a segment acquisition request to the event insertion execution device 310 in step S44.
  • Step S43 the reproduction control unit (DASH client) 322 of the event execution device 320 acquires event information from the segment acquired from the event insertion execution device 310 in step S42.
  • the segment acquired here has an event information recording box (emsg). That is, the segment (event information recording segment) including the event information recording box (emsg) in which the event information shown in FIG. 13 is recorded is assumed.
  • the type and content of the event, the activation (activation) time of the event, duration information and the like are recorded.
  • the receiving device can activate (for example, execute) the designated event at the designated time according to the event information recorded in the segment, and perform processing such as continuing the designated duration.
  • Step S44 the playback control unit (event client) 321 of the event execution device 320 performs application processing of an event scheduled according to the event information acquired from the segment, that is, event activation (event execution, start, etc.) processing. .
  • Step S45 the reproduction control unit (DASH client) 322 of the event execution device 320 acquires AV content and the like from the segment acquired in step S42, and executes reproduction processing.
  • DASH client DASH client
  • Steps S46 to S49 The processes of steps S46 to S49 are similar to the processes of steps S42 to S45. This series of processing is continuously executed as segment-based processing.
  • the receiving apparatus can execute various events according to the event information recorded in the event information recording box (emsg) in the segment, in addition to the process of receiving and reproducing the AV segment It becomes.
  • Each of the tuner mounted receiver (client A) 30 and the tuner non-mounted receiver (client B) 40 described above with reference to FIGS. 5 and 6 has the signaling data processing units 140 and 160.
  • the signaling data processing units 140 and 160 execute processing based on the signaling data transmitted by the transmission device 20 (the broadcast server 21 and the data distribution server 22).
  • the signaling data 50 includes program schedule information such as a program guide, address information (URL (Uniform Resource Locator), etc.) required for program acquisition, and further, reproduction processing of content. , And various control information such as application control information and the like.
  • a signaling data processing unit (SLS Signaling Parser & Viewer) 140, 160 acquires signaling data (SLS: Service Layer Signaling) and executes processing based on the acquired signaling data.
  • the signaling data processing units 140 and 160 perform various processes based on the signaling data. For example, processing for providing the reproduction control unit 131 with program schedule information such as a program guide, address information (URL) required for program acquisition, codec information (such as encoding method), display of signaling data, for example, a program guide Perform display processing of
  • signaling data such as the program schedule (program guide), address information, codec information, etc. may be updated as needed, and the receiving apparatus performs processing using the latest signaling data. It needs to be done.
  • This notification information is the signaling data update information (SLS-Update Message) shown in FIG.
  • signaling data update information is recorded in a segment.
  • the reproduction control units 131 and 151 execute processing of outputting this to the signaling data processing units 140 and 160.
  • the signaling data update information is transmitted and output using the event notification mechanism described above.
  • the details of the notification configuration of the signaling data update information using this event notification mechanism will be described below.
  • the DASH standard defines the following two types of event notification schemes as event notification mechanisms.
  • B) A specific data configuration example in the case of performing event notification using the segment application event notification method ( In-band Event Signaling) is as described with reference to FIG.
  • (B) Signaling data update information is notified using an event notification method using a segment application event notification method ( In-band Event Signaling).
  • Event type information is recorded in the event notification message using this segment application event notification method as information for specifying the type of event.
  • the event information storage box (emsg) in the segment shown in FIG. scheme_id_uri "urn: xxx"
  • the data recording area is a recording area of event specification information indicating an event type and the like.
  • the above identifier is an example, and if the receiving apparatus is data (character string or code) that can be determined that the event information extracted from the segment is event information related to signaling data update information, various identifiers are It is available.
  • Event data is stored in this event notification method.
  • the event data is constituted by data such as entity data, metadata, commands and the like required to execute the event, access information thereof and the like.
  • SLS Service Layer Signaling
  • FIG. 15 shows the following two configuration examples of signaling data update information stored as event data in an event notification message.
  • Signaling data (SLS) non-storing type signaling data update information (SLS Update message) is a type that does not store the signaling data (SLS) main body, and the access information for acquiring the signaling data (SLS) main body It is stored.
  • Signaling Data (SLS) Main Body Storage Type The signaling data update information (SLS Update message) is a type storing the signaling data (SLS) main body.
  • SLS Signaling Data
  • SLS Update message The components of the non-storage type signaling data update information (SLS Update message) are as follows. (1a) Signaling data (SLS) identifier and version
  • SLS Signaling Data
  • SLS Update message The components of the stored signaling data update information (SLS Update message) are as follows. (2a) Signaling data (SLS) identifier and version (2b) Signaling data (SLS) body
  • the stored data will be described below.
  • the signaling data (SLS) identifier included in (2a) is an identifier such as url for acquiring the updated signaling data.
  • the version is version information of the updated signaling data.
  • the identifier of signaling data when designated by url, it may acquire by broadcast and may acquire via net. When via the net, it is acquired by HTTP by a normal net system stack. When acquired by broadcast, it is transferred according to the ROUTE protocol, similarly to a signaling file storing signaling data and a DASH segment file.
  • the signaling data body included in (2b) is the updated signaling data itself.
  • the DASH standard defines the following two types of event notification methods as an event notification mechanism.
  • the above segment application event notification method is applied to notify of signaling data update information.
  • emsg event information storage box
  • signaling data update information It is a figure which shows the example of a description of [event information storage box (emsg)] in the segment in the case of notifying.
  • the format may be encoded as a binary bit stream representation or as text encoded by XML or the like.
  • FIG. 16 shows two event information storage boxes in which the two signaling data update information 1 and 2 (SLS Update) of the signaling data update information 1 and 2 (SLS Update 1 and 2) identified by the event identifiers 1 and 2 are individually stored.
  • the data of (emsg) is shown.
  • the segment including the signaling data update information as shown in FIG. 16 has, for example, the following description.
  • box_type 'emsg' This data recording area is a box type recording area. It describes that this box (data storage box defined in MP4) is an event information storage box (emsg).
  • the data recording area is a recording area of event specification information indicating an event type and the like.
  • Scheme_id_uri urn: atsc: SLSUpdate " It indicates that this event notification is an event notification for notifying signaling data update information.
  • timescale 1000
  • the data recording area is a recording area of time scale information.
  • event scheduling data such as activation (execution start etc.) time and duration of an event.
  • activation activation / execution
  • time 0 of the event specified by the event specification information it is specified to continue until time 0xFFFF.
  • 0xFFFF indicates that the end time is not defined, and it is specified that the event may or may not be continued until the end of reproduction of the AV content corresponding to the segment set in the event information storage box.
  • This data recording area is an event identification information recording area.
  • SMS Update1 This data recording area is a recording area of event data.
  • signaling data update information 1 (SLS Update 1) is stored as event data.
  • the signaling data update information 1 (SLS Update 1) shown in FIG. 17 (1) has the same data configuration as the signaling data non-stored signaling data update information (SLS Update) described above with reference to FIG. 15 (1). , With the following data components: (1a) Signaling data identifier and version information
  • segment application event (SLS Update 1) notification message corresponding to event identifier 1 in FIG.
  • Signaling data identifier sls-uri
  • the signaling data update information 2 (SLS Update 2) stored in the segment application event (SLS Update 2) corresponding to event identifier 2 shown in the lower part of FIG. 16 has a data configuration shown in FIG. 17 (2).
  • the signaling data update information 2 (SLSUpdate 2) shown in FIG. 17 (2) also has the same data configuration as the signaling data non-stored signaling data update information (SLS Update) described above with reference to FIG. 15 (1).
  • SLS Update signaling data update information
  • Signaling data identifier sls-uri
  • the signaling data that can be identified and obtained by It is an event notification message having a description to execute acquisition and processing of version 2 signaling data at time 1000.
  • signaling data update information is an event type in the "scheme_id_uri” field and the optional "value” field.
  • event data that is, as signaling data update information, a signaling data body or an identifier, version information of the signaling data, and the like can be added to the "message_data" field.
  • a transmitting device 510 that executes generation (or acquisition) and output of a segment in which signaling data update information is recorded as event information, and signaling data update recorded in the segment upon reception of the signaling data update information recording segment
  • the configuration and the process of the receiving device 520 that executes the process according to the information are shown.
  • FIG. 18 shows, on the left side, a transmission device 510 that executes generation (or acquisition) and output of a segment in which signaling data update information is recorded. Also, on the right side of FIG. 18, there is shown a receiving apparatus 520 which receives a segment in which the signaling data update information is recorded and executes a signaling data update process according to the signaling data update information recorded in the segment.
  • the transmission device 510 is a broadcast server 21 that transmits signaling data such as MPD, and an AV segment, and a data distribution server 22.
  • the receiving device 520 shown on the right side of FIG. 18 is a receiving device that inputs signaling data such as MPD and an AV segment and executes content reproduction processing.
  • the transmission device 510 includes a data output unit (DASH server) 511, a signaling data processing unit (SLS server) 512, and a broadcast signal generation unit (broadcast server) 513.
  • DASH server data output unit
  • SLS server signaling data processing unit
  • broadcast signal generation unit broadcast server
  • these server functions are functions possessed by the broadcast server 21 and the data distribution server 22 shown in FIG. 1 that transmit signaling data such as MPD and AV segments.
  • the process performed by the transmission device 510 will be described for each processing step.
  • Step S101 First, in step S101, the data output unit (DASH server) 511 of the transmission device 510 generates or acquires a segment including an MPD and AV data constituting playback content.
  • DASH server data output unit
  • the signaling data processing unit (SLS server) 512 of the transmission device 510 generates signaling data in step S102.
  • the signaling data is, for example, an updated version of the signaling data already sent.
  • the signaling data is, for example, necessary for program schedule information such as a program guide, address information (URL (Uniform Resource Locator), etc.) required for program acquisition, and further for content reproduction processing. It is configured by various control information such as guidance information including information, for example, codec information (coding method and the like) and application control information.
  • Step S103 the signaling data processing unit (SLS server) 512 of the transmission device 510 generates signaling data update information as an event in step S103.
  • the signaling data update information described above with reference to FIG. 15 is generated.
  • the signaling data update information has, for example, the following two data types. (1) Signaling data non-storage type signaling data update information (SLS Update Message) (2) Signaling data body storing type signaling data update information (SLS Update Message)
  • any one of these types of signaling data update information is generated, and further, determination of parameters to be set in the event notification message, and the like is performed.
  • each parameter required in event notification such as activation time and duration of signaling data update information. That is, setting processing of parameters and other format data for enabling transmission of signaling data update information using an event notification mechanism in accordance with the DASH standard is performed.
  • Step S104 the data output unit (DASH server) 311 of the transmission device 510 inserts signaling data update information as event information into the emsg box defined in MP4 which is the configuration data of the segment.
  • the data output unit (DASH server) 311 of the transmission device 510 inserts signaling data update information as event information into the emsg box defined in MP4 which is the configuration data of the segment.
  • a segment including the signaling data update information described above with reference to FIG. 16 is generated.
  • an emsg box recording data defined in MP4 is generated.
  • the signaling data update information storage segment shown in FIG. It is shown that the type of event is signaling data update information. Further, as the event data, the signaling data update information described with reference to FIG. 15 is stored. Furthermore, the activation (activation) time of signaling data update information, duration information, etc. are recorded. The receiving apparatus can perform processing referring to the designated signaling data update information according to the signaling data update information recorded in the segment.
  • the latest signaling data updated according to the recording data of the signaling data update information can be acquired, and various processes with reference to the acquired latest signaling data can be executed.
  • the update time of the signaling data, the execution time of the usage process, etc., and the duration time will follow the segment (emsg box) recording data.
  • Step S105 Next, the data output unit (DASH server) 511 of the transmission device 510 transmits (outputs) the segment in which the MPD and the signaling data update information are recorded in step S105.
  • DASH server data output unit
  • the transmission device 510 is the broadcast server 21
  • the broadcast signal generation unit (broadcast server) 513 processing is performed in which the MPD and the segment are placed on the broadcast wave and transmitted.
  • the MPD and the segment are transmitted via the network.
  • FIG. 18 shows the middleware 521, the signaling data processing unit 522, and the reproduction control unit 523 of the reception device 520. These configurations correspond to the respective configurations of the tuner mounted receiver 30 shown in FIG. 5 and FIG.
  • Step S121 First, when the reproduction control unit (DASH client) 523 of the reception device 520 acquires a segment from the transmission device 510 via the middleware 521, in step S121, the reproduction control unit (DASH client) acquires event information from the acquired segment.
  • the segment acquired here is a segment including the emsg box in which the signaling data update information is recorded. This is a segment in which the signaling data update information is recorded in the MP4 defined emsg box described with reference to FIG.
  • the type of event is signaling data update information. Further, as the event data, the signaling data update information described with reference to FIG. 15 is stored. Furthermore, the activation (activation) time of signaling data update information, duration information, etc. are recorded.
  • the receiving apparatus can perform acquisition of signaling data, processing in accordance with the signaling data, and the like by using the signaling data update information recorded in this segment.
  • Step S122 the signaling data processing unit 522 of the reception device 520 refers to the signaling data update information acquired from the segment to acquire the latest updated signaling data, and acquires the latest updated signaling acquired. Perform processing according to the data. That is, the signaling data processing unit 522 executes a signaling data update process and performs data processing in accordance with the signaling information recorded in the updated signaling data. Specifically, for example, processing for updating a program guide is performed.
  • the signaling data update information described with reference to FIG. 15 is stored as event data.
  • the signaling data update information a signaling data body to be updated or identification information is recorded, and further, version information or the like is recorded.
  • the signaling data processing unit 522 executes processing based on the acquired latest signaling data with reference to the latest updated signaling data acquired in accordance with the recording data of the signaling data update information.
  • the duration information is recorded in the segment (MP4 specified emsg box) as described above with reference to FIG.
  • Step S123 the reproduction control unit (DASH client) 523 of the reception device 520 acquires AV content and the like from the segment received from the transmission device 510 and executes reproduction processing.
  • the processes in steps S141 to S143 are continuously and repeatedly executed.
  • the receiving device updates the signaling data and applies signaling data according to the signaling data update information as event information recorded in the segment, in addition to the process of receiving and reproducing the AV segment. It can be performed without a large delay, that is, in a timely manner.
  • the receiver (client) that executes the reproduction of the broadcast content etc. includes the tuner mounted receiver (client A) 30 and the tuner non-mounted receiver ( There is a client B) 40.
  • tuner non-implemented receiver (client B) 40 can not directly receive the broadcast wave, it is necessary to input various data via the tuner implemented receiver (client A) 30. The same applies to the signaling data update information, and since the tuner non-implemented receiver (client B) 40 can not receive the signaling data update information directly, it is necessary to input via the tuner implemented receiver (client A) 30. It becomes.
  • a processing sequence in the case where the tuner non-implemented receiver (client B) 40 performs processing by inputting the signaling data update information via the tuner implemented receiver (client A) 30 will be described.
  • a transmitting device 610 that executes generation and output of an AV segment and signaling data update information
  • a tuner mounted receiver 620 for receiving an AV segment or signaling data update information and generating a signaling data update information recording segment in which the signaling data update information is recorded in the segment as event information
  • a tuner non-implemented receiver 630 which receives the signaling data update information recording segment from the tuner implemented receiver 620 and executes processing according to the segment record signaling data update information
  • the transmission device 610 is a broadcast server 21 that transmits signaling data such as MPD, and an AV segment, and a data distribution server 22.
  • the transmission device 610 includes a data output unit (DASH server) 611, a signaling data processing unit (SLS server) 612, and a broadcast signal generation unit (broadcast server) 613.
  • DASH server data output unit
  • SLS server signaling data processing unit
  • broadcast signal generation unit broadcast server
  • server functions are functions possessed by the broadcast server 21 and the data distribution server 22 shown in FIG. 1 that transmit signaling data such as MPD and AV segments.
  • the processing executed by the transmission device 610 will be described below for each processing step.
  • Step S251 First, in step S251, the data output unit (DASH server) 611 of the transmission device 610 generates and acquires an MPD as signaling data and a segment including AV data constituting playback content.
  • DASH server data output unit
  • Step S252 the signaling data processing unit (SLS server) 612 of the transmission device 610 generates signaling data, and transmits the signaling data generated in step S253.
  • SSS server signaling data processing unit
  • the signaling data is, for example, program schedule information such as a program guide, address information (URL (Uniform Resource Locator), etc.) necessary for program acquisition, and information necessary for content reproduction processing,
  • program schedule information such as a program guide, address information (URL (Uniform Resource Locator), etc.) necessary for program acquisition, and information necessary for content reproduction processing
  • control information such as guidance information composed of codec information (such as encoding method) and application control information.
  • Step S254 the data output unit (DASH server) 611 of the transmission device 610 transmits (outputs) the MPD and the segment as signaling data in step S254.
  • the transmission device 610 is the broadcast server 21
  • the broadcast signal generation unit (broadcast server) 613 processing is performed in which the MPD and the segment are placed on the broadcast wave and transmitted.
  • the MPD and the segment are transmitted via the network.
  • the tuner mounted receiver 620 has the same configuration as the tuner mounted receiver 30 shown in FIGS. 5 and 6.
  • the middleware of the tuner implemented receiver 620 receives the MPDs and segments transmitted by the transmitter 610 and further the signaling data (SLS).
  • the tuner implementation reception device 620 generates a signaling data update information recording segment in which the signaling data update information is recorded in the segment as event information in the middleware 621.
  • the generated signaling data update information recording segment, the MPD, and the AV segment are transferred to the tuner non-implementation receiver 630. The process of each step executed by the tuner mounted receiver 620 will be described.
  • Step S261 Upon receiving the signaling data from the transmitting device 610, the middleware 621 of the tuner implemented receiving device 620 generates signaling data update information as an event based on the received signaling data in step S261. For example, the signaling data update information described above with reference to FIG. 15 is generated. As described with reference to FIG. 15, the signaling data update information has, for example, the following two data types. (1) Signaling data non-storage type signaling data update information (SLS Update Message) (2) Signaling data body storing type signaling data update information (SLS Update Message) In step S261, any one of these types of signaling data update information is generated, and further, determination of parameters to be set in the event notification message, and the like is performed.
  • SLS Update Message Signaling data non-storage type signaling data update information
  • SLS Update Message Signaling data body storing type signaling data update information
  • each parameter required in event notification such as activation time and duration of signaling data update information. That is, setting processing of parameters and other format data for enabling transmission of signaling data update information using an event notification mechanism in accordance with the DASH standard is performed.
  • Step S262 the middleware 621 of the tuner implementation receiving apparatus 620 inserts signaling data update information as event information into the emsg box defined in MP4 which is the configuration data of the segment.
  • a segment including the signaling data update information described above with reference to FIG. 16 is generated.
  • an emsg box recording data defined in MP4 is generated.
  • the signaling data update information storage segment shown in FIG. It is shown that the type of event is signaling data update information. Further, as the event data, the signaling data update information described with reference to FIG. 15 is stored. Furthermore, the activation (activation) time of signaling data update information, duration information, etc. are recorded. The receiving apparatus can perform processing referring to the designated signaling data update information according to the signaling data update information recorded in the segment.
  • the latest signaling data updated according to the recording data of the signaling data update information can be acquired, and various processes with reference to the acquired latest signaling data can be executed.
  • the update time of the signaling data, the execution time of the usage process, etc., and the duration time will follow the segment (emsg box) recording data.
  • Step S263 the middleware 621 of the tuner implemented receiver 620 transmits (outputs) the MPD and the other segment in which the signaling data update information is recorded in step S263.
  • the MPD and segment output from the tuner mounted receiver 620 to the tuner non-mounted receiver 630 are executed, for example, from the middleware of the tuner mounted receiver 620 via the proxy server.
  • FIG. 19 shows a signaling data processing unit 631 and a reproduction control unit 632 of the tuner non-implemented reception device 630. These configurations correspond to the respective configurations of the tuner non-mounted receiving apparatus 40 shown in FIGS. 5 and 6.
  • Step S271 First, the reproduction control unit (DASH client) 632 of the tuner non-implemented reception device 630 acquires a segment through the middleware 621 of the tuner implementation reception device 620, and acquires event information from the acquired segment in step S271.
  • DASH client reproduction control unit
  • the segment acquired here is a segment including the emsg box in which the signaling data update information is recorded. This is a segment in which the signaling data update information is recorded in the MP4 defined emsg box described with reference to FIG.
  • the type of event is signaling data update information. Further, as the event data, the signaling data update information described with reference to FIG. 15 is stored. Furthermore, the activation (activation) time of signaling data update information, duration information, etc. are recorded. The receiving device can acquire the updated latest signaling data according to the signaling data update information recorded in this segment, and can execute various processes with reference to the acquired latest signaling data.
  • Step S272 the signaling data processing unit 631 of the tuner non-implemented reception device 630 refers to the signaling data update information acquired from the segment to acquire the latest updated signaling data, and acquires the latest update acquired. Processing according to the received signaling data. That is, the signaling data processing unit 522 executes a signaling data update process and performs data processing in accordance with the signaling information recorded in the updated signaling data. Specifically, for example, processing for updating a program guide is performed.
  • the signaling data update information described with reference to FIG. 15 is stored as event data.
  • the signaling data update information a signaling data body to be updated or identification information is recorded, and further, version information or the like is recorded.
  • the signaling data processing unit 522 executes processing based on the acquired latest signaling data with reference to the latest updated signaling data acquired in accordance with the recording data of the signaling data update information.
  • the duration information is recorded in the segment (MP4 specified emsg box) as described above with reference to FIG.
  • Step S273 the reproduction control unit (DASH client) 632 of the tuner non-implemented reception device 630 acquires AV content and the like from the segment received via the tuner implementation reception device 620 and executes reproduction processing.
  • the processes of steps S271 to S273 are continuously and repeatedly executed.
  • the tuner non-implemented reception device 630 updates the signaling data and applies the signaling data according to the signaling data update information as event information recorded in the segment, in addition to the process of receiving and reproducing the AV segment. Can be performed without a large delay, that is, in a timely manner.
  • FIG. 20 shows a configuration example of the transmission device (server) 20 and the reception device (client) 30.
  • the transmission device (server) 20 includes a data processing unit 751, a communication unit 752, and a storage unit 753.
  • the receiving apparatuses (clients) 30 and 40 each include a data processing unit 771, a communication unit 772, a storage unit 773, an input unit 774, and an output unit 775.
  • the data processing unit includes a reproduction control unit 771a, an output control unit 771b, and a signaling data processing unit 771c.
  • the data processing unit 751 of the transmission device (server) 20 executes various data processing for executing the data distribution service. For example, generation and transmission control of configuration data of a data distribution service are performed. Furthermore, the data processing unit 751 performs generation processing and transmission processing of an application to be provided to the reception apparatus (client) 30, signaling data update information, a signaling data update information storage segment, various other data, and signaling data.
  • the communication unit 752 performs communication processing such as distribution of an application, signaling data update information, a signaling data update information storage segment, various other data, signaling data and the like in addition to the AV segment.
  • the storage unit 753 stores AV segments to be distributed, applications, signaling data update information, signaling data update information storage segments, data used by applications, signaling data, and the like. Furthermore, the storage unit 753 is used as a work area for data processing executed by the data processing unit 751, and is also used as a storage area for various parameters.
  • the receiving devices (clients) 30 and 40 have a data processing unit 771, a communication unit 772, a storage unit 773, an input unit 774, and an output unit 775.
  • the communication unit 772 has different settings for the communication unit of the tuner mounted receiver 30 and the case of the tuner non-mounted receiver 40.
  • the communication unit of the tuner mounted receiver 30 includes data distributed from the transmitter (server) 20, such as AV segments and applications, signaling data update information, signaling data update information storage segments, data used by applications, signaling data, etc. Receive Furthermore, it is configured as a communication unit capable of transmitting and receiving data via a network such as LAN and Wi-Fi.
  • the communication unit of the tuner non-implementation receiving apparatus 40 does not have a tuner unit capable of receiving broadcast waves, and is configured as a communication unit capable of executing data transmission and reception via a network such as LAN and Wi-Fi.
  • the data processing unit 771 includes a reproduction control unit 771a, an output control unit 771b, and a signaling data processing unit 771c, and executes, for example, processing according to the embodiment described above. Specifically, data processing using an application, an API, signaling data update information, and a segment storing the signaling data update information is performed.
  • a user's instruction command for example, various commands such as channel selection, application activation, installation, etc. is input through the input unit 774.
  • the reproduction data is output to an output unit 775 such as a display unit or a speaker.
  • the storage unit 773 stores an AV segment, signaling data update information, a signaling data update information storage segment, an application, data used by the application, signaling data, and the like. Furthermore, the storage unit 773 is used as a work area for data processing executed by the data processing unit 771 and is also used as a storage area for various parameters.
  • FIG. 21 illustrates an exemplary hardware configuration of a communication apparatus applicable as the transmission apparatus 20 and the reception apparatus 30.
  • a central processing unit (CPU) 801 functions as a data processing unit that executes various processes in accordance with a program stored in a read only memory (ROM) 802 or a storage unit 808. For example, processing according to the sequence described in the above-described embodiment is performed.
  • the RAM (Random Access Memory) 803 stores programs executed by the CPU 801, data, and the like.
  • the CPU 801, the ROM 802 and the RAM 803 are mutually connected by a bus 804.
  • the CPU 801 is connected to the input / output interface 805 through the bus 804.
  • the input / output interface 805 is connected to an input unit 806 including various switches, a keyboard, a mouse, a microphone and the like, and an output unit 807 including a display and a speaker. There is.
  • the CPU 801 executes various types of processing in response to an instruction input from the input unit 806, and outputs the processing result to, for example, the output unit 807.
  • a storage unit 808 connected to the input / output interface 805 includes, for example, a hard disk, and stores programs executed by the CPU 801 and various data.
  • a communication unit 809 functions as a transmission / reception unit for data communication via a network such as the Internet or a local area network, and further as a transmission / reception unit for broadcast waves, and communicates with an external device.
  • a drive 810 connected to the input / output interface 805 drives removable media 811 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and executes data recording or reading.
  • data encoding or decoding can be executed as processing of the CPU 801 as a data processing unit, but may be configured to include a codec as dedicated hardware for executing encoding processing or decoding processing.
  • the technology disclosed in the present specification can have the following configurations.
  • the event notification data is The receiving apparatus according to any one of (1) to (3), which is data in which an event identifier indicating that event data is signaling data update information is recorded.
  • the event notification data is The receiving device according to any one of (1) to (4), which is data in which control time information for performing processing is performed according to the signaling data update information stored as event data.
  • the signaling data update information is The receiving device according to any one of (1) to (5), which is data in which the updated signaling data body or the updated signaling data identifier is recorded.
  • the signaling data update information is The receiving device according to any one of (1) to (6), which is data in which version information of signaling data after update is recorded.
  • the receiver further includes: The receiving apparatus according to any one of (1) to (7), further including: a data processing unit that acquires signaling data update information from the event notification data received by the communication unit and outputs the information to the signaling data processing unit.
  • (9) a communication unit that receives signaling data; Middleware for generating event notification data in which the signaling data update information is stored as event data; A data processing unit that acquires signaling data update information from the event notification data and outputs the information to a signaling data processing unit;
  • a receiving apparatus comprising: a signaling data processing unit that executes a signaling data update process based on the signaling data update information.
  • a transmitter having a communication unit for transmitting event notification data in which signaling data update information is stored as event data.
  • a data processing method to be executed in the receiving device receives event notification data storing signaling data update information as event data, A data processing method, wherein a signaling data processing unit executes a signaling data update process based on signaling data update information stored as event data in an event notification message.
  • a data processing method to be executed by a receiving device The communication unit receives the signaling data, The middleware generates event notification data in which the signaling data update information is stored as event data, The data processing unit acquires signaling data update information from the event notification data, and outputs it to the signaling data processing unit, A data processing method, wherein a signaling data processing unit executes a signaling data update process based on the signaling data update information.
  • a data processing method executed by a transmitter The data processing method which a communication part transmits the event notification data which stored the signaling data update information as event data.
  • the series of processes described in the specification can be performed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in memory in a computer built into dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It is possible to install and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be installed from a recording medium to a computer, or can be installed in a recording medium such as a built-in hard disk by receiving a program via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • a system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to those in the same housing.
  • the transmitting device stores the signaling data update information in the event notification message and transmits it to the receiving device.
  • the receiving apparatus outputs the event data to the signaling data processing unit.
  • the signaling data processing unit executes a signaling data update process based on the signaling data update information.
  • the event notification data is stored in a segment that is data for transmission of AV content, and the receiving device can obtain signaling data update information from the segment and perform signaling data update processing.
  • a configuration is realized in which the signaling data update information is stored in the event notification message and transmitted to the receiving device, and reliable signaling data updating processing in the receiving device can be executed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

シグナリングデータ更新情報をイベント通知メッセージに格納して受信装置に送信し、受信装置における確実なシグナリングデータ更新処理を実行可能とした構成を実現する。送信装置が受信装置に、シグナリングデータ更新情報をイベント通知メッセージに格納して送信する。受信装置は、イベント通知に格納されたイベントデータがシグナリングデータ更新情報である場合、シグナリングデータ処理部に出力する。シグナリングデータ処理部は、シグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行する。イベント通知データは、AVコンテンツの送信用データであるセグメント内に格納され、受信装置はセグメントからシグナリングデータ更新情報を取得してシグナリングデータ更新処理を行うことができる。

Description

受信装置、送信装置、およびデータ処理方法
 本開示は、受信装置、送信装置、およびデータ処理方法に関する。さらに詳細には例えば放送波やネットワークを介したデータの受信または送信を実行する受信装置、送信装置、および通信データ対応のデータ処理方法に関する。
 画像データや音声データ等のコンテンツを各通信事業者のサービス形態に関わらず配信可能としたデータ配信方式としてOTT(Over The Top)がある。OTTによる配信コンテンツはOTTコンテンツと呼ばれ、また、OTTを利用した画像(ビデオ)データの配信サービスはOTTビデオやOTT-V(Over The Top Video)と呼ばれる。
 OTT-Vに従ったデータストリーミング配信規格としてDASH(Dynamic Adaptive Streaming overHTTP)規格がある。DASHは、HTTP(HyperText Transfer Protocol)をベースとしたストリーミングプロトコルを用いたアダプティブ(適応型)ストリーミング配信に関する規格である。
 アダプティブ(適応型)ストリーミングでは、放送局等のコンテンツ配信サーバは、データ配信先となる様々なクライアントにおいてコンテンツ再生を可能とするため、複数のビットレートの動画コンテンツの細分化ファイルとこれらの属性情報やURLを記述したマニフェスト・ファイルを作成し、クライアントに提供する。
 クライアントは、マニフェスト・ファイルをサーバから取得して、自装置の表示部のサイズや利用可能な通信帯域に応じた最適なビットレートコンテンツを選択し、選択コンテンツを受信して再生する。ネットワーク帯域の変動に応じてビットレートの動的な変更も可能であり、クライアント側では、状況に応じた最適なコンテンツを随時切り替えて受信することが可能となり、映像途切れの発生を低減した動画コンテンツ再生が実現される。なお、アダプティブ(適応型)ストリーミングについては、例えば特許文献1(特開2011-87103号公報)に記載がある。
 放送局やその他のコンテンツサーバ等の送信装置から、テレビ、PC、携帯端末等の受信装置に対して、放送波等による一方向通信、あるいは、インターネット等のネットワークを介した双方向通信、一方向通信を用いて放送番組等のコンテンツを送受信するシステムについての開発や規格化が、現在、盛んに進められている。
 なお、放送波およびネットワークを介したデータ配信を実現するための技術を開示した従来技術として、例えば特許文献2(特開2014-057227号公報)がある。
 放送波およびネットワークを介したデータ配信システムに関する規格として、現在、ATSC(Advanced Television System Committee)3.0の規格化が進行中である。
 ATSC3.0では、ATSC3.0準拠物理層(ATSC-PHY)を実装した放送配信用デバイス(チューナ実装デバイス)上に、ATSC3.0放送の受信処理等を実行するミドルウェアを実装させることで、ATSC放送用の制御情報等を含むシグナリングデータを受信して、シグナリングデータによる様々な制御を可能とする構成を検討している。
 具体的には、シグナリングデータによる制御によって、インターネット等で利用されているアプリケーションプログラム、いわゆるクライアントアプリケーションをそのまま利用して、放送コンテンツの出力処理や、放送波等によって提供される様々なアプリケーションを利用したデータ処理を実現可能とする構成を検討している。
 例えば、家庭内やホットスポットに設置された放送サービスを受信するサーバ(専用サーバの他、PC、TV、タブレット、スマホ等)にATSC3.0準拠物理層(ATSC-PHY)、ならびに、ATSC3.0放送受信ミドルウェアを実装する。
 これらのサーバが、いったんATSC3.0放送サービスを受信した後、ネットワーク(ホームネットワークやホットスポット等のLAN/WiFi等)を介して、ユーザ装置(PC、TV、タブレット、スマホ等)に放送受信データを転送する。
 サーバを介して転送された放送受信データを入力したユーザ装置は、ユーザ装置の再生制御部上で稼働するアプリケーション(例えばATSC3.0 DASHクライアントアプリケーション)を利用して、放送コンテンツの再生や、放送で配信される様々なアプリケーションを実行することが可能となる。
 この形態では、ATSC3.0放送サービスの制御情報を含むシグナリングデータの解析等を実行するミドルウェアが、シグナリングデータの受信タイミングにおいて即時解析処理を行なう終端デバイスとなる。この結果、後段の再生制御部やシグナリングデータ処理部は、放送波等によって送信されるシグナリングデータの内容を即時に把握することが困難となり、シグナリングデータに基づく処理が遅延してしまう可能性がある。
 シグナリングデータには、例えば番組スケジュールの変更や、送信データのコーデック変更等に応じて、これらの変更情報を通知するシグナリングデータ更新情報が含まれる。
 このような更新情報は、後段のシグナリングデータ処理部に遅延なく通知する必要があり、通知が遅延すると。シグナリングデータ処理部や再生制御部において正しい処理が行なえなくなる場合がある。
特開2011-87103号公報 特開2014-057227号公報
 本開示は、例えば上記問題点に鑑みてなされたものであり、ATSC3.0放送受信ミドルウェアが受信したシグナリングデータにシグナリングデータ更新情報等が含まれている場合、これを確実にシグナリングデータ処理部に出力する構成を実現する受信装置、送信装置、およびデータ処理方法を提供することを目的とする。
 本開示の第1の側面は、
 シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを受信する通信部と、
 イベント通知メッセージにイベントデータとして格納されたシグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するシグナリングデータ処理部を有する受信装置にある。
 さらに、本開示の第2の側面は、
 シグナリングデータを受信する通信部と、
 前記シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを生成するミドルウェアと、
 前記イベント通知データからシグナリングデータ更新情報を取得して、シグナリングデータ処理部に出力するデータ処理部と、
 前記シグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するシグナリングデータ処理部を有する受信装置にある。
 さらに、本開示の第3の側面は、
 シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを送信する通信部を有する送信装置にある。
 さらに、本開示の第4の側面は、
 受信装置において実行するデータ処理方法であり、
 通信部が、シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを受信し、
 シグナリングデータ処理部が、イベント通知メッセージにイベントデータとして格納されたシグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するデータ処理方法にある。
 さらに、本開示の第5の側面は、
 受信装置において実行するデータ処理方法であり、
 通信部が、シグナリングデータを受信し、
 ミドルウェアが、シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを生成し、
 データ処理部が、前記イベント通知データからシグナリングデータ更新情報を取得して、シグナリングデータ処理部に出力し、
 シグナリングデータ処理部が、前記シグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するデータ処理方法にある。
 さらに、本開示の第6の側面は、
 送信装置において実行するデータ処理方法であり、
 通信部が、シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを送信するデータ処理方法にある。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、シグナリングデータ更新情報をイベント通知メッセージに格納して受信装置に送信し、受信装置における確実なシグナリングデータ更新処理を実行可能とした構成が実現される。
 具体的には、送信装置が受信装置に、シグナリングデータ更新情報をイベント通知メッセージに格納して送信する。受信装置は、イベント通知に格納されたイベントデータがシグナリングデータ更新情報である場合、シグナリングデータ処理部に出力する。シグナリングデータ処理部は、シグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行する。イベント通知データは、AVコンテンツの送信用データであるセグメント内に格納され、受信装置はセグメントからシグナリングデータ更新情報を取得してシグナリングデータ更新処理を行うことができる。
 本構成により、シグナリングデータ更新情報をイベント通知メッセージに格納して受信装置に送信し、受信装置における確実なシグナリングデータ更新処理を実行可能とした構成が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の処理を実行する通信システムの一構成例について説明する図である。 送信装置の送信データについて説明する図である。 送信装置および受信装置のプロトコルスタックの例を示す図である。 ROUTE/FLUTEプロトコルスタックについて説明する図である。 受信装置の構成例について説明する図である。 受信装置の構成例について説明する図である。 MPDの構成例について説明する図である。 MPDの構成例について説明する図である。 イベント通知MPDの構成例について説明する図である。 MPDの利用シーケンス例について説明する図である。 イベント情報の生成、送信、利用シーケンスについて説明する図である。 イベント情報を格納するセグメントの構成について説明する図である。 イベント情報を格納したセグメント内のデータ構成例について説明する図である。 イベント情報の生成、送信、利用シーケンスについて説明する図である。 シグナリングデータ更新情報の構成例について説明する図である。 シグナリングデータ更新情報を格納したセグメント(MP4規定のemsgボックス)の例について説明する図である。 セグメントに格納されるシグナリングデータ更新情報の例について説明する図である。 シグナリングデータ更新情報の生成、送信、利用シーケンスについて説明する図である。 シグナリングデータ更新情報の生成、送信、利用シーケンスについて説明する図である。 通信装置である送信装置と受信装置の構成例について説明する図である。 通信装置である送信装置と受信装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の受信装置、送信装置、およびデータ処理方法の詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.通信システムの構成例について
 2.データ通信プロトコルFLUTE、およびROUTEについて
 3.送信装置と受信装置の実行する通信処理例について
 4.受信装置の構成例と処理例について
 5.シグナリングデータ更新情報の転送処理について
 6.イベント通知構成について
 6-1.MPD適用イベント通知方式(=MPD Event)について
 6-2.セグメント適用イベント通知方式(=In-band Event Signaling)について
 7.シグナリングデータ更新情報の通知処理について
 7-1.イベント通知機構を利用したシグナリングデータ更新情報通知構成の概要
 7-2.セグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報の通知構成
 8.セグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報の送信および利用シーケンスについて
 9.チューナ非実装受信装置を利用した場合の処理例について
 9-1.セグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報の送信および利用シーケンスについて
 10.送信装置と受信装置の構成例について
 11.本開示の構成のまとめ
  [1.通信システムの構成例について]
 まず、図1を参照して本開示の処理を実行する通信システムの一構成例について説明する。
 図1に示すように、通信システム10は、画像データや音声データ等のコンテンツを送信する通信装置である送信装置20と、送信装置20の送信するコンテンツを放送波やネットワークを介して受信する通信装置であるチューナ実装受信装置30と、送信装置20の送信するコンテンツをチューナ実装受信装置30、ネットワークを介して受信するチューナ非実装受信装置40を有する。
 送信装置20は、具体的には、例えば放送局21やコンテンツサーバ22等、コンテンツを提供する装置である。
 チューナ実装受信装置30は、放送波を受信するためのチューナを備えた受信装置である。例えば一般ユーザのクライアント装置やホームサーバ、公共施設に設置された中継サーバ等である。具体的には、例えば、中継サーバ(ホームサーバ等を含む)31、テレビ32、PC33、携帯端末34等である。
 また、チューナ非実装受信装置40は、放送波を受信するためのチューナを備えていない受信装置である。具体的には、例えば、PC41、携帯端末42等である。
 送信装置20とチューナ実装受信装置30間のデータ通信は、インターネット等のネットワークを介した双方向通信、一方向通信、あるいは、放送波等による一方向通信の少なくともいずれか、あるいは両者を利用した通信として行われる。
 送信装置20からチューナ実装受信装置30に対するコンテンツ送信は、例えばアダプティブ(適応型)ストリーミング技術の規格であるDASH(MPEG-DASH)規格に従って実行する。
 なお、DASH(Dynamic Adaptive Streaming overHTTP)規格は、前述したようにHTTP(HyperText Transfer Protocol)をベースとしたストリーミングプロトコルを用いたアダプティブ(適応型)ストリーミング配信に関する規格である。
 MPEG-DASH規格には、以下の2つの規格が含まれる。
 (a)動画や音声ファイルの管理情報であるメタデータを記述するためのマニフェスト・ファイル(MPD:Media Presentation Description)に関する規格、
 (b)動画コンテンツ伝送用のファイル・フォーマット(セグメント・フォーマット)に関する規格、
 送信装置20から、チューナ実装受信装置30に対するコンテンツ配信は、上記のMPEG-DASH規格に従って実行される。
 チューナ実装受信装置30が受信したコンテンツは、ネットワーク(家庭内ならホームネットワーク(LAN/WiFi等)、ホットスポットならWiFi等)を介して、チューナ非実装受信装置40に転送される。
 チューナ実装受信装置30や、チューナ非実装受信装置40は、送信装置20の送信したコンテンツの再生を行なうことができる。
 送信装置20は、コンテンツデータを符号化し、符号化データおよび符号化データのメタデータを含むデータファイルを生成する。符号化処理は、例えばMPEGにおいて規定されるMP4ファイルフォーマットに従って行われる。なお、送信装置20がMP4形式のデータファイルを生成する場合の符号化データのファイルは「mdat」、メタデータは「moov」や「moof」等と呼ばれる。
 送信装置20がチューナ実装受信装置30に提供するコンテンツは、例えば音楽データや、映画、テレビ番組、ビデオ、写真、文書、絵画および図表などの映像データや、ゲームおよびソフトウェアなど、様々なデータである。
 送信装置20の送信データについて図2を参照して説明する。
 MPEG-DASH規格に従ってデータ送信を実行する送信装置20は、図2に示すように、大きく分けて以下の複数種類のデータの送信を行う。
 (a)シグナリングデータ50
 (b)AVセグメント60
 (c)その他のデータ(ESG,NRTコンテンツ等)70
 AVセグメント60は、受信装置において再生する画像(Video)や、音声(Audio)データ、すなわち例えば放送局の提供する番組コンテンツ等によって構成される。例えば、上述したMP4符号化データ(mdat)や、メタデータ(moov,moof)によって構成される。なお、AVセグメントは、DASHセグメントとも呼ばれる。
 一方、シグナリングデータ50は、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL(Uniform Resource Locator)等)、さらにコンテンツの再生処理に必要な情報、例えばコーデック情報(符号化方式など)などからなる案内情報、アプリケーション制御情報等の様々な制御情報によって構成される。
 チューナ実装受信装置30は、このシグナリングデータ50を、再生対象となる番組コンテンツを格納したAVセグメント60の受信に先行して受信することが必要となる。
 このシグナリングデータ50は、例えばXML(Extensible Markup Language)形式のデータとして送信装置20から送信される。
 シグナリングデータは、随時、繰り返し送信される。例えば100msec毎など、頻繁に繰り返し送信される。
 これは、受信装置(クライアント)が、いつでも、即座にシグナリングデータを取得することを可能とするためである。
 クライアント(受信装置)は、随時、受信可能なシグナリングデータに基づいて、必要な番組コンテンツのアクセス用アドレスの取得や、コーデック設定処理など、番組コンテンツの受信および再生に必要な処理を遅滞なく実行することが可能となる。
 その他のデータ70は、例えばESG(Electronic Service Guide)、NRTコンテンツ等が含まれる。
 ESGは、電子サービスガイド(Electronic Service Guide)であり、例えば番組表等の案内情報である。
 NRTコンテンツはノンリアルタイム型のコンテンツである。
 NRTコンテンツには、例えば、クライアントである受信装置30のブラウザ上で実行される様々なアプリケーションファイル、動画、静止画等のデータファイル等が含まれる。
 図2に示す以下のデータ、すなわち、
 (a)シグナリングデータ50
 (b)AVセグメント60
 (c)その他のデータ(ESG,NRTコンテンツ等)70
 これらのデータは、例えば、データ通信プロトコル:FLUTE(File Delivery over Uni-directional Transport)に従って送信される。
  [2.データ通信プロトコルFLUTE、およびROUTEについて]
 データ通信プロトコル:FLUTE(File Delivery over Uni-directional Transport)はマルチキャストにより伝送するコンテンツのセッション管理を行うプロトコルである。
 例えば送信装置であるサーバ側で生成されるファイル(URLとバージョンで識別される)は、FLUTEプロトコルに従って、受信装置であるクライアントに送信される。
 チューナ実装受信装置(クライアント)30は、例えば記憶部(クライアントキャッシュ)に、受信ファイルのURLおよびバージョンとファイルを対応付けて蓄積する。
 同じURLでバージョンが異なるものはファイルの中身が更新されているものとみなす。FLUTEプロトコルは一方向ファイル転送制御のみを行うもので、クライアントにおけるファイルの選択的なフィルタリング機能はないが、FLUTEで転送制御するファイルをそのファイルに紐づけられるメタデータを利用して、クライアント側で取捨選択することにより、選択的なフィルタリングを実現し、ユーザの嗜好を反映したローカルキャッシュを構成・更新管理することが可能となる。
 なお、メタデータは、FLUTEプロトコルに拡張して組み込むこともできるし、別途ESG(Electronic Service Guide)等のプロトコルで記述することもできる。
 なお、FLUTEは、当初マルチキャストにおけるファイル転送プロトコルとして仕様化された。FLUTEは、FDTと、ALCと呼ばれるスケーラブルなファイルオブジェクトのマルチキャストプロトコル、具体的にはそのビルディングブロックであるLCTやFECコンポーネント、の組み合わせにより構成される。
 従来のFLUTEは、主に非同期型のファイル転送に利用するために開発されたが、現在、放送波およびネットワークを介したデータ配信システムに関する規格化団体であるATSC(Advanced Television System Committee)において、ブロードキャストライブストリーミングにも適用しやすくするための拡張を行っている。このFLUTEの拡張仕様がROUTE(Real-Time Object Delivery over Unidirectional Transport)と呼ばれる。
 放送波およびネットワークを介したデータ配信システムに関する規格の1つとして現在、標準化が進められている規格としてATSC(Advanced Television System Committee)3.0がある。このATSC3.0は、ROUTEを従来のFLUTEプロトコルに置き換えて、シグナリングデータや、ESG、あるいは非同期ファイル、同期型ストリーム等の送信に採用したスタック構成を規定している。
  [3.送信装置と受信装置の実行する通信処理例について]
 次に、送信装置と受信装置の実行する通信処理例について説明する。
 図3は、送信装置および受信装置のプロトコルスタックの例を示す図である。
 図3に示す例は、以下の2つの通信データの処理を行なうための2つのプロトコルスタックを有する。
 (a)ブロードキャスト(マルチキャストも含む)通信(例えば放送型データ配信)
 (b)ユニキャスト(ブロードバンド)通信(例えばHTTP型のP2P通信)
 図3の左側が(a)ブロードキャスト通信(例えば放送型データ配信)に対応するプロトコルスタックである。
 図3の右側が、(b)ユニキャスト(ブロードバンド)通信(例えばHTTP型のP2P通信)に対応するプロトコルスタックである。
 図3左側に示す(a)ブロードキャスト通信(例えば放送型データ配信)に対応するプロトコルスタックは、下位レイヤから順に、以下のレイヤを持つ。
 (1)ブロードキャスト物理レイヤ(Broadcast PHY)
 (2)IPマルチキャストレイヤ(IP Multicast)
 (3)UDPレイヤ
 (4)ROUTE(=拡張型FLUTE)レイヤ
 (5)ESG,NRTcontent,DASH(ISO BMFF)およびVideo/Audio/CC
 (6)アプリケーションレイヤ(Applications(HTML5))
 なお、(2)IPマルチキャストレイヤ(IP Multicast)の上位レイヤとしてシグナリング(Signaling)レイヤが設定される。
 シグナリングレイヤは、先に図2を参照して説明したシグナリングデータ50の送受信に適用されるレイヤである。シグナリングデータには、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL等)、さらにコンテンツの再生処理に必要な情報、例えばコーデック情報(符号化方式など)などからなる案内情報、制御情報などが含まれる。
 シグナリングデータは、受信装置(クライアント)が受信、再生するAVセグメントのアクセス情報や、復号処理等の受信後の処理に必要となる案内情報や制御情報を含むデータであり、送信装置から随時繰り返し送信されるデータである。
 シグナリングデータには、情報に応じた様々な種類がある。具体的には、例えば、サービス単位のシグナリングデータであるUSD(ユーザサービスディスクリプション(User Service Description))がある。
 USDには、様々な種類の制御情報が含まれる。代表的な制御情報として、コンテンツ(AVセグメント)に対応する様々な案内情報、制御情報を格納したマニフェスト・ファイルを持つシグナリングデータであるMPD(メディアプレゼンテーションディスクリプション(Media Presentation Description))がある。
 各種のシグナリングデータは、それぞれ受信装置(クライアント)において、送信装置から送信されるAVセグメントやアプリケーション(アプリケーションプログラム)の受信、再生処理、制御処理に必要となるデータであり、例えばカテゴリ別に個別のファイル(メタファィル)として設定され、送信装置から送信される。
 なお、(1)ブロードキャスト物理レイヤ(Broadcast PHY)の上位レイヤとして将来の新たなプロトコルの利用許容レイヤ(Future Extensibility)が設定されている。
 (1)ブロードキャスト物理レイヤ(Broadcast PHY)は、ブロードキャスト通信を実行するための例えば放送系の通信部を制御する通信制御部によって構成される物理レイヤである。
 (2)IPマルチキャストレイヤ(IP Multicast)は、IPマルチキャストに従ったデータ送受信処理を実行するレイヤである。
 (3)UDPレイヤは、UDPパケットの生成、解析処理レイヤである。
 (4)ROUTEレイヤは、拡張型FLUTEプロトコルであるROUTEプロトコルにしたがって転送データの格納や取り出しを行うレイヤである。
 ROUTEは、FLUTEと同様、ALCと呼ばれるスケーラブルなファイルオブジェクトのマルチキャストプロトコルであり、具体的にはそのビルディングブロックであるLCTやFECコンポーネントの組み合わせにより構成される。
 図4に、ROUTE、およびFLUTEに関するプロトコルスタックを示す。
 (5)ESG,NRTcontent,DASH(ISO BMFF)およびVideo/Audio/CCは、ROUTEプロトコルに従って転送されるデータである。
 DASH規格に従った同報型配信サービスは、MBMS(Multimedia Broadcast Multicast Service)と呼ばれる。このMBMSをLTEで効率的に実現させる方式としてeMBMS(evolved Multimedia Broadcast Multicast Service)がある。
 MBMSやeMBMSは、同報型配信サービスであり、特定のエリア内に位置する受信装置である複数のユーザ端末(UE)に対して共通のベアラで一斉に同一データ、例えば映画コンテンツなどを配信するサービスである。MBMSやeMBMSに従った同報配信により、配信サービス提供エリアに位置する多数のスマホやPC、あるいはテレビ等の受信装置に、同じコンテンツを同時に提供することができる。
 MBMS、およびeMBMSは、3GPPファイルフォーマット(ISO-BMFFファイル、MP4ファイル)に従ったファイルを、転送プロトコルROUTE、またはFLUTEに従ってダウンロードする処理について規定している。
 先に図2を参照して説明した以下のデータ、すなわち、
 (a)シグナリングデータ50
 (b)AVセグメント60
 (c)その他のデータ(ESG、NRTコンテンツ等)70
 これらのデータの多くはROUTEプロトコル、またはFLUTEプロトコルに従って送信される。
 (5)ESG,NRTcontent,DASH(ISO BMFF)およびVideo/Audio/CCは、ROUTEプロトコルに従って転送されるデータである。
 ESGは、電子サービスガイド(Electronic Service Guide)であり、例えば番組表等の案内情報である。
 NRTcontentはノンリアルタイム型のコンテンツである。
 前述したように、NRTコンテンツには、例えば、クライアントである受信装置のブラウザ上で実行される様々なアプリケーションファイル、動画、静止画等のデータファイル等が含まれる。
 Video/Audio/CCは、DASH規格に従って配信されるビデオやオーディオ等、再生対象となる実データである。
 (6)アプリケーションレイヤ(Applications(HTML5))は、ROUTEプロトコルに従って転送するデータの生成、あるいは解析、その他、様々なデータの出力制御等を実行するアプリケーションレイヤであり、例えばHTML5を適用したデータ生成、解析、出力処理等を行う。
 一方、図3の右側に示す、(b)ユニキャスト(ブロードバンド)通信(例えばHTTP型のP2P通信)に対応するプロトコルスタックは、下位レイヤから順に、以下のレイヤを持つ。
 (1)ブロードバンド物理レイヤ(Broadband PHY)
 (2)IPユニキャストレイヤ(IP Unicast)
 (3)TCPレイヤ
 (4)HTTPレイヤ
 (5)ESG,Signaling,NRTcontent,DASH(ISO BMFF)およびVideo/Audio/CC
 (6)アプリケーションレイヤ(Applications(HTML5))
 (1)ブロードバンド物理レイヤ(Broadband PHY)は、ブロードバンド通信を実行する例えばネットワークカード等の通信部を制御するデバイスドライバ等の通信制御部によって構成される物理レイヤである。
 (2)IPユニキャストレイヤ(IP Unicast)は、IPユニキャスト送受信処理を実行するレイヤである。
 (3)HTTPレイヤは、HTTPパケットの生成、解析処理レイヤである。
 この上位レイヤは、図3左側の(a)ブロードキャスト通信(例えば放送型データ配信)のスタック構成と同様である。
 なお、送信装置(サーバ)20、チューナ実装受信装置(クライアント)30は、図3の2つの処理系、すなわち、
 (a)ブロードキャスト通信(例えば放送型データ配信)
 (b)ユニキャスト(ブロードバンド)通信(例えばHTTP型のP2P通信)
 これら2つの通信プロトコルスタックの少なくともいずれかに従った処理を行なう。
 また、チューナ非実装受信装置(クライアント)40は、チューナ実装受信装置(クライアント)30との通信処理として、図3の右側の処理系、すなわち、
 (b)ユニキャスト(ブロードバンド)通信(例えばHTTP型のP2P通信)
 この通信プロトコルスタックに従った通信処理を実行する。
 図3に示すプロトコルスタックにおいて、ROUTE(FLUTE)に従ってマルチキャスト転送されるファイル群の属性(ファイルの識別子であるURLを含む)は、ROUTE(FLUTE)の制御ファイル内に記述することもできれば、ファイル転送セッションを記述するシグナリング(Signaling)データ中に記述することもできる。また、ファイル転送セッションのさらなる詳細属性を(エンドユーザへの提示用途にも適用可能な)ESGにより記述することもできる。
 前述したように、放送波およびネットワークを介したデータ配信システムに関する規格の1つとしてATSC(Advanced Television System Committee)3.0の規格化が進められている。
 ATSC3.0におけるIPベースのトランスポートスタックの標準化において、MPEG-DASHのファイルフォーマット(ISO-BMFFファイル、MP4ファイル)に基づくファイルをFLUTE(File Delivery over Unidirectional Transport)を拡張したROUTE(Real-Time Object Delivery over Unidirectional Transport)プロトコルにより転送する方法が提案され、標準候補方式として設定された。
 ROUTEプロトコルを適用することで、DASH規格のフラグメント化されたMP4(fragmented MP4)ファイルシーケンスと、DASH規格の制御情報(シグナリングデータ)格納メタファイルであるMPD(Media Presentation Description))、ならびに、放送配信のためのシグナリングデータであるUSBD/USD、S-TSID(Service based Transport Session Description)等を転送することができる。
 前述したように、ROUTEプロトコルはFLUTEをベースとするプロトコルである。FLUTEにおける転送制御パラメータを記述したメタデータファイルをFDT(File Delivery Table)と呼び、ROUTEにおける転送制御パラメータを記述したメタデータファイルをS-TSID(Service based Transport Session Description)と呼ぶ。S-TSIDはFDTのスーパーセットでありFDTを含む。
 ATSC3.0サービスレイヤのシグナリングデータ(SLS:Service Layer Signaling)として提案されているUSBD/USD、S-TSID、MPD等はすべてROUTEセッションにより転送される。
  [4.受信装置の構成例と処理例について]
 次に、図5以下を参照してチューナ実装受信装置(クライアントA)30と、チューナ非実装受信装置(クライアントB)40の構成例と処理例について説明する。
 放送サーバ21は、放送波や、ネットワークを介したブロードキャスト送信により、放送コンテンツ等からなるAVセグメント、シグナリングデータ、その他のデータを送信する。
 図には示していないが、放送サーバ21以外の送信装置であるデータ配信サーバ22もネットワークを介したブロードキャスト送信により、放送コンテンツ等からなるAVセグメント、シグナリングデータ、その他のデータを送信する。
 図5に示すように、チューナ実装受信装置30はミドルウェア110、HTTPプロキシサーバ120、再生制御部(DASHクライアント)131、出力制御部132、シグナリングデータ処理部140を有する。
 ミドルウェア110は、放送サーバ21の提供データを受信し、解析する。
 ミドルウェア110は、通信部(PHY/MAC)111、シグナリングデータを取得するシグナリング取得部112、シグナリングデータを解析するシグナリング解析部113、シグナリングデータ、および、映像、音声等の番組コンテンツデータや、アプリケーション等のNRTコンテンツ等のデータファイルを取得するセグメント取得部114を有する。
 さらに、放送番組や送信データの変更や詳細等の通知情報、受信装置において実行するアプリケーションに関する情報、受信装置において必要となる処理の情報などを含むイベント情報をシグナリングデータ、あるいはAVデータを格納したセグメント内に挿入する処理を実行するイベント挿入部115を有する。
 イベント情報とは、例えば、番組表の変更や、放送コンテンツのデータ態様の変更、受信装置における放送コンテンツの再生時に実行すベき処理など、受信装置に対して通知すべき情報、何らかの処理の実行を要求するための情報などである。
 ミドルウェア110は、さらに、受信装置において実行するための様々なアプリケーション(アプリケーションプログラム)を格納したアプリケーションファイルを取得するアプリケーションファイル取得部116を有する。
 アプリケーションは、例えば、放送番組に重畳表示する天気情報やニュース情報、あるいは野球中継の場合の選手情報など、様々な情報表示を行うためのアプリケーションである。
 アプリケーションの具体例としては、例えば、以下のようなものがある。
 放送コンテンツが観光地の案内映像からなるコンテンツである場合に、その放送コンテンツに重畳表示するための地図情報、ホテル情報等を表示するためのアプリケーション。
 放送コンテンツが野球中継である場合、各選手の打率、ホームラン数等の成績情報を表示するアプリケーション。
 視聴者に対するクイズやアンケートを表示して、双方向通信を利用して視聴者からの回答を回収するためのアプリケーション。
 この他にも、ユーザに応じて提供される広告表示など様々なアプリケーションがある。
 ミドルウェア110が受信したデータは、プロキシサーバ120のキャッシュ部(プロキシキャッシュ)121に格納される。プロキシサーバ120は、さらにネットワーク経由でデータ配信サーバ22から取得したデータをキャッシュ部(プロキシキャッシュ)122に格納する。
 プロキシサーバ120は、出力制御部130からのデータ要求をアドレス解決部123に入力し、要求されたデータをキャッシュ部(プロキシキャッシュ)121,122、または外部から取得して提供する。
 再生制御部(DASH Client)131は、DASH(MPEG-DASH)規格に従って送信されたコンテンツの再生制御を実行する。
 前述したように、MPEG-DASH規格には、以下の2つの規格が含まれる。
 (a)動画や音声ファイルの管理情報であるメタデータを記述するためのマニフェスト・ファイル(MPD:Media Presentation Description)に関する規格、
 (b)動画コンテンツ伝送用のファイル・フォーマット(セグメント・フォーマット)に関する規格、
 送信装置20から、チューナ実装受信装置30に対するコンテンツ配信は、上記のMPEG-DASH規格に従って実行される。
 コンテンツは、例えばMPEGにおいて規定されるMP4ファイルフォーマットに従って所定単位の分割データであるセグメントとして送信され、再生制御部(DASH Client)131は、マニフェスト・ファイル(MPD)を参照して、再生対象コンテンツを格納したセグメントを取得する処理等を実行する。
 出力制御部132は、再生制御部の取得したセグメントから符号化コンテンツを取り出して復号し、表示部等の出力部に出力する。
 シグナリングデータ処理部(SLS Signaling Parser&Viewer)140は、送信装置20(放送サーバ21、データ配信サーバ22)が送信するシグナリングデータに基づく処理を実行する。
 先に図2を参照して説明したように、シグナリングデータ50は、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL(Uniform Resource Locator)等)、さらにコンテンツの再生処理に必要な情報、例えばコーデック情報(符号化方式など)などからなる案内情報、アプリケーション制御情報等の様々な制御情報によって構成される。
 シグナリングデータ処理部(SLS Signaling Parser&Viewer)140は、シグナリングデータ(SLS:Service Layer Signaling)を取得して取得したシグナリングデータに基づく処理を実行する。
 シグナリングデータ処理部140は、シグナリングデータに基づく様々な処理を行なう。例えば、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL)、コーデック情報(符号化方式など)を再生制御部131に提供する処理や、シグナリングデータの表示、例えば番組表の表示処理などを行う。
 なお、番組スケジュール(番組表)や、アドレス情報、コーデック情報等のシグナリングデータは、随時更新される可能性があり、受信装置では、最新のシグナリングデータを利用した処理を行なう必要がある。
 さらに、図5に示すチューナ非実装受信装置(クライアントB)40は、例えばイーサネット(登録商標)やWi-Fi等のネットワークによって、チューナ実装受信装置(クライアントA)30と接続され、チューナ実装受信装置(クライアントA)30との通信を実行する。
 チューナ非実装受信装置(クライアントB)40は、チューナ実装受信装置(クライアントA)30が、放送サーバ21や、データ配信サーバ22から受信したコンテンツ等のデータを、チューナ実装受信装置(クライアントA)30を介して受信し、コンテンツ再生を実行する。
 図5に示すチューナ非実装受信装置(クライアントB)40は、
 再生制御部(DASH Client)151、
 出力制御部152、
 シグナリングデータ処理部160、
 これらの構成を有する。
 これらの構成、機能は、チューナ実装受信装置(クライアントA)30において説明した再生制御部(DASH Client)131、出力制御部132、シグナリングデータ処理部140と同様である。
 図6は、チューナ実装受信装置(クライアントA)30の有する、
 再生制御部(DASH Client)131、
 出力制御部132と、
 チューナ非実装受信装置(クライアントB)40の有する、
 再生制御部(DASH Client)151、
 出力制御部152、
 これらの詳細構成を示す図である。
 チューナ実装受信装置(クライアントA)30の再生制御部(DASH Client)131は、MPD取得部201、MPD解析部202、セグメント取得部203、セグメント(MP4)解析部204、さらにイベント抽出部205を有する。
 再生制御部(DASH Client)131は、前述したように、DASH(MPEG-DASH)規格に従って送信されたコンテンツの再生制御を実行する。
 MPD取得部201は、動画や音声ファイルの管理情報記述ファイルであるマニフェスト・ファイル(MPD:Media Presentation Description)を取得する。
 MPDは、放送サーバ21、データ配信サーバ22から提供され、プロキシサーバ120に格納された後、再生制御部131が取得する。
 MPD解析部202は、MPD取得部201の取得したMPDの記述内容を解析し、再生対象データに対応するセグメントの取得に必要となる情報等をセグメント取得部に提供する。
 セグメント取得部203は、MPD解析部202のMPD解析結果に従って、再生対象データに対応するセグメントの取得を行う。
 セグメントは、AVデータからなるコンテンツ伝送用のファイル・フォーマット(セグメント・フォーマット)に従って設定される所定の単位データである。
 セグメント解析部204は、セグメント取得部203の取得したセグメントから、符号化画像データ、符号化音声データ等を取得して、出力制御部132の復号部(デコーダ)211に出力する。
 さらに、セグメント解析部204は、セグメントに、シグナリングデータ更新情報[SLS(Service Layer Signaling)Update Notification]が含まれている場合、セグメントをイベント抽出部205に出力する。
 イベント抽出部205は、セグメントに記録されたシグナリングデータ更新情報をシグナリングデータ処理部140に出力する。
 この処理の詳細については、後段で説明する。
 イベント抽出部205は、セグメントに格納されたイベント情報の抽出を実行し、抽出したイベント情報に含まれるシグナリングデータ更新情報をシグナリングデータ処理部140に出力する。
 シグナリングデータ更新情報は、シグナリングデータ処理部140が制御対象とするシグナリングデータに関する制御情報である。
 このシグナリングデータ更新情報は、またはセグメントにイベント情報として格納される。
 先に説明したように、シグナリングデータは、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL(Uniform Resource Locator)等)、さらにコンテンツの再生処理に必要な情報、例えばコーデック情報(符号化方式など)などからなる案内情報、アプリケーション制御情報等の様々な制御情報によって構成される。
 シグナリングデータ処理部140は、これらの情報に基づく様々な処理を行なう。例えば、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL)、コーデック情報(符号化方式など)を再生制御部131に提供する処理や、シグナリングデータの表示、例えば番組表の表示処理などを行う。
 シグナリングデータ処理部140は、シグナリングデータ更新情報に応じて、更新されたシグナリングデータを適用した処理を行なうことが可能となる。
 なお、この具体的構成については後述する。
 チューナ実装受信装置(クライアントA)30の出力制御部132は、復号部(デコーダ)211と、出力部(レンダラ)212を有する。
 復号部(デコーダ)211は、セグメント解析部204から提供された符号化画像データ、符号化音声データの復号処理(デコード)を実行する。
 出力部212は、復号された画像データ、音声データを出力部(ディスプレイ、スピーカ)に出力する。
 なお、チューナ非実装受信装置(クライアントB)40の再生制御部(DASH Client)151は、MPD取得部251、MPD解析部252、セグメント取得部253、セグメント(MP4)解析部254、さらにイベント抽出部255を有する。
 また、出力制御部152は、復号部(デコーダ)261と、出力部(レンダラ)262を有する。
 これらの構成、および実行する処理は、チューナ実装受信装置(クライアントA)30の構成、処理と同様である。
 なお、チューナ非実装受信装置(クライアントB)40の再生制御部(DASH Client)151には、チューナ実装受信装置(クライアントA)30のプロキシサーバ120、ネットワークを介してMPD、セグメントが入力される。
 また、チューナ非実装受信装置(クライアントB)40のシグナリングデータ処理部160には、チューナ実装受信装置(クライアントA)30のプロキシサーバ120、ネットワークを介してシグナリングデータ(SLS)が入力される。
 チューナ実装受信装置(クライアントA)30、およびチューナ非実装受信装置(クライアントB)40の再生制御部(DASH Client)131,151は、ATSC3.0クライアントアプリケーション(3.0 DASH Client)の実行部である。
 ATSC3.0クライアントアプリケーションは、ATSC3.0放送受信クライアントデバイス上に実装されたブラウザ上で実行される。あるいは、ブラウザアプリケーションとしてだけではなくネィティブアプリケーションとして実行される場合もある。
 再生制御部(DASH Client)131,151の実行するATSC3.0クライアントアプリケーションは、ATSC3.0 DASHクライアントアプリケーション(3.0 DASH Client)や、ATSC3.0ストリーム付随アプリケーション(3.0 Application)等からなる。
 再生制御部(DASH Client)131,151のATSC3.0クライアントアプリケーション、および出力制御部132,152は、ミドルウェア(Client Local ATSC Middleware)110が受信したデータ、プロキシサーバ(Client Local HTTP Proxy Server)120がネットワークを介して受信したデータの処理を実行する。
 ミドルウェア110、またはプロキシサーバ120の取得した、DASH-MPDファイルやDASHセグメント(segment)ファイル、その他一般のアプリケーションファイル、ならびに、シグナリングデータを格納したSLS(Service level Signaling)ファイルを入力して、ストリームのレンダリングや、アプリケーションの制御を行う。
 このモデルは、再生制御部(DASH Client)131,151の実行するATSC3.0クライアントアプリケーションや、シグナリングデータ処理部160の実行するアブリケーションからすると、必ずプロキシサーバ120を介して外の世界にアクセスするため、それらファイル群を放送経由で取得しているのか、ネット経由で取得しているのかの区別を意識することがない(ネットワーク透過性が提供される)ため、アプリケーションの可搬性を高めることが可能となる。
 従って放送向けのみに特化してアプリケーションを実装する必要がなく、放送もインターネットのどちらを使うかによらない実装とすることができる。
 再生制御部(DASH Client)131,151の実行するATSC3.0クライアントアプリケーションがDASH-MPDファイルやDASHセグメント(segment)ファイル、その他一般のアプリケーションファイル、ならびに、シグナリングデータファイルの取得を要求(HTTPリクエスト)すると、それを受けたプロキシサーバ120が、アドレス解決部(Broadcast/Broadband Address Resolver)123において放送受信スタックを介して取得するか、ネット経由で取得するかの判断を行う。
 判断材料となる情報は、シグナリング解析部(SLS Signaling Parser)113から提供される。シグナリング解析部(SLS Signaling Parser)113は、シグナリング取得部(SLS Signaling Retriever)112に、ATSC3.0のシグナリングメタであるUSBD/USDやS-TSID等の取得要求を行う。
 シグナリング取得部(SLS Signaling Retriever)112は、通信部(ATSCチューナ:ATSC3.0 PHY/MAC)111を介して放送受信するSLS LCTパケットにより運ばれるシグナリングメタを抽出する。
 シグナリング解析部(SLS Signaling Parser)113は、また、セグメントやアプリケーションリソースの取得要求に含まれるurlから、シグナリングメタを抽出して、対象となるファイルを取得するための放送配信アドレス情報を解決する。放送配信される(た)ことがわかれば、その放送配信アドレス情報をもとにして、所望のファイルが格納されたLCTパケットを放送ストリームから取得し、キャッシュ(Proxy Cache)部121,122内に展開する。プロキシサーバ120は、当該ファイルを再生制御部131やシグナリングデータ処理部140に(HTTPのレスポンスとして)返す。アプリケーションパーツの取得要求に含まれるurlがシグナリングメタになければ、プロキシサーバ120は、通常のネットスタックを介して当該ファイルを取得する。
  [5.シグナリングデータ更新情報の転送処理について]
 前述したように、現在開発途上にあるATSC3.0においては、ATSC3.0準拠物理層(ATSC-PHY)を実装したチューナ実装受信装置30上に、ミドルウェア(ATSC3.0放送受信ミドルウェア)110を実装して、シグナリングデータ(ATSC放送シグナリング)を解析するモデルを検討している。
 すなわち、ミドルウェア110をシグナリングデータの受信タイミングにおける即時解析処理が可能な終端デバイスとし、再生制御部(DADHクライアント)等にシグナリングデータの即時解析負荷を発生させない設定としたモデルを検討している。この設定により、インターネットで利用されているDASHクライアントアプリケーションをそのまま利用して、ATSC放送の受信、再生を実現することが可能となる。
 このモデルは、チューナ実装受信装置30によって受信した放送コンテンツや、ネットワーク受信コンテンツを、チューナ非実装受信装置40に転送し、チューナ非実装受信装置40の再生制御部151の実行するATSC3.0 DASHクライアントアプリケーションの処理によってコンテンツ再生を行なうことも可能とする。
 チューナ実装受信装置30は、例えば共用スペース(ホットスポット)に設置した中継サーバや、家庭に設置したホームサーバ、PC等であり、放送波を受信可能なチューナを実装した受信装置である。
 チューナ実装受信装置30の受信データは、ネットワーク(家庭内ならホームネットワーク(LAN/WiFi等)、ホットスポットならWiFi等)を介して、チューナ非実装受信装置40に転送される。
 チューナ非実装受信装置40は、再生制御部151においてATSC3.0 DASHクライアントアプリケーションを実行して、コンテンツ再生を行なう。
 本開示の構成では、ATSC3.0放送サービスによって提供されるシグナリングデータの即時解析処理を、チューナ実装受信装置(クライアントA)30のミドルウェア110が実行する。
 チューナ実装受信装置(クライアントA)30は、シグナリング情報にシグナリングデータ更新情報が含まれている場合には、それを受信したタイミングでできるだけ早く、シグナリングデータ更新情報を利用する受信装置に提供する。
 通常、再生制御部(DASH Client)131,151は、画像や音声等のAVデータからなるコンテンツを含むセグメント(DASHセグメント)のHTTPによる取得を連続して実行する実装となる。一旦ストリーミング再生が開始されると常に再生制御部(DASH Client)131,151がHTTP取得/再生処理を継続して行う。
 セグメント(AVセグメント等のDASHセグメント)を提供するサーバはDASHサーバと呼ばれる。
 DASHサーバは、具体的には、
 放送サーバ21、データ配信サーバ22、
 さらに、チューナ実装受信装置(クライアントA)30のプロキシサーバ120もDASHサーバとなる。
 チューナ実装受信装置30や、チューナ非実装受信装置40の再生制御部131,151は、DASHサーバと常時接続されるPull型のコミュニケーションセッションを利用してセグメント取得を継続的に行い、放送番組等のコンテンツ再生を実行する。
 このセグメント取得セッション中で、シグナリングデータ処理部140において処理が必要となるシグナリングデータに関する更新がなされた場合、その更新イベント、あるいは更新されたシグナリングデータそのものを、即座にシグナリングデータ処理部140に通知することが必要となる。
 本開示の構成は、DASHで規定されているイベント(Event)通知機構を拡張してこのシグナリングデータ更新情報を抽出してシグナリングデータ処理部に出力する構成を提案するものである。
 本開示の処理では、ミドルウェア(ATSC3.0放送受信ミドルウェア)110が取得したシグナリングデータ更新情報を、例えばストリームセッション中に差し込むことができる。
 従って、例えば、通信部111やミドルウェア110を実装しないチューナ非実装受信装置(クライアントB)40に対しても、ストリームに同期してシグナリングデータ更新情報を転送することができる。
 通信部111やミドルウェア110を実装するチューナ実装受信装置(クライアントA)30と、ネットワーク(家庭内ならホームネットワーク(LAN/WiFi等)、ホットスポットならWiFi等)を介して接続されるチューナ非実装受信装置(クライアントB)40は、AVセグメント転送セッションの他の新たなシグナリングセージングセッションを開設することなく、ストリームに同期してシグナリングデータ更新情報を受信して、タイムリなシグナリングデータに基づく処理を実行することができる。
  [6.イベント通知構成について]
 次に、DASH規格において規定されているイベント通知構成について説明する。
 DASH規格では、DASHイベント(DASH Event)と呼ばれるイベント通知機構が定義されている。
 イベント通知機構は、例えば、放送番組や送信データの変更や詳細等の通知情報、受信装置において実行するアプリケーションに関する情報、受信装置に通知すべき情報、受信装置において必要となる処理の情報など、様々なイベント情報の通知を行うための機構である。
 DASH規格においてはイベント通知機構として、以下の2種類のイベント通知方式が規定されている。
 (a)MPD適用イベント通知方式(=MPD Event)、
 (b)セグメント適用イベント通知方式(=In-band Event Signaling)
 これらの2種類のイベント通知方式が規定されている。
 以下、これらの2つのイベント通知方式の詳細について、順次、説明する。
  [6-1.MPD適用イベント通知方式(=MPD Event)について]
 MPD適用イベント通知方式(=MPD Event)は、DASH規格に規定されたシグナリングデータの1つであるMPD(Media Presentation Description)を利用してイベントを通知する方式である。
 MPD適用イベント通知方式(=MPD Event)は、MPDに規定可能なピリオド(Period)単位で、イベント要素、具体的には、イベント種類や、イベント内容を示すイベントストリーム(EventStream)等の要素を追加することができる。
 MPD適用イベント通知方式(=MPD Event)では、MPDを利用して、ピリオド(Period)単位でイベント処理に必要な情報をクライアントに提供できる。
 具体的には、MPD適用イベント通知方式(=MPD Event)では、
 (a)様々なイベントのアクティベート(開始/実行/活性化)タイミング等のイベントスケジュール、
 (b)各タイミングにおいてクライアント(受信装置)が処理すべきイベント処理、さらに、
 (c)イベント実行時にクライアント上で稼働するアプリケーションに渡すべきデータ等、
 これらをMPDに記述することができる。
 図7は、MPDのフォーマットを示す図である。
 MPDは、画像や、音声それぞれのストリームごとに、以下の規定範囲単位で属性等の情報や制御情報を記述することが可能な構成を持つ。
 (1)時間軸上の区間を規定したピリオド(Period)
 (2)画像、音声等のデータ種類等を規定したアダプテーション(Adaptation)
 (3)画像の種類、音声の種類等を規定したリプレゼンテーション(Representation)
 (4)画像、音声のセグメント(AVセグメント)単位の情報記録領域となるセグメントインフォ(SegmentInfo)
 図8は、MPDに記録されるAVセグメント対応の情報(制御情報や管理情報、属性情報など)を時系列に展開して示した図である。
 左から右に時間が経過するものとする。この時間軸は、例えば受信装置におけるAVコンテンツの再生時間に対応する。
 AVセグメントに対応する様々な情報がMPDに記録される。なお、MPDはシグナリングデータの一部であり、例えばAVセグメントに先行して送信される。
 MPDは、図7を参照して説明したように、以下の各データ単位で情報が記録できる。
 (1)時間軸上の区間を規定したピリオド(Period)
 (2)画像、音声等のデータ種類等を規定したアダプテーション(Adaptation)
 (3)画像の種類、音声の種類等を規定したリプレゼンテーション(Representation)
 (4)画像、音声のセグメント(AVセグメント)単位の情報記録領域となるセグメントインフォ(SegmentInfo)
 図8は、これらのデータ領域を時間軸、およびデータ種類別に展開して示した図である。
 図8には、以下の2つのアダプテーション(Adaptation)を示している。
 (V)画像対応情報記録領域であるアダプテーションV(Adaptation(V))
 (A)音声対応情報記録領域であるアダプテーションA(Adaptation(A))
 (V)画像対応情報記録領域であるアダプテーションV(Adaptation(V))は、異なる属性を持つストリーム単位の情報記録領域として、以下の2つのリプレゼンテーション(Representation)を有する。
 (V1)低ビットレート画像対応の情報記録領域であるリプレゼンテーション(V1)(Representation(V1))
 (V2)高ビットレート画像対応の情報記録領域であるリプレゼンテーション(V2)(Representation(V2))
 同様に、(A)音声像対応情報記録領域であるアダプテーションA(Adaptation(A))は、異なる属性を持つストリーム単位の情報記録領域としての以下の2つのリプレゼンテーション(Representation)を有する。
 (A1)日本語音声対応の情報記録領域であるリプレゼンテーション(A1)(Representation(A1))
 (A2)英語音声対応の情報記録領域であるリプレゼンテーション(A2)(Representation(A2))
 さらに、各リプレゼンテーション(Representation)は、再生時間軸対応のピリオド、さらに、セグメント単位で情報が記録可能な構成となっている。
 例えば、高ビットレート画像と日本語音声を選択して再生する受信装置(クライアント)は、ピリオド1のセグメント(11)の再生に際して、再生対象とする高ビットレート画像と日本語音声に関する情報をMPDから選択して取得することになる。
 この選択対象とするMPDの記録情報が、図に示すセグメント領域301,302の情報となる。
 このように、受信装置は、シグナリングデータとして送信装置から送信されるMPDから、自装置で再生対象とするデータ(セグメント)に対応する情報のみを選択して参照する。
 このように、MPDには、データ種別、時間単位のセグメント対応情報を記録することができる。
 例えば、受信装置(クライアント)における様々な処理要求を通知するためのイベント通知も、このMPDに記録することができる。
 図9は、MPDを用いたイベント通知、すなわち、MPD適用イベント通知方式(=MPD Event)を適用した場合のMPDの記述例を示す図である。
 イベント情報を含むMPDは、例えば以下の記述を有する。
 <MPD availabilityStartTime="2011-12-25T12:30:00
 <Period startTime='0'>
  ・・・
  <EventStream schemeIdUri='urn:xxx' timescale='1000'>
  <Event presentationTime='0' duration='1000'>イベントデータ1</Event>
  <Event presentationTime='1000' duration='4000'>イベントデータ2</Event>
   ….
</EventStream>
 ・・・
  <AdaptationSet>
   <Representation/>
   <Representation/>
  </AdaptationSet>
   ・・・
</Period>
</MPD>
 上記のMPDのデータ内容について説明する。
  <MPD availabilityStartTime="2011-12-25T12:30:00
 このデータ記録記録領域は、このMPDに記録されたデータに対応する最初のピリオドの開始時刻情報の記録領域である。時刻情報としては例えばUTC時刻が用いられる。
 <Period startTime='0'>
 このデータ記録記録領域は、ピリオド開始時間情報記録領域である。MPDにおいて規定されるスタート時間(MPD/@availabilityStartTime)からのオフセット時間が記録される。
  <EventStream schemeIdUri='urn:xxx' timescale='1000'>
 このデータ記録記録領域は、イベント種類等を示すイベントストリーム指定情報とタイムスケール情報の記録領域である。
 「EventStream schemeIdUri='urn:xxx'」と、オプショナルな「EventStream/@value」によりイベントの種類等が定義される。
 さらに、「timescale='1000'」は、以下に記録されるプレゼンテーションタイム(presentationTime)の単位時間は1/1000秒であることを示す。
  <Event presentationTime='0' duration='1000'>イベントデータ1</Event>
 このデータ記録記録領域は、イベントデータの記録領域と、イベントのアクティベート(実行開始等)時間や継続時間等のイベントスケジューリングデータの記録領域である。
 イベントデータは、イベントを実行するために必要となる実体データ、メタデータ、コマンド等のデータや、そのアクセス情報等によって構成される。
 さらに、イベントのアクティベート(実行開始等)時間や継続時間が記録される。
 この例は、イベントデータ1によって特定されるイベントを、アクティベート(活性化/実行)時刻=0で1000単位時間継続することを指定している。
  <Event presentationTime='1000' duration='4000'>イベントデータ1</Event>
 このデータ記録記録領域も、イベントデータの記録領域と、イベントのアクティベート(実行開始等)時間や継続時間等のイベントスケジューリングデータの記録領域である。
 イベントデータは、イベントを実行するために必要となる実体データ、メタデータ、コマンド等のデータや、そのアクセス情報等によって構成される。
 さらに、イベントのアクティベート(実行開始等)時間や継続時間が記録される。
 この例は、イベントデータ2によって特定されるイベントを、アクティベート(活性化/実行)時刻=1000で4000単位時間継続することを指定している。
 以下の、
  <AdaptationSet>
   <Representation/>
   <Representation/>
 これらは、各データ種類別の情報を記録するデータ記録領域である。
 このように、MPDを用いたイベント通知、すなわち、MPD適用イベント通知方式(MPD Event)では、
 EventStream/@schemeIdUri(とオプショナルなEventStream/@value)属性によりイベントの種類を定義し、
 EventStream/Event要素のコンテンツパートにイベントデータ、すなわち、イベントを実行するために必要となる実体データ、メタデータ、コマンド等のデータや、そのアクセス情報等を付加することができる。
 なお、MPD/Period/EventStream/Event以下のデータ要素として格納される「イベントデータ」のフォーマット(何を格納すべきか)については、「EventStream/@schemeIdUri」属性の値(図9の例では(urn:xxx)によって特定(定義)される。
 なお、この、MPD適用イベント通知方式(MPD Event)は、MPDの送出前に、MPD内に記述されるピリオドの内容が確定できる場合にのみ適用可能である。
 図10は、受信装置において実行するMPDの解析処理(パース)の手順を説明する図である。
 図10には、以下の各図を示している。
 (1)MPD
 (2)ピリオド単位情報
 (3)リプレゼンテーション単位情報
 (4)セグメント単位情報
 AVセグメントを受信してAVコンテンツの再生処理を実行する受信装置(クライアント)は、AVセグメント受信前に予め受信するシグナリングデータに含まれるMPDを取得し、自装置において再生するデータに対応する情報をMPDから取得する。
 まず、図10に示す(1)MPDから、AVセグメント再生時間に相当する特定のピリオドの(情報を記録した(2)ピリオド単位情報を選択する。
 さらに、自装置(クライアント)において再生するデータの種類に対応したリプレゼンテーション単位情報を選択し、さらに、再生対象セグメントに対応する(4)セグメント単位情報を選択する。
 この(4)セグメント単位情報に記録されたデータを参照して、再生対象となるAVセグメントの取得や、AVセグメント再生に必要となる様々な情報を取得することができる。
 受信装置(クライアント)は、受信したMPDのセグメント単位情報にイベント情報が記録されている場合、その記録されたイベント情報に従って指定イベントのアクティベート(実行、開始等のイベント活性化処理)等を行うことになる。
 図11を参照して、イベント情報を記録したMPDの生成(または取得)と出力を実行するイベント挿入実行装置310と、イベント記録MPDを受領してMPD記録イベント情報に応じた処理を実行するイベント実行装置320の構成と処理例について説明する。
 図11には、左側に、イベント情報を記録したMPDの生成(または取得)と出力を実行するイベント挿入実行装置310を示している。
 また、図11の右側には、イベント情報を記録したMPDを入力してMPDに記録されたイベント情報に応じた処理(イベントアクティベート)を実行するイベント実行装置320を示している。
 イベント挿入実行装置310は、具体的には、MPD等のシグナリングデータや、AVセグメントを送信する放送サーバ21、データ配信サーバ22、あるいは、受信装置においてMPD等のシグナリングデータや、AVセグメントを受信して、受信装置の再生制御部131に出力する受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である。
 また、図11の右側に示すイベント実行装置320は、具体的には、MPD等のシグナリングデータや、AVセグメントを入力してコンテンツ再生処理を実行する受信装置の再生制御部(図5、図6に示す再生制御部131,151)である。
 イベント挿入実行装置310の実行する処理について説明する。
 イベント挿入実行装置310は、データ出力部(DASHサーバ)311、イベント処理部(イベントサーバ)312を有する。
 なお、これらのサーバ機能は、MPD等のシグナリングデータや、AVセグメントを送信する放送サーバ21、データ配信サーバ22、さらに、受信装置のミドルウェア110(図5、図6に示すミドルウェア110)が有する機能である。
 以下、イベント挿入実行装置310の実行する処理について、処理ステップごとに説明する。
  (ステップS11)
 まず、イベント挿入実行装置310のデータ出力部(DASHサーバ)311は、ステップS11において、シグナリングデータとしてのMPD、および再生コンテンツを構成するAVデータを含むセグメントを生成、または取得する。
 イベント挿入実行装置310が放送サーバ21、データ配信サーバ22である場合は、MPD、セグメントを生成または取得する処理を行なう。
 イベント挿入実行装置310が受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である場合は、MPD、セグメントを受信データから取得する処理を行なう。
  (ステップS12)
 次に、イベント挿入実行装置310のイベント処理部(イベントサーバ)312は、ステップS12において、イベント情報を生成または、取得する。
 イベント情報とは、例えば、番組表の変更や、放送コンテンツのデータ態様の変更、受信装置における放送コンテンツの再生時に実行すベき処理など、受信装置に対して何らかの処理の実行を通知あるいは要求するための情報である。
 イベント挿入実行装置310が放送サーバ21、データ配信サーバ22である場合は、イベント情報を生成または取得する処理を行なう。
 イベント挿入実行装置310が受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である場合は、イベント情報を受信データから取得する処理を行なう。
  (ステップS13)
 次に、イベント挿入実行装置310のデータ出力部(DASHサーバ)311は、ステップS13において、シグナリングデータとしてのMPDに対して、イベント情報の挿入を行う。
 この処理によって、先に図9を参照して説明したイベント情報記録MPDが生成される。
 図9に示すイベント情報記録MPDには、先に説明したように、
 イベントの種類、内容や、イベントのアクティベート(活性化)時刻、継続時間情報等が記録されている。
 受信装置は、このMPDに記録されたイベント情報に従って、指定されたイベントを指定時間にアクティベート(例えば実行)し、指定継続時間、継続させる処理などを行うことが可能となる。
  (ステップS14)
 次に、イベント挿入実行装置310のデータ出力部(DASHサーバ)311は、ステップS14において、シグナリングデータとしてのMPDにイベント情報を記録したイベント情報記録MPDを送信(出力)する。
 イベント挿入実行装置310が放送サーバ21、データ配信サーバ22である場合は、イベント情報記録MPDを、放送波またはネットワークを介して送信する。
 イベント挿入実行装置310が受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である場合は、イベント情報記録MPDを、プロキシサーバ、あるいは再生制御部に出力する。
  (ステップS15~S16)
 次に、イベント挿入実行装置310のデータ出力部(DASHサーバ)311は、ステップS15~S16において、AVコンテンツ等を格納したセグメントを送信(出力)する。
 セグメント送信は、ステップS16以降、継続的に実行される。
 イベント挿入実行装置310が放送サーバ21、データ配信サーバ22である場合は、セグメントを、放送波またはネットワークを介して送信する。
 イベント挿入実行装置310が受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である場合は、セグメントを、プロキシサーバ、あるいは再生制御部に出力する。
 次に、図11の右側に示すイベント実行装置320の実行する処理について説明する。
 イベント実行装置320は、具体的には、MPD等のシグナリングデータや、AVセグメントを入力してコンテンツ再生処理を実行する受信装置の再生制御部(図5、図6に示す再生制御部131,151)である。
 図11に示すイベント実行装置320の実行する処理は、受信装置の再生制御部131,151において実行する処理である。
 なお、図11においては、再生制御部を、実行する処理の種類に応じた処理種類単位で分離した構成として示している。
 具体的には、イベント対応処理実行部としての再生制御部(イベントクライアント)321と、MPDやAVセグメントを適用したコンテンツ再生処理を実行する再生制御部(DASHクライアント)322、これら2つの処理部を示している。
  (ステップS21)
 まず、イベント実行装置320の再生制御部(DASHクライアント)322は、ステップS21において、イベント挿入実行装置310に対してシグナリングデータとしてのMPDの取得要求を行う。
  (ステップS22)
 次に、イベント実行装置320の再生制御部(DASHクライアント)322は、ステップS22において、イベント挿入実行装置310から取得したMPDからイベント情報を取得する。
 なお、ここで取得したMPDは、イベント情報記録MPD、すなわち、図9に示すイベント情報MPDであるものとする。
 イベント情報記録MPDには、イベントの種類、内容や、イベントのアクティベート(例えば実行、停止等の活性化)時刻、継続時間情報等が記録されている。
 受信装置は、このMPDに記録されたイベント情報に従って、指定されたイベントを指定時間にアクティベート(例えば実行)し、指定継続時間、継続させる処理などを行うことが可能となる。
  (ステップS23)
 次に、イベント実行装置320の再生制御部(イベントクライアント)321は、ステップS23において、MPDから取得したイベント情報に従って、イベント適用のスケジューリング処理を行なう。
 前述したように、イベント情報記録MPDには、イベントの種類、内容や、イベントのアクティベート(活性化)時刻、継続時間情報等が記録されており、イベント実行装置320の再生制御部(イベントクライアント)321は、これらの情報を参照して、イベント実行のスケジューリング処理を行なう。
  (ステップS24)
 次に、イベント実行装置320の再生制御部(DASHクライアント)322は、ステップS24において、イベント挿入実行装置310に対してセグメントの取得要求を行う。
  (ステップS25)
 次に、イベント実行装置320の再生制御部(DASHクライアント)322は、ステップS25において、ステップS24で取得したセグメントからAVコンテンツ等を取得し再生処理を実行する。
  (ステップS26)
 次に、イベント実行装置320の再生制御部(イベントクライアント)321は、ステップS26において、MPDから取得したイベント情報に従ってスケジューリングされたイベントの適用処理、すなわちイベントアクティベート(イベント実行、開始等)処理を行なう。
  (ステップS27~S29)
 ステップS27~S29の処理は、ステップS24~S26の処理と同様の処理である。
 この一連の処理は、継続的に実行されることになる。
 このように、受信装置(クライアント)は、AVセグメントを受信し再生する処理に併せて、MPDに記録されたイベント情報に従って、様々なイベントを実行することが可能となる。
  [6-2.セグメント適用イベント通知方式(=In-band Event Signaling)について]
 次に、DASH規格において規定されたもう1つのイベント通知方式であるセグメント適用イベント通知方式(=In-band Event Signaling)について説明する。
 セグメント適用イベント通知方式(=In-band Event Signaling)は、AVコンテンツ等を格納したセグメント(DASHセグメント)内にイベント情報を記録して受信装置に提供する方式である。
 図1に示す送信装置20は、前述したように、コンテンツデータを符号化し、符号化データおよび符号化データのメタデータを含むデータファイルを生成し送信する。符号化処理は、例えばMPEGにおいて規定されるMP4ファイルフォーマットに従って行われる。なお、送信装置20がMP4形式のデータファイルを生成する場合の符号化データのファイルは「mdat」、メタデータは「moov」や「moof」等と呼ばれる。
 送信装置20が提供するコンテンツは、例えば音楽データや、映画、テレビ番組、ビデオ、写真、文書、絵画および図表などの映像データや、ゲームおよびソフトウェアなど、様々なデータである。
 図12を参照して、DASH規格に従ってコンテンツストリーム配信を行う場合に利用可能なDASHセグメントの構成例について説明する。DASHセグメントは、
 (a)初期化セグメント(Initialization Segment)、
 (b)メディアセグメント(Media Segment)(=AVセグメント)、
 これらの2種類に分けられる。
 (a)初期化セグメント(Initialization Segment)は、受信装置30におけるデコーダの設定等、コンテンツ再生を実行するために必要となる設定情報等の初期化データを格納したセグメントである。
 (b)メディアセグメント(Media Segment)(=AVセグメント)は、再生対象となる符号化コンテンツ(AVコンテンツ)を格納したセグメントである。
 図12に示すように(a)初期化セグメントは、以下の各情報を含む。
 (a1)セグメントのファイルタイプ情報等からなるヘッダ情報(dash)、
 (a2)メディアセグメントによって送信する符号化コンテンツであるメディアデータ(mdat)のコーデック(符号化態様)情報等の初期化情報を含むメタデータ(moov)、
 一方、(b)メディアセグメントは、図12に示すように以下の各情報を含む。
 (b1)セグメントのファイルタイプ情報等からなるヘッダ情報(msdh)、
 (b2)メディアセグメントに格納された複数のサブセグメント(Sub-Segment)の境界情報や、メディアセグメントに格納された符号化コンテンツであるメディアデータ(mdat)のランダムアクセスポイント等を示すアクセス情報(sidx)、
 (b3)複数のサブセグメント(Sub-Segment)、
 また、複数のサブセグメント(Sub-Segment)は1つまたは複数のフラグメント(Fragment)で構成される。
 フラグメント(Fragment)は、以下の各データを含む。
 再生対象となる符号化コンテンツであるメディアデータ(mdat)、
 メディアデータ(mdat)に対応するメタデータ(moof)、
 メディアデータ(mdat)に対応する各種情報(制御情報、管理情報、属性情報など)。
 なお、メディアデータ(mdat)、メタデータ(moof)、その他の各種情報(制御情報、管理情報、属性情報など)は、MP4フォーマットにおいて定義されるボックスに個別に格納される。
 mdatボックスにはAVデータが格納される。
 moofボックスにはメタデータが格納される。
 その他の各種情報も、それぞれの情報に応じて定義されるボックスに格納される。
 イベント情報は、各種情報の一部としてイベント情報を格納するためのボックスとしてMP4フォーマットで定義されたイベント情報格納ボックス[emsgボックス]に格納される。
 セグメント適用イベント通知方式(=In-band Event Signaling)において利用されるMP4フォーマットデータ内のイベント情報格納ボックス(emsg)のデータ構成例について、図13を参照して説明する。
 図13には、イベント識別子1,2の2つのイベント情報を個別に格納した2つのイベント情報格納ボックス(emsg)のデータを示している。
 イベント情報格納ボックス(emsg)は、例えば以下の記述を有する。
 box_type='emsg'
 scheme_id_uri="urn:xxx"
 value=0
 timescale=1000
 presentation_time_delta=0
 event_duration = 0xFFFF
 id=1
 message_data[]=イベントデータ-1
 上記のイベント情報格納ボックス(emsg)のデータ内容について説明する。
 box_type='emsg'
 このデータ記録記録領域はボックスタイプ記録領域である。このボックス(MP4において規定されるデータ格納ボックス)が、イベント情報格納ボックス(emsg)であることを記述している。
 scheme_id_uri="urn:xxx"
 value=0
 このデータ記録記録領域は、イベント種類等を示すイベント指定情報の記録領域である。
 「scheme_id_uri="urn:xxx"」と、オプショナルな「value」によりイベントの種類等を定義する。
 timescale=1000
 このデータ記録記録領域は、タイムスケール情報の記録領域である。
 「timescale='1000'」は、以下に記録されるプレゼンテーションタイム(presentationTime)の単位時間は1/1000秒であることを示す。
 presentation_time_delta=0
 event_duration=0xFFFF
 これらのデータ記録記録領域は、イベントのアクティベート(実行開始等)時間や継続時間等のイベントスケジューリングデータの記録領域である。イベント指定情報によって特定されるイベントのアクティベート(活性化/実行)時刻=0で、時刻=0xFFFFまで継続することを指定している。なお、0xFFFFは終了時間を定義していないことを示し、このイベント情報格納ボックスの設定されたセグメントに対応するAVコンテンツの再生終了まで、イベントを継続してもしなくてもよいという指定であることを意味する。
 id=1
 このデータ記録領域は、イベント識別情報記録領域である。
 message_data[]=イベントデータ-1
 このデータ記録領域は、イベントデータの記録領域である。
 イベントデータは、イベントを実行するために必要となる実体データ、メタデータ、コマンド等のデータや、そのアクセス情報等によって構成される。
 このように、セグメント適用イベント通知方式(=In-band Event Signaling)では、セグメントストリームの中(in-stream)にイベント情報を記録して転送することができる。
 セグメント適用イベント通知方式(=In-band Event Signaling)では、「scheme_id_uri」フィールドと、オプショナルな「value」フィールドにイベントの種類を定義可能である。
 また、「message_data」フィールドにイベントデータ、すなわち、イベントを実行するために必要となる実体データ、メタデータ、コマンド等のデータや、そのアクセス情報等を付加することができる。
 次に、図14を参照して、イベント情報を記録したセグメントの生成(または取得)と出力を実行するイベント挿入実行装置310と、イベント記録情報セグメントを受領してセグメントに記録されたイベント情報に応じた処理を実行するイベント実行装置320の構成と処理例について説明する。
 図14には、左側に、イベント情報を記録したセグメントの生成(または取得)と出力を実行するイベント挿入実行装置310を示している。
 また、図14の右側には、イベント情報を記録したセグメントを入力してセグメントに記録されたイベント情報に応じた処理(イベントアクティベート)を実行するイベント実行装置320を示している。
 イベント挿入実行装置310は、具体的には、MPD等のシグナリングデータや、AVセグメントを送信する放送サーバ21、データ配信サーバ22、あるいは、受信装置においてMPD等のシグナリングデータや、AVセグメントを受信して、受信装置の再生制御部131に出力する受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である。
 また、図14の右側に示すイベント実行装置320は、具体的には、MPD等のシグナリングデータや、AVセグメントを入力してコンテンツ再生処理を実行する受信装置の再生制御部(図5、図6に示す再生制御部131,151)である。
 イベント挿入実行装置310の実行する処理について説明する。
 イベント挿入実行装置310は、データ出力部(DASHサーバ)311、イベント処理部(イベントサーバ)312を有する。
 なお、これらのサーバ機能は、MPD等のシグナリングデータや、AVセグメントを送信する放送サーバ21、データ配信サーバ22、さらに、受信装置のミドルウェア110(図5、図6に示すミドルウェア110)が有する機能である。
 以下、イベント挿入実行装置310の実行する処理について、処理ステップごとに説明する。
  (ステップS31)
 まず、イベント挿入実行装置310のデータ出力部(DASHサーバ)311は、ステップS31において、シグナリングデータとしてのMPD、および再生コンテンツを構成するAVデータを含むセグメントを生成、または取得する。
 イベント挿入実行装置310が放送サーバ21、データ配信サーバ22である場合は、MPD、セグメントを生成または取得する処理を行なう。
 イベント挿入実行装置310が受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である場合は、MPD、セグメントを受信データから取得する処理を行なう。
  (ステップS32)
 次に、イベント挿入実行装置310のイベント処理部(イベントサーバ)312は、ステップS32において、イベント情報を生成または、取得する。
 イベント情報とは、例えば、番組表の変更や、放送コンテンツのデータ態様の変更、受信装置における放送コンテンツの再生時に実行すベき処理など、受信装置に対して何らかの処理の実行を通知あるいは要求するための情報である。
 イベント挿入実行装置310が放送サーバ21、データ配信サーバ22である場合は、イベント情報を生成または取得する処理を行なう。
 イベント挿入実行装置310が受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である場合は、イベント情報を受信データから取得する処理を行なう。
  (ステップS33)
 次に、イベント挿入実行装置310のデータ出力部(DASHサーバ)311は、ステップS33において、セグメントに対して、イベント情報の挿入を行う。
 この処理によって、先に図13を参照して説明したMP4フォーマットにおいて規定されるイベント情報記録ボックスであるemsgボックスを含むセグメントが生成される。
 図13に示すイベント情報記録ボックス(emsg)iは、先に説明したように、
 イベントの種類、内容や、イベントのアクティベート(活性化)時刻、継続時間情報等が記録されている。
 受信装置は、このセグメント内のemsgボックスに記録されたイベント情報に従って、指定されたイベントを指定時間にアクティベート(例えば実行)し、指定継続時間、継続させる処理などを行うことが可能となる。
  (ステップS34)
 次に、イベント挿入実行装置310のデータ出力部(DASHサーバ)311は、ステップS34において、シグナリングデータとしてのMPDを送信(出力)する。
 イベント挿入実行装置310が放送サーバ21、データ配信サーバ22である場合は、MPDを、放送波またはネットワークを介して送信する。
 イベント挿入実行装置310が受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である場合は、MPDをプロキシサーバ、あるいは再生制御部に出力する。
  (ステップS35~S36)
 次に、イベント挿入実行装置310のデータ出力部(DASHサーバ)311は、ステップS35~S36において、AVコンテンツ等を格納したセグメントを送信(出力)する。
 送信するセグメントは、MP4フォーマットにおいて規定されるイベント情報記録ボックス(emsg)を含むセグメントである。
 セグメント送信は、ステップS36以降、継続的に実行される。
 イベント挿入実行装置310が放送サーバ21、データ配信サーバ22である場合は、セグメントを、放送波またはネットワークを介して送信する。
 イベント挿入実行装置310が受信装置のミドルウェア110(図5、図6に示すミドルウェア110)である場合は、セグメントを、プロキシサーバ、あるいは再生制御部に出力する。
 次に、図14の右側に示すイベント実行装置320の実行する処理について説明する。
 イベント実行装置320は、具体的には、MPD等のシグナリングデータや、AVセグメントを入力してコンテンツ再生処理を実行する受信装置の再生制御部(図5、図6に示す再生制御部131,151)である。
 図14に示すイベント実行装置320の実行する処理は、受信装置の再生制御部131,151において実行する処理である。
 なお、図14においては、再生制御部を、実行する処理の種類に応じて分離して示している。すなわち、イベント対応処理実行部としての再生制御部(イベントクライアント)321と、MPDやAVセグメントを適用したコンテンツ再生処理を実行する再生制御部(DASHクライアント)322の2つの処理部に区分して示している。
  (ステップS41)
 まず、イベント実行装置320の再生制御部(DASHクライアント)322は、ステップS41において、イベント挿入実行装置310に対してシグナリングデータとしてのMPDの取得要求を行う。
  (ステップS42)
 次に、イベント実行装置320の再生制御部(DASHクライアント)322は、ステップS44において、イベント挿入実行装置310に対してセグメントの取得要求を行う。
  (ステップS43)
 次に、イベント実行装置320の再生制御部(DASHクライアント)322は、ステップS42において、イベント挿入実行装置310から取得したセグメントからイベント情報を取得する。
 なお、ここで取得したセグメントは、イベント情報記録ボックス(emsg)を有する。すなわち、図13に示すイベント情報を記録したイベント情報記録ボックス(emsg)を含むセグメント(イベント情報記録セグメント)であるものとする。
 イベント情報記録セグメントには、イベントの種類、内容や、イベントのアクティベート(活性化)時刻、継続時間情報等が記録されている。
 受信装置は、このセグメントに記録されたイベント情報に従って、指定されたイベントを指定時間にアクティベート(例えば実行)し、指定継続時間、継続させる処理などを行うことが可能となる。
  (ステップS44)
 次に、イベント実行装置320の再生制御部(イベントクライアント)321は、ステップS44において、セグメントから取得したイベント情報に従ってスケジューリングされたイベントの適用処理、すなわちイベントアクティベート(イベント実行、開始等)処理を行なう。
  (ステップS45)
 次に、イベント実行装置320の再生制御部(DASHクライアント)322は、ステップS45において、ステップS42で取得したセグメントからAVコンテンツ等を取得し再生処理を実行する。
  (ステップS46~S49)
 ステップS46~S49の処理は、ステップS42~S45の処理と同様の処理である。
 この一連の処理は、セグメント単位の処理として継続的に実行されることになる。
 このように、受信装置(クライアント)は、AVセグメントを受信し再生する処理に併せて、セグメント内のイベント情報記録ボックス(emsg)に記録されたイベント情報に従って、様々なイベントを実行することが可能となる。
  [7.シグナリングデータ更新情報の通知処理について]
 次に、上述したイベント通知機構を利用してシグナリングデータ更新情報を通知する構成について説明する。
  [7-1.イベント通知機構を利用したシグナリングデータ更新情報通知構成の概要]
 先に図5、図6を参照して説明したチューナ実装受信装置(クライアントA)30と、チューナ非実装受信装置(クライアントB)40は、いずれも、シグナリングデータ処理部140,160を有する。
 シグナリングデータ処理部140,160は、送信装置20(放送サーバ21、データ配信サーバ22)が送信するシグナリングデータに基づく処理を実行する。
 先に図2を参照して説明したように、シグナリングデータ50は、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL(Uniform Resource Locator)等)、さらにコンテンツの再生処理に必要な情報、例えばコーデック情報(符号化方式など)などからなる案内情報、アプリケーション制御情報等の様々な制御情報によって構成される。
 シグナリングデータ処理部(SLS Signaling Parser&Viewer)140,160は、シグナリングデータ(SLS:Service Layer Signaling)を取得して取得したシグナリングデータに基づく処理を実行する。
 シグナリングデータ処理部140,160は、シグナリングデータに基づく様々な処理を行なう。例えば、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL)、コーデック情報(符号化方式など)を再生制御部131に提供する処理や、シグナリングデータの表示、例えば番組表の表示処理などを行う。
 先に説明したように、これらの番組スケジュール(番組表)や、アドレス情報、コーデック情報等のシグナリングデータは、随時更新される可能性があり、受信装置では、最新のシグナリングデータを利用した処理を行なう必要がある。
 シグナリングデータ処理部140,160が、最新のシグナリングデータに従った処理を実行するためには、シグナリングデータ処理部140,160に対して、タイムリにシグナリングデータが更新されたことを通知することが必要である。
 この通知情報が、図6に示すシグナリングデータ更新情報(SLS-Update Message)である。
 本開示の構成においては、シグナリングデータ更新情報をセグメント内に記録する。再生制御部131,151はセグメントにシグナリングデータ更新情報が含まれている場合、これをシグナリングデータ処理部140,160に出力する処理を実行する。
 シグナリングデータ更新情報は、上述したイベント通知機構を利用して送信、出力される。以下、このイベント通知機構を利用したシグナリングデータ更新情報の通知構成の詳細について説明する。
 上述したように、DASH規格では、イベント通知機構として以下の2種類のタイプのイベント通知方式が規定されている。
 (a)MPD適用イベント通知方式(=MPD Event)、
 (b)セグメント適用イベント通知方式(=In-band Event Signaling)
 これらの2種類のイベント通知方式が規定されている。
 (a)MPD適用イベント通知方式(=MPD Event)を用いてイベント通知を行う場合の具体的なデータ構成例は図9を参照して説明した通りである。
 (b)セグメント適用イベント通知方式(=In-band Event Signaling)を用いてイベント通知を行う場合の具体的なデータ構成例は図13を参照して説明した通りである。
 本開示の構成においては、
 (b)セグメント適用イベント通知方式(=In-band Event Signaling)を用いたイベント通知方式を利用して、シグナリングデータ更新情報を通知する。
 このセグメント適用イベント通知方式を用いたイベント通知メッセージ内には、イベントの種類を特定するための情報としてイベント種類情報が記録される。
 図13に示すセグメント内のイベント情報格納ボックス(emsg)の記述では、
 scheme_id_uri="urn:xxx"
 このデータ記録記録領域が、イベント種類等を示すイベント指定情報の記録領域である。
 このイベント種類の1つとして、シグナリングデータ更新情報(SLS-Update Message)を定義する。
 すなわち、セグメントを用いて実行するイベント通知において通知するイベントの種類が、シグナリングデータ更新情報(SLS-Update Message)であることを示すイベント種類を定義する。
 具体的には、例えば、
 schemeIdUri=urn:atsc:SLSUpdate
 上記のschemeIdUriを、シグナリングデータ更新情報(SLS-Update Message)を示すイベント種類識別子とする。
 なお、上記の識別子は一例であり、受信装置が、セグメントから抽出したイベント情報が、シグナリングデータ更新情報に関するイベント情報であることが判別できるデータ(文字列やコード)であれば、様々な識別子が利用可能である。
 さらに、図13を参照して説明した以下のイベント通知方式、すなわち、
 (b)セグメント適用イベント通知方式(=In-band Event Signaling)
 このイベント通知方式においてはイベントデータが格納される。
 イベントデータは、イベントを実行するために必要となる実体データ、メタデータ、コマンド等のデータや、そのアクセス情報等によって構成される。
 図13に示すセグメント内のイベント情報格納ボックス(emsg)の記述では、例えば、
 「message_data[]=イベントデータ-1」に、イベントデータが記録される。
 図13に示すイベント通知メッセージを利用してシグナリングデータ更新情報[SLS(Service Layer Signaling)Update)を通知する場合に、このイベント通知メッセージに記録するイベントデータの例について、図15を参照して説明する。
 図15には、イベント通知メッセージ内にイベントデータとして格納するシグナリングデータ更新情報の以下の2つの構成例を示している。
 (1)シグナリングデータ(SLS)本体非格納型シグナリングデータ更新情報(SLS Update message)
 (2)シグナリングデータ(SLS)本体格納型シグナリングデータ更新情報(SLS Update message)
 (1)シグナリングデータ(SLS)本体非格納型シグナリングデータ更新情報(SLS Update message)は、シグナリングデータ(SLS)本体は格納しないタイプであり、シグナリングデータ(SLS)本体を取得するためのアクセス情報を格納している。
 (2)シグナリングデータ(SLS)本体格納型シグナリングデータ更新情報(SLS Update message)は、シグナリングデータ(SLS)本体を格納したタイプである。
 (1)シグナリングデータ(SLS)本体非格納型シグナリングデータ更新情報(SLS Update message)の構成要素は以下の通りである。
 (1a)シグナリングデータ(SLS)識別子とバージョン
 (2)シグナリングデータ(SLS)本体格納型シグナリングデータ更新情報(SLS Update message)の構成要素は以下の通りである。
 (2a)シグナリングデータ(SLS)識別子とバージョン
 (2b)シグナリングデータ(SLS)本体
 以下、これらの格納データについて説明する。
 (1a)(2a)に含まれるシグナリングデータ(SLS)識別子は、更新後のシグナリングデータを取得するためのurl等の識別子である。
 バージョンは、更新後のシグナリングデータのバージョン情報である。
 なお、シグナリングデータの識別子がurlで指定される場合、放送で取得する場合と、ネット経由で取得する場合がある。ネット経由の場合は、通常のネット系スタックによりHTTPにより取得される。放送で取得する場合は、シグナリングデータを格納したシグナリナングファイルや、DASHセグメントファイルと同様に、ROUTEプロトコルに従って転送される。
 (2b)に含まれるシグナリングデータ本体は、更新後のシグナリングデータそのものである。
 先に説明したように、DASH規格では、イベント通知機構として以下の2種類のタイプのイベント通知方式が規定されている。
 (a)MPD適用イベント通知方式(=MPD Event)、
 (b)セグメント適用イベント通知方式(=In-band Event Signaling)
 これらの2種類のイベント通知方式が規定されている。
 本開示の処理では、
 (b)セグメント適用イベント通知方式(=In-band Event Signaling)
 上記のセグメント適用イベント通知方式を適用して、シグナリングデータ更新情報を通知する。以下、この処理例について説明する。
  [7-2.セグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報の通知構成]
 次に、セグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報の通知構成について説明する。
 図16は、セグメントを用いたイベント通知、すなわち、セグメント適用イベント通知方式(=In-band Event Signaling)において利用されるMP4フォーマットデータ内のイベント情報格納ボックス(emsg)を適用してシグナリングデータ更新情報を通知する場合のセグメント中の[イベント情報格納ボックス(emsg)]の記述例を示す図である。
 なお、フォーマットはバイナリのビットストリーム表現でエンコードされる場合も、XML等によるテキストでエンコードされる場合もある。
 図16には、イベント識別子1,2によって識別されるシグナリングデータ更新情報1,2(SLSUpdate1,2)の2つのシグナリングデータ更新情報1,2(SLSUpdate)を個別に格納した2つのイベント情報格納ボックス(emsg)のデータを示している。
 図16に示すようにシグナリングデータ更新情報を含むセグメントは、例えば以下の記述を有する。
 box_type='emsg'
 scheme_id_uri="urn:atsc:SLSUpdate"
 value=0
 timescale=1000
 presentation_time_delta=0
 event_duration = 0xFFFF
 id=1
 message_data[]=SLSUpdate1
 上記のイベント情報格納ボックス(emsg)のデータ内容について説明する。
 box_type='emsg'
 このデータ記録記録領域はボックスタイプ記録領域である。このボックス(MP4において規定されるデータ格納ボックス)が、イベント情報格納ボックス(emsg)であることを記述している。
 scheme_id_uri="urn:atsc:SLSUpdate"
 value=0
 このデータ記録記録領域は、イベント種類等を示すイベント指定情報の記録領域である。
 「scheme_id_uri="urn:atsc:SLSUpdate"」は、
 このイベント通知がシグナリングデータ更新情報を通知するイベント通知であることを示している。
 timescale=1000
 このデータ記録記録領域は、タイムスケール情報の記録領域である。
 「timescale='1000'」は、以下に記録されるプレゼンテーションタイム(presentationTime)の単位時間は1/1000秒であることを示す。
 presentation_time_delta=0
 event_duration=0xFFFF
 これらのデータ記録記録領域は、イベントのアクティベート(実行開始等)時間や継続時間等のイベントスケジューリングデータの記録領域である。イベント指定情報によって特定されるイベントのアクティベート(活性化/実行)時刻=0で、時刻=0xFFFFまで継続することを指定している。なお、0xFFFFは終了時間を定義していないことを示し、このイベント情報格納ボックスの設定されたセグメントに対応するAVコンテンツの再生終了まで、イベントを継続してもしなくてもよいという指定であることを意味する。
 id=1
 このデータ記録領域は、イベント識別情報記録領域である。
 message_data[]=SLSUpdate1
 このデータ記録領域は、イベントデータの記録領域である。
 この例では、イベントデータとして、シグナリングデータ更新情報1(SLSUpdate1)が格納されている。
 シグナリングデータ更新情報1(SLSUpdate1)の具体例について、図17(1)を参照して説明する。
 図17(1)に示すシグナリングデータ更新情報1(SLSUpdate1)は、先に図15(1)を参照して説明したシグナリングデータ本体非格納型シグナリングデータ更新情報(SLSUpdate)と同様のデータ構成であり、以下のデータ構成要素を持つ。
 (1a)シグナリングデータ識別子と、バージョン情報
 図17(1)に示す例では、
  シグナリングデータ識別子=sls-uri
  シグナリングデータバージョン=1
 これらを記録している。
 すなわち、図16のイベント識別子=1対応のセグメント適用イベント(SLSUpdate1)通知メッセージは、
 シグナリングデータ識別子=sls-uri
 によって識別、取得可能なシグナリングデータについて、
 時間=0において、バージョン1のシグナリングデータの取得と処理を実行させる記述を持つイベント通知メッセージである。
 また、図16の下段に示すイベント識別子=2対応のセグメント適用イベント(SLSUpdate2)に格納されたシグナリングデータ更新情報2(SLSUpdate2)は図17(2)に示すデータ構成を持つ。
 図17(2)に示すシグナリングデータ更新情報2(SLSUpdate2)も、先に図15(1)を参照して説明したシグナリングデータ本体非格納型シグナリングデータ更新情報(SLSUpdate)と同様のデータ構成であり、以下のデータ構成要素を持つ。
 (1a)シグナリングデータ識別子と、バージョン情報
 図17(2)に示す例では、
  シグナリングデータ識別子=sls-uri
  シグナリングデータバージョン=2
 これらを記録している。
 すなわち、図16のイベント識別子=2(SLSUpdate2)対応のセグメント適用イベント(SLSUpdate2)通知メッセージは、
 シグナリングデータ識別子=sls-uri
 によって識別、取得可能なシグナリングデータについて、
 時間=1000において、バージョン2のシグナリングデータの取得と処理を実行させる記述を持つイベント通知メッセージである。
 このように、セグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報通知構成では、セグメントストリームの中(in-stream)にシグナリングデータ更新情報を記録して転送することができる。
 セグメント適用イベント通知方式(=In-band Event Signaling)では、「scheme_id_uri」フィールドと、オプショナルな「value」フィールドにイベント種類としてシグナリングデータ更新情報であることを定義可能である。
 また、「message_data」フィールドにイベントデータ、すなわち、シグナリングデータ更新情報として、シグナリングデータ本体、あるいは識別子と、シグナリングデータのバージョン情報等を付加することができる。
  [8.セグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報の通知、利用シーケンスについて]
 次に、セグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報の送信、利用シーケンスについて説明する。
 上述したように、セグメント適用イベント通知方式(=In-band Event Signaling)を適用してシグナリングデータ更新情報を送信することができる。
 以下、図18を参照してセグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報の送信および利用シーケンスについて説明する。
 図18には、イベント情報としてシグナリングデータ更新情報を記録したセグメントの生成(または取得)と出力を実行する送信装置510と、シグナリングデータ更新情報記録セグメントを受領してセグメントに記録されたシグナリングデータ更新情報に応じた処理を実行する受信装置520の構成と処理を示している。
 図18には、左側に、シグナリングデータ更新情報を記録したセグメントの生成(または取得)と出力を実行する送信装置510を示している。
 また、図18の右側には、シグナリングデータ更新情報を記録したセグメントを入力してセグメントに記録されたシグナリングデータ更新情報に応じたシグナリングデータ更新処理処理を実行する受信装置520を示している。
 送信装置510は、具体的には、MPD等のシグナリングデータや、AVセグメントを送信する放送サーバ21、データ配信サーバ22である。
 また、図18の右側に示す受信装置520は、具体的には、MPD等のシグナリングデータや、AVセグメントを入力してコンテンツ再生処理を実行する受信装置である。
 送信装置510の実行する処理について説明する。
 送信装置510は、データ出力部(DASHサーバ)511、シグナリングデータ処理部(SLSサーバ)512、放送信号生成部(放送サーバ)513を有する。
 なお、これらのサーバ機能は、MPD等のシグナリングデータや、AVセグメントを送信する図1に示す放送サーバ21、データ配信サーバ22が有する機能である。
 以下、送信装置510の実行する処理について、処理ステップごとに説明する。
  (ステップS101)
 まず、送信装置510のデータ出力部(DASHサーバ)511は、ステップS101において、MPD、および再生コンテンツを構成するAVデータを含むセグメントを生成、または取得する。
  (ステップS102)
 次に、送信装置510のシグナリングデータ処理部(SLSサーバ)512は、ステップS102において、シグナリングデータを生成する。
 シグナリングデータは、例えば既に送信済みのシグナリングデータの更新バージョンである。
 なお、シグナリングデータは、先に説明したように、例えば、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL(Uniform Resource Locator)等)、さらにコンテンツの再生処理に必要な情報、例えばコーデック情報(符号化方式など)などからなる案内情報、アプリケーション制御情報等の様々な制御情報によって構成される。
  (ステップS103)
 次に、送信装置510のシグナリングデータ処理部(SLSサーバ)512は、ステップS103において、シグナリングデータ更新情報をイベントとして生成する。
 例えば、先に図15を参照して説明したシグナリングデータ更新情報を生成する。
 図15を参照して説明したように、シグナリングデータ更新情報は、例えば、以下の2つのデータタイプがある。
 (1)シグナリングデータ本体非格納型シグナリングデータ更新情報(SLS Update Message)
 (2)シグナリングデータ本体格納型シグナリングデータ更新情報(SLS Update Message)
 ステップS102では、これらのいずれかのタイプのシグナリングデータ更新情報を生成し、さらに、イベント通知メッセージに設定すべきパラメータの決定などを行う。
 すなわち、シグナリングデータ更新情報のアクティベート時間、継続時間等、イベント通知において必要となる各パラメータを決定する。すなわち、DASH規格に従ったイベント通知機構を利用したシグナリングデータ更新情報送信を可能とするためのパラメータその他のフォーマットデータの設定処理などを行う。
  (ステップS104)
 次に、送信装置510のデータ出力部(DASHサーバ)311は、ステップS104において、セグメントの構成データであるMP4において規定されるemsgボックスに対して、イベント情報としてシグナリングデータ更新情報の挿入を行う。
 この処理によって、先に図16を参照して説明したシグナリングデータ更新情報を含むセグメントが生成される。具体的にはMP4において規定されるemsgボックス記録データを生成する。
 図16に示すシグナリングデータ更新情報格納セグメントには、先に説明したように、
 イベントの種類として、シグナリングデータ更新情報であることが示されている。
 また、イベントデータとして、図15を参照して説明したシグナリングデータ更新情報が格納されている。
 さらに、シグナリングデータ更新情報のアクティベート(活性化)時刻、継続時間情報等が記録されている。
 受信装置は、このゼグメントに記録されたシグナリングデータ更新情報に従って、指定されたシグナリングデータ更新情報を参照した処理を行なうことが可能となる。
 すなわち、シグナリングデータ更新情報の記録データに従って更新された最新のシグナリングデータを取得し、取得した最新のシグナリングデータを参照した様々な処理を実行することができる。
 シグナリングデータの更新や、利用処理等の実行時間や、継続時間は、セグメント(emsgボックス)記録データに従うことになる。
  (ステップS105)
 次に、送信装置510のデータ出力部(DASHサーバ)511は、ステップS105において、MPD、およびシグナリングデータ更新情報を記録したセグメントを送信(出力)する。
 送信装置510が放送サーバ21である場合、放送信号生成部(放送サーバ)513において、MPDやセグメントを放送波に載せて送信する処理が行われる。
 データ配信サーバ22である場合は、MPDやセグメントを、ネットワークを介して送信する。
 次に、図18の右側に示す受信装置520の実行する処理について説明する。
 図18には、受信装置520のミドルウェア521、シグナリングデータ処理部522、再生制御部523を示している。これらの構成は、図5、図6に示すチューナ実装受信装置30の各構成に対応する。
  (ステップS121)
 まず、受信装置520の再生制御部(DASHクライアント)523は、送信装置510からミドルウェア521を介してセグメントを取得すると、ステップS121において、取得したセグメントからイベント情報を取得する。
 なお、ここで取得したセグメントは、シグナリングデータ更新情報が記録されたemsgボックスを含むセグメントであるものとする。
 図16を参照して説明したMP4規定のemsgボックスにシグナリングデータ更新情報が記録されたセグメントである。
 シグナリングデータ更新情報格納セグメントには、先に説明したように、
 イベントの種類として、シグナリングデータ更新情報であることが示されている。
 また、イベントデータとして、図15を参照して説明したシグナリングデータ更新情報が格納されている。
 さらに、シグナリングデータ更新情報のアクティベート(活性化)時刻、継続時間情報等が記録されている。
 受信装置は、このセグメントに記録されたシグナリングデータ更新情報を利用してシグナリングデータの取得、およびシグナリングデータに従った処理等を行うことが可能となる。
  (ステップS122)
 次に、受信装置520のシグナリングデータ処理部522は、ステップS122において、セグメントから取得したシグナリングデータ更新情報を参照して、最新の更新されたシグナリングデータを取得し、取得した最新の更新されたシグナリングデータに従った処理を行なう。
 すなわち、シグナリングデータ処理部522は、シグナリングデータ更新処理を実行するとともに、更新されたシグナリングデータに記録されたシグナリング情報に従ったデータ処理を実行する。具体的には例えば番組表の更新処理等である。
 シグナリングデータ更新情報を格納したセグメントには、イベントデータとして、図15を参照して説明したシグナリングデータ更新情報が格納されている。
 シグナリングデータ更新情報には、更新対象のシグナリングデータ本体、または識別情報が記録され、さらにバージョン情報等が記録されている。
 シグナリングデータ処理部522は、このシグナリングデータ更新情報の記録データに従って取得される最新の更新シグナリングデータを参照して、取得した最新のシグナリングデータに基づく処理を実行する
 なお、シグナリングデータの適用時刻や、継続時間情報は、先に図16を参照して説明したようにセグメント(MP4規定のemsgボックス)に記録されている。
  (ステップS123)
 次に、受信装置520の再生制御部(DASHクライアント)523は、送信装置510から受信したセグメントからAVコンテンツ等を取得し再生処理を実行する。
 なお、ステップS141~S143の処理は、継続的に繰り返し実行されることになる。
 このように、受信装置(クライアント)は、AVセグメントを受信し再生する処理に併せて、セグメントに記録されたイベント情報としてのシグナリングデータ更新情報に従って、シグナリングデータの更新、およびシグナリングデータの適用処理を、大きな遅延なく、すなわちタイムリに実行することが可能となる。
  [9.チューナ非実装受信装置を利用した場合の処理例について]
 先に、図5、図6を参照して説明したように、放送コンテンツ等の再生を実行する受信装置(クライアント)には、チューナ実装受信装置(クライアントA)30や、チューナ非実装受信装置(クライアントB)40がある。
 チューナ非実装受信装置(クライアントB)40は、直接、放送波を受信できないため、チューナ実装受信装置(クライアントA)30を介して様々なデータを入力することが必要となる。
 シグナリングデータ更新情報についても同様であり、チューナ非実装受信装置(クライアントB)40は、直接、シグナリングデータ更新情報を受信できないため、チューナ実装受信装置(クライアントA)30を介して入力することが必要となる。
 以下、チューナ非実装受信装置(クライアントB)40が、チューナ実装受信装置(クライアントA)30を介してシグナリングデータ更新情報を入力して処理を行なう場合の処理シーケンスについて説明する。
 上述したように、イベント通知機構を適用してシグナリングデータ更新情報を送信する場合、「(b)セグメント適用イベント通知方式(=In-band Event Signaling)」を適用する。
 以下、このイベント通知方式を利用してシグナリングデータ更新情報を送信する場合のシーケンスについて説明する。
  [9-1.セグメント適用イベント通知方式(=In-band Event Signaling)を適用したシグナリングデータ更新情報の送信および利用シーケンスについて]
 図19を参照して、以下の3つの装置間の処理シーケンスについて説明する。
 (1)AVセグメントや、シグナリングデータ更新情報の生成と出力を実行する送信装置610、
 (2)AVセグメントや、シグナリングデータ更新情報を受信し、シグナリングデータ更新情報をイベント情報としてセグメントに記録したシグナリングデータ更新情報記録セグメントを生成するチューナ実装受信装置620、
 (3)チューナ実装受信装置620から、シグナリングデータ更新情報記録セグメントを受領してセグメント記録シグナリングデータ更新情報に応じた処理を実行するチューナ非実装受信装置630、
 図19には、左から、送信装置610、チューナ実装受信装置620、さらに、チューナ非実装受信装置630を示している。
 送信装置610は、具体的には、MPD等のシグナリングデータや、AVセグメントを送信する放送サーバ21、データ配信サーバ22である。
 送信装置610の実行する処理について説明する。
 送信装置610は、データ出力部(DASHサーバ)611、シグナリングデータ処理部(SLSサーバ)612、放送信号生成部(放送サーバ)613を有する。
 なお、これらのサーバ機能は、MPD等のシグナリングデータや、AVセグメントを送信する図1に示す放送サーバ21、データ配信サーバ22が有する機能である。
 以下、送信装置610の実行する処理について、処理ステップごとに説明する。
  (ステップS251)
 まず、送信装置610のデータ出力部(DASHサーバ)611は、ステップS251において、シグナリングデータとしてのMPD、および再生コンテンツを構成するAVデータを含むセグメントを生成取得する。
  (ステップS252~S253)
 次に、送信装置610のシグナリングデータ処理部(SLSサーバ)612は、ステップS252において、シグナリングデータを生成し、ステップS253において生成したシグナリングデータを送信する。
 シグナリングデータは、先に説明したように、例えば、番組表等の番組予定情報や、番組取得に必要となるアドレス情報(URL(Uniform Resource Locator)等)、さらにコンテンツの再生処理に必要な情報、例えばコーデック情報(符号化方式など)などからなる案内情報、アプリケーション制御情報等の様々な制御情報によって構成される。
  (ステップS254)
 次に、送信装置610のデータ出力部(DASHサーバ)611は、ステップS254において、シグナリングデータとしてのMPDやセグメントを送信(出力)する。
 送信装置610が放送サーバ21である場合、放送信号生成部(放送サーバ)613において、MPDやセグメントを放送波に載せて送信する処理が行われる。
 データ配信サーバ22である場合は、MPDやセグメントを、ネットワークを介して送信する。
 次に、チューナ実装受信装置620の処理について説明する。
 チューナ実装受信装置620は、図5、図6に示すチューナ実装受信装置30と同様の構成を持つ。
 チューナ実装受信装置620のミドルウェアは、送信装置610の送信するMPDやセグメント、さらにシグナリングデータ(SLS)を受信する。
 チューナ実装受信装置620は、ミドルウェア621においてシグナリングデータ更新情報をイベント情報としてセグメントに記録したシグナリングデータ更新情報記録セグメントを生成する。
 さらに、生成したシグナリングデータ更新情報記録セグメントや、MPD、およびAVセグメントをチューナ非実装受信装置630に転送する。
 チューナ実装受信装置620の実行する各ステップの処理について説明する。
  (ステップS261)
 チューナ実装受信装置620のミドルウェア621は、送信装置610からシグナリングデータを受信すると、ステップS261において、受信したシグナリングデータに基づいてシグナリングデータ更新情報をイベントとして生成する。
 例えば、先に図15を参照して説明したシグナリングデータ更新情報を生成する。
 図15を参照して説明したように、シグナリングデータ更新情報は、例えば、以下の2つのデータタイプがある。
 (1)シグナリングデータ本体非格納型シグナリングデータ更新情報(SLS Update Message)
 (2)シグナリングデータ本体格納型シグナリングデータ更新情報(SLS Update Message)
 ステップS261では、これらのいずれかのタイプのシグナリングデータ更新情報を生成し、さらに、イベント通知メッセージに設定すべきパラメータの決定などを行う。
 すなわち、シグナリングデータ更新情報のアクティベート時間、継続時間等、イベント通知において必要となる各パラメータを決定する。すなわち、DASH規格に従ったイベント通知機構を利用したシグナリングデータ更新情報送信を可能とするためのパラメータその他のフォーマットデータの設定処理などを行う。
  (ステップS262)
 次に、チューナ実装受信装置620のミドルウェア621は、ステップS262において、セグメントの構成データであるMP4において規定されるemsgボックスに対して、イベント情報としてシグナリングデータ更新情報の挿入を行う。
 この処理によって、先に図16を参照して説明したシグナリングデータ更新情報を含むセグメントが生成される。具体的にはMP4において規定されるemsgボックス記録データを生成する。
 図16に示すシグナリングデータ更新情報格納セグメントには、先に説明したように、
 イベントの種類として、シグナリングデータ更新情報であることが示されている。
 また、イベントデータとして、図15を参照して説明したシグナリングデータ更新情報が格納されている。
 さらに、シグナリングデータ更新情報のアクティベート(活性化)時刻、継続時間情報等が記録されている。
 受信装置は、このゼグメントに記録されたシグナリングデータ更新情報に従って、指定されたシグナリングデータ更新情報を参照した処理を行なうことが可能となる。
 すなわち、シグナリングデータ更新情報の記録データに従って更新された最新のシグナリングデータを取得し、取得した最新のシグナリングデータを参照した様々な処理を実行することができる。
 シグナリングデータの更新や、利用処理等の実行時間や、継続時間は、セグメント(emsgボックス)記録データに従うことになる。
  (ステップS263)
 次に、チューナ実装受信装置620のミドルウェア621は、ステップS263において、MPD、およびシグナリングデータ更新情報を記録したセグメント他のセグメントを送信(出力)する。
 なお、チューナ実装受信装置620から、チューナ非実装受信装置630に対するMPDやセグメント出力は、例えば、チューナ実装受信装置620のミドルウェアからプロキシサーバを介して実行される。
 次に、図19の右側に示すチューナ非実装受信装置630の実行する処理について説明する。
 図19には、チューナ非実装受信装置630のシグナリングデータ処理部631、再生制御部632を示している。これらの構成は、図5、図6に示すチューナ非実装受信装置40の各構成に対応する。
  (ステップS271)
 まず、チューナ非実装受信装置630の再生制御部(DASHクライアント)632は、チューナ実装受信装置620のミドルウェア621を介してセグメントを取得すると、ステップS271において、取得したセグメントからイベント情報を取得する。
 なお、ここで取得したセグメントは、シグナリングデータ更新情報が記録されたemsgボックスを含むセグメントであるものとする。
 図16を参照して説明したMP4規定のemsgボックスにシグナリングデータ更新情報が記録されたセグメントである。
 シグナリングデータ更新情報格納セグメントには、先に説明したように、
 イベントの種類として、シグナリングデータ更新情報であることが示されている。
 また、イベントデータとして、図15を参照して説明したシグナリングデータ更新情報が格納されている。
 さらに、シグナリングデータ更新情報のアクティベート(活性化)時刻、継続時間情報等が記録されている。
 受信装置は、このセグメントに記録されたシグナリングデータ更新情報に従って、更新された最新のシグナリングデータを取得し、取得した最新のシグナリングデータを参照した様々な処理を実行することができる。
  (ステップS272)
 次に、チューナ非実装受信装置630のシグナリングデータ処理部631は、ステップS272において、セグメントから取得したシグナリングデータ更新情報を参照して、最新の更新されたシグナリングデータを取得し、取得した最新の更新されたシグナリングデータに従った処理を行なう。
 すなわち、シグナリングデータ処理部522は、シグナリングデータ更新処理を実行するとともに、更新されたシグナリングデータに記録されたシグナリング情報に従ったデータ処理を実行する。具体的には例えば番組表の更新処理等である。
 シグナリングデータ更新情報を格納したセグメントには、イベントデータとして、図15を参照して説明したシグナリングデータ更新情報が格納されている。
 シグナリングデータ更新情報には、更新対象のシグナリングデータ本体、または識別情報が記録され、さらにバージョン情報等が記録されている。
 シグナリングデータ処理部522は、このシグナリングデータ更新情報の記録データに従って取得される最新の更新シグナリングデータを参照して、取得した最新のシグナリングデータに基づく処理を実行する
 なお、シグナリングデータの適用時刻や、継続時間情報は、先に図16を参照して説明したようにセグメント(MP4規定のemsgボックス)に記録されている。
  (ステップS273)
 次に、チューナ非実装受信装置630の再生制御部(DASHクライアント)632は、チューナ実装受信装置620を介して受信したセグメントからAVコンテンツ等を取得し再生処理を実行する。
 なお、ステップS271~S273の処理は、継続的に繰り返し実行されることになる。
 このように、チューナ非実装受信装置630は、AVセグメントを受信し再生する処理に併せて、セグメントに記録されたイベント情報としてのシグナリングデータ更新情報に従って、シグナリングデータの更新、およびシグナリングデータの適用処理を、大きな遅延なく、すなわちタイムリに実行することが可能となる。
  [10.送信装置と受信装置の構成例について]
 次に、通信装置である送信装置(サーバ)20と、受信装置(クライアント)30,40の装置構成例について、図20、図21を参照して説明する。
 図20には、送信装置(サーバ)20と、受信装置(クライアント)30の構成例を示している。
 送信装置(サーバ)20は、データ処理部751、通信部752、記憶部753を有する。
 受信装置(クライアント)30,40は、データ処理部771、通信部772、記憶部773、入力部774、出力部775を有する。
 データ処理部には再生制御部771a、出力制御部771b、シグナリングデータ処理部771cが含まれる。
 送信装置(サーバ)20のデータ処理部751は、データ配信サービスを実行するための各種のデータ処理を実行する。例えばデータ配信サービスの構成データの生成や送信制御を行う。さらに、データ処理部751は、受信装置(クライアント)30に提供するアプリケーション、シグナリングデータ更新情報、シグナリングデータ更新情報格納セグメント、その他の様々なデータや、シグナリングデータの生成、送信処理を行う。
 通信部752は、AVセグメントの他、アプリケーション、シグナリングデータ更新情報、シグナリングデータ更新情報格納セグメント、その他の様々なデータ、シグナリングデータ等の配信等の通信処理を行う。
 記憶部753は配信対象とするAVセグメント、アプリケーション、シグナリングデータ更新情報、シグナリングデータ更新情報格納セグメント、アプリケーションによって利用されるデータ、シグナリングデータなどが格納される。
 さらに、記憶部753は、データ処理部751の実行するデータ処理のワークエリアとして利用され、また各種パラメータの記憶領域としても利用される。
 一方、受信装置(クライアント)30,40は、データ処理部771、通信部772、記憶部773、入力部774、出力部775を有する。
 通信部772は、チューナ実装受信装置30の通信部と、チューナ非実装受信装置40の場合とで異なる設定となる。
 チューナ実装受信装置30の通信部は、送信装置(サーバ)20から配信されるデータ、例えばAVセグメントやアプリケーション、シグナリングデータ更新情報、シグナリングデータ更新情報格納セグメント、アプリケーションによって利用されるデータ、シグナリングデータ等を受信する。
 さらに、LAN、Wi-Fi等のネットワークを介したデータ送受信が可能な通信部として構成される。
 一方、チューナ非実装受信装置40の通信部は、放送波を受信可能なチューナ部は持たず、LAN,Wi-Fi等のネットワークを介したデータ送受信を実行可能な通信部として構成される。
 データ処理部771は、再生制御部771a、出力制御部771b、シグナリングデータ処理部771cを有し、例えば先に説明した実施例に従った処理等を実行する。
 具体的には、アプリケーションや、API、さらに、シグナリングデータ更新情報、シグナリングデータ更新情報格納セグメントを利用したデータ処理等を実行する。
 ユーザの指示コマンド、例えばチャンネル選択、アプリケーション起動、インストール等の様々なコマンドは入力部774を介して入力される。
 再生データは表示部やスピーカ等の出力部775に出力される。
 記憶部773はAVセグメント、シグナリングデータ更新情報、シグナリングデータ更新情報格納セグメント、アプリケーション、アプリケーションによって利用されるデータ、シグナリングデータなどが格納される。
 さらに、記憶部773は、データ処理部771の実行するデータ処理のワークエリアとして利用され、また各種パラメータの記憶領域としても利用される。
 図21は、送信装置20、受信装置30として適用可能な通信装置のハードウェア構成例を示している。
 CPU(Central Processing Unit)801は、ROM(Read Only Memory)802、または記憶部808に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)803には、CPU801が実行するプログラムやデータなどが記憶される。これらのCPU801、ROM802、およびRAM803は、バス804により相互に接続されている。
 CPU801はバス804を介して入出力インタフェース805に接続され、入出力インタフェース805には、各種スイッチ、キーボード、マウス、マイクロホンなどよりなる入力部806、ディスプレイ、スピーカなどよりなる出力部807が接続されている。CPU801は、入力部806から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部807に出力する。
 入出力インタフェース805に接続されている記憶部808は、例えばハードディスク等からなり、CPU801が実行するプログラムや各種のデータを記憶する。通信部809は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部、さらに放送波の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース805に接続されているドライブ810は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア811を駆動し、データの記録あるいは読み取りを実行する。
 なお、データの符号化あるいは復号は、データ処理部としてのCPU801の処理として実行可能であるが、符号化処理あるいは復号処理を実行するための専用ハードウェアとしてのコーデックを備えた構成としてもよい。
  [11.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを受信する通信部と、
 イベント通知メッセージにイベントデータとして格納されたシグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するシグナリングデータ処理部を有する受信装置。
 (2) 前記シグナリングデータ処理部は、
 前記シグナリングデータ更新処理によって更新されたシグナリングデータに記録されたシグナリング情報に従ったデータ処理を実行する(1)に記載の受信装置。
 (3) 前記イベント通知データは、
 AVコンテンツの送信用データであるセグメントを利用したイベント通知方式であるセグメント適用イベント通知方式(=In-band Event Signaling)に従ったデータフォーマットを持つイベント通知データである(1)または(2)に記載の受信装置。
 (4) 前記イベント通知データは、
 イベントデータがシグナリングデータ更新情報であることを示すイベント識別子を記録したデータである(1)~(3)いずれかに記載の受信装置。
 (5) 前記イベント通知データは、
 イベントデータとして格納されたシグナリングデータ更新情報に従って処理を実行するための制御時間情報を記録したデータである(1)~(4)いずれかに記載の受信装置。
 (6) 前記シグナリングデータ更新情報は、
 更新後のシグナリングデータ本体、または更新後のシグナリングデータ識別子を記録したデータである(1)~(5)いずれかに記載の受信装置。
 (7) 前記シグナリングデータ更新情報は、
 更新後のシグナリングデータのバージョン情報を記録したデータである(1)~(6)いずれかに記載の受信装置。
 (8) 前記受信装置は、さらに、
 前記通信部の受信したイベント通知データから、シグナリングデータ更新情報を取得して前記シグナリングデータ処理部に出力するデータ処理部を有する(1)~(7)いずれかに記載の受信装置。
 (9) シグナリングデータを受信する通信部と、
 前記シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを生成するミドルウェアと、
 前記イベント通知データからシグナリングデータ更新情報を取得して、シグナリングデータ処理部に出力するデータ処理部と、
 前記シグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するシグナリングデータ処理部を有する受信装置。
 (10) 前記ミドルウェアは、
 AVコンテンツの送信用データであるセグメントを利用したイベント通知方式であるセグメント適用イベント通知方式(=In-band Event Signaling)に従ったデータフォーマットを持つイベント通知データを生成する(9)に記載の受信装置。
 (11) シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを送信する通信部を有する送信装置。
 (12) 前記イベント通知データは、
 AVコンテンツの送信用データであるセグメントを利用したイベント通知方式であるセグメント適用イベント通知方式(=In-band Event Signaling)に従ったデータフォーマットを持つイベント通知データである(11)に記載の送信装置。
 (13) 受信装置において実行するデータ処理方法であり、
 通信部が、シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを受信し、
 シグナリングデータ処理部が、イベント通知メッセージにイベントデータとして格納されたシグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するデータ処理方法。
 (14) 受信装置において実行するデータ処理方法であり、
 通信部が、シグナリングデータを受信し、
 ミドルウェアが、シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを生成し、
 データ処理部が、前記イベント通知データからシグナリングデータ更新情報を取得して、シグナリングデータ処理部に出力し、
 シグナリングデータ処理部が、前記シグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するデータ処理方法。
 (15) 送信装置において実行するデータ処理方法であり、
 通信部が、シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを送信するデータ処理方法。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、シグナリングデータ更新情報をイベント通知メッセージに格納して受信装置に送信し、受信装置における確実なシグナリングデータ更新処理を実行可能とした構成が実現される。
 具体的には、送信装置が受信装置に、シグナリングデータ更新情報をイベント通知メッセージに格納して送信する。受信装置は、イベント通知に格納されたイベントデータがシグナリングデータ更新情報である場合、シグナリングデータ処理部に出力する。シグナリングデータ処理部は、シグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行する。イベント通知データは、AVコンテンツの送信用データであるセグメント内に格納され、受信装置はセグメントからシグナリングデータ更新情報を取得してシグナリングデータ更新処理を行うことができる。
 本構成により、シグナリングデータ更新情報をイベント通知メッセージに格納して受信装置に送信し、受信装置における確実なシグナリングデータ更新処理を実行可能とした構成が実現される。
  10 通信システム
  20 送信装置
  21 放送サーバ
  22 データ配信サーバ
  30 チューナ実装受信装置
  31 中継サーバ
  32 TV
  33 PC
  34 携帯端末
  40 チューナ非実装受信装置
  41 PC
  42 携帯端末
  50 シグナリングデータ
  60 AVセグメント
  70 その他のデータ
 110 ミドルウェア
 111 通信部(PHY/MAC)
 112 シグナリング取得部
 113 シグナリング解析部
 114 セグメント取得部
 115 イベント挿入部
 116 アプリケーションファイル取得部
 120 HTTPプロキシサーバ
 121,122 キャッシュ部
 123 アドレス解決部
 131,151 再生制御部
 132,152 出力制御部
 140,160 シグナリングデータ処理部
 310 イベント挿入実行装置
 311 データ出力部(DASHサーバ)
 312 イベント処理部(イベントサーバ)
 320 イベント実行装置
 321 再生制御部(イベントクライアント)
 322 再生制御部(DASHクライアント)
 510 送信装置
 511 データ出力部(DASHサーバ)
 512 シグナリングデータ処理部(SLSサーバ)
 513 放送信号処理部(放送サーバ)
 520 受信装置
 521 ミドルウェア
 522 シグナリングデータ処理部
 523 再生制御部
 610 送信装置
 611 データ出力部(DASHサーバ)
 612 シグナリングデータ処理部(SLSサーバ)
 613 放送信号処理部(放送サーバ)
 620 チューナ実装受信装置
 621 ミドルウェア
 630 チューナ非実装受信装置
 631 シグナリングデータ処理部
 632 再生制御部
 751 データ処理部
 752 通信部
 753 記憶部
 771 データ処理部
 771a 再生制御部
 771b 出力制御部
 771c シグナリングデータ処理部
 772 通信部
 773 記憶部
 774 入力部
 775 出力部
 801 CPU
 802 ROM
 803 RAM
 804 バス
 805 入出力インタフェース
 806 入力部
 807 出力部
 808 記憶部
 809 通信部
 810 ドライブ
 811 リムーバブルメディア

Claims (15)

  1.  シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを受信する通信部と、
     イベント通知メッセージにイベントデータとして格納されたシグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するシグナリングデータ処理部を有する受信装置。
  2.  前記シグナリングデータ処理部は、
     前記シグナリングデータ更新処理によって更新されたシグナリングデータに記録されたシグナリング情報に従ったデータ処理を実行する請求項1に記載の受信装置。
  3.  前記イベント通知データは、
     AVコンテンツの送信用データであるセグメントを利用したイベント通知方式であるセグメント適用イベント通知方式(=In-band Event Signaling)に従ったデータフォーマットを持つイベント通知データである請求項1に記載の受信装置。
  4.  前記イベント通知データは、
     イベントデータがシグナリングデータ更新情報であることを示すイベント識別子を記録したデータである請求項1に記載の受信装置。
  5.  前記イベント通知データは、
     イベントデータとして格納されたシグナリングデータ更新情報に従って処理を実行するための制御時間情報を記録したデータである請求項1に記載の受信装置。
  6.  前記シグナリングデータ更新情報は、
     更新後のシグナリングデータ本体、または更新後のシグナリングデータ識別子を記録したデータである請求項1に記載の受信装置。
  7.  前記シグナリングデータ更新情報は、
     更新後のシグナリングデータのバージョン情報を記録したデータである請求項1に記載の受信装置。
  8.  前記受信装置は、さらに、
     前記通信部の受信したイベント通知データから、シグナリングデータ更新情報を取得して前記シグナリングデータ処理部に出力するデータ処理部を有する請求項1に記載の受信装置。
  9.  シグナリングデータを受信する通信部と、
     前記シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを生成するミドルウェアと、
     前記イベント通知データからシグナリングデータ更新情報を取得して、シグナリングデータ処理部に出力するデータ処理部と、
     前記シグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するシグナリングデータ処理部を有する受信装置。
  10.  前記ミドルウェアは、
     AVコンテンツの送信用データであるセグメントを利用したイベント通知方式であるセグメント適用イベント通知方式(=In-band Event Signaling)に従ったデータフォーマットを持つイベント通知データを生成する請求項9に記載の受信装置。
  11.  シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを送信する通信部を有する送信装置。
  12.  前記イベント通知データは、
     AVコンテンツの送信用データであるセグメントを利用したイベント通知方式であるセグメント適用イベント通知方式(=In-band Event Signaling)に従ったデータフォーマットを持つイベント通知データである請求項11に記載の送信装置。
  13.  受信装置において実行するデータ処理方法であり、
     通信部が、シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを受信し、
     シグナリングデータ処理部が、イベント通知メッセージにイベントデータとして格納されたシグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するデータ処理方法。
  14.  受信装置において実行するデータ処理方法であり、
     通信部が、シグナリングデータを受信し、
     ミドルウェアが、シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを生成し、
     データ処理部が、前記イベント通知データからシグナリングデータ更新情報を取得して、シグナリングデータ処理部に出力し、
     シグナリングデータ処理部が、前記シグナリングデータ更新情報に基づくシグナリングデータ更新処理を実行するデータ処理方法。
  15.  送信装置において実行するデータ処理方法であり、
     通信部が、シグナリングデータ更新情報をイベントデータとして格納したイベント通知データを送信するデータ処理方法。
PCT/JP2016/058934 2015-04-30 2016-03-22 受信装置、送信装置、およびデータ処理方法 WO2016174960A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1020177029963A KR102499231B1 (ko) 2015-04-30 2016-03-22 수신 장치, 송신 장치 및 데이터 처리 방법
US15/568,673 US20180139490A1 (en) 2015-04-30 2016-03-22 Reception apparatus, transmission apparatus, and data processing method
CN201680023586.0A CN107534793B (zh) 2015-04-30 2016-03-22 接收装置、传输装置以及数据处理方法
EP16786237.4A EP3291569A4 (en) 2015-04-30 2016-03-22 Reception device, transmission device, and data processing method
JP2017515434A JPWO2016174960A1 (ja) 2015-04-30 2016-03-22 受信装置、送信装置、およびデータ処理方法
MX2017013592A MX2017013592A (es) 2015-04-30 2016-03-22 Aparato de recepcion, aparato de transmision, y metodo de procesamiento de datos.
CA2981270A CA2981270A1 (en) 2015-04-30 2016-03-22 Reception apparatus, transmission apparatus, and data processing method
US16/818,131 US20200221161A1 (en) 2015-04-30 2020-03-13 Reception apparatus, transmission apparatus, and data processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015092628 2015-04-30
JP2015-092628 2015-04-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/568,673 A-371-Of-International US20180139490A1 (en) 2015-04-30 2016-03-22 Reception apparatus, transmission apparatus, and data processing method
US16/818,131 Continuation US20200221161A1 (en) 2015-04-30 2020-03-13 Reception apparatus, transmission apparatus, and data processing method

Publications (1)

Publication Number Publication Date
WO2016174960A1 true WO2016174960A1 (ja) 2016-11-03

Family

ID=57198320

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/058934 WO2016174960A1 (ja) 2015-04-30 2016-03-22 受信装置、送信装置、およびデータ処理方法

Country Status (8)

Country Link
US (2) US20180139490A1 (ja)
EP (1) EP3291569A4 (ja)
JP (1) JPWO2016174960A1 (ja)
KR (1) KR102499231B1 (ja)
CN (1) CN107534793B (ja)
CA (1) CA2981270A1 (ja)
MX (1) MX2017013592A (ja)
WO (1) WO2016174960A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020090215A1 (ja) * 2018-10-29 2020-05-07 ソニー株式会社 情報処理装置及び情報処理装置、並びに情報処理システム
JP7454951B2 (ja) 2020-01-27 2024-03-25 日本放送協会 コンテンツ配信装置、端末、およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344353B (zh) * 2018-09-12 2021-10-08 福建天泉教育科技有限公司 一种可配置化的本地缓存刷新方法及终端
US11006164B2 (en) * 2018-11-23 2021-05-11 Sony Corporation TV and electronic device with external tuner and memory for personal video recording
US11490169B2 (en) * 2019-07-02 2022-11-01 Tencent America LLC Events in timed metadata tracks
US11303688B2 (en) * 2019-09-30 2022-04-12 Tencent America LLC Methods and apparatuses for dynamic adaptive streaming over HTTP
KR20210087214A (ko) * 2020-01-02 2021-07-12 삼성전자주식회사 전자장치 및 그 제어방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117183A (ja) * 2003-10-03 2005-04-28 Canon Inc 情報処理装置、テレビシステム、制御方法及びプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005041050A1 (ja) * 2003-10-27 2005-05-06 Matsushita Electric Industrial Co., Ltd. 記録媒体、データ処理装置及びデータ処理方法
US20060041924A1 (en) * 2004-08-20 2006-02-23 Matsushita Electric Industrial Co., Ltd. Digital television middleware service for home networking domains
KR100670605B1 (ko) * 2005-08-31 2007-01-17 한국정보통신대학교 산학협력단 멀티미디어 콘텐츠 서비스 시스템과 방법 및 그 기록매체
US9100549B2 (en) * 2008-05-12 2015-08-04 Qualcomm Incorporated Methods and apparatus for referring media content
KR101647379B1 (ko) * 2008-11-18 2016-08-10 엘지전자 주식회사 비실시간 서비스 처리 방법 및 방송 수신기
KR101695820B1 (ko) * 2009-01-15 2017-01-23 엘지전자 주식회사 비실시간 서비스 처리 방법 및 방송 수신기
JP2011087103A (ja) 2009-10-15 2011-04-28 Sony Corp コンテンツ再生システム、コンテンツ再生装置、プログラム、コンテンツ再生方法、およびコンテンツサーバを提供
US20130117413A1 (en) * 2010-07-20 2013-05-09 Sharp Kabushiki Kaisha Content distribution device, content playback device, content distribution system, method for controlling a content distribution device, control program, and recording medium
US20120124179A1 (en) * 2010-11-12 2012-05-17 Realnetworks, Inc. Traffic management in adaptive streaming protocols
KR101479890B1 (ko) * 2010-12-26 2015-01-06 엘지전자 주식회사 미디어 콘텐트 송수신 방법 및 그를 이용한 송수신 장치
CN103975602B (zh) * 2011-10-20 2017-06-09 Lg电子株式会社 广播服务接收方法和广播服务接收装置
WO2013089437A1 (ko) * 2011-12-12 2013-06-20 엘지전자 주식회사 미디어 컨텐트를 수신하는 장치 및 방법
WO2013163464A1 (en) * 2012-04-25 2013-10-31 Huawei Technologies Co., Ltd. Systems and methods for controlling client behavior in adaptive streaming
BR122015005210A2 (pt) 2012-06-28 2019-08-20 Ericsson Ab Método e sistema para inserção de anúncio em entrega de mídia ao vivo over the top
WO2014010445A1 (ja) * 2012-07-10 2014-01-16 シャープ株式会社 コンテンツ送信装置、コンテンツ再生装置、コンテンツ配信システム、コンテンツ送信装置の制御方法、コンテンツ再生装置の制御方法、データ構造、制御プログラムおよび記録媒体
JP6348251B2 (ja) 2012-09-13 2018-06-27 サターン ライセンシング エルエルシーSaturn Licensing LLC 端末装置、受信方法、およびプログラム
WO2015060349A1 (ja) * 2013-10-22 2015-04-30 シャープ株式会社 表示制御装置、配信装置、表示制御方法、および表示制御システム
EP3090562B1 (en) * 2013-12-30 2020-09-23 Telecom Italia S.p.A. Method and system for automatically selecting parts of a video and/or audio media content based on information obtained from social networks
EP3105933A1 (en) * 2014-03-31 2016-12-21 BlackBerry Limited Apparatus and method for processing media content
JP6325122B2 (ja) * 2014-04-18 2018-05-16 エルジー エレクトロニクス インコーポレイティド 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
FR3020542A1 (fr) * 2014-04-23 2015-10-30 Orange Procede de gestion de la selection de la representation des segments d'un contenu multimedia transmis sur un reseau de communication.
US20150312303A1 (en) * 2014-04-25 2015-10-29 Qualcomm Incorporated Determining whether to use sidx information when streaming media data
WO2016153241A1 (ko) * 2015-03-23 2016-09-29 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117183A (ja) * 2003-10-03 2005-04-28 Canon Inc 情報処理装置、テレビシステム、制御方法及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"eDASH: Draft CR for Ad Insertion", 3GPP TSG-SA4 #82, S4-150022, 28 January 2015 (2015-01-28), XP050943842, Retrieved from the Internet <URL:http://www.3gpp.org/ftp/tsg-sa/wg4_codec/TSGS4_82/Docs/S4-150022.zip> [retrieved on 20160517] *
See also references of EP3291569A4 *
YU-SEOK BAE ET AL.: "Architecture for interoperability of services between an ACAP receiver and home networked devices", IEEE TRANSACTIONS ON CONSUMER ELECTRONICS, vol. 52, no. 1, February 2006 (2006-02-01), pages 123 - 128, XP010896498, ISSN: 0098-3063 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020090215A1 (ja) * 2018-10-29 2020-05-07 ソニー株式会社 情報処理装置及び情報処理装置、並びに情報処理システム
JPWO2020090215A1 (ja) * 2018-10-29 2021-09-24 ソニーグループ株式会社 情報処理装置及び情報処理装置、並びに情報処理システム
JP7428134B2 (ja) 2018-10-29 2024-02-06 ソニーグループ株式会社 情報処理装置及び情報処理装置、並びに情報処理システム
JP7454951B2 (ja) 2020-01-27 2024-03-25 日本放送協会 コンテンツ配信装置、端末、およびプログラム

Also Published As

Publication number Publication date
US20180139490A1 (en) 2018-05-17
CA2981270A1 (en) 2016-11-03
CN107534793B (zh) 2021-08-03
EP3291569A1 (en) 2018-03-07
US20200221161A1 (en) 2020-07-09
EP3291569A4 (en) 2018-10-10
JPWO2016174960A1 (ja) 2018-02-22
KR102499231B1 (ko) 2023-02-13
CN107534793A (zh) 2018-01-02
MX2017013592A (es) 2018-03-07
KR20170141677A (ko) 2017-12-26

Similar Documents

Publication Publication Date Title
US11785289B2 (en) Receiving device, transmitting device, and data processing method
JP6258856B2 (ja) 放送システムにおける制御メッセージ構成装置及び方法
WO2016174960A1 (ja) 受信装置、送信装置、およびデータ処理方法
KR102506963B1 (ko) 수신 장치, 송신 장치, 및 데이터 처리 방법
US10863247B2 (en) Receiving device and data processing method
US11410199B2 (en) Reception apparatus, transmission apparatus, and data processing method
KR20130005873A (ko) 방송 시스템에서 컨텐츠 수신 방법 및 장치
JP6359539B2 (ja) レンダリング時の制御
WO2017038353A1 (ja) 受信装置、送信装置、およびデータ処理方法
CN107534792B (zh) 接收设备、发送设备以及数据处理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16786237

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017515434

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2981270

Country of ref document: CA

REEP Request for entry into the european phase

Ref document number: 2016786237

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20177029963

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15568673

Country of ref document: US

Ref document number: MX/A/2017/013592

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE