WO2015064212A1 - 送信装置、送信方法、受信装置、及び、受信方法 - Google Patents

送信装置、送信方法、受信装置、及び、受信方法 Download PDF

Info

Publication number
WO2015064212A1
WO2015064212A1 PCT/JP2014/073353 JP2014073353W WO2015064212A1 WO 2015064212 A1 WO2015064212 A1 WO 2015064212A1 JP 2014073353 W JP2014073353 W JP 2014073353W WO 2015064212 A1 WO2015064212 A1 WO 2015064212A1
Authority
WO
WIPO (PCT)
Prior art keywords
attribute
mpd
metadata
content
thumbnail
Prior art date
Application number
PCT/JP2014/073353
Other languages
English (en)
French (fr)
Inventor
山岸 靖明
正仁 森
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to KR1020167010410A priority Critical patent/KR20160077067A/ko
Priority to US15/030,543 priority patent/US10110972B2/en
Priority to JP2015544851A priority patent/JPWO2015064212A1/ja
Priority to MX2016005250A priority patent/MX364963B/es
Priority to EP14858180.4A priority patent/EP3065408A4/en
Priority to CN201480058434.5A priority patent/CN105706453B/zh
Publication of WO2015064212A1 publication Critical patent/WO2015064212A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/64Addressing
    • H04N21/6405Multicasting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/64Addressing
    • H04N21/6408Unicasting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Definitions

  • the present technology relates to a transmitting device, a transmitting method, a receiving device, and a receiving method, and more particularly to, for example, a transmitting device, a transmitting method, a receiving device, and a receiving method that make it possible to easily obtain a mosaic screen.
  • OTT-V Over The Top Video
  • MPEG-DASH Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP (Hypertext Transfer Protocol)
  • DASH Dynamic Adaptive Streaming over HTTP
  • a server that delivers a stream notifies an MPD (Media Presentation Description) as metadata including attribute information for optimally selecting a stream having different characteristics from the same source to a client that receives the stream.
  • the client can realize network environment adaptive streaming by using the MPD (see, for example, Non-Patent Document 1).
  • the server prepares, as content having the same content, a plurality of streams having different image quality, image size, and the like according to the communication environment of the distribution path and the capability and state of the client.
  • the client adaptively selects a stream that can be received by the client and that is suitable for the client's capability (such as decoding capability) among a plurality of streams prepared by the server, and receives that stream To play.
  • Metadata used for content reproduction control is distributed from the server to the client so that the client can adaptively select and receive a stream.
  • a URL Uniform Resource Locator
  • the client transmits an HTTP request to the web server serving as the distribution source of the content based on the URL or the like described in the MPD, and in response to the HTTP request, the web server receives and reproduces the segment for unicast distribution.
  • the client when viewing live broadcast content, for example, the client displays a mosaic screen in which videos of a plurality of contents are arranged in a lattice shape, and the user displays a plurality of mosaic screens displayed on the mosaic screen. It would be useful if you could watch the content video and select the channel (content) to watch.
  • the present technology has been made in view of such a situation, and makes it possible to easily obtain a mosaic screen.
  • a transmitting device is metadata described using an attribute and an attribute value, and the reproduction of content and signaling information indicating that the video is a thumbnail video suitable for forming a mosaic screen. It is a transmission apparatus provided with a delivery part which delivers metadata of contents including the above-mentioned attribute showing the minimum buffer time required before it starts.
  • the transmission method of the present technology is metadata described using an attribute and an attribute value, and the reproduction of the content, and the signaling information indicating that the video is a thumbnail video suitable for constructing a mosaic screen. It is a transmission method including the step of distributing metadata of content including the attribute representing the minimum buffer time required to start.
  • the transmission device and transmission method of the present technology is metadata described using an attribute and an attribute value
  • the video is a thumbnail video suitable for constructing a mosaic screen
  • Content metadata is delivered including signaling information representing H.sub.2 and the attribute representing the minimum buffer time required to start playback of the content.
  • the receiving device of the present technology is metadata described using an attribute and an attribute value, and the reproduction of the content, and the signaling information indicating that the video is a thumbnail video suitable for constructing a mosaic screen. It is a receiver provided with a receiving part which receives metadata of contents including the above-mentioned attribute showing the minimum buffer time required before it starts.
  • the receiving method of the present technology is metadata described using an attribute and an attribute value, and the playback of the content, and signaling information indicating that the video is a thumbnail video suitable for constructing a mosaic screen. It is a receiving method including the step of receiving metadata of content including the attribute representing the minimum buffer time necessary to start.
  • the metadata is described using the attribute and the attribute value
  • the video is a thumbnail video suitable for forming a mosaic screen
  • Content metadata is received, including signaling information representing H, and the attribute representing a minimum buffer time required to start playback of the content.
  • the transmitting device and the receiving device may be independent devices or may be internal blocks constituting one device.
  • a mosaic screen can be easily obtained.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of a content providing system to which the present technology is applied.
  • FIG. 2 is a block diagram showing a configuration example of a channel server 11;
  • FIG. 2 is a block diagram showing an example of configuration of an aggregation server 12;
  • FIG. 2 is a block diagram showing an exemplary configuration of a client 13; It is a figure explaining the process of provision of the thumbnail video by a content provision system.
  • FIG. 2 is a diagram showing an example of data distributed via the network 10 in the content providing system. It is a figure explaining MPD, SDP, USD, and OMA-ESG. It is a figure which shows the protocol stack of MBMS.
  • FIG. 1 shows the element of XML which comprises OMA-ESG as thumbnail metadata described by XML, and the example of an attribute. It is a figure which shows the example of OMA-ESG as thumbnail metadata described by XML. It is a figure explaining OMA-ESG as thumbnail metadata. It is a figure which shows the 1st example of the delivery method of the content containing a thumbnail video. It is a figure which shows the 2nd example of the delivery method of the content containing a thumbnail video. It is a figure which shows the 3rd example of the delivery method of the content containing a thumbnail video. It is a figure which shows the example of a display of the mosaic screen in the client 13.
  • FIG. 1st example of the delivery method of the content containing a thumbnail video It is a figure which shows the 2nd example of the delivery method of the content containing a thumbnail video. It is a figure which shows the 3rd example of the delivery method of the content containing a thumbnail video. It is a figure which shows the example of a
  • FIG. 21 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present technology is applied.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of a content providing system to which the present technology is applied.
  • the content providing system is configured by connecting a plurality of channel servers 11, one or more aggregation servers 12, one or more clients 13, and an NTP (Network Time Protocol) server 14 to the network 10.
  • NTP Network Time Protocol
  • content is provided from the channel server 11 or aggregation server 12 to the client 13 via the network 10 using the DASH.
  • the mosaic screen can be easily and efficiently performed in the client 13 by grouping (aggregating) a plurality of videos constituting the mosaic screen and distributing them in one FLUTE multicast session or the like. Enable to generate (get).
  • the network 10 includes a bidirectional network such as the Internet which is capable of unicasting and multicasting, and a broadcast network which is capable of broadcasting and multicasting.
  • a bidirectional network such as the Internet which is capable of unicasting and multicasting
  • a broadcast network which is capable of broadcasting and multicasting.
  • MBMS Multimedia Broadcast Multicast Service
  • eMBMS evolved MBMS
  • 3GPP 3rd Generation Partnership Project
  • the channel server 11 corresponds to, for example, a broadcasting station, and is a stream of contents having the same content as a program of a channel (service) of the broadcasting station, and a plurality of streams having different bit rates, image sizes, etc. Deliver through.
  • the plurality of streams distributed by the channel server 11 include a main video to be provided for viewing, a stream such as audio and subtitles, and a stream of thumbnail video suitable for forming a mosaic screen.
  • a thumbnail video suitable for constructing a mosaic screen is a video having the same content as the main video, but, for example, a plurality of videos having a size smaller than the main video and having a size smaller than that of the main video, By tiling in a grid or the like on a display screen of a certain size, it means a video in which a mosaic screen is configured.
  • the aggregation server 12 corresponds to, for example, a broadcast station that broadcasts a mosaic screen as a program, and as a program of a channel (service) of the broadcast station, (a stream of) a plurality of thumbnail videos distributed by a plurality of channel servers 11 Group (aggregate) and distribute via the network 10.
  • the client 13 receives and reproduces the main video and the like distributed by the channel server 11 and the thumbnail video distributed by the aggregation server 12.
  • the NTP server 14 provides an NTP time, which is time information according to Coordinated Universal Time (UTC) time format, via the network 10.
  • UTC Coordinated Universal Time
  • the channel server 11, the aggregation server 12, and the client 13 can operate in synchronization with the NTP time provided by the NTP server 14.
  • the program distributed by the channel server 11 may be a real time program (a program of live broadcasting) or a recorded program.
  • FIG. 2 is a block diagram showing a configuration example of the channel server 11 of FIG.
  • the channel server 11 includes a content management server 21, a segment streamer 22, and an MPD server 23.
  • the content management server 21, the segment streamer 22, and the MPD server 23 can be arranged at one place on the network 10 or can be distributed and arranged on the network 10.
  • the content management server 21, the segment streamer 22, and the MPD server 23 are distributedly arranged on the network 10, communication between each other is performed via a dedicated line or any other communication line besides the network 10. It can be carried out.
  • the content management server 21 manages video, audio, subtitles and the like as source data of content to be distributed as a program of a channel of the channel server 11, and the bit rate differs from video as the source data of content and the like.
  • a plurality of streaming data are generated and supplied to the segment streamer 22.
  • the plurality of streaming data for the video include the main video and the thumbnail video.
  • the segment streamer 22 generates segment streams of segments obtained by dividing each streaming data from the content management server 21 in the time direction.
  • the segment streamer 22 divides streaming data into, for example, fragments of fragmented MP4 (moof and mdat), collects one or more of the fragments, and generates a file of segments.
  • the segment streamer 22 supplies, to the MPD server 23, the metadata of the segment necessary for generating the MPD, such as the URL of the segment (the URL of the server providing the segment (for example, the channel server 11)).
  • segment streamer 22 responds to an HTTP request as a request for a segment from the client 13 as a web server, sends (a file of) the segment requested by the HTTP request to the client 13 via the network 10 HTTP unicast delivery.
  • the segment streamer 22 also delivers the thumbnail video segments to the aggregation server 12 (unicast or multicast) via the network 10.
  • the MPD server 23 uses the metadata of the segment supplied from the segment streamer 22 to generate an MPD in which the URL of the segment, etc. necessary for the client 13 to receive the segment and perform playback control is described.
  • the MPD server 23 distributes the MPD to the client 13 via the network 10 in response to the HTTP request as a request for the MPD from the client 13 as a web server.
  • the MPD server 23 distributes the MPDs of thumbnail video to the aggregation server 12 (unicast or multicast) via the network 10.
  • the client 13 can receive the MPD to which the MPD server 23 performs HTTP unicast distribution in response to the request.
  • the client 13 requests the segment streamer 22 for a segment based on the MPD from the MPD server 23, and in response to the request, the segment streamer 22 receives the segment for HTTP unicast delivery, and further, Segments can be played based on MPD.
  • FIG. 3 is a block diagram showing a configuration example of the aggregation server 12 of FIG.
  • the aggregation server 12 includes a stream aggregator 31, a metadata generator 32, a file delivery over Unidirectional Transport (FLUTE) streamer 33, a multicast server 34, and a web server 35.
  • a stream aggregator 31 a metadata generator 32, a file delivery over Unidirectional Transport (FLUTE) streamer 33, a multicast server 34, and a web server 35.
  • FLUTE Unidirectional Transport
  • the stream aggregator 31 to the web server 35 can be arranged at one place on the network 10 or can be distributed and arranged on the network 10. .
  • the stream aggregators 31 to the web servers 35 are distributed and arranged on the network 10, communication between each other can be performed via a dedicated line other than the network 10 or any other communication line.
  • the stream aggregator 31 mosaics two or more thumbnail videos constituting a channel with a mosaic screen (hereinafter also referred to as a mosaic channel) out of (a segment of) a plurality of thumbnail videos distributed from a plurality of channel servers 11.
  • the channel thumbnail video is selected (aggregated) and supplied to the FLUTE streamer 33.
  • the stream aggregator 31 selects two or more thumbnail videos suitable for constructing one mosaic screen from among a plurality of thumbnail videos distributed from the plurality of channel servers 11 as thumbnail videos for the mosaic channel. Do.
  • the two or more thumbnail videos suitable for constructing one mosaic screen are, for example, at least two or more thumbnail videos having the same size.
  • the stream aggregator 31 for example, on the display screen of a certain size, it is an image size suitable for tiling in a lattice shape or the like, and a video of the same genre such as baseball broadcast etc. Two or more thumbnail videos meeting one or more of those conditions can be selected as thumbnail videos for the mosaic channel.
  • the metadata generator 32 selects an MPD for each of two or more thumbnail videos selected by the stream aggregator 31 among MPDs of a plurality of thumbnail videos distributed from a plurality of channel servers 11, and uses the MPDs , Thumbnail metadata which is metadata for the mosaic channel.
  • the metadata generator 32 supplies the thumbnail metadata to the FLUTE streamer 33 and the web server 35.
  • thumbnail metadata for example, a combination of USD (User Service Description) of MBMS, MPD of DASH, and SDP (Session Description Protocol) (file) of Internet Engineering Task Force (IETF), or OMA- A combination of Open Mobile Alliance-Electronic Service Guide (ESG), USD, MPD, and SDP can be used.
  • OMA-ESG OMA-ESG
  • USD USD
  • MPD MPD
  • SDP SDP
  • attribute name
  • attribute value set for the attribute.
  • Attributes and attribute values may also be referred to, for example, as keys and values.
  • the FLUTE streamer 33 stores (segments of) the thumbnail video supplied from the stream aggregator 31 into FLUTE packets, that is, LCT (Layered Coding Transport) packets (ALC (Asynchronous Layered Coding) packets), and supplies them to the multicast server 34. Do.
  • LCT Layerered Coding Transport
  • ALC Asynchronous Layered Coding
  • the FLUTE streamer 33 stores thumbnail metadata supplied from the metadata generator 32 in an LCT packet, and supplies it to the multicast server 34.
  • the multicast server 34 distributes FLUTE multicast the LCT packet from the FLUTE streamer 33 via the network 10.
  • the multicast video server 34 stores the thumbnail video and the thumbnail metadata. It will be distributed by multicast.
  • the web server 35 In response to a request (HTTP request) from the client 13, the web server 35 distributes the thumbnail metadata from the metadata generator 32 to the client 13 via the network 10 by HTTP unicast.
  • the multicast server 34 and the web server 35 function as a distribution unit that distributes thumbnail metadata.
  • the thumbnail video is distributed by multicast, but in the aggregation server 12, from the channel server 11, the main video, audio, subtitles, etc. (Segments of) can be obtained and multicasted as well as thumbnail videos.
  • the channel server 11 can perform multicast distribution in the same manner as the aggregation server 12 distributes thumbnail video by multicast.
  • unicast distribution can be performed in the web server 35.
  • FIG. 4 is a block diagram showing a configuration example of the client 13 of FIG.
  • the client 13 has a receiving unit 40 and a reproducing unit 43.
  • the receiving unit 40 functions as a receiving unit that receives, for example, the MPD distributed from the channel server 11 and the thumbnail metadata distributed from the aggregation server 12 according to the user's operation of the client 13 or the like.
  • the receiving unit 40 is distributed from the channel server 11 based on, for example, the MPD received from the channel server 11 or the thumbnail metadata received from the aggregation server 12 in response to the user's operation of the client 13 or the like. It receives segments (such as video) and segments (such as thumbnail video) distributed by multicast from the aggregation server 12.
  • the receiving unit 40 supplies the segments received from the channel server 11 and the aggregation server 12 to the reproducing unit 43, and based on the MPD received from the channel server 11 and the thumbnail metadata received from the aggregation server 12, Control playback of the segment at 43.
  • the reproduction unit 43 reproduces a segment supplied from the reception unit 40, that is, a mosaic screen composed of thumbnail videos, main video, audio, subtitles and the like according to the control of the reception unit 40.
  • the receiving unit 40 includes the middleware 41 and the DASH client 42.
  • the DASH client 42 outputs, to the middleware 41, an HTTP request requesting a segment such as an MPD, a thumbnail video, or a main video, as necessary.
  • the middleware 41 receives the MPD, the thumbnail metadata, and the segment, which are distributed by multicast, as necessary.
  • the DASH client 42 outputs an HTTP request
  • the MPD or segment requested by the HTTP request is It is determined based on thumbnail metadata or the like whether or not multicast distribution is performed.
  • the middleware 41 receives the MPD or segment to be multicast-distributed and supplies it to the DASH client 42 Do.
  • the middleware 41 supplies the received MPD or segment to the DASH client 42.
  • the middleware 41 transmits the HTTP request output from the DASH client 42 to the network 10 as it is. Then, in response to the HTTP request, the middleware 41 receives the MPD or segment being unicast-distributed and supplies the MPD or segment to the DASH client 42.
  • the DASH client 42 outputs an HTTP request for requesting a necessary MPD or segment as in a general DASH client, and receives an MPD or segment supplied from the middleware 41 in response to the HTTP request. To process.
  • FIG. 5 is a diagram for explaining an example of processing for providing thumbnail video by the content providing system of FIG.
  • the channel server 11 delivers the thumbnail video to the stream aggregator 31 of the aggregation server 12 (FIG. 3) in step S11.
  • step S12 the channel server 11 distributes the MPD of the thumbnail video to the metadata generator 32 of the aggregation server 12.
  • step S13 when an HTTP request for requesting a thumbnail video is transmitted from the client 13, the channel server 11 receives the HTTP request.
  • step S14 the channel server 11 unicasts (parts of) the thumbnail video requested by the HTTP request from the client 13 to the client 13.
  • the stream aggregator 31 of the aggregation server 12 receives the thumbnail video distributed by the plurality of channel servers 11 in step S11 in step S21.
  • step S22 the stream aggregator 31 selects two or more thumbnail videos for forming a mosaic channel from among the plurality of thumbnail videos received from the plurality of channel servers 11, and supplies them to the FLUTE streamer 33 in step S23. Do.
  • step S31 the metadata generator 32 of the aggregation server 12 receives the MPD of the thumbnail video distributed by the plurality of channel servers 11 in step S12.
  • step S32 the metadata generator 32 selects an MPD for each of two or more thumbnail videos selected by the stream aggregator 31 among the MPDs of the plurality of thumbnail videos received from the plurality of channel servers 11.
  • the thumbnail metadata is generated using the MPD.
  • the metadata generator 32 supplies thumbnail metadata to the FLUTE streamer 33 and the web server 35 in step S33.
  • step S41 the FLUTE streamer 33 of the aggregation server 12 receives the thumbnail metadata supplied from the metadata generator 32 in step S33.
  • step S42 the FLUTE streamer 33 receives (the segment of) the thumbnail video supplied from the stream aggregator 31 in step S23.
  • step S43 the FLUTE streamer 33 packetizes the thumbnail metadata from the metadata generator 32 and the thumbnail video from the stream aggregator 31 into an LCT packet, and supplies the packet to the multicast server 34 in step S44.
  • step S51 the web server 35 of the aggregation server 12 receives the thumbnail metadata supplied from the metadata generator 32 in step S33.
  • step S52 when an HTTP request for requesting thumbnail metadata is sent from the client 13, the web server 35 receives the HTTP request.
  • step S53 the web server 35 unicasts the thumbnail metadata requested by the HTTP request from the client 13 to the client 13.
  • the multicast server 34 of the aggregation server 12 receives the LCT packet supplied from the FLUTE streamer 33 at step S44 at step S61.
  • step S62 the multicast server 34 distributes by multicast the LCT packet in which the thumbnail metadata from the FLUTE streamer 33 is stored.
  • step S63 the multicast server 34 distributes by multicast the LCT packet in which the thumbnail video from the FLUTE streamer 33 is arranged.
  • step S71 the reception unit 40 receives (the LCT packet of) thumbnail metadata to which the multicast server 34 performs multicast distribution in step S62.
  • the receiving unit 40 transmits an HTTP request for requesting thumbnail metadata in step S72.
  • the web server 35 receives the HTTP request transmitted by the client 13 in step S72 in step S52 as described above, and in step S53 unicasts the thumbnail metadata requested by the HTTP request to the client 13. To deliver.
  • step S73 the receiving unit 40 of the client 13 receives the thumbnail metadata that has been unicast-distributed as described above.
  • step S74 the reception unit 40 of the client 13 receives (the LCT packet of) the thumbnail video that the multicast server 34 multicasts in step S63 based on the thumbnail metadata.
  • step S75 the receiving unit 40 transmits an HTTP request for requesting a thumbnail video based on the thumbnail metadata.
  • the channel server 11 receives the HTTP request transmitted by the client 13 in step S75 in step S13, and the thumbnail video requested by the HTTP request is unicasted to the client 13 in step S14. Do.
  • step S76 the reception unit 40 of the client 13 receives the thumbnail video that is unicast-distributed as described above.
  • step S77 the reproduction unit 43 of the client 13 reproduces the thumbnail video (s) received by the reception unit 40 in step S74 or S76, and displays a mosaic screen in which the thumbnail videos are arranged in a lattice.
  • the user of the client 13 can easily view the mosaic screen and select a channel corresponding to the thumbnail video constituting the mosaic screen as a target for viewing.
  • FIG. 6 is a diagram showing an example of data distributed via the network 10 in the content providing system of FIG.
  • Metadata such as MPD, SDP, USD, OMA-ESG, and segments such as thumbnail video and main video are distributed to the client 13.
  • Metadata and segments can be multicast or unicast distributed.
  • thumbnail metadata a combination of MPD, SDP, and USD, or a combination of them with OMA-ESG is used.
  • FIG. 7 is a diagram for explaining MPD, SDP, USD, and OMA-ESG.
  • the OMA-ESG of the program of interest describes detailed information of the program of interest, a method of accessing the USD of the program of interest, and the like.
  • the USD of the program of interest can be acquired by referring to the method for accessing the USD described in the OMA-ESG.
  • the USD of the program of interest describes the URI (Uniform Resource Identifier) of the SDP of the program of interest, the URI of the MPD of the program of interest, and the like.
  • URI Uniform Resource Identifier
  • the SDP and MPD of the program of interest can be obtained by referring to the URI of the SDP and MPD described in the USD.
  • IP address for multicast distribution of the segment of the program of interest and transport attributes such as port numbers are described.
  • the segment of the program of interest can be received in unicast based on the URL described in the MPD.
  • the segment of the program of interest can be reproduced based on the MPD of the program of interest.
  • the MPD since the MPD contains information necessary for segment reproduction control, the MPD is necessary not only to receive the segment in unicast but also to reproduce the segment.
  • the client 13 in order to receive thumbnail videos and configure a mosaic screen composed of a plurality of thumbnail videos, it is necessary to let the client 13 know (recognize) which video is a thumbnail video. is there.
  • the aggregation server 12 announces the thumbnail video in order to let the client 13 know which video is the thumbnail video.
  • the announcement of the thumbnail video is performed by delivering thumbnail metadata including thumbnail signaling information indicating that the video is a thumbnail video.
  • thumbnail signaling information can be included in USD as thumbnail metadata, MPD, and OMA-ESG.
  • thumbnail metadata including thumbnail signaling information is, for example, an MBMS interaction channel (unicast on a two-way (ptp: point to point) bearer) or a broadcast multicast channel (one-way (ptm: point to) It can be distributed via (multicast) (multi-point) bearer on broadcast.
  • ptp point to point
  • ptm point to
  • the thumbnail metadata is, as described in FIG. 3, FLUTE multicast (on a broadcast network (including a multicast network on a bidirectional network)), (on a bidirectional network), ) It can be distributed by HTTP unicast.
  • thumbnail metadata is distributed using MBMS, which is a mobile broadcast system on a mobile network.
  • FIG. 8 is a diagram showing a protocol stack of MBMS.
  • the MBMS has an interaction channel for two-way communication and a broadcast multicast channel for one-way communication.
  • the interaction channel of MBMS is used for HTTP unicast delivery of metadata such as segments and MPD (including MPD as thumbnail metadata).
  • the broadcast multicast channel of MBMS is used for FLUTE multicast distribution of metadata such as segments and MPD.
  • All of MPD, USD, MPD, and OMA-ESG as thumbnail metadata can be distributed as Service Announcement & Metadata 51 of an interaction channel or Service Announcement & Metadata 52 of a broadcast multicast channel.
  • FLUTE multicast distribution of segments is performed as Download 3GPP file format, Binary data, Still images, Text, etc. 53 of a broadcast multicast channel.
  • FIG. 9 is a diagram illustrating an example of a data model of USD as thumbnail metadata.
  • r12: appServiceDescription (element) 66 is newly introduced in the data model of the USD of the MBMS.
  • User Service Bundle Description 61 is an element of the route, and User Service Description 62 is information on a service.
  • Delivery Method 63 is information on the delivery method of the segment, and includes a URI of Session Description 64 representing SDP, and the like. Session Description 64 represents SDP, and media Presentation Description 65 represents MPD.
  • appServiceDescription 66 is information for signaling to the client 13 whether (the segment of) the content provided by the service (the broadcasting station) (the channel) is multicast-distributed (or broadcast-distributed) or unicast-distributed It is.
  • the description “1..N” on the User Service Description 62 side of the link (line) L connecting the User Service Bundle Description 61 and the User Service Description 62 is the description “1.
  • User Service Bundle Description 61 on the opposite side to N represents including (or referring to) a number of User Service Descriptions 62 in the range of 1 to N.
  • the description “1” on the User Service Bundle Description 61 side of the link L is that the User Service Description 62 on the opposite side of the description “1” of the link L is included in one User Service Bundle Description 61 (or Represents the reference).
  • FIG. 10 is a diagram showing an example of XML elements and attributes constituting a USD as thumbnail metadata described in XML (Extensible Markup Language).
  • the USD includes a bundleDescription (element), a bundleDescription / UserServiceDescription (element), a bundleDescription / userServiceDescription / @ serviceId (attribute), a bundleDescription / userServiceDescription / DeliveryMethod (element), and a bundleDescription / userServiceDescription / DeliveryMethod / @ sessionDescriptionURI (attribute).
  • bundleDescription / UserServiceDescription indicates that the UserServiceDescription (element) is an element included in the bundleDescription (element), and is also described as UserServiceDescription or / UserServiceDescription below.
  • bundleDescription / userServiceDescription / @ serviceId represents that the serviceId is an attribute belonging to / userServiceDescription, and is also described as serviceId or / @ serviceId below.
  • the bundleDescription element is information of a set of one or more services
  • the UserServiceDescription element is information of an individual service.
  • the serviceId attribute is a service identifier that identifies a service
  • the DeliveryMethod element is information of a delivery method of content provided by the service.
  • the sessionDescriptionURI attribute represents information for referring to a file including information for receiving content provided by a service.
  • SDP file
  • information for receiving content provided by a service includes, for example, multicast of the content when the content is delivered by multicast.
  • Information including IP address and port number is adopted.
  • an SDP URI or the like is set as an attribute value.
  • USD as thumbnail metadata includes thumbnail signaling information in addition to the above-described bundleDescription element, UserServiceDescription element, serviceId attribute, DeliveryMethod element, and sessionDescriptionURI attribute.
  • thumbnail metadata instead of the bundleDescription element, the UserServiceDescription element, the serviceId attribute, the DeliveryMethod element, the sessionDescriptionURI attribute, and the USD including the thumbnail signaling information as described above, the bundleDescription element, the UserServiceDescription element, the serviceId attribute, the DeliveryMethod element And, any metadata including information equivalent to one or more of the sessionDescriptionURI attribute and thumbnail signaling information can be adopted.
  • FIG. 11 is a diagram illustrating an example of a USD as thumbnail metadata described in XML.
  • the bundleDescription element 71 corresponds to the User Service Bundle Description 61 of FIG. 9 and is an element of the route of the USD.
  • the UserServiceDescription element 72 corresponds to the UserServiceDescription 62 of FIG.
  • the UserServiceDescription element 72 is included in the bundleDescription element 71 and corresponds to an individual service.
  • the / @ r7: serviceClass attribute 73 belongs to the UserServiceDescription element 72.
  • "r7" of / @ r7: serviceClass attribute 73 indicates that / @ r7: serviceClass attribute 73 is introduced in Release 7 of the 3GPP specification.
  • the new attribute value "urn: MosaicableComponents” has the attribute value "urn: MosaicableComponents" set / @ r7:
  • the video corresponding to the USD in which the serviceClass attribute 73 is described (the video in which the information is described in the USD Represents that the service (channel) for delivering) is a service for delivering (including video) thumbnail videos suitable for constructing a mosaic screen.
  • the attribute value "urn: MosaicableComponents" is set.
  • serviceClass attribute 73 functions as thumbnail signaling information indicating that the video is a thumbnail video (it serves as thumbnail signaling information).
  • / @ r7 serviceClass attribute 73 in the USD of FIG. 11, / @ thumbnailVideo attribute described later also functions as thumbnail signaling information. Therefore, / @ r7: serviceClass attribute 73 as thumbnail signaling information can be omitted.
  • the / DeliveryMethod element 74 corresponds to the Delivery Method 63 of FIG. 9 and includes the / @ sessionDescriptionURI attribute 75.
  • / @ sessionDescriptionURI attribute 75 is the URI of SDP 121 in which the IP address and port number of the multicast are described for receiving the content provided by the service whose information is described in USD including / @ sessionDescriptionURI attribute 75 Information for referring to the SDP 121 is set.
  • Descriptions 80, 90, and 100 are descriptions in which the / r12: appServiceDescription element is the top (hierarchical) element, respectively, and a plurality of different services (channels) that can constitute one mosaic screen MZ (broadcast (broadcast) Station) Information on content provided by each.
  • appServiceDescription element is the top (hierarchical) element, respectively, and a plurality of different services (channels) that can constitute one mosaic screen MZ (broadcast (broadcast) Station) Information on content provided by each.
  • the USD includes an / r12: appServiceDescription element for each of a plurality of contents that can constitute one mosaic screen.
  • descriptions 80, 90 and 100 are assumed to be information of contents provided by the services ch # 1, ch # 2 and ch # 3, respectively.
  • the description 80 includes the / r12: appServiceDescription element 81 included in the / UserServiceDescription element 72.
  • / r12: appServiceDescription element 81 is information for signaling to the client 13 whether (the segment of) the content provided by the service ch # 1 is multicast-distributed (or broadcast-distributed) or unicast-distributed. is there.
  • the / r12: appServiceDescription element 81 includes the / @ mpdURI attribute, and further includes (includes) one or more / broadcast elements and / or one or more / unicast elements.
  • the URI of the MPD for performing playback control of the content in which the / @ 12: appServiceDescription element including the / @ mpdURI attribute represents the delivery method is set.
  • the / broadcast element includes a / b12 that includes the / broadcast element / r12:
  • the appServiceDescription element includes a baseURL attribute that represents the URL of the content that represents the delivery method, and the content whose URL is represented by the baseURL attribute is distributed by multicast. Represent.
  • / unicast element includes / unis element / r12: appServiceDescription element includes a baseURL attribute that represents the URL of the content that represents the delivery method, and the content whose URL is represented by the baseURL attribute is delivered in unicast Represents
  • the / r12: appServiceDescription element 81 in the description 80 includes the / @ mpdURI attribute 82, and further includes one / broadcast element 83 and two / unicast elements 86 and 87.
  • the / r12: appServiceDescription element 81 includes one / broadcast element 83 and two / unicast elements 86 and 87, the / r12: appServiceDescription element 81 indicates the content of the service ch # 1 representing the delivery method. As the stream), it can be recognized that there is one stream to be multicast-distributed and two streams to be unicasted.
  • the URI of the MPD 111 of the content provided by the service ch # 1 is set.
  • / broadcast element 83 indicates that the stream 131 1 with service ch # contents 1 provides may multicast distribution includes 11, / @ and baseURL attributes, / @ and thumbnailVideo attributes.
  • the baseURL attribute, / broadcast stream 131 first URL of the content elements 83 represents be multicast distribution, i.e., / broadcast service element 83 indicates that the multicast distribution ch # 1 of AdaptasionSet / baseURL111A streams 131 1 described in the MPD111 content is set.
  • / broadcast is included is / @ thumbnailVideo attribute element 83, is an attribute of the boolean type, / broadcast element 83 is stream 131 first content indicating that the multicast distribution, whether the thumbnail video (stream) It functions as a thumbnail signaling information to represent.
  • stream 131 1 has a stream of the thumbnail video TS # 1.
  • the / broadcast element 83 further includes the / association element 84, and the / association element 84 includes the / sessionDescription element 85.
  • / SessionDescription elements 85, / broadcast element 83 represents a URI of SDP121 the IP address and port number of streams 131 1 is multicast distribution of content is described which indicates that the multicast distribution. That is, the / sessionDescription element 85 represents the SDP 121 identical to (the URI of) the SDP 121 represented by the / @ sessionDescriptionURI attribute 75.
  • the / unicast element 86 represents that another stream of content provided by the service ch # 1 (for example, the stream of the main video MS # 1) is unicast-distributed, and includes an / @ baseURL attribute.
  • the / @ baseURL attribute included in the / unicast element 86 indicates that the URL of another stream of content indicating that the / unicast element 86 is to be unicasted, that is, the / unicast element 86 is to be unicasted.
  • AdaptationSet / baseURL 111 B of another stream described in the content MPD 111 is set.
  • the / unicast element 87 represents that another stream (for example, an audio stream) of the content provided by the service ch # 1 is to be unicasted, and includes the / @ baseURL attribute.
  • the / @ baseURL attribute included in the / unicast element 87 indicates that the URL of still another stream of content representing that the / unicast element 87 is to be unicasted, ie, the / unicast element 87 is to be unicasted.
  • AdaptationSet / baseURL 111 C of still another stream described in the MPD 111 of the content to be represented is set.
  • the descriptions 90 and 100 also include the same information as the description 80 for the services ch # 1 and ch # 2, respectively.
  • the / r12: appServiceDescription element 91 to the / unicast element 97 is the same information as the / r12: appServiceDescription element 81 to the / unicast element 87, respectively.
  • the MPDs 112 and 113 are MPDs of contents provided by the services ch # 2 and ch # 3, respectively.
  • (stream of) thumbnail video TS # 2 is multicast-distributed, and main video MS # 2 and audio (stream) are unicast-distributed In the MPD 112, their AdaptationSet / baseURL (and segmentURL), that is, AdaptationSet / baseURL112A of the thumbnail video TS # 2, AdaptationSet / baseURL112B of the main video MS # 2, and AdaptasionSet / baseURL112C of the audio. Is described.
  • the thumbnail video TS # 1 provided by the service ch # 1, the thumbnail video TS # 2 provided by the service ch # 2, and the thumbnail video provided by the service ch # 3 have image sizes, for example, The same display of 480 ⁇ 270 (horizontal ⁇ vertical) pixels, for example, a video arranged in 4 rows and 4 columns on a display screen of 1920 ⁇ 1080 pixels, for example.
  • the stream 131 1 of the thumbnail video TS # 1 provided by the service ch # 1 , the stream 131 2 of the thumbnail video TS # 2 provided by the service ch # 2 , and the stream 131 of the thumbnail video provided by the service ch # 3 3 are, for example, collectively distributed by multicast on one FLUTE session on an MBMS bearer.
  • the stream 131 1 of the thumbnail video TS # 1 provided by the service ch # 1 , the stream 131 2 of the thumbnail video TS # 2 provided by the service ch # 2 , and the service ch # 3 are provided in the SDP 121.
  • the stream 131 3 thumbnail video of providing, IP address, for multicast distribution in a single FLUTE session, and the port number is described.
  • the thumbnail video is distributed by / @ r7: serviceClass attribute 73 or / @ thumbnailVideo attribute in which the attribute value "urn: MosaicableComponents" as thumbnail signaling information is set. Can be recognized.
  • the client 13 recognizes that there is a stream to be multicast-distributed by the / broadcast element 83 or the like including the / @ thumbnailVideo attribute, and that the stream to be multicast-distributed is (stream of) thumbnail video. it can.
  • the client 13 receives the IP address to which the thumbnail video is multicast-distributed and the SDP 121 in which the port number is described by the URI of the SDP 121 represented by the / broadcast element 83 / association element 84 / sessionDescription element 85 etc.
  • stream 131 1 of thumbnail video TS # 1 provided by service ch # 1 distributed by multicast in one FLUTE session thumbnail video provided by service ch # 2 TS # 2 streams 131 2
  • the service ch # 3 can receive the stream 131 3 thumbnail video to be provided.
  • the thumbnail video TS # 1 of the service ch # 1 as the content provided by each of the plurality of services, the thumbnail video TS # 2 of the service ch # 2, and the service which constitute one mosaic screen MZ, and the service The thumbnail video of ch # 3 can be received, and the mosaic screen MZ can be easily generated using those thumbnail videos.
  • the USD in FIG. 11 has three / r12: appServiceDescription elements (/ r12: appServiceDescription elements 81 and 91) indicating whether the content is to be multicast-distributed (or broadcast-distributed) or unicast-distributed. Although it is described, the number of / r12: appServiceDescription elements described in one USD is not limited to three.
  • one USD can describe, for example, as many / r12: appServiceDescription elements as the number of services providing thumbnail video that can constitute one mosaic screen MZ.
  • thumbnail videos which can constitute one mosaic screen MZ for example, thumbnail videos of the same genre such as baseball relay can be adopted.
  • thumbnail videos that can constitute one mosaic screen MZ are not limited to thumbnail videos of the same genre.
  • a user who has viewed the mosaic screen MZ in which the thumbnail video TS # 1 of the service ch # 1, the thumbnail video TS # 2 of the service ch # 2, and the thumbnail video of the service ch # 3 are arranged When a certain thumbnail video in the mosaic screen MZ is selected, a channel selection is performed to switch the display screen from the mosaic screen MZ to the main video (and audio) provided by the service providing the thumbnail video selected by the user be able to.
  • the thumbnail video TS # 1 of the service ch # 1 when the user selects the thumbnail video TS # 1 of the service ch # 1, at the client 13, / r12 for the service ch # 1: appServiceDescription element 81 (the thumbnail video TS # 1 of the service ch # 1 is multicast-distributed It is possible to obtain (receive, recognize) the MPD 111 of the content of the service ch # 1 based on the / @ mpdURI attribute 82 included in / r12: appServiceDescription element 81) including / broadcast element 83 indicating that it is to be performed.
  • the client 13 unicasts the main video MS # 1 and audio of the service ch # 1 based on the / unis elements 86 and 87 included in the / r12: appServiceDescription element 81 for the service ch # 1. It can be recognized.
  • the client 13 transmits the main video MS # 1 of the service ch # 1 and the HTTP request for requesting the audio based on the MPD 111, and the main video MS of the service ch # 1 to be unicast distributed according to the HTTP request. It can receive and play # 1 and audio.
  • the main video MS # 1 and the audio of the service ch # 1 can be multicast-distributed in the same manner as the thumbnail video TS # 1 of the service ch # 1, in addition to unicast distribution.
  • the main video MS # 1 of the service ch # 1 and the audio are the thumbnail video TS # 1 of the service ch # 1 ( Furthermore, it is possible to perform multicast distribution in the same FLUTE session together with thumbnail videos of other channels that may constitute one mosaic screen MZ.
  • FIG. 12 is a diagram showing an outline of the MPD as thumbnail metadata.
  • the MPD as thumbnail metadata is configured similarly to the MPD of DASH.
  • the MPD of a certain content C has one or more Periods.
  • Period represents a section in which the content C is divided in the time direction, and the period describes the start time and the like of the section represented by the Period.
  • the Period has the required number of AdaptationSets.
  • the AdaptationSet is prepared, for example, for each medium such as video, audio, and subtitles, and the AdaptationSet describes information such as language and codec.
  • the AdaptationSet has the necessary number of Representations.
  • Representation for example, is prepared for each bit rate and the like, and in the Representation, a bit rate, an image size, and the like are described.
  • SegmentInfo describes segment information.
  • FIG. 13 is a diagram showing an example of XML elements and attributes constituting an MPD as thumbnail metadata described in XML.
  • the MPD includes an MPD (element), an MPD / @ profile (attribute), an MPD / Period (element), and an MPD / @ minBufferTime (attribute).
  • the MPD element is an element of the root and includes / @ profile attribute and / @ minBufferTime attribute.
  • the / Period element is information of a section in which content corresponding to the MPD in which the / Period element is described (content for which playback control is performed by the MPD) is divided in the time direction, and is used to organize segments in the section Be
  • the / @ profile attribute represents the operation profile followed by the MPD in which the / @ profile attribute is described, and the / @ minBufferTime attribute is before the playback of the content corresponding to the MPD in which the / @ minBufferTime attribute is described.
  • the MPD as thumbnail metadata includes thumbnail signaling information in addition to the above-described MPD element, / @ profile attribute, / Period element, and / @ minBufferTime attribute.
  • the thumbnail signaling information included in the MPD for example, the MPD / Period / AdaptationSet / ViewPoint / @ schemeIdURI attribute is adopted in which information indicating that the content for which playback control is performed by the MPD is a thumbnail video is described as an attribute value. can do.
  • thumbnail metadata instead of the MPD element as described above, / @ profile attribute, / Period element, / @ minBufferTime attribute, and MPD including thumbnail signaling information, MPD element, / @ profile attribute, / Arbitrary metadata including information equivalent to one or more of the Period element and / @ minBufferTime attribute and thumbnail signaling information can be adopted.
  • FIG. 14 is a diagram illustrating an example of MPD as thumbnail metadata described in XML.
  • FIG. 14 shows an example of the MPD of content including video thumbnails (for example, thumbnail video TS # 1, main video MS # 1, and audio as content provided by service ch # 1).
  • video thumbnails for example, thumbnail video TS # 1, main video MS # 1, and audio as content provided by service ch # 1).
  • a MPD element is described as a root element, a Period element belonging to the MPD element, an AdaptationSet element belonging to the Period element, and a ViewPoint element belonging to the AdaptationSet element are described.
  • the AdaptationSet element in the description 141 is an AdaptationSet (element) of a thumbnail video, and includes a width attribute and a height attribute.
  • Information related to display of thumbnail video is described as an attribute belonging to the AdaptationSet element in the description 141 or an element included in the AdaptationSet element.
  • the ViewPoint element in the description 142 includes a schemeIdURI attribute, and in FIG. 14, the attribute value “urn: thumbnailVideo” is set in the schemeIdURI attribute.
  • An attribute value "urn: thumbnailVideo” is a new scheme indicating that the content to be subjected to playback control by an MPD (MPD / Period / AdaptationSet / ViewPoint / @ schemeIdURI) including the attribute value "urn: thumbnailVideo” is a thumbnail video It is an identifier.
  • the schemeIdURI attribute belonging to the ViewPoint element, in which the attribute value “urn: thumbnailVideo” is set, functions as thumbnail signaling information.
  • AdaptationSet elements in the description 141 should include Representation elements for each of multiple bit rates of thumbnail video. it can.
  • the client 13 can identify (segments of) the thumbnail video, acquire the thumbnail video, and easily generate a mosaic screen composed of the thumbnail video.
  • FIG. 15 is a diagram showing an example of a data model of OMA-ESG as thumbnail metadata.
  • the data model of thumbnail metadata in FIG. 15 is configured similarly to the data model of OMA-ESG.
  • the service 151 includes thumbnail signaling information indicating that the video of the content provided by the service in which the information is described in the OMA-ESG is a thumbnail video.
  • the Access 152 includes, for example, the URI of the USD as a reference to the USD (FIG. 11) in which the information of the thumbnail video is described.
  • FIG. 16 is a diagram showing an example of XML elements and attributes that constitute OMA-ESG as thumbnail metadata described in XML.
  • OMA-ESG includes Access (element), Access / @ id (attribute), Access / @ version (attribute), Access / AccessType (element), Access / AccessType / BroadcastServiceDelivery (element), Access / AccessType / BroadcastServiceDelivery / SessionDescription ( Element), Access / AccessType / UnicastServiceDelivery (element), Access / ServiceClass (element), and Access / AccessType / BroadcastServiceDelivery / SessionDescription / USBDRef (element).
  • the Access element corresponds to the Access 152 of FIG. 15, and is access information for accessing a service that refers to service information on the service.
  • the / @ id attribute is an access information identifier for identifying access information (Access element), and the / @ version attribute is version information indicating a version of the description content of the access information.
  • the / AccessType element is information indicating whether the service is a broadcast service or an interactive service
  • the / BroadcastServiceDelivery element is information indicating that the service is a broadcast service .
  • the / SessionDescription element is information representing a session description
  • the UnicastServiceDelivery element is information representing that the service is an interactive service.
  • the / ServiceClass element is information representing the class of service
  • the / USBDRef element is information including, for example, the URI of the USD for referring to the USD (FIG. 11) in which the information of the thumbnail video is described.
  • the OMA-ESG as thumbnail metadata includes the above Access element, Access / @ id attribute, Access / @ version attribute, Access / AccessType element, Access / AccessType / BroadcastServiceDelivery element, Access / AccessType / BroadcastServiceDelivery / SessionDescription element, Access / In addition to the AccessType / UnicastServiceDelivery element, the Access / ServiceClass element, and the / USBDRef element, thumbnail signaling information is included.
  • thumbnail signaling information included in OMA-ESG for example, information indicating that the content provided by a service corresponding to the OMA-ESG (a service whose information is described in the OMA-ESG) is described
  • the / ServiceType element can be adopted.
  • the / ServiceType element is information included in the Service element.
  • the Service element corresponds to the Service 151 of FIG. 15, and is service information on a service.
  • the Service element belongs to (includes) the globalServiceID attribute as a service identifier that identifies the Service element (service information).
  • thumbnail metadata the above Access elements, Access / @ id attributes, Access / @ version attributes, Access / AccessType elements, Access / AccessType / BroadcastServiceDelivery elements, Access / AccessType / BroadcastServiceDelivery / SessionDescription elements, Access / Access element, Access / @ id attribute, Access / @ version attribute, Access / AccessType element, Access / Access type element instead of OMA-ESG including AccessType / UnicastServiceDelivery element, Access / ServiceClass element, / USBDRef element, and thumbnail signaling information Arbitrary information including information equivalent to one or more of an AccessType / BroadcastServiceDelivery element, an Access / AccessType / BroadcastServiceDelivery / SessionDescription element, an Access / AccessType / UnicastServiceDelivery element, an Access / ServiceClass element, and a / USBDRef element, and thumbnail signaling information Metadata can be adopted.
  • FIG. 17 is a diagram showing an example of OMA-ESG as thumbnail metadata described in XML.
  • a of FIG. 17 shows an example of a Service element of OMA-ESG as thumbnail metadata
  • B of FIG. 17 shows an example of an Access element of OMA-ESG as thumbnail metadata.
  • Service element of FIG. 17A for example, 12 as a value indicating that the video provided by the service corresponding to the OMA-ESG in which the Service element is described is a thumbnail video, for example, a new / ServiceType element It has been introduced as a value.
  • the Service element of A of FIG. 17 includes a Service / globalServiceID attribute as a service identifier, and in the globalServiceID attribute, an ID (Identification) as a service identifier of the Service element of A of FIG. 17 is set.
  • the new value 12 is set in the / ServiceType element
  • at least the thumbnail video suitable for constructing the mosaic screen is included in the content whose information is described in the Service element including the / ServiceType element. included.
  • the / USBDRef element is the bundleDescription element which is the element of the USD (the element of the root of the USD (the element of which is the element of the USD video provided by the service corresponding to the OMA-ESG in which the / USBDRef element is described).
  • the bundleDescription element which is the element of the USD (the element of the root of the USD (the element of which is the element of the USD video provided by the service corresponding to the OMA-ESG in which the / USBDRef element is described).
  • FIG. 11 for example, information including the URI of the USD is described.
  • the Access element in B of FIG. 17 includes an Access / ServiceReference element, and the / ServiceReference element includes an Access / ServiceReference / @ idRef attribute.
  • the value set in the globalServiceID attribute of the Service element of A in FIG. 17 is set in the / @ idRef attribute as the ID of the Service element to which the Access element in which the / @ idRef attribute is described should refer. There is.
  • FIG. 18 is a diagram for explaining the OMA-ESG as thumbnail metadata of FIG.
  • the client 13 When the client 13 receives the OMA-ESG as the thumbnail metadata of FIG. 17, it can refer to the Service element of A of FIG. 17 based on the / @ idRef attribute of the Access element of B of FIG.
  • the client 13 refers to the / ServiceType element in which the new value 12 is described in the Service element of FIG. 17A, and the video provided by the service corresponding to the OMA-ESG in which the Service element is described is It can recognize that it is a thumbnail video.
  • the client 13 can receive a thumbnail video as in the case of receiving the USD shown in FIG. 11 and can easily generate a mosaic screen using the thumbnail video.
  • FIG. 19 is a diagram illustrating a first example of a delivery method of content including thumbnail video.
  • main videos MS # 1 to MS # 3, audio ASs # 1 to AS # 3, and thumbnail videos TM # 1 to TM # 3 are distributed by multicast (for example, multicast distribution by a multicast FLUTE session), and And unicast delivery (eg, unicast delivery via a unicast HTTP session).
  • multicast for example, multicast distribution by a multicast FLUTE session
  • unicast delivery eg, unicast delivery via a unicast HTTP session
  • the thumbnail videos TM # 1 to TM # 3 are distributed. 3 is distributed by multicast in one FLUTE session FS-T.
  • main video MS # 1 is one FLUTE session FS-M # 1
  • main video MS # 2 is one FLUTE session FS-M # 2
  • main video MS # 3 is one FLUTE session FS -Multicast is distributed by M # 3.
  • audio AS # 1 is one FLUTE session FS-A # 1
  • audio AS # 2 is one FLUTE session FS-A # 2
  • audio AS # 3 is one FLUTE session FS-A #. At 3, each is multicast distributed.
  • the MPD # 1 of the content of the channel ch # 1 includes the AdaptationSet (element) of each of the main video MS # 1, the audio AS # 1, and the thumbnail video TM # 1. Furthermore, the AdaptationSet of the thumbnail video TM # 1 of MPD # 1 is set to have the attribute value "urn: thumbnailVideo" as thumbnail signaling information that signals that the AdaptationSet (video of that) is a thumbnail video.
  • ViewPoint Contains the / @ schemeIdURI attribute.
  • As elements to which attribute value "urn: thumbnailVideo” etc. are set / @ schemeIdURI attribute belongs elements having the same structure as ViewPoint elements such as Role element, EssentialProperty element, SupplementalProperty element, etc. other than ViewPoint element It can be adopted.
  • the MPDs of the contents of the channels ch # 2 and ch # 3 are the same.
  • FIG. 20 is a diagram illustrating a second example of a delivery method of content including thumbnail video.
  • the main video MS # 1 to MS # 3, the audio AS # 1 to AS # 3, and the thumbnail video TM # 1 to TM # 3 are multicast and unicast distributed. It can also be delivered by
  • the thumbnail videos TM # 1 to TM # are distributed.
  • 3 is distributed by multicast in one FLUTE session FS-T, as in FIG.
  • main video MS # 1 and audio AS # 1 are one FLUTE session FS # 1
  • main video MS # 2 and audio AS # 2 are one FLUTE session FS # 2
  • main video The MS # 3 and the audio AS # 3 are respectively multicast-distributed in one FLUTE session FS # 3.
  • the MPD # 1 of the content of channel ch # 1 and the MPD of the content of channel ch # 2 and the MPD of the content of channel ch # 3 are configured as in the case of FIG.
  • FIG. 21 is a diagram illustrating a third example of a delivery method of content including thumbnail video.
  • the main videos MS # 1 to MS # 3, the audio ASs # 1 to AS # 3, and the thumbnail videos TM # 1 to TM # 3 are multicast and unicast distributed. It can also be delivered by
  • the main videos MS # 1 to MS # 3 when the main videos MS # 1 to MS # 3, the audio ASs # 1 to AS # 3 and the thumbnail videos TM # 1 to TM # 3 are multicast-distributed, the main videos MS # 1 to MS # 1 All of MS # 3, audio AS # 1 to AS # 3, and thumbnail videos TM # 1 to TM # 3 are multicast-delivered in one FLUTE session FS.
  • the MPD # 1 of the content of channel ch # 1 and the MPD of the content of channel ch # 2 and the MPD of the content of channel ch # 3 are configured as in the case of FIG.
  • FIG. 22 is a view showing a display example of the mosaic screen on the client 13.
  • the client 13 receives the thumbnail video based on the combination of MPD, SDP and USD as thumbnail metadata or a combination of them with OMA-ESG, and grids the thumbnail video. It is possible to display the mosaic screen arranged in the etc.
  • FIG. 22A shows an example of a mosaic screen in which 16 thumbnail videos are arranged in 4 rows and 4 columns
  • FIG. 22B shows a mosaic in which 4 thumbnail videos are arranged in 2 rows and 2 columns An example of the screen is shown.
  • each thumbnail video is, for example, 480 ⁇ 270 pixels
  • the size of the display screen of the client 13 is, for example, 1920 ⁇ 1080 pixels (or more)
  • the client 13 displays it as a mosaic screen even if 16 thumbnail videos are received.
  • the number of thumbnail videos is limited to four as shown in B of FIG.
  • the size of the display screen of the client 13 is small and the number of thumbnail videos displayed as a mosaic screen is limited to a number smaller than the number of thumbnail videos received by the client 13, for example
  • the thumbnail video size is processed into a small size in accordance with the size of the display screen 13
  • all of the thumbnail videos received by the client 13 can be displayed on the mosaic screen.
  • the client 13 needs to process the image size of the thumbnail video, and the processing load on the client 13 becomes large. Furthermore, when the image size of the thumbnail video is processed into a small image size to configure (generate) a mosaic screen, it may be difficult to view each thumbnail video.
  • thumbnail videos thumbnail videos displayed as a mosaic screen constituting the mosaic screen are If it is possible to select (filter) the thumbnail video constituting the mosaic screen based on the user's preference, some priority, or the like, it is possible to provide a mosaic screen appropriate (optimal) for the user.
  • content description metadata that is an attribute that describes the content of content (thumbnail video) is introduced, and the client 13 selects the thumbnail video that configures the mosaic screen using the content description metadata. To provide a mosaic screen appropriate for the user.
  • FIG. 23 is a diagram showing a first example of an MPD as thumbnail metadata into which content description metadata has been introduced.
  • the MPD of FIG. 23 is configured the same as the MPD of FIG. 14 except that the description 201 is provided instead of the description 142 of FIG.
  • the ViewPoint element in the description 201 includes a schemeIdURI attribute as in the description 142 in FIG. 14.
  • the attribute value "urn: thumbnailVideo: dic" is set in the schemeIdURI attribute.
  • thumbnailVideo on the front side of the colon (:) among the attribute values "urn: thumbnailVideo: dic” is a new scheme identifier indicating that the content is a thumbnail video as described in FIG. According to this scheme identifier "urn: thumbnailVideo", the client 13 can recognize that (the video of) the content is a thumbnail video.
  • the ViewPoint element in the description 201 includes a value attribute which is a new attribute in addition to the schemeIdURI attribute as described above.
  • the value attribute is content description metadata that describes the content of the content for which playback control is performed by the MPD (MPD / Period / AdaptationSet / ViewPoint) including the value attribute, and the value attribute is an item that represents the content of the content. Is set as an attribute value.
  • attribute values "X, Y, Z, " are described in the value attribute.
  • one or more items can be described as attribute values, and in the case where multiple items are set as attribute values in the value attribute, a plurality of items X, Y, Z, ... are For example, as shown in FIG. 23, they are described separated by commas (,).
  • the item which is a component configuring the attribute value set in the value attribute is defined by the dictionary specified by the description "dic" following the colon of the attribute value "urn: thumbnailVideo: dic”.
  • the client 13 recognizes the definition (meaning content) of each item of the attribute value set in the value attribute based on the dictionary specified by the description "dic" following the colon of the attribute value "urn: thumbnailVideo: dic" can do.
  • the first, second and third of the attribute values set in the value attribute Items are defined as genre identification information indicating a genre, country identification information indicating a country, and area identification information indicating an area, respectively.
  • the genre of (content thumbnail video) is “baseball (baseball relay)” which relays a baseball game
  • the host country where the baseball game is held is "US (US)”
  • CA California
  • the aggregation server 12 sets the attribute value "baseball, US, CA” in the value attribute. "Is set (encoded).
  • the client 13 uses the attribute value "baseball, US, CA” set in the value attribute based on the dictionary specified by the description "dic” following the colon of the attribute value "urn: thumbnailVideo: dic”, and the content genre However, it can be recognized that it is a baseball broadcast and that a baseball game is being held in California in the United States.
  • FIG. 24 is a view schematically showing an example of (a stream of) a plurality of thumbnail videos distributed by multicast in one FLUTE session.
  • the same 16 thumbnail videos are distributed by multicast with an image size of 480 ⁇ 270 pixels, and in the 16 thumbnail video MPDs (in which the AdaptationSet is described), the thumbnail videos It is assumed that the attribute value "urn: thumbnailVideo: dic" similar to that in FIG. 23 is set in the attribute schemeIdURI attribute belonging to the ViewPoint element included in the AdaptationSet element.
  • the client 13 when the size of the display screen of the client 13 is, for example, 1920 ⁇ 1080 pixels (or more), the client 13 can be delivered in one FLUTE session as shown in A of FIG. A mosaic screen is displayed in which all 16 thumbnail videos of 480 ⁇ 270 pixels in size are arranged in 4 rows and 4 columns.
  • the size of the display screen of the client 13 is smaller than 1920 ⁇ 1080 pixels, for example, 960 ⁇ 540 pixels
  • the number of thumbnail videos displayed as a mosaic screen in the client 13 is shown in B of FIG.
  • the 16 thumbnail videos it is limited to 4 in 2 rows and 2 columns.
  • the client 13 performs filtering to select four thumbnail videos to be displayed on the mosaic screen (constituting a mosaic screen) using the value attribute (attribute value set to the value attribute of the thumbnail video (hereinafter, thumbnail filtering) Also known as
  • the thumbnail filtering can be performed, for example, based on preference information or the like representing the preference of the user of the client 13.
  • thumbnail filtering the country identification information of the attribute values set in the value attribute out of 16 thumbnail videos is "US" representing America and the region identification information is "CA” representing California.
  • the thumbnail video being selected is selected as the thumbnail video to be displayed on the mosaic screen.
  • the client 13 selects, for example, from among the thumbnail videos selected by the thumbnail filtering.
  • a number of thumbnail videos that can be displayed on the mosaic screen can be selected randomly, for example.
  • a mosaic screen larger in size than the display screen of the client 13 can be generated, and the mosaic screen can be scrolled in accordance with the user's operation or the like.
  • the size of the display screen as a constraint of the device rendering environment of the client 13 It is possible to realize a service selection process (channel selection) with a combined and efficient mosaic screen.
  • FIG. 25 is a diagram illustrating a second example of the MPD as thumbnail metadata into which content description metadata is introduced.
  • the MPD of FIG. 25 is configured in the same manner as the MPD of FIG. 23 except that descriptions 211 and 212 are provided instead of the description 201 of FIG.
  • the ViewPoint element in the descriptions 211 and 212 includes a schemeIdURI attribute and a value attribute as content description metadata, similarly to the ViewPoint element in the description 201 of FIG.
  • the attribute value "urn: thumbnailVideo: dic” is set in the schemeIdURI attribute.
  • the attribute value "urn: thumbnailVideo: JapaneseParameters” is set in the schemeIdURI attribute.
  • the first, second and third items of the attribute value set in the value attribute are respectively genres It is defined that it is genre identification information representing, country identification information representing a country, and area identification information representing an area.
  • the language of genre identification information, country identification information, and area identification information is, for example, English (definition
  • JapaneseParameters” Japanese (JapaneseParameters” dictionary
  • the language of genre identification information, country identification information, and region identification information is a language different from English, for example, It is defined to be Japanese.
  • the attribute value as genre identification information, country identification information, and area identification information in the value attribute is "baseball, US, CA", etc. It is written in English.
  • the attribute value as genre identification information, country identification information, and area identification information in the value attribute is "Japan like baseball, USA, California", Japan. It is described in words.
  • a plurality of ViewPoint elements can be arranged, and the value attribute (attribute value to be set) can be described in different languages.
  • FIG. 26 is a diagram illustrating a third example of the MPD as thumbnail metadata into which content description metadata is introduced.
  • the MPD of FIG. 26 is configured the same as the MPD of FIG. 23 except that the description 221 is provided instead of the description 201 of FIG.
  • the ViewPoint element in the description 221 includes a schemeIdURI attribute and a value attribute as content description metadata, similarly to the ViewPoint element in the description 201 of FIG.
  • the attribute value “http://baseballAuthority.com/thumbnailVideoGenre” is set in the schemeIdURI attribute.
  • the attribute value "http://baseballAuthority.com/thumbnailVideoGenre” plays both roles of a scheme identifier indicating that the content is a thumbnail video and information (dictionary definition) specifying a dictionary defining the component of the value attribute. Play.
  • the client 13 can recognize that (the video of) the content is a thumbnail video by the attribute value "http://baseballAuthority.com/thumbnailVideoGenre".
  • the attribute value "http://baseballAuthority.com/thumbnailVideoGenre” is a URL of http
  • the URL of http represents the address of a dictionary that defines the component (item) of the value attribute.
  • the dictionary that defines the component of the value attribute when specifying the dictionary that defines the component of the value attribute by the URL of http, place the dictionary that defines the component of the value attribute on a (web) server on a network such as the Internet Also, it can be delivered in the same FLUTE session as delivering the thumbnail video (in case the client 13 can not use the interactive bearer).
  • FIG. 27, FIG. 28, and FIG. 29 are diagrams showing an example of a delivery method of content including thumbnail video when the value attribute as content description metadata is introduced to the MPD.
  • FIG. 27 shows a fourth example of a delivery method of content including thumbnail video
  • FIG. 28 shows a fifth example of delivery method of content including thumbnail video
  • FIG. 29 shows content of content including thumbnail video. It is a figure which shows the 6th example of a delivery method, respectively.
  • main videos MS # 1 to MS # 3 of channels ch # 1 to ch # 3 of three broadcasting stations (services) and audio AS # 1 are the same as in FIGS. 19 to 21, respectively.
  • an attribute as thumbnail signaling information that includes each AdaptationSet (element) of 1 and the AdaptationSet of the thumbnail video TM # 1 of MPD # 1 signals that the AdaptationSet (video) is a thumbnail video.
  • FIGS. 27 to 29 show values as content description metadata in the AdaptationSet of the thumbnail video TM # 1 of the MPD # 1 (the MPD of each content of the channels ch # 2 and ch # 3 are the same). The description is omitted because it is the same as each of FIGS. 19 to 21 except that the attribute is included.
  • FIG. 30 is a flowchart for explaining an example of processing of displaying a mosaic screen on the client 13.
  • step S101 the middleware 41 (FIG. 4) collects the USD of the thumbnail video by receiving the USD, or receiving the OMA-ESG and receiving the USD based on the OMA-ESG. Then, the process proceeds to step S102.
  • step S102 the middleware 41 receives the MPD of the thumbnail video based on the USD of the thumbnail video, supplies (passes) to the DASH client 42 (FIG. 4), and the process proceeds to step S103.
  • step S103 the DASH client 42 issues an HTTP request for requesting (the segment of) the thumbnail video to the middleware 41 based on the MPD of the thumbnail video from the middleware 41, and the process proceeds to step S104.
  • step S104 the middleware 41 determines whether the thumbnail video requested by the HTTP request from the DASH client 42 is distributed by multicast, based on the USD or OMA-ESG.
  • step S104 If it is determined in step S104 that the thumbnail video is being multicast-distributed, the process proceeds to step S105, and the middleware 41 receives the thumbnail video that is multicast-distributed and supplies it to the DASH client 42 for processing. The process proceeds to step S107.
  • step S104 when it is determined in step S104 that the thumbnail video is not multicast-distributed, the process proceeds to step S106, and the middleware 41 issues an HTTP request from the DASH client 42 on the network 10. Further, in response to the HTTP request, the middleware 41 receives the thumbnail video unicast-distributed from the channel server 11 (or the aggregation server 12) and supplies it to the DASH client 42, and the process proceeds to step S107. .
  • step S107 the receiving unit 40 (FIG. 4) determines whether thumbnail filtering is turned on.
  • on and off of the thumbnail filtering that is, whether or not the thumbnail filtering is performed can be set by operating the client 13, for example.
  • step S107 If it is determined in step S107 that thumbnail filtering is turned on, the process proceeds to step S108, and the DASH client 42 describes the thumbnail video supplied from the middleware 41 in the MPD of the thumbnail video as a target
  • the thumbnail filtering is performed using the value attribute as the content description metadata, and the thumbnail video forming the mosaic screen is selected from the thumbnail videos supplied from the middleware 41, and the playback unit 43 (FIG. Supply).
  • the client 13 selects, for example, among the thumbnail videos selected by the thumbnail filtering. From the above, it is possible to, for example, randomly select a number (or less) of thumbnail videos that can be displayed on the mosaic screen.
  • step S107 when it is determined in step S107 that the thumbnail filtering is not turned on, the process proceeds to step S109, and the DASH client 42 displays the thumbnail video supplied from the middleware 41 on the mosaic screen. For example, randomly selected thumbnail videos are supplied to the playback unit 43 as many as possible.
  • step S110 the playback unit 43 configures and displays a mosaic screen in which thumbnail videos from the DASH client 42 are arranged, and the process of displaying the mosaic screen ends.
  • FIG. 31 illustrates an example configuration of an embodiment of a computer in which a program that executes the series of processes described above is installed.
  • the program can be recorded in advance in a hard disk 405 or ROM 403 as a recording medium built in the computer.
  • the program can be stored (recorded) in the removable recording medium 411.
  • Such removable recording medium 411 can be provided as so-called package software.
  • examples of the removable recording medium 411 include a flexible disc, a compact disc read only memory (CD-ROM), a magneto optical disc (MO), a digital versatile disc (DVD), a magnetic disc, a semiconductor memory, and the like.
  • the program may be installed on the computer from the removable recording medium 411 as described above, or may be downloaded to the computer via a communication network or a broadcast network and installed on the built-in hard disk 405. That is, for example, the program is wirelessly transferred from the download site to the computer via an artificial satellite for digital satellite broadcasting, or transferred to the computer via a network such as a LAN (Local Area Network) or the Internet. be able to.
  • a network such as a LAN (Local Area Network) or the Internet.
  • the computer incorporates a CPU (Central Processing Unit) 402, and an input / output interface 410 is connected to the CPU 402 via a bus 401.
  • a CPU Central Processing Unit
  • an input / output interface 410 is connected to the CPU 402 via a bus 401.
  • CPU 402 executes a program stored in ROM (Read Only Memory) 403 according to a command supplied by a user operating input unit 407 or the like via input / output interface 410. .
  • the CPU 402 loads a program stored in the hard disk 405 into a random access memory (RAM) 404 and executes the program.
  • RAM random access memory
  • the CPU 402 performs the processing according to the above-described flowchart or the processing performed by the configuration of the above-described block diagram. Then, the CPU 402 causes the processing result to be output from the output unit 406, transmitted from the communication unit 408, or recorded on the hard disk 405, for example, through the input / output interface 410, as necessary.
  • the input unit 407 includes a keyboard, a mouse, a microphone, and the like. Further, the output unit 406 is configured by an LCD (Liquid Crystal Display), a speaker, and the like.
  • LCD Liquid Crystal Display
  • the processing performed by the computer according to the program does not necessarily have to be performed chronologically in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or separately (for example, parallel processing or processing by an object).
  • the program may be processed by one computer (processor) or may be distributed and processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer for execution.
  • the system means a set of a plurality of components (apparatus, modules (parts), etc.), and it does not matter whether all the components are in the same housing or not. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
  • the present technology can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
  • each step described in the above-described flowchart can be executed by one device or in a shared manner by a plurality of devices.
  • the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
  • present technology can be applied to the delivery of content other than DASH.
  • the present technology can be configured as follows.
  • a transmission apparatus comprising: a distribution unit that distributes metadata of content including the attribute indicating the minimum buffer time required to start content reproduction.
  • the metadata further includes one or more of a root element, the attribute indicating an operation profile according to the metadata, and information of a segment obtained by dividing the content in a time direction.
  • the metadata is an MPD (Media Presentation Description) of MPEG-DASH (Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP), An MPD element which is the root element; MPD / @ profile attribute, which is the attribute representing an operation profile according to the MPD; It includes an MPD / Period element, which is information of a segment obtained by dividing the content in a time direction, and an MPD / @ minBufferTime attribute, which is the attribute representing the minimum buffer time necessary to start reproduction of the content ⁇ 2>
  • information indicating that content for which playback control is performed by the MPD is the thumbnail video is described as an attribute value.
  • the transmitting device including @schemeIdURI attribute, MPD / Period / AdaptationSet / EssentialProperty / @ schemeIdURI attribute, or MPD / Period / AdaptationSet / SupplementalProperty / @ schemeIdURI attribute as the signaling information.
  • the metadata further includes content description metadata that is the attribute that describes the content of the content.
  • the transmitting apparatus according to ⁇ 5>, wherein the metadata further includes specification of a dictionary that defines a component of the content description metadata.
  • the transmission device according to ⁇ 5> or ⁇ 6>, wherein the content description metadata is used for filtering to select a thumbnail video used for the configuration of the mosaic screen.
  • the metadata is an MPD (Media Presentation Description) of MPEG-DASH (Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP), The transmission device according to any one of ⁇ 5> to ⁇ 7>, wherein the content description metadata is an attribute of an MPD / Period / AdaptationSet / ViewPoint element.
  • Metadata described using attributes and attribute values Signaling information indicating that the video is a thumbnail video suitable for constructing a mosaic screen; Delivering the metadata of the content including the attribute representing the minimum buffer time required to start playback of the content.
  • Metadata described using attributes and attribute values Signaling information indicating that the video is a thumbnail video suitable for constructing a mosaic screen;
  • a receiver comprising: a metadata receiving unit configured to receive metadata of content including the attribute indicating a minimum buffer time required to start reproduction of content.
  • the metadata further includes one or more of a root element, the attribute indicating an operation profile according to the metadata, and information of a segment obtained by dividing the content in a time direction.
  • the metadata is an MPD (Media Presentation Description) of MPEG-DASH (Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP), An MPD element which is the root element; MPD / @ profile attribute, which is the attribute representing an operation profile according to the MPD; It includes an MPD / Period element which is information of a segment obtained by dividing the content in a time direction, and an MPD / @ minBufferTime attribute which is the attribute representing the minimum buffer time necessary to start the reproduction of the content ⁇ 11> Receiving device according to. ⁇ 13> In the MPD, information indicating that content for which playback control is performed by the MPD is the thumbnail video is described as an attribute value.
  • the receiving device including @schemeIdURI attribute, MPD / Period / AdaptationSet / EssentialProperty / @ schemeIdURI attribute, or MPD / Period / AdaptationSet / SupplementalProperty / @ schemeIdURI attribute as the signaling information.
  • the metadata further includes content description metadata that is the attribute that describes the content of the content.
  • the receiving device further includes a specification of a dictionary that defines a component of the content description metadata.
  • the reception device according to ⁇ 14> or ⁇ 15>, wherein the content description metadata is used for filtering to select a thumbnail video used to configure the mosaic screen.
  • the metadata is an MPD (Media Presentation Description) of MPEG-DASH (Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP), The reception device according to any one of ⁇ 14> to ⁇ 16>, wherein the content description metadata is an attribute of an MPD / Period / AdaptationSet / ViewPoint element.
  • Metadata described using attributes and attribute values Signaling information indicating that the video is a thumbnail video suitable for constructing a mosaic screen; Receiving metadata of the content including the attribute indicating the minimum buffer time required to start playback of the content.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 本技術は、モザイク画面を容易に得ることができるようにする送信装置、送信方法、受信装置、及び、受信方法に関する。 属性と属性値とを用いて記述されるメタデータであり、ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す属性とを含むコンテンツのメタデータが配信される。本技術は、例えば、コンテンツを配信する場合に適用することができる。

Description

送信装置、送信方法、受信装置、及び、受信方法
 本技術は、送信装置、送信方法、受信装置、及び、受信方法に関し、特に、例えば、モザイク画面を容易に得ることができるようにする送信装置、送信方法、受信装置、及び、受信方法に関する。
 近年、インターネット上のストリーミングサービスの主流が、OTT-V(Over The Top Video)となっている。例えば、MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP(Hypertext Transfer Protocol))(以下、DASHともいう)が、OTT-Vの基盤技術として普及し始めている。
 DASHでは、例えば、ストリームを配信するサーバから、同一ソースからの特性の異なるストリームを最適に選択するための属性情報を含むメタデータとしてのMPD(Media Presentation Description)を、ストリームを受信するクライアントに通知し、クライアントにおいて、そのMPDを用いることで、ネットワーク環境適応型のストリーミングが実現される(例えば、非特許文献1を参照)。
 すなわち、DASHでは、サーバが、同一内容のコンテンツとして、配信パスの通信環境やクライアントの能力や状態に応じて画質や画サイズ等が異なる複数のストリームを用意する。
 一方、クライアントは、サーバが用意している複数のストリームのうちの、クライアントが受信可能であり、かつ、クライアントの能力(デコード能力等)に適したストリームを適応的に選択し、そのストリームを受信して再生する。
 DASHでは、クライアントが、ストリームを適応的に選択して受信することができるように、MPDと呼ばれる、コンテンツの再生制御に用いられるメタデータが、サーバからクライアントに配信される。
 MPDには、コンテンツを分割したセグメント(Audio/Video/Subtitle等のメディアデータ)のアドレスとしてのURL(Uniform Resource Locator)等が記述される。クライアントは、MPDに記述されたURL等に基づいて、コンテンツの配信元となるwebサーバにHTTPリクエストを送信し、このHTTPリクエストに応じてwebサーバがユニキャスト配信するセグメントを受信して再生する。
「既存のWebサーバーで途切れない動画配信を実現」、平林光浩、NIKKEI ELECTRONICS 2012.3.19
 ところで、クライアントにおいて、例えば、ライブ放送系のコンテンツを視聴する場合等には、複数のコンテンツのビデオを格子状等に配置したモザイク画面を表示し、ユーザが、そのモザイク画面に表示された複数のコンテンツのビデオを見て、視聴するチャンネル(コンテンツ)を選択することができれば、便利である。
 しかしながら、現行のDASHでは、クライアントにおいて、モザイク画面を生成するのに有用な情報が配信されていないため、モザイク画面を容易に得ることが困難である。
 本技術は、このような状況に鑑みてなされたものであり、モザイク画面を容易に得ることができるようにするものである。
 本技術の送信装置は、属性と属性値とを用いて記述されるメタデータであり、ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性とを含むコンテンツのメタデータを配信する配信部を備える送信装置である。
 本技術の送信方法は、属性と属性値とを用いて記述されるメタデータであり、ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性とを含むコンテンツのメタデータを配信するステップを含む送信方法である。
 以上のような本技術の送信装置、及び、送信方法においては、属性と属性値とを用いて記述されるメタデータであり、ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性とを含むコンテンツのメタデータが配信される。
 本技術の受信装置は、属性と属性値とを用いて記述されるメタデータであり、ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性とを含むコンテンツのメタデータを受信する受信部を備える受信装置である。
 本技術の受信方法は、属性と属性値とを用いて記述されるメタデータであり、ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性とを含むコンテンツのメタデータを受信するステップを含む受信方法である。
 以上のような本技術の受信装置、及び、受信方法においては、属性と属性値とを用いて記述されるメタデータであり、ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性とを含むコンテンツのメタデータが受信される。
 なお、送信装置、及び、受信装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
 本技術によれば、モザイク画面を容易に得ることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用したコンテンツ提供システムの一実施の形態の構成例を示すブロック図である。 チャンネルサーバ11の構成例を示すブロック図である。 集約サーバ12の構成例を示すブロック図である。 クライアント13の構成例を示すブロック図である。 コンテンツ提供システムによるサムネイルビデオの提供の処理を説明する図である。 コンテンツ提供システムにおいて、ネットワーク10を介して配信されるデータの例を示す図である。 MPD,SDP,USD、及び、OMA-ESGを説明する図である。 MBMSのプロトコルスタックを示す図である。 サムネイルメタデータとしてのUSDのデータモデルの例を示す図である。 XMLで記述されるサムネイルメタデータとしてのUSDを構成するXMLの要素、及び、属性の例を示す図である。 XMLで記述されるサムネイルメタデータとしてのUSDの例を示す図である。 サムネイルメタデータとしてのMPDの概要を示す図である。 XMLで記述されるサムネイルメタデータとしてのMPDを構成するXMLの要素、及び、属性の例を示す図である。 XMLで記述されるサムネイルメタデータとしてのMPDの例を示す図である。 サムネイルメタデータとしてのOMA-ESGのデータモデルの例を示す図である。 XMLで記述されるサムネイルメタデータとしてのOMA-ESGを構成するXMLの要素、及び、属性の例を示す図である。 XMLで記述されるサムネイルメタデータとしてのOMA-ESGの例を示す図である。 サムネイルメタデータとしてのOMA-ESGを説明する図である。 サムネイルビデオを含むコンテンツの配信方法の第1の例を示す図である。 サムネイルビデオを含むコンテンツの配信方法の第2の例を示す図である。 サムネイルビデオを含むコンテンツの配信方法の第3の例を示す図である。 クライアント13でのモザイク画面の表示例を示す図である。 コンテンツディスクリプションメタデータを導入したサムネイルメタデータとしてのMPDの第1の例を示す図である。 1つのFLUTEセッションでマルチキャスト配信される複数のサムネイルビデオ(のストリーム)の例を模式的に示す図である。 コンテンツディスクリプションメタデータを導入したサムネイルメタデータとしてのMPDの第2の例を示す図である。 コンテンツディスクリプションメタデータを導入したサムネイルメタデータとしてのMPDの第3の例を示す図である。 サムネイルビデオを含むコンテンツの配信方法の第4の例を示す図である。 サムネイルビデオを含むコンテンツの配信方法の第5の例を示す図である。 サムネイルビデオを含むコンテンツの配信方法の第6の例を示す図である。 クライアント13でのモザイク画面の表示の処理の例を説明するフローチャートである。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
 <本技術を適用したコンテンツ提供システムの一実施の形態>
 図1は、本技術を適用したコンテンツ提供システムの一実施の形態の構成例を示すブロック図である。
 図1において、コンテンツ提供システムは、複数のチャンネルサーバ11、1以上の集約サーバ12、1以上のクライアント13、及び、NTP(Network Time Protocol)サーバ14が、ネットワーク10に接続されて構成される。
 図1のコンテンツ提供システムでは、DASHを利用して、チャンネルサーバ11や集約サーバ12から、ネットワーク10を介して、クライアント13に対して、コンテンツが提供される。
 ここで、現行のDASHでは、ストリーミングそのものがOTT/CDN(Over The Top/Contents Delivery Network)上のユニキャストにより行われることが前提となっているが、図1のコンテンツ提供システムでは、モザイク画面を構成するビデオが、例えば、携帯網上の品質の保証された一斉同報可能なマルチキャストネットワーク(eMBMS等)上で配信される。これにより、多数のユーザに対して、パフォーマンスの優れた、モザイク画面によるチャンネルの選択の操作感が提供される。
 すなわち、図1のコンテンツ提供システムでは、モザイク画面を構成する複数のビデオをグルーピング(アグリゲート)して、1つのFLUTEマルチキャストセッション等で配信することにより、クライアント13において、モザイク画面を、容易かつ効率的に生成する(得る)ことを可能にする。
 ネットワーク10は、ユニキャストやマルチキャストが可能な、インターネット等の双方向ネットワークと、ブロードキャストやマルチキャストが可能な放送系ネットワークとを包含する。ネットワーク10としては、例えば、3GPP(3rd Generation Partnership Project)のMBMS(Multimedia Broadcast Multicast Service)(eMBMS(Evolved MBMS)を含む)等を採用することができる。
 チャンネルサーバ11は、例えば、放送局に対応し、その放送局のチャンネル(サービス)の番組として、同一内容のコンテンツのストリームであって、ビットレートや画サイズ等が異なる複数のストリームを、ネットワーク10を介して配信する。
 ここで、チャンネルサーバ11が配信する複数のストリームには、視聴の用に供されるメインビデオや、オーディオ、字幕等のストリームと、モザイク画面を構成するのに適したサムネイルビデオのストリームとが含まれる。
 ここで、モザイク画面を構成するのに適したサムネイルビデオとは、メインビデオと同一内容のビデオではあるが、例えば、画サイズがメインビデオよりも小さい所定のサイズ以下のビデオで、複数個を、あるサイズの表示画面に、格子状等にタイリングすることにより、モザイク画面が構成されるビデオを意味する。
 集約サーバ12は、例えば、モザイク画面を、番組として放送する放送局に対応し、その放送局のチャンネル(サービス)の番組として、複数のチャンネルサーバ11が配信する複数のサムネイルビデオ(のストリーム)をグルーピング(集約)し、ネットワーク10を介して配信する。
 クライアント13は、チャンネルサーバ11が配信するメインビデオ等や、集約サーバ12が配信するサムネイルビデオを受信して再生する。
 NTPサーバ14は、UTC(Coordinated Universal Time)タイムフォーマットに従った時刻情報であるNTP時刻を、ネットワーク10を介して提供する。
 チャンネルサーバ11、集約サーバ12、及び、クライアント13は、NTPサーバ14から提供されるNTP時刻に同期して動作することができる。
 なお、チャンネルサーバ11が配信する番組は(ひいては、集約サーバ12が配信する番組も)、リアルタイムの番組(生放送の番組)であってもよいし、録画番組であってもよい。
 <チャンネルサーバ11の構成例>
 図2は、図1のチャンネルサーバ11の構成例を示すブロック図である。
 図2において、チャンネルサーバ11は、コンテンツマネジメントサーバ21、セグメントストリーマ22、及び、MPDサーバ23を有する。
 ここで、コンテンツマネジメントサーバ21、セグメントストリーマ22、及び、MPDサーバ23は、ネットワーク10上の一カ所に配置することもできるし、ネットワーク10上に分散して配置することもできる。コンテンツマネジメントサーバ21、セグメントストリーマ22、及び、MPDサーバ23を、ネットワーク10上に分散して配置する場合、相互間での通信は、ネットワーク10の他、専用線その他の任意の通信回線を介して行うことができる。
 コンテンツマネジメントサーバ21は、チャンネルサーバ11のチャンネルの番組として配信するためのコンテンツのソースデータとしてのビデオや、オーディオ、字幕等を管理しており、コンテンツのソースデータとしてのビデオ等からビットレートが異なる複数のストリーミングデータを生成して、セグメントストリーマ22に供給する。
 ここで、ビデオについての複数のストリーミングデータの中には、メインビデオとサムネイルビデオとが含まれる。
 セグメントストリーマ22は、コンテンツマネジメントサーバ21からの各ストリーミングデータを、時間方向に分割したセグメントのセグメントストリームを生成する。
 すなわち、セグメントストリーマ22は、ストリーミングデータを、例えば、fragmentedMP4のフラグメント(moofとmdat)に分割し、そのフラグメントの1以上を集めてセグメントのファイルを生成する。
 また、セグメントストリーマ22は、セグメントのURL(セグメントを提供するサーバ(例えば、チャンネルサーバ11)のURL)等の、MPDの生成に必要なセグメントのメタデータを、MPDサーバ23に供給する。
 さらに、セグメントストリーマ22は、webサーバとして、クライアント13からのセグメントの要求としてのHTTPリクエストに応じて、そのHTTPリクエストによって要求されるセグメント(のファイル)を、クライアント13に、ネットワーク10を介して、HTTPユニキャスト配信する。
 また、セグメントストリーマ22は、サムネイルビデオのセグメントを、ネットワーク10を介して、集約サーバ12に(ユニキャスト又はマルチキャストで)配信する。
 MPDサーバ23は、セグメントストリーマ22から供給されるセグメントのメタデータを用いて、クライアント13がセグメントを受信して再生制御を行うために必要な、セグメントのURL等が記述されたMPDを生成する。
 MPDサーバ23は、webサーバとして、クライアント13からのMPDの要求としてのHTTPリクエストに応じて、MPDを、クライアント13に、ネットワーク10を介して、HTTPユニキャスト配信する。
 また、MPDサーバ23は、サムネイルビデオのMPDを、ネットワーク10を介して、集約サーバ12に(ユニキャスト又はマルチキャストで)配信する。
 ここで、クライアント13は、MPDサーバ23に対してMPDを要求することにより、その要求に応じて、MPDサーバ23がHTTPユニキャスト配信するMPDを受信することができる。
 また、クライアント13は、MPDサーバ23からのMPDに基づいて、セグメントストリーマ22にセグメントを要求することにより、その要求に応じて、セグメントストリーマ22がHTTPユニキャスト配信するセグメントを受信し、さらに、そのセグメントを、MPDに基づいて再生することができる。
 <集約サーバ12の構成例>
 図3は、図1の集約サーバ12の構成例を示すブロック図である。
 図3において、集約サーバ12は、ストリームアグリゲータ31、メタデータジェネレータ32、FLUTE(File Delivery over Unidirectional Transport)ストリーマ33、マルチキャストサーバ34、及び、webサーバ35を有する。
 ここで、ストリームアグリゲータ31ないしwebサーバ35は、図2のチャンネルサーバ11の場合と同様に、ネットワーク10上の一カ所に配置することもできるし、ネットワーク10上に分散して配置することもできる。ストリームアグリゲータ31ないしwebサーバ35を、ネットワーク10上に分散して配置する場合、相互間での通信は、ネットワーク10の他、専用線その他の任意の通信回線を介して行うことができる。
 ストリームアグリゲータ31は、複数のチャンネルサーバ11から配信される複数のサムネイルビデオ(のセグメント)の中から、モザイク画面のあるチャンネル(以下、モザイクチャンネルともいう)を構成させる2以上のサムネイルビデオを、モザイクチャンネル用サムネイルビデオとして選択(アグリゲート)し、FLUTEストリーマ33に供給する。
 ここで、ストリームアグリゲータ31は、複数のチャンネルサーバ11から配信される複数のサムネイルビデオの中から、1つのモザイク画面を構成するのに適した2以上のサムネイルビデオを、モザイクチャンネル用サムネイルビデオとして選択する。
 1つのモザイク画面を構成するのに適した2以上のサムネイルビデオとは、例えば、少なくとも、画サイズが同一の2以上のサムネイルビデオである。
 その他、ストリームアグリゲータ31では、例えば、あるサイズの表示画面に、格子状等にタイリングするのに適した画サイズであることや、野球中継等の同一のジャンルのビデオであることを条件として、それらの条件の1以上を満たす2以上のサムネイルビデオを、モザイクチャンネル用サムネイルビデオとして選択することができる。
 メタデータジェネレータ32は、複数のチャンネルサーバ11から配信される複数のサムネイルビデオのMPDのうちの、ストリームアグリゲータ31で選択された2以上のサムネイルビデオそれぞれについてのMPDを選択し、そのMPDを用いて、モザイクチャンネル用のメタデータであるサムネイルメタデータを生成する。
 そして、メタデータジェネレータ32は、サムネイルメタデータを、FLUTEストリーマ33、及び、webサーバ35に供給する。
 ここで、サムネイルメタデータとしては、例えば、MBMSのUSD(User Service Description)、DASHのMPD、及び、IETF(Internet Engineering Task Force)のSDP(Session Description Protocol)(ファイル)の組み合わせ、又は、OMA-ESG(Open Mobile Alliance-Electronic Service Guide),USD,MPD、及び、SDPの組み合わせを利用することができる。
 OMA-ESG,USD,MPD、及び、SDPは、いずれも、属性(名)と、その属性に設定される属性値とを用いて記述される。属性と属性値は、その他、例えば、キー(key)とバリュー(value)と呼ばれることがある。
 FLUTEストリーマ33は、ストリームアグリゲータ31から供給されるサムネイルビデオ(のセグメント)を、FLUTEパケット、すなわち、LCT(Layerd Coding Transport)パケット(ALC(Asynchronous Layered Coding)パケット)に格納し、マルチキャストサーバ34に供給する。
 また、FLUTEストリーマ33は、メタデータジェネレータ32から供給されるサムネイルメタデータを、LCTパケットに格納し、マルチキャストサーバ34に供給する。
 マルチキャストサーバ34は、FLUTEストリーマ33からのLCTパケットを、ネットワーク10を介してFLUTEマルチキャスト配信する。
 ここで、FLUTEストリーマ33からのLCTパケットには、上述したように、サムネイルビデオ(のセグメント)や、サムネイルメタデータが格納されているので、マルチキャストサーバ34では、サムネイルビデオや、サムネイルメタデータが、マルチキャスト配信されることになる。
 webサーバ35は、クライアント13からの要求(HTTPリクエスト)に応じて、メタデータジェネレータ32からのサムネイルメタデータを、ネットワーク10を介して、クライアント13に、HTTPユニキャスト配信する。
 ここで、以上のように、マルチキャストサーバ34、及び、webサーバ35は、サムネイルメタデータを配信する配信部として機能する。
 なお、図3の集約サーバ12では、上述したように、サムネイルビデオが、マルチキャスト配信されるが、集約サーバ12では、その他、チャンネルサーバ11から、サムネイルビデオのコンテンツについてのメインビデオ、オーディオ、字幕等(のセグメント)を取得し、サムネイルビデオと同様に、マルチキャスト配信することができる。
 また、メインビデオ等については、チャンネルサーバ11において、集約サーバ12がサムネイルビデオをマルチキャスト配信するのと同様にして、マルチキャスト配信することができる。
 さらに、集約サーバ12では、サムネイルビデオを、マルチキャストサーバ34において、マルチキャスト配信する他、webサーバ35において、ユニキャスト配信することができる。
 <クライアント13の構成例>
 図4は、図1のクライアント13の構成例を示すブロック図である。
 図4において、クライアント13は、受信部40、及び、再生部43を有する。
 受信部40は、例えば、ユーザによるクライアント13の操作等に応じて、チャンネルサーバ11から配信されるMPDや、集約サーバ12から配信されるサムネイルメタデータを受信する受信部として機能する。
 また、受信部40は、例えば、ユーザによるクライアント13の操作等に応じて、チャンネルサーバ11から受信したMPDや、集約サーバ12から受信したサムネイルメタデータに基づき、チャンネルサーバ11から配信される(メインビデオ等の)セグメントや、集約サーバ12からマルチキャスト配信される(サムネイルビデオ等の)セグメントを受信する。
 さらに、受信部40は、チャンネルサーバ11や集約サーバ12から受信したセグメントを、再生部43に供給し、チャンネルサーバ11から受信したMPDや、集約サーバ12から受信したサムネイルメタデータに基づき、再生部43でのセグメントの再生を制御する。
 再生部43は、受信部40の制御に従い、受信部40から供給されるセグメント、すなわち、サムネイルビデオで構成されるモザイク画面や、メインビデオ、オーディオ、字幕等を再生する。
 ここで、受信部40は、ミドルウェア41とDASHクライアント42を有する。
 DASHクライアント42は、必要に応じて、MPDや、サムネイルビデオ、メインビデオ等のセグメントを要求するHTTPリクエストを、ミドルウェア41に出力する。
 ミドルウェア41は、マルチキャスト配信されてくるMPDや、サムネイルメタデータ、セグメントを必要に応じて受信しており、DASHクライアント42がHTTPリクエストを出力すると、そのHTTPリクエストにより要求されているMPDやセグメントが、マルチキャスト配信されているかどうかを、サムネイルメタデータ等に基づいて判定する。
 そして、DASHクライアント42が出力するHTTPリクエストにより要求されているMPDやセグメントが、マルチキャスト配信されている場合には、ミドルウェア41は、そのマルチキャスト配信されるMPDやセグメントを受信し、DASHクライアント42に供給する。
 なお、ミドルウェア41は、DASHクライアント42が出力するHTTPリクエストにより要求されているMPDやセグメントが、既に受信済みである場合には、その受信済みのMPDやセグメントを、DASHクライアント42に供給する。
 一方、DASHクライアント42が出力するHTTPリクエストにより要求されているMPDやセグメントが、マルチキャスト配信されていない場合、ミドルウェア41は、DASHクライアント42が出力するHTTPリクエストを、そのまま、ネットワーク10に送信する。そして、ミドルウェア41は、そのHTTPリクエストに応じて、ユニキャスト配信されてくるMPDやセグメントを受信し、DASHクライアント42に供給する。
 したがって、DASHクライアント42は、一般的なDASHクライアントと同様に、必要なMPDやセグメントを要求するHTTPリクエストを出力し、そのHTTPリクエストに応じて、ミドルウェア41から供給されるMPDやセグメントを受信して処理する。
 <コンテンツ提供システムの処理>
 図5は、図1のコンテンツ提供システムによるサムネイルビデオの提供の処理の例を説明する図である。
 チャンネルサーバ11は、ステップS11において、サムネイルビデオを、集約サーバ12(図3)のストリームアグリゲータ31に配信する。
 さらに、チャンネルサーバ11は、ステップS12において、サムネイルビデオのMPDを、集約サーバ12のメタデータジェネレータ32に配信する。
 また、ステップS13において、チャンネルサーバ11は、クライアント13から、サムネイルビデオを要求するHTTPリクエストが送信されてくると、そのHTTPリクエストを受信する。
 そして、ステップS14において、チャンネルサーバ11は、クライアント13からのHTTPリクエストによって要求されているサムネイルビデオ(のセグメント)を、クライアント13に、ユニキャスト配信する。
 集約サーバ12(図3)のストリームアグリゲータ31は、ステップS21において、複数のチャンネルサーバ11がステップS11で配信するサムネイルビデオを受信する。
 そして、ストリームアグリゲータ31は、ステップS22において、複数のチャンネルサーバ11から受信した複数のサムネイルビデオの中から、モザイクチャンネルを構成させる2以上のサムネイルビデオを選択し、ステップS23において、FLUTEストリーマ33に供給する。
 集約サーバ12のメタデータジェネレータ32は、ステップS31において、複数のチャンネルサーバ11がステップS12で配信するサムネイルビデオのMPDを受信する。
 そして、メタデータジェネレータ32は、ステップS32において、複数のチャンネルサーバ11から受信した複数のサムネイルビデオのMPDのうちの、ストリームアグリゲータ31で選択された2以上のサムネイルビデオそれぞれについてのMPDを選択し、そのMPDを用いて、サムネイルメタデータを生成する。さらに、メタデータジェネレータ32は、ステップS33において、サムネイルメタデータを、FLUTEストリーマ33、及び、webサーバ35に供給する。
 集約サーバ12のFLUTEストリーマ33は、ステップS41において、メタデータジェネレータ32からステップS33で供給されるサムネイルメタデータを受信する。
 さらに、FLUTEストリーマ33は、ステップS42において、ストリームアグリゲータ31からステップS23で供給されるサムネイルビデオ(のセグメント)を受信する。
 FLUTEストリーマ33は、ステップS43において、メタデータジェネレータ32からのサムネイルメタデータや、ストリームアグリゲータ31からのサムネイルビデオを、LCTパケットに格納することによりパケット化し、ステップS44において、マルチキャストサーバ34に供給する。
 集約サーバ12のwebサーバ35は、ステップS51において、メタデータジェネレータ32からステップS33で供給されるサムネイルメタデータを受信する。
 また、ステップS52において、webサーバ35は、クライアント13から、サムネイルメタデータを要求するHTTPリクエストが送信されてくると、そのHTTPリクエストを受信する。
 そして、ステップS53において、webサーバ35は、クライアント13からのHTTPリクエストによって要求されているサムネイルメタデータを、クライアント13に、ユニキャスト配信する。
 集約サーバ12のマルチキャストサーバ34は、ステップS61において、FLUTEストリーマ33からステップS44で供給されるLCTパケットを受信する。
 そして、ステップS62において、マルチキャストサーバ34は、FLUTEストリーマ33からのサムネイルメタデータが格納されたLCTパケットを、マルチキャスト配信する。
 さらに、ステップS63において、マルチキャストサーバ34は、FLUTEストリーマ33からのサムネイルビデオが配置されたLCTパケットを、マルチキャスト配信する。
 クライアント13(図4)では、受信部40が、ステップS71において、マルチキャストサーバ34がステップS62でマルチキャスト配信するサムネイルメタデータ(のLCTパケット)を受信する。
 又は、クライアント13では、受信部40が、ステップS72において、サムネイルメタデータを要求するHTTPリクエストを送信する。
 クライアント13がステップS72で送信するHTTPリクエストは、上述したように、webサーバ35がステップS52で受信し、ステップS53で、そのHTTPリクエストによって要求されているサムネイルメタデータを、クライアント13に、ユニキャスト配信する。
 クライアント13の受信部40は、ステップS73において、以上のようにしてユニキャスト配信されてくるサムネイルメタデータを受信する。
 そして、クライアント13の受信部40は、ステップS74において、マルチキャストサーバ34がステップS63でマルチキャスト配信するサムネイルビデオ(のLCTパケット)を、サムネイルメタデータに基づいて受信する。
 又は、クライアント13では、受信部40が、ステップS75において、サムネイルメタデータに基づいて、サムネイルビデオを要求するHTTPリクエストを送信する。
 クライアント13がステップS75で送信するHTTPリクエストは、上述したように、チャンネルサーバ11がステップS13で受信し、ステップS14で、そのHTTPリクエストによって要求されているサムネイルビデオを、クライアント13に、ユニキャスト配信する。
 クライアント13の受信部40は、ステップS76において、以上のようにしてユニキャスト配信されてくるサムネイルビデオを受信する。
 そして、クライアント13の再生部43は、ステップS77において、受信部40がステップS74又はS76で受信した(複数の)サムネイルビデオを再生し、そのサムネイルビデオを格子状に配置したモザイク画面を表示する。
 クライアント13のユーザは、モザイク画面を見て、そのモザイク画面を構成するサムネイルビデオに対応するチャンネルを、視聴の対象として、容易に選択することができる。
 <ネットワーク10を介して配信されるデータの説明>
 図6は、図1のコンテンツ提供システムにおいて、ネットワーク10を介して配信されるデータの例を示す図である。
 コンテンツ提供システムでは、MPDや、SDP,USD,OMA-ESG等のメタデータと、サムネイルビデオやメインビデオ等のセグメントとが、クライアント13に配信される。
 メタデータ、及び、セグメントは、マルチキャスト配信することもできるし、ユニキャスト配信することもできる。
 サムネイルメタデータとしては、MPD,SDP、及び、USDの組み合わせや、それらに、OMA-ESGを加えた組み合わせが用いられる。
 図7は、MPD,SDP,USD、及び、OMA-ESGを説明する図である。
 いま、ある番組を、注目する注目番組とすると、その注目番組のOMA-ESGには、注目番組の詳細情報や、注目番組のUSDへのアクセス方法等が記述される。
 したがって、注目番組のOMA-ESGを取得すると、そのOMA-ESGに記述されているUSDへのアクセス方法を参照することにより、注目番組のUSDを取得することができる。
 注目番組のUSDには、注目番組のSDPのURI(Uniform Resource Identifier)や、注目番組のMPDのURI等が記述される。
 したがって、注目番組のUSDを取得すると、そのUSDに記述されているSDPやMPDのURIを参照することにより、注目番組のSDPやMPDを取得することができる。
 注目番組のSDPには、注目番組のセグメントをマルチキャスト配信するIPアドレスとポート番号等のトランスポート属性等が記述される。
 したがって、注目番組のSDPを取得することにより、そのSDPに記述されているIPアドレスとポート番号に基づき、マルチキャスト配信されてくる注目番組のセグメントを受信することができる。
 注目番組のMPDには、注目番組のセグメントのURLや、そのセグメントの再生制御に必要な情報等が記述される。
 したがって、注目番組のMPDを取得することにより、そのMPDに記述されているURLに基づき、注目番組のセグメントをユニキャストで受信することができる。また、注目番組のMPDに基づき、注目番組のセグメントを再生することができる。
 すなわち、MPDには、セグメントの再生制御に必要な情報が含まれるため、MPDは、セグメントをユニキャストで受信するのに必要である他、セグメントの再生にも必要である。
 <サムネイルビデオのアナウンス>
 クライアント13(図1)において、サムネイルビデオを受信し、複数のサムネイルビデオで構成されるモザイク画面を構成するには、どのビデオがサムネイルビデオであるかを、クライアント13に周知(認識)させる必要がある。
 そこで、図1のコンテンツ提供システムでは、どのビデオがサムネイルビデオであるかを、クライアント13に周知させるために、集約サーバ12において、サムネイルビデオのアナウンスが行われる。
 サムネイルビデオのアナウンスは、ビデオがサムネイルビデオであることを表すサムネイルシグナリング情報を含むサムネイルメタデータを配信することにより行われる。
 ここで、サムネイルシグナリング情報は、サムネイルメタデータとしてのUSDや、MPD,OMA-ESGに含ませることができる。
 集約サーバ12において、サムネイルシグナリング情報を含むサムネイルメタデータは、例えば、MBMSのインタラクションチャンネル(双方向(ptp:point to point)ベアラ上のユニキャスト)や、ブロードキャストマルチキャストチャンネル(片方向(ptm:point to multi-point)ベアラ上のブロード・マルチキャスト)を介して配信することができる。
 すなわち、集約サーバ12において、サムネイルメタデータは、図3で説明したように、(放送系ネットワーク(双方向ネットワーク上のマルチキャストネットワークも含む)上での)FLUTEマルチキャストや、(双方向ネットワーク上での)HTTPユニキャストによって配信することができる。
 以下、携帯網上でのモバイル放送システムであるMBMSを用いて、サムネイルメタデータを配信する場合について説明する。
 図8は、MBMSのプロトコルスタックを示す図である。
 MBMSは、双方向通信のインタラクションチャンネルと、片方向通信のブロードキャストマルチキャストチャンネルを有する。
 MBMSのインタラクションチャンネルは、セグメント及びMPD等のメタデータ(サムネイルメタデータとしてのMPD等を含む)のHTTPユニキャスト配信に利用される。MBMSのブロードキャストマルチキャストチャンネルは、セグメント及びMPD等のメタデータのFLUTEマルチキャスト配信に利用される。
 サムネイルメタデータとしてのMPD、USD、MPD、及び、OMA-ESGは、いずれも、インタラクションチャンネルのService Announcement&Metadata51や、ブロードキャストマルチキャストチャンネルのService Announcement&Metadata52として配信することができる。
 なお、セグメントをマルチキャスト配信する場合には、セグメントは、ブロードキャストマルチキャストチャンネルのDownload 3GPP file format,Binary data,Still images,Text,etc.53としてFLUTEマルチキャスト配信される。
 <サムネイルメタデータとしてのUSD>
 図9は、サムネイルメタデータとしてのUSDのデータモデルの例を示す図である。
 図9のサムネイルメタデータのデータモデルでは、MBMSのUSDのデータモデルに、r12:appServiceDescription(要素)66が新たに導入されている。
 図9において、User Service Bundle Description61は、ルートの要素であり、User Service Description62は、サービスに関する情報である。Delivery Method63は、セグメントの配信方法に関する情報であり、SDPを表すSession Description64のURI等を含む。Session Description64は、SDPを表し、media Presentation Description65は、MPDを表す。
 r12:appServiceDescription66は、サービス(放送局)(チャンネル)が提供するコンテンツ(のセグメント)が、マルチキャスト配信(若しくはブロードキャスト配信)されるか、又は、ユニキャスト配信されるかを、クライアント13にシグナリングする情報である。
 ここで、図9において、例えば、User Service Bundle Description61とUser Service Description62とを結ぶリンク(線)Lの、User Service Description62側の記述"1..N"は、リンクLの、記述"1..N"と反対側のUser Service Bundle Description61が、1ないしNの範囲の数のUser Service Description62を包含すること(又は、参照すること)を表す。
 また、リンクLの、User Service Bundle Description61側の記述"1"は、リンクLの、記述"1"と反対側のUser Service Description62が、1個のUser Service Bundle Description61に包含されること(又は、参照されること)を表す。
 後述する図15でも同様である。
 図10は、XML(Extensible Markup Language)で記述されるサムネイルメタデータとしてのUSDを構成するXMLの要素、及び、属性の例を示す図である。
 USDは、bundleDescription(要素)、bundleDescription/UserServiceDescription(要素)、bundleDescription/userServiceDescription/@serviceId(属性)、bundleDescription/userServiceDescription/DeliveryMethod(要素)、bundleDescription/userServiceDescription/DeliveryMethod/@sessionDescriptionURI(属性)を含む。
 ここで、例えば、bundleDescription/UserServiceDescriptionは、UserServiceDescription(要素)が、bundleDescription(要素)に包含される要素であることを表し、以下、UserServiceDescription、又は、/UserServiceDescriptionとも記載する。
 また、例えば、bundleDescription/userServiceDescription/@serviceIdは、serviceIdが、/userServiceDescriptionに属する属性であることを表し、以下、serviceId、又は、/@serviceIdとも記載する。
 bundleDescription要素は、1以上のサービスの集合の情報であり、UserServiceDescription要素は、個々のサービスの情報である。serviceId属性は、サービスを識別するサービス識別子であり、DeliveryMethod要素は、サービスが提供するコンテンツの配信方法の情報である。
 sessionDescriptionURI属性は、サービスが提供するコンテンツを受信するための情報を含むファイルを参照するための情報を表す。
 サービスが提供するコンテンツを受信するための情報を含むファイルとしては、例えば、SDP(ファイル)が採用される。
 サービスが提供するコンテンツを受信するための情報を含むファイルとして、SDPを採用する場合、サービスが提供するコンテンツを受信するための情報としては、そのコンテンツがマルチキャストで配信される場合の、そのマルチキャストのIPアドレス及びポート番号を含む情報が採用される。さらに、SDPを参照するための情報を表すsessionDescriptionURI属性には、属性値として、SDPのURI等が設定される。
 サムネイルメタデータとしてのUSDは、上述のbundleDescription要素、UserServiceDescription要素、serviceId属性、DeliveryMethod要素、及び、sessionDescriptionURI属性の他、サムネイルシグナリング情報を含む。
 なお、サムネイルメタデータとしては、以上のようなbundleDescription要素、UserServiceDescription要素、serviceId属性、DeliveryMethod要素、sessionDescriptionURI属性、及び、サムネイルシグナリング情報を含むUSDに代えて、bundleDescription要素、UserServiceDescription要素、serviceId属性、DeliveryMethod要素、及び、sessionDescriptionURI属性のうちの1以上と同等の情報と、サムネイルシグナリング情報とを含む任意のメタデータを採用することができる。
 図11は、XMLで記述されるサムネイルメタデータとしてのUSDの例を示す図である。
 bundleDescription要素71は、図9のUser Service Bundle Description61に相当し、USDのルートの要素である。
 UserServiceDescription要素72は、図9のUserServiceDescription62に相当する。UserServiceDescription要素72は、bundleDescription要素71に包含され、個々のサービスに相当する。
 /@r7:serviceClass属性73は、UserServiceDescription要素72に属する。ここで、/@r7:serviceClass属性73の"r7"は、/@r7:serviceClass属性73が、3GPP仕様のリリース7で導入されたことを表す。
 サムネイルメタデータとしてのUSDについては、/@r7:serviceClass属性73の属性値としてのスキーム識別子(serviceClassのクラス名)として、"urn:MosaicableComponents"が、新たに採用されている。
 新たな属性値"urn:MosaicableComponents"は、その属性値"urn:MosaicableComponents"が設定されている/@r7:serviceClass属性73が記述されたUSDに対応するビデオ(USDに情報が記述されているビデオ)を配信するサービス(チャンネル)が、モザイク画面を構成するのに適したサムネイルビデオ(を含むビデオ)を配信するサービスであることを表す。
 したがって、属性値"urn:MosaicableComponents"が設定された/@r7:serviceClass属性73は、ビデオがサムネイルビデオであることを表すサムネイルシグナリング情報として機能する(サムネイルシグナリング情報としての役割を果たす)。
 なお、図11のUSDでは、/@r7:serviceClass属性73の他、後述する/@thumbnailVideo属性も、サムネイルシグナリング情報として機能する。そのため、サムネイルシグナリング情報としての/@r7:serviceClass属性73は、省略することができる。
 /DeliveryMethod要素74は、図9のDelivery Method63に相当し、/@sessionDescriptionURI属性75を含む。
 /@sessionDescriptionURI属性75には、その/@sessionDescriptionURI属性75を含むUSDに情報が記述されているサービスが提供するコンテンツを受信するための、マルチキャストのIPアドレス及びポート番号が記述されたSDP121のURI(SDP121を参照するための情報)が設定される。
 記述80,90、及び、100は、それぞれ、/r12:appServiceDescription要素を、最上位(階層)の要素とする記述で、1つのモザイク画面MZを構成し得る、異なる複数のサービス(チャンネル)(放送局)それぞれが提供するコンテンツの情報である。
 したがって、USDは、1つのモザイク画面を構成し得る複数のコンテンツそれぞれについての/r12:appServiceDescription要素を含む。
 ここで、記述80,90、及び、100は、それぞれ、サービスch#1,ch#2、及び、ch#3が提供するコンテンツの情報であるとする。
 記述80は、/UserServiceDescription要素72に包含される/r12:appServiceDescription要素81を含む。/r12:appServiceDescription要素81は、サービスch#1が提供するコンテンツ(のセグメント)が、マルチキャスト配信(又はブロードキャスト配信)されるか、又は、ユニキャスト配信されるかを、クライアント13にシグナリングする情報である。
 /r12:appServiceDescription要素81は、/@mpdURI属性を含み、さらに、1以上の/broadcast要素、及び、1以上の/unicast要素のうちの一方、又は、両方を含む(包含する)。
 ここで、/@mpdURI属性には、その/@mpdURI属性を含む/r12:appServiceDescription要素が配信方法を表すコンテンツの再生制御を行うためのMPDのURIが設定される。
 /broadcast要素は、その/broadcast要素を含む/r12:appServiceDescription要素が配信方法を表すコンテンツのURLを表すbaseURL属性を含み、そのbaseURL属性でURLが表されるコンテンツが、マルチキャストで配信されることを表す。
 /unicast要素は、その/unicast要素を含む/r12:appServiceDescription要素が配信方法を表すコンテンツのURLを表すbaseURL属性を含み、そのbaseURL属性でURLが表されるコンテンツが、ユニキャストで配信されることを表す。
 図11では、記述80における/r12:appServiceDescription要素81は、/@mpdURI属性82を含み、さらに、1つの/broadcast要素83と、2つの/unicast要素86及び87とを含んでいる。
 /r12:appServiceDescription要素81が1つの/broadcast要素83と、2つの/unicast要素86及び87とを含んでいることにより、/r12:appServiceDescription要素81が配信方法を表すサービスch#1のコンテンツ(のストリーム)として、マルチキャスト配信されるストリームが1つ存在し、ユニキャストされるストリームが2つ存在することを認識することができる。
 /@mpdURI属性82には、サービスch#1が提供するコンテンツのMPD111のURIが設定される。
 /broadcast要素83は、サービスch#1が提供するコンテンツのあるストリーム131がマルチキャスト配信されることを表し、図11では、/@baseURL属性と、/@thumbnailVideo属性とを含んでいる。
 /broadcast要素83に含まれる/@baseURL属性には、/broadcast要素83がマルチキャスト配信されることを表すコンテンツのストリーム131のURL、すなわち、/broadcast要素83がマルチキャスト配信されることを表すサービスch#1のコンテンツのMPD111に記述されるストリーム131のAdaptasionSet/baseURL111Aが設定される。
 /broadcast要素83に含まれる/@thumbnailVideo属性は、boolean型の属性であり、/broadcast要素83がマルチキャスト配信されることを表すコンテンツのストリーム131が、サムネイルビデオ(のストリーム)であるかどうかを表すサムネイルシグナリング情報として機能する。
 図11では、ストリーム131は、サムネイルビデオTS#1のストリームになっている。
 /broadcast要素83は、さらに、/association要素84を含み、/association要素84は、/sessionDescription要素85を含む。
 /sessionDescription要素85は、/broadcast要素83がマルチキャスト配信されることを表すコンテンツのストリーム131がマルチキャスト配信されるIPアドレス及びポート番号が記述されたSDP121のURIを表す。すなわち、/sessionDescription要素85は、/@sessionDescriptionURI属性75が表すSDP121(のURI)と同一のSDP121を表す。
 /unicast要素86は、サービスch#1が提供するコンテンツの他のストリーム(例えば、メインビデオMS#1のストリーム)がユニキャスト配信されることを表し、/@baseURL属性を含む。
 /unicast要素86に含まれる/@baseURL属性には、/unicast要素86がユニキャスト配信されることを表すコンテンツの他のストリームのURL、すなわち、/unicast要素86がユニキャスト配信されることを表すコンテンツのMPD111に記述される他のストリームのAdaptasionSet/baseURL111Bが設定される。
 /unicast要素87は、サービスch#1が提供するコンテンツのさらに他のストリーム(例えば、オーディオのストリーム)がユニキャスト配信されることを表し、/@baseURL属性を含む。
 /unicast要素87に含まれる/@baseURL属性には、/unicast要素87がユニキャスト配信されることを表すコンテンツのさらに他のストリームのURL、すなわち、/unicast要素87がユニキャスト配信されることを表すコンテンツのMPD111に記述されるさらに他のストリームのAdaptasionSet/baseURL111Cが設定される。
 記述90及び100にも、それぞれ、サービスch#1及びch#2について、記述80と同様の情報が含まれる。
 ここで、図11において、/r12:appServiceDescription要素91ないし/unicast要素97は、/r12:appServiceDescription要素81ないし/unicast要素87とそれぞれ同様の情報である。
 また、MPD112及び113は、それぞれ、サービスch#2及びch#3が提供するコンテンツのMPDである。
 サービスch#2では(サービスch#1及びch#3でも同様)、サムネイルビデオTS#2(のストリーム)がマルチキャスト配信され、メインビデオMS#2、及び、オーディオ(のストリーム)がユニキャスト配信されることになっており、MPD112には、それらのAdaptasionSet/baseURL(及びsegmentURL)、すなわち、サムネイルビデオTS#2のAdaptasionSet/baseURL112A、メインビデオMS#2のAdaptasionSet/baseURL112B、及び、オーディオのAdaptasionSet/baseURL112Cが記述されている。
 さらに、図11において、サービスch#1が提供するサムネイルビデオTS#1、サービスch#2が提供するサムネイルビデオTS#2、及び、サービスch#3が提供するサムネイルビデオは、画サイズが、例えば、480×270(横×縦)画素等の同一で、例えば、1920×1080画素の表示画面に、例えば、4行4列に配置されるビデオになっている。
 また、サービスch#1が提供するサムネイルビデオTS#1のストリーム131、サービスch#2が提供するサムネイルビデオTS#2のストリーム131、及び、サービスch#3が提供するサムネイルビデオのストリーム131は、例えば、MBMSベアラ上の1つのFLUTEセッション上でまとめてマルチキャスト配信される。
 SDP121には、以上のように、サービスch#1が提供するサムネイルビデオTS#1のストリーム131、サービスch#2が提供するサムネイルビデオTS#2のストリーム131、及び、サービスch#3が提供するサムネイルビデオのストリーム131を、1つのFLUTEセッションでマルチキャスト配信するIPアドレス、及び、ポート番号が記述されている。
 クライアント13では、図11のUSDを受信することにより、サムネイルシグナリング情報としての属性値"urn:MosaicableComponents"が設定された/@r7:serviceClass属性73や、/@thumbnailVideo属性によって、サムネイルビデオが配信されることを認識することができる。
 さらに、クライアント13では、/@thumbnailVideo属性を含む/broadcast要素83等によって、マルチキャスト配信されるストリームが存在し、そのマルチキャスト配信されるストリームが、サムネイルビデオ(のストリーム)であることを認識することができる。
 そして、クライアント13では、/broadcast要素83/association要素84/sessionDescription要素85等が表すSDP121のURIによって、サムネイルビデオがマルチキャスト配信されるIPアドレス、及び、ポート番号が記述されたSDP121を受信し、そのSDP121に記述されたIPアドレス、及び、ポート番号に基づき、1つのFLUTEセッションでマルチキャスト配信されるサービスch#1が提供するサムネイルビデオTS#1のストリーム131、サービスch#2が提供するサムネイルビデオTS#2のストリーム131、及び、サービスch#3が提供するサムネイルビデオのストリーム131を受信することができる。
 したがって、クライアント13では、1つのモザイク画面MZを構成する、複数のサービスそれぞれが提供するコンテンツとしてのサービスch#1のサムネイルビデオTS#1、サービスch#2のサムネイルビデオTS#2、及び、サービスch#3のサムネイルビデオを受信し、それらのサムネイルビデオを用いて、モザイク画面MZを容易に生成することができる。
 なお、図11のUSDには、コンテンツがマルチキャスト配信(又はブロードキャスト配信)されるか、又は、ユニキャスト配信されるかを表す/r12:appServiceDescription要素(/r12:appServiceDescription要素81や91)が3つ記述されているが、1つのUSDに記述する/r12:appServiceDescription要素の数は、3つに限定されるものではない。
 すなわち、1つのUSDには、例えば、1つのモザイク画面MZを構成し得るサムネイルビデオを提供するサービスの数だけの/r12:appServiceDescription要素を記述することができる。
 1つのモザイク画面MZを構成し得るサムネイルビデオとしては、例えば、野球中継等の同一のジャンルのサムネイルビデオを採用することができる。但し、1つのモザイク画面MZを構成し得るサムネイルビデオは、同一のジャンルのサムネイルビデオに限定されるものではない。
 また、クライアント13では、サービスch#1のサムネイルビデオTS#1、サービスch#2のサムネイルビデオTS#2、及び、サービスch#3のサムネイルビデオが配置されたモザイク画面MZを見たユーザが、そのモザイク画面MZにおけるあるサムネイルビデオを選択した場合に、表示画面を、モザイク画面MZから、ユーザが選択したサムネイルビデオを提供するサービスによって提供されているメインビデオ(及びオーディオ)に切り替えるチャンネル選択を行うことができる。
 例えば、ユーザが、サービスch#1のサムネイルビデオTS#1を選択した場合、クライアント13では、サービスch#1についての/r12:appServiceDescription要素81(サービスch#1のサムネイルビデオTS#1がマルチキャスト配信されることを表す/broadcast要素83を含む/r12:appServiceDescription要素81)に含まれる/@mpdURI属性82に基づき、サービスch#1のコンテンツのMPD111を取得(受信、認識)することができる。
 また、クライアント13では、サービスch#1についての/r12:appServiceDescription要素81に含まれる/unicast要素86及び87に基づき、サービスch#1のメインビデオMS#1及びオーディオがユニキャスト配信されることを認識することができる。
 そして、クライアント13では、MPD111に基づき、サービスch#1のメインビデオMS#1及びオーディオを要求するHTTPリクエストを送信し、そのHTTPリクエストに応じてユニキャスト配信されるサービスch#1のメインビデオMS#1及びオーディオを受信して再生することができる。
 なお、サービスch#1のメインビデオMS#1及びオーディオは、ユニキャスト配信する他、サービスch#1のサムネイルビデオTS#1と同様に、マルチキャスト配信することができる。
 サービスch#1のメインビデオMS#1及びオーディオ(さらには、1つのモザイク画面MZを構成し得るサムネイルビデオを提供するサービスのメインビデオ及びオーディオ)は、サービスch#1のサムネイルビデオTS#1(さらには、1つのモザイク画面MZを構成し得る他のチャンネルのサムネイルビデオ)とともに、同一のFLUTEセッションでマルチキャスト配信することができる。
 この場合、クライアント13でのチャネル選択のパフォーマンスを格段に向上させること、すなわち、モザイク画面MZから、ユーザが選択したサムネイルビデオを提供するサービスのメインビデオ及びオーディオへの切り替えを、極めて迅速に行うことができる。
 <サムネイルメタデータとしてのMPD>
 図12は、サムネイルメタデータとしてのMPDの概要を示す図である。
 サムネイルメタデータとしてのMPDは、DASHのMPDと同様に構成される。
 すなわち、あるコンテンツCのMPDは、1つ以上のPeriodを有する。
 Periodは、コンテンツCを時間方向に区分した区間を表し、Periodには、そのPeriodが表す区間のstart時刻等が記述される。
 Periodは、必要な数のAdaptationSetを有する。AdaptationSetは、例えば、ビデオやオーディオ、字幕等のメディアごとに用意され、AdaptationSetには、言語やコーデックの情報等が記述される。
 AdaptationSetは、必要な数のRepresentationを有する。Representationは、例えば、ビットレート等ごとに用意され、Representationには、ビットレートや画サイズ等が記述される。
 Representationは、必要な数のSegmentInfoを有し、SegmentInfoには、セグメントの情報が記述される。
 図13は、XMLで記述されるサムネイルメタデータとしてのMPDを構成するXMLの要素、及び、属性の例を示す図である。
 MPDは、MPD(要素)、MPD/@profile(属性)、MPD/Period(要素)、及び、MPD/@minBufferTime(属性)を含む。
 MPD要素は、ルートの要素であり、/@profile属性、及び、/@minBufferTime属性を含む。
 /Period要素は、その/Period要素が記述されたMPDに対応するコンテンツ(MPDによって再生制御が行われるコンテンツ)を時間方向に区切った区間の情報であり、その区間内のセグメントをまとめるために用いられる。
 /@profile属性は、その/@profile属性が記述されたMPDが従う運用プロファイルを表し、/@minBufferTime属性は、その/@minBufferTime属性が記述されたMPDに対応するコンテンツの再生を開始するまでに必要な最小のバッファ時間(データのバッファ量)を表す。
 サムネイルメタデータとしてのMPDは、上述のMPD要素、/@profile属性、/Period要素、及び、/@minBufferTime属性の他、サムネイルシグナリング情報を含む。
 MPDに含まれるサムネイルシグナリング情報としては、例えば、そのMPDによって再生制御が行われるコンテンツがサムネイルビデオであることを表す情報が属性値として記述されたMPD/Period/AdaptationSet/ViewPoint/@schemeIdURI属性を採用することができる。
 なお、サムネイルメタデータとしては、以上のようなMPD要素、/@profile属性、/Period要素、/@minBufferTime属性、及び、サムネイルシグナリング情報を含むMPDに代えて、MPD要素、/@profile属性、/Period要素、/@minBufferTime属性のうちの1以上と同等の情報と、サムネイルシグナリング情報とを含む任意のメタデータを採用することができる。
 図14は、XMLで記述されるサムネイルメタデータとしてのMPDの例を示す図である。
 すなわち、図14は、ビデオサムネイルを含むコンテンツ(例えば、サービスch#1が提供するコンテンツとしてのサムネイルビデオTS#1、メインビデオMS#1、及び、オーディオ)のMPDの例を示している。
 図14のMPDでは、MPD要素をルートの要素として、そのMPD要素に属するPeriod要素、そのPeriod要素に属するAdaptationSet要素、及び、そのAdaptationSet要素に属するViewPoint要素が記述されている。
 図14において、記述141におけるAdaptationSet要素は、サムネイルビデオのAdaptationSet(要素)であり、width属性及びheight属性を含んでいる。
 記述141におけるwidth=’480’ height=’270’は、サムネイルの画サイズが、480×270画素であることを表す。
 画サイズその他の、サムネイルビデオの表示にかかわる情報は、記述141におけるAdaptationSet要素に属する属性、又は、AdaptationSet要素に含まれる要素として記述される。
 記述142におけるViewPoint要素は、schemeIdURI属性を含み、図14では、schemeIdURI属性に、属性値"urn:thumbnailVideo"が設定されている。
 属性値"urn:thumbnailVideo"は、その属性値"urn:thumbnailVideo"を含むMPD(MPD/Period/AdaptationSet/ViewPoint/@schemeIdURI)によって再生制御が行われるコンテンツがサムネイルビデオであることを表す新たなスキーム識別子である。
 属性値"urn:thumbnailVideo"が設定された、ViewPoint要素に属するschemeIdURI属性は、サムネイルシグナリング情報として機能する。
 なお、サムネイルビデオ(のストリーム)として、異なる複数のビットレートのストリームが用意されている場合には、記述141におけるAdaptationSet要素には、サムネイルビデオの複数のビットレートごとに、Representation要素を含めることができる。
 以上のようなMPDによれば、クライアント13では、サムネイルビデオ(のセグメント)を特定し、そのサムネイルビデオを取得して、サムネイルビデオで構成されるモザイク画面を、容易に生成することができる。
 <サムネイルメタデータとしてのOMA-ESG>
 図15は、サムネイルメタデータとしてのOMA-ESGのデータモデルの例を示す図である。
 図15のサムネイルメタデータのデータモデルは、OMA-ESGのデータモデルと同様に構成される。
 但し、サムネイルメタデータとしてのOMA-ESGでは、そのOMA-ESGに情報が記述されるサービスが提供するコンテンツのビデオがサムネイルビデオであることを表すサムネイルシグナリング情報が、Service151に含まれる。
 さらに、サムネイルメタデータとしてのOMA-ESGでは、Access152が、サムネイルビデオの情報が記述されたUSD(図11)への参照としての、例えば、USDのURIを含む。
 図16は、XMLで記述されるサムネイルメタデータとしてのOMA-ESGを構成するXMLの要素、及び、属性の例を示す図である。
 OMA-ESGは、Access(要素)、Access/@id(属性)、Access/@version(属性)、Access/AccessType(要素)、Access/AccessType/BroadcastServiceDelivery(要素)、Access/AccessType/BroadcastServiceDelivery/SessionDescription(要素)、Access/AccessType/UnicastServiceDelivery(要素)、Access/ServiceClass(要素)、及び、Access/AccessType/BroadcastServiceDelivery/SessionDescription/USBDRef(要素)を含む。
 Access要素は、図15のAccess152に相当し、サービスに関するサービス情報を参照する、サービスにアクセスするためのアクセス情報である。
 /@id属性は、アクセス情報(Access要素)を識別するアクセス情報識別子であり、/@version属性は、アクセス情報の記述内容のバージョンを表すバージョン情報である。
 /AccessType要素は、サービスが、放送型サービス、及び、双方向型サービスのうちのいずれであるかを表す情報であり、/BroadcastServiceDelivery要素は、サービスが、放送型サービスであることを表す情報である。
 /SessionDescription要素は、セッションディスクリプションを表す情報であり、UnicastServiceDelivery要素は、サービスが、双方向型サービスであることを表す情報である。
 /ServiceClass要素は、サービスのクラスを表す情報であり、/USBDRef要素は、サムネイルビデオの情報が記述されたUSD(図11)を参照するための、例えば、そのUSDのURIを含む情報である。
 サムネイルメタデータとしてのOMA-ESGは、上述のAccess要素、Access/@id属性、Access/@version属性、Access/AccessType要素、Access/AccessType/BroadcastServiceDelivery要素、Access/AccessType/BroadcastServiceDelivery/SessionDescription要素、Access/AccessType/UnicastServiceDelivery要素、Access/ServiceClass要素、及び、/USBDRef要素の他、サムネイルシグナリング情報を含む。
 OMA-ESGに含まれるサムネイルシグナリング情報としては、例えば、そのOMA-ESGに対応するサービス(そのOMA-ESGに情報が記述されるサービス)が提供するコンテンツがサムネイルビデオであることを表す情報が記述された/ServiceType要素を採用することができる。
 /ServiceType要素は、Service要素に含まれる情報である。Service要素は、図15のService151に相当し、サービスに関するサービス情報である。Service要素には、そのService要素(サービス情報)を識別するサービス識別子としてのglobalServiceID属性が属する(含まれる)。
 なお、サムネイルメタデータとしては、以上のようなAccess要素、Access/@id属性、Access/@version属性、Access/AccessType要素、Access/AccessType/BroadcastServiceDelivery要素、Access/AccessType/BroadcastServiceDelivery/SessionDescription要素、Access/AccessType/UnicastServiceDelivery要素、Access/ServiceClass要素、/USBDRef要素、及び、サムネイルシグナリング情報を含むOMA-ESGに代えて、Access要素、Access/@id属性、Access/@version属性、Access/AccessType要素、Access/AccessType/BroadcastServiceDelivery要素、Access/AccessType/BroadcastServiceDelivery/SessionDescription要素、Access/AccessType/UnicastServiceDelivery要素、Access/ServiceClass要素、及び、/USBDRef要素のうちの1以上と同等の情報と、サムネイルシグナリング情報とを含む任意のメタデータを採用することができる。
 図17は、XMLで記述されるサムネイルメタデータとしてのOMA-ESGの例を示す図である。
 図17のAは、サムネイルメタデータとしてのOMA-ESGのService要素の例を示しており、図17のBは、サムネイルメタデータとしてのOMA-ESGのAccess要素の例を示している。
 図17のAのService要素では、そのService要素が記述されたOMA-ESGに対応するサービスが提供するビデオがサムネイルビデオであることを表す値としての、例えば、12が、/ServiceType要素の新規の値として導入されている。
 そして、/ServiceType要素に、その新規の値としての12が設定されている。
 図17のAのService要素は、サービス識別子としてのService/globalServiceID属性を含み、そのglobalServiceID属性には、図17のAのService要素のサービス識別子としてのID(Identification)が設定されている。
 ここで、/ServiceType要素に、新規の値12が設定されている場合、その/ServiceType要素を含むService要素に情報が記述されるコンテンツには、少なくともモザイク画面を構成するのに適したサムネイルビデオが含まれる。
 図17のBのAccess要素では、/USBDRef要素に、その/USBDRef要素が記述されたOMA-ESGに対応するサービスが提供するサムネイルビデオの情報が記述されたUSD(のルートの要素であるbundleDescription要素(図11))への参照としての、例えば、そのUSDのURIを含む情報が記述されている。
 また、図17のBのAccess要素は、Access/ServiceReference要素を含み、その/ServiceReference要素は、Access/ServiceReference/@idRef属性を含んでいる。
 そして、/@idRef属性には、その/@idRef属性が記述されたAccess要素が参照すべきService要素のIDとして、図17のAのService要素のglobalServiceID属性に設定されている値が設定されている。
 図18は、図17のサムネイルメタデータとしてのOMA-ESGを説明する図である。
 クライアント13は、図17のサムネイルメタデータとしてのOMA-ESGを受信した場合、図17のBのAccess要素の/@idRef属性に基づき、図17のAのService要素を参照することができる。
 クライアント13は、図17のAのService要素の、新規の値12が記述されている/ServiceType要素を参照することで、そのService要素が記述されたOMA-ESGに対応するサービスが提供するビデオがサムネイルビデオであることを認識することができる。
 そして、クライアント13において、図17のAのService要素が記述されたOMA-ESGに対応するサービスが提供するサムネイルビデオが必要である場合には、図17のBのAccess要素の/USBDRef要素を参照することにより、その/USBDRef要素が記述されたOMA-ESGに対応するサービスが提供するサムネイルビデオの情報が記述されたUSD(のルートの要素であるbundleDescription要素(図11))への参照としてのURIを認識し、そのURIに基づき、サムネイルビデオの情報が記述されたUSD(図11)を取得(受信)することができる。
 その後、クライアント13では、図11のUSDを受信した場合と同様にして、サムネイルビデオを受信し、そのサムネイルビデオを用いて、モザイク画面を容易に生成することができる。
 なお、MPD,SDP、USD、及び、OMA-ESGの組み合わせを、サムネイルメタデータとして用いる場合には、OMA-ESGのService/ServiceType要素から、ビデオがサムネイルビデオであるかどうかを認識することができるので、USD(図11)の/@r7:serviceClass属性73は、省略することができる。
 <コンテンツの配信方法>
 図19は、サムネイルビデオを含むコンテンツの配信方法の第1の例を示す図である。
 なお、図19では、例えば、3つの放送局(サービス)のチャンネルch#1,ch#2、及び、ch#3のそれぞれにおいて、メインビデオ、オーディオ、及び、サムネイルビデオの3つのストリームが配信されることとする。
 また、チャンネルch#i(ここでは、i=1,2,3)で配信されるメインビデオ、オーディオ、及び、サムネイルビデオを、それぞれ、メインビデオMS#i、オーディオAS#i、及び、サムネイルビデオTM#iと表す。
 後述する図20及び図21、並びに、図27ないし図29でも同様である。
 図19では、メインビデオMS#1ないしMS#3、オーディオAS#1ないしAS#3、及び、サムネイルビデオTM#1ないしTM#3は、マルチキャスト配信(例えば、マルチキャストFLUTEセッションによるマルチキャスト配信)、及び、ユニキャスト配信(例えば、ユニキャストHTTPセッションによるユニキャスト配信)のいずれで配信することもできる。
 そして、メインビデオMS#1ないしMS#3、オーディオAS#1ないしAS#3、及び、サムネイルビデオTM#1ないしTM#3が、マルチキャスト配信される場合には、サムネイルビデオTM#1ないしTM#3は、1つのFLUTEセッションFS-Tでマルチキャスト配信される。
 また、メインビデオMS#1は、1つのFLUTEセッションFS-M#1で、メインビデオMS#2は、1つのFLUTEセッションFS-M#2で、メインビデオMS#3は、1つのFLUTEセッションFS-M#3で、それぞれマルチキャスト配信される。
 さらに、オーディオAS#1は、1つのFLUTEセッションFS-A#1で、オーディオAS#2は、1つのFLUTEセッションFS-A#2で、オーディオAS#3は、1つのFLUTEセッションFS-A#3で、それぞれマルチキャスト配信される。
 なお、チャンネルch#1のコンテンツのMPD#1には、メインビデオMS#1、オーディオAS#1、及び、サムネイルビデオTM#1のそれぞれのAdaptationSet(要素)が含まれる。さらに、MPD#1のサムネイルビデオTM#1のAdaptationSetには、そのAdaptationSet(のビデオ)がサムネイルビデオであることをシグナリングするサムネイルシグナリング情報としての、属性値"urn:thumbnailVideo"が設定された、ViewPoint/@schemeIdURI属性が含まれる。なお、属性値"urn:thumbnailVideo"等を設定する/@schemeIdURI属性が属する要素としては、ViewPoint要素の他、例えば、Role要素や、EssentialProperty要素、SupplementalProperty要素等のViewPoint要素と同様の構造の要素を採用することができる。
 チャンネルch#2及びch#3それぞれのコンテンツのMPDも、同様である。
 図20は、サムネイルビデオを含むコンテンツの配信方法の第2の例を示す図である。
 図20では、図19と同様に、メインビデオMS#1ないしMS#3、オーディオAS#1ないしAS#3、及び、サムネイルビデオTM#1ないしTM#3は、マルチキャスト配信、及び、ユニキャスト配信のいずれで配信することもできる。
 そして、メインビデオMS#1ないしMS#3、オーディオAS#1ないしAS#3、及び、サムネイルビデオTM#1ないしTM#3が、マルチキャスト配信される場合には、サムネイルビデオTM#1ないしTM#3は、図19と同様に、1つのFLUTEセッションFS-Tでマルチキャスト配信される。
 また、メインビデオMS#1、及び、オーディオAS#1は、1つのFLUTEセッションFS#1で、メインビデオMS#2、及び、オーディオAS#2は、1つのFLUTEセッションFS#2で、メインビデオMS#3、及び、オーディオAS#3は、1つのFLUTEセッションFS#3で、それぞれマルチキャスト配信される。
 なお、チャンネルch#1のコンテンツのMPD#1、チャンネルch#2のコンテンツのMPD、及び、チャンネルch#3のコンテンツのMPDは、図19の場合と同様に構成される。
 図21は、サムネイルビデオを含むコンテンツの配信方法の第3の例を示す図である。
 図21では、図19と同様に、メインビデオMS#1ないしMS#3、オーディオAS#1ないしAS#3、及び、サムネイルビデオTM#1ないしTM#3は、マルチキャスト配信、及び、ユニキャスト配信のいずれで配信することもできる。
 そして、メインビデオMS#1ないしMS#3、オーディオAS#1ないしAS#3、及び、サムネイルビデオTM#1ないしTM#3が、マルチキャスト配信される場合には、それらのメインビデオMS#1ないしMS#3、オーディオAS#1ないしAS#3、及び、サムネイルビデオTM#1ないしTM#3のすべてが、1つのFLUTEセッションFSでマルチキャスト配信される。
 なお、チャンネルch#1のコンテンツのMPD#1、チャンネルch#2のコンテンツのMPD、及び、チャンネルch#3のコンテンツのMPDは、図19の場合と同様に構成される。
 <モザイク画面の表示例>
 図22は、クライアント13でのモザイク画面の表示例を示す図である。
 クライアント13では、上述したように、サムネイルメタデータとしてのMPD,SDP、及び、USDの組み合わせや、それらに、OMA-ESGを加えた組み合わせに基づき、サムネイルビデオを受信し、そのサムネイルビデオを格子状等に配置したモザイク画面を表示することができる。
 図22のAは、16個のサムネイルビデオを、4行4列に配置したモザイク画面の例を示しており、図22のBは、4個のサムネイルビデオを、2行2列に配置したモザイク画面の例を示している。
 いま、クライアント13において、16個のサムネイルビデオを受信した場合、各サムネイルビデオの画サイズが、例えば、480×270画素であり、クライアント13の表示画面のサイズが、例えば、1920×1080画素(以上)であるときには、図22のAに示したように、クライアント13で受信した16個のサムネイルビデオすべてを4行4列に配置したモザイク画面を表示することができる。
 しかしながら、クライアント13の表示画面のサイズが、1920×1080画素より小さい、例えば、960×540画素である場合には、クライアント13において、16個のサムネイルビデオを受信しても、モザイク画面として表示するサムネイルビデオの数は、図22のBに示したように、4個に制限される。
 以上のように、クライアント13の表示画面のサイズが小さく、モザイク画面として表示するサムネイルビデオの数が、クライアント13が受信したサムネイルビデオの数よりも少ない数に制限される場合には、例えば、クライアント13の表示画面のサイズに応じて、サムネイルビデオの画サイズを小さい画サイズに加工することにより、クライアント13が受信したサムネイルビデオのすべてを、モザイク画面に表示することができる。
 すなわち、480×270画素のサムネイルビデオを、240×135画素のサムネイルビデオに加工することにより、960×540画素の表示画面に、16個のサムネイルビデオのすべてを、モザイク画面として表示することができる。
 しかしながら、この場合、クライアント13において、サムネイルビデオの画サイズを加工する必要があり、クライアント13の処理負担が大になる。さらに、サムネイルビデオの画サイズを小さい画サイズに加工して、モザイク画面を構成(生成)する場合には、各サムネイルビデオが見にくくなることがある。
 ところで、上述のように、モザイク画面として表示するサムネイルビデオの数が制限される場合は勿論、制限されない場合であっても、モザイク画面を構成するサムネイルビデオ(モザイク画面として表示するサムネイルビデオ)を、ユーザの嗜好や、何らかの優先度等に基づいて、モザイク画面を構成するサムネイルビデオを選択(フィルタリング)することができれば、ユーザにとって適切(最適)なモザイク画面を提供することができる。
 そこで、本技術では、コンテンツ(サムネイルビデオ)の内容を記述する属性であるコンテンツディスクリプションメタデータを導入し、クライアント13において、コンテンツディスクリプションメタデータを用いて、モザイク画面を構成するサムネイルビデオを選択することで、ユーザにとって適切なモザイク画面を提供する。
 <コンテンツディスクリプションメタデータを導入したMPDの第1の例>
 図23は、コンテンツディスクリプションメタデータを導入したサムネイルメタデータとしてのMPDの第1の例を示す図である。
 図23のMPDは、図14の記述142に代えて、記述201が設けられている他は、図14のMPDと同様に構成される。
 記述201におけるViewPoint要素は、図14の記述142と同様に、schemeIdURI属性を含み、図23では、schemeIdURI属性に、属性値"urn:thumbnailVideo:dic"が設定されている。
 属性値"urn:thumbnailVideo:dic"のうちの、コロン(:)の手前側の記述"urn:thumbnailVideo"は、図14で説明したように、コンテンツがサムネイルビデオであることを表す新たなスキーム識別子であり、このスキーム識別子"urn:thumbnailVideo"によれば、クライアント13は、コンテンツ(のビデオ)がサムネイルビデオであることを認識することができる。
 属性値"urn:thumbnailVideo:dic"のうちの、コロンに続く記述"dic"は、後述するvalue属性の構成要素を定義する辞書を指定する情報(辞書定義)である。
 記述201におけるViewPoint要素は、以上のようなschemeIdURI属性の他、新たな属性であるvalue属性を含む。
 value属性は、そのvalue属性を含むMPD(MPD/Period/AdaptationSet/ViewPoint)によって再生制御が行われるコンテンツの内容を記述するコンテンツディスクリプションメタデータであり、value属性には、コンテンツの内容を表す項目が、属性値として設定される。
 図23では、value属性には、属性値"X, Y, Z, …"が記述されている。
 value属性には、属性値として、1以上の項目を記述することができ、value属性に、複数の項目を、属性値として設定される場合には、複数の項目X, Y, Z, …は、例えば、図23に示したように、コンマ(,)で区切って記述される。
 value属性に設定された属性値を構成する構成要素である項目は、上述したように、属性値"urn:thumbnailVideo:dic"のコロンに続く記述"dic"によって指定される辞書で定義される。
 したがって、クライアント13では、属性値"urn:thumbnailVideo:dic"のコロンに続く記述"dic"によって指定される辞書に基づき、value属性に設定された属性値の各項目の定義(意味内容)を認識することができる。
 例えば、いま、属性値"urn:thumbnailVideo:dic"のコロンに続く記述"dic"によって指定される辞書において、value属性に設定される属性値の1個目、2個目、及び、3個目の項目が、それぞれ、ジャンルを表すジャンル識別情報、国を表す国識別情報、及び、地域を表す地域識別情報であることが定義されていることとする。
 この場合、例えば、コンテンツ(のサムネイルビデオ)のジャンルが、野球の試合を中継する"baseball(野球中継)"であり、野球の試合が開催されている開催国が"US(アメリカ)"であり、野球の試合が開催されている開催地域が"CA(カリフォルニア)"であるとき、集約サーバ12(のメタデータジェネレータ32(図3))では、value属性に、属性値“baseball, US, CA"が設定される(エンコードされる)。
 クライアント13では、属性値"urn:thumbnailVideo:dic"のコロンに続く記述"dic"によって指定される辞書に基づき、value属性に設定されている属性値“baseball, US, CA"から、コンテンツのジャンルが、野球中継であり、野球の試合は、アメリカのカリフォルニアで開催されていることを認識することができる。
 図24は、1つのFLUTEセッションでマルチキャスト配信される複数のサムネイルビデオ(のストリーム)の例を模式的に示す図である。
 例えば、1つのFLUTEセッションで、画サイズが480×270画素で同一の16個のサムネイルビデオがマルチキャスト配信されており、その16個のサムネイルビデオの(AdaptationSetが記述された)MPDでは、サムネイルビデオのAdaptationSet要素に含まれるViewPoint要素に属する属性schemeIdURI属性に、図23と同様の属性値"urn:thumbnailVideo:dic"が設定されていることとする。
 さらに、各サムネイルビデオについて、value属性に、図24に示す属性値が設定されていることとする。
 この場合、クライアント13の表示画面のサイズが、例えば、1920×1080画素(以上)であるときには、クライアント13では、図22のAに示したように、1つのFLUTEセッションで配信されてくる、画サイズが480×270画素の16個のサムネイルビデオすべてを、4行4列に配置したモザイク画面が表示される。
 一方、クライアント13の表示画面のサイズが、1920×1080画素より小さい、例えば、960×540画素であるときには、クライアント13において、モザイク画面として表示するサムネイルビデオの数は、図22のBに示したように、16個のサムネイルビデオのうちの、2行2列の4個に制限される。
 したがって、この場合、16個のサムネイルビデオの中から、モザイク画面に表示する4個のサムネイルビデオを選択する必要がある。
 そこで、クライアント13は、サムネイルビデオについてのvalue属性(に設定された属性値)を用いて、モザイク画面に表示する(モザイク画面を構成する)4個のサムネイルビデオを選択するフィルタリング(以下、サムネイルフィルタリングともいう)を行う。
 サムネイルフィルタリングは、例えば、クライアント13のユーザの嗜好を表す嗜好情報等に基づいて行うことができる。
 すなわち、例えば、ユーザが、アメリカ(US)のカリフォルニア(CA)で開催される中継を視聴する頻度が高い場合や、ユーザがいる場所(クライアント13の位置)が、アメリカのカリフォルニアである場合等には、サムネイルフィルタリングでは、16個のサムネイルビデオの中から、value属性に設定されている属性値のうちの国識別情報がアメリカを表す"US"で、地域識別情報がカリフォルニアを表す"CA"になっているサムネイルビデオが、モザイク画面に表示するサムネイルビデオとして選択される。
 なお、サムネイルフィルタリングで選択されたサムネイルビデオの数が、モザイク画面に表示することができるサムネイルビデオの数よりも多い場合には、クライアント13では、例えば、サムネイルフィルタリングで選択されたサムネイルビデオの中から、モザイク画面に表示することができる数のサムネイルビデオを、例えば、ランダムに選択することができる。又は、クライアント13の表示画面よりも大きいサイズのモザイク画面を生成し、そのモザイク画面を、ユーザの操作等に応じてスクロールさせることができる。
 以上のように、サムネイルビデオをクライアント13でサムネイルフィルタリングするための動的に変更可能な指標としてのvalue属性をMPDに付加することにより、クライアント13のデバイスレンダリング環境の制約としての表示画面のサイズに合わせた効率的なモザイク画面によるサービスセレクションプロセス(チャンネル選択)を実現することができる。
 <コンテンツディスクリプションメタデータを導入したMPDの第2の例>
 図25は、コンテンツディスクリプションメタデータを導入したサムネイルメタデータとしてのMPDの第2の例を示す図である。
 図25のMPDは、図23の記述201に代えて、記述211及び212が設けられている他は、図23のMPDと同様に構成される。
 記述211及び212におけるViewPoint要素は、図23の記述201におけるViewPoint要素と同様に、schemeIdURI属性、及び、コンテンツディスクリプションメタデータとしてのvalue属性を含んでいる。
 記述211では、schemeIdURI属性に、属性値"urn:thumbnailVideo:dic"が設定されており、記述212では、schemeIdURI属性に、属性値"urn:thumbnailVideo:JapaneseParameters"が設定されている。
 図23で説明したように、ViewPoint要素に属するschemeIdURI属性に設定される属性値"urn:thumbnailVideo:dic"や、"urn:thumbnailVideo:JapaneseParameters"のうちの、コロンの手前側の記述"urn:thumbnailVideo"は、コンテンツがサムネイルビデオであることを表すスキーム識別子であり、このスキーム識別子"urn:thumbnailVideo"によれば、クライアント13は、コンテンツ(のビデオ)がサムネイルビデオであることを認識することができる。
 さらに、図23で説明したように、属性値"urn:thumbnailVideo:dic"や、"urn:thumbnailVideo:JapaneseParameters"のうちの、コロンに続く記述"dic"や、"JapaneseParameters"は、value属性の構成要素を定義する辞書を指定する情報(辞書定義)である。
 いま、記述"dic"、及び、"JapaneseParameters"によって指定される辞書において、例えば、value属性に設定される属性値の1個目、2個目、及び、3個目の項目が、それぞれ、ジャンルを表すジャンル識別情報、国を表す国識別情報、及び、地域を表す地域識別情報であることが定義されていることとする。
 但し、記述"dic"によって指定される辞書(以下、"dic"辞書ともいう)では、ジャンル識別情報、国識別情報、及び、地域識別情報の言語が、例えば、英語であることが規定(定義)され、記述"JapaneseParameters"によって指定される辞書(以下、"JapaneseParameters"辞書ともいう)では、ジャンル識別情報、国識別情報、及び、地域識別情報の言語が、英語と異なる言語である、例えば、日本語であることが規定されている。
 このため、"dic"辞書が指定されている記述211では、value属性に、ジャンル識別情報、国識別情報、及び、地域識別情報としての属性値が、"baseball, US, CA"のように、英語で記述されている。
 一方、"JapaneseParameters"辞書が指定されている記述212では、value属性に、ジャンル識別情報、国識別情報、及び、地域識別情報としての属性値が、"野球,アメリカ合衆国,カリフォルニア"のように、日本語で記述されている。
 以上のように、MPD(のAdaptationSet要素の中)には、複数のViewPoint要素を配置し、異なる言語によって、value属性(に設定される属性値)を記述することができる。
 <コンテンツディスクリプションメタデータを導入したMPDの第3の例>
 図26は、コンテンツディスクリプションメタデータを導入したサムネイルメタデータとしてのMPDの第3の例を示す図である。
 図26のMPDは、図23の記述201に代えて、記述221が設けられている他は、図23のMPDと同様に構成される。
 記述221におけるViewPoint要素は、図23の記述201におけるViewPoint要素と同様に、schemeIdURI属性、及び、コンテンツディスクリプションメタデータとしてのvalue属性を含んでいる。
 記述211では、schemeIdURI属性に、属性値"http://baseballAuthority.com/thumbnailVideoGenre"が設定されている。
 属性値"http://baseballAuthority.com/thumbnailVideoGenre"は、コンテンツがサムネイルビデオであることを表すスキーム識別子と、value属性の構成要素を定義する辞書を指定する情報(辞書定義)との両方の役割を果たす。
 したがって、クライアント13は、属性値"http://baseballAuthority.com/thumbnailVideoGenre"によって、コンテンツ(のビデオ)がサムネイルビデオであることを認識することができる。
 さらに、属性値"http://baseballAuthority.com/thumbnailVideoGenre"は、httpのURLであり、このhttpのURLは、value属性の構成要素(項目)を定義する辞書のアドレスを表す。
 以上のように、httpのURLによって、value属性の構成要素を定義する辞書を指定する場合には、value属性の構成要素を定義する辞書を、インターネット等のネットワーク上の(web)サーバに配置することや、(クライアント13が双方向ベアラを利用することができないケースに備えて、)サムネイルビデオを配信するのと同一のFLUTEセッションで配信することができる。
 この場合、value属性の構成要素を定義する辞書を容易に変更することができ、したがって、その辞書によるvalue属性の構成要素の定義の変更(追加、削除を含む)を、柔軟かつ容易に行うことができる。
 <コンテンツの配信方法>
 図27、図28、及び、図29は、MPDに、コンテンツディスクリプションメタデータとしてのvalue属性を導入した場合の、サムネイルビデオを含むコンテンツの配信方法の例を示す図である。
 すなわち、図27は、サムネイルビデオを含むコンテンツの配信方法の第4の例を、図28は、サムネイルビデオを含むコンテンツの配信方法の第5の例を、図29は、サムネイルビデオを含むコンテンツの配信方法の第6の例を、それぞれ示す図である。
 図27ないし図29では、図19ないし図21の場合とそれぞれ同様に、3つの放送局(サービス)のチャンネルch#1ないしch#3のメインビデオMS#1ないしMS#3、オーディオAS#1ないしAS#3、及び、サムネイルビデオTM#1ないしTM#3が配信される。
 また、図27ないし図29では、図19ないし図21の場合と同様に、チャンネルch#1のコンテンツのMPD#1には、メインビデオMS#1、オーディオAS#1、及び、サムネイルビデオTM#1のそれぞれのAdaptationSet(要素)が含まれ、MPD#1のサムネイルビデオTM#1のAdaptationSetには、そのAdaptationSet(のビデオ)がサムネイルビデオであることをシグナリングするサムネイルシグナリング情報としての、例えば、属性値"urn:thumbnailVideo"が設定された、ViewPoint/@schemeIdURI属性が含まれる。
 さらに、図27ないし図29では、MPD#1のサムネイルビデオTM#1のAdaptationSetに、コンテンツディスクリプションメタデータとしてのvalue属性(、及び、value属性の構成要素を定義する辞書を指定する情報)が含まれ、この点が、図19ないし図21の場合と異なる。
 以上のように、図27ないし図29は、MPD#1(チャンネルch#2及びch#3それぞれのコンテンツのMPDも同様)のサムネイルビデオTM#1のAdaptationSetに、コンテンツディスクリプションメタデータとしてのvalue属性が含まれる点以外は、図19ないし図21とそれぞれ同様であるため、その説明は省略する。
 <クライアント13でのモザイク画面の表示>
 図30は、クライアント13でのモザイク画面の表示の処理の例を説明するフローチャートである。
 ステップS101において、ミドルウェア41(図4)は、USDを受信することにより、又は、OMA-ESGを受信し、そのOMA-ESGに基づいて、USDを受信することにより、サムネイルビデオのUSDを収集して、処理は、ステップS102に進む。
 ステップS102では、ミドルウェア41が、サムネイルビデオのUSDに基づいて、サムネイルビデオのMPDを受信し、DASHクライアント42(図4)に供給して(渡して)、処理は、ステップS103に進む。
 ステップS103では、DASHクライアント42は、ミドルウェア41からのサムネイルビデオのMPDに基づき、そのサムネイルビデオ(のセグメント)を要求するHTTPリクエストを、ミドルウェア41に発して、処理は、ステップS104に進む。
 ステップS104では、ミドルウェア41は、DASHクライアント42によるHTTPリクエストによって要求されたサムネイルビデオがマルチキャスト配信されているかどうかを、USDやOMA-ESGに基づいて判定する。
 ステップS104において、サムネイルビデオがマルチキャスト配信されていると判定された場合、処理は、ステップS105に進み、ミドルウェア41は、マルチキャスト配信されてくるサムネイルビデオを受信して、DASHクライアント42に供給し、処理は、ステップS107に進む。
 一方、ステップS104において、サムネイルビデオがマルチキャスト配信されていないと判定された場合、処理は、ステップS106に進み、ミドルウェア41は、DASHクライアント42からのHTTPリクエストを、ネットワーク10上に発する。さらに、ミドルウェア41は、そのHTTPリクエストに応じて、チャンネルサーバ11(又は集約サーバ12)からユニキャスト配信されてくるサムネイルビデオを受信して、DASHクライアント42に供給し、処理は、ステップS107に進む。
 ステップS107では、受信部40(図4)は、サムネイルフィルタリングがオンになっているかどうかを判定する。
 ここで、サムネイルフィルタリングのオン及びオフ、すなわち、サムネイルフィルタリングを行うか、行わないかは、例えば、クライアント13を操作することにより設定することができる。
 ステップS107において、サムネイルフィルタリングがオンになっていると判定された場合、処理は、ステップS108に進み、DASHクライアント42は、ミドルウェア41から供給されたサムネイルビデオを対象として、そのサムネイルビデオのMPDに記述されたコンテンツディスクリプションメタデータとしてのvalue属性を用いて、サムネイルフィルタリングを行い、ミドルウェア41から供給されたサムネイルビデオの中から、モザイク画面を構成するサムネイルビデオを選択して、再生部43(図4)に供給する。
 ここで、サムネイルフィルタリングで選択されたサムネイルビデオの数が、モザイク画面に表示することができるサムネイルビデオの数よりも多い場合には、クライアント13では、例えば、サムネイルフィルタリングで選択されたサムネイルビデオの中から、モザイク画面に表示することができる数(以下)のサムネイルビデオを、例えば、ランダムに選択することができる。
 一方、ステップS107において、サムネイルフィルタリングがオンになっていないと判定された場合、処理は、ステップS109に進み、DASHクライアント42は、ミドルウェア41から供給されたサムネイルビデオの中から、モザイク画面に表示することができる数のサムネイルビデオを、例えば、ランダムに選択し、再生部43に供給する。
 ステップS108及びS109の後、処理は、ステップS110に進み、再生部43は、DASHクライアント42からのサムネイルビデオを並べたモザイク画面を構成して表示し、モザイク画面の表示の処理は終了する。
 <本技術を適用したコンピュータの説明>
 次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
 そこで、図31は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
 プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク405やROM403に予め記録しておくことができる。
 あるいはまた、プログラムは、リムーバブル記録媒体411に格納(記録)しておくことができる。このようなリムーバブル記録媒体411は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体411としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
 なお、プログラムは、上述したようなリムーバブル記録媒体411からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク405にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
 コンピュータは、CPU(Central Processing Unit)402を内蔵しており、CPU402には、バス401を介して、入出力インタフェース410が接続されている。
 CPU402は、入出力インタフェース410を介して、ユーザによって、入力部407が操作等されることにより指令が供給されると、それに従って、ROM(Read Only Memory)403に格納されているプログラムを実行する。あるいは、CPU402は、ハードディスク405に格納されたプログラムを、RAM(Random Access Memory)404にロードして実行する。
 これにより、CPU402は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU402は、その処理結果を、必要に応じて、例えば、入出力インタフェース410を介して、出力部406から出力、あるいは、通信部408から送信、さらには、ハードディスク405に記録等させる。
 なお、入力部407は、キーボードや、マウス、マイク等で構成される。また、出力部406は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
 また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
 さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本技術は、DASH以外のコンテンツの配信に適用することができる。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 なお、本技術は、以下のような構成をとることができる。
 <1>
  属性と属性値とを用いて記述されるメタデータであり、
  ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、
  コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性と
 を含むコンテンツのメタデータを配信する配信部を備える
 送信装置。
 <2>
 前記メタデータは、ルート要素、前記メタデータが従う運用プロファイルを表す前記属性、前記コンテンツを時間方向に区切ったセグメントの情報のうちの1以上をさらに含む
 <1>に記載の送信装置。
 <3>
 前記メタデータは、MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)のMPD(Media Presentation Description)であり、
  前記ルート要素であるMPD要素と、
  前記MPDが従う運用プロファイルを表す前記属性であるMPD/@profile属性と、
  前記コンテンツを時間方向に区切ったセグメントの情報であるMPD/Period要素と
  前記コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性であるMPD/@minBufferTime属性と
 を含む
 <2>に記載の送信装置。
 <4>
 前記MPDは、そのMPDによって再生制御が行われるコンテンツが前記サムネイルビデオであることを表す情報が属性値として記述されたMPD/Period/AdaptationSet/ViewPoint/@schemeIdURI属性、MPD/Period/AdaptationSet/Role/@schemeIdURI属性、MPD/Period/AdaptationSet/EssentialProperty/@schemeIdURI属性、又は、MPD/Period/AdaptationSet/SupplementalProperty/@schemeIdURI属性を、前記シグナリング情報として含む
 <3>に記載の送信装置。
 <5>
 前記メタデータは、前記コンテンツの内容を記述する前記属性であるコンテンツディスクリプションメタデータをさらに含む
 <1>に記載の送信装置。
 <6>
 前記メタデータは、前記コンテンツディスクリプションメタデータの構成要素を定義する辞書の指定をさらに含む
 <5>に記載の送信装置。
 <7>
 前記コンテンツディスクリプションメタデータは、前記モザイク画面の構成に用いるサムネイルビデオを選択するフィルタリングに用いられる
 <5>又は<6>に記載の送信装置。
 <8>
 前記メタデータは、MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)のMPD(Media Presentation Description)であり、
 前記コンテンツディスクリプションメタデータは、MPD/Period/AdaptationSet/ViewPoint要素の属性である
 <5>ないし<7>のいずれかに記載の送信装置。
 <9>
  属性と属性値とを用いて記述されるメタデータであり、
  ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、
  コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性と
 を含むコンテンツのメタデータを配信する
 ステップを含む送信方法。
 <10>
  属性と属性値とを用いて記述されるメタデータであり、
  ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、
  コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性と
 を含むコンテンツのメタデータを受信する受信部を備える
 受信装置。
 <11>
 前記メタデータは、ルート要素、前記メタデータが従う運用プロファイルを表す前記属性、前記コンテンツを時間方向に区切ったセグメントの情報のうちの1以上をさらに含む
 <10>に記載の受信装置。
 <12>
 前記メタデータは、MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)のMPD(Media Presentation Description)であり、
  前記ルート要素であるMPD要素と、
  前記MPDが従う運用プロファイルを表す前記属性であるMPD/@profile属性と、
  前記コンテンツを時間方向に区切ったセグメントの情報であるMPD/Period要素と
  前記コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性であるMPD/@minBufferTime属性と
 を含む
 <11>に記載の受信装置。
 <13>
 前記MPDは、そのMPDによって再生制御が行われるコンテンツが前記サムネイルビデオであることを表す情報が属性値として記述されたMPD/Period/AdaptationSet/ViewPoint/@schemeIdURI属性、MPD/Period/AdaptationSet/Role/@schemeIdURI属性、MPD/Period/AdaptationSet/EssentialProperty/@schemeIdURI属性、又は、MPD/Period/AdaptationSet/SupplementalProperty/@schemeIdURI属性を、前記シグナリング情報として含む
 <12>に記載の受信装置。
 <14>
 前記メタデータは、前記コンテンツの内容を記述する前記属性であるコンテンツディスクリプションメタデータをさらに含む
 <10>に記載の受信装置。
 <15>
 前記メタデータは、前記コンテンツディスクリプションメタデータの構成要素を定義する辞書の指定をさらに含む
 <14>に記載の受信装置。
 <16>
 前記コンテンツディスクリプションメタデータは、前記モザイク画面の構成に用いるサムネイルビデオを選択するフィルタリングに用いられる
 <14>又は<15>に記載の受信装置。
 <17>
 前記メタデータは、MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)のMPD(Media Presentation Description)であり、
 前記コンテンツディスクリプションメタデータは、MPD/Period/AdaptationSet/ViewPoint要素の属性である
 <14>ないし<16>のいずれかに記載の受信装置。
 <18>
  属性と属性値とを用いて記述されるメタデータであり、
  ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、
  コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性と
 を含むコンテンツのメタデータを受信する
 ステップを含む受信方法。
 11 チャンネルサーバ, 12 集約サーバ, 13 クライアント, 14 NTPサーバ, 21 コンテンツマネジメントサーバ, 22 セグメントストリーマ, 23 MPDサーバ, 31 ストリームアグリゲータ, 32 メタデータジェネレータ, 33 FLUTEストリーマ, 34 マルチキャストサーバ, 35 webサーバ, 410 受信部, 41 ミドルウェア, 42 DASHクライアント, 43 再生部, 401 バス, 402 CPU, 403 ROM, 404 RAM, 405 ハードディスク, 406 出力部, 407 入力部, 408 通信部, 409 ドライブ, 140 入出力インタフェース, 411 リムーバブル記録媒体

Claims (18)

  1.   属性と属性値とを用いて記述されるメタデータであり、
      ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、
      コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性と
     を含むコンテンツのメタデータを配信する配信部を備える
     送信装置。
  2.  前記メタデータは、ルート要素、前記メタデータが従う運用プロファイルを表す前記属性、前記コンテンツを時間方向に区切ったセグメントの情報のうちの1以上をさらに含む
     請求項1に記載の送信装置。
  3.  前記メタデータは、MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)のMPD(Media Presentation Description)であり、
      前記ルート要素であるMPD要素と、
      前記MPDが従う運用プロファイルを表す前記属性であるMPD/@profile属性と、
      前記コンテンツを時間方向に区切ったセグメントの情報であるMPD/Period要素と
      前記コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性であるMPD/@minBufferTime属性と
     を含む
     請求項2に記載の送信装置。
  4.  前記MPDは、そのMPDによって再生制御が行われるコンテンツが前記サムネイルビデオであることを表す情報が属性値として記述されたMPD/Period/AdaptationSet/ViewPoint/@schemeIdURI属性、MPD/Period/AdaptationSet/Role/@schemeIdURI属性、MPD/Period/AdaptationSet/EssentialProperty/@schemeIdURI属性、又は、MPD/Period/AdaptationSet/SupplementalProperty/@schemeIdURI属性を、前記シグナリング情報として含む
     請求項3に記載の送信装置。
  5.  前記メタデータは、前記コンテンツの内容を記述する前記属性であるコンテンツディスクリプションメタデータをさらに含む
     請求項1に記載の送信装置。
  6.  前記メタデータは、前記コンテンツディスクリプションメタデータの構成要素を定義する辞書の指定をさらに含む
     請求項5に記載の送信装置。
  7.  前記コンテンツディスクリプションメタデータは、前記モザイク画面の構成に用いるサムネイルビデオを選択するフィルタリングに用いられる
     請求項6に記載の送信装置。
  8.  前記メタデータは、MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)のMPD(Media Presentation Description)であり、
     前記コンテンツディスクリプションメタデータは、MPD/Period/AdaptationSet/ViewPoint要素の属性である
     請求項7に記載の送信装置。
  9.   属性と属性値とを用いて記述されるメタデータであり、
      ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、
      コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性と
     を含むコンテンツのメタデータを配信する
     ステップを含む送信方法。
  10.   属性と属性値とを用いて記述されるメタデータであり、
      ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、
      コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性と
     を含むコンテンツのメタデータを受信する受信部を備える
     受信装置。
  11.  前記メタデータは、ルート要素、前記メタデータが従う運用プロファイルを表す前記属性、前記コンテンツを時間方向に区切ったセグメントの情報のうちの1以上をさらに含む
     請求項10に記載の受信装置。
  12.  前記メタデータは、MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)のMPD(Media Presentation Description)であり、
      前記ルート要素であるMPD要素と、
      前記MPDが従う運用プロファイルを表す前記属性であるMPD/@profile属性と、
      前記コンテンツを時間方向に区切ったセグメントの情報であるMPD/Period要素と
      前記コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性であるMPD/@minBufferTime属性と
     を含む
     請求項11に記載の受信装置。
  13.  前記MPDは、そのMPDによって再生制御が行われるコンテンツが前記サムネイルビデオであることを表す情報が属性値として記述されたMPD/Period/AdaptationSet/ViewPoint/@schemeIdURI属性、MPD/Period/AdaptationSet/Role/@schemeIdURI属性、MPD/Period/AdaptationSet/EssentialProperty/@schemeIdURI属性、又は、MPD/Period/AdaptationSet/SupplementalProperty/@schemeIdURI属性を、前記シグナリング情報として含む
     請求項12に記載の受信装置。
  14.  前記メタデータは、前記コンテンツの内容を記述する前記属性であるコンテンツディスクリプションメタデータをさらに含む
     請求項10に記載の受信装置。
  15.  前記メタデータは、前記コンテンツディスクリプションメタデータの構成要素を定義する辞書の指定をさらに含む
     請求項14に記載の受信装置。
  16.  前記コンテンツディスクリプションメタデータは、前記モザイク画面の構成に用いるサムネイルビデオを選択するフィルタリングに用いられる
     請求項15に記載の受信装置。
  17.  前記メタデータは、MPEG-DASH(Moving Picture Experts Group-Dynamic Adaptive Streaming over HTTP)のMPD(Media Presentation Description)であり、
     前記コンテンツディスクリプションメタデータは、MPD/Period/AdaptationSet/ViewPoint要素の属性である
     請求項16に記載の受信装置。
  18.   属性と属性値とを用いて記述されるメタデータであり、
      ビデオが、モザイク画面を構成するのに適したサムネイルビデオであることを表すシグナリング情報と、
      コンテンツの再生を開始するまでに必要な最小のバッファ時間を表す前記属性と
     を含むコンテンツのメタデータを受信する
     ステップを含む受信方法。
PCT/JP2014/073353 2013-10-30 2014-09-04 送信装置、送信方法、受信装置、及び、受信方法 WO2015064212A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020167010410A KR20160077067A (ko) 2013-10-30 2014-09-04 송신 장치, 송신 방법, 수신 장치, 및 수신 방법
US15/030,543 US10110972B2 (en) 2013-10-30 2014-09-04 Transmitting device, transmitting method, receiving device, and receiving method
JP2015544851A JPWO2015064212A1 (ja) 2013-10-30 2014-09-04 送信装置、送信方法、受信装置、及び、受信方法
MX2016005250A MX364963B (es) 2013-10-30 2014-09-04 Dispositivo de transmision, metodo de transmision, dispositivo de recepcion, y metodo de recepcion.
EP14858180.4A EP3065408A4 (en) 2013-10-30 2014-09-04 Transmission device, transmission method, reception device, and reception method
CN201480058434.5A CN105706453B (zh) 2013-10-30 2014-09-04 发送装置、发送方法、接收装置和接收方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013224902 2013-10-30
JP2013-224902 2013-10-30

Publications (1)

Publication Number Publication Date
WO2015064212A1 true WO2015064212A1 (ja) 2015-05-07

Family

ID=53003825

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/073353 WO2015064212A1 (ja) 2013-10-30 2014-09-04 送信装置、送信方法、受信装置、及び、受信方法

Country Status (7)

Country Link
US (1) US10110972B2 (ja)
EP (1) EP3065408A4 (ja)
JP (1) JPWO2015064212A1 (ja)
KR (1) KR20160077067A (ja)
CN (1) CN105706453B (ja)
MX (1) MX364963B (ja)
WO (1) WO2015064212A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059886A (ja) * 2015-09-14 2017-03-23 エヌ・ティ・ティ・コミュニケーションズ株式会社 サムネイル提供装置、表示装置、サムネイル映像表示方法、及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160019707A1 (en) * 2014-07-18 2016-01-21 Roovy, Inc. Mixed media file system
CN106664299B (zh) * 2015-02-15 2020-01-17 华为技术有限公司 基于超文本传输协议媒体流的媒体呈现导览方法和相关装置
US10511828B2 (en) * 2017-03-29 2019-12-17 Intel Corporation Camera platforms with rolling light projection
US11228796B2 (en) * 2020-01-07 2022-01-18 Tencent America LLC Pattern addressing for session-based dash operations

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060017061A (ko) 2004-08-19 2006-02-23 삼성전자주식회사 디스플레이장치
CN200994166Y (zh) 2006-12-29 2007-12-19 柯玉荣 附有天线单元的电视器
CA2781827C (en) * 2009-11-25 2016-05-24 Lg Electronics Inc. Method of processing epg metadata in network device and network device for controlling the same
US7833028B1 (en) 2010-02-24 2010-11-16 Azurewave Technologies, Inc. Wireless receiving and transmitting device having an exposed projection structure for user to hold
US20110273632A1 (en) 2010-05-04 2011-11-10 Casey Michael B Video display with detachable input/output console
US9380079B2 (en) * 2011-06-29 2016-06-28 Cable Television Laboratories, Inc. Content multicasting
WO2013043918A1 (en) * 2011-09-21 2013-03-28 General Instrument Corporation Adaptive streaming to multicast and constrained-fidelity constant bit rate encoding
JPWO2014057896A1 (ja) * 2012-10-09 2016-09-05 シャープ株式会社 コンテンツ再生装置
KR101459557B1 (ko) * 2013-07-15 2014-11-17 주식회사 케이티 실시간 시청률에 기반한 모자이크 채널 가이드를 제공하는 서버 및 방법

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"3rd Generation Partnership Project;", 3GPP TR 26.848 V0.5.1 (2013-09, 27 September 2013 (2013-09-27), pages 17 - 19, XP050727776, Retrieved from the Internet <URL:http://www.3gpp.org/ftp/tsg_sa/WG4_CODEC/TSGS4_75/Docs/S4-131095.zip(TR26848v0.5.1-EMO-cl.doc> [retrieved on 20141111] *
MITSUHIRO HIRABAYASHI: "Realization of Continuous Moving Image Delivery Using Existing Web Server", NIKKEI ELECTRONICS, 19 March 2012 (2012-03-19)
See also references of EP3065408A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059886A (ja) * 2015-09-14 2017-03-23 エヌ・ティ・ティ・コミュニケーションズ株式会社 サムネイル提供装置、表示装置、サムネイル映像表示方法、及びプログラム

Also Published As

Publication number Publication date
US20160255417A1 (en) 2016-09-01
MX364963B (es) 2019-05-15
EP3065408A4 (en) 2017-09-13
MX2016005250A (es) 2016-08-18
KR20160077067A (ko) 2016-07-01
CN105706453A (zh) 2016-06-22
CN105706453B (zh) 2019-10-08
EP3065408A1 (en) 2016-09-07
JPWO2015064212A1 (ja) 2017-03-09
US10110972B2 (en) 2018-10-23

Similar Documents

Publication Publication Date Title
WO2015064211A1 (ja) 送信装置、送信方法、受信装置、及び、受信方法
JP6570999B2 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、端末装置、およびコンテンツ供給システム
JP6329964B2 (ja) 送信装置、送信方法、受信装置、及び、受信方法
CN102461165A (zh) 用于动态视频电子节目指南的系统和方法
US10034042B2 (en) Content supply apparatus, content supply method, program, terminal apparatus, and content supply system
WO2015064212A1 (ja) 送信装置、送信方法、受信装置、及び、受信方法
WO2014208377A1 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、端末装置、およびコンテンツ供給システム
Issa et al. A framework for building an interactive satellite TV based m-learning environment.
JP6492006B2 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、および、コンテンツ供給システム
WO2015146647A1 (ja) 送信装置、送信方法、受信装置、受信方法、及び、プログラム
US10637904B2 (en) Multimedia streaming service presentation method, related apparatus, and related system
CA2925455A1 (en) Content supplying apparatus, content supplying method, program, terminal device, and content supplying system
WO2015012140A1 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、端末装置、およびコンテンツ供給システム
WO2015064384A1 (ja) 送信装置、送信方法、受信装置、及び、受信方法
WO2015151487A1 (en) Reception apparatus, reception method, transmission apparatus, and transmission method
JP6610538B2 (ja) 受信装置、受信方法、送信装置、及び、送信方法
Yim et al. Implementation of a Prototype Personal Live Broadcasting System

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14858180

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015544851

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15030543

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20167010410

Country of ref document: KR

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014858180

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: MX/A/2016/005250

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE