WO2015178221A1 - 受信装置、受信方法、送信装置、及び、送信方法 - Google Patents

受信装置、受信方法、送信装置、及び、送信方法 Download PDF

Info

Publication number
WO2015178221A1
WO2015178221A1 PCT/JP2015/063271 JP2015063271W WO2015178221A1 WO 2015178221 A1 WO2015178221 A1 WO 2015178221A1 JP 2015063271 W JP2015063271 W JP 2015063271W WO 2015178221 A1 WO2015178221 A1 WO 2015178221A1
Authority
WO
WIPO (PCT)
Prior art keywords
stream
transmission
service
signaling information
information
Prior art date
Application number
PCT/JP2015/063271
Other languages
English (en)
French (fr)
Inventor
山岸 靖明
淳 北原
北里 直久
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2015178221A1 publication Critical patent/WO2015178221A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/26Arrangements for switching distribution systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/20Arrangements for broadcast or distribution of identical information via plural systems
    • H04H20/22Arrangements for broadcast of identical information via plural broadcast systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/11Arrangements for counter-measures when a portion of broadcast information is unavailable
    • H04H60/12Arrangements for counter-measures when a portion of broadcast information is unavailable wherein another information is substituted for the portion of broadcast information

Definitions

  • the present technology relates to a receiving device, a receiving method, a transmitting device, and a transmitting method, and more particularly, to a receiving device, a receiving method, a transmitting device, and a transmitting method that can provide a highly robust broadcasting service. .
  • MPEG-DASH uses a meta file called MPD (Media Presentation Description) and media data address (URL: Uniform Resource Locator) such as chunked audio, video, or subtitles described in the meta file. It is acquired and played back.
  • MPD Media Presentation Description
  • URL Uniform Resource Locator
  • the media data stream (Representation) described in the MPD lists multiple candidates with different attributes.
  • An application for example, a stream player
  • the acquisition target stream is changed accordingly.
  • This technology has been made in view of such a situation, and is intended to provide a broadcasting service with high robustness.
  • a receiving apparatus includes a receiving unit that receives a broadcast wave of a digital broadcast using an IP (Internet Protocol) transmission method, and an IP layer in the protocol layer of the IP transmission method in the broadcast wave.
  • An acquisition unit that acquires signaling information transmitted in a higher layer, and a second stream that is more robust than the first stream from the first stream based on the signaling information.
  • a control unit that controls the operation of switching to the other stream.
  • the signaling information includes first control information used for playback control of the stream and second control information used for playback control of the stream, and is referred to from the first control information.
  • the unit can switch from the first stream to the second stream based on the first control information and the second control information.
  • the first control information includes information indicating a ranking of transmission path quality, and the control unit transmits a transmission path from the first stream having a low transmission path quality based on the first control information. It is possible to switch to the second stream having a high quality.
  • the second control information includes information indicating a ranking of transmission path quality, and the control unit transmits a transmission path from the first stream having a low transmission path quality based on the second control information. It is possible to switch to the second stream having a high quality.
  • the control unit can switch from the first stream to the second stream when the reception state of the first stream deteriorates.
  • the control unit is configured to switch from the first stream to the second stream when the signaling information has contents corresponding to switching from the first stream to the second stream. can do.
  • the first stream and the second stream can be provided as different services.
  • the first stream may be a stream made up of video and audio
  • the second stream may be an audio stream.
  • the signaling information is SCS (Service Channel Signaling)
  • the first control information is USD (User Service Description)
  • the second control information is MPEG-DASH (Moving Picture Expert Group I-Dynamic Adaptive). It can be MPD (Media Presentation Description) that conforms to the standard of Streaming (over HTTP).
  • the receiving device may be an independent device or an internal block constituting one device.
  • the reception method according to the first aspect of the present technology is a reception method corresponding to the reception device according to the first aspect of the present technology.
  • a broadcast wave of a digital broadcast using an IP transmission method is received, and the broadcast wave is received from an IP layer in a protocol hierarchy of the IP transmission method.
  • Signaling information transmitted in a higher layer is acquired, and based on the signaling information, the stream to be played is switched from the first stream to the second stream having higher robustness than the first stream. Operation is controlled.
  • the transmission device provides signaling information for controlling an operation of switching a stream to be reproduced from a first stream to a second stream having higher robustness than the first stream.
  • IP transmission of the signaling information together with at least one of the generation unit to generate, the first stream, the acquisition unit to acquire the second stream, the first stream, and the second stream A transmitting unit that transmits a broadcast wave of digital broadcasting using a transmission method, wherein the signaling information is transmitted in a higher layer than an IP layer in a protocol layer of the IP transmission method in the broadcast wave It is.
  • the signaling information is referred to from the first control information used for playback control of the stream and the first control information, and includes second control information used for playback control of the stream. be able to.
  • the first control information may include information indicating a ranking of transmission line quality.
  • the second control information can include information indicating a ranking of transmission path quality.
  • the first stream and the second stream can be provided as different services.
  • the first stream may be a stream made up of video and audio
  • the second stream may be an audio stream.
  • the signaling information may be SCS
  • the first control information may be USD
  • the second control information may be MPD compliant with the MPEG-DASH standard.
  • the transmission device may be an independent device or an internal block constituting one device.
  • the transmission method according to the second aspect of the present technology is a transmission method corresponding to the transmission device according to the second aspect of the present technology.
  • a stream to be reproduced is a second stream having higher robustness than the first stream from the first stream.
  • Signaling information for controlling an operation to switch to the other stream is generated, the first stream and the second stream are acquired, and together with at least one of the first stream and the second stream,
  • the signaling information is transmitted by a broadcast wave of digital broadcasting using an IP transmission method.
  • the signaling information is transmitted in a layer higher than the IP layer in the protocol layer of the IP transmission scheme.
  • FIG. 1 is a diagram illustrating a protocol stack of 3GPP-MBMS.
  • the lowest layer is a physical layer.
  • the physical layer uses either one-way MBMS or two-way ptp Bearer (s).
  • the upper layer adjacent to the physical layer is the IP layer.
  • the upper layer adjacent to the IP layer is a UDP / TCP layer. That is, when MBMS is used as the physical layer, IP multicast is used in the IP layer, and UDP (User Datagram Protocol) is used in the UDP / TCP layer. On the other hand, when using ptp Bearer (s) as the physical layer, IP unicast is used in the IP layer, and TCP (Transmission Control Protocol) is used in the UDP / TCP layer.
  • s ptp Bearer
  • FLUTE File Delivery over Unidirectional Transport
  • S HTTP
  • FLUTE FLUTE
  • FEC Forward Error Correction
  • the upper layers adjacent to FLUTE are 3GP-DASH, Download 3GPP file format, etc, ptm File repair, Service Announcement & Metadata. Further, the upper hierarchy adjacent to ptm File Repair is set to Associated Delivery Procedures.
  • the upper layer adjacent to 3GP-DASH is streaming data such as audio and video. That is, streaming data such as audio and video can be transmitted in FLUTE sessions in units of media segments (Media Segment) in accordance with the ISO BMFF (Base Media File Format) standard. Also, Service (Announcement) & Metadata can include USD (User Service Description) and MPD (Media Presentation Description) as control information of streaming data transmitted in the FLUTE session. Therefore, control information such as USD and MPD can also be transmitted in the FLUTE session.
  • USD User Service Description
  • MPD Media Presentation Description
  • 3GPP-MBMS specifies a file download protocol for FLUTE sessions of files based on the 3GPP file format (ISO BMFF file, MP4 file), but MPEG-DASH fragmented MP4 is based on the same protocol. File sequences and MPDs that conform to the MPEG-DASH standard can be transmitted. The MPD is also referred to from USD transmitted in the FLUTE session. Fragmented MP4 means a fragmented MP4 file.
  • the upper layer of HTTP which is the upper layer adjacent to the UDP / TCP layer
  • 3GP-DASH streaming data can also be transmitted using HTTP (S).
  • the upper layers of the FEC that are upper layers adjacent to the UDP / TCP layer are RTP / RTCP and MIKEY.
  • the upper layer of RTP / RTCP is RTP PayloadFormats, and the upper layer is streaming data. That is, streaming data can be transmitted through an RTP (Real-time Transport-Protocol) session.
  • the upper layer of MIKEY is Key Distribution (MTK), and the upper layer is MBMS Security.
  • the physical layer uses only bidirectional ptp Bearer.
  • the upper layer adjacent to the physical layer is an IP layer.
  • the upper layer adjacent to the IP layer is the TCP layer, and the upper layer adjacent to the TCP layer is the HTTP (S) layer. That is, a protocol stack that operates on a network such as the Internet is implemented by these layers.
  • the upper layers adjacent to the HTTP (S) layer are Service Announcement & Metadata, ptm File Repair, Reception Reporting, Registration.
  • USD and MPD can be arranged as control information of streaming data transmitted in a FLUTE session using broadcasting. Therefore, for example, control information such as USD and MPD can be provided by a server on the Internet.
  • the upper hierarchy adjacent to ptm File Repair and Reception Reporting is associated Delivery Procedures.
  • the upper layer adjacent to Registration is MBMSMBSecurity.
  • the upper layer of the UDP layer which is the upper layer adjacent to the IP layer, is MIKEY.
  • the upper layer of MIKEY is Key Distribution (MTK), and the upper layer is MBMS Security.
  • an application Application (s)
  • FIG. 2 is a diagram showing the structure of FLUTE (File Delivery over Unidirectional Transport) in FIG.
  • FLUTE is specified as a protocol for file transfer in multicast. As shown in FIG. 2, FLUTE is a multicast protocol for scalable file objects called FDT (File ⁇ Delivery Table) and ALC (Asynchronous Layered Coding), specifically, its building block LCT (Layered Coding Transport). And FEC (Forward Error Correction) components.
  • FDT File ⁇ Delivery Table
  • ALC Asynchronous Layered Coding
  • LCT Layered Coding Transport
  • FEC Forward Error Correction
  • the FDT includes information such as location information (for example, URL) and TOI (Transport Object Identifier) as index information for each TSI (Transport Session Identifier).
  • location information for example, URL
  • TOI Transport Object Identifier
  • index information for each TSI Transport Session Identifier
  • a file to be transmitted is managed as one object by TOI.
  • a set of a plurality of objects is managed as one session by TSI. That is, in the FLUTE session, a specific file can be designated by two pieces of identification information of TSI and TOI.
  • the FDT corresponds to FDD (File Delivery Description) described later.
  • FIG. 3 is a diagram showing a protocol stack for digital broadcasting of the IP transmission method.
  • the lowest layer is a physical layer.
  • the physical layer Broadcast PHY
  • the frequency band of the broadcast wave allocated for the service (channel) corresponds.
  • the upper layer of the physical layer is the IP layer.
  • the IP layer corresponds to IP (Internet Protocol) in the TCP / IP protocol stack, and an IP packet is specified by an IP address.
  • the upper layer adjacent to the IP layer is the UDP layer, and the upper layer is File Delivery and Repair (AL-FEC).
  • A-FEC File Delivery and Repair
  • FLUTE + File Delivery over Unidirectional Transport plus
  • FLUTE + is an extension of FLUTE, which has been conventionally defined, and the details of FLUTE are defined as RFC6726. Also, FLUTE + (plus) may be referred to as “FLUTE enhancement”.
  • ESG Electronic Service Guide
  • SCS Service Channel Signaling
  • NRT content NRT Content
  • ESG SCS
  • NRT content is, for example, Transmitted by FLUTE session.
  • ESG is an electronic service guide.
  • the NRT content is content transmitted by NRT (Non Real Time) broadcasting, and is played back after being temporarily stored in the storage of the receiver. Note that the NRT content is an example of content, and a file of another content may be transmitted by the FLUTE session.
  • SCS is service unit signaling information.
  • USD User Service Bundle Description
  • MPD Media Presentation Description
  • SDP Session Description Protocol
  • FDD File Delivery Description
  • SPD Service Parameter Description
  • the USD includes reference information for referring to signaling information such as MPD, FDD, and SDP.
  • USD may be referred to as USBD (User Service Bundle Description).
  • the MPD includes information such as a segment URL for each stream (component) transmitted in service units. As described above, MPD conforms to the MPEG-DASH standard.
  • the SDP includes service attributes for each service, stream configuration information and attributes, filter information, location information, and the like.
  • the FDD includes information such as location information (for example, URL) and TOI as index information for each TSI. Note that FDD may be included as an element in USD.
  • the FDD corresponds to the FDT (File Delivery Table) described above.
  • the SPD includes various parameters defined at the service level.
  • USD Digital, MPD, SDP, FDD, and SPD are described in a markup language such as XML (Extensible Markup Language).
  • XML Extensible Markup Language
  • the other layers other than the above-mentioned layers are DASH (ISO (BMFF).
  • DASH DASH
  • the upper layer adjacent to DASH (ISO BMFF) is streaming data (components) such as video (Video), audio (Audio), subtitles (CC: Closed Caption). That is, streaming data such as audio, video, and subtitles is transmitted in units of media segments (Media Segment) conforming to the ISO BMFF (Base Media File Format) standard, for example, by a FLUTE session.
  • LLS Low Layer Signaling
  • SCD Service Configuration Description
  • EAD Error Alert Description
  • RRD Radio Resolution Resolution
  • SCD adopts an ID system corresponding to the ID system used in MPEG2-TS (Moving Picture Expert Group 2-Transport Stream) system, and shows the BBP stream configuration and service configuration in the broadcast network.
  • the SCD includes information such as IP address as attribute / setting information for each service, ESG bootstrap information for accessing the ESG, SCS bootstrap information for accessing the SCS, and the like.
  • EAD contains information about emergency notifications.
  • the RRD includes rating information. Note that SCD, EAD, and RRD are described in a markup language such as XML, for example.
  • the upper layer of the physical layer (Broadband PHY) is the IP layer.
  • the upper layer adjacent to the IP layer is the TCP layer, and the upper layer adjacent to the TCP layer is the HTTP (S) layer. That is, a protocol stack that operates on a network such as the Internet is implemented by these layers.
  • the receiver can communicate with a server on the Internet using the TCP / IP protocol and receive ESG, SCS, NRT content, and the like.
  • the receiver can receive streaming data such as audio and video that are adaptively streamed and distributed from a server on the Internet. This streaming distribution conforms to the MPEG-DASH standard.
  • applications can be transmitted using a broadcast FLUTE session or communication TCP / IP protocol.
  • This application can be written in a markup language such as HTML5 (HyperText Markup Language 5).
  • IP broadcast digital broadcasts use a protocol stack that supports 3GPP-MBMS.
  • audio and video streaming data can be transmitted in media segment units according to the ISO FFFF standard.
  • signaling information such as ESG and SCS is transmitted by either broadcasting or communication
  • the hierarchy excluding the physical layer (and data link layer) that is lower than the IP layer, that is, the IP layer In higher layers, it is possible to make the protocol common, so it is expected that the receiver and the like will reduce the burden of implementation and processing.
  • FIG. 4 is a diagram showing a configuration of a broadcast wave of an IP transmission type digital broadcast.
  • a plurality of BBP streams are transmitted in a broadcast wave (RF channel) having a predetermined frequency band.
  • Each BBP stream includes NTP (Network Time Protocol), multiple service channels (Service Channel), ESG (ESG Service), and LLS.
  • NTP Network Time Protocol
  • Service Channel multiple service channels
  • ESG ESG Service
  • LLS LLS
  • the NTP, service channel, and ESG are transmitted according to the UDP / IP protocol, while the LLS is transmitted on the BBP stream.
  • the NTP is time information and can be shared by a plurality of service channels.
  • Each service channel (hereinafter referred to as “service”) includes a component (Component) which is information constituting a program such as video, audio and subtitles, and SCS such as USD and MPD. Also, a common IP address is assigned to each service, and components, SCS, and the like can be packaged for each service or a plurality of services using this IP address.
  • Component is information constituting a program such as video, audio and subtitles
  • SCS such as USD and MPD.
  • a common IP address is assigned to each service, and components, SCS, and the like can be packaged for each service or a plurality of services using this IP address.
  • an RF channel ID (RF_channel_id) is assigned to a broadcast wave (RF Channel) having a predetermined frequency band, for example, for each broadcaster.
  • a BBP stream ID (BBP_stream_id) is assigned to one or a plurality of BBP streams transmitted in each broadcast wave.
  • a service ID (service_id) is assigned to one or a plurality of services transmitted in each BBP stream.
  • the IP transmission system ID system includes a combination of a network ID (network_id), a transport stream ID (transport_stream_id), and a service ID (service_id) used in the MPEG2-TS system (hereinafter referred to as a “triplet”). ) ”) Is adopted, and this triplet shows the BBP stream configuration and service configuration in the broadcast network.
  • the RF channel ID and the BBP stream ID correspond to the network ID and transport stream ID in the MPEG2-TS system.
  • FIG. 5 is a diagram showing a metadata structure of USD (User Service Description).
  • a USD element for each service is arranged under a USBD (User Service Bundle Description) element corresponding to USD in FIG.
  • the USBD element can refer to FEC Repair Stream Description.
  • Deli DeliveryMethod element Deli DeliveryMethod element, MediaMethodPresentation Description element, and Schedule element are arranged under USD element.
  • the DeliveryMethod element can refer to Associated Delivery Procedure Description, SDP (Session Description Protocol), Security Description, FDD (File Delivery Description), and RFD (Repair Flow Description). Note that SDP is associated with AssociatedAssociateDelivery Procedure Description and Security Description.
  • Media PresentationDescription element can refer to MPD (MediaPresentation Description).
  • MPD can refer to Initialization ⁇ Segment Description.
  • Schedule element can refer to ScheduleSDescription.
  • Schedule Description can refer to Filter Description.
  • USD schema 6 and 7 are diagrams showing a schema of USD (User Service Description). USD is described in a hierarchical structure using a markup language such as XML.
  • broadcastAppService element In the deliveryMethod element, broadcastAppService element and unicastAppService element can be described.
  • the broadcastAppService element can further describe an association_tag attribute, a basepattern element, and a BCRobustRanking attribute.
  • the assocication_tag attribute can be associated with other signaling information.
  • a URL of a stream transmitted by broadcasting is specified.
  • the BCRobustRanking attribute for example, a value such as “High” or “Low” is specified as information indicating the robustness level of the stream, that is, information indicating the ranking of the quality of the transmission path.
  • the URL of the stream transmitted by communication is specified in the basepattern element of the unicastAppService element.
  • the attributes and elements in FIG. 7 are defined.
  • the identityContent element can be described.
  • the basePattern element of the identicalContent element can be associated with the basepattern element in the deliveryMethod element.
  • the attributes and elements that can be included in such an appService element the attributes and elements in FIG. 7 are defined.
  • MPD schema 8 and 9 are diagrams showing a schema of MPD (Media Presentation Description).
  • the MPD is described in a hierarchical structure using a markup language such as XML.
  • a Period element an AdaptationSet element, a Representation element, and a SubRepresentation element are described in a hierarchical structure.
  • the Period element is a unit that describes the composition of content such as a program. Further, the AdaptationSet element, the Representation element, or the SubRepresentation element is used for each stream of video, audio, subtitles, etc., and can describe the attributes of each stream.
  • the AdaptationSet element corresponds to a stream in which a plurality of streams are multiplexed in addition to a single stream such as a video stream or an audio stream.
  • attributes and elements shown in FIG. 8 are defined as attributes and elements that can be included in such an AdaptationSet element.
  • the Representation element enumerates streams (components) that are a plurality of options with different parameters such as bit rate within the range of the AdaptationSet element that is a higher element (parent element).
  • a BCRobustRanking attribute can be described.
  • a value such as “High” or “Low” is specified as information indicating the robustness level of the stream, that is, information indicating the ranking of the quality of the transmission path.
  • the attributes and elements shown in FIG. 9 are defined as attributes and elements that can be included in such a Representation element. Note that the attributes and elements in FIG. 9 can be included in the SubRepresentation element.
  • the operation example 1 in which the information indicating the ranking of the quality of the transmission path used for stream switching is included in the MPD, and the information indicating the ranking of the quality of the transmission path used for switching the stream is included in the USD.
  • Operation examples 2-1 and 2-2 are illustrated, but in these operation examples, normal audio and video streams (components) are commonly used for playback of normal broadcast program audio and video. The common part will be described first, and then a specific operation example will be described. Hereinafter, this common part will be described as “basic operation”.
  • FIG. 10 is a diagram for explaining a basic operation common to each operation example.
  • the numbers “1” to “13” in the figure indicate the order of processing, and the receiver executes the processing in the order of these numbers.
  • the meaning of such numbers is the same in other figures described later.
  • a transmitter of a broadcasting station (broadcaster) identified by an RF channel ID uses a BBP stream (RF Channel) identified by a BBP stream ID by a digital broadcast wave (RF Channel) using the IP transmission method.
  • BBP Stream
  • a stream (component) constituting each service identified by the service ID, signaling information, and the like are transmitted.
  • audio and video streams and signaling information (SCS) files are transmitted in FLUTE sessions. Further, in the basic operation of FIG. 10, since only a stream transmitted by broadcasting is acquired, a stream transmitted by communication from a server (Internet Server) is not acquired.
  • a server Internet Server
  • a service that provides a broadcast program based on normal audio and video is referred to as a “normal service”, and a service that provides highly robust sound based on robust audio is referred to as a “robust service”.
  • the SCS such as the normal service USD and MPD is a description not corresponding to the robust service.
  • a receiver installed in each home or the like acquires an SCD transmitted by LLS by an initial scan process and stores it in NVRAM (procedure 1).
  • This SCD includes SCS ⁇ ⁇ ⁇ ⁇ Bootstrap information in which the IP address for acquiring the SCS, the port number, and the TSI are described.
  • the receiver reads the SCD from the NVRAM (procedure 3), and connects to the SCS transmitted by the broadcast wave according to the SCS Bootstrap information. , SCS is acquired (procedures 4 and 5).
  • the signaling information such as USD, MPD, SDP, FDD, etc. is obtained by analyzing the data stored in the LCT packet (procedure 6).
  • the deliveryMethod element is a child element of USD, but is illustrated separately from USD for convenience of explanation.
  • reference information is described in USD, and MPD, SDP, and FDD are obtained using this reference information.
  • all the signaling information is included in SCS, it is collected from there. Can also be obtained.
  • the Representation element is arranged in the AdaptationSet element of MPD, and components that are transmitted as a stream by broadcasting or communication are listed.
  • the Representation element describes a SegmentURL element that specifies the URL from which the stream is acquired.
  • information for identifying the delivery route of the stream is specified in the deliveryMethod element of USD.
  • a broadcastAppService element is arranged in the deliveryMethod element, and further, a URL of the stream transmitted by broadcasting is specified in the basepattern element. Then, by matching the URL specified in the SegmentURL element described in the MPD with the URL specified in the basepattern element described in the deliveryMethod element of USD, the audio and video streams listed in the MPD It is specified that it is transmitted by broadcasting (procedure 7).
  • tsi attribute, contentLocation attribute, and toi attribute are described in FDD.
  • TSI Transport Session Identifier
  • TOI Transport Object
  • the URL of the file is specified.
  • TSI and TOI for acquiring the streams listed in the MPD by matching the URL specified in the SegmentURL element described in the MPD with the URL specified in the contentLocation attribute described in the FDD Is identified (procedure 8). Further, by referring to the SDP, the IP address and port number for acquiring the audio and video streams are specified (procedure 8).
  • the IP address, port number, TSI, and TOI for acquiring the audio and video streams are acquired.
  • the receiver uses the IP address, port number, TSI, and TOI of the audio and video streams to connect to the audio and video streams transmitted in the FLUTE session, and acquires the LCT packet (procedure 9, 10).
  • the receiver extracts the segment data (media segment) stored in the LCT packet and temporarily stores it in the buffer, thereby performing buffering (procedures 11 and 12), and further performs rendering (steps 11 and 12).
  • Procedure 13 Thereby, in the receiver, the video and audio of the broadcast program corresponding to the normal service selected by the user are reproduced.
  • FIG. 11 is a diagram for explaining an operation example 1 in which information indicating the ranking of transmission path quality described in the MPD is used for stream switching.
  • a transmitter of a broadcast station (broadcaster) identified by an RF channel ID uses a BBP stream (RF (Channel) identified by a BBP stream ID by a digital broadcast wave (RF Channel) using the IP transmission method.
  • BBP Stream
  • one of the BBP streams is a normal audio and video stream (“A / V” in the figure) for providing a normal service.
  • SCS are transmitted together with the LLS in the service unit identified by the service ID.
  • a robust audio stream (“Robust Audio” in the figure) and SCS for providing a robust service are transmitted together with the LLS.
  • audio and video streams and signaling information (SCS) files are transmitted in the FLUTE session.
  • SCS signaling information
  • a receiver installed in each home and the like performs procedures 1 to 13 by the basic operation (Basic (Service flow) of FIG. Playing sound.
  • Basic Service flow
  • the normal service is provided in the basic operation of FIG. 10.
  • the normal service and the robust service are used together.
  • SCS such as normal service USD and MPD is a description corresponding to the robust service.
  • the Representation element is arranged in the AdaptationSet element of the MPD of the normal service, and audio and video streams (components) transmitted as a broadcast stream are listed.
  • “Low” or “High” is specified as the BCRobustRanking attribute in the audio stream listed in the Representation element in the AdaptationSet element. It is compatible with robust service.
  • a normal audio stream (“normal” in the figure) with BCRobustRanking attribute specified as “Low” has a low level of robustness, while a robust audio stream with BCRobustRanking attribute specified as "High”.
  • the stream (“Robust” in the figure) has a high level of robustness.
  • the quality of the stream has become unstable and an error has been detected, from a normal audio stream with "Low” specified as BCRobustRanking attribute to a robust audio stream with "High” specified It is switched (procedure 17). That is, the normal service is switched to the robust service.
  • the URL specified in the SegmentURL element of the Representation element that describes the robust audio stream corresponds to the URL specified in the basepattern element in the broadcastAppService element in the deliveryMethod element of the normal service USD. Therefore, it is specified that the robust audio stream is transmitted by broadcasting (procedure 18).
  • association_tag attribute is described in addition to the basepattern element. Since this association_tag attribute is associated with the association_tag attribute of Association Service Description described in the SPD of the normal service, the RF channel ID, BBP stream ID, and service ID are specified (step 19).
  • SCS Bootstrap information for acquiring the SCS of the robust service can be obtained from the SCD stored in NVRAM by the initial scan processing etc., so the receiver is specified by the SCS Bootstrap information.
  • the SCS is acquired by connecting to the SCS of the robust service transmitted by the broadcast wave (procedures 20 and 21).
  • the signaling information such as USD, SDP, FDD, etc. is obtained by analyzing the data stored in the LCT packet (procedure 22).
  • the upper part (part) of the URL specified in the SegmentURL element of the Representation element in which the robust audio stream is described is broadcastAppService placed in the deliveryMethod element of the robust service USD Corresponds to the URL of the basepattern element in the element (procedure 23).
  • These URLs also correspond to the URL specified in the FDD contentLocation attribute, so the URL specified in the basepattern element in the broadcastAppService element of the deliveryMethod element of the robust service USD (specified in the SegmentURL element of the MPD)
  • the TSI and the TOI for acquiring a robust audio stream are specified by matching the URL specified in the contentLocation attribute of the FDD.
  • the IP address and port number for acquiring the robust audio stream are specified (procedure 24).
  • the IP address, port number, TSI, and TOI for acquiring a robust audio stream provided as a robust service are acquired.
  • the receiver uses the IP address, the port number, the TSI, and the TOI of the robust audio stream to connect to the robust audio stream transmitted in the FLUTE session and acquires the LCT packet (step 25, 26).
  • the receiver extracts the segment data (media segment) stored in the LCT packet and temporarily stores it in the buffer to perform buffering (procedures 27 and 28) and to perform rendering (steps 27 and 28). Procedure 29). Thereby, in the receiver, sound corresponding to robust audio is reproduced.
  • the receiver when the reception state deteriorates and the quality of the stream becomes unstable, information indicating the ranking of the quality of the transmission path included in the MPD ("High” and "" specified in the BCRobustRanking attribute) Audio that is switched from normal service to robust service using a value such as “Low”, and that supports high-level audio with stable stream transfer regardless of changes in the reception environment. Is played.
  • FIG. 12 is a diagram for explaining an operation example 2-1 in which information indicating the ranking of the quality of the transmission path described in USD is used for stream switching.
  • a transmitter of a broadcasting station identified by an RF channel ID transmits a BBP stream (identified by a BBP stream ID) by a digital broadcast broadcast wave (RF ⁇ Channel) using an IP transmission method.
  • BBP (Stream) is transmitted.
  • Operation Example 2-1 as in Operation Example 1, out of BBP streams to which different BBP stream IDs are assigned, one BBP stream uses normal audio and video for providing a normal service. Stream and SCS are transmitted with LLS. Further, in the other BBP stream, a robust audio stream and SCS for providing a robust service are transmitted together with the LLS.
  • audio and video streams and signaling information (SCS) files are transmitted in the FLUTE session. Also in the operation example 2-1, since only a stream transmitted by broadcasting is acquired, a stream transmitted by communication from a server (Internet Server) is not acquired.
  • a server Internet Server
  • the receiver installed in each home or the like performs the steps 1 to 13 by the basic operation (Basic Service flow) of FIG. Playing sound.
  • Basic Service flow Basic Service flow
  • the normal service is provided in the basic operation of FIG. 10.
  • the normal service and the robust service are used together, so the operation of the robust service is started.
  • SCS such as normal service USD and MPD is a description corresponding to the robust service.
  • the Representation element is arranged in the AdaptationSet element of the MPD of the normal service, and audio and video streams transmitted as a broadcast stream are listed.
  • the Representation element in which the SegmentURL1 is specified and the Representation element in which the SegmentURL2 is specified are included in the MPD of the normal service. It is enumerated in the AdaptationSet element and corresponds to the robust service.
  • a broadcastAppService element in which basepattern1 is specified and a broadcastAppService element in which basepattern2 is specified are enumerated and correspond to a robust service.
  • basepattern1 and 2 are specified in the basePattern element of the identityContent element of the USD AppService element. This indicates that basepattern1 and basepattern2 in the deliveryMethod element are compatible.
  • the URL specified in the SegmentURL element described in the MPD is matched with the URL specified in the basepattern element described in the deliveryMethod element of USD.
  • the audio stream of the Representation element in which SegmentURL1 is specified is a robust audio stream in which "High" is specified as the BCRobustRanking attribute, It is specified that it is transmitted by broadcasting (procedures 17 and 18).
  • the audio stream of the Representation element with SegmentURL2 specified is a normal audio stream with "Low” specified as BCRobustRanking attribute. (Steps 17 and 18).
  • the robust audio with "High” specified from the normal audio stream (SegmentURL2) with "Low” specified as BCRobustRanking attribute Switch to the stream (SegmentURL1). That is, the normal service is switched to the robust service.
  • association_tag attribute is described in addition to the basepattern element. Since this association_tag attribute is associated with the association_tag attribute of Association Service Description described in the SPD of the normal service, the RF channel ID, BBP stream ID, and service ID are specified (step 19).
  • SCS Bootstrap information for acquiring the SCS of the robust service can be obtained from the SCD stored in NVRAM by the initial scan processing etc., so the receiver is specified by the SCS Bootstrap information.
  • the SCS is acquired by connecting to the SCS of the robust service transmitted by the broadcast wave (procedures 20 and 21).
  • the signaling information such as USD, SDP, FDD, etc. is obtained by analyzing the data stored in the LCT packet (procedure 22).
  • the upper part (part) of the URL (SegmentURL1) specified in the SegmentURL element of the robust audio stream is in the broadcastAppService element placed in the deliveryMethod element of the robust service USD. It corresponds to the URL (basepattern1) specified in the basepattern element (procedure 23).
  • the URL specified in the contentLocation attribute of FDD also corresponds to those URLs
  • the URL (basepattern1) specified in the basepattern element in the broadcastAppService element of the deliveryMethod element of the robust service USD
  • the TSI and TOI for acquiring a robust audio stream are specified.
  • the IP address and port number for acquiring the robust audio stream are specified (procedure 24).
  • the IP address, port number, TSI, and TOI for acquiring a robust audio stream provided as a robust service are acquired.
  • the receiver uses the IP address, the port number, the TSI, and the TOI of the robust audio stream to connect to the robust audio stream transmitted in the FLUTE session and acquires the LCT packet (step 25, 26).
  • the receiver extracts the segment data (media segment) stored in the LCT packet and temporarily stores it in the buffer to perform buffering (procedures 27 and 28) and to perform rendering (steps 27 and 28). Procedure 29). Thereby, in the receiver, sound corresponding to robust audio is reproduced.
  • the information indicating the ranking of the quality of the transmission path included in the USD (“High” and "" specified in the BCRobustRanking attribute) Audio that is switched from normal service to robust service using a value such as “Low”, and that supports high-level audio with stable stream transfer regardless of changes in the reception environment. Is played.
  • the normal service is switched to the robust service.
  • the USD corresponding to the robust service is described.
  • the SCS such as MPD
  • the normal service may be switched to the robust service.
  • the service switching API is executed by the application, the normal service may be switched to the robust service.
  • the SCS such as the normal service USD and MPD is a description that does not correspond to the robust service.
  • the result is as follows. That is, in the MPD of the normal service in this case, only the Representation element in which SegmentURL2 is specified as the SegmentURL element is described in the Audio AdaptationSet element. Also, in the deliveryMethod element of the normal service USD, only the broadcastAppService element in which basepattern2 is specified is described as the basepattern element. In this case, it is not necessary to describe the BCRobustRanking attribute.
  • FIG. 13 is a diagram for explaining an operation example 2-2 in which information indicating the ranking of the quality of the transmission path described in USD is used for stream switching.
  • a transmitter of a broadcasting station (broadcaster) identified by an RF channel ID uses a BBP stream (identified by a BBP stream ID (RF) Channel) by a digital broadcasting broadcast wave (RF Channel) using an IP transmission method.
  • BBP Stream
  • one of the BBP streams has normal audio and video for providing a normal service.
  • Stream and SCS are transmitted together with LLS.
  • a robust audio stream and SCS for providing a robust service are transmitted together with the LLS.
  • audio and video streams and signaling information (SCS) files are transmitted as streams in the FLUTE session.
  • SCS signaling information
  • a receiver installed in each home or the like performs procedures 1 to 13 according to the basic operation (Basic Service Flow) in FIG. Playing sound.
  • Basic Service Flow Basic Service Flow
  • the normal service is provided in the basic operation of FIG. 10 in the basic operation example 2-2 of FIG. 13 .
  • the normal service and the robust service are used together, so the operation of the robust service is started.
  • SCS such as normal service USD and MPD is a description corresponding to the robust service.
  • the Representation element is arranged in the AdaptationSet element of the MPD of the normal service, and audio and video streams transmitted as a broadcast stream are listed.
  • the operation example 2-2 in FIG. 13 since the normal service and the robust service are used together, only the Representation element in which the SegmentURL2 is specified is described in the audio AdaptationSet element in the MPD of the normal service, and the robust It corresponds to the service.
  • a broadcastAppService element in which basepattern1 is specified and a broadcastAppService element in which basepattern2 is specified are enumerated and correspond to a robust service.
  • basepattern1 and 2 are specified in the basePattern element of the identityContent element of the USD AppService element. This indicates that basepattern1 and basepattern2 in the deliveryMethod element are compatible.
  • the URL specified in the SegmentURL element described in the MPD is matched with the URL specified in the basepattern element described in the deliveryMethod element of USD.
  • the audio stream of the Representation element in which SegmentURL2 is specified is a normal audio stream in which "Low" is specified as the BCRobustRanking attribute, It is specified that it is transmitted by broadcasting (procedures 17 and 18).
  • association_tag attribute is described in addition to the basepattern element. Since this association_tag attribute is associated with the association_tag attribute of Association Service Description described in the SPD of the normal service, the RF channel ID, BBP stream ID, and service ID are specified (step 19).
  • SCS Bootstrap information for acquiring the SCS of the robust service can be obtained from the SCD stored in NVRAM by the initial scan processing etc., so the receiver is specified by the SCS Bootstrap information.
  • the SCS is acquired by connecting to the SCS of the robust service transmitted by the broadcast wave (procedures 20 and 21).
  • the signaling information such as USD, SDP, FDD, etc. is obtained by analyzing the data stored in the LCT packet (procedure 22).
  • the upper part (part) of the URL (SegmentURL2) specified in the SegmentURL element of the robust audio stream is in the broadcastAppService element placed in the deliveryMethod element of the robust service USD. It corresponds to the URL (basepattern1) specified in the basepattern element (procedure 23).
  • the URL specified in the contentLocation attribute of FDD also corresponds to those URLs
  • the URL (basepattern1) specified in the basepattern element in the broadcastAppService element of the deliveryMethod element of the robust service USD (the MPD of the normal service)
  • the URL specified in the SegmentURL element (SegmentURL2)) By matching the URL specified in the SegmentURL element (SegmentURL2)) with the URL specified in the contentLocation attribute of the FDD, the TSI and TOI for acquiring a robust audio stream are specified.
  • the upper part of the SegmentURL2 is specified in the basepattern element of USD Match with URL (basepattern1) before matching. That is, when URL matching is performed, the URL specified in the SegmentURL element of the MPD is replaced from SegmentURL2 to SegmentURL1.
  • the IP address and port number for acquiring the robust audio stream are specified (step 24).
  • the IP address, port number, TSI, and TOI for acquiring a robust audio stream provided as a robust service are acquired.
  • the receiver uses the IP address, the port number, the TSI, and the TOI of the robust audio stream to connect to the robust audio stream transmitted in the FLUTE session and acquires the LCT packet (step 25, 26).
  • the receiver extracts the segment data (media segment) stored in the LCT packet and temporarily stores it in the buffer to perform buffering (procedures 27 and 28) and to perform rendering (steps 27 and 28). Procedure 29). Thereby, in the receiver, sound corresponding to robust audio is reproduced.
  • the information indicating the ranking of the quality of the transmission path included in the USD (“High” and "" specified in the BCRobustRanking attribute) Audio that is switched from normal service to robust service using a value such as “Low”, and that supports high-level audio with stable stream transfer regardless of changes in the reception environment. Is played.
  • the normal service is switched to the robust service.
  • the USD corresponding to the robust service is described.
  • the SCS such as MPD
  • the normal service may be switched to the robust service.
  • the service switching API is executed by the application, the normal service may be switched to the robust service.
  • the SCS such as the normal service USD and MPD is a description that does not correspond to the robust service.
  • the following is obtained. That is, in the MPD of the normal service in this case, only the Representation element in which SegmentURL2 is specified as the SegmentURL element is described in the Audio AdaptationSet element. Also, in the deliveryMethod element of the normal service USD, only the broadcastAppService element in which basepattern2 is specified is described as the basepattern element. In this case, it is not necessary to describe the BCRobustRanking attribute.
  • FIG. 14 is a diagram illustrating a configuration example of a broadcast communication system to which the present technology is applied.
  • the system means a set of a plurality of components (devices and the like).
  • the broadcast communication system 1 in FIG. 14 is a system capable of realizing the above-described highly robust broadcast service.
  • the broadcast communication system 1 includes a DASH server 10, a broadcast server 20, a communication server 30, and a client device 50.
  • the client device 50 is connected to the communication server 30 via a network 90 such as the Internet.
  • the DASH server 10 accumulates content stream data and metadata including various components such as audio, video, and captions.
  • the DASH server 10 generates segment data based on the content stream data and transmits the segment data to the broadcast server 20 or the communication server 30. Further, the DASH server 10 generates an MPD (Media Presentation Description) file based on the content metadata, and transmits the file to the broadcast server 20 or the communication server 30.
  • MPD Media Presentation Description
  • Broadcast server 20 receives the segment data and MPD file transmitted from DASH server 10.
  • the broadcast server 20 generates signaling information based on MPD files from the DASH server 10 and original data of signaling information acquired from various servers.
  • the broadcast server 20 transmits the signaling information together with the segment data as a digital broadcast signal.
  • the broadcast server 20 corresponds to the above-described transmitter (FIGS. 11 and 12, etc.) and is provided by, for example, a broadcaster.
  • audio and video segment data and SCS (Service Channel Signaling) files are transmitted by a FLUTE (File Delivery Over Unidirectional Transport) session.
  • the communication server 30 receives the segment data and the MPD file transmitted from the DASH server 10.
  • the communication server 30 generates signaling information based on the original data of the signaling information acquired from the MPD file from the DASH server 10 and various servers.
  • the communication server 30 transmits segment data or signaling information to the client device 50 via the network 90 in response to a request from the client device 50.
  • the communication server 30 corresponds to the above-described server (FIGS. 11 and 12, etc.), and is provided by, for example, a broadcaster.
  • the client device 50 receives segment data and signaling information transmitted by a digital broadcast signal from the broadcast server 20. Further, the client device 50 receives segment data and signaling information transmitted from the communication server 30 via the network 90 in response to a request to the communication server 30. The client device 50 acquires segment data transmitted by broadcast or communication based on signaling information transmitted by broadcast or communication, and reproduces video and audio of the content.
  • the client device 50 corresponds to the above-described receiver (FIGS. 11 and 12, etc.), and is installed in each home of the user.
  • the client device 50 is configured as a television receiver.
  • the broadcast communication system 1 is configured as described above. Next, a detailed configuration of each device constituting the broadcast communication system 1 of FIG. 14 will be described.
  • FIG. 15 is a diagram illustrating a configuration example of each server in FIG.
  • the DASH server 10 includes a content storage unit 111, a segment data generation unit 112, an MPD generation unit 113, and a transmission unit 114.
  • the content storage unit 111 stores stream data and metadata of content including various streams such as audio, video, and subtitles.
  • the segment data generation unit 112 acquires stream data of content such as audio and video stored in the content storage unit 111.
  • the segment data generation unit 112 generates segment data based on the stream data and supplies the segment data to the transmission unit 114.
  • the MPD generation unit 113 acquires content metadata stored in the content storage unit 111.
  • the MPD generation unit 113 generates an MPD file based on the metadata and supplies the MPD file to the transmission unit 114.
  • the segment data from the segment data generation unit 112 and the MPD file from the MPD generation unit 113 are supplied to the transmission unit 114.
  • the transmission unit 114 transmits the segment data and the MPD file to the broadcast server 20 or the communication server 30.
  • the DASH server 10 is configured as described above.
  • the broadcast server 20 includes a reception unit 211, a segment data acquisition unit 212, a signaling information generation unit 213, and a transmission unit 214.
  • the receiving unit 211 receives the segment data and the MPD file transmitted from the DASH server 10, and supplies the segment data to the segment data acquisition unit 212 and the MPD file to the signaling information generation unit 213.
  • the segment data acquisition unit 212 acquires and processes the segment data supplied from the reception unit 211, and supplies it to the transmission unit 214.
  • the signaling information generation unit 213 generates the signaling information based on the MPD file supplied from the reception unit 211 and the original data of the signaling information acquired from various servers and the like, and supplies the signaling information to the transmission unit 214.
  • the transmission unit 214 is supplied with the segment data from the segment data acquisition unit 212 and the signaling information from the signaling information generation unit 213.
  • the transmission unit 214 modulates the segment data and the signaling information, and transmits the digital broadcast signal via the antenna 215.
  • the audio and video segment data and the SCS file are transmitted by the FLUTE session by the broadcast wave of the digital broadcast using the IP transmission method.
  • Broadcast server 20 is configured as described above.
  • the communication server 30 includes a reception unit 311, a segment data acquisition unit 312, a signaling information generation unit 313, and a transmission unit 314.
  • the receiving unit 311 receives the segment data and the MPD file transmitted from the DASH server 10, and supplies the segment data to the segment data obtaining unit 312 and the MPD file to the signaling information generating unit 313.
  • the segment data acquisition unit 312 acquires and processes the segment data supplied from the reception unit 311, and supplies it to the transmission unit 314.
  • the signaling information generation unit 313 generates signaling information based on the MPD file supplied from the reception unit 311 or the original data of the signaling information acquired from various servers and the like, and supplies the signaling information to the transmission unit 314.
  • the transmission unit 314 is supplied with segment data from the segment data acquisition unit 312 and signaling information from the signaling information generation unit 313.
  • the transmission unit 214 transmits segment data or signaling information to the client device 50 via the network 90 in response to a request for segment data or signaling information from the client device 50.
  • the communication server 30 is configured as described above.
  • the transmission-side DASH server 10, the broadcast server 20, and the communication server 30 are described as individual devices. It suffices to have the functional configuration shown in FIG. 15.
  • the DASH server 10, the broadcast server 20, and the communication server 30 can be regarded as one device. At that time, for example, overlapping functions such as a reception unit and a transmission unit can be combined into one.
  • the function of providing segment data and the function of providing signaling information in the communication server 30 may be separated and the segment data and signaling information may be provided from different servers.
  • segment data may be generated in the broadcast server 20 or the communication server 30.
  • FIG. 16 is a diagram illustrating a configuration example of the client apparatus of FIG.
  • the client device 50 includes a tuner 512, a filtering processing unit 513, a signaling information acquisition unit 514, a segment data acquisition unit 515, a control unit 516, an input unit 517, an NVRAM 518, an output unit 519, and a communication unit 520. Is done.
  • the tuner 512 extracts a digital broadcast signal of a specific service instructed to select a channel from a broadcast wave of the digital broadcast using the IP transmission method received via the antenna 511 according to control from the control unit 516 and demodulates it. Then, the BBP stream obtained as a result is supplied to the filtering processing unit 513.
  • the filtering processing unit 513 performs filtering processing using an IP address, a port number, TSI, TOI, and the like on a packet transmitted by the BBP stream supplied from the tuner 512 according to the control from the control unit 516.
  • Signaling information such as LLS and SCS extracted by this filtering process is supplied to the signaling information acquisition unit 514, and the segment data is supplied to the segment data acquisition unit 515.
  • the signaling information acquisition unit 514 acquires and processes the signaling information obtained as a result of the filtering processing by the filtering processing unit 513 or the signaling information supplied from the communication unit 520, and supplies it to the control unit 516.
  • files such as USD and MPD are acquired by analyzing the data stored in the LCT packet.
  • the control unit 516 controls the operation of each unit of the client device 50 based on an operation signal from the input unit 517 and the like.
  • the control unit 516 stores the SCD in the NVRAM 518 as the channel selection information.
  • the control unit 516 reads channel selection information from the NVRAM 518 and controls the channel selection process executed by the tuner 512 based on the channel selection information.
  • control unit 516 is executed by the filtering processing unit 513 based on the IP address, port number, TSI, TOI, and the like obtained from the SCS. Control the filtering process. Through this filtering process, the segment data is supplied to the segment data acquisition unit 515.
  • the segment data acquisition unit 515 acquires and processes the segment data obtained as a result of the filtering processing by the filtering processing unit 513 or the segment data supplied from the communication unit 520, and supplies it to the output unit 519.
  • segment data is transmitted in a FLUTE session
  • segment data stored in an LCT packet is extracted by connecting to an audio or video stream.
  • the output unit 519 supplies audio data obtained from the segment data acquired by the segment data acquisition unit 515 to a speaker (not shown) and video data to a display (not shown) according to control from the control unit 516. To do.
  • the speaker outputs sound corresponding to the audio data supplied from the output unit 519. Further, the display displays an image corresponding to the video data supplied from the output unit 519.
  • the communication unit 520 accesses the communication server 30 via the network 90 according to the control from the control unit 516 and requests signaling information.
  • the communication unit 520 receives the signaling information transmitted from the communication server 30 via the network 90 and supplies it to the signaling information acquisition unit 514.
  • the communication unit 520 accesses the communication server 30 via the network 90 and requests stream distribution according to the control from the control unit 516.
  • the communication unit 520 receives the segment data of the stream that is stream-distributed from the communication server 30 via the network 90 and supplies it to the segment data acquisition unit 515.
  • the tuner 512, the input unit 517, the NVRAM 518, and the communication unit 520 are configured by hardware.
  • some functions of the filtering processing unit 513, the signaling information acquisition unit 514, the segment data acquisition unit 515, the control unit 516, and the partial function of the output unit 519 are software (for example, This is a function realized by “middleware” or “DASH client” in FIG.
  • a speaker and a display are provided outside, but the client device 50 may be configured to have a speaker and a display.
  • step S ⁇ b> 1 the tuner 512, the filtering processing unit 513, and the like perform initial scan processing in accordance with control from the control unit 516.
  • an SCD transmitted as LLS is acquired and stored in the NVRAM 518 as channel selection information (S2).
  • step S3 it is determined whether a channel selection operation has been performed by the user. If it is determined in step S3 that the channel selection operation has not been performed, the determination process in step S3 is repeated. That is, in step S3, the process proceeds to step S4 after waiting for the channel selection operation by the user. Here, the normal service is selected.
  • step S4 the control unit 516 acquires the channel selection information stored in the NVRAM 518.
  • the SCD stored in the channel selection information includes SCS Bootstrap information
  • the SCS address of the selected normal service is specified using this (S5).
  • step S6 the filtering processing unit 513 performs filtering processing of the SCS LCT packet in accordance with the control from the control unit 516. Since this filtering process extracts the SCS LCT packet, the parsing of the LCT packet acquires signaling information such as USD and MPD (S7).
  • step S8 the control unit 516 performs broadcast / communication address resolution based on signaling information such as USD and MPD acquired in step S7. That is, by performing the same process as “Procedure 7” in the basic operation of FIG. 10 described above, it is specified that the audio and video streams listed in the Representation element of the MPD are transmitted by broadcasting or communication.
  • signaling information such as USD and MPD acquired in step S7.
  • step S9 according to the result of the process in step S8, it is determined whether the delivery path of the audio or video stream is broadcast or communication.
  • step S9 If it is determined in step S9 that the stream distribution route is broadcast, the process proceeds to step S10.
  • the control unit 516 specifies an IP address, a port number, a TSI, and a TOI for acquiring an audio or video stream based on signaling information such as FDD or SDP acquired in the process of step S7. .
  • step S11 the filtering processing unit 513 performs the filtering process of the LCT packet of the segment data according to the control from the control unit 516.
  • the segment data is extracted (acquired) from the LCT packet of the segment data (S12).
  • the process proceeds to step S14.
  • step S9 if it is determined in step S9 that the stream delivery path is communication, the process proceeds to step S13.
  • step S ⁇ b> 13 the communication unit 520 accesses the communication server 30 via the network 90 according to control from the control unit 516, and receives segment data of a stream that is streamed.
  • the process proceeds to step S14.
  • the output unit 519 performs buffering of the segment data according to the control from the control unit 516 (S14), and further performs rendering (S15). As a result, the client device 50 reproduces the video and audio of the program corresponding to the normal service selected by the user.
  • step S15 the process proceeds to step S16 to determine whether or not a predetermined event has occurred. If it is determined in step S16 that the predetermined event has not occurred, the process proceeds to step S17. According to the result of the process in step S8, the distribution path of the audio or video stream is either broadcast or communication. Is determined.
  • step S17 If it is determined in step S17 that the stream delivery route is broadcast, the process proceeds to step S11. And the video and the audio
  • step S16 when a predetermined event occurs, for example, when the power of the client device 50 is turned off, the basic service process of FIG. 17 ends.
  • the processing flow of the DASH server 10 and the broadcast server 20 (middleware) is shown as the transmission side device, and the middleware and DASH client processing flow in the client device 50 is shown as the reception side device.
  • the client device 50 has the functional configuration example of FIG. 16, the description will be made assuming that these components execute processing instead of the middleware and the DASH client. The same applies to the middleware of the broadcast server 20.
  • the DASH server 10 executes the processing of steps S111 to S113 in FIG. Specifically, in step S ⁇ b> 111, the segment data generation unit 112 generates segment data based on content stream data such as audio and video stored in the content storage unit 111 and supplies the segment data to the transmission unit 114. .
  • step S112 the MPD generation unit 113 generates an MPD file based on the content metadata stored in the content storage unit 111, and supplies the MPD file to the transmission unit 114.
  • step S113 the transmission unit 114 transmits (transfers) the segment data and the MPD file to the broadcast server 20.
  • the broadcast server 20 executes steps S211 to S216 of FIG. Specifically, the broadcast server 20 receives the segment data transferred from the DASH server 10 and the MPD file (S113). In step S ⁇ b> 211, the segment data acquisition unit 212 acquires segment data transferred from the DASH server 10.
  • step S212 the signaling information generation unit 213 generates SCS signaling information based on MPD files transferred from the DASH server 10 and original data of signaling information acquired from various servers.
  • step S213 the signaling information generation unit 213 generates LLS signaling information based on the original data of the signaling information acquired from various servers and the like.
  • step S214 the transmission unit 214 transmits the LLS packet via the antenna 215 as a digital broadcast signal using the IP transmission method.
  • step S215 the transmission unit 214 transmits the SCS LCT packet by the FLUTE session as a digital broadcast signal using the IP transmission method via the antenna 215.
  • step S216 the transmission unit 214 transmits the LCT packet of the segment data by the FLUTE session as a digital broadcast signal using the IP transmission method via the antenna 215.
  • the broadcast server 20 transmits signaling information and segment data as digital broadcast signals using the IP transmission method.
  • the middleware executes the processing of steps S511 to 518 in FIG. 18, and the DASH client executes the processing of steps S521 to 524 in FIG.
  • the client device 50 receives an LLS packet transmitted as a digital broadcast signal from the broadcast server 20 (S214).
  • the filtering processing unit 513 performs LLS packet filtering processing according to the control from the control unit 516.
  • step S512 the signaling information acquisition unit 514 parses the LLS packet and acquires signaling information such as SCD.
  • the control unit 516 specifies the SCS address of the normal service selected by the user based on the SCS Bootstrap information included in the SCD.
  • the client apparatus 50 receives the SCS LCT packet by the FLUTE session transmitted as a digital broadcast signal from the broadcast server 20 (S215).
  • the filtering processing unit 513 performs filtering processing of the SCS LCT packet in accordance with the control from the control unit 516. Since this filtering process extracts the SCS LCT packet, the parsing of this LCT packet obtains signaling information such as USD and MPD.
  • step S521 the control unit 516 performs MPD parsing, and requests segment data according to the parsing result (S522).
  • step S515 the control unit 516 performs broadcast / communication address resolution by referring to the USD according to the result of MPD parsing.
  • the audio and video streams listed in the Representation element of the MPD are transmitted by broadcasting by performing the same process as “Procedure 7” of the basic operation of FIG. 10 described above. Is done.
  • the control unit 516 specifies an IP address, a port number, a TSI, and a TOI for acquiring an audio or video stream based on signaling information such as FDD or SDP.
  • the client device 50 receives the LCT packet of the segment data by the FLUTE session transmitted as a digital broadcast signal from the broadcast server 20 (S216).
  • the filtering processing unit 513 performs the filtering process of the LCT packet of the segment data according to the control from the control unit 516.
  • the segment data is extracted (acquired) from the segment data LCT packet and cached (S518).
  • the output unit 519 performs buffering of the segment data according to the control from the control unit 516 (S523), and further performs rendering (S524).
  • the client device 50 reproduces the video and audio of the broadcast program of the normal service selected by the user.
  • the stream transmission / reception process in FIG. 18 is completed. Thereafter, the stream switching process using the MPD transmission path quality ranking information in FIG. 19 or the USD transmission path quality ranking information in FIG. The used stream switching process is executed.
  • FIG. 19 corresponds to the operation example 1 in FIG. That is, the stream switching process of FIG. 19 is executed when the stream transmission / reception process of FIG. 18 is executed and the video and audio of the broadcast program of the normal service selected by the user are played back on the client device 50.
  • the processing flow of the DASH server 10 and the broadcast server 20 (middleware) is shown as the transmission side device, and the middleware and DASH client processing flow in the client device 50 is shown as the reception side device.
  • the broadcast server 20 provides both a normal service that provides a normal audio and video stream and a robust service that provides a robust audio stream.
  • the client device 50 has the functional configuration example of FIG. 16, the description will be made assuming that these components execute processing instead of the middleware and the DASH client. The same applies to the middleware of the broadcast server 20.
  • step S541 it is determined whether or not an error is detected because the reception state deteriorates and the quality of the stream becomes unstable. If it is determined in step S541 that no error has been detected and the reception state has not deteriorated, the determination process in step S541 is repeated. In this case, the client device 50 continues to reproduce the video and audio of the broadcast program of the normal service.
  • step S541 determines whether an error has been detected and the reception state has deteriorated. If it is determined in step S541 that an error has been detected and the reception state has deteriorated, the process proceeds to step S542.
  • step S542 the control unit 516 selects an optimum stream according to the result of MPD parsing, and requests segment data of the stream (S543).
  • the audio stream listed in the Representation element in the AdaptationSet element of the MPD is set to “Low” or “As” as the BCRobustRanking attribute.
  • “High” a normal audio stream with "Low” specified as BCRobustRanking attribute is switched to a robust audio stream with "High” specified, so a robust audio segment Data is requested.
  • step S531 the control unit 516 performs broadcast / communication address resolution by referring to the USD in accordance with the optimum stream selection result in step S542.
  • the control unit 516 performs broadcast / communication address resolution by referring to the USD in accordance with the optimum stream selection result in step S542.
  • the same processing as “Procedure 18” in Operation Example 1 of FIG. 11 it is specified that a robust audio stream is transmitted by broadcasting.
  • SCS Bootstrap information for acquiring the SCS of the robust service is obtained from the SCD. (S532).
  • the client device 50 receives the SCS LCT packet by the FLUTE session transmitted from the broadcast server 20 as a digital broadcast signal (S231).
  • the filtering processing unit 513 performs SCS LCT packet filtering processing according to the control from the control unit 516. By this filtering process, the SCS LCT packet is extracted. By parsing the LCT packet, the SCS of the robust service such as USD, SDP, or FDD is acquired.
  • step S534 the control unit 516 obtains a robust audio stream provided as a robust service based on signaling information such as USD, SDP, and FDD, a port number, a TSI, and Specify TOI.
  • signaling information such as USD, SDP, and FDD, a port number, a TSI, and Specify TOI.
  • the client device 50 receives the LCT packet of the segment data by the FLUTE session transmitted as a digital broadcast signal from the broadcast server 20 (S232).
  • the filtering processing unit 513 performs the filtering process of the LCT packet of the segment data according to the control from the control unit 516.
  • the segment data is extracted (acquired) from the segment data LCT packet and cached (S536).
  • the output unit 519 performs segment data buffering according to the control from the control unit 516 (S544), and further performs rendering (S545). Accordingly, in the client device 50, when the reception state deteriorates and the quality of the stream becomes unstable, the normal service is switched to the robust service, and the audio corresponding to the audio having the high level of robustness is supported. Audio with stable stream transfer is played regardless of changes in the reception environment.
  • the stream switching process in FIG. 20 corresponds to the operation example 2-1 in FIG. 12 and the operation example 2-2 in FIG. That is, the stream switching process of FIG. 20 is executed when the stream transmission / reception process of FIG. 18 is executed and the video and audio of the broadcast program of the normal service selected by the user are played back on the client device 50.
  • the processing flow of the DASH server 10 and the broadcast server 20 (middleware) is shown as the transmission side device, and the middleware and DASH client processing flow in the client device 50 is shown as the reception side device.
  • the broadcast server 20 provides both a normal service that provides normal audio and video streams and a robust service that provides robust audio streams.
  • the client device 50 has the functional configuration example of FIG. 16, the description will be made assuming that these components execute processing instead of the middleware and the DASH client. The same applies to the middleware of the broadcast server 20.
  • step S561 it is determined whether or not an error is detected because the reception state deteriorates and the quality of the stream becomes unstable. If it is determined in step S561 that no error has been detected and the reception state has not deteriorated, the determination process in step S561 is repeated. In this case, the client device 50 continues to reproduce the video and audio of the broadcast program of the normal service.
  • step S561 segment data is requested according to the result of MPD parsing.
  • step S551 the control unit 516 refers to the USD in accordance with the segment data request in step S562 and selects an optimum stream.
  • step S552 the control unit 516 performs broadcast / communication address resolution by referring to the USD in accordance with the optimum stream selection result in step S551.
  • the URL specified in the SegmentURL element described in the MPD and the deliveryMethod element of USD are described. Matching with the URL specified in the basepattern element is performed.
  • the audio stream of the Representation element in which SegmentURL1 is specified is a robust audio stream in which "High" is specified as the BCRobustRanking attribute. Therefore, it is specified that it is transmitted by broadcasting.
  • the SCS Bootstrap information for acquiring the SCS of the robust service from the SCD is obtained. Is obtained (S553).
  • the client device 50 receives the SCS LCT packet by the FLUTE session transmitted from the broadcast server 20 as a digital broadcast signal (S251).
  • the filtering processing unit 513 performs filtering processing of the SCS LCT packet in accordance with the control from the control unit 516. By this filtering process, the SCS LCT packet is extracted. By parsing the LCT packet, the SCS of the robust service such as USD, SDP, or FDD is acquired.
  • step S555 the control unit 516 obtains a robust audio stream provided as a robust service based on signaling information such as USD, SDP, and FDD, a port number, a TSI, and Specify TOI.
  • signaling information such as USD, SDP, and FDD, a port number, a TSI, and Specify TOI.
  • the client device 50 receives the LCT packet of the segment data by the FLUTE session transmitted as a digital broadcast signal from the broadcast server 20 (S252).
  • the filtering processing unit 513 performs the filtering process of the LCT packet of the segment data according to the control from the control unit 516.
  • the segment data is extracted (acquired) from the segment data LCT packet and cached (S557).
  • the output unit 519 performs segment data buffering according to the control from the control unit 516 (S563), and further performs rendering (S564). Accordingly, in the client device 50, when the reception state deteriorates and the quality of the stream becomes unstable, the normal service is switched to the robust service, and the audio corresponding to the audio having the high level of robustness is supported. Audio with stable stream transfer is played regardless of changes in the reception environment.
  • an audio stream is described as an example of a highly robust stream provided by a robust service, but other streams such as video may be used.
  • SCD Service Configuration Description
  • SCT Service Configuration Table
  • SPD Service Parameter Description
  • SPT Service Parameter Table
  • FIG. 21 is a diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 905 is further connected to the bus 904.
  • An input unit 906, an output unit 907, a recording unit 908, a communication unit 909, and a drive 910 are connected to the input / output interface 905.
  • the input unit 906 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 907 includes a display, a speaker, and the like.
  • the recording unit 908 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 909 includes a network interface or the like.
  • the drive 910 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads the program stored in the ROM 902 or the recording unit 908 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program. A series of processing is performed.
  • the program executed by the computer 900 can be provided by being recorded on a removable medium 911 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 908 via the input / output interface 905 by installing the removable medium 911 in the drive 910. Further, the program can be received by the communication unit 909 via a wired or wireless transmission medium and installed in the recording unit 908. In addition, the program can be installed in the ROM 902 or the recording unit 908 in advance.
  • the processing performed by the computer according to the program does not necessarily have to be performed in chronological order in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or individually (for example, parallel processing or object processing).
  • the program may be processed by a single computer (processor) or may be distributedly processed by a plurality of computers.
  • the present technology can take the following configurations.
  • a receiving unit for receiving a broadcast wave of digital broadcasting using an IP (Internet Protocol) transmission method; In the broadcast wave, an acquisition unit for acquiring signaling information transmitted in a higher layer than the IP layer in the protocol layer of the IP transmission method; And a control unit that controls an operation of switching the stream to be reproduced from the first stream to the second stream having higher robustness than the first stream based on the signaling information.
  • the signaling information includes first control information used for playback control of the stream, and second control information used for playback control of the stream, as referred to from the first control information.
  • the receiving device according to (1), wherein the control unit switches from the first stream to the second stream based on the first control information and the second control information.
  • the first control information includes information indicating a ranking of transmission path quality, The receiving device according to (2), wherein the control unit switches from the first stream having a low transmission path quality to the second stream having a high transmission path quality based on the first control information.
  • the second control information includes information indicating a ranking of transmission path quality, The receiving device according to (2), wherein the control unit switches from the first stream having a low transmission path quality to the second stream having a high transmission path quality based on the second control information.
  • the control unit switches from the first stream to the second stream when the signaling information has contents corresponding to switching from the first stream to the second stream.
  • the receiving device according to any one of (4) to (4).
  • the first stream is a stream composed of video and audio
  • the signaling information is SCS (Service Channel Signaling)
  • the first control information is USD (User Service Description)
  • the second control information is MPD (Media Presentation Description) compliant with MPEG-DASH (Moving Picture Expert Group-Dynamic Adaptive Streaming over HTTP) standard.
  • the receiving device is Receive broadcast waves of digital broadcasting using the IP transmission method, In the broadcast wave, obtaining signaling information transmitted in a layer higher than the IP layer in the protocol layer of the IP transmission method, A receiving method including a step of controlling an operation of switching a reproduced stream from a first stream to a second stream having higher robustness than the first stream based on the signaling information.
  • a generating unit that generates signaling information for controlling an operation of switching a stream to be reproduced from a first stream to a second stream having higher robustness than the first stream;
  • An acquisition unit that acquires the first stream and the second stream;
  • a transmission unit that transmits the signaling information together with at least one of the first stream and the second stream using a broadcast wave of a digital broadcast using an IP transmission scheme; In the broadcast wave, the signaling information is transmitted in a layer higher than the IP layer in the protocol layer of the IP transmission scheme.
  • the signaling information includes first control information used for playback control of the stream and second control information used for playback control of the stream, as well as being referenced from the first control information.
  • the second control information includes information indicating a ranking of transmission path quality.
  • the first stream is a stream composed of video and audio,
  • the signaling information is SCS;
  • the first control information is USD,
  • the transmission apparatus according to any one of (12) to (16), wherein the second control information is MPD conforming to an MPEG-DASH standard.
  • the transmitting device is Generating signaling information for controlling an operation of switching a stream to be played from a first stream to a second stream having higher robustness than the first stream; Obtaining the first stream and the second stream; Transmitting the signaling information together with at least one of the first stream and the second stream by a broadcast wave of digital broadcasting using an IP transmission method, In the broadcast wave, the signaling information is transmitted in a layer higher than the IP layer in the protocol layer of the IP transmission scheme.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 本技術は、ロバスト性の高い放送サービスを提供することができるようにする受信装置、受信方法、送信装置、及び、送信方法に関する。 IP伝送方式を用いたデジタル放送の放送波を受信する受信部と、前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で伝送されるシグナリング情報を取得する取得部と、前記シグナリング情報に基づいて、再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御する制御部とを有する受信装置が提供される。本技術は、例えば、テレビ受像機に適用することができる。

Description

受信装置、受信方法、送信装置、及び、送信方法
 本技術は、受信装置、受信方法、送信装置、及び、送信方法に関し、特に、ロバスト性の高い放送サービスを提供することができるようにした受信装置、受信方法、送信装置、及び、送信方法に関する。
 IPTV(Internet Protocol Television)等のインターネットストリーミングにおける標準化の流れとして、HTTP(Hypertext Transfer Protocol)ストリーミングによるVoD(Video On Demand)ストリーミングや、ライブストリーミングに適用される方式の標準化が行われている。特に、ISO/IEC/MPEGで標準化が行われているMPEG-DASH(Moving Picture Expert Group - Dynamic Adaptive Streaming over HTTP)が注目されている(例えば、非特許文献1参照)。
 MPEG-DASHは、MPD(Media Presentation Description)と呼ばれるメタファイルと、そこに記述されるチャンク化されたオーディオ、ビデオ、又は字幕等のメディアデータのアドレス(URL:Uniform Resource Locator)に従い、ストリーミングデータを取得して再生するものである。
 MPDに記述されるメディアデータのストリーム(Representation)は、属性の異なる複数候補が列挙される。MPDを処理するアプリケーション(例えば、ストリームプレイヤ等)は、それらの複数候補のストリームの中から、現在のネットワーク環境条件に応じた最適なストリームを選択し、当該ストリームを取得して再生する。そして、ネットワーク環境が変化すれば、それに応じて取得対象のストリームを変更することになる。
ISO/IEC 23009-1:2012 Information technology Dynamic adaptive streaming over HTTP (DASH)
 ところで、取得対象のストリームが放送で配信される場合には、その放送波を取得(選局)する際に、よりロバスト性の高い、すなわち、エラーが起きやすい環境においても品質の高い伝送路が確保可能なチャンネルを利用して、より高い配信確実性が求められるストリーム(例えば音声等)を伝送することにより、ロバスト性の高い放送サービスを実現することが必要とされる。
 しかしながら、このような要件を満たすような技術方式は確立されておらず、ロバスト性の高い放送サービスを提供することが求められている。
 本技術はこのような状況に鑑みてなされたものであり、ロバスト性の高い放送サービスを提供することができるようにするものである。
 本技術の第1の側面の受信装置は、IP(Internet Protocol)伝送方式を用いたデジタル放送の放送波を受信する受信部と、前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で伝送されるシグナリング情報を取得する取得部と、前記シグナリング情報に基づいて、再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御する制御部とを備える受信装置である。
 前記シグナリング情報は、前記ストリームの再生制御に用いられる第1の制御情報と、前記第1の制御情報から参照されるとともに、前記ストリームの再生制御に用いられる第2の制御情報を含み、前記制御部は、前記第1の制御情報、及び、前記第2の制御情報に基づいて、前記第1のストリームから、前記第2のストリームに切り替えるようにすることができる。
 前記第1の制御情報は、伝送路の品質のランキングを示す情報を含み、前記制御部は、前記第1の制御情報に基づいて、伝送路の品質の低い前記第1のストリームから、伝送路の品質の高い前記第2のストリームに切り替えるようにすることができる。
 前記第2の制御情報は、伝送路の品質のランキングを示す情報を含み、前記制御部は、前記第2の制御情報に基づいて、伝送路の品質の低い前記第1のストリームから、伝送路の品質の高い前記第2のストリームに切り替えるようにすることができる。
 前記制御部は、前記第1のストリームの受信状態が悪化した場合に、前記第1のストリームから、前記第2のストリームに切り替えるようにすることができる。
 前記制御部は、前記シグナリング情報が、前記第1のストリームから、前記第2のストリームへの切り替えに対応した内容となったとき、前記第1のストリームから、前記第2のストリームに切り替えるようにすることができる。
 前記第1のストリームと、前記第2のストリームは、異なるサービスとして提供されるようにすることができる。
 前記第1のストリームは、ビデオとオーディオからなるストリームであり、前記第2のストリームは、オーディオのストリームであるようにすることができる。
 前記シグナリング情報は、SCS(Service Channel Signaling)であり、前記第1の制御情報は、USD(User Service Description)であり、前記第2の制御情報は、MPEG-DASH(Moving Picture Expert Group - Dynamic Adaptive Streaming over HTTP)の規格に準拠したMPD(Media Presentation Description)であるようにすることができる。
 受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
 本技術の第1の側面の受信方法は、本技術の第1の側面の受信装置に対応する受信方法である。
 本技術の第1の側面の受信装置、及び、受信方法においては、IP伝送方式を用いたデジタル放送の放送波が受信され、前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で伝送されるシグナリング情報が取得され、前記シグナリング情報に基づいて、再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作が制御される。
 本技術の第2の側面の送信装置は、再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御するためのシグナリング情報を生成する生成部と、前記第1のストリームと、前記第2のストリームを取得する取得部と、前記第1のストリーム、及び、前記第2のストリームの少なくとも一方とともに、前記シグナリング情報を、IP伝送方式を用いたデジタル放送の放送波で送信する送信部とを備え、前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で、前記シグナリング情報が伝送される送信装置である。
 前記シグナリング情報は、前記ストリームの再生制御に用いられる第1の制御情報と、前記第1の制御情報から参照されるとともに、前記ストリームの再生制御に用いられる第2の制御情報を含むようにすることができる。
 前記第1の制御情報は、伝送路の品質のランキングを示す情報を含むようにすることができる。
 前記第2の制御情報は、伝送路の品質のランキングを示す情報を含むようにすることができる。
 前記第1のストリームと、前記第2のストリームは、異なるサービスとして提供されるようにすることができる。
 前記第1のストリームは、ビデオとオーディオからなるストリームであり、前記第2のストリームは、オーディオのストリームであるようにすることができる。
 前記シグナリング情報は、SCSであり、前記第1の制御情報は、USDであり、前記第2の制御情報は、MPEG-DASHの規格に準拠したMPDであるようにすることができる。
 送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
 本技術の第2の側面の送信方法は、本技術の第2の側面の送信装置に対応する送信方法である。
 本技術の第2の側面の送信装置、及び、送信方法においては、送信装置の送信方法において、再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御するためのシグナリング情報が生成され、前記第1のストリームと、前記第2のストリームが取得され、前記第1のストリーム、及び、前記第2のストリームの少なくとも一方とともに、前記シグナリング情報が、IP伝送方式を用いたデジタル放送の放送波で送信される。また、前記放送波においては、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で、前記シグナリング情報が伝送される。
 本技術の第1の側面及び第2の側面によれば、ロバスト性の高い放送サービスを提供することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
3GPP MBMSのプロトコルスタックを示す図である。 FLUTEの構造を示す図である。 IP伝送方式のデジタル放送のプロトコルスタックを示す図である。 IP伝送方式のデジタル放送の放送波の構成を示す図である。 USDのメタデータ構造を示す図である。 USDのスキーマを示す図である。 USDのスキーマを示す図である。 MPDのスキーマを示す図である。 MPDのスキーマを示す図である。 各運用例に共通する基本の運用を説明するための図である。 運用例1を説明するための図である。 運用例2-1を説明するための図である。 運用例2-2を説明するための図である。 放送通信システムの構成例を示す図である。 各サーバの構成例を示す図である。 クライアント装置の構成例を示す図である。 基本サービス処理の流れを説明するフローチャートである。 ストリーム送受信処理の流れを説明するフローチャートである。 MPDの伝送路の品質のランキング情報を用いたストリーム切り替え処理の流れを説明するフローチャートである。 USDの伝送路の品質のランキング情報を用いたストリーム切り替え処理の流れを説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.IP伝送方式によるデジタル放送の概要
2.SCSの構造
3.具体的な運用例
(1)運用例1:ストリームの切り替えにMPDの伝送路の品質のランキング情報を用いる
(2)運用例2-1:ストリームの切り替えにUSDの伝送路の品質のランキング情報を用いる
(3)運用例2-2:ストリームの切り替えにUSDの伝送路の品質のランキング情報を用いる
4.システム構成
5.各装置における具体的な処理の流れ
6.コンピュータの構成
<1.IP伝送方式によるデジタル放送の概要>
 以下、IP(Internet Protocol)伝送方式によるデジタル放送の概要について説明するが、ここでは、比較のため、まず、3GPP-MBMS(Third Generation Partnership Project - Multimedia Broadcast Multicast Service)の概要を説明してから、IP伝送方式によるデジタル放送の概要について説明する。
(3GPP-MBMSのプロトコルスタック)
 図1は、3GPP-MBMSのプロトコルスタックを示す図である。
 図1において、最も下位の階層は、物理層(Physical Layer)とされる。3GPP-MBMSでは、図中の右側の放送を利用した伝送の場合、その物理層は、一方向のMBMS又は双方向のptp Bearer(s)のいずれかを利用することになる。
 物理層に隣接する上位の階層は、IP層とされる。また、IP層に隣接する上位の階層は、UDP/TCP層とされる。すなわち、物理層としてMBMSを利用する場合には、IP層では、IPマルチキャストが用いられ、UDP/TCP層では、UDP(User Datagram Protocol)が用いられる。一方、物理層としてptp Bearer(s)を利用する場合には、IP層では、IPユニキャストが用いられ、UDP/TCP層では、TCP(Transmission Control Protocol)が用いられる。
 UDP/TCP層に隣接する上位の階層は、FEC,HTTP(S),FLUTEとされる。FLUTE(File Delivery over Unidirectional Transport)は、マルチキャストにおけるファイル転送用のプロトコルである。なお、FLUTEには、FEC(Forward Error Correction)が適用される。FLUTEの詳細な内容は、図2を参照して後述する。
 FLUTEに隣接する上位の階層は、3GP-DASH,Download 3GPP file format etc,ptm File Repair,Service Announcement & Metadataとされる。また、ptm File Repairに隣接する上位階層は、Associated Delivery Proceduresとされる。
 3GP-DASH(Dynamic Adaptive Streaming over HTTP)に隣接する上位階層は、オーディオやビデオ等のストリーミングデータとされる。すなわち、オーディオやビデオ等のストリーミングデータは、ISO BMFF(Base Media File Format)の規格に準じたメディアセグメント(Media Segment)単位で、FLUTEセッションにより伝送することができる。また、Service Announcement & Metadataには、FLUTEセッションで伝送されるストリーミングデータの制御情報として、USD(User Service Description)やMPD(Media Presentation Description)を配置することができる。したがって、USDやMPD等の制御情報についても、FLUTEセッションで伝送することができる。
 このように、3GPP-MBMSでは、3GPPファイルフォーマット(ISO BMFFファイル、MP4ファイル)に基づいたファイルのFLUTEセッションによるファイルダウンロード用のプロトコルを規定しているが、同じプロトコルによって、MPEG-DASHのfragmented MP4ファイルシーケンスと、MPEG-DASHの規格に準じているMPDを伝送することができる。なお、MPDは、同様にFLUTEセッションで伝送されるUSDから参照される。また、fragmented MP4とは、フラグメント化されたMP4ファイルを意味する。
 なお、UDP/TCP層に隣接する上位の階層となるHTTP(S)の上位の階層は、3GP-DASHのストリーミングデータとされる。すなわち、3GP-DASHのストリーミングデータは、HTTP(S)を用いて伝送することもできる。また、UDP/TCP層に隣接する上位の階層となるFECの上位階層は、RTP/RTCP,MIKEYとされる。RTP/RTCPの上位階層は、RTP PayloadFormatsとされ、さらに、その上位階層は、ストリーミングデータとされる。すなわち、RTP(Real time Transport Protocol)セッションによりストリーミングデータを伝送することができる。MIKEYの上位階層は、Key Distribution(MTK)とされ、さらに、その上位階層は、MBMS Securityとされる。
 一方、図中の左側の携帯電話通信網を利用した伝送の場合、その物理層は、双方向のptp Bearerのみを利用することになる。物理層に隣接する上位の階層は、IP層とされる。また、IP層に隣接する上位の階層は、TCP層とされ、さらに、TCP層に隣接する上位階層は、HTTP(S)層とされる。すなわち、これらの階層によって、インターネット等のネットワークで稼働するプロトコルスタックが実装される。
 HTTP(S)層に隣接する上位の階層は、Service Announcement & Metadata,ptm File Repair,Reception Reporting,Registrationとされる。Service Announcement & Metadataには、放送を利用したFLUTEセッションで伝送されるストリーミングデータの制御情報として、USDやMPDを配置することができる。したがって、例えばインターネット上のサーバによって、USDやMPD等の制御情報が提供されるようにすることができる。
 なお、ptm File Repairと、Reception Reportingに隣接する上位階層は、Associated Delivery Proceduresとされる。また、Registrationに隣接する上位階層は、MBMS Securityとされる。さらに、IP層に隣接する上位の階層であるUDP層の上位階層は、MIKEYとされる。MIKEYの上位階層は、Key Distribution(MTK)とされ、さらに、その上位階層は、MBMS Securityとされる。また、例えば、放送を利用したFLUTEセッションや、携帯電話通信網を利用したTCP/IPプロトコルを用いて、アプリケーション(Application(s))を伝送することができる。
(FLUTEの構造)
 図2は、図1のFLUTE(File Delivery over Unidirectional Transport)の構造を示す図である。
 FLUTEは、マルチキャストにおけるファイル転送用のプロトコルとして仕様化されている。図2に示すように、FLUTEは、FDT(File Delivery Table)と、ALC(Asynchronous Layered Coding)と呼ばれるスケーラブルなファイルオブジェクトのマルチキャストプロトコル、具体的には、そのビルディングブロックであるLCT(Layered Coding Transport)やFEC(Forward Error Correction)コンポーネントの組み合わせにより構成される。
 FDTは、TSI(Transport Session Identifier)ごとのインデックス情報として、ロケーション情報(例えばURLなど)やTOI(Transport Object Identifier)などの情報を含んでいる。FLUTEセッションでは、送信するファイルなどを1つのオブジェクトとして、TOIにより管理する。また、複数のオブジェクトの集合を1つのセッションとして、TSIにより管理する。すなわち、FLUTEセッションにおいては、TSIとTOIの2つの識別情報によって特定のファイルを指定することが可能となる。なお、FDTは、後述するFDD(File Delivery Description)に相当するものである。
(IP伝送方式のプロトコルスタック)
 図3は、IP伝送方式のデジタル放送のプロトコルスタックを示す図である。
 図3において、最も下位の階層は、物理層(Physical Layer)とされる。IP伝送方式のデジタル放送では、放送を利用した伝送に限らず、一部のデータを、通信を利用して伝送する場合があるが、放送を利用する場合、その物理層(Broadcast PHY)は、サービス(チャンネル)のために割り当てられた放送波の周波数帯域が対応することになる。
 物理層の上位の階層は、IP層とされる。IP層は、TCP/IPのプロトコルスタックにおけるIP(Internet Protocol)に相当するものであり、IPアドレスによりIPパケットが特定される。IP層に隣接する上位階層はUDP層とされ、さらにその上位の階層は、File Delivery and Repair(AL-FEC)とされる。このFile Delivery and Repairには、例えばFLUTE+(File Delivery over Unidirectional Transport plus)を採用することができる。すなわち、IP伝送方式のデジタル放送においては、IPアドレスとUDPのポート番号が指定されたパケットが送信され、例えば、FLUTEセッションが確立されるようになされている。
 なお、FLUTE+は、従来から規定されているFLUTEが拡張されたものであり、FLUTEの詳細は、RFC6726として規定されている。また、FLUTE+(plus)は、「FLUTE enhancement」と称される場合がある。
 File Delivery and Repairに隣接する上位階層のうち、一部の階層は、ESG(Electronic Service Guide)、SCS(Service Channel Signaling)、NRTコンテンツ(NRT Content)とされ、ESG,SCS,NRTコンテンツは、例えばFLUTEセッションにより伝送される。ESGは、電子サービスガイドである。NRTコンテンツは、NRT(Non Real Time)放送で伝送されるコンテンツであって、受信機のストレージに一旦蓄積された後で再生が行われる。なお、NRTコンテンツは、コンテンツの一例であって、他のコンテンツのファイルがFLUTEセッションにより伝送されるようにしてもよい。
 SCSは、サービス単位のシグナリング情報である。SCSとしては、例えば、USD(User Service Bundle Description),MPD(Media Presentation Description),SDP(Session Description Protocol),FDD(File Delivery Description),SPD(Service Parameter Description)が伝送される。
 USDは、MPD,FDD,SDP等のシグナリング情報を参照するための参照情報を含んでいる。なお、USDは、USBD(User Service Bundle Description)と称される場合がある。MPDは、サービス単位で伝送されるストリーム(コンポーネント)ごとのセグメントURLなどの情報を含んでいる。上述したように、MPDは、MPEG-DASHの規格に準じている。
 SDPは、サービス単位のサービス属性、ストリームの構成情報や属性、フィルタ情報、ロケーション情報などを含んでいる。FDDは、TSIごとのインデックス情報として、ロケーション情報(例えばURLなど)やTOIなどの情報を含んでいる。なお、FDDは、USDに要素として含めるようにしてもよい。また、FDDは、上述のFDT(File Delivery Table)に対応するものである。SPDは、サービスのレベルで規定された各種のパラメータを含んで構成される。
 なお、USD,MPD,SDP,FDD,SPDは、例えば、XML(Extensible Markup Language)等のマークアップ言語により記述される。
 File Delivery and Repairに隣接する上位階層のうち、上述した階層以外の他の階層は、DASH(ISO BMFF)とされる。また、DASH(ISO BMFF)に隣接する上位階層は、ビデオ(Video)やオーディオ(Audio)、字幕(CC:Closed Caption)等のストリーミングデータ(コンポーネント)とされる。すなわち、オーディオやビデオ、字幕等のストリーミングデータは、ISO BMFF(Base Media File Format)の規格に準じたメディアセグメント(Media Segment)単位で、例えばFLUTEセッションにより伝送されることになる。
 LLS(Low Layer Signaling)は、低レイヤのシグナリング情報であって、BBPストリーム上で伝送される。例えば、LLSとしては、SCD(Service Configuration Description),EAD(Emergency Alerting Description),RRD(Region Rating Description)が伝送される。
 SCDは、MPEG2-TS(Moving Picture Expert Group 2 - Transport Stream)方式で用いられているID体系に対応するID体系を採用し、放送ネットワーク内のBBPストリーム構成とサービス構成が示される。また、SCDには、サービス単位の属性・設定情報としてのIPアドレス等の情報、ESGにアクセスするためのESG bootstrap情報、SCSにアクセスするためのSCS bootstrap情報などが含まれる。
 EADは、緊急告知に関する情報を含んでいる。RRDは、レーティング情報を含んでいる。なお、SCD,EAD,RRDは、例えば、XML等のマークアップ言語により記述される。
 一方、通信を利用する場合、その物理層(Broadband PHY)の上位の階層は、IP層とされる。また、IP層に隣接する上位階層は、TCP層とされ、さらに、TCP層に隣接する上位階層は、HTTP(S)層とされる。すなわち、これらの階層によって、インターネット等のネットワークで稼働するプロトコルスタックが実装される。
 これにより、受信機は、例えばインターネット上のサーバとの間で、TCP/IPプロトコルを用いた通信を行い、ESGやSCS,NRTコンテンツ等を受信することができる。また、受信機は、インターネット上のサーバから、適応的にストリーミング配信されるオーディオやビデオ等のストリーミングデータを受信することができる。なお、このストリーミング配信は、MPEG-DASHの規格に準拠したものとなる。
 また、例えば、放送のFLUTEセッションや、通信のTCP/IPプロトコルを用いて、アプリケーション(Applications)を伝送することができる。このアプリケーションは、HTML5(HyperText Markup Language 5)等のマークアップ言語により記述することができる。
 以上のように、IP伝送方式のデジタル放送では、一部が3GPP-MBMSに対応したプロトコルスタックを採用している。これにより、オーディオやビデオのストリーミングデータを、ISO BMFFの規格に準じたメディアセグメント単位で伝送することができる。また、ESGやSCS等のシグナリング情報を、放送と通信のどちらで伝送する場合であっても、IP層よりも下位の階層となる物理層(とデータリンク層)を除く階層、つまり、IP層よりも上位の階層では、プロトコルを共通にすることが可能となるため、受信機等においては、実装の負担や処理の負担を軽減することが期待される。
(IP伝送方式の放送波の構成)
 図4は、IP伝送方式のデジタル放送の放送波の構成を示す図である。
 図4において、所定の周波数帯域を有する放送波(RF Channel)には、複数のBBPストリームが伝送されている。また、各BBPストリームには、NTP(Network Time Protocol)、複数のサービスチャンネル(Service Channel)、ESG(ESG Service)、及び、LLSが含まれる。なお、NTP,サービスチャンネル、ESGは、UDP/IPのプロトコルに従って伝送されるが、LLSは、BBPストリーム上で伝送される。また、NTPは、時刻情報であって、複数のサービスチャンネルで共通とすることができる。
 各サービスチャンネル(以下、「サービス」という。)には、ビデオやオーディオ、字幕等の番組を構成する情報であるコンポーネント(Component)と、USDやMPD等のSCSが含まれる。また、各サービスには、共通のIPアドレスが付与されており、このIPアドレスを用いて、1又は複数のサービスごとに、コンポーネントやSCSなどをパッケージ化することができる。
 ここで、所定の周波数帯域を有する放送波(RF Channel)には、例えば放送事業者ごとに、RFチャンネルID(RF_channel_id)が割り当てられている。また、各放送波で伝送される1又は複数のBBPストリームには、BBPストリームID(BBP_stream_id)が割り当てられる。さらに、各BBPストリームで伝送される1又は複数のサービスには、サービスID(service_id)が割り当てられる。
 このように、IP伝送方式のID体系としては、MPEG2-TS方式で用いられているネットワークID(network_id),トランスポートストリームID(transport_stream_id),サービスID(service_id)の組み合わせ(以下、「トリプレット(Triplet)」という。)に対応する構成が採用され、このトリプレットによって、放送ネットワーク内のBBPストリーム構成とサービス構成が示される。
 このようなID体系を用いることで、現在広く普及しているMPEG2-TS方式との整合をとることができるため、例えば、MPEG2-TS方式からIP伝送方式への移行時のサイマルキャストに容易に対応することが可能となる。ただし、IP伝送方式のID体系では、RFチャンネルIDとBBPストリームIDが、MPEG2-TS方式におけるネットワークIDとトランスポートストリームIDに相当している。
<2.SCSの構造>
(USDのメタデータ構造)
 図5は、USD(User Service Description)のメタデータ構造を示す図である。
 図5において、図3等のUSDに相当するUSBD(User Service Bundle Description)要素の配下には、サービスごとのUSD要素が配置される。また、USBD要素は、FEC Repair Stream Descriptionを参照することができる。
 USD要素の配下には、deliveryMethod要素、Media Presentation Description要素、Schedule要素が配置される。deliveryMethod要素は、Associated Delivery Procedure Description,SDP(Session Description Protocol),Security Description,FDD(File Delivery Description),RFD(Repair Flow Description)を参照することができる。なお、SDPは、Associated Delivery Procedure Descriptionと、Security Descriptionに関連付けられる。
 Media Presentation Description要素は、MPD(Media Presentation Description)を参照することができる。また、MPDは、Initialisation Segment Descriptionを参照することができる。Schedule要素は、Schedule Descriptionを参照することができる。また、Schedule Descriptionは、Filter Descriptionを参照することができる。
(USDのスキーマ)
 図6及び図7は、USD(User Service Description)のスキーマを示す図である。なお、USDは、例えばXML等のマークアップ言語による階層構造で記述される。
 図6及び図7において、図3等のUSDに相当するUSBD(bundleDescription)には、USD要素、deliveryMethod要素、及び、appService要素などが階層構造で記述される。
 deliveryMethod要素には、broadcastAppService要素とunicastAppService要素を記述することができる。broadcastAppService要素にはさらに、assocication_tag属性と、basepattern要素と、BCRobustRanking属性を記述することができる。assocication_tag属性は、他のシグナリング情報との関連付けを行うことができる。basepattern要素には、放送で伝送されるストリームのURLが指定される。BCRobustRanking属性には、ストリームのロバスト性のレベルを示す情報、すなわち、伝送路の品質のランキングを示す情報として、例えば、"High"や"Low"等の値が指定される。
 また、unicastAppService要素のbasepattern要素には、通信で伝送されるストリームのURLが指定される。このようなdeliveryMethod要素に含めることが可能な属性や要素として、図7の属性や要素が規定されている。
 appService要素には、identicalContent要素を記述することができる。identicalContent要素のbasePattern要素は、deliveryMethod要素内のbasepattern要素を関連付けることができる。このようなappService要素に含めることが可能な属性や要素として、図7の属性や要素が規定されている。
(MPDのスキーマ)
 図8及び図9は、MPD(Media Presentation Description)のスキーマを示す図である。なお、MPDは、例えばXML等のマークアップ言語による階層構造で記述される。
 図8及び図9において、MPDは、Period要素、AdaptationSet要素、Representation要素、及び、SubRepresentation要素が階層構造で記述される。
 Period要素は、番組等のコンテンツの構成を記述する単位となる。また、AdaptationSet要素、Representation要素、又は、SubRepresentation要素は、ビデオやオーディオ、字幕等のそれぞれのストリームごとに利用され、ぞれぞれのストリームの属性を記述することができる。
 なお、AdaptationSet要素は、ビデオストリームやオーディオストリーム等の単一のストリームの他、複数のストリームが多重化されたストリームに対応している。MPEG-DASHの規格においては、このようなAdaptationSet要素に含めることが可能な属性や要素として、図8の属性や要素が規定されている。
 また、Representation要素は、その上位要素(親要素)となるAdaptationSet要素の範囲内で、例えばビットレート等のパラメータが異なる複数の選択肢となるストリーム(コンポーネント)を列挙している。Representation要素には、BCRobustRanking属性を記述することができる。BCRobustRanking属性には、ストリームのロバスト性のレベルを示す情報、すなわち、伝送路の品質のランキングを示す情報として、例えば、"High"や"Low"等の値が指定される。MPEG-DASHの規格においては、このようなRepresentation要素に含めることが可能な属性や要素として、図9の属性や要素が規定されている。なお、図9の属性や要素は、SubRepresentation要素に含めるようにすることができる。
<3.具体的な運用例>
 次に、具体的な運用例を説明する。この運用例では、受信機において、通常の放送番組の再生時において、受信環境が変動してエラーが検出された場合に、再生されるストリームを、通常のオーディオとビデオのストリームから、高レベルのロバスト性を有しているオーディオのストリームに切り替えて、音声のみを安定して再生する場面を想定している。
 ここでは、ストリームの切り替えに用いられる伝送路の品質のランキングを示す情報をMPDに含ませた運用例1と、ストリームの切り替えに用いられる伝送路の品質のランキングを示す情報をUSDに含ませた運用例2-1,2-2を例示するが、これらの運用例では、通常のオーディオとビデオのストリーム(コンポーネント)による、通常の放送番組の音声と映像の再生については共通しているので、この共通の部分について先に説明してから、その後に具体的な運用例について説明する。なお、以下、この共通の部分を、「基本の運用」と称して説明する。
(基本の運用)
 図10は、各運用例に共通する基本の運用を説明するための図である。なお、図中の「1」乃至「13」の数字は、処理の順序を表しており、受信機においては、この数字の順に処理が実行される。また、このような数字の意味は、後述する他の図でも同様とされる。
 図10において、RFチャンネルIDにより識別される放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波(RF Channel)によって、BBPストリームIDにより識別されるBBPストリーム(BBP Stream)を伝送している。BBPストリームでは、サービスIDで識別される各サービスを構成するストリーム(コンポーネント)やシグナリング情報等が伝送される。
 なお、オーディオやビデオのストリームやシグナリング情報(SCS)のファイルは、FLUTEセッションで伝送されている。また、図10の基本の運用では、放送で伝送されるストリームのみが取得されるため、サーバ(Internet Server)から通信で伝送されるストリームが取得されることはない。
 以下、通常のオーディオとビデオによる放送番組が提供されるサービスを、「通常サービス」と称し、ロバストなオーディオによるロバスト性の高い音声が提供されるサービスを、「ロバストサービス」と称して説明する。図10においては、放送局が、通常サービスのみを提供しているため、通常サービスのUSDやMPD等のSCSは、ロバストサービスに未対応の記述となっている。
 図10において、各家庭等に設置された受信機は、初期スキャン処理によって、LLSで伝送されるSCDを取得して、NVRAMに保存する(手順1)。このSCDには、SCSを取得するためのIPアドレス、ポート番号、及び、TSIが記述されたSCS Bootstrap情報が含まれる。ここで、ユーザにより通常サービスが選局された場合(手順2)、受信機は、NVRAMからSCDを読み出して(手順3)、SCS Bootstrap情報に従い、放送波で伝送されているSCSに接続して、SCSを取得する(手順4,5)。
 SCSのファイルは、FLUTEセッションで伝送されているので、LCTパケットに格納されたデータを解析することで、USD,MPD,SDP,FDD等のシグナリング情報が取得される(手順6)。なお、deliveryMethod要素は、USDの子要素とされるが、説明の都合上、USDとは別に図示している。また、USDには参照情報が記述されており、この参照情報を用い、MPD,SDP,FDDを取得することになるが、それらのシグナリング情報は全てSCSに含まれているので、そこから一括して取得することもできる。
 MPDのAdaptationSet要素内には、Representation要素が配置され、放送又は通信でストリームとして伝送されるコンポーネントが列挙されている。また、Representation要素には、id属性の他に、ストリームの取得先のURLが指定されるSegmentURL要素が記述される。また、USDのdeliveryMethod要素には、ストリームの配信経路を識別するための情報が指定される。
 図10の基本の運用では、ストリームが放送でのみ伝送されるので、deliveryMethod要素には、broadcastAppService要素が配置され、さらに、basepattern要素には、放送で伝送されるストリームのURLが指定される。そして、MPDに記述されたSegmentURL要素に指定されたURLと、USDのdeliveryMethod要素に記述されたbasepattern要素に指定されたURLとのマッチングを行うことで、MPDに列挙されたオーディオとビデオのストリームが放送で伝送されていることが特定される(手順7)。
 また、FDDには、tsi属性、contentLocation属性、及び、toi属性が記述される。tsi属性には、各FLUTEセッションの識別情報であるTSI(Transport Session Identifier)が指定される。また、toi属性には、FLUTEセッションごとに送られる複数のオブジェクトの識別情報であるTOI(Transport Object Identifier)が指定される。contentLocation属性には、ファイルのURLが指定される。
 そして、MPDに記述されたSegmentURL要素に指定されたURLと、FDDに記述されたcontentLocation属性に指定されたURLとのマッチングを行うことで、MPDに列挙されたストリームを取得するためのTSIとTOIが特定される(手順8)。さらに、SDPを参照することで、当該オーディオとビデオのストリームを取得するためのIPアドレスとポート番号が特定される(手順8)。
 このようにして、オーディオとビデオのストリームを取得するためのIPアドレス、ポート番号、TSI、及び、TOIがそれぞれ取得される。受信機は、オーディオとビデオのストリームのIPアドレス、ポート番号、TSI、及び、TOIを用い、FLUTEセッションで伝送されているオーディオとビデオのストリームに接続して、LCTパケットを取得する(手順9,10)。
 そして、受信機は、LCTパケットに格納されたセグメントデータ(メディアセグメント)を抽出して、バッファに一時的に記憶させることで、バッファリングを行い(手順11,12)、さらに、レンダリングを行う(手順13)。これにより、受信機では、ユーザにより選局された通常サービスに対応した放送番組の映像と音声が再生される。
(1)運用例1
 図11は、ストリームの切り替えに、MPDに記述される伝送路の品質のランキングを示す情報を用いる運用例1を説明するための図である。
 図11において、RFチャンネルIDにより識別される放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波(RF Channel)によって、BBPストリームIDにより識別されるBBPストリーム(BBP Stream)を伝送している。
 また、運用例1では、異なるBBPストリームIDが割り当てられたBBPストリームのうち、一方のBBPストリームでは、通常サービスを提供するための、通常のオーディオとビデオのストリーム(図中の「A/V」)とSCSが、サービスIDで識別されるサービス単位で、LLSとともに伝送される。さらに、他方のBBPストリームでは、ロバストサービスを提供するための、ロバストなオーディオのストリーム(図中の「Robust Audio」)とSCSが、LLSとともに伝送される。
 なお、オーディオやビデオのストリームと、シグナリング情報(SCS)のファイルは、FLUTEセッションで伝送されている。また、運用例1では、放送で伝送されるストリームのみが取得されるため、サーバ(Internet Server)から通信で伝送されるストリームが取得されることはない。
 図11において、各家庭等に設置された受信機は、図10の基本の運用(Basic Service flow)によって、手順1乃至13を実行することで、選局された通常サービスの放送番組の映像と音声を再生している。ただし、図10の基本の運用では、通常サービスのみが提供されていたが、図11の運用例1においては、通常サービスとロバストサービスが併用されているので、ロバストサービスの運用が開始された時点で、通常サービスのUSDやMPD等のSCSは、ロバストサービスに対応した記述となっている。
 図11においては、受信状態が悪化してストリームの品質が不安定になって(図中の「Noise」)、エラーが検出された場合(手順14)、通常サービスからロバストサービスにスイッチすることになるが、受信機では、通常サービスの提供を受けていたため、放送波で伝送されている、ロバストサービスに対応した通常サービスのSCS(USD,MPD,SDP,FDD,SPD等)を取得済みである(手順15,16)。
 ここで、通常サービスのMPDのAdaptationSet要素内には、Representation要素が配置され、放送ストリームとして伝送されるオーディオやビデオのストリーム(コンポーネント)が列挙されている。ただし、図11の運用例1では、通常サービスとロバストサービスが併用されているため、AdaptationSet要素内のRepresentation要素に列挙されたオーディオのストリームには、BCRobustRanking属性として"Low"又は"High"が指定され、ロバストサービスに対応している。
 すなわち、BCRobustRanking属性として"Low"が指定された通常のオーディオのストリーム(図中の「normal」)は、低レベルのロバスト性を有する一方、BCRobustRanking属性として"High"が指定されたロバストなオーディオのストリーム(図中の「Robust」)は、高レベルのロバスト性を有している。ここでは、ストリームの品質が不安定になってエラーが検出されているので、BCRobustRanking属性として"Low"が指定された通常のオーディオのストリームから、"High"が指定されたロバストなオーディオのストリームに切り替えられる(手順17)。すなわち、通常サービスからロバストサービスにスイッチさせることになる。
 そして、通常サービスのMPDにおいて、ロバストなオーディオのストリームが記述されたRepresentation要素のSegmentURL要素に指定されたURLは、通常サービスのUSDのdeliveryMethod要素におけるbroadcastAppService要素内のbasepattern要素に指定されたURLに対応しているので、当該ロバストなオーディオのストリームが、放送で伝送されていることが特定される(手順18)。
 また、broadcastAppService要素内には、basepattern要素の他に、assocication_tag属性が記述されている。このassocication_tag属性は、通常サービスのSPDに記述されたAssociation Service Descriptionのassocication_tag属性に関連付けられているので、RFチャンネルID、BBPストリームID、及び、サービスIDが特定される(手順19)。そして、このトリプレットを用いることで、初期スキャン処理等でNVRAMに保存されているSCDから、ロバストサービスのSCSを取得するためのSCS Bootstrap情報が得られるので、受信機は、SCS Bootstrap情報で指定されたIPアドレス、ポート番号、及び、TSIに従い、放送波で伝送されているロバストサービスのSCSに接続して、SCSを取得する(手順20,21)。
 SCSのファイルは、FLUTEセッションで伝送されているので、LCTパケットに格納されたデータを解析することで、USD,SDP,FDD等のシグナリング情報が取得される(手順22)。ここで、通常サービスのMPDにおいて、ロバストなオーディオのストリームが記述されたRepresentation要素のSegmentURL要素に指定されたURLの上位の部分(一部)は、ロバストサービスのUSDのdeliveryMethod要素に配置されるbroadcastAppService要素内のbasepattern要素のURLと対応している(手順23)。
 また、それらのURLには、FDDのcontentLocation属性に指定されたURLも対応しているので、ロバストサービスのUSDのdeliveryMethod要素のbroadcastAppService要素内のbasepattern要素に指定されたURL(MPDのSegmentURL要素に指定されたURL)と、FDDのcontentLocation属性に指定されたURLのマッチングを行うことで、ロバストなオーディオのストリームを取得するためのTSIとTOIが特定される。さらに、ロバストサービスのSDPを参照することで、ロバストなオーディオのストリームを取得するためのIPアドレスとポート番号が特定される(手順24)。
 このようにして、ロバストサービスとして提供されている、ロバストなオーディオのストリームを取得するためのIPアドレス、ポート番号、TSI、及び、TOIが取得される。受信機は、ロバストなオーディオのストリームのIPアドレス、ポート番号、TSI、及び、TOIを用い、FLUTEセッションで伝送されているロバストなオーディオのストリームに接続して、LCTパケットを取得する(手順25,26)。
 そして、受信機は、LCTパケットに格納されたセグメントデータ(メディアセグメント)を抽出して、バッファに一時的に記憶させることで、バッファリングを行い(手順27,28)、さらに、レンダリングを行う(手順29)。これにより、受信機においては、ロバストなオーディオに対応する音声が再生される。
 このように、受信機では、受信状態が悪化してストリームの品質が不安定になったとき、MPDに含まれる伝送路の品質のランキングを示す情報(BCRobustRanking属性に指定された"High"や"Low"等の値)を用いて、通常サービスから、ロバストサービスに切り替えられ、高レベルのロバスト性を有しているオーディオに対応する、受信環境の変動にかかわらずストリーム転送が安定している音声が再生される。
 例えば、映像が見られなくても、最低限音声だけで視聴させたい特別な放送番組については、通常サービスとともに、ロバストサービスを併用することで、エラーが起きやすい環境においても品質の高い伝送路が確保可能なチャンネル(サービス)を利用して、より高い配信確実性が求められるオーディオのストリームを伝送することにより、ロバスト性の高い放送サービスを実現することができる。
 なお、上述した説明では、受信状態が悪化してストリームの品質が不安定になって、エラーが検出されたタイミングで、通常サービスからロバストサービスに切り替える場合について説明したが、ロバストサービスに対応したUSDやMPD等のSCSを取得した時点で、通常サービスからロバストサービスに切り替えるようにしてもよい。また、アプリケーションによりサービス切り替え用のAPI(Application Programming Interface)が実行されたときに、通常サービスからロバストサービスに切り替えるようにしてもよい。
(2)運用例2-1
 図12は、ストリームの切り替えに、USDに記述される伝送路の品質のランキングを示す情報を用いる運用例2-1を説明するための図である。
 図12において、RFチャンネルIDにより識別される放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波(RF Channel)によって、BBPストリームIDにより識別されるBBPストリーム(BBP Stream)を伝送している。
 また、運用例2-1においては、運用例1と同様に、異なるBBPストリームIDが割り当てられたBBPストリームのうち、一方のBBPストリームでは、通常サービスを提供するための、通常のオーディオとビデオのストリームとSCSが、LLSとともに伝送される。さらに、他方のBBPストリームでは、ロバストサービスを提供するための、ロバストなオーディオのストリームとSCSが、LLSとともに伝送される。
 なお、オーディオやビデオのストリームと、シグナリング情報(SCS)のファイルは、FLUTEセッションで伝送されている。また、運用例2-1においても、放送で伝送されるストリームのみが取得されるため、サーバ(Internet Server)から通信で伝送されるストリームが取得されることはない。
 図12において、各家庭等に設置された受信機は、図10の基本の運用(Basic Service flow)によって、手順1乃至13を実行することで、選局された通常サービスの放送番組の映像と音声を再生している。ただし、図10の基本の運用では、通常サービスのみが提供されていたが、図12の運用例2-1においては、通常サービスとロバストサービスが併用されているので、ロバストサービスの運用が開始された時点で、通常サービスのUSDやMPD等のSCSは、ロバストサービスに対応した記述となっている。
 図12においては、受信状態が悪化してストリームの品質が不安定になって(図中の「Noise」)、エラーが検出された場合(手順14)、通常サービスからロバストサービスにスイッチすることになるが、受信機では、通常サービスの提供を受けていたため、放送波で伝送されている、ロバストサービスに対応した通常サービスのSCS(USD,MPD,SDP,FDD,SPD等)を取得済みである(手順15,16)。
 ここで、通常サービスのMPDのAdaptationSet要素内には、Representation要素が配置され、放送ストリームとして伝送されるオーディオやビデオのストリームが列挙されている。ただし、図12の運用例2-1では、通常サービスとロバストサービスが併用されているため、通常サービスのMPDには、SegmentURL1が指定されたRepresentation要素と、SegmentURL2が指定されたRepresentation要素が、オーディオのAdaptationSet要素に列挙され、ロバストサービスに対応している。
 また、通常サービスのUSDには、basepattern1が指定されたbroadcastAppService要素と、basepattern2が指定されたbroadcastAppService要素が列挙され、ロバストサービスに対応している。また、USDのAppService要素のidenticalContent要素のbasePattern要素には、basepattern1,2が指定されている。これにより、deliveryMethod要素内のbasepattern1とbasepattern2が対応していることを示している。
 そして、MPDに記述されたSegmentURL要素に指定されたURLと、USDのdeliveryMethod要素に記述されたbasepattern要素に指定されたURLとのマッチングを行う。この場合、SegmentURL1とbasepattern1が対応しているので、この対応関係から、SegmentURL1が指定されたRepresentation要素のオーディオのストリームは、BCRobustRanking属性として"High"が指定されたロバストなオーディオのストリームであって、放送で伝送されていることが特定される(手順17,18)。
 また、SegmentURL2とbasepattern2が対応しているので、この対応関係から、SegmentURL2が指定されたRepresentation要素のオーディオのストリームは、BCRobustRanking属性として"Low"が指定された通常のオーディオのストリームであって、放送で伝送されていることが特定される(手順17,18)。
 ここでは、ストリームの品質が不安定になってエラーが検出されているので、BCRobustRanking属性として"Low"が指定された通常のオーディオのストリーム(SegmentURL2)から、"High"が指定されたロバストなオーディオのストリーム(SegmentURL1)に切り替える。すなわち、通常サービスからロバストサービスにスイッチさせることになる。
 また、broadcastAppService要素内には、basepattern要素の他に、assocication_tag属性が記述されている。このassocication_tag属性は、通常サービスのSPDに記述されたAssociation Service Descriptionのassocication_tag属性に関連付けられているので、RFチャンネルID、BBPストリームID、及び、サービスIDが特定される(手順19)。そして、このトリプレットを用いることで、初期スキャン処理等でNVRAMに保存されているSCDから、ロバストサービスのSCSを取得するためのSCS Bootstrap情報が得られるので、受信機は、SCS Bootstrap情報で指定されたIPアドレス、ポート番号、及び、TSIに従い、放送波で伝送されているロバストサービスのSCSに接続して、SCSを取得する(手順20,21)。
 SCSのファイルは、FLUTEセッションで伝送されているので、LCTパケットに格納されたデータを解析することで、USD,SDP,FDD等のシグナリング情報が取得される(手順22)。ここで、通常サービスのMPDにおいて、ロバストなオーディオのストリームのSegmentURL要素に指定されたURL(SegmentURL1)の上位の部分(一部)は、ロバストサービスのUSDのdeliveryMethod要素に配置されるbroadcastAppService要素内のbasepattern要素に指定されるURL(basepattern1)と対応している(手順23)。
 また、それらのURLには、FDDのcontentLocation属性に指定されたURLも対応しているので、ロバストサービスのUSDのdeliveryMethod要素のbroadcastAppService要素内のbasepattern要素に指定されたURL(basepattern1)(通常サービスのMPDのSegmentURL要素に指定されたURL(SegmentURL1))と、FDDのcontentLocation属性に指定されたURLのマッチングを行うことで、ロバストなオーディオのストリームを取得するためのTSIとTOIが特定される。さらに、ロバストサービスのSDPを参照することで、ロバストなオーディオのストリームを取得するためのIPアドレスとポート番号が特定される(手順24)。
 このようにして、ロバストサービスとして提供されている、ロバストなオーディオのストリームを取得するためのIPアドレス、ポート番号、TSI、及び、TOIが取得される。受信機は、ロバストなオーディオのストリームのIPアドレス、ポート番号、TSI、及び、TOIを用い、FLUTEセッションで伝送されているロバストなオーディオのストリームに接続して、LCTパケットを取得する(手順25,26)。
 そして、受信機は、LCTパケットに格納されたセグメントデータ(メディアセグメント)を抽出して、バッファに一時的に記憶させることで、バッファリングを行い(手順27,28)、さらに、レンダリングを行う(手順29)。これにより、受信機においては、ロバストなオーディオに対応する音声が再生される。
 このように、受信機では、受信状態が悪化してストリームの品質が不安定になったとき、USDに含まれる伝送路の品質のランキングを示す情報(BCRobustRanking属性に指定された"High"や"Low"等の値)を用いて、通常サービスから、ロバストサービスに切り替えられ、高レベルのロバスト性を有しているオーディオに対応する、受信環境の変動にかかわらずストリーム転送が安定している音声が再生される。
 例えば、映像が見られなくても、最低限音声だけで視聴させたい特別な放送番組については、通常サービスとともに、ロバストサービスを併用することで、エラーが起きやすい環境においても品質の高い伝送路が確保可能なチャンネル(サービス)を利用して、より高い配信確実性が求められるオーディオのストリームを伝送することにより、ロバスト性の高い放送サービスを実現することができる。
 なお、上述した説明では、受信状態が悪化してストリームの品質が不安定になって、エラーが検出されたタイミングで、通常サービスからロバストサービスに切り替える場合について説明したが、ロバストサービスに対応したUSDやMPD等のSCSを取得した時点で、通常サービスからロバストサービスに切り替えるようにしてもよい。また、アプリケーションによりサービス切り替え用のAPIが実行されたときに、通常サービスからロバストサービスに切り替えるようにしてもよい。
 また、図10の基本の運用では、通常サービスのみが提供されているので、通常サービスのUSDやMPD等のSCSは、ロバストサービスに未対応の記述となるが、この未対応の記述を、図12の運用例2-1に合わせると、次のようになる。すなわち、この場合の通常サービスのMPDには、オーディオのAdaptationSet要素に、SegmentURL要素として、SegmentURL2が指定されたRepresentation要素のみが記述されることになる。また、通常サービスのUSDのdeliveryMethod要素には、basepattern要素として、basepattern2が指定されたbroadcastAppService要素のみが記述されることになる。なお、この場合には、BCRobustRanking属性は記述する必要がない。
(3)運用例2-2
 図13は、ストリームの切り替えに、USDに記述される伝送路の品質のランキングを示す情報を用いる運用例2-2を説明するための図である。
 図13において、RFチャンネルIDにより識別される放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波(RF Channel)によって、BBPストリームIDにより識別されるBBPストリーム(BBP Stream)を伝送している。
 また、運用例2-2においては、運用例1等と同様に、異なるBBPストリームIDが割り当てられたBBPストリームのうち、一方のBBPストリームでは、通常サービスを提供するための、通常のオーディオとビデオのストリームとSCSが、LLSとともに伝送される。さらに、他方のBBPストリームでは、ロバストサービスを提供するための、ロバストなオーディオのストリームとSCSが、LLSとともに伝送される。
 なお、オーディオやビデオのストリームと、シグナリング情報(SCS)のファイルは、ストリームとしてFLUTEセッションで伝送されている。また、運用例2-2においても、放送で伝送されるストリームのみが取得されるため、サーバ(Internet Server)から通信で伝送されるストリームが取得されることはない。
 図13において、各家庭等に設置された受信機は、図10の基本の運用(Basic Service flow)によって、手順1乃至13を実行することで、選局された通常サービスの放送番組の映像と音声を再生している。ただし、図10の基本の運用では、通常サービスのみが提供されていたが、図13の運用例2-2においては、通常サービスとロバストサービスが併用されているので、ロバストサービスの運用が開始された時点で、通常サービスのUSDやMPD等のSCSは、ロバストサービスに対応した記述となっている。
 図13においては、受信状態が悪化してストリームの品質が不安定になって(図中の「Noise」)、エラーが検出された場合(手順14)、通常サービスからロバストサービスにスイッチすることになるが、受信機では、通常サービスの提供を受けていたため、放送波で伝送されている、ロバストサービスに対応した通常サービスのSCS(USD,MPD,SDP,FDD,SPD等)を取得済みである(手順15,16)。
 ここで、通常サービスのMPDのAdaptationSet要素内には、Representation要素が配置され、放送ストリームとして伝送されるオーディオやビデオのストリームが列挙されている。ただし、図13の運用例2-2では、通常サービスとロバストサービスが併用されているため、通常サービスのMPDには、SegmentURL2が指定されたRepresentation要素のみが、オーディオのAdaptationSet要素に記述され、ロバストサービスに対応している。
 また、通常サービスのUSDには、basepattern1が指定されたbroadcastAppService要素と、basepattern2が指定されたbroadcastAppService要素が列挙され、ロバストサービスに対応している。また、USDのAppService要素のidenticalContent要素のbasePattern要素には、basepattern1,2が指定されている。これにより、deliveryMethod要素内のbasepattern1とbasepattern2が対応していることを示している。
 そして、MPDに記述されたSegmentURL要素に指定されたURLと、USDのdeliveryMethod要素に記述されたbasepattern要素に指定されたURLとのマッチングを行う。この場合、SegmentURL2とbasepattern2が対応しているので、この対応関係から、SegmentURL2が指定されたRepresentation要素のオーディオのストリームは、BCRobustRanking属性として"Low"が指定された通常のオーディオのストリームであって、放送で伝送されていることが特定される(手順17,18)。
 また、USDのdeliveryMethod要素内のbasepattern1とbasepattern2が対応しているので、この対応関係から、BCRobustRanking属性として"High"が指定されたロバストなオーディオのストリームは、放送で伝送されていることが特定される(手順17,18)。
 ここでは、ストリームの品質が不安定になってエラーが検出されているので、BCRobustRanking属性として"Low"が指定された通常のオーディオのストリームから、"High"が指定されたロバストなオーディオのストリームに切り替える。すなわち、通常サービスからロバストサービスにスイッチさせることになる。
 また、broadcastAppService要素内には、basepattern要素の他に、assocication_tag属性が記述されている。このassocication_tag属性は、通常サービスのSPDに記述されたAssociation Service Descriptionのassocication_tag属性に関連付けられているので、RFチャンネルID、BBPストリームID、及び、サービスIDが特定される(手順19)。そして、このトリプレットを用いることで、初期スキャン処理等でNVRAMに保存されているSCDから、ロバストサービスのSCSを取得するためのSCS Bootstrap情報が得られるので、受信機は、SCS Bootstrap情報で指定されたIPアドレス、ポート番号、及び、TSIに従い、放送波で伝送されているロバストサービスのSCSに接続して、SCSを取得する(手順20,21)。
 SCSのファイルは、FLUTEセッションで伝送されているので、LCTパケットに格納されたデータを解析することで、USD,SDP,FDD等のシグナリング情報が取得される(手順22)。ここで、通常サービスのMPDにおいて、ロバストなオーディオのストリームのSegmentURL要素に指定されたURL(SegmentURL2)の上位の部分(一部)は、ロバストサービスのUSDのdeliveryMethod要素に配置されるbroadcastAppService要素内のbasepattern要素に指定されるURL(basepattern1)と対応している(手順23)。
 また、それらのURLには、FDDのcontentLocation属性に指定されたURLも対応するので、ロバストサービスのUSDのdeliveryMethod要素のbroadcastAppService要素内のbasepattern要素に指定されたURL(basepattern1)(通常サービスのMPDのSegmentURL要素に指定されたURL(SegmentURL2))と、FDDのcontentLocation属性に指定されたURLのマッチングを行うことで、ロバストなオーディオのストリームを取得するためのTSIとTOIが特定される。ただし、通常サービスのMPDのSegmentURL要素に指定されたURL(SegmentURL2)から、FDDのcontentLocation属性に指定されたURLに対する解決の際には、SegmentURL2の上位の部分を、USDのbasepattern要素に指定されるURL(basepattern1)に置き換えてからマッチングが行われるようにする。すなわち、URLのマッチングに際して、MPDのSegmentURL要素に指定されたURLは、SegmentURL2から、SegmentURL1に置き換えられる。
 さらに、ロバストサービスのSDPを参照することで、ロバストなオーディオのストリームを取得するためのIPアドレスとポート番号が特定される(手順24)。
 このようにして、ロバストサービスとして提供されている、ロバストなオーディオのストリームを取得するためのIPアドレス、ポート番号、TSI、及び、TOIが取得される。受信機は、ロバストなオーディオのストリームのIPアドレス、ポート番号、TSI、及び、TOIを用い、FLUTEセッションで伝送されているロバストなオーディオのストリームに接続して、LCTパケットを取得する(手順25,26)。
 そして、受信機は、LCTパケットに格納されたセグメントデータ(メディアセグメント)を抽出して、バッファに一時的に記憶させることで、バッファリングを行い(手順27,28)、さらに、レンダリングを行う(手順29)。これにより、受信機においては、ロバストなオーディオに対応する音声が再生される。
 このように、受信機では、受信状態が悪化してストリームの品質が不安定になったとき、USDに含まれる伝送路の品質のランキングを示す情報(BCRobustRanking属性に指定された"High"や"Low"等の値)を用いて、通常サービスから、ロバストサービスに切り替えられ、高レベルのロバスト性を有しているオーディオに対応する、受信環境の変動にかかわらずストリーム転送が安定している音声が再生される。
 例えば、映像が見られなくても、最低限音声だけで視聴させたい特別な放送番組については、通常サービスとともに、ロバストサービスを併用することで、エラーが起きやすい環境においても品質の高い伝送路が確保可能なチャンネル(サービス)を利用して、より高い配信確実性が求められるオーディオのストリームを伝送することにより、ロバスト性の高い放送サービスを実現することができる。
 なお、上述した説明では、受信状態が悪化してストリームの品質が不安定になって、エラーが検出されたタイミングで、通常サービスからロバストサービスに切り替える場合について説明したが、ロバストサービスに対応したUSDやMPD等のSCSを取得した時点で、通常サービスからロバストサービスに切り替えるようにしてもよい。また、アプリケーションによりサービス切り替え用のAPIが実行されたときに、通常サービスからロバストサービスに切り替えるようにしてもよい。
 また、図10の基本の運用では、通常サービスのみが提供されているので、通常サービスのUSDやMPD等のSCSは、ロバストサービスに未対応の記述となるが、この未対応の記述を、図13の運用例2-2に合わせると、次のようになる。すなわち、この場合の通常サービスのMPDには、オーディオのAdaptationSet要素に、SegmentURL要素として、SegmentURL2が指定されたRepresentation要素のみが記述されることになる。また、通常サービスのUSDのdeliveryMethod要素には、basepattern要素として、basepattern2が指定されたbroadcastAppService要素のみが記述されることになる。なお、この場合には、BCRobustRanking属性は記述する必要がない。
<4.システム構成>
(放送通信システムの構成例)
 図14は、本技術を適用した放送通信システムの構成例を示す図である。なお、システムとは、複数の構成要素(装置等)の集合を意味する。
 図14の放送通信システム1は、上述したロバスト性の高い放送サービスを実現可能なシステムである。図14において、放送通信システム1は、DASHサーバ10、放送サーバ20、通信サーバ30、及び、クライアント装置50から構成される。また、クライアント装置50は、インターネット等からなるネットワーク90を介して、通信サーバ30と接続される。
 DASHサーバ10は、オーディオやビデオ、字幕などの各種のコンポーネントからなるコンテンツのストリームデータとメタデータを蓄積している。DASHサーバ10は、コンテンツのストリームデータに基づいて、セグメントデータを生成し、放送サーバ20又は通信サーバ30に送信する。また、DASHサーバ10は、コンテンツのメタデータに基づいて、MPD(Media Presentation Description)のファイルを生成し、放送サーバ20又は通信サーバ30に送信する。
 放送サーバ20は、DASHサーバ10から送信されてくるセグメントデータとMPDのファイルを受信する。放送サーバ20は、DASHサーバ10からのMPDのファイルや、各種のサーバ等から取得したシグナリング情報の元のデータに基づいて、シグナリング情報を生成する。放送サーバ20は、セグメントデータとともに、シグナリング情報をデジタル放送信号で送信する。
 なお、放送サーバ20は、上述した送信機(図11や図12等)に相当するものであって、例えば、放送事業者により提供される。また、オーディオやビデオのセグメントデータやSCS(Service Channel Signaling)のファイルは、FLUTE(File Delivery over Unidirectional Transport)セッションにより伝送される。
 通信サーバ30は、DASHサーバ10から送信されてくるセグメントデータとMPDのファイルを受信する。通信サーバ30は、DASHサーバ10からのMPDのファイルや、各種のサーバ等から取得したシグナリング情報の元のデータに基づいて、シグナリング情報を生成する。通信サーバ30は、クライアント装置50からの要求に応じて、セグメントデータ又はシグナリング情報を、ネットワーク90を介してクライアント装置50に送信する。
 なお、通信サーバ30は、上述したサーバ(図11や図12等)に相当するものであって、例えば、放送事業者により提供される。
 クライアント装置50は、放送サーバ20からのデジタル放送信号により送信されるセグメントデータと、シグナリング情報を受信する。また、クライアント装置50は、通信サーバ30に対する要求に応じて、ネットワーク90を介して、通信サーバ30から送信されてくるセグメントデータと、シグナリング情報を受信する。クライアント装置50は、放送又は通信で伝送されるシグナリング情報に基づいて、放送又は通信で伝送されるセグメントデータを取得し、コンテンツの映像と音声を再生する。
 なお、クライアント装置50は、上述した受信機(図11や図12等)に相当するものであって、ユーザの各家庭等に設置される。例えば、クライアント装置50は、テレビ受像機として構成される。
 放送通信システム1は、以上のように構成される。次に、図14の放送通信システム1を構成する各装置の詳細な構成について説明する。
(送信側の装置の構成例)
 図15は、図14の各サーバの構成例を示す図である。
 図15において、DASHサーバ10は、コンテンツ蓄積部111、セグメントデータ生成部112、MPD生成部113、及び、送信部114から構成される。
 コンテンツ蓄積部111は、オーディオやビデオ、字幕などの各種のストリームからなるコンテンツのストリームデータとメタデータを蓄積している。
 セグメントデータ生成部112は、コンテンツ蓄積部111に蓄積されているオーディオやビデオ等のコンテンツのストリームデータを取得する。セグメントデータ生成部112は、ストリームデータに基づいて、セグメントデータを生成し、送信部114に供給する。
 MPD生成部113は、コンテンツ蓄積部111に蓄積されているコンテンツのメタデータを取得する。MPD生成部113は、メタデータに基づいて、MPDのファイルを生成し、送信部114に供給する。
 送信部114には、セグメントデータ生成部112からのセグメントデータと、MPD生成部113からのMPDのファイルが供給される。送信部114には、セグメントデータとMPDのファイルを、放送サーバ20又は通信サーバ30に送信する。
 DASHサーバ10は、以上のように構成される。
 図15において、放送サーバ20は、受信部211、セグメントデータ取得部212、シグナリング情報生成部213、及び、送信部214から構成される。
 受信部211は、DASHサーバ10から送信されてくるセグメントデータとMPDのファイルを受信し、セグメントデータをセグメントデータ取得部212に、MPDのファイルをシグナリング情報生成部213にそれぞれ供給する。
 セグメントデータ取得部212は、受信部211から供給されるセグメントデータを取得して処理し、送信部214に供給する。シグナリング情報生成部213は、受信部211から供給されるMPDのファイルや、各種のサーバ等から取得したシグナリング情報の元のデータに基づいて、シグナリング情報を生成し、送信部214に供給する。
 送信部214には、セグメントデータ取得部212からのセグメントデータと、シグナリング情報生成部213からのシグナリング情報が供給される。送信部214は、セグメントデータとシグナリング情報を変調し、アンテナ215を介してデジタル放送信号で送信する。なお、このとき、オーディオやビデオのセグメントデータとSCSのファイルは、IP伝送方式を用いたデジタル放送の放送波によって、FLUTEセッションにより伝送される。
 放送サーバ20は、以上のように構成される。
 図15において、通信サーバ30は、受信部311、セグメントデータ取得部312、シグナリング情報生成部313、及び、送信部314から構成される。
 受信部311は、DASHサーバ10から送信されてくるセグメントデータとMPDのファイルを受信し、セグメントデータをセグメントデータ取得部312に、MPDのファイルをシグナリング情報生成部313にそれぞれ供給する。
 セグメントデータ取得部312は、受信部311から供給されるセグメントデータを取得して処理し、送信部314に供給する。シグナリング情報生成部313は、受信部311から供給されるMPDのファイルや、各種のサーバ等から取得したシグナリング情報の元のデータに基づいて、シグナリング情報を生成し、送信部314に供給する。
 送信部314には、セグメントデータ取得部312からのセグメントデータと、シグナリング情報生成部313からのシグナリング情報が供給される。送信部214は、クライアント装置50からのセグメントデータ又はシグナリング情報の要求に応じて、セグメントデータ又はシグナリング情報を、ネットワーク90を介して、クライアント装置50に送信する。
 通信サーバ30は、以上のように構成される。
 なお、図14及び図15においては、説明の都合上、送信側のDASHサーバ10、放送サーバ20、及び、通信サーバ30を個別の装置であるとして説明しているが、送信側の装置は、図15に示した機能的構成を有していればよく、例えば、DASHサーバ10、放送サーバ20、及び、通信サーバ30を、1つの装置として捉えることができる。その際、例えば、受信部や送信部などの重複した機能については1つにまとめることができる。
 また、例えば、通信サーバ30における、セグメントデータを提供する機能と、シグナリング情報を提供する機能を分離して、セグメントデータとシグナリング情報が、異なるサーバから提供されるようにしてもよい。さらに、放送サーバ20や通信サーバ30において、セグメントデータが生成されるようにしてもよい。
(受信側の装置の構成例)
 図16は、図14のクライアント装置の構成例を示す図である。
 図16において、クライアント装置50は、チューナ512、フィルタリング処理部513、シグナリング情報取得部514、セグメントデータ取得部515、制御部516、入力部517、NVRAM518、出力部519、及び、通信部520から構成される。
 チューナ512は、制御部516からの制御に従い、アンテナ511を介して受信したIP伝送方式を用いたデジタル放送の放送波から、選局が指示された特定のサービスのデジタル放送信号を抽出して復調し、その結果得られるBBPストリームを、フィルタリング処理部513に供給する。
 フィルタリング処理部513は、制御部516からの制御に従い、チューナ512から供給されるBBPストリームで伝送されるパケットに対して、IPアドレスやポート番号、TSI,TOIなどを用いたフィルタリング処理を行う。このフィルタリング処理により抽出される、LLSやSCS等のシグナリング情報は、シグナリング情報取得部514に供給され、セグメントデータは、セグメントデータ取得部515に供給される。
 シグナリング情報取得部514は、フィルタリング処理部513によるフィルタリング処理の結果得られるシグナリング情報、又は、通信部520から供給されるシグナリング情報を取得して処理し、制御部516に供給する。なお、シグナリング情報として取得されるSCSが、FLUTEセッションで伝送されている場合には、LCTパケットに格納されたデータを解析することで、USDやMPD等のファイルが取得される。
 制御部516は、入力部517からの操作信号等に基づいて、クライアント装置50の各部の動作を制御する。制御部516は、初期スキャン処理時に、シグナリング情報取得部514から、シグナリング情報としてLLSが供給された場合、SCDを選局情報としてNVRAM518に保存する。そして、制御部516は、ユーザによりサービスの選局操作が行われた場合、NVRAM518から選局情報を読み出し、当該選局情報に基づいて、チューナ512により実行される選局処理を制御する。
 また、制御部516は、シグナリング情報取得部514から、シグナリング情報として、SCSが供給された場合、SCSから得られるIPアドレスやポート番号、TSI,TOIなどに基づいて、フィルタリング処理部513により実行されるフィルタリング処理を制御する。このフィルタリング処理によって、セグメントデータが、セグメントデータ取得部515に供給される。
 セグメントデータ取得部515は、フィルタリング処理部513によるフィルタリング処理の結果得られるセグメントデータ、又は、通信部520から供給されるセグメントデータを取得して処理し、出力部519に供給する。なお、セグメントデータが、FLUTEセッションで伝送されている場合には、オーディオやビデオのストリームに接続することで、LCTパケットに格納されたセグメントデータが抽出される。
 出力部519は、制御部516からの制御に従い、セグメントデータ取得部515により取得されたセグメントデータから得られるオーディオデータを、スピーカ(不図示)に供給し、ビデオデータをディスプレイ(不図示)に供給する。スピーカは、出力部519から供給されるオーディオデータに対応する音声を出力する。また、ディスプレイは、出力部519から供給されるビデオデータに対応する映像を表示する。
 通信部520は、制御部516からの制御に従い、ネットワーク90を介して通信サーバ30にアクセスし、シグナリング情報を要求する。通信部520は、ネットワーク90を介して通信サーバ30から送信されるシグナリング情報を受信して、シグナリング情報取得部514に供給する。
 また、通信部520は、制御部516からの制御に従い、ネットワーク90を介して通信サーバ30にアクセスし、ストリーム配信を要求する。通信部520は、ネットワーク90を介して通信サーバ30からストリーミング配信されるストリームのセグメントデータを受信し、セグメントデータ取得部515に供給する。
 なお、図16のクライアント装置50において、例えば、チューナ512、入力部517、NVRAM518、及び、通信部520は、ハードウェアにより構成される。また、クライアント装置50において、例えば、フィルタリング処理部513、シグナリング情報取得部514、セグメントデータ取得部515、制御部516の一部の機能、及び、出力部519の一部の機能は、ソフトウェア(例えば、後述する図18等の「ミドルウェア」や「DASHクライアント」)により実現される機能である。
 また、図16のクライアント装置50の構成例においては、スピーカやディスプレイが外部に設けられている構成となっているが、クライアント装置50がスピーカやディスプレイを有する構成としてもよい。
<5.各装置における具体的な処理の流れ>
 次に、図14の放送通信システム1を構成する各装置で実行される処理の流れについて、図17乃至図20のフローチャートを参照して説明する。
(基本サービス処理)
 まず、図17のフローチャートを参照して、図14のクライアント装置50により実行される基本サービス処理の流れについて説明する。なお、図17の基本サービス処理は、図10の基本の運用に対応している。
 ステップS1において、チューナ512やフィルタリング処理部513等は、制御部516からの制御に従い、初期スキャン処理を行う。この処理スキャン処理によって、LLSとして伝送されるSCDが取得され、選局情報として、NVRAM518に保存される(S2)。
 ステップS3においては、ユーザにより選局操作が行われたかどうかが判定される。ステップS3において、選局操作が行われていないと判定された場合、ステップS3の判定処理が繰り返される。すなわち、ステップS3においては、ユーザにより選局操作が行われるのを待って、処理は、ステップS4に進められる。なお、ここでは、通常サービスが選局される。
 ステップS4において、制御部516は、NVRAM518に保存された選局情報を取得する。ここで、選局情報として保存されているSCDには、SCS Bootstrap情報が含まれているので、これを用いて、選局された通常サービスのSCSのアドレスを特定する(S5)。
 ステップS6において、フィルタリング処理部513は、制御部516からの制御に従い、SCSのLCTパケットのフィルタリング処理を行う。このフィルタリング処理によって、SCSのLCTパケットが抽出されるので、このLCTパケットのパーシングを行うことで、USDやMPDなどのシグナリング情報が取得される(S7)。
 ステップS8において、制御部516は、ステップS7の処理で取得されたUSDやMPDなどのシグナリング情報に基づいて、放送・通信のアドレス解決を行う。すなわち、上述した図10の基本の運用の「手順7」と同様の処理を行うことで、MPDのRepresentation要素に列挙されたオーディオやビデオのストリームが、放送又は通信で伝送されることが特定される。
 ステップS9においては、ステップS8の処理の結果に従い、オーディオやビデオのストリームの配信経路が、放送と通信のいずれになるかが判定される。
 ステップS9において、ストリームの配信経路が放送であると判定された場合、処理は、ステップS10に進められる。ステップS10において、制御部516は、ステップS7の処理で取得されたFDDやSDPなどのシグナリング情報に基づいて、オーディオやビデオのストリームを取得するためのIPアドレス、ポート番号、TSI、TOIを特定する。
 ステップS11において、フィルタリング処理部513は、制御部516からの制御に従い、セグメントデータのLCTパケットのフィルタリング処理を行う。このフィルタリング処理によって、セグメントデータのLCTパケットからセグメントデータが抽出(取得)される(S12)。そして、選局が指示された通常サービスのストリームを構成するセグメントデータが取得されると、処理は、ステップS14に進められる。
 一方、ステップS9において、ストリームの配信経路が通信であると判定された場合、処理は、ステップS13に進められる。ステップS13において、通信部520は、制御部516からの制御に従い、ネットワーク90を介して通信サーバ30にアクセスし、ストリーミング配信されるストリームのセグメントデータを受信する。そして、選局が指示された通常サービスのストリームを構成するセグメントデータが取得されると、処理は、ステップS14に進められる。
 出力部519は、制御部516からの制御に従い、セグメントデータのバッファリングを行い(S14)、さらに、レンダリングを行う(S15)。これにより、クライアント装置50では、ユーザにより選局された通常サービスに対応した番組の映像と音声が再生される。
 ステップS15の処理が終了すると、処理は、ステップS16に進められ、所定のイベントが発生したかどうかが判定される。ステップS16において、所定のイベントが発生していないと判定された場合、処理は、ステップS17に進められ、ステップS8の処理の結果に従い、オーディオやビデオのストリームの配信経路が、放送と通信のいずれになるかが判定される。
 ステップS17において、ストリームの配信経路が放送であると判定された場合、処理はステップS11に進められる。そして、ステップS11以降の処理が繰り返されることで、放送で伝送されるセグメントデータに対応した映像や音声が再生される。また、ステップS17において、ストリームの配信経路が通信であると判定された場合、処理はステップS13に進められる。そして、ステップS13以降の処理が繰り返されることで、通信で伝送されるセグメントデータに対応した映像や音声が再生される。
 そして、ステップS16において、例えばクライアント装置50の電源がオフされるなどの所定のイベントが発生した場合、図17の基本サービス処理は終了する。
 以上、図14のクライアント装置50により実行される基本サービス処理について説明した。
(ストリーム送受信処理)
 次に、図18のフローチャートを参照して、図14の放送通信システム1を構成する各装置により実行される、ストリーム送受信処理の流れについて説明する。なお、図18のストリーム送受信処理のうち、クライアント装置50により実行される処理は、図17の基本サービス処理に対応している。
 図18においては、送信側の装置として、DASHサーバ10と、放送サーバ20(ミドルウェア)の処理の流れが示され、受信側の装置として、クライアント装置50におけるミドルウェアとDASHクライアントの処理の流れが示されている。ただし、クライアント装置50は、図16の機能的な構成例を有しているので、ミドルウェアとDASHクライアントの代わりに、それらの構成要素が処理を実行するものとして説明する。放送サーバ20のミドルウェアについても同様である。
 DASHサーバ10は、図18のステップS111乃至S113の処理を実行する。具体的には、ステップS111において、セグメントデータ生成部112は、コンテンツ蓄積部111に蓄積されているオーディオやビデオ等のコンテンツのストリームデータに基づいて、セグメントデータを生成し、送信部114に供給する。
 ステップS112において、MPD生成部113は、コンテンツ蓄積部111に蓄積されているコンテンツのメタデータに基づいて、MPDのファイルを生成し、送信部114に供給する。そして、ステップS113において、送信部114には、セグメントデータとMPDのファイルを、放送サーバ20に送信(転送)する。
 放送サーバ20は、図18のステップS211乃至S216の処理を実行する。具体的には、放送サーバ20では、DASHサーバ10から転送されるセグメントデータと、MPDのファイルが受信される(S113)。ステップS211において、セグメントデータ取得部212は、DASHサーバ10から転送されるセグメントデータを取得する。
 ステップS212において、シグナリング情報生成部213は、DASHサーバ10から転送されるMPDのファイルや、各種のサーバ等から取得したシグナリング情報の元のデータに基づいて、SCSのシグナリング情報を生成する。また、ステップS213において、シグナリング情報生成部213は、各種のサーバ等から取得したシグナリング情報の元のデータに基づいて、LLSのシグナリング情報を生成する。
 ステップS214において、送信部214は、LLSのパケットを、アンテナ215を介して、IP伝送方式を用いたデジタル放送信号で送信する。また、ステップS215において、送信部214は、FLUTEセッションによるSCSのLCTパケットを、アンテナ215を介して、IP伝送方式を用いたデジタル放送信号で送信する。さらに、ステップS216において、送信部214は、FLUTEセッションによるセグメントデータのLCTパケットを、アンテナ215を介して、IP伝送方式を用いたデジタル放送信号で送信する。このように、放送サーバ20は、シグナリング情報やセグメントデータを、IP伝送方式を用いたデジタル放送信号で送信している。
 クライアント装置50において、ミドルウェアは、図18のステップS511乃至518の処理を実行し、DASHクライアントは、図18のステップS521乃至524の処理を実行する。具体的には、クライアント装置50では、放送サーバ20からデジタル放送信号として送信される、LLSパケットが受信される(S214)。ステップS511において、フィルタリング処理部513は、制御部516からの制御に従い、LLSパケットのフィルタリング処理を行う。
 ステップS512において、シグナリング情報取得部514は、LLSパケットのパーシングを行い、SCD等のシグナリング情報を取得する。また、ステップS513において、制御部516は、SCDに含まれるSCS Bootstrap情報に基づいて、ユーザにより選局された通常サービスのSCSのアドレスを特定する。
 ここで、クライアント装置50では、放送サーバ20からデジタル放送信号として送信される、FLUTEセッションによるSCSのLCTパケットが受信される(S215)。ステップS514において、フィルタリング処理部513は、制御部516からの制御に従い、SCSのLCTパケットのフィルタリング処理を行う。このフィルタリング処理によって、SCSのLCTパケットが抽出されるので、このLCTパケットのパーシングを行うことで、USDやMPDなどのシグナリング情報が取得される。
 ステップS521において、制御部516は、MPDのパーシングを行い、そのパーシングの結果に従い、セグメントデータを要求する(S522)。ステップS515において、制御部516は、MPDのパーシングの結果に従い、USDを参照することで、放送・通信のアドレス解決を行う。
 ここでは、例えば、上述した図10の基本の運用の「手順7」と同様の処理を行うことで、MPDのRepresentation要素に列挙されたオーディオやビデオのストリームが、放送で伝送されることが特定される。また、ステップS516において、制御部516は、FDDやSDPなどのシグナリング情報に基づいて、オーディオやビデオのストリームを取得するためのIPアドレス、ポート番号、TSI、TOIを特定する。
 ここで、クライアント装置50では、放送サーバ20からデジタル放送信号として送信される、FLUTEセッションによるセグメントデータのLCTパケットが受信される(S216)。ステップS517において、フィルタリング処理部513は、制御部516からの制御に従い、セグメントデータのLCTパケットのフィルタリング処理を行う。このフィルタリング処理によって、セグメントデータのLCTパケットからセグメントデータが抽出(取得)され、キャッシングされる(S518)。
 そして、出力部519は、制御部516からの制御に従い、セグメントデータのバッファリングを行い(S523)、さらに、レンダリングを行う(S524)。これにより、クライアント装置50では、ユーザにより選局された通常サービスの放送番組の映像と音声が再生される。
 以上で、図18のストリーム送受信処理は終了するが、その後、図19のMPDの伝送路の品質のランキング情報を用いたストリーム切り替え処理、又は、図20のUSDの伝送路の品質のランキング情報を用いたストリーム切り替え処理が実行される。
(MPDの伝送路の品質のランキング情報を用いたストリーム切り替え処理)
 次に、図19のフローチャートを参照して、図14の放送通信システム1を構成する各装置により実行される、MPDの伝送路の品質のランキング情報を用いたストリーム切り替え処理の流れについて説明する。なお、図19のストリーム切り替え処理は、図11の運用例1に対応している。すなわち、図19のストリーム切り替え処理は、図18のストリーム送受信処理が実行され、クライアント装置50において、ユーザにより選局された通常サービスの放送番組の映像と音声が再生されるときに実行される。
 図19においては、送信側の装置として、DASHサーバ10と、放送サーバ20(ミドルウェア)の処理の流れが示され、受信側の装置として、クライアント装置50におけるミドルウェアとDASHクライアントの処理の流れが示されている。ただし、図19において、放送サーバ20は、通常のオーディオとビデオのストリームを提供する通常サービスと、ロバストなオーディオのストリームを提供するロバストサービスの両方のサービスを提供している。また、クライアント装置50は、図16の機能的な構成例を有しているので、ミドルウェアとDASHクライアントの代わりに、それらの構成要素が処理を実行するものとして説明する。放送サーバ20のミドルウェアについても同様である。
 ステップS541においては、受信状態が悪化してストリームの品質が不安定になって、エラーが検出されたかどうかが判定される。ステップS541において、エラーが検出されず、受信状態が悪化していないと判定された場合、ステップS541の判定処理が繰り返される。この場合、クライアント装置50では、通常サービスの放送番組の映像と音声の再生が継続される。
 一方、ステップS541において、エラーが検出され、受信状態が悪化したと判定された場合、処理は、ステップS542に進められる。ステップS542において、制御部516は、MPDのパーシングの結果に従い、最適なストリームを選択して、そのストリームのセグメントデータを要求する(S543)。
 ここでは、例えば、図11の運用例1の「手順17」と同様の処理を行うことで、MPDのAdaptationSet要素内のRepresentation要素に列挙されたオーディオのストリームに、BCRobustRanking属性として"Low"又は"High"が指定されている場合には、BCRobustRanking属性として"Low"が指定された通常のオーディオのストリームから、"High"が指定されたロバストなオーディオのストリームに切り替えられるので、ロバストなオーディオのセグメントデータが要求される。
 ステップS531において、制御部516は、ステップS542の最適なストリームの選択結果に従い、USDを参照することで、放送・通信のアドレス解決を行う。ここでは、例えば、図11の運用例1の「手順18」と同様の処理を行うことで、ロバストなオーディオのストリームが、放送で伝送されていることが特定される。そして、例えば、図11の運用例1の「手順19,20」と同様の処理を行い、assocication_tag属性を利用することで、SCDから、ロバストサービスのSCSを取得するためのSCS Bootstrap情報が得られる(S532)。
 ここで、クライアント装置50では、放送サーバ20からデジタル放送信号として送信される、FLUTEセッションによるSCSのLCTパケットが受信される(S231)。ステップS533において、フィルタリング処理部513は、制御部516からの制御に従い、SCSのLCTパケットのフィルタリング処理を行う。このフィルタリング処理によって、SCSのLCTパケットが抽出されるので、このLCTパケットのパーシングを行うことで、USD,SDP,FDDなどのロバストサービスのSCSが取得される。
 ステップS534において、制御部516は、USD,SDP,FDDなどのシグナリング情報に基づいて、ロバストサービスとして提供されている、ロバストなオーディオのストリームを取得するためのIPアドレス、ポート番号、TSI、及び、TOIを特定する。
 ここで、クライアント装置50では、放送サーバ20からデジタル放送信号として送信される、FLUTEセッションによるセグメントデータのLCTパケットが受信される(S232)。ステップS535において、フィルタリング処理部513は、制御部516からの制御に従い、セグメントデータのLCTパケットのフィルタリング処理を行う。このフィルタリング処理によって、セグメントデータのLCTパケットからセグメントデータが抽出(取得)され、キャッシングされる(S536)。
 そして、出力部519は、制御部516からの制御に従い、セグメントデータのバッファリングを行い(S544)、さらに、レンダリングを行う(S545)。これにより、クライアント装置50では、受信状態が悪化してストリームの品質が不安定になったとき、通常サービスから、ロバストサービスに切り替えられ、高レベルのロバスト性を有しているオーディオに対応する、受信環境の変動にかかわらずストリーム転送が安定している音声が再生される。
 以上、MPDの伝送路の品質のランキング情報を用いたストリーム切り替え処理について説明した。
(USDの伝送路の品質のランキング情報を用いたストリーム切り替え処理)
 次に、図20のフローチャートを参照して、図14の放送通信システム1を構成する各装置により実行される、USDの伝送路の品質のランキング情報を用いたストリーム切り替え処理の流れについて説明する。なお、図20のストリーム切り替え処理は、図12の運用例2-1と、図13の運用例2-2に対応している。すなわち、図20のストリーム切り替え処理は、図18のストリーム送受信処理が実行され、クライアント装置50において、ユーザにより選局された通常サービスの放送番組の映像と音声が再生されるときに実行される。
 図20においては、送信側の装置として、DASHサーバ10と、放送サーバ20(ミドルウェア)の処理の流れが示され、受信側の装置として、クライアント装置50におけるミドルウェアとDASHクライアントの処理の流れが示されている。ただし、放送サーバ20は、通常のオーディオとビデオのストリームを提供する通常サービスと、ロバストなオーディオのストリームを提供するロバストサービスの両方のサービスを提供している。また、クライアント装置50は、図16の機能的な構成例を有しているので、ミドルウェアとDASHクライアントの代わりに、それらの構成要素が処理を実行するものとして説明する。放送サーバ20のミドルウェアについても同様である。
 ステップS561においては、受信状態が悪化してストリームの品質が不安定になって、エラーが検出されたかどうかが判定される。ステップS561において、エラーが検出されず、受信状態が悪化していないと判定された場合、ステップS561の判定処理が繰り返される。この場合、クライアント装置50では、通常サービスの放送番組の映像と音声の再生が継続される。
 一方、ステップS561において、エラーが検出され、受信状態が悪化したと判定された場合、処理は、ステップS562に進められる。ステップS562においては、MPDのパーシングの結果に従い、セグメントデータが要求される。
 ステップS551において、制御部516は、ステップS562のセグメントデータの要求に従い、USDを参照して、最適なストリームを選択する。また、ステップS552において、制御部516は、ステップS551の最適なストリームの選択結果に従い、USDを参照することで、放送・通信のアドレス解決を行う。
 ここでは、例えば、図12の運用例2-1の「手順17,18」と同様の処理を行うことで、MPDに記述されたSegmentURL要素に指定されたURLと、USDのdeliveryMethod要素に記述されたbasepattern要素に指定されたURLとのマッチングが行われる。そして、例えば、SegmentURL1とbasepattern1が対応している場合には、この対応関係から、SegmentURL1が指定されたRepresentation要素のオーディオのストリームが、BCRobustRanking属性として"High"が指定されたロバストなオーディオのストリームであって、放送で伝送されていることが特定されることになる。そして、例えば、図12の運用例2-1の「手順19,20」と同様の処理を行い、assocication_tag属性を利用することで、SCDから、ロバストサービスのSCSを取得するためのSCS Bootstrap情報が得られる(S553)。
 ここで、クライアント装置50では、放送サーバ20からデジタル放送信号として送信される、FLUTEセッションによるSCSのLCTパケットが受信される(S251)。ステップS554において、フィルタリング処理部513は、制御部516からの制御に従い、SCSのLCTパケットのフィルタリング処理を行う。このフィルタリング処理によって、SCSのLCTパケットが抽出されるので、このLCTパケットのパーシングを行うことで、USD,SDP,FDDなどのロバストサービスのSCSが取得される。
 ステップS555において、制御部516は、USD,SDP,FDDなどのシグナリング情報に基づいて、ロバストサービスとして提供されている、ロバストなオーディオのストリームを取得するためのIPアドレス、ポート番号、TSI、及び、TOIを特定する。
 ここで、クライアント装置50では、放送サーバ20からデジタル放送信号として送信される、FLUTEセッションによるセグメントデータのLCTパケットが受信される(S252)。ステップS556において、フィルタリング処理部513は、制御部516からの制御に従い、セグメントデータのLCTパケットのフィルタリング処理を行う。このフィルタリング処理によって、セグメントデータのLCTパケットからセグメントデータが抽出(取得)され、キャッシングされる(S557)。
 そして、出力部519は、制御部516からの制御に従い、セグメントデータのバッファリングを行い(S563)、さらに、レンダリングを行う(S564)。これにより、クライアント装置50では、受信状態が悪化してストリームの品質が不安定になったとき、通常サービスから、ロバストサービスに切り替えられ、高レベルのロバスト性を有しているオーディオに対応する、受信環境の変動にかかわらずストリーム転送が安定している音声が再生される。
 以上、USDの伝送路の品質のランキング情報を用いたストリーム切り替え処理について説明した。
 なお、上述した説明では、ロバストサービスで提供される、ロバスト性の高いストリームとして、オーディオのストリームを例に説明したが、例えば、ビデオなどの他のストリームであってもよい。
 また、上述した説明では、シグナリング情報の名称として、Descriptionの略である「D」を用いたが、Tableの略である「T」が用いられる場合がある。例えば、SCD(Service Configuration Description)は、SCT(Service Configuration Table)と記述される場合がある。また、例えば、SPD(Service Parameter Description)は、SPT(Service Parameter Table)と記述される場合がある。ただし、これらの名称の違いは、「Description」と「Table」との形式的な違いであって、各シグナリング情報の実質的な内容が異なるものではない。
<6.コンピュータの構成>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。図21は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示す図である。
 コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。バス904には、さらに、入出力インターフェース905が接続されている。入出力インターフェース905には、入力部906、出力部907、記録部908、通信部909、及び、ドライブ910が接続されている。
 入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記録部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインターフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
 以上のように構成されるコンピュータ900では、CPU901が、ROM902や記録部908に記憶されているプログラムを、入出力インターフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
 コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インターフェース905を介して、記録部908にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部909で受信し、記録部908にインストールすることができる。その他、プログラムは、ROM902や記録部908に、あらかじめインストールしておくことができる。
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本技術は、以下のような構成をとることができる。
(1)
 IP(Internet Protocol)伝送方式を用いたデジタル放送の放送波を受信する受信部と、
 前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で伝送されるシグナリング情報を取得する取得部と、
 前記シグナリング情報に基づいて、再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御する制御部と
 を備える受信装置。
(2)
 前記シグナリング情報は、前記ストリームの再生制御に用いられる第1の制御情報と、前記第1の制御情報から参照されるとともに、前記ストリームの再生制御に用いられる第2の制御情報を含み、
 前記制御部は、前記第1の制御情報、及び、前記第2の制御情報に基づいて、前記第1のストリームから、前記第2のストリームに切り替える
 (1)に記載の受信装置。
(3)
 前記第1の制御情報は、伝送路の品質のランキングを示す情報を含み、
 前記制御部は、前記第1の制御情報に基づいて、伝送路の品質の低い前記第1のストリームから、伝送路の品質の高い前記第2のストリームに切り替える
 (2)に記載の受信装置。
(4)
 前記第2の制御情報は、伝送路の品質のランキングを示す情報を含み、
 前記制御部は、前記第2の制御情報に基づいて、伝送路の品質の低い前記第1のストリームから、伝送路の品質の高い前記第2のストリームに切り替える
 (2)に記載の受信装置。
(5)
 前記制御部は、前記第1のストリームの受信状態が悪化した場合に、前記第1のストリームから、前記第2のストリームに切り替える
 (1)乃至(4)のいずれか一項に記載の受信装置。
(6)
 前記制御部は、前記シグナリング情報が、前記第1のストリームから、前記第2のストリームへの切り替えに対応した内容となったとき、前記第1のストリームから、前記第2のストリームに切り替える
 (1)乃至(4)のいずれか一項に記載の受信装置。
(7)
 前記第1のストリームと、前記第2のストリームは、異なるサービスとして提供される
 (1)乃至(6)のいずれか一項に記載の受信装置。
(8)
 前記第1のストリームは、ビデオとオーディオからなるストリームであり、
 前記第2のストリームは、オーディオのストリームである
 (1)乃至(7)のいずれか一項に記載の受信装置。
(9)
 前記シグナリング情報は、SCS(Service Channel Signaling)であり、
 前記第1の制御情報は、USD(User Service Description)であり、
 前記第2の制御情報は、MPEG-DASH(Moving Picture Expert Group - Dynamic Adaptive Streaming over HTTP)の規格に準拠したMPD(Media Presentation Description)である
 (2)乃至(8)のいずれか一項に記載の受信装置。
(10)
 受信装置の受信方法において、
 前記受信装置が、
 IP伝送方式を用いたデジタル放送の放送波を受信し、
 前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で伝送されるシグナリング情報を取得し、
 前記シグナリング情報に基づいて、再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御する
 ステップを含む受信方法。
(11)
 再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御するためのシグナリング情報を生成する生成部と、
 前記第1のストリームと、前記第2のストリームを取得する取得部と、
 前記第1のストリーム、及び、前記第2のストリームの少なくとも一方とともに、前記シグナリング情報を、IP伝送方式を用いたデジタル放送の放送波で送信する送信部と
 を備え、
 前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で、前記シグナリング情報が伝送される
 送信装置。
(12)
 前記シグナリング情報は、前記ストリームの再生制御に用いられる第1の制御情報と、前記第1の制御情報から参照されるとともに、前記ストリームの再生制御に用いられる第2の制御情報を含む
 (11)に記載の送信装置。
(13)
 前記第1の制御情報は、伝送路の品質のランキングを示す情報を含む
 (12)に記載の送信装置。
(14)
 前記第2の制御情報は、伝送路の品質のランキングを示す情報を含む
 (12)に記載の送信装置。
(15)
 前記第1のストリームと、前記第2のストリームは、異なるサービスとして提供される
 (11)乃至(14)のいずれか一項に記載の送信装置。
(16)
 前記第1のストリームは、ビデオとオーディオからなるストリームであり、
 前記第2のストリームは、オーディオのストリームである
 (11)乃至(15)のいずれか一項に記載の送信装置。
(17)
 前記シグナリング情報は、SCSであり、
 前記第1の制御情報は、USDであり、
 前記第2の制御情報は、MPEG-DASHの規格に準拠したMPDである
 (12)乃至(16)に記載の送信装置。
(18)
 送信装置の送信方法において、
 前記送信装置が、
 再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御するためのシグナリング情報を生成し、
 前記第1のストリームと、前記第2のストリームを取得し、
 前記第1のストリーム、及び、前記第2のストリームの少なくとも一方とともに、前記シグナリング情報を、IP伝送方式を用いたデジタル放送の放送波で送信する
 ステップを含み、
 前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で、前記シグナリング情報が伝送される
 送信方法。
 1 放送通信システム, 10 DASHサーバ, 20 放送サーバ, 30 通信サーバ, 50 クライアント装置, 90 ネットワーク, 112 セグメントデータ生成部, 113 MPD生成部, 212 セグメントデータ取得部, 213 シグナリング情報生成部, 214 送信部, 312 セグメントデータ取得部, 313 シグナリング情報生成部, 314 送信部, 512 チューナ, 513 フィルタリング処理部, 514 シグナリング情報取得部, 515 セグメントデータ取得部, 516 制御部, 519 出力部, 520 通信部, 900 コンピュータ, 901 CPU

Claims (18)

  1.  IP(Internet Protocol)伝送方式を用いたデジタル放送の放送波を受信する受信部と、
     前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で伝送されるシグナリング情報を取得する取得部と、
     前記シグナリング情報に基づいて、再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御する制御部と
     を備える受信装置。
  2.  前記シグナリング情報は、前記ストリームの再生制御に用いられる第1の制御情報と、前記第1の制御情報から参照されるとともに、前記ストリームの再生制御に用いられる第2の制御情報を含み、
     前記制御部は、前記第1の制御情報、及び、前記第2の制御情報に基づいて、前記第1のストリームから、前記第2のストリームに切り替える
     請求項1に記載の受信装置。
  3.  前記第1の制御情報は、伝送路の品質のランキングを示す情報を含み、
     前記制御部は、前記第1の制御情報に基づいて、伝送路の品質の低い前記第1のストリームから、伝送路の品質の高い前記第2のストリームに切り替える
     請求項2に記載の受信装置。
  4.  前記第2の制御情報は、伝送路の品質のランキングを示す情報を含み、
     前記制御部は、前記第2の制御情報に基づいて、伝送路の品質の低い前記第1のストリームから、伝送路の品質の高い前記第2のストリームに切り替える
     請求項2に記載の受信装置。
  5.  前記制御部は、前記第1のストリームの受信状態が悪化した場合に、前記第1のストリームから、前記第2のストリームに切り替える
     請求項1に記載の受信装置。
  6.  前記制御部は、前記シグナリング情報が、前記第1のストリームから、前記第2のストリームへの切り替えに対応した内容となったとき、前記第1のストリームから、前記第2のストリームに切り替える
     請求項1に記載の受信装置。
  7.  前記第1のストリームと、前記第2のストリームは、異なるサービスとして提供される
     請求項1に記載の受信装置。
  8.  前記第1のストリームは、ビデオとオーディオからなるストリームであり、
     前記第2のストリームは、オーディオのストリームである
     請求項7に記載の受信装置。
  9.  前記シグナリング情報は、SCS(Service Channel Signaling)であり、
     前記第1の制御情報は、USD(User Service Description)であり、
     前記第2の制御情報は、MPEG-DASH(Moving Picture Expert Group - Dynamic Adaptive Streaming over HTTP)の規格に準拠したMPD(Media Presentation Description)である
     請求項2に記載の受信装置。
  10.  受信装置の受信方法において、
     前記受信装置が、
     IP伝送方式を用いたデジタル放送の放送波を受信し、
     前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で伝送されるシグナリング情報を取得し、
     前記シグナリング情報に基づいて、再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御する
     ステップを含む受信方法。
  11.  再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御するためのシグナリング情報を生成する生成部と、
     前記第1のストリームと、前記第2のストリームを取得する取得部と、
     前記第1のストリーム、及び、前記第2のストリームの少なくとも一方とともに、前記シグナリング情報を、IP伝送方式を用いたデジタル放送の放送波で送信する送信部と
     を備え、
     前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で、前記シグナリング情報が伝送される
     送信装置。
  12.  前記シグナリング情報は、前記ストリームの再生制御に用いられる第1の制御情報と、前記第1の制御情報から参照されるとともに、前記ストリームの再生制御に用いられる第2の制御情報を含む
     請求項11に記載の送信装置。
  13.  前記第1の制御情報は、伝送路の品質のランキングを示す情報を含む
     請求項12に記載の送信装置。
  14.  前記第2の制御情報は、伝送路の品質のランキングを示す情報を含む
     請求項12に記載の送信装置。
  15.  前記第1のストリームと、前記第2のストリームは、異なるサービスとして提供される
     請求項11に記載の送信装置。
  16.  前記第1のストリームは、ビデオとオーディオからなるストリームであり、
     前記第2のストリームは、オーディオのストリームである
     請求項15に記載の送信装置。
  17.  前記シグナリング情報は、SCSであり、
     前記第1の制御情報は、USDであり、
     前記第2の制御情報は、MPEG-DASHの規格に準拠したMPDである
     請求項12に記載の送信装置。
  18.  送信装置の送信方法において、
     前記送信装置が、
     再生されるストリームを、第1のストリームから、前記第1のストリームより高いロバスト性を有する第2のストリームに切り替える動作を制御するためのシグナリング情報を生成し、
     前記第1のストリームと、前記第2のストリームを取得し、
     前記第1のストリーム、及び、前記第2のストリームの少なくとも一方とともに、前記シグナリング情報を、IP伝送方式を用いたデジタル放送の放送波で送信する
     ステップを含み、
     前記放送波において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の階層で、前記シグナリング情報が伝送される
     送信方法。
PCT/JP2015/063271 2014-05-23 2015-05-08 受信装置、受信方法、送信装置、及び、送信方法 WO2015178221A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-106910 2014-05-23
JP2014106910 2014-05-23

Publications (1)

Publication Number Publication Date
WO2015178221A1 true WO2015178221A1 (ja) 2015-11-26

Family

ID=54553894

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/063271 WO2015178221A1 (ja) 2014-05-23 2015-05-08 受信装置、受信方法、送信装置、及び、送信方法

Country Status (1)

Country Link
WO (1) WO2015178221A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013019903A1 (en) * 2011-08-01 2013-02-07 Qualcomm Incorporated Method and apparatus for transport of dynamic adaptive streaming over http (dash) initialization segment description fragments as user service description fragments
WO2013043000A1 (en) * 2011-09-22 2013-03-28 Samsung Electronics Co., Ltd. Apparatus and method of playing broadcast content in broadcasting system
US20130219431A1 (en) * 2010-09-14 2013-08-22 Lg Electronics Inc. Apparatus for transmitting broadcasting signal, apparatus for receiving broadcasting signal, and method for transmitting/receiving broadcasting signal through apparatus for transmitting/receiving broadcasting signal
WO2013130473A1 (en) * 2012-02-27 2013-09-06 Qualcomm Incorporated Improved dash client and receiver with a download rate estimator

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130219431A1 (en) * 2010-09-14 2013-08-22 Lg Electronics Inc. Apparatus for transmitting broadcasting signal, apparatus for receiving broadcasting signal, and method for transmitting/receiving broadcasting signal through apparatus for transmitting/receiving broadcasting signal
WO2013019903A1 (en) * 2011-08-01 2013-02-07 Qualcomm Incorporated Method and apparatus for transport of dynamic adaptive streaming over http (dash) initialization segment description fragments as user service description fragments
WO2013043000A1 (en) * 2011-09-22 2013-03-28 Samsung Electronics Co., Ltd. Apparatus and method of playing broadcast content in broadcasting system
WO2013130473A1 (en) * 2012-02-27 2013-09-06 Qualcomm Incorporated Improved dash client and receiver with a download rate estimator

Similar Documents

Publication Publication Date Title
JP7070630B2 (ja) 受信方法、及び、送信方法
US20200336526A1 (en) Reception device, reception method, transmission device, and transmission method for distributing signaling information
JP6643246B2 (ja) 受信装置、受信方法、送信装置、及び、送信方法
WO2014188886A1 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、およびコンテンツ供給システム
US20190342862A1 (en) Reception apparatus, reception method, transmission apparatus, and transmission method
KR102499231B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
WO2016136489A1 (ja) 受信装置、受信方法、送信装置、及び、送信方法
WO2014196392A1 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、およびコンテンツ供給システム
JPWO2016111176A1 (ja) 受信装置、受信方法、送信装置、及び、送信方法
KR102461599B1 (ko) 수신 장치, 수신 방법, 송신 장치, 및, 송신 방법
JP6598031B2 (ja) 受信装置、受信方法、送信装置、及び、送信方法
WO2015115253A1 (ja) 受信装置、受信方法、送信装置、及び、送信方法
WO2015178221A1 (ja) 受信装置、受信方法、送信装置、及び、送信方法
US20170171641A1 (en) Receiving device, receiving method, transmission device, and transmission method
KR102319932B1 (ko) 수신 장치 및 수신 방법, 재생 장치 및 재생 방법, 공급 장치 및 공급 방법, 그리고 프로그램
WO2015045917A1 (ja) コンテンツ供給装置、コンテンツ供給方法、プログラム、端末装置、およびコンテンツ供給システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15796316

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 15796316

Country of ref document: EP

Kind code of ref document: A1