WO2015198872A1 - Reception apparatus, reception method, transmission apparatus, and transmission method - Google Patents

Reception apparatus, reception method, transmission apparatus, and transmission method Download PDF

Info

Publication number
WO2015198872A1
WO2015198872A1 PCT/JP2015/066826 JP2015066826W WO2015198872A1 WO 2015198872 A1 WO2015198872 A1 WO 2015198872A1 JP 2015066826 W JP2015066826 W JP 2015066826W WO 2015198872 A1 WO2015198872 A1 WO 2015198872A1
Authority
WO
WIPO (PCT)
Prior art keywords
metadata
service
transmitted
transmission
stream
Prior art date
Application number
PCT/JP2015/066826
Other languages
French (fr)
Japanese (ja)
Inventor
淳 北原
北里 直久
山岸 靖明
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2015198872A1 publication Critical patent/WO2015198872A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/07Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information characterised by processes or methods for the generation

Definitions

  • the present technology relates to a reception device, a reception method, a transmission device, and a transmission method, and more particularly, to a reception device, a reception method, a transmission device, and a transmission method that can perform high-speed channel selection processing.
  • the operation that employs text format signaling data is longer than the operation that employs binary format signaling data.
  • the station processing may be slow.
  • the present technology has been made in view of such a situation, and enables high-speed channel selection processing to be performed in an operation employing text-format signaling data in digital broadcasting. .
  • a receiving apparatus includes a channel selection control unit that performs channel selection control for selecting a digital broadcast using an IP (Internet Protocol) transmission method, and a protocol for the IP transmission method in the digital broadcast.
  • the minimum service is selected in advance of the first metadata in text format including control information for each service identified by the IP address transmitted in the first layer higher than the IP layer in this layer.
  • a metadata acquisition unit that acquires second metadata in text format or binary format that includes control information for performing the processing, and a stream of components that constitute a minimum service based on the acquired second metadata
  • a selection control unit that performs the selection control.
  • the data size of the second metadata is smaller than the data size of the first metadata, and the transmission cycle of the second metadata is shorter than the transmission cycle of the first metadata. be able to.
  • the metadata acquisition unit may acquire the first metadata in parallel with the acquisition of the second metadata.
  • the minimum service can be composed of main video and main audio components.
  • the second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service. Can be.
  • the second metadata may be transmitted together with the first metadata in the first layer.
  • the second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method. Can be included.
  • the receiving device may be an independent device or an internal block constituting one device.
  • the reception method according to the first aspect of the present technology is a reception method corresponding to the reception device according to the first aspect of the present technology described above.
  • channel selection control for selecting a digital broadcast using an IP transmission method is performed, and the protocol layer of the IP transmission method is used in the digital broadcast.
  • the protocol layer of the IP transmission method is used in the digital broadcast.
  • a transmission device includes an acquisition unit that acquires a component that constitutes a service identified by an IP address in digital broadcasting using an IP transmission method, and an IP in a protocol hierarchy of the IP transmission method.
  • the transmission apparatus includes a transmission unit configured to transmit metadata by digital broadcasting using the IP transmission method together with the component stream.
  • the data size of the second metadata is smaller than the data size of the first metadata, and the transmission cycle of the second metadata is shorter than the transmission cycle of the first metadata. be able to.
  • the minimum service can be composed of main video and main audio components.
  • the second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service. Can be.
  • the second metadata may be transmitted together with the first metadata in the first layer.
  • the second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method. Can be included.
  • the transmission device may be an independent device or an internal block constituting one device.
  • the transmission method according to the second aspect of the present technology is a transmission method corresponding to the transmission device according to the second aspect of the present technology described above.
  • a component constituting a service identified by an IP address is acquired in digital broadcasting using the IP transmission method, and the protocol of the IP transmission method is obtained.
  • the second metadata in the binary format is generated, and the first metadata and the second metadata are acquired so that the second metadata is acquired prior to the first metadata in the receiving device.
  • Metadata is transmitted together with the component stream by digital broadcasting using the IP transmission method.
  • high-speed channel selection processing can be performed.
  • FIG. 10 is a diagram for explaining a channel selection process in operation example 1; It is a figure which shows the structure of the signaling data of the operation example 1.
  • FIG. 10 is a figure explaining the transmission cycle of chunked SCS metadata and LLS metadata. It is a figure which shows the example of a display of the screen at the time of channel selection operation.
  • FIG. 10 is a diagram for explaining a channel selection process in an operation example 2; It is a figure which shows the structure of the signaling data of the operation example 2.
  • FIG. 10 is a diagram for explaining a channel selection process in an operation example 1; It is a figure which shows the structure of the signaling data of the operation example 2.
  • 10 is a diagram for explaining a channel selection process in an operation example 3; It is a figure which shows the structure of the signaling data of the operation example 3. It is a figure which shows the example of the syntax of DCT of a binary format. It is a figure which shows the example of the syntax of DCT of a binary format. It is a figure which shows the example of the syntax of XML format DCT. It is a figure which shows the structure of one Embodiment of the broadcast communication system to which this technique is applied. It is a figure which shows the structure of one Embodiment of the transmitter to which this technique is applied. It is a figure which shows the structure of one Embodiment of the receiver which applied this technique.
  • FIG. 1 is a diagram showing a system pipe model of digital transmission using the IP transmission method.
  • a plurality of BBP Base Band Packet
  • BBP Base Band Packet
  • Each BBP stream includes NTP (Network Time Protocol), multiple service channels (Service Channel), ESG (Electronic Service Guide) service, and LLS (Low Layer Signaling).
  • NTP Network Time Protocol
  • Service Channel multiple service channels
  • ESG Electronic Service Guide
  • LLS Low Layer Signaling
  • the NTP, service channel, and ESG service are transmitted according to the UDP / IP (User Datagram Protocol / Internet Protocol) protocol, while the LLS is transmitted on the BBP stream.
  • UDP User Datagram Protocol / Internet Protocol
  • NTP is time information.
  • ESG service is an electronic service guide.
  • LLS is low layer signaling data.
  • LLS metadata such as SCD (Service Configuration Description), EAD (Emergency Alert Description), RRD (Region Rating Description), etc. is transmitted.
  • the SCD shows the BBP stream configuration and service configuration in the broadcast network by an ID system corresponding to MPEG2-TS (Moving Picture Experts Group phase 2 Transport Channel).
  • the SCD includes attribute / setting information for each service, bootstrap information for accessing the ESG service and the SCS, and the like.
  • EAD contains information about emergency notifications.
  • the RRD includes rating information.
  • LLS metadata such as SCD, EAD, and RRD is described in a markup language such as XML.
  • a service channel (hereinafter referred to as “service”) is composed of SCS (Service Channel Signaling) and components that make up a program such as video, audio, and subtitles.
  • SCS Service Channel Signaling
  • components that make up a program such as video, audio, and subtitles.
  • IP address is given to the elements constituting each service, and components, SCSs, and the like can be packaged for each service using this IP address.
  • SCS is service unit signaling data.
  • SCS includes SCS such as USBD (User Service Bundle Description), MPD (Media Presentation Description), SDP (Session Description Protocol), FDD (File Delivery Description), SPD (Service Parameter Description), IS (Initialization Segment), etc. Metadata is transmitted.
  • USBD User Service Bundle Description
  • MPD Media Presentation Description
  • SDP Session Description Protocol
  • FDD File Delivery Description
  • SPD Service Parameter Description
  • IS Intelligentization Segment
  • USBD includes reference information for referencing SCS metadata such as MPD, FDD, SDP.
  • USBD may be referred to as USD (User Service Description).
  • the MPD includes information such as a segment URL (Uniform Resource Locator) for each component stream transmitted in service units.
  • MPD conforms to the MPEG-DASH standard (Moving / Picture / Expert / Group / Dynamic / Adaptive / Streaming / over / HTTP).
  • the SDP includes service attributes for each service, stream configuration information and attributes, filter information, location information, and the like.
  • the FDD includes information such as location information (for example, URL) and TOI (Transport Object Identifier) as index information for each TSI (Transport Session Identifier).
  • location information for example, URL
  • TOI Transport Object Identifier
  • index information for each TSI Transport Session Identifier.
  • a FLUTE File Delivery over Unidirectional Transport
  • a set of a plurality of objects is managed as one session by TSI. That is, in the FLUTE session, a specific file can be designated by two pieces of identification information of TSI and TOI.
  • the FDD may be included as an element in the USBD.
  • FLUTE + FLUTE plus obtained by expanding FLUTE may be used.
  • the SPD is composed of various parameters specified at the service and component level.
  • the IS includes control information related to segment data of video and audio components transmitted in the FLUTE session.
  • each segment of the FLUTE session conforms to the ISO Base Media Media File format.
  • SCS metadata such as USBD, MPD, SDP, FDD, SPD, and IS is described in a markup language such as XML. Further, the IS may be transmitted as a video or audio stream instead of being transmitted as an SCS stream.
  • an RF channel ID is assigned to a broadcast wave (RF Channel) having a predetermined frequency band, for example, for each broadcaster.
  • a BBP stream ID (BBP Stream ID) is assigned to one or a plurality of BBP streams transmitted on each broadcast wave.
  • a service ID (Service ID) is assigned to one or more services transmitted in each BBP stream.
  • the IP transmission system ID system is a combination of the network ID (Network ID), transport stream ID (Transport Stream ID), and service ID (Service ID) used in the MPEG2-TS system (
  • Network ID Network ID
  • Transport Stream ID Transport Stream ID
  • Service ID Service ID
  • a configuration corresponding to “triplet” is adopted, and a BBP stream configuration and a service configuration in the broadcast network are indicated by this triplet.
  • the RF channel ID and BBP stream ID correspond to the network ID and transport stream ID in the MPEG2-TS system.
  • FIG. 2 is a diagram for explaining a channel selection process for digital broadcasting using the IP transmission method.
  • FIG. 2 schematically shows a channel selection process in the receiver.
  • a service ID corresponding to the channel selection operation is identified (S11), and the service ID is selected from the service list of channel selection information (SCD) recorded in NVRAM.
  • a triplet including the ID is identified (S12). Then, according to this triplet, a physical parameter is obtained as a channel selection parameter used when performing a channel selection process. Since the physical parameter includes a frequency and a PLP ID, the physical parameter is connected to the BBP stream according to the frequency and the PLP ID (S13, S14).
  • SC bootstrap information is obtained as a channel selection parameter
  • SC1 Service Channel1
  • SC bootstrap information USBD, SDP, MPD, etc.
  • IP address, port number, and TSI information for connecting to the component stream obtained from the SCS metadata
  • the component stream is connected (S15, S16).
  • the segment transmitted in each FLUTE session can specify the TOI that changes in time series for each segment, for example, by sequentially incrementing the value of the TOI from the initial value.
  • segment data is extracted from the LCT packet transmitted in the component stream, thereby obtaining video data and audio data, and performing a rendering process.
  • the video and audio of the service to be selected (“SC1” in FIG. 2) are reproduced in the receiver.
  • the receiver performs the channel selection processing of the IP transmission type digital broadcast.
  • signaling data in text format By the way, in digital broadcasting by the IP transmission method, signaling data including LLS metadata such as SCD transmitted as LLS and SCS metadata such as USBD, SDP, and MPD transmitted as SCS is converted into an XML document, that is, text. It is assumed to be described in a format. As a result, the expandability and readability can be improved as compared with the binary format signaling data adopted in the MPEG2-TS system, but the data size increases and the transmission band increases.
  • LLS metadata such as SCD transmitted as LLS
  • SCS metadata such as USBD, SDP, and MPD transmitted as SCS
  • the required transmission bandwidth is 8000 bits per second (bit / s), but when transmitting every 100 milliseconds, Ten times the bandwidth of 80000 bits per second is required.
  • PAT Program Association Table
  • PMT Program Map Table
  • this technology enables high-speed channel selection processing by transmitting text-format signaling data such as LLS metadata and SCS metadata in the IP transmission method with the same transmission cycle as the MPEG2-TS method.
  • the metadata to be used.
  • information control information for selecting a minimum service is described without using the SCS metadata by the receiver, so that the SCS metadata is acquired in advance. To do.
  • this metadata will be described as “preceding acquisition metadata”.
  • the minimum service refers to a service composed of minimum components that should be preferentially provided among components such as video and audio that constitute a certain service. Consists of corresponding components. That is, from the viewpoint of the user, the main information such as the main video and main audio has a higher priority at the time of viewing than the secondary information such as the second audio and subtitles. Ensure that main video and main audio are provided preferentially.
  • control information for connecting to the stream of the component corresponding to the main video and the main audio is described in the prior acquisition metadata.
  • the advance acquisition metadata for example, only describes information for connecting to the component stream corresponding to the main video and main audio, so the data size is the data size of the SCS metadata.
  • the binary format or the text format is used as the format of the metadata for pre-acquisition.
  • the binary-form advance acquisition metadata is referred to as DCT (Default Component Table)
  • DCD Default Component Description
  • the DCT is transmitted at least one of LLS and SCS.
  • the DCT is acquired prior to the SCS metadata, so that the rendering process can be started quickly by connecting to the main video and main audio streams.
  • the receiver tries to acquire SCS metadata in parallel with the rendering process of the main video and main audio streams and connects to the stream of all the components constituting the channel selection service ( Control information).
  • Control information the channel selection service
  • the DCT is acquired prior to the SCS metadata (USBD, SDP, MPD, etc.), so that the main video and main audio streams are acquired with priority over other streams.
  • the main video and main audio can be reproduced.
  • the transmitter since the DCT has a data size smaller than that of the SCS metadata, the transmitter can suppress the transmission band even if the DCT transmission cycle is shorter than the transmission cycle of the SCS metadata.
  • the receiver can immediately acquire a DCT transmitted at a transmission cycle shorter than that of the SCS metadata, and can perform a high-speed channel selection process using the DCT.
  • DCT is transmitted at a transmission cycle of 100 milliseconds, which is the same as the transmission cycle of PMT used at the time of channel selection processing of the MPEG2-TS system, or transmission cycle of 100 milliseconds or less, and SCS metadata (USBD, SDP , MPD, etc.) transmission cycle is longer than the DCT transmission cycle, so that parameters necessary for channel selection processing are transmitted in a shorter cycle, and high-speed channel selection processing is performed while suppressing the transmission band. be able to.
  • SCS metadata USBD, SDP , MPD, etc.
  • FIG. 3 is a diagram for explaining a channel selection process in Operation Example 1 which is an operation of transmitting DCT by LLS.
  • a BBP stream obtained from a digital broadcast signal transmitted from the transmitter to the receiver is schematically illustrated in order to explain the channel selection process in the receiver.
  • the transmitter of the broadcasting station (broadcaster) identified by the RF channel ID uses the BBP stream (BBP Stream) identified by the BBP stream ID by the broadcast wave (RF Channel) of the digital broadcast using the IP transmission method. ).
  • BBP stream the components constituting each service identified by the service ID and the SCS stream, as well as the LLS, ESG, and NTP streams are transmitted.
  • service 1 (“SC1 (Service (Channel1)” in FIG. 3) and service 2 (“SC2 (Service Channel2)” in FIG. 3) are provided as services identified by the service ID. .
  • the service 1 is composed of main video (Video) and main audio (Audio) components. These main video and main audio streams are transmitted in the FLUTE session together with the service 1 SCS stream.
  • the service 2 includes main video and main audio components, and the stream of these components is transmitted in the FLUTE session together with the SCS stream of the service 2.
  • the DCT is transmitted by the LLS stream.
  • DCT has a data size smaller than that of SCS metadata (USBD, SDP, MPD, etc.)
  • the transmitter transmits DCT with a transmission cycle shorter than the transmission cycle of SCS metadata.
  • a receiver installed in each home or the like acquires an SCD transmitted in the LLS stream in advance by an initial scanning process, and records it in the internal NVRAM (Non Volatile RAM) as channel selection information.
  • the SCD includes physical parameters (PHY parameters), SC bootstrap information, and the like as channel selection parameters (Tuning parameters) used when performing channel selection processing for each BBP stream.
  • PHY parameters physical parameters
  • SC bootstrap information channel selection parameters
  • Tuning parameters channel selection parameters used when performing channel selection processing for each BBP stream.
  • the SCD in FIG. 3 shows only a part of the information included in the SCD for the sake of simplicity.
  • a service ID corresponding to the channel selection operation is specified (S21), and from the channel selection parameter of the channel selection information (SCD) recorded in NVRAM.
  • S21 a service ID corresponding to the channel selection operation
  • SCD channel selection parameter of the channel selection information
  • S22 the physical parameter and the SC bootstrap information
  • the receiver is connected to the BBP stream according to the frequency (frequency) as physical parameters and the PLP ID (plp_ID) (S23), and further connected to the LLS stream transmitted by the BBP stream (S24).
  • the BBP packet is extracted at the receiver (S25), from which the DCT is acquired (S26).
  • the DCT in FIG. 3 since the service 1 is selected by the user, information for selecting a minimum service corresponding to the service ID of the service 1 from the DCT service loop of FIG. To be acquired.
  • the DCT in FIG. 3 describes a MIME type, a port number, and a TSI as information for connecting to the main video and main audio streams constituting the service 1.
  • S27 the IP address, port number, and TSI of the SC bootstrap information
  • the segment transmitted in each FLUTE session can specify the TOI that changes in time series for each segment, for example, by sequentially incrementing the value of the TOI from the initial value.
  • the receiver acquires the IS and MS as the segment, acquires the segment data stored in the MS, and performs the main video and main audio rendering process. As a result, the main video and main audio of service 1 are reproduced in the receiver.
  • the information for connecting to the streams of all the components constituting the service 1 is also obtained by attempting acquisition. Then, after the SCS metadata is acquired, it is possible to connect to a stream of components other than the main video and main audio (for example, second audio, subtitles, etc. (not shown)) constituting the service 1. .
  • the DCT transmitted in the LLS stream is acquired in advance of the SCS metadata such as USBD, SDP, and MPD, and is connected to the main video and main audio streams included in the DCT.
  • the main video and main audio segment data are preferentially acquired according to the information for the main video and main audio streams, and main video and main audio rendering processing is performed.
  • the DCT is described so that the main video and the main audio are preferentially output as a minimum service, and are acquired prior to the SCS metadata.
  • the transmitter can suppress the transmission band even if the DCT transmission cycle is shorter than the transmission cycle of the SCS metadata.
  • the receiver can immediately acquire a DCT transmitted at a transmission cycle shorter than that of the SCS metadata, and can perform high-speed channel selection processing using the DCT.
  • FIG. 4 is a diagram illustrating a configuration of signaling data in Operation Example 1 which is an operation of transmitting DCT by LLS.
  • LLS DCT as pre-acquisition metadata is transmitted together with LLS metadata such as SCD, EAD, and RDD.
  • the SCD describes a frequency and a PLP ID as physical parameters.
  • the receiver acquires the DCT transmitted in the LLS stream by connecting to the BBP stream according to the frequency and the PLP ID.
  • information for connecting to the main video and main audio stream that constitutes the service to be selected is described as information for selecting a minimum service. ing.
  • the receiver connects to the stream of the main video (“Main Audio” in FIG. 4) and the main audio (“Main ⁇ Audio” in FIG. 4) transmitted in the FLUTE session. Segment data is acquired and main video and main audio are rendered. As a result, the receiver reproduces the main video and main audio of the service to be selected.
  • SC bootstrap information for connecting to the SCS stream is described in the SCD.
  • the receiver tries to acquire the SCS metadata (USBD, SDP, MPD, etc.) transmitted in the FLUTE session according to the SC bootstrap information in parallel with the main video and main audio rendering process, and SCS including information (IP address, port number, TSI, etc.) for connecting to the stream of the second video (“2nd Video” in FIG. 4) and the second audio (“2nd Audio” in FIG. 4) constituting the service Get metadata.
  • SCS metadata USBD, SDP, MPD, etc.
  • SCS including information (IP address, port number, TSI, etc.) for connecting to the stream of the second video (“2nd Video” in FIG. 4) and the second audio (“2nd Audio” in FIG. 4) constituting the service Get metadata.
  • the receiver is ready to play back the second video and the second audio, so the second transmitted in the FLUTE session according to the SCS metadata (USBD, SDP, MPD, etc.).
  • SCS metadata USBD, SDP, MPD, etc.
  • segment data of the second video or second audio can be acquired and a rendering process can be performed.
  • the receiver can reproduce the second video or the second sound of the service to be selected.
  • SCS metadata (for example, SPD and MPD) acquired after DCT is also used to connect to the main video ("Main Video” in FIG. 4) and main audio ("Main Audio” in FIG. 4) streams.
  • Information is provided.
  • the information for connecting to the main video and main audio streams is defined in duplicate in the DCT and SCS metadata.
  • the receiver may connect to the main video and main audio streams using the SCS metadata.
  • the SCS metadata may be defined only in the DCT without defining information for connecting to the main video and main audio streams.
  • ESG bootstrap information for connecting to the ESG stream is described.
  • the receiver can acquire the ESG transmitted in the FLUTE session according to the ESG bootstrap information.
  • the ESG is composed of fragments such as a service (Service), content (Content), schedule (Schedule), and purchase item (PurchaseItem).
  • the ESG service is associated with the SCS metadata USBD.
  • ESG is defined by OMA (Open Mobile Alliance).
  • FIG. 5 is a diagram for explaining the transmission cycle of chunked SCS metadata and LLS metadata in Operation Example 1.
  • a stream corresponding to each metadata is schematically represented.
  • MPS, USBD, SDP, etc. as SCS metadata are chunked to a predetermined data size, stored in an LCT packet, and transmitted. Further, SCD or the like as LLS metadata is chunked to a predetermined data size, stored in an LLS packet, and transmitted.
  • an LLS stream and an SCS stream for each service (“SC1 (Service Channel 1)” in FIG. 5) are transmitted.
  • SC1 Service Channel 1
  • MPD, USBD, and SDP LCT packets are repeatedly transmitted in that order. That is, one cycle of MPD, USBD, and SDP that is repeatedly transmitted as an LCT packet is one cycle in the SCS stream.
  • DCT and SCD LLS packets are repeatedly transmitted in that order in the LLS stream. That is, one cycle of DCT and SCD, which is repeatedly transmitted as an LLS packet, is one cycle in the LLS stream.
  • one cycle of the LLS stream is basically shorter than one cycle of the SCS stream, when the DCT is transmitted using the LLS stream, the receiver acquires the DCT that precedes the SCS metadata. Can be acquired quickly.
  • FIG. 6 is a diagram illustrating a display example of a screen at the time of channel selection operation in the operation example 1.
  • FIG. 6 schematically shows a BBP stream obtained from a digital broadcast signal transmitted from the transmitter to the receiver in order to explain a display example of the screen at the time of channel selection operation at the receiver.
  • the components constituting the service, the SCS stream, the LLS stream, and the like transmitted by the BBP stream are the same as those in FIG.
  • the service ID corresponding to the channel selection operation is specified (S41), and from the channel selection parameter of the channel selection information (SCD) recorded in NVRAM.
  • Physical parameters are specified.
  • the receiver is connected to the LLS stream transmitted by the BBP stream according to the frequency and PLP ID as physical parameters (S42). Thereby, in a receiver, a BBP packet is extracted and DCT is acquired from there (S43).
  • the receiver selects a minimum service corresponding to the service ID of the service 1.
  • Information (port number, TSI, etc.) is acquired.
  • the receiver acquires the DCT, so that the IP address, the port number, and the TSI for connecting to the main video and main audio stream constituting the service 1 are specified. Connected to the audio stream (S44).
  • the main video and main audio of the service 1 are reproduced in the receiver (video IM1 on the receiver screen in FIG. 6).
  • the receiver tries to acquire SCS metadata in parallel with the main video and main audio rendering process of service 1. That is, in the receiver, when the service ID corresponding to the channel selection operation is specified (S41), the SC bootstrap information is specified from the channel selection parameter of the channel selection information (SCD) recorded in the NVRAM.
  • the receiver When one cycle of the SCS stream elapses after connection to the SCS stream, all SCS metadata is acquired and information for connecting to the subtitle (Caption) stream other than the main video and main audio constituting the service 1 Is obtained.
  • the receiver is connected to the subtitle stream according to the SCS metadata (USBD, SDP, MPD, etc.) (S48).
  • SCS metadata USBD, SDP, MPD, etc.
  • the receiver reproduces the subtitles together with the main video and main audio of service 1 (video IM2 on the receiver screen in FIG. 6). That is, in the receiver, the subtitle CC is superimposed and displayed on the main video that has been preferentially displayed in advance.
  • one cycle of the LLS stream is basically shorter than one cycle of the SCS stream
  • the DCT acquired prior to the SCS metadata can be quickly obtained.
  • the main video and main audio can be reproduced (video IM1 on the receiver screen in FIG. 6).
  • the subtitle CC is superimposed on the previously displayed main video. (Image IM2 on the receiver screen in FIG. 6).
  • the main video and the main audio are played back in advance, so that the main video and main audio such as the main video and the main audio having a higher priority than the secondary information such as subtitles are reproduced. Since information can be provided preferentially, the program can be viewed without giving the user an unnatural feeling.
  • FIG. 7 is a diagram for explaining a channel selection process in Operation Example 2 which is an operation of transmitting DCT by SCS.
  • FIG. 7 schematically shows a BBP stream obtained from a digital broadcast signal transmitted from the transmitter to the receiver in order to explain the channel selection processing at the receiver.
  • the components constituting the service, the SCS stream, the LLS stream, and the like transmitted by the BBP stream are the same as those in FIG.
  • the service ID corresponding to the channel selection operation is specified (S61), and the channel selection parameter of the channel selection information (SCD) recorded in the NVRAM is used.
  • the physical parameters and SC bootstrap information are specified (S62).
  • the receiver acquires the DCT, so that the IP address, the port number, and the TSI for connecting to the main video and main audio stream constituting the service 1 are specified.
  • the audio stream is connected (S69).
  • the segment transmitted in each FLUTE session can specify the TOI that changes in time series for each segment, for example, by sequentially incrementing the value of the TOI from the initial value.
  • the IS and MS as the segment are acquired, the segment data stored in the MS is acquired, and the main video and main audio rendering processing is performed. As a result, the main video and main audio of service 1 are reproduced in the receiver.
  • the information for connecting to the streams of all the components constituting the service 1 is also obtained by attempting acquisition. Then, after the SCS metadata is acquired, it is possible to connect to a stream of components other than the main video and main audio (for example, second audio, subtitles, etc. (not shown)) constituting the service 1. .
  • the DCT transmitted in the SCS stream is acquired prior to the SCS metadata such as USBD, SDP, and MPD, and is connected to the main video and main audio streams included in the DCT.
  • the main video and main audio segment data are preferentially acquired according to the information for the main video and main audio streams, and main video and main audio rendering processing is performed.
  • a certain amount of time is required until all components constituting service 1 other than the main video and main audio, for example, the second audio and subtitles are output. If this is allowed, the DCT is described so that the main video and the main audio are preferentially output as a minimum service, and are acquired prior to the SCS metadata. At this time, since the DCT has a data size smaller than that of the SCS metadata, the transmitter can suppress the transmission band even if the DCT transmission cycle is shorter than the transmission cycle of the SCS metadata. As a result, the receiver can immediately acquire a DCT transmitted at a transmission cycle shorter than that of the SCS metadata, and can perform high-speed channel selection processing using the DCT.
  • FIG. 8 is a diagram illustrating a configuration of signaling data in Operation Example 2 which is an operation of transmitting DCT by SCS.
  • LLS metadata such as SCD, EAD, and RDD is transmitted as LLS.
  • SCS DCT as metadata for pre-acquisition is transmitted together with SCS metadata such as USBD, SDP, and MPD.
  • SCD describes physical parameters and SC bootstrap information.
  • the receiver acquires the preceding acquisition metadata transmitted in the FLUTE session by connecting to the SCS stream in accordance with the SC bootstrap information.
  • DCT contains information such as port numbers and TSI as information for connecting to the main video and main audio streams that make up the service to be selected as information for selecting a minimum service.
  • the receiver connects to the stream of main video (“Main Audio” in FIG. 8) and the main audio (“Main Audio” in FIG. 8) transmitted in the FLUTE session. Segment data is acquired and main video and main audio are rendered. As a result, the receiver reproduces the main video and main audio of the service to be selected.
  • the receiver tries to acquire the SCS metadata (USBD, SDP, MPD, etc.) transmitted in the FLUTE session together with the metadata for preceding acquisition in parallel with the main video and main audio rendering process.
  • Information IP address, port number, TSI, etc.
  • SCS metadata for connecting to the stream of the second video (“2nd Video” in FIG. 8) and the second audio (“2nd Audio” in FIG. 8) constituting the service to be selected )
  • SCS metadata USBD, SDP, MPD, etc.
  • the receiver is ready to play back the second video and the second audio, so the second transmitted in the FLUTE session according to the SCS metadata (USBD, SDP, MPD, etc.).
  • SCS metadata USBD, SDP, MPD, etc.
  • segment data of the second video or second audio can be acquired and a rendering process can be performed.
  • the receiver can reproduce the second video or the second sound of the service to be selected.
  • SCS metadata (for example, SPD and MPD) acquired after DCT is also connected to a stream of main video (“Main Video” in FIG. 8) and main audio (“Main Audio” in FIG. 8).
  • Information is provided.
  • the information for connecting to the main video and main audio streams is defined redundantly in the DCT and SCS metadata.
  • the receiver may use the SCS metadata and connect to the main video and main audio streams.
  • the receiver can acquire the ESG transmitted in the FLUTE session according to the ESG bootstrap information described in the SCD.
  • FIG. 9 is a diagram for explaining a channel selection process of Operation Example 3 which is an operation of transmitting shortcut information by LLS.
  • FIG. 9 schematically shows a BBP stream obtained from a digital broadcast signal transmitted from the transmitter to the receiver in order to explain the channel selection processing at the receiver.
  • the components constituting the service, the SCS stream, the LLS stream, and the like transmitted by the BBP stream are the same as those in FIG.
  • the service ID corresponding to the channel selection operation is specified (S81), and from the channel selection parameter of the channel selection information (SCD) recorded in the NVRAM.
  • the physical parameters and SC bootstrap information are specified (S82).
  • the SCD describes the MIME type, port number, and TSI for each component as information for connecting to the main video and main audio streams constituting the service 1. That is, in the operation example 1 and operation example 2, information for selecting a minimum service in the service 1 is embedded in the SCD of FIG. 9 that is described in the DCT (preceding acquisition metadata). Yes. This information will be described as “shortcut information”.
  • the receiver identifies the IP address, port number, and TSI for connecting to the main video and main audio stream constituting the service 1 by referring to the SCD shortcut information. Are connected to the main audio stream (S87).
  • the segment transmitted in each FLUTE session can specify the TOI that changes in time series for each segment, for example, by sequentially incrementing the value of the TOI from the initial value.
  • the IS and MS as the segment are acquired, the segment data stored in the MS is acquired, and the main video and main audio rendering processing is performed. As a result, the main video and main audio of service 1 are reproduced in the receiver.
  • the information for connecting to the streams of all the components constituting the service 1 is also obtained by attempting acquisition. Then, after the SCS metadata is acquired, it is possible to connect to a stream of components other than the main video and main audio (for example, second audio, subtitles, etc. (not shown)) constituting the service 1. .
  • the main video and main audio segment data are connected preferentially, and the main video and main audio segment data are preferentially acquired.
  • the main video and main audio are rendered.
  • the shortcut information is preceded by the SCS metadata by describing the shortcut information and including it in the SCD so that the main video and the main audio are output preferentially as a minimum service. And get it.
  • the shortcut information since the shortcut information is included in the SCD as the LLS metadata and transmitted, the shortcut information can be used to perform high-speed channel selection processing.
  • FIG. 10 is a diagram illustrating a configuration of signaling data in the operation example 3 which is an operation of transmitting the shortcut information by LLS.
  • LLS metadata such as SCD, EAD, and RDD is transmitted as LLS.
  • SCS SCS metadata
  • USBD Serial Digital
  • SDP Serial Digital
  • MPD MPD
  • shortcut information is described together with physical parameters and SC bootstrap information.
  • information (port number, TSI, etc.) for connecting to the main video and main audio stream that constitutes the service to be selected is described as information for selecting the minimum service. Has been.
  • the receiver connects to the main video (“Main Video” in FIG. 10) and main audio (“Main Audio” in FIG. 10) streams transmitted in the FLUTE session.
  • the video and main audio segment data is acquired, and the main video and main audio are rendered.
  • the receiver reproduces the main video and main audio of the service to be selected.
  • the receiver tries to acquire SCS metadata (USBD, SDP, MPD, etc.) transmitted in the FLUTE session, and configures the service to be selected.
  • SCS metadata including information (IP address, port number, TSI, etc.) for connecting to the stream of the second video (“2nd Video” in FIG. 10) and the second audio (“2nd Audio” in FIG. 10) get.
  • the receiver is ready to play back the second video and the second audio, so the second transmitted in the FLUTE session according to the SCS metadata (USBD, SDP, MPD, etc.).
  • SCS metadata USBD, SDP, MPD, etc.
  • segment data of the second video or second audio can be acquired and a rendering process can be performed.
  • the receiver can reproduce the second video or the second sound of the service to be selected.
  • SCS metadata (for example, SPD and MPD) acquired after the shortcut information is also connected to the stream of the main video (“Main Video” in FIG. 10) and the main audio (“Main Audio” in FIG. 10).
  • Information is provided. That is, the information for connecting to the main video and main audio stream is defined redundantly in the shortcut information and the SCS metadata. For example, when the shortcut information is not included in the SCD.
  • the receiver may use the SCS metadata and connect to the main video and main audio streams.
  • the receiver can acquire the ESG transmitted in the FLUTE session according to the ESG bootstrap information described in the SCD.
  • FIG. 11 is a diagram illustrating an example of DCT syntax in a binary format.
  • ⁇ DCT table ID is specified in 8-bit table_id.
  • the 8-bit version_number specifies the DCT version.
  • the 16-bit length specifies the table length.
  • the 1-bit mime_flag specifies a flag indicating the presence or absence of MIME type.
  • port_num_flag a flag indicating the presence or absence of a port number is specified.
  • tsi_flag a flag indicating the presence or absence of TSI is specified.
  • the 5-bit reserved is an area for future expansion.
  • video_component information for connecting to the main video stream as a minimum service is specified.
  • mime_type when mime_flag is "TURE"
  • 8-bit MIME type is specified in mime_type
  • port_number when port_num_flag is “TURE”
  • TSI 16-bit TSI is specified when tsi_flag is "TURE".
  • audio_component information for connecting to the main audio stream as a minimum service is specified.
  • mime_type when mime_flag is "TURE"
  • an 8-bit MIME type is specified.
  • port_number when port_num_flag is “TURE”, a 16-bit port number is specified.
  • TSI 16-bit TSI is specified when tsi_flag is "TURE”.
  • video_component and audio_component when mime_flag, port_num_flag, and tsi_flag are “FALSE”, values specified separately in operation and the like are used, so mime_type, port_number, and TSI are not transmitted. As a result, the data size of the DCT can be further reduced.
  • a service ID can be specified by a 16-bit service_id in the binary DCT. That is, in the case of operation example 1 described above, since DCT is transmitted by LLS, it is necessary to transmit DCT for each service. In this case, the service ID is specified to identify the DCT for each service. . Therefore, when the operation example 1 is adopted, the DCT of FIG. 12 is used.
  • FIG. 13 is a diagram illustrating an example of DCT syntax in XML format.
  • the DCD element is an upper element of the ServiceID element, the video element, and the audio element.
  • a service ID is specified in the ServiceID element.
  • the service ID is an optional value and is specified in the case of operation example 1 described above, but need not be specified in the case of operation example 2.
  • the video element information for connecting to the main video stream as a minimum service is specified.
  • the video element is an upper element of the mime_type attribute, the port_number attribute, and the TSI attribute.
  • a MIME type is specified in the mime_type attribute.
  • a port number is specified in the port_number attribute.
  • TSI is specified as the TSI attribute.
  • the audio element information for connecting to the main audio stream as a minimum service is specified.
  • the audio element is an upper element of the mime_type attribute, the port_number attribute, and the TSI attribute.
  • a MIME type is specified in the mime_type attribute.
  • a port number is specified in the port_number attribute.
  • TSI is specified as the TSI attribute.
  • the configuration of the XML format DCT syntax shown in FIG. 13 is merely an example, and other configurations may be adopted.
  • FIG. 14 is a diagram illustrating a configuration of an embodiment of a broadcast communication system to which the present technology is applied.
  • the broadcast communication system 1 is a system that can provide various services in cooperation with broadcast and communication.
  • Information for selecting the above-mentioned minimum service is stored in the SCS meta data. By acquiring data in advance, it is a system that can select a high-speed channel with priority on a minimum service.
  • the broadcast communication system 1 in FIG. 14 includes a transmission device 10, a reception device 20, a data providing server 30, and a streaming server 40.
  • the receiving device 20 is connected to the streaming server 40 via a network 90 such as the Internet.
  • the transmission device 10 corresponds to the above-described transmitter (for example, FIG. 3, FIG. 7, FIG. 9, etc.), and is provided by, for example, a broadcaster.
  • the transmission device 10 transmits component data provided from the data providing server 30 by a broadcast wave of digital broadcasting using an IP transmission method. Further, the transmission device 10 generates signaling data by using the original data of the signaling data provided from the data providing server 30 and transmits it together with component data by a broadcast wave of digital broadcasting using the IP transmission method.
  • the file of each component is divided into segments according to the ISO BMFF (Base Media File Format),
  • the obtained segment data is stored in an LCT packet and transmitted.
  • This segment is composed of IS (Initialization Segment) and MS (Media Segment).
  • the prior acquisition metadata (DCT or DCD) is generated as the signaling data, and is transmitted along with the LLS metadata by the LLS.
  • the metadata for pre-acquisition (DCT or DCD) is generated as signaling data, and is transmitted along with the SCS metadata through the FLUTE session in the SCS.
  • an SCD including shortcut information is generated as signaling data, and is transmitted by LLS as LLS metadata.
  • the receiving device 20 corresponds to the above-described receiver (for example, FIG. 3, FIG. 7, FIG. 9, etc.), and is installed in each home, for example.
  • the receiving device 20 receives a broadcast wave of a digital broadcast transmitted from the transmission device 10 and acquires signaling data transmitted by the broadcast wave of the digital broadcast. Based on the acquired signaling data, the receiving device 20 acquires component data transmitted by the broadcast wave of the digital broadcast transmitted from the transmitting device 10, and reproduces (outputs) video and audio corresponding to the data. )
  • the data providing server 30 provides component data such as video, audio, and subtitles to at least one of the transmission device 10 and the streaming server 40.
  • the data providing server 30 provides the original data of the signaling data to the transmitting device 10.
  • the data providing server 30 may generate signaling data instead of the original data of the signaling data and provide it to the transmission device 10.
  • the streaming server 40 performs streaming distribution of the component data provided from the data providing server 30 via the network 90 in response to a request from the receiving device 20.
  • the streaming server 40 is provided by, for example, a broadcaster. Further, the streaming server 40 may generate signaling data and distribute the signaling data via the network 90 in response to a request from the receiving device 20.
  • the reception device 20 Based on the signaling data from the transmission device 10, the reception device 20 acquires component data that is streamed from the streaming server 40 via the network 90, and reproduces (outputs) video and audio corresponding to the data. To do.
  • the broadcast communication system 1 is configured as described above. Next, with reference to FIGS. 15 to 17, the configuration of the transmission device 10 and the reception device 20 will be described as a detailed configuration of each device configuring the broadcast communication system 1 of FIG. 14.
  • FIG. 15 is a diagram illustrating a configuration of an embodiment of a transmission device to which the present technology is applied.
  • the transmission device 10 includes a signaling generation unit 111, a signaling processing unit 112, a video data acquisition unit 113, a video encoder 114, an audio data acquisition unit 115, an audio encoder 116, a caption data acquisition unit 117, and a caption encoder. 118, Mux 119, and transmission unit 120.
  • the signaling generation unit 111 generates signaling data using the original data of the signaling data provided from the data providing server 30 and supplies it to the signaling processing unit 112.
  • the signaling processing unit 112 processes the signaling data supplied from the signaling generation unit 111 and supplies it to the Mux 119.
  • LLS metadata such as SCD, RRD, and EAD
  • SCS metadata such as USBD, SDP, and MPD
  • operation example 1 and operation example 2 are adopted, DCT or DCD as the prior acquisition metadata is generated.
  • operation example 3 is adopted, an SCD including shortcut information is generated.
  • the video data acquisition unit 113 acquires video data provided from the data providing server 30 and supplies the video data to the video encoder 114.
  • the video data may be acquired from a built-in storage, a video camera, or the like.
  • the video encoder 114 encodes the video data supplied from the video data acquisition unit 113 in accordance with an encoding method such as MPEG (Moving Picture Experts Group) and supplies the encoded data to the Mux 119.
  • MPEG Motion Picture Experts Group
  • the audio data acquisition unit 115 acquires audio data provided from the data providing server 30 and supplies the audio data to the audio encoder 116.
  • the audio data may be acquired from a built-in storage, a microphone, or the like.
  • the audio encoder 116 encodes the audio data supplied from the audio data acquisition unit 115 in accordance with an encoding method such as MPEG, and supplies the encoded audio data to the Mux 119.
  • the subtitle data acquisition unit 117 acquires subtitle data provided from the data providing server 30 and supplies it to the subtitle encoder 118.
  • the caption encoder 118 encodes the caption data supplied from the caption data acquisition unit 117 in accordance with an encoding method such as MPEG, and supplies the encoded data to the Mux 119.
  • the Mux 119 generates a BBP stream by multiplexing the signaling data from the signaling processing unit 112, the video stream from the video encoder 114, the audio stream from the audio encoder 116, and the subtitle stream from the subtitle encoder 118. To the transmission unit 120.
  • the transmission unit 120 transmits the BBP stream supplied from the Mux 119 via the antenna 121 as a digital broadcast signal.
  • the file of each component is divided into segments in accordance with the ISO FFFF regulations, and the segment data obtained thereby is LCT. It is stored in a packet and transmitted.
  • the metadata for pre-acquisition is transmitted by LLS together with the LLS metadata (SCD, RRD, EAD, etc.).
  • the metadata for pre-acquisition is transmitted through the FLUTE session in the SCS together with the SCS metadata (USBD, SDP, MPD, etc.).
  • the SCD including the shortcut information is transmitted by LLS as LLS metadata.
  • LLS headers of LLS packets that store LLS metadata (SCD, RRD, EAD, etc.) transmitted as LLS, or SCS metadata (USBD, SDP, MPD, etc.) transmitted as SCS Filtering information such as compression information (CO), type information (Type), extension filter information (Filter_Extension), or version information (Data_Version) can be arranged in the LCT header of the LCT packet in which is stored.
  • LLS metadata SCD, RRD, EAD, etc.
  • SCS metadata USBD, SDP, MPD, etc.
  • SCS Filtering information such as compression information (CO), type information (Type), extension filter information (Filter_Extension), or version information (Data_Version)
  • the compression information information indicating whether or not the target signaling data is compressed is designated.
  • the type information information indicating the type of target signaling data is specified.
  • extended filter information extended filtering information set for each type of signaling data is arbitrarily set.
  • the version information information indicating the version of the target signaling data is specified.
  • FIG. 16 is a diagram illustrating a configuration of an embodiment of a reception device to which the present technology is applied.
  • the reception device 20 includes a tuner 212, a Demux 213, a control unit 214, an NVRAM 215, an input unit 216, a communication unit 217, a Demux 218, a video decoder 219, a video output unit 220, an audio decoder 221, and an audio output unit 222. , And a caption decoder 223.
  • the tuner 212 extracts and demodulates a digital broadcast signal corresponding to the user's channel selection operation from the broadcast wave of the digital broadcast using the IP transmission method received via the antenna 211 according to the control from the control unit 214.
  • the resulting BBP stream is supplied to the Demux 213.
  • the Demux 213 separates the BBP stream supplied from the tuner 212 into video, audio, and subtitle streams and signaling data in accordance with control from the control unit 214.
  • the Demux 213 supplies video data to the video decoder 219, audio data to the audio decoder 221, subtitle data to the subtitle decoder 223, and signaling data to the control unit 214.
  • the control unit 214 controls the operation of each unit of the receiving device 20. Further, the control unit 214 controls the operation of each unit in order to obtain a component stream transmitted by broadcasting or communication based on the signaling data supplied from the Demux 213. The detailed configuration of the control unit 214 will be described later with reference to FIG.
  • the NVRAM 215 is a non-volatile memory, and records various data according to the control from the control unit 214.
  • the input unit 216 supplies an operation signal to the control unit 214 in accordance with a user operation.
  • the communication unit 217 accesses the streaming server 40 via the network 90 according to the control from the control unit 214 and requests distribution of the component stream.
  • the communication unit 217 receives a stream of components streamed from the streaming server 40 via the network 90 and supplies the stream to the Demux 218.
  • the Demux 218 separates the component stream supplied from the communication unit 217 into video data, audio data, and subtitle data, the video data to the video decoder 219, and the audio data to the audio decoder.
  • the caption data is supplied to the caption decoder 223.
  • Video data is supplied to the video decoder 219 from the Demux 213 or Demux 218.
  • the video decoder 219 decodes video data in accordance with a decoding scheme such as MPEG in accordance with control from the control unit 214 and supplies the video data to the video output unit 220.
  • the video output unit 220 outputs the video data supplied from the video decoder 219 to a subsequent display (not shown). Thereby, for example, the video of the program is displayed on the display.
  • Audio data is supplied to the audio decoder 221 from the Demux 213 or Demux 218.
  • the audio decoder 221 decodes audio data in accordance with a decoding scheme such as MPEG in accordance with control from the control unit 214 and supplies the audio data to the audio output unit 222.
  • the audio output unit 222 outputs the audio data supplied from the audio decoder 221 to a subsequent speaker (not shown). Thereby, for example, sound corresponding to the video of the program is output from the speaker.
  • Subtitle data is supplied from the Demux 213 or Demux 218 to the subtitle decoder 223.
  • the subtitle decoder 223 decodes the subtitle data in accordance with a decoding scheme such as MPEG in accordance with the control from the control unit 214 and supplies it to the video output unit 220.
  • the video output unit 220 synthesizes the caption data supplied from the caption decoder 223 with the video data supplied from the video decoder 219, and outputs the synthesized data to the subsequent display. Thereby, for example, the subtitle superimposed on the video of the program is displayed on the display.
  • the receiving device 20 in FIG. 16 has a configuration in which a display and a speaker are provided outside, but the receiving device 20 may have a configuration having a display and a speaker.
  • the receiving device 20 is configured as a television receiver and is installed in each home of the user.
  • the receiving device 20 is not limited to a television receiver, and may be configured as, for example, a mobile communication terminal such as a smartphone or a mobile phone, or an information device such as a personal computer or a tablet computer.
  • FIG. 17 is a diagram illustrating a functional configuration example of a portion that controls the initial scan process, the channel selection process, the filtering process, and the communication process in the control unit 214 of FIG.
  • control unit 214 includes a channel selection control unit 251, a packet header monitoring unit 252, a filtering control unit 253, a signaling acquisition unit 254, a signaling analysis unit 255, and a communication control unit 256.
  • the channel selection control unit 251 controls the channel selection process executed by the tuner 212.
  • the filtering control unit 253 controls the filtering process executed by the Demux 213.
  • the channel selection control unit 251 controls the tuner 212 and the filtering control unit 253 controls the Demux 213, whereby the LLS metadata transmitted as the LLS is acquired by the signaling acquisition unit 254, and the signaling The data is supplied to the analysis unit 255.
  • the signaling analysis unit 255 records channel selection information obtained by analyzing the LLS metadata (SCD or the like) from the signaling acquisition unit 254 in the NVRAM 215.
  • the channel selection control unit 251 acquires the channel selection information recorded in the NVRAM 215 according to the operation signal from the input unit 216.
  • the channel selection control unit 251 controls the channel selection process executed by the tuner 212 based on the acquired channel selection information. Further, the channel selection control unit 251 supplies the SC bootstrap information included in the channel selection information to the filtering control unit 253.
  • the signaling acquisition unit 254 acquires the DCT transmitted in the LLS stream and supplies the DCT to the signaling analysis unit 255.
  • the signaling analysis unit 255 analyzes the DCT supplied from the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253.
  • As an analysis result as information for selecting a minimum service, a port number, TSI, and the like for connecting to the main video and main audio streams constituting the service to be selected are obtained.
  • the signaling acquisition unit 254 acquires the DCT transmitted in the SCS stream and supplies the DCT to the signaling analysis unit 255.
  • the signaling analysis unit 255 analyzes the DCT supplied from the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253.
  • As an analysis result as information for selecting a minimum service, a port number, TSI, and the like for connecting to the main video and main audio streams constituting the service to be selected are obtained.
  • the channel selection control unit 251 acquires shortcut information included in the SCD recorded in the NVRAM 215 as channel selection information, and supplies the shortcut information to the filtering control unit 253.
  • This shortcut information includes, as information for selecting a minimum service, a port number, TSI, and the like for connecting to the main video and main audio streams constituting the service to be selected.
  • the filtering control unit 253 uses the Demux 213 based on the analysis result (operation examples 1 and 2) supplied from the signaling analysis unit 255 or the shortcut information (operation example 3) supplied from the channel selection control unit 251. Controls the filtering process that is performed. Accordingly, in the Demux 213, when connected to the main video and main audio streams constituting the channel selection target service and the streams are transmitted in the FLUTE session, the segment data is extracted from the LCT packet. As a result, video data corresponding to the main video is supplied to the video decoder 219, and audio data corresponding to the main audio is supplied to the audio decoder 221.
  • the filtering control unit 253 controls the filtering process executed by the Demux 213 based on the SC bootstrap information supplied from the channel selection control unit 251.
  • the SCS metadata is extracted from the LCT packet.
  • the signaling acquisition unit 254 acquires SCS metadata (USBD, SDP, MPD, etc.) and supplies it to the signaling analysis unit 255.
  • the signaling analysis unit 255 analyzes the SCS metadata (USBD, SDP, MPD, etc.) supplied from the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253 or the communication control unit 256. That is, when the distribution route of the component streams constituting the channel selection service is broadcast, the signaling analysis unit 255 sets the IP address, port number, TSI, and TOI for connecting to the component streams. Specify and supply to the filtering control unit 253. Also, the signaling analysis unit 255 supplies information (for example, URL) of those acquisition destinations to the communication control unit 256 when the distribution path of the stream of the components constituting the channel selection target service is communication.
  • SCS metadata USBD, SDP, MPD, etc.
  • the filtering control unit 253 controls the filtering process executed by the Demux 213 based on the IP address, port number, TSI, and TOI supplied from the signaling analysis unit 255. Thereby, in Demux 213, the filtering process of an LCT packet is performed, and segment data is extracted from the LCT packet obtained thereby. The resulting video data is supplied to the video decoder 219, and the audio data is supplied to the audio decoder 221. The caption data is supplied to the caption decoder 223.
  • the communication control unit 256 controls the communication process executed by the communication unit 217 based on the acquisition destination information (for example, URL) supplied from the signaling analysis unit 255.
  • the communication unit 217 receives the component stream to be streamed from the streaming server 40 via the network 90 and supplies the stream to the Demux 218.
  • the Demux 218 supplies video data obtained from the stream supplied from the communication unit 217 to the video decoder 219, audio data to the audio decoder 221, and caption data to the caption decoder 223.
  • the signaling data from the communication unit 217 is supplied to the signaling acquisition unit 254.
  • the packet header monitoring unit 252 monitors packets transmitted by the BBP stream in the Demux 213 and analyzes the header of the monitoring target packet.
  • the packet header monitoring unit 252 controls the filtering control unit 253 according to the analysis result of the packet header, and the signaling acquisition unit 254 acquires the LLS metadata and the SCS metadata obtained from the packet that satisfies the specific condition. So that In this filtering process, for example, filtering is performed using at least one of compression information (CO), type information (Type), extended filter information (Filter_Extension), and version information (Data_Version) as a specific condition. .
  • CO compression information
  • Type type information
  • Extension extended filter information
  • Data_Version version information
  • step S111 the signaling generation unit 111 generates signaling data using the original data of the signaling data provided from the data providing server 30, and supplies the signaling data to the signaling processing unit 112.
  • step S112 the signaling processing unit 112 processes the signaling data supplied from the signaling generation unit 111 and supplies the processed data to the Mux 119.
  • LLS metadata such as SCD, RRD, and EAD
  • SCS metadata such as USBD, SDP, and MPD
  • the signaling generation unit 111 when the operation example 1 and the operation example 2 are adopted, the signaling generation unit 111 generates DCT or DCD as the advance acquisition metadata. Moreover, the signaling production
  • the data providing server 30 may generate the signaling data.
  • the signaling generation unit 111 supplies the signaling data supplied from the data providing server 30 to the signaling processing unit 112 as it is.
  • step S113 the video data acquisition unit 113, the audio data acquisition unit 115, and the caption data acquisition unit 117 acquire video data, audio data, and caption data as components from the data providing server 30, and a video encoder 114, the audio encoder 116, and the caption encoder 118.
  • step S ⁇ b> 114 the video encoder 114, the audio encoder 116, and the caption encoder 118 are supplied from the video data acquisition unit 113, the audio data acquisition unit 115, and the caption data acquisition unit 117.
  • Data and caption data are encoded in accordance with an encoding method such as MPEG and supplied to Mux 119.
  • step S115 the Mux 119 multiplexes the signaling data from the signaling processing unit 112, the video stream from the video encoder 114, the audio stream from the audio encoder 116, and the subtitle stream from the subtitle encoder 118 to BBP.
  • a stream is generated and supplied to the transmission unit 120.
  • step S116 the transmission unit 120 transmits the BBP stream supplied from the Mux 119 as a digital broadcast signal via the antenna 121.
  • the transmission process of FIG. 18 ends.
  • the metadata for pre-acquisition is transmitted by LLS together with the LLS metadata (SCD, RRD, EAD, etc.).
  • the metadata for pre-acquisition is transmitted through the FLUTE session in the SCS together with the SCS metadata (USBD, SDP, MPD, etc.).
  • the SCD including the shortcut information is transmitted by LLS as LLS metadata.
  • LLS headers of LLS packets that store LLS metadata (SCD, RRD, EAD, etc.) transmitted as LLS
  • SCS metadata USBD, SDP, MPD, etc.
  • SCS Filtering information such as compression information (CO), type information (Type), extension filter information (Filter_Extension), and version information (Data_Version)
  • CO compression information
  • Type type information
  • Extension filter information Frter_Extension
  • Data_Version version information
  • step S211 the operation signal from the input unit 216 is monitored by the control unit 214 and waits until an initial scan operation is performed by the user. If the user performs an initial scan operation in step S212, the process proceeds to step S213.
  • step S213 the tuner 212 performs frequency scan processing according to the control from the channel selection control unit 251.
  • step S214 whether or not the frequency scan is successful is determined by the frequency scan process in step S213.
  • step S214 If it is determined in step S214 that the frequency scan has failed, the process returns to step S213, and the frequency scan process is performed again. On the other hand, if it is determined in step S214 that the frequency scan process has been successful, the process proceeds to step S215.
  • step S215 the Demux 213 acquires and analyzes the BBP stream supplied from the tuner 212 according to the control from the filtering control unit 253.
  • step S216 it is determined whether an IP packet is extracted from the BBP stream according to the analysis result in step S215.
  • step S216 If it is determined in step S216 that an IP packet has been extracted, the process proceeds to step S217. In step S217, the Demux 213 discards the extracted IP packet. On the other hand, if it is determined in step S216 that a packet other than the IP packet has been extracted, the process proceeds to step S218.
  • step S218 it is determined whether an LLS packet is extracted from the BBP stream according to the analysis result in step S215.
  • step S218 If it is determined in step S218 that a packet other than the LLS packet has been extracted, the process proceeds to step S217. In step S217, the Demux 213 discards packets other than the extracted LLS packet. On the other hand, if it is determined in step S218 that the LLS packet has been extracted, the process proceeds to step S219.
  • step S219 the Demux 213 and the control unit 214 execute LLS acquisition / recording processing.
  • the filtering process is performed based on the filtering information of the LLS header added to the LLS packet, and the LLS metadata (SCD or the like) acquired by the filtering process is used as the channel selection information in the NVRAM 215. To be recorded. Details of the LLS acquisition / recording process will be described later with reference to the flowchart of FIG.
  • step S217 or step S219 the process proceeds to step S220.
  • step S220 it is determined whether scanning of all frequency bands is completed.
  • step S220 If it is determined in step S220 that scanning of all frequency bands has not been completed, the process returns to step S213, and the processes after step S213 are repeated. Thereby, the scanning process of each frequency band is performed, and channel selection information is recorded. If it is determined in step S220 that scanning of all frequency bands has been completed, the initial scanning process in FIG. 19 is terminated.
  • step S231 the packet header monitoring unit 252 constantly monitors the LLS packet transmitted by the BBP stream in the Demux 213, and analyzes the LLS header of the monitoring target LLS packet.
  • LLS header type information a value corresponding to the type of LLS metadata is specified. For example, “1” is specified for SCD, "2" for RRD, and “3” for EAD. For all LLS metadata (SCD, RRD, EAD), “0” is specified for Type.
  • step S232 If it is determined in step S232 that the types of signaling data (LLS metadata) are different, the process proceeds to step S233. In step S233, the Demux 213 discards the extracted LLS packet. On the other hand, if it is determined in step S232 that the types of signaling data (LLS metadata) match, the process proceeds to step S234.
  • step S234 the packet header monitoring unit 252 determines whether the target signaling data (LLS metadata) is newly acquired according to the analysis result in step S231. That is, since the version information (Data_Version) is arranged in the LLS header of the LLS packet, the packet header monitoring unit 252 extracts the LLS packet added with the LLS header in which the version information that is the latest version is arranged. Determine whether it was done.
  • LLS metadata target signaling data
  • step S234 If it is determined in step S234 that the target signaling data (LLS metadata) has been acquired, the process proceeds to step S233. In step S233, the Demux 213 discards the extracted LLS packet. On the other hand, if it is determined in step S234 that the target signaling data (LLS metadata) is newly acquired, the process proceeds to step S235.
  • step S235 the packet header monitoring unit 252 performs extension filter information (Filter_Extension) processing according to the analysis result in step S231.
  • extension filter information Frter_Extension
  • this extended filter information processing for example, an extended filter that satisfies a predetermined specific condition such as a target region or an urgency level. It is determined whether an LLS packet to which an LLS header in which information is arranged is added is extracted.
  • the filtering control unit 253 controls the Demux 213 in accordance with the control from the packet header monitoring unit 252, and performs filtering processing of the monitoring target LLS packet, and satisfies a specific condition among the monitoring target LLS packets.
  • the LLS metadata obtained from the LLS packet is acquired by the signaling acquisition unit 254.
  • step S236 the signaling analysis unit 255 records the signaling data (LLS metadata) acquired by the signaling acquisition unit 254 in the NVRAM 215. Thereby, the channel selection information obtained from the LLS metadata (SCD, etc.) is recorded in the NVRAM 215.
  • the process of step S233 or step S236 ends, the process returns to the process of step S219 in FIG. 19, and the subsequent processes are executed.
  • step S251 the channel selection control unit 251 monitors the operation signal from the input unit 216, and waits until the channel selection operation is performed by the user. If the channel selection operation is performed by the user in step S252, the process proceeds to step S253. In step S253, the channel selection control unit 251 acquires a service ID corresponding to the user's channel selection operation.
  • step S254 it is determined whether the channel selection information has been acquired and recorded in the NVRAM 215. If it is determined in step S254 that channel selection information has not been acquired, the process proceeds to step S255.
  • step S255 the LLS metadata transmitted in the LLS stream is acquired by the signaling acquisition unit 254, and the tuning information is acquired by analyzing the LLS metadata by the signaling analysis unit 255. The channel selection information acquired in this way is recorded in the NVRAM 215.
  • step S254 If it is determined in step S254 that the channel selection information has been acquired, the process of step S255 is skipped, and the process proceeds to step S256.
  • the channel selection information is recorded in advance in the NVRAM 215 by the initial scan processing of FIG.
  • step S256 the channel selection control unit 251 acquires the channel selection information recorded in the NVRAM 215. Then, the channel selection control unit 251 acquires physical parameters and SC bootstrap information from the channel selection information according to the triplet including the service ID acquired in step S253. Further, the channel selection control unit 251 controls the tuner 212 according to the physical parameters. As a result, the Demux 213 is connected to the LLS stream transmitted by the BBP stream from the tuner 212 (S257).
  • step S258 it is determined whether DCT is acquired from the LLS stream. If it is determined in step S258 that no DCT has been acquired from the LLS stream, the determination process in step S258 is repeated. That is, in step S258, the signaling acquisition unit 254 waits for DCT acquisition from the LLS stream, and the process proceeds to step S259.
  • step S259 the signaling analysis unit 255 analyzes the DCT acquired by the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253.
  • DCT as information for selecting a minimum service, information (MIME type, port) for connecting to the main video and main audio component streams constituting the service to be selected Number and TSI).
  • MIME type, port information for connecting to the main video and main audio component streams constituting the service to be selected Number and TSI.
  • step S260 the filtering control unit 253 controls the Demux 213 according to the analysis result from the signaling analysis unit 255, and connects to the main video and main audio streams constituting the channel selection target service.
  • segment data is extracted from the LCT packet, and the main video and main audio rendering processing is performed (S261).
  • the main video and main audio of the service to be selected are reproduced (for example, video IM1 on the receiver screen in FIG. 6).
  • the receiving device 20 performs SCS metadata acquisition processing in parallel with the main video and main audio rendering processing of the channel selection target service. That is, the channel selection control unit 251 supplies the SC bootstrap information acquired in step S256 to the filtering control unit 253.
  • step S262 the filtering control unit 253 controls the Demux 213 according to the SC bootstrap information (IP address, port number, and TSI) from the channel selection control unit 251, and connects to the SCS stream of the channel selection target service.
  • the signaling acquisition unit 254 acquires the SCS metadata from the LCT packet.
  • step S263 it is determined whether all the SCS metadata has been acquired. If it is determined in step S263 that all SCS metadata has not been acquired, the process proceeds to step S264.
  • step S264 the signaling acquisition unit 254 acquires SCS metadata from the LCT packet. Then, until it is determined in step S263 that all the SCS metadata has been acquired, the processes in steps S263 and 264 are repeated, and all the SCS metadata such as USBD, SDP, and MPD are acquired.
  • step S265 the signaling analysis unit 255 analyzes all the SCS metadata acquired by the signaling acquisition unit 254.
  • step S266 the signaling analysis unit 255 determines whether there is a component to be output, other than the main video and main audio, according to the analysis result in step S265. If it is determined in step S266 that there is a component to be output, the process proceeds to step S267. In this case, the signaling analysis unit 255 supplies the analysis result of step S265 to the filtering control unit 253.
  • step S267 the filtering control unit 253 controls the Demux 213 according to the analysis result from the signaling analysis unit 255 and connects it to the component stream to be output. If the component stream to be output is transmitted in the FLUTE session, segment data is extracted from the LCT packet, and rendering processing and the like are performed (S267).
  • the receiving device 20 when subtitles exist as components to be output by components other than the main video and main audio, the receiving device 20 is connected to the subtitle stream according to the SCS metadata (USBD, SDP, MPD, etc.), and the LCT packet Segment data is acquired from the subtitles, and caption rendering processing and the like are performed.
  • the receiving device 20 reproduces subtitles together with the main video and main audio of the service to be selected (video IM2 on the receiver screen in FIG. 6). That is, in the receiving device 20, the processing of steps S257 to S261 and the processing of steps S262 to S267 are executed in parallel, so that the subtitle is superimposed on the main video that has been displayed preferentially in advance. Will be displayed.
  • step S266 If it is determined in step S266 that there is no component to be output out of components other than the main video and main audio, the processing in step S267 is skipped. In this case, only the main video and main audio of the service to be selected are reproduced.
  • step S261 When the process of step S261 or step S267 is completed, the process proceeds to step S268.
  • step S268 it is determined whether the channel selection process has been completed. If it is determined that the channel selection process has been completed, the channel selection process in the case of transmitting the DCT of FIG. 21 using LLS is terminated.
  • the DCT transmitted in the LLS stream is acquired prior to the SCS metadata (USBD, SDP, MPD, etc.), and is used to connect to the main video and main audio streams included in the DCT.
  • the main video and main audio streams of the service to be selected are connected, and the main video and main audio are rendered.
  • the DCT acquired prior to the SCS metadata can be acquired quickly, as a result, high-speed channel selection processing can be performed.
  • the channel selection information recorded in the NVRAM 253 is acquired according to the channel selection operation by the user, as in steps S251 to S256 of FIG.
  • This channel selection information includes physical parameters and SC bootstrap information.
  • the channel selection control unit 251 supplies the SC bootstrap information acquired in step S286 to the filtering control unit 253.
  • step S287 the filtering control unit 253 controls the Demux 213 in accordance with the SC bootstrap information (IP address, port number, and TSI) from the channel selection control unit 251, and connects to the SCS stream of the channel selection target service.
  • SC bootstrap information IP address, port number, and TSI
  • SCS metadata USBD, SDP, MPD, etc.
  • DCT advance acquisition metadata
  • step S288 it is determined whether the DCT stored in the LCT packet or SCS metadata such as USBD, SDP, and MPD. If it is determined in step S288 that DCT is stored in the LCT packet, the process proceeds to step S289.
  • step S289 the signaling analysis unit 255 analyzes the DCT acquired by the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253.
  • DCT as information for selecting a minimum service, information (MIME type, port) for connecting to the main video and main audio component streams constituting the service to be selected Number and TSI).
  • MIME type, port information for connecting to the main video and main audio component streams constituting the service to be selected Number and TSI.
  • step S290 the filtering control unit 253 controls the Demux 213 according to the analysis result from the signaling analysis unit 255, and connects to the main video and main audio streams constituting the channel selection target service.
  • the segment data is extracted from the LCT packet, and the main video and main audio rendering processing is performed (S291).
  • the main video and main audio of the service to be selected are reproduced (for example, video IM1 on the receiver screen in FIG. 6).
  • step S288 If it is determined in step S288 that SCS metadata other than DCT is stored in the LCT packet, the process proceeds to step S292. In step S292, it is determined whether all the SCS metadata has been acquired. If it is determined in step S292 that all the SCS metadata has not been acquired, the process returns to step S288. Then, until it is determined in step S292 that all the SCS metadata has been acquired, the processes in steps S288 and S292 are repeated, and all the SCS metadata such as USBD, SDP, and MPD are acquired.
  • step S293 the signaling analysis unit 255 analyzes all the SCS metadata acquired by the signaling acquisition unit 254.
  • step S294 the signaling analysis unit 255 determines whether there is a component to be output, other than the main video and main audio, according to the analysis result in step S293. If it is determined in step S294 that there is a component to be output, the process proceeds to step S295. In this case, the signaling analysis unit 255 supplies the analysis result of step S293 to the filtering control unit 253.
  • step S295 the filtering control unit 253 controls the Demux 213 according to the analysis result from the signaling analysis unit 255 and connects it to the component stream to be output.
  • the filtering control unit 253 controls the Demux 213 according to the analysis result from the signaling analysis unit 255 and connects it to the component stream to be output.
  • the receiving device 20 when subtitles exist as components to be output by components other than the main video and main audio, the receiving device 20 is connected to the subtitle stream according to the SCS metadata (USBD, SDP, MPD, etc.), and the LCT packet Segment data is acquired from the subtitles, and caption rendering processing and the like are performed.
  • the receiving device 20 reproduces subtitles together with the main video and main audio of the service to be selected (video IM2 on the receiver screen in FIG. 6). That is, in the receiving device 20, the processing of steps S289 to S291 and the processing of steps S292 to S295 are performed in parallel, so that the subtitle is superimposed on the main video that has been displayed preferentially in advance. Will be displayed.
  • step S294 If it is determined in step S294 that there is no component to be output out of components other than the main video and main audio, the processing in step S295 is skipped. In this case, only the main video and main audio of the service to be selected are reproduced.
  • step S291 the process proceeds to step S296.
  • step S296 it is determined whether the channel selection process has been completed. If it is determined that the channel selection process has been completed, the channel selection process in the case of transmitting the DCT of FIG. 22 using the SCS is completed.
  • the DCT transmitted in the SCS stream is acquired prior to the SCS metadata (USBD, SDP, MPD, etc.), and is used to connect to the main video and main audio streams included in the DCT.
  • the main video and the main audio are connected to the stream, and the main video and the main audio are rendered.
  • the DCT acquired prior to the SCS metadata can be acquired quickly, as a result, high-speed channel selection processing can be performed.
  • FIG. 23 is a diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 905 is further connected to the bus 904.
  • An input unit 906, an output unit 907, a recording unit 908, a communication unit 909, and a drive 910 are connected to the input / output interface 905.
  • the input unit 906 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 907 includes a display, a speaker, and the like.
  • the recording unit 908 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 909 includes a network interface or the like.
  • the drive 910 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads the program stored in the ROM 902 or the recording unit 908 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program. A series of processing is performed.
  • the program executed by the computer 900 can be provided by being recorded on a removable medium 911 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 908 via the input / output interface 905 by installing the removable medium 911 in the drive 910. Further, the program can be received by the communication unit 909 via a wired or wireless transmission medium and installed in the recording unit 908. In addition, the program can be installed in the ROM 902 or the recording unit 908 in advance.
  • the processing performed by the computer according to the program does not necessarily have to be performed in chronological order in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or individually (for example, parallel processing or object processing).
  • the program may be processed by a single computer (processor) or may be distributedly processed by a plurality of computers.
  • the present technology can take the following configurations.
  • a channel selection control unit that performs channel selection control for selecting digital broadcasting using an IP (Internet Protocol) transmission method;
  • the first metadata in text format including control information for each service identified by an IP address, transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method
  • a metadata acquisition unit for acquiring second metadata in text format or binary format including control information for selecting a minimum service
  • a selection control unit configured to perform selection control of a stream of components constituting a minimum service based on the acquired second metadata.
  • the data size of the second metadata is smaller than the data size of the first metadata, The receiving apparatus according to (1), wherein a transmission cycle of the second metadata is shorter than a transmission cycle of the first metadata.
  • the receiving device acquires the first metadata in parallel with the acquisition of the second metadata.
  • the reception apparatus according to any one of (1) to (3), wherein the minimum service includes a main video component and a main audio component.
  • the second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service.
  • the receiving device according to any one of (4).
  • the receiving apparatus according to any one of (1) to (4), wherein the second metadata is transmitted together with the first metadata in the first layer.
  • the second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method.
  • the receiving device according to any one of (1) to (4).
  • the receiving device is Performs channel selection control to select digital broadcasting using the IP transmission method,
  • the first metadata in text format including control information for each service identified by an IP address, transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method
  • obtaining second metadata in text format or binary format including control information for selecting a minimum service
  • a receiving method including a step of performing selection control of a stream of a component constituting a minimum service based on the acquired second metadata.
  • An acquisition unit for acquiring components constituting a service identified by an IP address in digital broadcasting using an IP transmission method To select first metadata in text format including control information for each service, which is transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method, and a minimum service
  • a generating unit that generates second metadata in text format or binary format including the control information The IP transmission of the first metadata and the second metadata together with the stream of components so that the second metadata is acquired prior to the first metadata in the receiving device.
  • a transmission device comprising: a transmission unit configured to transmit by digital broadcasting using a method.
  • the data size of the second metadata is smaller than the data size of the first metadata, The transmission apparatus according to (9), wherein a transmission cycle of the second metadata is shorter than a transmission cycle of the first metadata.
  • the second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service.
  • (13) The transmission device according to any one of (9) to (11), wherein the second metadata is transmitted together with the first metadata in the first layer.
  • the second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method.
  • the transmission device according to any one of (9) to (11).
  • the transmitting device is In digital broadcasting using the IP transmission method, acquire the components that make up the service identified by the IP address, To select first metadata in text format including control information for each service, which is transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method, and a minimum service Generating second metadata in text format or binary format including the control information of The IP transmission of the first metadata and the second metadata together with the stream of components so that the second metadata is acquired prior to the first metadata in the receiving device.
  • a transmission method including a step of transmitting by digital broadcasting using a method.
  • 1 broadcasting communication system 10 transmitting device, 20 receiving device, 30 data providing server, 40 streaming server, 111 signaling generation unit, 112 signaling processing unit, 113 video data acquisition unit, 115 audio data acquisition unit, 117 subtitle data acquisition unit, 120 transmission unit, 212 tuner, 214 control unit, 215 NVRAM, 216 input unit, 217 communication unit, 220 video output unit, 222 audio output unit, 251 channel selection control unit, 252 packet header monitoring unit, 253 filtering control unit, 254 Signaling acquisition unit, 255 signaling analysis unit, 256 communication control unit, 90 network, 900 computer, 901 CPU

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The present technique relates to a reception apparatus, a reception method, a transmission apparatus and a transmission method whereby a high-speed station selection process can be performed. Provided is a reception apparatus comprising: a station selection control unit that performs a station selection control for selecting the station of a digital broadcast using an IP transfer system; a metadata acquisition unit that acquires prior-acquisition metadata of a text format or binary format, which includes control information for selecting a minimum service, prior to SCS metadata of a text format including control information for each of a plurality of services identified by respective IP addresses and transferred in a layer upper than an IP layer in the hierarchy of the protocol of the IP transfer system in the digital broadcast; and a selection control unit that performs, on the basis of acquired second metadata, a selection control of a stream of components constituting the minimum service. The present technique can be applied to, for example, television receivers.

Description

受信装置、受信方法、送信装置、及び、送信方法Receiving device, receiving method, transmitting device, and transmitting method
 本技術は、受信装置、受信方法、送信装置、及び、送信方法に関し、特に、高速な選局処理を行うことができるようにした受信装置、受信方法、送信装置、及び、送信方法に関する。 The present technology relates to a reception device, a reception method, a transmission device, and a transmission method, and more particularly, to a reception device, a reception method, a transmission device, and a transmission method that can perform high-speed channel selection processing.
 近年、各国では、デジタル放送のサービスが開始されている(例えば、特許文献1参照)。デジタル放送において、受信機での選局処理等で用いられる各種のパラメータを規定したシグナリングデータは、バイナリ形式で記述されるほか、XML(Extensible Markup Language)文書などによりテキスト形式で記述される場合が想定されている。 In recent years, digital broadcasting services have been started in various countries (for example, see Patent Document 1). In digital broadcasting, signaling data that defines various parameters used in channel selection processing at the receiver is described in binary format, and may be described in text format using XML (Extensible Markup Language) documents. Assumed.
特開2008-263616号公報JP 2008-263616 A
 ところで、シグナリングデータをテキスト形式で記述する場合、拡張性や可読性が高いなどのメリットがある一方、バイナリ形式のシグナリングデータと比べて、データサイズが大きくなって、伝送帯域が大きくなる。 By the way, when signaling data is described in a text format, there are merits such as high extensibility and readability. On the other hand, compared with binary format signaling data, the data size is increased and the transmission band is increased.
 そのため、デジタル放送において、テキスト形式のシグナリングデータを採用した運用を行う場合、バイナリ形式のシグナリングデータを採用した運用を行う場合と比べて、受信機でパラメータを取得できるまでの時間が長くなり、選局処理が遅くなる可能性がある。 For this reason, in digital broadcasting, the operation that employs text format signaling data is longer than the operation that employs binary format signaling data. The station processing may be slow.
 本技術はこのような状況に鑑みてなされたものであり、デジタル放送において、テキスト形式のシグナリングデータを採用した運用を行う場合に、高速な選局処理を行うことができるようにするものである。 The present technology has been made in view of such a situation, and enables high-speed channel selection processing to be performed in an operation employing text-format signaling data in digital broadcasting. .
 本技術の第1の側面の受信装置は、IP(Internet Protocol)伝送方式を用いたデジタル放送を選局する選局制御を行う選局制御部と、前記デジタル放送において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、IPアドレスで識別されるサービスごとの制御情報を含むテキスト形式の第1のメタデータに先行して、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを取得するメタデータ取得部と、取得された前記第2のメタデータに基づいて、最小限のサービスを構成するコンポーネントのストリームの選択制御を行う選択制御部とを備える受信装置である。 A receiving apparatus according to a first aspect of the present technology includes a channel selection control unit that performs channel selection control for selecting a digital broadcast using an IP (Internet Protocol) transmission method, and a protocol for the IP transmission method in the digital broadcast. The minimum service is selected in advance of the first metadata in text format including control information for each service identified by the IP address transmitted in the first layer higher than the IP layer in this layer. A metadata acquisition unit that acquires second metadata in text format or binary format that includes control information for performing the processing, and a stream of components that constitute a minimum service based on the acquired second metadata And a selection control unit that performs the selection control.
 前記第2のメタデータのデータサイズは、前記第1のメタデータのデータサイズよりも小さく、前記第2のメタデータの伝送周期は、前記第1のメタデータの伝送周期よりも短いようにすることができる。 The data size of the second metadata is smaller than the data size of the first metadata, and the transmission cycle of the second metadata is shorter than the transmission cycle of the first metadata. be able to.
 前記メタデータ取得部は、前記第2のメタデータの取得と並行して、前記第1のメタデータを取得するようにすることができる。 The metadata acquisition unit may acquire the first metadata in parallel with the acquisition of the second metadata.
 前記最小限のサービスは、主映像と主音声のコンポーネントから構成されるようにすることができる。 The minimum service can be composed of main video and main audio components.
 前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータとともに伝送されるようにすることができる。 The second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service. Can be.
 前記第2のメタデータは、前記第1の階層で、前記第1のメタデータとともに伝送されるようにすることができる。 The second metadata may be transmitted together with the first metadata in the first layer.
 前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で伝送される、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータに含められるようにすることができる。 The second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method. Can be included.
 受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。 The receiving device may be an independent device or an internal block constituting one device.
 本技術の第1の側面の受信方法は、上述した本技術の第1の側面の受信装置に対応する受信方法である。 The reception method according to the first aspect of the present technology is a reception method corresponding to the reception device according to the first aspect of the present technology described above.
 本技術の第1の側面の受信装置、及び、受信方法においては、IP伝送方式を用いたデジタル放送を選局する選局制御が行われ、前記デジタル放送において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、IPアドレスで識別されるサービスごとの制御情報を含むテキスト形式の第1のメタデータに先行して、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータが取得され、取得された前記第2のメタデータに基づいて、最小限のサービスを構成するコンポーネントのストリームの選択制御が行われる。 In the receiving device and the receiving method according to the first aspect of the present technology, channel selection control for selecting a digital broadcast using an IP transmission method is performed, and the protocol layer of the IP transmission method is used in the digital broadcast. In order to select the minimum service in advance of the first metadata in text format including the control information for each service identified by the IP address transmitted in the first layer higher than the IP layer in FIG. The second metadata in the text format or binary format including the control information is acquired, and the selection control of the stream of the components constituting the minimum service is performed based on the acquired second metadata.
 本技術の第2の側面の送信装置は、IP伝送方式を用いたデジタル放送で、IPアドレスで識別されるサービスを構成するコンポーネントを取得する取得部と、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、前記サービスごとの制御情報を含むテキスト形式の第1のメタデータと、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを生成する生成部と、受信装置において前記第1のメタデータに先行して前記第2のメタデータが取得されるように、前記第1のメタデータと前記第2のメタデータを、前記コンポーネントのストリームとともに、前記IP伝送方式を用いたデジタル放送で送信する送信部とを備える送信装置である。 A transmission device according to a second aspect of the present technology includes an acquisition unit that acquires a component that constitutes a service identified by an IP address in digital broadcasting using an IP transmission method, and an IP in a protocol hierarchy of the IP transmission method. Text format or binary format including first metadata in text format including control information for each service and control information for selecting a minimum service, transmitted in a first layer higher than the layer A generating unit that generates the second metadata, and the receiving device so that the second metadata is acquired prior to the first metadata in the receiving device. The transmission apparatus includes a transmission unit configured to transmit metadata by digital broadcasting using the IP transmission method together with the component stream.
 前記第2のメタデータのデータサイズは、前記第1のメタデータのデータサイズよりも小さく、前記第2のメタデータの伝送周期は、前記第1のメタデータの伝送周期よりも短いようにすることができる。 The data size of the second metadata is smaller than the data size of the first metadata, and the transmission cycle of the second metadata is shorter than the transmission cycle of the first metadata. be able to.
 前記最小限のサービスは、主映像と主音声のコンポーネントから構成されるようにすることができる。 The minimum service can be composed of main video and main audio components.
 前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータとともに伝送されるようにすることができる。 The second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service. Can be.
 前記第2のメタデータは、前記第1の階層で、前記第1のメタデータとともに伝送されるようにすることができる。 The second metadata may be transmitted together with the first metadata in the first layer.
 前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で伝送される、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータに含められるようにすることができる。 The second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method. Can be included.
 送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。 The transmission device may be an independent device or an internal block constituting one device.
 本技術の第2の側面の送信方法は、上述した本技術の第2の側面の送信装置に対応する送信方法である。 The transmission method according to the second aspect of the present technology is a transmission method corresponding to the transmission device according to the second aspect of the present technology described above.
 本技術の第2の側面の送信装置、及び、送信方法においては、IP伝送方式を用いたデジタル放送で、IPアドレスで識別されるサービスを構成するコンポーネントが取得され、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、前記サービスごとの制御情報を含むテキスト形式の第1のメタデータと、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータが生成され、受信装置において前記第1のメタデータに先行して前記第2のメタデータが取得されるように、前記第1のメタデータと前記第2のメタデータが、前記コンポーネントのストリームとともに、前記IP伝送方式を用いたデジタル放送で送信される。 In the transmission device and the transmission method according to the second aspect of the present technology, a component constituting a service identified by an IP address is acquired in digital broadcasting using the IP transmission method, and the protocol of the IP transmission method is obtained. Text format first metadata including control information for each service and control information for selecting a minimum service, transmitted in a first layer higher than the IP layer in the layer Alternatively, the second metadata in the binary format is generated, and the first metadata and the second metadata are acquired so that the second metadata is acquired prior to the first metadata in the receiving device. Metadata is transmitted together with the component stream by digital broadcasting using the IP transmission method.
 本技術の第1の側面、及び、第2の側面によれば、高速な選局処理を行うことができる。 According to the first aspect and the second aspect of the present technology, high-speed channel selection processing can be performed.
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 It should be noted that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
IP伝送方式のデジタル放送のシステムパイプモデルを示す図である。It is a figure which shows the system pipe model of digital broadcasting of an IP transmission system. IP伝送方式のデジタル放送の選局処理を説明する図である。It is a figure explaining the channel selection process of the digital broadcasting of an IP transmission system. 運用例1の選局処理を説明する図である。FIG. 10 is a diagram for explaining a channel selection process in operation example 1; 運用例1のシグナリングデータの構成を示す図である。It is a figure which shows the structure of the signaling data of the operation example 1. FIG. チャンク化されたSCSメタデータとLLSメタデータの伝送周期を説明する図である。It is a figure explaining the transmission cycle of chunked SCS metadata and LLS metadata. 選局操作時の画面の表示例を示す図である。It is a figure which shows the example of a display of the screen at the time of channel selection operation. 運用例2の選局処理を説明する図である。FIG. 10 is a diagram for explaining a channel selection process in an operation example 2; 運用例2のシグナリングデータの構成を示す図である。It is a figure which shows the structure of the signaling data of the operation example 2. 運用例3の選局処理を説明する図である。FIG. 10 is a diagram for explaining a channel selection process in an operation example 3; 運用例3のシグナリングデータの構成を示す図である。It is a figure which shows the structure of the signaling data of the operation example 3. バイナリ形式のDCTのシンタックスの例を示す図である。It is a figure which shows the example of the syntax of DCT of a binary format. バイナリ形式のDCTのシンタックスの例を示す図である。It is a figure which shows the example of the syntax of DCT of a binary format. XML形式のDCTのシンタックスの例を示す図である。It is a figure which shows the example of the syntax of XML format DCT. 本技術を適用した放送通信システムの一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the broadcast communication system to which this technique is applied. 本技術を適用した送信装置の一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the transmitter to which this technique is applied. 本技術を適用した受信装置の一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the receiver which applied this technique. 本技術を適用した受信装置の制御部の機能的な構成例を示す図である。It is a figure which shows the functional structural example of the control part of the receiver which applied this technique. 送信処理を説明するフローチャートである。It is a flowchart explaining a transmission process. 初期スキャン処理を説明するフローチャートである。It is a flowchart explaining an initial scan process. LLS取得・記録処理を説明するフローチャートである。It is a flowchart explaining an LLS acquisition / recording process. DCTをLLSで伝送する場合の選局処理を説明するフローチャートである。It is a flowchart explaining the channel selection process in the case of transmitting DCT by LLS. DCTをSCSで伝送する場合の選局処理を説明するフローチャートである。It is a flowchart explaining the channel selection process in the case of transmitting DCT by SCS. コンピュータの構成例を示す図である。It is a figure which shows the structural example of a computer.
 以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。 Hereinafter, embodiments of the present technology will be described with reference to the drawings. The description will be made in the following order.
1.IP伝送方式によるデジタル放送の概要
2.運用例
(1)運用例1:DCTをLLSで伝送
(2)運用例2:DCTをSCSで伝送
(3)運用例3:ショートカット情報をLLSで伝送
3.シンタックスの例
4.システムの構成
5.各装置で実行される処理の流れ
6.コンピュータの構成
1. 1. Outline of digital broadcasting by IP transmission method Operation example (1) Operation example 1: DCT is transmitted by LLS (2) Operation example 2: DCT is transmitted by SCS (3) Operation example 3: Shortcut information is transmitted by LLS Example syntax 4 4. System configuration 5. Flow of processing executed in each device Computer configuration
<1.IP伝送方式によるデジタル放送の概要> <1. Overview of digital broadcasting using IP transmission system>
(システムパイプモデル)
 図1は、IP伝送方式のデジタル放送のシステムパイプモデルを示す図である。
(System pipe model)
FIG. 1 is a diagram showing a system pipe model of digital transmission using the IP transmission method.
 図1において、所定の周波数帯域を有する放送波(RF Channel)には、複数のBBP(Base Band Packet)ストリームが伝送されている。また、各BBPストリームには、NTP(Network Time Protocol)、複数のサービスチャンネル(Service Channel)、ESG(Electronic Service Guide)サービス、及び、LLS(Low Layer Signaling)が含まれる。なお、NTP,サービスチャンネル、及び、ESGサービスは、UDP/IP(User Datagram Protocol/Internet Protocol)のプロトコルに従って伝送されるが、LLSは、BBPストリーム上で伝送される。 1, a plurality of BBP (Base Band Packet) streams are transmitted in a broadcast wave (RF Channel) having a predetermined frequency band. Each BBP stream includes NTP (Network Time Protocol), multiple service channels (Service Channel), ESG (Electronic Service Guide) service, and LLS (Low Layer Signaling). The NTP, service channel, and ESG service are transmitted according to the UDP / IP (User Datagram Protocol / Internet Protocol) protocol, while the LLS is transmitted on the BBP stream.
 NTPは、時刻情報である。ESGサービスは、電子サービスガイドである。LLSは、低レイヤのシグナリングデータである。例えば、LLSとしては、SCD(Service Configuration Description),EAD(Emergency Alerting Description),RRD(Region Rating Description)等のLLSメタデータが伝送される。 NTP is time information. ESG service is an electronic service guide. LLS is low layer signaling data. For example, as LLS, LLS metadata such as SCD (Service Configuration Description), EAD (Emergency Alert Description), RRD (Region Rating Description), etc. is transmitted.
 SCDは、MPEG2-TS(Moving Picture Experts Group phase 2 - Transport Stream)方式に対応したID体系によって、放送ネットワーク内のBBPストリーム構成とサービス構成を示している。また、SCDには、サービス単位の属性・設定情報や、ESGサービスやSCSにアクセスするためのbootstrap情報などが含まれる。 SCD shows the BBP stream configuration and service configuration in the broadcast network by an ID system corresponding to MPEG2-TS (Moving Picture Experts Group phase 2 Transport Channel). The SCD includes attribute / setting information for each service, bootstrap information for accessing the ESG service and the SCS, and the like.
 EADは、緊急告知に関する情報を含んでいる。RRDは、レーティング情報を含んでいる。なお、SCD,EAD,RRD等のLLSメタデータは、例えば、XML等のマークアップ言語により記述される。 EAD contains information about emergency notifications. The RRD includes rating information. Note that LLS metadata such as SCD, EAD, and RRD is described in a markup language such as XML.
 サービスチャンネル(以下、「サービス」という。)は、SCS(Service Channel Signaling)と、ビデオやオーディオ、字幕等の番組を構成するコンポーネント(Component)から構成される。なお、各サービスを構成する要素には、共通のIPアドレスが付与されており、このIPアドレスを用いて、サービスごとに、コンポーネントやSCSなどをパッケージ化することができる。 A service channel (hereinafter referred to as “service”) is composed of SCS (Service Channel Signaling) and components that make up a program such as video, audio, and subtitles. In addition, a common IP address is given to the elements constituting each service, and components, SCSs, and the like can be packaged for each service using this IP address.
 SCSは、サービス単位のシグナリングデータである。例えば、SCSとしては、USBD(User Service Bundle Description),MPD(Media Presentation Description),SDP(Session Description Protocol),FDD(File Delivery Description),SPD(Service Parameter Description),IS(Initialization Segment)等のSCSメタデータが伝送される。 SCS is service unit signaling data. For example, SCS includes SCS such as USBD (User Service Bundle Description), MPD (Media Presentation Description), SDP (Session Description Protocol), FDD (File Delivery Description), SPD (Service Parameter Description), IS (Initialization Segment), etc. Metadata is transmitted.
 USBDは、MPD,FDD,SDP等のSCSメタデータを参照するための参照情報を含んでいる。なお、USBDは、USD(User Service Description)と称される場合がある。MPDは、サービス単位で伝送されるコンポーネントのストリームごとのセグメントURL(Uniform Resource Locator)などの情報を含んでいる。なお、MPDは、MPEG-DASH(Moving Picture Expert Group - Dynamic Adaptive Streaming over HTTP)の規格に準じている。SDPは、サービス単位のサービス属性、ストリームの構成情報や属性、フィルタ情報、ロケーション情報などを含んでいる。 USBD includes reference information for referencing SCS metadata such as MPD, FDD, SDP. USBD may be referred to as USD (User Service Description). The MPD includes information such as a segment URL (Uniform Resource Locator) for each component stream transmitted in service units. Note that MPD conforms to the MPEG-DASH standard (Moving / Picture / Expert / Group / Dynamic / Adaptive / Streaming / over / HTTP). The SDP includes service attributes for each service, stream configuration information and attributes, filter information, location information, and the like.
 FDDは、TSI(Transport Session Identifier)ごとのインデックス情報として、ロケーション情報(例えばURLなど)やTOI(Transport Object Identifier)などの情報を含んでいる。ここで、FLUTE(File Delivery over Unidirectional Transport)セッションでは、送信するファイルなどを1つのオブジェクトとして、TOIにより管理する。また、複数のオブジェクトの集合を1つのセッションとして、TSIにより管理する。すなわち、FLUTEセッションにおいては、TSIとTOIの2つの識別情報によって特定のファイルを指定することが可能となる。なお、FDDは、USBDに要素として含めるようにしてもよい。また、FLUTEの代わりに、FLUTEを拡張したFLUTE +(FLUTE plus)を用いるようにしてもよい。 The FDD includes information such as location information (for example, URL) and TOI (Transport Object Identifier) as index information for each TSI (Transport Session Identifier). Here, in a FLUTE (File Delivery over Unidirectional Transport) session, a file to be transmitted is managed as one object by TOI. In addition, a set of a plurality of objects is managed as one session by TSI. That is, in the FLUTE session, a specific file can be designated by two pieces of identification information of TSI and TOI. The FDD may be included as an element in the USBD. Further, instead of FLUTE, FLUTE + (FLUTE plus) obtained by expanding FLUTE may be used.
 SPDは、サービスやコンポーネントのレベルで規定された各種のパラメータを含んで構成される。ISは、FLUTEセッションで伝送されるビデオやオーディオのコンポーネントのセグメントデータに関する制御情報を含んでいる。 SPD is composed of various parameters specified at the service and component level. The IS includes control information related to segment data of video and audio components transmitted in the FLUTE session.
 すなわち、FLUTEセッションでビデオやオーディオのコンポーネントを伝送する場合、これらのコンポーネントのファイルは、セグメントごとに分割され、各セグメントは、IS(Initialization Segment)と、MS(Media Segment)から構成される。ISには、データ圧縮方式等の初期化情報や制御情報が含まれる。また、MSには、ビデオやオーディオのコンポーネントのデータが格納される。なお、FLUTEセッションの各セグメントは、ISO Base Media File Formatの規定に準じている。 That is, when video and audio components are transmitted in a FLUTE session, the files of these components are divided into segments, and each segment is composed of an IS (Initialization と Segment) and an MS (Media Segment). The IS includes initialization information such as a data compression method and control information. In addition, video and audio component data is stored in the MS. Each segment of the FLUTE session conforms to the ISO Base Media Media File format.
 なお、USBD,MPD,SDP,FDD,SPD,IS等のSCSメタデータは、例えば、XML等のマークアップ言語により記述される。また、ISは、SCSストリームで伝送するのではなく、ビデオやオーディオのストリームで伝送するようにしてもよい。 Note that SCS metadata such as USBD, MPD, SDP, FDD, SPD, and IS is described in a markup language such as XML. Further, the IS may be transmitted as a video or audio stream instead of being transmitted as an SCS stream.
 ここで、所定の周波数帯域を有する放送波(RF Channel)には、例えば放送事業者ごとに、RFチャンネルID(RF Channel ID)が割り当てられている。また、各放送波で伝送される1又は複数のBBPストリームには、BBPストリームID(BBP Stream ID)が割り当てられる。さらに、各BBPストリームで伝送される1又は複数のサービスには、サービスID(Service ID)が割り当てられる。 Here, an RF channel ID (RF Channel ID) is assigned to a broadcast wave (RF Channel) having a predetermined frequency band, for example, for each broadcaster. Also, a BBP stream ID (BBP Stream ID) is assigned to one or a plurality of BBP streams transmitted on each broadcast wave. Furthermore, a service ID (Service ID) is assigned to one or more services transmitted in each BBP stream.
 このように、IP伝送方式のID体系としては、MPEG2-TS方式で用いられているネットワークID(Network ID)と、トランスポートストリームID(Transport Stream ID)と、サービスID(Service ID)の組み合わせ(以下、「トリプレット(Triplet)」という。)に対応する構成が採用され、このトリプレットによって、放送ネットワーク内のBBPストリーム構成とサービス構成が示される。 Thus, the IP transmission system ID system is a combination of the network ID (Network ID), transport stream ID (Transport Stream ID), and service ID (Service ID) used in the MPEG2-TS system ( Hereinafter, a configuration corresponding to “triplet” is adopted, and a BBP stream configuration and a service configuration in the broadcast network are indicated by this triplet.
 このようなID体系を用いることで、現在広く普及しているMPEG2-TS方式との整合をとることができる。なお、IP伝送方式のID体系では、RFチャンネルIDとBBPストリームIDが、MPEG2-TS方式におけるネットワークIDとトランスポートストリームIDに対応している。 By using such an ID system, it is possible to achieve consistency with the MPEG2-TS system that is currently widely used. In the IP transmission system ID system, the RF channel ID and BBP stream ID correspond to the network ID and transport stream ID in the MPEG2-TS system.
(選局処理)
 図2は、IP伝送方式のデジタル放送の選局処理を説明する図である。図2には、受信機での選局処理の様子が模式的に表されている。
(Channel selection processing)
FIG. 2 is a diagram for explaining a channel selection process for digital broadcasting using the IP transmission method. FIG. 2 schematically shows a channel selection process in the receiver.
 図2においては、ユーザにより選局操作が行われると、当該選局操作に応じたサービスIDが特定され(S11)、NVRAMに記録されている選局情報(SCD)のサービスリストから、当該サービスIDを含むトリプレットが特定される(S12)。そして、このトリプレットに従い、選局処理を行う際に用いられる選局パラメータとして、物理パラメータが得られる。この物理パラメータには、周波数(frequency)と、PLP IDが含まれているので、周波数とPLP IDに従い、BBPストリームに接続される(S13,S14)。 In FIG. 2, when a channel selection operation is performed by the user, a service ID corresponding to the channel selection operation is identified (S11), and the service ID is selected from the service list of channel selection information (SCD) recorded in NVRAM. A triplet including the ID is identified (S12). Then, according to this triplet, a physical parameter is obtained as a channel selection parameter used when performing a channel selection process. Since the physical parameter includes a frequency and a PLP ID, the physical parameter is connected to the BBP stream according to the frequency and the PLP ID (S13, S14).
 また、選局パラメータとして、SC bootstrap情報が得られるので、このSC bootstrap情報に従い、SCSストリームに接続することで、選局対象のサービス(図2の「SC1(Service Channel1)」)のSCSメタデータ(USBD,SDP,MPD等)が得られる(S15,S16)。そして、SCSメタデータから得られるコンポーネントのストリームに接続するための情報(IPアドレス、ポート番号、及び、TSI)に従い、コンポーネントのストリームに接続される(S15,S16)。なお、TSIごとに、各FLUTEセッションで伝送されるセグメントは、例えば、TOIの値を初期値から順次インクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。 In addition, since SC bootstrap information is obtained as a channel selection parameter, the SCS metadata of the service to be selected (“SC1 (Service Channel1)” in FIG. 2) by connecting to the SCS stream according to this SC bootstrap information (USBD, SDP, MPD, etc.) are obtained (S15, S16). Then, according to the information (IP address, port number, and TSI) for connecting to the component stream obtained from the SCS metadata, the component stream is connected (S15, S16). For each TSI, the segment transmitted in each FLUTE session can specify the TOI that changes in time series for each segment, for example, by sequentially incrementing the value of the TOI from the initial value.
 そして、コンポーネントのストリームで伝送されるLCTパケットからセグメントデータが抽出されることで、ビデオデータとオーディオデータが取得され、レンダリング処理が行われる。これにより、受信機では、選局対象のサービス(図2の「SC1」)の映像と音声が再生される。 Then, segment data is extracted from the LCT packet transmitted in the component stream, thereby obtaining video data and audio data, and performing a rendering process. As a result, the video and audio of the service to be selected (“SC1” in FIG. 2) are reproduced in the receiver.
 以上のようにして、受信機においては、IP伝送方式のデジタル放送の選局処理が行われる。 As described above, the receiver performs the channel selection processing of the IP transmission type digital broadcast.
(テキスト形式のシグナリングデータ)
 ところで、IP伝送方式によるデジタル放送では、LLSとして伝送されるSCD等のLLSメタデータと、SCSとして伝送されるUSBD,SDP,MPD等のSCSメタデータからなるシグナリングデータを、XML文書、すなわち、テキスト形式で記述することが想定されている。これにより、MPEG2-TS方式で採用されているバイナリ形式のシグナリングデータと比べて、拡張性や可読性を高めることができる反面、データサーズが大きくなって、伝送帯域が大きくなる。
(Signal data in text format)
By the way, in digital broadcasting by the IP transmission method, signaling data including LLS metadata such as SCD transmitted as LLS and SCS metadata such as USBD, SDP, and MPD transmitted as SCS is converted into an XML document, that is, text. It is assumed to be described in a format. As a result, the expandability and readability can be improved as compared with the binary format signaling data adopted in the MPEG2-TS system, but the data size increases and the transmission band increases.
 例えば、1000バイト(8000ビット)のSCSメタデータを1秒ごとに伝送する場合、必要な伝送帯域は、8000ビット毎秒(bit/s)となるが、100ミリ秒ごとに伝送する場合には、その10倍の80000ビット毎秒の帯域が必要となる。 For example, when transmitting 1000 bytes (8000 bits) of SCS metadata every second, the required transmission bandwidth is 8000 bits per second (bit / s), but when transmitting every 100 milliseconds, Ten times the bandwidth of 80000 bits per second is required.
 また、MPEG2-TS方式では、選局処理時に用いられるPAT(Program Association Table)やPMT(Program Map Table)が100ミリ秒周期で送出されていることから、IP伝送方式が採用された場合においても、選局処理時に用いられるシグナリングデータは、同程度の伝送周期での運用となることが想定される。なお、PATは、あるトランスポートストリーム内に含まれるプログラム一覧を、PMTのPID(Packet ID)の一覧で格納したものである。また、PMTは、あるプログラムに含まれる映像や音声等の各PIDを格納したものである。 In addition, in the MPEG2-TS system, PAT (Program Association Table) and PMT (Program Map Table) used at the time of channel selection processing are sent out at a cycle of 100 milliseconds, so even when the IP transmission system is adopted Therefore, it is assumed that the signaling data used at the time of the channel selection process is operated with the same transmission cycle. The PAT is a list of programs included in a certain transport stream, stored as a list of PIDs (Packet IDs) of the PMT. The PMT stores PIDs such as video and audio included in a program.
 そこで、本技術では、IP伝送方式において、LLSメタデータやSCSメタデータ等のテキスト形式のシグナリングデータを、MPEG2-TS方式と同程度の伝送周期で伝送して、高速な選局処理を可能にするためのメタデータを定義する。このメタデータには、受信機がSCSメタデータを用いることなく、最小限のサービスの選局を行うための情報(制御情報)を記述して、SCSメタデータに先行して取得されるようにする。以下、このメタデータを、「先行取得用メタデータ」と称して説明する。 Therefore, this technology enables high-speed channel selection processing by transmitting text-format signaling data such as LLS metadata and SCS metadata in the IP transmission method with the same transmission cycle as the MPEG2-TS method. Define the metadata to be used. In this metadata, information (control information) for selecting a minimum service is described without using the SCS metadata by the receiver, so that the SCS metadata is acquired in advance. To do. Hereinafter, this metadata will be described as “preceding acquisition metadata”.
 ここで、最小限のサービスとは、あるサービスを構成するビデオやオーディオ等のコンポーネントのうち、優先して提供すべき最小限のコンポーネントから構成されるサービスをいい、例えば、主映像と主音声に対応するコンポーネントから構成される。すなわち、ユーザからすれば、第2音声や字幕等の副次的な情報に比べて、主映像や主音声等の主の情報のほうが、視聴時の優先度が高い場合がほとんどであるので、主映像や主音声が優先的に提供されるようにする。 Here, the minimum service refers to a service composed of minimum components that should be preferentially provided among components such as video and audio that constitute a certain service. Consists of corresponding components. That is, from the viewpoint of the user, the main information such as the main video and main audio has a higher priority at the time of viewing than the secondary information such as the second audio and subtitles. Ensure that main video and main audio are provided preferentially.
 この場合、先行取得用メタデータには、主映像と主音声に対応するコンポーネントのストリームに接続するための情報(制御情報)が記述される。そして、先行取得用メタデータには、例えば、主映像と主音声に対応するコンポーネントのストリームに接続するための情報が記述されているだけであるので、そのデータサイズは、SCSメタデータのデータサイズと比べて、小さくなる。 In this case, information (control information) for connecting to the stream of the component corresponding to the main video and the main audio is described in the prior acquisition metadata. The advance acquisition metadata, for example, only describes information for connecting to the component stream corresponding to the main video and main audio, so the data size is the data size of the SCS metadata. Compared to
 また、先行取得用メタデータのフォーマットには、バイナリ形式又はテキスト形式のいずれか一方の形式が用いられる。以下、バイナリ形式の先行取得用メタデータを、DCT(Default Component Table)と称し、テキスト形式の先行取得用メタデータを、DCD(Default Component Description)と称するものとする。また、以下の説明では、先行取得用メタデータのフォーマットとして、バイナリ形式(DCT)が採用された場合を中心に説明する。 In addition, either the binary format or the text format is used as the format of the metadata for pre-acquisition. Hereinafter, the binary-form advance acquisition metadata is referred to as DCT (Default Component Table), and the text-form advance acquisition metadata is referred to as DCD (Default Component Description). In the following description, a case where the binary format (DCT) is adopted as the format of the metadata for pre-acquisition will be mainly described.
 DCTは、LLS及びSCSの少なくとも一方で伝送される。受信機では、SCSメタデータに先行して、DCTを取得することで、主映像と主音声のストリームに接続して、迅速にレンダリング処理を開始することができる。また、受信機は、主映像と主音声のストリームのレンダリング処理と並行して、SCSメタデータの取得を試みて、選局対象のサービスを構成する全てのコンポーネントのストリームに接続するための情報(制御情報)についても取得する。これにより、受信機では、SCSメタデータの取得が完了した後は、最小限のサービスとしての主映像と主音声以外のコンポーネントのストリームに対しても接続することが可能となる。 DCT is transmitted at least one of LLS and SCS. In the receiver, the DCT is acquired prior to the SCS metadata, so that the rendering process can be started quickly by connecting to the main video and main audio streams. In addition, the receiver tries to acquire SCS metadata in parallel with the rendering process of the main video and main audio streams and connects to the stream of all the components constituting the channel selection service ( Control information). As a result, after the acquisition of the SCS metadata is completed, the receiver can connect to a stream of components other than the main video and main audio as a minimum service.
 このように、SCSメタデータ(USBD,SDP,MPD等)に先行して、DCTが取得されるようにすることで、主映像と主音声のストリームを、他のストリームよりも優先的に取得して、主映像と主音声が再生されるようにすることができる。その際、DCTは、SCSメタデータよりもデータサイズが小さいので、送信機では、DCTの伝送周期を、SCSメタデータの伝送周期よりも短くしても、伝送帯域を抑えることができる。これにより、受信機では、SCSメタデータよりも短い伝送周期で送信されるDCTを直ちに取得して、当該DCTを用いた高速な選局処理を行うことができる。 In this way, the DCT is acquired prior to the SCS metadata (USBD, SDP, MPD, etc.), so that the main video and main audio streams are acquired with priority over other streams. Thus, the main video and main audio can be reproduced. At this time, since the DCT has a data size smaller than that of the SCS metadata, the transmitter can suppress the transmission band even if the DCT transmission cycle is shorter than the transmission cycle of the SCS metadata. As a result, the receiver can immediately acquire a DCT transmitted at a transmission cycle shorter than that of the SCS metadata, and can perform a high-speed channel selection process using the DCT.
 例えば、DCTは、MPEG2-TS方式の選局処理時に用いられるPMTの伝送周期と同一の100ミリ秒の伝送周期、又は、100ミリ秒以下の伝送周期で送信し、SCSメタデータ(USBD,SDP,MPD等)の伝送周期は、DCTの伝送周期よりも長くすることで、選局処理に必要なパラメータをより短い周期で伝送し、かつ、伝送帯域を抑えながら、高速な選局処理を行うことができる。 For example, DCT is transmitted at a transmission cycle of 100 milliseconds, which is the same as the transmission cycle of PMT used at the time of channel selection processing of the MPEG2-TS system, or transmission cycle of 100 milliseconds or less, and SCS metadata (USBD, SDP , MPD, etc.) transmission cycle is longer than the DCT transmission cycle, so that parameters necessary for channel selection processing are transmitted in a shorter cycle, and high-speed channel selection processing is performed while suppressing the transmission band. be able to.
 なお、DCTをLLSで伝送する運用においては、LLSでのDCTの伝送の有無により選局対象のサービスの提供の有無を検知することができる。すなわち、受信機では、DCTがLLSで伝送されているときには、選局対象のサービスが有効であって、当該サービスが提供されていることが検知される一方、DCTがLLSで伝送されていないときには、選局対象のサービスが無効であって、当該サービスが中止していることが検知される。 In addition, in the operation of transmitting DCT by LLS, it is possible to detect whether or not the service to be selected is provided by the presence or absence of DCT transmission by LLS. That is, in the receiver, when DCT is transmitted by LLS, it is detected that the service to be selected is valid and the service is provided, while when DCT is not transmitted by LLS. It is detected that the service to be selected is invalid and the service is stopped.
<2.運用例> <2. Operation example>
 次に、具体的な運用例について説明する。 Next, a specific example of operation will be described.
(1)運用例1:DCTをLLSで伝送 (1) Operation example 1: DCT is transmitted by LLS
(選局処理)
 図3は、DCTをLLSで伝送する運用である運用例1の選局処理を説明する図である。図3おいては、受信機での選局処理を説明するために、送信機から受信機に送信されるデジタル放送信号から得られるBBPストリームが模式的に図示されている。
(Channel selection processing)
FIG. 3 is a diagram for explaining a channel selection process in Operation Example 1 which is an operation of transmitting DCT by LLS. In FIG. 3, a BBP stream obtained from a digital broadcast signal transmitted from the transmitter to the receiver is schematically illustrated in order to explain the channel selection process in the receiver.
 すなわち、RFチャンネルIDにより識別される放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波(RF Channel)によって、BBPストリームIDにより識別されるBBPストリーム(BBP Stream)を伝送している。BBPストリームでは、サービスIDで識別される各サービスを構成するコンポーネントやSCSのストリームのほか、LLSと、ESGと、NTPのストリームが伝送されている。 In other words, the transmitter of the broadcasting station (broadcaster) identified by the RF channel ID uses the BBP stream (BBP Stream) identified by the BBP stream ID by the broadcast wave (RF Channel) of the digital broadcast using the IP transmission method. ). In the BBP stream, the components constituting each service identified by the service ID and the SCS stream, as well as the LLS, ESG, and NTP streams are transmitted.
 また、図3では、サービスIDにより識別されるサービスとして、サービス1(図3の「SC1(Service Channel1)」)と、サービス2(図3の「SC2(Service Channel2)」)が提供されている。サービス1は、主映像(Video)と、主音声(Audio)のコンポーネントから構成される。これらの主映像と主音声のストリームは、サービス1のSCSストリームとともに、FLUTEセッションで伝送されている。また、サービス2は、サービス1と同様に、主映像と主音声のコンポーネントから構成され、それらのコンポーネントのストリームは、サービス2のSCSストリームとともに、FLUTEセッションで伝送されている。 In FIG. 3, service 1 (“SC1 (Service (Channel1)” in FIG. 3) and service 2 (“SC2 (Service Channel2)” in FIG. 3) are provided as services identified by the service ID. . The service 1 is composed of main video (Video) and main audio (Audio) components. These main video and main audio streams are transmitted in the FLUTE session together with the service 1 SCS stream. Similarly to the service 1, the service 2 includes main video and main audio components, and the stream of these components is transmitted in the FLUTE session together with the SCS stream of the service 2.
 また、図3の運用例1では、LLSストリームでDCTが伝送されている。ただし、DCTは、SCSメタデータ(USBD,SDP,MPD等)よりもデータサイズが小さいので、送信機は、DCTを、SCSメタデータの伝送周期よりも短い伝送周期で送信している。 Further, in the operation example 1 in FIG. 3, the DCT is transmitted by the LLS stream. However, since DCT has a data size smaller than that of SCS metadata (USBD, SDP, MPD, etc.), the transmitter transmits DCT with a transmission cycle shorter than the transmission cycle of SCS metadata.
 なお、図3において、各家庭等に設置された受信機は、あらかじめ初期スキャン処理によって、LLSストリームで伝送されるSCDを取得して、選局情報として、内部のNVRAM(Non Volatile RAM)に記録しているものとする。SCDには、BBPストリームごとの、選局処理を行う際に用いられる選局パラメータ(Tuning parameters)として、物理パラメータ(PHY parameter)と、SC bootstrap情報などが含まれている。ただし、図3のSCDには、説明の簡略化のため、SCDに含まれる一部の情報のみを示している。 In FIG. 3, a receiver installed in each home or the like acquires an SCD transmitted in the LLS stream in advance by an initial scanning process, and records it in the internal NVRAM (Non Volatile RAM) as channel selection information. Suppose you are. The SCD includes physical parameters (PHY parameters), SC bootstrap information, and the like as channel selection parameters (Tuning parameters) used when performing channel selection processing for each BBP stream. However, the SCD in FIG. 3 shows only a part of the information included in the SCD for the sake of simplicity.
 ここで、受信機において、ユーザにより選局操作が行われると、当該選局操作に応じたサービスIDが特定され(S21)、NVRAMに記録されている選局情報(SCD)の選局パラメータから、当該サービスIDを含むトリプレットに従い、物理パラメータとSC bootstrap情報が特定される(S22)。 Here, when the channel selection operation is performed by the user in the receiver, a service ID corresponding to the channel selection operation is specified (S21), and from the channel selection parameter of the channel selection information (SCD) recorded in NVRAM. In accordance with the triplet including the service ID, the physical parameter and the SC bootstrap information are specified (S22).
 受信機では、物理パラメータとしての周波数(frequency)と、PLP ID(plp_ID)に従い、BBPストリームに接続され(S23)、さらに、BBPストリームで伝送されているLLSストリームに接続される(S24)。これにより、受信機では、BBPパケットが抽出されて(S25)、そこから、DCTが取得される(S26)。 The receiver is connected to the BBP stream according to the frequency (frequency) as physical parameters and the PLP ID (plp_ID) (S23), and further connected to the LLS stream transmitted by the BBP stream (S24). As a result, the BBP packet is extracted at the receiver (S25), from which the DCT is acquired (S26).
 図3においては、ユーザによりサービス1が選局されているので、図3のDCTのサービスのループの中から、サービス1のサービスIDに対応した最小限のサービスの選局を行うための情報が取得される。具体的には、図3のDCTには、サービス1を構成する、主映像と主音声のストリームに接続するための情報として、MIMEタイプ、ポート番号、及び、TSIがそれぞれ記述されている。 In FIG. 3, since the service 1 is selected by the user, information for selecting a minimum service corresponding to the service ID of the service 1 from the DCT service loop of FIG. To be acquired. Specifically, the DCT in FIG. 3 describes a MIME type, a port number, and a TSI as information for connecting to the main video and main audio streams constituting the service 1.
 また、受信機では、SC bootstrap情報のIPアドレス、ポート番号、及び、TSIに従い、サービス1におけるTSI=3のFLUTEセッションで伝送されるSCSストリームに接続される(S27)。これにより、受信機では、サービス1におけるTSI=3のFLUTEセッションで伝送されるLCTパケットが抽出されて(S28)、そこから、IS(Initialization Segment)が取得される(S29)。 Further, the receiver is connected to the SCS stream transmitted in the FLUTE session of TSI = 3 in the service 1 according to the IP address, port number, and TSI of the SC bootstrap information (S27). Thereby, in the receiver, the LCT packet transmitted in the FLUTE session with TSI = 3 in the service 1 is extracted (S28), and IS (Initialization Segment) is acquired therefrom (S29).
 そして、受信機では、DCTが取得されることで、サービス1を構成する主映像と主音声のストリームに接続するためのIPアドレス、ポート番号、及び、TSIが特定されるので、主映像と主音声のストリームに接続される(S30)。これにより、受信機では、サービス1におけるTSI=1のFLUTEセッションで伝送されるLCTパケットが抽出され(S31)、そこから、主音声のMS(Media Segment)が取得される(S32)。また、受信機では、サービス1におけるTSI=2のFLUTEセッションで伝送されるLCTパケットが抽出され(S31)、そこから、主映像のMSが取得される(S32)。 The receiver acquires the DCT, so that the IP address, the port number, and the TSI for connecting to the main video and main audio stream constituting the service 1 are specified. Connected to the audio stream (S30). As a result, the LCT packet transmitted in the FLUTE session with TSI = 1 in the service 1 is extracted in the receiver (S31), and the main audio MS (Media Segment) is acquired therefrom (S32). In the receiver, the LCT packet transmitted in the FLUTE session with TSI = 2 in the service 1 is extracted (S31), and the MS of the main video is acquired therefrom (S32).
 なお、TSIごとに、各FLUTEセッションで伝送されるセグメントは、例えば、TOIの値を初期値から順次インクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。 For each TSI, the segment transmitted in each FLUTE session can specify the TOI that changes in time series for each segment, for example, by sequentially incrementing the value of the TOI from the initial value.
 このようにして、受信機では、セグメントとしてのISとMSが取得され、MSに格納されたセグメントデータが取得されて、主映像と主音声のレンダリング処理が行われる。これにより、受信機では、サービス1の主映像と主音声が再生される。 In this way, the receiver acquires the IS and MS as the segment, acquires the segment data stored in the MS, and performs the main video and main audio rendering process. As a result, the main video and main audio of service 1 are reproduced in the receiver.
 なお、図示はしていないが、受信機では、当該レンダリング処理と並行して、サービス1におけるTSI=3のFLUTEセッションで伝送されるSCSストリームから、SCSメタデータ(USBD,SDP,MPD等)の取得を試みて、サービス1を構成する全てのコンポーネントのストリームに接続するための情報についても取得することになる。そして、当該SCSメタデータが取得された後は、サービス1を構成する主映像と主音声以外のコンポーネント(例えば、第2音声や字幕等(不図示))のストリームに接続することが可能となる。 Although not shown, in the receiver, SCS metadata (USBD, SDP, MPD, etc.) is transmitted from the SCS stream transmitted in the FLUTE session of TSI = 3 in service 1 in parallel with the rendering process. The information for connecting to the streams of all the components constituting the service 1 is also obtained by attempting acquisition. Then, after the SCS metadata is acquired, it is possible to connect to a stream of components other than the main video and main audio (for example, second audio, subtitles, etc. (not shown)) constituting the service 1. .
 以上のように、運用例1では、LLSストリームで伝送されるDCTが、USBD,SDP,MPD等のSCSメタデータに先行して取得され、DCTに含まれる主映像と主音声のストリームに接続するための情報に従い、主映像と主音声のストリームに接続され、主映像と主音声のセグメントデータが優先的に取得され、主映像と主音声のレンダリング処理が行われる。 As described above, in the first operation example, the DCT transmitted in the LLS stream is acquired in advance of the SCS metadata such as USBD, SDP, and MPD, and is connected to the main video and main audio streams included in the DCT. The main video and main audio segment data are preferentially acquired according to the information for the main video and main audio streams, and main video and main audio rendering processing is performed.
 このように、運用例1において、サービス1を構成する全てのコンポーネントのうち、主映像と主音声以外の、例えば第2音声や字幕などが出力されるまでの時間にある程度の時間が必要になることを許容するのであれば、主映像と主音声が、最小限のサービスとして優先的に出力されるようにDCTを記述して、SCSメタデータよりも先行して取得されるようにする。その際、DCTは、SCSメタデータよりもデータサイズが小さいので、送信機では、DCTの伝送周期を、SCSメタデータの伝送周期よりも短くしても、伝送帯域を抑えることができる。その結果として、受信機では、SCSメタデータよりも短い伝送周期で送信されるDCTを直ちに取得して、そのDCTを用い、高速な選局処理を行うことができる。 As described above, in the operation example 1, a certain amount of time is required to output, for example, the second audio or the caption other than the main video and the main audio among all the components constituting the service 1. If this is allowed, the DCT is described so that the main video and the main audio are preferentially output as a minimum service, and are acquired prior to the SCS metadata. At this time, since the DCT has a data size smaller than that of the SCS metadata, the transmitter can suppress the transmission band even if the DCT transmission cycle is shorter than the transmission cycle of the SCS metadata. As a result, the receiver can immediately acquire a DCT transmitted at a transmission cycle shorter than that of the SCS metadata, and can perform high-speed channel selection processing using the DCT.
(シグナリング構成)
 図4は、DCTをLLSで伝送する運用である運用例1のシグナリングデータの構成を示す図である。
(Signaling configuration)
FIG. 4 is a diagram illustrating a configuration of signaling data in Operation Example 1 which is an operation of transmitting DCT by LLS.
 図4において、LLSとしては、SCD,EAD,RDD等のLLSメタデータとともに、先行取得用メタデータとしてのDCTが伝送されている。SCDには、物理パラメータとして、周波数とPLP IDが記述されている。受信機は、周波数とPLP IDに従い、BBPストリームに接続することで、LLSストリームで伝送されているDCTを取得する。 Referring to FIG. 4, as LLS, DCT as pre-acquisition metadata is transmitted together with LLS metadata such as SCD, EAD, and RDD. The SCD describes a frequency and a PLP ID as physical parameters. The receiver acquires the DCT transmitted in the LLS stream by connecting to the BBP stream according to the frequency and the PLP ID.
 DCTには、最小限のサービスの選局を行うための情報として、選局対象のサービスを構成する、主映像と主音声のストリームに接続するための情報(ポート番号やTSI等)が記述されている。受信機は、DCTに従い、FLUTEセッションで伝送されている主映像(図4の「Main Video」)と主音声(図4の「Main Audio」)のストリームに接続して、主映像と主音声のセグメントデータを取得し、主映像と主音声のレンダリング処理を行う。これにより、受信機では、選局対象のサービスの主映像と主音声が再生される。 In the DCT, information (port number, TSI, etc.) for connecting to the main video and main audio stream that constitutes the service to be selected is described as information for selecting a minimum service. ing. In accordance with DCT, the receiver connects to the stream of the main video (“Main Audio” in FIG. 4) and the main audio (“Main 図 Audio” in FIG. 4) transmitted in the FLUTE session. Segment data is acquired and main video and main audio are rendered. As a result, the receiver reproduces the main video and main audio of the service to be selected.
 また、SCDには、SCSストリームに接続するためのSC bootstrap情報が記述されている。受信機は、主映像と主音声のレンダリング処理と並行して、SC bootstrap情報に従い、FLUTEセッションで伝送されているSCSメタデータ(USBD,SDP,MPD等)の取得を試みて、選局対象のサービスを構成する第2映像(図4の「2nd Video」)と第2音声(図4の「2nd Audio」)のストリームに接続するための情報(IPアドレス、ポート番号、TSI等)を含むSCSメタデータを取得する。 Also, SC bootstrap information for connecting to the SCS stream is described in the SCD. The receiver tries to acquire the SCS metadata (USBD, SDP, MPD, etc.) transmitted in the FLUTE session according to the SC bootstrap information in parallel with the main video and main audio rendering process, and SCS including information (IP address, port number, TSI, etc.) for connecting to the stream of the second video (“2nd Video” in FIG. 4) and the second audio (“2nd Audio” in FIG. 4) constituting the service Get metadata.
 これにより、受信機では、第2映像や第2音声を再生するための準備が整ったことになるので、SCSメタデータ(USBD,SDP,MPD等)に従い、FLUTEセッションで伝送されている第2映像又は第2音声のストリームに接続して、第2映像又は第2音声のセグメントデータを取得し、レンダリング処理を行うことができる。これにより、受信機では、選局対象のサービスの第2映像又は第2音声を再生することができる。 As a result, the receiver is ready to play back the second video and the second audio, so the second transmitted in the FLUTE session according to the SCS metadata (USBD, SDP, MPD, etc.). By connecting to a video or second audio stream, segment data of the second video or second audio can be acquired and a rendering process can be performed. As a result, the receiver can reproduce the second video or the second sound of the service to be selected.
 なお、DCTの後に取得されるSCSメタデータ(例えば、SPDとMPD)によっても、主映像(図4の「Main Video」)と主音声(図4の「Main Audio」)のストリームに接続するための情報が提供される。すなわち、主映像と主音声のストリームに接続するための情報が、DCTとSCSメタデータで重複して規定されていることになるが、例えば、受信機において何らかの原因でDCTが取得できなかった場合(例えば、DCTがLLSストリームで伝送されていない場合など)には、受信機は、SCSメタデータを用い、主映像と主音声のストリームに接続すればよい。ただし、SCSメタデータには、主映像と主音声のストリームに接続するための情報を規定せずに、DCTにのみ規定するようにしてもよい。 Note that SCS metadata (for example, SPD and MPD) acquired after DCT is also used to connect to the main video ("Main Video" in FIG. 4) and main audio ("Main Audio" in FIG. 4) streams. Information is provided. In other words, the information for connecting to the main video and main audio streams is defined in duplicate in the DCT and SCS metadata. For example, when the DCT could not be acquired for some reason at the receiver. For example (for example, when DCT is not transmitted in the LLS stream), the receiver may connect to the main video and main audio streams using the SCS metadata. However, the SCS metadata may be defined only in the DCT without defining information for connecting to the main video and main audio streams.
 また、SCDには、ESGストリームに接続するためのESG bootstrap情報が記述されている。受信機は、ESG bootstrap情報に従い、FLUTEセッションで伝送されているESGを取得することができる。ESGは、サービス(Service)、コンデンツ(Content)、スケジュール(Schedule)、及び、購買アイテム(PurchaseItem)等のフラグメントから構成される。ESGのサービスは、SCSメタデータのUSBDと関連付けられている。なお、ESGは、OMA(Open Mobile Alliance)によって規定されている。 In SCD, ESG bootstrap information for connecting to the ESG stream is described. The receiver can acquire the ESG transmitted in the FLUTE session according to the ESG bootstrap information. The ESG is composed of fragments such as a service (Service), content (Content), schedule (Schedule), and purchase item (PurchaseItem). The ESG service is associated with the SCS metadata USBD. ESG is defined by OMA (Open Mobile Alliance).
(SCSメタデータとLLSメタデータの伝送周期)
 図5は、運用例1における、チャンク化されたSCSメタデータとLLSメタデータの伝送周期を説明する図である。図5においては、各メタデータに対応するストリームが模式的に表されている。
(Transmission cycle of SCS metadata and LLS metadata)
FIG. 5 is a diagram for explaining the transmission cycle of chunked SCS metadata and LLS metadata in Operation Example 1. In FIG. 5, a stream corresponding to each metadata is schematically represented.
 図5において、SCSメタデータとしてのMPD,USBD,SDP等は、所定のデータサイズにチャンク化され、LCTパケットに格納されて伝送される。また、LLSメタデータとしてのSCD等は、所定のデータサイズにチャンク化され、LLSパケットに格納されて伝送される。 In FIG. 5, MPS, USBD, SDP, etc. as SCS metadata are chunked to a predetermined data size, stored in an LCT packet, and transmitted. Further, SCD or the like as LLS metadata is chunked to a predetermined data size, stored in an LLS packet, and transmitted.
 BBPストリームにおいては、LLSストリームと、サービス(図5の「SC1(Service Channel1)」)ごとのSCSストリームが伝送される。SCSストリームでは、MPD,USBD,SDPのLCTパケットがその順序で繰り返し伝送されている。すなわち、LCTパケットとして繰り返し伝送される、MPD,USBD,SDPの1回の周期が、SCSストリームにおける1サイクルとされる。 In the BBP stream, an LLS stream and an SCS stream for each service (“SC1 (Service Channel 1)” in FIG. 5) are transmitted. In the SCS stream, MPD, USBD, and SDP LCT packets are repeatedly transmitted in that order. That is, one cycle of MPD, USBD, and SDP that is repeatedly transmitted as an LCT packet is one cycle in the SCS stream.
 また、DCTは、LLSで伝送されるので、LLSストリームでは、DCT,SCDのLLSパケットがその順序で繰り返し伝送されている。すなわち、LLSパケットとして繰り返し伝送される、DCT,SCDの1回の周期が、LLSストリームにおける1サイクルとされる。 Also, since DCT is transmitted by LLS, DCT and SCD LLS packets are repeatedly transmitted in that order in the LLS stream. That is, one cycle of DCT and SCD, which is repeatedly transmitted as an LLS packet, is one cycle in the LLS stream.
 このように、LLSストリームの1サイクルは、基本的に、SCSストリームの1サイクルよりも短いので、DCTをLLSストリームで伝送した場合に、受信機では、SCSメタデータに先行して取得されるDCTを、迅速に取得することが可能となる。 Thus, since one cycle of the LLS stream is basically shorter than one cycle of the SCS stream, when the DCT is transmitted using the LLS stream, the receiver acquires the DCT that precedes the SCS metadata. Can be acquired quickly.
(選局操作時の画面の表示例)
 図6は、運用例1における、選局操作時の画面の表示例を示す図である。図6においては、受信機での選局操作時における画面の表示例を説明するために、送信機から受信機に送信されるデジタル放送信号から得られるBBPストリームが模式的に図示されている。このBBPストリームで伝送される、サービスを構成するコンポーネントやSCSのストリームと、LLSストリームなどについては、上述した図3と同様とされる。
(Example of screen display during tuning operation)
FIG. 6 is a diagram illustrating a display example of a screen at the time of channel selection operation in the operation example 1. FIG. 6 schematically shows a BBP stream obtained from a digital broadcast signal transmitted from the transmitter to the receiver in order to explain a display example of the screen at the time of channel selection operation at the receiver. The components constituting the service, the SCS stream, the LLS stream, and the like transmitted by the BBP stream are the same as those in FIG.
 ここで、受信機において、ユーザにより選局操作が行われると、当該選局操作に応じたサービスIDが特定され(S41)、NVRAMに記録されている選局情報(SCD)の選局パラメータから、物理パラメータが特定される。受信機では、物理パラメータとしての周波数とPLP IDに従い、BBPストリームで伝送されているLLSストリームに接続される(S42)。これにより、受信機では、BBPパケットが抽出されて、そこから、DCTが取得される(S43)。 Here, when the channel selection operation is performed by the user in the receiver, the service ID corresponding to the channel selection operation is specified (S41), and from the channel selection parameter of the channel selection information (SCD) recorded in NVRAM. Physical parameters are specified. The receiver is connected to the LLS stream transmitted by the BBP stream according to the frequency and PLP ID as physical parameters (S42). Thereby, in a receiver, a BBP packet is extracted and DCT is acquired from there (S43).
 図6においては、ユーザの操作によりサービス1(図6の「SC1」)が選局されているので、受信機では、当該サービス1のサービスIDに対応した最小限のサービスの選局を行うための情報(ポート番号やTSI等)が取得される。そして、受信機では、DCTが取得されることで、サービス1を構成する主映像と主音声のストリームに接続するためのIPアドレス、ポート番号、及び、TSIが特定されるので、主映像と主音声のストリームに接続される(S44)。 In FIG. 6, since the service 1 (“SC1” in FIG. 6) is selected by the user's operation, the receiver selects a minimum service corresponding to the service ID of the service 1. Information (port number, TSI, etc.) is acquired. The receiver acquires the DCT, so that the IP address, the port number, and the TSI for connecting to the main video and main audio stream constituting the service 1 are specified. Connected to the audio stream (S44).
 受信機では、サービス1におけるTSI=1,2のFLUTEセッションで伝送されるLCTパケットが抽出され、主映像と主音声のセグメントデータが取得されて、主映像と主音声のレンダリング処理が行われる(S45)。これにより、受信機では、サービス1の主映像と主音声が再生される(図6の受信機の画面の映像IM1)。 In the receiver, the LCT packet transmitted in the FLUTE session with TSI = 1, 2 in the service 1 is extracted, the main video and main audio segment data is acquired, and the main video and main audio rendering processing is performed ( S45). As a result, the main video and main audio of the service 1 are reproduced in the receiver (video IM1 on the receiver screen in FIG. 6).
 また、受信機では、サービス1の主映像と主音声のレンダリング処理に並行して、SCSメタデータの取得を試みる。すなわち、受信機では、選局操作に応じたサービスIDから特定されると(S41)、NVRAMに記録されている選局情報(SCD)の選局パラメータから、SC bootstrap情報が特定される。受信機では、SC bootstrap情報のIPアドレス、ポート番号、及び、TSIに従い、サービス1におけるTSI=4のFLUTEセッションで伝送されるSCSストリームに接続される(S46)。 Also, the receiver tries to acquire SCS metadata in parallel with the main video and main audio rendering process of service 1. That is, in the receiver, when the service ID corresponding to the channel selection operation is specified (S41), the SC bootstrap information is specified from the channel selection parameter of the channel selection information (SCD) recorded in the NVRAM. The receiver is connected to the SCS stream transmitted in the FLUTE session of TSI = 4 in the service 1 in accordance with the IP address, port number, and TSI of the SC bootstrap information (S46).
 そして、SCSストリームに接続後に、SCSストリームの1サイクルが経過すると、全てのSCSメタデータが取得され、サービス1を構成する主映像と主音声以外の字幕(Caption)のストリームに接続するための情報が得られる。受信機では、SCSメタデータ(USBD,SDP,MPD等)に従い、字幕のストリームに接続される(S48)。受信機では、サービス1におけるTSI=3のFLUTEセッションで伝送されるLCTパケットが抽出され、字幕のセグメントデータが取得されて、字幕のレンダリング処理が行われる(S49)。 When one cycle of the SCS stream elapses after connection to the SCS stream, all SCS metadata is acquired and information for connecting to the subtitle (Caption) stream other than the main video and main audio constituting the service 1 Is obtained. The receiver is connected to the subtitle stream according to the SCS metadata (USBD, SDP, MPD, etc.) (S48). In the receiver, the LCT packet transmitted in the FLUTE session of TSI = 3 in the service 1 is extracted, caption segment data is acquired, and caption rendering processing is performed (S49).
 これにより、受信機では、サービス1の主映像と主音声とともに、字幕が再生される(図6の受信機の画面の映像IM2)。すなわち、受信機では、先行して優先的に表示されていた主映像に対して、字幕CCが重畳して表示されることになる。 Thus, the receiver reproduces the subtitles together with the main video and main audio of service 1 (video IM2 on the receiver screen in FIG. 6). That is, in the receiver, the subtitle CC is superimposed and displayed on the main video that has been preferentially displayed in advance.
 以上のように、LLSストリームの1サイクルは、基本的に、SCSストリームの1サイクルよりも短いので、DCTをLLSストリームで伝送した場合には、SCSメタデータに先行して取得されるDCTを迅速に取得して、主映像と主音声を再生することができる(図6の受信機の画面の映像IM1)。また、それと同時に、SCSストリームで伝送されるSCSメタデータの取得を試みるので、全てのSCSメタデータを取得できた後は、先行して表示されていた主映像に対して、字幕CCを重畳して表示させることができる(図6の受信機の画面の映像IM2)。 As described above, since one cycle of the LLS stream is basically shorter than one cycle of the SCS stream, when the DCT is transmitted using the LLS stream, the DCT acquired prior to the SCS metadata can be quickly obtained. And the main video and main audio can be reproduced (video IM1 on the receiver screen in FIG. 6). At the same time, since it tries to acquire the SCS metadata transmitted in the SCS stream, after all the SCS metadata is acquired, the subtitle CC is superimposed on the previously displayed main video. (Image IM2 on the receiver screen in FIG. 6).
 このように、主映像と主音声が先行して優先的に再生されるようにすることで、字幕等の副次的な情報に比べて、優先度の高い主映像と主音声等の主の情報を優先的に提供できるので、ユーザに対して不自然な感じを与えずに、番組を視聴させることができる。 In this way, the main video and the main audio are played back in advance, so that the main video and main audio such as the main video and the main audio having a higher priority than the secondary information such as subtitles are reproduced. Since information can be provided preferentially, the program can be viewed without giving the user an unnatural feeling.
(2)運用例2:DCTをSCSで伝送 (2) Operation example 2: DCT is transmitted by SCS
(選局処理)
 図7は、DCTをSCSで伝送する運用である運用例2の選局処理を説明する図である。図7おいては、受信機での選局処理を説明するために、送信機から受信機に送信されるデジタル放送信号から得られるBBPストリームが模式的に図示されている。このBBPストリームで伝送される、サービスを構成するコンポーネントやSCSのストリームと、LLSストリームなどについては、上述した図3等と同様とされる。
(Channel selection processing)
FIG. 7 is a diagram for explaining a channel selection process in Operation Example 2 which is an operation of transmitting DCT by SCS. FIG. 7 schematically shows a BBP stream obtained from a digital broadcast signal transmitted from the transmitter to the receiver in order to explain the channel selection processing at the receiver. The components constituting the service, the SCS stream, the LLS stream, and the like transmitted by the BBP stream are the same as those in FIG.
 ここで、受信機において、ユーザにより選局操作が行われると、当該選局操作に応じたサービスIDが特定され(S61)、NVRAMに記録されている選局情報(SCD)の選局パラメータから、物理パラメータとSC bootstrap情報が特定される(S62)。 Here, when the channel selection operation is performed by the user in the receiver, the service ID corresponding to the channel selection operation is specified (S61), and the channel selection parameter of the channel selection information (SCD) recorded in the NVRAM is used. The physical parameters and SC bootstrap information are specified (S62).
 受信機では、物理パラメータとしての周波数とPLP IDに従い、BBPストリームに接続され(S63)、さらに、SC bootstrap情報(IPアドレス、ポート番号、及び、TSI)に従い、サービス1におけるTSI=3のFLUTEセッションで伝送されるSCSストリームに接続される(S64)。 The receiver is connected to the BBP stream according to the frequency and the PLP ID as physical parameters (S63), and further, a FLUTE session with TSI = 3 in the service 1 according to the SC bootstrap information (IP address, port number, and TSI) (S64).
 これにより、受信機では、サービス1におけるTSI=3のFLUTEセッションで伝送されるLCTパケットが抽出されて(S65)、そこから、IS(Initialization Segment)が取得される(S66)。また、受信機では、サービス1におけるTSI=3のFLUTEセッションで伝送されるLCTパケットが抽出されて(S67)、そこから、DCTが取得される(S68)。 Thereby, in the receiver, the LCT packet transmitted in the FLUTE session of TSI = 3 in the service 1 is extracted (S65), and IS (Initialization Segment) is acquired therefrom (S66). In the receiver, the LCT packet transmitted in the FLUTE session with TSI = 3 in the service 1 is extracted (S67), and the DCT is acquired therefrom (S68).
 そして、受信機では、DCTが取得されることで、サービス1を構成する主映像と主音声のストリームに接続するためのIPアドレス、ポート番号、及び、TSIが特定されるので、主映像と主音声のストリームに接続される(S69)。これにより、受信機では、サービス1におけるTSI=1のFLUTEセッションで伝送されるLCTパケットが抽出され(S70)、そこから、主音声のMS(Media Segment)が取得される(S71)。また、受信機では、サービス1におけるTSI=2のFLUTEセッションで伝送されるLCTパケットが抽出され(S70)、そこから、主映像のMSが取得される(S71)。 The receiver acquires the DCT, so that the IP address, the port number, and the TSI for connecting to the main video and main audio stream constituting the service 1 are specified. The audio stream is connected (S69). As a result, the LCT packet transmitted in the FLUTE session with TSI = 1 in the service 1 is extracted at the receiver (S70), and the MS (Media Segment) of the main voice is obtained therefrom (S71). In the receiver, the LCT packet transmitted in the FLUTE session with TSI = 2 in the service 1 is extracted (S70), and the MS of the main video is acquired therefrom (S71).
 なお、TSIごとに、各FLUTEセッションで伝送されるセグメントは、例えば、TOIの値を初期値から順次インクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。 For each TSI, the segment transmitted in each FLUTE session can specify the TOI that changes in time series for each segment, for example, by sequentially incrementing the value of the TOI from the initial value.
 このようにして、受信機では、セグメントとしてのISと、MSが取得され、MSに格納されたセグメントデータが取得されて、主映像と主音声のレンダリング処理が行われる。これにより、受信機では、サービス1の主映像と主音声が再生される。 In this way, in the receiver, the IS and MS as the segment are acquired, the segment data stored in the MS is acquired, and the main video and main audio rendering processing is performed. As a result, the main video and main audio of service 1 are reproduced in the receiver.
 なお、図示はしていないが、受信機では、当該レンダリング処理と並行して、サービス1におけるTSI=3のFLUTEセッションで伝送されるSCSストリームから、SCSメタデータ(USBD,SDP,MPD等)の取得を試みて、サービス1を構成する全てのコンポーネントのストリームに接続するための情報についても取得することになる。そして、当該SCSメタデータが取得された後は、サービス1を構成する主映像と主音声以外のコンポーネント(例えば、第2音声や字幕等(不図示))のストリームに接続することが可能となる。 Although not shown, in the receiver, SCS metadata (USBD, SDP, MPD, etc.) is transmitted from the SCS stream transmitted in the FLUTE session of TSI = 3 in service 1 in parallel with the rendering process. The information for connecting to the streams of all the components constituting the service 1 is also obtained by attempting acquisition. Then, after the SCS metadata is acquired, it is possible to connect to a stream of components other than the main video and main audio (for example, second audio, subtitles, etc. (not shown)) constituting the service 1. .
 以上のように、運用例2では、SCSストリームで伝送されるDCTが、USBD,SDP,MPD等のSCSメタデータに先行して取得され、DCTに含まれる主映像と主音声のストリームに接続するための情報に従い、主映像と主音声のストリームに接続され、主映像と主音声のセグメントデータが優先的に取得され、主映像と主音声のレンダリング処理が行われる。 As described above, in the operation example 2, the DCT transmitted in the SCS stream is acquired prior to the SCS metadata such as USBD, SDP, and MPD, and is connected to the main video and main audio streams included in the DCT. The main video and main audio segment data are preferentially acquired according to the information for the main video and main audio streams, and main video and main audio rendering processing is performed.
 このように、運用例2において、サービス1を構成する全てのコンポーネントのうち、主映像と主音声以外の、例えば第2音声や字幕などが出力されるまでの時間にある程度の時間が必要になることを許容するのであれば、主映像と主音声が、最小限のサービスとして優先的に出力されるようにDCTを記述して、SCSメタデータよりも先行して取得されるようにする。その際、DCTは、SCSメタデータよりもデータサイズが小さいので、送信機では、DCTの伝送周期を、SCSメタデータの伝送周期よりも短くしても、伝送帯域を抑えることができる。その結果として、受信機では、SCSメタデータよりも短い伝送周期で送信されるDCTを直ちに取得して、そのDCTを用い、高速な選局処理を行うことができる。 As described above, in operation example 2, a certain amount of time is required until all components constituting service 1 other than the main video and main audio, for example, the second audio and subtitles are output. If this is allowed, the DCT is described so that the main video and the main audio are preferentially output as a minimum service, and are acquired prior to the SCS metadata. At this time, since the DCT has a data size smaller than that of the SCS metadata, the transmitter can suppress the transmission band even if the DCT transmission cycle is shorter than the transmission cycle of the SCS metadata. As a result, the receiver can immediately acquire a DCT transmitted at a transmission cycle shorter than that of the SCS metadata, and can perform high-speed channel selection processing using the DCT.
(シグナリング構成)
 図8は、DCTをSCSで伝送する運用である運用例2のシグナリングデータの構成を示す図である。
(Signaling configuration)
FIG. 8 is a diagram illustrating a configuration of signaling data in Operation Example 2 which is an operation of transmitting DCT by SCS.
 図8において、LLSとしては、SCD,EAD,RDD等のLLSメタデータが伝送されている。また、SCSとしては、USBD,SDP,MPD等のSCSメタデータとともに、先行取得用メタデータとしてのDCTが伝送されている。SCDには、物理パラメータやSC bootstrap情報が記述されている。受信機は、SC bootstrap情報に従い、SCSストリームに接続することで、FLUTEセッションで伝送されている先行取得用メタデータを取得する。 In FIG. 8, LLS metadata such as SCD, EAD, and RDD is transmitted as LLS. In addition, as SCS, DCT as metadata for pre-acquisition is transmitted together with SCS metadata such as USBD, SDP, and MPD. The SCD describes physical parameters and SC bootstrap information. The receiver acquires the preceding acquisition metadata transmitted in the FLUTE session by connecting to the SCS stream in accordance with the SC bootstrap information.
 DCTには、最小限のサービスの選局を行うための情報として、選局対象のサービスを構成する、主映像と主音声のストリームに接続するための情報として、ポート番号やTSI等の情報が記述されている。受信機は、DCTに従い、FLUTEセッションで伝送されている主映像(図8の「Main Video」)と主音声(図8の「Main Audio」)のストリームに接続して、主映像と主音声のセグメントデータを取得し、主映像と主音声のレンダリング処理を行う。これにより、受信機では、選局対象のサービスの主映像と主音声が再生される。 DCT contains information such as port numbers and TSI as information for connecting to the main video and main audio streams that make up the service to be selected as information for selecting a minimum service. is described. In accordance with DCT, the receiver connects to the stream of main video (“Main Audio” in FIG. 8) and the main audio (“Main Audio” in FIG. 8) transmitted in the FLUTE session. Segment data is acquired and main video and main audio are rendered. As a result, the receiver reproduces the main video and main audio of the service to be selected.
 また、受信機は、主映像と主音声のレンダリング処理と並行して、先行取得用メタデータとともに、FLUTEセッションで伝送されているSCSメタデータ(USBD,SDP,MPD等)の取得を試みて、選局対象のサービスを構成する第2映像(図8の「2nd Video」)と第2音声(図8の「2nd Audio」)のストリームに接続するための情報(IPアドレス、ポート番号、TSI等)を含むSCSメタデータを取得する。 In addition, the receiver tries to acquire the SCS metadata (USBD, SDP, MPD, etc.) transmitted in the FLUTE session together with the metadata for preceding acquisition in parallel with the main video and main audio rendering process. Information (IP address, port number, TSI, etc.) for connecting to the stream of the second video (“2nd Video” in FIG. 8) and the second audio (“2nd Audio” in FIG. 8) constituting the service to be selected ) To get SCS metadata.
 これにより、受信機では、第2映像や第2音声を再生するための準備が整ったことになるので、SCSメタデータ(USBD,SDP,MPD等)に従い、FLUTEセッションで伝送されている第2映像又は第2音声のストリームに接続して、第2映像又は第2音声のセグメントデータを取得し、レンダリング処理を行うことができる。これにより、受信機では、選局対象のサービスの第2映像又は第2音声を再生することができる。 As a result, the receiver is ready to play back the second video and the second audio, so the second transmitted in the FLUTE session according to the SCS metadata (USBD, SDP, MPD, etc.). By connecting to a video or second audio stream, segment data of the second video or second audio can be acquired and a rendering process can be performed. As a result, the receiver can reproduce the second video or the second sound of the service to be selected.
 なお、DCTの後に取得されるSCSメタデータ(例えば、SPDとMPD)によっても、主映像(図8の「Main Video」)と主音声(図8の「Main Audio」)のストリームに接続するための情報が提供される。すなわち、主映像と主音声のストリームに接続するための情報が、DCTとSCSメタデータで重複して規定されていることになるが、例えば、DCTがSCSストリームで伝送されていない場合などには、受信機は、SCSメタデータを用い、主映像と主音声のストリームに接続すればよい。また、受信機は、SCDに記述されたESG bootstrap情報に従い、FLUTEセッションで伝送されているESGを取得することができる。 Note that SCS metadata (for example, SPD and MPD) acquired after DCT is also connected to a stream of main video (“Main Video” in FIG. 8) and main audio (“Main Audio” in FIG. 8). Information is provided. In other words, the information for connecting to the main video and main audio streams is defined redundantly in the DCT and SCS metadata. For example, when the DCT is not transmitted in the SCS stream, etc. The receiver may use the SCS metadata and connect to the main video and main audio streams. In addition, the receiver can acquire the ESG transmitted in the FLUTE session according to the ESG bootstrap information described in the SCD.
(3)運用例3:ショートカット情報をLLSで伝送 (3) Operation example 3: Shortcut information is transmitted by LLS
(選局処理)
 図9は、ショートカット情報をLLSで伝送する運用である運用例3の選局処理を説明する図である。図9おいては、受信機での選局処理を説明するために、送信機から受信機に送信されるデジタル放送信号から得られるBBPストリームが模式的に図示されている。このBBPストリームで伝送される、サービスを構成するコンポーネントやSCSのストリームと、LLSストリームなどについては、上述した図3等と同様とされる。
(Channel selection processing)
FIG. 9 is a diagram for explaining a channel selection process of Operation Example 3 which is an operation of transmitting shortcut information by LLS. FIG. 9 schematically shows a BBP stream obtained from a digital broadcast signal transmitted from the transmitter to the receiver in order to explain the channel selection processing at the receiver. The components constituting the service, the SCS stream, the LLS stream, and the like transmitted by the BBP stream are the same as those in FIG.
 ここで、受信機において、ユーザにより選局操作が行われると、当該選局操作に応じたサービスIDが特定され(S81)、NVRAMに記録されている選局情報(SCD)の選局パラメータから、物理パラメータとSC bootstrap情報が特定される(S82)。 Here, when the channel selection operation is performed by the user in the receiver, the service ID corresponding to the channel selection operation is specified (S81), and from the channel selection parameter of the channel selection information (SCD) recorded in the NVRAM. The physical parameters and SC bootstrap information are specified (S82).
 受信機では、物理パラメータとしての周波数とPLP IDに従い、BBPストリームに接続され(S83)、さらに、SC bootstrap情報(IPアドレス、ポート番号、及び、TSI)に従い、サービス1におけるTSI=3のFLUTEセッションで伝送されるSCSストリームに接続される(S84)。これにより、受信機では、サービス1におけるTSI=3のFLUTEセッションで伝送されるLCTパケットが抽出されて(S85)、そこから、IS(Initialization Segment)が取得される(S86)。 The receiver is connected to the BBP stream according to the frequency and PLP ID as physical parameters (S83), and further, the FLUTE session with TSI = 3 in service 1 according to the SC bootstrap information (IP address, port number, and TSI) (S84). As a result, the receiver extracts the LCT packet transmitted in the FLUTE session with TSI = 3 in the service 1 (S85), and acquires IS (InitializationalSegment) from there (S86).
 また、SCDには、サービス1を構成する主映像と主音声のストリームに接続するための情報として、コンポーネントごとのMIMEタイプ、ポート番号、及び、TSIがそれぞれ記述されている。すなわち、図9のSCDには、運用例1と運用例2ではDCT(先行取得用メタデータ)に記述されている、サービス1における最小限のサービスの選局を行うための情報が埋め込まれている。この情報を、「ショートカット情報」と称して説明する。 Also, the SCD describes the MIME type, port number, and TSI for each component as information for connecting to the main video and main audio streams constituting the service 1. That is, in the operation example 1 and operation example 2, information for selecting a minimum service in the service 1 is embedded in the SCD of FIG. 9 that is described in the DCT (preceding acquisition metadata). Yes. This information will be described as “shortcut information”.
 そして、受信機では、SCDのショートカット情報を参照することで、サービス1を構成する主映像と主音声のストリームに接続するためのIPアドレス、ポート番号、及び、TSIが特定されるので、主映像と主音声のストリームに接続される(S87)。これにより、受信機では、サービス1におけるTSI=1のFLUTEセッションで伝送されるLCTパケットが抽出され(S88)、そこから、主音声のMS(Media Segment)が取得される(S89)。また、受信機では、サービス1におけるTSI=2のFLUTEセッションで伝送されるLCTパケットが抽出され(S88)、そこから、主映像のMSが取得される(S89)。 Then, the receiver identifies the IP address, port number, and TSI for connecting to the main video and main audio stream constituting the service 1 by referring to the SCD shortcut information. Are connected to the main audio stream (S87). As a result, the LCT packet transmitted in the FLUTE session with TSI = 1 in the service 1 is extracted at the receiver (S88), and the MS (Media Segment) of the main voice is acquired therefrom (S89). In the receiver, the LCT packet transmitted in the FLUTE session with TSI = 2 in the service 1 is extracted (S88), and the MS of the main video is acquired therefrom (S89).
 なお、TSIごとに、各FLUTEセッションで伝送されるセグメントは、例えば、TOIの値を初期値から順次インクリメントすることで、セグメントごとに時系列で変化するTOIを特定することができる。 For each TSI, the segment transmitted in each FLUTE session can specify the TOI that changes in time series for each segment, for example, by sequentially incrementing the value of the TOI from the initial value.
 このようにして、受信機では、セグメントとしてのISと、MSが取得され、MSに格納されたセグメントデータが取得されて、主映像と主音声のレンダリング処理が行われる。これにより、受信機では、サービス1の主映像と主音声が再生される。 In this way, in the receiver, the IS and MS as the segment are acquired, the segment data stored in the MS is acquired, and the main video and main audio rendering processing is performed. As a result, the main video and main audio of service 1 are reproduced in the receiver.
 なお、図示はしていないが、受信機では、当該レンダリング処理と並行して、サービス1におけるTSI=3のFLUTEセッションで伝送されるSCSストリームから、SCSメタデータ(USBD,SDP,MPD等)の取得を試みて、サービス1を構成する全てのコンポーネントのストリームに接続するための情報についても取得することになる。そして、当該SCSメタデータが取得された後は、サービス1を構成する主映像と主音声以外のコンポーネント(例えば、第2音声や字幕等(不図示))のストリームに接続することが可能となる。 Although not shown, in the receiver, SCS metadata (USBD, SDP, MPD, etc.) is transmitted from the SCS stream transmitted in the FLUTE session of TSI = 3 in service 1 in parallel with the rendering process. The information for connecting to the streams of all the components constituting the service 1 is also obtained by attempting acquisition. Then, after the SCS metadata is acquired, it is possible to connect to a stream of components other than the main video and main audio (for example, second audio, subtitles, etc. (not shown)) constituting the service 1. .
 以上のように、運用例3では、LLSストリームで伝送されるSCDに含まれるショートカット情報に従い、主映像と主音声のストリームに接続され、主映像と主音声のセグメントデータが優先的に取得され、主映像と主音声のレンダリング処理が行われる。 As described above, in the operation example 3, in accordance with the shortcut information included in the SCD transmitted in the LLS stream, the main video and main audio segment data are connected preferentially, and the main video and main audio segment data are preferentially acquired. The main video and main audio are rendered.
 このように、運用例3において、サービス1を構成する全てのコンポーネントのうち、主映像と主音声以外の、例えば第2音声や字幕などが出力されるまでの時間にある程度の時間が必要になることを許容するのであれば、主映像と主音声が、最小限のサービスとして優先的に出力されるようにショートカット情報を記述してSCDに含めることで、ショートカット情報が、SCSメタデータよりも先行して取得されるようにする。その際、ショートカット情報は、LLSメタデータとしてのSCDに含めて伝送されるので、そのショートカット情報を用い、高速な選局処理を行うことができる。 As described above, in the operation example 3, a certain amount of time is required until the second video, subtitles, and the like other than the main video and the main audio are output among all the components constituting the service 1. If this is allowed, the shortcut information is preceded by the SCS metadata by describing the shortcut information and including it in the SCD so that the main video and the main audio are output preferentially as a minimum service. And get it. At that time, since the shortcut information is included in the SCD as the LLS metadata and transmitted, the shortcut information can be used to perform high-speed channel selection processing.
(シグナリング構成)
 図10は、ショートカット情報をLLSで伝送する運用である運用例3のシグナリングデータの構成を示す図である。
(Signaling configuration)
FIG. 10 is a diagram illustrating a configuration of signaling data in the operation example 3 which is an operation of transmitting the shortcut information by LLS.
 図10において、LLSとしては、SCD,EAD,RDD等のLLSメタデータが伝送されている。また、SCSとしては、USBD,SDP,MPD等のSCSメタデータが伝送されている。SCDには、物理パラメータやSC bootstrap情報とともに、ショートカット情報が記述されている。ショートカット情報には、最小限のサービスの選局を行うための情報として、選局対象のサービスを構成する、主映像と主音声のストリームに接続するための情報(ポート番号やTSI等)が記述されている。 In FIG. 10, LLS metadata such as SCD, EAD, and RDD is transmitted as LLS. Further, as the SCS, SCS metadata such as USBD, SDP, and MPD is transmitted. In the SCD, shortcut information is described together with physical parameters and SC bootstrap information. In the shortcut information, information (port number, TSI, etc.) for connecting to the main video and main audio stream that constitutes the service to be selected is described as information for selecting the minimum service. Has been.
 受信機は、SCDに含まれるショートカット情報に従い、FLUTEセッションで伝送されている主映像(図10の「Main Video」)と主音声(図10の「Main Audio」)のストリームに接続して、主映像と主音声のセグメントデータを取得し、主映像と主音声のレンダリング処理を行う。これにより、受信機では、選局対象のサービスの主映像と主音声が再生される。 In accordance with the shortcut information included in the SCD, the receiver connects to the main video (“Main Video” in FIG. 10) and main audio (“Main Audio” in FIG. 10) streams transmitted in the FLUTE session. The video and main audio segment data is acquired, and the main video and main audio are rendered. As a result, the receiver reproduces the main video and main audio of the service to be selected.
 また、受信機は、主映像と主音声のレンダリング処理と並行して、FLUTEセッションで伝送されているSCSメタデータ(USBD,SDP,MPD等)の取得を試みて、選局対象のサービスを構成する第2映像(図10の「2nd Video」)と第2音声(図10の「2nd Audio」)のストリームに接続するための情報(IPアドレス、ポート番号、TSI等)を含むSCSメタデータを取得する。 In addition to the main video and main audio rendering process, the receiver tries to acquire SCS metadata (USBD, SDP, MPD, etc.) transmitted in the FLUTE session, and configures the service to be selected. SCS metadata including information (IP address, port number, TSI, etc.) for connecting to the stream of the second video (“2nd Video” in FIG. 10) and the second audio (“2nd Audio” in FIG. 10) get.
 これにより、受信機では、第2映像や第2音声を再生するための準備が整ったことになるので、SCSメタデータ(USBD,SDP,MPD等)に従い、FLUTEセッションで伝送されている第2映像又は第2音声のストリームに接続して、第2映像又は第2音声のセグメントデータを取得し、レンダリング処理を行うことができる。これにより、受信機では、選局対象のサービスの第2映像又は第2音声を再生することができる。 As a result, the receiver is ready to play back the second video and the second audio, so the second transmitted in the FLUTE session according to the SCS metadata (USBD, SDP, MPD, etc.). By connecting to a video or second audio stream, segment data of the second video or second audio can be acquired and a rendering process can be performed. As a result, the receiver can reproduce the second video or the second sound of the service to be selected.
 なお、ショートカット情報の後に取得されるSCSメタデータ(例えば、SPDとMPD)によっても、主映像(図10の「Main Video」)と主音声(図10の「Main Audio」)のストリームに接続するための情報が提供される。すなわち、主映像と主音声のストリームに接続するための情報が、ショートカット情報とSCSメタデータで重複して規定されていることになるが、例えば、ショートカット情報がSCDに含まれていない場合などには、受信機は、SCSメタデータを用い、主映像と主音声のストリームに接続すればよい。また、受信機は、SCDに記述されたESG bootstrap情報に従い、FLUTEセッションで伝送されているESGを取得することができる。 Note that SCS metadata (for example, SPD and MPD) acquired after the shortcut information is also connected to the stream of the main video (“Main Video” in FIG. 10) and the main audio (“Main Audio” in FIG. 10). Information is provided. That is, the information for connecting to the main video and main audio stream is defined redundantly in the shortcut information and the SCS metadata. For example, when the shortcut information is not included in the SCD. The receiver may use the SCS metadata and connect to the main video and main audio streams. In addition, the receiver can acquire the ESG transmitted in the FLUTE session according to the ESG bootstrap information described in the SCD.
<3.シンタックスの例> <3. Syntax example>
(バイナリ形式のDCTの構成)
 図11は、バイナリ形式のDCTのシンタックスの例を示す図である。
(Binary DCT configuration)
FIG. 11 is a diagram illustrating an example of DCT syntax in a binary format.
 8ビットのtable_idには、DCTのテーブルIDが指定される。8ビットのversion_numberには、DCTのバージョンが指定される。16ビットのlengthには、テーブル長が指定される。 ∙ DCT table ID is specified in 8-bit table_id. The 8-bit version_number specifies the DCT version. The 16-bit length specifies the table length.
 1ビットのmime_flagには、MIMEタイプの有無を示すフラグが指定される。1ビットのport_num_flagには、ポート番号の有無を示すフラグが指定される。1ビットのtsi_flagには、TSIの有無を示すフラグが指定される。5ビットのreservedは、将来の拡張用の領域である。 The 1-bit mime_flag specifies a flag indicating the presence or absence of MIME type. In 1-bit port_num_flag, a flag indicating the presence or absence of a port number is specified. In 1-bit tsi_flag, a flag indicating the presence or absence of TSI is specified. The 5-bit reserved is an area for future expansion.
 video_componentには、最小限のサービスとしての主映像のストリームに接続するための情報が指定される。mime_typeには、mime_flagが"TURE"の場合に、8ビットのMIMEタイプが指定される。port_numberには、port_num_flagが"TURE"の場合に、16ビットのポート番号が指定される。TSIには、tsi_flagが"TURE"の場合に、16ビットのTSIが指定される。 In video_component, information for connecting to the main video stream as a minimum service is specified. In mime_type, when mime_flag is "TURE", an 8-bit MIME type is specified. In port_number, when port_num_flag is “TURE”, a 16-bit port number is specified. In TSI, 16-bit TSI is specified when tsi_flag is "TURE".
 audio_componentには、最小限のサービスとしての主音声のストリームに接続するための情報が指定される。mime_typeには、mime_flagが"TURE"の場合に、8ビットのMIMEタイプが指定される。port_numberには、port_num_flagが"TURE"の場合に、16ビットのポート番号が指定される。TSIには、tsi_flagが"TURE"の場合に、16ビットのTSIが指定される。なお、video_componentと、audio_componentにおいて、mime_flag,port_num_flag,tsi_flagが"FALSE"の場合には、運用などで別途規定される値が用いられることから、mime_type,port_number,TSIは、伝送されないようにする。これにより、DCTのデータサイズをさらに削減することができる。 In audio_component, information for connecting to the main audio stream as a minimum service is specified. In mime_type, when mime_flag is "TURE", an 8-bit MIME type is specified. In port_number, when port_num_flag is “TURE”, a 16-bit port number is specified. In TSI, 16-bit TSI is specified when tsi_flag is "TURE". In video_component and audio_component, when mime_flag, port_num_flag, and tsi_flag are “FALSE”, values specified separately in operation and the like are used, so mime_type, port_number, and TSI are not transmitted. As a result, the data size of the DCT can be further reduced.
 また、図12に示すように、バイナリ形式のDCTには、16ビットのservice_idにより、サービスIDを指定することができる。すなわち、上述した運用例1の場合、LLSでDCTを伝送するため、サービスごとにDCTを伝送する必要があるので、この場合には、サービスIDを指定して、各サービス用のDCTを識別する。したがって、運用例1を採用した場合には、図12のDCTが用いられる。 In addition, as shown in FIG. 12, a service ID can be specified by a 16-bit service_id in the binary DCT. That is, in the case of operation example 1 described above, since DCT is transmitted by LLS, it is necessary to transmit DCT for each service. In this case, the service ID is specified to identify the DCT for each service. . Therefore, when the operation example 1 is adopted, the DCT of FIG. 12 is used.
 一方、上述した運用例2の場合、SCSでDCTを伝送するため、特定のサービスのDCTを伝送することができるので、サービスIDを指定する必要はない。したがって、運用例2を採用した場合には、図11のDCTが用いられる。なお、図11と図12に示したバイナリ形式のDCTのシンタックスの構成は、一例であって、他の構成を採用するようにしてもよい。 On the other hand, in the case of operation example 2 described above, since the DCT is transmitted by the SCS, it is possible to transmit the DCT of a specific service, so there is no need to specify the service ID. Therefore, when the operation example 2 is adopted, the DCT of FIG. 11 is used. Note that the configuration of the binary DCT syntax shown in FIGS. 11 and 12 is an example, and other configurations may be adopted.
(XML形式のDCTの構成)
 図13は、XML形式のDCTのシンタックスの例を示す図である。
(Configuration of DCT in XML format)
FIG. 13 is a diagram illustrating an example of DCT syntax in XML format.
 図13において、要素と属性のうち、属性には「@」が付されている。また、インデントされた要素と属性は、その上位の要素に対して指定されたものとなる。また、図13において、出現数(Cardinality)であるが、"1"が指定された場合にはその要素又は属性は必ず1つだけ指定され、"0..1"が指定された場合には、その要素又は属性を指定するかどうかは任意である。 In FIG. 13, among the elements and attributes, “@” is added to the attribute. Further, the indented element and attribute are specified for the upper element. In addition, in FIG. 13, the number of occurrences (Cardinality), but when "1" is specified, only one element or attribute is specified, and when "0..1" is specified Specifying the element or attribute is optional.
 図13において、DCD要素は、ServiceID要素、video要素、及び、audio要素の上位要素となる。ServiceID要素には、サービスIDが指定される。サービスIDは、オプショナルな値であって、上述した運用例1の場合には指定されるが、運用例2の場合には指定する必要がない。 In FIG. 13, the DCD element is an upper element of the ServiceID element, the video element, and the audio element. In the ServiceID element, a service ID is specified. The service ID is an optional value and is specified in the case of operation example 1 described above, but need not be specified in the case of operation example 2.
 video要素には、最小限のサービスとしての主映像のストリームに接続するための情報が指定される。video要素は、mime_type属性、port_number属性、及び、TSI属性の上位要素となる。mime_type属性には、MIMEタイプが指定される。port_number属性には、ポート番号が指定される。TSI属性には、TSIが指定される。 In the video element, information for connecting to the main video stream as a minimum service is specified. The video element is an upper element of the mime_type attribute, the port_number attribute, and the TSI attribute. In the mime_type attribute, a MIME type is specified. A port number is specified in the port_number attribute. TSI is specified as the TSI attribute.
 audio要素には、最小限のサービスとしての主音声のストリームに接続するための情報が指定される。audio要素は、mime_type属性、port_number属性、及び、TSI属性の上位要素となる。mime_type属性には、MIMEタイプが指定される。port_number属性には、ポート番号が指定される。TSI属性には、TSIが指定される。 In the audio element, information for connecting to the main audio stream as a minimum service is specified. The audio element is an upper element of the mime_type attribute, the port_number attribute, and the TSI attribute. In the mime_type attribute, a MIME type is specified. A port number is specified in the port_number attribute. TSI is specified as the TSI attribute.
 なお、図13に示したXML形式のDCTのシンタックスの構成は、一例であって、他の構成を採用するようにしてもよい。 The configuration of the XML format DCT syntax shown in FIG. 13 is merely an example, and other configurations may be adopted.
<4.システムの構成> <4. System configuration>
(放送通信システムの構成例)
 図14は、本技術を適用した放送通信システムの一実施の形態の構成を示す図である。
(Configuration example of broadcasting communication system)
FIG. 14 is a diagram illustrating a configuration of an embodiment of a broadcast communication system to which the present technology is applied.
 図14において、放送通信システム1は、放送と通信が連携して、各種のサービスを提供することができるシステムであって、上述した最小限のサービスの選局を行うための情報を、SCSメタデータに先行して取得させることで、最小限のサービスを優先して高速に選局させることができるシステムである。 In FIG. 14, the broadcast communication system 1 is a system that can provide various services in cooperation with broadcast and communication. Information for selecting the above-mentioned minimum service is stored in the SCS meta data. By acquiring data in advance, it is a system that can select a high-speed channel with priority on a minimum service.
 図14の放送通信システム1は、送信装置10、受信装置20、データ提供サーバ30、及び、ストリーミングサーバ40から構成される。また、図14において、受信装置20は、インターネット等のネットワーク90を介して、ストリーミングサーバ40と相互に接続されている。 The broadcast communication system 1 in FIG. 14 includes a transmission device 10, a reception device 20, a data providing server 30, and a streaming server 40. In FIG. 14, the receiving device 20 is connected to the streaming server 40 via a network 90 such as the Internet.
 送信装置10は、上述した送信機(例えば、図3,図7,図9等)に相当するものであり、例えば放送事業者により提供される。送信装置10は、データ提供サーバ30から提供されるコンポーネントのデータを、IP伝送方式を用いたデジタル放送の放送波によって送信する。また、送信装置10は、データ提供サーバ30から提供されるシグナリングデータの元データを用いて、シグナリングデータを生成し、コンポーネントのデータとともに、IP伝送方式を用いたデジタル放送の放送波で送信する。 The transmission device 10 corresponds to the above-described transmitter (for example, FIG. 3, FIG. 7, FIG. 9, etc.), and is provided by, for example, a broadcaster. The transmission device 10 transmits component data provided from the data providing server 30 by a broadcast wave of digital broadcasting using an IP transmission method. Further, the transmission device 10 generates signaling data by using the original data of the signaling data provided from the data providing server 30 and transmits it together with component data by a broadcast wave of digital broadcasting using the IP transmission method.
 なお、ビデオやオーディオ、字幕等のコンポーネントのデータを、FLUTEセッションで伝送する場合には、各コンポーネントのファイルを、ISO BMFF(Base Media File Format)の規定に準じたセグメントごとに分割し、それにより得られるセグメントデータをLCTパケットに格納して伝送する。このセグメントは、IS(Initialization Segment)と、MS(Media Segment)から構成される。 When transmitting component data such as video, audio, subtitles, etc. in a FLUTE session, the file of each component is divided into segments according to the ISO BMFF (Base Media File Format), The obtained segment data is stored in an LCT packet and transmitted. This segment is composed of IS (Initialization Segment) and MS (Media Segment).
 また、上述した運用例1を採用した場合、シグナリングデータとして、先行取得用メタデータ(DCT又はDCD)が生成され、LLSメタデータとともに、LLSで伝送される。また、上述した運用例2を採用した場合、シグナリングデータとして、先行取得用メタデータ(DCT又はDCD)が生成され、SCSメタデータとともに、SCSでFLUTEセッションにより伝送される。また、上述した運用例3を採用した場合、シグナリングデータとして、ショートカット情報を含むSCDが生成され、LLSメタデータとしてLLSで伝送される。 Further, when the operation example 1 described above is adopted, the prior acquisition metadata (DCT or DCD) is generated as the signaling data, and is transmitted along with the LLS metadata by the LLS. Further, when the operation example 2 described above is adopted, the metadata for pre-acquisition (DCT or DCD) is generated as signaling data, and is transmitted along with the SCS metadata through the FLUTE session in the SCS. Further, when the operation example 3 described above is adopted, an SCD including shortcut information is generated as signaling data, and is transmitted by LLS as LLS metadata.
 受信装置20は、上述した受信機(例えば、図3,図7,図9等)に相当するものであり、例えば各家庭等に設置される。受信装置20は、送信装置10から送信されるデジタル放送の放送波を受信し、当該デジタル放送の放送波で伝送されるシグナリングデータを取得する。受信装置20は、取得されたシグナリングデータに基づいて、送信装置10から送信されるデジタル放送の放送波で伝送されるコンポーネントのデータを取得して、そのデータに対応する映像と音声を再生(出力)する。 The receiving device 20 corresponds to the above-described receiver (for example, FIG. 3, FIG. 7, FIG. 9, etc.), and is installed in each home, for example. The receiving device 20 receives a broadcast wave of a digital broadcast transmitted from the transmission device 10 and acquires signaling data transmitted by the broadcast wave of the digital broadcast. Based on the acquired signaling data, the receiving device 20 acquires component data transmitted by the broadcast wave of the digital broadcast transmitted from the transmitting device 10, and reproduces (outputs) video and audio corresponding to the data. )
 データ提供サーバ30は、ビデオやオーディオ、字幕等のコンポーネントのデータを、送信装置10及びストリーミングサーバ40の少なくとも一方に提供する。また、データ提供サーバ30は、シグナリングデータの元データを、送信装置10に提供する。なお、データ提供サーバ30は、シグナリングデータの元データの代わりに、シグナリングデータを生成して、送信装置10に提供するようにしてもよい。 The data providing server 30 provides component data such as video, audio, and subtitles to at least one of the transmission device 10 and the streaming server 40. In addition, the data providing server 30 provides the original data of the signaling data to the transmitting device 10. Note that the data providing server 30 may generate signaling data instead of the original data of the signaling data and provide it to the transmission device 10.
 ストリーミングサーバ40は、受信装置20からの要求に応じて、データ提供サーバ30から提供されるコンポーネントのデータを、ネットワーク90を介してストリーミング配信する。なお、ストリーミングサーバ40は、例えば、放送事業者により提供される。また、ストリーミングサーバ40がシグナリングデータを生成して、受信装置20からの要求に応じて、ネットワーク90を介してシグナリングデータを配信するようにしてもよい。 The streaming server 40 performs streaming distribution of the component data provided from the data providing server 30 via the network 90 in response to a request from the receiving device 20. The streaming server 40 is provided by, for example, a broadcaster. Further, the streaming server 40 may generate signaling data and distribute the signaling data via the network 90 in response to a request from the receiving device 20.
 受信装置20は、送信装置10からのシグナリングデータに基づいて、ストリーミングサーバ40からネットワーク90を介してストリーミング配信されるコンポーネントのデータを取得して、そのデータに対応する映像と音声を再生(出力)する。 Based on the signaling data from the transmission device 10, the reception device 20 acquires component data that is streamed from the streaming server 40 via the network 90, and reproduces (outputs) video and audio corresponding to the data. To do.
 放送通信システム1は、以上のように構成される。次に、図15乃至図17を参照して、図14の放送通信システム1を構成する各装置の詳細な構成として、送信装置10と受信装置20の構成について説明する。 The broadcast communication system 1 is configured as described above. Next, with reference to FIGS. 15 to 17, the configuration of the transmission device 10 and the reception device 20 will be described as a detailed configuration of each device configuring the broadcast communication system 1 of FIG. 14.
(送信装置の構成例)
 図15は、本技術を適用した送信装置の一実施の形態の構成を示す図である。
(Configuration example of transmitter)
FIG. 15 is a diagram illustrating a configuration of an embodiment of a transmission device to which the present technology is applied.
 図15に示すように、送信装置10は、シグナリング生成部111、シグナリング処理部112、ビデオデータ取得部113、ビデオエンコーダ114、オーディオデータ取得部115、オーディオエンコーダ116、字幕データ取得部117、字幕エンコーダ118、Mux119、及び、送信部120から構成される。 As illustrated in FIG. 15, the transmission device 10 includes a signaling generation unit 111, a signaling processing unit 112, a video data acquisition unit 113, a video encoder 114, an audio data acquisition unit 115, an audio encoder 116, a caption data acquisition unit 117, and a caption encoder. 118, Mux 119, and transmission unit 120.
 シグナリング生成部111は、データ提供サーバ30から提供されるシグナリングデータの元データを用いて、シグナリングデータを生成し、シグナリング処理部112に供給する。シグナリング処理部112は、シグナリング生成部111から供給されるシグナリングデータを処理し、Mux119に供給する。 The signaling generation unit 111 generates signaling data using the original data of the signaling data provided from the data providing server 30 and supplies it to the signaling processing unit 112. The signaling processing unit 112 processes the signaling data supplied from the signaling generation unit 111 and supplies it to the Mux 119.
 ここでは、シグナリングデータとして、SCD,RRD,EAD等のLLSメタデータと、USBD,SDP,MPD等のSCSメタデータが生成される。ただし、運用例1と運用例2を採用した場合には、先行取得用メタデータとしてのDCT又はDCDが生成される。また、運用例3を採用した場合には、ショートカット情報を含むSCDが生成される。 Here, as signaling data, LLS metadata such as SCD, RRD, and EAD and SCS metadata such as USBD, SDP, and MPD are generated. However, when operation example 1 and operation example 2 are adopted, DCT or DCD as the prior acquisition metadata is generated. When operation example 3 is adopted, an SCD including shortcut information is generated.
 ビデオデータ取得部113は、データ提供サーバ30から提供されるビデオデータを取得し、ビデオエンコーダ114に供給する。なお、ビデオデータは、内蔵するストレージやビデオカメラ等から取得されるようにしてもよい。ビデオエンコーダ114は、ビデオデータ取得部113から供給されるビデオデータを、MPEG(Moving Picture Experts Group)等の符号化方式に準拠して符号化し、Mux119に供給する。 The video data acquisition unit 113 acquires video data provided from the data providing server 30 and supplies the video data to the video encoder 114. Note that the video data may be acquired from a built-in storage, a video camera, or the like. The video encoder 114 encodes the video data supplied from the video data acquisition unit 113 in accordance with an encoding method such as MPEG (Moving Picture Experts Group) and supplies the encoded data to the Mux 119.
 オーディオデータ取得部115は、データ提供サーバ30から提供されるオーディオデータを取得し、オーディオエンコーダ116に供給する。なお、オーディオデータは、内蔵するストレージやマイクロフォン等から取得されるようにしてもよい。オーディオエンコーダ116は、オーディオデータ取得部115から供給されるオーディオデータを、MPEG等の符号化方式に準拠して符号化し、Mux119に供給する。 The audio data acquisition unit 115 acquires audio data provided from the data providing server 30 and supplies the audio data to the audio encoder 116. Note that the audio data may be acquired from a built-in storage, a microphone, or the like. The audio encoder 116 encodes the audio data supplied from the audio data acquisition unit 115 in accordance with an encoding method such as MPEG, and supplies the encoded audio data to the Mux 119.
 字幕データ取得部117は、データ提供サーバ30から提供される字幕データを取得し、字幕エンコーダ118に供給する。字幕エンコーダ118は、字幕データ取得部117から供給される字幕データを、MPEG等の符号化方式に準拠して符号化し、Mux119に供給する。 The subtitle data acquisition unit 117 acquires subtitle data provided from the data providing server 30 and supplies it to the subtitle encoder 118. The caption encoder 118 encodes the caption data supplied from the caption data acquisition unit 117 in accordance with an encoding method such as MPEG, and supplies the encoded data to the Mux 119.
 Mux119は、シグナリング処理部112からのシグナリングデータと、ビデオエンコーダ114からのビデオのストリームと、オーディオエンコーダ116からのオーディオのストリームと、字幕エンコーダ118からの字幕のストリームを多重化してBBPストリームを生成し、送信部120に供給する。送信部120は、Mux119から供給されるBBPストリームをデジタル放送信号として、アンテナ121を介して送信する。 The Mux 119 generates a BBP stream by multiplexing the signaling data from the signaling processing unit 112, the video stream from the video encoder 114, the audio stream from the audio encoder 116, and the subtitle stream from the subtitle encoder 118. To the transmission unit 120. The transmission unit 120 transmits the BBP stream supplied from the Mux 119 via the antenna 121 as a digital broadcast signal.
 なお、ビデオやオーディオ、字幕等のコンポーネントのストリームを、FLUTEセッションで伝送する場合には、各コンポーネントのファイルを、ISO BMFFの規定に準じたセグメントごとに分割し、それにより得られるセグメントデータをLCTパケットに格納して伝送することになる。 When transmitting a stream of components such as video, audio, subtitles, etc. in a FLUTE session, the file of each component is divided into segments in accordance with the ISO FFFF regulations, and the segment data obtained thereby is LCT. It is stored in a packet and transmitted.
 また、上述した運用例1を採用した場合、先行取得用メタデータ(DCT又はDCD)は、LLSメタデータ(SCD,RRD,EAD等)とともに、LLSで伝送される。また、上述した運用例2を採用した場合、先行取得用メタデータ(DCT又はDCD)は、SCSメタデータ(USBD,SDP,MPD等)とともに、SCSでFLUTEセッションにより伝送される。さらに、上述した運用例3を採用した場合、ショートカット情報を含むSCDは、LLSメタデータとしてLLSで伝送される。 Further, when the operation example 1 described above is adopted, the metadata for pre-acquisition (DCT or DCD) is transmitted by LLS together with the LLS metadata (SCD, RRD, EAD, etc.). When the operation example 2 described above is adopted, the metadata for pre-acquisition (DCT or DCD) is transmitted through the FLUTE session in the SCS together with the SCS metadata (USBD, SDP, MPD, etc.). Furthermore, when the operation example 3 described above is adopted, the SCD including the shortcut information is transmitted by LLS as LLS metadata.
 さらに、デジタル放送信号において、LLSとして伝送されるLLSメタデータ(SCD,RRD,EAD等)を格納したLLSパケットのLLSヘッダ、あるいは、SCSとして伝送されるSCSメタデータ(USBD,SDP,MPD等)を格納したLCTパケットのLCTヘッダには、圧縮情報(CO)、タイプ情報(Type)、拡張フィルタ情報(Filter_Extension)、又は、バージョン情報(Data_Version)などのフィルタリング情報を配置することができる。 Furthermore, in digital broadcast signals, LLS headers of LLS packets that store LLS metadata (SCD, RRD, EAD, etc.) transmitted as LLS, or SCS metadata (USBD, SDP, MPD, etc.) transmitted as SCS Filtering information such as compression information (CO), type information (Type), extension filter information (Filter_Extension), or version information (Data_Version) can be arranged in the LCT header of the LCT packet in which is stored.
 ここで、圧縮情報には、対象のシグナリングデータの圧縮の有無を示す情報が指定される。タイプ情報には、対象のシグナリングデータのタイプを示す情報が指定される。拡張フィルタ情報には、シグナリングデータのタイプごとに設定される拡張されたフィルタリング情報が任意に設定される。バージョン情報には、対象のシグナリングデータのバージョンを示す情報が指定される。これにより、受信装置20では、LLSヘッダ又はLCTヘッダのフィルタリング情報を用い、LLSパケット又はLCTパケットのフィルタリング処理を行うことで、対象のシグナリングデータを取得することができる。 Here, in the compression information, information indicating whether or not the target signaling data is compressed is designated. In the type information, information indicating the type of target signaling data is specified. In the extended filter information, extended filtering information set for each type of signaling data is arbitrarily set. In the version information, information indicating the version of the target signaling data is specified. Thereby, the receiving apparatus 20 can acquire target signaling data by performing filtering processing of the LLS packet or the LCT packet using the filtering information of the LLS header or the LCT header.
(受信装置の構成例)
 図16は、本技術を適用した受信装置の一実施の形態の構成を示す図である。
(Configuration example of receiving device)
FIG. 16 is a diagram illustrating a configuration of an embodiment of a reception device to which the present technology is applied.
 図16に示すように、受信装置20は、チューナ212、Demux213、制御部214、NVRAM215、入力部216、通信部217、Demux218、ビデオデコーダ219、ビデオ出力部220、オーディオデコーダ221、オーディオ出力部222、及び、字幕デコーダ223から構成される。 As illustrated in FIG. 16, the reception device 20 includes a tuner 212, a Demux 213, a control unit 214, an NVRAM 215, an input unit 216, a communication unit 217, a Demux 218, a video decoder 219, a video output unit 220, an audio decoder 221, and an audio output unit 222. , And a caption decoder 223.
 チューナ212は、制御部214からの制御に従い、アンテナ211を介して受信したIP伝送方式を用いたデジタル放送の放送波から、ユーザの選局操作に応じたデジタル放送信号を抽出して復調し、その結果得られるBBPストリームを、Demux213に供給する。 The tuner 212 extracts and demodulates a digital broadcast signal corresponding to the user's channel selection operation from the broadcast wave of the digital broadcast using the IP transmission method received via the antenna 211 according to the control from the control unit 214. The resulting BBP stream is supplied to the Demux 213.
 Demux213は、制御部214からの制御に従い、チューナ212から供給されるBBPストリームを、ビデオやオーディオ、字幕のストリームと、シグナリングデータに分離する。Demux213は、ビデオデータをビデオデコーダ219に、オーディオデータをオーディオデコーダ221に、字幕データを字幕デコーダ223に、シグナリングデータを制御部214にそれぞれ供給する。 The Demux 213 separates the BBP stream supplied from the tuner 212 into video, audio, and subtitle streams and signaling data in accordance with control from the control unit 214. The Demux 213 supplies video data to the video decoder 219, audio data to the audio decoder 221, subtitle data to the subtitle decoder 223, and signaling data to the control unit 214.
 制御部214は、受信装置20の各部の動作を制御する。また、制御部214は、Demux213から供給されるシグナリングデータに基づいて、放送又は通信で伝送されるコンポーネントのストリームを取得するために、各部の動作を制御する。なお、制御部214の詳細な構成については、図17を参照して後述する。 The control unit 214 controls the operation of each unit of the receiving device 20. Further, the control unit 214 controls the operation of each unit in order to obtain a component stream transmitted by broadcasting or communication based on the signaling data supplied from the Demux 213. The detailed configuration of the control unit 214 will be described later with reference to FIG.
 NVRAM215は、不揮発性メモリであって、制御部214からの制御に従い、各種のデータを記録する。入力部216は、ユーザの操作に応じて、操作信号を制御部214に供給する。 The NVRAM 215 is a non-volatile memory, and records various data according to the control from the control unit 214. The input unit 216 supplies an operation signal to the control unit 214 in accordance with a user operation.
 通信部217は、制御部214からの制御に従い、ネットワーク90を介してストリーミングサーバ40にアクセスし、コンポーネントのストリームの配信を要求する。通信部217は、ネットワーク90を介してストリーミングサーバ40からストリーミング配信されるコンポーネントのストリームを受信して、Demux218に供給する。 The communication unit 217 accesses the streaming server 40 via the network 90 according to the control from the control unit 214 and requests distribution of the component stream. The communication unit 217 receives a stream of components streamed from the streaming server 40 via the network 90 and supplies the stream to the Demux 218.
 Demux218は、制御部214からの制御に従い、通信部217から供給されるコンポーネントのストリームを、ビデオデータと、オーディオデータと、字幕データに分離し、ビデオデータをビデオデコーダ219に、オーディオデータをオーディオデコーダ221に、字幕データを字幕デコーダ223に供給する。 In accordance with control from the control unit 214, the Demux 218 separates the component stream supplied from the communication unit 217 into video data, audio data, and subtitle data, the video data to the video decoder 219, and the audio data to the audio decoder. In 221, the caption data is supplied to the caption decoder 223.
 ビデオデコーダ219には、Demux213又はDemux218からビデオデータが供給される。ビデオデコーダ219は、制御部214からの制御に従い、ビデオデータを、MPEG等の復号方式に準拠して復号し、ビデオ出力部220に供給する。ビデオ出力部220は、ビデオデコーダ219から供給されるビデオデータを、後段のディスプレイ(不図示)に出力する。これにより、ディスプレイには、例えば番組の映像が表示される。 Video data is supplied to the video decoder 219 from the Demux 213 or Demux 218. The video decoder 219 decodes video data in accordance with a decoding scheme such as MPEG in accordance with control from the control unit 214 and supplies the video data to the video output unit 220. The video output unit 220 outputs the video data supplied from the video decoder 219 to a subsequent display (not shown). Thereby, for example, the video of the program is displayed on the display.
 オーディオデコーダ221には、Demux213又はDemux218からオーディオデータが供給される。オーディオデコーダ221は、制御部214からの制御に従い、オーディオデータを、MPEG等の復号方式に準拠して復号し、オーディオ出力部222に供給する。オーディオ出力部222は、オーディオデコーダ221から供給されるオーディオデータを、後段のスピーカ(不図示)に出力する。これにより、スピーカからは、例えば番組の映像に対応する音声が出力される。 Audio data is supplied to the audio decoder 221 from the Demux 213 or Demux 218. The audio decoder 221 decodes audio data in accordance with a decoding scheme such as MPEG in accordance with control from the control unit 214 and supplies the audio data to the audio output unit 222. The audio output unit 222 outputs the audio data supplied from the audio decoder 221 to a subsequent speaker (not shown). Thereby, for example, sound corresponding to the video of the program is output from the speaker.
 字幕デコーダ223には、Demux213又はDemux218から字幕データが供給される。字幕デコーダ223は、制御部214からの制御に従い、字幕データを、MPEG等の復号方式に準拠して復号し、ビデオ出力部220に供給する。ビデオ出力部220は、字幕デコーダ223から供給される字幕データを、ビデオデコーダ219から供給されるビデオデータと合成して、後段のディスプレイに出力する。これにより、ディスプレイには、例えば番組の映像に重畳された字幕が表示される。 Subtitle data is supplied from the Demux 213 or Demux 218 to the subtitle decoder 223. The subtitle decoder 223 decodes the subtitle data in accordance with a decoding scheme such as MPEG in accordance with the control from the control unit 214 and supplies it to the video output unit 220. The video output unit 220 synthesizes the caption data supplied from the caption decoder 223 with the video data supplied from the video decoder 219, and outputs the synthesized data to the subsequent display. Thereby, for example, the subtitle superimposed on the video of the program is displayed on the display.
 なお、図16の受信装置20においては、ディスプレイやスピーカが外部に設けられている構成となっているが、受信装置20がディスプレイやスピーカを有する構成としてもよい。この場合、例えば、受信装置20は、テレビ受像機として構成され、ユーザの各家庭等に設置される。なお、受信装置20は、テレビ受像機に限らず、例えば、スマートフォンや携帯電話機などの携帯通信端末、パーソナルコンピュータやタブレット型コンピュータ等の情報機器として構成されるようにしてもよい。 Note that the receiving device 20 in FIG. 16 has a configuration in which a display and a speaker are provided outside, but the receiving device 20 may have a configuration having a display and a speaker. In this case, for example, the receiving device 20 is configured as a television receiver and is installed in each home of the user. Note that the receiving device 20 is not limited to a television receiver, and may be configured as, for example, a mobile communication terminal such as a smartphone or a mobile phone, or an information device such as a personal computer or a tablet computer.
(制御部の機能的構成例)
 図17は、図16の制御部214における、初期スキャン処理、選局処理、フィルタリング処理、及び、通信処理の制御を行う部分の機能的構成例を示す図である。
(Functional configuration example of control unit)
FIG. 17 is a diagram illustrating a functional configuration example of a portion that controls the initial scan process, the channel selection process, the filtering process, and the communication process in the control unit 214 of FIG.
 図17において、制御部214は、選局制御部251、パケットヘッダ監視部252、フィルタリング制御部253、シグナリング取得部254、シグナリング解析部255、及び、通信制御部256から構成される。 17, the control unit 214 includes a channel selection control unit 251, a packet header monitoring unit 252, a filtering control unit 253, a signaling acquisition unit 254, a signaling analysis unit 255, and a communication control unit 256.
 選局制御部251は、チューナ212により実行される選局処理を制御する。フィルタリング制御部253は、Demux213により実行されるフィルタリング処理を制御する。 The channel selection control unit 251 controls the channel selection process executed by the tuner 212. The filtering control unit 253 controls the filtering process executed by the Demux 213.
 初期スキャン処理時においては、選局制御部251がチューナ212を制御し、フィルタリング制御部253がDemux213を制御することで、シグナリング取得部254によって、LLSとして伝送されるLLSメタデータが取得され、シグナリング解析部255に供給される。シグナリング解析部255は、シグナリング取得部254からのLLSメタデータ(SCD等)を解析して得られる選局情報を、NVRAM215に記録する。 At the time of the initial scan processing, the channel selection control unit 251 controls the tuner 212 and the filtering control unit 253 controls the Demux 213, whereby the LLS metadata transmitted as the LLS is acquired by the signaling acquisition unit 254, and the signaling The data is supplied to the analysis unit 255. The signaling analysis unit 255 records channel selection information obtained by analyzing the LLS metadata (SCD or the like) from the signaling acquisition unit 254 in the NVRAM 215.
 選局制御部251は、ユーザにより選局操作が行われた場合、入力部216からの操作信号に応じて、NVRAM215に記録された選局情報を取得する。選局制御部251は、取得された選局情報に基づいて、チューナ212により実行される選局処理を制御する。また、選局制御部251は、選局情報に含まれるSC Bootstrap情報を、フィルタリング制御部253に供給する。 When the channel selection operation is performed by the user, the channel selection control unit 251 acquires the channel selection information recorded in the NVRAM 215 according to the operation signal from the input unit 216. The channel selection control unit 251 controls the channel selection process executed by the tuner 212 based on the acquired channel selection information. Further, the channel selection control unit 251 supplies the SC bootstrap information included in the channel selection information to the filtering control unit 253.
 ここで、上述した運用例1を採用した場合、シグナリング取得部254は、LLSストリームで伝送されているDCTを取得し、シグナリング解析部255に供給する。シグナリング解析部255は、シグナリング取得部254から供給されるDCTを解析し、その解析結果をフィルタリング制御部253に供給する。この解析結果としては、最小限のサービスの選局を行うための情報として、選局対象のサービスを構成する主映像と主音声のストリームに接続するためのポート番号やTSI等が得られる。 Here, when the operation example 1 described above is adopted, the signaling acquisition unit 254 acquires the DCT transmitted in the LLS stream and supplies the DCT to the signaling analysis unit 255. The signaling analysis unit 255 analyzes the DCT supplied from the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253. As an analysis result, as information for selecting a minimum service, a port number, TSI, and the like for connecting to the main video and main audio streams constituting the service to be selected are obtained.
 また、上述した運用例2を採用した場合、シグナリング取得部254は、SCSストリームで伝送されているDCTを取得し、シグナリング解析部255に供給する。シグナリング解析部255は、シグナリング取得部254から供給されるDCTを解析し、その解析結果をフィルタリング制御部253に供給する。この解析結果としては、最小限のサービスの選局を行うための情報として、選局対象のサービスを構成する主映像と主音声のストリームに接続するためのポート番号やTSI等が得られる。 Further, when the operation example 2 described above is adopted, the signaling acquisition unit 254 acquires the DCT transmitted in the SCS stream and supplies the DCT to the signaling analysis unit 255. The signaling analysis unit 255 analyzes the DCT supplied from the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253. As an analysis result, as information for selecting a minimum service, a port number, TSI, and the like for connecting to the main video and main audio streams constituting the service to be selected are obtained.
 また、上述した運用例3を採用した場合、選局制御部251は、選局情報としてNVRAM215に記録されたSCDに含まれるショートカット情報を取得し、フィルタリング制御部253に供給する。このショートカット情報には、最小限のサービスの選局を行うための情報として、選局対象のサービスを構成する主映像と主音声のストリームに接続するためのポート番号やTSI等が含まれる。 When the operation example 3 described above is adopted, the channel selection control unit 251 acquires shortcut information included in the SCD recorded in the NVRAM 215 as channel selection information, and supplies the shortcut information to the filtering control unit 253. This shortcut information includes, as information for selecting a minimum service, a port number, TSI, and the like for connecting to the main video and main audio streams constituting the service to be selected.
 そして、フィルタリング制御部253は、シグナリング解析部255から供給される解析結果(運用例1,2)、又は、選局制御部251から供給されるショートカット情報(運用例3)に基づいて、Demux213により実行されるフィルタリング処理を制御する。これにより、Demux213では、選局対象のサービスを構成する主映像と主音声のストリームに接続され、当該ストリームがFLUTEセッションで伝送されている場合、LCTパケットからセグメントデータが抽出される。その結果、主映像に対応するビデオデータがビデオデコーダ219に供給され、主音声に対応するオーディオデータがオーディオデコーダ221に供給される。 Then, the filtering control unit 253 uses the Demux 213 based on the analysis result (operation examples 1 and 2) supplied from the signaling analysis unit 255 or the shortcut information (operation example 3) supplied from the channel selection control unit 251. Controls the filtering process that is performed. Accordingly, in the Demux 213, when connected to the main video and main audio streams constituting the channel selection target service and the streams are transmitted in the FLUTE session, the segment data is extracted from the LCT packet. As a result, video data corresponding to the main video is supplied to the video decoder 219, and audio data corresponding to the main audio is supplied to the audio decoder 221.
 また、フィルタリング制御部253は、選局制御部251から供給されるSC Bootstrap情報に基づいて、Demux213により実行されるフィルタリング処理を制御する。これにより、Demux213では、選局対象のサービスを構成するSCSストリームに接続され、当該ストリームがFLUTEセッションで伝送されている場合、LCTパケットからSCSメタデータが抽出される。シグナリング取得部254は、SCSメタデータ(USBD,SDP,MPD等)を取得して、シグナリング解析部255に供給する。 Further, the filtering control unit 253 controls the filtering process executed by the Demux 213 based on the SC bootstrap information supplied from the channel selection control unit 251. Thereby, in Demux 213, when connected to the SCS stream constituting the channel selection target service and the stream is transmitted in the FLUTE session, the SCS metadata is extracted from the LCT packet. The signaling acquisition unit 254 acquires SCS metadata (USBD, SDP, MPD, etc.) and supplies it to the signaling analysis unit 255.
 シグナリング解析部255は、シグナリング取得部254から供給されるSCSメタデータ(USBD,SDP,MPD等)を解析し、その解析結果を、フィルタリング制御部253又は通信制御部256に供給する。すなわち、シグナリング解析部255は、選局対象のサービスを構成するコンポーネントのストリームの配信経路が放送となる場合には、それらのコンポーネントのストリームに接続するためのIPアドレス、ポート番号、TSI、TOIを特定し、フィルタリング制御部253に供給する。また、シグナリング解析部255は、選局対象のサービスを構成するコンポーネントのストリームの配信経路が通信となる場合には、それらの取得先の情報(例えばURL)を、通信制御部256に供給する。 The signaling analysis unit 255 analyzes the SCS metadata (USBD, SDP, MPD, etc.) supplied from the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253 or the communication control unit 256. That is, when the distribution route of the component streams constituting the channel selection service is broadcast, the signaling analysis unit 255 sets the IP address, port number, TSI, and TOI for connecting to the component streams. Specify and supply to the filtering control unit 253. Also, the signaling analysis unit 255 supplies information (for example, URL) of those acquisition destinations to the communication control unit 256 when the distribution path of the stream of the components constituting the channel selection target service is communication.
 フィルタリング制御部253は、シグナリング解析部255から供給されるIPアドレス、ポート番号、TSI、TOIに基づいて、Demux213により実行されるフィルタリング処理を制御する。これにより、Demux213では、LCTパケットのフィルタリング処理が実行され、それにより得られるLCTパケットからセグメントデータが抽出される。そして、その結果得られるビデオデータは、ビデオデコーダ219に供給され、オーディオデータは、オーディオデコーダ221に供給される。また、字幕データは、字幕デコーダ223に供給される。 The filtering control unit 253 controls the filtering process executed by the Demux 213 based on the IP address, port number, TSI, and TOI supplied from the signaling analysis unit 255. Thereby, in Demux 213, the filtering process of an LCT packet is performed, and segment data is extracted from the LCT packet obtained thereby. The resulting video data is supplied to the video decoder 219, and the audio data is supplied to the audio decoder 221. The caption data is supplied to the caption decoder 223.
 通信制御部256は、シグナリング解析部255から供給される取得先の情報(例えばURL)に基づいて、通信部217により実行される通信処理を制御する。これにより、通信部217では、ストリーミングサーバ40からネットワーク90を介してストリーミング配信されるコンポーネントのストリームが受信され、Demux218に供給される。そして、Demux218により、通信部217から供給されるストリームから得られるビデオデータがビデオデコーダ219に、オーディオデータがオーディオデコーダ221に、字幕データが字幕デコーダ223にそれぞれ供給される。なお、ストリーミングサーバ40からシグナリングデータが配信された場合、通信部217からのシグナリングデータは、シグナリング取得部254に供給される。 The communication control unit 256 controls the communication process executed by the communication unit 217 based on the acquisition destination information (for example, URL) supplied from the signaling analysis unit 255. As a result, the communication unit 217 receives the component stream to be streamed from the streaming server 40 via the network 90 and supplies the stream to the Demux 218. The Demux 218 supplies video data obtained from the stream supplied from the communication unit 217 to the video decoder 219, audio data to the audio decoder 221, and caption data to the caption decoder 223. When signaling data is distributed from the streaming server 40, the signaling data from the communication unit 217 is supplied to the signaling acquisition unit 254.
 パケットヘッダ監視部252は、Demux213においてBBPストリームにより伝送されるパケットを監視して、監視対象のパケットのヘッダを解析する。パケットヘッダ監視部252は、パケットのヘッダの解析結果に従い、フィルタリング制御部253を制御して、特定の条件を満たしたパケットから得られるLLSメタデータやSCSメタデータが、シグナリング取得部254により取得されるようにする。なお、このフィルタリング処理では、例えば、圧縮情報(CO)、タイプ情報(Type)、拡張フィルタ情報(Filter_Extension)、及び、バージョン情報(Data_Version)の少なくとも1つの情報を特定の条件として、フィルタリングが行われる。 The packet header monitoring unit 252 monitors packets transmitted by the BBP stream in the Demux 213 and analyzes the header of the monitoring target packet. The packet header monitoring unit 252 controls the filtering control unit 253 according to the analysis result of the packet header, and the signaling acquisition unit 254 acquires the LLS metadata and the SCS metadata obtained from the packet that satisfies the specific condition. So that In this filtering process, for example, filtering is performed using at least one of compression information (CO), type information (Type), extended filter information (Filter_Extension), and version information (Data_Version) as a specific condition. .
<5.各装置で実行される処理の流れ> <5. Flow of processing executed by each device>
 次に、図18乃至図22のフローチャートを参照して、図14の放送通信システム1を構成する各装置で実行される具体的な処理の流れについて説明する。 Next, with reference to the flowcharts of FIGS. 18 to 22, a specific flow of processing executed by each device constituting the broadcast communication system 1 of FIG. 14 will be described.
(送信処理)
 まず、図18のフローチャートを参照して、図14の送信装置10により実行される送信処理の流れについて説明する。
(Transmission process)
First, the flow of transmission processing executed by the transmission device 10 of FIG. 14 will be described with reference to the flowchart of FIG.
 ステップS111において、シグナリング生成部111は、データ提供サーバ30から提供されるシグナリングデータの元データを用いて、シグナリングデータを生成し、シグナリング処理部112に供給する。ステップS112において、シグナリング処理部112は、シグナリング生成部111から供給されるシグナリングデータを処理し、Mux119に供給する。 In step S111, the signaling generation unit 111 generates signaling data using the original data of the signaling data provided from the data providing server 30, and supplies the signaling data to the signaling processing unit 112. In step S112, the signaling processing unit 112 processes the signaling data supplied from the signaling generation unit 111 and supplies the processed data to the Mux 119.
 ここでは、シグナリングデータとして、SCD,RRD,EAD等のLLSメタデータと、USBD,SDP,MPD等のSCSメタデータが生成される。なお、シグナリング生成部111は、運用例1と運用例2が採用された場合、先行取得用メタデータとしてのDCT又はDCDを生成する。また、シグナリング生成部111は、運用例3が採用された場合には、ショートカット情報を含むSCDを生成する。 Here, as signaling data, LLS metadata such as SCD, RRD, and EAD and SCS metadata such as USBD, SDP, and MPD are generated. In addition, when the operation example 1 and the operation example 2 are adopted, the signaling generation unit 111 generates DCT or DCD as the advance acquisition metadata. Moreover, the signaling production | generation part 111 produces | generates SCD containing shortcut information, when the operation example 3 is employ | adopted.
 ただし、シグナリングデータは、データ提供サーバ30が生成するようにしてもよい。その場合には、シグナリング生成部111は、データ提供サーバ30から供給されるシグナリングデータをそのまま、シグナリング処理部112に供給する。 However, the data providing server 30 may generate the signaling data. In that case, the signaling generation unit 111 supplies the signaling data supplied from the data providing server 30 to the signaling processing unit 112 as it is.
 ステップS113において、ビデオデータ取得部113、オーディオデータ取得部115、及び、字幕データ取得部117は、データ提供サーバ30から、コンポーネントとしてのビデオデータ、オーディオデータ、及び、字幕データを取得し、ビデオエンコーダ114、オーディオエンコーダ116、及び、字幕エンコーダ118に供給する。 In step S113, the video data acquisition unit 113, the audio data acquisition unit 115, and the caption data acquisition unit 117 acquire video data, audio data, and caption data as components from the data providing server 30, and a video encoder 114, the audio encoder 116, and the caption encoder 118.
 ステップS114において、ビデオエンコーダ114、オーディオエンコーダ116、及び、字幕エンコーダ118は、ビデオデータ取得部113、オーディオデータ取得部115、及び、字幕データ取得部117から供給される、コンポーネントとしてのビデオデータ、オーディオデータ、及び、字幕データを、MPEG等の符号化方式に準拠して符号化し、Mux119に供給する。 In step S <b> 114, the video encoder 114, the audio encoder 116, and the caption encoder 118 are supplied from the video data acquisition unit 113, the audio data acquisition unit 115, and the caption data acquisition unit 117. Data and caption data are encoded in accordance with an encoding method such as MPEG and supplied to Mux 119.
 ステップS115において、Mux119は、シグナリング処理部112からのシグナリングデータと、ビデオエンコーダ114からのビデオのストリームと、オーディオエンコーダ116からのオーディオのストリームと、字幕エンコーダ118からの字幕のストリームを多重化してBBPストリームを生成し、送信部120に供給する。 In step S115, the Mux 119 multiplexes the signaling data from the signaling processing unit 112, the video stream from the video encoder 114, the audio stream from the audio encoder 116, and the subtitle stream from the subtitle encoder 118 to BBP. A stream is generated and supplied to the transmission unit 120.
 ステップS116において、送信部120は、Mux119から供給されるBBPストリームをデジタル放送信号として、アンテナ121を介して送信する。ステップS116の処理が終了すると、図18の送信処理は終了する。 In step S116, the transmission unit 120 transmits the BBP stream supplied from the Mux 119 as a digital broadcast signal via the antenna 121. When the process of step S116 ends, the transmission process of FIG. 18 ends.
 なお、図18の送信処理において、ビデオやオーディオ、字幕等のコンポーネントのストリームを、FLUTEセッションで伝送する場合には、各コンポーネントのファイルを、ISO BMFFの規定に準じたセグメントごとに分割し、それにより得られるセグメントデータをLCTパケットに格納して伝送することになる。 In the transmission process of FIG. 18, when a stream of components such as video, audio, and subtitles is transmitted in a FLUTE session, the file of each component is divided into segments according to the ISO FFFF regulations. The segment data obtained by the above is stored in an LCT packet and transmitted.
 また、上述した運用例1を採用した場合、先行取得用メタデータ(DCT又はDCD)は、LLSメタデータ(SCD,RRD,EAD等)とともに、LLSで伝送される。また、上述した運用例2を採用した場合、先行取得用メタデータ(DCT又はDCD)は、SCSメタデータ(USBD,SDP,MPD等)とともに、SCSでFLUTEセッションにより伝送される。さらに、上述した運用例3を採用した場合、ショートカット情報を含むSCDは、LLSメタデータとしてLLSで伝送される。 Further, when the operation example 1 described above is adopted, the metadata for pre-acquisition (DCT or DCD) is transmitted by LLS together with the LLS metadata (SCD, RRD, EAD, etc.). When the operation example 2 described above is adopted, the metadata for pre-acquisition (DCT or DCD) is transmitted through the FLUTE session in the SCS together with the SCS metadata (USBD, SDP, MPD, etc.). Furthermore, when the operation example 3 described above is adopted, the SCD including the shortcut information is transmitted by LLS as LLS metadata.
 さらに、デジタル放送信号において、LLSとして伝送されるLLSメタデータ(SCD,RRD,EAD等)を格納したLLSパケットのLLSヘッダ、あるいは、SCSとして伝送されるSCSメタデータ(USBD,SDP,MPD等)を格納したLCTパケットのLCTヘッダには、圧縮情報(CO)、タイプ情報(Type)、拡張フィルタ情報(Filter_Extension)、及び、バージョン情報(Data_Version)などのフィルタリング情報を配置することができる。 Furthermore, in digital broadcast signals, LLS headers of LLS packets that store LLS metadata (SCD, RRD, EAD, etc.) transmitted as LLS, or SCS metadata (USBD, SDP, MPD, etc.) transmitted as SCS Filtering information such as compression information (CO), type information (Type), extension filter information (Filter_Extension), and version information (Data_Version) can be arranged in the LCT header of the LCT packet in which is stored.
 以上、送信処理について説明した。 The transmission process has been described above.
(初期スキャン処理)
 次に、図19のフローチャートを参照して、図14の受信装置20により実行される初期スキャン処理の流れについて説明する。
(Initial scan processing)
Next, the flow of the initial scan process executed by the receiving device 20 of FIG. 14 will be described with reference to the flowchart of FIG.
 ステップS211においては、制御部214によって、入力部216からの操作信号が監視され、ユーザにより初期スキャン操作が行われるまで、待機する。そして、ステップS212において、ユーザにより初期スキャン操作が行われた場合、処理は、ステップS213に進められる。 In step S211, the operation signal from the input unit 216 is monitored by the control unit 214 and waits until an initial scan operation is performed by the user. If the user performs an initial scan operation in step S212, the process proceeds to step S213.
 ステップS213において、チューナ212は、選局制御部251からの制御に従い、周波数スキャン処理を行う。ステップS214においては、ステップS213の周波数スキャン処理によって、周波数スキャンが成功したかどうかが判定される。 In step S213, the tuner 212 performs frequency scan processing according to the control from the channel selection control unit 251. In step S214, whether or not the frequency scan is successful is determined by the frequency scan process in step S213.
 ステップS214において、周波数スキャンが失敗したと判定された場合、処理は、ステップS213に戻り、再度、周波数スキャン処理が行われる。一方、ステップS214において、周波数スキャン処理に成功したと判定された場合、処理は、ステップS215に進められる。 If it is determined in step S214 that the frequency scan has failed, the process returns to step S213, and the frequency scan process is performed again. On the other hand, if it is determined in step S214 that the frequency scan process has been successful, the process proceeds to step S215.
 ステップS215において、Demux213は、フィルタリング制御部253からの制御に従い、チューナ212から供給されるBBPストリームを取得して解析する。ステップS216においては、ステップS215の解析結果に従い、BBPストリームからIPパケットが抽出されたかどうかが判定される。 In step S215, the Demux 213 acquires and analyzes the BBP stream supplied from the tuner 212 according to the control from the filtering control unit 253. In step S216, it is determined whether an IP packet is extracted from the BBP stream according to the analysis result in step S215.
 ステップS216において、IPパケットが抽出されたと判定された場合、処理はステップS217に進められる。ステップS217において、Demux213は、抽出されたIPパケットを破棄する。一方、ステップS216において、IPパケット以外のパケットが抽出されたと判定された場合、処理は、ステップS218に進められる。 If it is determined in step S216 that an IP packet has been extracted, the process proceeds to step S217. In step S217, the Demux 213 discards the extracted IP packet. On the other hand, if it is determined in step S216 that a packet other than the IP packet has been extracted, the process proceeds to step S218.
 ステップS218においては、ステップS215の解析結果に従い、BBPストリームからLLSパケットが抽出されたかどうかが判定される。 In step S218, it is determined whether an LLS packet is extracted from the BBP stream according to the analysis result in step S215.
 ステップS218において、LLSパケット以外のパケットが抽出されたと判定された場合、処理は、ステップS217に進められる。ステップS217において、Demux213は、抽出されたLLSパケット以外のパケットを破棄する。一方、ステップS218において、LLSパケットが抽出されたと判定された場合、処理は、ステップS219に進められる。 If it is determined in step S218 that a packet other than the LLS packet has been extracted, the process proceeds to step S217. In step S217, the Demux 213 discards packets other than the extracted LLS packet. On the other hand, if it is determined in step S218 that the LLS packet has been extracted, the process proceeds to step S219.
 ステップS219において、Demux213、及び、制御部214は、LLS取得・記録処理を実行する。このLLS取得・記録処理では、LLSパケットに付加されたLLSヘッダのフィルタリング情報に基づいて、フィルタリング処理が行われ、当該フィルタリング処理により取得されたLLSメタデータ(SCD等)が、選局情報としてNVRAM215に記録される。なお、LLS取得・記録処理の詳細な内容は、図20のフローチャートを参照して後述する。 In step S219, the Demux 213 and the control unit 214 execute LLS acquisition / recording processing. In this LLS acquisition / recording process, the filtering process is performed based on the filtering information of the LLS header added to the LLS packet, and the LLS metadata (SCD or the like) acquired by the filtering process is used as the channel selection information in the NVRAM 215. To be recorded. Details of the LLS acquisition / recording process will be described later with reference to the flowchart of FIG.
 ステップS217、又は、ステップS219の処理が終了すると、処理は、ステップS220に進められる。ステップS220においては、全周波数帯域のスキャンが完了したかどうかが判定される。 When the process of step S217 or step S219 is completed, the process proceeds to step S220. In step S220, it is determined whether scanning of all frequency bands is completed.
 ステップS220において、全周波数帯域のスキャンが未完了であると判定された場合、処理は、ステップS213に戻り、ステップS213以降の処理が繰り返される。これにより、各周波数帯域のスキャン処理が行われ、選局情報が記録される。そして、ステップS220において、全周波数帯域のスキャンが完了したと判定された場合、図19の初期スキャン処理は終了される。 If it is determined in step S220 that scanning of all frequency bands has not been completed, the process returns to step S213, and the processes after step S213 are repeated. Thereby, the scanning process of each frequency band is performed, and channel selection information is recorded. If it is determined in step S220 that scanning of all frequency bands has been completed, the initial scanning process in FIG. 19 is terminated.
 以上、初期スキャン処理の流れについて説明した。 The flow of the initial scan process has been described above.
(LLS取得・記録処理)
 次に、図20のフローチャートを参照して、図19のステップS219の処理に対応するLLS取得・記録処理の詳細な内容について説明する。
(LLS acquisition / recording process)
Next, the detailed contents of the LLS acquisition / recording process corresponding to the process of step S219 of FIG. 19 will be described with reference to the flowchart of FIG.
 ステップS231において、パケットヘッダ監視部252は、Demux213においてBBPストリームにより伝送されるLLSパケットを常に監視して、監視対象のLLSパケットのLLSヘッダを解析する。 In step S231, the packet header monitoring unit 252 constantly monitors the LLS packet transmitted by the BBP stream in the Demux 213, and analyzes the LLS header of the monitoring target LLS packet.
 ステップS232において、パケットヘッダ監視部252は、ステップS231の解析結果に従い、シグナリングデータ(LLSメタデータ)のタイプが一致するかどうかを判定する。すなわち、LLSパケットのLLSヘッダには、タイプ情報(Type)が配置されているので、パケットヘッダ監視部252は、例えば、Type="1"であるタイプ情報が配置されたLLSヘッダが付加されたLLSパケットが抽出されたかどうかを判定する。 In step S232, the packet header monitoring unit 252 determines whether the types of the signaling data (LLS metadata) match according to the analysis result in step S231. That is, since the type information (Type) is arranged in the LLS header of the LLS packet, the packet header monitoring unit 252 is added with the LLS header in which the type information with Type = "1" is arranged, for example. Determine whether an LLS packet has been extracted.
 なお、LLSヘッダのタイプ情報(Type)には、LLSメタデータの種別に応じた値が指定される。例えば、SCDには"1"、RRDには"2"、EADには"3"がそれぞれ指定される。また、全てのLLSメタデータ(SCD,RRD,EAD)の場合、Typeには、"0"が指定される。 In the LLS header type information (Type), a value corresponding to the type of LLS metadata is specified. For example, "1" is specified for SCD, "2" for RRD, and "3" for EAD. For all LLS metadata (SCD, RRD, EAD), “0” is specified for Type.
 ステップS232において、シグナリングデータ(LLSメタデータ)のタイプが異なると判定された場合、処理は、ステップS233に進められる。ステップS233において、Demux213は、抽出されたLLSパケットを破棄する。一方、ステップS232において、シグナリングデータ(LLSメタデータ)のタイプが一致すると判定された場合、処理は、ステップS234に進められる。 If it is determined in step S232 that the types of signaling data (LLS metadata) are different, the process proceeds to step S233. In step S233, the Demux 213 discards the extracted LLS packet. On the other hand, if it is determined in step S232 that the types of signaling data (LLS metadata) match, the process proceeds to step S234.
 ステップS234において、パケットヘッダ監視部252は、ステップS231の解析結果に従い、対象のシグナリングデータ(LLSメタデータ)が新規取得であるかどうかを判定する。すなわち、LLSパケットのLLSヘッダには、バージョン情報(Data_Version)が配置されているので、パケットヘッダ監視部252は、最新のバージョンとなるバージョン情報が配置されたLLSヘッダが付加されたLLSパケットが抽出されたかどうかを判定する。 In step S234, the packet header monitoring unit 252 determines whether the target signaling data (LLS metadata) is newly acquired according to the analysis result in step S231. That is, since the version information (Data_Version) is arranged in the LLS header of the LLS packet, the packet header monitoring unit 252 extracts the LLS packet added with the LLS header in which the version information that is the latest version is arranged. Determine whether it was done.
 ステップS234において、対象のシグナリングデータ(LLSメタデータ)が取得済みであると判定された場合、処理は、ステップS233に進められる。ステップS233において、Demux213は、抽出されたLLSパケットを破棄する。一方、ステップS234において、対象のシグナリングデータ(LLSメタデータ)が新規取得であると判定された場合、処理は、ステップS235に進められる。 If it is determined in step S234 that the target signaling data (LLS metadata) has been acquired, the process proceeds to step S233. In step S233, the Demux 213 discards the extracted LLS packet. On the other hand, if it is determined in step S234 that the target signaling data (LLS metadata) is newly acquired, the process proceeds to step S235.
 ステップS235においては、パケットヘッダ監視部252は、ステップS231の解析結果に従い、拡張フィルタ情報(Filter_Extension)の処理を行う。すなわち、LLSパケットのLLSヘッダには、拡張フィルタ情報が配置されているので、この拡張フィルタ情報の処理では、例えば、対象の地域や緊急度など、あらかじめ定められた特定の条件を満たした拡張フィルタ情報が配置されたLLSヘッダが付加されたLLSパケットが抽出されたかどうかが判定される。 In step S235, the packet header monitoring unit 252 performs extension filter information (Filter_Extension) processing according to the analysis result in step S231. In other words, since the extended filter information is arranged in the LLS header of the LLS packet, in this extended filter information processing, for example, an extended filter that satisfies a predetermined specific condition such as a target region or an urgency level. It is determined whether an LLS packet to which an LLS header in which information is arranged is added is extracted.
 なお、フィルタリング制御部253は、パケットヘッダ監視部252からの制御に従い、Demux213を制御して、監視対象のLLSパケットのフィルタリング処理を行っており、監視対象のLLSパケットのうち、特定の条件を満たしたLLSパケットから得られるLLSメタデータが、シグナリング取得部254により取得される。 The filtering control unit 253 controls the Demux 213 in accordance with the control from the packet header monitoring unit 252, and performs filtering processing of the monitoring target LLS packet, and satisfies a specific condition among the monitoring target LLS packets. The LLS metadata obtained from the LLS packet is acquired by the signaling acquisition unit 254.
 ステップS236において、シグナリング解析部255は、シグナリング取得部254により取得されたシグナリングデータ(LLSメタデータ)を、NVRAM215に記録する。これにより、NVRAM215には、LLSメタデータ(SCD等)から得られる選局情報が記録されることになる。ステップS233、又は、ステップS236の処理が終了すると、処理は、図19のステップS219の処理に戻り、それ以降の処理が実行される。 In step S236, the signaling analysis unit 255 records the signaling data (LLS metadata) acquired by the signaling acquisition unit 254 in the NVRAM 215. Thereby, the channel selection information obtained from the LLS metadata (SCD, etc.) is recorded in the NVRAM 215. When the process of step S233 or step S236 ends, the process returns to the process of step S219 in FIG. 19, and the subsequent processes are executed.
 以上、LLS取得・記録処理の流れについて説明した。 The flow of LLS acquisition / recording processing has been described above.
(DCTをLLSで伝送する場合の選局処理)
 次に、図21のフローチャートを参照して、図14の受信装置20により実行されるDCTをLLSで伝送する場合の選局処理の流れについて説明する。なお、DCTをLLSで伝送する場合の選局処理は、上述した運用例1に対応した処理とされる。
(Channel selection processing when DCT is transmitted by LLS)
Next, with reference to the flowchart of FIG. 21, the flow of the channel selection process when the DCT executed by the reception device 20 of FIG. 14 is transmitted by LLS will be described. Note that the channel selection processing when DCT is transmitted by LLS is processing corresponding to the operation example 1 described above.
 ステップS251においては、選局制御部251によって、入力部216からの操作信号が監視され、ユーザにより選局操作が行われるまで、待機する。そして、ステップS252において、ユーザにより選局操作が行われた場合、処理は、ステップS253に進められる。そして、ステップS253において、選局制御部251は、ユーザの選局操作に応じたサービスIDを取得する。 In step S251, the channel selection control unit 251 monitors the operation signal from the input unit 216, and waits until the channel selection operation is performed by the user. If the channel selection operation is performed by the user in step S252, the process proceeds to step S253. In step S253, the channel selection control unit 251 acquires a service ID corresponding to the user's channel selection operation.
 ステップS254においては、選局情報が取得済みであって、NVRAM215に記録されているかどうかが判定される。ステップS254において、選局情報が取得済みではないと判定された場合、処理は、ステップS255に進められる。ステップS255においては、シグナリング取得部254によって、LLSストリームで伝送されているLLSメタデータが取得され、シグナリング解析部255によって、LLSメタデータが解析されることで、選局情報が取得される。このようにして取得された選局情報は、NVRAM215に記録される。 In step S254, it is determined whether the channel selection information has been acquired and recorded in the NVRAM 215. If it is determined in step S254 that channel selection information has not been acquired, the process proceeds to step S255. In step S255, the LLS metadata transmitted in the LLS stream is acquired by the signaling acquisition unit 254, and the tuning information is acquired by analyzing the LLS metadata by the signaling analysis unit 255. The channel selection information acquired in this way is recorded in the NVRAM 215.
 また、ステップS254において、選局情報が取得済みであると判定された場合、ステップS255の処理はスキップされ、処理は、ステップS256に進められる。この場合、例えば、図19の初期スキャン処理等によって、選局情報は、事前にNVRAM215に記録されていることになる。 If it is determined in step S254 that the channel selection information has been acquired, the process of step S255 is skipped, and the process proceeds to step S256. In this case, for example, the channel selection information is recorded in advance in the NVRAM 215 by the initial scan processing of FIG.
 ステップS256において、選局制御部251は、NVRAM215に記録された選局情報を取得する。そして、選局制御部251は、ステップS253で取得されたサービスIDを含むトリプレットに従い、選局情報から、物理パラメータとSC bootstrap情報を取得する。また、選局制御部251は、物理パラメータに従い、チューナ212を制御する。これにより、Demux213においては、チューナ212からのBBPストリームで伝送されるLLSストリームに接続される(S257)。 In step S256, the channel selection control unit 251 acquires the channel selection information recorded in the NVRAM 215. Then, the channel selection control unit 251 acquires physical parameters and SC bootstrap information from the channel selection information according to the triplet including the service ID acquired in step S253. Further, the channel selection control unit 251 controls the tuner 212 according to the physical parameters. As a result, the Demux 213 is connected to the LLS stream transmitted by the BBP stream from the tuner 212 (S257).
 ステップS258においては、LLSストリームからDCTが取得されたかどうかが判定される。ステップS258において、LLSストリームからDCTが取得されていないと判定された場合、ステップS258の判定処理が繰り返される。すなわち、ステップS258においては、シグナリング取得部254によって、LLSストリームからDCTが取得されるのを待って、処理は、ステップS259に進められる。 In step S258, it is determined whether DCT is acquired from the LLS stream. If it is determined in step S258 that no DCT has been acquired from the LLS stream, the determination process in step S258 is repeated. That is, in step S258, the signaling acquisition unit 254 waits for DCT acquisition from the LLS stream, and the process proceeds to step S259.
 ステップS259において、シグナリング解析部255は、シグナリング取得部254により取得されたDCTを解析し、その解析結果をフィルタリング制御部253に供給する。ここで、DCTには、最小限のサービスの選局を行うための情報として、選局対象のサービスを構成する、主映像と主音声のコンポーネントのストリームに接続するための情報(MIMEタイプ、ポート番号、及び、TSI)が記述されている。これにより、選局対象のサービスを構成する主映像と主音声のストリームに接続するためのIPアドレス、ポート番号、及び、TSIが得られることになる。 In step S259, the signaling analysis unit 255 analyzes the DCT acquired by the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253. Here, in DCT, as information for selecting a minimum service, information (MIME type, port) for connecting to the main video and main audio component streams constituting the service to be selected Number and TSI). As a result, an IP address, a port number, and a TSI for connecting to the main video and main audio streams constituting the channel selection target service are obtained.
 ステップS260において、フィルタリング制御部253は、シグナリング解析部255からの解析結果に従い、Demux213を制御して、選局対象のサービスを構成する主映像と主音声のストリームに接続する。そして、主映像と主音声のストリームがFLUTEセッションで伝送されている場合、LCTパケットからセグメントデータが抽出され、主映像と主音声のレンダリング処理等が行われる(S261)。これにより、受信装置20では、選局対象のサービスの主映像と主音声が再生される(例えば、図6の受信機の画面の映像IM1)。 In step S260, the filtering control unit 253 controls the Demux 213 according to the analysis result from the signaling analysis unit 255, and connects to the main video and main audio streams constituting the channel selection target service. When the main video and main audio streams are transmitted in the FLUTE session, segment data is extracted from the LCT packet, and the main video and main audio rendering processing is performed (S261). Thereby, in the receiving device 20, the main video and main audio of the service to be selected are reproduced (for example, video IM1 on the receiver screen in FIG. 6).
 また、受信装置20では、選局対象のサービスの主映像と主音声のレンダリング処理と並行して、SCSメタデータの取得処理が行われる。すなわち、選局制御部251は、ステップS256で取得されたSC bootstrap情報を、フィルタリング制御部253に供給する。 In addition, the receiving device 20 performs SCS metadata acquisition processing in parallel with the main video and main audio rendering processing of the channel selection target service. That is, the channel selection control unit 251 supplies the SC bootstrap information acquired in step S256 to the filtering control unit 253.
 ステップS262において、フィルタリング制御部253は、選局制御部251からのSC bootstrap情報(IPアドレス、ポート番号、及び、TSI)に従い、Demux213を制御して、選局対象のサービスのSCSストリームに接続する。そして、SCSメタデータがFLUTEセッションで伝送されている場合、シグナリング取得部254によって、LCTパケットから、SCSメタデータが取得される。 In step S262, the filtering control unit 253 controls the Demux 213 according to the SC bootstrap information (IP address, port number, and TSI) from the channel selection control unit 251, and connects to the SCS stream of the channel selection target service. . When the SCS metadata is transmitted in the FLUTE session, the signaling acquisition unit 254 acquires the SCS metadata from the LCT packet.
 ステップS263においては、全てのSCSメタデータが取得されたかどうかが判定される。ステップS263において、全てのSCSメタデータが取得されていないと判定された場合、処理は、ステップS264に進められる。ステップS264においては、シグナリング取得部254によって、LCTパケットから、SCSメタデータが取得される。そして、ステップS263において、全てのSCSメタデータを取得したと判定されるまで、ステップS263,264の処理が繰り返され、USBD,SDP,MPD等のSCSメタデータが全て取得されることになる。 In step S263, it is determined whether all the SCS metadata has been acquired. If it is determined in step S263 that all SCS metadata has not been acquired, the process proceeds to step S264. In step S264, the signaling acquisition unit 254 acquires SCS metadata from the LCT packet. Then, until it is determined in step S263 that all the SCS metadata has been acquired, the processes in steps S263 and 264 are repeated, and all the SCS metadata such as USBD, SDP, and MPD are acquired.
 ステップS265において、シグナリング解析部255は、シグナリング取得部254により取得された全てのSCSメタデータを解析する。ステップS266において、シグナリング解析部255は、ステップS265の解析結果に従い、主映像と主音声以外のコンポーネントで、出力するコンポーネントが存在するかどうかを判定する。ステップS266において、出力するコンポーネントが存在すると判定された場合、処理は、ステップS267に進められる。この場合、シグナリング解析部255は、ステップS265の解析結果を、フィルタリング制御部253に供給する。 In step S265, the signaling analysis unit 255 analyzes all the SCS metadata acquired by the signaling acquisition unit 254. In step S266, the signaling analysis unit 255 determines whether there is a component to be output, other than the main video and main audio, according to the analysis result in step S265. If it is determined in step S266 that there is a component to be output, the process proceeds to step S267. In this case, the signaling analysis unit 255 supplies the analysis result of step S265 to the filtering control unit 253.
 ステップS267において、フィルタリング制御部253は、シグナリング解析部255からの解析結果に従い、Demux213を制御して、出力するコンポーネントのストリームに接続する。そして、出力するコンポーネントのストリームがFLUTEセッションで伝送されている場合、LCTパケットからセグメントデータが抽出され、レンダリング処理等が行われる(S267)。 In step S267, the filtering control unit 253 controls the Demux 213 according to the analysis result from the signaling analysis unit 255 and connects it to the component stream to be output. If the component stream to be output is transmitted in the FLUTE session, segment data is extracted from the LCT packet, and rendering processing and the like are performed (S267).
 例えば、主映像と主音声以外のコンポーネントで、出力するコンポーネントとして、字幕が存在する場合、受信装置20では、SCSメタデータ(USBD,SDP,MPD等)に従い、字幕のストリームに接続され、LCTパケットからセグメントデータが取得されて、字幕のレンダリング処理等が行われる。これにより、受信装置20では、選局対象のサービスの主映像と主音声とともに、字幕が再生される(図6の受信機の画面の映像IM2)。すなわち、受信装置20では、ステップS257乃至S261の処理と、ステップS262乃至S267の処理が並行して実行されることで、先行して優先的に表示されていた主映像に対して、字幕が重畳して表示されることになる。 For example, when subtitles exist as components to be output by components other than the main video and main audio, the receiving device 20 is connected to the subtitle stream according to the SCS metadata (USBD, SDP, MPD, etc.), and the LCT packet Segment data is acquired from the subtitles, and caption rendering processing and the like are performed. As a result, the receiving device 20 reproduces subtitles together with the main video and main audio of the service to be selected (video IM2 on the receiver screen in FIG. 6). That is, in the receiving device 20, the processing of steps S257 to S261 and the processing of steps S262 to S267 are executed in parallel, so that the subtitle is superimposed on the main video that has been displayed preferentially in advance. Will be displayed.
 なお、ステップS266において、主映像と主音声以外のコンポーネントで、出力するコンポーネントが存在しないと判定された場合、ステップS267の処理はスキップされる。この場合、選局対象のサービスの主映像と主音声のみが再生されることになる。 If it is determined in step S266 that there is no component to be output out of components other than the main video and main audio, the processing in step S267 is skipped. In this case, only the main video and main audio of the service to be selected are reproduced.
 ステップS261、又は、ステップS267の処理が終了すると、処理は、ステップS268に進められる。ステップS268においては、選局処理が終了したかどうかが判定され、選局処理が終了したと判定された場合、図21のDCTをLLSで伝送する場合の選局処理は終了される。 When the process of step S261 or step S267 is completed, the process proceeds to step S268. In step S268, it is determined whether the channel selection process has been completed. If it is determined that the channel selection process has been completed, the channel selection process in the case of transmitting the DCT of FIG. 21 using LLS is terminated.
 以上、DCTをLLSで伝送する場合の選局処理の流れについて説明した。この選局処理においては、LLSストリームで伝送されるDCTが、SCSメタデータ(USBD,SDP,MPD等)に先行して取得され、DCTに含まれる主映像と主音声のストリームに接続するための情報に従い、選局対象のサービスの主映像と主音声のストリームに接続され、主映像と主音声のレンダリング処理が行われる。その際、SCSメタデータに先行して取得されるDCTを迅速に取得することができるため、結果として、高速な選局処理を行うことができる。 The flow of channel selection processing when DCT is transmitted using LLS has been described above. In this channel selection process, the DCT transmitted in the LLS stream is acquired prior to the SCS metadata (USBD, SDP, MPD, etc.), and is used to connect to the main video and main audio streams included in the DCT. In accordance with the information, the main video and main audio streams of the service to be selected are connected, and the main video and main audio are rendered. At that time, since the DCT acquired prior to the SCS metadata can be acquired quickly, as a result, high-speed channel selection processing can be performed.
(DCTをSCSで伝送する場合の選局処理)
 次に、図22のフローチャートを参照して、図14の受信装置20により実行されるDCTをSCSで伝送する場合の選局処理の流れについて説明する。なお、DCTをSCSで伝送する場合の選局処理は、上述した運用例2に対応した処理とされる。
(Channel selection processing when DCT is transmitted by SCS)
Next, with reference to the flowchart of FIG. 22, the flow of the channel selection process when the DCT executed by the receiving device 20 of FIG. 14 is transmitted by SCS will be described. Note that the channel selection processing when DCT is transmitted by SCS is processing corresponding to the operation example 2 described above.
 ステップS281乃至S286においては、図21のステップS251乃至S256と同様に、ユーザによる選局操作に応じて、NVRAM253に記録された選局情報が取得される。この選局情報には、物理パラメータやSC bootstrap情報が含まれている。選局制御部251は、ステップS286で取得されたSC bootstrap情報を、フィルタリング制御部253に供給する。 In steps S281 to S286, the channel selection information recorded in the NVRAM 253 is acquired according to the channel selection operation by the user, as in steps S251 to S256 of FIG. This channel selection information includes physical parameters and SC bootstrap information. The channel selection control unit 251 supplies the SC bootstrap information acquired in step S286 to the filtering control unit 253.
 ステップS287において、フィルタリング制御部253は、選局制御部251からのSC bootstrap情報(IPアドレス、ポート番号、及び、TSI)に従い、Demux213を制御して、選局対象のサービスのSCSストリームに接続する。そして、SCSメタデータがFLUTEセッションで伝送されている場合、LCTパケットには、SCSメタデータ(USBD,SDP,MPD等)又は先行取得用メタデータ(DCT)が格納されている。 In step S287, the filtering control unit 253 controls the Demux 213 in accordance with the SC bootstrap information (IP address, port number, and TSI) from the channel selection control unit 251, and connects to the SCS stream of the channel selection target service. . When the SCS metadata is transmitted in the FLUTE session, SCS metadata (USBD, SDP, MPD, etc.) or advance acquisition metadata (DCT) is stored in the LCT packet.
 ステップS288においては、LCTパケットに格納されているのが、DCTであるのか、あるいはUSBD,SDP,MPD等のSCSメタデータであるのかが判定される。ステップS288において、LCTパケットにDCTが格納されていると判定された場合、処理は、ステップS289に進められる。 In step S288, it is determined whether the DCT stored in the LCT packet or SCS metadata such as USBD, SDP, and MPD. If it is determined in step S288 that DCT is stored in the LCT packet, the process proceeds to step S289.
 ステップS289において、シグナリング解析部255は、シグナリング取得部254により取得されたDCTを解析し、その解析結果をフィルタリング制御部253に供給する。ここで、DCTには、最小限のサービスの選局を行うための情報として、選局対象のサービスを構成する、主映像と主音声のコンポーネントのストリームに接続するための情報(MIMEタイプ、ポート番号、及び、TSI)が記述されている。これにより、選局対象のサービスを構成する主映像と主音声のストリームに接続するためのIPアドレス、ポート番号、及び、TSIが得られることになる。 In step S289, the signaling analysis unit 255 analyzes the DCT acquired by the signaling acquisition unit 254, and supplies the analysis result to the filtering control unit 253. Here, in DCT, as information for selecting a minimum service, information (MIME type, port) for connecting to the main video and main audio component streams constituting the service to be selected Number and TSI). As a result, an IP address, a port number, and a TSI for connecting to the main video and main audio streams constituting the channel selection target service are obtained.
 ステップS290において、フィルタリング制御部253は、シグナリング解析部255からの解析結果に従い、Demux213を制御して、選局対象のサービスを構成する主映像と主音声のストリームに接続する。そして、主映像と主音声のストリームがFLUTEセッションで伝送されている場合、LCTパケットからセグメントデータが抽出され、主映像と主音声のレンダリング処理等が行われる(S291)。これにより、受信装置20では、選局対象のサービスの主映像と主音声が再生される(例えば、図6の受信機の画面の映像IM1)。 In step S290, the filtering control unit 253 controls the Demux 213 according to the analysis result from the signaling analysis unit 255, and connects to the main video and main audio streams constituting the channel selection target service. When the main video and main audio streams are transmitted in the FLUTE session, the segment data is extracted from the LCT packet, and the main video and main audio rendering processing is performed (S291). Thereby, in the receiving device 20, the main video and main audio of the service to be selected are reproduced (for example, video IM1 on the receiver screen in FIG. 6).
 また、ステップS288において、LCTパケットにDCT以外のSCSメタデータが格納されていると判定された場合、処理は、ステップS292に進められる。ステップS292においては、全てのSCSメタデータが取得されたかどうかが判定される。ステップS292において、全てのSCSメタデータが取得されていないと判定された場合、処理は、ステップS288に戻される。そして、ステップS292において、全てのSCSメタデータを取得したと判定されるまで、ステップS288と、S292の処理が繰り返され、USBD,SDP,MPD等のSCSメタデータが全て取得されることになる。 If it is determined in step S288 that SCS metadata other than DCT is stored in the LCT packet, the process proceeds to step S292. In step S292, it is determined whether all the SCS metadata has been acquired. If it is determined in step S292 that all the SCS metadata has not been acquired, the process returns to step S288. Then, until it is determined in step S292 that all the SCS metadata has been acquired, the processes in steps S288 and S292 are repeated, and all the SCS metadata such as USBD, SDP, and MPD are acquired.
 ステップS293において、シグナリング解析部255は、シグナリング取得部254により取得された全てのSCSメタデータを解析する。ステップS294において、シグナリング解析部255は、ステップS293の解析結果に従い、主映像と主音声以外のコンポーネントで、出力するコンポーネントが存在するかどうかを判定する。ステップS294において、出力するコンポーネントが存在すると判定された場合、処理は、ステップS295に進められる。この場合、シグナリング解析部255は、ステップS293の解析結果を、フィルタリング制御部253に供給する。 In step S293, the signaling analysis unit 255 analyzes all the SCS metadata acquired by the signaling acquisition unit 254. In step S294, the signaling analysis unit 255 determines whether there is a component to be output, other than the main video and main audio, according to the analysis result in step S293. If it is determined in step S294 that there is a component to be output, the process proceeds to step S295. In this case, the signaling analysis unit 255 supplies the analysis result of step S293 to the filtering control unit 253.
 ステップS295において、フィルタリング制御部253は、シグナリング解析部255からの解析結果に従い、Demux213を制御して、出力するコンポーネントのストリームに接続する。そして、出力するコンポーネントのストリームがFLUTEセッションで伝送されている場合、LCTパケットからセグメントデータが抽出され、レンダリング処理等が行われる(S295)。 In step S295, the filtering control unit 253 controls the Demux 213 according to the analysis result from the signaling analysis unit 255 and connects it to the component stream to be output. When the component stream to be output is transmitted in the FLUTE session, segment data is extracted from the LCT packet, and rendering processing and the like are performed (S295).
 例えば、主映像と主音声以外のコンポーネントで、出力するコンポーネントとして、字幕が存在する場合、受信装置20では、SCSメタデータ(USBD,SDP,MPD等)に従い、字幕のストリームに接続され、LCTパケットからセグメントデータが取得されて、字幕のレンダリング処理等が行われる。これにより、受信装置20では、選局対象のサービスの主映像と主音声とともに、字幕が再生される(図6の受信機の画面の映像IM2)。すなわち、受信装置20では、ステップS289乃至S291の処理と、ステップS292乃至S295の処理が並行して実行されることで、先行して優先的に表示されていた主映像に対して、字幕が重畳して表示されることになる。 For example, when subtitles exist as components to be output by components other than the main video and main audio, the receiving device 20 is connected to the subtitle stream according to the SCS metadata (USBD, SDP, MPD, etc.), and the LCT packet Segment data is acquired from the subtitles, and caption rendering processing and the like are performed. As a result, the receiving device 20 reproduces subtitles together with the main video and main audio of the service to be selected (video IM2 on the receiver screen in FIG. 6). That is, in the receiving device 20, the processing of steps S289 to S291 and the processing of steps S292 to S295 are performed in parallel, so that the subtitle is superimposed on the main video that has been displayed preferentially in advance. Will be displayed.
 なお、ステップS294において、主映像と主音声以外のコンポーネントで、出力するコンポーネントが存在しないと判定された場合、ステップS295の処理はスキップされる。この場合、選局対象のサービスの主映像と主音声のみが再生されることになる。 If it is determined in step S294 that there is no component to be output out of components other than the main video and main audio, the processing in step S295 is skipped. In this case, only the main video and main audio of the service to be selected are reproduced.
 ステップS291、又は、ステップS295の処理が終了すると、処理は、ステップS296に進められる。ステップS296においては、選局処理が終了したかどうかが判定され、選局処理が終了したと判定された場合、図22のDCTをSCSで伝送する場合の選局処理は終了される。 When the process of step S291 or step S295 ends, the process proceeds to step S296. In step S296, it is determined whether the channel selection process has been completed. If it is determined that the channel selection process has been completed, the channel selection process in the case of transmitting the DCT of FIG. 22 using the SCS is completed.
 以上、DCTをSCSで伝送する場合の選局処理の流れについて説明した。この選局処理においては、SCSストリームで伝送されるDCTが、SCSメタデータ(USBD,SDP,MPD等)に先行して取得され、DCTに含まれる主映像と主音声のストリームに接続するための情報に従い、主映像と主音声のストリームに接続され、主映像と主音声のレンダリング処理が行われる。その際、SCSメタデータに先行して取得されるDCTを迅速に取得することができるため、結果として、高速な選局処理を行うことができる。 The flow of channel selection processing when DCT is transmitted by SCS has been described above. In this channel selection process, the DCT transmitted in the SCS stream is acquired prior to the SCS metadata (USBD, SDP, MPD, etc.), and is used to connect to the main video and main audio streams included in the DCT. In accordance with the information, the main video and the main audio are connected to the stream, and the main video and the main audio are rendered. At that time, since the DCT acquired prior to the SCS metadata can be acquired quickly, as a result, high-speed channel selection processing can be performed.
<6.コンピュータの構成> <6. Computer configuration>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示す図である。 The series of processes described above can be executed by hardware or software. When a series of processing is executed by software, a program constituting the software is installed in the computer. FIG. 23 is a diagram illustrating a configuration example of hardware of a computer that executes the above-described series of processing by a program.
 コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。バス904には、さらに、入出力インターフェース905が接続されている。入出力インターフェース905には、入力部906、出力部907、記録部908、通信部909、及び、ドライブ910が接続されている。 In the computer 900, a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903 are connected to each other by a bus 904. An input / output interface 905 is further connected to the bus 904. An input unit 906, an output unit 907, a recording unit 908, a communication unit 909, and a drive 910 are connected to the input / output interface 905.
 入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記録部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインターフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。 The input unit 906 includes a keyboard, a mouse, a microphone, and the like. The output unit 907 includes a display, a speaker, and the like. The recording unit 908 includes a hard disk, a nonvolatile memory, and the like. The communication unit 909 includes a network interface or the like. The drive 910 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
 以上のように構成されるコンピュータ900では、CPU901が、ROM902や記録部908に記憶されているプログラムを、入出力インターフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。 In the computer 900 configured as described above, the CPU 901 loads the program stored in the ROM 902 or the recording unit 908 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program. A series of processing is performed.
 コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。 The program executed by the computer 900 (CPU 901) can be provided by being recorded on a removable medium 911 as a package medium, for example. The program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
 コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インターフェース905を介して、記録部908にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部909で受信し、記録部908にインストールすることができる。その他、プログラムは、ROM902や記録部908に、あらかじめインストールしておくことができる。 In the computer 900, the program can be installed in the recording unit 908 via the input / output interface 905 by installing the removable medium 911 in the drive 910. Further, the program can be received by the communication unit 909 via a wired or wireless transmission medium and installed in the recording unit 908. In addition, the program can be installed in the ROM 902 or the recording unit 908 in advance.
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。 Here, in the present specification, the processing performed by the computer according to the program does not necessarily have to be performed in chronological order in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or individually (for example, parallel processing or object processing). The program may be processed by a single computer (processor) or may be distributedly processed by a plurality of computers.
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Note that the embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
 また、本技術は、以下のような構成をとることができる。 Also, the present technology can take the following configurations.
(1)
 IP(Internet Protocol)伝送方式を用いたデジタル放送を選局する選局制御を行う選局制御部と、
 前記デジタル放送において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、IPアドレスで識別されるサービスごとの制御情報を含むテキスト形式の第1のメタデータに先行して、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを取得するメタデータ取得部と、
 取得された前記第2のメタデータに基づいて、最小限のサービスを構成するコンポーネントのストリームの選択制御を行う選択制御部と
 を備える受信装置。
(2)
 前記第2のメタデータのデータサイズは、前記第1のメタデータのデータサイズよりも小さく、
 前記第2のメタデータの伝送周期は、前記第1のメタデータの伝送周期よりも短い
 (1)に記載の受信装置。
(3)
 前記メタデータ取得部は、前記第2のメタデータの取得と並行して、前記第1のメタデータを取得する
 (1)又は(2)に記載の受信装置。
(4)
 前記最小限のサービスは、主映像と主音声のコンポーネントから構成される
 (1)乃至(3)のいずれかに記載の受信装置。
(5)
 前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータとともに伝送される
 (1)乃至(4)のいずれかに記載の受信装置。
(6)
 前記第2のメタデータは、前記第1の階層で、前記第1のメタデータとともに伝送される
 (1)乃至(4)のいずれかに記載の受信装置。
(7)
 前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で伝送される、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータに含められる
 (1)乃至(4)のいずれかに記載の受信装置。
(8)
 受信装置の受信方法において、
 前記受信装置が、
 IP伝送方式を用いたデジタル放送を選局する選局制御を行い、
 前記デジタル放送において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、IPアドレスで識別されるサービスごとの制御情報を含むテキスト形式の第1のメタデータに先行して、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを取得し、
 取得された前記第2のメタデータに基づいて、最小限のサービスを構成するコンポーネントのストリームの選択制御を行う
 ステップを含む受信方法。
(9)
 IP伝送方式を用いたデジタル放送で、IPアドレスで識別されるサービスを構成するコンポーネントを取得する取得部と、
 前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、前記サービスごとの制御情報を含むテキスト形式の第1のメタデータと、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを生成する生成部と、
 受信装置において前記第1のメタデータに先行して前記第2のメタデータが取得されるように、前記第1のメタデータと前記第2のメタデータを、前記コンポーネントのストリームとともに、前記IP伝送方式を用いたデジタル放送で送信する送信部と
 を備える送信装置。
(10)
 前記第2のメタデータのデータサイズは、前記第1のメタデータのデータサイズよりも小さく、
 前記第2のメタデータの伝送周期は、前記第1のメタデータの伝送周期よりも短い
 (9)に記載の送信装置。
(11)
 前記最小限のサービスは、主映像と主音声のコンポーネントから構成される
 (9)又は(10)に記載の送信装置。
(12)
 前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータとともに伝送される
 (9)乃至(11)のいずれかに記載の送信装置。
(13)
 前記第2のメタデータは、前記第1の階層で、前記第1のメタデータとともに伝送される
 (9)乃至(11)のいずれかに記載の送信装置。
(14)
 前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で伝送される、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータに含められる
 (9)乃至(11)のいずれかに記載の送信装置。
(15)
 送信装置の送信方法において、
 前記送信装置が、
 IP伝送方式を用いたデジタル放送で、IPアドレスで識別されるサービスを構成するコンポーネントを取得し、
 前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、前記サービスごとの制御情報を含むテキスト形式の第1のメタデータと、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを生成し、
 受信装置において前記第1のメタデータに先行して前記第2のメタデータが取得されるように、前記第1のメタデータと前記第2のメタデータを、前記コンポーネントのストリームとともに、前記IP伝送方式を用いたデジタル放送で送信する
 ステップを含む送信方法。
(1)
A channel selection control unit that performs channel selection control for selecting digital broadcasting using an IP (Internet Protocol) transmission method;
In the digital broadcast, the first metadata in text format including control information for each service identified by an IP address, transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method A metadata acquisition unit for acquiring second metadata in text format or binary format including control information for selecting a minimum service;
And a selection control unit configured to perform selection control of a stream of components constituting a minimum service based on the acquired second metadata.
(2)
The data size of the second metadata is smaller than the data size of the first metadata,
The receiving apparatus according to (1), wherein a transmission cycle of the second metadata is shorter than a transmission cycle of the first metadata.
(3)
The receiving device according to (1) or (2), wherein the metadata acquisition unit acquires the first metadata in parallel with the acquisition of the second metadata.
(4)
The reception apparatus according to any one of (1) to (3), wherein the minimum service includes a main video component and a main audio component.
(5)
The second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service. (1) The receiving device according to any one of (4).
(6)
The receiving apparatus according to any one of (1) to (4), wherein the second metadata is transmitted together with the first metadata in the first layer.
(7)
The second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method. The receiving device according to any one of (1) to (4).
(8)
In the receiving method of the receiving device,
The receiving device is
Performs channel selection control to select digital broadcasting using the IP transmission method,
In the digital broadcast, the first metadata in text format including control information for each service identified by an IP address, transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method Prior to, obtaining second metadata in text format or binary format including control information for selecting a minimum service;
A receiving method including a step of performing selection control of a stream of a component constituting a minimum service based on the acquired second metadata.
(9)
An acquisition unit for acquiring components constituting a service identified by an IP address in digital broadcasting using an IP transmission method;
To select first metadata in text format including control information for each service, which is transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method, and a minimum service A generating unit that generates second metadata in text format or binary format including the control information;
The IP transmission of the first metadata and the second metadata together with the stream of components so that the second metadata is acquired prior to the first metadata in the receiving device. A transmission device comprising: a transmission unit configured to transmit by digital broadcasting using a method.
(10)
The data size of the second metadata is smaller than the data size of the first metadata,
The transmission apparatus according to (9), wherein a transmission cycle of the second metadata is shorter than a transmission cycle of the first metadata.
(11)
The transmission apparatus according to (9) or (10), wherein the minimum service includes components of main video and main audio.
(12)
The second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service. (9) The transmission device according to any one of (11).
(13)
The transmission device according to any one of (9) to (11), wherein the second metadata is transmitted together with the first metadata in the first layer.
(14)
The second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method. The transmission device according to any one of (9) to (11).
(15)
In the transmission method of the transmission device,
The transmitting device is
In digital broadcasting using the IP transmission method, acquire the components that make up the service identified by the IP address,
To select first metadata in text format including control information for each service, which is transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method, and a minimum service Generating second metadata in text format or binary format including the control information of
The IP transmission of the first metadata and the second metadata together with the stream of components so that the second metadata is acquired prior to the first metadata in the receiving device. A transmission method including a step of transmitting by digital broadcasting using a method.
 1 放送通信システム, 10 送信装置, 20 受信装置, 30 データ提供サーバ, 40 ストリーミングサーバ, 111 シグナリング生成部, 112 シグナリング処理部, 113 ビデオデータ取得部, 115 オーディオデータ取得部, 117 字幕データ取得部, 120 送信部, 212 チューナ, 214 制御部, 215 NVRAM, 216 入力部, 217 通信部, 220 ビデオ出力部, 222 オーディオ出力部, 251 選局制御部, 252 パケットヘッダ監視部, 253 フィルタリング制御部, 254 シグナリング取得部, 255 シグナリング解析部, 256 通信制御部, 90 ネットワーク, 900 コンピュータ, 901 CPU 1 broadcasting communication system, 10 transmitting device, 20 receiving device, 30 data providing server, 40 streaming server, 111 signaling generation unit, 112 signaling processing unit, 113 video data acquisition unit, 115 audio data acquisition unit, 117 subtitle data acquisition unit, 120 transmission unit, 212 tuner, 214 control unit, 215 NVRAM, 216 input unit, 217 communication unit, 220 video output unit, 222 audio output unit, 251 channel selection control unit, 252 packet header monitoring unit, 253 filtering control unit, 254 Signaling acquisition unit, 255 signaling analysis unit, 256 communication control unit, 90 network, 900 computer, 901 CPU

Claims (15)

  1.  IP(Internet Protocol)伝送方式を用いたデジタル放送を選局する選局制御を行う選局制御部と、
     前記デジタル放送において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、IPアドレスで識別されるサービスごとの制御情報を含むテキスト形式の第1のメタデータに先行して、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを取得するメタデータ取得部と、
     取得された前記第2のメタデータに基づいて、最小限のサービスを構成するコンポーネントのストリームの選択制御を行う選択制御部と
     を備える受信装置。
    A channel selection control unit that performs channel selection control for selecting digital broadcasting using an IP (Internet Protocol) transmission method;
    In the digital broadcast, the first metadata in text format including control information for each service identified by an IP address, transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method A metadata acquisition unit for acquiring second metadata in text format or binary format including control information for selecting a minimum service;
    And a selection control unit configured to perform selection control of a stream of components constituting a minimum service based on the acquired second metadata.
  2.  前記第2のメタデータのデータサイズは、前記第1のメタデータのデータサイズよりも小さく、
     前記第2のメタデータの伝送周期は、前記第1のメタデータの伝送周期よりも短い
     請求項1に記載の受信装置。
    The data size of the second metadata is smaller than the data size of the first metadata,
    The receiving apparatus according to claim 1, wherein a transmission cycle of the second metadata is shorter than a transmission cycle of the first metadata.
  3.  前記メタデータ取得部は、前記第2のメタデータの取得と並行して、前記第1のメタデータを取得する
     請求項2に記載の受信装置。
    The receiving device according to claim 2, wherein the metadata acquisition unit acquires the first metadata in parallel with the acquisition of the second metadata.
  4.  前記最小限のサービスは、主映像と主音声のコンポーネントから構成される
     請求項3に記載の受信装置。
    The receiving apparatus according to claim 3, wherein the minimum service is composed of main video and main audio components.
  5.  前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータとともに伝送される
     請求項4に記載の受信装置。
    The second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service. The receiving device according to claim 4.
  6.  前記第2のメタデータは、前記第1の階層で、前記第1のメタデータとともに伝送される
     請求項4に記載の受信装置。
    The receiving device according to claim 4, wherein the second metadata is transmitted together with the first metadata in the first layer.
  7.  前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で伝送される、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータに含められる
     請求項4に記載の受信装置。
    The second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method. The receiving device according to claim 4.
  8.  受信装置の受信方法において、
     前記受信装置が、
     IP伝送方式を用いたデジタル放送を選局する選局制御を行い、
     前記デジタル放送において、前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、IPアドレスで識別されるサービスごとの制御情報を含むテキスト形式の第1のメタデータに先行して、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを取得し、
     取得された前記第2のメタデータに基づいて、最小限のサービスを構成するコンポーネントのストリームの選択制御を行う
     ステップを含む受信方法。
    In the receiving method of the receiving device,
    The receiving device is
    Performs channel selection control to select digital broadcasting using the IP transmission method,
    In the digital broadcast, the first metadata in text format including control information for each service identified by an IP address, transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method Prior to, obtaining second metadata in text format or binary format including control information for selecting a minimum service;
    A receiving method including a step of performing selection control of a stream of a component constituting a minimum service based on the acquired second metadata.
  9.  IP伝送方式を用いたデジタル放送で、IPアドレスで識別されるサービスを構成するコンポーネントを取得する取得部と、
     前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、前記サービスごとの制御情報を含むテキスト形式の第1のメタデータと、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを生成する生成部と、
     受信装置において前記第1のメタデータに先行して前記第2のメタデータが取得されるように、前記第1のメタデータと前記第2のメタデータを、前記コンポーネントのストリームとともに、前記IP伝送方式を用いたデジタル放送で送信する送信部と
     を備える送信装置。
    An acquisition unit for acquiring components constituting a service identified by an IP address in digital broadcasting using an IP transmission method;
    To select first metadata in text format including control information for each service, which is transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method, and a minimum service A generating unit that generates second metadata in text format or binary format including the control information;
    The IP transmission of the first metadata and the second metadata together with the stream of components so that the second metadata is acquired prior to the first metadata in the receiving device. A transmission device comprising: a transmission unit configured to transmit by digital broadcasting using a method.
  10.  前記第2のメタデータのデータサイズは、前記第1のメタデータのデータサイズよりも小さく、
     前記第2のメタデータの伝送周期は、前記第1のメタデータの伝送周期よりも短い
     請求項9に記載の送信装置。
    The data size of the second metadata is smaller than the data size of the first metadata,
    The transmission device according to claim 9, wherein a transmission cycle of the second metadata is shorter than a transmission cycle of the first metadata.
  11.  前記最小限のサービスは、主映像と主音声のコンポーネントから構成される
     請求項10に記載の送信装置。
    The transmission apparatus according to claim 10, wherein the minimum service includes a main video component and a main audio component.
  12.  前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータとともに伝送される
     請求項11に記載の送信装置。
    The second metadata is transmitted in the second layer lower than the IP layer in the protocol layer of the IP transmission method together with the third metadata in the text format including the control information independent of the service. The transmission device according to claim 11.
  13.  前記第2のメタデータは、前記第1の階層で、前記第1のメタデータとともに伝送される
     請求項11に記載の送信装置。
    The transmission apparatus according to claim 11, wherein the second metadata is transmitted together with the first metadata in the first hierarchy.
  14.  前記第2のメタデータは、前記IP伝送方式のプロトコルの階層におけるIP層よりも下位の第2の階層で伝送される、前記サービスに依存しない制御情報を含むテキスト形式の第3のメタデータに含められる
     請求項11に記載の送信装置。
    The second metadata is a third metadata in text format including control information independent of the service, transmitted in a second layer lower than the IP layer in the protocol layer of the IP transmission method. The transmission device according to claim 11 included.
  15.  送信装置の送信方法において、
     前記送信装置が、
     IP伝送方式を用いたデジタル放送で、IPアドレスで識別されるサービスを構成するコンポーネントを取得し、
     前記IP伝送方式のプロトコルの階層におけるIP層よりも上位の第1の階層で伝送される、前記サービスごとの制御情報を含むテキスト形式の第1のメタデータと、最小限のサービスを選択するための制御情報を含むテキスト形式又はバイナリ形式の第2のメタデータを生成し、
     受信装置において前記第1のメタデータに先行して前記第2のメタデータが取得されるように、前記第1のメタデータと前記第2のメタデータを、前記コンポーネントのストリームとともに、前記IP伝送方式を用いたデジタル放送で送信する
     ステップを含む送信方法。
    In the transmission method of the transmission device,
    The transmitting device is
    In digital broadcasting using the IP transmission method, acquire the components that make up the service identified by the IP address,
    To select first metadata in text format including control information for each service, which is transmitted in a first layer higher than the IP layer in the protocol layer of the IP transmission method, and a minimum service Generating second metadata in text format or binary format including the control information of
    The IP transmission of the first metadata and the second metadata together with the stream of components so that the second metadata is acquired prior to the first metadata in the receiving device. A transmission method including a step of transmitting by digital broadcasting using a method.
PCT/JP2015/066826 2014-06-23 2015-06-11 Reception apparatus, reception method, transmission apparatus, and transmission method WO2015198872A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014128658 2014-06-23
JP2014-128658 2014-06-23

Publications (1)

Publication Number Publication Date
WO2015198872A1 true WO2015198872A1 (en) 2015-12-30

Family

ID=54937963

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/066826 WO2015198872A1 (en) 2014-06-23 2015-06-11 Reception apparatus, reception method, transmission apparatus, and transmission method

Country Status (1)

Country Link
WO (1) WO2015198872A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005039764A (en) * 2003-01-23 2005-02-10 Matsushita Electric Ind Co Ltd Media data transmitter and receiver
WO2013161688A1 (en) * 2012-04-24 2013-10-31 シャープ株式会社 Distribution device, reproduction device, data structure, distribution method, control program, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005039764A (en) * 2003-01-23 2005-02-10 Matsushita Electric Ind Co Ltd Media data transmitter and receiver
WO2013161688A1 (en) * 2012-04-24 2013-10-31 シャープ株式会社 Distribution device, reproduction device, data structure, distribution method, control program, and recording medium

Similar Documents

Publication Publication Date Title
US11374993B2 (en) Reception device, reception method, transmission device, and transmission method
KR102332387B1 (en) Reception device, reception method, transmission device, and transmission method
US11871087B2 (en) Receiver, reception method, transmitter, and transmission method
JP2019161656A (en) Reception method and transmission method
JP6598031B2 (en) Receiving device, receiving method, transmitting device, and transmitting method
WO2016035588A1 (en) Reception device, reception method, transmission device and transmission method
WO2015198872A1 (en) Reception apparatus, reception method, transmission apparatus, and transmission method
WO2016031591A1 (en) Reception device, reception method, transmission device, and transmission method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15811311

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 15811311

Country of ref document: EP

Kind code of ref document: A1