WO2016199527A1 - Transmission device, transmission method, reception device, and reception method - Google Patents

Transmission device, transmission method, reception device, and reception method Download PDF

Info

Publication number
WO2016199527A1
WO2016199527A1 PCT/JP2016/063788 JP2016063788W WO2016199527A1 WO 2016199527 A1 WO2016199527 A1 WO 2016199527A1 JP 2016063788 W JP2016063788 W JP 2016063788W WO 2016199527 A1 WO2016199527 A1 WO 2016199527A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
application
display
data stream
transmission
Prior art date
Application number
PCT/JP2016/063788
Other languages
French (fr)
Japanese (ja)
Inventor
義治 出葉
北里 直久
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2016199527A1 publication Critical patent/WO2016199527A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream

Definitions

  • the technology disclosed in this specification includes a transmission apparatus and a transmission method for transmitting an application and a data stream used by the application, and a reception apparatus and a reception method for receiving the application and the data stream used by the application and displaying the application.
  • a transmission apparatus and a transmission method for transmitting an application and a data stream used by the application and a reception apparatus and a reception method for receiving the application and the data stream used by the application and displaying the application.
  • Digital broadcasting services that employ MPEG2-TS as the media transport method are in operation around the world.
  • MPEG2-TS MPEG Media Transport
  • MMT MPEG Media Transport
  • the MMT system can be easily used in a combination of different transmission paths, and can be used in common for a plurality of broadcast and communication transmission paths.
  • a data broadcasting application is transmitted on a broadcast wave together with components such as video, audio, and captions (see, for example, Patent Document 2).
  • the data broadcasting application is content described using a description language such as BML (Broadcast Markup Language) or HTML (Hyper Text Markup Language) 5.
  • BML Broadcast Markup Language
  • HTML Hyper Text Markup Language
  • An object of the technology disclosed in the present specification is to provide a transmission apparatus and a transmission method for transmitting an application and a data stream used by the application.
  • a further object of the technology disclosed in the present specification is to provide a receiving apparatus and a receiving method for receiving an application and a data stream used by the application and displaying the application.
  • An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part
  • An application transmitter that transmits A data stream transmission unit for transmitting a data stream including data used in the application; It is the transmitter which comprises.
  • the application transmission unit of the transmission device uses the object that reads data from the data stream in a predetermined format.
  • the application including the first description part is configured to be transmitted.
  • the application transmission unit of the transmission device describes a procedure for repeatedly drawing processing based on data delivered by the object.
  • the application including the second description part is configured to be transmitted.
  • the data stream transmission unit of the transmission device displays the display object that moves in synchronization with the motion of the broadcast video by the application. For transmitting the data to be transmitted.
  • the data stream transmission unit of the transmission device includes a position and a size of the display object on a screen, and a display of the display object. It is configured to transmit the data including information about the data.
  • the transmission device further includes a control information transmission unit that transmits control information including a time stamp indicating a display time of the data. Yes.
  • the data stream transmission unit is configured to intermittently transmit the data.
  • the data stream transmission unit of the transmission device performs interpolation for obtaining an interpolation position of the display object until the next timing.
  • the data including information is transmitted intermittently.
  • the application transmission unit of the transmission device is an HTML5 that enables monitoring of a script variable such as a function provided by AngularJS, for example.
  • the application is configured to be transmitted in the form of a document.
  • an application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part
  • An application sending step for sending A data stream transmission step of transmitting a data stream including data used in the application; Is a transmission method.
  • An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part
  • An application receiver for receiving A data stream receiver for receiving a data stream including data used in the application;
  • a processing unit for displaying the application using the received data stream; It is the receiver which comprises.
  • the processing unit of the reception device reads the data read from the data stream received according to the description of the first description unit. Is used to display an application in accordance with the description of the second description section.
  • the processing unit of the reception device is predetermined from the received data stream by an object used in the first description unit.
  • the data is read in the following format.
  • the processing unit of the receiving device is based on the data passed by the object as the process of the second description unit.
  • the drawing process is repeatedly performed.
  • the data stream receiving unit of the receiving device displays a display object that moves in synchronization with the motion of a broadcast video.
  • the data is received, and the processing unit is configured to display the display object based on the data read from the data stream in accordance with the description of the first description unit.
  • the data stream reception unit of the reception device includes a position and a size of the display object on a screen, and display of the display object.
  • Receiving the data stream including information relating to data wherein the processing unit displays the display data of the display object based on the position and size read from the data stream in accordance with the description of the first description unit; It is configured.
  • the receiving device further includes a control information receiving unit that transmits control information including a time stamp indicating a display time of the data. Yes.
  • the data stream receiving unit intermittently receives the data stream including the interpolation information for obtaining the interpolation position of the display object until the next timing, and the processing unit is configured to display data other than the display timing.
  • the display object is displayed at the interpolation position based on the interpolation information.
  • the application transmission unit of the reception device uses the HTML5 document format application that enables a function to monitor a change in script variables.
  • the processing unit is configured to display the application based on the function of the HTML5 browser.
  • the eighteenth aspect of the technology disclosed in this specification is: An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part Receiving the application, and A data stream receiving step for receiving a data stream including data used in the application; Processing to display the application using the received data stream; Is a receiving method.
  • FIG. 1 is a diagram schematically illustrating a configuration example of a digital broadcasting system 10.
  • FIG. 2 is a diagram showing a protocol stack 200 in the digital broadcasting system 10 using the MMT method.
  • FIG. 3 is a diagram illustrating a configuration example of the broadcast transmission system 11.
  • FIG. 4 is a diagram illustrating a configuration example of the receiver 12 that receives a broadcast signal from the broadcast transmission system 11.
  • FIG. 5 is a diagram showing an image of a broadcast signal 500 transmitted by the MMT method.
  • FIG. 6 is a diagram showing a mechanism for designating each asset related to the broadcast service from the MP table in the PA message.
  • FIG. 7 is a diagram for explaining a mechanism for acquiring a file related to a data broadcast transmitted by MMT.
  • FIG. 1 is a diagram schematically illustrating a configuration example of a digital broadcasting system 10.
  • FIG. 2 is a diagram showing a protocol stack 200 in the digital broadcasting system 10 using the MMT method.
  • FIG. 3 is a diagram
  • FIG. 8 is a diagram for explaining a mechanism for generating a video signal for output.
  • FIG. 9 is a diagram showing a display example of a broadcast screen on which a display object synchronized with the video of the broadcast program is displayed.
  • FIG. 10 is a diagram showing the configuration of MPU and MFU of general-purpose data.
  • FIG. 11 is a diagram showing the structure of a general-purpose data stream in which moving object list description documents describing information on display objects for the number of objects and display data referenced from the documents are packaged.
  • FIG. 12 is a diagram showing a display example of the display object described by the moving object / list description document shown in FIG.
  • FIG. 13 is a diagram illustrating a syntax example of the moving object list description document.
  • FIG. 14 is a diagram for explaining a mechanism for interpolating the display position of the display object based on the interpolation information.
  • FIG. 15 is a diagram illustrating an HTML part of a data broadcasting application.
  • FIG. 16 is a diagram illustrating a JavaScript (registered trademark) part of a data broadcasting application.
  • FIG. 17 is a diagram showing a description example of the JavaScript (registered trademark) part assumed from the HTML part.
  • FIG. 18 is a diagram schematically illustrating a functional configuration for displaying an object that moves according to a broadcast video.
  • FIG. 19 is a diagram illustrating a scenario in which display object information used by a data broadcasting application is based on general-purpose data.
  • FIG. 1 schematically shows a configuration example of a digital broadcasting system 10.
  • the illustrated digital broadcast system 10 includes a broadcast transmission system 11 and a receiver 12.
  • the broadcast transmission system 11 applies the MMT system for transmission of broadcast signals, and transmits each component constituting the broadcast service as an IP (Internet Protocol) packet.
  • IP Internet Protocol
  • the broadcast transmission system 11 uses the MMTP (MMT Protocol) payload with the video signal and audio signal codes of the broadcast program, and the content (data broadcast application, etc.) related to the broadcast program and subtitle signals. It is put into MMTP packets and then converted into IP packets, which are transmitted in the form of TLV (Type Length Value) packets on the broadcast transmission path.
  • TLV Type Length Value
  • components related to the broadcast program main body such as video, audio, and subtitles are synchronized media.
  • content that is, a data broadcasting application encoded in HTML (Hyper Text Transfer Protocol) 5 format or the like, is a non-timed media.
  • the broadcast transmission system 11 also performs MMT-SI signaling (notification), which is control information related to a broadcast service that transmits synchronous and asynchronous media.
  • MMT-SI includes a message, a table, and a descriptor.
  • the table is transmitted as a container for messages. Some parameters shown in messages and tables are described in descriptor format.
  • the receiver 12 receives the TLV packet sent from the broadcast transmission system 11 through the broadcast transmission path.
  • the receiver 12 then decodes a synchronous transmission medium constituting a broadcast program such as video, audio, and subtitles from the received packet, and presents images, audio, and subtitles.
  • the receiver 12 acquires each data file for data broadcasting from the received packet, the receiver 12 starts an application engine such as an HTML browser and displays the data broadcast linked to the broadcast program and the video of the TV program. Display in part or all of the screen area.
  • the receiver 12 also receives MMT-SI that is control information related to the broadcast service. Based on the MMT-SI, the receiver 12 performs reception control of transmission media such as video, audio, captions, and data broadcasting, and output (display, audio output) control on the receiver 12.
  • MMT-SI that is control information related to the broadcast service.
  • the receiver 12 Based on the MMT-SI, the receiver 12 performs reception control of transmission media such as video, audio, captions, and data broadcasting, and output (display, audio output) control on the receiver 12.
  • FIG. 2 shows a protocol stack 200 in the digital broadcasting system 10 using the MMT method.
  • One broadcast service is composed of video 201, audio 202, subtitle 203, application 204, and content / download 205 components.
  • the video 201 is encoded 211 in the HEVC (High Efficiency Video Coding) format
  • the audio 202 is encoded 212 in the AAC (Advanced Audio Coding) format
  • the subtitle 203 is subtitle encoded 213.
  • the application 204 includes EPG (Electric Program Guide), but is encoded in, for example, the HTML5 format 214.
  • the video program and audio signal encoding components 211 and 212 of the broadcast program are MFU (Media Fragment Unit) and MPU (Media Processing Unit), which are put on the MMTP payload and converted into an MMTP packet.
  • the subtitle signal encoding component 213 of the broadcast program and the application (data / content) encoding component 214 related to the broadcast program are also MFU and MPU, and are put in the MMTP payload and converted into an MMTP packet.
  • MMT-SI 221 which is control information related to MMT which is a media transport system (indicating the configuration of a broadcast program) is also put into an MMTP packet on the MMTP payload. Details of the control information MMT-SI related to the MMT will be described later.
  • MPU is a unit of processing
  • MFU is a unit smaller than MPU.
  • the data transmission method 215 of the content download 205 includes four types: a caption / text super transmission method, an application transmission method, an event / message transmission method, and a general-purpose data transmission method.
  • the application transmission method is used for a data transmission service asynchronous with a broadcast program.
  • the general-purpose data transmission method is a method for transmitting various types of data in a synchronous or asynchronous manner. Data used by a player that presents data other than video, audio, and subtitles and data used in multimedia services. It can be applied to streaming.
  • the MMTP packet is converted into an IP packet.
  • An NTP (Network Time Protocol) packet 206 including information on the current time for the synchronous media is also converted into an IP packet. Further, these IP packets are converted into TLV packets in the TLV layer 240 and transmitted through the broadcast transmission path 250 which is the lowermost physical layer.
  • a TLV-SI 241 related to a TLV multiplexing format for multiplexing IP packets is also converted into a TLV packet and transmitted through the broadcast transmission path 250.
  • the transmission slot in which the TLV packet is multiplexed is specified by using TLV stream identification information (TLV_stream_id) from a TMCC (Transmission and Multiplexing Configuration Control) signal 251 of the transmission path.
  • TLV_stream_id TLV stream identification information
  • TMCC Transmission and Multiplexing Configuration Control
  • FIG. 3 shows a configuration example of a broadcast transmission system 11 that transmits a broadcast signal having a protocol stack structure as shown in FIG.
  • the broadcast transmission system 11 shown in the figure includes a clock unit 301, a signal transmission unit 302, a video encoder 303, an audio encoder 304, a caption / text super encoder 305, a signaling encoder 306, and a file encoder 307.
  • An electronic data processing system (Electronic Data Processing System: EDPS) 308, a TLV signaling encoder 309, an IP service multiplexer (MUX) 310, a TLV multiplexer (MUX) 311, and a modulation / transmission unit 312.
  • EDPS Electronic Data Processing System
  • the signal transmission unit 302 is, for example, a recording / playback device such as a studio of a TV broadcast station or a VTR, and stream data such as video, audio, subtitles, and superimpose characters, which are synchronous media, respectively, with a video encoder 303, an audio The data is sent to the encoder 304 and the subtitle / character super encoder 305.
  • the signal transmission unit 302 sends the data broadcast application, which is an asynchronous medium, and synchronous and asynchronous general-purpose data to the file encoder 307.
  • the electronic data processing system 308 is a TV broadcast station scheduler and a file supply source.
  • the electronic data processing system 308 sends a data broadcast application, which is an asynchronous medium, and synchronous and asynchronous general-purpose data to the file encoder 307.
  • the electronic data processing system 308 also sends control information indicating the configuration of the broadcast service to the signaling encoder 306. Also, the electronic data processing system 308 sends control information related to multiplexing of IP packets to the TLV signaling encoder 309.
  • the subtitle / character super encoder 305 encodes the subtitle signal and the character super signal transmitted from the signal transmission unit 302, further generates an MPU in units of presentation processing, and generates an IP packet including the MMT packet of the subtitle. Send to IP service multiplexer 310.
  • the broadcast transmission system 11 transmits a plurality of broadcast services (that is, components of a plurality of broadcast channels), HEVC encoding of the video signal, AAC encoding of the audio signal, and subtitle / text super encoding are performed for each broadcast service.
  • the processing is performed and sent to the IP service multiplexers 310-1,..., 310-N corresponding to the respective broadcast services # 1 to #N.
  • the signaling encoder 306 generates control information (MMT-SI) indicating the configuration of the broadcast signal based on information transmitted from the electronic data processing system 308, and an MMT packet in which the MMT-SI is arranged in the payload portion Is sent to the IP service multiplexer 310.
  • MMT-SI includes messages, tables, and descriptors (described above).
  • the signaling encoder 306 generates MMT-SI for each broadcasting service, and also generates MMT-SI for broadcasting services.
  • the file encoder 307 encodes general data used in the data broadcasting application in HTML5 format or the data broadcasting application transmitted from the signal transmission unit 3102 or the electronic data processing system 308, further packetizes the MMT packet, and The containing IP packet is sent to the IP service multiplexer 310.
  • the broadcast transmission system 11 is equipped with a plurality of IP service multiplexers 310-1,..., 310-N for each broadcast service (broadcast channel) # 1 to #N to be transmitted.
  • the IP service multiplexer 310 of the channel for each broadcast service is an IP including each of video, audio, subtitles, (broadcast service unit) MMT-SI, data broadcast application, and general-purpose data sent from each encoder 303-307.
  • the packet is multiplexed to generate a TLV packet including a broadcast signal for each broadcast service and an MMT-SI across broadcast services.
  • the TLV signaling encoder 309 Based on the information sent from the electronic data processing system 308, the TLV signaling encoder 309 generates a TLV packet in which the control information (TLV-SI) related to the multiplexing of the IP packet is arranged in the payload portion.
  • TLV-SI control information
  • the TLV multiplexer 311 multiplexes TLV packets generated by the IP service multiplexers 310-1 to 310-N and the TLV signaling encoder 309, and generates a TLV stream identified by the TLV stream identification information. To do.
  • the modulation / transmission unit 312 performs RF modulation processing on the TLV stream generated by the TLV multiplexer 311 and sends it to the broadcast transmission path.
  • the video signal transmitted from the signal transmission unit 302 is supplied to the video encoder 303.
  • the video signal is HEVC encoded and further packetized to generate an IP packet including an MMT packet of the HEVC encoded video signal. This IP packet is sent to the IP service multiplexer 310.
  • an IP packet including the MMT packet of the AAC encoded audio signal generated by the audio encoder 304 is sent to the IP service multiplexer 310 and the subtitle encoded signal generated by the subtitle / character super encoder 305 is transmitted.
  • An IP packet including the MMT packet is sent to the IP service multiplexer 310.
  • the signaling encoder 306 generates control information (MMT-SI) indicating the configuration of the broadcast signal based on information transmitted from the electronic data processing system 308, and the MMT-SI is arranged in the payload portion.
  • MMT-SI control information
  • An IP packet including the MMT packet is generated. These IP packets are sent to the IP service multiplexer 310.
  • data broadcasting applications transmitted from the signal transmission unit 302 or the electronic data processing system 308, and general-purpose data used in the data broadcasting applications are supplied to the file encoder 307.
  • the file encoder 307 encodes the data broadcasting application in HTML5 format and general-purpose data, further packetizes it, and generates an IP packet including this MMT packet. This IP packet is sent to the IP service multiplexer 310.
  • each IP service multiplexer 310-1,..., 310-N video, audio, subtitle, MMT-SI (broadcast service unit and service crossing), data broadcasting application (from each encoder 303 to 307) HTML5 document) and IP packets including each of the general-purpose data are multiplexed to generate a TLV packet constituting one channel.
  • the TLV signaling encoder 309 generates a TLV packet in which the control information (TLV-SI) related to the multiplexing of the IP packet is arranged in the payload portion based on the information transmitted from the electronic data processing system 308.
  • TLV-SI control information
  • the TLV packets generated by the IP service multiplexers 310-1 to 310 -N and the TLV signaling encoder 309 are multiplexed to generate a TLV stream.
  • the modulation / transmission unit 312 performs RF modulation processing on the TLV stream generated by the TLV multiplexer 311 and sends the RF modulation signal to the broadcast transmission path.
  • FIG. 4 shows a configuration example of the receiver 12 that receives a broadcast signal from the broadcast transmission system 11.
  • the illustrated receiver 12 includes a tuner / demodulator 401, an MMT demultiplexer (DEMUX) 402, a clock recovery unit 403, a video decoder 404, an audio decoder 405, a character super decoder 406, and a subtitle.
  • Decoder 407 multimedia (MM) cache 408, SI cache 409, broadcast system control unit 410, application (App) engine 411, communication interface (IF) 412, scaler 414, synthesis unit 415 ⁇ 418.
  • the tuner / demodulator 401 receives a broadcast signal, performs demodulation processing, and obtains a TLV stream.
  • the MMT demultiplexer 402 performs demultiplex processing and depacketization processing on this TLV stream.
  • the demultiplexer 402 includes a packet filter 402-1 and an SI filter 402-2.
  • the packet filter 402-1 performs filtering of the IP packet based on the TLV stream identification information and the IP address, and further filters the MMTP packet from the IP packet based on the information in the MMTP header so that the video, audio, text Synchronous transmission media such as super and subtitles are distributed to a video decoder 404, an audio decoder 405, a character super decoder 406, and a subtitle decoder 407, respectively.
  • the packet filter 402-1 distributes each encoding component of multimedia (data broadcasting application) and general-purpose data to the multimedia (MM) cache 408.
  • the packet filter 402-1 distributes the MMTP packet carrying the signaling information to the SI filter 402-2. Then, the SI filter 402-2 filters the signaling information SI and caches it in the SI cache 409.
  • the clock recovery unit 403 Based on the current time information included in the NTP packet filtered by the packet filter 402-1 in the MMT demultiplexer 402, the clock recovery unit 403 generates time information synchronized with this time information, and The video data is output to a video decoder 404, an audio decoder 405, a character super decoder 406, and a subtitle decoder 407, which decode the synchronous transmission media.
  • the video decoder 404 decodes the encoded video signal obtained by the MMT demultiplexer 402 to obtain a baseband video signal.
  • the audio decoder 405 decodes the encoded audio signal obtained by the MMT demultiplexer 402 to obtain a baseband audio signal.
  • the character super decoder 406 and the caption decoder 407 decode the character super and the caption encoded signal obtained by the MMT demultiplexer 402, respectively, and obtain the character super and caption display signals, respectively.
  • the broadcast system control unit 410 controls the broadcast service reception operation of the entire receiver 12 based on the MMT-SI cached in the SI cache 409. For example, when the broadcast system control unit 410 analyzes the application execution control information (MH-AIT) included in the MMT-SI and finds a data broadcast application that is instructed to start, the broadcast system control unit 410 Instructs the data broadcasting presentation process.
  • MH-AIT application execution control information
  • the application engine 411 is, for example, an HTML browser or the like, and processes a data broadcast application (HTML5 document or the like) cached in the multimedia cache 408 to generate a data broadcast display signal and an audio signal.
  • the application engine 411 acquires data files (media data used for data broadcast display, link destination applications, etc.) necessary for data broadcast display from the IP network via the communication interface 412. You can also.
  • the application engine 411 acquires the general-purpose data to be streamed and reflects it on the display of the application.
  • the scaler 414 performs a scaling process on the video signal (broadcast video) decoded by the video decoder 404 in accordance with the screen size of the receiver 12.
  • the synthesizing unit 415 synthesizes the audio signal decoded by the audio decoder 405 and the audio signal for data broadcasting reproduced by the application engine 411 to generate an audio signal for output.
  • the composition unit 416 synthesizes the character super display decoded by the character super decoder 406 and the subtitle display decoded by the subtitle decoder 407.
  • the combining unit 417 combines the broadcast video scaled by the scaler 414 and the data broadcast display signal generated by the application engine 411. Further, the synthesizing unit 418 at the subsequent stage synthesizes the broadcast video on which the display of the data broadcast is superimposed, the character super display and the subtitle display output from the synthesizing unit 416, and generates an output video signal.
  • the tuner / demodulator 401 receives a broadcast signal, performs demodulation processing, and obtains a TLV stream.
  • the MMT demultiplexer 402 performs demultiplexing processing and packetization processing on the TLV stream, and encodes each of NTP time information, video, audio, text super and subtitles, data broadcasting application, and general-purpose data.
  • the video filter 404, the audio decoder 405, the character super decoder 406, the subtitle decoder 407, the multimedia (MM) cache 408, the SI filter are extracted by the packet filter 402-1. Each is assigned to 402-2.
  • the NTP packet extracted by the demultiplexer 402 is distributed to the clock recovery unit 403.
  • the clock recovery unit 403 generates time information synchronized with the time information based on the time information put on the NTP packet. That is, the clock recovery unit 403 generates time information that matches the time information generated by the clock unit 301 on the broadcast transmission system 11 side.
  • the generated time information is output to the video decoder 404, the audio decoder 405, the character super decoder 406, and the subtitle decoder 407, respectively, for decoding each synchronous transmission medium.
  • the encoded video signal extracted by the MMT demultiplexer 402 is sent to the video decoder 404 and decoded to obtain a baseband video signal.
  • the character super encoded signal extracted by the demultiplexer 402 is sent to the character super decoder 406 to be decoded to obtain a character super display signal.
  • the caption encoded signal extracted by the demultiplexer 402 is sent to the caption decoder 407 and decoded, so that a caption display signal is obtained.
  • the broadcast system control unit 410 controls the entire reception processing operation by the receiver 12 including the processing of the data broadcast application based on the MMT-SI received via the SI filter 402-2 and the SI cache 409.
  • the application engine 411 processes the data broadcast application (HTML5 document or the like) cached in the multimedia cache 408, and generates a data broadcast display signal and an audio signal.
  • data broadcast application HTML5 document or the like
  • general-purpose data used in the data broadcasting application is streamed.
  • the acquired general-purpose data is reflected in the display of the application.
  • the scaler 414 performs a scaling process on the video signal (broadcast video) decoded by the video decoder 404.
  • the synthesizing unit 416 synthesizes the character super display decoded by the character super decoder 406 and the subtitle display decoded by the subtitle decoder 407.
  • the combining unit 417 combines the broadcast video scaled by the scaler 414 and the display signal of the data broadcast generated by the application engine 411. Further, in the subsequent synthesis unit 418, the broadcast video on which the display of the data broadcast is superimposed, the character super display and the caption display output from the synthesis unit 416 are synthesized, and an output video signal is generated.
  • Figure 8 illustrates the mechanism for generating video signals for output.
  • the scaler 414 performs a scaling process on the video signal (broadcast video) decoded by the video decoder 404 according to the screen size of the receiver 12.
  • the combining unit 417 combines the broadcast video 811 scaled by the scaler 414 and the display signal (graphics) 812 of the data broadcast generated by the application engine 411 to generate a multimedia plane 802.
  • the synthesizing unit 416 synthesizes the character super plane 804 including the character super display decoded by the character super decoder 406 and the subtitle plane 803 including the normal subtitle display decoded by the subtitle decoder 407.
  • the combining unit 418 combines a plane obtained by combining the multimedia plane 802 in which the data broadcast display is superimposed on the broadcast video, the character super plane 804 output from the combining unit 416 and the normal subtitle plane 803 into a background plane.
  • a video signal for output, that is, a display screen is generated by superimposing the data on 801 in order.
  • the synthesizing unit 415 synthesizes the audio signal decoded by the audio decoder 405 and the audio signal for data broadcasting reproduced by the application engine 411 to generate an output audio signal.
  • FIG. 5 shows an image of a broadcast signal 500 transmitted from the broadcast transmission system 11 toward the receiver 12 to the broadcast transmission path according to the MMT method.
  • One broadcast service is a package composed of a plurality of components such as video, audio, captions, and data broadcast applications (provided that one broadcast service corresponds to one channel, that is, a broadcast program).
  • the video, audio, subtitles, etc. related to the main part of the broadcast program are synchronous media
  • the data broadcast application is an asynchronous media.
  • MMT mobile telephone
  • the component is defined as “asset”.
  • Each asset is identified by unique asset identification information (asset_id).
  • Asset identification information uniquely corresponds to a component tag that identifies the component.
  • the video asset corresponds to the video component
  • the audio asset corresponds to the audio component
  • the subtitle asset corresponds to the subtitle component
  • the data file asset for the data broadcasting application corresponds to the data file component.
  • the MMT transmission paths 501 to 505 for each asset such as video, audio, caption, data broadcasting application, general-purpose data, etc. are used as the broadcast signal 500.
  • an MMT transmission path 506 for control information (MMT-SI) related to a broadcast service is also used.
  • Each asset is composed of a set (logical group) of one or more MPUs sharing the same asset identification information.
  • the MPU is a format that is a transmission unit in the MMT system, and is composed of one or more MFUs.
  • the MPU is transmitted to each asset through a dedicated ES (Elementary Stream), that is, an MMT transmission path. Therefore, each MPU is uniquely identified by asset identification information and the sequence number of the MPU on the corresponding MMT transmission path.
  • each MMT transmission path the encoded media data is converted into an MMTP packet in the MPU format and transmitted as an IP packet.
  • Each MMT transmission line corresponds to one IP data flow.
  • the IP data flow referred to here is that the values of the five types of fields of the IP header and the UDP header in the source IP address, destination IP address, IP header protocol type, source port number, and destination port number are all the same. Is a set of IP packets.
  • the transmission path 501 transmits an MMTP packet of an encoded video signal composed of an MPU logical group having common asset identification information for video signals.
  • an MMT packet of an encoded audio signal composed of an MPU logical group having common asset identification information for audio signals is transmitted on the transmission path 502, and has common asset identification information for subtitle signals on the transmission path 503.
  • An MMTP packet of an encoded subtitle signal composed of an MPU group is transmitted.
  • the transmission path 504-1 transmits an MMTP packet of an encoding application including an MPU logical group having common asset identification information for a data broadcasting application, and the transmission path 504-2 is used for another data broadcasting application.
  • An MMTP packet of an encoded application consisting of an MPU logical group having common asset identification information is transmitted.
  • the transmission path 505 transmits the encoded general-purpose data signal MMTP packet including the MPU group having the common asset identification information.
  • assets of the same type may be transmitted within one package (broadcasting service).
  • the assets of the two data broadcasting applications are assigned different asset identification numbers and are transmitted through dedicated ES, that is, MMT transmission paths 504-1 and 504-2, respectively.
  • MMT transmission paths 504-1 and 504-2 For example, an asset of a program-linked data broadcasting application linked to a broadcast program is transmitted on one MMT transmission path 504-1, and an unlinked program-related data broadcasting application (not linked to a broadcast program) is transmitted on the other MMT transmission path 504-2.
  • assets such as weather forecasts and news are transmitted. It is also assumed that the assets of the data broadcasting application are provided independently from two or more delivery segments.
  • the MMT method can use a plurality of broadcast and communication transmission paths in common. For example, asynchronous media such as data broadcasting (HTML5 document, etc.) are transmitted together with synchronous media of the same broadcast service using transmission paths 504-1 and 504-2 of the broadcast signal 500 as shown in FIG. In addition, it can be transmitted via a communication transmission path (not shown) such as an IP network.
  • asynchronous media such as data broadcasting (HTML5 document, etc.) are transmitted together with synchronous media of the same broadcast service using transmission paths 504-1 and 504-2 of the broadcast signal 500 as shown in FIG.
  • a communication transmission path not shown
  • IP network such as an IP network
  • the transmission path 505 is used to transmit various data by a general-purpose data transmission method in a broadcasting system using MMT.
  • General-purpose data transmission can be used for streaming data used by HTML5 format data broadcasting applications.
  • the transmission path 506 is used for MMT signaling, that is, transmission of MMT-SI that is control information indicating information related to the configuration of the MMT package and the broadcast service.
  • MMT signaling that is, transmission of MMT-SI that is control information indicating information related to the configuration of the MMT package and the broadcast service.
  • the MMT message including the MMT-SI is converted into an MMTP packet and repeatedly transmitted by the carousel method.
  • the transmission line for TLV-SI is not shown.
  • MMT-SI has messages, tables, and descriptors. Examples of messages transmitted on the transmission line 506 include a PA message 510, an M2 section message 520, and a data transmission message 530.
  • the PA message 510 is control information indicating the configuration of a broadcast program and the like, and is a container that stores an MP (MMT Package) table 511 describing information constituting a package such as an asset list and its position.
  • MP MMT Package
  • the MP (MMT Package) table 511 is a table showing basic reception control information for each broadcast service, and specifically provides information constituting the package, such as an asset list and asset location information.
  • the MP table 511 includes MPT descriptors such as application service descriptors.
  • the application service descriptor indicates entry information of the data broadcasting application (for example, data transmission message and entry information of each M2 section message that transmits MH-AIT and EMT).
  • an MPU time stamp descriptor that provides the presentation time of the MPU is arranged.
  • PA message 510 is an entry point of the broadcast service, and fixed packet identification information (for example, 0x0000) is assigned to the MMTP packet that transmits PA message 510. Therefore, on the receiver side, the PA message 510 can be obtained by directly specifying the fixed packet identification information on the MMT transmission path 506. Then, as shown in FIG. 6, referring to the MP table 511 transmitted by the PA message 510, each asset (video, audio, caption, data broadcasting application, general-purpose data) constituting the package (broadcast program) and others Indirect signaling messages can be specified.
  • an MH-data encoding scheme descriptor is arranged to identify a data encoding scheme for each asset other than video and audio.
  • examples of the table stored in the PA message 510 include a PL (Package List) table (PLT) and an LC (Layout Configuration) table (LCT) in addition to the MP table.
  • PLT indicates a list of IP data flows and packet IDs for transmitting PA messages of MMT packages provided as broadcasting services, and IP data flows for transmitting IP services.
  • the LCT is used to associate layout information for presentation with a layout number.
  • the PA message is a container that can store up to three tables: an MP table, a PL table, and an LC table.
  • the M2 section message 520 is a message that transmits the section extension format of MPEG-2 Systems, and is a container that stores the section format signaling table one by one.
  • tables such as MH-AIT (Application Information Table) 521 and EMT (Event Message Table) 522 are stored one by one.
  • MH-AIT 521 is a table that specifies dynamic control information related to applications and additional information necessary for execution. Specifically, the MH-AIT 521 indicates the processing method of each application to be controlled in the table by application_control_code in the application information loop, and arranges various application information descriptors describing application information.
  • application_control_code is the application processing method such as autostart (automatic application startup), present (application executable state), kill (application termination), prefetch (application acquisition and retention (pre-cache)). Show.
  • the transmission protocol descriptor which is one of the application information descriptors, specifies the transmission method of the application and the location information corresponding to the transmission method (common in the case of HTTP / HTTPS and MMT asynchronous transmission). URL (Uniform Resource Locator) format for specifying location information).
  • the EMT 522 is a signaling table used for an event message transmission method, and stores information (event message descriptor) related to an event message (synchronous / asynchronous message from a broadcasting station to an application on a receiver).
  • the event / message transmission system provides a means for sending message information from a broadcasting station to a data broadcasting application operating on a receiver immediately or at a specified time.
  • the data transmission message 530 is a message for transmitting control information related to transmission of the data broadcasting application.
  • the data transmission message 530 includes a data directory management table (Data Directory management Table: DDMT) 531, a data asset management table (Data Asset Management Table: DAMT) 532, and a data content management table (Data Content ConfigurationTable 33: This is a container that can store up to three tables at the same time.
  • the data directory management table and the data asset management table are indispensable for the data broadcasting service, but the data / content management table is optional.
  • the data directory management table 531 is a table for managing data broadcasting applications in directory units (in other words, production units of data broadcasting applications).
  • the table describes the directory structure for items (directories and subdirectories and files included in a directory) included in one package, so that the file structure of the application and the structure for file transmission can be separated. it can.
  • the table shows the correspondence between the path name of each node, such as a directory or file, and the node tag that identifies each node in the data transmission message.
  • the data / asset management table 532 is a table for managing the data broadcasting application in units of assets, and describes version information for each MPU with the configuration of the MPU in the asset. Specifically, the table shows download identification information of each component, and a node tag and node on the MMT transmission path that identify a node (file or directory) included in each MPU that transmits the component in the data transmission message. The correspondence with the item identification information to identify is shown.
  • the data / content management table 533 is a table for managing the data broadcasting application for each presentation unit (Presentation Unit: PU).
  • the table shows presentation unit identification information for identifying a data broadcasting application for each presentation unit, and a node tag for identifying a node (file or directory) included in each presentation unit in a data transmission message.
  • the table can include link destination presentation unit identification information for identifying a presentation unit linked to the presentation unit, and information on cache control of each presentation unit. Can be used for flexible and effective cache control.
  • the transmission data structure of the file unit and the directory structure in contents (data broadcasting application) production can independently represent the data structure of usage units such as application units and presentation units.
  • the configuration of each of the signaling tables 531 to 533 is defined by ARIB STD B-60.
  • location information of each application is described in a URL format, in other words, a path name composed of a combination of a directory node name and a file name.
  • the asset path name can be converted into identification information (packet identification information) on the MMT transmission path by using the data directory management table and the data asset management table transmitted in the data transmission message.
  • identification information packet identification information
  • the receiver refers to the application information loop in the MH-AIT transmitted in the M2 section message, and detects an application to be started (for example, an application whose automatic start is specified by the application control code). be able to.
  • the receiver can acquire the location information of the application, that is, the path name, from the transmission protocol descriptor arranged in the MH-AIT.
  • the node tag of the file corresponding to the specified path name can be obtained from the data directory management table in the data transmission message.
  • the corresponding file is actually stored as indicated by reference number 704.
  • the data asset to be transmitted can be identified.
  • the file identification corresponding to the carousel is repeated using the download identification information obtained from the data asset management table and the download identification information described in the header area of the MMTP packet for transmitting the item.
  • the unit of transmission can be uniquely identified.
  • an item having an MPU sequence number and item identification information obtained from the data / asset management table can be designated as a desired file among items repeatedly transmitted.
  • a data broadcast application synchronized with the movement of a broadcast video is generally a structured document file encoded in a format such as HTML5.
  • the application engine 411 equipped with an HTML browser or the like analyzes the encoded application to generate a data broadcast display signal, which is converted into a video decoder
  • the composition unit 417 superimposes on the broadcast video decoded in 404.
  • a display signal for subtitles or text superimpose is further synthesized on a broadcast video obtained by synthesizing a data broadcast.
  • Some data broadcasting applications include independent data broadcasting that is not directly related to the main part of the broadcast program and is completed by itself, but many are program-linked data broadcasting applications that are linked to the broadcast program.
  • the present specification discloses a technique for providing a data broadcast application that displays graphics that move in synchronization with the motion of a broadcast video.
  • the graphics that move in synchronization with the movement of the broadcast video means that the graphics 812 that is superimposed on the broadcast video 811 moves in synchronization with the movement in the broadcast video 811. .
  • FIG. 9 shows a display example of a broadcast screen on which display objects synchronized with the broadcast program video are displayed.
  • This figure is a soccer game broadcast screen, and displays a balloon-like display object that displays information about the players participating (eg, player name, position, number of goals, etc.) and follows each player's movement. Overlay is displayed.
  • FIG. 9 is only one example of displaying a display object on a broadcast program screen in an overlay manner.
  • the same overlay display of display objects can be applied to broadcast programs that relay various sports such as baseball, basketball, golf, athletics, judo, and car races other than soccer.
  • the same overlay display of display objects can be applied to broadcast programs of various genres such as dramas and music programs other than sports.
  • a moving object list description (MOLD) document described below can be used as a method for expressing information related to a display object synchronized with video.
  • the moving object list description document has a document structure that describes a list of information on display objects for the number of objects displayed on the screen at the same time.
  • the information for each display object the position and size of the display object on the screen, and the display data itself or display data acquisition destination information (data reference number to be referred to or URL) do it.
  • data for changing the display object every moment is transmitted as a general-purpose data stream.
  • the control information of the display object that changes from time to time may be transmitted in a synchronized general-purpose data stream synchronized with the video.
  • interpolation information for obtaining the interpolation position of each display object until the next timing is also described in the moving object list description document.
  • the interpolation information includes information for obtaining an interpolation position for each time obtained by subdividing the time until the next timing.
  • Transmission of a general-purpose data stream for each video frame is not practical because of the large amount of information.
  • the general-purpose data stream is transmitted intermittently, and the receiver side displays the display object at the interpolation position obtained based on the interpolation information described in the moving object list description document, until the next timing.
  • the display object can be smoothly moved during the interval.
  • the display object can be displayed in an overlay manner by interpolation so as to smoothly follow the soccer player constantly moving around on the pitch.
  • the interpolation position of the display object can be linearly interpolated. Furthermore, by including the angular velocity information, it becomes possible to interpolate the arc of the interpolation position of the display object.
  • the velocity vector and the angular velocity can be obtained by analyzing the movement of the corresponding player.
  • URL information of hyperlinks may be further described in the moving object list description document as information on display objects.
  • information on display objects On the receiver side, when a video viewer operates a display object, information can be acquired and displayed from a link destination specified based on the URL specified for the display object.
  • the display data of the display object that is commonly referenced from multiple moving object list description documents is not packaged with the moving object list description document and transmitted every time. It may be transmitted in a packaged form with a description document, and may be commonly referred to from a moving object list description document transmitted thereafter.
  • general-purpose data consisting only of a moving object list description document that refers to external display data
  • the amount of transmission information can be reduced (that is, the transmission band can be saved).
  • the display data is updated and packaged with the moving object list description document and transmitted, the band saving effect is enhanced.
  • the general-purpose data stream may be intermittently transmitted at a constant cycle, or the transmission cycle may be variably controlled.
  • the transmission cycle of the general-purpose data stream may be controlled according to the movement of the display object. For example, when the movement of the display object is fast, it is transmitted at intervals of 1 second, so that a more accurate interpolation position of the display object can be easily obtained. Conversely, when the movement of the display object is slow, the transmission information amount may be reduced (that is, the transmission band is saved) at intervals of 5 seconds.
  • the moving object list description document and the display data (image file) of the display object to be referred to are packaged, and a time stamp indicating the display time of each package as a general-purpose data stream. Broadcast intermittently.
  • the time stamp information indicating the display time of the package unit can be indicated by an MPU time stamp descriptor that provides the presentation time of the MPU.
  • the display object synchronized with the video is displayed on the screen of the broadcast program based on the display time specified by the time stamp.
  • An application engine that executes a data broadcasting application sequentially draws an object that follows the movement of a video by sequentially accessing control information received as a general-purpose data stream and updating the display of the object.
  • MPU is the unit of processing.
  • the MPU includes data used at a certain timing and is a unit that can perform processing such as presentation in units of MPU.
  • FIG. 10 shows the configuration of MPU and MFU of general-purpose data.
  • the MPU of general-purpose data is composed of one or more MFUs without arranging MPU metadata and movie fragment metadata.
  • Each MFU includes a general-purpose data header part and a data part. Data of an arbitrary size can be stored in the data portion of each MFU. For example, one file can be sent by one MFU.
  • FIG. 11 schematically shows the structure of a general-purpose data stream in which a moving object list description document describing information about display objects for the number of objects and display data referenced from the document are packaged. Yes.
  • This general-purpose data stream is transmitted as a synchronous MPU.
  • the MPU is a unit of processing, and the MPU is composed of a plurality of MFUs.
  • a moving object list description document and a display data package referenced from the document are transmitted as a processing unit by one MPU.
  • reference numeral 1100 is an MPU that transmits one package.
  • the moving object list description document is stored in the first MFU indicated by reference numeral 1110 and is referenced from this moving object list description document.
  • Display data (image file) of each display object is stored in subsequent MFUs 1120-1,..., 1120-N.
  • tag information for identifying a display object and information for displaying the display object on the screen (Position) as information about the display object # 1 in the information block indicated by reference numeral 1111.
  • Size Size
  • velocity vector information Vector
  • angular velocity information
  • MediaData display object display data information
  • hyperlink URL information may be further included as display object information (not shown in FIG. 11).
  • the display data information (MediaData) of the display object can be represented by display data acquisition destination information (such as a data reference number to be referred to or a URL).
  • display data acquisition destination information such as a data reference number to be referred to or a URL.
  • display data acquisition destination information such as a data reference number to be referred to or a URL.
  • display data acquisition destination information such as a data reference number to be referred to or a URL.
  • display data acquisition destination information such as a data reference number to be referred to or a URL.
  • acquisition source information such as URL is transmitted within the same MPU.
  • the location information of the MFU storing the corresponding image file is designated.
  • the display data itself that is, binary data can be described in the information block of the moving object list description document.
  • reference number 1130 is an MP table, which designates asset identification information and location information of each asset (video, audio, caption, data broadcasting application, etc.) constituting a broadcast signal.
  • the display time of the MPU 1100 is designated by the MPU time stamp descriptor 1131 arranged for the asset of the general-purpose data stream in the second loop of the MP table. That is, the MPU time stamp descriptor 1131 specifies the sequence number of the MPU 1100 that transmits the moving object list description document by mpu_sequence_number, and the display time by mpu_presentation_time.
  • FIG. 13 shows a syntax example of the moving object list description document.
  • “mld” is designated by the parameter data_type_byte in the general-purpose data header part of the MFU, a moving object list description document as shown is stored in the data part.
  • parameters prefixed with @ are attribute information, and parameters without @ indicate elements.
  • the meaning of each parameter will be described.
  • “Mold” indicates that the data is a moving object list description document. At the same time, the information of the moving object mo is arranged in the document by the number of objects to be displayed on the screen.
  • Each moving object mo is identified by an object tag.
  • An object tag as an attribute value is described in the moTag field.
  • object position information As information on each moving object mo, object position information (position), object size information (size), object motion vector information (mv), information on object display data (media), link destination information at the time of object operation (Link) is included.
  • the object position information (position) includes the horizontal coordinate x and the vertical coordinate y of the display position of the object on the screen (upper left corner in the case of a rectangular area) as attribute values, and each indicates the pixel position as an integer value.
  • the object size information (size) includes the width x and height y of the rectangular area indicating the size of the object to be displayed on the screen as attribute values, each represented by a pixel value (integer value).
  • the object motion vector information (mv) is an attribute value including a velocity vector composed of the horizontal velocity x and the vertical velocity y of the object, and angular velocity information ⁇ (provided that the movement of the object is a curved motion expressed by an arc). An integer value indicating each is described.
  • the motion vector information (mv) can be used to determine the interpolation position of the object up to the timing of the next MPU (that is, the next moving object list description document) (described above).
  • Information related to display data indicates the type of display data of the object (JPEG or PNG) and the acquisition destination information of the display data of the object.
  • the acquisition source of the display data is roughly classified into any of the same MPU, the previous MPU, or on the Internet, and is designated by the parameter material_location in the additional information (mold_info) of the general data header part (described above).
  • the display data acquisition destination information an acquisition destination at a location specified by material_location is specified in url format, and an image file in a format specified by the type of display data is placed in the acquisition destination specified by url. That is the premise.
  • the display data binary data may be stored in the display data type area.
  • the link destination information (link) at the time of object operation specifies the link destination information of the object in url format.
  • link destination information (link) When a video viewer operates a display object, information can be acquired and displayed from a link destination specified by link destination information (link).
  • FIG. 14 illustrates a mechanism for interpolating the display position of the display object based on the interpolation information specified by the moving object list description document.
  • Reference numeral 1401 indicates the display position (X1, Y1) of the display object specified in the moving object list description document transmitted at a certain timing T1.
  • Reference numeral 1402 indicates the display position (X2, Y2) of the same display object specified in the moving object list description document transmitted at the next timing T2.
  • Reference numerals 1411 to 1414 are interpolation positions for each time when the timing interval is subdivided.
  • the velocity vector (x, y) and the angular velocity ⁇ are specified as the interpolation information of the display object. Based on the velocity vector (x, y), the interpolation positions 1411,... At each subdivided time can be linearly interpolated, and the interpolation positions 1411,. Is possible.
  • An application engine 411 that executes an application that displays a display object on a video in an overlay manner sequentially acquires moving object list description documents transmitted in a general-purpose data stream, and interpolates based on interpolation information. It is possible to display a display object that moves smoothly according to the movement of the display.
  • AngularJS which is one of the frameworks of JavaScript (registered trademark)
  • AngularJS has a function of monitoring changes in script variables (well known).
  • an object for transferring information of each display object to the HTML browser is prepared, and data is read from the general-purpose data stream in the JSON (Java Script (registered trademark) Object Notation) format, and is written in the HTML document. The data is transferred to the HTML browser as if the data had been stored.
  • JSON Java Script (registered trademark) Object Notation
  • Navigator an object for passing data is referred to as Navigator. It will be called genobjs.
  • the JSON format is a format in which key / value pairs are paired with a colon, these pairs are listed separated by commas, and the whole is enclosed in curly braces ⁇ .
  • FIG. 15 illustrates the HTML part of the data broadcasting application.
  • the HTML part is an HTML document described in the HTML5 format, and consists of a head document type declaration (Document Type Definition: DTD) followed by an html element.
  • ⁇ ! “doctype html>” corresponds to the document type declaration, and declares that the document is created in HTML5.
  • the html element is composed of a head element and a body element.
  • the head element is delimited by ⁇ head> to ⁇ / head>, and clearly shows the header information of the document.
  • the body element is delimited by ⁇ body> to ⁇ / body>, and clearly indicates the content of the document, that is, the main body of the document displayed by the browser.
  • the ng-app attribute is specified in the html element to declare that this HTML document is an application using AngularJS (that is, the AngularJS function is enabled).
  • the attribute used in AngularJS is prefixed with ng- like this ng-app attribute.
  • the ng-app attribute specifies a range in which AngularJS operates.
  • a ⁇ script> tag is arranged in the head element, that is, ⁇ head> to ⁇ / head>, and the URI of AngularrJS, which is an external script file, is specified by the src attribute.
  • a ⁇ script> tag is further placed in ⁇ head> to ⁇ / head>, and the file sample.script.script describing the script is placed in the same directory as the document with the src attribute. Specifies reading js.
  • the controller SampleController for the view is specified by the ng-controller attribute.
  • the controller defined in the view is described in a JavaScript (registered trademark) file (described later).
  • ⁇ P> tag is a ⁇ item. length ⁇ specifies that object is one paragraph.
  • the ⁇ ul> tag instructs the display of an unordered list. Then, the list item is specified by the subsequent ⁇ li> tag.
  • genobjs is an object Navigator. prepared for reading data from a general-purpose data stream in the JSON format. It is a reserved word of genobjs, and the moving object tag (mottag), the position of the moving object (positionx and positiony), etc. specified by double parentheses ⁇ ... ⁇ are sequentially read into genobjs in JSON format and changed. The object is repeatedly displayed in the browser. Therefore, the body element of the HTML part is stored in the object Navigator. It can be said to be a “second description part” that describes a procedure for drawing processing based on data acquired by genobjs.
  • FIG. 16 illustrates the JavaScript (registered trademark) part of the data broadcasting application.
  • Object Navigator prepared for the transfer of general-purpose data from the general-purpose data stream (data reading in JSON format). Genobjs is described as an argument $ scope of the controller SampleController. Navigator. Since genobjs sequentially reads each parameter value of the moving object list description document from the general-purpose data stream in the JSON format, it is assumed that the data as shown in FIG. 17 is included in the JavaScript (registered trademark) part. Thus, an HTML part as shown in FIG. 15 can be described. Therefore, the JavaScript (registered trademark) part shown in FIG. 16 can be said to be “a first description part describing a procedure for a browser to acquire data from a data stream”.
  • FIG. 18 schematically shows a functional configuration for displaying an object that moves in accordance with the broadcast video.
  • Reference numeral 1810 denotes an HTML browser (application engine 411) that executes a data broadcasting application described in an HTML document as shown in FIG.
  • the browser 1810 includes a data reading unit 1811 that reads data from the lower-layer general-purpose data reception processing unit 1820, and a display processing unit 1812 that repeatedly displays objects based on the latest general-purpose data read by the data reading unit 1811. It has.
  • the substance of the data reading unit 1811 is an object Navigator. genobjs, and the latest parameter value related to the display object is written in the reserved word genobjs. Therefore, from the display processing unit 1812, it is assumed that data is included in the JavaScript (registered trademark) unit as shown in FIG.
  • the value of general-purpose data read by the data reading unit 1811 is passed to the display processing unit 1812 using genobjs.
  • the display processing unit 1812 checks whether or not it coincides with the MPU presentation time specified by the MPU time stamp descriptor every time the display timing of the video frame arrives.
  • the display processing unit 1812 describes the moving object list description document transmitted by the first MFU of the corresponding MPU.
  • the display object is overlaid on the video frame based on the position information (positionx, positiony) of the object with reference to genobjs.
  • the display processing unit 1812 refers to genobjs and refers to element information of the motion vector (mv) (that is, velocity vector information). In addition, based on the angular velocity information), the interpolation position is calculated at the current time, and the display of the object is updated.
  • FIG. 19 exemplifies a scenario in which display object information used by the data broadcasting application is based on general-purpose data.
  • a broadcast signal transmitted from a certain broadcaster (broadcast station) is illustrated, and the horizontal axis is a time axis.
  • the broadcast signal includes a video asset 1910, an audio asset 1920, a data (application) asset 1930, and a general-purpose data asset 1940 as components constituting a broadcast program.
  • the broadcast signal may further include other assets, but is omitted for simplification of the drawing.
  • the broadcast signal includes a control signal 1950 for transmitting control information (MMT-SI) such as a signaling table such as an MP table and a signaling message serving as a container of the signaling table.
  • MMT-SI control information
  • a signaling table such as an MP table
  • a signaling message serving as a container of the signaling table.
  • the data asset 1930 transmits a data broadcasting application (see FIGS. 15 and 16) for displaying a display object on the broadcast program video, and the general data asset 1940 displays the data broadcasting application.
  • object control information that is, a moving object list description document
  • the display time of each MPU transmitted by the general-purpose data asset 1940 is specified by the MPU time stamp descriptor of the MP table (described above).
  • Reference numeral 1941 indicates an MPU in which a moving object list description document and display data (image file) of a display object to be referred to are packaged.
  • a moving object list description document is stored in the data portion of the first MFU, and display data referred to from the moving object list description document is stored one by one in the second and subsequent MFUs (see FIG. 11). See
  • Reference numeral 1942 indicates an MPU that does not package display data. This MPU transmits only one MFU storing the moving object list description document. From this moving object list description document, display data already transmitted by the preceding MPU 1941 is referenced. Similarly, the MPU indicated by the reference number 1943 transmits only the MFU of the moving object list description document. Reduces the amount of transmission information (ie, saves transmission bandwidth) by packaging and transmitting display data that is commonly referenced in multiple moving object list description documents to a single moving object list description document. can do.
  • Reference numeral 1944 indicates an MPU in which a moving object list description document and display data of a display object to be referred to are packaged. Similar to the MPU indicated by the reference number 1941, the moving object list description document is stored in the data portion of the first MFU, and the display data referenced from this moving object list description document is stored in the second and subsequent MFUs. One by one is stored (same as above).
  • the MPU 1944 including the updated display data and the packaged moving object list description document may be transmitted.
  • MPU 1944 in which display data is packaged is transmitted after a certain period of time has passed since MPU 1941 was transmitted.
  • the MPU time stamp descriptor in the MP table indicated by the reference number 1951 specifies the display time T10 of the display object by the moving object list description document transmitted by the MPU indicated by the reference number 1941.
  • the MPU time stamp descriptor in the MP table indicated by reference number 1952 specifies the display time T20 of the MPU indicated by reference number 1942
  • the MPU time stamp descriptor in the MP table indicated by reference number 1953 is the reference number.
  • the MPU display time T30 indicated by 1943 is specified
  • the MPU time stamp descriptor in the MP table indicated by reference number 1954 specifies the MPU display time indicated by reference number 1944.
  • the moving object list description document transmitted by the first MFU is analyzed, and the display data transmitted by the second and subsequent MFUs is converted to general data, Retain only the retention period specified in the header part.
  • the receiver displays each display as indicated by reference numeral 1961 according to the description content of the moving object list description document received by the MPU 1941.
  • the object is overlaid on the broadcast program video.
  • the receiver designates each display object in the moving object list description document at a time T11 obtained by subdividing the time interval until the display time T20 designated for the next MPU 1942 arrives.
  • An interpolation position is obtained based on the interpolated information (velocity vector, angular velocity), and the display of each display object is updated as indicated by reference numeral 1962.
  • each display object is displayed as an overlay on the video of the broadcast program.
  • the embodiment in which the technology disclosed in this specification is applied to a broadcasting system adopting the MMT method for media transmission has been mainly described.
  • the gist of the technology disclosed in this specification is limited to this. It is not something.
  • the technology disclosed in the present specification can be similarly applied to various types of broadcasting systems having a mechanism for streaming data used in a data broadcasting application. For example, when a similar function is realized in an MPEG TS broadcast system, display object information may be similarly transmitted using a PES packet, and a display time may be indicated by PTS.
  • a transmission apparatus comprising: (2) The application transmission unit transmits the application including the first description unit using an object that reads data from the data stream in a predetermined format. The transmission device according to (1) above. (3) The application transmission unit transmits the application including the second description unit that describes a procedure for repeatedly performing drawing processing based on data passed by the object. The transmission device according to (2) above.
  • the data stream transmission unit transmits the data for the application to display a display object that moves in synchronization with the motion of the broadcast video.
  • the data stream transmission unit transmits the data including the position and size of the display object on the screen and information regarding display data of the display object.
  • (6) a control information transmission unit that transmits control information including a time stamp indicating a display time of the data;
  • the data stream transmission unit transmits the data intermittently.
  • the data stream transmission unit intermittently transmits the data including interpolation information for obtaining an interpolation position of the display object until the next timing.
  • the application transmission unit transmits the application in the form of an HTML5 document that enables monitoring of script variables such as functions provided by AngularJS, for example.
  • the transmission device according to any one of (1) to (7) above.
  • An application sending step for sending an application including: A data stream transmission step of transmitting a data stream including data used in the application; A transmission method.
  • An application receiver that receives an application including A data stream receiver for receiving a data stream including data used in the application;
  • a receiving apparatus comprising: (11)
  • the processing unit displays an application according to the description of the second description unit by using the data read from the data stream received according to the description of the first description unit.
  • the receiving device according to (10) above.
  • (12) The processing unit reads the data in a predetermined format from the received data stream by the object used in the first description unit.
  • the receiving device (11) above.
  • the processing unit repeatedly performs a drawing process based on the data delivered by the object as the process of the second description unit.
  • the receiving device according to (12) above.
  • the data stream receiving unit receives the data for displaying a display object that moves in synchronization with the motion of the broadcast video, The processing unit displays the display object based on the data read from the data stream in accordance with the description of the first description unit.
  • the receiving device according to (10) above.
  • the data stream receiving unit receives the data stream including information on the position and size of the display object on the screen and display data of the display object, The processing unit displays the display data of the display object based on the position and size read from the data stream according to the description of the first description unit;
  • the receiving device according to (14) above.
  • a control information receiving unit that transmits control information including a time stamp indicating a display time of the data;
  • the data stream receiving unit intermittently receives the data stream including interpolation information for obtaining an interpolation position of the display object until the next timing,
  • the processing unit displays a display object at an interpolation position based on the interpolation information other than the display timing.
  • the receiving device according to any one of (14) and (15).
  • the application transmission unit receives the application in an HTML5 document format that enables a function of monitoring changes in script variables, The processing unit displays the application based on the function of the HTML5 browser.
  • the receiving device according to any one of (10) to (16).
  • Receiving an application including: an application receiving step; A data stream receiving step for receiving a data stream including data used in the application; Processing to display the application using the received data stream; Receiving method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Provided is an application for updating a display in real time on the basis of data transmitted as general-purpose data. In order to update data in an HTML browser in real time, AngularJS, which is one framework of JavaScript(R), is used in an HTML document describing a data broadcast application. Also, an object Navigator.genobjs for delivering information about individual display objects to the HTML browser is prepared, and the data is read in JSON format from the general-purpose data stream and delivered to the HTML browser.

Description

送信装置及び送信方法、並びに受信装置及び受信方法Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
 本明細書で開示する技術は、アプリケーションとアプリケーションで利用するデータ・ストリームを送信する送信装置及び送信方法、並びに、アプリケーションとアプリケーションで利用するデータ・ストリームを受信しアプリケーションを表示する受信装置及び受信方法に関する。 The technology disclosed in this specification includes a transmission apparatus and a transmission method for transmitting an application and a data stream used by the application, and a reception apparatus and a reception method for receiving the application and the data stream used by the application and displaying the application. About.
 メディア・トランスポート方式にMPEG2-TSを採用したディジタル放送サービスが世界各国で運用されている。また、次世代のディジタル放送規格では、MPEG2-TSから、MMT(MPEG Media Transport)方式への変更が検討されている(例えば、特許文献1を参照のこと)。MMT方式では、異なる伝送路の組み合わせで利用することが容易であり、放送や通信の複数の伝送路に共通に用いることができる。 Digital broadcasting services that employ MPEG2-TS as the media transport method are in operation around the world. In the next-generation digital broadcasting standard, a change from MPEG2-TS to an MMT (MPEG Media Transport) system is being studied (for example, see Patent Document 1). The MMT system can be easily used in a combination of different transmission paths, and can be used in common for a plurality of broadcast and communication transmission paths.
 ディジタル放送では、映像、音声、字幕などのコンポーネントとともに、データ放送アプリケーションが放送波で伝送される(例えば、特許文献2を参照のこと)。データ放送アプリケーションは、例えばBML(Broadcast Markup Language)やHTML(Hyper Text Markup Language)5などの記述言語を使用して記述されたコンテンツである。放送受信機側では、データ放送用のブラウザーを用いてコンテンツが解釈され、ユーザーへの文字情報の提示や受信機搭載機能へのアクセス、サーバーとの双方向通信などが行なわれる。 In digital broadcasting, a data broadcasting application is transmitted on a broadcast wave together with components such as video, audio, and captions (see, for example, Patent Document 2). The data broadcasting application is content described using a description language such as BML (Broadcast Markup Language) or HTML (Hyper Text Markup Language) 5. On the broadcast receiver side, content is interpreted using a browser for data broadcasting, and text information is presented to the user, access to the receiver's built-in functions, and bidirectional communication with the server are performed.
特開2014-200054号公報JP 2014-200054 A 特開2011-166441号公報JP 2011-166441 A
 本明細書で開示する技術の目的は、アプリケーションとアプリケーションで利用するデータ・ストリームを送信する送信装置及び送信方法を提供することにある。 An object of the technology disclosed in the present specification is to provide a transmission apparatus and a transmission method for transmitting an application and a data stream used by the application.
 本明細書で開示する技術のさらなる目的は、アプリケーションとアプリケーションで利用するデータ・ストリームを受信しアプリケーションを表示する受信装置及び受信方法を提供することにある。 A further object of the technology disclosed in the present specification is to provide a receiving apparatus and a receiving method for receiving an application and a data stream used by the application and displaying the application.
 本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
 データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを送信するアプリケーション送信部と、
 前記アプリケーションで利用するデータを含むデータ・ストリームを送信するデータ・ストリーム送信部と、
を具備する送信装置である。
The technology disclosed in the present specification has been made in consideration of the above-mentioned problems, and the first aspect thereof is
An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part An application transmitter that transmits
A data stream transmission unit for transmitting a data stream including data used in the application;
It is the transmitter which comprises.
 本明細書で開示する技術の第2の側面によれば、第1の側面に係る送信装置の前記アプリケーション送信部は、前記データ・ストリームから所定の形式でデータの読み込みを行なうオブジェクトを用いた前記第1の記述部を含む前記アプリケーションを送信するように構成されている。 According to a second aspect of the technology disclosed in this specification, the application transmission unit of the transmission device according to the first aspect uses the object that reads data from the data stream in a predetermined format. The application including the first description part is configured to be transmitted.
 本明細書で開示する技術の第3の側面によれば、第2の側面に係る送信装置の前記アプリケーション送信部は、前記オブジェクトで受け渡されるデータに基づいて繰り返し描画処理する手続きを記述する前記第2の記述部を含む前記アプリケーションを送信するように構成されている。 According to a third aspect of the technology disclosed in the present specification, the application transmission unit of the transmission device according to the second aspect describes a procedure for repeatedly drawing processing based on data delivered by the object. The application including the second description part is configured to be transmitted.
 本明細書で開示する技術の第4の側面によれば、第1の側面に係る送信装置の前記データ・ストリーム送信部は、放送映像の動きに同期して移動する表示オブジェクトを前記アプリケーションが表示するための前記データを送信するように構成されている。 According to the fourth aspect of the technology disclosed in this specification, the data stream transmission unit of the transmission device according to the first aspect displays the display object that moves in synchronization with the motion of the broadcast video by the application. For transmitting the data to be transmitted.
 本明細書で開示する技術の第5の側面によれば、第4の側面に係る送信装置の前記データ・ストリーム送信部は、前記表示オブジェクトの画面上の位置及びサイズと、前記表示オブジェクトの表示データに関する情報を含む前記データを送信するように構成されている。 According to a fifth aspect of the technology disclosed in this specification, the data stream transmission unit of the transmission device according to the fourth aspect includes a position and a size of the display object on a screen, and a display of the display object. It is configured to transmit the data including information about the data.
 本明細書で開示する技術の第6の側面によれば、第1の側面に係る送信装置は、前記データの表示時刻を示すタイムスタンプを含む制御情報を送信する制御情報送信部をさらに備えている。そして、前記データ・ストリーム送信部は、前記データを間欠的に送信するように構成されている。 According to the sixth aspect of the technology disclosed in this specification, the transmission device according to the first aspect further includes a control information transmission unit that transmits control information including a time stamp indicating a display time of the data. Yes. The data stream transmission unit is configured to intermittently transmit the data.
 本明細書で開示する技術の第7の側面によれば、第6の側面に係る送信装置の前記データ・ストリーム送信部は、次のタイミングまでの前記表示オブジェクトの内挿位置を求めるための補間情報を含めて、前記データを間欠的に送信するように構成されている。 According to a seventh aspect of the technology disclosed in this specification, the data stream transmission unit of the transmission device according to the sixth aspect performs interpolation for obtaining an interpolation position of the display object until the next timing. The data including information is transmitted intermittently.
 本明細書で開示する技術の第8の側面によれば、第1の側面に係る送信装置の前記アプリケーション送信部は、例えばAngularJSで提供される機能のようなスクリプト変数の監視を有効化するHTML5文書の形式で前記アプリケーションを送信するように構成されている。 According to the eighth aspect of the technology disclosed in this specification, the application transmission unit of the transmission device according to the first aspect is an HTML5 that enables monitoring of a script variable such as a function provided by AngularJS, for example. The application is configured to be transmitted in the form of a document.
 また、本明細書で開示する技術の第9の側面は、
 データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを送信するアプリケーション送信ステップと、
 前記アプリケーションで利用するデータを含むデータ・ストリームを送信するデータ・ストリーム送信ステップと、
を有する送信方法である。
Further, the ninth aspect of the technology disclosed in this specification is:
An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part An application sending step for sending
A data stream transmission step of transmitting a data stream including data used in the application;
Is a transmission method.
 また、本明細書で開示する技術の第10の側面は、
 データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを受信するアプリケーション受信部と、
 前記アプリケーションで利用するデータを含むデータ・ストリームを受信するデータ・ストリーム受信部と、
 受信した前記データ・ストリームを利用して前記アプリケーションの表示を行なう処理部と、
を具備する受信装置である。
The tenth aspect of the technology disclosed in this specification is:
An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part An application receiver for receiving
A data stream receiver for receiving a data stream including data used in the application;
A processing unit for displaying the application using the received data stream;
It is the receiver which comprises.
 本明細書で開示する技術の第11の側面によれば、第10の側面に係る受信装置の前記処理部は、前記第1の記述部の記述に従って受信した前記データ・ストリームから読み込んだ前記データを利用して、前記第2の記述部の記述に従ってアプリケーションの表示を行なうように構成されている。 According to an eleventh aspect of the technology disclosed in this specification, the processing unit of the reception device according to the tenth aspect reads the data read from the data stream received according to the description of the first description unit. Is used to display an application in accordance with the description of the second description section.
 本明細書で開示する技術の第12の側面によれば、第11の側面に係る受信装置の前記処理部は、前記第1の記述部で用いられるオブジェクトによって、受信した前記データ・ストリームから所定の形式で前記データの読み込みを行なうように構成されている。 According to a twelfth aspect of the technology disclosed in this specification, the processing unit of the reception device according to the eleventh aspect is predetermined from the received data stream by an object used in the first description unit. The data is read in the following format.
 本明細書で開示する技術の第13の側面によれば、第12の側面に係る受信装置の前記処理部は、前記第2の記述部の処理として、前記オブジェクトで受け渡される前記データに基づいて繰り返し描画処理を行なうように構成されている。 According to a thirteenth aspect of the technology disclosed in this specification, the processing unit of the receiving device according to the twelfth aspect is based on the data passed by the object as the process of the second description unit. Thus, the drawing process is repeatedly performed.
 本明細書で開示する技術の第14の側面によれば、第10の側面に係る受信装置の前記データ・ストリーム受信部は、放送映像の動きに同期して移動する表示オブジェクトを表示するための前記データを受信し、前記処理部は、前記第1の記述部の記述に従って前記データ・ストリームから読み込んだ前記データに基づいて前記表示オブジェクトを表示するように構成されている。 According to a fourteenth aspect of the technology disclosed in this specification, the data stream receiving unit of the receiving device according to the tenth aspect displays a display object that moves in synchronization with the motion of a broadcast video. The data is received, and the processing unit is configured to display the display object based on the data read from the data stream in accordance with the description of the first description unit.
 本明細書で開示する技術の第15の側面によれば、第14の側面に係る受信装置の前記データ・ストリーム受信部は、前記表示オブジェクトの画面上の位置及びサイズと、前記表示オブジェクトの表示データに関する情報を含む前記データ・ストリームを受信し、前記処理部は、前記第1の記述部の記述に従って前記データ・ストリームから読み込んだ位置及びサイズに基づいて前記表示オブジェクトの表示データを表示するように構成されている。 According to a fifteenth aspect of the technology disclosed in this specification, the data stream reception unit of the reception device according to the fourteenth aspect includes a position and a size of the display object on a screen, and display of the display object. Receiving the data stream including information relating to data, wherein the processing unit displays the display data of the display object based on the position and size read from the data stream in accordance with the description of the first description unit; It is configured.
 本明細書で開示する技術の第16の側面によれば、第14の側面に係る受信装置は、前記データの表示時刻を示すタイムスタンプを含む制御情報を送信する制御情報受信部をさらに備えている。そして、前記データ・ストリーム受信部は、次のタイミングまでの前記表示オブジェクトの内挿位置を求めるための補間情報を含んだ前記データ・ストリームを間欠的に受信し、前記処理部は、表示タイミング以外で、前記補間情報に基づく内挿位置に表示オブジェクトを表示するように構成されている。 According to a sixteenth aspect of the technology disclosed in this specification, the receiving device according to the fourteenth aspect further includes a control information receiving unit that transmits control information including a time stamp indicating a display time of the data. Yes. The data stream receiving unit intermittently receives the data stream including the interpolation information for obtaining the interpolation position of the display object until the next timing, and the processing unit is configured to display data other than the display timing. The display object is displayed at the interpolation position based on the interpolation information.
 本明細書で開示する技術の第17の側面によれば、第10の側面に係る受信装置の前記アプリケーション送信部は、スクリプト変数の変化を監視する機能を有効化するHTML5文書形式の前記アプリケーションを受信し、前記処理部は、HTML5ブラウザーの機能に基づいて前記アプリケーションの表示を行なうように構成されている。 According to a seventeenth aspect of the technology disclosed in this specification, the application transmission unit of the reception device according to the tenth aspect uses the HTML5 document format application that enables a function to monitor a change in script variables. The processing unit is configured to display the application based on the function of the HTML5 browser.
 また、本明細書で開示する技術の第18の側面は、
 データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを受信するアプリケーション受信ステップと、
 前記アプリケーションで利用するデータを含むデータ・ストリームを受信するデータ・ストリーム受信ステップと、
 受信した前記データ・ストリームを利用して前記アプリケーションの表示を行なう処理ステップと、
を有する受信方法である。
The eighteenth aspect of the technology disclosed in this specification is:
An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part Receiving the application, and
A data stream receiving step for receiving a data stream including data used in the application;
Processing to display the application using the received data stream;
Is a receiving method.
 本明細書で開示する技術によれば、アプリケーションとアプリケーションで利用するデータ・ストリームを送信する送信装置及び送信方法を提供することができる。 According to the technology disclosed in this specification, it is possible to provide a transmission apparatus and a transmission method for transmitting an application and a data stream used by the application.
 また、本明細書で開示する技術によれば、アプリケーションとアプリケーションで利用するデータ・ストリームを受信しアプリケーションを表示する受信装置及び受信方法を提供することができる。 Further, according to the technology disclosed in this specification, it is possible to provide a receiving apparatus and a receiving method for receiving an application and a data stream used by the application and displaying the application.
 なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。 In addition, the effect described in this specification is an illustration to the last, and the effect of this invention is not limited to this. In addition to the above effects, the present invention may have additional effects.
 本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。 Other objects, features, and advantages of the technology disclosed in the present specification will become apparent from a more detailed description based on embodiments to be described later and the accompanying drawings.
図1は、ディジタル放送システム10の構成例を模式的に示した図である。FIG. 1 is a diagram schematically illustrating a configuration example of a digital broadcasting system 10. 図2は、MMT方式を用いるディジタル放送システム10におけるプロトコル・スタック200を示した図である。FIG. 2 is a diagram showing a protocol stack 200 in the digital broadcasting system 10 using the MMT method. 図3は、放送送出システム11の構成例を示した図である。FIG. 3 is a diagram illustrating a configuration example of the broadcast transmission system 11. 図4は、放送送出システム11からの放送信号を受信する受信機12の構成例を示した図である。FIG. 4 is a diagram illustrating a configuration example of the receiver 12 that receives a broadcast signal from the broadcast transmission system 11. 図5は、MMT方式で伝送される放送信号500のイメージを示した図である。FIG. 5 is a diagram showing an image of a broadcast signal 500 transmitted by the MMT method. 図6は、PAメッセージ内のMPテーブルから放送サービスに関連する各アセットを指定する仕組みを示した図である。FIG. 6 is a diagram showing a mechanism for designating each asset related to the broadcast service from the MP table in the PA message. 図7は、MMT伝送されるデータ放送に関連するファイルを取得する仕組みを説明するための図である。FIG. 7 is a diagram for explaining a mechanism for acquiring a file related to a data broadcast transmitted by MMT. 図8は、出力用の映像信号を生成する仕組みを説明するための図である。FIG. 8 is a diagram for explaining a mechanism for generating a video signal for output. 図9は、放送番組の映像と同期する表示オブジェクトを表示させた放送画面の表示例を示した図である。FIG. 9 is a diagram showing a display example of a broadcast screen on which a display object synchronized with the video of the broadcast program is displayed. 図10は、汎用データのMPU及びMFUの構成を示した図である。FIG. 10 is a diagram showing the configuration of MPU and MFU of general-purpose data. 図11は、オブジェクト数分の表示オブジェクトに関する情報を記述した移動オブジェクト・リスト記述文書と、同文書から参照される表示データをパッケージ化した汎用データ・ストリームの構造を示した図である。FIG. 11 is a diagram showing the structure of a general-purpose data stream in which moving object list description documents describing information on display objects for the number of objects and display data referenced from the documents are packaged. 図12は、図11に示した移動オブジェクト・リスト記述文書が記述する表示オブジェクトの表示例を示した図である。FIG. 12 is a diagram showing a display example of the display object described by the moving object / list description document shown in FIG. 図13は、移動オブジェクト・リスト記述文書のシンタックス例を示した図である。FIG. 13 is a diagram illustrating a syntax example of the moving object list description document. 図14は、表示オブジェクトの表示位置を内挿情報に基づいて補間する仕組みを説明するための図である。FIG. 14 is a diagram for explaining a mechanism for interpolating the display position of the display object based on the interpolation information. 図15は、データ放送アプリケーションのHTML部を例示した図である。FIG. 15 is a diagram illustrating an HTML part of a data broadcasting application. 図16は、データ放送アプリケーションのJavaScript(登録商標)部を例示した図である。FIG. 16 is a diagram illustrating a JavaScript (registered trademark) part of a data broadcasting application. 図17は、HTML部から想定されるJavaScript(登録商標)部の記述例を示した図である。FIG. 17 is a diagram showing a description example of the JavaScript (registered trademark) part assumed from the HTML part. 図18は、放送映像に合わせて移動するオブジェクトを表示処理するための機能的構成を模式的に示した図である。FIG. 18 is a diagram schematically illustrating a functional configuration for displaying an object that moves according to a broadcast video. 図19は、データ放送アプリケーションが利用する表示オブジェクトの情報を汎用データで方式するシナリオを例示した図である。FIG. 19 is a diagram illustrating a scenario in which display object information used by a data broadcasting application is based on general-purpose data.
 以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。 Hereinafter, embodiments of the technology disclosed in this specification will be described in detail with reference to the drawings.
A.システム構成
 図1には、ディジタル放送システム10の構成例を模式的に示している。図示のディジタル放送システム10は、放送送出システム11と、受信機12で構成される。
A. System Configuration FIG. 1 schematically shows a configuration example of a digital broadcasting system 10. The illustrated digital broadcast system 10 includes a broadcast transmission system 11 and a receiver 12.
 放送送出システム11は、放送信号の伝送にMMT方式を適用しており、放送サービスを構成する各コンポーネントをIP(Internet Protocol)パケットにして伝送する。具体的には、放送送出システム11は、放送番組の映像信号や音声信号の符号、並びに、放送番組に関連するコンテンツ(データ放送アプリケーションなど)や字幕などの信号を、MMTP(MMT Protocol)ペイロードに乗せてMMTPパケット化し、さらにIPパケット化し、放送伝送路ではTLV(Type Length Value)パケットの形式で伝送する。ここで、映像や音声、字幕などの放送番組本体に関わるコンポーネントは、同期型(Timed)メディアである。また、コンテンツ、すなわちHTML(Hyper Text Transfer Protocol)5形式などで符号化されるデータ放送アプリケーションは、非同期型(Non-Timed)メディアである。 The broadcast transmission system 11 applies the MMT system for transmission of broadcast signals, and transmits each component constituting the broadcast service as an IP (Internet Protocol) packet. Specifically, the broadcast transmission system 11 uses the MMTP (MMT Protocol) payload with the video signal and audio signal codes of the broadcast program, and the content (data broadcast application, etc.) related to the broadcast program and subtitle signals. It is put into MMTP packets and then converted into IP packets, which are transmitted in the form of TLV (Type Length Value) packets on the broadcast transmission path. Here, components related to the broadcast program main body such as video, audio, and subtitles are synchronized media. Further, content, that is, a data broadcasting application encoded in HTML (Hyper Text Transfer Protocol) 5 format or the like, is a non-timed media.
 また、放送送出システム11は、同期型及び非同期型のメディアを伝送する放送サービスに関する制御情報であるMMT-SIのシグナリング(通知)も行なう。MMT-SIには、メッセージ、テーブル、記述子(descriptor)がある。テーブルは、メッセージをコンテナーとして伝送される。メッセージやテーブルで示すパラメーターの一部は記述子の形式で記述される。 The broadcast transmission system 11 also performs MMT-SI signaling (notification), which is control information related to a broadcast service that transmits synchronous and asynchronous media. The MMT-SI includes a message, a table, and a descriptor. The table is transmitted as a container for messages. Some parameters shown in messages and tables are described in descriptor format.
 一方、受信機12は、放送送出システム11から放送伝送路で送られてくるTLVパケットを受信する。受信機12は、そして、受信機12は、受信パケットから映像や音声、字幕などの放送番組を構成する同期型の伝送メディアを復号して、画像や音声、字幕を提示する。また、受信機12は、受信パケットからデータ放送用の各データ・ファイルを取得すると、HTMLブラウザーなどのアプリケーション・エンジンを起動して、放送番組に連動したデータ放送を、TV番組の映像を表示するスクリーンの一部又は全部の領域に表示する。 On the other hand, the receiver 12 receives the TLV packet sent from the broadcast transmission system 11 through the broadcast transmission path. The receiver 12 then decodes a synchronous transmission medium constituting a broadcast program such as video, audio, and subtitles from the received packet, and presents images, audio, and subtitles. Further, when the receiver 12 acquires each data file for data broadcasting from the received packet, the receiver 12 starts an application engine such as an HTML browser and displays the data broadcast linked to the broadcast program and the video of the TV program. Display in part or all of the screen area.
 また、受信機12は、放送サービスに関する制御情報であるMMT-SIも受信する。受信機12は、MMT-SIに基づいて、映像や音声、字幕、データ放送などの伝送メディアの受信制御や受信機12上での出力(表示、音声出力)制御を行なう。 The receiver 12 also receives MMT-SI that is control information related to the broadcast service. Based on the MMT-SI, the receiver 12 performs reception control of transmission media such as video, audio, captions, and data broadcasting, and output (display, audio output) control on the receiver 12.
 図2には、MMT方式を用いるディジタル放送システム10におけるプロトコル・スタック200を示している。 FIG. 2 shows a protocol stack 200 in the digital broadcasting system 10 using the MMT method.
 1つの放送サービスは、映像201、音声202、字幕203、アプリケーション204、コンテンツ・ダウンロード205の各コンポーネントで構成される。映像201はHEVC(High Efficiency Video Coding)形式で符号化211され、音声202はAAC(Advanced Audio Coding)形式で符号化212され、字幕203は字幕符号化213される。また、アプリケーション204は、EPG(Electric Program Guide)を含むが、例えばHTML5形式214で符号化される。 One broadcast service is composed of video 201, audio 202, subtitle 203, application 204, and content / download 205 components. The video 201 is encoded 211 in the HEVC (High Efficiency Video Coding) format, the audio 202 is encoded 212 in the AAC (Advanced Audio Coding) format, and the subtitle 203 is subtitle encoded 213. The application 204 includes EPG (Electric Program Guide), but is encoded in, for example, the HTML5 format 214.
 MMTレイヤー220上では、放送番組の映像信号及び音声信号の符号化コンポーネント211、212は、MFU(Media Fragment Unit)及びMPU(Media Processing Unit)とし、MMTPペイロードに乗せてMMTPパケット化される。また、放送番組の字幕信号の符号化コンポーネント213や放送番組に関連するアプリケーション(データ・コンテンツ)符号化コンポーネント214についても、MFU及びMPUとし、MMTPペイロードに乗せてMMTPパケット化される。また、メディア・トランスポート方式であるMMTに関わる(放送番組の構成などを示す)制御情報であるMMT-SI221も、MMTPペイロードに乗せてMMTPパケット化される。MMTに関わる制御情報MMT-SIの詳細については、後述に譲る。MPUは処理の単位となり、MFUはMPUよりも小さな単位である。 On the MMT layer 220, the video program and audio signal encoding components 211 and 212 of the broadcast program are MFU (Media Fragment Unit) and MPU (Media Processing Unit), which are put on the MMTP payload and converted into an MMTP packet. In addition, the subtitle signal encoding component 213 of the broadcast program and the application (data / content) encoding component 214 related to the broadcast program are also MFU and MPU, and are put in the MMTP payload and converted into an MMTP packet. In addition, MMT-SI 221 which is control information related to MMT which is a media transport system (indicating the configuration of a broadcast program) is also put into an MMTP packet on the MMTP payload. Details of the control information MMT-SI related to the MMT will be described later. MPU is a unit of processing, and MFU is a unit smaller than MPU.
 なお、コンテンツ・ダウンロード205のデータ伝送方式215として、字幕・文字スーパー伝送方式、アプリケーション伝送方式、イベント・メッセージ伝送方式、汎用データ伝送方式の4種類が挙げられる。このうち、アプリケーション伝送方式は、放送番組と非同期のデータ伝送サービスに用いられる。また、汎用データ伝送方式は、各種データを同期型又は非同期型により伝送する方式であり、映像、音声、字幕以外のデータの提示を行なうプレイヤーで利用するデータやマルチメディア・サービスで利用するデータのストリーミングに適用することができる。 The data transmission method 215 of the content download 205 includes four types: a caption / text super transmission method, an application transmission method, an event / message transmission method, and a general-purpose data transmission method. Among these, the application transmission method is used for a data transmission service asynchronous with a broadcast program. The general-purpose data transmission method is a method for transmitting various types of data in a synchronous or asynchronous manner. Data used by a player that presents data other than video, audio, and subtitles and data used in multimedia services. It can be applied to streaming.
 UDP(User Datagram Protocol)/IPレイヤー230では、MMTPパケットはIPパケット化される。また、同期型メディアのための現在時刻の情報を含むNTP(Network Time Protocol)パケット206も、IPパケット化される。さらに、これらのIPパケットは、TLVレイヤー240でTLVパケット化され、最下層の物理レイヤーである放送伝送路250で伝送される。また、IPパケットの多重のためのTLV多重化形式に関わるTLV-SI241も、TLVパケット化され、放送伝送路250で伝送される。TLVパケットを多重した伝送スロットは、伝送路のTMCC(Transmission and Multiplexing Configuration Control)信号251から、TLVストリーム識別情報(TLV_stream_id)を用いて特定される。 In the UDP (User Datagram Protocol) / IP layer 230, the MMTP packet is converted into an IP packet. An NTP (Network Time Protocol) packet 206 including information on the current time for the synchronous media is also converted into an IP packet. Further, these IP packets are converted into TLV packets in the TLV layer 240 and transmitted through the broadcast transmission path 250 which is the lowermost physical layer. A TLV-SI 241 related to a TLV multiplexing format for multiplexing IP packets is also converted into a TLV packet and transmitted through the broadcast transmission path 250. The transmission slot in which the TLV packet is multiplexed is specified by using TLV stream identification information (TLV_stream_id) from a TMCC (Transmission and Multiplexing Configuration Control) signal 251 of the transmission path.
 図3には、図2に示すようなプロトコル・スタック構造の放送信号を送信する放送送出システム11の構成例を示している。図示の放送送出システム11は、時計部301と、信号送出部302と、ビデオ・エンコーダー303と、オーディオ・エンコーダー304と、字幕/文字スーパー・エンコーダー305と、シグナリング・エンコーダー306と、ファイル・エンコーダー307と、電子データ処理システム(Electronic Data Processing System:EDPS)308と、TLVシグナリング・エンコーダー309と、IPサービス・マルチプレクサー(MUX)310と、TLVマルチプレクサー(MUX)311と、変調・送信部312を備えている。 FIG. 3 shows a configuration example of a broadcast transmission system 11 that transmits a broadcast signal having a protocol stack structure as shown in FIG. The broadcast transmission system 11 shown in the figure includes a clock unit 301, a signal transmission unit 302, a video encoder 303, an audio encoder 304, a caption / text super encoder 305, a signaling encoder 306, and a file encoder 307. An electronic data processing system (Electronic Data Processing System: EDPS) 308, a TLV signaling encoder 309, an IP service multiplexer (MUX) 310, a TLV multiplexer (MUX) 311, and a modulation / transmission unit 312. I have.
 信号送出部302は、例えばTV放送局のスタジオやVTRなどの記録再生機であり、同期型メディアである映像、音声、字幕及び文字スーパーなどのストリーム・データを、それぞれビデオ・エンコーダー303、オーディオ・エンコーダー304、字幕/文字スーパー・エンコーダー305に送る。また、信号送出部302は、非同期型メディアであるデータ放送アプリケーションや、同期型並びに非同期型の汎用データを、ファイル・エンコーダー307に送る。 The signal transmission unit 302 is, for example, a recording / playback device such as a studio of a TV broadcast station or a VTR, and stream data such as video, audio, subtitles, and superimpose characters, which are synchronous media, respectively, with a video encoder 303, an audio The data is sent to the encoder 304 and the subtitle / character super encoder 305. In addition, the signal transmission unit 302 sends the data broadcast application, which is an asynchronous medium, and synchronous and asynchronous general-purpose data to the file encoder 307.
 電子データ処理システム308は、TV放送局のスケジューラー並びにファイルの供給源である。電子データ処理システム308は、非同期型メディアであるデータ放送アプリケーションや、同期型並びに非同期型の汎用データを、ファイル・エンコーダー307に送る。また、電子データ処理システム308は、放送サービスの構成などを示す制御情報をシグナリング・エンコーダー306に送る。また、電子データ処理システム308は、IPパケットの多重に関する制御情報をTLVシグナリング・エンコーダー309に送る。 The electronic data processing system 308 is a TV broadcast station scheduler and a file supply source. The electronic data processing system 308 sends a data broadcast application, which is an asynchronous medium, and synchronous and asynchronous general-purpose data to the file encoder 307. The electronic data processing system 308 also sends control information indicating the configuration of the broadcast service to the signaling encoder 306. Also, the electronic data processing system 308 sends control information related to multiplexing of IP packets to the TLV signaling encoder 309.
 ビデオ・エンコーダー303は、信号送出部302から送出される映像信号をHEVC符号化し、さらにパケット化して、映像信号のMMTパケットを含むIPパケットをIPサービス・マルチプレクサー310に送る。また、オーディオ・エンコーダー304は、信号送出部302から送出される音声信号をAAC符号化し、さらにパケット化して、音声信号のMMTパケットを含むIPパケットをIPサービス・マルチプレクサー310に送る。また、字幕/文字スーパー・エンコーダー305は、信号送出部302から送出される字幕信号及び文字スーパー信号を符号化し、さらに提示処理の単位でMPUを生成して、字幕のMMTパケットを含むIPパケットをIPサービス・マルチプレクサー310に送る。 The video encoder 303 HEVC-encodes the video signal transmitted from the signal transmission unit 302, further packetizes it, and sends an IP packet including the MMT packet of the video signal to the IP service multiplexer 310. Also, the audio encoder 304 AAC-encodes the voice signal sent from the signal sending unit 302, further packetizes it, and sends an IP packet including the MMT packet of the voice signal to the IP service multiplexer 310. The subtitle / character super encoder 305 encodes the subtitle signal and the character super signal transmitted from the signal transmission unit 302, further generates an MPU in units of presentation processing, and generates an IP packet including the MMT packet of the subtitle. Send to IP service multiplexer 310.
 放送送出システム11が複数の放送サービス(すなわち、複数の放送チャンネルのコンポーネント)を送信する場合、放送サービス毎に映像信号のHEVC符号化、音声信号のAAC符号化、及び字幕/文字スーパーの符号化処理が行なわれ、それぞれの放送サービス#1~#Nに対応するIPサービス・マルチプレクサー310-1、…、310-Nに送られる。 When the broadcast transmission system 11 transmits a plurality of broadcast services (that is, components of a plurality of broadcast channels), HEVC encoding of the video signal, AAC encoding of the audio signal, and subtitle / text super encoding are performed for each broadcast service. The processing is performed and sent to the IP service multiplexers 310-1,..., 310-N corresponding to the respective broadcast services # 1 to #N.
 シグナリング・エンコーダー306は、電子データ処理システム308から送出される情報に基づいて、放送信号の構成などを示す制御情報(MMT-SI)を生成し、ペイロード部にMMT-SIが配置されたMMTパケットを含むIPパケットをIPサービス・マルチプレクサー310に送る。MMT-SIには、メッセージ、テーブル、記述子がある(前述)。シグナリング・エンコーダー306は、放送サービス単位のMMT-SIを生成する他、放送サービス横断のMMT-SIを生成する。 The signaling encoder 306 generates control information (MMT-SI) indicating the configuration of the broadcast signal based on information transmitted from the electronic data processing system 308, and an MMT packet in which the MMT-SI is arranged in the payload portion Is sent to the IP service multiplexer 310. MMT-SI includes messages, tables, and descriptors (described above). The signaling encoder 306 generates MMT-SI for each broadcasting service, and also generates MMT-SI for broadcasting services.
 ファイル・エンコーダー307は、信号送出部3102又は電子データ処理システム308から送出されるHTML5形式のデータ放送アプリケーションや、データ放送アプリケーションなどで利用する汎用データを符号化し、さらにパケット化して、このMMTパケットを含むIPパケットをIPサービス・マルチプレクサー310に送る。 The file encoder 307 encodes general data used in the data broadcasting application in HTML5 format or the data broadcasting application transmitted from the signal transmission unit 3102 or the electronic data processing system 308, further packetizes the MMT packet, and The containing IP packet is sent to the IP service multiplexer 310.
 放送送出システム11は、送出する放送サービス(放送チャンネル)#1~#N毎に、複数のIPサービス・マルチプレクサー310―1、…、310-Nを装備する。放送サービス毎のチャンネルのIPサービス・マルチプレクサー310は、各エンコーダー303~307から送られてくる映像、音声、字幕、(放送サービス単位)MMT-SI、データ放送アプリケーション、汎用データの各々を含むIPパケットをマルチプレクスして、放送サービス単位の放送信号、並びに、放送サービス横断のMMT-SIを含んだTLVパケットを生成する。 The broadcast transmission system 11 is equipped with a plurality of IP service multiplexers 310-1,..., 310-N for each broadcast service (broadcast channel) # 1 to #N to be transmitted. The IP service multiplexer 310 of the channel for each broadcast service is an IP including each of video, audio, subtitles, (broadcast service unit) MMT-SI, data broadcast application, and general-purpose data sent from each encoder 303-307. The packet is multiplexed to generate a TLV packet including a broadcast signal for each broadcast service and an MMT-SI across broadcast services.
 TLVシグナリング・エンコーダー309は、電子データ処理システム308から送出される情報に基づいて、上記のIPパケットの多重に関する制御情報(TLV-SI)をペイロード部に配置するTLVパケットを生成する。 Based on the information sent from the electronic data processing system 308, the TLV signaling encoder 309 generates a TLV packet in which the control information (TLV-SI) related to the multiplexing of the IP packet is arranged in the payload portion.
 TLVマルチプレクサー311は、各IPサービス・マルチプレクサー310-1~310-N及びTLVシグナリング・エンコーダー309でそれぞれ生成されるTLVパケットをマルチプレクスして、TLVストリーム識別情報で識別されるTLVストリームを生成する。 The TLV multiplexer 311 multiplexes TLV packets generated by the IP service multiplexers 310-1 to 310-N and the TLV signaling encoder 309, and generates a TLV stream identified by the TLV stream identification information. To do.
 変調・送信部312は、TLVマルチプレクサー311で生成されたTLVストリームに対してRF変調処理を行なって、放送伝送路に送出する。 The modulation / transmission unit 312 performs RF modulation processing on the TLV stream generated by the TLV multiplexer 311 and sends it to the broadcast transmission path.
 図3に示した放送送出システム11の動作について説明しておく。 The operation of the broadcast transmission system 11 shown in FIG. 3 will be described.
 信号送出部302から送出される映像信号は、ビデオ・エンコーダー303に供給される。ビデオ・エンコーダー303では、映像信号がHEVC符号化され、さらにパケット化されて、HEVC符号化映像信号のMMTパケットを含むIPパケットが生成される。このIPパケットは、IPサービス・マルチプレクサー310に送られる。 The video signal transmitted from the signal transmission unit 302 is supplied to the video encoder 303. In the video encoder 303, the video signal is HEVC encoded and further packetized to generate an IP packet including an MMT packet of the HEVC encoded video signal. This IP packet is sent to the IP service multiplexer 310.
 また、信号送出部302から送出される音声信号並びに字幕及び文字スーパー信号に対しても、同様の処理が行なわれる。すなわち、オーディオ・エンコーダー304で生成されるAAC符号化音声信号のMMTパケットを含むIPパケットがIPサービス・マルチプレクサー310に送られるとともに、字幕/文字スーパー・エンコーダー305で生成される字幕符号化信号のMMTパケットを含むIPパケットがIPサービス・マルチプレクサー310に送られる。 Also, the same processing is performed on the audio signal sent from the signal sending unit 302, the caption, and the character super signal. That is, an IP packet including the MMT packet of the AAC encoded audio signal generated by the audio encoder 304 is sent to the IP service multiplexer 310 and the subtitle encoded signal generated by the subtitle / character super encoder 305 is transmitted. An IP packet including the MMT packet is sent to the IP service multiplexer 310.
 また、シグナリング・エンコーダー306では、電子データ処理システム308から送出される情報に基づいて放送信号の構成などを示す制御情報(MMT-SI)が生成され、ペイロード部にこのMMT-SIが配置されたMMTパケットを含むIPパケットが生成される。これらのIPパケットは、IPサービス・マルチプレクサー310に送られる。 In addition, the signaling encoder 306 generates control information (MMT-SI) indicating the configuration of the broadcast signal based on information transmitted from the electronic data processing system 308, and the MMT-SI is arranged in the payload portion. An IP packet including the MMT packet is generated. These IP packets are sent to the IP service multiplexer 310.
 また、信号送出部302又は電子データ処理システム308から送出されるデータ放送アプリケーションや、データ放送アプリケーションなどで利用する汎用データは、ファイル・エンコーダー307に供給される。ファイル・エンコーダー307では、HTML5形式のデータ放送アプリケーションや汎用データが符号化され、さらにパケット化され、このMMTパケットを含むIPパケットが生成される。このIPパケットは、IPサービス・マルチプレクサー310に送られる。 In addition, data broadcasting applications transmitted from the signal transmission unit 302 or the electronic data processing system 308, and general-purpose data used in the data broadcasting applications are supplied to the file encoder 307. The file encoder 307 encodes the data broadcasting application in HTML5 format and general-purpose data, further packetizes it, and generates an IP packet including this MMT packet. This IP packet is sent to the IP service multiplexer 310.
 各IPサービス・マルチプレクサー310-1、…、310-Nでは、各エンコーダー303~307から送られてくる映像、音声、字幕、(放送サービス単位及びサービス横断の)MMT-SI、データ放送アプリケーション(HTML5文書)、汎用データの各々を含むIPパケットがマルチプレクスされて、1つのチャンネルを構成するTLVパケットが生成される。 In each IP service multiplexer 310-1,..., 310-N, video, audio, subtitle, MMT-SI (broadcast service unit and service crossing), data broadcasting application (from each encoder 303 to 307) HTML5 document) and IP packets including each of the general-purpose data are multiplexed to generate a TLV packet constituting one channel.
 TLVシグナリング・エンコーダー309では、電子データ処理システム308から送出される情報に基づいて、上記のIPパケットの多重に関する制御情報(TLV-SI)をペイロード部に配置するTLVパケットが生成される。 The TLV signaling encoder 309 generates a TLV packet in which the control information (TLV-SI) related to the multiplexing of the IP packet is arranged in the payload portion based on the information transmitted from the electronic data processing system 308.
 TLVマルチプレクサー311では、各IPサービス・マルチプレクサー310-1~310-N及びTLVシグナリング・エンコーダー309で生成されるTLVパケットがマルチプレクスされて、TLVストリームが生成される。変調・送信部312では、TLVマルチプレクサー311で生成されたTLVストリームに対してRF変調処理が行なわれ、そのRF変調信号が放送伝送路に送出される。 In the TLV multiplexer 311, the TLV packets generated by the IP service multiplexers 310-1 to 310 -N and the TLV signaling encoder 309 are multiplexed to generate a TLV stream. The modulation / transmission unit 312 performs RF modulation processing on the TLV stream generated by the TLV multiplexer 311 and sends the RF modulation signal to the broadcast transmission path.
 図4には、放送送出システム11からの放送信号を受信する受信機12の構成例を示している。図示の受信機12は、チューナー・復調部401と、MMTデマルチプレクサー(DEMUX)402と、時計回復部403と、ビデオ・デコーダー404と、オーディオ・デコーダー405と、文字スーパー・デコーダー406と、字幕デコーダー407と、マルチメディア(MM)キャッシュ408と、SIキャッシュ409と、放送システム制御部410と、アプリケーション(App)・エンジン411と、通信インターフェース(IF)412と、スケーラー414と、合成部415~418を備えている。 FIG. 4 shows a configuration example of the receiver 12 that receives a broadcast signal from the broadcast transmission system 11. The illustrated receiver 12 includes a tuner / demodulator 401, an MMT demultiplexer (DEMUX) 402, a clock recovery unit 403, a video decoder 404, an audio decoder 405, a character super decoder 406, and a subtitle. Decoder 407, multimedia (MM) cache 408, SI cache 409, broadcast system control unit 410, application (App) engine 411, communication interface (IF) 412, scaler 414, synthesis unit 415˜ 418.
 チューナー・復調部401は、放送信号を選局受信し、復調処理を行なって、TLVストリームを得る。MMTデマルチプレクサー402は、このTLVストリームに対して、デマルチプレクス処理及びデパケット化処理を行なう。デマルチプレクサー402は、パケット・フィルター402-1とSIフィルター402-2を備えている。 The tuner / demodulator 401 receives a broadcast signal, performs demodulation processing, and obtains a TLV stream. The MMT demultiplexer 402 performs demultiplex processing and depacketization processing on this TLV stream. The demultiplexer 402 includes a packet filter 402-1 and an SI filter 402-2.
 パケット・フィルター402-1は、TLVストリーム識別情報及びIPアドレスに基づいてIPパケットのフィルタリングを行ない、さらにMMTPヘッダー内の情報に基づいて、IPパケットからMMTPパケットをフィルタリングして、映像、音声、文字スーパー並びに字幕といった同期型伝送メディアを、それぞれビデオ・デコーダー404、オーディオ・デコーダー405、文字スーパー・デコーダー406、字幕デコーダー407に振り分ける。 The packet filter 402-1 performs filtering of the IP packet based on the TLV stream identification information and the IP address, and further filters the MMTP packet from the IP packet based on the information in the MMTP header so that the video, audio, text Synchronous transmission media such as super and subtitles are distributed to a video decoder 404, an audio decoder 405, a character super decoder 406, and a subtitle decoder 407, respectively.
 また、パケット・フィルター402-1は、マルチメディア(データ放送アプリケーション)や汎用データの各符号化コンポーネントを、マルチメディア(MM)キャッシュ408に振り分ける。 The packet filter 402-1 distributes each encoding component of multimedia (data broadcasting application) and general-purpose data to the multimedia (MM) cache 408.
 また、パケット・フィルター402-1は、シグナリング情報を乗せたMMTPパケットを、SIフィルター402-2に振り分ける。そして、SIフィルター402-2は、シグナリング情報SIをフィルタリングして、SIキャッシュ409にキャッシュする。 Further, the packet filter 402-1 distributes the MMTP packet carrying the signaling information to the SI filter 402-2. Then, the SI filter 402-2 filters the signaling information SI and caches it in the SI cache 409.
 時計回復部403は、MMTデマルチプレクサー402内のパケット・フィルター402-1でフィルタリングされたNTPパケットに含まれる現在時刻の情報に基づいて、この時刻情報に同期した時刻情報を生成して、各同期型伝送メディアをデコードするビデオ・デコーダー404、オーディオ・デコーダー405、文字スーパー・デコーダー406、字幕デコーダー407にそれぞれ出力する。 Based on the current time information included in the NTP packet filtered by the packet filter 402-1 in the MMT demultiplexer 402, the clock recovery unit 403 generates time information synchronized with this time information, and The video data is output to a video decoder 404, an audio decoder 405, a character super decoder 406, and a subtitle decoder 407, which decode the synchronous transmission media.
 ビデオ・デコーダー404は、MMTデマルチプレクサー402で得られる符号化映像信号をデコードして、ベースバンドの映像信号を得る。また、オーディオ・デコーダー405は、MMTデマルチプレクサー402で得られる符号化音声信号をデコードして、ベースバンドの音声信号を得る。また、文字スーパー・デコーダー406並びに字幕デコーダー407は、MMTデマルチプレクサー402で得られる文字スーパー及び字幕符号化信号をそれぞれデコードして、文字スーパー及び字幕の表示信号をそれぞれ得る。 The video decoder 404 decodes the encoded video signal obtained by the MMT demultiplexer 402 to obtain a baseband video signal. The audio decoder 405 decodes the encoded audio signal obtained by the MMT demultiplexer 402 to obtain a baseband audio signal. The character super decoder 406 and the caption decoder 407 decode the character super and the caption encoded signal obtained by the MMT demultiplexer 402, respectively, and obtain the character super and caption display signals, respectively.
 放送システム制御部410は、SIキャッシュ409にキャッシュされているMMT-SIに基づいて、受信機12全体の放送サービス受信動作を制御する。例えば、放送システム制御部410は、MMT-SIに含まれるアプリケーションの実行制御情報(MH-AIT)を解析して、起動が指示されているデータ放送アプリケーションを見つけると、アプリケーション・エンジン411に対してデータ放送の提示処理を指示する。 The broadcast system control unit 410 controls the broadcast service reception operation of the entire receiver 12 based on the MMT-SI cached in the SI cache 409. For example, when the broadcast system control unit 410 analyzes the application execution control information (MH-AIT) included in the MMT-SI and finds a data broadcast application that is instructed to start, the broadcast system control unit 410 Instructs the data broadcasting presentation process.
 アプリケーション・エンジン411は、例えばHTMLブラウザーなどであり、マルチメディア・キャッシュ408にキャッシュされているデータ放送アプリケーション(HTML5文書など)の処理を行なって、データ放送の表示信号並びに音声信号を生成する。また、アプリケーション・エンジン411は、データ放送の表示に必要なデータ・ファイル(データ放送の表示に使用するメディア・データや、リンク先のアプリケーションなど)を、通信インターフェース412経由でIPネットワークから取得することもできる。 The application engine 411 is, for example, an HTML browser or the like, and processes a data broadcast application (HTML5 document or the like) cached in the multimedia cache 408 to generate a data broadcast display signal and an audio signal. In addition, the application engine 411 acquires data files (media data used for data broadcast display, link destination applications, etc.) necessary for data broadcast display from the IP network via the communication interface 412. You can also.
 また、本実施形態では、データ放送アプリケーションで利用する汎用データがストリーミングされることを想定している。アプリケーション・エンジン411は、ストリーミングされる汎用データを取得して、アプリケーションの表示に反映させる。 In the present embodiment, it is assumed that general-purpose data used in the data broadcasting application is streamed. The application engine 411 acquires the general-purpose data to be streamed and reflects it on the display of the application.
 スケーラー414は、ビデオ・デコーダー404でデコードされた映像信号(放送映像)を、受信機12の画面サイズに応じてスケーリング処理する。 The scaler 414 performs a scaling process on the video signal (broadcast video) decoded by the video decoder 404 in accordance with the screen size of the receiver 12.
 合成部415は、オーディオ・デコーダー405でデコードされた音声信号と、アプリケーション・エンジン411が再生したデータ放送用の音声信号を合成して、出力用の音声信号を生成する。 The synthesizing unit 415 synthesizes the audio signal decoded by the audio decoder 405 and the audio signal for data broadcasting reproduced by the application engine 411 to generate an audio signal for output.
 合成部416は、文字スーパー・デコーダー406がデコードした文字スーパー表示と、字幕デコーダー407がデコードした字幕表示を合成する。また、合成部417は、スケーラー414でスケーリング処理された放送映像と、アプリケーション・エンジン411が生成したデータ放送の表示信号を合成する。さらに後段の合成部418は、データ放送の表示が重畳された放送映像と、合成部416から出力される文字スーパー表示及び字幕表示とを合成して、出力用の映像信号を生成する。 The composition unit 416 synthesizes the character super display decoded by the character super decoder 406 and the subtitle display decoded by the subtitle decoder 407. The combining unit 417 combines the broadcast video scaled by the scaler 414 and the data broadcast display signal generated by the application engine 411. Further, the synthesizing unit 418 at the subsequent stage synthesizes the broadcast video on which the display of the data broadcast is superimposed, the character super display and the subtitle display output from the synthesizing unit 416, and generates an output video signal.
 図4に示した受信機12の動作について説明しておく。 The operation of the receiver 12 shown in FIG. 4 will be described.
 チューナー・復調部401では、放送信号が受信され、復調処理が行なわれて、TLVストリームが得られる。MMTデマルチプレクサー402では、このTLVストリームに対して、デマルチプレクス処理及びでパケット化処理を行なわれ、NTP時刻情報、映像、音声、文字スーパー及び字幕、データ放送アプリケーション、汎用データの各符号化信号、並びに、シグナリング情報が抽出された後、パケット・フィルター402-1によって、ビデオ・デコーダー404、オーディオ・デコーダー405、文字スーパー・デコーダー406、字幕デコーダー407、マルチメディア(MM)キャッシュ408、SIフィルター402-2にそれぞれ振り分けられる。 The tuner / demodulator 401 receives a broadcast signal, performs demodulation processing, and obtains a TLV stream. The MMT demultiplexer 402 performs demultiplexing processing and packetization processing on the TLV stream, and encodes each of NTP time information, video, audio, text super and subtitles, data broadcasting application, and general-purpose data. After the signal and signaling information are extracted, the video filter 404, the audio decoder 405, the character super decoder 406, the subtitle decoder 407, the multimedia (MM) cache 408, the SI filter are extracted by the packet filter 402-1. Each is assigned to 402-2.
 また、デマルチプレクサー402で抽出されたNTPパケットは、時計回復部403に振り分けられる。時計回復部403では、NTPパケットに載せられた時刻情報に基づいて、この時刻情報に同期した時刻情報が生成される。つまり、時計回復部403では、放送送出システム11側の時計部301で生成された時刻情報に合った時刻情報が生成される。生成された時刻情報は、各同期型伝送メディアをデコードするにビデオ・デコーダー404、オーディオ・デコーダー405、文字スーパー・デコーダー406、字幕デコーダー407にそれぞれ出力される。 Also, the NTP packet extracted by the demultiplexer 402 is distributed to the clock recovery unit 403. The clock recovery unit 403 generates time information synchronized with the time information based on the time information put on the NTP packet. That is, the clock recovery unit 403 generates time information that matches the time information generated by the clock unit 301 on the broadcast transmission system 11 side. The generated time information is output to the video decoder 404, the audio decoder 405, the character super decoder 406, and the subtitle decoder 407, respectively, for decoding each synchronous transmission medium.
 MMTデマルチプレクサー402で抽出された符号化映像信号は、ビデオ・デコーダー404に送られてデコードされ、ベースバンドの映像信号が得られる。デマルチプレクサー402で抽出された文字スーパー符号化信号は文字スーパー・デコーダー406に送られてデコードされ、文字スーパーの表示信号が得られる。また、デマルチプレクサー402で抽出された字幕符号化信号は字幕デコーダー407に送られてデコードされ、字幕の表示信号が得られる。 The encoded video signal extracted by the MMT demultiplexer 402 is sent to the video decoder 404 and decoded to obtain a baseband video signal. The character super encoded signal extracted by the demultiplexer 402 is sent to the character super decoder 406 to be decoded to obtain a character super display signal. Further, the caption encoded signal extracted by the demultiplexer 402 is sent to the caption decoder 407 and decoded, so that a caption display signal is obtained.
 放送システム制御部410では、SIフィルター402-2並びにSIキャッシュ409を介して受け取るMMT-SIに基づいて、データ放送アプリケーションの処理を始め受信機12による受信処理動作全体が制御される。 The broadcast system control unit 410 controls the entire reception processing operation by the receiver 12 including the processing of the data broadcast application based on the MMT-SI received via the SI filter 402-2 and the SI cache 409.
 アプリケーション・エンジン411では、マルチメディア・キャッシュ408にキャッシュされているデータ放送アプリケーション(HTML5文書など)の処理が行なわれ、データ放送の表示信号並びに音声信号が生成される。また、本実施形態では、データ放送アプリケーションで利用する汎用データがストリーミングされることを想定している。アプリケーション・エンジン411では、取得された汎用データが、アプリケーションの表示に反映される。 The application engine 411 processes the data broadcast application (HTML5 document or the like) cached in the multimedia cache 408, and generates a data broadcast display signal and an audio signal. In the present embodiment, it is assumed that general-purpose data used in the data broadcasting application is streamed. In the application engine 411, the acquired general-purpose data is reflected in the display of the application.
 スケーラー414では、ビデオ・デコーダー404でデコードされた映像信号(放送映像)のスケーリング処理が行なわれる。また、合成部416は、文字スーパー・デコーダー406でデコードされた文字スーパー表示と、字幕デコーダー407でデコードされた字幕表示が合成される。続いて、合成部417では、スケーラー414でスケーリング処理された放送映像と、アプリケーション・エンジン411で生成されたデータ放送の表示信号が合成される。さらに後段の合成部418では、データ放送の表示が重畳された放送映像と、合成部416から出力される文字スーパー表示及び字幕表示が合成されて、出力用の映像信号が生成される。 The scaler 414 performs a scaling process on the video signal (broadcast video) decoded by the video decoder 404. The synthesizing unit 416 synthesizes the character super display decoded by the character super decoder 406 and the subtitle display decoded by the subtitle decoder 407. Subsequently, the combining unit 417 combines the broadcast video scaled by the scaler 414 and the display signal of the data broadcast generated by the application engine 411. Further, in the subsequent synthesis unit 418, the broadcast video on which the display of the data broadcast is superimposed, the character super display and the caption display output from the synthesis unit 416 are synthesized, and an output video signal is generated.
 出力用の映像信号を生成する仕組みを図8に図解している。スケーラー414は、ビデオ・デコーダー404でデコードされた映像信号(放送映像)を、受信機12の画面サイズに応じてスケーリング処理する。そして、合成部417は、スケーラー414でスケーリング処理された放送映像811と、アプリケーション・エンジン411が生成したデータ放送の表示信号(グラフィックス)812を合成して、マルチメディア・プレーン802を生成する。また、合成部416は、文字スーパー・デコーダー406がデコードした文字スーパー表示を含む文字スーパー・プレーン804と、字幕デコーダー407がデコードした通常の字幕表示を含む字幕プレーン803とを合成する。さらに合成部418は、放送映像にデータ放送の表示が重畳されたマルチメディア・プレーン802と、合成部416から出力される文字スーパー・プレーン804及び通常の字幕プレーン803を合成したプレーンを、背景プレーン801上に順に重畳して、出力用の映像信号すなわち表示画面を生成する。 Figure 8 illustrates the mechanism for generating video signals for output. The scaler 414 performs a scaling process on the video signal (broadcast video) decoded by the video decoder 404 according to the screen size of the receiver 12. The combining unit 417 combines the broadcast video 811 scaled by the scaler 414 and the display signal (graphics) 812 of the data broadcast generated by the application engine 411 to generate a multimedia plane 802. The synthesizing unit 416 synthesizes the character super plane 804 including the character super display decoded by the character super decoder 406 and the subtitle plane 803 including the normal subtitle display decoded by the subtitle decoder 407. Further, the combining unit 418 combines a plane obtained by combining the multimedia plane 802 in which the data broadcast display is superimposed on the broadcast video, the character super plane 804 output from the combining unit 416 and the normal subtitle plane 803 into a background plane. A video signal for output, that is, a display screen is generated by superimposing the data on 801 in order.
 また、合成部415では、オーディオ・デコーダー405でデコードされた音声信号と、アプリケーション・エンジン411で再生されたデータ放送用の音声信号を合成して、出力用の音声信号が生成される。 The synthesizing unit 415 synthesizes the audio signal decoded by the audio decoder 405 and the audio signal for data broadcasting reproduced by the application engine 411 to generate an output audio signal.
B.放送信号の構成
 図5には、MMT方式に従って放送送出システム11から受信機12に向けて放送伝送路に送出される放送信号500のイメージを示している。
B. Configuration of Broadcast Signal FIG. 5 shows an image of a broadcast signal 500 transmitted from the broadcast transmission system 11 toward the receiver 12 to the broadcast transmission path according to the MMT method.
 1つの放送サービスは、映像、音声、字幕、データ放送アプリケーションなど複数のコンポーネントで構成されるパッケージである(但し、1つの放送サービスは、1つのチャンネルすなわち放送番組に対応するものとする)。放送番組本編に関わる映像、音声、字幕などは同期型メディアであり、データ放送アプリケーションは非同期型メディアである。MMT方式では、これら同期型並びに非同期型メディアを、異なる伝送路の組み合わせで利用することが容易である。 One broadcast service is a package composed of a plurality of components such as video, audio, captions, and data broadcast applications (provided that one broadcast service corresponds to one channel, that is, a broadcast program). The video, audio, subtitles, etc. related to the main part of the broadcast program are synchronous media, and the data broadcast application is an asynchronous media. In the MMT system, it is easy to use these synchronous and asynchronous media in a combination of different transmission paths.
 MMT伝送方式では、コンポーネントは「アセット」として定義されている。各アセットは、固有のアセット識別情報(asset_id)で識別される。アセット識別情報は、コンポーネントを識別するコンポーネント・タグと一意に対応する。映像のアセットは映像コンポーネントに対応し、音声のアセットは音声コンポーネントに対応し、字幕のアセットは字幕コンポーネントに対応し、データ放送アプリケーション用のデータ・ファイルのアセットはデータ・ファイルのコンポーネントに対応する。図5に示す例では、放送信号500として、映像、音声、字幕、データ放送アプリケーション、汎用データなど、アセット毎のMMT伝送路501~505が利用されている。また、放送サービスに関する制御情報(MMT-SI)のためのMMT伝送路506も利用されている。 In the MMT transmission method, the component is defined as “asset”. Each asset is identified by unique asset identification information (asset_id). Asset identification information uniquely corresponds to a component tag that identifies the component. The video asset corresponds to the video component, the audio asset corresponds to the audio component, the subtitle asset corresponds to the subtitle component, and the data file asset for the data broadcasting application corresponds to the data file component. In the example shown in FIG. 5, the MMT transmission paths 501 to 505 for each asset such as video, audio, caption, data broadcasting application, general-purpose data, etc. are used as the broadcast signal 500. In addition, an MMT transmission path 506 for control information (MMT-SI) related to a broadcast service is also used.
 各アセットは、それぞれ同じアセット識別情報を共有する1又はそれ以上のMPUの集合(論理グループ)で構成される。MPUは、MMT方式における伝送単位となるフォーマットであり、1以上のMFUで構成される。MPUは、それぞれのアセットに専用のES(Elementary Stream)すなわちMMT伝送路で伝送される。したがって、各MPUは、アセット識別情報と、該当するMMT伝送路上でのMPUのシーケンス番号で一意に特定される。 Each asset is composed of a set (logical group) of one or more MPUs sharing the same asset identification information. The MPU is a format that is a transmission unit in the MMT system, and is composed of one or more MFUs. The MPU is transmitted to each asset through a dedicated ES (Elementary Stream), that is, an MMT transmission path. Therefore, each MPU is uniquely identified by asset identification information and the sequence number of the MPU on the corresponding MMT transmission path.
 各MMT伝送路では、符号化したメディア・データがMPUフォーマットにしてMMTPパケット化され、IPパケットで伝送される。各MMT伝送路は、それぞれ1つのIPデータ・フローに相当する。ここで言うIPデータ・フローとは、IPヘッダー及びUDPヘッダーの送信元IPアドレス、宛先IPアドレス、IPヘッダーのプロトコル種別、送信元ポート番号、宛先ポート番号の5種類のフィールドの値がすべて同じとなるIPパケットの集合である。 In each MMT transmission path, the encoded media data is converted into an MMTP packet in the MPU format and transmitted as an IP packet. Each MMT transmission line corresponds to one IP data flow. The IP data flow referred to here is that the values of the five types of fields of the IP header and the UDP header in the source IP address, destination IP address, IP header protocol type, source port number, and destination port number are all the same. Is a set of IP packets.
 図5に示す例では、伝送路501では、映像信号用として共通のアセット識別情報を持つMPU論理グループからなる符号化映像信号のMMTPパケットが伝送される。同様に、伝送路502では音声信号用として共通のアセット識別情報を持つMPU論理グループからなる符号化音声信号のMMTパケットが伝送され、伝送路503では字幕信号用としての共通のアセット識別情報を持つMPUグループからなる符号化字幕信号のMMTPパケットが伝送される。また、伝送路504-1では、データ放送アプリケーション用として共通のアセット識別情報を持つMPU論理グループからなる符号化アプリケーションのMMTPパケットが伝送され、伝送路504-2では、他のデータ放送アプリケーション用として共通のアセット識別情報を持つMPU論理グループからなる符号化アプリケーションのMMTPパケットが伝送される。また、伝送路505では、共通のアセット識別情報を持つMPUグループからなる符号化汎用データ信号のMMTPパケットとして伝送される。 In the example shown in FIG. 5, the transmission path 501 transmits an MMTP packet of an encoded video signal composed of an MPU logical group having common asset identification information for video signals. Similarly, an MMT packet of an encoded audio signal composed of an MPU logical group having common asset identification information for audio signals is transmitted on the transmission path 502, and has common asset identification information for subtitle signals on the transmission path 503. An MMTP packet of an encoded subtitle signal composed of an MPU group is transmitted. In addition, the transmission path 504-1 transmits an MMTP packet of an encoding application including an MPU logical group having common asset identification information for a data broadcasting application, and the transmission path 504-2 is used for another data broadcasting application. An MMTP packet of an encoded application consisting of an MPU logical group having common asset identification information is transmitted. In addition, the transmission path 505 transmits the encoded general-purpose data signal MMTP packet including the MPU group having the common asset identification information.
 1つのパッケージ(放送サービス)内で、同じタイプのアセットが複数伝送されることもある。図5に示す例では、2つのデータ放送アプリケーションのアセットが、異なるアセット識別番号が割り振られ、それぞれ専用のESすなわちMMT伝送路504-1、504-2で伝送される。例えば、一方のMMT伝送路504-1では放送番組に連動する番組連動型データ放送アプリケーションのアセットが伝送され、他方のMMT伝送路504-2では放送番組に連動しない番組非連動型データ放送アプリケーション(例えば、天気予報やニュースなど)のアセットが伝送される。2以上のデリバリー・セグメントからそれぞれ独立してデータ放送アプリケーションのアセットが提供される場合も想定される。 ∙ Multiple assets of the same type may be transmitted within one package (broadcasting service). In the example shown in FIG. 5, the assets of the two data broadcasting applications are assigned different asset identification numbers and are transmitted through dedicated ES, that is, MMT transmission paths 504-1 and 504-2, respectively. For example, an asset of a program-linked data broadcasting application linked to a broadcast program is transmitted on one MMT transmission path 504-1, and an unlinked program-related data broadcasting application (not linked to a broadcast program) is transmitted on the other MMT transmission path 504-2. For example, assets such as weather forecasts and news are transmitted. It is also assumed that the assets of the data broadcasting application are provided independently from two or more delivery segments.
 また、MMT方式は、放送や通信の複数の伝送路を共通に用いることができる。例えば、データ放送(HTML5文書など)のような非同期型メディアを、図5に示したように放送信号500の伝送路504-1や504-2を用いて同じ放送サービスの同期型メディアとともに伝送する以外に、IPネットワークなど通信伝送路(図示しない)を介して伝送することもできる。 Also, the MMT method can use a plurality of broadcast and communication transmission paths in common. For example, asynchronous media such as data broadcasting (HTML5 document, etc.) are transmitted together with synchronous media of the same broadcast service using transmission paths 504-1 and 504-2 of the broadcast signal 500 as shown in FIG. In addition, it can be transmitted via a communication transmission path (not shown) such as an IP network.
 伝送路505では、MMTを用いる放送システムにおいて、汎用データ伝送方式により各種データを伝送するのに利用される。汎用データ伝送は、HTML5形式のデータ放送アプリケーションが利用するデータのストリーミングに用いることができる。 The transmission path 505 is used to transmit various data by a general-purpose data transmission method in a broadcasting system using MMT. General-purpose data transmission can be used for streaming data used by HTML5 format data broadcasting applications.
 伝送路506は、MMT方式におけるシグナリング、すなわち、MMTのパッケージの構成や放送サービスに関連する情報を示す制御情報であるMMT-SIの伝送に使用される。伝送路506では、MMT-SIを含んだMMTメッセージがMMTPパケット化され、カルーセル方式により繰り返し伝送される。なお、図5では、TLV-SI用の伝送路の図示を省略している。 The transmission path 506 is used for MMT signaling, that is, transmission of MMT-SI that is control information indicating information related to the configuration of the MMT package and the broadcast service. On the transmission path 506, the MMT message including the MMT-SI is converted into an MMTP packet and repeatedly transmitted by the carousel method. In FIG. 5, the transmission line for TLV-SI is not shown.
 MMT-SIには、メッセージ、テーブル、記述子がある。伝送路506伝送されるメッセージとして、PAメッセージ510、M2セクション・メッセージ520、データ伝送メッセージ530を挙げることができる。 MMT-SI has messages, tables, and descriptors. Examples of messages transmitted on the transmission line 506 include a PA message 510, an M2 section message 520, and a data transmission message 530.
 PAメッセージ510は、放送番組の構成などを示す制御情報であり、アセットのリストやその位置などパッケージを構成する情報を記述するMP(MMT Package)テーブル511を格納するコンテナーである。 The PA message 510 is control information indicating the configuration of a broadcast program and the like, and is a container that stores an MP (MMT Package) table 511 describing information constituting a package such as an asset list and its position.
 MP(MMT Package)テーブル511は、放送サービス単位の基本的な受信制御情報を示すテーブルであり、具体的には、アセットのリストや、アセットのロケーション情報など、パッケージを構成する情報を与える。また、MPテーブル511は、アプリケーション・サービス記述子などのMPT記述子を含む。アプリケーション・サービス記述子は、データ放送アプリケーションのエントリー情報(例えば、データ伝送メッセージや、MH-AIT及びEMTをそれぞれ伝送する各M2セクション・メッセージのエントリー情報)を示す。また、MPテーブル511には、MPUの提示時刻を提供するMPUタイムスタンプ記述子が配置される。 The MP (MMT Package) table 511 is a table showing basic reception control information for each broadcast service, and specifically provides information constituting the package, such as an asset list and asset location information. The MP table 511 includes MPT descriptors such as application service descriptors. The application service descriptor indicates entry information of the data broadcasting application (for example, data transmission message and entry information of each M2 section message that transmits MH-AIT and EMT). In the MP table 511, an MPU time stamp descriptor that provides the presentation time of the MPU is arranged.
 PAメッセージ510は、放送サービスのエントリー・ポイントであり、PAメッセージ510を伝送するMMTPパケットには、固定のパケット識別情報(例えば、0x0000)が割り当てられている。したがって、受信機側では、MMT伝送路506上で、上記固定のパケット識別情報を直接指定してPAメッセージ510を取得することができる。そして、図6に示すように、PAメッセージ510で伝送されるMPテーブル511を参照して、パッケージ(放送番組)を構成する各アセット(映像、音声、字幕、データ放送アプリケーション、汎用データ)や他のシグナリング・メッセージを間接指定することができる。なお、MPテーブルは、映像及び音声以外の各アセットに対して、データ符号化方式を識別するために、MH-データ符号化方式記述子を配置する。 PA message 510 is an entry point of the broadcast service, and fixed packet identification information (for example, 0x0000) is assigned to the MMTP packet that transmits PA message 510. Therefore, on the receiver side, the PA message 510 can be obtained by directly specifying the fixed packet identification information on the MMT transmission path 506. Then, as shown in FIG. 6, referring to the MP table 511 transmitted by the PA message 510, each asset (video, audio, caption, data broadcasting application, general-purpose data) constituting the package (broadcast program) and others Indirect signaling messages can be specified. In the MP table, an MH-data encoding scheme descriptor is arranged to identify a data encoding scheme for each asset other than video and audio.
 なお、図5では省略したが、PAメッセージ510に格納されるテーブルとして、MPテーブル以外に、PL(Package List)テーブル(PLT)、LC(Layout Configuration)テーブル(LCT)を挙げることができる。PLTは、放送サービスとして提供されるMMTパッケージのPAメッセージを伝送するIPデータ・フロー及びパケットID並びにIPサービスを伝送するIPデータ・フローの一覧を示す。また、LCTは、提示のためのレイアウト情報をレイアウト番号に対応付けるために用いる。PAメッセージは、MPテーブル、PLテーブル、LCテーブルという最大3つのテーブルを格納することができるコンテナーである。 Although omitted in FIG. 5, examples of the table stored in the PA message 510 include a PL (Package List) table (PLT) and an LC (Layout Configuration) table (LCT) in addition to the MP table. PLT indicates a list of IP data flows and packet IDs for transmitting PA messages of MMT packages provided as broadcasting services, and IP data flows for transmitting IP services. The LCT is used to associate layout information for presentation with a layout number. The PA message is a container that can store up to three tables: an MP table, a PL table, and an LC table.
 M2セクション・メッセージ520は、MPEG-2 Systemsのセクション拡張形式を伝送するメッセージであり、セクション形式のシグナリング・テーブルを1つずつ格納するコンテナーである。1つのM2セクション・メッセージ520内には、MH-AIT(Application Information Table)521や、EMT(Event Message Table)522といったテーブルが1つずつ格納される。 The M2 section message 520 is a message that transmits the section extension format of MPEG-2 Systems, and is a container that stores the section format signaling table one by one. In one M2 section message 520, tables such as MH-AIT (Application Information Table) 521 and EMT (Event Message Table) 522 are stored one by one.
 MH-AIT521は、アプリケーションに関する動的制御情報及び実行に必要な付加情報を指定するテーブルである。具体的には、MH-AIT521は、アプリケーション情報ループの中で、当該テーブルの制御対象となる各アプリケーションの処理方法をapplication_control_codeで示すとともに、アプリケーションの情報を記述する各種アプリケーション情報記述子を配置する。ここで、application_control_codeは、autostart(アプリケーションの自動起動)、present(アプリケーションが実行可能の状態)、kill(アプリケーションの終了)、prefetch(アプリケーションの取得及び保持(事前キャッシュ))などのアプリケーションの処理方法を示す。また、アプリケーション情報記述子の1つである伝送プロトコル記述子は、アプリケーションの伝送方式と伝送方式に応じたロケーション情報を指定する(アプリケーションをHTTP/HTTPS並びにMMT非同期型伝送の場合には、共通して、URL(Uniform Resource Locator)形式でロケーション情報を指定する)。 MH-AIT 521 is a table that specifies dynamic control information related to applications and additional information necessary for execution. Specifically, the MH-AIT 521 indicates the processing method of each application to be controlled in the table by application_control_code in the application information loop, and arranges various application information descriptors describing application information. Here, application_control_code is the application processing method such as autostart (automatic application startup), present (application executable state), kill (application termination), prefetch (application acquisition and retention (pre-cache)). Show. In addition, the transmission protocol descriptor, which is one of the application information descriptors, specifies the transmission method of the application and the location information corresponding to the transmission method (common in the case of HTTP / HTTPS and MMT asynchronous transmission). URL (Uniform Resource Locator) format for specifying location information).
 EMT522は、イベント・メッセージ伝送方式に用いるシグナリング・テーブルであり、イベント・メッセージ(放送局から受信機上のアプリケーションに対する同期・非同期のメッセージ)に関する情報(イベント・メッセージ記述子)を格納する。イベント・メッセージ伝送方式は、放送局から受信機で動作しているデータ放送アプリケーションに対して、即座にあるいは指定した時刻に、メッセージ情報を送る手段を提供する。 The EMT 522 is a signaling table used for an event message transmission method, and stores information (event message descriptor) related to an event message (synchronous / asynchronous message from a broadcasting station to an application on a receiver). The event / message transmission system provides a means for sending message information from a broadcasting station to a data broadcasting application operating on a receiver immediately or at a specified time.
 データ伝送メッセージ530は、データ放送アプリケーションの伝送に関する制御情報を伝送するためのメッセージである。データ伝送メッセージ530は、データ・ディレクトリー管理テーブル(Data Directory management Table:DDMT)531、データ・アセット管理テーブル(Data Asset Management Table:DAMT)532、データ・コンテンツ管理テーブル(Data Content Configuration Table:DCCT)533という、最大3つのテーブルを同時に格納することができるコンテナーである。データ・ディレクトリー管理テーブル及びデータ・アセット管理テーブルはデータ放送サービスに必須であるが、データ・コンテンツ管理テーブルは任意である。 The data transmission message 530 is a message for transmitting control information related to transmission of the data broadcasting application. The data transmission message 530 includes a data directory management table (Data Directory management Table: DDMT) 531, a data asset management table (Data Asset Management Table: DAMT) 532, and a data content management table (Data Content ConfigurationTable 33: This is a container that can store up to three tables at the same time. The data directory management table and the data asset management table are indispensable for the data broadcasting service, but the data / content management table is optional.
 ここで、データ・ディレクトリー管理テーブル531は、ディレクトリー単位(言い換えれば、データ放送アプリケーションの制作単位)でデータ放送アプリケーションを管理するためのテーブルである。同テーブル内は、1つのパッケージに含まれるアイテム(ディレクトリー並びにディレクトリーに含まれるサブディレクトリーやファイル)に関するディレクトリー構造を記述しているので、アプリケーションのファイル構成とファイル伝送のための構成を分離することができる。同テーブルは、ディレクトリーやファイルなどの各ノードのパス名と、データ伝送メッセージ内で各ノードを識別するノード・タグとの対応関係を示している。 Here, the data directory management table 531 is a table for managing data broadcasting applications in directory units (in other words, production units of data broadcasting applications). The table describes the directory structure for items (directories and subdirectories and files included in a directory) included in one package, so that the file structure of the application and the structure for file transmission can be separated. it can. The table shows the correspondence between the path name of each node, such as a directory or file, and the node tag that identifies each node in the data transmission message.
 また、データ・アセット管理テーブル532は、アセット単位でデータ放送アプリケーションを管理するためのテーブルであり、アセット内のMPUの構成とのMPU毎のバージョン情報を記述している。具体的には、同テーブルは、各コンポーネントのダウンロード識別情報や、コンポーネントを伝送する各MPUに含まれるノード(ファイル又はディレクトリー)をデータ伝送メッセージ内で識別するノード・タグとMMT伝送路上でノードを識別するアイテム識別情報との対応関係を示している。 Also, the data / asset management table 532 is a table for managing the data broadcasting application in units of assets, and describes version information for each MPU with the configuration of the MPU in the asset. Specifically, the table shows download identification information of each component, and a node tag and node on the MMT transmission path that identify a node (file or directory) included in each MPU that transmits the component in the data transmission message. The correspondence with the item identification information to identify is shown.
 また、データ・コンテンツ管理テーブル533は、提示単位(Presentation Unit:PU)毎にデータ放送アプリケーションを管理するためのテーブルである。同テーブルは、データ放送アプリケーションを提示単位毎に識別する提示単位識別情報と、各提示単位に含まれるノード(ファイル又はディレクトリー)をデータ伝送メッセージ内で識別するノード・タグを示している。また、同テーブルは、提示単位にリンクする提示単位を識別するリンク先提示単位識別情報や、各提示単位のキャッシュ制御に関する情報を含めることができ、受信機側ではデータ放送アプリケーション用のファイル・データの柔軟で有効なキャッシュ制御に利用することができる。 Also, the data / content management table 533 is a table for managing the data broadcasting application for each presentation unit (Presentation Unit: PU). The table shows presentation unit identification information for identifying a data broadcasting application for each presentation unit, and a node tag for identifying a node (file or directory) included in each presentation unit in a data transmission message. In addition, the table can include link destination presentation unit identification information for identifying a presentation unit linked to the presentation unit, and information on cache control of each presentation unit. Can be used for flexible and effective cache control.
 MMTによるデータ放送アプリケーションの伝送方式において、データ伝送メッセージで伝送する上記3種類のシグナリング・テーブル531~533を活用することにより、ファイル単位の伝送データ構造やコンテンツ(データ放送アプリケーション)制作におけるディレクトリー構造とは独立して、アプリケーション単位、提示単位といった利用単位のデータ構造を表現することができる。各シグナリング・テーブル531~533の構成は、ARIB STD B-60で規定されている。 In the transmission system of the data broadcasting application by MMT, by utilizing the above three kinds of signaling tables 531 to 533 that are transmitted by the data transmission message, the transmission data structure of the file unit and the directory structure in contents (data broadcasting application) production Can independently represent the data structure of usage units such as application units and presentation units. The configuration of each of the signaling tables 531 to 533 is defined by ARIB STD B-60.
 MH-AITでは、各アプリケーションのロケーション情報は、URL形式、言い換えれば、ディレクトリー・ノード名とファイル名の組み合わせからなるパス名で記述される。一方、データ伝送メッセージで伝送されるデータ・ディレクトリー管理テーブル及びデータ・アセット管理テーブルを用いて、アセットのパス名をMMT伝送路上の識別情報(パケット識別情報)に変換することができる。図7を参照しながら、MMT伝送されるデータ放送に関連するファイルを取得する仕組みについて、簡単に説明しておく。 In MH-AIT, location information of each application is described in a URL format, in other words, a path name composed of a combination of a directory node name and a file name. On the other hand, the asset path name can be converted into identification information (packet identification information) on the MMT transmission path by using the data directory management table and the data asset management table transmitted in the data transmission message. With reference to FIG. 7, a mechanism for acquiring a file related to a data broadcast transmitted by MMT will be briefly described.
 受信機は、M2セクション・メッセージで伝送されるMH-AIT内のアプリケーション情報ループを参照して、起動すべきアプリケーション(例えば、アプリケーション制御コードで自動起動(autostart)が指定されたアプリケーション)を検知することができる。また、受信機は、MH-AITに配置されている伝送プロトコル記述子から、アプリケーションのロケーション情報すなわちパス名を取得することができる。放送で伝送されるアプリケーションの場合には、参照番号701で示すように、データ伝送メッセージ内のデータ・ディレクトリー管理テーブルから、指定されたパス名に対応するファイルのノード・タグを得ることができる。 The receiver refers to the application information loop in the MH-AIT transmitted in the M2 section message, and detects an application to be started (for example, an application whose automatic start is specified by the application control code). be able to. In addition, the receiver can acquire the location information of the application, that is, the path name, from the transmission protocol descriptor arranged in the MH-AIT. In the case of an application transmitted by broadcasting, as indicated by reference numeral 701, the node tag of the file corresponding to the specified path name can be obtained from the data directory management table in the data transmission message.
 次いで、参照番号702で示すように、同じくデータ伝送メッセージ内のデータ・アセット管理テーブルから、データ・ディレクトリー管理テーブルで得られたノード・タグを持つアイテムが伝送されるデータ・アセットのコンポーネント・タグ、ダウンロード識別情報、MPUシーケンス番号、及びアイテム識別情報を得ることができる。 Then, as indicated by reference numeral 702, the component tag of the data asset in which the item having the node tag obtained in the data directory management table is transmitted from the data asset management table in the data transmission message, Download identification information, MPU sequence number, and item identification information can be obtained.
 さらに、参照番号703で示すように、MPテーブルから、データ・アセット管理テーブルで得られたコンポーネント・タグを持つアセットのロケーション情報を取得すると、参照番号704で示すように、該当するファイルが実際に伝送されるデータ・アセットを特定することができる。 Further, as indicated by reference number 703, when the location information of the asset having the component tag obtained in the data asset management table is acquired from the MP table, the corresponding file is actually stored as indicated by reference number 704. The data asset to be transmitted can be identified.
 そして、特定されたデータ・アセット内で、データ・アセット管理テーブルから得られたダウンロード識別情報とアイテムを伝送するMMTPパケットのヘッダー領域に記載されたダウンロード識別情報とにより、カルーセルに対応するファイルの繰り返し伝送の単位を一意に識別することができる。参照番号705で示すように、繰り返し伝送されるアイテムのうち、データ・アセット管理テーブルから得られたMPUシーケンス番号及びアイテム識別情報を持つアイテムを所望のファイルとして指定することができる。 Then, within the identified data asset, the file identification corresponding to the carousel is repeated using the download identification information obtained from the data asset management table and the download identification information described in the header area of the MMTP packet for transmitting the item. The unit of transmission can be uniquely identified. As indicated by a reference number 705, an item having an MPU sequence number and item identification information obtained from the data / asset management table can be designated as a desired file among items repeatedly transmitted.
C.放送映像の動きに同期したデータ放送アプリケーション
 データ放送アプリケーションは、一般に、HTML5などの形式で符号化された構造化文書のファイルである。図4を参照しながら説明したように、受信機12では、HTMLブラウザーなどを搭載するアプリケーション・エンジン411が符号化されたアプリケーションを解析してデータ放送の表示信号を生成し、これをビデオ・デコーダー404でデコードされた放送映像の上に合成部417で重畳する。データ放送が合成された放送映像の上に、さらに字幕や文字スーパーの表示信号が合成される場合もある。
C. A data broadcast application synchronized with the movement of a broadcast video is generally a structured document file encoded in a format such as HTML5. As described with reference to FIG. 4, in the receiver 12, the application engine 411 equipped with an HTML browser or the like analyzes the encoded application to generate a data broadcast display signal, which is converted into a video decoder The composition unit 417 superimposes on the broadcast video decoded in 404. In some cases, a display signal for subtitles or text superimpose is further synthesized on a broadcast video obtained by synthesizing a data broadcast.
 データ放送アプリケーションの中には、放送番組本編とは直接関連せずそれ自体で完結する独立データ放送もあるが、多くは、放送番組に連動する番組連動型データ放送アプリケーションである。本明細書では、放送映像の動きに同期して移動するグラフィックスを表示するデータ放送アプリケーションを提供する技術について開示する。放送映像の動きに同期して移動するグラフィックスとは、図8に示した例では、放送映像811に重畳するグラフィックス812が、放送映像811内の動きに同期して移動することを意味する。 Some data broadcasting applications include independent data broadcasting that is not directly related to the main part of the broadcast program and is completed by itself, but many are program-linked data broadcasting applications that are linked to the broadcast program. The present specification discloses a technique for providing a data broadcast application that displays graphics that move in synchronization with the motion of a broadcast video. In the example shown in FIG. 8, the graphics that move in synchronization with the movement of the broadcast video means that the graphics 812 that is superimposed on the broadcast video 811 moves in synchronization with the movement in the broadcast video 811. .
 図9には、放送番組の映像と同期する表示オブジェクトを表示させた放送画面の表示例を示している。同図は、サッカーの試合の放送画面であり、出場している選手の情報(例えば、選手名、ポジション、ゴール数など)を提示する「吹き出し」状の表示オブジェクトを、各選手の動きに追従させてオーバーレイ表示している。 FIG. 9 shows a display example of a broadcast screen on which display objects synchronized with the broadcast program video are displayed. This figure is a soccer game broadcast screen, and displays a balloon-like display object that displays information about the players participating (eg, player name, position, number of goals, etc.) and follows each player's movement. Overlay is displayed.
 但し、図9は、放送番組の画面に表示オブジェクトをオーバーレイ表示する例の1つに過ぎない。サッカー以外の、例えば野球やバスケットボール、ゴルフ、陸上競技、柔道、カーレースなどさまざまな競技を中継する放送番組に対しても、同様の表示オブジェクトのオーバーレイ表示を適用することができる。勿論、スポーツ以外の、ドラマや音楽番組などさまざまなジャンルの放送番組にも、同様の表示オブジェクトのオーバーレイ表示を適用することができる。 However, FIG. 9 is only one example of displaying a display object on a broadcast program screen in an overlay manner. The same overlay display of display objects can be applied to broadcast programs that relay various sports such as baseball, basketball, golf, athletics, judo, and car races other than soccer. Of course, the same overlay display of display objects can be applied to broadcast programs of various genres such as dramas and music programs other than sports.
 映像と同期した表示オブジェクトに関する情報の表現方法として、例えば、以下で説明する移動オブジェクト・リスト記述(Moving Object List Description:MOLD)文書を利用することができる。移動オブジェクト・リスト記述文書は、同時に画面に表示するオブジェクト数分の表示オブジェクトに関する情報のリストを記述する文書構造を備えている。移動オブジェクト・リスト記述文書内には、表示オブジェクト毎の情報として、表示オブジェクトの画面上の位置及びサイズと、表示データ自体又は表示データの取得先情報(参照するデータ参照番号又はURLなど)を記載すればよい。 For example, a moving object list description (MOLD) document described below can be used as a method for expressing information related to a display object synchronized with video. The moving object list description document has a document structure that describes a list of information on display objects for the number of objects displayed on the screen at the same time. In the moving object list description document, as the information for each display object, the position and size of the display object on the screen, and the display data itself or display data acquisition destination information (data reference number to be referred to or URL) do it.
 また、HTML5形式のデータ放送アプリケーションに対して、表示オブジェクトを時々刻々と変化させるためのデータを、汎用データ・ストリームとして伝送する。図9に示すように放送番組の映像と同期する表示オブジェクトを表示させたい場合、時々刻々変化する表示オブジェクトの制御情報を、映像と時刻同期した同期型汎用データ・ストリームで伝送すればよい。 Also, for the data broadcasting application in the HTML5 format, data for changing the display object every moment is transmitted as a general-purpose data stream. As shown in FIG. 9, when it is desired to display a display object synchronized with the video of the broadcast program, the control information of the display object that changes from time to time may be transmitted in a synchronized general-purpose data stream synchronized with the video.
 また、表示オブジェクトに関する情報として、次のタイミングまでの各表示オブジェクトの内挿位置を求めるための内挿情報も、移動オブジェクト・リスト記述文書に記述する。内挿情報は、次のタイミングまでの時間を細分化した時刻毎の内挿位置を求めるための情報を含む。映像フレーム毎に汎用データ・ストリームを伝送するのは、情報量が大きいため現実的でない。汎用データ・ストリームを間欠的に伝送し、受信機側では、移動オブジェクト・リスト記述文書に記述された内挿情報に基づいて求めた内挿位置に表示オブジェクトを表示することで、次のタイミングまでの間に表示オブジェクトを滑らかに移動させることができる。図9に示した放送番組の表示例で言えば、常にピッチ上を動き回るサッカー選手に滑らかに追従するように、内挿により表示オブジェクトをオーバーレイ表示することができる。例えば、内挿情報として、表示オブジェクトの速度ベクトル情報を記述することで、表示オブジェクトの内挿位置を線形補間することが可能になる。さらに、角速度情報を含めることで、表示オブジェクトの内挿位置を弧の曲線補間することが可能になる。速度ベクトルや角速度は、対応する選手の動きを解析して求めることができる。 Also, as information about the display object, interpolation information for obtaining the interpolation position of each display object until the next timing is also described in the moving object list description document. The interpolation information includes information for obtaining an interpolation position for each time obtained by subdividing the time until the next timing. Transmission of a general-purpose data stream for each video frame is not practical because of the large amount of information. The general-purpose data stream is transmitted intermittently, and the receiver side displays the display object at the interpolation position obtained based on the interpolation information described in the moving object list description document, until the next timing. The display object can be smoothly moved during the interval. In the broadcast program display example shown in FIG. 9, the display object can be displayed in an overlay manner by interpolation so as to smoothly follow the soccer player constantly moving around on the pitch. For example, by describing the velocity vector information of the display object as the interpolation information, the interpolation position of the display object can be linearly interpolated. Furthermore, by including the angular velocity information, it becomes possible to interpolate the arc of the interpolation position of the display object. The velocity vector and the angular velocity can be obtained by analyzing the movement of the corresponding player.
 また、表示オブジェクトに関する情報として、さらにハイパーリンクのURL情報を移動オブジェクト・リスト記述文書に記述するようにしてもよい。受信機側では、映像の視聴者が表示オブジェクトを操作した場合に、その表示オブジェクトに対して指定されたURLに基づいて指定されたリンク先から情報を取得して表示することができる。 Further, URL information of hyperlinks may be further described in the moving object list description document as information on display objects. On the receiver side, when a video viewer operates a display object, information can be acquired and displayed from a link destination specified based on the URL specified for the display object.
 また、複数の移動オブジェクト・リスト記述文書から共通に参照される表示オブジェクトの表示データについては、移動オブジェクト・リスト記述文書とパッケージ化して毎回伝送するのではなく、代表して先頭の移動オブジェクト・リスト記述文書とパッケージ化して伝送し、それ以後に伝送する移動オブジェクト・リスト記述文書からは共通に参照するようにしてもよい。外部の表示データを参照する、移動オブジェクト・リスト記述文書のみからなる汎用データを伝送することにより、伝送情報量を削減(すなわち、伝送帯域を節約)することができる。表示データを更新したときに、移動オブジェクト・リスト記述文書とパッケージ化して伝送するようにすれば、帯域節約の効果が高まる。但し、番組の途中でチューニングしてきた受信機でも表示オブジェクトを表示できるようにするために、表示データをパッケージ化した汎用データを一定間隔で伝送することが好ましい。 Also, the display data of the display object that is commonly referenced from multiple moving object list description documents is not packaged with the moving object list description document and transmitted every time. It may be transmitted in a packaged form with a description document, and may be commonly referred to from a moving object list description document transmitted thereafter. By transmitting general-purpose data consisting only of a moving object list description document that refers to external display data, the amount of transmission information can be reduced (that is, the transmission band can be saved). If the display data is updated and packaged with the moving object list description document and transmitted, the band saving effect is enhanced. However, it is preferable to transmit general-purpose data in which display data is packaged at regular intervals so that a display object can be displayed even by a receiver that has been tuned in the middle of a program.
 また、上記の汎用データ・ストリームを、一定周期で間欠伝送してもよいし、伝送周期を可変制御するようにしてもよい。例えば、表示オブジェクトの動きに応じて、汎用データ・ストリームの伝送周期を制御するようにしてもよい。例えば、表示オブジェクトの動きが速い場合には1秒間隔で伝送し、表示オブジェクトのより正確な内挿位置を求め易くすることができる。逆に、表示オブジェクトの動きが遅い場合には5秒間隔にして、伝送情報量を削減(すなわち、伝送帯域を節約)するようにしてもよい。 Further, the general-purpose data stream may be intermittently transmitted at a constant cycle, or the transmission cycle may be variably controlled. For example, the transmission cycle of the general-purpose data stream may be controlled according to the movement of the display object. For example, when the movement of the display object is fast, it is transmitted at intervals of 1 second, so that a more accurate interpolation position of the display object can be easily obtained. Conversely, when the movement of the display object is slow, the transmission information amount may be reduced (that is, the transmission band is saved) at intervals of 5 seconds.
 送信側(放送局)からは、移動オブジェクト・リスト記述文書とこれから参照される表示オブジェクトの表示データ(画像ファイル)をパッケージ化して、パッケージ単位の表示時刻を示すタイムスタンプとともに、汎用データ・ストリームとして間欠的に放送伝送する。パッケージ単位の表示時刻を示すタイムスタンプ情報は、MPUの提示時刻を提供するMPUタイムスタンプ記述子で示すことができる。そして、受信機側では、各表示オブジェクトを描画するための情報を移動オブジェクト・リスト記述文書から取り出すと、タイムスタンプで指定される表示時刻に基づいて、映像と同期した表示オブジェクトを放送番組の画面にオーバーレイ表示することが可能である。データ放送アプリケーションを実行するアプリケーション・エンジンが、汎用データ・ストリームとして受信する制御情報に逐次アクセスして、オブジェクトの表示を更新することによって、映像の動きに追従するオブジェクトを描画することができる。 From the transmission side (broadcasting station), the moving object list description document and the display data (image file) of the display object to be referred to are packaged, and a time stamp indicating the display time of each package as a general-purpose data stream. Broadcast intermittently. The time stamp information indicating the display time of the package unit can be indicated by an MPU time stamp descriptor that provides the presentation time of the MPU. Then, on the receiver side, when the information for drawing each display object is extracted from the moving object list description document, the display object synchronized with the video is displayed on the screen of the broadcast program based on the display time specified by the time stamp. Can be overlaid. An application engine that executes a data broadcasting application sequentially draws an object that follows the movement of a video by sequentially accessing control information received as a general-purpose data stream and updating the display of the object.
 汎用データ伝送の処理では、MPUが処理の単位となる。MPUは、あるタイミングに利用するデータを含み、MPU単位で提示などの処理を行なうことができる単位となる。図10には、汎用データのMPU及びMFUの構成を示している。汎用データのMPUは、MPUメタデータ、ムービー・フラグメント・メタデータは配置せず、1以上のMFUで構成される。各MFUは、汎用データ・ヘッダー部と、データ部で構成される。各MFUのデータ部には、任意のサイズのデータを格納することができる。例えば、1つのMFUで1つのファイルを送ることができる。 In general data transmission processing, MPU is the unit of processing. The MPU includes data used at a certain timing and is a unit that can perform processing such as presentation in units of MPU. FIG. 10 shows the configuration of MPU and MFU of general-purpose data. The MPU of general-purpose data is composed of one or more MFUs without arranging MPU metadata and movie fragment metadata. Each MFU includes a general-purpose data header part and a data part. Data of an arbitrary size can be stored in the data portion of each MFU. For example, one file can be sent by one MFU.
 また、図11には、オブジェクト数分の表示オブジェクトに関する情報を記述した移動オブジェクト・リスト記述文書と、同文書から参照される表示データをパッケージ化した汎用データ・ストリームの構造を模式的に示している。 FIG. 11 schematically shows the structure of a general-purpose data stream in which a moving object list description document describing information about display objects for the number of objects and display data referenced from the document are packaged. Yes.
 この汎用データ・ストリームは、同期型MPUとして伝送される。汎用データ伝送の処理ではMPUが処理の単位となり、MPUは複数のMFUで構成される。表示オブジェクトに関する情報を汎用データで伝送する場合、移動オブジェクト・リスト記述文書と同文書から参照される表示データのパッケージが処理単位として、1つのMPUで伝送される。 This general-purpose data stream is transmitted as a synchronous MPU. In general-purpose data transmission processing, the MPU is a unit of processing, and the MPU is composed of a plurality of MFUs. When information about a display object is transmitted as general-purpose data, a moving object list description document and a display data package referenced from the document are transmitted as a processing unit by one MPU.
 図11中、参照番号1100は、1つのパッケージを伝送するMPUであり、参照番号1110に示す先頭のMFUに移動オブジェクト・リスト記述文書を格納するとともに、この移動オブジェクト・リスト記述文書から参照される各表示オブジェクトの表示データ(画像ファイル)を後続のMFU1120-1、…、1120-Nに格納する。 In FIG. 11, reference numeral 1100 is an MPU that transmits one package. The moving object list description document is stored in the first MFU indicated by reference numeral 1110 and is referenced from this moving object list description document. Display data (image file) of each display object is stored in subsequent MFUs 1120-1,..., 1120-N.
 先頭のMFU1110のデータ部に格納される移動オブジェクト・リスト記述文書は、画面に表示するオブジェクト数N個分の表示オブジェクトの情報のリストからなる。図12に示すように、4個の表示オブジェクト#1~#4を画面に同時に表示する場合、N=4であり、移動オブジェクト・リスト記述文書は、4個分の表示オブジェクトに関する情報をリストする。 The moving object list description document stored in the data part of the top MFU 1110 is composed of a list of information on display objects for N objects to be displayed on the screen. As shown in FIG. 12, when four display objects # 1 to # 4 are simultaneously displayed on the screen, N = 4, and the moving object list description document lists information on the four display objects. .
 移動オブジェクト・リスト記述文書内では、参照番号1111で示す情報ブロック内に、表示オブジェクト#1に関する情報として、表示オブジェクトを識別するタグ情報(Tag)と、表示オブジェクトを画面上に表示する位置(Position)及びサイズ(Size)、内挿情報としての速度ベクトル情報(Vector)及び角速度情報(θ)、表示オブジェクトの表示データの情報(MediaData)を含んでいる。上述したように、表示オブジェクトの情報としてハイパーリンクのURL情報をさらに含んでいてもよい(図11では省略)。図面の簡素化のため省略したが、他の情報ブロックも、それぞれ対応する表示オブジェクトに関する同様の情報を記述しているものと理解されたい。 In the moving object list description document, tag information (Tag) for identifying a display object and information for displaying the display object on the screen (Position) as information about the display object # 1 in the information block indicated by reference numeral 1111. ) And size (Size), velocity vector information (Vector) and angular velocity information (θ) as interpolation information, and display object display data information (MediaData). As described above, hyperlink URL information may be further included as display object information (not shown in FIG. 11). Although omitted for simplification of the drawings, it should be understood that the other information blocks also describe similar information regarding the corresponding display objects.
 表示オブジェクトの表示データの情報(MediaData)は、表示データの取得先情報(参照するデータ参照番号又はURLなど)で表すことができる。図11に示す例では、表示オブジェクトの表示データ(画像ファイル)も、移動オブジェクト・リスト記述文書とパッケージ化することを想定しており、URLなどの取得先情報は、同じMPU内で伝送される、該当する画像ファイルを格納したMFUのロケーション情報を指定するものとする。あるいは、表示データ自体すなわちバイナリー・データを移動オブジェクト・リスト記述文書の情報ブロック内に記述することもできる。 The display data information (MediaData) of the display object can be represented by display data acquisition destination information (such as a data reference number to be referred to or a URL). In the example shown in FIG. 11, it is assumed that display data (image file) of a display object is also packaged with a moving object / list description document, and acquisition source information such as URL is transmitted within the same MPU. The location information of the MFU storing the corresponding image file is designated. Alternatively, the display data itself, that is, binary data can be described in the information block of the moving object list description document.
 また、参照番号1130は、MPテーブルであり、放送信号を構成する各アセット(映像、音声、字幕、データ放送アプリケーションなど)のアセット識別情報とロケーション情報を指定している。このMPテーブルの第2ループ内に汎用データ・ストリームのアセットに対して配置されるMPUタイムスタンプ記述子1131で、MPU1100の表示時刻を指定する。すなわち、MPUタイムスタンプ記述子1131は、移動オブジェクト・リスト記述文書を伝送するMPU1100のシーケンス番号をmpu_sequence_numberで指定し、その表示時刻をmpu_presentation_timeで指定する。 Also, reference number 1130 is an MP table, which designates asset identification information and location information of each asset (video, audio, caption, data broadcasting application, etc.) constituting a broadcast signal. The display time of the MPU 1100 is designated by the MPU time stamp descriptor 1131 arranged for the asset of the general-purpose data stream in the second loop of the MP table. That is, the MPU time stamp descriptor 1131 specifies the sequence number of the MPU 1100 that transmits the moving object list description document by mpu_sequence_number, and the display time by mpu_presentation_time.
 なお、MMT方式ではなく、MPEG TS方式の放送システムで同様の機能を実現する場合には、PES(Packetized Elementary Stream)パケットで同様の情報を伝送するとともに、表示時刻をPTS(Presentation TimeStamp)で示すようにすればよい。 When the same function is realized in the MPEG TS system broadcasting system instead of the MMT system, the same information is transmitted in a PES (Packetized Elementary Stream) packet and the display time is indicated by PTS (Presentation TimeStamp). What should I do?
 図13には、移動オブジェクト・リスト記述文書のシンタックス例を示している。MFUの汎用データ・ヘッダー部内のパラメーターdata_type_byteで「mld」が指定されたときには、そのデータ部には図示のような移動オブジェクト・リスト記述文書が格納される。同図中、先頭に@が付されたパラメーターは属性情報であり、@が付されていないパラメーターは要素を示す。以下、各パラメーターの意味について説明する。 FIG. 13 shows a syntax example of the moving object list description document. When “mld” is designated by the parameter data_type_byte in the general-purpose data header part of the MFU, a moving object list description document as shown is stored in the data part. In the figure, parameters prefixed with @ are attribute information, and parameters without @ indicate elements. Hereinafter, the meaning of each parameter will be described.
 moldは、当該データが移動オブジェクト・リスト記述文書であることを示す。同時に画面に表示するオブジェクト数分だけ、移動オブジェクトmoの情報が当該文書内に配置される。 “Mold” indicates that the data is a moving object list description document. At the same time, the information of the moving object mo is arranged in the document by the number of objects to be displayed on the screen.
 各移動オブジェクトmoは、オブジェクト・タグで識別される。moTagフィールドには属性値としてのオブジェクト・タグが記述される。 Each moving object mo is identified by an object tag. An object tag as an attribute value is described in the moTag field.
 各移動オブジェクトmoの情報として、オブジェクトの位置情報(position)、オブジェクトのサイズ情報(size)、オブジェクトの動きベクトル情報(mv)、オブジェクトの表示データに関する情報(media)、オブジェクト操作時のリンク先情報(link)を含んでいる。 As information on each moving object mo, object position information (position), object size information (size), object motion vector information (mv), information on object display data (media), link destination information at the time of object operation (Link) is included.
 オブジェクトの位置情報(position)は、画面上でのオブジェクトの表示位置(矩形領域であれば、左上隅)の水平座標xと垂直座標yを属性値として含み、それぞれ画素位置を整数値で示す。 The object position information (position) includes the horizontal coordinate x and the vertical coordinate y of the display position of the object on the screen (upper left corner in the case of a rectangular area) as attribute values, and each indicates the pixel position as an integer value.
 オブジェクトのサイズ情報(size)は、画面上に表示するオブジェクトのサイズを示す、矩形領域の幅xと高さyを属性値として含み、それぞれ画素値(整数値)で示す。 The object size information (size) includes the width x and height y of the rectangular area indicating the size of the object to be displayed on the screen as attribute values, each represented by a pixel value (integer value).
 オブジェクトの動きベクトル情報(mv)は、オブジェクトの水平方向速度x及び垂直方向速度yからなる速度ベクトルと、角速度情報θ(但し、オブジェクトの移動が弧で表現される曲線運動の場合)を属性値として含み、それぞれを示す整数値が記述される。受信機側では、動きベクトル情報(mv)を、次のMPU(すなわち、次の移動オブジェクト・リスト記述文書)のタイミングまでのオブジェクトの内挿位置を求めるために利用することができる(前述)。 The object motion vector information (mv) is an attribute value including a velocity vector composed of the horizontal velocity x and the vertical velocity y of the object, and angular velocity information θ (provided that the movement of the object is a curved motion expressed by an arc). An integer value indicating each is described. On the receiver side, the motion vector information (mv) can be used to determine the interpolation position of the object up to the timing of the next MPU (that is, the next moving object list description document) (described above).
 表示データに関する情報(media)は、オブジェクトの表示データのタイプtype(JPEG又はPNG)と、オブジェクトの表示データの取得先情報を示す。表示データの取得先は、同一のMPU内、以前のMPU、又はインターネット上のいずれかに大別され、汎用データ・ヘッダー部の付加情報(mold_info)内のパラメーターmaterial_locationで指定される(前述)。表示データの取得先情報は、material_locationで指定される場所での取得先をurl形式で指定し、url指定される取得先には表示データのタイプで指定される形式の画像ファイルが置かれていることが前提である。なお、表示データの取得先情報に0を指定した場合には、表示データのタイプ領域に、表示データのバイナリー・データを格納するようにしてもよい。 Information related to display data (media) indicates the type of display data of the object (JPEG or PNG) and the acquisition destination information of the display data of the object. The acquisition source of the display data is roughly classified into any of the same MPU, the previous MPU, or on the Internet, and is designated by the parameter material_location in the additional information (mold_info) of the general data header part (described above). In the display data acquisition destination information, an acquisition destination at a location specified by material_location is specified in url format, and an image file in a format specified by the type of display data is placed in the acquisition destination specified by url. That is the premise. When 0 is designated as the display data acquisition destination information, the display data binary data may be stored in the display data type area.
 オブジェクト操作時のリンク先情報(link)は、オブジェクトのリンク先情報をurl形式で指定する。映像の視聴者が表示オブジェクトを操作した場合、リンク先情報(link)で指定されるリンク先から情報を取得して表示することができる。 The link destination information (link) at the time of object operation specifies the link destination information of the object in url format. When a video viewer operates a display object, information can be acquired and displayed from a link destination specified by link destination information (link).
 図14には、表示オブジェクトの表示位置を、移動オブジェクト・リスト記述文書で指定される内挿情報に基づいて補間する仕組みを図解している。参照番号1401は、あるタイミングT1で送信された移動オブジェクト・リスト記述文書で指定される表示オブジェクトの表示位置(X1,Y1)を示している。また、参照番号1402は、次のタイミングT2で送信された移動オブジェクト・リスト記述文書で指定される、同じ表示オブジェクトの表示位置(X2,Y2)を示している。参照番号1411~1414は、タイミングの時間間隔を細分化した時刻毎の内挿位置とする。タイミングT1で送信された移動オブジェクト・リスト記述文書では、この表示オブジェクトの内挿情報として、速度ベクトル(x,y)と角速度θが指定されているとする。速度ベクトル(x,y)に基づいて、細分化した時刻毎の内挿位置1411、…を線形補間することが可能であり、さらに角速度θに基づいて内挿位置1411、…を弧の曲線補間することが可能である。 FIG. 14 illustrates a mechanism for interpolating the display position of the display object based on the interpolation information specified by the moving object list description document. Reference numeral 1401 indicates the display position (X1, Y1) of the display object specified in the moving object list description document transmitted at a certain timing T1. Reference numeral 1402 indicates the display position (X2, Y2) of the same display object specified in the moving object list description document transmitted at the next timing T2. Reference numerals 1411 to 1414 are interpolation positions for each time when the timing interval is subdivided. In the moving object list description document transmitted at the timing T1, it is assumed that the velocity vector (x, y) and the angular velocity θ are specified as the interpolation information of the display object. Based on the velocity vector (x, y), the interpolation positions 1411,... At each subdivided time can be linearly interpolated, and the interpolation positions 1411,. Is possible.
 映像に表示オブジェクトをオーバーレイ表示するアプリケーションを実行するアプリケーション・エンジン411は、汎用データ・ストリームで伝送される移動オブジェクト・リスト記述文書を逐次取得するとともに、内挿情報に基づいて補間することで、映像の動きに合わせて滑らかに移動する表示オブジェクトを表示することができる。 An application engine 411 that executes an application that displays a display object on a video in an overlay manner sequentially acquires moving object list description documents transmitted in a general-purpose data stream, and interpolates based on interpolation information. It is possible to display a display object that moves smoothly according to the movement of the display.
 続いて、アプリケーション・エンジンすなわちHTMLブラウザーが、上記のような汎用データ・ストリームを利用して、放送映像の動きに同期して移動するグラフィックスを表示するための処理について説明する。 Next, a process for displaying graphics moving in synchronization with the motion of the broadcast video using the general-purpose data stream as described above by the application engine, that is, the HTML browser will be described.
 図12に示したようなアプリケーションの表示例では、サッカーの試合の映像で、ピッチ上の各サッカー選手の移動に追従して表示オブジェクトをリアルタイムで動かしていかなければならない。このため、時々刻々と変化する各表示オブジェクトを描画するための情報を記述した移動オブジェクト・リスト記述文書を汎用データ・ストリームで伝送する(前述)。そして、HTMLブラウザーは、汎用データ・ストリームから各表示オブジェクトの情報に逐次アクセスして、表示オブジェクトをリアルタイムで更新する必要がある。 In the display example of the application as shown in FIG. 12, it is necessary to move the display object in real time following the movement of each soccer player on the pitch in the video of the soccer game. For this reason, a moving object list description document describing information for rendering each display object that changes from moment to moment is transmitted as a general-purpose data stream (described above). Then, the HTML browser needs to sequentially access the information of each display object from the general-purpose data stream and update the display object in real time.
 本実施形態では、HTMLブラウザーにデータをリアルタイムで更新させるために、データ放送アプリケーションを記述するHTML文書において、JavaScript(登録商標)のフレームワークの1つであるAngularJSを利用する。AngularJSは、スクリプト変数の変化を監視する機能を有する(周知)。また、各表示オブジェクトの情報をHTMLブラウザーに受け渡すためのオブジェクトを用意して、汎用データ・ストリームからJSON(JavaScript(登録商標) Object Notation)形式でデータを読み込んで、あたかもHTML文書内に書き込まれていたデータであるかのようにして、HTMLブラウザーに受け渡すようにする。データの受け渡しを行なうオブジェクトを、本明細書中ではNavigator.genobjsと呼ぶことにする。なお、JSON形式は、キーと値のペアをコロンで対にして、これらの対をコンマで区切って列挙し、全体を波括弧{…}で括る形式である。 In this embodiment, AngularJS, which is one of the frameworks of JavaScript (registered trademark), is used in an HTML document that describes a data broadcasting application in order to update data in an HTML browser in real time. AngularJS has a function of monitoring changes in script variables (well known). In addition, an object for transferring information of each display object to the HTML browser is prepared, and data is read from the general-purpose data stream in the JSON (Java Script (registered trademark) Object Notation) format, and is written in the HTML document. The data is transferred to the HTML browser as if the data had been stored. In this specification, an object for passing data is referred to as Navigator. It will be called genobjs. The JSON format is a format in which key / value pairs are paired with a colon, these pairs are listed separated by commas, and the whole is enclosed in curly braces {.
 図15には、データ放送アプリケーションのHTML部を例示している。 FIG. 15 illustrates the HTML part of the data broadcasting application.
 HTML部は、HTML5形式で記述されたHTML文書であり、先頭の文書型宣言(Document Type Definition:DTD)と、これに続くhtml要素からなる。図示の例では、<!doctype html>が文書型宣言に相当し、当該文書がHTML5で作成されたものであることを宣言する。 The HTML part is an HTML document described in the HTML5 format, and consists of a head document type declaration (Document Type Definition: DTD) followed by an html element. In the example shown, <! “doctype html>” corresponds to the document type declaration, and declares that the document is created in HTML5.
 また、html要素は、head要素とbody要素からなる。head要素は、<head>~</head>で区切られ、文書のヘッダー情報を明示する。body要素は、<body>~</body>で区切られ、文書の内容すなわちブラウザーで表示される文書の本体を明示する。 The html element is composed of a head element and a body element. The head element is delimited by <head> to </ head>, and clearly shows the header information of the document. The body element is delimited by <body> to </ body>, and clearly indicates the content of the document, that is, the main body of the document displayed by the browser.
 まず、html要素にng-app属性を指定して、このHTML文書がAngularJSを使用したアプリケーションであることを宣言(すなわち、AngularJSの機能を有効化)する。ちなみに、AngularJSで使用する属性はこのng-app属性のようにng-というプレフィクスが付く。ng-app属性は、AngularJSが動作する範囲を指定する。図示のように<html ng-app>とすると、当該HTMLページ全体がAngularJSの動作範囲となる。head要素、すなわち<head>~</head>の中に、<script>タグを配置して、src属性で外部スクリプト・ファイルであるAngualrJSのURIを指定する。また、<head>~</head>の中に、さらに<script>タグを配置して、src属性で当該文書と同じディレクトリーに配置された、スクリプトが記述されたファイルsample.jsの読み込みを指定する。 First, the ng-app attribute is specified in the html element to declare that this HTML document is an application using AngularJS (that is, the AngularJS function is enabled). Incidentally, the attribute used in AngularJS is prefixed with ng- like this ng-app attribute. The ng-app attribute specifies a range in which AngularJS operates. As shown in the figure, when <html ng-app> is set, the entire HTML page becomes the operation range of AngularJS. A <script> tag is arranged in the head element, that is, <head> to </ head>, and the URI of AngularrJS, which is an external script file, is specified by the src attribute. In addition, a <script> tag is further placed in <head> to </ head>, and the file sample.script.script describing the script is placed in the same directory as the document with the src attribute. Specifies reading js.
 <body>タグでは、ng-contorller属性により、ビューに対するコントローラーSampleContrtollerを指定する。ビュー(HTML)に定義したコントローラーは、JavaScript(登録商標)ファイルに記述される(後述)。 In the <body> tag, the controller SampleController for the view is specified by the ng-controller attribute. The controller defined in the view (HTML) is described in a JavaScript (registered trademark) file (described later).
 <p>タグは、<p>~</p>の中の{{item.length}}objectが1つの段落であることを指定する。<ul>タグは、順序のないリスト(unordered list)の表示を指示する。そして、後続の<li>タグで、リスト項目を指定する。 <P> tag is a {{item. length}} specifies that object is one paragraph. The <ul> tag instructs the display of an unordered list. Then, the list item is specified by the subsequent <li> tag.
 そして、<li>タグ内で指定するng-repeatディレクティブは、オブジェクトgenobjsの中のアイテムの繰り返し描画を実行する。genobjsは、汎用データ・ストリームからJSON形式でデータを読み込むために用意されたオブジェクトNavigator.genobjsの予約語であり、二重括弧{{…}}で指定される移動オブジェクト・タグ(motag)、移動オブジェクトの位置(positionx及びpositiony)、…をJSON形式で逐次genobjsに読み込んで変更しながら、ブラウザーでオブジェクトの表示が繰り返し行なわれる。したがって、HTML部のbody要素は、ブラウザーがオブジェクトNavigator.genobjsが取得したデータに基づいて描画処理する手続きを記述する「第2の記述部」と言うことができる。 And the ng-repeat directive specified in the <li> tag executes repeated drawing of items in the object genobjs. genobjs is an object Navigator. prepared for reading data from a general-purpose data stream in the JSON format. It is a reserved word of genobjs, and the moving object tag (mottag), the position of the moving object (positionx and positiony), etc. specified by double parentheses {{...}} are sequentially read into genobjs in JSON format and changed. The object is repeatedly displayed in the browser. Therefore, the body element of the HTML part is stored in the object Navigator. It can be said to be a “second description part” that describes a procedure for drawing processing based on data acquired by genobjs.
 HTML部(ng-contorller属性)で指定するビューのコントローラーSampleContrtollerを、JavaScript(登録商標)ファイルに記述する。図16には、データ放送アプリケーションのJavaScript(登録商標)部を例示している。 Describe the view controller SampleController specified in the HTML part (ng-controller attribute) in the JavaScript (registered trademark) file. FIG. 16 illustrates the JavaScript (registered trademark) part of the data broadcasting application.
 汎用データ・ストリームからの汎用データの受け渡し(JSON形式でのデータの読み込み)のために用意したオブジェクトNavigator.genobjsを、コントローラーSampleControllerの引数$scopeとして記述する。Navigator.genobjsは、汎用データ・ストリームから、移動オブジェクト・リスト記述文書の各パラメーターの値をJSON形式で逐次読み込んでいくので、JavaScript(登録商標)部に図17に示すようなデータが入っていると想定して、図15に示したようなHTML部を記述することができる。したがって、図16に示したJavaScript(登録商標)部は、「ブラウザーがデータ・ストリームからデータを取得する手続きを記述する第1の記述部」と言うことができる。 Object Navigator prepared for the transfer of general-purpose data from the general-purpose data stream (data reading in JSON format). Genobjs is described as an argument $ scope of the controller SampleController. Navigator. Since genobjs sequentially reads each parameter value of the moving object list description document from the general-purpose data stream in the JSON format, it is assumed that the data as shown in FIG. 17 is included in the JavaScript (registered trademark) part. Thus, an HTML part as shown in FIG. 15 can be described. Therefore, the JavaScript (registered trademark) part shown in FIG. 16 can be said to be “a first description part describing a procedure for a browser to acquire data from a data stream”.
 図18には、放送映像に合わせて移動するオブジェクトを表示処理するための機能的構成を模式的に示している。参照番号1810は、図15に示したようなHTML文書で記述されたデータ放送アプリケーションを実行するHTMLブラウザー(アプリケーション・エンジン411)である。ブラウザー1810は、下位レイヤーの汎用データ受信処理部1820からデータの読み込みを行なうデータ読み込み部1811と、データ読み込み部1811が読み込んだ最新の汎用データに基づいてオブジェクトの表示を繰り返し実施する表示処理部1812を備えている。 FIG. 18 schematically shows a functional configuration for displaying an object that moves in accordance with the broadcast video. Reference numeral 1810 denotes an HTML browser (application engine 411) that executes a data broadcasting application described in an HTML document as shown in FIG. The browser 1810 includes a data reading unit 1811 that reads data from the lower-layer general-purpose data reception processing unit 1820, and a display processing unit 1812 that repeatedly displays objects based on the latest general-purpose data read by the data reading unit 1811. It has.
 データ読み込み部1811の実体は、汎用データの受け渡しのために用意されたオブジェクトNavigator.genobjsであり、予約語genobjsの中に表示オブジェクトに関する最新のパラメーター値を書き込む。したがって、表示処理部1812からは、JavaScript(登録商標)部内には図17に示すようにデータが入っている想定となる。 The substance of the data reading unit 1811 is an object Navigator. genobjs, and the latest parameter value related to the display object is written in the reserved word genobjs. Therefore, from the display processing unit 1812, it is assumed that data is included in the JavaScript (registered trademark) unit as shown in FIG.
 表示処理部1812には、データ読み込み部1811が読み込んだ汎用データの値が、genobjsで受け渡される。 The value of general-purpose data read by the data reading unit 1811 is passed to the display processing unit 1812 using genobjs.
 表示処理部1812は、映像フレームの表示タイミングが到来する度に、MPUタイムスタンプ記述子で指定されるMPU提示時刻と一致するか否かをチェックする。 The display processing unit 1812 checks whether or not it coincides with the MPU presentation time specified by the MPU time stamp descriptor every time the display timing of the video frame arrives.
 そして、今回の表示タイミングがMPUタイムスタンプ記述子で指定されるMPU提示時刻である場合には、表示処理部1812は、該当するMPUの先頭のMFUで伝送される移動オブジェクト・リスト記述文書の記述に基づいて、genobjsを参照して、オブジェクトの位置情報(positionx、positiony)に基づいて、表示オブジェクトを映像フレームにオーバーレイ表示する。 When the current display timing is the MPU presentation time specified by the MPU time stamp descriptor, the display processing unit 1812 describes the moving object list description document transmitted by the first MFU of the corresponding MPU. The display object is overlaid on the video frame based on the position information (positionx, positiony) of the object with reference to genobjs.
 また、今回の表示タイミングがMPUタイムスタンプ記述子で指定されるMPU提示時刻でない場合には、表示処理部1812は、genobjsを参照して、動きベクトル(mv)の要素情報(すなわち、速度ベクトル情報並びに角速度情報)に基づいて、現在時刻における内挿位置を補間計算して、オブジェクトの表示を更新する。 If the current display timing is not the MPU presentation time specified by the MPU time stamp descriptor, the display processing unit 1812 refers to genobjs and refers to element information of the motion vector (mv) (that is, velocity vector information). In addition, based on the angular velocity information), the interpolation position is calculated at the current time, and the display of the object is updated.
 図19には、データ放送アプリケーションが利用する表示オブジェクトの情報を汎用データで方式するシナリオを例示している。同図では、ある放送事業者(放送局)から送信される放送信号を例示しており、横軸を時間軸とする。放送信号は、放送番組を構成するコンポーネントとして、映像アセット1910、音声アセット1920、データ(アプリケーション)・アセット1930、汎用データ・アセット1940を含んでいる。放送信号は、さらに他のアセットを含んでいてもよいが、図面の簡素化のため省略する。 FIG. 19 exemplifies a scenario in which display object information used by the data broadcasting application is based on general-purpose data. In the figure, a broadcast signal transmitted from a certain broadcaster (broadcast station) is illustrated, and the horizontal axis is a time axis. The broadcast signal includes a video asset 1910, an audio asset 1920, a data (application) asset 1930, and a general-purpose data asset 1940 as components constituting a broadcast program. The broadcast signal may further include other assets, but is omitted for simplification of the drawing.
 また、放送信号には、MPテーブルなどのシグナリング・テーブル、シグナリング・テーブルのコンテナーとなるシグナリング・メッセージなど、制御情報(MMT-SI)を伝送する制御信号1950を含んでいる。 Also, the broadcast signal includes a control signal 1950 for transmitting control information (MMT-SI) such as a signaling table such as an MP table and a signaling message serving as a container of the signaling table.
 同図では、データ・アセット1930では、放送番組の映像に対して表示オブジェクトのオーバーレイ表示を行なうデータ放送アプリケーション(図15及び図16を参照のこと)を伝送し、汎用データ・アセット1940では、表示オブジェクトの制御情報すなわち移動オブジェクト・リスト記述文書を汎用データ・ストリームとして間欠的に伝送することを想定している。また、汎用データ・アセット1940で伝送される各MPUの表示時刻は、MPテーブルのMPUタイムスタンプ記述子で指定される(前述)。 In the figure, the data asset 1930 transmits a data broadcasting application (see FIGS. 15 and 16) for displaying a display object on the broadcast program video, and the general data asset 1940 displays the data broadcasting application. It is assumed that object control information, that is, a moving object list description document, is intermittently transmitted as a general-purpose data stream. The display time of each MPU transmitted by the general-purpose data asset 1940 is specified by the MPU time stamp descriptor of the MP table (described above).
 参照番号1941は、移動オブジェクト・リスト記述文書とこれから参照される表示オブジェクトの表示データ(画像ファイル)をパッケージ化したMPUを示している。先頭のMFUのデータ部に移動オブジェクト・リスト記述文書が格納され、2番目以降のMFUには、この移動オブジェクト・リスト記述文書から参照される表示データが1つずつ格納されている(図11を参照のこと)。 Reference numeral 1941 indicates an MPU in which a moving object list description document and display data (image file) of a display object to be referred to are packaged. A moving object list description document is stored in the data portion of the first MFU, and display data referred to from the moving object list description document is stored one by one in the second and subsequent MFUs (see FIG. 11). See
 また、参照番号1942は、表示データをパッケージ化しないMPUを示している。このMPUは、移動オブジェクト・リスト記述文書を格納する1つのMFUのみを伝送する。この移動オブジェクト・リスト記述文書からは、先行するMPU1941で既に伝送された表示データが参照されている。参照番号1943で示すMPUも、同様に、移動オブジェクト・リスト記述文書のMFUのみを伝送する。複数の移動オブジェクト・リスト記述文書で共通に参照される表示データを、1つの移動オブジェクト・リスト記述文書だけにパッケージ化して伝送するという方法により、伝送情報量を削減(すなわち、伝送帯域を節約)することができる。 Reference numeral 1942 indicates an MPU that does not package display data. This MPU transmits only one MFU storing the moving object list description document. From this moving object list description document, display data already transmitted by the preceding MPU 1941 is referenced. Similarly, the MPU indicated by the reference number 1943 transmits only the MFU of the moving object list description document. Reduces the amount of transmission information (ie, saves transmission bandwidth) by packaging and transmitting display data that is commonly referenced in multiple moving object list description documents to a single moving object list description document. can do.
 参照番号1944は、移動オブジェクト・リスト記述文書とこれから参照される表示オブジェクトの表示データをパッケージ化したMPUを示している。参照番号1941で示したMPUと同様に、先頭のMFUのデータ部に移動オブジェクト・リスト記述文書が格納され、2番目以降のMFUには、この移動オブジェクト・リスト記述文書から参照される表示データが1つずつ格納されている(同上)。 Reference numeral 1944 indicates an MPU in which a moving object list description document and display data of a display object to be referred to are packaged. Similar to the MPU indicated by the reference number 1941, the moving object list description document is stored in the data portion of the first MFU, and the display data referenced from this moving object list description document is stored in the second and subsequent MFUs. One by one is stored (same as above).
 表示データを更新したときは、改めて更新後の表示データとパッケージ化した移動オブジェクト・リスト記述文書を含むMPU1944を伝送すればよい。あるいは、番組の途中でチューニングしてきた受信機でも表示オブジェクトを表示できるようにするために、MPU1941を送信してから一定時間が経過した後に、表示データをパッケージ化したMPU1944を伝送する。 When the display data is updated, the MPU 1944 including the updated display data and the packaged moving object list description document may be transmitted. Alternatively, in order to be able to display a display object even in a receiver that has been tuned in the middle of a program, MPU 1944 in which display data is packaged is transmitted after a certain period of time has passed since MPU 1941 was transmitted.
 参照番号1951で示すMPテーブル内のMPUタイムスタンプ記述子は、参照番号1941で示したMPUで伝送される移動オブジェクト・リスト記述文書による表示オブジェクトの表示時刻T10を指定している。同様に、参照番号1952で示すMPテーブル内のMPUタイムスタンプ記述子は参照番号1942で示したMPUの表示時刻T20を指定し、参照番号1953で示すMPテーブル内のMPUタイムスタンプ記述子は参照番号1943で示したMPUの表示時刻T30を指定し、参照番号1954で示すMPテーブル内のMPUタイムスタンプ記述子は参照番号1944で示したMPUの表示時刻を指定している。 The MPU time stamp descriptor in the MP table indicated by the reference number 1951 specifies the display time T10 of the display object by the moving object list description document transmitted by the MPU indicated by the reference number 1941. Similarly, the MPU time stamp descriptor in the MP table indicated by reference number 1952 specifies the display time T20 of the MPU indicated by reference number 1942, and the MPU time stamp descriptor in the MP table indicated by reference number 1953 is the reference number. The MPU display time T30 indicated by 1943 is specified, and the MPU time stamp descriptor in the MP table indicated by reference number 1954 specifies the MPU display time indicated by reference number 1944.
 受信機側では、放送波で伝送されるMPU1941を受信すると、先頭のMFUで伝送される移動オブジェクト・リスト記述文書を解析するとともに、2番目以降のMFUで伝送される表示データを、汎用データ・ヘッダー部で指定されている保持期限だけ保持する。 On the receiver side, when MPU 1941 transmitted by broadcast waves is received, the moving object list description document transmitted by the first MFU is analyzed, and the display data transmitted by the second and subsequent MFUs is converted to general data, Retain only the retention period specified in the header part.
 そして、MPテーブル1951のMPUタイムスタンプ記述子で指定する表示時刻T10が到来すると、受信機は、MPU1941で受信した移動オブジェクト・リスト記述文書の記述内容に従って、参照番号1961で示すように、各表示オブジェクトを放送番組の映像にオーバーレイ表示する。 When the display time T10 specified by the MPU time stamp descriptor of the MP table 1951 arrives, the receiver displays each display as indicated by reference numeral 1961 according to the description content of the moving object list description document received by the MPU 1941. The object is overlaid on the broadcast program video.
 また、受信機は、次のMPU1942に対して指定された表示時刻T20が到来するまでの間は、時間間隔を細分化した時刻T11において、移動オブジェクト・リスト記述文書で各表示オブジェクトに対して指定された内挿情報(速度ベクトル、角速度)に基づいて内挿位置を求めて、参照番号1962で示すように、各表示オブジェクトの表示を更新する。 In addition, the receiver designates each display object in the moving object list description document at a time T11 obtained by subdividing the time interval until the display time T20 designated for the next MPU 1942 arrives. An interpolation position is obtained based on the interpolated information (velocity vector, angular velocity), and the display of each display object is updated as indicated by reference numeral 1962.
 その後、MPテーブル1952のMPUタイムスタンプ記述子で指定する表示時刻T20が到来すると、受信機は、MPU1942で受信した移動オブジェクト・リスト記述文書の記述内容に従って、参照番号1963で示すように、先行するMPU1941で伝送した表示データを参照して、各表示オブジェクトを放送番組の映像にオーバーレイ表示する。 Thereafter, when the display time T20 specified by the MPU time stamp descriptor of the MP table 1952 arrives, the receiver precedes as indicated by the reference number 1963 according to the description content of the moving object list description document received by the MPU 1942. With reference to the display data transmitted by the MPU 1941, each display object is displayed as an overlay on the video of the broadcast program.
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。 As described above, the technology disclosed in this specification has been described in detail with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the scope of the technology disclosed in this specification.
 本明細書では、メディア伝送にMMT方式を採用した放送システムに本明細書で開示する技術を適用した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。データ放送アプリケーションで利用するデータのストリーミングを行なう仕組みを備えたさまざまなタイプの放送システムに、同様に本明細書で開示する技術を適用することができる。例えば、MPEG TS方式の放送システムで同様の機能を実現する場合には、PESパケットで表示オブジェクトの情報を同様に伝送するとともに、表示時刻をPTSで示すようにすればよい。 In the present specification, the embodiment in which the technology disclosed in this specification is applied to a broadcasting system adopting the MMT method for media transmission has been mainly described. However, the gist of the technology disclosed in this specification is limited to this. It is not something. The technology disclosed in the present specification can be similarly applied to various types of broadcasting systems having a mechanism for streaming data used in a data broadcasting application. For example, when a similar function is realized in an MPEG TS broadcast system, display object information may be similarly transmitted using a PES packet, and a display time may be indicated by PTS.
 また、本明細書では、JavaScript(登録商標)のフレームワークの1つであるAngularJSを利用するHTML文書を例に挙げて説明したが、本明細書で開示する技術を実現するために、データ放送アプリケーションはこのような記述形式に限定されるものではなく、スクリプト変数の変化を監視する同様の機能を有するフレームワークを利用するようにしてもよい。 Further, in this specification, an HTML document using AngularJS, which is one of the JavaScript (registered trademark) frameworks, has been described as an example. However, in order to realize the technology disclosed in this specification, data broadcasting is performed. The application is not limited to such a description format, and a framework having a similar function for monitoring changes in script variables may be used.
 要するに、例示という形態により本明細書で開示する技術について説明してきたが、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。 In short, the technology disclosed in the present specification has been described in the form of exemplification, but the content described in the present specification should not be interpreted in a limited manner. In order to determine the gist of the technology disclosed in this specification, the claims should be taken into consideration.
 なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを送信するアプリケーション送信部と、
 前記アプリケーションで利用するデータを含むデータ・ストリームを送信するデータ・ストリーム送信部と、
を具備する送信装置。
(2)前記アプリケーション送信部は、前記データ・ストリームから所定の形式でデータの読み込みを行なうオブジェクトを用いた前記第1の記述部を含む前記アプリケーションを送信する、
上記(1)に記載の送信装置。
(3)前記アプリケーション送信部は、前記オブジェクトで受け渡されるデータに基づいて繰り返し描画処理する手続きを記述する前記第2の記述部を含む前記アプリケーションを送信する、
上記(2)に記載の送信装置。
(4)前記データ・ストリーム送信部は、放送映像の動きに同期して移動する表示オブジェクトを前記アプリケーションが表示するための前記データを送信する、
上記(1)に記載の送信装置。
(5)前記データ・ストリーム送信部は、前記表示オブジェクトの画面上の位置及びサイズと、前記表示オブジェクトの表示データに関する情報を含む前記データを送信する、
上記(4)に記載の送信装置。
(6)前記データの表示時刻を示すタイムスタンプを含む制御情報を送信する制御情報送信部をさらに備え、
 前記データ・ストリーム送信部は、前記データを間欠的に送信する、
上記(1)に記載の送信装置。
(7)前記データ・ストリーム送信部は、次のタイミングまでの前記表示オブジェクトの内挿位置を求めるための補間情報を含めて、前記データを間欠的に送信する、
上記(6)に記載の送信装置。
(8)前記アプリケーション送信部は、例えばAngularJSで提供される機能のようなスクリプト変数の監視を有効化するHTML5文書の形式で前記アプリケーションを送信する、
上記(1)乃至(7)のいずれかに記載の送信装置。
(9)データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを送信するアプリケーション送信ステップと、
 前記アプリケーションで利用するデータを含むデータ・ストリームを送信するデータ・ストリーム送信ステップと、
を有する送信方法。
(10)データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを受信するアプリケーション受信部と、
 前記アプリケーションで利用するデータを含むデータ・ストリームを受信するデータ・ストリーム受信部と、
 受信した前記データ・ストリームを利用して前記アプリケーションの表示を行なう処理部と、
を具備する受信装置。
(11)前記処理部は、前記第1の記述部の記述に従って受信した前記データ・ストリームから読み込んだ前記データを利用して、前記第2の記述部の記述に従ってアプリケーションの表示を行なう、
上記(10)に記載の受信装置。
(12)前記処理部は、前記第1の記述部で用いられるオブジェクトによって、受信した前記データ・ストリームから所定の形式で前記データの読み込みを行なう、
上記(11)に記載の受信装置。
(13)前記処理部は、前記第2の記述部の処理として、前記オブジェクトで受け渡される前記データに基づいて繰り返し描画処理を行なう、
上記(12)に記載の受信装置。
(14)前記データ・ストリーム受信部は、放送映像の動きに同期して移動する表示オブジェクトを表示するための前記データを受信し、
 前記処理部は、前記第1の記述部の記述に従って前記データ・ストリームから読み込んだ前記データに基づいて前記表示オブジェクトを表示する、
上記(10)に記載の受信装置。
(15)前記データ・ストリーム受信部は、前記表示オブジェクトの画面上の位置及びサイズと、前記表示オブジェクトの表示データに関する情報を含む前記データ・ストリームを受信し、
 前記処理部は、前記第1の記述部の記述に従って前記データ・ストリームから読み込んだ位置及びサイズに基づいて前記表示オブジェクトの表示データを表示する、
上記(14)に記載の受信装置。
(16)前記データの表示時刻を示すタイムスタンプを含む制御情報を送信する制御情報受信部をさらに備え、
 前記データ・ストリーム受信部は、次のタイミングまでの前記表示オブジェクトの内挿位置を求めるための補間情報を含んだ前記データ・ストリームを間欠的に受信し、
 前記処理部は、表示タイミング以外で、前記補間情報に基づく内挿位置に表示オブジェクトを表示する、
上記(14)又は(15)のいずれかに記載の受信装置。
(17)前記アプリケーション送信部は、スクリプト変数の変化を監視する機能を有効化するHTML5文書形式の前記アプリケーションを受信し、
 前記処理部は、HTML5ブラウザーの機能に基づいて前記アプリケーションの表示を行なう、
上記(10)乃至(16)のいずれかに記載の受信装置。
(18)データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを受信するアプリケーション受信ステップと、
 前記アプリケーションで利用するデータを含むデータ・ストリームを受信するデータ・ストリーム受信ステップと、
 受信した前記データ・ストリームを利用して前記アプリケーションの表示を行なう処理ステップと、
を有する受信方法。
Note that the technology disclosed in the present specification can also be configured as follows.
(1) A first description part describing a procedure for acquiring data from a data stream, and a second description part describing a procedure for performing drawing processing based on data acquired by executing the first description part An application transmitter that transmits an application including
A data stream transmission unit for transmitting a data stream including data used in the application;
A transmission apparatus comprising:
(2) The application transmission unit transmits the application including the first description unit using an object that reads data from the data stream in a predetermined format.
The transmission device according to (1) above.
(3) The application transmission unit transmits the application including the second description unit that describes a procedure for repeatedly performing drawing processing based on data passed by the object.
The transmission device according to (2) above.
(4) The data stream transmission unit transmits the data for the application to display a display object that moves in synchronization with the motion of the broadcast video.
The transmission device according to (1) above.
(5) The data stream transmission unit transmits the data including the position and size of the display object on the screen and information regarding display data of the display object.
The transmission device according to (4) above.
(6) a control information transmission unit that transmits control information including a time stamp indicating a display time of the data;
The data stream transmission unit transmits the data intermittently.
The transmission device according to (1) above.
(7) The data stream transmission unit intermittently transmits the data including interpolation information for obtaining an interpolation position of the display object until the next timing.
The transmission device according to (6) above.
(8) The application transmission unit transmits the application in the form of an HTML5 document that enables monitoring of script variables such as functions provided by AngularJS, for example.
The transmission device according to any one of (1) to (7) above.
(9) A first description part describing a procedure for acquiring data from a data stream, and a second description part describing a procedure for performing drawing processing based on data acquired by executing the first description part An application sending step for sending an application including:
A data stream transmission step of transmitting a data stream including data used in the application;
A transmission method.
(10) A first description part describing a procedure for obtaining data from a data stream, and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part An application receiver that receives an application including
A data stream receiver for receiving a data stream including data used in the application;
A processing unit for displaying the application using the received data stream;
A receiving apparatus comprising:
(11) The processing unit displays an application according to the description of the second description unit by using the data read from the data stream received according to the description of the first description unit.
The receiving device according to (10) above.
(12) The processing unit reads the data in a predetermined format from the received data stream by the object used in the first description unit.
The receiving device according to (11) above.
(13) The processing unit repeatedly performs a drawing process based on the data delivered by the object as the process of the second description unit.
The receiving device according to (12) above.
(14) The data stream receiving unit receives the data for displaying a display object that moves in synchronization with the motion of the broadcast video,
The processing unit displays the display object based on the data read from the data stream in accordance with the description of the first description unit.
The receiving device according to (10) above.
(15) The data stream receiving unit receives the data stream including information on the position and size of the display object on the screen and display data of the display object,
The processing unit displays the display data of the display object based on the position and size read from the data stream according to the description of the first description unit;
The receiving device according to (14) above.
(16) a control information receiving unit that transmits control information including a time stamp indicating a display time of the data;
The data stream receiving unit intermittently receives the data stream including interpolation information for obtaining an interpolation position of the display object until the next timing,
The processing unit displays a display object at an interpolation position based on the interpolation information other than the display timing.
The receiving device according to any one of (14) and (15).
(17) The application transmission unit receives the application in an HTML5 document format that enables a function of monitoring changes in script variables,
The processing unit displays the application based on the function of the HTML5 browser.
The receiving device according to any one of (10) to (16).
(18) A first description part describing a procedure for acquiring data from a data stream, and a second description part describing a procedure for performing drawing processing based on data acquired by executing the first description part Receiving an application including: an application receiving step;
A data stream receiving step for receiving a data stream including data used in the application;
Processing to display the application using the received data stream;
Receiving method.
 10…ディジタル放送システム
 11…放送送出システム、12…受信機
 301…時計部、302…信号送出部
 303…ビデオ・エンコーダー、304…オーディオ・エンコーダー
 305…字幕/文字スーパー・エンコーダー
 306…シグナリング・エンコーダー
 307…ファイル・エンコーダー
 308…電子データ処理システム、
 309…TLVシグナリング・エンコーダー
 310…IPサービス・マルチプレクサー
 311…TLVマルチプレクサー、312…変調・送信部
 401…チューナー復調部、402…MMTデマルチプレクサー
 403…時計回復部、404…ビデオ・デコーダー
 405…オーディオ・デコーダー
 406…文字スーパー・デコーダー、407…字幕デコーダー
 408…マルチメディア・キャッシュ、409…SIキャッシュ
 410…放送システム制御部、411…アプリケーション・エンジン
 412…通信インターフェース、414…スケーラー
 415~418…合成部
DESCRIPTION OF SYMBOLS 10 ... Digital broadcasting system 11 ... Broadcast transmission system, 12 ... Receiver 301 ... Clock part, 302 ... Signal transmission part 303 ... Video encoder, 304 ... Audio encoder 305 ... Subtitle / text super encoder 306 ... Signaling encoder 307 ... File encoder 308 ... Electronic data processing system,
309 ... TLV signaling encoder 310 ... IP service multiplexer 311 ... TLV multiplexer 312 ... Modulation / transmission unit 401 ... Tuner demodulation unit 402 ... MMT demultiplexer 403 ... Clock recovery unit 404 ... Video decoder 405 ... Audio decoder 406 ... Character super decoder, 407 ... Subtitle decoder 408 ... Multimedia cache, 409 ... SI cache 410 ... Broadcast system control unit 411 ... Application engine 412 ... Communication interface 414 ... Scaler 415 to 418 ... Composition Part

Claims (18)

  1.  データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを送信するアプリケーション送信部と、
     前記アプリケーションで利用するデータを含むデータ・ストリームを送信するデータ・ストリーム送信部と、
    を具備する送信装置。
    An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part An application transmitter that transmits
    A data stream transmission unit for transmitting a data stream including data used in the application;
    A transmission apparatus comprising:
  2.  前記アプリケーション送信部は、前記データ・ストリームから所定の形式でデータの読み込みを行なうオブジェクトを用いた前記第1の記述部を含む前記アプリケーションを送信する、
    請求項1に記載の送信装置。
    The application transmission unit transmits the application including the first description unit using an object for reading data in a predetermined format from the data stream;
    The transmission device according to claim 1.
  3.  前記アプリケーション送信部は、前記オブジェクトで受け渡されるデータに基づいて繰り返し描画処理する手続きを記述する前記第2の記述部を含む前記アプリケーションを送信する、
    請求項2に記載の送信装置。
    The application transmission unit transmits the application including the second description unit describing a procedure for repeatedly drawing processing based on data passed by the object.
    The transmission device according to claim 2.
  4.  前記データ・ストリーム送信部は、放送映像の動きに同期して移動する表示オブジェクトを前記アプリケーションが表示するための前記データを送信する、
    請求項1に記載の送信装置。
    The data stream transmission unit transmits the data for the application to display a display object that moves in synchronization with the motion of the broadcast video.
    The transmission device according to claim 1.
  5.  前記データ・ストリーム送信部は、前記表示オブジェクトの画面上の位置及びサイズと、前記表示オブジェクトの表示データに関する情報を含む前記データを送信する、
    請求項4に記載の送信装置。
    The data stream transmission unit transmits the data including information on a position and a size of the display object on the screen and display data of the display object.
    The transmission device according to claim 4.
  6.  前記データの表示時刻を示すタイムスタンプを含む制御情報を送信する制御情報送信部をさらに備え、
     前記データ・ストリーム送信部は、前記データを間欠的に送信する、
    請求項1に記載の送信装置。
    A control information transmission unit that transmits control information including a time stamp indicating a display time of the data;
    The data stream transmission unit transmits the data intermittently.
    The transmission device according to claim 1.
  7.  前記データ・ストリーム送信部は、次のタイミングまでの前記表示オブジェクトの内挿位置を求めるための補間情報を含めて、前記データを間欠的に送信する、
    請求項6に記載の送信装置。
    The data stream transmission unit intermittently transmits the data including interpolation information for obtaining an interpolation position of the display object until the next timing.
    The transmission device according to claim 6.
  8.  前記アプリケーション送信部は、スクリプト変数の変化を監視する機能を有効化するHTML5文書の形式で前記アプリケーションを送信する、
    請求項1に記載の送信装置。
    The application transmission unit transmits the application in the form of an HTML5 document that enables a function to monitor a change in script variables.
    The transmission device according to claim 1.
  9.  データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを送信するアプリケーション送信ステップと、
     前記アプリケーションで利用するデータを含むデータ・ストリームを送信するデータ・ストリーム送信ステップと、
    を有する送信方法。
    An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part An application sending step for sending
    A data stream transmission step of transmitting a data stream including data used in the application;
    A transmission method.
  10.  データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを受信するアプリケーション受信部と、
     前記アプリケーションで利用するデータを含むデータ・ストリームを受信するデータ・ストリーム受信部と、
     受信した前記データ・ストリームを利用して前記アプリケーションの表示を行なう処理部と、
    を具備する受信装置。
    An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part An application receiver for receiving
    A data stream receiver for receiving a data stream including data used in the application;
    A processing unit for displaying the application using the received data stream;
    A receiving apparatus comprising:
  11.  前記処理部は、前記第1の記述部の記述に従って受信した前記データ・ストリームから読み込んだ前記データを利用して、前記第2の記述部の記述に従ってアプリケーションの表示を行なう、
    請求項10に記載の受信装置。
    The processor uses the data read from the data stream received according to the description of the first description unit to display an application according to the description of the second description unit;
    The receiving device according to claim 10.
  12.  前記処理部は、前記第1の記述部で用いられるオブジェクトによって、受信した前記データ・ストリームから所定の形式で前記データの読み込みを行なう、
    請求項11に記載の受信装置。
    The processing unit reads the data in a predetermined format from the received data stream by the object used in the first description unit.
    The receiving device according to claim 11.
  13.  前記処理部は、前記第2の記述部の処理として、前記オブジェクトで受け渡される前記データに基づいて繰り返し描画処理を行なう、
    請求項12に記載の受信装置。
    The processing unit repeatedly performs a drawing process based on the data delivered by the object as the process of the second description unit.
    The receiving device according to claim 12.
  14.  前記データ・ストリーム受信部は、放送映像の動きに同期して移動する表示オブジェクトを表示するための前記データを受信し、
     前記処理部は、前記第1の記述部の記述に従って前記データ・ストリームから読み込んだ前記データに基づいて前記表示オブジェクトを表示する、
    請求項10に記載の受信装置。
    The data stream receiving unit receives the data for displaying a display object that moves in synchronization with the motion of the broadcast video,
    The processing unit displays the display object based on the data read from the data stream in accordance with the description of the first description unit.
    The receiving device according to claim 10.
  15.  前記データ・ストリーム受信部は、前記表示オブジェクトの画面上の位置及びサイズと、前記表示オブジェクトの表示データに関する情報を含む前記データ・ストリームを受信し、
     前記処理部は、前記第1の記述部の記述に従って前記データ・ストリームから読み込んだ位置及びサイズに基づいて前記表示オブジェクトの表示データを表示する、
    請求項14に記載の受信装置。
    The data stream receiving unit receives the data stream including information on a position and size of the display object on the screen and display data of the display object;
    The processing unit displays the display data of the display object based on the position and size read from the data stream according to the description of the first description unit;
    The receiving device according to claim 14.
  16.  前記データの表示時刻を示すタイムスタンプを含む制御情報を送信する制御情報受信部をさらに備え、
     前記データ・ストリーム受信部は、次のタイミングまでの前記表示オブジェクトの内挿位置を求めるための補間情報を含んだ前記データ・ストリームを間欠的に受信し、
     前記処理部は、表示タイミング以外で、前記補間情報に基づく内挿位置に表示オブジェクトを表示する、
    請求項14に記載の受信装置。
    A control information receiving unit for transmitting control information including a time stamp indicating a display time of the data;
    The data stream receiving unit intermittently receives the data stream including interpolation information for obtaining an interpolation position of the display object until the next timing,
    The processing unit displays a display object at an interpolation position based on the interpolation information other than the display timing.
    The receiving device according to claim 14.
  17.  前記アプリケーション送信部は、スクリプト変数の変化を監視する機能を有効化するHTML5文書形式の前記アプリケーションを受信し、
     前記処理部は、HTML5ブラウザーの機能に基づいて前記アプリケーションの表示を行なう、
    請求項10に記載の受信装置。
    The application transmission unit receives the application in an HTML5 document format that enables a function to monitor a change in script variables,
    The processing unit displays the application based on the function of the HTML5 browser.
    The receiving device according to claim 10.
  18.  データ・ストリームからデータを取得する手続きを記述する第1の記述部と、前記第1の記述部を実行して取得したデータに基づいて描画処理する手続きを記述する第2の記述部を含むアプリケーションを受信するアプリケーション受信ステップと、
     前記アプリケーションで利用するデータを含むデータ・ストリームを受信するデータ・ストリーム受信ステップと、
     受信した前記データ・ストリームを利用して前記アプリケーションの表示を行なう処理ステップと、
    を有する受信方法。
    An application including a first description part describing a procedure for obtaining data from a data stream and a second description part describing a procedure for performing drawing processing based on data obtained by executing the first description part Receiving the application, and
    A data stream receiving step for receiving a data stream including data used in the application;
    Processing to display the application using the received data stream;
    Receiving method.
PCT/JP2016/063788 2015-06-11 2016-05-09 Transmission device, transmission method, reception device, and reception method WO2016199527A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-118662 2015-06-11
JP2015118662 2015-06-11

Publications (1)

Publication Number Publication Date
WO2016199527A1 true WO2016199527A1 (en) 2016-12-15

Family

ID=57504890

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/063788 WO2016199527A1 (en) 2015-06-11 2016-05-09 Transmission device, transmission method, reception device, and reception method

Country Status (1)

Country Link
WO (1) WO2016199527A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022519990A (en) * 2019-03-15 2022-03-28 テンパス・エクス・マキーナ・インコーポレーテッド Systems and methods for customizing and compositing video feeds on client devices
US11754662B2 (en) 2019-01-22 2023-09-12 Tempus Ex Machina, Inc. Systems and methods for partitioning a video feed to segment live player activity

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"IPTV Kitei Hybrid Cast Un'yo Kitei", IPTVFJ STD-0013 VER.2.1, IPTV FORUM JAPAN, 1 May 2015 (2015-05-01), pages 36 - 39 , 26 to 27, 3 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11754662B2 (en) 2019-01-22 2023-09-12 Tempus Ex Machina, Inc. Systems and methods for partitioning a video feed to segment live player activity
JP2022519990A (en) * 2019-03-15 2022-03-28 テンパス・エクス・マキーナ・インコーポレーテッド Systems and methods for customizing and compositing video feeds on client devices
JP7343588B2 (en) 2019-03-15 2023-09-12 テンパス・エクス・マキーナ・インコーポレーテッド System and method for customizing and compositing video feeds on client devices

Similar Documents

Publication Publication Date Title
JP6818848B2 (en) Sending method and receiving method
AU2011315435B2 (en) Method for synchronizing multimedia flows and corresponding device
WO2016194549A1 (en) Transmission device, transmission method, reception device, and reception method
JP7062117B2 (en) Receiver and program
US9426506B2 (en) Apparatuses for providing and receiving augmented broadcasting service in hybrid broadcasting environment
JP2024040224A (en) Transmission method and transmitting device, and receiving method and receiving device
CA2953751C (en) Method and apparatus for transmission and reception of media data
WO2016199527A1 (en) Transmission device, transmission method, reception device, and reception method
CN105812961B (en) Adaptive stream media processing method and processing device
JP2018182677A (en) Information processing apparatus, information processing method, program, and recording medium manufacturing method
KR102626634B1 (en) Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method, and broadcast signal receiving method
JP6935843B2 (en) Transmitter and transmission method, and receiver and reception method
JP6303969B2 (en) Receiving apparatus and receiving method
JP6791344B2 (en) Transmission device and transmission method, and reception device and reception method
van Deventer et al. Media synchronisation for television services through HbbTV
JP2015173444A (en) receiver
JP2018110434A (en) Receiving device and receiving method
JP2022019878A (en) Receiving method and receiving device
WO2017038332A1 (en) Broadcast receiver and subtitle presenting method
JP2019161677A (en) Receiving device, receiving method, and transmitting method
JP2016197789A (en) Transmitter and transmission method, receiver and reception method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16807234

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 16807234

Country of ref document: EP

Kind code of ref document: A1