WO2012133064A1 - 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム - Google Patents

送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム Download PDF

Info

Publication number
WO2012133064A1
WO2012133064A1 PCT/JP2012/057227 JP2012057227W WO2012133064A1 WO 2012133064 A1 WO2012133064 A1 WO 2012133064A1 JP 2012057227 W JP2012057227 W JP 2012057227W WO 2012133064 A1 WO2012133064 A1 WO 2012133064A1
Authority
WO
WIPO (PCT)
Prior art keywords
trigger information
audio stream
encoded audio
data
data broadcasting
Prior art date
Application number
PCT/JP2012/057227
Other languages
English (en)
French (fr)
Inventor
北里 直久
塚越 郁夫
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201280014521.1A priority Critical patent/CN103430560B/zh
Priority to KR1020137024447A priority patent/KR101898304B1/ko
Priority to EP12763323.8A priority patent/EP2693748A4/en
Priority to MX2013010880A priority patent/MX2013010880A/es
Priority to JP2013507437A priority patent/JPWO2012133064A1/ja
Priority to CA2828945A priority patent/CA2828945C/en
Publication of WO2012133064A1 publication Critical patent/WO2012133064A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/95Arrangements characterised by the broadcast information itself characterised by a specific format, e.g. MP3 (MPEG-1 Audio Layer 3)
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/13Arrangements for device control affected by the broadcast information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26275Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for distributing content or additional data in a staggered manner, e.g. repeating movies on different channels in a time-staggered manner in a near video on demand system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6543Transmission by server directed to the client for forcing some client operations, e.g. recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/458Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
    • H04N21/4586Content update operation triggered locally, e.g. by comparing the version of software modules in a DVB carousel to the version stored locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4886Data services, e.g. news ticker for displaying a ticker, e.g. scrolling banner for news, stock exchange, weather data

Definitions

  • the present disclosure relates to a transmission device, a transmission method, a reception device, a reception method, a program, and a broadcasting system.
  • a transmission device for example, content of data broadcasting is linked with progress of a program or CM (commercial message).
  • CM commercial message
  • the present invention relates to a transmission device, a transmission method, a reception device, a reception method, a program, and a broadcasting system suitable for use in execution.
  • a dedicated band for data broadcasting is reserved in advance in the broadcasting band of digital television broadcasting when digitizing television broadcasting, and data broadcasting content is broadcast using this dedicated band. Is realized.
  • the current digital television broadcast band in the United States is occupied by the program video band, audio band, and control information band as shown in FIG. 1A.
  • the bandwidth for data broadcasting is secured by narrowing the bandwidth for video and audio, the amount of data that can be transmitted is limited. Therefore, the amount of information in the content for data broadcasting becomes scarce or if it is attempted to increase the amount of information, it takes time to receive necessary data on the receiving side.
  • FIG. 2 shows an example of the configuration of a digital television program retransmission system using a CATV network.
  • This re-transmission system mainly includes a broadcasting device 1, a CATV re-transmission device 2, a CATV network 3, a digital television receiver 4, a set top box (STB) 5, and a television receiver 6.
  • a broadcasting device 1 provided in a broadcasting station or the like broadcasts a digital television broadcast signal using a ground wave or a satellite wave.
  • the CATV retransmitting device 2 provided in a cable TV station or the like receives the broadcasted digital television broadcast, removes unnecessary information and adds information unique to CATV, and transmits digital TV through the CATV network 3. Re-send to John receiver 4, set-top box 5, etc.
  • the CATV retransmission apparatus 2 includes a tuner 11, a PID filter 12 that filters packets with a predetermined packet ID, a CATV unique signal generation unit 13, a multiplexing unit 14, and a modulation unit 15.
  • the tuner 11 receives and demodulates the digital television broadcast signal of each channel, and outputs the TS (transport stream) obtained as a result to the PID filter 12.
  • the PID filter 12 removes a packet corresponding to a predetermined packet ID from the TS (a packet not related to the AV content as a program) and outputs the packet to the multiplexing unit 14.
  • the CATV unique signal generator 13 generates a packet storing the unique information of the CATV station and outputs the packet to the multiplexer 14.
  • the multiplexer 14 multiplexes the output of the PID filter 12 and the output of the CATV unique signal generator 13 and outputs the result to the modulator 15.
  • the modulation unit 15 modulates the output of the multiplexing unit 14 by a modulation method suitable for the CATV network 3 and retransmits the output to the digital television receiver 4, the set top box 5, etc. via the CATV network 3.
  • the digital television receiver 4 compatible with CATV receives and decodes the retransmitted digital television broadcast TS via the CATV network 3, displays the resulting video and outputs the sound.
  • the set-top box 5 that supports CATV receives and decodes the retransmitted digital television broadcast TS via the CATV network 3, and the resulting video and audio signals are transmitted via an HDMI cable or the like.
  • the television receiver 6 displays the video and outputs audio based on the video signal and the audio signal input from the set top box 5 via the HDMI cable or the like.
  • the PID filter 12 removes a packet corresponding to a predetermined packet ID (a packet not related to the AV content as a program) from the TS of the digital broadcast signal. Therefore, as shown in FIG. 1B, even if a band for broadcasting the data broadcasting content is secured in the broadcasting band, the packet in which the data broadcasting content is stored by this PID filter 12 Can be eliminated.
  • the present disclosure has been made in view of such circumstances, and for data broadcasting that can be linked to the progress of a television broadcast program or CM without providing a data broadcast band in the digital television broadcast band.
  • the content can be realized.
  • a transmission apparatus includes: an audio encoding unit that generates an encoded audio stream in which trigger information related to control of an application program to be executed in conjunction with content in a reception apparatus is embedded; A transmission unit configured to transmit the encoded audio stream to the reception device.
  • size information for embedding the metadata in the user data area of the encoded audio stream is supplied, and control is performed so that the metadata is embedded in the user data area And a control unit.
  • the audio encoding unit encodes an audio stream according to an AC3 (Audio Code number 3) system to generate the encoded audio stream, and the metadata includes AUX (AUXILIARY DATA) in the frame structure of the AC3 system. Inserted into the region.
  • AC3 Audio Code number 3
  • AUX AUXILIARY DATA
  • the audio encoding unit encodes an audio stream using an AAC (Advanced Audio Coding) method to generate the encoded audio stream, and the metadata includes a DSE (Data Stream Element) in the AAC frame structure. Inserted into the region.
  • AAC Advanced Audio Coding
  • a video encoding unit that encodes a video stream to generate an encoded video stream; and a multiplexing unit that multiplexes the encoded audio stream and the encoded video stream to generate a multiplexed stream.
  • the transmission unit transmits the generated multiplexed stream.
  • the type information indicating the type of information is added to the metadata.
  • the metadata includes a plurality of types of information distinguished by information identifiers.
  • the transmission method or program according to the first aspect of the present disclosure is a transmission method or program corresponding to the transmission apparatus according to the first aspect of the present disclosure described above.
  • an encoded audio stream in which trigger information related to control of an application program to be executed in conjunction with content in a reception device is generated, and the generated encoded audio stream is It is transmitted to the receiving device.
  • a receiving device includes a receiving unit that receives an encoded audio stream embedded with trigger information related to control of an application program to be executed in conjunction with content, transmitted from a transmitting device.
  • An audio decoding unit that decodes the received encoded audio stream, and a control that controls processing related to the application program to be executed in conjunction with the content according to trigger information obtained by decoding the encoded audio stream A part.
  • the speech decoding unit acquires the trigger information stored in metadata from the AUX area in the frame structure of the encoded audio stream encoded by the AC3 method.
  • the voice decoding unit acquires the trigger information stored in the metadata from the DSE area in the frame structure of the encoded audio stream encoded by the AAC method.
  • the encoded audio stream is decoded.
  • the receiving method or program according to the second aspect of the present disclosure is a receiving method or program corresponding to the receiving apparatus according to the second aspect of the present disclosure described above.
  • an encoded audio stream embedded with trigger information related to control of an application program to be executed in conjunction with content transmitted from a transmission device is received, and the received encoding is performed
  • the audio stream is decoded, and processing related to the application program to be executed in conjunction with the content is controlled according to trigger information obtained by decoding the encoded audio stream.
  • a broadcasting system is a broadcasting system including a transmitting device that transmits content and a receiving device that receives the transmitted content.
  • the transmitting device is linked to the content in the receiving device.
  • An audio encoding unit that generates an encoded audio stream in which trigger information related to control of an application program to be executed is embedded; and a transmission unit that transmits the generated encoded audio stream to the reception device,
  • the receiving device receives a coded audio stream transmitted from the transmitting device, a speech decoding unit that decodes the received coded audio stream, and decodes the coded audio stream. Executed in conjunction with the content according to the trigger information obtained And a control unit for controlling processing relating to the application program to.
  • the transmission device generates an encoded audio stream in which trigger information related to control of an application program to be executed in conjunction with content in the reception device is generated, and the generated encoding An audio stream is transmitted to the receiving device.
  • the receiving device receives the encoded audio stream transmitted from the transmitting device, decodes the received encoded audio stream, and interlocks with the content according to trigger information obtained by decoding the encoded audio stream. The processing related to the application program to be executed is controlled.
  • data broadcasting content is controlled in conjunction with the progress of a television broadcast program or CM without providing a data broadcast band in the digital television broadcast band. be able to.
  • data broadcasting content is controlled in conjunction with the progress of a television broadcast program or CM without providing a data broadcast bandwidth in the digital television broadcast bandwidth. be able to.
  • data broadcasting content is controlled in conjunction with the progress of a television broadcast program or CM without providing a data broadcast bandwidth in the digital television broadcast bandwidth. be able to.
  • the life cycle of the application program in 2nd Embodiment is shown. It is a figure which shows the relationship of a multi application program. It is a figure which shows the example of operation
  • FIG. 3 shows a broadcasting system according to the embodiment.
  • This broadcasting system 30 is linked to AV contents such as programs and CMs in a state where a band for broadcasting data broadcasting contents is not provided in the broadcasting band of digital television broadcasting as in the current US, for example.
  • the data broadcasting content to be obtained is realized.
  • the data broadcasting content is realized by the application program supplied to the receiving device being started by the receiving device. Therefore, the data broadcasting content is hereinafter referred to as a data broadcasting application program or a data broadcasting application. Called.
  • the data broadcast application may be composed of one program data or a program data group composed of a plurality of program data.
  • the broadcasting system 30 includes a broadcasting device 41 and a server 42 provided on the broadcasting station side, and a reproducing device 59 and a receiving device 60 provided on the receiver side.
  • the broadcasting device 41 is configured to transmit a digital television broadcast signal. Also, the broadcasting device 41 transmits trigger information as a command related to the operation of the data broadcasting content linked to the AV content, included in the digital television broadcast signal. Specifically, it is arranged in a transport stream (TS) of a digital television broadcast signal or embedded in a video signal for transmission.
  • TS transport stream
  • Trigger information includes information indicating the type of command as well as information indicating the acquisition destination of the data broadcasting application. Details of the trigger information will be described later.
  • the server 42 supplies a data broadcasting application in response to a request from the receiving device 60 that has accessed through the Internet 50.
  • the receiving device 60 receives the digital broadcast signal broadcast from the broadcasting device 41 and outputs the video and audio of the AV content to a monitor (not shown). In addition, the receiving device 60 accesses the server 42 via the Internet 50 and acquires data broadcasting content. Note that the receiving device 60 may exist as a single unit, or may be incorporated in, for example, a television receiver or a video recorder.
  • the playback device 59 plays back the video and audio of the AV content recorded on a predetermined recording medium and outputs it to the receiving device 60.
  • FIG. 4 shows a configuration example of the broadcasting device 41.
  • the broadcasting device 41 includes a control unit 51, a video encoder 52, an audio encoder 53, a multiplexing unit 54, and a sending unit 55.
  • the control unit 51 generates trigger information in accordance with the progress of the program or CM video stream input from the previous stage, and outputs the trigger information to the video encoder 52 and the multiplexing unit 54.
  • control unit 51 generates metadata storing trigger information in accordance with the progress of the video stream, and outputs the metadata to the audio encoder 53 and the multiplexing unit 54.
  • metadata for example, predetermined information that is not directly related to audio data, such as trigger information, is stored. Details of the metadata will be described later.
  • the video encoder 52 encodes the program or CM video stream input from the previous stage according to a predetermined encoding method, and outputs the encoded video stream obtained as a result to the multiplexing unit 54.
  • Examples of the encoding method in the video encoder 52 include an MPEG2 method and an H.264 method.
  • the video encoder 52 when encoding the video stream, the video encoder 52 embeds the trigger information from the control unit 51 and encodes it, and outputs the resulting encoded video stream to the multiplexing unit 54.
  • the audio encoder 53 encodes the audio stream corresponding to the video stream input to the video encoder 52 according to a predetermined encoding method, and outputs the encoded audio stream obtained as a result to the multiplexing unit 54.
  • Examples of the encoding method in the audio encoder 53 include an AC3 (Audio Code number 3) method, an AAC (Advanced Audio Coding) method, and the like.
  • the audio encoder 53 when encoding the audio stream, the audio encoder 53 embeds the metadata from the control unit 51 and encodes it, and outputs the encoded audio stream obtained as a result to the multiplexing unit 54.
  • the multiplexing unit 54 multiplexes the input encoded video stream and the encoded audio stream, further multiplexes trigger information or metadata, and outputs the resulting multiplexed stream to the transmission unit 55. Specifically, for example, multiplexing is performed on a TS (transport stream). Alternatively, in consideration of network distribution of digital television broadcasting, it may be multiplexed into an ISO base media file format (MP4) suitable for it.
  • MP4 ISO base media file format
  • the trigger information is embedded in the video stream
  • the metadata is embedded in the audio stream
  • the trigger information or the metadata is also multiplexed in the multiplexed stream. You may make it perform a combination.
  • the sending unit 55 sends the input multiplexed stream as a digital television broadcast signal.
  • FIG. 5 shows a configuration example of the receiving device 60.
  • the receiving device 60 includes a tuner 61, a demultiplexing unit 62, an audio decoder 63, an audio output unit 64, a video decoder 65, a trigger detection unit 66, a video output unit 67, a control unit 68, a memory 69, an operation unit 70, and a recording unit 71.
  • the tuner 61 receives and demodulates a digital television broadcast signal corresponding to the channel selected by the user, and outputs the resulting TS to the demultiplexing unit 62.
  • the demultiplexing unit 62 separates the TS input from the tuner 61 into an encoded audio stream (audio encoded signal), an encoded video stream (video encoded signal), and a control signal. 65 or to the control unit 68.
  • the demultiplexing unit 62 extracts the PCR packet including the trigger information arranged in the TS and outputs it to the trigger detection unit 66.
  • the HDMI I / F 76 is input with AV content transmitted from the playback device 59 through communication conforming to HDMI (High Definition Multimedia Interface).
  • the HDMI I / F 76 outputs the encoded audio stream (audio encoded signal) of the AV content from the playback device 59 to the switch 77 and outputs the video signal to the switch 78.
  • HDMI I / F 76 as an input from the playback device 59, there are a case where the audio signal is input in a decoded state and a case where the audio signal is input in a non-decoded state. A case where an audio stream is input will be described.
  • the encoded audio stream from the demultiplexing unit 62 and the encoded audio stream from the HDMI I / F 76 are input to the switch 77.
  • the switch 77 outputs one encoded audio stream of the input encoded audio streams to the audio decoder 63 based on a preset instruction from the user.
  • the audio decoder 63 decodes the input encoded audio stream, and outputs the resulting audio stream (audio signal) to the audio output unit 64 and the trigger detection unit 66.
  • the audio output unit 64 outputs the input audio signal to a subsequent stage (for example, a speaker).
  • the video decoder 65 decodes the input encoded video stream and outputs the resulting video stream (video signal) to the trigger detection unit 66 and the switch 78.
  • the trigger detection unit 66 detects the trigger information stored in the metadata embedded in the input audio stream and outputs it to the control unit 68. Further, the trigger detection unit 66 detects the trigger information embedded in the input video stream and outputs it to the control unit 68 (if the trigger information is arranged only in the TS, the trigger detection unit 66 No action is required). Further, the trigger detection unit 66 extracts the trigger information stored in the trigger information or metadata from the PCR packet including the trigger information input from the demultiplexing unit 62 and outputs the trigger information to the control unit 68.
  • the trigger detection unit 66 may be omitted, and the audio decoder 63 may extract the trigger information from the audio stream, and the video decoder 65 may extract the trigger information from the video stream.
  • the demultiplexing unit 62 demultiplexes the trigger information multiplexed in the multiplexed stream and outputs it directly to the control unit 68.
  • the video signal from the HDMI I / F 76 and the video signal from the video decoder 65 are input to the switch 78.
  • the switch 78 outputs one of the input video signals to the video output unit 67 based on a preset instruction from the user.
  • the video output unit 67 outputs the video signal input from the switch 78 to a subsequent stage (for example, a display).
  • the video output unit 67 combines the video of the data broadcasting content input from the application engine 74 and the video signal input from the video decoder 65 and outputs the resultant to the subsequent stage.
  • the control unit 68 controls the entire receiving device 60 by executing a control program recorded in the memory 69. Further, the control unit 68 controls acquisition, registration, activation, event firing, pause, restart, termination, and the like of the data broadcasting application based on the trigger information input from the trigger detection unit 66.
  • control program executed by the control unit 68 is recorded.
  • This control program can be updated based on digital television broadcast signals or update data supplied via the Internet 50.
  • the operation unit 70 receives various operations from the user and notifies the control unit 68 of operation signals corresponding thereto.
  • the recording unit 71 holds the downloaded data broadcasting application in a recording medium such as a built-in hard disk when the data broadcasting application is distributed using a digital television broadcast signal.
  • the communication I / F 72 is connected to the server 42 via the Internet 50 according to the control from the application engine 74.
  • the application engine 74 acquires a data broadcasting application from the server 42 via the communication I / F 72 and the Internet 50 according to the control from the control unit 68 and stores the data broadcasting application in the cache memory 73.
  • the application engine 74 reads out and executes the data broadcasting application held in the recording unit 71 or the cache memory 73 in accordance with control from the control unit 68.
  • the application memory 75 includes a work memory 75A and a save memory 75B.
  • the application engine 74 records data related to the data broadcasting application being executed (specifically, including the hierarchy of the displayed information) in the work memory 75A.
  • the application engine 74 moves the data in the work memory 75A of the application memory 75 to the save memory 75B.
  • the data in the save memory 75B is moved to the work memory 75A to restore the state before the suspension.
  • one of the two areas of the same size in the application memory 75 may be alternately switched as the work memory 75A and the other as the save memory 75B. As a result, data movement between the work memory 75A and the save memory 75B can be eliminated.
  • the trigger information is inserted as it is in the methods (b) and (c), but in the methods (a) and (d), the trigger information is the trigger. It is inserted by a general-purpose metadata transmission format including information other than information. In the method (a), trigger information may be inserted as it is.
  • FIG. 9 shows the main data definition contents (semantics) in the metadata general-purpose syntax, and the description of FIGS. 6 to 8 will be made with reference to the contents of FIG. 9 as appropriate.
  • FIG. 6 shows an example of the syntax of metadata ().
  • Sync_byte is a unique word indicating a metadata container.
  • metadata_type indicates metadata type information. With this type information, it is possible to selectively transmit a plurality of types of metadata. For example, 00000011 indicates that the transmitted metadata is trigger information.
  • Metadata_length indicates the number of subsequent bytes.
  • metadata_ID is information for identifying the type in the metadata type. With this identifier, it is possible to simultaneously transmit a plurality of types of information of the same type.
  • “Metadata_counter” is count information indicating the division information when a series of metadata is divided and transmitted. This count information is a counter value incremented for each audio frame.
  • Metadata_start_flag indicates whether or not it is the first division information when a series of metadata (metadata packets) is divided and transmitted. For example, 1 indicates the first division information, and 0 indicates not the first division information but the division information following the division information of the previous frame.
  • Sync_control_flag indicates whether or not the metadata is managed synchronously. 1 indicates that synchronization management is performed by the PTS in PTS_management (). 0 indicates that synchronization management is not performed. When sync_control_flag is 1, PTS_management () exists.
  • FIG. 7 shows an example of the syntax of PTS_management (), and there is time information indicated by 33 bits of PTS [32-0].
  • the data_byte for the number of bytes indicated by metadata_length is either the entire metadata packet Metadata_packet () or any piece of division information obtained by dividing the metadata packet Metadata_packet () into a plurality of pieces. Constitute.
  • FIG. 8 shows an example of the syntax of metadata_packet ().
  • Packet_type indicates the type information of the metadata, similar to metadata_type of metadata () (FIG. 6).
  • metadata_packet_length indicates the number of subsequent bytes. The entire metadata_packet () is described in data_byte for the number of bytes indicated by metadata_packet_length.
  • the metadata_Packet () of the trigger information that is, Trigger_info_data () (FIGS. 25 and 37) described later is described in the data_byte.
  • the information stored in the metadata may be other than the trigger information, and may be, for example, other service access information (Metadata for linking service) or disparity information (Metadata for disparity shifting data).
  • Other service access information and disparity information are described in, for example, Japanese Patent Application No. 2011-061549, which is an application of the present applicant.
  • FIG. 10 shows a concept when trigger information is transmitted arranged in a PCR (Program Clock Reference) packet of a TS of a digital television broadcast signal.
  • the trigger information is not stored in every PCR packet, but is stored in the PCR packet only at an appropriate timing for interlocking with AV content (program, CM, etc.).
  • the PCR packet passes through the PID filter 12 of the CATV retransmission apparatus 2 as shown in FIG. 2, the PCR packet is also sent to the receiving apparatus (digital television receiver 4 of FIG. 2) using the CATV network. Trigger information can be notified.
  • the trigger information is continuously transmitted a plurality of times with the same content in consideration of radio wave interference and missing in the receiving device 60 (reception miss).
  • FIG. 11 shows a position where trigger information is stored in the PCR packet.
  • the PCR packet has PCR stored in the adaptation_field of the TS packet, and trigger information (Trigger ⁇ ⁇ ⁇ Info_descriptor) is stored in transport_private_data_byte following the PCR.
  • trigger information Trigger ⁇ ⁇ ⁇ Info_descriptor
  • transport_private_data_flag of Various_flags provided before PCR is set to 1.
  • trigger information may be stored in metadata, and the metadata may be stored in transport_private_data_byte. Also in this case, transport_private_data_flag of Various_flags is set to 1.
  • trigger information or metadata storing the trigger information is stored in transport_private_data_byte of the PCR packet.
  • FIG. 13 shows two examples of embedding trigger information in a video signal.
  • a in the figure shows an example in which the trigger information is converted into a two-dimensional bar code and superimposed on a predetermined position of the image of the video signal (in this case, the lower right corner).
  • B in the figure shows an example in which the trigger information is converted into a video code and combined with several lines below the image of the video signal.
  • the trigger information in A in the figure and B in the figure is detected by the trigger detection unit 66 of the receiving device 60.
  • the trigger information is arranged on the video of the AV content. Therefore, for example, a receiving apparatus using the CATV network (for example, the television receiver in FIG. 2). The trigger information can also be notified to the machine 6).
  • the trigger information (two-dimensional barcode or video code) on the video can be visually recognized by the user of the receiving device 60.
  • This trigger information may be displayed after being masked by the same pixels as the surrounding pixels.
  • the trigger information is embedded in a predetermined area of the image of the video signal.
  • FIG. 14 shows the configuration of video_sequence () defined by MPEG2 video.
  • FIG. 15 shows an example of the syntax of user_data ().
  • Trigger_Info_Data_identifier 0x54524749 (“TRGI") is described as a fixed value.
  • Trigger_info_data trigger information, that is, Trigger_info_data () (FIGS. 25 and 37) described later is described.
  • trigger information is inserted into the user_data () area of video_sequence ().
  • FIG. 16 shows the structure of an AC3 frame (AC3 Synchronization Frame).
  • the encoding method is the AC3 method
  • metadata is inserted in the area of AUX (AUXILIARY DATA).
  • FIG. 17 shows an example of AUX syntax.
  • auxdatae is 1
  • aux data is enabled, and data having a size indicated by 14 bits (bit units) of auxdatal is defined in auxbits.
  • the size of audbits at that time is described in nauxbits.
  • the auxbits space is defined as metadata (), and trigger information is inserted.
  • FIG. 18 and FIG. 19 show an example of inserting metadata storing trigger information into an encoded audio stream encoded by the AAC method.
  • FIG. 18 shows the structure of a frame (Raw_data_block) containing 1024 samples of audio data of AAC.
  • the encoding method is the AAC method
  • the metadata is inserted in a DSE (Data Stream Element) area.
  • FIG. 19 shows an example of DSE syntax.
  • element_instance_tag indicates the data type in data_stream_element, but this value may be set to 0 when DSE is used as unified user data.
  • Data_byte_align_flag is set to 1 so that the entire DSE is byte aligned.
  • the value of esc_count which means count or the number of additional bytes is appropriately determined according to the size of user data.
  • the space of data_stream_byte is defined as metadata (), and trigger information is inserted.
  • the trigger information is classified into five types according to the type of command included in the trigger information.
  • the first set (hereinafter referred to as the first embodiment) is a combination of pre-cache (Pre_cache), execute (Execute), inject event (Inject_event), and terminate (Terminate) commands.
  • the second set (hereinafter referred to as the second embodiment) is a combination of each command of register (Register), execute (Execute), inject event (Inject_event), and terminate (Terminate).
  • FIG. 20 shows items included in trigger information as a pre-cache (Pre_cache) command.
  • the pre-cache command is a command for instructing the receiving device 60 to acquire a data broadcasting application.
  • Trigger_id is information for identifying the trigger information. When trigger information having the same content is transmitted a plurality of times, Trigger_id of each trigger information is the same. Protcol_version indicates the protocol version of the trigger information. Command_code indicates the type of command of the trigger information. In the case of the figure, information indicating a pre-cache command is described.
  • Trigger_varidity is a server access distribution parameter value N indicating the probability that each receiving device 60 that has received the trigger information will execute processing according to the trigger information.
  • N the probability that each receiving device 60 that has received the trigger information will execute processing according to the trigger information.
  • App_id is identification information of the data broadcasting application acquired in correspondence with the trigger information.
  • App_type is information indicating the type of data broadcast application corresponding to the trigger information (for example, HTML5, java, etc.).
  • App_url is the URL from which the data broadcasting application is acquired.
  • Broadcast_App_flag, Downloaded_App_flag, and Internet_App_flag are flags indicating the location of the data broadcasting application corresponding to the trigger information.
  • Broadcast_App_flag is set to 1 when the data broadcast application corresponding to the trigger information can be acquired from the digital television broadcast signal.
  • Downloaded_App_flag is set to 1 when the data broadcasting application corresponding to the trigger information has already been downloaded and can be acquired from the local storage (for example, the recording unit 71).
  • Internet_App_flag is set to 1 when the data broadcasting application corresponding to the trigger information can be acquired from the server 42 via the Internet 50.
  • FIG. 21 shows items included in trigger information as an execute command.
  • the execute command is a command for instructing the receiving device 60 to start the data broadcasting application.
  • Trigger_id, Protocol_version, Command_code, Trigger_varidity, App_id, App_type, App_url, Broadcast_App_flag, Downloaded_App_flag, and Internet_App_flag are the same as the trigger information as the pre-cache command shown in FIG.
  • Command_code describes information indicating that it is an execute command.
  • App_life_scope indicates a range in which the running state is continued without ending the data broadcasting application being executed when a channel or the like is switched.
  • App_expire_date indicates the date and time when the data broadcasting application that is being executed is terminated even if the termination command is not received.
  • FIG. 22 shows items included in the trigger information as an inject event (Inject_event) command.
  • the inject event command is a command for causing the receiving device 60 to ignite an event in the data broadcasting application being executed.
  • Trigger_id, Protocol_version, Command_code, Trigger_varidity, App_id, and App_type are the same as the trigger information as the pre-cache command shown in FIG. However, in Command_code, information indicating an injection event command is described.
  • Event_id is identification information of an event to be fired in the data broadcasting application specified by App_id.
  • Event Embedded Data describes the data that is referenced when the event is fired.
  • FIG. 23 shows items included in the trigger information as a suspend command.
  • the suspend command is a command for causing the receiving device 60 to pause the data broadcasting application being executed.
  • Trigger_id, Protocol_version, Command_code, Trigger_varidity, App_id, and App_type are the same as the trigger information as the pre-cache command shown in FIG.
  • Command_code describes information indicating that it is a suspend command.
  • FIG. 24 shows items included in trigger information as a Terminate command.
  • the terminate command is a command for causing the receiving device 60 to end the data broadcasting application being executed.
  • Trigger_id, Protocol_version, Command_code, Trigger_varidity, App_id, and App_type are the same as the trigger information as the pre-cache command shown in FIG.
  • Command_code describes information indicating that it is a terminate command.
  • FIG. 25 shows an example of the syntax of trigger information that can correspond to the trigger information as each command described above. Note that the syntax of the trigger information is arbitrary and is not limited to the example of FIG.
  • FIG. 26 shows transition of the display screen of the receiving device 60 when the receiving device 60 executes the data broadcasting application corresponding to the AV content (program, CM, etc.).
  • the data broadcasting corresponding to the program is used accordingly.
  • the trigger information of the execute command for the application is transmitted.
  • the data broadcasting application is activated, and a data broadcasting application display is prepared on the screen on which the program is displayed, as shown in FIG. An icon (in this case, “stock”) for notifying the user of the fact is displayed.
  • the screen is displayed by the data broadcasting application (in this case, stock price information display) as shown in FIG.
  • the data broadcasting application in this case, stock price information display
  • the display by the data broadcasting application is performed, so that a situation in which the user who does not need to display by the data broadcasting application is bothered is suppressed. can do.
  • trigger information of the injection event command is transmitted accordingly.
  • the event is fired, and for example, the display by the data broadcasting application on the screen is changed as shown in D of the figure (in this case, the display is changed to the game result information display).
  • the trigger information of the suspend command for the data broadcasting application being executed corresponding to the program is transmitted, and when this is received, the data broadcasting application corresponding to the program is suspended. Thereafter, the trigger information of the execute command for the data broadcasting application corresponding to the CM is transmitted, and when this is received, the CM program data broadcasting application is activated. As a result, an icon for prompting the user to display the data broadcasting application corresponding to the CM is displayed on the screen on which the CM is displayed as shown in E of FIG. Is displayed.
  • the data broadcast application corresponding to the CM is displayed on the screen (in this case, display for a prize application).
  • the trigger information of the execute command for the data broadcasting application corresponding to the program is transmitted along with the resumption of the program, and when this is received, as shown in F of FIG.
  • the display of the broadcast application is erased, and the display of the program data broadcast application is resumed from the state where it was paused.
  • the trigger information of the terminate command for the data broadcasting application corresponding to the program is transmitted accordingly, and when this is received, the data broadcasting application is ended, which is indicated by G in FIG. In this way, the display of the data broadcasting application is deleted from the screen, and only the program video is displayed.
  • the display of the data broadcasting application As shown in FIG. 26, not only a method of reducing the program display and providing an area for displaying the data broadcasting application, The display of the data broadcasting application may be superimposed.
  • FIG. 27 is a flowchart for explaining trigger information transmission processing.
  • step S101 the control unit 51 generates trigger information corresponding to the progress of the program or CM video stream input from the previous stage.
  • step S102 the video encoder 52 encodes the program or CM video stream input from the previous stage, and outputs the resulting encoded video stream to the multiplexing unit 54.
  • step S103 the control unit 51 determines whether or not to insert trigger information into the encoded audio stream, based on a preset instruction from the user.
  • step S104 the control unit 51 generates metadata based on the trigger information, and outputs the metadata to the audio encoder 53 together with size information for embedding the metadata in the user data area.
  • step S105 the audio encoder 53 encodes the audio stream based on the size information from the control unit 51, inserts the metadata from the control unit 51, and multiplexes the resulting encoded audio stream. To the unit 54.
  • frmsizcod is the size of an AC3 audio frame, and a value corresponding to the bit rate and the sampling frequency is defined. For example, when the bit rate is 128 kbps and the sampling frequency is 32 kHz, it is 384 * 2 Bytes. For example, when the bit rate is 128 kbps and the sampling frequency is 44.1 kHz, it is 279 * 2 Bytes. For example, when the bit rate is 128 kbps and the sampling frequency is 48 kHz, it is 256 * 2 Bytes.
  • the audio encoder 53 encodes the size S as a target value, and encodes the audio data so that the total size of mandissa data of Audblock-5, AUX, and CRC does not exceed 3/8 of the whole. Then, insert metadata into the AUX area and apply CRC to complete the stream. Thereby, in the area of AUX (AUXILIARY
  • the audio encoder 53 encodes the audio data and adds the DSE in which the metadata is inserted to complete the stream.
  • metadata storing trigger information is inserted into the space of data_stream_byte.
  • the audio encoder 53 can also encode in two steps. In this case, the audio encoder 53 initially performs normal encoding, that is, when there is no DSE or AUX, and then inserts metadata into a DSE or AUX of a size reserved in advance and performs encoding again. .
  • processing for embedding metadata in the user data area of the encoded audio stream (for example, AUX in the case of the AC3 system and DSE in the case of the AAC system) is performed.
  • the process proceeds to step S107.
  • step S103 If it is determined in step S103 that trigger information is not inserted into the encoded audio stream, the process proceeds to step S106.
  • step S106 the audio encoder 53 encodes the audio stream, and outputs the encoded audio stream obtained as a result to the multiplexing unit 54. Thereafter, the process proceeds to step S107.
  • step S107 the multiplexing unit 54 multiplexes the encoded video stream output from the video encoder 52 and the encoded audio stream output from the audio encoder 53, and sends the resulting multiplexed stream to the transmission unit 55. Output to.
  • step S108 the sending unit 55 sends (transmits) the multiplexed stream input from the multiplexing unit 44 as a digital television broadcast signal. Thereafter, the process returns to step S101 and the subsequent steps are repeated. Above, description of a trigger information transmission process is complete
  • the method of inserting into the encoded audio stream has been described among the above-described trigger information transmission methods (a) to (d).
  • the trigger information and metadata can be embedded.
  • trigger information or metadata is inserted into the PCR packet when multiplexing is performed by the multiplexing unit 54.
  • trigger information is embedded in the video signal of the video stream.
  • trigger information is inserted into the encoded video stream when encoding by the video encoder 52 is performed.
  • trigger information handling processing Next, trigger information handling processing when the receiving device 60 receives trigger information will be described with reference to FIG.
  • FIG. 28 is a flowchart for explaining trigger information handling processing. This trigger information handling process is repeatedly executed when the user is watching a television program, that is, while receiving a digital television broadcast signal.
  • step S1 the trigger detection unit 66 determines whether or not trigger information has been received.
  • the process waits until a PCR packet including trigger information is input from the demultiplexing unit 62.
  • the process waits until trigger information is detected from the video signal output from the video decoder 65.
  • the process waits until trigger information stored in the metadata is detected from the audio signal output from the audio decoder 65. Then, when a PCR packet including trigger information is input or trigger information is detected, the process proceeds to step S2.
  • step S ⁇ b> 2 the trigger detection unit 66 outputs trigger information to the control unit 68.
  • the control unit 68 reads Trigger_id of the trigger information, and determines whether or not the processing after step S3 has already been executed for the trigger information. If it is determined that the processing after step S3 has already been executed, the processing is returned to step S1, and the subsequent processing is repeated. On the other hand, if it is determined that the process after step S3 is not executed for the trigger information, the process proceeds to step S3.
  • step S3 the control unit 68 reads out Command_code of the trigger information, and determines whether the command indicated by the trigger information is pre-cache, execute, inject event, suspend, or terminate.
  • step S4 the control unit 68 determines whether or not the determination result in step S3 is pre-cache, and if it is determined that it is pre-cache, the process proceeds to step S5.
  • step S5 the control unit 68 causes the data broadcast application specified by the App_id of the trigger information to be acquired.
  • Broadcast_App_flag of the trigger information is 1, the data broadcast application specified by App_id is acquired from the television broadcast signal and recorded in the recording unit 71.
  • Downloaded_App_flag of the trigger information is 1, the data broadcasting application specified by App_id is acquired from the recording unit 71 that is a local storage.
  • Internet_App_flag of the trigger information is 1, the data broadcasting application specified by App_id is acquired from the server 42 via the Internet 50 and recorded in the cache memory 73.
  • the data broadcasting application specified by App_id of the trigger information may be acquired according to convenience on the receiving device 60 side. It can. Thereafter, the process returns to step S1, and the subsequent steps are repeated.
  • step S4 determines whether or not the determination result in step S3 is execute. If it is determined to be execute, the process proceeds to step S7.
  • step S7 the application engine 74 determines whether the data broadcasting application specified by the App_id of the trigger information is in a suspended state (suspended state) according to the control from the control unit 68. Specifically, when data indicating a dormant state is saved in the data broadcasting application specified by App_id in the save memory 75B, it is determined that the data is being paused.
  • step S7 If it is determined in step S7 that the data broadcasting application specified by App_id is not paused, the process proceeds to step S8.
  • step S ⁇ b> 8 the application engine 74 acquires the data broadcasting application specified by App_id if it has not been acquired (does not exist in the recording unit 71 or the cache memory 73) according to the control from the control unit 68.
  • step S9 the application engine 74 terminates the data broadcasting application that is currently being executed, according to the control from the control unit 68.
  • step S10 the application engine 74 starts the data broadcasting application specified by App_id according to the control from the control unit 68. Thereafter, the process returns to step S1, and the subsequent steps are repeated.
  • step S7 If it is determined in step S7 that the data broadcasting application specified by App_id is in a suspended state (suspended state), the process proceeds to step S11.
  • step S ⁇ b> 11 the application engine 74 moves the data in the save memory 75 ⁇ / b> B to the work memory 75 ⁇ / b> A according to the control from the control unit 68, and activates the data broadcasting application specified by App_id.
  • the suspended data broadcasting application specified by App_id is resumed from the suspended state. Thereafter, the process returns to step S1, and the subsequent steps are repeated.
  • step S6 determines whether or not the determination result in step S3 is an injection event. If it is determined that the determination event is an injection event, the process proceeds to step S13.
  • step S13 the control unit 68 controls the application engine 74 only when the App_id of the trigger information matches the App_id of the data broadcasting application in operation, and sets the Event_id of the trigger information in the operating application. Fire (execute) the corresponding event. Thereafter, the process returns to step S1, and the subsequent steps are repeated.
  • step S12 determines whether or not the determination result in step S3 is an injection event. If it is determined in step S12 that the determination result in step S3 is not an injection event, the process proceeds to step S14.
  • step S14 the control unit 68 determines whether or not the determination result in step S3 is suspend. If it is determined that the process is suspend, the process proceeds to step S15.
  • step S15 the application engine 74 controls the data from the data broadcasting application currently being executed (that is, data currently written in the work memory 75A according to the control from the control unit 68.
  • the display information has a hierarchical structure. If there is, the information indicating the hierarchy of the displayed information is saved in the save memory 75B. Thereafter, the process returns to step S1, and the subsequent steps are repeated.
  • step S14 If it is determined in step S14 that the determination result in step S3 is not suspend, the determination result in step S3 is a termination, and the process proceeds to step S16.
  • step S ⁇ b> 16 the application engine 74 ends the data broadcast application specified by App_id if it is being executed in accordance with the control from the control unit 68.
  • step S17 the application engine 74 deletes the data related to the data broadcasting application specified by App_id from the work memory 75A and the save memory 75B according to the control from the control unit 68, and stores the data broadcasting application in the recording unit 71. Alternatively, the cache memory 73 is erased. Thereafter, the process returns to step S1, and the subsequent steps are repeated.
  • the trigger information handling process described above it is possible to activate a data broadcast application, fire an event, or end an event in conjunction with television broadcast AV content (program, CM, etc.). Furthermore, the data broadcasting application can be paused while the data broadcasting application is being executed, the other data information applications can be executed and terminated, and then the paused data broadcasting application can be resumed from the paused state.
  • FIG. 29 shows an example of an operation scenario of the data broadcasting application.
  • the broadcasting apparatus 41 transmits trigger information of a pre-cache command instructing acquisition of a data broadcasting application corresponding to a program as the program progresses
  • the receiving apparatus 60 that receives the data acquires the data broadcasting application.
  • the broadcasting device 41 transmits the trigger information of the execute command of the data broadcasting application corresponding to the program in accordance with the progress of the program
  • the receiving device 60 that receives this activates the broadcasting application.
  • an icon indicating that the display of the data broadcasting application is prepared is superimposed on the video of the program.
  • the broadcasting device 41 transmits the trigger information of the inject event command in accordance with the progress of the program
  • the receiving device 60 that receives the event fires an event in the data broadcasting application being executed (for example, the display is changed).
  • the broadcasting device 41 transmits the trigger information of the suspend command of the data broadcasting application at a predetermined timing
  • the receiving device 60 that has received the information pauses the data broadcasting application being executed (the related data is Held in the save memory 75B). Thereafter, when the broadcasting device 41 transmits the trigger information of the execute command for the data broadcasting application, the receiving device 60 that has received the data resumes the suspended data broadcasting application.
  • the broadcasting device 41 transmits the trigger information of the terminate command in accordance with the end of the program, the data broadcasting application being executed is ended in the receiving device 60 that has received this.
  • FIG. 30 is a first example of five types of commands, which are state transitions of a data broadcasting application that operates in the receiving device 60 in response to commands of pre-cache, execute, inject event, suspend, and terminate.
  • FIG. 30 is a first example of five types of commands, which are state transitions of a data broadcasting application that operates in the receiving device 60 in response to commands of pre-cache, execute, inject event, suspend, and terminate.
  • the state of the data broadcasting application transitions to one of four types of a stopped state (Stopped), a ready state (Ready), a running state (Active), and a suspended state (Suspended). Is defined as
  • the end state indicates a state where the data broadcasting application is not acquired by the receiving device 60.
  • the ready state refers to a state in which the data broadcasting application has been acquired by the receiving device 60 and is not activated.
  • the executing state indicates a state in which the data broadcasting application is activated and is being executed.
  • the pause state refers to a state in which execution of the data broadcasting application is interrupted and information indicating the state at the time of the suspension is retained in the save memory 75B.
  • the trigger information of the pre-cache command is received, and the data broadcasting application is acquired according to the pre-cache command. Transition to the state.
  • the trigger information of the execute command is received, and when the data broadcast application is activated according to the execute command, the state is changed to the running state.
  • the trigger information of the execute command is received, and the data broadcasting application is acquired and started according to the execute command. When it is done, it changes to the running state.
  • the trigger information of the suspend command is received, and when the data broadcasting application being executed according to the suspend command is interrupted, the data broadcasting application transitions to the dormant state.
  • the trigger information of the execute command is received, and when the suspended data broadcasting application is resumed according to the execute command, the transition to the running state is made.
  • the trigger information of the termination command is received, and when the running data broadcasting application is terminated according to the termination command, the termination state Transition to.
  • the transition to the end state is based on the trigger information of the terminate command, when the trigger information App_expire_date has passed, when another data broadcasting application has been executed, or when the reception channel has switched over the App_life_scope Also occurs.
  • FIG. 31 shows an example of an operation scenario when a plurality of data broadcasting applications are sequentially executed.
  • the three data broadcasting applications are referred to as data broadcasting applications A, B, and C.
  • the data broadcasting applications A, B, and C are all in a stopped state.
  • the data broadcast application A is acquired and activated, and the data broadcast application A enters an active state.
  • data relating to the data broadcasting application A is written in the work memory 75A.
  • the suspend command for the data broadcast application A is received, the data related to the data broadcast application A written in the work memory 75A is moved to the save memory 75B, and the data broadcast application A is suspended ( Suspended) state. Thereafter, when an execute command for the data broadcast application B is received, the data broadcast application B is acquired and activated, and the data broadcast application B enters a running state. At this time, data relating to the data broadcasting application B is written in the work memory 75A.
  • the data broadcast application A is in a suspended state, and therefore the data related to the data broadcast application A is transferred from the save memory 75B to the work memory 75A. Broadcast application A is resumed. On the other hand, the data broadcasting application B is terminated.
  • the data broadcasting application C is read and activated, and the data broadcasting application C enters a running state, and the work memory 75A has Data relating to the data broadcasting application C is written. On the other hand, the data broadcasting application A is terminated.
  • the receiving device 60 can sequentially execute a plurality of data broadcasting applications, and the suspended data broadcasting application can be resumed from the suspended state.
  • Second Embodiment> [Second example of five types of commands] Next, a second embodiment will be described. As described above, the five types of commands in the second embodiment are each made up of a register (Register), execute (Execute), inject event (Inject_event), and terminate (Terminate) commands.
  • Register Register
  • Executecute Executecute
  • inject_event inject event
  • Termininate Termininate
  • FIG. 32 shows items included in trigger information as a register command in the second embodiment.
  • the register command is a command for instructing the receiving device 60 to acquire and register a data broadcast application.
  • the point of instructing acquisition of the data broadcasting application is the same as the pre-cache command in the first embodiment, but the point of instructing the registration is also different.
  • the registration of the data broadcasting application means that the priority (Persistent_priority) and the retention period (Expire_date) are stored in association with the acquired data broadcasting application.
  • the stored data broadcasting application is managed by the control unit 68 according to the priority and the retention period (details will be described later).
  • Trigger_id, Protocol_version, Command_code, Trigger_varidity, App_type, and App_life_scope are the same as the trigger information as the pre-cache command shown in FIG. However, in Command_code, information indicating a register command is described.
  • App_id in the second embodiment is the identification information of the data broadcasting application acquired corresponding to the trigger information and also indicates the URL of the acquisition destination (in this case, the server 42).
  • the acquisition destination of the data broadcasting application is also used for the identification information and is App_id.
  • the item of App_url that was present in the trigger information as the pre-cache command shown in FIG. 20 is omitted from the trigger information as the register command.
  • App_url may be included in the trigger information as a register command.
  • Persistent_priority indicates the priority when the corresponding data broadcasting application is acquired and held. In this case, since 2 bits are assigned to Persistent_priority, four levels of priority can be given. If there is no recording capacity remaining in the recording unit 71 when the corresponding data broadcasting application is acquired and held, an application having a lower priority than the corresponding data broadcasting application is deleted from the recording unit 71 To ensure recording capacity. If an application having a lower priority than the corresponding data broadcasting application is not held in the recording unit 71, the corresponding data broadcasting application is not acquired. However, if possible, it may be acquired and temporarily stored in the cache memory 73.
  • Expire_date indicates the retention period of the corresponding data broadcasting application stored in the recording unit 71.
  • the retention period has elapsed, the corresponding data broadcasting application is deleted from the recording unit 71.
  • FIG. 33 shows items included in trigger information as an execute command in the second embodiment.
  • the execute command is a command for instructing the receiving device 60 to start the data broadcasting application.
  • Command_code describes information indicating that it is an execute command.
  • FIG. 34 shows items included in the trigger information as an inject event (Inject_event) command in the second embodiment.
  • the execute command is a command for instructing the receiving device 60 to start the data broadcasting application.
  • the items included in the trigger information as the inject event command in the second embodiment are the same as those in the first embodiment shown in FIG. However, the number of bits allocated to App_id is different.
  • FIG. 35 shows items included in the trigger information as a suspend command in the second embodiment.
  • the suspend command is a command for causing the receiving device 60 to pause the data broadcasting application being executed.
  • the items included in the trigger information as the suspend command in the second embodiment are the same as those in the first embodiment shown in FIG. However, the difference is that the number of bits assigned to App_id and App_type are omitted.
  • FIG. 36 shows items included in trigger information as a Terminate command in the second embodiment.
  • the terminate command is a command for causing the receiving device 60 to pause the data broadcasting application being executed.
  • FIG. 37 shows an example of the syntax of the trigger information that can correspond to the trigger information as the second embodiment of each command described above. Note that the syntax of the trigger information is arbitrary and is not limited to the example of FIG.
  • the trigger handling process by the receiving device 60 in the second embodiment is substantially the same as the trigger handling process in the first embodiment described above. The difference is that in the trigger handling process in the first embodiment, the data broadcasting application is acquired and stored in response to the reception of the trigger information as the pre-cache command (step S5 in FIG. 28). In this embodiment, application registration management processing is executed in response to receiving trigger information as a register command. That is, the application registration management process is executed instead of step S5 in FIG.
  • FIG. 38 is a flowchart for explaining the application registration management process.
  • the application registration management process is started when it is determined that the received trigger information is a register command.
  • step S31 the control unit 68 determines whether or not the recording capacity for holding the data broadcasting application specified by the trigger information remains in the recording unit 71. Advances to step S34. Conversely, if it is determined that there is no remaining, the process proceeds to step S32.
  • step S32 the control unit 68, among the data broadcasting applications held in the recording unit 71 (that is, already registered), the priority of the data broadcasting application whose priority is specified by the trigger information. Is deleted from the recording unit 71.
  • step S33 the control unit 68 determines whether or not the recording capacity for holding the data broadcasting application specified by the trigger information can be secured in the recording unit 71. Proceed to step S34. On the other hand, if it is determined that the data broadcasting application could not be secured, the corresponding application for data broadcasting is not acquired and the application registration management process ends.
  • step S34 the control unit 68 acquires the data broadcasting application from the acquisition destination of the data broadcasting application indicated by the App_id of the trigger information and causes the recording unit 71 to hold the data broadcasting application.
  • step S ⁇ b> 35 the control unit 68 registers the data broadcast application acquired and held (manages the data broadcast application in association with the priority and the retention period). This completes the application registration management process.
  • the registered data broadcasting application is deleted from the recording unit 71 when the retention period has passed. As a result, the registration of the data broadcasting application is deleted.
  • FIG. 39 is a data broadcast that operates in the receiving device 60 in accordance with trigger information as each of the register, execute, inject event, suspend, and terminate commands, which are the five types of commands in the second embodiment.
  • FIG. 39 the state of the data broadcasting application transitions to one of four types of a released state (Released), a ready state (Ready), a running state (Active), and a suspended state (Suspended). Is defined as
  • the release state indicates a state in which the data broadcasting application is not acquired by the receiving device 60.
  • the ready state indicates a state in which the data broadcasting application has been registered in the receiving device 60 and has not been activated.
  • the executing state indicates a state in which the data broadcasting application is activated and is being executed.
  • the pause state refers to a state in which execution of the data broadcasting application is interrupted and information indicating the state at the time of the suspension is retained in the save memory 75B.
  • FIG. 40 shows the relationship between each command and state transition.
  • the data broadcasting application When the data broadcasting application is in the release state (when not acquired by the receiving device 60), the data broadcasting application is acquired, held, and registered according to the trigger information of the register command. Transition to.
  • the data broadcasting application transitions to the running state when the data broadcasting application is activated according to the trigger information of the execute command.
  • the data broadcasting application is transitioned to the released state (not acquired by the receiving device 60)
  • the data broadcasting application is acquired, registered, and activated in accordance with the trigger information of the execute command. And transit to the running state.
  • the data broadcasting application transitions to the running state, if the data broadcasting application being executed is interrupted according to the trigger information of the suspend command, the data broadcasting application transitions to the dormant state.
  • the data broadcasting application when the data broadcasting application is transitioning to the running state, the data broadcasting application is transitioned to the ready state when the running data broadcasting application is terminated according to the trigger information of the terminate command. It should be noted that the transition to the ready state also occurs when the switching of the video deviates from App_life_scope or when another data broadcasting application is activated.
  • the data broadcasting application transitions to the preparation state according to the trigger information of the terminate command.
  • the data broadcasting application When the data broadcasting application is transitioning to a ready state, a running state, or a dormant state, when the data broadcasting application retention period elapses, the data broadcasting application is deleted from the recording unit 71 and the registration is deleted. And transition to the released state.
  • FIG. 41 shows three types of life cycles of the data broadcasting application that are possible in the second embodiment.
  • a in the figure shows the life circle of the data broadcasting application that is activated and terminated only once.
  • This data broadcasting application is registered and activated in response to the execute command, terminated in response to the terminate command, and transitions to the preparation state. Thereafter, when the retention period elapses, it is erased from the recording unit 71.
  • FIG. B in the figure shows the life circle of the data broadcasting application that is registered, activated, and terminated multiple times.
  • the data broadcasting application is acquired, held and registered in accordance with the register command, activated in response to the execute command, terminated in response to the terminate command, and transitions to the preparation state. Thereafter, it is activated again according to the execute command, terminated according to the terminate command, and transits to the preparation state. Thereafter, when the retention period elapses, it is erased from the recording unit 71.
  • C in the figure shows the life circle of the data broadcasting application that is transitioned to the dormant state.
  • This data broadcasting application is acquired, held and registered in accordance with a register command, activated in response to an execute command, and transitions to a dormant state in response to a suspend command. Thereafter, the process is resumed according to the execute command, terminated according to the terminate command, and transits to the preparation state. Thereafter, when the retention period elapses, it is erased from the recording unit 71.
  • FIG. 43 shows an example of operation in which three data broadcasting applications app0, app1, and app2 are activated in cooperation.
  • trigger information as an execute command for the data broadcast application app0 trigger information as a register command for the data broadcast application app1
  • trigger information as a register command for the data broadcast application app2 are broadcast.
  • the data broadcast application app0 is acquired, registered, and activated. Icons corresponding to the data broadcasting applications app1 and app2 are displayed on the screen of the executed data broadcasting application app0.
  • data broadcasting applications app1 and app2 are acquired and registered.
  • the running data broadcasting application app0 is terminated and the data broadcasting application app1 is started . Thereafter, the data broadcasting application app1 is ignited, paused, resumed, and terminated in response to the inject event command, suspend command, execute command, and terminate command for the data broadcasting application app1 that is being executed. .
  • the data broadcasting application app0 that is being executed is terminated and the data broadcasting application app2 is activated. . Thereafter, event firing and termination of the data broadcasting application app2 are performed in response to the injection event command and the termination command for the data broadcasting application app2 being executed.
  • the process related to the data broadcasting application can be executed in conjunction with AV contents such as programs and CMs.
  • a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
  • FIG. 44 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 105 is further connected to the bus 104.
  • the input / output interface 105 includes an input unit 106 including a keyboard, a mouse, and a microphone, an output unit 107 including a display and a speaker, a storage unit 108 including a hard disk and a non-volatile memory, and a communication unit 109 including a network interface.
  • a drive 110 for driving a removable medium 111 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.
  • the CPU 101 loads, for example, the program stored in the storage unit 108 to the RAM 103 via the input / output interface 105 and the bus 104 and executes the program. Is performed.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the program may be processed by a single computer or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
  • system represents the entire apparatus composed of a plurality of apparatuses.

Abstract

本技術は、番組やCMなどに連動し得るデータ放送用コンテンツのサービスを実現することができる送信装置、送信方法、受信装置、受信方法、プログラム、および放送システムに関する。制御部は、受信装置においてコンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報を格納したメタデータとともに、そのメタデータを符号化オーディオストリームのユーザデータ領域に埋め込むためのサイズ情報を供給し、オーディオエンコーダは、サイズ情報に基づいて、トリガ情報を格納したメタデータがユーザデータ領域に埋め込まれた符号化オーディオストリームを生成し、送信部は、生成された符号化オーディオストリームを、受信装置に送信する。本開示は、例えば米国などにおいてデータ放送を実現する場合に適用できる。

Description

送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
 本開示は、送信装置、送信方法、受信装置、受信方法、プログラム、および放送システムに関し、特に、例えばデジタルテレビジョン放送において、番組やCM(コマーシャルメッセージ)の進行に連動してデータ放送のコンテンツを実行させる場合に用いて好適な送信装置、送信方法、受信装置、受信方法、プログラム、および放送システムに関する。
 従来、日本ではテレビジョン放送のデジタル化が推進されており、地上デジタル放送やBSデジタル放送などが普及している。また、地上デジタル放送などのデジタルテレビジョン放送では、ニュース、ドラマ、映画などの番組の放送のみならず、いわゆるデータ放送も実現されている。このデータ放送におけるコンテンツによれば、例えば、放送中の番組に関連する情報(出演者、ストーリなど)を表示したり、放送中の番組に関連しない情報(他の番組の告知、ニュース、天気予報、交通情報など)を表示したりすることができる(例えば、特許文献1参照)。
 なお、日本におけるデータ放送は、テレビジョン放送のデジタル化に際してデジタルテレビジョン放送の放送帯域内にデータ放送専用の帯域が予め確保されており、この専用帯域を用いてデータ放送用コンテンツが放送されることにより実現されている。
 一方、米国におけるデジタルテレビジョン放送では、日本のデジタルテレビジョン放送のようなデータ放送専用の帯域が確保されていない。
 すなわち、米国の現状のデジタルテレビジョン放送の放送帯域は、図1のAに示すように、番組の映像用帯域、音声用帯域、および制御情報用帯域によって占められており、データ放送用コンテンツを放送するための帯域が設けられていない。したがって、デジタルテレビジョン放送の限られた放送帯域に、データ放送用コンテンツを放送するための帯域を確保するには、図1のBに示すように、例えば映像用帯域および音声用帯域を狭める必要がある。
特開2006-50237号公報
 しかしながら、映像用帯域および音声用帯域を狭めて、データ放送用コンテンツを放送するための帯域を確保することは、番組の画質および音質の劣化につながるので、現実的な対応とは言い難い。
 また、映像用帯域および音声用帯域を狭めてデータ放送用コンテンツの帯域を確保したとしても伝送できるデータ量は限られている。したがって、データ放送用コンテンツの情報量が乏しくなってしまったり、情報量を増やそうとすると、受信側で必要なデータを受信するまでに時間がかかってしまったりすることになる。
 また、米国においては、CATV(ケーブルTV)網を用いたデジタルテレビジョン番組の再送信システムが普及しているが故に、以下のような問題も生じ得る。
 図2は、CATV網を用いたデジタルテレビジョン番組の再送信システムの構成の一例を示している。
 この再送信システムは、主に放送装置1、CATV再送信装置2、CATV網3、デジタルテレビジョン受像機4、セットトップボックス(STB)5、およびテレビジョン受像機6から構成される。
 放送局などに設けられる放送装置1は、デジタルテレビジョン放送信号を地上波または衛星波を用いて放送する。ケーブルTV局などに設けられるCATV再送信装置2は、放送されたデジタルテレビジョン放送を受信し、不要な情報を除去するとともにCATV独自の情報を追加して、CATV網3を介してデジタルデジタルテレビジョン受像機4、セットトップボックス5などに再送信する。
 CATV再送信装置2は、チューナ11、所定のパケットIDのパケットをフィルタリングするPIDフィルタ12、CATV独自信号発生部13、多重化部14、および変調部15から構成される。
 チューナ11は、各チャンネルのデジタルテレビジョン放送信号を受信して復調し、その結果得られるTS(トランスポートストリーム)をPIDフィルタ12に出力する。PIDフィルタ12は、TSから所定のパケットIDに対応するパケット(番組としてのAVコンテンツに関係がないパケット)を除去して多重化部14に出力する。CATV独自信号発生部13は、当該CATV局の独自の情報が格納されたパケットを生成して多重化部14に出力する。多重化部14は、PIDフィルタ12の出力と、CATV独自信号発生部13の出力とを多重化して変調部15に出力する。変調部15は、多重化部14の出力を、CATV網3に適して変調方式により変調して、CATV網3を介してデジタルテレビジョン受像機4、セットトップボックス5などに再送信する。
 CATVに対応したデジタルテレビジョン受像機4は、CATV網3を介して、再送信されたデジタルテレビジョン放送のTSを受信してデコードし、その結果得られる映像を表示するとともに音声を出力する。
 CATVに対応したセットトップボックス5は、CATV網3を介して、再送信されたデジタルテレビジョン放送のTSを受信してデコードし、その結果得られる映像信号および音声信号を、HDMIケーブルなどを介してテレビジョン受像機6に出力する。テレビジョン受像機6は、セットトップボックス5からHDMIケーブルなどを介して入力される映像信号および音声信号に基づき、その映像を表示するとともに音声を出力する。
 上述したように、CATV再送信装置2においては、PIDフィルタ12により、デジタル放送信号のTSから、所定のパケットIDに対応するパケット(番組としてのAVコンテンツに関係がないパケット)が除去される。したがって、仮に図1のBに示されたように、放送帯域に、データ放送用コンテンツを放送するための帯域を確保したとしても、このPIDフィルタ12により、データ放送用コンテンツが格納されているパケットが排除されてしまうことが起こり得る。
 本開示はこのような状況に鑑みてなされたものであり、デジタルテレビジョン放送の放送帯域にデータ放送用の帯域を設けることなく、テレビジョン放送の番組やCMの進行に連動し得るデータ放送用コンテンツを実現できるようにするものである。
 本開示の第1の側面である送信装置は、受信装置においてコンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを生成する音声符号化部と、生成された前記符号化オーディオストリームを、前記受信装置に送信する送信部とを備える。
 前記トリガ情報を格納したメタデータとともに、前記メタデータを前記符号化オーディオストリームのユーザデータ領域に埋め込むためのサイズ情報を供給して、前記ユーザデータ領域に前記メタデータの埋め込みが行われるように制御する制御部をさらに備える。
 前記音声符号化部は、オーディオストリームをAC3(Audio Code number 3)方式により符号化して、前記符号化オーディオストリームを生成し、前記メタデータは、前記AC3方式のフレーム構造におけるAUX(AUXILIARY DATA)の領域に挿入される。
 前記音声符号化部は、オーディオストリームをAAC(Advanced Audio Coding)方式により符号化して、前記符号化オーディオストリームを生成し、前記メタデータは、前記AAC方式のフレーム構造におけるDSE(Data Stream Element)の領域に挿入される。
 ビデオストリームを符号化して、符号化ビデオストリームを生成する映像符号化部と、前記符号化オーディオストリームと前記符号化ビデオストリームを多重化して、多重化ストリームを生成する多重化部とをさらに備え、前記送信部は、生成された前記多重化ストリームを送信する。
 前記メタデータには、情報のタイプを示すタイプ情報が付加されている。
 前記メタデータには、情報識別子で区別された複数種類の情報が含まれる。
 本開示の第1の側面である送信方法またはプログラムは、上述した本開示の第1の側面である送信装置に対応する送信方法またはプログラムである。
 本開示の第1の側面においては、受信装置においてコンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームが生成され、生成された符号化オーディオストリームが、受信装置に送信される。
 本開示の第2の側面である受信装置は、送信装置から送信される、コンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを受信する受信部と、受信された前記符号化オーディオストリームを復号する音声復号部と、前記符号化オーディオストリームを復号して得られるトリガ情報に応じて、前記コンテンツに連動して実行させるアプリケーションプログラムに関する処理を制御する制御部とを備える。
 前記音声復号部は、AC3方式により符号化された符号化オーディオストリームのフレーム構造におけるAUXの領域から、メタデータに格納された前記トリガ情報を取得する。
 前記音声復号部は、AAC方式により符号化された符号化オーディオストリームのフレーム構造におけるDSEの領域から、メタデータに格納された前記トリガ情報を取得する。
 受信された多重化ストリームを多重分離する多重分離部と、前記多重化ストリームから分離された符号化ビデオストリームを復号する映像復号部とをさらに備え、前記音声復号部は、前記多重化ストリームから分離された符号化オーディオストリームを復号する。
 本開示の第2の側面である受信方法またはプログラムは、上述した本開示の第2の側面である受信装置に対応する受信方法またはプログラムである。
 本開示の第2の側面においては、送信装置から送信される、コンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームが受信され、受信された符号化オーディオストリームが復号され、符号化オーディオストリームを復号して得られるトリガ情報に応じて、コンテンツに連動して実行させるアプリケーションプログラムに関する処理が制御される。
 本開示の第3の側面である放送システムは、コンテンツを送信する送信装置と、送信されたコンテンツを受信する受信装置からなる放送システムにおいて、前記送信装置は、前記受信装置においてコンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを生成する音声符号化部と、生成された前記符号化オーディオストリームを、前記受信装置に送信する送信部とを備え、前記受信装置は、前記送信装置から送信される、前記符号化オーディオストリームを受信する受信部と、受信された前記符号化オーディオストリームを復号する音声復号部と、前記符号化オーディオストリームを復号して得られるトリガ情報に応じて、前記コンテンツに連動して実行させるアプリケーションプログラムに関する処理を制御する制御部とを備える。
 本開示の第3の側面においては、送信装置により、受信装置においてコンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームが生成され、生成された符号化オーディオストリームが、受信装置に送信される。受信装置により、送信装置から送信される、符号化オーディオストリームが受信され、受信された符号化オーディオストリームが復号され、符号化オーディオストリームを復号して得られるトリガ情報に応じて、コンテンツに連動して実行させるアプリケーションプログラムに関する処理が制御される。
 本開示の第1の側面によれば、デジタルテレビジョン放送の放送帯域にデータ放送用の帯域を設けることなく、テレビジョン放送の番組やCMなどの進行に連動してデータ放送用コンテンツを制御することができる。
 本開示の第2の側面によれば、デジタルテレビジョン放送の放送帯域にデータ放送用の帯域を設けることなく、テレビジョン放送の番組やCMなどの進行に連動してデータ放送用コンテンツを制御することができる。
 本開示の第3の側面によれば、デジタルテレビジョン放送の放送帯域にデータ放送用の帯域を設けることなく、テレビジョン放送の番組やCMなどの進行に連動してデータ放送用コンテンツを制御することができる。
デジタルテレビジョン放送の放送帯域を示す図である。 既存のCATV再送信システムの構成の一例を示す図である。 実施の形態である放送システムの構成例を示す図である。 実施の形態である放送装置の構成例を示す図である。 実施の形態である受信装置の構成例を示すブロック図である。 メタデータ汎用シンタックスを示す図である。 メタデータ汎用シンタックスを示す図である。 メタデータ汎用シンタックスを示す図である。 メタデータ汎用シンタックスを示す図である。 トリガ情報をTSのPCRパケットに含めて送信する概念を示す図である。 PCRパケットにおけるトリガ情報の具体的な配置を示す図である。 PCRパケットにおけるメタデータの具体的な配置を示す図である。 トリガ情報を映像信号に埋め込む例を示す図である。 符号化ビデオストリームに挿入するトリガ情報の具体的な配置を示す図である。 符号化ビデオストリームに挿入するトリガ情報の具体的な配置を示す図である。 AC3のフレームの構成を示す図である。 符号化オーディオストリーム(AC3)に挿入するメタデータの具体的な配置を示す図である。 AACのフレームの構成を示す図である。 符号化オーディオストリーム(AAC)に挿入するメタデータの具体的な配置を示す図である。 第1の実施の形態におけるプリキャッシュコマンドのトリガ情報に含まれる項目を示す図である。 第1の実施の形態におけるエクスキュートコマンドのトリガ情報に含まれる項目を示す図である。 第1の実施の形態におけるインジェクトイベントコマンドのトリガ情報に含まれる項目を示す図である。 第1の実施の形態におけるサスペンドコマンドのトリガ情報に含まれる項目を示す図である。 第1の実施の形態におけるターミネートコマンドのトリガ情報に含まれる項目を示す図である。 第1の実施の形態に対応したトリガ情報のシンタックスの一例を示す図である。 番組およびCMの進行に連動してアプリケーションプログラムを実行した場合の表示例を示す図である。 トリガ情報送信処理を説明するフローチャートである。 トリガ情報対応処理を説明するフローチャートである。 アプリケーションプログラムの運用シナリオの一例を示す図である。 受信装置におけるアプリケーションプログラムの第1の状態遷移図である。 複数のアプリケーションプログラムを同時に制御する場合のシナリオの一例を示す図である。 第2の実施の形態におけるレジスタコマンドのトリガ情報に含まれる項目を示す図である。 第2の実施の形態におけるエクスキュートコマンドのトリガ情報に含まれる項目を示す図である。 第2の実施の形態におけるインジェクトイベントコマンドのトリガ情報に含まれる項目を示す図である。 第2の実施の形態におけるサスペンドコマンドのトリガ情報に含まれる項目を示す図である。 第2の実施の形態におけるターミネートコマンドのトリガ情報に含まれる項目を示す図である。 第2の実施の形態に対応したトリガ情報のシンタックスの一例を示す図である。 アプリケーション登録管理処理を説明するフローチャートである。 受信装置におけるアプリケーションプログラムの第2の状態遷移図である。 コマンドと状態遷移の関係を示す図である。 第2の実施の形態におけるアプリケーションプログラムのライフサイクルを示している。 マルチアプリケーションプログラムの関係を示す図である。 マルチアプリケーションプログラムの運用例を示す図である。 コンピュータの構成例を示すブロック図である。
 以下、発明を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
 <1.第1の実施の形態>
[放送システムの構成例]
 図3は、実施の形態である放送システムを示している。この放送システム30は、例えば現状の米国のように、デジタルテレビジョン放送の放送帯域にデータ放送用コンテンツを放送するための帯域が設けられていない状態において、番組やCMなどのAVコンテンツに連動し得るデータ放送用コンテンツを実現するものである。
 なお、データ放送用コンテンツは、受信装置に供給されるアプリケーションプログラムが受信装置にて起動されることによって実現されるので、以下、データ放送用コンテンツを、データ放送用アプリケーションプログラムまたはデータ放送用アプリとも称する。データ放送用アプリは、1つのプログラムデータから構成されていてもよいし、複数のプログラムデータから成るプログラムデータ群であってもよい。
 この放送システム30は、放送局側に設けられる放送装置41およびサーバ42、並びに、受信者側に設けられる再生装置59および受信装置60から構成される。
 放送装置41は、デジタルテレビジョン放送信号を送信するようになされている。また、放送装置41は、AVコンテンツに連動させるデータ放送用コンテンツの動作に関するコマンドとしてのトリガ情報を、デジタルテレビジョン放送信号に含めて送信する。具体的には、デジタルテレビジョン放送信号のトランスポートストリーム(TS)内に配置したり、映像信号に埋め込んだりして送信する。
 トリガ情報には、コマンドの種類を示す情報の他、データ放送用アプリの取得先を示す情報などを含む。トリガ情報の詳細については後述する。
 サーバ42は、インタネット50を介してアクセスしてきた受信装置60からの要求に応じてデータ放送用アプリを供給する。
 受信装置60は、放送装置41から放送されたデジタル放送信号を受信し、AVコンテンツの映像および音声をモニタ(不図示)に出力する。また、受信装置60は、インタネット50を介してサーバ42にアクセスし、データ放送用コンテンツを取得する。なお、この受信装置60は、単体として存在してもよいし、例えば、テレビジョン受像機やビデオレコーダなどに内蔵されているようにしてもよい。
 再生装置59は、所定の記録媒体などに記録されたAVコンテンツの映像および音声を再生し、受信装置60に出力する。
[放送装置の構成例]
 図4は、放送装置41の構成例を示している。放送装置41は、制御部51、ビデオエンコーダ52、オーディオエンコーダ53、多重化部54、および送出部55から構成される。
 制御部51は、前段から入力される番組やCMのビデオストリームの進行に合わせてトリガ情報を生成し、ビデオエンコーダ52および多重化部54に出力する。
 また、制御部51は、ビデオストリームの進行に合わせて、トリガ情報を格納したメタデータを生成し、オーディオエンコーダ53および多重化部54に出力する。メタデータには、例えばトリガ情報など、音声データと直接関係しない所定の情報が格納される。メタデータの詳細については後述する。
 ビデオエンコーダ52は、前段から入力される番組やCMのビデオストリームを所定の符号化方式に従ってエンコードし、その結果得られる符号化ビデオストリームを多重化部54に出力する。ビデオエンコーダ52における符号化方式としては、例えば、MPEG2方式、H.264方式などがある。
 また、ビデオエンコーダ52は、ビデオストリームをエンコードするに際して、制御部51からのトリガ情報を埋め込んでエンコードし、その結果得られる符号化ビデオストリームを多重化部54に出力する。
 オーディオエンコーダ53は、ビデオエンコーダ52に入力されるビデオストリームに対応するオーディオストリームを所定の符号化方式に従ってエンコードし、その結果得られる符号化オーディオストリームを多重化部54に出力する。オーディオエンコーダ53における符号化方式としては、例えば、AC3(Audio Code number 3)方式、AAC(Advanced Audio Coding)方式などがある。
 また、オーディオエンコーダ53は、オーディオストリームをエンコードするに際して、制御部51からのメタデータを埋め込んでエンコードし、その結果得られる符号化オーディオストリームを多重化部54に出力する。
 多重化部54は、入力される符号化ビデオストリームと、符号化オーディオストリームを多重化し、さらに、トリガ情報またはメタデータも多重化し、その結果得られた多重化ストリームを送出部55に出力する。具体的には、例えば、TS(トランスポートストリーム)に多重化する。あるいは、デジタルテレビジョン放送のネットワーク配信を考慮して、それに適したISO ベースメディアファイルフォーマット(MP4)に多重化するようにしてもよい。
 なお、トリガ情報をビデオストリームに埋め込むとともに、メタデータをオーディオストリームに埋め込み、トリガ情報またはメタデータを多重化ストリームにも多重化するとして説明したが、いずれか1つを行うか、またはいずれかの組み合わせを行うようにしてもよい。
 送出部55は、入力される多重化ストリームをデジタルテレビジョン放送信号として送出する。
[受信装置の構成例]
 図5は、受信装置60の構成例を示している。受信装置60は、チューナ61、多重分離部62、オーディオデコーダ63、音声出力部64、ビデオデコーダ65、トリガ検出部66、映像出力部67、制御部68、メモリ69、操作部70、記録部71、通信I/F72、キャッシュメモリ73、アプリエンジン74、アプリ用メモリ75、HDMI I/F76、スイッチ77、およびスイッチ78から構成される。
 チューナ61は、ユーザによって選局されたチャンネルに対応するデジタルテレビジョン放送信号を受信して復調し、その結果得られるTSを多重分離部62に出力する。多重分離部62は、チューナ61から入力されるTSを符号化オーディオストリーム(オーディオ符号化信号)、符号化ビデオストリーム(ビデオ符号化信号)、および制御信号に分離し、それぞれをスイッチ77、ビデオデコーダ65、または制御部68に出力する。
 さらに、多重分離部62は、TSに配置されたトリガ情報を含むPCRパケットを抽出してトリガ検出部66に出力する。
 HDMI I/F76には、再生装置59からHDMI(High Definition Multimedia Interface)に準拠した通信により送出されたAVコンテンツが入力される。HDMI I/F76は、再生装置59からのAVコンテンツの符号化オーディオストリーム(オーディオ符号化信号)をスイッチ77に出力し、映像信号をスイッチ78に出力する。
 なお、HDMI I/F76において、再生装置59からの入力としては、音声信号がデコードされた状態で入力される場合と、デコードされていない状態で入力される場合があるが、ここでは、符号化オーディオストリームが入力された場合について説明する。
 スイッチ77には、多重分離部62からの符号化オーディオストリームと、HDMI I/F76からの符号化オーディオストリームが入力される。スイッチ77は、予め設定されているユーザからの指示に基づいて、入力された符号化オーディオストリームのうち、一方の符号化オーディオストリームを、オーディオデコーダ63に出力する。
 オーディオデコーダ63は、入力された符号化オーディオストリームをデコードし、その結果得られるオーディオストリーム(音声信号)を音声出力部64およびトリガ検出部66に出力する。音声出力部64は、入力された音声信号を後段(例えば、スピーカ)に出力する。
 ビデオデコーダ65は、入力された符号化ビデオストリームをデコードし、その結果得られるビデオストリーム(映像信号)をトリガ検出部66およびスイッチ78に出力する。
 トリガ検出部66は、入力されたオーディオストリームに埋め込まれているメタデータに格納されているトリガ情報を検出して制御部68に出力する。また、トリガ検出部66は、入力されたビデオストリームに埋め込まれているトリガ情報を検出して制御部68に出力する(トリガ情報がTSのみに配置されている場合、これらのトリガ検出部66の動作は不要である)。また、トリガ検出部66は、多重分離部62から入力される、トリガ情報を含むPCRパケットからトリガ情報またはメタデータに格納されているトリガ情報を抽出して制御部68に出力する。
 なお、トリガ検出部66を省略して、オーディオデコーダ63にて、オーディオストリームからトリガ情報を抽出し、ビデオデコーダ65にて、ビデオストリームからトリガ情報を抽出するようにしてもよい。この場合、多重分離部62では、多重化ストリームに多重化されているトリガ情報が分離され、直接に制御部68に出力されることになる。
 スイッチ78には、HDMI I/F76からの映像信号と、ビデオデコーダ65からの映像信号が入力される。スイッチ78は、予め設定されているユーザからの指示に基づいて、入力された映像信号のうち、一方の映像信号を、映像出力部67に出力する。
 映像出力部67は、スイッチ78から入力された映像信号を後段(例えば、ディスプレイ)に出力する。また、映像出力部67は、アプリエンジン74から入力されるデータ放送用コンテンツの映像と、ビデオデコーダ65から入力された映像信号を合成して、後段に出力する。
 制御部68は、メモリ69に記録されている制御用プログラムを実行することにより受信装置60の全体を制御する。また、制御部68は、トリガ検出部66から入力されるトリガ情報に基づき、データ放送用アプリの取得、登録、起動、イベント発火、休止、再開、終了等を制御する。
 メモリ69には、制御部68によって実行される制御用プログラムが記録されている。この制御用プログラムは、デジタルテレビジョン放送信号、またはインタネット50を介して供給される更新データに基づいて更新することができる。操作部70は、ユーザからの各種の操作を受け付けて、それに対応する操作信号を制御部68に通知する。
 記録部71は、データ放送用アプリがデジタルテレビジョン放送信号を用いて配信される場合において、ダウンロードしたデータ放送用アプリを、内蔵するハードディスクなどの記録媒体に保持する。
 通信I/F72は、アプリエンジン74からの制御に従い、インタネット50を介してサーバ42に接続する。アプリエンジン74は、制御部68からの制御に従い、通信I/F72およびインタネット50を介してサーバ42からデータ放送用アプリを取得し、キャッシュメモリ73に保持させる。
 アプリエンジン74は、制御部68からの制御に従い、記録部71またはキャッシュメモリ73に保持されているデータ放送用アプリを読み出して実行する。
 アプリ用メモリ75は、ワークメモリ75Aおよび退避メモリ75Bとから成る。アプリエンジン74は、実行中のデータ放送用アプリに関するデータ(具体的には、表示されている情報の階層などを含む)をワークメモリ75Aに記録する。また、アプリエンジン74は、実行中のデータ放送用アプリを休止する場合、アプリ用メモリ75のワークメモリ75Aのデータを退避メモリ75Bに移動させる。そして、休止したデータ放送用アプリを再開する場合、退避メモリ75Bのデータをワークメモリ75Aに移動させて休止前の状態を復活させる。
 なお、アプリ用メモリ75における同じサイズの2領域のうち、一方をワークメモリ75A、他方を退避メモリ75Bとして交互に切り替えるようにしてもよい。これにより、ワークメモリ75Aと退避メモリ75Bとの間でのデータの移動をなくすことができる。
[トリガ情報の送信方法]
 次に、トリガ情報の送信方法について説明する。トリガ情報の送信方法としては、次の4種類の方法がある。
(a)PCRパケットに挿入する方法
(b)映像信号に埋め込む方法
(c)符号化ビデオストリーム(ビデオ符号化信号)に挿入する方法
(d)符号化オーディオストリーム(オーディオ符号化信号)に挿入する方法
 上記の(a)乃至(d)の方法のうち、(b),(c)の方法では、トリガ情報がそのまま挿入されるが、(a),(d)の方法では、トリガ情報が、トリガ情報以外の情報を含めた汎用的なメタデータ伝送フォーマットにより挿入される。なお、(a)の方法については、トリガ情報をそのまま挿入してもよい。
[メタデータ汎用シンタックス]
 ここで、上記の(a),(d)の方法で用いられる、メタデータ汎用シンタックスについて説明する。図6乃至図8は、メタデータ汎用シンタックスの一例を示している。また、図9は、メタデータ汎用シンタックスにおける主要なデータ規定内容(semantics)を示しており、図6乃至図8の説明では、図9の内容を適宜参照しながら説明する。
 図6は、metadata()のシンタックスの一例を示している。
 sync_byteは、メタデータ・コンテナ(metadata container)を示すユニークワードとされる。metadata_typeは、メタデータのタイプ情報を示す。このタイプ情報により、複数のタイプのメタデータを選択的に送信することが可能となる。例えば、00000011は、送信されるメタデータがトリガ情報であることを示す。
 metadata_lengthは、以降のバイト数を示す。metadata_IDは、メタデータのタイプ内において種類を識別するための情報である。この識別子により、同一タイプの複数種類の情報を同時に送信することが可能となる。
 metadata_counterは、一連のメタデータを分割して送信する場合に、何番目の分割情報であるかを示すカウント情報である。このカウント情報はオーディオフレーム毎にインクリメントされるカウンタのカウント値である。
 metadata_start_flagは、一連のメタデータ(メタデータパケット)を分割して送信する場合に、最初の分割情報であるか否かを示す。例えば、1は最初の分割情報であることを示し、0は最初の分割情報ではなく、前のフレームの分割情報に続く分割情報であることを示す。
 sync_control_flagは、メタデータが同期管理されているか否かを示す。1は、PTS_management()内のPTSによって同期管理されることを示す。0は、同期管理されていないことを示す。sync_control_flagが1であるとき、PTS_management()が存在する。
 図7は、PTS_management()のシンタックスの一例を示しており、PTS[32-0]の33ビットで示される時間情報が存在する。
 図6に戻り、metadata_lengthで示されるバイト数分のdata_byteは、メタデータパケットMetadata_packet()の全体、あるいは、このメタデータパケットMetadata_packet()を複数個に分割して得られたいずれかの分割情報を構成する。
 図8は、metadata_packet()のシンタックスの一例を示している。
 packet_typeは、metadata()(図6)のmetadata_typeと同様に、メタデータのタイプ情報を示す。metadata_packet_lengthは、以降のバイト数を示す。そして、このmetadata_packet_lengthで示されるバイト数分のdata_byteに、metadata_packet()の全体が記載される。
 例えば、メタデータに格納される情報がトリガ情報である場合、トリガ情報のmetadata_Packet()、すなわち、後述するTrigger_info_data()(図25,図37)が、このdata_byteに記載される。
 なお、メタデータに格納される情報はトリガ情報以外であってもよく、例えば、他サービスアクセス情報(Metadata for linking service)や、視差情報(Metadata for disparity shifting data)とすることができる。他サービスアクセス情報や視差情報に関しては、例えば、本出願人の出願である特願2011-061549号に記載されている。
[(a)PCRパケットに挿入する方法]
 次に、トリガ情報の各送信方法の詳細について説明する。図10は、トリガ情報がデジタルテレビジョン放送信号のTSのPCR(Program Clock Reference)パケットに配置された送信される場合の概念を示している。
 同図に示すように、トリガ情報は全てのPCRパケットに格納されるわけではなく、AVコンテンツ(番組、CMとなど)に連動させるための適切なタイミングにおいてのみ、PCRパケットに格納される。通常、PCRパケットは、図2に示されたようなCATV再送信装置2のPIDフィルタ12を通過するので、CATV網を利用する受信装置(図2のデジタルテレビジョン受像機4)に対してもトリガ情報を通知することができる。
 なお、トリガ情報は、電波障害や受信装置60における取りこぼし(受信ミス)を考慮して、同一内容のものが複数回連続的に送信される。
 図11は、PCRパケットにおいてトリガ情報が格納される位置を示している。PCRパケットは、TSパケットのadaptation_fieldにPCRが格納されたものであり、トリガ情報(Trigger Info_descriptor)は、PCRの後に続くtransport_private_data_byteに格納される。なお、トリガ情報が格納される場合、PCRの前に設けられているVarious_flagsのtransport_private_data_flagが1とされる。
 また、図12に示すように、トリガ情報をメタデータに格納して、そのメタデータが、transport_private_data_byteに格納されるようにしてもよい。この場合においても、Various_flagsのtransport_private_data_flagが1とされる。
 このように、(a)PCRパケットに挿入する方法においては、トリガ情報またはそのトリガ情報を格納したメタデータが、PCRパケットのtransport_private_data_byteに格納される。
[(b)映像信号に埋め込む方法]
 図13は、トリガ情報を映像信号に埋め込む2種類の例を示している。
 同図のAは、トリガ情報を2次元バーコード化して、映像信号の画像の所定の位置(いまの場合、右下隅)に重畳合成する例を示している。同図のBは、トリガ情報を映像コード化して、映像信号の画像の下部の数ラインに合成する例を示している。同図のAおよび同図のBにおけるトリガ情報は、受信装置60のトリガ検出部66によって検出される。
 同図のAまたは同図のBのどちらの例においても、トリガ情報はAVコンテンツの映像の上に配置されているので、例えば、CATV網を利用した受信装置(例えば、図2のテレビジョン受像機6)に対しても、トリガ情報を通知することができる。
 また、同図のAまたは同図のBのどちらの例においても映像上のトリガ情報(2次元バーコードまたは映像コード)は受信装置60のユーザによって視認され得るが、これが好ましくない場合、映像上のトリガ情報をその周囲の画素と同じ画素によりマスクしてから表示するようにすればよい。
 このように、(b)映像信号に埋め込む方法においては、トリガ情報が、映像信号の画像の所定の領域に埋め込まれる。
[(c)符号化ビデオストリームに挿入する方法]
 図14および図15は、トリガ情報をMPEG2の符号化ビデオストリーム(ビデオ符号化信号)に挿入する場合の例を示している。
 図14は、MPEG2ビデオで定義されるvideo_sequence()の構成を示している。
 トリガ情報をMPEG2の符号化ビデオストリームに挿入する場合、video_sequence()内のピクチャレイヤにおけるuser_dataが利用される。
 図15は、user_data()のシンタックスの一例を示している。
 user_data_start_codeには、0x000001B2が固定値で記載される。Trigger_Info_Data_identifierには、0x54524749("TRGI")が固定値で記載される。
 Trigger_info_data()には、トリガ情報、すなわち、後述するTrigger_info_data()(図25,図37)が記載される。
 このように、(c)符号化ビデオストリームに挿入する方法においては、トリガ情報が、video_sequence()のuser_data()の領域に挿入される。
[(d)符号化オーディオストリームに挿入する方法]
 図16および図17は、トリガ情報が格納されたメタデータを、AC3方式によりエンコードされた符号化オーディオストリーム(オーディオ符号化信号)に挿入する場合の例を示している。
 図16は、AC3のフレーム(AC3 Synchronization Frame)の構造を示している。符号化方式がAC3方式の場合、メタデータはAUX(AUXILIARY DATA)の領域に挿入される。
 図17は、AUXのシンタックスの一例を示している。auxdataeが1のとき、aux dataがイネーブルされ、auxdatalの14bits(ビット単位)で示されるサイズのデータが、auxbitsの中に定義される。その際のaudbitsのサイズはnauxbitsに記載される。そして、auxbitsの空間がmetadata()と定義され、トリガ情報が挿入される。
 図18および図19は、トリガ情報が格納されたメタデータを、AAC方式によりエンコードされた符号化オーディオストリームに挿入する場合の例を示している。
 図18は、AACの1024サンプル分の音声データが入るフレーム(Raw_data_block)の構造を示している。符号化方式がAAC方式の場合、メタデータはDSE(Data Stream Element)の領域に挿入される。
 図19は、DSEのシンタックスの一例を示している。element_instance_tagは、data_stream_elementの中のデータ種別を示すが、DSEを統一したユーザデータとして利用する場合は、この値を0としてもよい。Data_byte_align_flagは、1とされ、DSEの全体がバイトアラインされるようにする。count、あるいは、その追加バイト数を意味するesc_countは、ユーザデータのサイズによって適宜、値が決められる。そして、data_stream_byteの空間がmetadata()と定義され、トリガ情報が挿入される。
 このように、(d)符号化オーディオストリームに挿入する方法においては、トリガ情報を格納したメタデータが、AC3方式によりエンコードされた場合にはAUXの領域に挿入され、AAC方式によりエンコードされた場合にはDSEの領域に挿入される。なお、符号化方式として、AC3方式とAAC方式を採用した場合を説明したが、他の符号化方式にも適用することができる。
[トリガ情報の詳細]
 次に、トリガ情報の詳細について説明する。トリガ情報は、それに含まれるコマンドの種類に応じて5種類に分類される。
 5種類のコマンドは、2つの組み合わせが提案されている。1組目(以下、第1の実施の形態と称する)は、プリキャッシュ(Pre_cache)、エクスキュート(Execute)、インジェクトイベント(Inject_event)、およびターミネート(Terminate)の各コマンドからなる組み合わせである。2組目(以下、第2の実施の形態と称する)は、レジスタ(Register)、エクスキュート(Execute)、インジェクトイベント(Inject_event)、およびターミネート(Terminate)の各コマンドからなる組み合わせである。
 まず、第1の実施の形態における5種類のコマンドについて説明する。第2の実施の形態については図32以降を参照して後述する。
[5種類のコマンドの第1の例]
 図20は、プリキャッシュ(Pre_cache)コマンドとしてのトリガ情報に含まれる項目を示している。プリキャッシュコマンドは、受信装置60に対して、データ放送用アプリの取得を指示するためのコマンドである。
 Trigger_idは、当該トリガ情報を識別するための情報である。同一内容のトリガ情報が複数回送信される場合、各トリガ情報のTrigger_idは同一である。Protcol_versionは、当該トリガ情報のプロトコルのバージョンを示している。Command_codeは、当該トリガ情報のコマンドの種類を示す。同図の場合、プリキャッシュコマンドであることを示す情報が記載される。
 Trigger_varidityは、当該トリガ情報を受信した各受信装置60が当該トリガ情報に従って処理を実行する確率を示すサーバアクセス分散パラメータ値Nである。この値を設けることにより、複数の受信装置60がサーバ42からデータ放送用アプリを取得するに際し、そのアクセスが一時期に集中せず分散させることができる。例えば、数多く存在し得る受信装置60からのサーバ42に対するアクセスを4回に分散させるためには、同一のトリガ情報を4回送信するようにし、1回目のトリガ情報におけるサーバアクセス分散パラメータN=4とし、2回目のトリガ情報におけるサーバアクセス分散パラメータN=3とし、3回目のトリガ情報におけるサーバアクセス分散パラメータN=2とし、4回目のトリガ情報におけるサーバアクセス分散パラメータN=1とすればよい。
 App_idは、当該トリガ情報に対応して取得するデータ放送用アプリの識別情報である。App_typeは、当該トリガ情報に対応するデータ放送用アプリのタイプ(例えば、HTML5,javaなど)を示す情報である。App_urlは、データ放送用アプリの取得先のURLである。
 Broadcast_App_flag,Downloaded_App_flag、およびInternet_App_flagは、当該トリガ情報に対応するデータ放送用アプリの所在を示すフラグである。Broadcast_App_flagは、当該トリガ情報に対応するデータ放送用アプリがデジタルテレビジョン放送信号から取得可能である場合に1とされる。Downloaded_App_flagは、当該トリガ情報に対応するデータ放送用アプリが既にダウンロードされていてローカルストレージ(例えば、記録部71)から取得可能である場合に1とされる。Internet_App_flagは、当該トリガ情報に対応するデータ放送用アプリがインタネット50を介してサーバ42から取得可能である場合に1とされる。
 図21は、エクスキュート(Execute)コマンドとしてのトリガ情報に含まれる項目を示している。エクスキュートコマンドとは、受信装置60に対して、データ放送用アプリの起動を指示するためのコマンドである。
 Trigger_id,Protcol_version,Command_code,Trigger_varidity,App_id,App_type,App_url,Broadcast_App_flag,Downloaded_App_flag、およびInternet_App_flagについては、図20に示されたプリキャッシュコマンドとしてのトリガ情報と同様である。ただし、Command_codeには、エクスキュートコマンドであることを示す情報が記載される。
 App_life_scopeは、チャンネルなどの切り替えが生じたときに実行中のデータ放送用アプリを終了することなく、実行状態を継続する範囲を示している。App_expire_dateは、ターミネートコマンドが受信されなくても、実行中のデータ放送用アプリを終了する日時を示している。
 図22は、インジェクトイベント(Inject_event)コマンドとしてのトリガ情報に含まれる項目を示している。インジェクトイベントコマンドは、受信装置60に対して、実行中のデータ放送用アプリにおいてイベントを引火させるためのコマンドである。
 Trigger_id,Protcol_version,Command_code,Trigger_varidity,App_id、およびApp_typeについては、図20に示されたプリキャッシュコマンドとしてのトリガ情報と同様である。ただし、Command_codeには、インジェクトイベントコマンドであることを示す情報が記載される。
 Event_idは、App_idにて指定されたデータ放送用アプリにおいて発火すべきイベントの識別情報である。Event Embedded Dataは、イベントを発火する際に参照されるデータが記載される。
 図23は、サスペンド(Suspend)コマンドとしてのトリガ情報に含まれる項目を示している。サスペンドコマンドは、受信装置60に対して、実行中のデータ放送用アプリを休止させるためのコマンドである。
 Trigger_id,Protcol_version,Command_code,Trigger_varidity,App_id、およびApp_typeについては、図20に示されたプリキャッシュコマンドとしてのトリガ情報と同様である。ただし、Command_codeには、サスペンドコマンドであることを示す情報が記載される。
 図24は、ターミネート(Terminate)コマンドとしてのトリガ情報に含まれる項目を示している。ターミネートコマンドは、受信装置60に対して、実行中のデータ放送用アプリを終了させるためのコマンドである。
 Trigger_id,Protcol_version,Command_code,Trigger_varidity,App_id、およびApp_typeについては、図20に示されたプリキャッシュコマンドとしてのトリガ情報と同様である。ただし、Command_codeには、ターミネートコマンドであることを示す情報が記載される。
 図25は、上述した各コマンドとしてのトリガ情報に対応可能なトリガ情報のシンタックスの一例を示している。なお、トリガ情報のシンタックスは任意であって、図25の例に限定されるものではない。
[受信装置60の動作概要]
 次に、トリガ情報に従う受信装置60の動作について説明する。
 図26は、AVコンテンツ(番組、CMなど)に対応するデータ放送用アプリを受信装置60に実行させるときの受信装置60の表示画面の遷移を示している。
 例えば同図のAに示すように、番組(いまの場合、「7時のニュース」)が放送されており、番組の内容が経済情報に移ると、それにあわせて、番組に対応するデータ放送用アプリに対するエクスキュートコマンドのトリガ情報が送信される。これが受信装置60に受信されると、データ放送用アプリが起動されて、番組が表示されている画面上には、同図のBに示すように、データ放送用アプリの表示が用意されている旨をユーザに通知するためのアイコン(いまの場合、「株」)が表示される。
 ユーザがこのアイコンを選択すると、画面上には、同図のCに示すように、データ放送用アプリによる表示(いまの場合、株価情報表示)が行われる。このように、画面上に表示されたアイコンがユーザによって選択された場合にのみ、データ放送用アプリによる表示を行うので、データ放送用アプリによる表示を必要としないユーザを煩わせてしまう事態を抑止することができる。
 さらに番組の内容が推移すると(いまの場合、スポーツ情報に推移すると)、それにあわせてインジェクイベントコマンドのトリガ情報が送信される。これが受信されると、イベントが発火されて、例えば、画面上のデータ放送用アプリによる表示が、同図のDに示すように変更される(いまの場合、試合結果情報表示に変更される)。
 その後、CMの放送に先立って、番組に対応する実行中のデータ放送用アプリに対するサスペンドコマンドのトリガ情報が送信され、これが受信されると、番組に対応するデータ放送用アプリが休止される。この後、CMに対応するデータ放送用アプリに対するエクスキュートコマンドのトリガ情報が送信され、これが受信されると、CM番組のデータ放送用アプリが起動される。これにより、CMが表示されている画面上には、同図のEに示すように、CMに対応するデータ放送用アプリの表示をユーザに促すためのアイコン(いまの場合、「懸賞応募」)が表示される。
 ユーザがこのアイコンを選択すると、画面上には、CMに対応するデータ放送用アプリによる表示(いまの場合、懸賞応募のための表示)が行われる。
 CMの終了後、番組再開にあわせて、番組に対応するデータ放送用アプリに対するエクスキュートコマンドのトリガ情報が送信され、これが受信されると、同図のFに示すように、CMに対応するデータ放送用アプリの表示が消去されて、番組のデータ放送用アプリの表示も、先ほど休止された状態から再開される。
 そして、番組が終了するとき、それにあわせて、番組に対応するデータ放送用アプリに対するターミネートコマンドのトリガ情報が送信され、これが受信されると、データ放送用アプリが終了され、同図のGに示すように、画面上からデータ放送用アプリの表示が消去されて番組の映像のみが表示される。
 なお、データ放送用アプリの表示については、図26に示されたように、番組の表示を縮小してデータ放送用アプリの表示のための領域を設ける方法だけでなく、例えば、番組の表示に、データ放送用アプリの表示を重畳するようにしてもよい。
[トリガ情報送信処理について]
 次に、放送装置41がデジタルテレビジョン放送信号にトリガ情報を含めて送信するときのトリガ情報送信処理について、図27を参照して説明する。
 図27は、トリガ情報送信処理を説明するフローチャートである。
 ステップS101において、制御部51は、前段から入力される番組やCMのビデオストリームの進行に対応させたトリガ情報を生成する。
 ステップS102において、ビデオエンコーダ52は、前段から入力された番組やCMのビデオストリームをエンコードし、その結果得られる符号化ビデオストリームを多重化部54に出力する。
 ステップS103において、制御部51は、符号化オーディオストリームにトリガ情報を挿入するか否か、予め設定されているユーザからの指示に基づいて判断する。
 符号化オーディオストリームにトリガ情報を挿入すると判断された場合、処理は、ステップS104に進められる。ステップS104において、制御部51は、トリガ情報に基づいて、メタデータを生成し、このメタデータをユーザデータ領域に埋め込むためのサイズ情報とともに、オーディオエンコーダ53に出力する。
 ステップS105において、オーディオエンコーダ53は、制御部51からのサイズ情報に基づいて、オーディオストリームをエンコードして、制御部51からのメタデータを挿入し、その結果得られる符号化オーディオストリームを、多重化部54に出力する。
 例えば、符号化方式がAC3方式(図16)の場合、制御部51は、サイズS=(frmsizcod-AUXDATA)の情報を、オーディオエンコーダ53に供給する。ここで、frmsizcodは、AC3のオーディオフレームのサイズであり、ビットレートおよびサンプリング周波数に応じた値が規定されている。例えば、ビットレートが128kbpsで、サンプリング周波数が32kHzの場合には、384*2Bytesである。また、例えば、ビットレートが128kbpsで、サンプリング周波数が44.1kHzの場合には、279*2Bytesである。また、例えば、ビットレートが128kbpsで、サンプリング周波数が48kHzの場合には、256*2Bytesである。
 オーディオエンコーダ53は、サイズSを目標値としてエンコードし、Audblock 5のmantissa dataと、AUXと、CRCとの合計サイズが全体の3/8を超えないように、オーディオデータをエンコードする。そして、AUXの領域にメタデータを挿入し、CRCを施してストリームを完成する。これにより、図17のAUX(AUXILIARY DATA)の領域において、auzbitsの空間には、トリガ情報を格納したメタデータが挿入される。
 また、例えば、符号化方式がAAC方式(図18)の場合、制御部51は、メタデータを挿入すべきDSE(Data Stream Element)のサイズDSE_S=cntの情報を、オーディオエンコーダ53に供給する。オーディオエンコーダ53は、オーディオデータをエンコードするとともに、メタデータが挿入されたDSEを付加して、ストリームを完成する。これにより、図19のDSEの領域において、data_stream_byteの空間には、トリガ情報を格納したメタデータが挿入される。
 なお、オーディオエンコーダ53は、2回に分けてエンコードすることも可能である。この場合、オーディオエンコーダ53は、最初は通常の、つまりDSEあるいはAUXがない場合のエンコードを行い、その後に予め予約しておいたサイズのDSEあるいはAUXにメタデータを挿入して、再度エンコードを行う。
 以上のように、オーディオエンコーダ53においては、符号化オーディオストリームのユーザデータ領域(例えば、AC3方式の場合にはAUX、AAC方式の場合にはDSE)に、メタデータを埋め込むための処理が行われ、処理は、ステップS107に進められる。
 なお、ステップS103において、符号化オーディオストリームにトリガ情報を挿入しないと判断された場合、処理は、ステップS106に進められる。ステップS106において、オーディオエンコーダ53は、オーディオストリームをエンコードし、その結果得られる符号化オーディオストリームを、多重化部54に出力する。この後、処理はステップS107に進められる。
 ステップS107において、多重化部54は、ビデオエンコーダ52から出力された符号化ビデオストリームと、オーディオエンコーダ53から出力された符号化オーディオストリームを多重化し、その結果得られた多重化ストリームを送出部55に出力する。
 ステップS108において、送出部55は、多重化部44から入力された多重化ストリームをデジタルテレビジョン放送信号として送出(送信)する。この後、処理はステップS101に戻って、それ以降が繰り返されることになる。以上で、トリガ情報送信処理の説明を終了する。
 なお、上述したトリガ情報送信処理では、上記の(a)乃至(d)のトリガ情報の送信方法のうち、(d)符号化オーディオストリームに挿入する方法について説明したが、(a)乃至(c)の方法でも同様に、トリガ情報やメタデータを埋め込むことができる。例えば、(a)の方法を採用した場合、多重化部54により多重化が行われる際に、PCRパケットに、トリガ情報またはメタデータが挿入される。また、例えば、(b)の方法を採用した場合、ビデオストリームの映像信号にトリガ情報が埋め込まれる。また、例えば、(c)の方法を採用した場合、ビデオエンコーダ52によるエンコードが行われる際に、符号化ビデオストリームに、トリガ情報が挿入される。
[トリガ情報対応処理について]
 次に、受信装置60がトリガ情報を受信したときのトリガ情報対応処理について、図28を参照して説明する。
 図28は、トリガ情報対応処理を説明するフローチャートである。このトリガ情報対応処理は、ユーザがテレビジョン番組を視聴しているとき、すなわち、デジタルテレビジョン放送信号を受信している間、繰り返して実行される。
 ステップS1において、トリガ検出部66は、トリガ情報を受信したか否かを判定する。
 この判定条件としては、上述した(a)の方法が採用された場合には、多重分離部62からトリガ情報を含むPCRパケットが入力されるまで待機する。また、(b),(c)の方法が採用された場合には、ビデオデコーダ65から出力される映像信号からトリガ情報が検出されるまで待機する。また、(d)の方法を採用した場合には、オーディオデコーダ65から出力される音声信号からメタデータに格納されたトリガ情報が検出されるまで待機する。そして、トリガ情報を含むPCRパケットが入力されるか、またはトリガ情報が検出された場合、処理はステップS2に進められる。
 ステップS2において、トリガ検出部66は、トリガ情報を制御部68に出力する。制御部68は、トリガ情報のTrigger_idを読み出し、当該トリガ情報に対してステップS3以降の処理を既に実行済みであるか否かを判定する。既にステップS3以降の処理を実行済みであると判定された場合、処理はステップS1に戻されて、それ以降が繰り返される。反対に、当該トリガ情報に対してステップS3以降の処理を実行していないと判定された場合、処理はステップS3に進められる。
 ステップS3において、制御部68は、トリガ情報のCommand_codeを読み出し、当該トリガ情報の示すコマンドが、プリキャッシュ、エクスキュート、インジェクトイベント、サスペンド、またはターミネートのいずれであるかを判別する。
 ステップS4において、制御部68は、ステップS3の判別結果がプリキャッシュであるか否かを判断し、プリキャッシュであると判断された場合、処理はステップS5に進められる。
 ステップS5において、制御部68は、当該トリガ情報のApp_idにより特定されるデータ放送用アプリを取得させる。具体的には、当該トリガ情報のBroadcast_App_flagが1である場合、App_idにより特定されるデータ放送用アプリがテレビジョン放送信号から取得されて記録部71に記録される。当該トリガ情報のDownloaded_App_flagが1である場合、App_idにより特定されるデータ放送用アプリが、ローカルストレージである記録部71から取得される。当該トリガ情報のInternet_App_flagが1である場合、App_idにより特定されるデータ放送用アプリが、インタネット50を介してサーバ42から取得されてキャッシュメモリ73に記録される。なお、Broadcast_App_flag,Downloaded_App_flag、およびInternet_App_flagのうち、2つ以上のflagが1である場合、受信装置60側の都合に応じて、当該トリガ情報のApp_idにより特定されるデータ放送用アプリを取得することができる。この後、処理はステップS1に戻り、それ以降が繰り返される。
 ステップS4において、ステップS3の判別結果がプリキャッシュではないと判断された場合、処理はステップS6に進められる。ステップS6において、制御部68は、ステップS3の判別結果がエクスキュートであるか否かを判断し、エクスキュートであると判断された場合、処理はステップS7に進められる。
 ステップS7において、アプリエンジン74は、制御部68からの制御に従い、当該トリガ情報のApp_idにより特定されるデータ放送用アプリが休止中(サスペンド状態)であるか否かを判断する。具体的には、退避メモリ75Bに、App_idにより特定されるデータ放送用アプリに、休止の状態を示すデータが退避されている場合に休止中であると判断する。
 ステップS7において、App_idにより特定されるデータ放送用アプリが休止中ではないと判断された場合、処理はステップS8に進められる。ステップS8において、アプリエンジン74は、制御部68からの制御に従い、App_idにより特定されるデータ放送用アプリが未取得(記録部71またはキャッシュメモリ73に存在しない)の場合にそれを取得する。
 ステップS9において、アプリエンジン74は、制御部68からの制御に従い、現在実行中のデータ放送用アプリがあるならば、それを終了させる。
 ステップS10において、アプリエンジン74は、制御部68からの制御に従い、App_idにより特定されるデータ放送用アプリを起動する。この後、処理はステップS1に戻り、それ以降が繰り返される。
 なお、ステップS7において、App_idにより特定されるデータ放送用アプリが休止中(サスペンド状態)であると判断された場合、処理はステップS11に進められる。ステップS11において、アプリエンジン74は、制御部68からの制御に従い、退避メモリ75Bのデータをワークメモリ75Aに移して、App_idにより特定されるデータ放送用アプリを起動する。これにより、App_idにより特定される、休止中のデータ放送用アプリが休止された状態から再開されることになる。この後、処理はステップS1に戻り、それ以降が繰り返される。
 ステップS6において、ステップS3の判別結果がエクスキュートではないと判断された場合、処理はステップS12に進められる。ステップS12において、制御部68は、ステップS3の判別結果がインジェクトイベントであるか否かを判断し、インジェクトイベントであると判断された場合、処理はステップS13に進められる。
 ステップS13において、制御部68は、当該トリガ情報のApp_idと、動作中のデータ放送用アプリのApp_idが一致する場合のみ、アプリエンジン74を制御して、動作中のアプリケーションにおいて、トリガ情報のEvent_idに対応するイベントを発火(実行)させる。この後、処理はステップS1に戻り、それ以降が繰り返される。
 ステップS12において、ステップS3の判別結果がインジェクトイベントではないと判断された場合、処理はステップS14に進められる。ステップS14において、制御部68は、ステップS3の判別結果がサスペンドであるか否かを判断し、サスペンドであると判断された場合、処理はステップS15に進められる。
 ステップS15において、アプリエンジン74は、制御部68からの制御に従い、現在実行中のデータ放送用アプリの状態を示すデータ(すなわち、現在ワークメモリ75Aに書き込まれているデータ。表示する情報に階層構造がある場合、表示されている情報の階層を示す情報を含む)を退避メモリ75Bに退避させる。この後、処理はステップS1に戻り、それ以降が繰り返される。
 ステップS14において、ステップS3の判別結果がサスペンドではないと判断された場合、ステップS3の判別結果はターミネートであるので、処理はステップS16に進められる。ステップS16において、アプリエンジン74は、制御部68からの制御に従い、App_idにより特定されるデータ放送用アプリが実行中であればそれを終了させる。ステップS17において、アプリエンジン74は、制御部68からの制御に従い、App_idにより特定されるデータ放送用アプリに関するデータを、ワークメモリ75Aおよび退避メモリ75Bから消去するとともに、データ放送用アプリを記録部71またはキャッシュメモリ73から消去させる。この後、処理はステップS1に戻り、それ以降が繰り返される。
 以上でトリガ情報対応処理の説明を終了する。上述したトリガ情報対応処理によれば、テレビジョン放送のAVコンテンツ(番組、CMなど)に連動してデータ放送用アプリを起動したり、イベントを発火させたり、終了したりすることができる。さらに、データ放送用アプリを実行中の状態を保持したままで休止させて、他のデータ情報用アプリを実行、終了し、その後、休止したデータ放送用アプリを休止状態から再開することができる。
[動作シナリオ]
 上述したトリガ情報対応処理によれば、図29に示すようなデータ放送用アプリの運用の可能である。
 図29は、データ放送用アプリの動作シナリオの一例を示している。
 放送装置41が番組の進行にあわせて、番組に対応するデータ放送用アプリの取得を指示するプリキャッシュコマンドのトリガ情報を送信すると、これを受信した受信装置60では、データ放送用アプリが取得される。
 次に、放送装置41が番組の進行にあわせて、番組に対応するデータ放送用アプリのエクスキュートコマンドのトリガ情報を送信すると、これを受信した受信装置60では、放送用アプリが起動される。この起動により、番組の映像に、データ放送用アプリの表示が用意されていることを示すアイコンが重畳表示される。
 このアイコンをユーザが選択すると、番組の映像に画面上にデータ放送用アプリによる表示が重畳される。
 放送装置41が番組の進行にあわせて、インジェクトイベントコマンドのトリガ情報を送信すると、これを受信した受信装置60では、実行中のデータ放送用アプリにおいてイベントが発火される(例えば、表示が変更される)。
 そして、所定のタイミングにおいて、放送装置41がデータ放送用アプリのサスペンドコマンドのトリガ情報を送信すると、これを受信した受信装置60では、実行中のデータ放送用アプリが休止される(関連するデータは退避メモリ75Bに保持される)。その後、放送装置41がデータ放送用アプリのエクスキュートコマンドのトリガ情報を送信すると、これを受信した受信装置60では、休止されていたデータ放送用アプリが再開される。
 さらに、放送装置41が番組の終了にあわせて、ターミネートコマンドのトリガ情報を送信すると、これを受信した受信装置60では、実行中のデータ放送用アプリが終了される。
[データ放送用アプリの第1の状態遷移]
 図30は、5種類のコマンドの第1の例である、プリキャッシュ、エクスキュート、インジェクトイベント、サスペンド、およびターミネートの各コマンドに応じて受信装置60にて動作するデータ放送用アプリの状態遷移図である。
 同図に示すように、データ放送用アプリの状態は、終了状態(Stopped)、準備状態(Ready)、実行中状態(Active)、または休止状態(Suspended)の4種類のうちのいずれかに遷移していると定義される。
 終了状態は、データ放送用アプリが受信装置60に未取得である状態を指す。準備状態は、そのデータ放送用アプリが受信装置60に取得済みであって起動されていない状態を指す。実行中状態は、データ放送用アプリが起動されて実行中である状態を指す。休止状態は、データ放送用アプリの実行が中断され、その中断したときの状態を示す情報が退避メモリ75Bに保持されている状態を指す。
 データ放送用アプリが終了状態に遷移しているとき(受信装置60に未取得のとき)、プリキャッシュコマンドのトリガ情報が受信され、プリキャッシュコマンドに従ってそのデータ放送用アプリが取得されると、準備状態に遷移する。
 データ放送用アプリが準備状態であるとき、エクスキュートコマンドのトリガ情報が受信され、エクスキュートコマンドに従ってそのデータ放送用アプリが起動されると、実行中状態に遷移する。
 また、データ放送用アプリが終了状態に遷移しているとき(受信装置60に未取得のとき)、エクスキュートコマンドのトリガ情報が受信され、エクスキュートコマンドに従ってそのデータ放送用アプリが取得されて起動されると、実行中状態に遷移する。
 データ放送用アプリが実行中状態に遷移しているとき、サスペンドコマンドのトリガ情報が受信され、サスペンドコマンドに従って実行中のデータ放送用アプリが中断されると休止状態に遷移する。
 データ放送用アプリが休止状態に遷移しているとき、エクスキュートコマンドのトリガ情報が受信され、エクスキュートコマンドに従って、中断されていたデータ放送用アプリが再開されると、実行中状態に遷移する。
 データ放送用アプリが準備状態、実行中状態、または休止状態に遷移しているとき、ターミネートコマンドのトリガ情報が受信され、ターミネートコマンドに従って、実行中のデータ放送用アプリが終了されると、終了状態に遷移する。なお、終了状態への遷移は、ターミネートコマンドのトリガ情報に基づくものの他、トリガ情報のApp_expire_dateが経過したとき、他のデータ放送用アプリが実行されたとき、受信チャンネルが切り替えがApp_life_scopeを超えたときにも発生する。
[複数のデータ放送用アプリの状態遷移について]
 次に、受信装置60にて順次実行され得る複数のデータ放送用アプリの状態遷移について説明する。
 図31は、複数のデータ放送用アプリを順次実行させるときの運用シナリオの一例を示している。以下、3つのデータ放送用アプリをデータ放送用アプリA,B,Cと称する。
 番組が開始されたとき、データ放送用アプリA,B,Cは全て終了(Stopped)状態である。そして、データ放送用アプリAに対するエクスキュートコマンドが受信されると、データ放送用アプリAが取得、起動され、データ放送用アプリAは実行中(Active)状態となる。このとき、ワークメモリ75Aには、データ放送用アプリAに関するデータが書き込まれている。
 次に、データ放送用アプリAに対するサスペンドコマンドが受信されると、ワークメモリ75Aに書き込まれていた、データ放送用アプリAに関するデータが退避メモリ75Bに移されて、データ放送用アプリAが休止(Suspended)状態となる。この後、データ放送用アプリBに対するエクスキュートコマンドが受信されると、データ放送用アプリBが取得、起動され、データ放送用アプリBが実行中状態となる。このとき、ワークメモリ75Aには、データ放送用アプリBに関するデータが書き込まれる。
 データ放送用アプリBが実行中状態のとき、データ放送用アプリCに対するプリキャッシュコマンドが受信されると、データ放送用アプリCが取得されてデータ放送用アプリCは準備状態となる。
 次に、データ放送用アプリAに対するエクスキュートコマンドが受信されると、データ放送用アプリAは休止状態であるので、データ放送用アプリAに関するデータが退避メモリ75Bからワークメモリ75Aに移されてデータ放送用アプリAが再開される。一方、データ放送用アプリBは終了される。
 この後、準備状態のデータ放送用アプリCに対するエクスキュートコマンドが受信されると、データ放送用アプリCが読み出されて起動され、データ放送用アプリCは実行中状態となり、ワークメモリ75Aには、データ放送用アプリCに関するデータが書き込まれる。一方、データ放送用アプリAは終了される。
 上述したように、受信装置60においては複数のデータ放送用アプリを順次実行することができ、休止したデータ放送用アプリについても休止した状態から再開することができる。
 <2.第2の実施の形態>
[5種類のコマンドの第2の例]
 次に、第2の実施の形態について説明する。上述したように、第2の実施の形態における5種類のコマンドは、レジスタ(Register)、エクスキュート(Execute)、インジェクトイベント(Inject_event)、およびターミネート(Terminate)の各コマンドからなる。
 図32は、第2の実施の形態における、レジスタ(Register)コマンドとしてのトリガ情報に含まれる項目を示している。レジスタコマンドは、受信装置60に対して、データ放送用アプリの取得と登録を指示するためのコマンドである。
 すなわち、データ放送用アプリの取得を指示する点については、第1の実施の形態におけるプリキャッシュコマンドと同様であるが、その登録も指示する点が異なる。ここで、データ放送用アプリの登録とは、取得したデータ放送用アプリに対応付けて、その優先度(Persistent_priority)と保持期限(Expire_date)を記憶することを意味する。記憶されたデータ放送用アプリは、制御部68により、優先度と保持期限に従って管理される(詳細後述)。
 Trigger_id,Protcol_version,Command_code,Trigger_varidity,App_type,App_life_scopeについては、図20に示されたプリキャッシュコマンドとしてのトリガ情報と同様である。ただし、Command_codeには、レジスタコマンドであることを示す情報が記載される。
 第2の実施の形態におけるApp_idは、当該トリガ情報に対応して取得するデータ放送用アプリの識別情報であるとともにその取得先(いまの場合、サーバ42)のURLも示している。換言すれば、データ放送用アプリの取得先がその識別情報にも流用されてApp_idとされている。したがって、レジスタコマンドとしてのトリガ情報には、図20に示されたプリキャッシュコマンドとしてのトリガ情報に存在していたApp_urlの項目が省かれている。ただし、App_urlをレジスタコマンドとしてのトリガ情報に含めるようにしても構わない。
 Persistent_priorityは、対応するデータ放送用アプリを取得、保持するときの優先度を示している。いまの場合、Persistent_priorityに対して2ビットが割り当てられているので、4段階の優先度を付与することができる。対応するデータ放送用アプリを取得、保持するときに記録部71にそれを保持するだけの記録容量が残っていない場合、対応するデータ放送用アプリよりも優先度の低いものを記録部71から消去して記録容量を確保するようにする。対応するデータ放送用アプリよりも優先度の低いものが記録部71に保持されていない場合、対応するデータ放送用アプリは取得されない。ただし、可能であれば、取得してキャッシュメモリ73に一時的に保持するようにしてもよい。
 Expire_dateは、記録部71に保持した対応するデータ放送用アプリの保持期限を示す。保持期限が経過した場合、対応するデータ放送用アプリは記録部71から消去される。
 図33は、第2の実施の形態における、エクスキュート(Execute)コマンドとしてのトリガ情報に含まれる項目を示している。エクスキュートコマンドは、受信装置60に対して、データ放送用アプリの起動を指示するためのコマンドである。
 エクスキュートコマンドとしてのトリガ情報に含まれる項目は、図32に示されたレジスタコマンドとしてのトリガ情報に含まれる項目と同様である。ただし、Command_codeには、エクスキュートコマンドであることを示す情報が記載される。
 図34は、第2の実施の形態における、インジェクトイベント(Inject_event)コマンドとしてのトリガ情報に含まれる項目を示している。エクスキュートコマンドは、受信装置60に対して、データ放送用アプリの起動を指示するためのコマンドである。
 第2の実施の形態における、インジェクトイベントコマンドとしてのトリガ情報に含まれる項目は、図22に示された第1の実施の形態におけるそれと同様である。ただし、App_idに割り当てられているビット数が異なる。
 図35は、第2の実施の形態における、サスペンド(Suspend)コマンドとしてのトリガ情報に含まれる項目を示している。サスペンドコマンドは、受信装置60に対して、実行中のデータ放送用アプリを休止させるためのコマンドである。
 第2の実施の形態における、サスペンドコマンドとしてのトリガ情報に含まれる項目は、図23に示された第1の実施の形態におけるそれと同様である。ただし、App_idに割り当てられているビット数と、App_typeが省略されている点が異なる。
 図36は、第2の実施の形態における、ターミネート(Terminate)コマンドとしてのトリガ情報に含まれる項目を示している。ターミネートコマンドは、受信装置60に対して、実行中のデータ放送用アプリを休止させるためのコマンドである。
 第2の実施の形態における、ターミネートコマンドとしてのトリガ情報に含まれる項目は、図24に示された第1の実施の形態におけるそれと同様である。ただし、App_idに割り当てられているビット数と、App_typeが省略されている点が異なる。
 図37は、上述した各コマンドの第2の実施の形態としてのトリガ情報に対応可能なトリガ情報のシンタックスの一例を示している。なお、トリガ情報のシンタックスは任意であって、図37の例に限定されるものではない。
[アプリケーション登録管理処理の説明]
 第2の実施の形態における受信装置60によるトリガ対応処理は、上述した第1の実施の形態におけるトリガ対応処理と略同様である。相違点は、第1の実施の形態におけるトリガ対応処理では、プリキャッシュコマンドとしてのトリガ情報を受信したことに応じてデータ放送用アプリを取得、記憶する(図28のステップS5)が、第2の実施の形態では、レジスタコマンドとしてのトリガ情報を受信したことに応じてアプリケーション登録管理処理を実行する。すなわち、アプリケーション登録管理処理は、図28のステップS5の代わりに実行されるものである。
 図38は、このアプリケーション登録管理処理を説明するフローチャートである。アプリケーション登録管理処理は、受信したトリガ情報がレジスタコマンドであると判断された場合に開始される。
 ステップS31において、制御部68は、トリガ情報で指定されているデータ放送用アプリを保持するための記録容量が記録部71に残っているか否かを判定し、残っていると判定した場合、処理はステップS34に進められる。反対に、残っていないと判定された場合、処理はステップS32に進められる。
 ステップS32において、制御部68は、記録部71に保持されている(すなわち、既に登録済みの)データ放送用アプリのうち、その優先度がトリガ情報で指定されているデータ放送用アプリの優先度よりも低いものを記録部71から消去させる。ステップS33において、制御部68は、トリガ情報で指定されているデータ放送用アプリを保持するための記録容量が記録部71に確保できたか否かを判定し、確保できたと判定した場合、処理をステップS34に進める。反対に、確保できなかったと判定された場合、対応するデータ放送用アプリは取得されずにアプリケーション登録管理処理は終了される。
 ステップS34において、制御部68は、トリガ情報のApp_idが示すデータ放送用アプリの取得先からデータ放送用アプリを取得させて記録部71に保持させる。ステップS35において、制御部68は、取得、保持させたデータ放送用アプリを登録する(データ放送用アプリに、その優先度と保持期限を対応付けて管理する)。以上で、アプリケーション登録管理処理は終了される。
 なお、登録されたデータ放送用アプリについては、その保持期限が経過したときに記録部71から消去される。これにより、当該データ放送用アプリの登録は抹消される。
[データ放送用アプリの第2の状態遷移について]
 図39は、第2の実施の形態における5種類のコマンドである、レジスタ、エクスキュート、インジェクトイベント、サスペンド、およびターミネートの各コマンドとしてのトリガ情報に応じて受信装置60にて動作するデータ放送用アプリの状態遷移図である。同図に示すように、データ放送用アプリの状態は、解放状態(Released)、準備状態(Ready)、実行中状態(Active)、または休止状態(Suspended)の4種類のうちのいずれかに遷移していると定義される。
 解放状態は、データ放送用アプリが受信装置60に未取得である状態を指す。準備状態は、そのデータ放送用アプリが受信装置60に登録済みであって起動されていない状態を指す。実行中状態は、データ放送用アプリが起動されて実行中である状態を指す。休止状態は、データ放送用アプリの実行が中断され、その中断したときの状態を示す情報が退避メモリ75Bに保持されている状態を指す。
 図40は、各コマンドと状態遷移の関係を示している。
 データ放送用アプリが解放状態に遷移しているとき(受信装置60に未取得のとき)、レジスタコマンドのトリガ情報に応じて、そのデータ放送用アプリが取得、保持され、登録されると準備状態に遷移する。
 データ放送用アプリが準備状態であるとき、エクスキュートコマンドのトリガ情報に応じて、そのデータ放送用アプリが起動されると実行中状態に遷移する。
 また、データ放送用アプリが解放状態に遷移しているとき(受信装置60に未取得のとき)、エクスキュートコマンドのトリガ情報に応じて、そのデータ放送用アプリが取得、登録され、起動されると実行中状態に遷移する。
 データ放送用アプリが実行中状態に遷移しているとき、サスペンドコマンドのトリガ情報に応じて、実行中のデータ放送用アプリが中断されると休止状態に遷移する。
 また、データ放送用アプリが実行中状態に遷移しているとき、ターミネートコマンドのトリガ情報に応じて、実行中のデータ放送用アプリが終了されると準備状態に遷移する。なお、映像の切替がApp_life_scopeを外れた場合、または他のデータ放送用アプリが起動された場合にも準備状態に遷移する。
 データ放送用アプリが休止状態に遷移しているとき、エクスキュートコマンドのトリガ情報に応じて、中断されていたデータ放送用アプリが再開されると、実行中状態に遷移する。
 また、データ放送用アプリが休止状態に遷移しているとき、ターミネートコマンドのトリガ情報に応じて、データ放送用アプリは準備状態に遷移する。
 データ放送用アプリが準備状態、実行中状態、または休止状態に遷移しているとき、当該データ放送用アプリの保持期限が経過すると、当該データ放送用アプリが記録部71から消去され、登録が抹消されて解放状態に遷移する。
[データ放送用アプリのライフサイクル]
 第1の実施の形態の場合、1度起動されたデータ放送用アプリが終了されると記録部71から消去されていた。これに対して、第2の実施の形態の場合、登録されたデータ放送用アプリは起動、終了されても、保持期限が経過するまで消去されない。したがって、登録されたデータ放送用アプリは、図41に示されるような、複数回に亘って起動、終了されるような運用が可能となる。ただし、優先度が低いデータ放送用アプリについては、記録部71の容量が不足したときに保持期限に関係なく消去されることがある。
 図41は、第2の実施の形態にて可能なデータ放送用アプリの3種類のライフサイクルを示している。
 同図のAは、1回だけ起動、終了されるデータ放送用アプリのライフサークルを示している。このデータ放送用アプリは、エクスキュートコマンドに応じて登録、起動され、ターミネートコマンドに応じて終了され、準備状態に遷移する。その後、保持期限が経過すると記録部71から消去される。
 同図のBは、登録され、複数回起動、終了されるデータ放送用アプリのライフサークルを示している。このデータ放送用アプリは、レジスタコマンドに応じて取得、保持されて登録され、エクスキュートコマンドに応じて起動され、ターミネートコマンドに応じて終了され、準備状態に遷移する。この後、再びエクスキュートコマンドに応じて起動され、ターミネートコマンドに応じて終了され、準備状態に遷移する。その後、保持期限が経過すると記録部71から消去される。
 同図のCは、休止状態に遷移されるデータ放送用アプリのライフサークルを示している。このデータ放送用アプリは、レジスタコマンドに応じて取得、保持されて登録され、エクスキュートコマンドに応じて起動され、サスペンドコマンドに応じて休止状態に遷移する。その後、エクスキュートコマンドに応じて再開され、ターミネートコマンドに応じて終了され、準備状態に遷移する。その後、保持期限が経過すると記録部71から消去される。
[複数のデータ放送用アプリの運用]
 以上においては、データ放送用アプリがエクスキュートコマンドとしてのトリガ情報に応じて起動される場合のみを説明したが、エクスキュートコマンドとしてのトリガ情報を用いることなくデータ放送用アプリを起動させることが可能である。具体的には、図42に示されるように、エクスキュートコマンドに応じて起動されるデータ放送用アプリApp0の内部に、他のデータ放送用アプリApp1,App2などを起動させるための関数を記述しておけばよい。これにより、データ放送用アプリApp0の進行状況やデータ放送用アプリApp0に対するユーザの操作などに応じて、データ放送用アプリApp1などを起動させることができる。
 図43は、3つのデータ放送用アプリapp0,app1,app2を連携して起動させる運用の例を示している。
 初めに、データ放送用アプリapp0に対するエクスキュートコマンドとしてのトリガ情報、データ放送用アプリapp1に対するレジスタコマンドとしてのトリガ情報、およびデータ放送用アプリapp2に対するレジスタコマンドとしてのトリガ情報が放送される。これらを受信した受信装置60では、データ放送用アプリapp0が取得、登録されて起動される。実行されたデータ放送用アプリapp0の画面には、データ放送用アプリapp1,app2にそれぞれ対応するアイコンが表示される。これと同時に、データ放送用アプリapp1,app2が取得、登録される。
 ユーザがデータ放送用アプリapp0の画面に表示されたデータ放送用アプリapp1に対応するアイコンを選択した場合、実行中のデータ放送用アプリapp0が終了されるとともに、データ放送用アプリapp1が起動される。この後は、実行中のデータ放送用アプリapp1に対するインジェクトイベントコマンド、サスペンドコマンド、エクスキュートコマンド、ターミネートコマンドにそれぞれ対応して、データ放送用アプリapp1のイベント発火、休止、再開、終了が行われる。
 ユーザがデータ放送用アプリapp0の画面に表示されたデータ放送用アプリapp2に対応するアイコンを選択した場合、実行中のデータ放送用アプリapp0が終了されるとともに、データ放送用アプリapp2が起動される。この後は、実行中のデータ放送用アプリapp2に対するインジェクトイベントコマンド、ターミネートコマンドにそれぞれ対応して、データ放送用アプリapp2のイベント発火、終了が行われる。
 上記運用によれば、エクスキュートコマンドとしてのトリガ情報を用いることなく複数のデータ放送用アプリを連携させて起動させることが可能である。
 以上に説明したように、第1および第2の実施の形態のいずれにおいても、番組、CMなどのAVコンテンツに連動させてデータ放送用アプリに関する処理を実行させることができる。
 さらに、デジタルテレビジョン番組がCATV網や衛星通信網などを介して再送信される場合においても、テレビジョン番組に連動し得るデータ放送用コンテンツのサービスを実現することができる。
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図44は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 このコンピュータ100において、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
 バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
 以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
 また、プログラムは、1台のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
 また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
 なお、本開示における実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 30 放送システム, 41 放送装置, 51 制御部, 52 ビデオエンコーダ, 53 オーディオエンコーダ, 54 多重化部, 55 送出部, 42 サーバ, 59 再生装置, 60 受信装置, 61 チューナ, 62 多重分離部, 63 オーディオデコーダ, 64 音声出力部, 65 ビデオデコーダ, 66 トリガ検出部, 67 映像出力部, 68 制御部, 69 メモリ, 70 操作部, 71 記録部, 72 通信I/F, 73 キャッシュメモリ, 74 アプリエンジン, 75 メモリ, 75A ワークメモリ, 75B 退避メモリ

Claims (16)

  1.  受信装置においてコンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを生成する音声符号化部と、
     生成された前記符号化オーディオストリームを、前記受信装置に送信する送信部と
     を備える送信装置。
  2.  前記トリガ情報を格納したメタデータとともに、前記メタデータを前記符号化オーディオストリームのユーザデータ領域に埋め込むためのサイズ情報を供給して、前記ユーザデータ領域に前記メタデータの埋め込みが行われるように制御する制御部をさらに備える
     請求項1に記載の送信装置。
  3.  前記音声符号化部は、オーディオストリームをAC3(Audio Code number 3)方式により符号化して、前記符号化オーディオストリームを生成し、
     前記メタデータは、前記AC3方式のフレーム構造におけるAUX(AUXILIARY DATA)の領域に挿入される
     請求項2に記載の送信装置。
  4.  前記音声符号化部は、オーディオストリームをAAC(Advanced Audio Coding)方式により符号化して、前記符号化オーディオストリームを生成し、
     前記メタデータは、前記AAC方式のフレーム構造におけるDSE(Data Stream Element)の領域に挿入される
     請求項2に記載の送信装置。
  5.  ビデオストリームを符号化して、符号化ビデオストリームを生成する映像符号化部と、
     前記符号化オーディオストリームと前記符号化ビデオストリームを多重化して、多重化ストリームを生成する多重化部と
     をさらに備え、
     前記送信部は、生成された前記多重化ストリームを送信する
     請求項1に記載の送信装置。
  6.  前記メタデータには、情報のタイプを示すタイプ情報が付加されている
     請求項1に記載の送信装置。
  7.  前記メタデータには、情報識別子で区別された複数種類の情報が含まれる
     請求項1に記載の送信装置。
  8.  コンテンツを送信する送信装置の送信方法において、
     受信装置においてコンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを生成し、
     生成された前記符号化オーディオストリームを、前記受信装置に送信する
     ステップを含む送信方法。
  9.  コンテンツを送信する送信装置の制御用のプログラムであって、
     受信装置においてコンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを生成し、
     生成された前記符号化オーディオストリームを、前記受信装置に送信する
     ステップを含む処理を送信装置のコンピュータに実行させるプログラム。
  10.  送信装置から送信される、コンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを受信する受信部と、
     受信された前記符号化オーディオストリームを復号する音声復号部と、
     前記符号化オーディオストリームを復号して得られるトリガ情報に応じて、前記コンテンツに連動して実行させるアプリケーションプログラムに関する処理を制御する制御部と
     を備える受信装置。
  11.  前記音声復号部は、AC3方式により符号化された符号化オーディオストリームのフレーム構造におけるAUXの領域から、メタデータに格納された前記トリガ情報を取得する
     請求項10に記載の受信装置。
  12.  前記音声復号部は、AAC方式により符号化された符号化オーディオストリームのフレーム構造におけるDSEの領域から、メタデータに格納された前記トリガ情報を取得する
     請求項10に記載の受信装置。
  13.  受信された多重化ストリームを多重分離する多重分離部と、
     前記多重化ストリームから分離された符号化ビデオストリームを復号する映像復号部と
     をさらに備え、
     前記音声復号部は、前記多重化ストリームから分離された符号化オーディオストリームを復号する
     請求項10に記載の受信装置。
  14.  コンテンツを受信する受信装置の受信方法において、
     送信装置から送信される、コンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを受信し、
     受信された前記符号化オーディオストリームを復号し、
     前記符号化オーディオストリームを復号して得られるトリガ情報に応じて、前記コンテンツに連動して実行させるアプリケーションプログラムに関する処理を制御する
     ステップを含む受信方法。
  15.  コンテンツを受信する受信装置の制御用のプログラムであって、
     送信装置から送信される、コンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを受信し、
     受信された前記符号化オーディオストリームを復号し、
     前記符号化オーディオストリームを復号して得られるトリガ情報に応じて、前記コンテンツに連動して実行させるアプリケーションプログラムに関する処理を制御する
     ステップを含む処理を受信装置のコンピュータに実行させるプログラム。
  16.  コンテンツを送信する送信装置と、送信されたコンテンツを受信する受信装置からなる放送システムにおいて、
     前記送信装置は、
      前記受信装置においてコンテンツに連動して実行させるためのアプリケーションプログラムの制御に関するトリガ情報が埋め込まれた符号化オーディオストリームを生成する音声符号化部と、
      生成された前記符号化オーディオストリームを、前記受信装置に送信する送信部と
     を備え、
     前記受信装置は、
      前記送信装置から送信される、前記符号化オーディオストリームを受信する受信部と、
      受信された前記符号化オーディオストリームを復号する音声復号部と、
      前記符号化オーディオストリームを復号して得られるトリガ情報に応じて、前記コンテンツに連動して実行させるアプリケーションプログラムに関する処理を制御する制御部と
     を備える
     放送システム。
PCT/JP2012/057227 2011-03-31 2012-03-21 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム WO2012133064A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201280014521.1A CN103430560B (zh) 2011-03-31 2012-03-21 发送装置、发送方法、接收装置、接收方法、程序和广播系统
KR1020137024447A KR101898304B1 (ko) 2011-03-31 2012-03-21 송신 장치, 송신 방법, 수신 장치, 수신 방법, 프로그램 및 방송 시스템
EP12763323.8A EP2693748A4 (en) 2011-03-31 2012-03-21 TRANSMISSION DEVICE, TRANSMISSION METHOD, RECEIVING DEVICE, RECEIVING METHOD, PROGRAM, AND BROADCAST SYSTEM
MX2013010880A MX2013010880A (es) 2011-03-31 2012-03-21 Dispositivo de transmision, metodo de transmision, dispositivo de recepcion, metodo de recepcion, programa, y sistema de radiodifusion.
JP2013507437A JPWO2012133064A1 (ja) 2011-03-31 2012-03-21 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
CA2828945A CA2828945C (en) 2011-03-31 2012-03-21 Transmitting device, transmitting method, receiving device, receiving method, program, and broadcasting system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161470191P 2011-03-31 2011-03-31
US61/470,191 2011-03-31

Publications (1)

Publication Number Publication Date
WO2012133064A1 true WO2012133064A1 (ja) 2012-10-04

Family

ID=46928429

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/057227 WO2012133064A1 (ja) 2011-03-31 2012-03-21 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム

Country Status (9)

Country Link
US (1) US10009131B2 (ja)
EP (1) EP2693748A4 (ja)
JP (1) JPWO2012133064A1 (ja)
KR (1) KR101898304B1 (ja)
CN (1) CN103430560B (ja)
CA (1) CA2828945C (ja)
MX (1) MX2013010880A (ja)
TW (1) TWI574565B (ja)
WO (1) WO2012133064A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016190091A1 (ja) * 2015-05-28 2018-03-15 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2020074594A (ja) * 2020-01-23 2020-05-14 マクセル株式会社 デジタル放送受信装置、アプリケーション動作の制御方法
JP2021005872A (ja) * 2020-08-20 2021-01-14 マクセル株式会社 放送受信装置及び表示方法
JP2022141686A (ja) * 2014-09-12 2022-09-29 ソニーグループ株式会社 受信装置および受信方法
US11516527B2 (en) 2013-11-13 2022-11-29 Maxell, Ltd. Broadcast receiver and broadcast receiving system

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8705933B2 (en) 2009-09-25 2014-04-22 Sony Corporation Video bookmarking
US8941779B2 (en) 2012-03-21 2015-01-27 Sony Corporation Non-closed caption data transport in standard caption service
US8760498B2 (en) 2011-03-14 2014-06-24 Sony Corporation Disparity data transport in standard caption service
US8878913B2 (en) 2010-03-12 2014-11-04 Sony Corporation Extended command stream for closed caption disparity
US8839338B2 (en) 2012-03-28 2014-09-16 Sony Corporation Service usage reporting data transport
US9723360B2 (en) 2010-04-01 2017-08-01 Saturn Licensing Llc Interests and demographics profile for advanced broadcast services
US20110247028A1 (en) 2010-04-01 2011-10-06 Mark Eyer Receiver and System Using an Electronic Questionnaire for Advanced Broadcast Services
US8863171B2 (en) 2010-06-14 2014-10-14 Sony Corporation Announcement of program synchronized triggered declarative objects
US8893210B2 (en) 2010-08-20 2014-11-18 Sony Corporation Server load balancing for interactive television
US8898723B2 (en) 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
US8909694B2 (en) 2010-08-27 2014-12-09 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US8875169B2 (en) 2010-08-27 2014-10-28 Sony Corporation Transmission and reception apparatus, methods, and systems for filtering content
US9179188B2 (en) 2010-08-30 2015-11-03 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US20120050619A1 (en) * 2010-08-30 2012-03-01 Sony Corporation Reception apparatus, reception method, transmission apparatus, transmission method, program, and broadcasting system
US8595783B2 (en) 2010-08-30 2013-11-26 Sony Corporation Receiving device, receiving method, program, and broadcasting system
US8892636B2 (en) 2010-08-30 2014-11-18 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US8918801B2 (en) 2010-08-30 2014-12-23 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, program, and broadcasting system
US9179198B2 (en) 2010-10-01 2015-11-03 Sony Corporation Receiving apparatus, receiving method, and program
US8908103B2 (en) 2010-10-01 2014-12-09 Sony Corporation Content supplying apparatus, content supplying method, content reproduction apparatus, content reproduction method, program and content viewing system
US9078031B2 (en) 2010-10-01 2015-07-07 Sony Corporation Reception apparatus, reception method, and program
US8872888B2 (en) 2010-10-01 2014-10-28 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system
MX2013003406A (es) 2010-10-01 2013-05-09 Sony Corp Dispositivo de procesamiento de la informacion, metodo de procesamiento de la informacion y programa.
US8978083B2 (en) * 2011-01-19 2015-03-10 Lg Electronics Inc. Method for transmitting a broadcast service, method for receiving a broadcast service, and apparatus for receiving a broadcast service
JP5783402B2 (ja) 2011-01-25 2015-09-24 ソニー株式会社 受信装置、受信方法、供給装置、供給方法、プログラム、および放送システム
JP5668512B2 (ja) 2011-02-15 2015-02-12 ソニー株式会社 情報処理装置、及び、情報処理方法
TWI545955B (zh) 2011-04-28 2016-08-11 Sony Corp Signal receiving apparatus and method, a signal transmission apparatus and method, and program
KR101857416B1 (ko) * 2011-06-13 2018-05-16 한국전자통신연구원 오버헤드를 최소화한 헤더를 가지는 패킷 기반의 미디어 데이터 전송 방법
US9554175B2 (en) 2011-07-20 2017-01-24 Sony Corporation Method, computer program, reception apparatus, and information providing apparatus for trigger compaction
US8917358B2 (en) 2011-07-27 2014-12-23 Sony Corporation Reception apparatus, terminal apparatus, control method, program, and communication system
EP2741497A4 (en) 2011-08-05 2015-03-11 Sony Corp RECEIVING DEVICE, RECEIVING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM
TWI528749B (zh) 2011-09-06 2016-04-01 Sony Corp A signal receiving device, a signal receiving method, an information processing program and an information processing system
US9319721B2 (en) 2011-10-13 2016-04-19 Electronics And Telecommunications Research Institute Method of configuring and transmitting an MMT transport packet
US9374620B2 (en) 2011-10-21 2016-06-21 Sony Corporation Terminal apparatus, server apparatus, information processing method, program, and interlocked application feed system
US9015785B2 (en) 2011-11-29 2015-04-21 Sony Corporation Terminal apparatus, server apparatus, information processing method, program, and linking application supply system
US9113230B2 (en) 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
US8930988B2 (en) 2011-12-21 2015-01-06 Sony Corporation Reception apparatus, reception method, program, and information processing system
CA2859008C (en) 2012-01-24 2022-04-26 Sony Corporation Receiver, reception method, program and information processing system
CN104081759B (zh) 2012-02-07 2018-01-16 索尼公司 接收设备和接收方法
US9936231B2 (en) 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
KR101336161B1 (ko) * 2012-03-30 2013-12-03 애니포인트 미디어 그룹 방송 연동형 서비스 제공 방법
KR102267861B1 (ko) 2012-06-19 2021-06-23 소니그룹주식회사 대화형 텔레비전을 위한 트리거 파라미터 테이블의 확장
US9456245B2 (en) 2012-07-05 2016-09-27 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method for controlling applications
MX337934B (es) 2012-07-12 2016-03-28 Sony Corp Descriptor de servicio parametrizado para servicios de television avanzados.
US9154840B2 (en) 2012-07-31 2015-10-06 Sony Corporation Reception apparatus, reception method, transmission apparatus, and transmission method
US9432744B2 (en) 2012-07-31 2016-08-30 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method
US9883247B2 (en) 2012-08-13 2018-01-30 Saturn Licensing Llc Reception apparatus, reception method, transmission apparatus, and transmission method
US9264648B2 (en) 2012-10-09 2016-02-16 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method
US10002206B2 (en) 2012-10-26 2018-06-19 Saturn Licensing Llc Information processing device and information processing method
US9253518B2 (en) 2012-11-09 2016-02-02 Sony Corporation On-demand access to scheduled content
US9769503B2 (en) 2012-11-14 2017-09-19 Saturn Licensing Llc Information processor, information processing method and program
US9936256B2 (en) 2012-11-28 2018-04-03 Saturn Licensing Llc Receiver, reception method, transmitter and transmission method
TWI493352B (zh) * 2012-11-30 2015-07-21 Acer Inc 採用閃電介面之連接系統、連接裝置及其連接方法
US9148676B2 (en) 2012-12-04 2015-09-29 Sony Corporation Broadcast transition channel
US8914832B2 (en) 2012-12-14 2014-12-16 Sony Corporation Information processing apparatus, information processing method, and program
US10257564B2 (en) 2013-01-24 2019-04-09 Saturn Licensing Llc Distributed non-real-time content
US9942601B2 (en) 2013-01-24 2018-04-10 Saturn Licensing Llc Storing non-real time content
US9300896B2 (en) 2013-06-03 2016-03-29 Sony Corporation Method, computer-readable storage medium, reception apparatus, and information providing apparatus for identifying available channels and/or services
US9137566B2 (en) 2013-06-28 2015-09-15 Sony Corporation Distribution system, reception apparatus, and methods for transitioning to new services
US9980014B2 (en) 2013-06-28 2018-05-22 Saturn Licensing Llc Methods, information providing system, and reception apparatus for protecting content
US9038095B2 (en) 2013-07-03 2015-05-19 Sony Corporation Methods, information providing system, and reception apparatus for distribution of at least one content version
US8884800B1 (en) 2013-07-31 2014-11-11 Sony Corporation Method and apparatus for performing analog-to-digital conversion on multiple input signals
WO2016009944A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US9326295B1 (en) 2014-12-10 2016-04-26 Sony Corporation Method and apparatus for transmitting a-priori information in a communication system
US20160204804A1 (en) 2015-01-13 2016-07-14 Sony Corporation Data processing apparatus and method
US9762354B2 (en) 2015-01-27 2017-09-12 Sony Corporation Signaling methods and apparatus
US9912986B2 (en) 2015-03-19 2018-03-06 Sony Corporation System for distributing metadata embedded in video
US9756401B2 (en) 2015-04-07 2017-09-05 Sony Corporation Processing and providing an image in which a plurality of symbols are encoded
EP3282709A4 (en) * 2015-04-07 2018-11-21 Sony Corporation Transmitting device, transmitting method, receiving device and receiving method
US11223857B2 (en) 2015-06-02 2022-01-11 Sony Corporation Transmission device, transmission method, media processing device, media processing method, and reception device
US9590782B2 (en) 2015-06-22 2017-03-07 Sony Corporation Signaling methods and apparatus
US10205991B2 (en) 2015-07-27 2019-02-12 Sony Corporation Hidden replaceable media slots
US10516497B2 (en) * 2015-10-05 2019-12-24 Sony Corporation Reception apparatus, transmission apparatus, and data processing method
US10235698B2 (en) 2017-02-28 2019-03-19 At&T Intellectual Property I, L.P. Sound code recognition for broadcast media
US11018754B2 (en) * 2018-08-07 2021-05-25 Appareo Systems, Llc RF communications system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005176107A (ja) * 2003-12-12 2005-06-30 Canon Inc デジタル放送受信装置およびその制御方法、デジタル放送送信装置、ならびにデジタル放送受信システム
JP2008536193A (ja) * 2005-04-13 2008-09-04 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 音声メタデータ確認
JP2010166335A (ja) * 2009-01-15 2010-07-29 Nippon Hoso Kyokai <Nhk> 放送型アプリケーションの起動システム
JP2011061549A (ja) 2009-09-10 2011-03-24 Panasonic Corp 携帯端末

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5438423C1 (en) * 1993-06-25 2002-08-27 Grass Valley Us Inc Time warping for video viewing
JPH07130150A (ja) * 1993-10-29 1995-05-19 Ricoh Co Ltd 情報機器
US6008802A (en) * 1998-01-05 1999-12-28 Intel Corporation Method and apparatus for automatically performing a function based on the reception of information corresponding to broadcast data
EP1193899B1 (en) * 1999-07-14 2008-12-31 Panasonic Corporation Apparatus for providing information, information receiver and storage medium
AU7706500A (en) 1999-09-20 2001-04-24 Tivo, Inc. Closed caption tagging system
CN100459682C (zh) 1999-09-20 2009-02-04 提维股份有限公司 经由电视广播数据流的广告排定电视节目录制时程的装置和方法
GB2359918A (en) * 2000-03-01 2001-09-05 Sony Uk Ltd Audio and/or video generation apparatus having a metadata generator
EP1487214A1 (en) * 2003-06-11 2004-12-15 Digital Multimedia Technologies S.P.A. A method and a system for synchronizing MHP applications in a data packet stream
US7231271B2 (en) * 2004-01-21 2007-06-12 The United States Of America As Represented By The Secretary Of The Air Force Steganographic method for covert audio communications
AU2005215010A1 (en) 2004-02-18 2005-09-01 Nielsen Media Research, Inc. Et Al. Methods and apparatus to determine audience viewing of video-on-demand programs
JP4655534B2 (ja) 2004-08-04 2011-03-23 ソニー株式会社 端末装置およびデータ処理方法、プログラム並びに記録媒体
US8146128B2 (en) 2005-01-26 2012-03-27 Panasonic Corporation Download execution apparatus
KR20070057558A (ko) 2005-12-02 2007-06-07 삼성전자주식회사 디지털신호 수신장치 및 디지털신호 송신장치와 이 장치들을 사용하는 방법
KR20090081198A (ko) 2008-01-23 2009-07-28 삼성전자주식회사 디지털 멀티미디어 방송 서비스 장치 및 그 방법
JP5590368B2 (ja) 2009-05-13 2014-09-17 ソニー株式会社 送信装置および送信方法、受信装置および受信方法、並びにプログラム
JP2010268092A (ja) 2009-05-13 2010-11-25 Sony Corp 送信装置および送信方法、受信装置および受信方法、並びにプログラム
US8705933B2 (en) 2009-09-25 2014-04-22 Sony Corporation Video bookmarking
US9277183B2 (en) 2009-10-13 2016-03-01 Sony Corporation System and method for distributing auxiliary data embedded in video data
US9706158B2 (en) 2010-04-01 2017-07-11 Saturn Licensing Llc Receiver and method for reporting the usage of advanced television services
US20110247028A1 (en) 2010-04-01 2011-10-06 Mark Eyer Receiver and System Using an Electronic Questionnaire for Advanced Broadcast Services
US9723360B2 (en) 2010-04-01 2017-08-01 Saturn Licensing Llc Interests and demographics profile for advanced broadcast services
US20110298981A1 (en) 2010-06-07 2011-12-08 Mark Kenneth Eyer Scripted Access to Hidden Multimedia Assets
US8863171B2 (en) 2010-06-14 2014-10-14 Sony Corporation Announcement of program synchronized triggered declarative objects
US8290987B2 (en) * 2010-07-12 2012-10-16 International Business Machines Corporation Processing of splits of control areas and control intervals
US8898723B2 (en) 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
US8893210B2 (en) 2010-08-20 2014-11-18 Sony Corporation Server load balancing for interactive television
US8875169B2 (en) 2010-08-27 2014-10-28 Sony Corporation Transmission and reception apparatus, methods, and systems for filtering content
US8909694B2 (en) 2010-08-27 2014-12-09 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
JP5765558B2 (ja) 2010-08-27 2015-08-19 ソニー株式会社 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム
MX2013002076A (es) 2010-08-30 2013-10-28 Sony Corp Dispositivo de recepcion metodo de recepcion, y programa.
US8595783B2 (en) 2010-08-30 2013-11-26 Sony Corporation Receiving device, receiving method, program, and broadcasting system
US9179188B2 (en) 2010-08-30 2015-11-03 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US8918801B2 (en) 2010-08-30 2014-12-23 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, program, and broadcasting system
US20120050619A1 (en) 2010-08-30 2012-03-01 Sony Corporation Reception apparatus, reception method, transmission apparatus, transmission method, program, and broadcasting system
US8892636B2 (en) 2010-08-30 2014-11-18 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US10511887B2 (en) 2010-08-30 2019-12-17 Saturn Licensing Llc Reception apparatus, reception method, transmission apparatus, transmission method, program, and broadcasting system
JP5757075B2 (ja) 2010-09-15 2015-07-29 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
JP5703664B2 (ja) 2010-09-30 2015-04-22 ソニー株式会社 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005176107A (ja) * 2003-12-12 2005-06-30 Canon Inc デジタル放送受信装置およびその制御方法、デジタル放送送信装置、ならびにデジタル放送受信システム
JP2008536193A (ja) * 2005-04-13 2008-09-04 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 音声メタデータ確認
JP2010166335A (ja) * 2009-01-15 2010-07-29 Nippon Hoso Kyokai <Nhk> 放送型アプリケーションの起動システム
JP2011061549A (ja) 2009-09-10 2011-03-24 Panasonic Corp 携帯端末

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2693748A4 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11516527B2 (en) 2013-11-13 2022-11-29 Maxell, Ltd. Broadcast receiver and broadcast receiving system
JP2022141686A (ja) * 2014-09-12 2022-09-29 ソニーグループ株式会社 受信装置および受信方法
JP7468575B2 (ja) 2014-09-12 2024-04-16 ソニーグループ株式会社 受信装置および受信方法
JPWO2016190091A1 (ja) * 2015-05-28 2018-03-15 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10862941B2 (en) 2015-05-28 2020-12-08 Sony Corporation Transmission apparatus, transmission method, reception apparatus, and reception method
JP2020074594A (ja) * 2020-01-23 2020-05-14 マクセル株式会社 デジタル放送受信装置、アプリケーション動作の制御方法
JP2021005872A (ja) * 2020-08-20 2021-01-14 マクセル株式会社 放送受信装置及び表示方法
JP7117069B2 (ja) 2020-08-20 2022-08-12 マクセル株式会社 放送受信装置及び表示方法

Also Published As

Publication number Publication date
KR20140007907A (ko) 2014-01-20
US10009131B2 (en) 2018-06-26
CN103430560A (zh) 2013-12-04
CN103430560B (zh) 2018-10-02
EP2693748A1 (en) 2014-02-05
CA2828945A1 (en) 2012-10-04
EP2693748A4 (en) 2014-09-17
MX2013010880A (es) 2013-10-17
TWI574565B (zh) 2017-03-11
KR101898304B1 (ko) 2018-10-04
JPWO2012133064A1 (ja) 2014-07-28
CA2828945C (en) 2021-05-25
US20120253826A1 (en) 2012-10-04
TW201246930A (en) 2012-11-16

Similar Documents

Publication Publication Date Title
WO2012133064A1 (ja) 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
JP5757075B2 (ja) 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
JP5765558B2 (ja) 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム
JP5916614B2 (ja) 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム
CA2809309C (en) Receiver, reception method and program
JP6463886B2 (ja) 受信装置及び方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12763323

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013507437

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2828945

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 20137024447

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2013/010880

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE