WO2016017451A1 - 受信装置、受信方法、送信装置、及び、送信方法 - Google Patents

受信装置、受信方法、送信装置、及び、送信方法 Download PDF

Info

Publication number
WO2016017451A1
WO2016017451A1 PCT/JP2015/070498 JP2015070498W WO2016017451A1 WO 2016017451 A1 WO2016017451 A1 WO 2016017451A1 JP 2015070498 W JP2015070498 W JP 2015070498W WO 2016017451 A1 WO2016017451 A1 WO 2016017451A1
Authority
WO
WIPO (PCT)
Prior art keywords
application
information
control information
trigger
unit
Prior art date
Application number
PCT/JP2015/070498
Other languages
English (en)
French (fr)
Inventor
北里 直久
義治 出葉
淳 北原
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to KR1020167007523A priority Critical patent/KR102459246B1/ko
Priority to CN201580002007.XA priority patent/CN105594220B/zh
Priority to EP15828221.0A priority patent/EP3177026B1/en
Priority to MX2016003752A priority patent/MX369424B/es
Priority to JP2016510532A priority patent/JPWO2016017451A1/ja
Priority to CA2924036A priority patent/CA2924036C/en
Priority to US14/916,507 priority patent/US11528539B2/en
Publication of WO2016017451A1 publication Critical patent/WO2016017451A1/ja
Priority to US17/983,101 priority patent/US11889163B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/93Arrangements characterised by the broadcast information itself which locates resources of other pieces of information, e.g. URL [Uniform Resource Locator]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/13Arrangements for device control affected by the broadcast information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2183Cache memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/237Communication with additional data server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6543Transmission by server directed to the client for forcing some client operations, e.g. recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/40Aspects of broadcast communication characterised in that additional data relating to the broadcast data are available via a different channel than the broadcast channel

Definitions

  • the present technology relates to a reception device, a reception method, a transmission device, and a transmission method, and in particular, a reception device, a reception method, and a reception device that can reliably operate an application executed in conjunction with AV content.
  • the present invention relates to a transmission device and a transmission method.
  • An operation of redistributing AV (Audio Video) content such as a program broadcast by terrestrial broadcasting by cable TV (CATV: Cable Television) or satellite broadcasting is performed (for example, see Patent Document 1).
  • AV Audio Video
  • CATV Cable Television
  • This technology has been made in view of such a situation, and is intended to ensure that an application executed in conjunction with AV content can be operated.
  • the reception device acquires first trigger information including at least location information as information for controlling an operation of an application executed in conjunction with AV (Audio Video) content.
  • a second acquisition unit that acquires application control information for controlling the operation of the application, and a control unit that controls the operation of the application based on the trigger information and the application control information.
  • a receiving device acquires first trigger information including at least location information as information for controlling an operation of an application executed in conjunction with AV (Audio Video) content.
  • a second acquisition unit that acquires application control information for controlling the operation of the application, and a control unit that controls the operation of the application based on the trigger information and the application control information.
  • the trigger information includes time information serving as a reference time for controlling the operation of the application, and the second acquisition unit acquires schedule control information that defines the operation of the application in time series, and the control When the time measured based on the time information has passed the time specified in the schedule control information, the unit controls the operation of the application according to action information for the application corresponding to the time. Can be.
  • the application is composed of a plurality of files
  • the second acquisition unit acquires cache control information for controlling a cache of a file group constituting the application
  • the control unit is configured to control the cache control. Based on the information, the file group constituting the application can be held in the cache memory.
  • the trigger information includes editing information for editing the contents defined in the schedule control information, and the control unit can edit the schedule control information based on the editing information.
  • the location information is information for acquiring the application control information, the schedule control information, and the cache control information, and the application control information, the schedule control information, and the cache control information are the application It can be made to be related by the identification information.
  • the trigger information includes action information for the application, and the control unit controls the operation of the application according to the action information included in the trigger information when the trigger information is acquired. be able to.
  • the application is composed of a plurality of files
  • the second acquisition unit acquires cache control information for controlling a cache of a file group constituting the application
  • the control unit is configured to control the cache control. Based on the information, the file group constituting the application can be held in the cache memory.
  • the location information is information for acquiring the application control information and the cache control information, and the trigger information, the application control information, and the cache control information are associated by identification information of the application. Can be like that.
  • the AV content is broadcast content transmitted by a digital broadcast signal, and the trigger information is distributed in a digital broadcast signal or distributed from a server on the Internet, and the first acquisition unit is The trigger information distributed by broadcasting or communication can be acquired.
  • the receiving device may be an independent device, or may be an internal block constituting one device.
  • the reception method according to the first aspect of the present technology is a reception method corresponding to the reception device according to the first aspect of the present technology described above.
  • trigger information including at least location information is acquired as information for controlling an operation of an application executed in conjunction with AV content
  • Application control information for controlling the operation of the application is acquired, and the operation of the application is controlled based on the trigger information and the application control information.
  • the transmission device includes an acquisition unit that acquires AV content and trigger information including at least location information as information for controlling an operation of an application that is executed in conjunction with the AV content.
  • the trigger information and the application control information together with the first generation unit to generate, the second second generation unit to acquire to generate application control information for controlling the operation of the application, and the AV content
  • the first generation unit generates the trigger information including time information serving as a reference for time for controlling the operation of the application, and the second generation unit defines the operation of the application in time series.
  • the schedule control information is generated, and the transmission unit can transmit the trigger information including the time information and the schedule control information.
  • the application includes a plurality of files
  • the second generation unit generates cache control information for controlling a cache of a file group constituting the application
  • the transmission unit includes the cache control. Information may be further transmitted.
  • the first generation unit generates the trigger information including editing information for editing the contents defined in the schedule control information, and the transmission unit transmits the trigger information including the editing information. Can be.
  • the location information is information for acquiring the application control information, the schedule control information, and the cache control information, and the application control information, the schedule control information, and the cache control information are the application It can be made to be related by the identification information.
  • the first generation unit may generate the trigger information including action information for the application, and the transmission unit may transmit the trigger information including the action information.
  • the application includes a plurality of files
  • the second generation unit generates cache control information for controlling a cache of a file group constituting the application
  • the transmission unit includes the cache control. Information may be further transmitted.
  • the location information is information for acquiring the application control information and the cache control information, and the trigger information, the application control information, and the cache control information are associated by identification information of the application. Can be like that.
  • the AV content may be broadcast content, and the transmission unit may transmit the trigger information and application control information together with the AV content using a digital broadcast signal.
  • the transmission device according to the second aspect of the present technology may be an independent device, or may be an internal block constituting one device.
  • a transmission method according to the second aspect of the present technology is a transmission method corresponding to the transmission device according to the second aspect of the present technology described above.
  • At least location information is included as information for controlling the operation of an application that is acquired and executed in conjunction with the AV content.
  • Trigger information is generated, application control information for controlling the operation of the application is generated, and the trigger information and application control information are transmitted together with the AV content.
  • the trigger information includes at least location information as information for controlling the operation of the application.
  • the metadata is composed of AIT (Application Information Table), EMT (Event Message Table), and CCT (Content Configuration Table).
  • AIT is application control information for controlling the operation of the application.
  • EMT is schedule control information that defines the operation of an application in time series.
  • the CCT is cache control information for controlling the cache of the file group constituting the application.
  • FIG. 1 is a diagram illustrating a configuration of trigger information.
  • Trigger information has a structure in which a command ID (cmdID) indicating the type of trigger information and a URI (Uniform resource identifier) as location information that is the trigger information body are described. For example, “0” is designated as the command ID when trigger information is applied to application control related to the present technology.
  • locator_part corresponds to a URI, and terms can be optionally specified.
  • the command ID is omitted.
  • action information (action), media time information (media_time), or event information (event) is specified.
  • action information various actions for the application are specified.
  • media time information information (time information) indicating a reference time (for example, current time) for controlling the operation of the application is designated.
  • event information information (edit information) for editing the contents defined in EMT is designated.
  • spread information stamp
  • version information version information
  • other parameters can be specified.
  • spread information information for stochastically distributing operations related to the application is designated.
  • version information version information of AIT, EMT, and CCT is specified. These parameters are connected by “&”.
  • the application ID (appID) and the action code (action_code) are connected by a period.
  • the application ID identification information of the target application is specified.
  • an action to be executed by the application identified by the application ID is specified.
  • codes such as “a1” to “a4” and “e1” to “eN” are specified as the action code.
  • Prefetch is an action for instructing acquisition of an application.
  • the prefetch action code is “a1”. Note that prefetch may be referred to as “prepare”, but here, the prefetch is described as being unified.
  • Execute is an action for instructing acquisition or activation of an application.
  • execution of the application is resumed.
  • the execute action code is “a2”.
  • Kill is an action for terminating a running application.
  • the kill action code is "a3".
  • Suspend is an action for suspending a running application and causing it to pause.
  • the suspend action code is "a4".
  • event ID N is an integer of 1 or more
  • event_data data associated with the stream event
  • event_time a time for executing an action on the application is designated.
  • the event information specified in the term of FIG. 1 has an event ID (eventID) and an edit code (edit_code) linked by a period.
  • event ID identification information of a target event is specified among events defined in time series in the EMT.
  • edit code information (edit information) for editing the event identified by the event ID is specified.
  • deletion delete
  • update update
  • information indicating the time after updating is specified in the event time (event_time).
  • the deletion edit code is "1"
  • the update edit code is "2".
  • FIG. 4 is a diagram illustrating a description example of trigger information.
  • “xbc.tv/e12” on the first line indicates trigger information when no terms are specified.
  • metadata AIT, EMT, CCT
  • URL Uniform Resource Locator
  • SCS Service Channel Channel Signaling
  • FLUTE File Delivery Unidirectional Transport
  • action information (a: action) is specified as the term.
  • event stream event
  • FIG. 5 is a diagram illustrating an example of the syntax of AIT.
  • AIT is described in a markup language such as XML (Extensible Markup Language).
  • XML Extensible Markup Language
  • FIG. 5 among the elements and attributes, “@” is added to the attribute. Further, the indented element and attribute are specified for the upper element.
  • the ApplicationDiscovery element in the ServiceDiscovery element is an upper element of the DomainName attribute and the ApplicationList element.
  • the DomainName attribute specifies the name of the domain.
  • the ApplicationList element is an upper element of the Application element, and describes one or a plurality of Application elements as a list.
  • the Application element is an upper element of the appName element, applicationIdentifier element, applicationDescriptor element, applicationTransport element, applicationLocation element, and application ⁇ Boundary element.
  • the name of the application is specified in the appName element.
  • the applicationIdentifier element information related to application identification information is specified.
  • the applicationIdentifier element is an upper element of the orgId element and the appId element.
  • An organization ID is specified in the orgId element.
  • An application ID is specified in the appId element. This application ID corresponds to the application ID of the trigger information in FIG.
  • the applicationDescriptor element is a higher element of the type element, controlCode element, serviceBound element, priority element, and icon element.
  • type element type information about the application is specified.
  • the action to be executed by the application is specified in the controlCode element.
  • this action information for example, auto start, present, kill, or prefetch is designated.
  • Auto start is an action for instructing automatic execution of an application.
  • a present means that the application is not automatically executed.
  • a kill is an action for terminating a running application.
  • Prefetch is an action for instructing acquisition of an application.
  • the serviceBound element information indicating whether the application depends on the service is specified.
  • the priority element information indicating the priority when there are a plurality of applications is specified.
  • the icon element the acquisition destination and size of the icon used in the application are specified.
  • the applicationTransport element is an upper element of the type attribute, URLBase element, and URLExtension element.
  • Type attribute type information regarding application transmission is specified.
  • URL application URL
  • the URL application URL from which the application is acquired is specified by the URLBase element, the URLExtension element, and the applicationLocation element.
  • application Boundary element a domain indicating a range in which the application operates is specified.
  • Fig. 5 the number of occurrences (Cardinality), but when "1" is specified, only one element or attribute is specified, and when "0..1" is specified Specifying the element or attribute is optional. If “1..N” is specified, one or more elements or attributes are specified. If “0..N” is specified, one or more elements or attributes are specified. It is optional. The meaning of the number of appearances is the same in other syntaxes described later.
  • FIG. 6 is a diagram illustrating an example of syntax of EMT.
  • the EMT is described in a markup language such as XML.
  • the EMT element is a major element of the majorProtocolversion attribute, minorProtocolVersion attribute, id attribute, EMTVersion attribute, beginMT attribute, LiveTrigger element, and Event element.
  • Syntax version information is specified in the majorProtocolversion attribute and the minorProtocolVersion attribute.
  • identification information for identifying the EMT is specified.
  • a character string in which domain_name and program_id (segment_id) are concatenated with “/” is designated.
  • EMT version information is specified.
  • beginMT attribute information indicating the time when the media time corresponding to EMT starts is specified.
  • the LiveTrigger element information about trigger information (live trigger information) when trigger information is transmitted from a server on the Internet is described.
  • the LiveTrigger element has a URL attribute and a pollPeriod attribute specified.
  • a URL for connecting to a server that provides live trigger information is specified.
  • a polling cycle for acquiring live trigger information from the server is specified.
  • Event information is specified in time series.
  • the Event element is an upper element of the id attribute, appID attribute, action attribute, startTime attribute, endTime attribute, and Data element.
  • An event ID is specified in the id attribute.
  • An application ID is specified in the appID attribute.
  • an action to be executed by the application is specified.
  • a prefetch, execute, suspend, kill, or injection event is designated.
  • Prefetch is an action for instructing acquisition of an application. As described above, prefetch may be referred to as “prepare”.
  • Execute is an action for instructing acquisition or activation of an application.
  • execution of the application is resumed.
  • Suspend is an action for suspending a running application and causing it to pause.
  • Kill is an action for terminating a running application.
  • An inject event is an action for firing an event as a stream event.
  • startTime attribute information indicating the start time of the effective period of action for the application is specified.
  • endTime attribute information indicating the end time of the effective period of the action for the application is specified.
  • the effective period of the action for the application is determined by the startTime attribute and endTime attribute indicating two points on the progress time axis of the corresponding AV content. For example, when the progress timing of the AV content measured by the internal clock (media time information) of the receiver has passed the valid start time indicated by the startTime attribute, the action corresponding to the valid start time is validated. . In this case, only the startTime attribute may be specified without specifying the endTime attribute.
  • the action corresponding to the valid period is valid and the progress timing of the AV content has not reached the valid period.
  • the action corresponding to the validity period may be invalidated. That is, in the receiver, when the time measured by the internal clock (media time information) satisfies a predetermined valid condition based on the valid period or the like, the action corresponding to the valid period is validated.
  • the Data element specifies the data used in the event when an injection event is specified as action information.
  • a data ID for identifying the data is specified by the dataID attribute of the child element of the Data element.
  • FIG. 7 is a diagram for explaining the outline of CCT.
  • FIG. 7 shows the structure of an application having an application ID “a1”.
  • the application includes a plurality of files such as HTML (HyperText Markup Language) files and JPEG (Joint Photographic Experts Group) files.
  • HTML HyperText Markup Language
  • JPEG Joint Photographic Experts Group
  • an HTML file is represented by “An”
  • a resource file referred to from an HTML file such as a JPEG file
  • “n” is designated by a number for identifying each file.
  • HTML file A11 on the top page is linked to the HTML file A01 and the HTML file A12.
  • the HTML file A01 is linked to the HTML file A02, and the HTML file A02 is further linked to the HTML file A03.
  • PU Presentation Unit
  • HTML file A12 refers to the resource files B07, B09, B12, and B13
  • HTML file A01 refers to the resource files B01, B03, and B04
  • HTML file A02 refers to the resource files B05 and B06
  • the receiver can speed up the processing related to the application by holding the file group constituting the application in the cache memory.
  • the file that can be held in the cache memory depends on the capacity of the cache memory, Limited. Therefore, the CCT provides cache control information for controlling the cache of the file group that constitutes the application, so that the receiver can hold the file in the cache memory according to the capacity of the cache memory. .
  • the receiver can hold more intermediate files than the minimum files in the cache memory ("Medium Cache" in the center of the figure), only the presented HTML file and its resource file
  • the peripheral file group is also held in the cache memory.
  • the receiver can adaptively hold the file in the cache memory according to the capacity of the cache memory.
  • the capacity of the cache memory since files distributed by broadcast are periodically distributed, if a desired file is missed, it may be possible to acquire the file only after tens of seconds or minutes, The machine can properly hold the file in the cache memory to avoid such a case.
  • FIG. 9 is a diagram showing an example of CCT syntax.
  • the CCT is described in a markup language such as XML.
  • the CCT element is a major element of the majorProtocolversion attribute, minorProtocolVersion attribute, CCTVersion attribute, baseURI attribute, and Application element.
  • Syntax version information is specified in the majorProtocolversion attribute and the minorProtocolVersion attribute.
  • the CCTVersion attribute specifies CCT version information.
  • the baseURI attribute a common URL that is the base of the URL related to CCT is specified.
  • the Application element cache control information for each application is specified.
  • the Application element is an upper element of the appID attribute, the size attribute, and the PU element.
  • An application ID is specified in the appID attribute. This application ID corresponds to an application ID such as AIT in FIG.
  • the size attribute information indicating the size of the entire application is specified.
  • the PU element cache control information for each presented unit is specified.
  • the PU element is an upper element of the id attribute, the size attribute, the Item element, and the LinkedPU element.
  • PU identification information (PU_ID in FIG. 7 and the like) is designated.
  • PU_ID PU identification information
  • the size attribute information indicating the size in PU units is specified. The receiver can determine the file to be held in the cache memory by checking the size information for each PU.
  • the Item element information about each file that constitutes the PU is specified.
  • the Item element is an upper element of the primary attribute, the uri attribute, and the type attribute.
  • the primary attribute information on the primary file in the PU is specified.
  • the primary file is an HTML file, and this information enables the receiver to recognize that a specific PU has been imported.
  • the URL of each file is specified in the uri attribute.
  • a URL relative to the URL specified by the baseURI attribute is specified.
  • type attribute “m” or “p” is specified as type information.
  • “m” is specified as this type information, it indicates that the file constitutes a PU.
  • “p” is specified as the type information, it indicates that the file is not a file constituting the PU but a specific file.
  • type information “p” is specified for a specific file that the broadcaster wants to forcibly acquire in advance.
  • the LinkedPU element specifies information related to the PU linked to the target PU.
  • linked PU identification information (PU_ID in FIG. 7 and the like) is designated.
  • the receiver side can hold, for example, an intermediate file group, which is larger than the minimum file group, in the cache memory (“center” in FIG. 8).
  • Medium Cache ”).
  • AV content such as programs can be transmitted by digital broadcasting using the IP (Internet Protocol) transmission method.
  • IP Internet Protocol
  • FIG. 10 is a diagram showing a system pipe model of digital broadcasting using the IP transmission method.
  • a plurality of BBP (Base Band Packet) streams are transmitted in a broadcast wave (RF Channel) having a predetermined frequency band.
  • Each BBP stream includes NTP (Network Time Protocol), multiple service channels (Service Channel), ESG (Electronic Service Guide) service, and LLS (Low Layer Signaling).
  • the NTP, service channel, and ESG service are transmitted according to the UDP / IP (User Datagram Protocol / Internet Protocol) protocol, but the LLS is transmitted on the BBP stream.
  • NTP is time information.
  • ESG service is an electronic service guide.
  • LLS low layer signaling information is transmitted.
  • LLS signaling information such as SCD (Service Configuration Description), EAD (Emergency Alert Description), RRD (Region Rating Description), etc. is transmitted.
  • the SCD shows the BBP stream configuration and service configuration in the broadcast network by an ID system corresponding to MPEG2-TS (Moving Picture Experts Group phase 2 Transport Channel).
  • the SCD includes attribute / setting information for each service, bootstrap information for connecting to the ESG service and the SCS, and the like.
  • the EAD contains information about emergency notifications.
  • the RRD includes rating information.
  • the LLS signaling information such as SCD, EAD, and RRD is described in a markup language such as XML.
  • the service channel (hereinafter referred to as “service”) is composed of SCS (Service Channel Signaling) and components that make up programs such as video, audio, and subtitles.
  • SCS Service Channel Signaling
  • components that make up programs such as video, audio, and subtitles.
  • IP address is given to the elements constituting each service, and components, SCSs, and the like can be packaged for each service using this IP address.
  • SCS transmits service unit signaling information.
  • SCS signaling such as USD (User Service Description), MPD (Media Presentation Description), SDP (Session Description Protocol), FDD (File Delivery Description), SPD (Service Parameter Description), IS (Initialization Segment), etc. Information is transmitted.
  • USD User Service Description
  • MPD Media Presentation Description
  • SDP Session Description Protocol
  • FDD File Delivery Description
  • SPD Service Parameter Description
  • IS Intelligentization Segment
  • the USD includes reference information for referring to SCS signaling information such as MPD, FDD, and SDP.
  • USD may be referred to as USBD (User (Service Bundle Description).
  • the MPD includes information such as a segment URL for each component stream transmitted in service units. Note that MPD conforms to the MPEG-DASH standard (Moving / Picture / Expert / Group / Dynamic / Adaptive / Streaming / over / HTTP).
  • the SDP includes service attributes for each service, stream configuration information and attributes, filter information, location information, and the like.
  • the FDD includes information such as location information (for example, URL) and TOI (Transport Object Identifier) as index information for each TSI (Transport Session Identifier).
  • location information for example, URL
  • TOI Transport Object Identifier
  • index information for each TSI Transport Session Identifier
  • FLUTE + FLUTE plus obtained by expanding FLUTE may be used.
  • the SPD is composed of various parameters specified at the service and component level.
  • the IS includes control information related to segment data of video and audio components transmitted in the FLUTE session.
  • each segment of the FLUTE session conforms to the ISO Base Media Media File format.
  • SCS signaling information such as USD, MPD, SDP, FDD, SPD, and IS is described in a markup language such as XML. Further, the IS may be transmitted as a video or audio stream instead of being transmitted as an SCS stream. Further, hereinafter, when there is no need to particularly distinguish LLS signaling information and SCS signaling information, they will be simply referred to as “signaling information”.
  • an RF channel ID is assigned to a broadcast wave (RF Channel) having a predetermined frequency band, for example, for each broadcaster.
  • a BBP stream ID (BBP Stream ID) is assigned to one or a plurality of BBP streams transmitted on each broadcast wave.
  • a service ID (Service ID) is assigned to one or more services transmitted in each BBP stream.
  • the IP transmission system ID system is a combination of the network ID (Network ID), transport stream ID (Transport Stream ID), and service ID (Service ID) used in the MPEG2-TS system ( A configuration corresponding to a triplet is adopted, and this triplet indicates a BBP stream configuration and a service configuration in the broadcast network.
  • the RF channel ID and BBP stream ID correspond to the network ID and transport stream ID in the MPEG2-TS system.
  • FIG. 11 and 12 are diagrams for explaining use case 1.
  • FIG. 11 and FIG. 12 the time direction is from the left side to the right side in the drawing and is shown in another drawing, but it is continuous in time via the vertical dotted line L1 in the drawing. Suppose you are.
  • the transmitter of the broadcast station (broadcaster) identified by the RF channel ID transmits the BBP stream identified by the BBP stream ID by a digital broadcast signal using the IP transmission method. Yes.
  • the BBP stream AV content ("A / V” in the figure), SCS signaling information (“SCS” in the figure), metadata (“SCS” in the figure) that make up the service identified by the service ID,
  • NRT a stream of the application
  • Trigger is embedded in the video data constituting the AV content.
  • an application server Application Server
  • a metadata server Microsoft Server
  • a recorded program such as a drama is transmitted as AV content ("A / V" in the figure) distributed from the transmitter.
  • AV content A / V
  • a receiver installed at each home or the like reproduces a recorded program by connecting to an A / V stream.
  • the receiver reads the SCD from the memory, connects to the SCS stream transmitted by the broadcast wave according to the SCS Bootstrap information, and acquires the SCS signaling information (S11 in FIG. 11). Note that the receiver acquires LLS signaling information transmitted by LLS and records it in the memory during the initial scan processing. In the redistribution environment, when signaling information cannot be acquired, it is not necessary to acquire such information.
  • the receiver acquires trigger information transmitted in the video stream at a timing when the transmitter transmits the trigger information (S12 in FIG. 11).
  • This trigger information includes location information (Locator) and media time information (Media Time).
  • the receiver sets the media time information included in the trigger information, and starts measuring the time based on the media time information (S13 in FIG. 11).
  • the receiver determines whether the metadata distribution route is broadcast or communication. Determine if there is. In the redistribution environment, when the signaling information cannot be acquired, it may be determined that the distribution route is communication only.
  • the receiver When the metadata is distributed by broadcasting, the receiver connects to the SCS stream according to SDP or FDD included in the SCS signaling information, and acquires the metadata file transmitted in the FLUTE session. (S14 in FIG. 11).
  • the receiver when the metadata is distributed by communication, the receiver connects to the metadata server via the Internet according to the location information included in the trigger information, and acquires the metadata file (S14 in FIG. 11). .
  • This metadata includes AIT, EMT, and CCT.
  • the AIT includes application control information such as an organization ID (OrgID), an application ID (AppID), and an application URL (App_URL).
  • action information for each application is specified in time series.
  • action information for the application 1 (App1)
  • prefetch (Pref) at time T0
  • execute (Exec) at time T1
  • inject event (Inj_A_E) at time T2
  • time T4 Suspend (Susp)
  • execute at time T5 Exec
  • kill at time T6 Kill
  • prefetch (Pref) at time T3 execute (Exec) at time T4, and kill (Kill) at time T5 are defined as action information for application 2 (App2). Yes.
  • the CCT includes cache control information such as the URL of each file that makes up the PU for application 1 and application 2.
  • the time measurement based on the media time information is started in the process of step S13, but has this time reached the time specified in the action information for each EMT application? Whether or not (time has passed) is constantly monitored.
  • the receiver When the time reaches the time T0, it is time to execute the prefetch action for the application 1 (App1) specified in the EMT, and the receiver follows the application ID (AppID) of the application 1 to execute the AIT To obtain the application URL of the application 1 (S15 in FIG. 11).
  • the receiver refers to the CCT and determines a file to be held in the cache memory from among the file group constituting the application 1.
  • a file to be held in the cache memory is determined according to the capacity of the cache memory included in the receiver.
  • the receiver 1 Based on the USD included in the SCS signaling information acquired in the process of step S11, the application URL, and the application item URL (URL indicating the acquisition destination of the file stored in the cache memory), the receiver 1 ) Is determined to be broadcast or communication. In the redistribution environment, when the signaling information cannot be acquired, it may be determined that the distribution route is communication only.
  • the receiver When the application 1 (file) is distributed by broadcasting, the receiver connects to the NRT stream according to SDP, FDD, etc. included in the SCS signaling information and transmits the application 1 transmitted in the FLUTE session. A file is acquired (S15 in FIG. 11).
  • the receiver when the application 1 (file) is distributed by communication, the receiver connects to the application server via the Internet according to the application URL or the like, and acquires the file of the application 1 (S15 in FIG. 11).
  • the application 1 (file) distributed by broadcasting or communication is acquired and held in the cache memory (Cache).
  • the file of application 1 held in the cache memory is based on the capacity of the cache memory and the CCT as cache control information.
  • the receiver receives the application ID (AppID) of application 2. Accordingly, the application URL of the application 2 is acquired with reference to the AIT (S18 in FIG. 12).
  • the receiver refers to the CCT and determines a file to be held in the cache memory among the file group configuring the application 2.
  • a file to be held in the cache memory is determined according to the capacity of the cache memory included in the receiver.
  • the receiver 2 Based on the USD included in the SCS signaling information acquired in step S11, the application URL, and the application item URL (URL indicating the acquisition destination of the file held in the cache memory), the receiver 2 ) Is determined to be broadcast or communication. In the redistribution environment, when the signaling information cannot be acquired, it may be determined that the distribution route is communication only.
  • the receiver When the application 2 (file) is distributed by broadcasting, the receiver connects to the NRT stream according to SDP, FDD, etc. included in the SCS signaling information and transmits the application 2 transmitted in the FLUTE session. A file is acquired (S18 in FIG. 12).
  • the receiver connects to the application server via the Internet according to the application URL or the like, and acquires the file of the application 2 (S18 in FIG. 12).
  • the application 2 distributed by broadcasting or communication is acquired and held in the cache memory (Cache).
  • the file of the application 2 held in the cache memory is based on the capacity of the cache memory and the CCT as cache control information.
  • the machine saves the running application 1 in the cache memory (Cache) (S19 in FIG. 12). Subsequently, in the receiver, the application 2 (file) held in the cache memory is read and executed (S19 in FIG. 12). As a result, in the receiver, the application 2 operates instead of the application 1 in conjunction with the recorded program.
  • time T5 when the timed time is time T5, it is time to execute the kill action for application 2 (App2) and the execute action for application 1 (App1) as specified in EMT.
  • the machine ends the running application 2 (S20 in FIG. 12).
  • the application 1 saved in the cache memory in the process of step S19 is read and executed (S20 in FIG. 12).
  • the application 2 that has been executed in conjunction with the recorded program is terminated, and the application 1 again operates in conjunction with the recorded program.
  • FIG. 13 shows the correspondence of each data in use case 1.
  • FIG. 13 shows that metadata such as AIT and EMT is acquired according to location information included in the trigger information.
  • AIT and EMT an application ID is associated.
  • the application is acquired according to the application URL of AIT.
  • FIGS. 14 and 15 are diagrams for explaining use case 2.
  • FIG. In FIGS. 14 and 15, the time direction is from the left side to the right side in the drawing and is shown in another drawing, but it is continuously in time via the vertical dotted line L2 in the drawing. It shall be.
  • the transmitter of the broadcasting station transmits the BBP stream by the broadcast wave of the digital broadcast using the IP transmission method, as in FIG. 11 and the like described above.
  • AV content (“A / V” in the figure)
  • SCS signaling information (“SCS” in the figure)
  • metadata (“SCS” in the figure)
  • NRT application
  • trigger information is embedded in the video data constituting the AV content.
  • an application server Application Server
  • a metadata server Microsoft Server
  • a live program such as a sports broadcast is transmitted as AV content (“A / V” in the figure) distributed from the transmitter.
  • AV content (“A / V” in the figure) distributed from the transmitter.
  • a receiver installed in each home or the like is playing a live program by connecting to an A / V stream.
  • the receiver reads the SCD from the memory, connects to the SCS stream transmitted by the broadcast wave according to the SCS Bootstrap information, and acquires the SCS signaling information (S31 in FIG. 14). In the redistribution environment, when signaling information cannot be acquired, it is not necessary to acquire such information.
  • the receiver acquires the trigger information transmitted in the video stream at the timing when the transmitter transmits the trigger information (S32 in FIG. 14).
  • This trigger information includes location information (Locator). Also, prefetch is added to the location information as action information for the application 1 (App1).
  • the receiver determines whether the metadata distribution route is broadcast or communication. Determine if there is. In the redistribution environment, when the signaling information cannot be acquired, it may be determined that the distribution route is communication only.
  • the receiver When the metadata is distributed by broadcasting, the receiver connects to the SCS stream according to SDP or FDD included in the SCS signaling information, and acquires the metadata file transmitted in the FLUTE session. (S33 in FIG. 14).
  • the receiver when the metadata is distributed by communication, the receiver connects to the metadata server via the Internet according to the location information included in the trigger information, and acquires the metadata file (S33 in FIG. 14). .
  • This metadata includes AIT and CCT.
  • the AIT includes application control information such as an organization ID (OrgID), an application ID (AppID), and an application URL (App_URL).
  • the CCT includes cache control information such as the URL of each file constituting the PU for the application 1 and the application 2.
  • the receiver refers to the AIT according to the application ID (AppID) of the application 1 (App1) that is the target of the prefetch action added to the location information included in the trigger information, and acquires the application URL of the application 1 (S34 in FIG. 14).
  • the receiver refers to the CCT and determines a file to be held in the cache memory from among the file group constituting the application 1.
  • the receiver Based on the USD included in the SCS signaling information acquired in the process of step S31, the application URL, and the application item URL (URL indicating the acquisition destination of the file held in the cache memory), the receiver distributes the distribution path of the application 1. Is broadcast or communication. In the redistribution environment, when the signaling information cannot be acquired, it may be determined that the distribution route is communication only.
  • the receiver When the application 1 (file) is distributed by broadcasting, the receiver connects to the NRT stream according to SDP, FDD, etc. included in the SCS signaling information and transmits the application 1 transmitted in the FLUTE session. A file is acquired (S34 in FIG. 14).
  • the receiver when the application 1 (file) is distributed by communication, the receiver connects to the application server via the Internet according to the application URL or the like, and acquires the file of the application 1 (S34 in FIG. 14).
  • the application 1 (file) distributed by broadcasting or communication is acquired and held in the cache memory (Cache).
  • the file of application 1 held in the cache memory is based on the capacity of the cache memory and the CCT as cache control information.
  • the receiver monitors whether or not the trigger information is transmitted in the video stream, and the trigger information is acquired at the timing when the transmitter transmits the trigger information (S35 in FIG. 14).
  • an execute action for application 1 (App1) is added to the location information.
  • the receiver reads and executes the application 1 held in the cache memory after confirming with reference to the AIT according to the trigger information (S36 in FIG. 14). Thereby, in the receiver, the application 1 operates in conjunction with the live program.
  • the receiver it is always monitored whether or not the trigger information is transmitted in the video stream, and the trigger information is acquired at the timing when the transmitter transmits the trigger information (S37 in FIG. 14).
  • the trigger information an injection event action for application 1 (App1) is added to the location information.
  • the receiver fires an event for the running application 1 after confirming with reference to the AIT (S38 in FIG. 14).
  • the display of the application 1 being executed in conjunction with the live program is switched.
  • the receiver acquires the trigger information at the timing when the transmitter transmits the trigger information (S39 in FIG. 15).
  • a prefetch action for application 2 (App2) is added to the location information.
  • the receiver refers to the AIT according to the application ID (AppID) of the application 2 added to the location information and acquires the application URL of the application 2 (S40 in FIG. 15).
  • the receiver refers to the CCT and determines a file to be held in the cache memory from among the file group constituting the application 1.
  • the receiver Based on the USD included in the SCS signaling information acquired in the process of step S31, the application URL, and the application item URL (URL indicating the acquisition destination of the file held in the cache memory), the receiver distributes the distribution path of the application 2. Is either broadcast or communication. In the redistribution environment, when the signaling information cannot be acquired, it may be determined that the distribution route is communication only.
  • the receiver acquires the file of the application 2 transmitted in the FLUTE session by connecting to the NRT stream according to SDP, FDD, etc. included in the SCS signaling information. (S40 in FIG. 15).
  • the receiver connects to the application server via the Internet according to the application URL or the like, and acquires the file of the application 2 (S40 in FIG. 15).
  • the application 2 distributed by broadcasting or communication is acquired and held in the cache memory (Cache).
  • the file of the application 2 held in the cache memory is based on the capacity of the cache memory and the CCT as cache control information.
  • the trigger information is acquired at the timing when the transmitter transmits the trigger information (S41 in FIG. 15).
  • a suspend action for application 1 (App1) and an execute action for application 2 (App2) are added to the location information.
  • the receiver refers to the AIT and confirms it, and then saves the running application 1 in the cache memory (Cache) (S42 in FIG. 15). . Subsequently, the receiver reads and executes the application 2 held in the cache memory after confirming with reference to the AIT according to the execute action for the application 2 added to the location information (FIG. 15). S42). Thereby, in the receiver, the application 2 operates instead of the application 1 in conjunction with the live program.
  • the trigger information is acquired at the timing when the transmitter transmits the trigger information (S43 in FIG. 15).
  • a kill action for application 2 (App2) and an execute action for application 1 (App1) are added to the location information.
  • the receiver first confirms with reference to the AIT according to the kill action for the application 2 added to the location information, and then terminates the application 2 being executed (S44 in FIG. 15). Subsequently, the receiver follows the execute action for the application 1 added to the location information, confirms by referring to the AIT, reads the application 1 saved in the cache memory in the process of step S42, and Execution is resumed (S44 in FIG. 15). Thereby, in the receiver, the application 2 executed in conjunction with the live program is terminated, and the application 1 operates again in conjunction with the live program.
  • the trigger information is acquired at the timing when the transmitter transmits the trigger information (S45 in FIG. 15).
  • a kill action for application 1 (App1) is added to the location information.
  • the receiver refers to the AIT and confirms it, and then ends the running application 1. Thereby, in the receiver, the application 1 that has been executed in conjunction with the live program is terminated, and only the live program is displayed.
  • FIG. 16 shows the correspondence of each data in use case 2.
  • FIG. 16 shows that metadata such as AIT is acquired according to location information included in the trigger information. Further, it is indicated that the application is acquired according to the application URL of AIT.
  • FIG. 17 and 18 are diagrams for explaining use case 3.
  • the time direction is the direction from the left side to the right side in the figure, and is shown in another drawing, but it is continuous in time via the vertical dotted line L3 in the figure. It shall be.
  • the transmitter of the broadcasting station transmits the BBP stream by the broadcast wave of the digital broadcast using the IP transmission method, as in FIG. 11 and the like described above.
  • AV content (“A / V” in the figure)
  • SCS signaling information (“SCS” in the figure)
  • metadata (“SCS” in the figure)
  • NRT application
  • trigger information is embedded in the video data constituting the AV content.
  • an application server Application Server
  • a metadata server Microsoft Server
  • a receiver installed in each home or the like is playing a program by connecting to an A / V stream.
  • the receiver reads the SCD from the memory, connects to the SCS stream transmitted by the broadcast wave according to the SCS Bootstrap information, and acquires the SCS signaling information (S51 in FIG. 17).
  • SCS signaling information S51 in FIG. 17.
  • the receiver acquires the trigger information transmitted in the video stream at the timing when the transmitter transmits the trigger information (S52 in FIG. 17).
  • This trigger information includes location information (Locator) and media time information (Media Time).
  • the receiver sets the media time information included in the trigger information and starts measuring the time based on the media time information (S53 in FIG. 17).
  • the receiver determines whether the metadata distribution route is broadcast or communication. Determine if there is. In the redistribution environment, when the signaling information cannot be acquired, it may be determined that the distribution route is communication only.
  • the receiver When the metadata is distributed by broadcasting, the receiver connects to the SCS stream according to SDP or FDD included in the SCS signaling information, and acquires the metadata file transmitted in the FLUTE session. (S54 in FIG. 17).
  • the receiver when the metadata is distributed by communication, the receiver connects to the metadata server via the Internet according to the location information included in the trigger information, and acquires the metadata file (S54 in FIG. 17). .
  • This metadata includes AIT, EMT, and CCT.
  • the AIT includes application control information such as an organization ID (OrgID), an application ID (AppID), and an application URL (App_URL).
  • action information for each application is specified in time series.
  • actions for application 1 App1
  • prefetch Pref
  • execute Exec
  • inject event Inj_A_E
  • the CCT includes cache control information such as the URL of each file that constitutes the PU for the application 1.
  • the time measurement based on the media time information is started in the process of step S53. Has the time measured become the time specified in the action information for each EMT application? Whether or not (time has passed) is constantly monitored.
  • the receiver When the time reaches the time T0, it is time to execute the prefetch action for the application 1 (App1) defined in the EMT, so the receiver follows the application ID (AppID) of the application 1 according to the AIT. Referring to FIG. 17, the application URL of application 1 is acquired (S55 in FIG. 17). In addition, the receiver refers to the CCT and determines a file to be held in the cache memory from among the file group constituting the application 1.
  • the receiver 1 Based on the USD included in the SCS signaling information acquired in the process of step S51, the application URL, and the application item URL (URL indicating the acquisition destination of the file held in the cache memory), the receiver 1 ) Is determined to be broadcast or communication. In the redistribution environment, when the signaling information cannot be acquired, it may be determined that the distribution route is communication only.
  • the receiver When the application 1 (file) is distributed by broadcasting, the receiver connects to the NRT stream according to SDP, FDD, etc. included in the SCS signaling information and transmits the application 1 transmitted in the FLUTE session. A file is acquired (S55 in FIG. 17).
  • the receiver when the application 1 (file) is distributed by communication, the receiver connects to the application server via the Internet according to the application URL or the like, and acquires the file of the application 1 (S55 in FIG. 17).
  • the application 1 (file) distributed by broadcasting or communication is acquired and held in the cache memory (Cache).
  • the file of application 1 held in the cache memory is based on the capacity of the cache memory and the CCT as cache control information.
  • the trigger information is acquired at the timing when the transmitter transmits the trigger information (S56 in FIG. 17).
  • event information for updating the execution time of the execute action for the application 1 (App1) from the time T1 to the time T1A is added to the location information.
  • the receiver updates the execution time of the execute action for the application 1 stipulated in EMT from time T1 to time T1A (S57 in FIG. 17).
  • the receiver 1 stores the application 1 held in the cache memory. It is read out and executed (S58 in FIG. 17). Thereby, in the receiver, the application 1 operates in conjunction with the program.
  • the receiver acquires the trigger information at the timing when the transmitter transmits the trigger information (S59 in FIG. 18).
  • event information for deleting the injection event action at time T2 for the application 1 (App1) is added to the location information.
  • the receiver deletes the injection event action at time T2 for application 1 (App1) defined in EMT (S60 in FIG. 18).
  • the trigger information is acquired at the timing when the transmitter transmits the trigger information (S61 in FIG. 18).
  • an injection event action for application 1 (App1) is added to the location information.
  • the receiver fires an event for the running application 1 after confirming with reference to the AIT (S62 in FIG. 18).
  • the display of the application 1 executed in conjunction with the program is switched. That is, here, the event for the application 1 is fired at the time after the change specified in the event information included in the trigger information, not at the time specified in advance in the EMT.
  • FIG. 19 is a diagram for explaining use case 4.
  • the transmitter of the broadcasting station (broadcasting company) transmits the BBP stream by the broadcast wave of the digital broadcasting using the IP transmission method.
  • this BBP stream a stream of AV content (“A / V” in the figure) constituting the service is transmitted. Note that the file transmitted in the stream is transmitted in the FLUTE session.
  • an application server (Application Server) provided on the Internet distributes applications
  • a metadata server (Matadata Server) distributes metadata.
  • an ACR server (ACR Server) is provided on the Internet, and in response to inquiries from receivers, AV content is identified using ACR (Automatic Content Recognition) technology, and depending on the identification result Provide trigger information.
  • a recorded program such as a drama is transmitted as AV content ("A / V" in the figure) distributed from the transmitter.
  • AV content A / V
  • a receiver installed in each home or the like reproduces a recorded program by connecting to an A / V stream.
  • the receiver transmits a feature amount extracted from at least one of video data and audio data of the recorded program being played back (hereinafter referred to as “finger print information”) to the ACR server via the Internet. (S71).
  • This fingerprint information is transmitted from the receiver to the ACR server, for example, every few seconds.
  • the ACR server When the ACR server receives fingerprint information from the receiver, the ACR server uses the ACR technology to identify the recorded program being played back by the receiver by comparing the fingerprint information with the database. The corresponding trigger information is generated. The ACR server transmits trigger information corresponding to the ACR identification result to the receiver via the Internet.
  • watermark information (Water Mark) may be used instead of fingerprint information.
  • information for specifying the program scene can be included. In this case, it is not necessary to specify the program scene on the ACR server side.
  • the receiver receives and acquires trigger information transmitted from the ACR server via the Internet (S72).
  • This trigger information includes location information (Locator) and media time information (Media Time).
  • the receiver sets the media time information included in the trigger information and starts measuring the time based on the media time information (S73).
  • the receiver connects to the metadata server via the Internet according to the location information included in the trigger information acquired in step S72, and acquires a metadata file (S74).
  • This metadata includes AIT, EMT, and CCT.
  • the AIT includes application control information such as an organization ID (OrgID), an application ID (AppID), and an application URL (App_URL).
  • action information for each application is specified in time series.
  • the action information for application 1 (App1) includes prefetch (Prep) at time T0, execute (Exec) at time T1, inject event (Inj_A_E) at time T2, and time T4. Suspend (Susp), execute at time T5 (Exec), and kill at time T6 (Kill).
  • prefetch (Prep) at time T3, execute (Exec) at time T4, and kill (Kill) at time T5 are defined as action information for application 2 (App2). Yes.
  • the CCT includes cache control information such as the URL of each file that makes up the PU for application 1 and application 2.
  • the time measurement based on the media time information is started in the process of step S73, but has the time measured become the time specified in the action information for each EMT application? Whether or not (time has passed) is constantly monitored.
  • the receiver When the time reaches the time T0, it is time to execute the prefetch action for the application 1 (App1) defined in the EMT, so the receiver follows the application ID (AppID) of the application 1 according to the AIT. To obtain the application URL of the application 1 (S75). In addition, the receiver refers to the CCT and determines a file to be held in the cache memory from among the file group constituting the application 1.
  • the receiver connects to the application server via the Internet according to the application URL or the like, and acquires the file of the application 1 (S75).
  • the application 1 distributed by communication is acquired and held in the cache memory (Cache).
  • the file of application 1 held in the cache memory is based on the capacity of the cache memory and the CCT as cache control information.
  • the subsequent operation of the application 1 is not shown in FIG. 19, but the injection event action for the application 1 (App1) defined in the EMT is executed when the measured time reaches the time T2. In the receiver, an event for the application 1 being executed is fired.
  • the receiver uses the Internet according to the application URL for acquiring application 2.
  • the application server uses the Internet according to the application URL for acquiring application 2.
  • the application 2 is held in a cache memory (Cache).
  • the kill action for application 2 (App2) specified in EMT and the execute action for application 1 (App1) are executed at the same time. Terminates the running application 2. Subsequently, in the receiver, the application 1 saved in the cache memory is read and executed.
  • FIG. 20 shows the correspondence of each data in use case 4.
  • the trigger information is not transmitted as a video stream or the like, but is acquired as a result of the inquiry by transmitting fingerprint information or watermark information to the ACR server.
  • FIG. 20 shows that metadata such as AIT and EMT is acquired according to location information included in the trigger information.
  • AIT and EMT an application ID is associated.
  • the application is acquired according to the application URL of AIT.
  • the use case 4 has been described above.
  • FIG. 21 is a diagram for explaining use case 5.
  • the transmitter of the broadcasting station (broadcasting company) transmits the BBP stream by the broadcast wave of the digital broadcasting using the IP transmission method.
  • this BBP stream a stream of AV content (“A / V” in the figure) constituting each service is transmitted in a FLUTE session.
  • an application server (Application Server) provided on the Internet distributes applications
  • a metadata server (Matadata Server) distributes metadata.
  • an ACR server (ACR server) provides trigger information according to the AV content identification result using the ACR technology.
  • a live program such as a sports broadcast is transmitted as AV content (“A / V” in the figure) distributed from the transmitter.
  • AV content (“A / V” in the figure) distributed from the transmitter.
  • a receiver installed in each home or the like reproduces a live program by connecting to an A / V stream.
  • the receiver transmits fingerprint information extracted from at least one of video data and audio data of a live program being reproduced to the ACR server via the Internet (S81).
  • the ACR server When the ACR server receives fingerprint information from the receiver, the ACR server identifies the live program being played on the receiver by using the ACR technology by comparing the fingerprint information with the database, and according to the identification result. Generated trigger information.
  • the ACR server transmits trigger information to the receiver via the Internet. Note that watermark information may be used instead of fingerprint information.
  • the receiver receives and acquires the trigger information transmitted from the ACR server via the Internet (S82).
  • This trigger information includes location information. Further, a prefetch action is added to the location information as action information for the application 1 (App1).
  • the receiver connects to the metadata server via the Internet in accordance with the location information included in the trigger information acquired in step S82, and acquires a metadata file (S83).
  • This metadata includes AIT and CCT.
  • the AIT includes application control information such as an organization ID (OrgID), an application ID (AppID), and an application URL (App_URL).
  • the CCT includes cache control information such as the URL of each file constituting the PU for the application 1 and the like.
  • the receiver refers to the AIT according to the application ID (AppID) of the application 1 (App1) that is the target of the prefetch action added to the location information included in the trigger information, and acquires the application URL of the application 1 (S84). ).
  • the receiver refers to the CCT and determines a file to be held in the cache memory from among the file group constituting the application 1.
  • the receiver connects to the application server via the Internet according to the application URL and the application item URL (URL indicating the acquisition destination of the file held in the cache memory), and acquires the file of the application 1 (S84).
  • the application 1 distributed by communication is acquired and held in the cache memory (Cache).
  • the file of application 1 held in the cache memory is based on the capacity of the cache memory and the CCT as cache control information.
  • the fingerprint information extracted from the live program being played is periodically (for example, several seconds cycle) transmitted to the ACR server via the Internet, and trigger information corresponding to the ACR identification result is acquired.
  • trigger information an execute action for application 1 (App1) is added to the location information.
  • the receiver reads and executes the application 1 held in the cache memory after confirming with reference to the AIT according to the trigger information (S86). Thereby, in the receiver, the application 1 operates in conjunction with the live program.
  • the subsequent operation of the application 1 is not shown in FIG. 21, but after that, in the receiver, the fingerprint information extracted from the live program being played is periodically (for example, a cycle of several seconds).
  • the trigger information is acquired by being transmitted to the ACR server via the Internet.
  • the receiver fires an event for the application 1 being executed according to the trigger information.
  • the receiver connects to the application server via the Internet according to the trigger information, and the file of application 2 is acquired. And held in a cache memory (Cache).
  • the running application 1 is saved in the cache memory and cached.
  • the application 2 held in the memory is read and executed.
  • the running application 2 is terminated and saved in the cache memory.
  • the existing application 1 is read and its execution is resumed. If the acquired trigger information includes a kill action for the application 1 (App1), the receiver 1 terminates the application 1 being executed.
  • FIG. 22 shows the correspondence of each data in use case 5.
  • the trigger information is not transmitted as a video stream or the like, but is acquired as a result of the inquiry by transmitting fingerprint information or watermark information to the ACR server.
  • FIG. 22 shows that metadata such as AIT is acquired according to location information included in the trigger information. Further, it is indicated that the application is acquired according to the application URL of AIT.
  • the use case 5 has been described above.
  • FIG. 23 is a diagram for explaining use case 6.
  • the transmitter of the broadcasting station (broadcasting company) transmits the BBP stream by the broadcast wave of the digital broadcast using the IP transmission method.
  • this BBP stream a stream of AV contents (“A / V” in the figure), SCS signaling information (“SCS” in the figure), and application (“NRT” in the figure) constituting the service is transmitted.
  • SCS SCS signaling information
  • NRT application
  • an application server (Application (Server) provided on the Internet distributes applications.
  • a metadata server (Matadata Server) is illustrated, it is assumed that metadata is not distributed.
  • a receiver installed in each home or the like is playing a program by connecting to an A / V stream.
  • the receiver reads the SCD from the memory, connects to the SCS stream transmitted on the broadcast wave according to the SCS Bootstrap information, and acquires the SCS signaling information (S91).
  • This SCS signaling information includes AIT and CCT in addition to USD and the like.
  • the AIT in FIG. 23 includes prefetch (Prefetch) as action information in addition to an organization ID (OrgID), an application ID (AppID), and an application URL (App_URL).
  • the CCT also includes cache control information such as the URL of each file that constitutes the PU for the application 1.
  • the receiver refers to the AIT and acquires an application URL corresponding to the application ID (AppID) of the application 1 (App1) that is the target of the prefetch action (S92).
  • the receiver refers to the CCT and determines a file to be held in the cache memory from among the file group constituting the application 1.
  • the receiver Based on the USD included in the SCS signaling information acquired in the process of step S91, the application URL, and the application item URL (URL indicating the acquisition destination of the file held in the cache memory), the receiver distributes the distribution path of the application 1. Is broadcast or communication.
  • the receiver When the application 1 (file) is distributed by broadcasting, the receiver connects to the NRT stream according to SDP, FDD, etc. included in the SCS signaling information and transmits the application 1 transmitted in the FLUTE session. A file is acquired (S92).
  • the receiver On the other hand, when the application 1 (file) is distributed by communication, the receiver connects to the application server via the Internet according to the application URL or the like, and acquires the file of the application 1 (S92).
  • the application 1 (file) distributed by broadcasting or communication is acquired and held in the cache memory (Cache).
  • the file of application 1 held in the cache memory is based on the capacity of the cache memory and the CCT as cache control information.
  • the receiver monitors whether the AIT and CCT included in the SCS signaling information transmitted in the SCS stream is updated, and when at least one of the AIT and CCT is updated, the SCS signaling including the AIT and CCT is updated.
  • Information is acquired (S93).
  • an execute action for application 1 (App1) is designated.
  • the receiver reads and executes the application 1 held in the cache memory according to the AIT (S94). Thereby, in the receiver, the application 1 operates in conjunction with the program.
  • the receiver continues to monitor the update of AIT and CCT, and when at least one of AIT and CCT is updated, SCS signaling information including the AIT and CCT is acquired (S95).
  • SCS signaling information including the AIT and CCT is acquired (S95).
  • AIT a kill action for application 1 (App1) is designated.
  • the receiver terminates the running application 1 according to the AIT. Thereby, in the receiver, the application 1 executed in conjunction with the program is terminated and only the program is displayed.
  • the use case 6 has been described above.
  • FIG. 24 is a diagram illustrating a configuration example of a broadcast communication system.
  • the system means a set of a plurality of components (devices and the like).
  • the broadcast communication system 1 in FIG. 24 has a configuration for realizing the use cases 1 to 6 described above. That is, in FIG. 24, the broadcast communication system 1 includes a transmission device 10, a reception device 20, an application server 30, a metadata server 40, and an ACR server 50.
  • the receiving device 20 is connected to the application server 30, the metadata server 40, and the ACR server 50 via the Internet 90.
  • the transmitting device 10 transmits AV contents such as pre-recorded programs and live programs and signaling information by digital broadcast signals. Further, the transmission device 10 transmits the trigger information, metadata, or application included in the digital broadcast signal.
  • the transmission device 10 corresponds to the above-described transmitter, and is provided by, for example, a broadcaster and disposed in the broadcast station.
  • the receiving device 20 receives the digital broadcast signal transmitted from the transmitting device 10.
  • the receiving device 20 acquires and outputs AV content video and audio based on signaling information obtained from the digital broadcast signal.
  • the receiving device 20 receives a digital broadcast signal from the transmitting device 10 and acquires trigger information, metadata, or an application.
  • the receiving device 20 connects to the application server 30 via the Internet 90 and acquires an application. Further, the receiving device 20 connects to the metadata server 40 via the Internet 90 and acquires metadata.
  • the receiving device 20 controls the operation of the application acquired through broadcasting or communication based on the signaling information, trigger information, and metadata acquired through broadcasting or communication.
  • the receiving device 20 is a television receiver or the like corresponding to the above-described receiver, and is disposed in the home.
  • the application server 30 distributes the application to the receiving device 20 via the Internet 90 in response to a request from the receiving device 20.
  • the application server 30 corresponds to the above-described application server (“Application Server” in FIG. 11 and the like), and is installed by, for example, a broadcaster.
  • the metadata server 40 distributes metadata to the receiving device 20 via the Internet 90 in response to a request from the receiving device 20.
  • the metadata server 40 corresponds to the above-described metadata server (“MatadataataServer” in FIG. 11 and the like), and is installed by, for example, a broadcaster.
  • the receiving device 20 makes an inquiry about trigger information by connecting to the ACR server 50 via the Internet 90. At that time, the receiving device 20 transmits fingerprint information to the ACR server 50. The receiving device 20 acquires trigger information transmitted from the ACR server 50, and controls the operation of the application based on the trigger information.
  • the ACR server 50 performs ACR processing on the fingerprint information in response to an inquiry from the receiving device 20 and identifies AV content being played back by the receiving device 20.
  • the ACR server 50 generates trigger information corresponding to the ACR identification result, and transmits the trigger information to the receiving device 20 via the Internet 90.
  • the ACR server 50 corresponds to the above-described ACR server (“ACR server” in FIG. 19 and the like), and is installed by, for example, a broadcaster.
  • the broadcast communication system 1 is configured as described above. Next, a configuration example of each device configuring the broadcast communication system 1 of FIG. 24 will be described.
  • FIG. 25 is a diagram illustrating a configuration example of the transmission apparatus in FIG.
  • the transmission apparatus 10 includes a signaling information generation unit 111, a signaling information processing unit 112, a metadata generation unit 113, a metadata processing unit 114, an audio data acquisition unit 115, an audio encoder 116, a video data acquisition unit 117, and a video.
  • the encoder 118 includes a trigger information generation unit 119, a multiplexing unit 120, and a transmission unit 121.
  • the signaling information generation unit 111 generates signaling information and supplies it to the signaling information processing unit 112.
  • the signaling information processing unit 112 processes the signaling information supplied from the signaling information generation unit 111 and supplies it to the multiplexing unit 120.
  • the metadata generation unit 113 generates metadata and supplies it to the metadata processing unit 114.
  • the metadata processing unit 114 processes the metadata supplied from the metadata generation unit 113 and supplies the processed metadata to the multiplexing unit 120.
  • the audio data acquisition unit 115 acquires audio data of AV content from an external server, microphone, recording medium, or the like, and supplies it to the audio encoder 116.
  • the audio encoder 116 encodes the audio data supplied from the audio data acquisition unit 115 in accordance with an encoding method such as MPEG (Moving Picture Experts Group), and supplies the encoded data to the multiplexing unit 120.
  • MPEG Motion Picture Experts Group
  • the video data acquisition unit 117 acquires video data of AV content from an external server, camera, recording medium, or the like, and supplies it to the video encoder 118 and the trigger information generation unit 119.
  • the video encoder 118 encodes the video data supplied from the video data acquisition unit 117 in accordance with an encoding method such as MPEG, and supplies the encoded video data to the multiplexing unit 120.
  • the trigger information generation unit 119 generates trigger information in accordance with the progress of the AV content corresponding to the video data supplied from the video data acquisition unit 117, and supplies the trigger information to the video encoder 118 or the multiplexing unit 120.
  • the video encoder 118 can embed the trigger information supplied from the trigger information generation unit 119 in the video data and encode the video data.
  • the multiplexing unit 120 multiplexes the signaling information from the signaling information processing unit 112, the metadata from the metadata processing unit 114, the audio data from the audio encoder 116, and the video data from the video encoder 118,
  • the BBP stream obtained as a result is supplied to the transmission unit 121.
  • the multiplexing unit 120 When the trigger information is supplied from the trigger information generation unit 119, the multiplexing unit 120 further multiplexes the trigger information with the audio data and the video data to generate a BBP stream.
  • the metadata does not necessarily need to be transmitted when the distribution route is communication. In this case, the metadata does not have to be included in the BBP stream.
  • the application may be transmitted by being included in the BBP stream.
  • the transmission unit 121 transmits the BBP stream supplied from the multiplexing unit 120 as a digital broadcast signal via the antenna 122.
  • the trigger information is embedded in the video data and the case where the trigger information is multiplexed in the BBP stream are illustrated.
  • the trigger information is embedded by other methods such as embedding the trigger information in the audio data.
  • Information may be arranged.
  • FIG. 26 is a diagram illustrating a configuration example of the reception apparatus in FIG.
  • the receiving apparatus 20 includes a tuner 212, a demultiplexing unit 213, an audio decoder 214, an audio output unit 215, a video decoder 216, a video output unit 217, a control unit 218, a memory 219, an input unit 220, a communication unit 221, An application engine 222 and a cache memory 223 are included.
  • the tuner 212 selects and demodulates a digital broadcast signal received via the antenna 211, and supplies a BBP stream obtained as a result to the demultiplexing unit 213.
  • the demultiplexing unit 213 separates the BBP stream supplied from the tuner 212 into audio data, video data, signaling information, and metadata.
  • the demultiplexing unit 213 supplies audio data to the audio decoder, video data to the video decoder, and signaling information and metadata to the control unit 218, respectively.
  • the audio decoder 214 decodes the audio data supplied from the demultiplexing unit 213 by a decoding method corresponding to the encoding method by the audio encoder 116 (FIG. 25), and the resulting audio data is converted into the audio output unit 215 and It supplies to the control part 218.
  • the audio output unit 215 outputs the audio data supplied from the audio decoder 214 to a speaker (not shown).
  • the speaker outputs sound corresponding to the audio data supplied from the audio output unit 215.
  • the video decoder 216 decodes the video data supplied from the demultiplexing unit 213 by a decoding method corresponding to the encoding method by the video encoder 118 (FIG. 25), and the resulting video data is converted into the video output unit 217 and It supplies to the control part 218.
  • the video output unit 217 outputs the video data supplied from the video decoder 216 to a display (not shown).
  • the display displays video corresponding to the video data supplied from the video output unit 217.
  • the control unit 218 controls the operation of each unit of the receiving device 20 such as the tuner 212, the demultiplexing unit 213, and the communication unit 221.
  • the memory 219 stores various data supplied from the control unit 218.
  • the input unit 220 receives an operation from the user and supplies an operation signal corresponding to the operation to the control unit 218.
  • control unit 218 acquires signaling information and metadata supplied from the demultiplexing unit 213. Further, the control unit 218 acquires trigger information or fingerprint information based on the audio data supplied from the audio decoder 214 or the video data supplied from the video decoder 216. The control unit 218 supplies fingerprint information to the communication unit 221.
  • the communication unit 221 connects to the application server 30 via the Internet 90 and requests an application according to the control from the control unit 218.
  • the communication unit 221 acquires an application transmitted from the application server 30 via the Internet 90 and stores it in the cache memory 223.
  • the communication unit 221 connects to the metadata server 40 via the Internet 90 and requests metadata in accordance with the control from the control unit 218.
  • the communication unit 221 acquires metadata transmitted from the metadata server 40 via the Internet 90 and supplies the metadata to the control unit 218.
  • the communication unit 221 connects to the ACR server 50 via the Internet 90 according to control from the control unit 218, transmits fingerprint information, and inquires about trigger information.
  • the communication unit 221 acquires trigger information transmitted from the ACR server 50 via the Internet 90 and supplies the trigger information to the control unit 218.
  • the control unit 218 controls the operation of the application acquired through broadcasting or communication based on the signaling information, trigger information, and metadata acquired through broadcasting or communication.
  • the application engine 222 reads and executes the application held in the cache memory 223 according to the control from the control unit 218.
  • the application engine 222 controls operations such as application pause (interruption), event firing, and termination according to control from the control unit 218.
  • the video data of the application is supplied to the video output unit 217.
  • the video output unit 217 combines the video data supplied from the application engine 222 with the video data supplied from the video decoder 216, and displays a video obtained thereby on the display.
  • the application separated by the demultiplexing unit 213 is stored in the cache memory 223. Will be held.
  • FIG. 27 is a diagram illustrating a functional configuration example of a part that performs processing related to application control in the control unit 218 in FIG.
  • control unit 218 includes a signaling information acquisition unit 251, a trigger information acquisition unit 252, a metadata acquisition unit 253, a fingerprint information acquisition unit 254, an analysis unit 255, a media time timing unit 256, and an application control unit 257. Consists of
  • the signaling information acquisition unit 251 connects to the SCS stream according to the SCS Bootstrap information, acquires the SCS signaling information, and supplies it to the analysis unit 255.
  • the trigger information acquisition unit 252 constantly monitors the video data supplied from the video decoder 216, acquires the trigger information embedded in the video data, and supplies it to the analysis unit 255.
  • the trigger information acquisition unit 252 supplies the media time information to the media time timing unit 256 when the media time information is included in the trigger information.
  • the trigger information acquisition unit 252 monitors the packet including the trigger information separated by the demultiplexing unit 213 and acquires the trigger information therefrom. .
  • the metadata acquisition unit 253 acquires metadata distributed by broadcast or communication according to the analysis result by the analysis unit 255 and supplies the metadata to the analysis unit 255.
  • the fingerprint information acquisition unit 254 acquires (extracts) fingerprint information from at least one of the audio data supplied from the audio decoder 214 and the video data supplied from the video decoder 216, and supplies the fingerprint information to the communication unit 221. .
  • the communication unit 221 connects to the ACR server 50 via the Internet 90 and transmits fingerprint information.
  • the communication unit 221 receives trigger information transmitted from the ACR server 50 and supplies the trigger information to the trigger information acquisition unit 252.
  • the trigger information acquisition unit 252 acquires the trigger information supplied from the communication unit 221 and supplies it to the analysis unit 255.
  • the analysis unit 255 is supplied with signaling information from the signaling information acquisition unit 251, trigger information from the trigger information acquisition unit 252, and metadata from the metadata acquisition unit 253.
  • the analysis unit 255 analyzes at least one of the signaling information, trigger information, and metadata, and supplies the analysis result to the metadata acquisition unit 253 or the application control unit 257.
  • the media time timing unit 256 sets the media time information supplied from the trigger information acquisition unit 252 and measures the time based on the media time information.
  • the application control unit 257 controls the operation of the application by controlling the application engine 222 (FIG. 26) according to the analysis result from the analysis unit 255.
  • FIG. 28 is a diagram illustrating a configuration example of each server in FIG. FIG. 28 shows a configuration example of the application server 30, the metadata server 40, and the ACR server 50.
  • the application server 30 includes a control unit 311, an application generation unit 312, an application holding unit 313, and a communication unit 314.
  • the control unit 311 controls the operation of each unit of the application server 30.
  • the application generation unit 312 generates an application (for example, composed of an HTML file or a JPEG file) that is executed in conjunction with the AV content in accordance with the control from the control unit 311, and stores the generated application in the application storage unit 313.
  • the communication unit 314 communicates with the receiving device 20 via the Internet 90 according to control from the control unit 311.
  • the control unit 311 constantly monitors the communication status of the communication unit 314.
  • the control unit 311 acquires the application from the application holding unit 313 and supplies the application to the communication unit 314.
  • the communication unit 314 transmits the application to the requesting receiving device 20 via the Internet 90 in accordance with the control from the control unit 311.
  • Application server 30 is configured as described above.
  • the metadata server 40 includes a control unit 411, a metadata generation unit 412, a metadata holding unit 413, and a communication unit 414.
  • the control unit 411 controls the operation of each unit of the metadata server 40.
  • the metadata generation unit 412 generates metadata including at least one piece of information among AIT, EMT, and CCT in accordance with control from the control unit 411 and holds the metadata in the metadata holding unit 413.
  • the communication unit 414 communicates with the receiving device 20 via the Internet 90 according to the control from the control unit 411.
  • the control unit 411 constantly monitors the communication status of the communication unit 414, and when metadata is requested from the receiving device 20, acquires the metadata from the metadata holding unit 413 and supplies it to the communication unit 414.
  • the communication unit 414 transmits metadata to the requesting receiving apparatus 20 via the Internet 90 in accordance with control from the control unit 411.
  • the metadata server 40 is configured as described above.
  • the ACR server 50 includes a communication unit 511, an ACR identification processing unit 512, an FP database 513, a trigger information generation unit 514, and a trigger information database.
  • the communication unit 511 communicates with the receiving device 20 via the Internet 90.
  • the communication unit 511 receives the fingerprint information and supplies the fingerprint information to the ACR identification processing unit 512.
  • the ACR identification processing unit 512 compares the fingerprint information supplied from the communication unit 511 with the FP database 513 prepared in advance, and performs ACR identification processing for identifying the AV content being played back by the receiving device 20 as the inquiry source. Do.
  • the ACR identification processing unit 512 supplies the result of the ACR identification processing to the trigger information generation unit 514.
  • the fingerprint information is, for example, unique information of all or part of AV content, and a large number of unique information of AV content is registered in the FP database 513 in advance.
  • the degree of similarity or coincidence of the unique information is determined.
  • a known technique disclosed by various documents or the like can be used as a method for determining the degree of similarity or the degree of coincidence.
  • the trigger information generation unit 514 generates trigger information based on the result of the ACR identification process supplied from the ACR identification processing unit 512 and various types of information registered in the trigger information database 515, and supplies the trigger information to the communication unit 511. To do.
  • the communication unit 511 transmits the trigger information supplied from the trigger information generation unit 514 to the receiving device 20 that is the inquiry source via the Internet 90.
  • the ACR server 50 is configured as described above.
  • step S111 the signaling information generation unit 111 generates signaling information.
  • step S112 the signaling information processing unit 112 processes the signaling information generated in step S111.
  • step S113 the metadata generation unit 113 generates metadata.
  • step S114 the metadata processing unit 114 processes the metadata generated in the process of step S113.
  • step S115 the audio data acquisition unit 115 acquires audio data of AV content from an external server or the like.
  • step S116 the audio encoder 116 encodes the audio data obtained in step S115 in accordance with an encoding method such as MPEG.
  • step S117 the video data acquisition unit 117 acquires video data of AV content from an external server or the like.
  • the trigger information generation unit 119 generates trigger information in accordance with the progress of the AV content corresponding to the video data acquired in the process of step S117.
  • step S119 the video encoder 118 encodes the video data obtained in step S117 in accordance with an encoding method such as MPEG. However, when encoding the video data, the video encoder 118 embeds the trigger information supplied from the trigger information generation unit 119 in the video data and performs the encoding.
  • step S120 the multiplexing unit 120 encodes the signaling information processed in step S112, the metadata processed in step S114, the audio data encoded in step S116, and the processing in step S119.
  • the video data is multiplexed and the resulting BBP stream is supplied to the transmitter 121.
  • step S121 the transmission unit 121 transmits the BBP stream generated in the process of step S120 as a digital broadcast signal using the IP transmission method via the antenna 122.
  • the digital broadcast signal transmission process of FIG. 29 ends.
  • step S211 the tuner 212 selects and demodulates a digital broadcast signal received through the antenna 211 using the IP transmission method.
  • step S212 the demultiplexing unit 213 separates audio data and video data from the BBP stream demodulated in step S211.
  • step S213 the audio decoder 214 decodes the audio data separated in the process of step S212 by a decoding method corresponding to the encoding method by the audio encoder 116 (FIG. 25).
  • step S214 the video decoder 216 decodes the video data separated in the process of step S212 by a decoding method corresponding to the encoding method by the video encoder 118 (FIG. 25).
  • step S215 the audio output unit 215 outputs the audio data decoded in the process of step S213 to a speaker (not shown).
  • step S216 the video output unit 217 outputs the video data decoded in step S214 to a display (not shown). As a result, the video of the AV content is displayed on the display, and audio synchronized with the video is output from the speaker.
  • step S216 When the process of step S216 is completed, the digital broadcast signal reception process of FIG. 30 is completed.
  • step S231 the signaling information acquisition unit 251 acquires SCS signaling information by connecting to the SCS stream in accordance with the SCS Bootstrap information.
  • the SCS signaling information is analyzed by the analysis unit 255.
  • step S232 the trigger information acquisition unit 252 constantly monitors the video data supplied from the video decoder 216, and acquires trigger information embedded in the video data. This trigger information is analyzed by the analysis unit 255.
  • step S233 the media time timing unit 256 sets the media time information according to the analysis result of the trigger information acquired in the process of step S232, and starts measuring the time based on the media time information.
  • step S234 the metadata acquisition unit 253 acquires metadata (AIT, EMT, CCT) distributed by broadcasting or communication according to the analysis result by the analysis unit 255. Specifically, based on the USD included in the SCS signaling information acquired in the process of step S231 and the location information included in the trigger information acquired in the process of step S232, the distribution route of the metadata is broadcast or communicated. Is determined.
  • the metadata acquisition unit 253 When the metadata is distributed by broadcasting, the metadata acquisition unit 253 connects to the SCS stream according to SDP or FDD included in the SCS signaling information, and transmits the metadata file transmitted in the FLUTE session. To get.
  • the metadata acquisition unit 253 controls the communication unit 221 to connect to the metadata server 40 via the Internet 90 according to the location information included in the trigger information, Get metadata file. This metadata is analyzed by the analysis unit 255.
  • step S235 it is determined whether or not the time measured by the media time timer 256 is the start time of the event defined in the EMT list. If it is determined in step S235 that the time measured is not the start time of the event specified in the EMT list, the process returns to step S235, and the determination process in step S235 is repeated. That is, in step S235, the process proceeds to step S236 after waiting for the measured time to be the start time of the event specified in the EMT list.
  • step S236 the application control unit 257 controls the application engine 222 to execute the action of the application corresponding to the event for which the time measurement time is determined to be the start time in the determination process of step S235.
  • step S237 it is determined whether there is an event to be executed remaining in the EMT list. If it is determined in step S237 that there are still events to be executed, the process returns to step S235, and the subsequent processes are repeated.
  • the EMT includes prefetch (Pref) at time T0 as action information for application 1 (App1), and at time T1.
  • Execution (Exec), injection event (Inj_A_E) at time T2, suspend (Susp) at time T4, execute (Exec) at time T5, and kill (Kill) at time T6 are defined.
  • prefetch (Pref) at time T3, execute (Exec) at time T4, and kill (Kill) at time T5 are defined as action information for application 2 (App2). Yes.
  • steps S235 to S237 is repeated, and the time measured by the media time timer 256 matches the corresponding event, that is, the prefetch action or execute for the application 1 at the timing when the time T0 to T6 coincides.
  • An action, a prefetch action for the application 2, and the like are sequentially executed.
  • step S237 If it is determined in step S237 that there are no events to be executed, the application control process linked to the recorded program in FIG. 31 ends.
  • the receiving device 20 receives a digital broadcast signal from the transmitting device 10 and plays a live program such as a sports broadcast as AV content. To do.
  • step S251 the signaling information acquisition unit 251 acquires SCS signaling information by connecting to the SCS stream according to the SCS Bootstrap information.
  • the SCS signaling information is analyzed by the analysis unit 255.
  • step S252 the trigger information acquisition unit 252 constantly monitors the video data supplied from the video decoder 216, and acquires trigger information embedded in the video data. This trigger information is analyzed by the analysis unit 255.
  • the metadata acquisition unit 253 acquires metadata (AIT, CCT) distributed by broadcasting or communication according to the analysis result by the analysis unit 255. Specifically, based on the USD included in the SCS signaling information acquired in the process of step S251 and the location information included in the trigger information acquired in the process of step S252, the metadata distribution route is broadcast or communicated. Is determined.
  • the metadata acquisition unit 253 When the metadata is distributed by broadcasting, the metadata acquisition unit 253 connects to the SCS stream according to SDP or FDD included in the SCS signaling information, and transmits the metadata file transmitted in the FLUTE session. To get.
  • the metadata acquisition unit 253 controls the communication unit 221 to connect to the metadata server 40 via the Internet 90 according to the location information included in the trigger information, Get metadata file. This metadata is analyzed by the analysis unit 255.
  • step S254 the application control unit 257 causes an application distributed by broadcasting or communication to be supplied to the application engine 222 in accordance with the analysis result by the analysis unit 255. Specifically, the USD included in the SCS signaling information acquired in the process of step S251, the application URL acquired in the process of step S253, and the application item URL (URL indicating the acquisition destination of the file held in the cache memory) ) To determine whether the application distribution route is broadcast or communication.
  • the application control unit 257 When the application is distributed by broadcasting, the application control unit 257 connects to the NRT stream according to SDP or FDD included in the SCS signaling information, and acquires the application file transmitted in the FLUTE session. .
  • the application control unit 257 controls the communication unit 221 to connect to the application server 30 via the Internet 90 according to the application URL or the like and acquire the application file.
  • the application acquired in this way is held in the cache memory 223.
  • the application file held in the cache memory 223 is based on the capacity of the cache memory 223 and the CCT as cache control information.
  • step S255 the trigger information acquisition unit 252 constantly monitors the video data supplied from the video decoder 216, and determines whether the trigger information embedded in the video data has been acquired. If it is determined in step S255 that the trigger information has been acquired, the process proceeds to step S256.
  • step S256 the application control unit 257 controls the application engine 222 to execute the action of the application included in the trigger information acquired in the process of step S255. Note that when the process of step S256 ends, the process proceeds to step S257. If it is determined in step S255 that the trigger information has not been acquired, the process in step S256 is skipped, and the process proceeds to step S257.
  • step S257 it is determined whether or not the live program being played has ended. If it is determined in step S257 that the live program being reproduced has not ended, the process returns to step S255, and the subsequent processes are repeated.
  • step S257 If it is determined in step S257 that the live program has ended, the application control process linked to the live program in FIG. 32 ends.
  • the flow of application control processing linked to live programs has been described above.
  • the application control process linked to this live program corresponds to the use cases 2 and 5 described above.
  • Hybrid application control processing Next, the flow of the hybrid type application control process executed by the reception device 20 of FIG. 24 will be described with reference to the flowchart of FIG. Note that it is assumed that AV content such as a program is played on the receiving device 20.
  • step S271 the signaling information acquisition unit 251 acquires the SCS signaling information by connecting to the SCS stream according to the SCS Bootstrap information.
  • the SCS signaling information is analyzed by the analysis unit 255.
  • step S272 the trigger information acquisition unit 252 constantly monitors the video data supplied from the video decoder 216, and acquires trigger information embedded in the video data. This trigger information is analyzed by the analysis unit 255.
  • step S273 the media time timing unit 256 sets the media time information according to the analysis result of the trigger information acquired in the process of step S272, and starts measuring the time based on the media time information.
  • step S274 the metadata acquisition unit 253 acquires metadata (AIT, EMT, CCT) distributed by broadcasting or communication according to the analysis result by the analysis unit 255. Specifically, based on the USD included in the SCS signaling information acquired in the process of step S271 and the location information included in the trigger information acquired in the process of step S272, the metadata distribution route is broadcast or communicated. Is determined.
  • the metadata acquisition unit 253 When the metadata is distributed by broadcasting, the metadata acquisition unit 253 connects to the SCS stream according to SDP or FDD included in the SCS signaling information, and transmits the metadata file transmitted in the FLUTE session. To get.
  • the metadata acquisition unit 253 controls the communication unit 221 to connect to the metadata server 40 via the Internet 90 according to the location information included in the trigger information, Get metadata file. This metadata is analyzed by the analysis unit 255.
  • step S275 it is determined whether or not the time measured by the media time timer 256 is the start time of the event specified in the EMT list. If it is determined in step S275 that the time measured has reached the start time of the event specified in the EMT list, the process proceeds to step S276.
  • step S276 the application control unit 257 controls the application engine 222 to execute the action of the application corresponding to the event for which it is determined in the determination process in step S275 that the time measurement has reached the start time. Note that when the process of step S276 ends, the process proceeds to step S277. If it is determined in step S275 that the time measured is not the start time of the event specified in the EMT list, the process in step S276 is skipped, and the process proceeds to step S277.
  • step S277 the video data supplied from the video decoder 216 is constantly monitored to determine whether or not trigger information embedded in the video data has been acquired. If it is determined in step S277 that trigger information has been acquired, the process proceeds to step S278.
  • step S278 it is determined whether or not event information is specified in the trigger information acquired in the process of step S277. If it is determined in step S278 that event information is specified in the trigger information, the process proceeds to step S279.
  • step S279 the analysis unit 255 edits the EMT according to the editing content of the event information included in the trigger information.
  • the execution time of the execute action for the application 1 defined in the EMT is updated from the time T1 to the time T1A, or the injection event action for the application 1 at the time T2 is deleted. Is edited.
  • step S278 if it is determined in step S278 that event information is not specified in the trigger information, the process proceeds to step S280.
  • step S280 the application control unit 257 controls the application engine 222 to execute an application action included in the trigger information.
  • step S277 If it is determined in step S277 that trigger information has not been acquired, steps S278 to S280 are skipped, and the process proceeds to step S281. When the process of step S279 or S280 is completed, the process proceeds to step S281.
  • step S281 it is determined whether or not the program being played has ended. If it is determined in step S281 that the program being reproduced has not ended, the process returns to step S275, and the subsequent processing is repeated. If it is determined in step S281 that the program being played has ended, the hybrid type application control process in FIG. 33 ends.
  • step S311 the control unit 311 always monitors the communication status of the communication unit 314, and determines whether an application is requested from the reception device 20. If it is determined in step S311 that an application is not requested, the determination process in step S311 is repeated. That is, in step S311, the process is advanced to step S312 after waiting for an application request from the receiving device 20.
  • step S312 the communication unit 314 acquires the application held in the application holding unit 313 according to the control from the control unit 311.
  • step S 313 the communication unit 314 transmits the application acquired in the process of step S 312 to the request receiving device 20 via the Internet 90 in accordance with the control from the control unit 311.
  • the application distribution process of FIG. 34 ends.
  • step S411 the control unit 411 constantly monitors the communication status of the communication unit 414, and determines whether metadata is requested from the reception device 20. If it is determined in step S411 that metadata is not requested, the determination process in step S411 is repeated. That is, in step S411, the process proceeds to step S412 after waiting for metadata to be requested from the receiving device 20.
  • step S412 the communication unit 414 acquires the metadata held in the metadata holding unit 413 according to the control from the control unit 411.
  • step S 413 the communication unit 414 transmits the metadata acquired in the processing in step S 412 to the request receiving device 20 via the Internet 90 in accordance with the control from the control unit 411.
  • the metadata distribution process of FIG. 35 ends.
  • step S511 an inquiry about trigger information is received from the receiving device 20, and it is determined whether or not the fingerprint information is received. If it is determined in step S511 that the fingerprint information has not been received, the determination process in step S511 is repeated. In other words, in step S511, after the fingerprint information is received by the communication unit 511, the process proceeds to step S512.
  • step S512 the ACR identification processing unit 512 collates the fingerprint information received in the process of step S511 with the FP database 513 prepared in advance, and identifies the AV content being played back by the receiving device 20 as the inquiry source. ACR identification processing is performed.
  • step S513 the trigger information generation unit 514 generates trigger information based on the result of the ACR identification process obtained in the process of step S512 and various information registered in the trigger information database 515.
  • step S514 the communication unit 511 transmits the trigger information generated in the process of step S513 to the receiving device 20 that is the inquiry source via the Internet 90.
  • the trigger information distribution process of FIG. 36 ends.
  • broadcast contents such as recorded programs and live programs have been described as AV contents.
  • communication contents are streamed from a streaming server (not shown) via the Internet 90. You may be made to do.
  • FIG. 37 is a diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 905 is further connected to the bus 904.
  • An input unit 906, an output unit 907, a recording unit 908, a communication unit 909, and a drive 910 are connected to the input / output interface 905.
  • the input unit 906 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 907 includes a display, a speaker, and the like.
  • the recording unit 908 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 909 includes a network interface or the like.
  • the drive 910 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads the program stored in the ROM 902 or the recording unit 908 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program. A series of processing is performed.
  • the program executed by the computer 900 can be provided by being recorded on a removable medium 911 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 908 via the input / output interface 905 by installing the removable medium 911 in the drive 910. Further, the program can be received by the communication unit 909 via a wired or wireless transmission medium and installed in the recording unit 908. In addition, the program can be installed in the ROM 902 or the recording unit 908 in advance.
  • the processing performed by the computer according to the program does not necessarily have to be performed in chronological order in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or individually (for example, parallel processing or object processing).
  • the program may be processed by a single computer (processor) or may be distributedly processed by a plurality of computers.
  • the present technology can take the following configurations.
  • a first acquisition unit that acquires trigger information including at least location information as information for controlling the operation of an application executed in conjunction with AV (Audio Video) content;
  • a second acquisition unit that acquires application control information for controlling the operation of the application;
  • a control unit that controls the operation of the application based on the trigger information and the application control information.
  • the trigger information includes time information serving as a reference of time for controlling the operation of the application.
  • the second acquisition unit acquires schedule control information that defines the operation of the application in time series, When the time measured based on the time information has passed the time specified in the schedule control information, the control unit performs the operation of the application according to action information for the application corresponding to the time.
  • the receiving device according to (1).
  • the application is composed of a plurality of files
  • the second acquisition unit acquires cache control information for controlling a cache of a file group constituting the application,
  • the receiving device according to (2) wherein the control unit causes a cache memory to hold a file group constituting the application based on the cache control information.
  • the trigger information includes editing information for editing the contents defined in the schedule control information,
  • the receiving device according to (2) or (3) wherein the control unit edits the schedule control information based on the editing information.
  • the location information is information for acquiring the application control information, the schedule control information, and the cache control information,
  • the receiving device according to (3) or (4), wherein the application control information, the schedule control information, and the cache control information are associated by identification information of the application.
  • the trigger information includes action information for the application, The receiving device according to (1), wherein when the trigger information is acquired, the control unit controls the operation of the application according to the action information included in the trigger information.
  • the application is composed of a plurality of files, The second acquisition unit acquires cache control information for controlling a cache of a file group constituting the application, The receiving device according to (6), wherein the control unit causes a cache memory to hold a file group configuring the application based on the cache control information.
  • the location information is information for acquiring the application control information and the cache control information, The receiving device according to (7), wherein the trigger information, the application control information, and the cache control information are associated by identification information of the application.
  • the AV content is broadcast content transmitted by a digital broadcast signal
  • the trigger information is distributed in a digital broadcast signal or distributed from a server on the Internet
  • the receiving device according to any one of (1) to (8), wherein the first acquisition unit acquires the trigger information distributed by broadcast or communication.
  • the receiving device is Trigger information including at least location information is acquired as information for controlling the operation of an application executed in conjunction with AV content, Obtaining application control information for controlling the operation of the application;
  • a receiving method including a step of controlling an operation of the application based on the trigger information and the application control information.
  • the application is composed of a plurality of files
  • the second generation unit generates cache control information for controlling a cache of a file group constituting the application,
  • the first generation unit generates the trigger information including editing information for editing the contents defined in the schedule control information,
  • the location information is information for acquiring the application control information, the schedule control information, and the cache control information, The transmission device according to (13) or (14), wherein the application control information, the schedule control information, and the cache control information are associated by identification information of the application.
  • the first generation unit generates the trigger information including action information for the application, The transmission device according to (11), wherein the transmission unit transmits the trigger information including the action information.
  • the application is composed of a plurality of files, The second generation unit generates cache control information for controlling a cache of a file group constituting the application, The transmission device according to (16), wherein the transmission unit further transmits the cache control information.
  • the location information is information for acquiring the application control information and the cache control information, The transmission device according to (17), wherein the trigger information, the application control information, and the cache control information are associated by identification information of the application.
  • the AV content is broadcast content
  • the transmission device according to any one of (11) to (18), wherein the transmission unit transmits the trigger information and application control information together with the AV content by a digital broadcast signal.
  • the transmitting device is Get AV content, As information for controlling the operation of the application executed in conjunction with the AV content, generating trigger information including at least location information, Obtaining and generating application control information for controlling the operation of the application; A transmission method including a step of transmitting the trigger information and application control information together with the AV content.
  • 1 broadcast communication system 10 transmitting device, 20 receiving device, 30 application server, 40 metadata server, 50 ACR server, 90 Internet, 111 signaling information generating unit, 113 metadata generating unit, 115 audio data acquiring unit, 117 video data Acquisition unit, 119 trigger information generation unit, 121 transmission unit, 212 tuner, 218 control unit, 221 communication unit, 222 application engine, 223 cache memory, 251 signaling information acquisition unit, 252 trigger information acquisition unit, 253 metadata acquisition unit, 254 Fingerprint information acquisition unit, 255 analysis unit, 256 media time timing unit, 257 application control unit, 11 control unit, 313 application holding unit, 314 communication unit, 411 control unit, 413 the metadata holding unit, 414 communication unit, 511 communication unit, 512 ACR identification processing unit, 514 trigger information generation unit, 900 computer, 901 CPU

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)

Abstract

 本技術は、確実に、AVコンテンツに連動して実行されるアプリケーションの運用を行うことができるようにする受信装置、受信方法、送信装置、及び、送信方法に関する。 AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を取得するトリガ情報取得部と、アプリケーションの動作を制御するためのアプリケーション制御情報を取得するメタデータ取得部と、トリガ情報、及び、アプリケーション制御情報に基づいて、アプリケーションの動作を制御するアプリケーション制御部とを備える受信装置が提供される。本技術は、例えば、テレビ受像機に適用することができる。

Description

受信装置、受信方法、送信装置、及び、送信方法
 本技術は、受信装置、受信方法、送信装置、及び、送信方法に関し、特に、確実に、AVコンテンツに連動して実行されるアプリケーションの運用を行うことができるようにした受信装置、受信方法、送信装置、及び、送信方法に関する。
 地上波放送で放送された番組等のAV(Audio Video)コンテンツを、ケーブルテレビ(CATV:Cable Television)や衛星放送により再配信する運用が行われている(例えば、特許文献1参照)。
特開2001-136444号公報
 ところで、地上波放送で放送された番組等のAVコンテンツが、ケーブルテレビ等で再配信される場合に、当該AVコンテンツと連動して実行されるアプリケーションの制御など、地上波放送において規定された仕組みが、ケーブルテレビ等の再配信において維持することができない場合がある。この場合に、受信機では、番組等のAVコンテンツに連動して実行されるアプリケーションを動作させることができないため、確実に、当該アプリケーションを運用するための技術が要求されていた。
 本技術はこのような状況に鑑みてなされたものであり、確実に、AVコンテンツに連動して実行されるアプリケーションの運用を行うことができるようにするものである。
 本技術の第1の側面の受信装置は、AV(Audio Video)コンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を取得する第1の取得部と、前記アプリケーションの動作を制御するためのアプリケーション制御情報を取得する第2の取得部と、前記トリガ情報、及び、前記アプリケーション制御情報に基づいて、前記アプリケーションの動作を制御する制御部とを備える受信装置である。
 前記トリガ情報は、前記アプリケーションの動作の制御を行う時刻の基準となる時刻情報を含み、前記第2の取得部は、前記アプリケーションの動作を時系列で規定したスケジュール制御情報を取得し、前記制御部は、前記時刻情報を基準に計時された時刻が、前記スケジュール制御情報に規定された時刻を経過したとき、当該時刻に対応した前記アプリケーションに対するアクション情報に応じて、前記アプリケーションの動作を制御するようにすることができる。
 前記アプリケーションは、複数のファイルから構成されており、前記第2の取得部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を取得し、前記制御部は、前記キャッシュ制御情報に基づいて、前記アプリケーションを構成するファイル群をキャッシュメモリに保持させるようにすることができる。
 前記トリガ情報は、前記スケジュール制御情報に規定された内容を編集するための編集情報を含み、前記制御部は、前記編集情報に基づいて、前記スケジュール制御情報を編集するようにすることができる。
 前記ロケーション情報は、前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられているようにすることができる。
 前記トリガ情報は、前記アプリケーションに対するアクション情報を含み、前記制御部は、前記トリガ情報が取得されたとき、当該トリガ情報に含まれる前記アクション情報に応じて、前記アプリケーションの動作を制御するようにすることができる。
 前記アプリケーションは、複数のファイルから構成されており、前記第2の取得部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を取得し、前記制御部は、前記キャッシュ制御情報に基づいて、前記アプリケーションを構成するファイル群をキャッシュメモリに保持させるようにすることができる。
 前記ロケーション情報は、前記アプリケーション制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、前記トリガ情報、前記アプリケーション制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられているようにすることができる。
 前記AVコンテンツは、デジタル放送信号で送信される放送コンテンツであり、前記トリガ情報は、デジタル放送信号に含めて配信されるか、あるいはインターネット上のサーバから配信され、前記第1の取得部は、放送又は通信で配信される前記トリガ情報を取得するようにすることができる。
 本技術の第1の側面の受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第1の側面の受信方法は、上述した本技術の第1の側面の受信装置に対応する受信方法である。
 本技術の第1の側面の受信装置、及び、受信方法においては、AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報が取得され、前記アプリケーションの動作を制御するためのアプリケーション制御情報が取得され、前記トリガ情報、及び、前記アプリケーション制御情報に基づいて、前記アプリケーションの動作が制御される。
 本技術の第2の側面の送信装置は、AVコンテンツを取得する取得部と、前記AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を生成する第1の生成部と、前記アプリケーションの動作を制御するためのアプリケーション制御情報を生成する取得する第2の第2の生成部と、前記AVコンテンツとともに、前記トリガ情報、及び、アプリケーション制御情報を送信する送信部とを備える送信装置である。
 前記第1の生成部は、前記アプリケーションの動作の制御を行う時刻の基準となる時刻情報を含む前記トリガ情報を生成し、前記第2の生成部は、前記アプリケーションの動作を時系列で規定したスケジュール制御情報を生成し、前記送信部は、前記時刻情報を含む前記トリガ情報、及び、前記スケジュール制御情報を送信するようにすることができる。
 前記アプリケーションは、複数のファイルから構成されており、前記第2の生成部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を生成し、前記送信部は、前記キャッシュ制御情報をさらに送信するようにすることができる。
 前記第1の生成部は、前記スケジュール制御情報に規定された内容を編集するための編集情報を含む前記トリガ情報を生成し、前記送信部は、前記編集情報を含む前記トリガ情報を送信するようにすることができる。
 前記ロケーション情報は、前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられているようにすることができる。
 前記第1の生成部は、前記アプリケーションに対するアクション情報を含む前記トリガ情報を生成し、前記送信部は、前記アクション情報を含む前記トリガ情報を送信するようにすることができる。
 前記アプリケーションは、複数のファイルから構成されており、前記第2の生成部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を生成し、前記送信部は、前記キャッシュ制御情報をさらに送信するようにすることができる。
 前記ロケーション情報は、前記アプリケーション制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、前記トリガ情報、前記アプリケーション制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられているようにすることができる。
 前記AVコンテンツは、放送コンテンツであり、前記送信部は、前記AVコンテンツとともに、前記トリガ情報、及び、アプリケーション制御情報を、デジタル放送信号で送信するようにすることができる。
 本技術の第2の側面の送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第2の側面の送信方法は、上述した本技術の第2の側面の送信装置に対応する送信方法である。
 本技術の第2の側面の送信装置、及び、送信方法においては、AVコンテンツが取得され、前記AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報が生成され、前記アプリケーションの動作を制御するためのアプリケーション制御情報が生成され、前記AVコンテンツとともに、前記トリガ情報、及び、アプリケーション制御情報が送信される。
 本技術の第1の側面、及び、第2の側面によれば、確実に、AVコンテンツに連動して実行されるアプリケーションの運用を行うことができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
トリガ情報の構成を示す図である。 アクション情報の記述方法を示す図である。 イベント情報の記述方法を示す図である。 トリガ情報の記述例を示す図である。 AITのシンタックスの例を示す図である。 EMTのシンタックスの例を示す図である。 CCTの概要を説明する図である。 CCTの概要を説明する図である。 CCTのシンタックスの例を示す図である。 IP伝送方式のデジタル放送のシステムパイプモデルを示す図である。 ユースケース1を説明する図である。 ユースケース1を説明する図である。 ユースケース1における各データの対応関係を示す図である。 ユースケース2を説明する図である。 ユースケース2を説明する図である。 ユースケース2における各データの対応関係を示す図である。 ユースケース3を説明する図である。 ユースケース3を説明する図である。 ユースケース4を説明する図である。 ユースケース4における各データの対応関係を示す図である。 ユースケース5を説明する図である。 ユースケース5における各データの対応関係を示す図である。 ユースケース6を説明する図である。 放送通信システムの構成例を示す図である。 送信装置の構成例を示す図である。 受信装置の構成例を示す図である。 制御部の構成例を示す図である。 各サーバの構成例を示す図である。 デジタル放送信号送信処理の流れを説明するフローチャートである。 デジタル放送信号受信処理の流れを説明するフローチャートである。 収録済み番組に連動したアプリケーション制御処理の流れを説明するフローチャートである。 ライブ番組に連動したアプリケーション制御処理の流れを説明するフローチャートである。 ハイブリッド型のアプリケーション制御処理の流れを説明するフローチャートである。 アプリケーション配信処理の流れを説明するフローチャートである。 メタデータ配信処理の流れを説明するフローチャートである。 トリガ情報配信処理の流れを説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.アプリケーション制御の概要
2.IP伝送方式によるデジタル放送の概要
3.具体的なユースケース
(1)ユースケース1:収録済み番組に連動したアプリケーションの制御
(2)ユースケース2:ライブ番組に連動したアプリケーションの制御
(3)ユースケース3:ハイブリッド型のアプリケーションの制御
(4)ユースケース4:収録済み番組に連動したアプリケーションの制御(ACR対応)
(5)ユースケース5:ライブ番組に連動したアプリケーションの制御(ACR対応)
(6)ユースケース6:SCSシグナリング情報を用いたアプリケーションの制御
4.システムの構成
5.各装置で実行される処理の流れ
6.コンピュータの構成
<1.アプリケーション制御の概要>
 まず、本技術を適用したアプリケーション制御の概要を説明する。
 本技術を適用したアプリケーション制御では、トリガ情報、及び、メタデータを用いて、番組等のAVコンテンツに連動して実行されるアプリケーションの動作が制御される。
 トリガ情報は、アプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含んでいる。メタデータは、AIT(Application Information Table)、EMT(Event Message Table)、及び、CCT(Content Configuration Table)から構成される。
 AITは、アプリケーションの動作を制御するためのアプリケーション制御情報である。EMTは、アプリケーションの動作を時系列で規定したスケジュール制御情報である。CCTは、アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報である。以下、トリガ情報と、メタデータの詳細な構成を説明する。
(トリガ情報の詳細な構成)
 図1は、トリガ情報の構成を示す図である。
 トリガ情報は、トリガ情報の種類を示すコマンドID(cmdID)と、トリガ情報本体であるロケーション情報としてのURI(Uniform Resource Identifier)が記述される構造となる。コマンドIDには、本技術に関連するアプリケーション制御にトリガ情報を適用する場合には、例えば、"0"が指定される。図1において、locator_partが、URIに相当し、タームス(terms)をオプションで指定することができる。なお、図1においては、コマンドIDは省略してある。
 タームスには、アクション情報(action)、メディアタイム情報(media_time)、又はイベント情報(event)が指定される。アクション情報には、アプリケーションに対する各種のアクションが指定される。メディアタイム情報には、アプリケーションの動作の制御を行う基準となる時刻(例えば現在の時刻)を示す情報(時刻情報)が指定される。イベント情報には、EMTに規定された内容を編集するための情報(編集情報)が指定される。
 また、タームスには、オプションとして、スプレッド情報(spread)、バージョン情報(version)、又はその他(others)のパラメータを指定することができる。スプレッド情報には、アプリケーションに関する動作を確率的に分散させるための情報が指定される。バージョン情報としては、AIT、EMT、CCTのバージョン情報が指定される。なお、これらのパラメータは、"&"により連結されることになる。
 ここで、図2に示すように、図1のタームスに指定されるアクション情報は、アプリケーションID(appID)と、アクションコード(action_code)が、ピリオドにより連結されている。アプリケーションIDには、対象のアプリケーションの識別情報が指定される。
 アクションコードには、アプリケーションIDにより識別されるアプリケーションに実行させるアクションが指定される。例えば、アクションコードには、"a1"~"a4"や、"e1"~"eN"(Nは1以上の整数)等のコードが指定される。
 プリフェッチ(Prefetch)は、アプリケーションの取得を指示するためのアクションである。プリフェッチのアクションコードは、"a1"とされる。なお、プリフェッチは、プリペア(Prepare)と称される場合があるが、ここでは、プリフェッチに統一して説明する。
 エクスキュート(Execute(Exec))は、アプリケーションの取得又は起動を指示するためのアクションである。なお、対象のアプリケーションが休止している場合には、そのアプリケーションの実行を再開させる。エクスキュートのアクションコードは、"a2"とされる。
 キル(Kill)は、実行中のアプリケーションを終了させるためのアクションである。キルのアクションコードは、"a3"とされる。
 サスペンド(Suspend)は、実行中のアプリケーションを中断して、休止させるためのアクションである。サスペンドのアクションコードは、"a4"とされる。
 また、アクションコードには、イベントID(ストリームイベントID)として、"e1"~"eN"(Nは1以上の整数)が指定される。アクションコードとして、ストリームイベントIDが指定された場合、当該ストリームイベントに付随するデータが、イベントデータ(event_data)に指定される。すなわち、イベントデータは、ストリームイベントに応じたオプショナルな値となる。ストリームイベントIDを指定することで、実行中のアプリケーションに対して、イベントを発火させる(所定のスクリプトを実行させる)ことができる。
 なお、複数のアクション情報を同時に記述する場合には、アプリケーションID(appID)、アクションコード(action_code)、オプショナルなイベントデータ(event_data)を繰り返して記述することになる。また、イベントタイム(event_time)には、アプリケーションに対するアクションを実行する時刻が指定される。トリガ情報を取得後、直ちに実行する場合には、イベントタイムを指定する必要はない。
 また、図3に示すように、図1のタームスに指定されるイベント情報は、イベントID(eventID)と、エディットコード(edit_code)がピリオドにより連結されている。イベントIDには、EMTに時系列で規定されるイベントのうち、対象のイベントの識別情報が指定される。
 エディットコードには、イベントIDにより識別されるイベントを編集するための情報(編集情報)が指定される。この編集情報としては、削除(delete)又は更新(update)が指定される。ただし、更新の場合には、イベントタイム(event_time)に更新後の時刻を示す情報が指定される。なお、削除のエディットコードは"1"とされ、更新のエディットコードは"2"とされる。
(トリガ情報の記述例)
 図4は、トリガ情報の記述例を示す図である。
 図4において、1行目の「xbc.tv/e12」は、タームスが指定されていない場合のトリガ情報を示している。メタデータ(AIT、EMT、CCT)が通信で配信されている場合には、当該トリガ情報の先頭に、"http://"を付加したURL(Uniform Resource Locator)に従い、インターネット上のサーバに接続することで、当該メタデータのファイルが取得される。また、メタデータ(AIT、EMT、CCT)が放送で配信されている場合には、当該トリガ情報から得られるURLに従い、FLUTE(File Delivery over Unidirectional Transport)セッションで伝送されているSCS(Service Channel Signaling)ストリームに接続することで、当該メタデータのファイルが取得される。
 2行目の「xbc.tv/e12?m=5a33」は、タームスとして、メディアタイム情報(m:media_time)が指定されている場合のトリガ情報を示している。"m=5a33"によって、当該トリガ情報を受信した時刻が指定されている。
 3行目の「xbc.tv/e12?a=42a8.a2」は、タームスとして、アクション情報(a:action)が指定されている場合のトリガ情報を示している。"a=42a8.a2"によって、"42a8"であるアプリケーションIDと、"a2"であるアクションコードが指定されている。すなわち、当該トリガ情報は、"42a8"であるアプリケーションIDのアプリケーションに対するエクスキュートアクションを指定している。
 4行目の「xbx.tv/e12?a=42a8.a4&a=4314.a2」は、タームスとして、複数のアクションが指定されている場合のトリガ情報を示している。すなわち、当該トリガ情報は、"42a8"であるアプリケーションIDのアプリケーションに対するサスペンドアクションと、"4314"であるアプリケーションIDのアプリケーションに対するエクスキュートアクションを指定している。
 5行目の「xbc.tv/e12?a=42a8.e1.1762&t=77ee」は、タームスとして、イベント発火のアクションが指定されている場合のトリガ情報を示している。すなわち、当該トリガ情報は、"42a8"であるアプリケーションIDのアプリケーションに対する、"e1"であるイベント(ストリームイベント)を指定している。ただし、当該イベントは、"77ee"である時刻に実行され、イベント発火の際には"1762"であるデータが使用されることになる。
 6行目の「xbc.tv/e12?e=12.1」は、タームスとして、イベントが指定されている場合のトリガ情報を示している。すなわち、当該トリガ情報は、EMTに時系列で規定されているイベントのうち、"12"であるイベントIDのイベントを削除することを指定している。
 7行目の「xbc.tv/e12?e=12.2&t=77ee」は、タームスとして、イベントが指定されている場合のトリガ情報を示している。すなわち、当該トリガ情報は、EMTに時系列で規定されているイベントのうち、"12"であるイベントIDのイベントの時刻を、"77ee"である時刻に更新することを指定している。
(メタデータの詳細な構成)
(AITの詳細な構成)
 図5は、AITのシンタックスの例を示す図である。
 AITは、例えばXML(Extensible Markup Language)等のマークアップ言語により記述される。なお、図5において、要素と属性のうち、属性には「@」が付されている。また、インデントされた要素と属性は、その上位の要素に対して指定されたものとなる。これらの関係は、後述する他のシンタックスでも同様とされる。
 図5において、ServiceDiscovery要素におけるApplicationDiscovery要素は、DomainName属性とApplicationList要素の上位要素とされる。DomainName属性は、ドメインの名称が指定される。ApplicationList要素は、Application要素の上位要素であって、1又は複数のApplication要素を、リストとして記述する。
 Application要素には、アプリケーションに関する情報が指定される。Application要素は、appName要素、applicationIdentifier要素、applicationDescriptor要素、applicationTransport要素、applicationLocation要素、application Boundary要素の上位要素とされる。
 appName要素には、アプリケーションの名称が指定される。
 applicationIdentifier要素は、アプリケーションの識別情報に関する情報が指定される。applicationIdentifier要素は、orgId要素とappId要素の上位要素とされる。orgId要素には、オーガニゼーションIDが指定される。appId要素には、アプリケーションIDが指定される。このアプリケーションIDが、図2のトリガ情報のアプリケーションIDに対応している。
 applicationDescriptor要素は、type要素、controlCode要素、serviceBound要素、priority要素、及びicon要素の上位要素とされる。type要素には、アプリケーションに関するタイプ情報が指定される。
 controlCode要素には、アプリケーションに実行させるアクションが指定される。このアクション情報としては、例えば、オートスタート、プレゼント、キル、又はプリフェッチが指定される。
 オートスタート(AUTO START)は、アプリケーションの自動実行を指示するためのアクションである。一方、プレゼント(PRESENT)は、アプリケーションを自動実行しないことを意味する。キル(KILL)は、実行中のアプリケーションを終了させるためのアクションである。プリフェッチ(PREFETCH)は、アプリケーションの取得を指示するためのアクションである。なお、当該アクション情報として、上述したトリガ情報で規定されたアクション情報を用いるようにしてもよい。
 serviceBound要素には、サービスに依存したアプリケーションかどうかを示す情報が指定される。priority要素には、複数のアプリケーションが存在する場合の優先度を示す情報が指定される。icon要素には、アプリケーションで使用されるアイコンの取得先やサイズが指定される。
 applicationTransport要素は、type属性、URLBase要素、及び、URLExtension要素の上位要素とされる。Type属性には、アプリケーションの伝送に関するタイプ情報が指定される。また、URLBase要素、URLExtension要素、及び、applicationLocation要素により、アプリケーションの取得先のURL(アプリケーションURL)が指定される。application Boundary要素には、アプリケーションが動作する範囲を示すドメインが指定される。
 なお、図5において、出現数(Cardinality)であるが、"1"が指定された場合にはその要素又は属性は必ず1つだけ指定され、"0..1"が指定された場合には、その要素又は属性を指定するかどうかは任意である。また、"1..N"が指定された場合には、その要素又は属性は1以上指定され、"0..N"が指定された場合には、その要素又は属性を1以上指定するかどうかは任意である。これらの出現数の意味は、後述する他のシンタックスでも同様とされる。
(EMTの詳細な構成)
 図6は、EMTのシンタックスの例を示す図である。なお、EMTは、例えばXML等のマークアップ言語により記述される。
 EMT要素は、majorProtocolversion属性、minorProtocolVersion属性、id属性、EMTVersion属性、beginMT属性、LiveTrigger要素、及び、Event要素の上位要素とされる。
 majorProtocolversion属性と、minorProtocolVersion属性には、シンタックスのバージョン情報が指定される。id属性には、EMTを識別するための識別情報が指定される。例えば、id属性には、domain_nameと、program_id(segment_id)とを、"/"により連結した文字列が指定される。EMTVersion属性には、EMTのバージョン情報が指定される。beginMT属性には、EMTに対応するメディアタイムが開始する時刻を示す情報が指定される。
 LiveTrigger要素には、トリガ情報がインターネット上のサーバから伝送される場合のトリガ情報(ライブトリガ情報)に関する情報が記述される。LiveTrigger要素は、URL属性とpollPeriod属性が指定される。URL属性には、ライブトリガ情報を提供するサーバに接続するためのURLが指定される。pollPeriod属性には、サーバからライブトリガ情報を取得する際のポーリング周期が指定される。
 Event要素には、イベント情報が、時系列で規定される。Event要素は、id属性、appID属性、action属性、startTime属性、endTime属性、及び、Data要素の上位要素とされる。id属性には、イベントIDが指定される。appID属性には、アプリケーションIDが指定される。
 action属性には、アプリケーションに実行させるアクションが指定される。このアクション情報としては、プリフェッチ、エクスキュート、サスペンド、キル、又はインジェクトイベントが指定される。
 プリフェッチ(Prefetch)は、アプリケーションの取得を指示するためのアクションである。なお、上述したように、プリフェッチは、プリペア(Prepare)と称される場合がある。
 エクスキュート(Execute)は、アプリケーションの取得又は起動を指示するためのアクションである。なお、対象のアプリケーションが休止している場合には、そのアプリケーションの実行を再開させる。
 サスペンド(Suspend)は、実行中のアプリケーションを中断して、休止させるためのアクションである。キル(Kill)は、実行中のアプリケーションを終了させるためのアクションである。インジェクトイベント(Inject Event)は、ストリームイベントとしてイベントを発火させるためのアクションである。
 startTime属性には、アプリケーションに対するアクションの有効期間の開始時刻を示す情報が指定される。endTime属性には、アプリケーションに対するアクションの有効期間の終了時刻を示す情報が指定される。
 すなわち、アプリケーションに対するアクションの有効期間は、対応するAVコンテンツの進行時間軸上の2点を示すstartTime属性及びendTime属性により定められる。そして、例えば、受信機の内部時計(メディアタイム情報)により計時されるAVコンテンツの進行タイミングが、startTime属性の示す有効開始時刻を経過したとき、その有効開始時刻に対応するアクションが有効とされる。この場合、endTime属性を指定せずに、startTime属性のみが指定されるようにしてもよい。
 また、受信機の内部時計により計時されるAVコンテンツの進行タイミングが、有効期間内であるときに、その有効期間に対応するアクションが有効とされ、AVコンテンツの進行タイミングが有効期間に達していない、又はそれを過ぎたときは、その有効期間に対応するアクションが無効とされるようにしてもよい。すなわち、受信機では、内部時計(メディアタイム情報)により計時される時刻が、有効期間等に基づいた所定の有効条件を満たしたときに、その有効期間に対応するアクションが有効とされる。
 Data要素は、アクション情報として、インジェクトイベントが指定された場合に、当該イベントで使用されるデータが指定される。当該データを識別するためのデータIDが、Data要素の子要素のdataID属性により指定される。
(CCTの詳細な構成)
 図7は、CCTの概要を説明する図である。
 図7は、"a1"であるアプリケーションIDを有するアプリケーションの構造を示している。アプリケーションは、HTML(HyperText Markup Language)ファイルやJPEG(Joint Photographic Experts Group)ファイル等の複数のファイルから構成されている。図7においては、HTMLファイルを、「An」で表し、JPEGファイル等のHTMLファイルから参照されるリソースファイルを、「Bn」で表している。なお、「An」と「Bn」において、「n」には、各ファイルを識別するための数字が指定される。
 また、トップページのHTMLファイルA11は、HTMLファイルA01、及び、HTMLファイルA12とリンクされている。また、HTMLファイルA01は、HTMLファイルA02とリンクされ、HTMLファイルA02はさらに、HTMLファイルA03とリンクされている。
 ここで、アプリケーションを構成する複数のファイルを、提示される単位(すなわち、ページ単位、以下、「PU(Presentation Unit)」という)で、グループ分けすれば、トップページとなるHTMLファイルA11では、リソースファイルB02、B11、B14を参照しているので、これらの4つのファイルを、1つの集まりとして、PU_ID=1を付与するものとする。
 同様に、HTMLファイルA12は、リソースファイルB07、B09、B12、B13を参照しているので、これらの5つのファイルを、PU_ID=2の集合とすることができる。また、HTMLファイルA01は、リソースファイルB01、B03、B04を参照しているので、これらの4つのファイルを、PU_ID=3の集合とすることができる。さらに、HTMLファイルA02は、リソースファイルB05、B06を参照しているので、これらの3つのファイルを、PU_ID=4の集合とすることができる。HTMLファイルA03は、リソースファイルB05、B08を参照しているので、これらの3つのファイルを、PU_ID=5の集合とすることができる。
 以上のように、"a1"であるアプリケーションIDを有するアプリケーションを構成するファイル群は、PU_ID=1~5で識別される集合ごとに、PU単位で、複数のグループに分けることができる。
 ところで、受信機では、アプリケーションを構成するファイル群を、キャッシュメモリに保持することで、アプリケーションに関する処理を高速化することができるが、キャッシュメモリに保持できるファイルは、キャッシュメモリの容量などに応じて限られる。そこで、CCTとして、アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を提供することで、受信機が、キャッシュメモリの容量などに応じて、ファイルをキャッシュメモリに保持できるようにする。
 例えば、図8に示すように、受信機が、最小限のファイル群しかキャッシュメモリに保持できない場合(図中左側の「Minimum Cache」)、提示されているHTMLファイルとそのリソースファイルのみがキャッシュメモリに保持されるようにする。具体的には、トップページのHTMLファイルA11が提示されている場合には、PU_ID=1に属するファイル群のみが、キャッシュメモリに保持される。また、HTMLファイルA11からHTMLファイルA01に遷移した場合には、PU_ID=3に属するファイル群のみが、キャッシュメモリに保持される。
 また、例えば、受信機が、最小限のファイル群よりも多い、中間のファイル群をキャッシュメモリに保持できる場合(図中中央の「Medium Cache」)、提示されているHTMLファイルとそのリソースファイルのみならず、その周辺のファイル群もキャッシュメモリに保持されるようにする。具体的には、トップページのHTMLファイルA11が提示されている場合には、PU_ID=1に属するファイル群のみならず、そのリンク先となるPU_ID=2、3に属するファイル群もキャッシュメモリに保持される。また、HTMLファイルA11からHTMLファイルA01に遷移した場合には、PU_ID=3に属するファイル群のみならず、そのリンク先となるPU_ID=4、5に属するファイル群もキャッシュメモリに保持される。
 また、例えば、受信機が、最大限のファイル群をキャッシュメモリに保持できる場合(図中右側の「Maximum Cache」)、提示されているHTMLファイルとそのリソースファイルのみならず、アプリケーションを構成するすべてのファイル群が、キャッシュメモリに保持されるようにする。具体的には、トップページのHTMLファイルA11が提示されている場合には、PU_ID=1に属するファイル群のみならず、PU_ID=2~5に属するファイル群もキャッシュメモリに保持される。また、HTMLファイルA11からHTMLファイルA01に遷移した場合には、PU_ID=3に属するファイル群のみならず、PU_ID=1、2、4、5に属するファイル群もキャッシュメモリに保持される。
 このように、キャッシュ制御情報としてのCCTを提供することで、受信機では、キャッシュメモリの容量などに応じて、適応的に、ファイルをキャッシュメモリに保持することができるようになる。特に、放送で配信されるファイルは、周期的に配信されているため、所望のファイルを取り損ねると、数十秒後や数分後でないと当該ファイルを取得できないケースも想定されるので、受信機側で、適切にファイルをキャッシュメモリに保持できるようにして、このようなケースを回避できるようにしている。
 図9は、CCTのシンタックスの例を示す図である。なお、CCTは、例えばXML等のマークアップ言語により記述される。
 CCT要素は、majorProtocolversion属性、minorProtocolVersion属性、CCTVersion属性、baseURI属性、及び、Application要素の上位要素とされる。
 majorProtocolversion属性と、minorProtocolVersion属性には、シンタックスのバージョン情報が指定される。CCTVersion属性には、CCTのバージョン情報が指定される。baseURI属性には、CCTに関するURLのベースとなる共通のURLが指定される。
 Application要素には、アプリケーションごとのキャッシュ制御情報が指定される。Application要素は、appID属性、size属性、及び、PU要素の上位要素とされる。appID属性には、アプリケーションIDが指定される。このアプリケーションIDが、図5のAIT等のアプリケーションIDに対応している。size属性には、アプリケーション全体のサイズを示す情報が指定される。
 PU要素には、提示される単位ごとのキャッシュ制御情報が指定される。PU要素は、id属性、size属性、Item要素、及び、LinkedPU要素の上位要素とされる。id属性には、PUの識別情報(図7等のPU_ID)が指定される。size属性には、PU単位のサイズを示す情報が指定される。受信機は、このPU単位のサイズ情報を確認することで、キャッシュメモリに保持するファイルを決定することができる。
 Item要素には、PUを構成する各ファイルに関する情報が指定される。Item要素は、primary属性、uri属性、及び、type属性の上位要素とされる。primary属性には、PUにおけるプライマリのファイルに関する情報が指定される。例えば、アプリケーションにおいて、プライマリのファイルはHTMLファイルとされ、この情報によって、受信機側では特定のPUを取り込んだことを認識することができる。
 uri属性には、各ファイルのURLが指定される。このURLとしては、baseURI属性で指定されるURLに対する相対的なURLが指定される。type属性には、タイプ情報として、"m"又は"p"が指定される。このタイプ情報として、"m"が指定された場合は、PUを構成するファイルであることを示す。一方、タイプ情報として、"p"が指定された場合には、PUを構成するファイルではなく、特定のファイルであることを示す。例えば、放送事業者側で、あらかじめ強制的に取得させたい特定のファイルには、"p"であるタイプ情報が指定されることになる。
 LinkedPU要素は、対象のPUにリンクされたPUに関する情報が指定される。このLinkedPU要素の子要素のid属性には、リンクされたPUの識別情報(図7等のPU_ID)が指定される。このリンクされたPUの識別情報を参照することで、受信機側では、例えば、最小限のファイル群よりも多い、中間のファイル群をキャッシュメモリに保持することができる(図8の中央の「Medium Cache」)。
<2.IP伝送方式によるデジタル放送の概要>
 番組等のAVコンテンツは、IP(Internet Protocol)伝送方式を採用したデジタル放送により伝送することができる。
(システムパイプモデル)
 図10は、IP伝送方式のデジタル放送のシステムパイプモデルを示す図である。
 図10において、所定の周波数帯域を有する放送波(RF Channel)には、複数のBBP(Base Band Packet)ストリームが伝送されている。また、各BBPストリームには、NTP(Network Time Protocol)、複数のサービスチャンネル(Service Channel)、ESG(Electronic Service Guide)サービス、及び、LLS(Low Layer Signaling)が含まれる。なお、NTP、サービスチャンネル、及び、ESGサービスは、UDP/IP(User Datagram Protocol/Internet Protocol)のプロトコルに従って伝送されるが、LLSは、BBPストリーム上で伝送される。
 NTPは、時刻情報である。ESGサービスは、電子サービスガイドである。LLSは、低レイヤのシグナリング情報が伝送される。例えば、LLSとしては、SCD(Service Configuration Description)、EAD(Emergency Alerting Description)、RRD(Region Rating Description)等のLLSシグナリング情報が伝送される。
 SCDは、MPEG2-TS(Moving Picture Experts Group phase 2 - Transport Stream)方式に対応したID体系によって、放送ネットワーク内のBBPストリーム構成とサービス構成を示している。また、SCDには、サービス単位の属性・設定情報や、ESGサービスやSCSに接続するためのbootstrap情報などが含まれる。
 EADは、緊急告知に関する情報を含んでいる。RRDは、レーティング情報を含んでいる。なお、SCD、EAD、RRD等のLLSシグナリング情報は、例えば、XML等のマークアップ言語により記述される。
 サービスチャンネル(以下、「サービス」という)は、SCS(Service Channel Signaling)と、ビデオやオーディオ、字幕等の番組を構成するコンポーネント(Component)から構成される。なお、各サービスを構成する要素には、共通のIPアドレスが付与されており、このIPアドレスを用いて、サービスごとに、コンポーネントやSCSなどをパッケージ化することができる。
 SCSは、サービス単位のシグナリング情報が伝送される。例えば、SCSとしては、USD(User Service Description)、MPD(Media Presentation Description)、SDP(Session Description Protocol)、FDD(File Delivery Description)、SPD(Service Parameter Description)、IS(Initialization Segment)等のSCSシグナリング情報が伝送される。
 USDは、MPD、FDD、SDP等のSCSシグナリング情報を参照するための参照情報を含んでいる。なお、USDは、USBD(User Service Bundle Description)と称される場合がある。MPDは、サービス単位で伝送されるコンポーネントのストリームごとのセグメントURLなどの情報を含んでいる。なお、MPDは、MPEG-DASH(Moving Picture Expert Group - Dynamic Adaptive Streaming over HTTP)の規格に準じている。SDPは、サービス単位のサービス属性、ストリームの構成情報や属性、フィルタ情報、ロケーション情報などを含んでいる。
 FDDは、TSI(Transport Session Identifier)ごとのインデックス情報として、ロケーション情報(例えばURLなど)やTOI(Transport Object Identifier)などの情報を含んでいる。ここで、FLUTE(File Delivery over Unidirectional Transport)セッションでは、送信するファイルなどを1つのオブジェクトとして、TOIにより管理する。また、複数のオブジェクトの集合を1つのセッションとして、TSIにより管理する。
 すなわち、FLUTEセッションにおいては、TSIとTOIの2つの識別情報によって特定のファイルを指定することが可能となる。なお、FDDは、USDに要素として含めるようにしてもよい。また、FLUTEの代わりに、FLUTEを拡張したFLUTE +(FLUTE plus)を用いるようにしてもよい。
 SPDは、サービスやコンポーネントのレベルで規定された各種のパラメータを含んで構成される。ISは、FLUTEセッションで伝送されるビデオやオーディオのコンポーネントのセグメントデータに関する制御情報を含んでいる。
 すなわち、FLUTEセッションでビデオやオーディオのコンポーネントを伝送する場合、これらのコンポーネントのファイルは、セグメントごとに分割され、各セグメントは、IS(Initialization Segment)と、MS(Media Segment)から構成される。ISには、データ圧縮方式等の初期化情報や制御情報が含まれる。また、MSには、ビデオやオーディオのコンポーネントのデータが格納される。なお、FLUTEセッションの各セグメントは、ISO Base Media File Formatの規定に準じている。
 なお、USD、MPD、SDP、FDD、SPD、IS等のSCSシグナリング情報は、例えば、XML等のマークアップ言語により記述される。また、ISは、SCSストリームで伝送するのではなく、ビデオやオーディオのストリームで伝送するようにしてもよい。また、以下、LLSシグナリング情報と、SCSシグナリング情報を特に区別する必要がない場合には、単に「シグナリング情報」と称して説明する。
 ここで、所定の周波数帯域を有する放送波(RF Channel)には、例えば放送事業者ごとに、RFチャンネルID(RF Channel ID)が割り当てられている。また、各放送波で伝送される1又は複数のBBPストリームには、BBPストリームID(BBP Stream ID)が割り当てられる。さらに、各BBPストリームで伝送される1又は複数のサービスには、サービスID(Service ID)が割り当てられる。
 このように、IP伝送方式のID体系としては、MPEG2-TS方式で用いられているネットワークID(Network ID)と、トランスポートストリームID(Transport Stream ID)と、サービスID(Service ID)の組み合わせ(トリプレット(Triplet))に対応する構成が採用され、このトリプレットによって、放送ネットワーク内のBBPストリーム構成とサービス構成が示される。
 このようなID体系を用いることで、現在広く普及しているMPEG2-TS方式との整合をとることができる。なお、IP伝送方式のID体系では、RFチャンネルIDとBBPストリームIDが、MPEG2-TS方式におけるネットワークIDとトランスポートストリームIDに対応している。
<3.具体的なユースケース>
(1)ユースケース1:収録済み番組に連動したアプリケーションの制御
 図11と図12は、ユースケース1を説明する図である。なお、図11と図12においては、時間の方向が、図中の左側から右側の方向とされ、別の図面で表しているが、図中の縦方向の点線L1を介して時間的に連続しているものとする。
 図11と図12において、RFチャンネルIDにより識別される放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送信号によって、BBPストリームIDにより識別されるBBPストリームを伝送している。BBPストリームでは、サービスIDで識別されるサービスを構成するAVコンテンツ(図中の「A/V」)やSCSシグナリング情報(図中の「SCS」)、メタデータ(図中の「SCS」)、及び、アプリケーション(図中の「NRT」)のストリームが伝送されている。
 なお、これらのストリームで伝送されるファイルは、FLUTEセッションで伝送されている。また、AVコンテンツを構成するビデオデータには、トリガ情報(Trigger)が埋め込まれている。また、図11と図12において、インターネット(Internet)上に設けられたアプリケーションサーバ(Application Server)が、アプリケーションを配信し、メタデータサーバ(Matadata Server)が、メタデータを配信している。
 このユースケース1においては、送信機から配信されるAVコンテンツ(図中の「A/V」)として、例えばドラマ等の収録済み番組が送信されている。図11において、各家庭等に設置された受信機では、A/Vストリームに接続することで、収録済み番組が再生されている。
 受信機は、メモリからSCDを読み出して、SCS Bootstrap情報に従い、放送波で伝送されているSCSストリームに接続して、SCSシグナリング情報を取得する(図11のS11)。なお、受信機は、初期スキャン処理時などに、LLSで伝送されるLLSシグナリング情報を取得してメモリに記録している。なお、再配信環境において、シグナリング情報を取得することができない場合には、これらの情報は取得しなくてもよい。
 また、受信機は、送信機がトリガ情報を伝送するタイミングで、ビデオストリームで伝送されるトリガ情報を取得する(図11のS12)。このトリガ情報には、ロケーション情報(Locator)とメディアタイム情報(Media Time)が含まれている。受信機は、トリガ情報に含まれるメディアタイム情報を設定して、当該メディアタイム情報による時刻の計時を開始する(図11のS13)。
 受信機は、ステップS11の処理で取得したSCSシグナリング情報に含まれるUSDと、ステップS12の処理で取得したトリガ情報に含まれるロケーション情報に基づいて、メタデータの配信経路が放送又は通信のいずれであるかを判定する。なお、再配信環境において、シグナリング情報を取得することができない場合には、当該配信経路が通信のみであると判定してもよい。
 そして、メタデータが放送で配信されている場合、受信機は、SCSシグナリング情報に含まれるSDPやFDD等に従い、SCSストリームに接続して、FLUTEセッションで伝送されているメタデータのファイルを取得する(図11のS14)。一方、メタデータが通信で配信されている場合、受信機は、トリガ情報に含まれるロケーション情報に従い、インターネットを介してメタデータサーバに接続し、メタデータのファイルを取得する(図11のS14)。
 このようにして、受信機では、放送又は通信で配信されるメタデータが取得される。このメタデータには、AIT、EMT、及び、CCTが含まれる。AITには、オーガニゼーションID(OrgID)、アプリケーションID(AppID)、アプリケーションURL(App_URL)等のアプリケーション制御情報が含まれる。
 EMTには、アプリケーションごとのアクション情報が時系列で規定されている。図11のEMTには、アプリケーション1(App1)に対するアクション情報として、時刻T0でのプリフェッチ(Pref)、時刻T1でのエクスキュート(Exec)、時刻T2でのインジェクトイベント(Inj_A_E)、時刻T4でのサスペンド(Susp)、時刻T5でのエクスキュート(Exec)、時刻T6でのキル(Kill)が規定されている。また、図11のEMTには、アプリケーション2(App2)に対するアクション情報として、時刻T3でのプリフェッチ(Pref)、時刻T4でのエクスキュート(Exec)、時刻T5でのキル(Kill)が規定されている。
 CCTには、アプリケーション1とアプリケーション2について、PUを構成する各ファイルのURL等のキャッシュ制御情報が含まれる。
 ここで、受信機では、ステップS13の処理で、メディアタイム情報による時刻の計時が開始されているが、この計時されている時刻が、EMTのアプリケーションごとのアクション情報に指定された時刻になったかどうか(時刻を経過したかどうか)が常に監視されている。
 そして、計時時刻が、時刻T0となったとき、EMTに規定されたアプリケーション1(App1)に対するプリフェッチアクションを実行するタイミングとなったので、受信機は、アプリケーション1のアプリケーションID(AppID)に従い、AITを参照して、アプリケーション1のアプリケーションURLを取得する(図11のS15)。また、受信機は、CCTを参照して、アプリケーション1を構成するファイル群のうち、キャッシュメモリに保持するファイルを決定する。ここでは、例えば、受信機が有するキャッシュメモリの容量に応じて、キャッシュメモリに保持するファイルが決定される。
 受信機は、ステップS11の処理で取得したSCSシグナリング情報に含まれるUSDと、アプリケーションURLと、アプリケーションアイテムURL(キャッシュメモリに保持するファイルの取得先を示すURL)に基づいて、アプリケーション1(のファイル)の配信経路が放送又は通信のいずれであるかを判定する。なお、再配信環境において、シグナリング情報を取得することができない場合には、当該配信経路が通信のみであると判定してもよい。
 そして、アプリケーション1(のファイル)が放送で配信されている場合、受信機は、SCSシグナリング情報に含まれるSDPやFDD等に従い、NRTストリームに接続して、FLUTEセッションで伝送されているアプリケーション1のファイルを取得する(図11のS15)。一方、アプリケーション1(のファイル)が通信で配信されている場合、受信機は、アプリケーションURL等に従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション1のファイルを取得する(図11のS15)。
 このようにして、受信機では、放送又は通信で配信されるアプリケーション1(のファイル)が取得され、キャッシュメモリ(Cache)に保持される。なお、このキャッシュメモリに保持される、アプリケーション1のファイルは、当該キャッシュメモリの容量と、キャッシュ制御情報としてのCCTに基づいたものとなる。
 その後、計時時刻が、時刻T1となったとき、EMTに規定されたアプリケーション1(App1)に対するエクスキュートアクションを実行するタイミングとなったので、受信機では、キャッシュメモリに保持されていたアプリケーション1(のファイル)が読み出され、実行されることになる(図11のS16)。これにより、受信機では、収録済み番組に連動して、アプリケーション1が動作することになる。
 次に、計時時刻が、時刻T2になったとき、EMTに規定されたアプリケーション1(App1)に対するインジェクトイベントアクションを実行するタイミングとなったので、受信機では、実行中のアプリケーション1に対するイベントを発火する(図11のS17)。これにより、受信機では、例えば、収録済み番組に連動して実行されているアプリケーション1の表示が切り替わる。
 その後、図12において、計時時刻が時刻T3となったとき、EMTに規定されたアプリケーション2(App2)に対するプリフェッチアクションを実行するタイミングとなったので、受信機では、アプリケーション2のアプリケーションID(AppID)に従い、AITを参照して、アプリケーション2のアプリケーションURLを取得する(図12のS18)。また、受信機は、CCTを参照して、アプリケーション2を構成するファイル群のうち、キャッシュメモリに保持するファイルを決定する。ここでは、例えば、受信機が有するキャッシュメモリの容量に応じて、キャッシュメモリに保持するファイルが決定される。
 受信機は、ステップS11の処理で取得したSCSシグナリング情報に含まれるUSDと、アプリケーションURLと、アプリケーションアイテムURL(キャッシュメモリに保持するファイルの取得先を示すURL)に基づいて、アプリケーション2(のファイル)の配信経路が放送又は通信のいずれかであるかを判定する。なお、再配信環境において、シグナリング情報を取得することができない場合には、当該配信経路が通信のみであると判定してもよい。
 そして、アプリケーション2(のファイル)が放送で配信されている場合、受信機は、SCSシグナリング情報に含まれるSDPやFDD等に従い、NRTストリームに接続して、FLUTEセッションで伝送されているアプリケーション2のファイルを取得する(図12のS18)。一方、アプリケーション2が通信で配信されている場合、受信機は、アプリケーションURL等に従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション2のファイルを取得する(図12のS18)。
 このようにして、受信機では、放送又は通信で配信されるアプリケーション2が取得され、キャッシュメモリ(Cache)に保持される。なお、このキャッシュメモリに保持される、アプリケーション2のファイルは、当該キャッシュメモリの容量と、キャッシュ制御情報としてのCCTに基づいたものとなる。
 その後、計時時刻が、時刻T4となったとき、EMTに規定されたアプリケーション1(App1)に対するサスペンドアクションと、アプリケーション2(App2)に対するエクスキュートアクションを同時に実行するタイミングとなったので、まず、受信機は、実行中のアプリケーション1を、キャッシュメモリ(Cache)に退避させる(図12のS19)。続いて、受信機では、キャッシュメモリに保持されていたアプリケーション2(のファイル)が読み出され、実行されることになる(図12のS19)。これにより、受信機では、収録済み番組に連動して、アプリケーション1の代わりに、アプリケーション2が動作することになる。
 また、計時時刻が、時刻T5となったとき、EMTに規定されたアプリケーション2(App2)に対するキルアクションと、アプリケーション1(App1)に対するエクスキュートアクションを同時に実行するタイミングとなったので、まず、受信機は、実行中のアプリケーション2を終了させる(図12のS20)。続いて、受信機では、ステップS19の処理でキャッシュメモリに退避されていたアプリケーション1が読み出され、実行されることになる(図12のS20)。これにより、受信機では、収録済み番組に連動して実行されていたアプリケーション2が終了され、再度、アプリケーション1が、収録済み番組に連動して動作することになる。
 そして、計時時刻が、時刻T6となったとき、EMTに規定されたアプリケーション1(App1)に対するキルアクションを実行するタイミングとなったので、受信機では、実行中のアプリケーション1が終了される(図12のS21)。これにより、受信機では、収録済み番組に連動して実行されていたアプリケーション1が終了され、収録済み番組のみが表示される。
 なお、図13には、ユースケース1における各データの対応関係を示している。図13においては、AITやEMT等のメタデータは、トリガ情報に含まれるロケーション情報に従い、取得されることが示されている。また、AITとEMTにおいては、アプリケーションIDが関連付けられている。さらに、アプリケーションは、AITのアプリケーションURLに従い、取得されることが示されている。
 以上、ユースケース1について説明した。
(2)ユースケース2:ライブ番組に連動したアプリケーションの制御
 図14と図15は、ユースケース2を説明する図である。図14と図15においては、時間の方向が、図中の左側から右側の方向とされ、別の図面で表しているが、図中の縦方向の点線L2を介して時間的に連続しているものとする。
 図14と図15においては、上述した図11等と同様に、放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波によって、BBPストリームを伝送している。このBBPストリームでは、サービスを構成するAVコンテンツ(図中の「A/V」)やSCSシグナリング情報(図中の「SCS」)、メタデータ(図中の「SCS」)、及び、アプリケーション(図中の「NRT」)のストリームが伝送されている。
 なお、これらのストリームで伝送されるファイルは、FLUTEセッションで伝送されている。また、AVコンテンツを構成するビデオデータには、トリガ情報(Trigger)が埋め込まれている。また、図14と図15において、インターネット(Internet)上に設けられたアプリケーションサーバ(Application Server)が、アプリケーションを配信し、メタデータサーバ(Matadata Server)が、メタデータを配信している。
 このユースケース2においては、送信機から配信されるAVコンテンツ(図中の「A/V」)として、例えばスポーツ中継等のライブ番組が送信されている。図14において、各家庭等に設置された受信機では、A/Vストリームに接続することで、ライブ番組が再生されている。
 受信機は、メモリからSCDを読み出して、SCS Bootstrap情報に従い、放送波で伝送されているSCSストリームに接続して、SCSシグナリング情報を取得する(図14のS31)。なお、再配信環境において、シグナリング情報を取得することができない場合には、これらの情報は取得しなくてもよい。
 また、受信機は、送信機がトリガ情報を伝送するタイミングで、ビデオストリームで伝送されるトリガ情報を取得する(図14のS32)。このトリガ情報には、ロケーション情報(Locator)が含まれている。また、ロケーション情報には、アプリケーション1(App1)に対するアクション情報として、プリフェッチが付加されている。
 受信機は、ステップS31の処理で取得したSCSシグナリング情報に含まれるUSDと、ステップS32の処理で取得したトリガ情報に含まれるロケーション情報に基づいて、メタデータの配信経路が放送又は通信のいずれであるかを判定する。なお、再配信環境において、シグナリング情報を取得することができない場合には、当該配信経路が通信のみであると判定してもよい。
 そして、メタデータが放送で配信されている場合、受信機は、SCSシグナリング情報に含まれるSDPやFDD等に従い、SCSストリームに接続して、FLUTEセッションで伝送されているメタデータのファイルを取得する(図14のS33)。一方、メタデータが通信で配信されている場合、受信機は、トリガ情報に含まれるロケーション情報に従い、インターネットを介してメタデータサーバに接続し、メタデータのファイルを取得する(図14のS33)。
 このようにして、受信機では、放送又は通信で配信されるメタデータが取得される。このメタデータには、AIT及びCCTが含まれる。AITには、オーガニゼーションID(OrgID)、アプリケーションID(AppID)、アプリケーションURL(App_URL)等のアプリケーション制御情報が含まれる。CCTには、アプリケーション1とアプリケーション2について、PUを構成する各ファイルのURL等のキャッシュ制御情報が含まれる。
 また、受信機は、トリガ情報に含まれるロケーション情報に付加されたプリフェッチアクションの対象となるアプリケーション1(App1)のアプリケーションID(AppID)に従い、AITを参照して、アプリケーション1のアプリケーションURLを取得する(図14のS34)。また、受信機は、CCTを参照して、アプリケーション1を構成するファイル群のうち、キャッシュメモリに保持するファイルを決定する。
 受信機は、ステップS31の処理で取得したSCSシグナリング情報に含まれるUSDと、アプリケーションURLと、アプリケーションアイテムURL(キャッシュメモリに保持するファイルの取得先を示すURL)に基づいて、アプリケーション1の配信経路が放送又は通信のいずれであるかを判定する。なお、再配信環境において、シグナリング情報を取得することができない場合には、当該配信経路が通信のみであると判定してもよい。
 そして、アプリケーション1(のファイル)が放送で配信されている場合、受信機は、SCSシグナリング情報に含まれるSDPやFDD等に従い、NRTストリームに接続して、FLUTEセッションで伝送されているアプリケーション1のファイルを取得する(図14のS34)。一方、アプリケーション1(のファイル)が通信で配信されている場合、受信機は、アプリケーションURL等に従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション1のファイルを取得する(図14のS34)。
 このようにして、受信機では、放送又は通信で配信されるアプリケーション1(のファイル)が取得され、キャッシュメモリ(Cache)に保持される。なお、このキャッシュメモリに保持される、アプリケーション1のファイルは、当該キャッシュメモリの容量と、キャッシュ制御情報としてのCCTに基づいたものとなる。
 その後、受信機では、ビデオストリームでトリガ情報が伝送されているかどうかが監視され、送信機がトリガ情報を伝送するタイミングで、トリガ情報が取得される(図14のS35)。このトリガ情報には、ロケーション情報に、アプリケーション1(App1)に対するエクスキュートアクションが付加されている。受信機は、当該トリガ情報に従い、AITを参照して確認した後に、キャッシュメモリに保持されていたアプリケーション1を読み出して、実行する(図14のS36)。これにより、受信機では、ライブ番組に連動して、アプリケーション1が動作することになる。
 受信機においては、その後もビデオストリームでトリガ情報が伝送されているかどうかが常に監視され、送信機がトリガ情報を伝送するタイミングで、トリガ情報が取得される(図14のS37)。このトリガ情報には、ロケーション情報に、アプリケーション1(App1)に対するインジェクトイベントアクションが付加されている。受信機は、当該トリガ情報に従い、AITを参照して確認した後に、実行中のアプリケーション1に対するイベントを発火する(図14のS38)。これにより、受信機では、例えば、ライブ番組に連動して実行されているアプリケーション1の表示が切り替わる。
 その後、図15において、受信機では、送信機がトリガ情報を伝送するタイミングで、トリガ情報が取得される(図15のS39)。このトリガ情報には、ロケーション情報に、アプリケーション2(App2)に対するプリフェッチアクションが付加されている。受信機は、当該ロケーション情報に付加されたアプリケーション2のアプリケーションID(AppID)に従い、AITを参照して、アプリケーション2のアプリケーションURLを取得する(図15のS40)。また、受信機は、CCTを参照して、アプリケーション1を構成するファイル群のうち、キャッシュメモリに保持するファイルを決定する。
 受信機は、ステップS31の処理で取得したSCSシグナリング情報に含まれるUSDと、アプリケーションURLと、アプリケーションアイテムURL(キャッシュメモリに保持するファイルの取得先を示すURL)に基づいて、アプリケーション2の配信経路が放送又は通信のいずれかであるかを判定する。なお、再配信環境において、シグナリング情報を取得することができない場合には、当該配信経路が通信のみであると判定してもよい。
 そして、アプリケーション2が放送で配信されている場合、受信機は、SCSシグナリング情報に含まれるSDPやFDD等に従い、NRTストリームに接続して、FLUTEセッションで伝送されているアプリケーション2のファイルを取得する(図15のS40)。一方、アプリケーション2が通信で配信されている場合、受信機は、アプリケーションURL等に従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション2のファイルを取得する(図15のS40)。
 このようにして、受信機では、放送又は通信で配信されるアプリケーション2が取得され、キャッシュメモリ(Cache)に保持される。なお、このキャッシュメモリに保持される、アプリケーション2のファイルは、当該キャッシュメモリの容量と、キャッシュ制御情報としてのCCTに基づいたものとなる。
 その後、受信機では、送信機がトリガ情報を伝送するタイミングで、トリガ情報が取得される(図15のS41)。このトリガ情報には、ロケーション情報に、アプリケーション1(App1)に対するサスペンドアクションと、アプリケーション2(App2)に対するエクスキュートアクションが付加されている。
 受信機は、まず、当該ロケーション情報に付加されたアプリケーション1に対するサスペンドアクションに従い、AITを参照して確認した後に、実行中のアプリケーション1を、キャッシュメモリ(Cache)に退避させる(図15のS42)。続いて、受信機は、当該ロケーション情報に付加されたアプリケーション2に対するエクスキュートアクションに従い、AITを参照して確認した後に、キャッシュメモリに保持されていたアプリケーション2を読み出して、実行する(図15のS42)。これにより、受信機では、ライブ番組に連動して、アプリケーション1の代わりに、アプリケーション2が動作することになる。
 また、受信機では、送信機がトリガ情報を伝送するタイミングで、トリガ情報が取得される(図15のS43)。このトリガ情報には、ロケーション情報に、アプリケーション2(App2)に対するキルアクションと、アプリケーション1(App1)に対するエクスキュートアクションが付加されている。
 受信機は、まず、当該ロケーション情報に付加されたアプリケーション2に対するキルアクションに従い、AITを参照して確認した後に、実行中のアプリケーション2を終了させる(図15のS44)。続いて、受信機は、当該ロケーション情報に付加されたアプリケーション1に対するエクスキュートアクションに従い、AITを参照して確認した後に、ステップS42の処理でキャッシュメモリに退避されていたアプリケーション1を読み出して、その実行を再開することになる(図15のS44)。これにより、受信機では、ライブ番組に連動して実行されていたアプリケーション2が終了され、再度、アプリケーション1が、ライブ番組に連動して動作することになる。
 また、受信機では、送信機がトリガ情報を伝送するタイミングで、トリガ情報が取得される(図15のS45)。このトリガ情報には、ロケーション情報に、アプリケーション1(App1)に対するキルアクションが付加されている。受信機は、当該ロケーション情報に付加されたアプリケーション1に対するキルアクションに従い、AITを参照して確認した後に、実行中のアプリケーション1を終了させる。これにより、受信機では、ライブ番組に連動して実行されていたアプリケーション1が終了され、ライブ番組のみが表示される。
 なお、図16には、ユースケース2における各データの対応関係を示している。図16においては、AIT等のメタデータは、トリガ情報に含まれるロケーション情報に従い、取得されることが示されている。また、アプリケーションは、AITのアプリケーションURLに従い、取得されることが示されている。
 以上、ユースケース2について説明した。
(3)ユースケース3:ハイブリッド型のアプリケーションの制御
 図17と図18は、ユースケース3を説明する図である。図17と図18においては、時間の方向が、図中の左側から右側の方向とされ、別の図面で表しているが、図中の縦方向の点線L3を介して時間的に連続しているものとする。
 図17と図18においては、上述した図11等と同様に、放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波によって、BBPストリームを伝送している。このBBPストリームでは、サービスを構成するAVコンテンツ(図中の「A/V」)やSCSシグナリング情報(図中の「SCS」)、メタデータ(図中の「SCS」)、及び、アプリケーション(図中の「NRT」)のストリームが伝送されている。
 なお、これらのストリームで伝送されるファイルは、FLUTEセッションで伝送されている。また、AVコンテンツを構成するビデオデータには、トリガ情報(Trigger)が埋め込まれている。また、図17と図18において、インターネット(Internet)上に設けられたアプリケーションサーバ(Application Server)が、アプリケーションを配信し、メタデータサーバ(Matadata Server)が、メタデータを配信している。
 図17において、各家庭等に設置された受信機では、A/Vストリームに接続することで、番組が再生されている。受信機は、メモリからSCDを読み出して、SCS Bootstrap情報に従い、放送波で伝送されているSCSストリームに接続して、SCSシグナリング情報を取得する(図17のS51)。なお、再配信環境において、シグナリング情報を取得することができない場合には、これらの情報は取得しなくてもよい。
 また、受信機は、送信機がトリガ情報を伝送するタイミングで、ビデオストリームで伝送されるトリガ情報を取得する(図17のS52)。このトリガ情報には、ロケーション情報(Locator)とメディアタイム情報(Media Time)が含まれている。受信機は、トリガ情報に含まれるメディアタイム情報を設定して、メディアタイム情報による時刻の計時を開始する(図17のS53)。
 受信機は、ステップS51の処理で取得したSCSシグナリング情報に含まれるUSDと、ステップS52の処理で取得したトリガ情報に含まれるロケーション情報に基づいて、メタデータの配信経路が放送又は通信のいずれであるかを判定する。なお、再配信環境において、シグナリング情報を取得することができない場合には、当該配信経路が通信のみであると判定してもよい。
 そして、メタデータが放送で配信されている場合、受信機は、SCSシグナリング情報に含まれるSDPやFDD等に従い、SCSストリームに接続して、FLUTEセッションで伝送されているメタデータのファイルを取得する(図17のS54)。一方、メタデータが通信で配信されている場合、受信機は、トリガ情報に含まれるロケーション情報に従い、インターネットを介してメタデータサーバに接続し、メタデータのファイルを取得する(図17のS54)。
 このようにして、受信機では、放送又は通信で配信されるメタデータが取得される。このメタデータには、AIT、EMT、及び、CCTが含まれる。AITには、オーガニゼーションID(OrgID)、アプリケーションID(AppID)、アプリケーションURL(App_URL)等のアプリケーション制御情報が含まれる。
 EMTには、アプリケーションごとのアクション情報が時系列で規定されている。図17のEMTには、アプリケーション1(App1)に対するアクションとして、時刻T0でのプリフェッチ(Pref)、時刻T1でのエクスキュート(Exec)、時刻T2でのインジェクトイベント(Inj_A_E)、時刻T3でのキル(Kill)が規定されている。
 CCTには、アプリケーション1について、PUを構成する各ファイルのURL等のキャッシュ制御情報が含まれる。
 ここで、受信機では、ステップS53の処理で、メディアタイム情報による時刻の計時が開始されているが、この計時されている時刻が、EMTのアプリケーションごとのアクション情報に指定された時刻になったかどうか(時刻を経過したかどうか)が常に監視されている。
 そして、計時時刻が、時刻T0となったとき、EMTに規定されたアプリケーション1(App1)に対するプリフェッチアクションを実行するタイミングとなったので、受信機では、アプリケーション1のアプリケーションID(AppID)に従い、AITを参照して、アプリケーション1のアプリケーションURLを取得する(図17のS55)。また、受信機は、CCTを参照して、アプリケーション1を構成するファイル群のうち、キャッシュメモリに保持するファイルを決定する。
 受信機は、ステップS51の処理で取得したSCSシグナリング情報に含まれるUSDと、アプリケーションURLと、アプリケーションアイテムURL(キャッシュメモリに保持するファイルの取得先を示すURL)に基づいて、アプリケーション1(のファイル)の配信経路が放送又は通信のいずれであるかを判定する。なお、再配信環境において、シグナリング情報を取得することができない場合には、当該配信経路が通信のみであると判定してもよい。
 そして、アプリケーション1(のファイル)が放送で配信されている場合、受信機は、SCSシグナリング情報に含まれるSDPやFDD等に従い、NRTストリームに接続して、FLUTEセッションで伝送されているアプリケーション1のファイルを取得する(図17のS55)。一方、アプリケーション1(のファイル)が通信で配信されている場合、受信機は、アプリケーションURL等に従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション1のファイルを取得する(図17のS55)。
 このようにして、受信機では、放送又は通信で配信されるアプリケーション1(のファイル)が取得され、キャッシュメモリ(Cache)に保持される。なお、このキャッシュメモリに保持される、アプリケーション1のファイルは、当該キャッシュメモリの容量と、キャッシュ制御情報としてのCCTに基づいたものとなる。
 その後、受信機では、送信機がトリガ情報を伝送するタイミングで、トリガ情報が取得される(図17のS56)。このトリガ情報には、ロケーション情報に、アプリケーション1(App1)に対するエクスキュートアクションの実行時刻を、時刻T1から時刻T1Aに更新するためのイベント情報が付加されている。受信機は、当該トリガ情報に含まれるイベント情報に従い、EMTに規定された、アプリケーション1に対するエクスキュートアクションの実行時刻を、時刻T1から時刻T1Aに更新する(図17のS57)。
 そして、計時時刻が、更新後の時刻T1Aとなったとき、EMTに規定されたアプリケーション1に対するエクスキュートアクションを実行するタイミングとなったので、受信機では、キャッシュメモリに保持されていたアプリケーション1が読み出され、実行されることになる(図17のS58)。これにより、受信機では、番組に連動して、アプリケーション1が動作することになる。
 その後、図18において、受信機では、送信機がトリガ情報を伝送するタイミングで、トリガ情報が取得される(図18のS59)。このトリガ情報には、ロケーション情報に、アプリケーション1(App1)に対する、時刻T2でのインジェクトイベントアクションを削除するためのイベント情報が付加されている。受信機は、当該トリガ情報に含まれるイベント情報に従い、EMTに規定された、アプリケーション1(App1)に対する、時刻T2でのインジェクトイベントアクションを削除する(図18のS60)。
 また、受信機では、送信機がトリガ情報を伝送するタイミングで、トリガ情報が取得される(図18のS61)。このトリガ情報には、ロケーション情報に、アプリケーション1(App1)に対するインジェクトイベントアクションが付加されている。受信機は、当該トリガ情報に従い、AITを参照して確認した後に、実行中のアプリケーション1に対するイベントを発火する(図18のS62)。これにより、受信機では、例えば番組に連動して実行されているアプリケーション1の表示が切り替わる。すなわち、ここでは、EMTにあらかじめ規定された時刻ではなく、トリガ情報に含まれるイベント情報に指定された変更後の時刻に、アプリケーション1に対するイベントが発火されたことになる。
 その後、計時時刻が、時刻T3になったとき、EMTに規定されたアプリケーション1(App1)に対するキルアクションを実行するタイミングとなったので、受信機では、実行中のアプリケーション1が終了される(図18のS63)。これにより、受信機では、番組に連動して実行されていたアプリケーション1が終了され、番組のみが表示させる。
 以上、ユースケース3について説明した。
(4)ユースケース4:収録済み番組に連動したアプリケーションの制御(ACR対応)
 図19は、ユースケース4を説明する図である。
 図19においては、上述した図11等と同様に、放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波によって、BBPストリームを伝送している。このBBPストリームでは、サービスを構成するAVコンテンツ(図中の「A/V」)のストリームが伝送されている。なお、当該ストリームで伝送されるファイルは、FLUTEセッションで伝送されている。
 また、図19において、インターネット(Internet)上に設けられたアプリケーションサーバ(Application Server)が、アプリケーションを配信し、メタデータサーバ(Matadata Server)が、メタデータを配信している。また、インターネット上には、ACRサーバ(ACR Server)が設けられており、受信機からの問い合わせに応じて、ACR(Automatic Content Recognition)技術を用いたAVコンテンツの識別を行い、その識別結果に応じたトリガ情報を提供する。
 このユースケース4においては、送信機から配信されるAVコンテンツ(図中の「A/V」)として、例えばドラマ等の収録済み番組が送信されている。図19において、各家庭等に設置された受信機では、A/Vストリームに接続することで、収録済み番組が再生されている。
 受信機は、再生中の収録済み番組のビデオデータ及びオーディオデータの少なくとも一方から抽出される特徴量(以下、「フィンガプリント情報(Finger Print)」という)を、インターネットを介してACRサーバに送信する(S71)。このフィンガプリント情報は、例えば数秒周期で、受信機から、ACRサーバに送信される。
 ACRサーバは、受信機からフィンガプリント情報を受信した場合、当該フィンガプリント情報をデータベースと照合することで、受信機で再生中の収録済み番組を、ACR技術を用いて識別し、その識別結果に応じたトリガ情報を生成する。ACRサーバは、ACR識別結果に応じたトリガ情報を、インターネットを介して受信機に送信する。
 なお、ここでは、フィンガプリント情報の代わりに、ウォータマーク情報(Water Mark)を用いるようにしてもよい。ウォータマーク情報を用いた場合、番組のシーンを特定する情報を含めることができるので、その場合には、ACRサーバ側で番組のシーンを特定する必要はない。
 そして、受信機は、インターネットを介してACRサーバから送信されるトリガ情報を受信して取得する(S72)。このトリガ情報には、ロケーション情報(Locator)とメディアタイム情報(Media Time)が含まれている。受信機は、トリガ情報に含まれるメディアタイム情報を設定して、当該メディアタイム情報による時刻の計時を開始する(S73)。
 また、受信機は、ステップS72の処理で取得したトリガ情報に含まれるロケーション情報に従い、インターネットを介してメタデータサーバに接続し、メタデータのファイルを取得する(S74)。このメタデータには、AIT、EMT、及び、CCTが含まれる。AITには、オーガニゼーションID(OrgID)、アプリケーションID(AppID)、アプリケーションURL(App_URL)等のアプリケーション制御情報が含まれる。
 EMTには、アプリケーションごとのアクション情報が時系列で規定されている。図19のEMTには、アプリケーション1(App1)に対するアクション情報として、時刻T0でのプリフェッチ(Prep)、時刻T1でのエクスキュート(Exec)、時刻T2でのインジェクトイベント(Inj_A_E)、時刻T4でのサスペンド(Susp)、時刻T5でのエクスキュート(Exec)、時刻T6でのキル(Kill)が規定されている。また、図19のEMTには、アプリケーション2(App2)に対するアクション情報として、時刻T3でのプリフェッチ(Prep)、時刻T4でのエクスキュート(Exec)、時刻T5でのキル(Kill)が規定されている。
 CCTには、アプリケーション1とアプリケーション2について、PUを構成する各ファイルのURL等のキャッシュ制御情報が含まれる。
 ここで、受信機では、ステップS73の処理で、メディアタイム情報による時刻の計時が開始されているが、この計時されている時刻が、EMTのアプリケーションごとのアクション情報に指定された時刻になったかどうか(時刻を経過したかどうか)が常に監視されている。
 そして、計時時刻が、時刻T0となったとき、EMTに規定されたアプリケーション1(App1)に対するプリフェッチアクションを実行するタイミングとなったので、受信機では、アプリケーション1のアプリケーションID(AppID)に従い、AITを参照して、アプリケーション1のアプリケーションURLを取得する(S75)。また、受信機は、CCTを参照して、アプリケーション1を構成するファイル群のうち、キャッシュメモリに保持するファイルを決定する。
 受信機は、アプリケーションURL等に従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション1のファイルを取得する(S75)。このようにして、受信機では、通信で配信されるアプリケーション1が取得され、キャッシュメモリ(Cache)に保持される。なお、このキャッシュメモリに保持される、アプリケーション1のファイルは、当該キャッシュメモリの容量と、キャッシュ制御情報としてのCCTに基づいたものとなる。
 その後、計時時刻が、時刻T1となったとき、EMTに規定されたアプリケーション1(App1)に対するエクスキュートアクションを実行するタイミングとなったので、受信機では、キャッシュメモリに保持されていたアプリケーション1が読み出され、実行されることになる(S76)。これにより、受信機では、収録済み番組に連動して、アプリケーション1が動作することになる。
 なお、それ以降のアプリケーション1の動作については、図19には図示していないが、計時時刻が、時刻T2になったとき、EMTに規定されたアプリケーション1(App1)に対するインジェクトイベントアクションを実行するタイミングとなるので、受信機では、実行中のアプリケーション1に対するイベントが発火される。
 また、計時時刻が、時刻T3となったとき、EMTに規定されたアプリケーション2(App2)に対するプリフェッチを実行するタイミングとなるので、受信機では、アプリケーション2を取得するためのアプリケーションURLに従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション2のファイルを取得する。このアプリケーション2は、キャッシュメモリ(Cache)に保持される。
 その後、計時時刻が、時刻T4となったとき、EMTに規定されたアプリケーション1(App1)に対するサスペンドアクションと、アプリケーション2(App2)に対するエクスキュートアクションを同時に実行するタイミングとなるので、まず、受信機は、実行中のアプリケーション1を、キャッシュメモリ(Cache)に退避させる。続いて、受信機では、キャッシュメモリに保持されていたアプリケーション2が読み出され、実行されることになる。
 また、計時時刻が、時刻T5となったとき、EMTに規定されたアプリケーション2(App2)に対するキルアクションと、アプリケーション1(App1)に対するエクスキュートアクションを同時に実行するタイミングとなるので、まず、受信機は、実行中のアプリケーション2を終了させる。続いて、受信機では、キャッシュメモリに退避されていたアプリケーション1が読み出され、実行されることになる。
 そして、計時時刻が、時刻T6となったとき、EMTに規定されたアプリケーション1(App1)に対するキルアクションを実行するタイミングとなるので、受信機では、実行中のアプリケーション1が終了させる。これにより、受信機では、収録済み番組に連動して実行されていたアプリケーション1が終了され、収録済み番組のみが表示させる。
 なお、図20には、ユースケース4における各データの対応関係を示している。図20においては、トリガ情報は、ビデオストリーム等で伝送されるのではなく、フィンガプリント情報やウォータマーク情報をACRサーバに送信することで、その問い合わせの結果として取得される。
 また、図20においては、AITやEMT等のメタデータは、トリガ情報に含まれるロケーション情報に従い、取得されることが示されている。また、AITとEMTにおいては、アプリケーションIDが関連付けられている。さらに、アプリケーションは、AITのアプリケーションURLに従い、取得されることが示されている。
 以上、ユースケース4について説明した。
(5)ユースケース5:ライブ番組に連動したアプリケーションの制御(ACR対応)
 図21は、ユースケース5を説明する図である。
 図21においては、上述した図11等と同様に、放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波によって、BBPストリームを伝送している。このBBPストリームでは、各サービスを構成するAVコンテンツ(図中の「A/V」)のストリームが、FLUTEセッションで伝送されている。
 また、図21において、インターネット(Internet)上に設けられたアプリケーションサーバ(Application Server)が、アプリケーションを配信し、メタデータサーバ(Matadata Server)が、メタデータを配信している。また、ACRサーバ(ACR Server)が、ACR技術を用いたAVコンテンツの識別結果に応じたトリガ情報を提供している。
 このユースケース5においては、送信機から配信されるAVコンテンツ(図中の「A/V」)として、例えばスポーツ中継等のライブ番組が送信されている。図21において、各家庭等に設置された受信機では、A/Vストリームに接続することで、ライブ番組が再生されている。
 図21において、受信機は、再生中のライブ番組のビデオデータ及びオーディオデータの少なくとも一方から抽出されるフィンガプリント情報を、インターネットを介してACRサーバに送信する(S81)。
 ACRサーバは、受信機からフィンガプリント情報を受信した場合、当該フィンガプリント情報をデータベースと照合することで、受信機で再生中のライブ番組を、ACR技術を用いて識別し、その識別結果に応じたトリガ情報を生成する。ACRサーバは、トリガ情報を、インターネットを介して受信機に送信する。なお、フィンガプリント情報の代わりに、ウォータマーク情報を用いるようにしてもよい。
 これにより、受信機は、インターネットを介してACRサーバから送信されるトリガ情報を受信して取得する(S82)。このトリガ情報には、ロケーション情報が含まれている。また、ロケーション情報には、アプリケーション1(App1)に対するアクション情報として、プリフェッチアクションが付加されている。受信機は、ステップS82の処理で取得したトリガ情報に含まれるロケーション情報に従い、インターネットを介してメタデータサーバに接続し、メタデータのファイルを取得する(S83)。このメタデータには、AIT及びCCTが含まれる。AITには、オーガニゼーションID(OrgID)、アプリケーションID(AppID)、アプリケーションURL(App_URL)等のアプリケーション制御情報が含まれる。CCTには、アプリケーション1等について、PUを構成する各ファイルのURL等のキャッシュ制御情報が含まれる。
 受信機は、トリガ情報に含まれるロケーション情報に付加されたプリフェッチアクションの対象となるアプリケーション1(App1)のアプリケーションID(AppID)に従い、AITを参照して、アプリケーション1のアプリケーションURLを取得する(S84)。また、受信機は、CCTを参照して、アプリケーション1を構成するファイル群のうち、キャッシュメモリに保持するファイルを決定する。
 受信機は、アプリケーションURLとアプリケーションアイテムURL(キャッシュメモリに保持するファイルの取得先を示すURL)に従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション1のファイルを取得する(S84)。このようにして、受信機では、通信で配信されるアプリケーション1が取得され、キャッシュメモリ(Cache)に保持される。なお、このキャッシュメモリに保持される、アプリケーション1のファイルは、当該キャッシュメモリの容量と、キャッシュ制御情報としてのCCTに基づいたものとなる。
 その後、受信機では、定期的に(例えば数秒周期)、再生中のライブ番組から抽出されるフィンガプリント情報が、インターネットを介してACRサーバに送信され、ACR識別結果に応じたトリガ情報が取得される(S85)。このトリガ情報には、ロケーション情報に、アプリケーション1(App1)に対するエクスキュートアクションが付加されている。受信機は、当該トリガ情報に従い、AITを参照して確認した後に、キャッシュメモリに保持されていたアプリケーション1を読み出して、実行する(S86)。これにより、受信機では、ライブ番組に連動して、アプリケーション1が動作することになる。
 それ以降のアプリケーション1の動作については、図21には図示していないが、その後も、受信機では、定期的に(例えば数秒周期)、再生中のライブ番組から抽出されるフィンガプリント情報が、インターネットを介してACRサーバに送信され、トリガ情報が取得される。このトリガ情報において、ロケーション情報に、アプリケーション1(App1)に対するインジェクトイベントアクションが付加されている場合、受信機では、当該トリガ情報に従い、実行中のアプリケーション1に対するイベントが発火される。
 また、取得済みのトリガ情報において、アプリケーション2(App2)に対するプリフェッチアクションが指定されている場合、受信機では、当該トリガ情報に従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション2のファイルが取得され、キャッシュメモリ(Cache)に保持される。
 また、取得済みのトリガ情報において、アプリケーション1(App1)に対するサスペンドアクションと、アプリケーション2(App2)に対するエクスキュートアクションが指定されている場合、実行中のアプリケーション1を、キャッシュメモリに退避させるとともに、キャッシュメモリに保持されていたアプリケーション2が読み出され、実行されることになる。
 また、取得済みのトリガ情報において、アプリケーション2(App2)に対するキルアクションと、アプリケーション1(App1)に対するエクスキュートアクションが指定されている場合、実行中のアプリケーション2を終了させるとともに、キャッシュメモリに退避されていたアプリケーション1が読み出され、その実行が再開されることになる。そして、取得済みのトリガ情報において、アプリケーション1(App1)に対するキルアクションが含まれている場合、受信機では、実行中のアプリケーション1が終了される。
 なお、図22には、ユースケース5における各データの対応関係を示している。図22においては、トリガ情報は、ビデオストリーム等で伝送されるのではなく、フィンガプリント情報やウォータマーク情報をACRサーバに送信することで、その問い合わせの結果として取得される。
 また、図22においては、AIT等のメタデータは、トリガ情報に含まれるロケーション情報に従い、取得されることが示されている。また、アプリケーションは、AITのアプリケーションURLに従い、取得されることが示されている。
 以上、ユースケース5について説明した。
(6)ユースケース6:SCSシグナリング情報を用いたアプリケーションの制御
 図23は、ユースケース6を説明する図である。
 図23においては、上述した図11等と同様に、放送局(放送事業者)の送信機は、IP伝送方式を用いたデジタル放送の放送波によって、BBPストリームを伝送している。このBBPストリームでは、サービスを構成するAVコンテンツ(図中の「A/V」)やSCSシグナリング情報(図中の「SCS」)、アプリケーション(図中の「NRT」)のストリームが伝送されている。なお、これらのストリームで伝送されるファイルは、FLUTEセッションで伝送されている。
 また、図23において、インターネット(Internet)上に設けられたアプリケーションサーバ(Application Server)が、アプリケーションを配信している。なお、図23においては、メタデータサーバ(Matadata Server)が図示されているが、メタデータの配信を行っていないものとする。
 ただし、ユースケース6では、SCSシグナリング情報にメタデータ(AITやCCT等)が含まれている。また、ユースケース6では、トリガ情報を使用しないため、ビデオデータなどにはトリガ情報は埋め込まれておらず、また、トリガ情報を提供可能なACRサーバも設けられていない。
 図23において、各家庭等に設置された受信機では、A/Vストリームに接続することで、番組が再生されている。受信機は、メモリからSCDを読み出して、SCS Bootstrap情報に従い、放送波で伝送されているSCSストリームに接続して、SCSシグナリング情報を取得する(S91)。このSCSシグナリング情報には、USD等のほか、AITとCCTが含まれる。図23のAITには、オーガニゼーションID(OrgID)、アプリケーションID(AppID)、アプリケーションURL(App_URL)の他に、アクション情報として、プリフェッチ(Prefetch)が含まれている。また、CCTには、アプリケーション1について、PUを構成する各ファイルのURL等のキャッシュ制御情報が含まれる。
 受信機は、AITを参照して、プリフェッチアクションの対象となるアプリケーション1(App1)のアプリケーションID(AppID)に対応する、アプリケーションURLを取得する(S92)。また、受信機は、CCTを参照して、アプリケーション1を構成するファイル群のうち、キャッシュメモリに保持するファイルを決定する。
 受信機は、ステップS91の処理で取得したSCSシグナリング情報に含まれるUSDと、アプリケーションURLと、アプリケーションアイテムURL(キャッシュメモリに保持するファイルの取得先を示すURL)に基づいて、アプリケーション1の配信経路が放送又は通信のいずれであるかを判定する。
 そして、アプリケーション1(のファイル)が放送で配信されている場合、受信機は、SCSシグナリング情報に含まれるSDPやFDD等に従い、NRTストリームに接続して、FLUTEセッションで伝送されているアプリケーション1のファイルを取得する(S92)。一方、アプリケーション1(のファイル)が通信で配信されている場合、受信機は、アプリケーションURL等に従い、インターネットを介してアプリケーションサーバに接続し、アプリケーション1のファイルを取得する(S92)。
 このようにして、受信機では、放送又は通信で配信されるアプリケーション1(のファイル)が取得され、キャッシュメモリ(Cache)に保持される。なお、このキャッシュメモリに保持される、アプリケーション1のファイルは、当該キャッシュメモリの容量と、キャッシュ制御情報としてのCCTに基づいたものとなる。
 その後、受信機では、SCSストリームで伝送されるSCSシグナリング情報に含まれるAITとCCTが更新されたかどうかが監視され、AIT及びCCTの少なくとも一方が更新された場合、当該AIT及びCCTを含むSCSシグナリング情報が取得される(S93)。このAITには、アプリケーション1(App1)に対するエクスキュートアクションが指定されている。受信機は、当該AITに従い、キャッシュメモリに保持されていたアプリケーション1を読み出して、実行する(S94)。これにより、受信機では、番組に連動して、アプリケーション1が動作することになる。
 また、受信機では、その後もAITとCCTの更新が監視され、AIT及びCCTの少なくとも一方が更新された場合、当該AIT及びCCTを含むSCSシグナリング情報が取得される(S95)。このAITには、アプリケーション1(App1)に対するキルアクションが指定されている。受信機は、当該AITに従い、実行中のアプリケーション1を終了させる。これにより、受信機では、番組に連動して実行されていたアプリケーション1が終了され、番組のみが表示される。
 以上、ユースケース6について説明した。
<4.システムの構成>
(放送通信システムの構成例)
 図24は、放送通信システムの構成例を示す図である。なお、システムとは、複数の構成要素(装置等)の集合を意味する。
 図24の放送通信システム1は、上述したユースケース1乃至6を実現するための構成を有している。すなわち、図24において、放送通信システム1は、送信装置10、受信装置20、アプリケーションサーバ30、メタデータサーバ40、及び、ACRサーバ50から構成される。また、受信装置20は、アプリケーションサーバ30、メタデータサーバ40、及び、ACRサーバ50と、インターネット90を介して相互に接続されている。
 送信装置10は、収録済み番組やライブ番組等のAVコンテンツとシグナリング情報を、デジタル放送信号により送信する。また、送信装置10は、トリガ情報、メタデータ、又はアプリケーションを、デジタル放送信号に含めて送信する。なお、送信装置10は、上述した送信機に対応するものであり、例えば放送事業者により提供され、その放送局内に配置される。
 受信装置20は、送信装置10から送信されるデジタル放送信号を受信する。受信装置20は、デジタル放送信号から得られるシグナリング情報に基づいて、AVコンテンツの映像及び音声を取得し、出力する。また、受信装置20は、送信装置10からのデジタル放送信号を受信し、トリガ情報、メタデータ、又はアプリケーションを取得する。
 受信装置20は、インターネット90を介してアプリケーションサーバ30に接続し、アプリケーションを取得する。また、受信装置20は、インターネット90を介してメタデータサーバ40に接続し、メタデータを取得する。
 受信装置20は、放送又は通信経由で取得したシグナリング情報、トリガ情報、及び、メタデータに基づいて、放送又は通信経由で取得したアプリケーションの動作を制御する。なお、受信装置20は、上述した受信機に対応するテレビ受像機等であり、家庭内などに配置される。
 アプリケーションサーバ30は、受信装置20からの要求に応じて、アプリケーションを、インターネット90を介して受信装置20に配信する。なお、アプリケーションサーバ30は、上述したアプリケーションサーバ(図11等の「Application Server」)に対応するものであり、例えば、放送事業者等により設置される。
 メタデータサーバ40は、受信装置20からの要求に応じて、メタデータを、インターネット90を介して受信装置20に配信する。なお、メタデータサーバ40は、上述したメタデータサーバ(図11等の「Matadata Server」)に対応するものであり、例えば、放送事業者等により設置される。
 また、受信装置20は、インターネット90を介してACRサーバ50に接続して、トリガ情報を問い合わせる。その際、受信装置20は、ACRサーバ50に対して、フィンガプリント情報を送信する。受信装置20は、ACRサーバ50から送信されるトリガ情報を取得し、当該トリガ情報に基づいて、アプリケーションの動作を制御する。
 ACRサーバ50は、受信装置20からの問い合わせに応じて、フィンガプリント情報に対するACR処理を行い、受信装置20で再生されているAVコンテンツを識別する。ACRサーバ50は、ACR識別結果に応じたトリガ情報を生成し、インターネット90を介して受信装置20に送信する。なお、ACRサーバ50は、上述したACRサーバ(図19等の「ACR Server」)に対応するものであり、例えば、放送事業者等により設置される。
 放送通信システム1は、以上のように構成される。次に、図24の放送通信システム1を構成する各装置の構成例について説明する。
(送信装置の構成例)
 図25は、図24の送信装置の構成例を示す図である。
 図25において、送信装置10は、シグナリング情報生成部111、シグナリング情報処理部112、メタデータ生成部113、メタデータ処理部114、オーディオデータ取得部115、オーディオエンコーダ116、ビデオデータ取得部117、ビデオエンコーダ118、トリガ情報生成部119、多重化部120、及び、送信部121から構成される。
 シグナリング情報生成部111は、シグナリング情報を生成し、シグナリング情報処理部112に供給する。シグナリング情報処理部112は、シグナリング情報生成部111から供給されるシグナリング情報を処理し、多重化部120に供給する。
 メタデータ生成部113は、メタデータを生成し、メタデータ処理部114に供給する。メタデータ処理部114は、メタデータ生成部113から供給されるメタデータを処理し、多重化部120に供給する。
 オーディオデータ取得部115は、外部のサーバ、マイクロフォン、又は記録媒体等から、AVコンテンツのオーディオデータを取得し、オーディオエンコーダ116に供給する。オーディオエンコーダ116は、オーディオデータ取得部115から供給されるオーディオデータを、MPEG(Moving Picture Experts Group)等の符号化方式に準拠して符号化し、多重化部120に供給する。
 ビデオデータ取得部117は、外部のサーバ、カメラ、又は記録媒体等から、AVコンテンツのビデオデータを取得し、ビデオエンコーダ118、及び、トリガ情報生成部119に供給する。ビデオエンコーダ118は、ビデオデータ取得部117から供給されるビデオデータを、MPEG等の符号化方式に準拠して符号化し、多重化部120に供給する。
 トリガ情報生成部119は、ビデオデータ取得部117から供給されるビデオデータに対応するAVコンテンツの進行にあわせてトリガ情報を生成し、ビデオエンコーダ118又は多重化部120に供給する。ビデオエンコーダ118は、ビデオデータの符号化を行うに際して、ビデオデータに、トリガ情報生成部119から供給されるトリガ情報を埋め込んで符号化することができる。
 多重化部120は、シグナリング情報処理部112からのシグナリング情報と、メタデータ処理部114からのメタデータと、オーディオエンコーダ116からのオーディオデータと、ビデオエンコーダ118からのビデオデータとを多重化して、その結果得られるBBPストリームを、送信部121に供給する。
 なお、多重化部120は、トリガ情報生成部119からトリガ情報が供給された場合には、オーディオデータとビデオデータに、さらにトリガ情報を多重化して、BBPストリームを生成する。また、メタデータは、その配信経路が通信となる場合には、必ずしも送信する必要はなく、その場合には、メタデータをBBPストリームに含めなくてもよい。さらに、図25の構成では図示していないが、アプリケーションがBBPストリームに含めて送信されるようにしてもよい。
 送信部121は、多重化部120から供給されるBBPストリームを、アンテナ122を介して、デジタル放送信号として送信する。
 なお、図25においては、トリガ情報を、ビデオデータに埋め込まれる場合と、BBPストリームに多重化される場合を例示したが、例えば、トリガ情報をオーディオデータに埋め込むなど、それ以外の方法によって、トリガ情報を配置するようにしてもよい。
(受信装置の構成例)
 図26は、図24の受信装置の構成例を示す図である。
 図26において、受信装置20は、チューナ212、多重分離部213、オーディオデコーダ214、オーディオ出力部215、ビデオデコーダ216、ビデオ出力部217、制御部218、メモリ219、入力部220、通信部221、アプリケーションエンジン222、及び、キャッシュメモリ223から構成される。
 チューナ212は、アンテナ211を介して受信されたデジタル放送信号を選局・復調し、その結果得られるBBPストリームを多重分離部213に供給する。多重分離部213は、チューナ212から供給されるBBPストリームを、オーディオデータと、ビデオデータと、シグナリング情報と、メタデータに分離する。多重分離部213は、オーディオデータをオーディオデコーダ、ビデオデータをビデオデコーダ、シグナリング情報及びメタデータを、制御部218にそれぞれ供給する。
 オーディオデコーダ214は、多重分離部213から供給されるオーディオデータを、オーディオエンコーダ116(図25)による符号化方式に対応する復号方式で復号し、その結果得られるオーディオデータを、オーディオ出力部215及び制御部218に供給する。
 オーディオ出力部215は、オーディオデコーダ214から供給されるオーディオデータを、スピーカ(不図示)に出力する。スピーカは、オーディオ出力部215から供給されるオーディオデータに対応する音声を出力する。
 ビデオデコーダ216は、多重分離部213から供給されるビデオデータを、ビデオエンコーダ118(図25)による符号化方式に対応する復号方式で復号し、その結果得られるビデオデータを、ビデオ出力部217及び制御部218に供給する。
 ビデオ出力部217は、ビデオデコーダ216から供給されるビデオデータを、ディスプレイ(不図示)に出力する。ディスプレイは、ビデオ出力部217から供給されるビデオデータに対応する映像を表示する。
 制御部218は、チューナ212、多重分離部213、及び、通信部221など、受信装置20の各部の動作を制御する。メモリ219は、制御部218から供給される各種のデータを記憶する。入力部220は、ユーザからの操作を受け付けて、それに対応する操作信号を制御部218に供給する。
 また、制御部218は、多重分離部213から供給される、シグナリング情報及びメタデータを取得する。さらに、制御部218は、オーディオデコーダ214から供給されるオーディオデータ、又はビデオデコーダ216から供給されるビデオデータに基づいて、トリガ情報を取得したり、フィンガプリント情報を取得したりする。制御部218は、フィンガプリント情報を、通信部221に供給する。
 通信部221は、制御部218からの制御に従い、インターネット90を介してアプリケーションサーバ30に接続し、アプリケーションを要求する。通信部221は、アプリケーションサーバ30からインターネット90を介して送信されるアプリケーションを取得し、キャッシュメモリ223に保持させる。
 また、通信部221は、制御部218からの制御に従い、インターネット90を介してメタデータサーバ40に接続し、メタデータを要求する。通信部221は、メタデータサーバ40からインターネット90を介して送信されるメタデータを取得し、制御部218に供給する。
 さらに、通信部221は、制御部218からの制御に従い、インターネット90を介してACRサーバ50に接続してフィンガプリント情報を送信し、トリガ情報を問い合わせる。通信部221は、ACRサーバ50からインターネット90を介して送信されるトリガ情報を取得し、制御部218に供給する。
 制御部218は、放送又は通信経由で取得したシグナリング情報、トリガ情報、及び、メタデータに基づいて、放送又は通信経由で取得したアプリケーションの動作を制御する。アプリケーションエンジン222は、制御部218からの制御に従い、キャッシュメモリ223に保持されているアプリケーションを読み出して、実行する。また、アプリケーションエンジン222は、制御部218からの制御に従い、例えば、アプリケーションの休止(中断)、イベント発火、終了などの動作を制御する。
 アプリケーションのビデオデータは、ビデオ出力部217に供給される。ビデオ出力部217は、アプリケーションエンジン222から供給されるビデオデータを、ビデオデコーダ216から供給されたビデオデータと合成し、それにより得られる映像を、ディスプレイに表示させる。
 なお、図26の構成では図示していないが、アプリケーションの配信経路が放送であって、アプリケーションがBBPストリームに含めて送信される場合には、多重分離部213により分離されたアプリケーションがキャッシュメモリ223に保持されることになる。
(制御部の構成例)
 図27は、図26の制御部218における、アプリケーションの制御に関する処理を行う部分の機能的構成例を示す図である。
 図27において、制御部218は、シグナリング情報取得部251、トリガ情報取得部252、メタデータ取得部253、フィンガプリント情報取得部254、解析部255、メディアタイム計時部256、及び、アプリケーション制御部257から構成される。
 シグナリング情報取得部251は、SCS Bootstrap情報に従い、SCSストリームに接続して、SCSシグナリング情報を取得し、解析部255に供給する。
 トリガ情報取得部252は、ビデオデコーダ216から供給されるビデオデータを常に監視して、ビデオデータに埋め込まれているトリガ情報を取得し、解析部255に供給する。また、トリガ情報取得部252は、トリガ情報にメディアタイム情報が含まれている場合、メディアタイム情報を、メディアタイム計時部256に供給する。
 なお、トリガ情報がBBPストリームに配置されている場合には、トリガ情報取得部252は、多重分離部213により分離されたトリガ情報を含むパケットを監視し、そこからトリガ情報を取得することになる。
 メタデータ取得部253は、解析部255による解析結果に従い、放送又は通信で配信されるメタデータを取得し、解析部255に供給する。
 フィンガプリント情報取得部254は、オーディオデコーダ214から供給されるオーディオデータ、及び、ビデオデコーダ216から供給されるビデオデータの少なくとも一方から、フィンガプリント情報を取得(抽出)し、通信部221に供給する。通信部221は、インターネット90を介してACRサーバ50に接続して、フィンガプリント情報を送信する。通信部221は、ACRサーバ50から送信されるトリガ情報を受信し、トリガ情報取得部252に供給する。トリガ情報取得部252は、通信部221から供給されるトリガ情報を取得し、解析部255に供給する。
 解析部255には、シグナリング情報取得部251からのシグナリング情報、トリガ情報取得部252からのトリガ情報、メタデータ取得部253からのメタデータが供給される。解析部255は、シグナリング情報、トリガ情報、及び、メタデータのうちの少なくとも1つの情報の解析を行い、その解析結果を、メタデータ取得部253又はアプリケーション制御部257に供給する。
 メディアタイム計時部256は、トリガ情報取得部252から供給されるメディアタイム情報を設定し、当該メディアタイム情報による時刻の計時を行う。
 アプリケーション制御部257は、解析部255からの解析結果に従い、アプリケーションエンジン222(図26)を制御して、アプリケーションの動作を制御する。
(各サーバの構成例)
 図28は、図24の各サーバの構成例を示す図である。図28には、アプリケーションサーバ30、メタデータサーバ40、及び、ACRサーバ50の構成例が示されている。
 図28において、アプリケーションサーバ30は、制御部311、アプリケーション生成部312、アプリケーション保持部313、及び、通信部314から構成される。制御部311は、アプリケーションサーバ30の各部の動作を制御する。アプリケーション生成部312は、制御部311からの制御に従い、AVコンテンツに連動して実行されるアプリケーション(例えばHTMLファイルやJPEGファイル等から構成される)を生成し、アプリケーション保持部313に保持させる。
 通信部314は、制御部311からの制御に従い、インターネット90を介して受信装置20と通信を行う。制御部311は、通信部314の通信状況を常に監視し、受信装置20からアプリケーションが要求された場合、アプリケーション保持部313からアプリケーションを取得して、通信部314に供給する。通信部314は、制御部311からの制御に従い、アプリケーションを、インターネット90を介して要求元の受信装置20に送信する。
 アプリケーションサーバ30は、以上のように構成される。
 図28において、メタデータサーバ40は、制御部411、メタデータ生成部412、メタデータ保持部413、及び、通信部414から構成される。制御部411は、メタデータサーバ40の各部の動作を制御する。メタデータ生成部412は、制御部411からの制御に従い、AIT、EMT、及び、CCTのうち、少なくとも1つの情報を含むメタデータを生成し、メタデータ保持部413に保持させる。
 通信部414は、制御部411からの制御に従い、インターネット90を介して受信装置20と通信を行う。制御部411は、通信部414の通信状況を常に監視し、受信装置20からメタデータが要求された場合、メタデータ保持部413からメタデータを取得して、通信部414に供給する。通信部414は、制御部411からの制御に従い、メタデータを、インターネット90を介して要求元の受信装置20に送信する。
 メタデータサーバ40は、以上のように構成される。
 図28において、ACRサーバ50は、通信部511、ACR識別処理部512、FPデータベース513、トリガ情報生成部514、及び、トリガ情報用データベースから構成される。通信部511は、インターネット90を介して受信装置20と通信を行う。通信部511は、受信装置20からトリガ情報の問い合わせを受けた場合、フィンガプリント情報を受信して、ACR識別処理部512に供給する。
 ACR識別処理部512は、通信部511から供給されるフィンガプリント情報を、あらかじめ用意されたFPデータベース513と照合して、問い合わせ元の受信装置20で再生中のAVコンテンツを識別するACR識別処理を行う。ACR識別処理部512は、ACR識別処理の結果を、トリガ情報生成部514に供給する。
 なお、フィンガプリント情報(特徴量)は、例えば、AVコンテンツの全体又は一部構成要素の固有情報であって、FPデータベース513には、あらかじめ多数のAVコンテンツの固有情報が登録されている。ACR識別処理では、例えば、それらの固有情報の類似度又は一致度が判定される。また、この類似度又は一致度の判定方法としては、各種の文献などによって開示されている、公知の技術を用いることができる。
 トリガ情報生成部514は、ACR識別処理部512から供給されるACR識別処理の結果と、トリガ情報用データベース515に登録された各種の情報に基づいて、トリガ情報を生成し、通信部511に供給する。通信部511は、トリガ情報生成部514から供給されるトリガ情報を、インターネット90を介して、問い合わせ元の受信装置20に送信する。
 ACRサーバ50は、以上のように構成される。
<5.各装置で実行される処理の流れ>
 次に、図29乃至図36のフローチャートを参照して、図24の放送通信システム1を構成する各装置で実行される処理の流れを説明する。
(デジタル放送信号送信処理)
 まず、図29のフローチャートを参照して、図24の送信装置10により実行されるデジタル放送信号送信処理の流れについて説明する。
 ステップS111において、シグナリング情報生成部111は、シグナリング情報を生成する。ステップS112において、シグナリング情報処理部112は、ステップS111の処理で生成されたシグナリング情報を処理する。
 ステップS113において、メタデータ生成部113は、メタデータを生成する。ステップS114において、メタデータ処理部114は、ステップS113の処理で生成されたメタデータを処理する。
 ステップS115において、オーディオデータ取得部115は、外部のサーバ等から、AVコンテンツのオーディオデータを取得する。ステップS116において、オーディオエンコーダ116は、ステップS115の処理で取得されたオーディオデータを、MPEG等の符号化方式に準拠して符号化する。
 ステップS117において、ビデオデータ取得部117は、外部のサーバ等から、AVコンテンツのビデオデータを取得する。ステップS118において、トリガ情報生成部119は、ステップS117の処理で取得されたビデオデータに対応するAVコンテンツの進行にあわせてトリガ情報を生成する。
 ステップS119において、ビデオエンコーダ118は、ステップS117の処理で取得されたビデオデータを、MPEG等の符号化方式に準拠して符号化する。ただし、ビデオエンコーダ118は、ビデオデータの符号化を行うに際して、ビデオデータに、トリガ情報生成部119から供給されるトリガ情報を埋め込んで符号化を行う。
 ステップS120において、多重化部120は、ステップS112で処理されたシグナリング情報と、ステップS114で処理されたメタデータと、ステップS116で符号化されたオーディオデータと、ステップS119の処理で符号化されたビデオデータとを多重化して、その結果得られるBBPストリームを、送信部121に供給する。
 ステップS121において、送信部121は、ステップS120の処理で生成されたBBPストリームを、アンテナ122を介して、IP伝送方式を用いたデジタル放送信号として送信する。ステップS121の処理が終了すると、図29のデジタル放送信号送信処理は終了する。
 以上、デジタル放送信号送信処理の流れについて説明した。なお、図29のデジタル放送信号送信処理では、説明を簡略化するため、トリガ情報がビデオデータに埋め込まれる場合を一例に説明した。
(デジタル放送信号受信処理)
 次に、図30のフローチャートを参照して、図24の受信装置20により実行されるデジタル放送信号受信処理の流れについて説明する。
 ステップS211において、チューナ212は、アンテナ211を介して受信された、IP伝送方式を用いたデジタル放送信号の選局・復調を行う。また、ステップS212において、多重分離部213は、ステップS211の処理で復調されたBBPストリームから、オーディオデータと、ビデオデータを分離する。
 ステップS213において、オーディオデコーダ214は、ステップS212の処理で分離されたオーディオデータを、オーディオエンコーダ116(図25)による符号化方式に対応する復号方式で復号する。また、ステップS214において、ビデオデコーダ216は、ステップS212の処理で分離されたビデオデータを、ビデオエンコーダ118(図25)による符号化方式に対応する復号方式で復号する。
 ステップS215において、オーディオ出力部215は、ステップS213の処理で復号されたオーディオデータを、スピーカ(不図示)に出力する。また、ステップS216において、ビデオ出力部217は、ステップS214の処理で復号されたビデオデータを、ディスプレイ(不図示)に出力する。これにより、ディスプレイには、AVコンテンツの映像が表示され、スピーカからは、その映像に同期した音声が出力される。
 ステップS216の処理が終了すると、図30のデジタル放送信号受信処理は終了する。
 以上、デジタル放送信号受信処理の流れについて説明した。
(収録済み番組に連動したアプリケーション制御処理)
 次に、図31のフローチャートを参照して、図24の受信装置20により実行される収録済み番組に連動したアプリケーション制御処理の流れについて説明する。なお、この収録済み番組に連動したアプリケーション制御処理に先立って、受信装置20では、送信装置10からのデジタル放送信号が受信され、AVコンテンツとして、例えばドラマ等の収録済み番組が再生されているものとする。
 ステップS231において、シグナリング情報取得部251は、SCS Bootstrap情報に従い、SCSストリームに接続して、SCSシグナリング情報を取得する。このSCSシグナリング情報は、解析部255により解析される。
 ステップS232において、トリガ情報取得部252は、ビデオデコーダ216から供給されるビデオデータを常に監視して、ビデオデータに埋め込まれているトリガ情報を取得する。このトリガ情報は、解析部255により解析される。
 ステップS233において、メディアタイム計時部256は、ステップS232の処理で取得されたトリガ情報の解析結果に従い、メディアタイム情報を設定して、当該メディアタイム情報による時刻の計時を開始する。
 ステップS234において、メタデータ取得部253は、解析部255による解析結果に従い、放送又は通信で配信されるメタデータ(AIT、EMT、CCT)を取得する。具体的には、ステップS231の処理で取得されたSCSシグナリング情報に含まれるUSDと、ステップS232の処理で取得されたトリガ情報に含まれるロケーション情報に基づいて、メタデータの配信経路が放送又は通信のいずれであるかが判定される。
 そして、メタデータが放送で配信されている場合、メタデータ取得部253は、SCSシグナリング情報に含まれるSDPやFDD等に従い、SCSストリームに接続して、FLUTEセッションで伝送されているメタデータのファイルを取得する。一方、メタデータが通信で配信されている場合、メタデータ取得部253は、通信部221を制御して、トリガ情報に含まれるロケーション情報に従い、インターネット90を介してメタデータサーバ40に接続し、メタデータのファイルを取得する。このメタデータは、解析部255により解析される。
 ステップS235においては、メディアタイム計時部256による計時時刻が、EMTのリストに規定されたイベントの開始時刻となったかどうかが判定される。ステップS235において、計時時刻が、EMTのリストに規定されたイベントの開始時刻になっていないと判定された場合、処理は、ステップS235に戻り、ステップS235の判定処理が繰り返される。すなわち、ステップS235においては、計時時刻が、EMTのリストに規定されたイベントの開始時刻になるのを待って、処理は、ステップS236に進められる。
 ステップS236において、アプリケーション制御部257は、アプリケーションエンジン222を制御して、ステップS235の判定処理で、計時時刻が、開始時刻になったと判定されたイベントに対応するアプリケーションのアクションを実行させる。
 ステップS237においては、EMTのリストに、実行するイベントが残っているかどうかが判定される。ステップS237において、実行するイベントが残っていると判定された場合、処理は、ステップS235に戻り、それ以降の処理が繰り返される。
 すなわち、ステップS234の処理で、例えば、上述した図11のEMTが取得された場合、このEMTには、アプリケーション1(App1)に対するアクション情報として、時刻T0でのプリフェッチ(Pref)、時刻T1でのエクスキュート(Exec)、時刻T2でのインジェクトイベント(Inj_A_E)、時刻T4でのサスペンド(Susp)、時刻T5でのエクスキュート(Exec)、時刻T6でのキル(Kill)が規定されている。また、図11のEMTには、アプリケーション2(App2)に対するアクション情報として、時刻T3でのプリフェッチ(Pref)、時刻T4でのエクスキュート(Exec)、時刻T5でのキル(Kill)が規定されている。
 この場合においては、ステップS235乃至S237の処理が繰り返されて、メディアタイム計時部256による計時時刻が、時刻T0~T6と一致したタイミングで、対応するイベント、すなわち、アプリケーション1に対するプリフェッチアクションやエクスキュートアクション、アプリケーション2に対するプリフェッチアクションなどが順次実行されることになる。
 ステップS237において、実行するイベントが残っていないと判定された場合、図31の収録済み番組に連動したアプリケーション制御処理は終了する。
 以上、収録済み番組に連動したアプリケーション制御処理の流れについて説明した。なお、この収録済み番組に連動したアプリケーション制御処理は、上述したユースケース1、4に対応している。
(ライブ番組に連動したアプリケーション制御処理)
 次に、図32のフローチャートを参照して、図24の受信装置20により実行されるライブ番組に連動したアプリケーション制御処理の流れについて説明する。なお、このライブ番組に連動したアプリケーション制御処理に先立って、受信装置20では、送信装置10からのデジタル放送信号が受信され、AVコンテンツとして、例えばスポーツ中継等のライブ番組が再生されているものとする。
 ステップS251において、シグナリング情報取得部251は、SCS Bootstrap情報に従い、SCSストリームに接続して、SCSシグナリング情報を取得する。このSCSシグナリング情報は、解析部255により解析される。
 ステップS252において、トリガ情報取得部252は、ビデオデコーダ216から供給されるビデオデータを常に監視して、ビデオデータに埋め込まれているトリガ情報を取得する。このトリガ情報は、解析部255により解析される。
 ステップS253において、メタデータ取得部253は、解析部255による解析結果に従い、放送又は通信で配信されるメタデータ(AIT、CCT)を取得する。具体的には、ステップS251の処理で取得されたSCSシグナリング情報に含まれるUSDと、ステップS252の処理で取得されたトリガ情報に含まれるロケーション情報に基づいて、メタデータの配信経路が放送又は通信のいずれであるかが判定される。
 そして、メタデータが放送で配信されている場合、メタデータ取得部253は、SCSシグナリング情報に含まれるSDPやFDD等に従い、SCSストリームに接続して、FLUTEセッションで伝送されているメタデータのファイルを取得する。一方、メタデータが通信で配信されている場合、メタデータ取得部253は、通信部221を制御して、トリガ情報に含まれるロケーション情報に従い、インターネット90を介してメタデータサーバ40に接続し、メタデータのファイルを取得する。このメタデータは、解析部255により解析される。
 ステップS254において、アプリケーション制御部257は、解析部255による解析結果に従い、放送又は通信で配信されるアプリケーションが、アプリケーションエンジン222に供給されるようにする。具体的には、ステップS251の処理で取得されたSCSシグナリング情報に含まれるUSDと、ステップS253の処理で取得されたアプリケーションURLと、アプリケーションアイテムURL(キャッシュメモリに保持するファイルの取得先を示すURL)に基づいて、アプリケーションの配信経路が放送又は通信のいずれであるかが判定される。
 そして、アプリケーションが放送で配信されている場合、アプリケーション制御部257は、SCSシグナリング情報に含まれるSDPやFDD等に従い、NRTストリームに接続して、FLUTEセッションで伝送されているアプリケーションのファイルを取得する。一方、アプリケーションが通信で配信されている場合、アプリケーション制御部257は、通信部221を制御して、アプリケーションURL等に従い、インターネット90を介してアプリケーションサーバ30に接続し、アプリケーションのファイルを取得する。このようにして取得されたアプリケーションは、キャッシュメモリ223に保持される。なお、このキャッシュメモリ223に保持される、アプリケーションのファイルは、キャッシュメモリ223の容量と、キャッシュ制御情報としてのCCTに基づいたものとなる。
 ステップS255においては、トリガ情報取得部252によって、ビデオデコーダ216から供給されるビデオデータが常に監視されて、ビデオデータに埋め込まれているトリガ情報が取得されたかどうかが判定される。ステップS255において、トリガ情報が取得されたと判定された場合、処理は、ステップS256に進められる。
 ステップS256において、アプリケーション制御部257は、アプリケーションエンジン222を制御して、ステップS255の処理で取得されたトリガ情報に含まれるアプリケーションのアクションを実行させる。なお、ステップS256の処理が終了すると、処理は、ステップS257に進められる。また、ステップS255において、トリガ情報が取得されていないと判定された場合、ステップS256の処理はスキップされ、処理は、ステップS257に進められる。
 ステップS257においては、再生中のライブ番組が終了したかどうかが判定される。ステップS257において、再生中のライブ番組が終了していないと判定された場合、処理は、ステップS255に戻り、それ以降の処理が繰り返される。
 そして、ステップS255乃至S257の処理が繰り返されて、トリガ情報が取得されたタイミングで、当該トリガ情報に含まれるアクション情報に応じて、例えば、アプリケーション1に対するプリフェッチアクションやエクスキュートアクション、アプリケーション2に対するプリフェッチアクションなどが実行されることになる。
 また、ステップS257において、ライブ番組が終了したと判定された場合、図32のライブ番組に連動したアプリケーション制御処理は終了する。
 以上、ライブ番組に連動したアプリケーション制御処理の流れについて説明した。なお、このライブ番組に連動したアプリケーション制御処理は、上述したユースケース2、5に対応している。
(ハイブリッド型のアプリケーション制御処理)
 次に、図33のフローチャートを参照して、図24の受信装置20により実行されるハイブリッド型のアプリケーション制御処理の流れについて説明する。なお、受信装置20では、番組等のAVコンテンツが再生されているものとする。
 ステップS271において、シグナリング情報取得部251は、SCS Bootstrap情報に従い、SCSストリームに接続して、SCSシグナリング情報を取得する。このSCSシグナリング情報は、解析部255により解析される。
 ステップS272において、トリガ情報取得部252は、ビデオデコーダ216から供給されるビデオデータを常に監視して、ビデオデータに埋め込まれているトリガ情報を取得する。このトリガ情報は、解析部255により解析される。
 ステップS273において、メディアタイム計時部256は、ステップS272の処理で取得されたトリガ情報の解析結果に従い、メディアタイム情報を設定して、当該メディアタイム情報による時刻の計時を開始する。
 ステップS274において、メタデータ取得部253は、解析部255による解析結果に従い、放送又は通信で配信されるメタデータ(AIT、EMT、CCT)を取得する。具体的には、ステップS271の処理で取得されたSCSシグナリング情報に含まれるUSDと、ステップS272の処理で取得されたトリガ情報に含まれるロケーション情報に基づいて、メタデータの配信経路が放送又は通信のいずれであるかが判定される。
 そして、メタデータが放送で配信されている場合、メタデータ取得部253は、SCSシグナリング情報に含まれるSDPやFDD等に従い、SCSストリームに接続して、FLUTEセッションで伝送されているメタデータのファイルを取得する。一方、メタデータが通信で配信されている場合、メタデータ取得部253は、通信部221を制御して、トリガ情報に含まれるロケーション情報に従い、インターネット90を介してメタデータサーバ40に接続し、メタデータのファイルを取得する。このメタデータは、解析部255により解析される。
 ステップS275において、メディアタイム計時部256による計時時刻が、EMTのリストに規定されたイベントの開始時刻となったかどうかが判定される。ステップS275において、計時時刻が、EMTのリストに規定されたイベントの開始時刻になったと判定された場合、ステップS276に進められる。
 ステップS276において、アプリケーション制御部257は、アプリケーションエンジン222を制御して、ステップS275の判定処理で、計時時刻が、開始時刻になったと判定されたイベントに対応するアプリケーションのアクションを実行させる。なお、ステップS276の処理が終了すると、処理は、ステップS277に進められる。また、ステップS275において、計時時刻が、EMTのリストに規定されたイベントの開始時刻になっていないと判定された場合、ステップS276の処理はスキップされ、処理は、ステップS277に進められる。
 ステップS277においては、ビデオデコーダ216から供給されるビデオデータを常に監視して、ビデオデータに埋め込まれているトリガ情報が取得されたかどうかが判定される。ステップS277において、トリガ情報が取得されたと判定された場合、処理は、ステップS278に進められる。
 ステップS278においては、ステップS277の処理で取得されたトリガ情報にイベント情報が指定されているかどうかが判定される。ステップS278において、トリガ情報にイベント情報が指定されていると判定された場合、処理は、ステップS279に進められる。
 ステップS279において、解析部255は、トリガ情報に含まれるイベント情報の編集内容に応じて、EMTの編集を行う。ここでは、例えば、EMTに規定された、アプリケーション1に対するエクスキュートアクションの実行時刻を、時刻T1から時刻T1Aに更新したり、アプリケーション1に対する、時刻T2でのインジェクトイベントアクションを削除したりするなどの編集が行われる。
 一方、ステップS278において、トリガ情報にイベント情報が指定されていないと判定された場合、処理は、ステップS280に進められる。ステップS280において、アプリケーション制御部257は、アプリケーションエンジン222を制御して、トリガ情報に含まれるアプリケーションのアクションを実行させる。
 なお、ステップS277において、トリガ情報が取得されていないと判定された場合、ステップS278乃至S280はスキップされ、処理は、ステップS281に進められる。また、ステップS279又はS280の処理が終了すると、処理は、ステップS281に進められる。
 ステップS281においては、再生中の番組が終了したかどうかが判定される。ステップS281において、再生中の番組が終了していないと判定された場合、処理は、ステップS275に戻り、それ以降の処理が繰り返される。また、ステップS281において、再生中の番組が終了したと判定された場合、図33のハイブリッド型のアプリケーション制御処理は終了する。
 以上、ハイブリッド型のアプリケーション制御処理の流れについて説明した。なお、このハイブリッド型のアプリケーション制御処理は、上述したユースケース3に対応している。
(アプリケーション配信処理)
 次に、図34のフローチャートを参照して、図24のアプリケーションサーバ30により実行されるアプリケーション配信処理の流れについて説明する。
 ステップS311において、制御部311は、通信部314の通信状況を常に監視して、受信装置20からアプリケーションが要求されたかどうかを判定する。ステップS311において、アプリケーションが要求されていないと判定された場合、ステップS311の判定処理が繰り返される。すなわち、ステップS311においては、受信装置20からアプリケーションが要求されるのを待って、処理は、ステップS312に進められる。
 ステップS312において、通信部314は、制御部311からの制御に従い、アプリケーション保持部313に保持されているアプリケーションを取得する。また、ステップS313において、通信部314は、制御部311からの制御に従い、ステップS312の処理で取得されたアプリケーションを、インターネット90を介して要求元の受信装置20に送信する。ステップS313の処理が終了すると、図34のアプリケーション配信処理は終了する。
 以上、アプリケーション配信処理の流れについて説明した。
(メタデータ配信処理)
 次に、図35のフローチャートを参照して、図24のメタデータサーバ40により実行されるメタデータ配信処理の流れについて説明する。
 ステップS411において、制御部411は、通信部414の通信状況を常に監視して、受信装置20からメタデータが要求されたかどうかを判定する。ステップS411において、メタデータが要求されていないと判定された場合、ステップS411の判定処理が繰り返される。すなわち、ステップS411においては、受信装置20からメタデータが要求されるのを待って、処理は、ステップS412に進められる。
 ステップS412において、通信部414は、制御部411からの制御に従い、メタデータ保持部413に保持されているメタデータを取得する。また、ステップS413において、通信部414は、制御部411からの制御に従い、ステップS412の処理で取得されたメタデータを、インターネット90を介して要求元の受信装置20に送信する。ステップS413の処理が終了すると、図35のメタデータ配信処理は終了する。
 以上、メタデータ配信処理の流れについて説明した。
(トリガ情報配信処理)
 次に、図36のフローチャートを参照して、図24のACRサーバ50により実行されるトリガ情報配信処理の流れについて説明する。
 ステップS511においては、受信装置20からトリガ情報の問い合わせを受け、フィンガプリント情報が受信されたかどうかが判定される。ステップS511において、フィンガプリント情報が受信されていないと判定された場合、ステップS511の判定処理が繰り返される。すなわち、ステップS511においては、通信部511によりフィンガプリント情報が受信されるのを待って、処理は、ステップS512に進められる。
 ステップS512において、ACR識別処理部512は、ステップS511の処理で受信されたフィンガプリント情報を、あらかじめ用意されたFPデータベース513と照合して、問い合わせ元の受信装置20で再生中のAVコンテンツを識別するACR識別処理を行う。
 ステップS513において、トリガ情報生成部514は、ステップS512の処理で求められたACR識別処理の結果と、トリガ情報用データベース515に登録された各種の情報に基づいて、トリガ情報を生成する。
 ステップS514において、通信部511は、ステップS513の処理で生成されたトリガ情報を、インターネット90を介して、問い合わせ元の受信装置20に送信する。ステップS514の処理が終了すると、図36のトリガ情報配信処理は終了する。
 以上、トリガ情報配信処理の流れについて説明した。
 なお、上述した説明では、AVコンテンツとして、収録済み番組やライブ番組等の放送コンテンツを説明したが、放送コンテンツの代わりに、通信コンテンツが、インターネット90を介してストリーミングサーバ(不図示)からストリーミング配信されるようにしてもよい。
<6.コンピュータの構成>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。図37は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示す図である。
 コンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904により相互に接続されている。バス904には、さらに、入出力インターフェース905が接続されている。入出力インターフェース905には、入力部906、出力部907、記録部908、通信部909、及び、ドライブ910が接続されている。
 入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記録部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインターフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
 以上のように構成されるコンピュータ900では、CPU901が、ROM902や記録部908に記憶されているプログラムを、入出力インターフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
 コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インターフェース905を介して、記録部908にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部909で受信し、記録部908にインストールすることができる。その他、プログラムは、ROM902や記録部908に、あらかじめインストールしておくことができる。
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本技術は、以下のような構成をとることができる。
(1)
 AV(Audio Video)コンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を取得する第1の取得部と、
 前記アプリケーションの動作を制御するためのアプリケーション制御情報を取得する第2の取得部と、
 前記トリガ情報、及び、前記アプリケーション制御情報に基づいて、前記アプリケーションの動作を制御する制御部と
 を備える受信装置。
(2)
 前記トリガ情報は、前記アプリケーションの動作の制御を行う時刻の基準となる時刻情報を含み、
 前記第2の取得部は、前記アプリケーションの動作を時系列で規定したスケジュール制御情報を取得し、
 前記制御部は、前記時刻情報を基準に計時された時刻が、前記スケジュール制御情報に規定された時刻を経過したとき、当該時刻に対応した前記アプリケーションに対するアクション情報に応じて、前記アプリケーションの動作を制御する
 (1)に記載の受信装置。
(3)
 前記アプリケーションは、複数のファイルから構成されており、
 前記第2の取得部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を取得し、
 前記制御部は、前記キャッシュ制御情報に基づいて、前記アプリケーションを構成するファイル群をキャッシュメモリに保持させる
 (2)に記載の受信装置。
(4)
 前記トリガ情報は、前記スケジュール制御情報に規定された内容を編集するための編集情報を含み、
 前記制御部は、前記編集情報に基づいて、前記スケジュール制御情報を編集する
 (2)又は(3)に記載の受信装置。
(5)
 前記ロケーション情報は、前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、
 前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられている
 (3)又は(4)に記載の受信装置。
(6)
 前記トリガ情報は、前記アプリケーションに対するアクション情報を含み、
 前記制御部は、前記トリガ情報が取得されたとき、当該トリガ情報に含まれる前記アクション情報に応じて、前記アプリケーションの動作を制御する
 (1)に記載の受信装置。
(7)
 前記アプリケーションは、複数のファイルから構成されており、
 前記第2の取得部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を取得し、
 前記制御部は、前記キャッシュ制御情報に基づいて、前記アプリケーションを構成するファイル群をキャッシュメモリに保持させる
 (6)に記載の受信装置。
(8)
 前記ロケーション情報は、前記アプリケーション制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、
 前記トリガ情報、前記アプリケーション制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられている
 (7)に記載の受信装置。
(9)
 前記AVコンテンツは、デジタル放送信号で送信される放送コンテンツであり、
 前記トリガ情報は、デジタル放送信号に含めて配信されるか、あるいはインターネット上のサーバから配信され、
 前記第1の取得部は、放送又は通信で配信される前記トリガ情報を取得する
 (1)乃至(8)のいずれかに記載の受信装置。
(10)
 受信装置の受信方法において、
 前記受信装置が、
 AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を取得し、
 前記アプリケーションの動作を制御するためのアプリケーション制御情報を取得し、
 前記トリガ情報、及び、前記アプリケーション制御情報に基づいて、前記アプリケーションの動作を制御する
 ステップを含む受信方法。
(11)
 AVコンテンツを取得する取得部と、
 前記AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を生成する第1の生成部と、
 前記アプリケーションの動作を制御するためのアプリケーション制御情報を生成する取得する第2の第2の生成部と、
 前記AVコンテンツとともに、前記トリガ情報、及び、アプリケーション制御情報を送信する送信部と
 を備える送信装置。
(12)
 前記第1の生成部は、前記アプリケーションの動作の制御を行う時刻の基準となる時刻情報を含む前記トリガ情報を生成し、
 前記第2の生成部は、前記アプリケーションの動作を時系列で規定したスケジュール制御情報を生成し、
 前記送信部は、前記時刻情報を含む前記トリガ情報、及び、前記スケジュール制御情報を送信する
 (11)に記載の送信装置。
(13)
 前記アプリケーションは、複数のファイルから構成されており、
 前記第2の生成部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を生成し、
 前記送信部は、前記キャッシュ制御情報をさらに送信する
 (12)に記載の送信装置。
(14)
 前記第1の生成部は、前記スケジュール制御情報に規定された内容を編集するための編集情報を含む前記トリガ情報を生成し、
 前記送信部は、前記編集情報を含む前記トリガ情報を送信する
 (12)又は(13)に記載の送信装置。
(15)
 前記ロケーション情報は、前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、
 前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられている
 (13)又は(14)に記載の送信装置。
(16)
 前記第1の生成部は、前記アプリケーションに対するアクション情報を含む前記トリガ情報を生成し、
 前記送信部は、前記アクション情報を含む前記トリガ情報を送信する
 (11)に記載の送信装置。
(17)
 前記アプリケーションは、複数のファイルから構成されており、
 前記第2の生成部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を生成し、
 前記送信部は、前記キャッシュ制御情報をさらに送信する
 (16)に記載の送信装置。
(18)
 前記ロケーション情報は、前記アプリケーション制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、
 前記トリガ情報、前記アプリケーション制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられている
 (17)に記載の送信装置。
(19)
 前記AVコンテンツは、放送コンテンツであり、
 前記送信部は、前記AVコンテンツとともに、前記トリガ情報、及び、アプリケーション制御情報を、デジタル放送信号で送信する
 (11)乃至(18)のいずれかに記載の送信装置。
(20)
 送信装置の送信方法において、
 前記送信装置が、
 AVコンテンツを取得し、
 前記AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を生成し、
 前記アプリケーションの動作を制御するためのアプリケーション制御情報を生成する取得し、
 前記AVコンテンツとともに、前記トリガ情報、及び、アプリケーション制御情報を送信する
 ステップを含む送信方法。
 1 放送通信システム, 10 送信装置, 20 受信装置, 30 アプリケーションサーバ, 40 メタデータサーバ, 50 ACRサーバ, 90 インターネット, 111 シグナリング情報生成部, 113 メタデータ生成部, 115 オーディオデータ取得部, 117 ビデオデータ取得部, 119 トリガ情報生成部, 121 送信部, 212 チューナ, 218 制御部, 221 通信部, 222 アプリケーションエンジン, 223 キャッシュメモリ, 251 シグナリング情報取得部, 252 トリガ情報取得部, 253 メタデータ取得部, 254 フィンガプリント情報取得部, 255 解析部, 256 メディアタイム計時部, 257 アプリケーション制御部, 311 制御部, 313 アプリケーション保持部, 314 通信部, 411 制御部, 413 メタデータ保持部, 414 通信部, 511 通信部, 512 ACR識別処理部, 514 トリガ情報生成部, 900 コンピュータ, 901 CPU

Claims (20)

  1.  AV(Audio Video)コンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を取得する第1の取得部と、
     前記アプリケーションの動作を制御するためのアプリケーション制御情報を取得する第2の取得部と、
     前記トリガ情報、及び、前記アプリケーション制御情報に基づいて、前記アプリケーションの動作を制御する制御部と
     を備える受信装置。
  2.  前記トリガ情報は、前記アプリケーションの動作の制御を行う時刻の基準となる時刻情報を含み、
     前記第2の取得部は、前記アプリケーションの動作を時系列で規定したスケジュール制御情報を取得し、
     前記制御部は、前記時刻情報を基準に計時された時刻が、前記スケジュール制御情報に規定された時刻を経過したとき、当該時刻に対応した前記アプリケーションに対するアクション情報に応じて、前記アプリケーションの動作を制御する
     請求項1に記載の受信装置。
  3.  前記アプリケーションは、複数のファイルから構成されており、
     前記第2の取得部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を取得し、
     前記制御部は、前記キャッシュ制御情報に基づいて、前記アプリケーションを構成するファイル群をキャッシュメモリに保持させる
     請求項2に記載の受信装置。
  4.  前記トリガ情報は、前記スケジュール制御情報に規定された内容を編集するための編集情報を含み、
     前記制御部は、前記編集情報に基づいて、前記スケジュール制御情報を編集する
     請求項3に記載の受信装置。
  5.  前記ロケーション情報は、前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、
     前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられている
     請求項4に記載の受信装置。
  6.  前記トリガ情報は、前記アプリケーションに対するアクション情報を含み、
     前記制御部は、前記トリガ情報が取得されたとき、当該トリガ情報に含まれる前記アクション情報に応じて、前記アプリケーションの動作を制御する
     請求項1に記載の受信装置。
  7.  前記アプリケーションは、複数のファイルから構成されており、
     前記第2の取得部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を取得し、
     前記制御部は、前記キャッシュ制御情報に基づいて、前記アプリケーションを構成するファイル群をキャッシュメモリに保持させる
     請求項6に記載の受信装置。
  8.  前記ロケーション情報は、前記アプリケーション制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、
     前記トリガ情報、前記アプリケーション制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられている
     請求項7に記載の受信装置。
  9.  前記AVコンテンツは、デジタル放送信号で送信される放送コンテンツであり、
     前記トリガ情報は、デジタル放送信号に含めて配信されるか、あるいはインターネット上のサーバから配信され、
     前記第1の取得部は、放送又は通信で配信される前記トリガ情報を取得する
     請求項1に記載の受信装置。
  10.  受信装置の受信方法において、
     前記受信装置が、
     AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を取得し、
     前記アプリケーションの動作を制御するためのアプリケーション制御情報を取得し、
     前記トリガ情報、及び、前記アプリケーション制御情報に基づいて、前記アプリケーションの動作を制御する
     ステップを含む受信方法。
  11.  AVコンテンツを取得する取得部と、
     前記AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を生成する第1の生成部と、
     前記アプリケーションの動作を制御するためのアプリケーション制御情報を生成する取得する第2の第2の生成部と、
     前記AVコンテンツとともに、前記トリガ情報、及び、アプリケーション制御情報を送信する送信部と
     を備える送信装置。
  12.  前記第1の生成部は、前記アプリケーションの動作の制御を行う時刻の基準となる時刻情報を含む前記トリガ情報を生成し、
     前記第2の生成部は、前記アプリケーションの動作を時系列で規定したスケジュール制御情報を生成し、
     前記送信部は、前記時刻情報を含む前記トリガ情報、及び、前記スケジュール制御情報を送信する
     請求項11に記載の送信装置。
  13.  前記アプリケーションは、複数のファイルから構成されており、
     前記第2の生成部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を生成し、
     前記送信部は、前記キャッシュ制御情報をさらに送信する
     請求項12に記載の送信装置。
  14.  前記第1の生成部は、前記スケジュール制御情報に規定された内容を編集するための編集情報を含む前記トリガ情報を生成し、
     前記送信部は、前記編集情報を含む前記トリガ情報を送信する
     請求項13に記載の送信装置。
  15.  前記ロケーション情報は、前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、
     前記アプリケーション制御情報、前記スケジュール制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられている
     請求項14に記載の送信装置。
  16.  前記第1の生成部は、前記アプリケーションに対するアクション情報を含む前記トリガ情報を生成し、
     前記送信部は、前記アクション情報を含む前記トリガ情報を送信する
     請求項11に記載の送信装置。
  17.  前記アプリケーションは、複数のファイルから構成されており、
     前記第2の生成部は、前記アプリケーションを構成するファイル群のキャッシュを制御するためのキャッシュ制御情報を生成し、
     前記送信部は、前記キャッシュ制御情報をさらに送信する
     請求項16に記載の送信装置。
  18.  前記ロケーション情報は、前記アプリケーション制御情報、及び、前記キャッシュ制御情報を取得するための情報であり、
     前記トリガ情報、前記アプリケーション制御情報、及び、前記キャッシュ制御情報は、前記アプリケーションの識別情報により関連付けられている
     請求項17に記載の送信装置。
  19.  前記AVコンテンツは、放送コンテンツであり、
     前記送信部は、前記AVコンテンツとともに、前記トリガ情報、及び、アプリケーション制御情報を、デジタル放送信号で送信する
     請求項11に記載の送信装置。
  20.  送信装置の送信方法において、
     前記送信装置が、
     AVコンテンツを取得し、
     前記AVコンテンツに連動して実行されるアプリケーションの動作を制御するための情報として、ロケーション情報を少なくとも含むトリガ情報を生成し、
     前記アプリケーションの動作を制御するためのアプリケーション制御情報を生成する取得し、
     前記AVコンテンツとともに、前記トリガ情報、及び、アプリケーション制御情報を送信する
     ステップを含む送信方法。
PCT/JP2015/070498 2014-08-01 2015-07-17 受信装置、受信方法、送信装置、及び、送信方法 WO2016017451A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1020167007523A KR102459246B1 (ko) 2014-08-01 2015-07-17 수신 장치, 수신 방법, 송신 장치 및 송신 방법
CN201580002007.XA CN105594220B (zh) 2014-08-01 2015-07-17 接收装置、接收方法、传输装置以及传输方法
EP15828221.0A EP3177026B1 (en) 2014-08-01 2015-07-17 Reception device, reception method, transmission device, and transmission method
MX2016003752A MX369424B (es) 2014-08-01 2015-07-17 Dispositivo de recepción, método de recepción, dispositivo de transmisión y método de transmisión.
JP2016510532A JPWO2016017451A1 (ja) 2014-08-01 2015-07-17 受信装置、受信方法、送信装置、及び、送信方法
CA2924036A CA2924036C (en) 2014-08-01 2015-07-17 Receiving device, receiving method, transmitting device, and transmitting method
US14/916,507 US11528539B2 (en) 2014-08-01 2015-07-17 Receiving device, receiving method, transmitting device, and transmitting method
US17/983,101 US11889163B2 (en) 2014-08-01 2022-11-08 Receiving device, receiving method, transmitting device, and transmitting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-158231 2014-08-01
JP2014158231 2014-08-01

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/916,507 A-371-Of-International US11528539B2 (en) 2014-08-01 2015-07-17 Receiving device, receiving method, transmitting device, and transmitting method
US17/983,101 Continuation US11889163B2 (en) 2014-08-01 2022-11-08 Receiving device, receiving method, transmitting device, and transmitting method

Publications (1)

Publication Number Publication Date
WO2016017451A1 true WO2016017451A1 (ja) 2016-02-04

Family

ID=55217356

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/070498 WO2016017451A1 (ja) 2014-08-01 2015-07-17 受信装置、受信方法、送信装置、及び、送信方法

Country Status (8)

Country Link
US (2) US11528539B2 (ja)
EP (1) EP3177026B1 (ja)
JP (1) JPWO2016017451A1 (ja)
KR (1) KR102459246B1 (ja)
CN (1) CN105594220B (ja)
CA (1) CA2924036C (ja)
MX (1) MX369424B (ja)
WO (1) WO2016017451A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017141701A1 (ja) * 2016-02-15 2018-12-13 ソニー株式会社 受信装置、送信装置、及び、データ処理方法
JP2023525655A (ja) * 2021-04-20 2023-06-19 テンセント・アメリカ・エルエルシー イベントメッセージトラックにおけるイベント間の拡張された関係シグナリング

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3232668A4 (en) 2014-12-10 2018-06-13 LG Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method and broadcast signal reception method
KR102014800B1 (ko) 2015-07-06 2019-08-27 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2017144126A1 (en) * 2016-02-22 2017-08-31 Telefonaktiebolaget Lm Ericsson (Publ) A method and entity for audience measurement

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140040965A1 (en) * 2012-07-31 2014-02-06 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method
US20140043540A1 (en) * 2012-08-13 2014-02-13 Sony Corporation Reception apparatus, reception method, transmission apparatus, and transmission method

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3338810B2 (ja) 1999-11-09 2002-10-28 エヌイーシーケーブルメディア株式会社 ディジタルテレビ受信機の番組選択装置およびその周波数変換データ取得方法
US20020147984A1 (en) * 2000-11-07 2002-10-10 Tomsen Mai-Lan System and method for pre-caching supplemental content related to a television broadcast using unprompted, context-sensitive querying
US20040059775A1 (en) * 2002-09-19 2004-03-25 International Business Machines Corporation Method, system and computer program product for remotely building and delivering customized multimedia presentations
US7516472B2 (en) * 2003-02-28 2009-04-07 Microsoft Corporation Using broadcast television as a portal for video on demand solicitation
US20040237102A1 (en) * 2003-03-07 2004-11-25 Richard Konig Advertisement substitution
KR100849842B1 (ko) * 2003-12-23 2008-08-01 삼성전자주식회사 방송용 어플리케이션을 실행하는 장치 및 실행 방법
US20050246757A1 (en) * 2004-04-07 2005-11-03 Sandeep Relan Convergence of network file system for sharing multimedia content across several set-top-boxes
US7784071B2 (en) * 2005-06-01 2010-08-24 General Instrument Corporation Method and apparatus for linking a plurality of user devices to a service location
US7966392B2 (en) * 2005-07-29 2011-06-21 Cyber Solutions Inc. Network management system and network management information collecting method
US7530088B2 (en) * 2005-09-20 2009-05-05 International Business Machines Corporation Topology based proximity validation for broadcast content
US8078500B2 (en) * 2005-12-27 2011-12-13 The Pen Security enhancements using fixed unique system identifiers for executing a transaction
US8196169B1 (en) * 2006-09-18 2012-06-05 Nvidia Corporation Coordinate-based set top box policy enforcement system, method and computer program product
US7894370B2 (en) * 2007-03-09 2011-02-22 Nbc Universal, Inc. Media content distribution system and method
JP4946592B2 (ja) * 2007-04-20 2012-06-06 株式会社日立製作所 ダウンロード装置および方法、コンテンツ送受信システムおよび方法
JP5024610B2 (ja) * 2007-05-31 2012-09-12 ソニー株式会社 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP4819161B2 (ja) * 2007-08-07 2011-11-24 パナソニック株式会社 ネットワークavコンテンツ再生システム、サーバ、プログラムおよび記録媒体
EP2188996A2 (en) * 2007-08-16 2010-05-26 ST-NXP Wireless (Holding) AG Digital video broadcast receiver and method for receiving digital video broadcast data
JP4730626B2 (ja) * 2008-06-13 2011-07-20 ソニー株式会社 コンテンツ供給装置、コンテンツ供給方法、およびプログラム
US20100017820A1 (en) * 2008-07-18 2010-01-21 Telephoto Technologies Inc. Realtime insertion of video content in live broadcasting
US8321904B2 (en) * 2008-11-05 2012-11-27 At&T Intellectual Property I, L.P. System and method to enable access to broadband services
US9641889B2 (en) * 2009-07-31 2017-05-02 Bce Inc. Method and system for controlling media conveyance by a device to a user based on current location of the device
US9191624B2 (en) * 2009-08-26 2015-11-17 At&T Intellectual Property I, L.P. System and method to determine an authorization of a wireless set-top box device to receive media content
KR101669287B1 (ko) * 2009-09-01 2016-11-09 삼성전자주식회사 제 3의 원격 유저 인터페이스 장치를 통한 원격 유저 인터페이스 장치의 제어 방법 및 장치
US20110060993A1 (en) * 2009-09-08 2011-03-10 Classified Ventures, Llc Interactive Detailed Video Navigation System
EP2495964B1 (en) * 2009-10-30 2020-11-18 Maxell, Ltd. Content-receiving device
JP4878642B2 (ja) * 2009-12-15 2012-02-15 シャープ株式会社 コンテンツ配信システム、コンテンツ配信装置、コンテンツ再生端末およびコンテンツ配信方法
EP2365711B1 (de) * 2010-03-12 2016-02-10 Siemens Aktiengesellschaft Drahtlosnetzwerk, insbesondere für Automatisierungs-, Echtzeit- und/oder Industrie-Anwendungen
US20110296472A1 (en) * 2010-06-01 2011-12-01 Microsoft Corporation Controllable device companion data
JP5765558B2 (ja) * 2010-08-27 2015-08-19 ソニー株式会社 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム
JP5703664B2 (ja) * 2010-09-30 2015-04-22 ソニー株式会社 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム
KR101980712B1 (ko) * 2011-02-15 2019-05-21 엘지전자 주식회사 방송 서비스 전송 방법, 그 수신 방법 및 그 수신 장치
CN102883344B (zh) * 2011-07-15 2015-05-27 华为终端有限公司 一种无线网络管理消息交互的方法及装置
CN103026681B (zh) * 2011-08-01 2015-06-17 华为技术有限公司 基于视频的增值业务实现方法、服务器和系统
RU2594000C2 (ru) * 2011-08-05 2016-08-10 Сони Корпорейшн Приемное устройство, способ приема, носитель записи и система обработки информации
US20110296452A1 (en) * 2011-08-08 2011-12-01 Lei Yu System and method for providing content-aware persistent advertisements
EP3439294B1 (en) * 2011-08-24 2023-06-14 Saturn Licensing LLC Reception apparatus, reception method, program and information processing system
TWI528749B (zh) * 2011-09-06 2016-04-01 Sony Corp A signal receiving device, a signal receiving method, an information processing program and an information processing system
US8776145B2 (en) * 2011-09-16 2014-07-08 Elwha Llc In-transit electronic media with location-based content
US9219950B2 (en) * 2011-11-01 2015-12-22 Sony Corporation Reproduction apparatus, reproduction method, and program
US8869196B2 (en) * 2011-11-18 2014-10-21 Verizon Patent And Licensing Inc. Programming based interactive content
EP2786562B1 (en) * 2011-11-29 2017-06-21 Nagravision S.A. Method and system to confirm co-location of multiple devices within a geographic area
CN103167046B (zh) * 2011-12-09 2017-04-12 华为技术有限公司 获取组播地址的方法、装置及系统
US9113230B2 (en) * 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
US10271081B2 (en) * 2012-03-07 2019-04-23 The Directv Group, Inc. Method and system for detecting unauthorized use of a set top box using satellite signal identification
JP5896222B2 (ja) * 2012-03-21 2016-03-30 ソニー株式会社 端末装置、中継装置、情報処理方法、プログラム、およびコンテンツ識別システム
US9936231B2 (en) * 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
US20150161632A1 (en) * 2012-06-15 2015-06-11 Anthony W. Humay Intelligent social polling platform
MX338057B (es) * 2012-06-19 2016-04-01 Sony Corp Extensiones a la tabla de parametros del activador para television interactiva.
JP6019442B2 (ja) * 2012-06-22 2016-11-02 株式会社アウトスタンディングテクノロジー 空間光伝送を使用するコンテンツ提供システム
US9154840B2 (en) * 2012-07-31 2015-10-06 Sony Corporation Reception apparatus, reception method, transmission apparatus, and transmission method
CN104662925B (zh) 2012-09-12 2018-12-04 Lg电子株式会社 处理交互服务的设备和方法
US9936256B2 (en) * 2012-11-28 2018-04-03 Saturn Licensing Llc Receiver, reception method, transmitter and transmission method
CN103024450B (zh) * 2012-12-10 2016-09-14 惠州Tcl移动通信有限公司 一种通过nfc技术实现互动电视的方法及系统
US9124911B2 (en) * 2013-02-15 2015-09-01 Cox Communications, Inc. Storage optimization in a cloud-enabled network-based digital video recorder
EP2802152B1 (en) * 2013-05-07 2017-07-05 Nagravision S.A. Method for secure processing a stream of encrypted digital audio / video data
JP6616064B2 (ja) * 2013-07-25 2019-12-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法および受信方法
US9231718B2 (en) * 2013-08-08 2016-01-05 EchoStar Technologies, L.L.C. Use of television satellite signals to determine location
JP6625318B2 (ja) * 2013-08-29 2019-12-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法および受信方法
US9848232B2 (en) * 2014-01-28 2017-12-19 Echostar Technologies L.L.C. Acquiring network configuration data for a television receiver
WO2015182490A1 (ja) * 2014-05-30 2015-12-03 ソニー株式会社 受信装置、受信方法、送信装置、及び、送信方法
EP3235329B1 (en) * 2014-12-19 2022-04-13 Nokia Solutions and Networks Oy Proximity services device-to-device communication services control
KR102653289B1 (ko) * 2016-01-15 2024-04-02 소니그룹주식회사 수신 장치, 송신 장치 및 데이터 처리 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140040965A1 (en) * 2012-07-31 2014-02-06 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method
US20140043540A1 (en) * 2012-08-13 2014-02-13 Sony Corporation Reception apparatus, reception method, transmission apparatus, and transmission method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017141701A1 (ja) * 2016-02-15 2018-12-13 ソニー株式会社 受信装置、送信装置、及び、データ処理方法
JP2023525655A (ja) * 2021-04-20 2023-06-19 テンセント・アメリカ・エルエルシー イベントメッセージトラックにおけるイベント間の拡張された関係シグナリング
JP7513748B2 (ja) 2021-04-20 2024-07-09 テンセント・アメリカ・エルエルシー イベントメッセージトラックにおけるイベント間の拡張された関係シグナリング

Also Published As

Publication number Publication date
CN105594220A (zh) 2016-05-18
EP3177026A1 (en) 2017-06-07
CA2924036A1 (en) 2016-02-04
US20230071040A1 (en) 2023-03-09
US11889163B2 (en) 2024-01-30
MX2016003752A (es) 2016-06-30
CN105594220B (zh) 2020-08-07
US20160205449A1 (en) 2016-07-14
EP3177026A4 (en) 2018-02-21
KR102459246B1 (ko) 2022-10-27
US11528539B2 (en) 2022-12-13
KR20170039070A (ko) 2017-04-10
EP3177026B1 (en) 2021-03-31
CA2924036C (en) 2023-08-22
JPWO2016017451A1 (ja) 2017-05-18
MX369424B (es) 2019-11-08

Similar Documents

Publication Publication Date Title
KR102040623B1 (ko) 양방향 서비스를 처리하는 장치 및 방법
US11889163B2 (en) Receiving device, receiving method, transmitting device, and transmitting method
US9912971B2 (en) Apparatus and method for processing an interactive service
JP6225109B2 (ja) 受信装置、受信方法、送信装置、及び送信方法
KR101939296B1 (ko) 양방향 서비스를 처리하는 장치 및 방법
KR20150073987A (ko) 양방향 서비스를 처리하는 장치 및 방법
KR20150067148A (ko) 수신 장치, 수신 방법, 송신 장치 및 송신 방법
CN107517411B (zh) 一种基于GStreamer框架的视频播放方法
US20210152875A1 (en) Reception apparatus, reception method, transmission apparatus, and transmission method for controlling termination of application
KR20170141677A (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
KR102440142B1 (ko) 수신 장치, 수신 방법, 송신 장치, 및 송신 방법
WO2016035589A1 (ja) 受信装置、受信方法、送信装置、及び、送信方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016510532

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14916507

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2924036

Country of ref document: CA

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15828221

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20167007523

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2016/003752

Country of ref document: MX

REEP Request for entry into the european phase

Ref document number: 2015828221

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015828221

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE