JP2012244363A - Receiver and program - Google Patents

Receiver and program Download PDF

Info

Publication number
JP2012244363A
JP2012244363A JP2011111813A JP2011111813A JP2012244363A JP 2012244363 A JP2012244363 A JP 2012244363A JP 2011111813 A JP2011111813 A JP 2011111813A JP 2011111813 A JP2011111813 A JP 2011111813A JP 2012244363 A JP2012244363 A JP 2012244363A
Authority
JP
Japan
Prior art keywords
information
unit
association
program
receiver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011111813A
Other languages
Japanese (ja)
Inventor
Takako Ariyasu
香子 有安
Hiroshi Fujisawa
寛 藤沢
Yasuaki Kanetsugu
保明 金次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2011111813A priority Critical patent/JP2012244363A/en
Publication of JP2012244363A publication Critical patent/JP2012244363A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible for a server to easily and adequately obtain the viewing state of a prescribed scene of content broadcast by a broadcast station in a system facilitating coordination between broadcast and communication.SOLUTION: A receiving system comprises a receiver 4 and a home server 40. The receiver 4 includes communication unit 14 which sends the home server 40 time information indicating relative reproduction start timing of a prescribed scene in content and a program ID identifying the content included in a broadcast signal. The home server 40 includes: an association unit 55 for generating association information associating the time information and the program ID transmitted by the receiver 4 with the viewing state of a viewer when the viewer watched the prescribed scene; and a communication unit 44 for transmitting the association information generated by the association unit 55 to the service server 3.

Description

本発明は、放送と通信の連携を図る機能を有する受信システム及びプログラムに関する。   The present invention relates to a receiving system and a program having a function of coordinating broadcasting and communication.

近年、放送のデジタル化と通信のブロードバンド化の進展に伴い、放送通信連携サービスの実現に向けた研究開発が行われている。   In recent years, with the progress of digitalization of broadcasting and broadbandization of communication, research and development for realizing a broadcasting / communication cooperation service has been performed.

また、この放送通信連携サービスにおいては、放送と通信という異なる伝送路を用いて複数のコンテンツを配信し、デジタルテレビ等の受信機において、配信された複数のコンテンツを統合して提示する形態が想定される。   In this broadcasting / communication cooperation service, it is assumed that a plurality of contents are distributed using different transmission paths of broadcasting and communication, and the plurality of distributed contents are integrated and presented in a receiver such as a digital television. Is done.

ところで、現在、データ放送では、XML(eXtensible Markup Language)をベースとした、マルチメディア符号化用に開発されたBML(Broadcast Markup Language)という放送サービスに必要な機能を拡張した言語を用いて、様々なコンテンツが提供されている(特許文献1を参照)。   By the way, at present, in data broadcasting, various languages used for the broadcasting service called BML (Broadcast Markup Language) developed for multimedia encoding based on XML (extensible Markup Language) are used. Content is provided (see Patent Document 1).

特開2003−60931号公報JP 2003-60931 A

ところで、データ放送では、全ての情報を放送波に多重化させる必要があるため、放送波で送信可能なデータ容量に一定の制限がある。   By the way, in data broadcasting, since it is necessary to multiplex all information on a broadcast wave, there is a certain limitation on the data capacity that can be transmitted on the broadcast wave.

そこで、放送に対して、送信可能なデータ容量に制限のない通信との連携させるシステムの実現が望まれている。   Therefore, it is desired to realize a system that links broadcasting with communication with no limit on the data capacity that can be transmitted.

特に、このような放送と通信の連携を図るシステムでは、通信により受信機に対して各種サービスを提供するサーバが構築される。
従って、例えば、放送局が放送したコンテンツのうち所定シーンに対する視聴者の視聴状態、例えば当該所定シーンを視聴しているときの視聴者の表情や音声等を、多数の受信機の各々から取得して、サービスに活用するサーバが現れてくることが想定される。
In particular, in such a system that links broadcasting and communication, a server that provides various services to the receiver by communication is constructed.
Therefore, for example, the viewer's viewing state of a predetermined scene in the content broadcast by the broadcast station, for example, the viewer's facial expression and sound when viewing the predetermined scene, is acquired from each of a number of receivers. Thus, it is assumed that servers will be used for services.

この場合、仮に、データ放送等の従来の受信機が対象となっているのであれば、サーバは、所定コンテンツの所定シーンを視聴しているときの多数の視聴者の視聴状態として、所定シーンが放送局から放送された時刻(10時10分等の絶対時刻)における視聴状態を多数の受信機の各々から取得すればよい。   In this case, if a conventional receiver such as a data broadcast is a target, the server sets the predetermined scene as the viewing state of a large number of viewers when viewing the predetermined scene of the predetermined content. What is necessary is just to acquire the viewing-and-listening state in the time (absolute time, such as 10:10) broadcast from the broadcasting station from each of many receivers.

しかしながら、放送と通信の連携を図るシステムでは、サーバが、同一時刻(絶対時刻)における視聴状態を多数の受信機の各々から取得したとしても、これらの視聴状態は、同一シーンについてのものであるとは必ずしも限らない。受信機が、放送と通信の同期を内部で取ることがあり、放送によるコンテンツの再生が遅延することがあるためである。即ち、複数の受信機の間では、同一時刻に同一シーンが必ずしも再生されているとは限らないためである。   However, in a system that coordinates broadcasting and communication, even if the server acquires viewing states at the same time (absolute time) from each of a number of receivers, these viewing states are for the same scene. Not necessarily. This is because the receiver may synchronize the broadcast and communication internally, and the reproduction of content by the broadcast may be delayed. That is, the same scene is not always reproduced at the same time among a plurality of receivers.

このため、放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できる仕組みの実現が要望されている。   For this reason, there is a demand for a system that enables a server to easily and appropriately acquire a viewing state of a predetermined scene of content broadcast by a broadcast station in a system that links broadcasting and communication.

本発明は、このような状況に鑑みてなされたものであり、放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようにすることを1つの目的とする。   The present invention has been made in view of such a situation, and in a system for coordinating broadcasting and communication, the server can easily and appropriately acquire the viewing state of a predetermined scene of content broadcast by a broadcasting station. One purpose is to do so.

本発明に係る受信システムは、ネットワークを介してサービスサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機と、前記受信機及び前記サービスサーバとネットワークを介して接続されたホームサーバと、を備える受信システムであって、前記受信機は、前記コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び前記放送信号に含まれる前記コンテンツを特定する番組IDを前記ホームサーバに送信する受信機通信手段を有し、前記ホームサーバは、前記受信機から送信された前記時刻情報及び前記番組IDと、前記所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け手段と、前記関連付け手段で生成した前記関連付け情報を前記サービスサーバに送信するホームサーバ通信手段と、を有する構成とした。   A receiving system according to the present invention is connected to a service server via a network and receives a broadcast signal including content broadcast by a broadcasting station, and is connected to the receiver and the service server via a network. And a home server, wherein the receiver receives time information indicating a relative reproduction start timing of a predetermined scene in the content and a program ID for specifying the content included in the broadcast signal. Receiver communication means for transmitting to a home server, wherein the home server includes the time information and the program ID transmitted from the receiver, and the viewing state of the viewer when viewing the predetermined scene. An associating unit that generates associating association information; and the association information generated by the associating unit And the home server communication means for transmitting the Bisusaba and configured to have.

かかる構成によれば、受信機は、放送局が放送した放送信号に含まれるコンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報と、当該所定シーンを視聴した時の視聴者の視聴状態と、放送信号に含まれるコンテンツを特定する番組IDと、を受信機通信手段によりホームサーバへ送信する。
ホームサーバは、受信機から送信された時刻情報及び番組IDと、所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を関連付け手段により生成し、この生成した関連付け情報をホームサーバ通信手段によりサービスサーバに送信する。
According to this configuration, the receiver includes time information indicating the relative playback start timing of the predetermined scene in the content included in the broadcast signal broadcast by the broadcast station, and the viewing state of the viewer when viewing the predetermined scene. And the program ID for specifying the content included in the broadcast signal are transmitted to the home server by the receiver communication means.
The home server generates association information in which the time information and the program ID transmitted from the receiver are associated with the viewing state of the viewer when viewing the predetermined scene by the association means, and the generated association information is the home information. It is transmitted to the service server by the server communication means.

これにより、ホームサーバにおいて、受信機で再生された番組IDにより特定されるコンテンツの所定シーンと当該所定シーンを視聴した視聴者の視聴状態とが紐づけられ、サービスサーバに送信される。
従って、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
Thereby, in the home server, the predetermined scene of the content specified by the program ID reproduced by the receiver is associated with the viewing state of the viewer who has viewed the predetermined scene, and is transmitted to the service server.
Accordingly, in a system that coordinates broadcasting and communication, the server can easily and appropriately acquire the viewing state of a predetermined scene of content broadcast by a broadcasting station.

この場合、前記ホームサーバは、前記所定シーンを視聴した時の視聴者の視聴状態を取得する視聴状態取得手段が接続される外部機器接続手段を備えることが好ましい。
かかる構成によれば、視聴状態取得手段を備えていないホームサーバであっても、外部機器として視聴状態取得手段を外部機器接続手段に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、当該サービスを受けることができるホームサーバの必須項目から視聴状態取得手段を除外できるので、当該サービスを受けることができるホームサーバの普及を促進できる。
In this case, it is preferable that the home server includes an external device connection unit to which a viewing state acquisition unit that acquires a viewing state of the viewer when viewing the predetermined scene is connected.
According to such a configuration, even in a home server that does not include a viewing state acquisition unit, viewing state information can be acquired by connecting the viewing state acquisition unit as an external device to the external device connection unit.
As a result, in a system for linking broadcasting and communication, even if the home server does not include viewing state acquisition means, the server can easily and appropriately acquire the viewing state of the predetermined scene of the content broadcast by the broadcast station. Become.
In addition, since the viewing state acquisition means can be excluded from the essential items of the home server that can receive the service, the spread of the home server that can receive the service can be promoted.

この場合、前記ホームサーバは、ネットワークを介して携帯端末に接続され、前記外部機器接続手段は、前記ホームサーバ通信手段を介して、前記携帯端末が備える又は前記携帯端末に接続された前記視聴状態取得手段が接続されることが好ましい。
かかる構成によれば、視聴状態取得手段を備えていないホームサーバであっても、視聴者の視聴状態を取得できる携帯端末を外部機器接続手段に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
In this case, the home server is connected to a mobile terminal via a network, and the external device connection means is provided in the mobile terminal or connected to the mobile terminal via the home server communication means. It is preferable that an acquisition means is connected.
According to such a configuration, even if the home server does not include the viewing state acquisition unit, the viewing state information can be acquired by connecting the portable terminal that can acquire the viewing state of the viewer to the external device connection unit.
As a result, in a system for linking broadcasting and communication, even if the home server does not include viewing state acquisition means, the server can easily and appropriately acquire the viewing state of the predetermined scene of the content broadcast by the broadcast station. Become.

また、この場合、前記ホームサーバは、前記所定シーンを視聴した時の視聴者の視聴状態を取得する視聴状態取得手段を備えることが好ましい。   In this case, it is preferable that the home server includes viewing state acquisition means for acquiring the viewing state of the viewer when viewing the predetermined scene.

かかる構成によれば、ホームサーバが視聴状態取得手段を備えたので、放送と通信の連携を図るシステムにおいて、別途に視聴状態取得手段を用意しなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。   According to such a configuration, since the home server includes the viewing state acquisition unit, in a system for cooperation between broadcasting and communication, the server does not separately prepare the viewing state acquisition unit, and the server can transmit the content broadcasted by the broadcasting station. The viewing state for the predetermined scene can be acquired easily and appropriately.

また、この場合、前記視聴状態取得手段は、画像を取得するカメラデバイスであり、前記関連付け手段は、前記外部機器接続手段を介して、前記視聴状態情報として前記所定シーンを視聴した時の視聴者を撮影した前記画像を前記カメラデバイスから取得する画像情報取得手段と、前記時刻情報を取得する相対時間情報取得手段と、前記番組IDを取得するID取得手段と、前記画像情報取得手段が取得した前記画像と、前記相対時間情報取得手段が取得した前記時刻情報と、前記ID取得手段が取得した前記番組IDと、を関連付けた画像関連付け情報を生成する画像関連付け手段と、を備えることが好ましい。   In this case, the viewing state acquisition unit is a camera device that acquires an image, and the association unit is a viewer who views the predetermined scene as the viewing state information via the external device connection unit. Acquired by the image information acquisition means for acquiring the image taken from the camera device, the relative time information acquisition means for acquiring the time information, the ID acquisition means for acquiring the program ID, and the image information acquisition means It is preferable that the image association unit generates image association information in which the image, the time information acquired by the relative time information acquisition unit, and the program ID acquired by the ID acquisition unit are associated with each other.

かかる構成によれば、視聴状態取得手段は、画像を取得するカメラデバイスであり、関連付け手段の画像情報取得手段は、外部機器接続手段を介して、視聴状態情報として所定シーンを視聴した時の視聴者を撮影した画像をカメラデバイスから取得する。画像関連付け手段は、画像情報取得手段が取得した画像と、相対時間情報取得手段が取得した時刻情報と、ID取得手段が取得した番組IDと、を関連付けた画像関連付け情報を生成する。   According to this configuration, the viewing state acquisition unit is a camera device that acquires an image, and the image information acquisition unit of the association unit views the predetermined scene as viewing state information via the external device connection unit. An image of a person is acquired from the camera device. The image association unit generates image association information in which the image acquired by the image information acquisition unit, the time information acquired by the relative time information acquisition unit, and the program ID acquired by the ID acquisition unit are associated with each other.

これにより、視聴状態情報として、視聴者の画像を用いることができるので、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての恣意的でない視聴状態を容易かつ適切に取得できるようになる。   As a result, since the viewer's image can be used as the viewing state information, the server can easily view the non-arbitrary viewing state of the predetermined scene of the content broadcast by the broadcast station in a system that links broadcasting and communication. And it becomes possible to acquire appropriately.

また、この場合、前記視聴状態取得手段は、音声情報を取得するマイクデバイスであり、前記関連付け手段は、前記外部機器接続手段を介して、前記視聴状態情報として視聴者が前記所定シーンを視聴した時に発した前記音声情報を前記マイクデバイスから取得する音声情報取得手段と、前記時刻情報を取得する相対時間情報取得手段と、前記番組IDを取得するID取得手段と、前記音声情報取得手段が取得した前記音声情報と、前記相対時間情報取得手段が取得した前記時刻情報と、前記ID取得手段が取得した前記番組IDと、を関連付けた音声関連付け情報を生成する音声関連付け手段と、を備えることが好ましい。   Further, in this case, the viewing state acquisition unit is a microphone device that acquires audio information, and the association unit views the predetermined scene as the viewing state information via the external device connection unit. Acquired by the audio information acquisition means for acquiring the audio information emitted from the microphone device, the relative time information acquisition means for acquiring the time information, the ID acquisition means for acquiring the program ID, and the audio information acquisition means Voice association means for generating voice association information in which the voice information, the time information acquired by the relative time information acquisition means, and the program ID acquired by the ID acquisition means are associated with each other. preferable.

かかる構成によれば、視聴状態取得手段は、音声情報を取得するマイクデバイスであり、関連付け手段の音声情報取得手段は、外部機器接続手段を介して、視聴状態情報として視聴者が所定シーンを視聴した時に発した音声情報をマイクデバイスから取得する。音声関連付け手段は、音声情報取得手段が取得した音声情報と、相対時間情報取得手段が取得した時刻情報と、ID取得手段が取得した番組IDと、を関連付けた音声関連付け情報を生成する。   According to such a configuration, the viewing state acquisition unit is a microphone device that acquires audio information, and the audio information acquisition unit of the association unit allows the viewer to view a predetermined scene as the viewing state information via the external device connection unit. The voice information that was emitted at the time of the acquisition is acquired from the microphone device. The audio association unit generates audio association information in which the audio information acquired by the audio information acquisition unit, the time information acquired by the relative time information acquisition unit, and the program ID acquired by the ID acquisition unit are associated with each other.

これにより、視聴状態情報として、視聴者の音声を用いることができるので、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての恣意的でない視聴状態を容易かつ適切に取得できるようになる。   Accordingly, since the viewer's voice can be used as the viewing state information, in the system for coordinating broadcasting and communication, the server can easily view an arbitrary viewing state of the predetermined scene of the content broadcast by the broadcast station. And it becomes possible to acquire appropriately.

本発明に係るプログラムは、ネットワークを介してサービスサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機及び前記サービスサーバとネットワークを介して接続されたホームサーバを制御するコンピュータを、前記受信機から送信された前記コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び前記放送信号に含まれる前記コンテンツを特定する番組IDと、前記所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け手段、前記関連付け手段により生成された前記関連付け情報を前記サービスサーバに送信する制御を実行する通信手段、として機能させる。
かかる構成によれば、本発明に係る受信機と同様の作用効果を奏する。
A program according to the present invention controls a receiver connected to a service server via a network and receiving a broadcast signal including content broadcast by a broadcasting station, and a home server connected to the service server via the network. When the computer views time information indicating the relative playback start timing of a predetermined scene in the content transmitted from the receiver, a program ID that identifies the content included in the broadcast signal, and when viewing the predetermined scene It is made to function as an association unit that generates association information that associates the viewing state of the viewer, and a communication unit that executes control to transmit the association information generated by the association unit to the service server.
According to this configuration, the same operational effects as the receiver according to the present invention can be obtained.

本発明によれば、放送と通信の連携を図るシステムにおいて、サーバが、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できる。   According to the present invention, in a system for coordinating broadcasting and communication, a server can easily and appropriately acquire a viewing state of a predetermined scene of content broadcast by a broadcasting station.

本発明の一実施形態に係る放送通信連携システムの全体構成図である。1 is an overall configuration diagram of a broadcasting / communication cooperation system according to an embodiment of the present invention. デジタル放送に係る放送信号の伝送プロトコルのスタックを示す図である。It is a figure which shows the stack | stuck of the transmission protocol of the broadcast signal which concerns on digital broadcasting. 放送通信連携システムの概要を示す図である。It is a figure which shows the outline | summary of a broadcast communication cooperation system. 受信機の機能構成を示すブロック図である。It is a block diagram which shows the function structure of a receiver. ホームサーバの機能構成を示すブロック図である。It is a block diagram which shows the function structure of a home server. XML形式で記述されたAITの一例を示す図である。It is a figure which shows an example of AIT described in the XML format. デバイスの発見に関する動作を説明する図であって、Hybridcast機能のレイヤの関係を示す図である。It is a figure explaining operation | movement regarding discovery of a device, Comprising: It is a figure which shows the relationship of the layer of Hybridcast function. デバイス接続部の概念を示す図である。It is a figure which shows the concept of a device connection part. 動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、所定の外部機器がデバイスとして接続されたときのシーケンス図である。FIG. 10 is a sequence diagram when a predetermined external device is connected as a device when a service of a Hybridcast application that uses the device for operation recognition or the like is started. デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンス図である。FIG. 10 is a sequence diagram of a description and a control portion by a device instance when the power state of the device is an OFF state. 動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、デバイスとして受信機の内蔵機器を用いる場合のシーケンス図である。FIG. 10 is a sequence diagram when a built-in device of a receiver is used as a device when a service of a Hybridcast application that uses the device for operation recognition or the like is started. 関連付け部の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of an correlation part. 図12の関連付け部の処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a process of the correlation part of FIG. 関連付け部の機能構成の一例であって、図12とは異なる例を示すブロック図である。FIG. 13 is an example of a functional configuration of an associating unit, and is a block diagram illustrating an example different from FIG. 12. 図14の関連付け部の処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a process of the correlation part of FIG.

以下、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の一実施形態に係る放送通信連携システム100の全体構成図である。放送通信連携システム100は、放送局1と、放送用アンテナ2と、サービスサーバ3と、受信機4と、ホームサーバ40と、を含んで構成される。この放送通信連携システム100では、受信機4において、ISDB(Integrated Services Digital Broadcasting:統合デジタル放送サービス)方式によって放送局1から提供される放送サービスと、インターネット等により構成される通信ネットワークNを介してサービスサーバ3から提供される通信サービスとが連携される。また、この放送通信連携システム100では、受信機4と連携するホームサーバ40に、通信ネットワークNを介してサービスサーバ3から通信サービスが提供される。これにより、放送通信連携サービスが受信機4及びホームサーバ40のユーザに提供される。
本実施形態では、放送通信連携システム100は、Hybridcast(登録商標)システムであるものとする。Hybridcastとは、同報性、高品質、高信頼という放送の特徴と、視聴者の個別の要求に応えることができるという通信の特徴とを生かしたシステムを構築するための仕組みである。Hybridcastシステムは、放送サービスを中心に置きながら、通信の活用によってサービスを強化するという観点で、放送と通信のハイブリッドサービスを実現することができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an overall configuration diagram of a broadcasting / communication cooperation system 100 according to an embodiment of the present invention. The broadcasting / communication cooperation system 100 includes a broadcasting station 1, a broadcasting antenna 2, a service server 3, a receiver 4, and a home server 40. In the broadcasting / communication cooperation system 100, a receiver 4 uses a broadcasting service provided from a broadcasting station 1 by an ISDB (Integrated Services Digital Broadcasting) system and a communication network N configured by the Internet or the like. A communication service provided from the service server 3 is linked. In the broadcasting / communication cooperation system 100, a communication service is provided from the service server 3 to the home server 40 that cooperates with the receiver 4 via the communication network N. Thereby, the broadcast communication cooperation service is provided to the user of the receiver 4 and the home server 40.
In the present embodiment, the broadcasting / communication cooperation system 100 is a Hybridcast (registered trademark) system. Hybridcast is a mechanism for constructing a system that takes advantage of broadcast characteristics such as broadcastability, high quality, and high reliability and communication characteristics that can meet the individual demands of viewers. The Hybridcast system can realize a hybrid service of broadcasting and communication from the viewpoint of strengthening the service by utilizing communication while placing the broadcasting service at the center.

放送局1は、番組編成設備と、番組送出設備と、送信設備とを含んで構成される一般的なデジタル放送用の放送設備(図示省略)を備える。
放送局1は、放送設備によって、コンテンツや、イベント情報(Event Information Table:EIT)や、AIT(以下、アプリケーション管理情報とも適宜呼ぶ)等を制作する。そして、放送局1は、放送設備によって、これらコンテンツ、イベント情報及びAIT等を多重化した放送信号を生成し、当該放送信号を放送波に変調して放送用アンテナ2から送信する。
The broadcasting station 1 includes a general digital broadcasting broadcasting facility (not shown) configured to include a program organization facility, a program transmission facility, and a transmission facility.
The broadcasting station 1 produces contents, event information (Event Information Table: EIT), AIT (hereinafter also referred to as application management information as appropriate), and the like, using broadcasting equipment. Then, the broadcast station 1 generates a broadcast signal in which these contents, event information, AIT, and the like are multiplexed by a broadcast facility, modulates the broadcast signal into a broadcast wave, and transmits the broadcast signal from the broadcast antenna 2.

このような放送波に含まれるコンテンツとしては、放送スケジュールに従って放送される番組を構成する映像や音声の各データを含むコンテンツ(以下、番組コンテンツと呼ぶ)の他、番組コンテンツとは非同期に発生するコンテンツ、例えば緊急地震速報等を含むコンテンツ(以下、緊急コンテンツと呼ぶ)も存在する。   Content included in such broadcast waves is generated asynchronously with program content in addition to content including video and audio data constituting a program broadcast according to a broadcast schedule (hereinafter referred to as program content). There is content (hereinafter referred to as emergency content) including content, for example, earthquake early warning.

イベント情報は、番組コンテンツの名称、番組コンテンツの放送日時、番組コンテンツの説明等、コンテンツに関するメタ情報を含む。以下、テーブル形式のイベント情報をEITと呼ぶ。
AIT(アプリケーション管理情報)は、受信機4で実行可能な1以上のアプリケーションを管理するための情報である。AITには、1以上のアプリケーションのそれぞれに対応し、当該1以上のアプリケーションのそれぞれを管理するための個別管理情報が含まれる。個別管理情報には、管理対象のアプリケーションを識別するアプリケーションID、当該アプリケーションのライフサイクルを制御するライフサイクル制御情報、当該アプリケーションの所在を示すロケーション情報等が含まれている(後述の図6参照)。
The event information includes meta information about the content such as the name of the program content, the broadcast date and time of the program content, and the description of the program content. Hereinafter, the event information in the table format is referred to as EIT.
The AIT (application management information) is information for managing one or more applications that can be executed by the receiver 4. The AIT includes individual management information corresponding to each of the one or more applications and managing each of the one or more applications. The individual management information includes an application ID for identifying the application to be managed, life cycle control information for controlling the life cycle of the application, location information indicating the location of the application (see FIG. 6 described later), and the like. .

アプリケーションにより提供されるコンテンツには、番組コンテンツに連動するコンテンツ及び番組コンテンツに連動しないコンテンツが含まれる。以下、アプリケーションにより提供されるコンテンツをアプリ用コンテンツという。   The content provided by the application includes content linked to the program content and content not linked to the program content. Hereinafter, content provided by an application is referred to as application content.

放送信号は、従来のデジタル放送の放送信号と同一であり、ARIB(登録商標)(Association of Radio Industries and Broadcast:社団法人電波産業会)標準規格で規定される。   The broadcast signal is the same as the broadcast signal of the conventional digital broadcast, and is defined by ARIB (registered trademark) (Association of Radio Industries and Broadcast) standard.

図2は、デジタル放送に係る放送信号の伝送プロトコルのスタックを示す図である。図2に示すように、デジタル放送によって提供される映像、音声等の各種データは、国際標準規格MPEG−2 Systemsで規定されるTSパケット(トランスポートストリームパケット)に格納されて、時分割で多重伝送される。   FIG. 2 is a diagram illustrating a stack of broadcast signal transmission protocols related to digital broadcasting. As shown in FIG. 2, various types of data such as video and audio provided by digital broadcasting are stored in TS packets (transport stream packets) defined by the international standard MPEG-2 Systems and multiplexed in a time division manner. Is transmitted.

TSパケットには、図2に示すように、セクション(Section)に対してPSI(Program Specific Information)/SI(Service Information)が規定されている。PSI/SIには、TSパケットに格納されているデータの種別を示す情報や、コンテンツの種別を示す情報が含まれている。上述のEITは、SIに含まれている。   In the TS packet, as shown in FIG. 2, PSI (Program Specific Information) / SI (Service Information) is defined for a section (Section). PSI / SI includes information indicating the type of data stored in the TS packet and information indicating the type of content. The above-mentioned EIT is included in SI.

TSパケットによるデータ伝送は、セクションを用いてデータを伝送する方式とPES(Packetized Elementary Stream)パケットを用いてデータを伝送する方式(データストリーム伝送方式)とに分類される。   Data transmission using TS packets is classified into a method of transmitting data using sections and a method of transmitting data using PES (Packetized Elementary Stream) packets (data stream transmission method).

セクションを用いてデータを伝送する方式には、データカルーセル伝送方式と、イベントメッセージ伝送方式がある。   Methods for transmitting data using sections include a data carousel transmission method and an event message transmission method.

データカルーセル伝送方式は、1以上のデータを一定周期で繰り返し伝送する伝送方式である。データカルーセル伝送方式によって伝送される個々のデータ(モジュール)には、それらを一意に識別するための識別情報が付されている。データカルーセル伝送方式は、受信機4側に個々のデータを任意のタイミングで取得させるために用いられる。   The data carousel transmission system is a transmission system that repeatedly transmits one or more data at a constant period. Each piece of data (module) transmitted by the data carousel transmission method is attached with identification information for uniquely identifying them. The data carousel transmission method is used for causing the receiver 4 to acquire individual data at an arbitrary timing.

イベントメッセージ伝送方式は、放送局1から受信機4に対して、トリガ信号を送るための方式である。イベントメッセージ伝送方式は、データ量が少ないメッセージを放送局1から受信機4に伝送する場合に用いられる。   The event message transmission method is a method for sending a trigger signal from the broadcast station 1 to the receiver 4. The event message transmission method is used when a message with a small amount of data is transmitted from the broadcasting station 1 to the receiver 4.

データストリーム伝送方式は、伝送するデータをPESパケットに収容してストリームとして伝送する伝送方式である。データストリーム伝送方式は、映像、音声、字幕データ等のリアルタイム型のデータや、他のストリームとの同期を要するデータの伝送に用いられる。   The data stream transmission method is a transmission method in which data to be transmitted is accommodated in a PES packet and transmitted as a stream. The data stream transmission method is used for transmitting real-time data such as video, audio, and caption data, and data that needs to be synchronized with other streams.

ここで、AITは、TSパケットを用いて様々な方法によって伝送可能である。
即ち、AITは、TSパケットのSIに含まれるEITに対して記述することによって伝送可能である。
Here, AIT can be transmitted by various methods using TS packets.
That is, the AIT can be transmitted by describing the EIT included in the SI of the TS packet.

また、AITは、セクションを用いてデータカルーセル伝送方式により伝送可能である。AITをデータカルーセル伝送方式により伝送する場合、受信機4側でAITであることを認識できるようにモジュールに対して識別情報が付される。   The AIT can be transmitted by a data carousel transmission system using sections. When the AIT is transmitted by the data carousel transmission method, identification information is attached to the module so that the receiver 4 can recognize the AIT.

また、AITは、PESとしてコンテンツの映像や音声に多重させて伝送可能である。   The AIT can be transmitted as PES multiplexed with content video and audio.

また、AITは、バイナリ表現又はXML(Extensible Markup Language)によるテキスト表現で記述して、TSパケットに格納することができる。
本実施形態では、AITの伝送方法は、上記の伝送方法の少なくともいずれかに予め規定されているものとする。
The AIT can be described in binary representation or text representation by XML (Extensible Markup Language) and stored in the TS packet.
In this embodiment, the AIT transmission method is defined in advance in at least one of the above transmission methods.

なお、XMLをベースとした、マルチメディア符号化用に開発されたBMLは、W3C(登録商標)(World Wide Web Consortium)が定義したxHTMLを基礎とし、手続き型言語にはJavaScript(登録商標)を基礎としたECMAScriptを用いて国際標準との整合性を考慮して定義された規格である。   BML developed for multimedia coding based on XML is based on xHTML defined by W3C (Registered Trademark) (World Wide Web Consortium), and Java Script (Registered Trademark) is used as a procedural language. This is a standard defined in consideration of consistency with international standards using ECMAScript based on it.

サービスサーバ3は、図示は省略するが、放送済みの番組コンテンツや、アプリ用コンテンツを配信するコンテンツ配信サーバと、受信機4やホームサーバ40で動作する各種のアプリケーションを配信するアプリケーション配信サーバとを備える。   Although not shown, the service server 3 includes a content distribution server that distributes broadcasted program content and application content, and an application distribution server that distributes various applications that operate on the receiver 4 and the home server 40. Prepare.

サービスサーバ3は、放送局1の設備と通信可能に接続されており、番組コンテンツや、番組コンテンツのメタデータを放送局1から受信する。
サービスサーバ3は、受信機4やホームサーバ40から番組コンテンツの取得要求を受け付けたことに応じて、受信機4やホームサーバ40に対して番組コンテンツを送信する。
The service server 3 is communicably connected to the equipment of the broadcast station 1 and receives program content and metadata of the program content from the broadcast station 1.
The service server 3 transmits the program content to the receiver 4 and the home server 40 in response to receiving the program content acquisition request from the receiver 4 and the home server 40.

また、サービスサーバ3は、受信機4やホームサーバ40からアプリケーションの取得要求を受け付けたことに応じて、受信機4やホームサーバ40に対してアプリケーションを送信する。さらに、サービスサーバ3は、受信機4やホームサーバ40においてアプリケーションが実行されている場合に、映像や音声等の各データを含むアプリ用コンテンツを受信機4やホームサーバ40に送信する。   Further, the service server 3 transmits an application to the receiver 4 and the home server 40 in response to receiving an application acquisition request from the receiver 4 and the home server 40. Furthermore, the service server 3 transmits application content including data such as video and audio to the receiver 4 and the home server 40 when an application is executed in the receiver 4 and the home server 40.

また、サービスサーバ3は、必要に応じて、番組コンテンツに対してAITを多重化させて受信機4やホームサーバ40に送信する。また、サービスサーバ3は、受信機4やホームサーバ40からAITの取得要求を受け付けたことに応じて、受信機4やホームサーバ40に対してAITを送信する。   Further, the service server 3 multiplexes the AIT with the program content as necessary, and transmits the multiplexed content to the receiver 4 and the home server 40. Further, the service server 3 transmits an AIT to the receiver 4 and the home server 40 in response to receiving an AIT acquisition request from the receiver 4 and the home server 40.

また、サービスサーバ3は、番組コンテンツの所定シーンに対する視聴者の視聴状態を示す情報(以下、視聴状態情報と呼ぶ)と、放送局1から放送された放送信号に含まれる番組コンテンツを特定する番組IDと、を関連付けた関連付け情報をホームサーバ40から受信する。
ここで、関連付け情報には、視聴状態情報が所定シーンを視聴した時の視聴者の画像である画像関連付け情報と、視聴状態情報が所定シーンを視聴した時の視聴者の音声情報である音声関連付け情報と、が含まれる。
In addition, the service server 3 is a program for specifying program content included in information indicating a viewer's viewing state (hereinafter referred to as viewing state information) for a predetermined scene of the program content and a broadcast signal broadcast from the broadcast station 1. The association information associated with the ID is received from the home server 40.
Here, the association information includes image association information, which is an image of the viewer when the viewing state information views the predetermined scene, and audio association, which is the audio information of the viewer when the viewing state information views the predetermined scene. Information.

また、サービスサーバ3は、ホームサーバ40から受信した画像関連付け情報をもとに、視聴者の動作認識や表情認識を行い、これを用いて視聴者の番組に関する関心度等を算出し、当該視聴者に勧める番組や当該番組や所定シーンに関連する情報を生成し、当該情報を受信機4やホームサーバ40やこれらに接続された携帯端末等に送信する。   Further, the service server 3 performs viewer motion recognition and facial expression recognition based on the image association information received from the home server 40, and uses this to calculate the degree of interest related to the viewer's program and the like. A program recommended to the user and information related to the program and a predetermined scene are generated, and the information is transmitted to the receiver 4, the home server 40, a mobile terminal connected to the receiver 4, and the like.

また、サービスサーバ3は、ホームサーバ40から受信した音声関連付け情報をもとに、視聴者の発話内容や周囲の暗騒音区間を抽出し、この抽出の結果を用いて視聴者の番組に関する関心度等を算出し、当該視聴者に勧める番組や当該番組や所定シーンに関連する情報を生成し、当該情報を受信機4やホームサーバ40やこれらに接続された携帯端末等に送信する。   Further, the service server 3 extracts the utterance content of the viewer and the surrounding background noise section based on the voice association information received from the home server 40, and the degree of interest regarding the viewer's program using the extraction result. And the like, a program recommended for the viewer, information related to the program and a predetermined scene are generated, and the information is transmitted to the receiver 4, the home server 40, a portable terminal connected to the receiver 4, and the like.

受信機4は、放送局1からの放送又はサービスサーバ3との通信を介して受信する番組コンテンツに対して所定の処理を行うことにより、番組コンテンツを構成する映像や音声を同期して出力する。   The receiver 4 performs predetermined processing on the program content received from the broadcast station 1 or through communication with the service server 3 to output the video and audio constituting the program content synchronously. .

受信システムとしての受信機4及びホームサーバ40は、AITに基づいて、アプリケーションを適宜取得し、取得したアプリケーションを起動して実行する。また例えば、受信機4は、実行されているアプリケーションによってサービスサーバ3からアプリ用コンテンツを取得し、番組コンテンツに連携させて出力することも可能である。なお、アプリ用コンテンツの出力は、必ずしも番組コンテンツに連携させる必要はない。
以下、このような受信機4及びホームサーバ40の機能について詳述する。
The receiver 4 and the home server 40 as a receiving system appropriately acquire an application based on the AIT, and start and execute the acquired application. Further, for example, the receiver 4 can acquire application content from the service server 3 by an application being executed, and output the content in cooperation with the program content. Note that the output of application content does not necessarily have to be linked to program content.
Hereinafter, functions of the receiver 4 and the home server 40 will be described in detail.

まず、理解を容易にするため、図3を参照して、受信機4及びホームサーバ40が有する機能の一部の概要を説明する。
図3は、放送通信連携システム100の概要を示す図である。
First, for easy understanding, an outline of a part of the functions of the receiver 4 and the home server 40 will be described with reference to FIG.
FIG. 3 is a diagram showing an outline of the broadcasting / communication cooperation system 100.

図3の例では、視聴状態情報として、視聴者の顔の表情が写った画像のデータ、及び、視聴者が発声した音声のデータが採用されている。このため、当該画像を撮影するためのカメラデバイス5、及び、視聴者の音声を入力するためのマイクロフォンデバイス6(以下、マイクデバイス6と略称する)が、ホームサーバ40に接続されている。なお、図3においては、カメラデバイス5とマイクデバイス6とはホームサーバ40からみて外部機器となっているが、これはあくまでも例示であって、後述するように、カメラデバイス5及びマイクデバイス6はホームサーバ40に内蔵されていてもよい。
また、図3中の点線で示すように、ホームサーバ40からみて外部機器であるカメラデバイス5及びマイクデバイス6は、ホームサーバ40に接続された携帯端末10に内蔵されたカメラデバイス及びマイクデバイスでもよく、また、ホームサーバ40に接続された携帯端末10に接続されたカメラデバイス及びマイクデバイスであってもよい。
また、受信機4及びホームサーバ40は、スマートフォンや携帯電話機等で構成される携帯端末10と連動して動作することもできる。
In the example of FIG. 3, as viewing state information, data of an image showing the facial expression of the viewer and audio data uttered by the viewer are employed. For this reason, a camera device 5 for capturing the image and a microphone device 6 (hereinafter abbreviated as a microphone device 6) for inputting a viewer's voice are connected to the home server 40. In FIG. 3, the camera device 5 and the microphone device 6 are external devices as viewed from the home server 40, but this is merely an example, and as will be described later, the camera device 5 and the microphone device 6 are It may be built in the home server 40.
3, the camera device 5 and the microphone device 6 which are external devices when viewed from the home server 40 are also a camera device and a microphone device built in the mobile terminal 10 connected to the home server 40. Alternatively, a camera device and a microphone device connected to the mobile terminal 10 connected to the home server 40 may be used.
Further, the receiver 4 and the home server 40 can also operate in conjunction with the mobile terminal 10 configured with a smartphone, a mobile phone, or the like.

受信機4は、放送局1が放送した番組コンテンツを含んだ放送信号を受信して、当該番組コンテンツを再生する。
また、受信機4は、当該番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報を取得する。
さらに、受信機4は、当該番組コンテンツを特定する番組IDを取得する。
そして、受信機4は、取得した時刻情報及び番組IDを、通信によりホームサーバ40に提供する。
ホームサーバ40は、受信機4が当該番組コンテンツにおける所定シーンを再生させているときに、カメラデバイス5に視聴者を撮影させて、その結果得られる画像のデータを視聴状態情報として取得したり、マイクデバイス6から入力した視聴者の音声のデータを視聴状態情報として取得する。
また、ホームサーバ40は、受信機4から時刻情報及び番組IDを取得する。
次に、ホームサーバ40は、これら取得した情報を関連付けた情報(以下、関連付け情報と呼ぶ)を生成する。即ち、当該番組コンテンツにおける所定シーンについての視聴状態情報並びに時刻情報、及び番組IDが関連付けられた関連付け情報が生成される。
そして、ホームサーバ40は、関連付け情報を、通信によりサービスサーバ3に提供する。
The receiver 4 receives a broadcast signal including program content broadcast by the broadcast station 1 and reproduces the program content.
Further, the receiver 4 acquires time information indicating the relative playback start timing of a predetermined scene in the program content.
Furthermore, the receiver 4 acquires a program ID that identifies the program content.
Then, the receiver 4 provides the acquired time information and program ID to the home server 40 by communication.
The home server 40 causes the camera device 5 to shoot a viewer when the receiver 4 is playing a predetermined scene in the program content, and acquires image data obtained as a result as viewing state information, The viewer's voice data input from the microphone device 6 is acquired as viewing state information.
Further, the home server 40 acquires time information and a program ID from the receiver 4.
Next, the home server 40 generates information associated with the acquired information (hereinafter referred to as association information). That is, the viewing state information and time information about the predetermined scene in the program content, and association information in which the program ID is associated are generated.
Then, the home server 40 provides the association information to the service server 3 by communication.

サービスサーバ3は、関連付け情報を受信すると、これに対するサービスフィードバック情報として、当該番組コンテンツの所定シーンに関連する各種情報や、当該視聴者に推薦する別の番組コンテンツの情報を、受信機4やホームサーバ40や携帯端末10に送信する。   Upon receiving the association information, the service server 3 receives various information related to a predetermined scene of the program content and information on another program content recommended for the viewer as service feedback information for the receiver 4 and the home. It transmits to the server 40 and the portable terminal 10.

さらに以下、図4を参照して、受信機4について詳述する。
図4は、受信機4の機能構成を示すブロック図である。
受信機4は、放送波受信部11と、第1分離部12と、放送AIT取得部13と、受信機通信手段としての通信部14と、第2分離部15と、通信AIT取得部16と、アプリケーション実行制御部17と、音声制御部18と、表示制御部19と、スピーカ20と、ディスプレイ21と、メモリ22と、AIT記憶部23とを備える。
Hereinafter, the receiver 4 will be described in detail with reference to FIG.
FIG. 4 is a block diagram illustrating a functional configuration of the receiver 4.
The receiver 4 includes a broadcast wave receiver 11, a first separator 12, a broadcast AIT acquisition unit 13, a communication unit 14 as a receiver communication means, a second separator 15, and a communication AIT acquisition unit 16. , An application execution control unit 17, a voice control unit 18, a display control unit 19, a speaker 20, a display 21, a memory 22, and an AIT storage unit 23.

放送波受信部11は、放送用アンテナ2を介して放送局1から送信されている放送波を受信する。   The broadcast wave receiving unit 11 receives a broadcast wave transmitted from the broadcast station 1 via the broadcast antenna 2.

第1分離部12は、放送波受信部11に受信された放送波を復調することによって、放送信号、即ちTSパケットを抽出する。そして、第1分離部12は、TSパケットのPSI/SIを参照して、TSパケットに含まれているデータの種別を判別し、映像、音声、EIT、番組ID等の各種データを分離して抽出する。また、第1分離部12は、予め規定されているAITの伝送方法に応じて、セクションやPESを参照してAITを分離して抽出する。   The first separator 12 extracts a broadcast signal, that is, a TS packet, by demodulating the broadcast wave received by the broadcast wave receiver 11. The first separation unit 12 refers to the PSI / SI of the TS packet, determines the type of data included in the TS packet, and separates various data such as video, audio, EIT, and program ID. Extract. Further, the first separation unit 12 separates and extracts the AIT by referring to the section and the PES according to a predetermined AIT transmission method.

続いて、第1分離部12は、TSパケットのPESに含まれているデータが音声データである場合、この音声データを音声制御部18に出力する。また、第1分離部12は、TSパケットのPESに含まれているデータが映像データである場合、この映像データを表示制御部19に出力する。   Subsequently, when the data included in the PES of the TS packet is audio data, the first separation unit 12 outputs the audio data to the audio control unit 18. In addition, when the data included in the PES of the TS packet is video data, the first separation unit 12 outputs the video data to the display control unit 19.

また、第1分離部12は、抽出したEIT、番組IDやその他の各種データをメモリ22に記憶させる。また、第1分離部12は、AITを抽出した場合、抽出したAITを放送AIT取得部13に出力する。   In addition, the first separation unit 12 stores the extracted EIT, program ID, and other various data in the memory 22. Further, when the first separation unit 12 extracts the AIT, the first separation unit 12 outputs the extracted AIT to the broadcast AIT acquisition unit 13.

放送AIT取得部13は、第1分離部12から出力されたAITを取得し、AIT記憶部23に記憶させる。   The broadcast AIT acquisition unit 13 acquires the AIT output from the first separation unit 12 and stores it in the AIT storage unit 23.

通信部14は、通信ネットワークNを介するサーバ群3やホームサーバ40との間で各種情報を送受信したり、リモートコントローラR(以下、リモコンRと略記する)からの操作信号を受信したり、携帯端末10との間で各種情報を送受信する。   The communication unit 14 transmits / receives various types of information to / from the server group 3 and the home server 40 via the communication network N, receives an operation signal from a remote controller R (hereinafter abbreviated as remote controller R), Various information is transmitted to and received from the terminal 10.

第2分離部15は、サーバ群3から通信ネットワークNを介して送信されてきて通信部14に受信されたデータの種別を判別し、その判別結果に基づいてデータの出力先を分離する。例えば、第2分離部15は、受信したデータがAITであると判別した場合、このAITを通信AIT取得部16に出力する。また、第2分離部15は、受信したデータがアプリケーションであると判別した場合、このアプリケーションをアプリケーション実行制御部17に出力する。   The second separation unit 15 determines the type of data transmitted from the server group 3 via the communication network N and received by the communication unit 14, and separates the data output destination based on the determination result. For example, if the second separation unit 15 determines that the received data is an AIT, the second separation unit 15 outputs the AIT to the communication AIT acquisition unit 16. When the second separation unit 15 determines that the received data is an application, the second separation unit 15 outputs the application to the application execution control unit 17.

また、第2分離部15は、受信したデータがTSパケットであると判別した場合、映像、音声、AIT、番組ID等の各種データをTSパケットから分離して抽出する。そして、第2分離部15は、AITを抽出した場合、このAITを通信AIT取得部16に出力し、AIT以外のデータを抽出した場合、このデータをアプリケーション実行制御部17に出力する。   Further, when the second separation unit 15 determines that the received data is a TS packet, the second separation unit 15 separates and extracts various data such as video, audio, AIT, and program ID from the TS packet. The second separation unit 15 outputs this AIT to the communication AIT acquisition unit 16 when the AIT is extracted, and outputs this data to the application execution control unit 17 when data other than the AIT is extracted.

通信AIT取得部16は、第2分離部15から出力されたAITを取得し、AIT記憶部23に記憶させる。   The communication AIT acquisition unit 16 acquires the AIT output from the second separation unit 15 and stores it in the AIT storage unit 23.

アプリケーション実行制御部17は、AIT又はリモコンRを介したユーザの実行指示に基づいてアプリケーションを取得し、取得したアプリケーションの実行を制御する。例えば、アプリケーション実行制御部17は、関連付け情報を生成して出力するアプリケーションを起動した場合、当該アプリケーションの実行によって、番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTSを表示制御部19から取得して、通信部14を介してホームサーバ40に送信する。また、アプリケーション実行制御部17は、当該アプリケーションの実行によって、メモリ22に記憶された番組ID及びユーザを特定するユーザIDを通信部14を介してホームサーバ40に送信する。   The application execution control unit 17 acquires an application based on a user's execution instruction via the AIT or the remote controller R, and controls execution of the acquired application. For example, when an application that generates and outputs association information is activated, the application execution control unit 17 executes NPT or PTS as time information indicating the relative playback start timing of a predetermined scene in the program content by executing the application. Is transmitted from the display control unit 19 to the home server 40 via the communication unit 14. Further, the application execution control unit 17 transmits the program ID stored in the memory 22 and the user ID for identifying the user to the home server 40 via the communication unit 14 by executing the application.

メモリ22は、EIT、番組ID等の番組コンテンツのメタ情報やその他各種情報を記憶する。
AIT記憶部23は、放送AIT取得部13及び通信AIT取得部16によって取得されたAITを記憶する。
The memory 22 stores meta information of program contents such as EIT and program ID and other various information.
The AIT storage unit 23 stores the AIT acquired by the broadcast AIT acquisition unit 13 and the communication AIT acquisition unit 16.

さらに以下、図5を参照して、ホームサーバ40について詳述する。
図5は、ホームサーバ40の機能構成を示すブロック図である。
ホームサーバ40は、ホームサーバ通信手段としての通信部44と、分離部45と、通信AIT取得部46と、アプリケーション実行制御部47と、AIT記憶部53、外部機器接続手段としてのデバイス接続部54と、関連付け部55とを備える。
Further, the home server 40 will be described in detail below with reference to FIG.
FIG. 5 is a block diagram showing a functional configuration of the home server 40.
The home server 40 includes a communication unit 44 as a home server communication unit, a separation unit 45, a communication AIT acquisition unit 46, an application execution control unit 47, an AIT storage unit 53, and a device connection unit 54 as an external device connection unit. And an associating unit 55.

通信部44は、通信ネットワークNを介するサーバ群3や受信機4との間で各種情報を送受信したり、リモートコントローラR(以下、リモコンRと略記する)からの操作信号を受信したり、携帯端末10との間で各種情報を送受信する。   The communication unit 44 transmits / receives various information to / from the server group 3 and the receiver 4 via the communication network N, receives an operation signal from a remote controller R (hereinafter abbreviated as a remote controller R), Various information is transmitted to and received from the terminal 10.

分離部45は、サーバ群3や受信機4から通信ネットワークNを介して送信されてきて通信部44に受信されたデータの種別を判別し、その判別結果に基づいてデータの出力先を分離する。例えば、分離部45は、受信したデータがAITであると判別した場合、このAITを通信AIT取得部46に出力する。また、分離部45は、受信したデータがアプリケーションであると判別した場合、このアプリケーションをアプリケーション実行制御部17に出力する。また、分離部45は、受信機4から受信したデータがNPT、PTS、番組ID又はユーザIDであると判別した場合は、これらのNPT、PTS、番組ID及びユーザIDをアプリケーション実行制御部47に出力する。   The separation unit 45 determines the type of data transmitted from the server group 3 or the receiver 4 via the communication network N and received by the communication unit 44, and separates the data output destination based on the determination result. . For example, when the separation unit 45 determines that the received data is an AIT, the separation unit 45 outputs the AIT to the communication AIT acquisition unit 46. If the separating unit 45 determines that the received data is an application, the separating unit 45 outputs the application to the application execution control unit 17. If the separation unit 45 determines that the data received from the receiver 4 is NPT, PTS, program ID, or user ID, the separation unit 45 sends the NPT, PTS, program ID, and user ID to the application execution control unit 47. Output.

また、分離部45は、受信したデータがTSパケットであると判別した場合、映像、音声、AIT、番組ID等の各種データをTSパケットから分離して抽出する。そして、分離部45は、AITを抽出した場合、このAITを通信AIT取得部46に出力し、AIT以外のデータを抽出した場合、このデータをアプリケーション実行制御部47に出力する。   Further, when the separation unit 45 determines that the received data is a TS packet, the separation unit 45 separates and extracts various data such as video, audio, AIT, and program ID from the TS packet. When the AIT is extracted, the separation unit 45 outputs the AIT to the communication AIT acquisition unit 46. When the separation unit 45 extracts data other than the AIT, the separation unit 45 outputs the data to the application execution control unit 47.

通信AIT取得部46は、分離部45から出力されたAITを取得し、AIT記憶部53に記憶させる。   The communication AIT acquisition unit 46 acquires the AIT output from the separation unit 45 and stores it in the AIT storage unit 53.

アプリケーション実行制御部47は、AIT又はリモコンRを介したユーザの実行指示に基づいてアプリケーションを取得し、取得したアプリケーションの実行を制御する。例えば、アプリケーション実行制御部47は、関連付け情報を生成して出力するアプリケーションを起動した場合、当該アプリケーションの実行によって、受信機4から受信したNPT、PTS、番組ID及びユーザIDを関連付け部55に出力する。
AIT記憶部53は、通信AIT取得部46によって取得されたAITを記憶する。
The application execution control unit 47 acquires an application based on a user's execution instruction via the AIT or the remote controller R, and controls execution of the acquired application. For example, when an application that generates and outputs association information is activated, the application execution control unit 47 outputs the NPT, PTS, program ID, and user ID received from the receiver 4 to the association unit 55 by executing the application. To do.
The AIT storage unit 53 stores the AIT acquired by the communication AIT acquisition unit 46.

デバイス接続部54は、カメラデバイス5やマイクデバイス6等のデバイスを接続し、当該デバイスからの入力情報を視聴状態情報として関連付け部55に供給する。
具体的には、デバイス接続部54は、アプリケーション実行制御部47により実行されたアプリケーション(以下、Hybridcastアプリケーションとも呼ぶ)によって、カメラデバイス5により視聴者が撮影された結果得られる画像のデータを、視聴状態情報として取得して、関連付け部55に出力する。また、デバイス接続部54は、アプリケーション実行制御部47により実行されたアプリケーションによって、マイクデバイス6から入力された視聴者の音声のデータを、視聴状態情報として取得して、関連付け部55に出力する。
なお、デバイス接続部54に接続されるカメラデバイス5やマイクデバイス6は、ホームサーバ40に接続された携帯端末10に内蔵されたカメラデバイス及びマイクデバイスでもよく、また、携帯端末10に接続されたカメラデバイス及びマイクデバイスであってもよい。
また、デバイス接続部54に接続されるデバイスは、カメラデバイス5やマイクデバイス6に限られず、その他例えば、視聴者の位置情報を取得可能なジャイロセンサや、視聴者の動作を検知可能な光センサであってもよい。
さらに、デバイス接続部54に接続とは、外部機器に接続することのみを意味せず、内蔵機器に接続することも意味する。従って、カメラデバイス5やマイクデバイス6は、外部機器である必要は特になく、ホームサーバ40に内蔵されていてもよい。
なお、デバイス接続部54のさらなる詳細については、図7乃至図11を参照して後述する。
The device connection unit 54 connects devices such as the camera device 5 and the microphone device 6 and supplies input information from the devices to the association unit 55 as viewing state information.
Specifically, the device connection unit 54 views data of an image obtained as a result of the viewer taking a picture with the camera device 5 by an application executed by the application execution control unit 47 (hereinafter also referred to as “Hybridcast application”). Obtained as state information and output to the associating unit 55. Further, the device connection unit 54 acquires the audio data of the viewer input from the microphone device 6 as the viewing state information by the application executed by the application execution control unit 47 and outputs the acquired data to the associating unit 55.
The camera device 5 and the microphone device 6 connected to the device connection unit 54 may be a camera device and a microphone device built in the mobile terminal 10 connected to the home server 40, or connected to the mobile terminal 10. It may be a camera device and a microphone device.
The device connected to the device connection unit 54 is not limited to the camera device 5 and the microphone device 6. For example, a gyro sensor that can acquire the viewer's position information or an optical sensor that can detect the viewer's operation. It may be.
Furthermore, the connection to the device connection unit 54 does not only mean connecting to an external device but also means connecting to a built-in device. Accordingly, the camera device 5 and the microphone device 6 are not particularly required to be external devices, and may be built in the home server 40.
Further details of the device connection unit 54 will be described later with reference to FIGS.

関連付け部55は、番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTSをアプリケーション実行制御部47から取得する。関連付け部55は、当該所定シーンを視聴した時の視聴者の視聴状態を示す視聴状態情報として、画像又は音声のデータをデバイス接続部54から取得する。関連付け部55は、番組IDやユーザID等のID情報をアプリケーション実行制御部47から取得する。
関連付け部55は、これらの取得した情報、即ち、NPT又はPTSと、画像又は音声のデータとしての視聴状態情報と、ID情報とを関連付けることによって、関連付け情報を生成して、通信部44を介してサービスサーバ3に送信する。
なお、関連付け部55のさらなる詳細については、図12乃至図15を参照して後述する。
The associating unit 55 acquires NPT or PTS from the application execution control unit 47 as time information indicating the relative playback start timing of the predetermined scene in the program content. The associating unit 55 acquires image or audio data from the device connecting unit 54 as viewing state information indicating the viewing state of the viewer when viewing the predetermined scene. The associating unit 55 acquires ID information such as a program ID and a user ID from the application execution control unit 47.
The association unit 55 generates association information by associating the acquired information, that is, NPT or PTS, viewing state information as image or audio data, and ID information, via the communication unit 44. To the service server 3.
Further details of the associating unit 55 will be described later with reference to FIGS.

さらに以下、このような機能的構成を有するホームサーバ40のうち、デバイス接続部54について、図7乃至図11を参照して説明する。   Further, the device connection unit 54 of the home server 40 having such a functional configuration will be described below with reference to FIGS.

上述の如く、デバイス接続部54には、カメラデバイス5やマイクデバイス6といったデバイスが接続される。ただし、デバイス接続部54は、デバイスが単に物理的に接続されたとしても、当該デバイスを発見して認識しなければ、当該デバイスからの情報を視聴状態情報として関連付け部55に出力することはできない。   As described above, devices such as the camera device 5 and the microphone device 6 are connected to the device connection unit 54. However, even if the device is simply physically connected, the device connection unit 54 cannot output information from the device as viewing state information to the associating unit 55 unless the device is discovered and recognized. .

図7は、このようなデバイスの発見に関する動作を説明する図であって、Hybridcast機能のレイヤの関係を示す図である。
図7に示すように、Hybridcast機能のレイヤとしては、下層から上層に向かう順に、ハードウェア、システムソフトウェア、ヴァーチャルマシン、Hybridcast基本ライブラリ及び拡張ライブラリ、並びに、Hybridcastアプリケーションが存在する。
デバイス接続部54におけるデバイスの発見の動作は、本実施形態では、拡張ライブラリ(ソフトウェアプログラム)の1つである機器発見ライブラリによって行われる。
FIG. 7 is a diagram for explaining an operation related to discovery of such a device, and is a diagram illustrating a relationship of layers of the Hybridcast function.
As shown in FIG. 7, as the layer of the Hybridcast function, there are hardware, system software, a virtual machine, a Hybridcast basic library and an extension library, and a Hybridcast application in order from the lower layer to the upper layer.
In the present embodiment, the device discovery operation in the device connection unit 54 is performed by a device discovery library which is one of extended libraries (software programs).

図8は、デバイス接続部54の概念を示す図である。
図8に示すように、アプリケーション実行制御部47により実行されるHybridcastアプリケーションが、デバイス接続部54に設けられるデバイスマネージャやHID(Human Interface Device)等とやり取りをする。
ここで、一般的なフィジカルネットワーク層におけるデバイスマネージャインプリメンテーションやHIDインプリメンテーションは、本実施形態では、従来から存在するものが流用される。このため、図9乃至図11のシーケンス図に示すような各種各様のリスナーを実装し、同シーケンス図に示すような各種イベント等を生成して処理するクラスとして、デバイスマネージャやHIDを含むインプリメンテーションクラスを実装することにより、デバイス接続部54が実現される。
FIG. 8 is a diagram illustrating the concept of the device connection unit 54.
As shown in FIG. 8, the Hybridcast application executed by the application execution control unit 47 communicates with a device manager provided in the device connection unit 54, an HID (Human Interface Device), and the like.
Here, as for the device manager implementation and the HID implementation in the general physical network layer, the existing ones are used in this embodiment. For this reason, various listeners as shown in the sequence diagrams of FIGS. 9 to 11 are implemented, and an implementation including a device manager and an HID is generated as a class for generating and processing various events as shown in the sequence diagrams. The device connection unit 54 is realized by implementing the annotation class.

図9は、動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、所定の外部機器がデバイスとして接続されたときのシーケンス図を示している。
ステップS1において、関連付け部55は、番組IDやユーザID等のID情報をメモリ22から取得する。ただし、ID情報の取得は、ステップS1の処理タイミングだけではなく、放送局1からの番組コンテンツの変わり目等で随時行われる。
FIG. 9 shows a sequence diagram when a predetermined external device is connected as a device when a service of a Hybridcast application that uses the device for operation recognition or the like is started.
In step S <b> 1, the associating unit 55 acquires ID information such as a program ID and a user ID from the memory 22. However, acquisition of ID information is performed not only at the processing timing of step S1, but also at any time at the change of the program content from the broadcast station 1.

次に、デバイスマネージャによる機器発見部分のシーケンスとして、次のようなステップS2乃至S9の処理が実行される。
ステップS2において、アプリケーション実行制御部47により実行されるHybridcastアプリケーション(図9乃至図11のシーケンス図の説明ではアプリと略称する)は、デバイス接続部54において、デバイスマネージャインスタンスを登録する。
ステップS3において、デバイスマネージャは、関連付け部55に対してアプリを通知する。
ステップS4において、関連付け部55は、関連付け部物理情報をデバイスマネージャに通知する。ここで、関連付け部物理情報とは、視聴者状態情報(画像や音声)を物理的にどこに流すべきかを示す情報である。
ステップS5において、アプリは、デバイスディスカバリーリスナを生成する。即ち、デバイスディスカバリイベントが登録される。
ステップS6において、デバイスマネージャが、HIDに対してデバイスの発見を試みる。
ステップS7において、HIDは、その応答をデバイスマネージャに返す。
ステップS8において、デバイスマネージャは、ステップS7の応答から得られたデバイス情報と、ステップS4において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
ステップS9において、デバイスマネージャは、デバイス情報をアプリに送ることによって、新しいデバイスをアプリに通知する。
Next, the following steps S2 to S9 are executed as a sequence of device discovery parts by the device manager.
In step S2, the Hybridcast application (abbreviated as an application in the description of the sequence diagrams of FIGS. 9 to 11) executed by the application execution control unit 47 registers a device manager instance in the device connection unit 54.
In step S <b> 3, the device manager notifies the association unit 55 of the application.
In step S4, the associating unit 55 notifies the device manager of the associating unit physical information. Here, the association unit physical information is information indicating where the viewer state information (image or sound) should be physically flowed.
In step S5, the application generates a device discovery listener. That is, a device discovery event is registered.
In step S6, the device manager attempts to find a device for the HID.
In step S7, the HID returns the response to the device manager.
In step S8, the device manager generates and registers a new device instance based on the device information obtained from the response in step S7 and the association unit physical information notified in step S4.
In step S9, the device manager notifies the app of a new device by sending device information to the app.

このようにして、デバイスマネージャによる機器発見部分のシーケンスとして、ステップS2乃至S9の処理が実行されると、それに引き続き、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、次のようなステップS10乃至S14の処理が実行される。
ステップS10において、アプリは、デバイスインスタンスに対して、デバイスステイタスリスナーを登録する。
ステップS11において、デバイスインスタンスは、デバイスの状況(例えば電源状態がON状態なのかOFF状態なのかといった状況)を、HIDに対して確認する。
ステップS12において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、デバイスの電源状態がOFF状態の場合には、さらに図10に示す処理が必要になるが、この処理については後述する。
ステップS13において、デバイスインスタンスは、HIDから通知されたデバイスの状況を、アプリに通知する。
ステップS14において、デバイスインスタンスは、デバイスの入力データ(画像や音声のデータであって、視聴者状態情報になるデータ)を関連付け部55に出力する制御を実行すべく、関連付け部55の通知をHIDに対して行う。
In this way, when the processing of steps S2 to S9 is executed as a device discovery part sequence by the device manager, the following steps S10 to S14 are subsequently executed as a description and control part sequence by the device instance. The process is executed.
In step S10, the application registers a device status listener for the device instance.
In step S <b> 11, the device instance confirms the device status (for example, the status of whether the power state is ON or OFF) with respect to the HID.
In step S12, the HID notifies the device instance of the status of the device, for example, the power supply status and device specific information. When the power state of the device is OFF, the processing shown in FIG. 10 is further required, and this processing will be described later.
In step S13, the device instance notifies the app of the device status notified from the HID.
In step S <b> 14, the device instance sends the notification of the association unit 55 to the HID so as to execute control to output the input data of the device (data that is image or audio data and becomes viewer state information) to the association unit 55. To do.

ここで、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスについて説明する。
先ず、デバイスの電源状態によらず、ステップS11の処理は実行されるが、デバイスの電源状態がOFF状態である場合には、ステップS12の処理の代わりに、図10のシーケンス図に従った処理が実行される。
図10は、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンス図である。
ステップS12−1の処理は、ステップS12と実質同一の処理である。ただし、ステップS12−1においては、電源状態がOFF状態である旨がデバイスインスタンスに通知される。
そこで、ステップS33において、デバイスインスタンスは、デバイスの電源状態をON状態に遷移させる要求(以下、デバイス電源ON要求と呼ぶ)を、デバイスマネージャに対して行う。
ステップS34において、デバイスマネージャは、デバイスの電源状態をON状態に遷移させる。
ステップS12−2において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、この場合、電源状態がON状態である旨がデバイスインスタンスに通知される。
その後、上述した図9のステップS13及びS14の処理が実行される。
Here, the description of the device instance and the sequence of the control part when the power state of the device is OFF will be described.
First, the process of step S11 is executed regardless of the power state of the device. However, when the power state of the device is OFF, the process according to the sequence diagram of FIG. 10 is used instead of the process of step S12. Is executed.
FIG. 10 is a sequence diagram of the description by the device instance and the control part when the power state of the device is OFF.
The process of step S12-1 is substantially the same as step S12. However, in step S12-1, the device instance is notified that the power state is OFF.
In step S33, the device instance makes a request to the device manager to change the power state of the device to the ON state (hereinafter referred to as a device power ON request).
In step S34, the device manager changes the power state of the device to the ON state.
In step S12-2, the HID notifies the device instance of the device status, for example, the power supply status and device-specific information. In this case, the device instance is notified that the power state is ON.
Thereafter, the processes of steps S13 and S14 of FIG. 9 described above are executed.

このようにして、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、図9のステップS10乃至S14の処理(デバイスの電源状態がOFF状態の場合図10の処理)が実行されると、次に引き続き、次のようなステップS15乃至S19の処理が実行される。
ステップS15において、アプリは、デバイスインスタンスに対して、入力イベントを要求する。
ステップS16において、デバイスインスタンスは、HIDに対して、入力イベントを要求する。
ステップS17において、デバイスは、即ちここでは外部機器であるカメラデバイス5又はマイクデバイス6は、画像又は音声のデータをHIDに入力する。
ステップS18において、HIDは、ステップS17の処理で入力された画像又は音声のデータを、入力データとして関連付け部55に提供する。なお、関連付け部55は、当該入力データを視聴者状態情報として取得する。
ステップS19において、アプリは、ステップS18の処理時点のNPT/PTSを関連付け部55に提供する。
これ以降、アプリから入力イベントが要求される毎に、ステップS15乃至S19の処理が繰り返し実行される。
In this way, when the process of steps S10 to S14 in FIG. 9 (the process of FIG. 10 when the device is in the power-off state) is executed as the description of the device instance and the control part sequence, it continues next. The following steps S15 to S19 are executed.
In step S15, the application requests an input event from the device instance.
In step S16, the device instance requests an input event from the HID.
In step S <b> 17, the device, that is, the camera device 5 or the microphone device 6, which is an external device here, inputs image or audio data to the HID.
In step S18, the HID provides the association unit 55 with the image or audio data input in the process of step S17 as input data. The associating unit 55 acquires the input data as viewer state information.
In step S19, the application provides NPT / PTS at the time of processing in step S18 to the associating unit 55.
Thereafter, each time an input event is requested from the application, the processes of steps S15 to S19 are repeatedly executed.

以上まとめると、デバイス接続部54においては、デバイスマネージャが機能する。このデバイスマネージャの主な機能は、HID(デバイス)を発見し、発見したデバイスのデバイス情報と、関連付け部情報とを一緒に用いてデバイスインスタンスを生成することである。
また、このようにしてデバイスマネージャにより生成されたデバイスインスタンスの機能は、アプリから入力イベントを受け取り、HIDと関連付け部55とを制御することである。
また、関連付け部55の機能は、デバイス(HID)からの入力データ(画像や音声のデータであって、視聴者状態情報となるデータ)と、ホームサーバ40に接続された受信機4の内部情報(NPTPTSといった時間情報やID情報)とを関連付けることである。
In summary, the device manager functions in the device connection unit 54. The main function of this device manager is to discover an HID (device) and generate a device instance using the device information of the discovered device and the association unit information together.
The function of the device instance generated by the device manager in this way is to receive an input event from the application and to control the HID and the associating unit 55.
The function of the associating unit 55 includes input data from the device (HID) (image and audio data, which is viewer status information), and internal information of the receiver 4 connected to the home server 40. (Time information such as NPPTTS and ID information) is associated with each other.

ところで、デバイス接続部54に接続されるデバイスは、上述したように、外部機器に特に限定されず、ホームサーバ40の内蔵機器であってもよい。   By the way, the device connected to the device connection unit 54 is not particularly limited to an external device as described above, and may be a built-in device of the home server 40.

図11は、動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、デバイスとしてホームサーバ40の内蔵機器を用いる場合のシーケンス図を示している。
図11と図9とを比較するに、図11のステップS51乃至S54は、図9のステップS1乃至S4と同様の処理である。
しかしながら、図11においては、図9のステップS5乃至S7に相当する処理は存在しない。内蔵機器の発見は不要だからである。このため、図11のステップS55においては、デバイスマネージャは、内蔵機器の既知情報と、ステップS54において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
また、図11においては、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスが存在しない。即ち、図11においては、図9のステップS10乃至S14(デバイスの電源状態がOFF状態の場合には図10)に相当する処理は存在しない。内蔵機器の場合、ステイタスリスナーは不要だからである。即ち、デバイスマネージャから状況を変更可能だからである。
なお、図11のステップS56乃至S60は、図9のステップS15乃至S19と同様の処理である。即ち、アプリから入力イベントが要求される毎に、ステップS56乃至S60の処理が繰り返し実行される。
FIG. 11 shows a sequence diagram when the built-in device of the home server 40 is used as a device when a service of a Hybridcast application that uses the device for operation recognition or the like is started.
Comparing FIG. 11 and FIG. 9, steps S51 to S54 in FIG. 11 are the same processes as steps S1 to S4 in FIG.
However, in FIG. 11, there is no processing corresponding to steps S5 to S7 of FIG. This is because there is no need to discover the internal device. For this reason, in step S55 of FIG. 11, the device manager generates and registers a new device instance based on the known information of the built-in device and the association unit physical information notified in step S54.
In FIG. 11, there is no description of the device instance and the sequence of the control part. That is, in FIG. 11, there is no processing corresponding to steps S10 to S14 of FIG. 9 (FIG. 10 when the power supply state of the device is OFF). This is because a built-in device does not require a status listener. That is, the situation can be changed from the device manager.
Note that steps S56 to S60 in FIG. 11 are the same processes as steps S15 to S19 in FIG. That is, every time an input event is requested from the application, the processes of steps S56 to S60 are repeatedly executed.

以上、図4の機能的構成を有するホームサーバ40のうち、デバイス接続部54の詳細について、図7乃至図11を参照して説明した。次に、このようなホームサーバ40のうち、関連付け部55の詳細について、図12乃至図15を参照して説明する。   The details of the device connection unit 54 in the home server 40 having the functional configuration of FIG. 4 have been described above with reference to FIGS. Next, details of the associating unit 55 in the home server 40 will be described with reference to FIGS. 12 to 15.

図12は、関連付け部55の機能構成の一例を示す機能ブロック図である。
関連付け部55は、画像情報取得部551と、相対時間情報取得部552と、ID(番組・ユーザID)取得部553と、画像関連付け部554と、により画像関連付け情報を生成する。
画像情報取得部551は、デバイス接続部54から入力データとして出力された画像(動画のコマ又は静止画)のデータ(図9のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時の視聴者が写った画像のデータを、視聴者状態情報として取得する。
相対時間情報取得部552は、アプリケーション実行制御部47から出力された所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTS(図9のステップS19参照)を取得する。
ID(番組・ユーザID)取得部553は、アプリケーション実行制御部47から出力された番組ID及びユーザID(図9のステップS1のID情報)を取得する。
画像関連付け部554は、画像情報取得部551に取得された画像のデータと、相対時間情報取得部552に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部553に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、画像関連付け部554により生成される関連付け情報を、特に、画像関連付け情報と呼ぶ。画像関連付け部554は、アプリケーション実行制御部47がアプリケーションを終了させるまで、随時、画像関連付け情報を通信部44に出力する。
FIG. 12 is a functional block diagram illustrating an example of a functional configuration of the associating unit 55.
The association unit 55 generates image association information using the image information acquisition unit 551, the relative time information acquisition unit 552, the ID (program / user ID) acquisition unit 553, and the image association unit 554.
The image information acquisition unit 551 views data (see step S18 in FIG. 9) of the image (moving image frame or still image) output as input data from the device connection unit 54, that is, viewing when a predetermined scene of the program content is viewed. Data of an image in which the viewer is shown is acquired as viewer state information.
The relative time information acquisition unit 552 acquires NPT or PTS (see step S19 in FIG. 9) as time information indicating the relative playback start timing of the predetermined scene output from the application execution control unit 47.
The ID (program / user ID) acquisition unit 553 acquires the program ID and user ID (ID information in step S1 of FIG. 9) output from the application execution control unit 47.
The image association unit 554 includes the image data acquired by the image information acquisition unit 551, the NPT or PTS acquired by the relative time information acquisition unit 552, and the program acquired by the ID (program / user ID) acquisition unit 553. The association information is generated by associating the ID and the user ID. Hereinafter, the association information generated by the image association unit 554 is particularly referred to as image association information. The image association unit 554 outputs image association information to the communication unit 44 at any time until the application execution control unit 47 terminates the application.

図13は、図12の例の関連付け部55の処理の流れを説明するフローチャートである。
ステップS101において、関連付け部55は、画像情報取得部551で画像(動画のコマ又は静止画)のデータを取得し、相対時間情報取得部552で時刻情報(NPT又はPTS)を取得し、ID取得部553で番組ID及びユーザIDを取得する。
ステップS102において、画像関連付け部554は、ステップS101で取得した各種情報、即ち、画像のデータ、時刻情報、並びに番組ID及びユーザIDを関連付けることによって、画像関連付け情報を生成する。
ステップS103において、画像関連付け部554は、ステップS102で生成した画像関連付け情報を通信部44に出力する。
ステップS104において、関連付け部55は、アプリケーション実行制御部47がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS101に処理を戻し、終了させた場合は本処理を終了させる。
FIG. 13 is a flowchart for explaining the processing flow of the associating unit 55 in the example of FIG.
In step S101, the associating unit 55 acquires image (moving image frame or still image) data with the image information acquiring unit 551, acquires time information (NPT or PTS) with the relative time information acquiring unit 552, and acquires an ID. In part 553, the program ID and the user ID are acquired.
In step S102, the image association unit 554 generates image association information by associating various information acquired in step S101, that is, image data, time information, a program ID, and a user ID.
In step S <b> 103, the image association unit 554 outputs the image association information generated in step S <b> 102 to the communication unit 44.
In step S104, the associating unit 55 determines whether or not the application execution control unit 47 has ended the application. If the application execution control unit 47 has not ended the process, the process returns to step S101.

関連付け部55から出力された画像関連付け情報は、通信部44を介して、サービスサーバ3(図4参照)に送信される。
サービスサーバ3は、受信した画像関連付け情報をもとに画像処理を行う。これにより、サービスサーバ3は、視聴者が「どのシーンで笑った」、「どのシーンで興味を失った」等の情報を推定し、視聴者に特別な動作をさせることなく、視聴者の視聴状態を推定することが可能となる。
The image association information output from the association unit 55 is transmitted to the service server 3 (see FIG. 4) via the communication unit 44.
The service server 3 performs image processing based on the received image association information. As a result, the service server 3 estimates information such as “in which scene the viewer laughed” and “in which scene he / she lost interest”, and the viewer can watch the viewer without performing a special action. The state can be estimated.

図14は、関連付け部55の機能構成の別の例を示す機能ブロック図である。
関連付け部55は、音声情報取得部555と、相対時間情報取得部552と、ID(番組・ユーザID)取得部553と、音声関連付け部556と、により音声関連付け情報(音声の関連付けられたアップリンク情報)を生成する。
音声情報取得部555は、デバイス接続部54から入力データとして出力された音声のデータ(図9のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時に発した音声のデータを、音声情報として取得する。
音声関連付け部556は、音声情報取得部555に取得された音声情報と、相対時間情報取得部552に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部553に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、音声関連付け部556により生成される関連付け情報を、特に、音声関連付け情報と呼ぶ。音声関連付け部556は、アプリケーション実行制御部47がアプリケーションを終了させるまで、随時、音声関連付け情報を通信部44に出力する。
FIG. 14 is a functional block diagram illustrating another example of the functional configuration of the associating unit 55.
The associating unit 55 includes an audio information acquiring unit 555, a relative time information acquiring unit 552, an ID (program / user ID) acquiring unit 553, and an audio associating unit 556. Information).
The audio information acquisition unit 555 uses, as audio information, audio data (see step S18 in FIG. 9) output as input data from the device connection unit 54, that is, audio data generated when a predetermined scene of the program content is viewed. get.
The audio association unit 556 includes the audio information acquired by the audio information acquisition unit 555, the NPT or PTS acquired by the relative time information acquisition unit 552, and the program ID acquired by the ID (program / user ID) acquisition unit 553. And association information is generated by associating the user ID with the user ID. Hereinafter, the association information generated by the audio association unit 556 is particularly referred to as audio association information. The voice association unit 556 outputs the voice association information to the communication unit 44 at any time until the application execution control unit 47 ends the application.

図15は、図14の例の関連付け部55の処理の流れを説明するフローチャートである。
ステップS201において、関連付け部55は、音声情報取得部555で音声情報を取得し、相対時間情報取得部552で時刻情報(NPT又はPTS)を取得し、ID取得部553で番組ID及びユーザIDを取得する。
ステップS202において、音声関連付け部556は、ステップS201で取得した各種情報、即ち、音声情報、時刻情報、番組ID及びユーザIDを関連付けることによって、音声関連付け情報を生成する。
ステップS203において、音声関連付け部556は、ステップS202で生成した音声関連付け情報を通信部44に出力する。
ステップS204において、関連付け部55は、アプリケーション実行制御部47がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS201に処理を戻し、終了させた場合は本処理を終了させる。
FIG. 15 is a flowchart for explaining the processing flow of the associating unit 55 in the example of FIG.
In step S <b> 201, the associating unit 55 acquires audio information with the audio information acquisition unit 555, acquires time information (NPT or PTS) with the relative time information acquisition unit 552, and acquires a program ID and user ID with the ID acquisition unit 553. get.
In step S202, the audio association unit 556 generates audio association information by associating various information acquired in step S201, that is, audio information, time information, a program ID, and a user ID.
In step S203, the voice association unit 556 outputs the voice association information generated in step S202 to the communication unit 44.
In step S204, the associating unit 55 determines whether or not the application execution control unit 47 has ended the application. If the application execution control unit 47 has not ended the process, the process returns to step S201.

本実施形態によれば、以下のような効果がある。
(1)受信機4は、放送局1が放送した放送信号に含まれるコンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報と、当該所定シーンを視聴した時の視聴者の視聴状態と、放送信号に含まれるコンテンツを特定する番組IDと、を通信部14によりホームサーバ40へ送信する。
ホームサーバ40は、受信機4から送信された時刻情報及び番組IDと、所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を関連付け部55により生成し、この生成した関連付け情報を通信部44によりサービスサーバ3に送信する。
According to this embodiment, there are the following effects.
(1) The receiver 4 includes time information indicating a relative reproduction start timing of a predetermined scene in content included in a broadcast signal broadcast by the broadcast station 1, and a viewing state of a viewer when the predetermined scene is viewed. The program ID for specifying the content included in the broadcast signal is transmitted to the home server 40 by the communication unit 14.
The home server 40 generates association information in which the time information and the program ID transmitted from the receiver 4 are associated with the viewing state of the viewer when viewing the predetermined scene by the association unit 55, and the generated association Information is transmitted to the service server 3 by the communication unit 44.

これにより、ホームサーバ40において、受信機4で再生された番組IDにより特定されるコンテンツの所定シーンと当該所定シーンを視聴した視聴者の視聴状態とが紐づけられ、サービスサーバ3に送信される。
従って、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
Thereby, in the home server 40, the predetermined scene of the content specified by the program ID reproduced by the receiver 4 is associated with the viewing state of the viewer who has viewed the predetermined scene, and is transmitted to the service server 3. .
Accordingly, in a system that coordinates broadcasting and communication, the server can easily and appropriately acquire the viewing state of a predetermined scene of content broadcast by a broadcasting station.

(2)ホームサーバ40は、カメラデバイスやマイクデバイスを備えていなくとも、外部機器としてカメラデバイスやマイクデバイスをデバイス接続部54に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
また、当該サービスを受けることができるホームサーバの必須項目から視聴状態取得手段を除外できるので、当該サービスを受けることができるホームサーバの普及を促進できる。
(2) Even if the home server 40 does not include a camera device or a microphone device, the viewing state information can be acquired by connecting the camera device or the microphone device as an external device to the device connection unit 54.
As a result, in a system for linking broadcasting and communication, even if the home server does not include viewing state acquisition means, the server can easily and appropriately acquire the viewing state of the predetermined scene of the content broadcast by the broadcast station. Become.
In addition, since the viewing state acquisition means can be excluded from the essential items of the home server that can receive the service, the spread of the home server that can receive the service can be promoted.

(3)ホームサーバ40は、カメラデバイスやマイクデバイスを備えていなくとも、視聴者の視聴状態を取得できる携帯端末10をデバイス接続部54に接続することで、視聴状態情報を取得できる。
これにより、放送と通信の連携を図るシステムにおいて、ホームサーバが視聴状態取得手段を備えなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。
(3) Even if the home server 40 is not equipped with a camera device or a microphone device, it is possible to acquire viewing state information by connecting the mobile terminal 10 that can acquire the viewing state of the viewer to the device connection unit 54.
As a result, in a system for linking broadcasting and communication, even if the home server does not include viewing state acquisition means, the server can easily and appropriately acquire the viewing state of the predetermined scene of the content broadcast by the broadcast station. Become.

(4)ホームサーバ40は、カメラデバイスやマイクデバイスを備えたので、放送と通信の連携を図るシステムにおいて、別途にカメラデバイスやマイクデバイスを用意しなくとも、サーバは、放送局が放送したコンテンツの所定シーンについての視聴状態を容易かつ適切に取得できるようになる。   (4) Since the home server 40 includes a camera device and a microphone device, in a system for coordinating broadcasting and communication, even if a camera device and a microphone device are not separately prepared, the server broadcasts content broadcasted by a broadcasting station. The viewing state of the predetermined scene can be acquired easily and appropriately.

(5)受信機4の関連付け部55の画像情報取得部551は、デバイス接続部54を介して、視聴状態情報として所定シーンを視聴した時の視聴者を撮影した画像のデータをカメラデバイス5から取得する。画像関連付け部554は、画像情報取得部551が取得した画像のデータと、相対時間情報取得部552が取得した時刻情報と、ID取得部553が取得した番組IDと、を関連付けた画像関連付け情報を生成する。   (5) The image information acquisition unit 551 of the associating unit 55 of the receiver 4 transmits, from the camera device 5, image data obtained by photographing a viewer when viewing a predetermined scene as viewing state information via the device connection unit 54. get. The image association unit 554 includes image association information in which the image data acquired by the image information acquisition unit 551, the time information acquired by the relative time information acquisition unit 552, and the program ID acquired by the ID acquisition unit 553 are associated with each other. Generate.

これにより、視聴状態情報として、視聴者の画像のデータを用いることができるので、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての恣意的でない視聴状態を容易かつ適切に取得できるようになる。   As a result, the viewer's image data can be used as the viewing state information. Therefore, in the system for coordinating the broadcasting and the communication, the server is not arbitrarily viewing the predetermined scene of the content broadcast by the broadcasting station. Can be acquired easily and appropriately.

(6)受信機4の関連付け部55の音声情報取得部555は、デバイス接続部54を介して、視聴状態情報として視聴者が所定シーンを視聴した時に発した音声のデータをマイクデバイス6から取得する。音声関連付け部556は、音声情報取得部555が取得した音声のデータと、相対時間情報取得部552が取得した時刻情報と、ID取得部553が取得した番組IDと、を関連付けた音声関連付け情報を生成する。   (6) The audio information acquisition unit 555 of the associating unit 55 of the receiver 4 acquires, from the microphone device 6, audio data generated when the viewer views a predetermined scene as viewing state information via the device connection unit 54. To do. The audio association unit 556 includes audio association information in which the audio data acquired by the audio information acquisition unit 555, the time information acquired by the relative time information acquisition unit 552, and the program ID acquired by the ID acquisition unit 553 are associated with each other. Generate.

これにより、視聴状態情報として、視聴者の音声のデータを用いることができるので、放送と通信の連携を図るシステムにおいて、サーバは、放送局が放送したコンテンツの所定シーンについての恣意的でない視聴状態を容易かつ適切に取得できるようになる。   As a result, since the audio data of the viewer can be used as the viewing state information, in the system for coordinating broadcasting and communication, the server is not arbitrarily viewing the predetermined scene of the content broadcast by the broadcasting station. Can be acquired easily and appropriately.

なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
本実施形態では、例えば、デバイスとしてカメラデバイス及びマイクデバイスを備えているが、これに限られるものではなく、視聴者の視聴状態情報を取得できる限り、カメラデバイス又はマイクデバイスのいずれかを備えればよい。
It should be noted that the present invention is not limited to the above-described embodiment, and modifications, improvements, etc. within a scope that can achieve the object of the present invention are included in the present invention.
In this embodiment, for example, a camera device and a microphone device are provided as devices. However, the present invention is not limited to this, and any camera device or microphone device can be provided as long as the viewer's viewing state information can be acquired. That's fine.

1 放送局
3 サービスサーバ
4 受信機
14 通信部
40 ホームサーバ
44 通信部
55 関連付け部
N ネットワーク
1 Broadcasting station 3 Service server 4 Receiver 14 Communication unit 40 Home server 44 Communication unit 55 Association unit N Network

Claims (7)

ネットワークを介してサービスサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機と、前記受信機及び前記サービスサーバとネットワークを介して接続されたホームサーバと、を備える受信システムであって、
前記受信機は、前記コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び前記放送信号に含まれる前記コンテンツを特定する番組IDを前記ホームサーバに送信する受信機通信手段を有し、
前記ホームサーバは、
前記受信機から送信された前記時刻情報及び前記番組IDと、前記所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け手段と、
前記関連付け手段で生成した前記関連付け情報を前記サービスサーバに送信するホームサーバ通信手段と、を有する受信システム。
A receiver connected to a service server via a network and receiving a broadcast signal including content broadcast by a broadcasting station, and a home server connected via the network to the receiver and the service server A system,
The receiver includes receiver communication means for transmitting time information indicating a relative reproduction start timing of a predetermined scene in the content and a program ID for specifying the content included in the broadcast signal to the home server,
The home server is
Association means for generating association information in which the time information and the program ID transmitted from the receiver are associated with the viewing state of the viewer when viewing the predetermined scene;
And a home server communication unit that transmits the association information generated by the association unit to the service server.
前記ホームサーバは、前記所定シーンを視聴した時の視聴者の視聴状態を取得する視聴状態取得手段が接続される外部機器接続手段を備える請求項1に記載の受信システム。   The receiving system according to claim 1, wherein the home server includes an external device connection unit to which a viewing state acquisition unit that acquires a viewing state of a viewer when viewing the predetermined scene is connected. 前記ホームサーバは、ネットワークを介して携帯端末に接続され、
前記外部機器接続手段は、前記ホームサーバ通信手段を介して、前記携帯端末が備える又は前記携帯端末に接続された前記視聴状態取得手段が接続される、
請求項2に記載の受信システム。
The home server is connected to a mobile terminal via a network,
The external device connection means is connected to the viewing state acquisition means included in or connected to the mobile terminal via the home server communication means.
The receiving system according to claim 2.
前記ホームサーバは、前記所定シーンを視聴した時の視聴者の視聴状態を取得する視聴状態取得手段、
を備える請求項1に記載の受信システム。
The home server includes a viewing state acquisition unit that acquires a viewing state of a viewer when viewing the predetermined scene;
The receiving system according to claim 1.
前記視聴状態取得手段は、画像を取得するカメラデバイスであり、
前記関連付け手段は、
前記外部機器接続手段を介して、前記所定シーンを視聴した時の視聴者を撮影した前記画像を前記カメラデバイスから取得する画像情報取得手段と、
前記時刻情報を取得する相対時間情報取得手段と、
前記番組IDを取得するID取得手段と、
前記画像情報取得手段が取得した前記画像と、前記相対時間情報取得手段が取得した前記時刻情報と、前記ID取得手段が取得した前記番組IDと、を関連付けた画像関連付け情報を生成する画像関連付け手段と、
を備える請求項2又は3に記載の受信システム。
The viewing state acquisition means is a camera device that acquires an image,
The association means includes
Image information acquisition means for acquiring, from the camera device, the image obtained by photographing the viewer when viewing the predetermined scene via the external device connection means;
Relative time information acquisition means for acquiring the time information;
ID acquisition means for acquiring the program ID;
Image association means for generating image association information associating the image acquired by the image information acquisition means, the time information acquired by the relative time information acquisition means, and the program ID acquired by the ID acquisition means. When,
The receiving system according to claim 2 or 3.
前記視聴状態取得手段は、音声情報を取得するマイクデバイスであり、
前記関連付け手段は、
前記外部機器接続手段を介して、視聴者が前記所定シーンを視聴した時に発した前記音声情報を前記マイクデバイスから取得する音声情報取得手段と、
前記時刻情報を取得する相対時間情報取得手段と、
前記番組IDを取得するID取得手段と、
前記音声情報取得手段が取得した前記音声情報と、前記相対時間情報取得手段が取得した前記時刻情報と、前記ID取得手段が取得した前記番組IDと、を関連付けた音声関連付け情報を生成する音声関連付け手段と、
を備える請求項2又は3に記載の受信システム。
The viewing state acquisition means is a microphone device that acquires audio information,
The association means includes
Audio information acquisition means for acquiring, from the microphone device, the audio information emitted when a viewer views the predetermined scene via the external device connection means;
Relative time information acquisition means for acquiring the time information;
ID acquisition means for acquiring the program ID;
Audio association for generating audio association information in which the audio information acquired by the audio information acquisition unit, the time information acquired by the relative time information acquisition unit, and the program ID acquired by the ID acquisition unit are associated with each other. Means,
The receiving system according to claim 2 or 3.
ネットワークを介してサービスサーバに接続され、放送局が放送したコンテンツを含んだ放送信号を受信する受信機及び前記サービスサーバとネットワークを介して接続されたホームサーバを制御するコンピュータを、
前記受信機から送信された前記コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報及び前記放送信号に含まれる前記コンテンツを特定する番組IDと、前記所定シーンを視聴した時の視聴者の視聴状態と、を関連付けた関連付け情報を生成する関連付け手段、
前記関連付け手段により生成された前記関連付け情報を前記サービスサーバに送信する制御を実行する通信手段、
として機能させるプログラム。
A receiver connected to a service server via a network and receiving a broadcast signal including content broadcast by a broadcasting station, and a computer for controlling a home server connected to the service server via the network;
Time information indicating the relative playback start timing of a predetermined scene in the content transmitted from the receiver, a program ID for specifying the content included in the broadcast signal, and the viewer when viewing the predetermined scene An association means for generating association information associating a viewing state with
Communication means for executing control for transmitting the association information generated by the association means to the service server;
Program to function as.
JP2011111813A 2011-05-18 2011-05-18 Receiver and program Withdrawn JP2012244363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011111813A JP2012244363A (en) 2011-05-18 2011-05-18 Receiver and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011111813A JP2012244363A (en) 2011-05-18 2011-05-18 Receiver and program

Publications (1)

Publication Number Publication Date
JP2012244363A true JP2012244363A (en) 2012-12-10

Family

ID=47465613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011111813A Withdrawn JP2012244363A (en) 2011-05-18 2011-05-18 Receiver and program

Country Status (1)

Country Link
JP (1) JP2012244363A (en)

Similar Documents

Publication Publication Date Title
JP6247309B2 (en) Apparatus and method for processing interactive services
EP2910029B1 (en) Apparatus and method for processing an interactive service
JP5493627B2 (en) Information processing apparatus, data management method, and program
US9661371B2 (en) Method for transmitting a broadcast service, apparatus for receiving same, and method for processing an additional service using the apparatus for receiving same
JP6109736B2 (en) Program switching control device and program
US9838741B2 (en) Method for transmitting broadcast service, method for receiving broadcast service, and apparatus for receiving broadcast service
KR101838084B1 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
US20130305292A1 (en) Media synchronization within home network using set-top box as gateway
Boronat et al. HbbTV-compliant platform for hybrid media delivery and synchronization on single-and multi-device scenarios
KR101841313B1 (en) Methods for processing multimedia flows and corresponding devices
JP5979646B2 (en) Receiving machine
JP5854637B2 (en) Receiving machine
JP2012244338A (en) Terminal cooperation system
JP5843480B2 (en) Receiver and program
JP5859223B2 (en) Receiver and program
JP5864131B2 (en) Broadcast communication system, server and program
JP2012242983A (en) Content distribution server
JP5854636B2 (en) Receiver and program
WO2012157753A1 (en) Integrated broadcast/communication reception device
JP2012244363A (en) Receiver and program
CN107005745B (en) Method and apparatus for encapsulating a stream of audiovisual content
JP5854068B2 (en) Information processing apparatus, data management method, and program
JP2015167400A (en) Information processor, data management method and program
JP2012257237A (en) Broadcast communication cooperation receiving device
JP2012257238A (en) Broadcast communication cooperation receiving device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805