JP5859223B2 - Receiver and program - Google Patents

Receiver and program Download PDF

Info

Publication number
JP5859223B2
JP5859223B2 JP2011111797A JP2011111797A JP5859223B2 JP 5859223 B2 JP5859223 B2 JP 5859223B2 JP 2011111797 A JP2011111797 A JP 2011111797A JP 2011111797 A JP2011111797 A JP 2011111797A JP 5859223 B2 JP5859223 B2 JP 5859223B2
Authority
JP
Japan
Prior art keywords
information
unit
receiver
broadcast
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011111797A
Other languages
Japanese (ja)
Other versions
JP2012244360A (en
Inventor
香子 有安
香子 有安
藤沢 寛
寛 藤沢
保明 金次
保明 金次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2011111797A priority Critical patent/JP5859223B2/en
Publication of JP2012244360A publication Critical patent/JP2012244360A/en
Application granted granted Critical
Publication of JP5859223B2 publication Critical patent/JP5859223B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、放送と通信の連携を図る機能を有する受信機及びプログラムに関する。   The present invention relates to a receiver and a program having a function of coordinating broadcasting and communication.

近年、放送のデジタル化と通信のブロードバンド化の進展に伴い、放送通信連携サービスの実現に向けた研究開発が行われている。   In recent years, with the progress of digitalization of broadcasting and broadbandization of communication, research and development for realizing a broadcasting / communication cooperation service has been performed.

また、この放送通信連携サービスにおいては、放送と通信という異なる伝送路を用いて複数のコンテンツを配信し、デジタルテレビ等の受信機において、配信された複数のコンテンツを統合して提示する形態が想定される。   In this broadcasting / communication cooperation service, it is assumed that a plurality of contents are distributed using different transmission paths of broadcasting and communication, and the plurality of distributed contents are integrated and presented in a receiver such as a digital television. Is done.

ところで、現在、データ放送では、XML(eXtensible Markup Language)をベースとした、マルチメディア符号化用に開発されたBML(Broadcast Markup Language)という放送サービスに必要な機能を拡張した言語を用いて、様々なコンテンツが提供されている(特許文献1を参照)。   By the way, at present, in data broadcasting, various languages used for the broadcasting service called BML (Broadcast Markup Language) developed for multimedia encoding based on XML (extensible Markup Language) are used. Content is provided (see Patent Document 1).

特開2003−60931号公報JP 2003-60931 A

ところで、データ放送では、全ての情報を放送波に多重化させる必要があるため、放送波で送信可能なデータ容量に一定の制限がある。   By the way, in data broadcasting, since it is necessary to multiplex all information on a broadcast wave, there is a certain limitation on the data capacity that can be transmitted on the broadcast wave.

そこで、放送に対して、送信可能なデータ容量に制限のない通信との連携させるシステムの実現が望まれている。   Therefore, it is desired to realize a system that links broadcasting with communication with no limit on the data capacity that can be transmitted.

特に、このような放送と通信の連携を図るシステムでは、通信により受信機に対して各種サービスを提供するサーバが構築される。
従って、例えば、放送局が放送したコンテンツのうち所定シーンに対する視聴者の視聴状態、例えば当該所定シーンを視聴しているときの視聴者の表情や音声等を、多数の受信機の各々から取得して、サービスに活用するサーバが現れてくることが想定される。
In particular, in such a system that links broadcasting and communication, a server that provides various services to the receiver by communication is constructed.
Therefore, for example, the viewer's viewing state of a predetermined scene in the content broadcast by the broadcast station, for example, the viewer's facial expression and sound when viewing the predetermined scene, is acquired from each of a number of receivers. Thus, it is assumed that servers will be used for services.

この場合、視聴者の表情を撮影するカメラや、視聴者の音声を入力するマイクロフォンといったデバイスを、受信機に接続させて機能させるための適切な仕組みの実現が要求される。   In this case, it is required to implement an appropriate mechanism for connecting a device such as a camera that captures the viewer's facial expression or a microphone that inputs the viewer's voice to the receiver.

本発明は、このような状況に鑑みてなされたものであり、放送と通信の連携を図るシステムにおいて、受信機にデバイスを接続させて機能させるための適切な仕組みを実現化することを1つの目的とする。   The present invention has been made in view of such a situation, and in a system for coordinating between broadcasting and communication, it is one to realize an appropriate mechanism for connecting a device to a receiver so as to function. Objective.

本発明に係る受信機は、ネットワークを介してサーバに接続され、放送局から放送された、番組コンテンツと共に複数の情報が多重化されて構成された放送信号を受信する受信機であって、前記放送信号に多重化されて又は前記ネットワークを介して伝送されてくるアプリケーション管理情報により管理されるアプリケーションの実行を制御する実行制御手段と、前記番組コンテンツに関する情報と、デバイスからの入力情報とを関連付ける関連付け手段と、前記関連付け手段の情報と前記デバイスの情報とに基づいて、デバイスインスタンスを生成するデバイスマネージャと、前記デバイスマネージャにより生成された後、前記デバイスと前記関連付け手段とを制御し、前記アプリケーションからの入力イベント要求を受け取ると、前記デバイスから前記入力情報を取得して前記関連付け手段に供給するデバイスインスタンスと、を備える構成とした。   A receiver according to the present invention is a receiver that is connected to a server via a network and receives a broadcast signal that is broadcast from a broadcast station and is configured by multiplexing a plurality of pieces of information together with program content. Associates execution control means for controlling execution of an application managed by application management information multiplexed on a broadcast signal or transmitted via the network, information relating to the program content, and input information from the device An association unit; a device manager that generates a device instance based on the information of the association unit and the information of the device; and the device and the association unit that are generated by the device manager, and controls the application. When receiving an input event request from And a configuration and a device instance be supplied to the association means acquires the input information from the chair.

かかる構成によれば、デバイスマネージャによって、関連付け手段の情報とデバイスの情報とに基づいて、デバイスインスタンスが生成される。そして、デバイスインスタンスによって、デバイスと関連付け手段とが制御され、アプリケーションからの入力イベント要求があると、デバイスから入力情報が取得されて関連付け手段に供給される。
このようにして、放送と通信の連携を図るシステムにおいて、受信機にデバイスを接続させて機能させるための適切な仕組みが実現される。
According to this configuration, a device instance is generated by the device manager based on the association unit information and the device information. The device and the association unit are controlled by the device instance. When there is an input event request from the application, input information is acquired from the device and supplied to the association unit.
In this way, an appropriate mechanism for connecting a device to a receiver and causing it to function in a system that links broadcasting and communication is realized.

この場合、前記デバイスは、前記受信機に対して外部から接続される外部機器であり、前記デバイスマネージャは、さらに、前記外部機器としての前記デバイスを発見することが好ましい。
かかる構成によれば、デバイスマネージャによって、さらに、外部機器としてのデバイスが発見される。
これにより、放送と通信の連携を図るシステムにおいて、外部機器としてのデバイスに受信機を接続させて機能させるための適切な仕組みが実現される。
In this case, it is preferable that the device is an external device connected from the outside to the receiver, and the device manager further discovers the device as the external device.
According to this configuration, a device as an external device is further discovered by the device manager.
Thereby, in a system for coordinating broadcasting and communication, an appropriate mechanism for connecting and functioning a receiver to a device as an external device is realized.

本発明に係るプログラムは、ネットワークを介してサーバに接続され、放送局から放送された、番組コンテンツと共に複数の情報が多重化されて構成された放送信号を受信する受信機であって、前記放送信号に多重化されて又は前記ネットワークを介して伝送されてくるアプリケーション管理情報により管理されるアプリケーションの実行を制御する実行制御手段を備える受信機を制御するコンピュータを、前記番組コンテンツに関する情報と、デバイスからの入力情報とを関連付ける関連付け手段、前記関連付け手段の情報と前記デバイスの情報とに基づいて、デバイスインスタンスを生成するデバイスマネージャ、前記デバイスマネージャにより生成された後、前記デバイスと前記関連付け手段とを制御し、前記アプリケーションからの入力イベント要求を受け取ると、前記デバイスから前記入力情報を取得して前記関連付け手段に供給するデバイスインスタンス、として機能させる構成とした。
かかる構成によれば、本発明に係る受信機と同様の作用効果を奏する。
A program according to the present invention is a receiver that is connected to a server via a network and receives a broadcast signal that is broadcast from a broadcasting station and is configured by multiplexing a plurality of pieces of information together with program content. A computer that controls a receiver including an execution control unit that controls execution of an application managed by application management information multiplexed on a signal or transmitted via the network, information about the program content, and a device Associating means for associating input information from the device, a device manager for generating a device instance based on the information of the associating means and the information of the device, and after the device manager generates the device instance, the device and the associating means Control and from the application Upon receiving the power event request was configured to function as a device instance, supplied to the association means acquires the input information from the device.
According to this configuration, the same operational effects as the receiver according to the present invention can be obtained.

本発明によれば、放送と通信の連携を図るシステムにおいて、受信機にデバイスを接続させて機能させるための適切な仕組みの実現化が図られる。   According to the present invention, it is possible to realize an appropriate mechanism for connecting a device to a receiver so as to function in a system that links broadcasting and communication.

本発明の一実施形態に係る放送通信連携システムの全体構成図である。1 is an overall configuration diagram of a broadcasting / communication cooperation system according to an embodiment of the present invention. デジタル放送に係る放送信号の伝送プロトコルのスタックを示す図である。It is a figure which shows the stack | stuck of the transmission protocol of the broadcast signal which concerns on digital broadcasting. 放送通信連携システムの概要を示す図である。It is a figure which shows the outline | summary of a broadcast communication cooperation system. 受信機の機能構成を示すブロック図である。It is a block diagram which shows the function structure of a receiver. XML形式で記述されたAITの一例を示す図である。It is a figure which shows an example of AIT described in the XML format. デバイスの発見に関する動作を説明する図であって、Hybridcast機能のレイヤの関係を示す図である。It is a figure explaining operation | movement regarding discovery of a device, Comprising: It is a figure which shows the relationship of the layer of Hybridcast function. デバイス接続部の概念を示す図である。It is a figure which shows the concept of a device connection part. 動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、所定の外部機器がデバイスとして接続されたときのシーケンス図である。FIG. 10 is a sequence diagram when a predetermined external device is connected as a device when a service of a Hybridcast application that uses the device for operation recognition or the like is started. デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンス図である。FIG. 10 is a sequence diagram of a description and a control portion by a device instance when the power state of the device is an OFF state. 動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、デバイスとして受信機の内蔵機器を用いる場合のシーケンス図である。FIG. 10 is a sequence diagram when a built-in device of a receiver is used as a device when a service of a Hybridcast application that uses the device for operation recognition or the like is started. 関連付け部の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of an correlation part. 図11の関連付け部の処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a process of the correlation part of FIG. 関連付け部の機能構成の一例であって、図11とは異なる例を示すブロック図である。FIG. 12 is a block diagram illustrating an example of a functional configuration of an associating unit that is different from FIG. 11. 図13の関連付け部の処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a process of the correlation part of FIG.

以下、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の一実施形態に係る放送通信連携システム100の全体構成図である。放送通信連携システム100は、放送局1と、放送用アンテナ2と、サービスサーバ3と、受信機4とを含んで構成される。この放送通信連携システム100では、受信機4において、ISDB(Integrated Services Digital Broadcasting:統合デジタル放送サービス)方式によって放送局1から提供される放送サービスと、インターネット等により構成される通信ネットワークNを介してサービスサーバ3から提供される通信サービスとが連携される。これにより、放送通信連携サービスが受信機4のユーザに提供される。
本実施形態では、放送通信連携システム100は、Hybridcast(登録商標)システムであるものとする。Hybridcastとは、同報性、高品質、高信頼という放送の特徴と、視聴者の個別の要求に応えることができるという通信の特徴とを生かしたシステムを構築するための仕組みである。Hybridcastシステムは、放送サービスを中心に置きながら、通信の活用によってサービスを強化するという観点で、放送と通信のハイブリッドサービスを実現することができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an overall configuration diagram of a broadcasting / communication cooperation system 100 according to an embodiment of the present invention. The broadcasting / communication cooperation system 100 includes a broadcasting station 1, a broadcasting antenna 2, a service server 3, and a receiver 4. In the broadcasting / communication cooperation system 100, a receiver 4 uses a broadcasting service provided from a broadcasting station 1 by an ISDB (Integrated Services Digital Broadcasting) system and a communication network N configured by the Internet or the like. A communication service provided from the service server 3 is linked. Thereby, the broadcasting / communication cooperation service is provided to the user of the receiver 4.
In the present embodiment, the broadcasting / communication cooperation system 100 is a Hybridcast (registered trademark) system. Hybridcast is a mechanism for constructing a system that takes advantage of broadcast characteristics such as broadcastability, high quality, and high reliability and communication characteristics that can meet the individual demands of viewers. The Hybridcast system can realize a hybrid service of broadcasting and communication from the viewpoint of strengthening the service by utilizing communication while placing the broadcasting service at the center.

放送局1は、番組編成設備と、番組送出設備と、送信設備とを含んで構成される一般的なデジタル放送用の放送設備(図示省略)を備える。
放送局1は、放送設備によって、コンテンツや、イベント情報(Event Information Table:EIT)や、AIT(以下、アプリケーション管理情報とも適宜呼ぶ)等を制作する。そして、放送局1は、放送設備によって、これらコンテンツ、イベント情報及びAIT等を多重化した放送信号を生成し、当該放送信号を放送波に変調して放送用アンテナ2から送信する。
The broadcasting station 1 includes a general digital broadcasting broadcasting facility (not shown) configured to include a program organization facility, a program transmission facility, and a transmission facility.
The broadcasting station 1 produces contents, event information (Event Information Table: EIT), AIT (hereinafter also referred to as application management information as appropriate), and the like, using broadcasting equipment. Then, the broadcast station 1 generates a broadcast signal in which these contents, event information, AIT, and the like are multiplexed by a broadcast facility, modulates the broadcast signal into a broadcast wave, and transmits the broadcast signal from the broadcast antenna 2.

このような放送波に含まれるコンテンツとしては、放送スケジュールに従って放送される番組を構成する映像や音声の各データを含むコンテンツ(以下、番組コンテンツと呼ぶ)の他、番組コンテンツとは非同期に発生するコンテンツ、例えば緊急地震速報等を含むコンテンツ(以下、緊急コンテンツと呼ぶ)も存在する。   Content included in such broadcast waves is generated asynchronously with program content in addition to content including video and audio data constituting a program broadcast according to a broadcast schedule (hereinafter referred to as program content). There is content (hereinafter referred to as emergency content) including content, for example, earthquake early warning.

イベント情報は、番組コンテンツの名称、番組コンテンツの放送日時、番組コンテンツの説明等、コンテンツに関するメタ情報を含む。以下、テーブル形式のイベント情報をEITと呼ぶ。
AIT(アプリケーション管理情報)は、受信機4で実行可能な1以上のアプリケーションを管理するための情報である。AITには、1以上のアプリケーションのそれぞれに対応し、当該1以上のアプリケーションのそれぞれを管理するための個別管理情報が含まれる。個別管理情報には、管理対象のアプリケーションを識別するアプリケーションID、当該アプリケーションのライフサイクルを制御するライフサイクル制御情報、当該アプリケーションの所在を示すロケーション情報等が含まれている(後述の図5参照)。
The event information includes meta information related to the content such as the name of the program content, the broadcast date and time of the program content, and the description of the program content. Hereinafter, the event information in the table format is referred to as EIT.
The AIT (application management information) is information for managing one or more applications that can be executed by the receiver 4. The AIT includes individual management information corresponding to each of the one or more applications and managing each of the one or more applications. The individual management information includes an application ID for identifying an application to be managed, life cycle control information for controlling the life cycle of the application, location information indicating the location of the application (see FIG. 5 described later), and the like. .

アプリケーションにより提供されるコンテンツには、番組コンテンツに連動するコンテンツ及び番組コンテンツに連動しないコンテンツが含まれる。以下、アプリケーションにより提供されるコンテンツをアプリ用コンテンツという。   The content provided by the application includes content linked to the program content and content not linked to the program content. Hereinafter, content provided by an application is referred to as application content.

放送信号は、従来のデジタル放送の放送信号と同一であり、ARIB(登録商標)(Association of Radio Industries and Broadcast:社団法人電波産業会)標準規格で規定される。   The broadcast signal is the same as the broadcast signal of the conventional digital broadcast, and is defined by ARIB (registered trademark) (Association of Radio Industries and Broadcast) standard.

図2は、デジタル放送に係る放送信号の伝送プロトコルのスタックを示す図である。図2に示すように、デジタル放送によって提供される映像、音声等の各種データは、国際標準規格MPEG−2 Systemsで規定されるTSパケット(トランスポートストリームパケット)に格納されて、時分割で多重伝送される。   FIG. 2 is a diagram illustrating a stack of broadcast signal transmission protocols related to digital broadcasting. As shown in FIG. 2, various types of data such as video and audio provided by digital broadcasting are stored in TS packets (transport stream packets) defined by the international standard MPEG-2 Systems and multiplexed in a time division manner. Is transmitted.

TSパケットには、図2に示すように、セクション(Section)に対してPSI(Program Specific Information)/SI(Service Information)が規定されている。PSI/SIには、TSパケットに格納されているデータの種別を示す情報や、コンテンツの種別を示す情報が含まれている。上述のEITは、SIに含まれている。   In the TS packet, as shown in FIG. 2, PSI (Program Specific Information) / SI (Service Information) is defined for a section (Section). PSI / SI includes information indicating the type of data stored in the TS packet and information indicating the type of content. The above-mentioned EIT is included in SI.

TSパケットによるデータ伝送は、セクションを用いてデータを伝送する方式とPES(Packetized Elementary Stream)パケットを用いてデータを伝送する方式(データストリーム伝送方式)とに分類される。   Data transmission using TS packets is classified into a method of transmitting data using sections and a method of transmitting data using PES (Packetized Elementary Stream) packets (data stream transmission method).

セクションを用いてデータを伝送する方式には、データカルーセル伝送方式と、イベントメッセージ伝送方式がある。   Methods for transmitting data using sections include a data carousel transmission method and an event message transmission method.

データカルーセル伝送方式は、1以上のデータを一定周期で繰り返し伝送する伝送方式である。データカルーセル伝送方式によって伝送される個々のデータ(モジュール)には、それらを一意に識別するための識別情報が付されている。データカルーセル伝送方式は、受信機4側に個々のデータを任意のタイミングで取得させるために用いられる。   The data carousel transmission system is a transmission system that repeatedly transmits one or more data at a constant period. Each piece of data (module) transmitted by the data carousel transmission method is attached with identification information for uniquely identifying them. The data carousel transmission method is used for causing the receiver 4 to acquire individual data at an arbitrary timing.

イベントメッセージ伝送方式は、放送局1から受信機4に対して、トリガ信号を送るための方式である。イベントメッセージ伝送方式は、データ量が少ないメッセージを放送局1から受信機4に伝送する場合に用いられる。   The event message transmission method is a method for sending a trigger signal from the broadcast station 1 to the receiver 4. The event message transmission method is used when a message with a small amount of data is transmitted from the broadcasting station 1 to the receiver 4.

データストリーム伝送方式は、伝送するデータをPESパケットに収容してストリームとして伝送する伝送方式である。データストリーム伝送方式は、映像、音声、字幕データ等のリアルタイム型のデータや、他のストリームとの同期を要するデータの伝送に用いられる。   The data stream transmission method is a transmission method in which data to be transmitted is contained in a PES packet and transmitted as a stream. The data stream transmission method is used for transmitting real-time data such as video, audio, and caption data, and data that needs to be synchronized with other streams.

ここで、AITは、TSパケットを用いて様々な方法によって伝送可能である。
即ち、AITは、TSパケットのSIに含まれるEITに対して記述することによって伝送可能である。
Here, AIT can be transmitted by various methods using TS packets.
That is, the AIT can be transmitted by describing the EIT included in the SI of the TS packet.

また、AITは、セクションを用いてデータカルーセル伝送方式により伝送可能である。AITをデータカルーセル伝送方式により伝送する場合、受信機4側でAITであることを認識できるようにモジュールに対して識別情報が付される。   The AIT can be transmitted by a data carousel transmission system using sections. When the AIT is transmitted by the data carousel transmission method, identification information is attached to the module so that the receiver 4 can recognize the AIT.

また、AITは、PESとしてコンテンツの映像や音声に多重させて伝送可能である。   The AIT can be transmitted as PES multiplexed with content video and audio.

また、AITは、バイナリ表現又はXML(Extensible Markup Language)によるテキスト表現で記述して、TSパケットに格納することができる。
本実施形態では、AITの伝送方法は、上記の伝送方法の少なくともいずれかに予め規定されているものとする。
The AIT can be described in binary representation or text representation by XML (Extensible Markup Language) and stored in the TS packet.
In this embodiment, the AIT transmission method is defined in advance in at least one of the above transmission methods.

なお、XMLをベースとした、マルチメディア符号化用に開発されたBMLは、W3C(登録商標)(World Wide Web Consortium)が定義したxHTMLを基礎とし、手続き型言語にはJavaScript(登録商標)を基礎としたECMAScriptを用いて国際標準との整合性を考慮して定義された規格である。   BML developed for multimedia coding based on XML is based on xHTML defined by W3C (Registered Trademark) (World Wide Web Consortium), and Java Script (Registered Trademark) is used as a procedural language. This is a standard defined in consideration of consistency with international standards using ECMAScript based on it.

サービスサーバ3は、図示は省略するが、放送済みの番組コンテンツや、アプリ用コンテンツを配信するコンテンツ配信サーバと、受信機4で動作する各種のアプリケーションを配信するアプリケーション配信サーバとを備える。   Although not shown, the service server 3 includes a content distribution server that distributes broadcasted program content and application content, and an application distribution server that distributes various applications that operate on the receiver 4.

サービスサーバ3は、放送局1の設備と通信可能に接続されており、番組コンテンツや、番組コンテンツのメタデータを放送局1から受信する。
サービスサーバ3は、受信機4から番組コンテンツの取得要求を受け付けたことに応じて、受信機4に対して番組コンテンツを送信する。
The service server 3 is communicably connected to the equipment of the broadcast station 1 and receives program content and metadata of the program content from the broadcast station 1.
The service server 3 transmits the program content to the receiver 4 in response to receiving the program content acquisition request from the receiver 4.

また、サービスサーバ3は、受信機4からアプリケーションの取得要求を受け付けたことに応じて、受信機4に対してアプリケーションを送信する。さらに、サービスサーバ3は、受信機4においてアプリケーションが実行されている場合に、映像や音声等の各データを含むアプリ用コンテンツを受信機4に送信する。   Further, the service server 3 transmits the application to the receiver 4 in response to receiving the application acquisition request from the receiver 4. Furthermore, the service server 3 transmits application content including data such as video and audio to the receiver 4 when an application is executed in the receiver 4.

また、サービスサーバ3は、必要に応じて、番組コンテンツに対してAITを多重化させて受信機4に送信する。また、サービスサーバ3は、受信機4からAITの取得要求を受け付けたことに応じて、受信機4に対してAITを送信する。   Further, the service server 3 multiplexes the AIT with the program content as necessary, and transmits the multiplexed AIT to the receiver 4. Further, the service server 3 transmits an AIT to the receiver 4 in response to receiving an AIT acquisition request from the receiver 4.

また、サービスサーバ3は、番組コンテンツの所定シーンに対する視聴者の視聴状態を示す情報(以下、視聴状態情報と呼ぶ)と、放送局1から放送された放送信号に含まれる番組コンテンツを特定する番組IDと、を関連付けた関連付け情報を受信機4から受信する。
ここで、関連付け情報には、視聴状態情報が所定シーンを視聴した時の視聴者の画像である画像関連付け情報と、視聴状態情報が所定シーンを視聴した時の視聴者の音声情報である音声関連付け情報と、が含まれる。
In addition, the service server 3 is a program for specifying program content included in information indicating a viewer's viewing state (hereinafter referred to as viewing state information) for a predetermined scene of the program content and a broadcast signal broadcast from the broadcast station 1. The association information in which the ID is associated is received from the receiver 4.
Here, the association information includes image association information, which is an image of the viewer when the viewing state information views the predetermined scene, and audio association, which is the audio information of the viewer when the viewing state information views the predetermined scene. Information.

また、サービスサーバ3は、受信機4から受信した画像関連付け情報をもとに、視聴者の動作認識や表情認識を行い、これを用いて視聴者の番組に関する関心度等を算出し、当該視聴者に勧める番組や当該番組や所定シーンに関連する情報を生成し、当該情報を受信機4や受信機4に接続された携帯端末等に送信する。   Further, the service server 3 performs viewer motion recognition and facial expression recognition based on the image association information received from the receiver 4, and uses this to calculate the degree of interest related to the viewer's program and the like. A program recommended to the user or information related to the program or a predetermined scene is generated, and the information is transmitted to the receiver 4 or a portable terminal connected to the receiver 4.

また、サービスサーバ3は、受信機4から受信した音声関連付け情報をもとに、視聴者の発話内容や周囲の暗騒音区間を抽出し、この抽出の結果を用いて視聴者の番組に関する関心度等を算出し、当該視聴者に勧める番組や当該番組や所定シーンに関連する情報を生成し、当該情報を受信機4や受信機4に接続された携帯端末等に送信する。   Further, the service server 3 extracts the utterance content of the viewer and the surrounding background noise section based on the voice association information received from the receiver 4, and uses this extraction result to show the degree of interest regarding the viewer's program. And the like, and a program recommended for the viewer and information related to the program and a predetermined scene are generated, and the information is transmitted to the receiver 4 and a mobile terminal connected to the receiver 4.

受信機4は、放送局1からの放送又はサービスサーバ3との通信を介して受信する番組コンテンツに対して所定の処理を行うことにより、番組コンテンツを構成する映像や音声を同期して出力する。また、受信機4は、AITに基づいて、アプリケーションを適宜取得し、取得したアプリケーションを起動して実行する。また例えば、受信機4は、実行されているアプリケーションによってサービスサーバ3からアプリ用コンテンツを取得し、番組コンテンツに連携させて出力することも可能である。なお、アプリ用コンテンツの出力は、必ずしも番組コンテンツに連携させる必要はない。
以下、このような受信機4の機能について詳述する。
The receiver 4 performs predetermined processing on the program content received from the broadcast station 1 or through communication with the service server 3 to output the video and audio constituting the program content synchronously. . Further, the receiver 4 appropriately acquires an application based on the AIT, and activates and executes the acquired application. Further, for example, the receiver 4 can acquire application content from the service server 3 by an application being executed, and output the content in cooperation with the program content. Note that the output of application content does not necessarily have to be linked to program content.
Hereinafter, the function of the receiver 4 will be described in detail.

まず、理解を容易にするため、図3を参照して、受信機4が有する機能の一部の概要を説明する。
図3は、放送通信連携システム100の概要を示す図である。
First, in order to facilitate understanding, an outline of some of the functions of the receiver 4 will be described with reference to FIG.
FIG. 3 is a diagram showing an outline of the broadcasting / communication cooperation system 100.

図3の例では、視聴状態情報として、視聴者の顔の表情が写った画像のデータ、及び、視聴者が発声した音声のデータが採用されている。このため、当該画像を撮影するためのカメラデバイス5、及び、視聴者の音声を入力するためのマイクロフォンデバイス6(以下、マイクデバイス6と略称する)が、受信機4に接続されている。なお、図3においては、カメラデバイス5とマイクデバイス6とは受信機4からみて外部機器となっているが、これはあくまでも例示であって、後述するように、カメラデバイス5及びマイクデバイス6は受信機4に内蔵されていてもよい。また、受信機4は、スマートフォンや携帯電話機等で構成される携帯端末10と連動して動作することもできる。   In the example of FIG. 3, as viewing state information, data of an image showing the facial expression of the viewer and audio data uttered by the viewer are employed. For this reason, a camera device 5 for capturing the image and a microphone device 6 (hereinafter abbreviated as a microphone device 6) for inputting a viewer's voice are connected to the receiver 4. In FIG. 3, the camera device 5 and the microphone device 6 are external devices when viewed from the receiver 4, but this is only an example, and as will be described later, the camera device 5 and the microphone device 6 are It may be built in the receiver 4. The receiver 4 can also operate in conjunction with the mobile terminal 10 configured with a smartphone, a mobile phone, or the like.

受信機4は、放送局1が放送した番組コンテンツを含んだ放送信号を受信して、当該番組コンテンツを再生する。
このとき、受信機4は、当該番組コンテンツにおける所定シーンを再生させているときに、カメラデバイス5に視聴者を撮影させて、その結果得られる画像のデータを視聴状態情報として取得したり、マイクデバイス6から入力した視聴者の音声のデータを視聴状態情報として取得する。
また、受信機4は、当該番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報を取得する。
さらに、受信機4は、当該番組コンテンツを特定する番組IDを取得する。
次に、受信機4は、これら取得した情報を関連付けた情報(以下、関連付け情報と呼ぶ)を生成する。即ち、当該番組コンテンツにおける所定シーンについての視聴状態情報並びに時刻情報、及び番組IDが関連付けられた関連付け情報が生成される。
そして、受信機4は、関連付け情報を、通信によりサービスサーバ3に提供する。
The receiver 4 receives a broadcast signal including program content broadcast by the broadcast station 1 and reproduces the program content.
At this time, the receiver 4 causes the camera device 5 to photograph the viewer while reproducing a predetermined scene in the program content, and obtains image data obtained as a result as viewing state information, The audio data of the viewer input from the device 6 is acquired as viewing state information.
Further, the receiver 4 acquires time information indicating the relative playback start timing of a predetermined scene in the program content.
Furthermore, the receiver 4 acquires a program ID that identifies the program content.
Next, the receiver 4 generates information associated with the acquired information (hereinafter referred to as association information). That is, the viewing state information and time information about the predetermined scene in the program content, and association information in which the program ID is associated are generated.
Then, the receiver 4 provides the association information to the service server 3 by communication.

サービスサーバ3は、関連付け情報を受信すると、これに対するサービスフィードバック情報として、当該番組コンテンツの所定シーンに関連する各種情報や、当該視聴者に推薦する別の番組コンテンツの情報を、受信機4や携帯端末10に送信する。   Upon receiving the association information, the service server 3 receives various information related to a predetermined scene of the program content and information on another program content recommended to the viewer as service feedback information for the receiver 4 or the mobile phone. Transmit to the terminal 10.

さらに以下、図4を参照して、受信機4について詳述する。
図4は、受信機4の機能構成を示すブロック図である。
受信機4は、放送波受信部11と、第1分離部12と、放送AIT取得部13と、通信部14と、第2分離部15と、通信AIT取得部16と、アプリケーション実行制御部17と、音声制御部18と、表示制御部19と、スピーカ20と、ディスプレイ21と、メモリ22と、AIT記憶部23、外部機器接続手段としてのデバイス接続部24と、関連付け部25とを備える。
Hereinafter, the receiver 4 will be described in detail with reference to FIG.
FIG. 4 is a block diagram illustrating a functional configuration of the receiver 4.
The receiver 4 includes a broadcast wave reception unit 11, a first separation unit 12, a broadcast AIT acquisition unit 13, a communication unit 14, a second separation unit 15, a communication AIT acquisition unit 16, and an application execution control unit 17. A voice control unit 18, a display control unit 19, a speaker 20, a display 21, a memory 22, an AIT storage unit 23, a device connection unit 24 as an external device connection unit, and an association unit 25.

放送波受信部11は、放送用アンテナ2を介して放送局1から送信されている放送波を受信する。   The broadcast wave receiving unit 11 receives a broadcast wave transmitted from the broadcast station 1 via the broadcast antenna 2.

第1分離部12は、放送波受信部11に受信された放送波を復調することによって、放送信号、即ちTSパケットを抽出する。そして、第1分離部12は、TSパケットのPSI/SIを参照して、TSパケットに含まれているデータの種別を判別し、映像、音声、EIT、番組ID等の各種データを分離して抽出する。また、第1分離部12は、予め規定されているAITの伝送方法に応じて、セクションやPESを参照してAITを分離して抽出する。   The first separator 12 extracts a broadcast signal, that is, a TS packet, by demodulating the broadcast wave received by the broadcast wave receiver 11. The first separation unit 12 refers to the PSI / SI of the TS packet, determines the type of data included in the TS packet, and separates various data such as video, audio, EIT, and program ID. Extract. Further, the first separation unit 12 separates and extracts the AIT by referring to the section and the PES according to a predetermined AIT transmission method.

続いて、第1分離部12は、TSパケットのPESに含まれているデータが音声データである場合、この音声データを音声制御部18に出力する。また、第1分離部12は、TSパケットのPESに含まれているデータが映像データである場合、この映像データを表示制御部19に出力する。   Subsequently, when the data included in the PES of the TS packet is audio data, the first separation unit 12 outputs the audio data to the audio control unit 18. In addition, when the data included in the PES of the TS packet is video data, the first separation unit 12 outputs the video data to the display control unit 19.

また、第1分離部12は、抽出したEIT、番組IDやその他の各種データをメモリ22に記憶させる。また、第1分離部12は、AITを抽出した場合、抽出したAITを放送AIT取得部13に出力する。   In addition, the first separation unit 12 stores the extracted EIT, program ID, and other various data in the memory 22. Further, when the first separation unit 12 extracts the AIT, the first separation unit 12 outputs the extracted AIT to the broadcast AIT acquisition unit 13.

放送AIT取得部13は、第1分離部12から出力されたAITを取得し、AIT記憶部23に記憶させる。   The broadcast AIT acquisition unit 13 acquires the AIT output from the first separation unit 12 and stores it in the AIT storage unit 23.

通信部14は、通信ネットワークNを介するサーバ群3との間で各種情報を送受信したり、リモートコントローラR(以下、リモコンRと略記する)からの操作信号を受信したり、携帯端末10との間で各種情報を送受信する。   The communication unit 14 transmits / receives various information to / from the server group 3 via the communication network N, receives an operation signal from a remote controller R (hereinafter abbreviated as a remote controller R), Send and receive various information between them.

第2分離部15は、サーバ群3から通信ネットワークNを介して送信されてきて通信部14に受信されたデータの種別を判別し、その判別結果に基づいてデータの出力先を分離する。例えば、第2分離部15は、受信したデータがAITであると判別した場合、このAITを通信AIT取得部16に出力する。また、第2分離部15は、受信したデータがアプリケーションであると判別した場合、このアプリケーションをアプリケーション実行制御部17に出力する。   The second separation unit 15 determines the type of data transmitted from the server group 3 via the communication network N and received by the communication unit 14, and separates the data output destination based on the determination result. For example, if the second separation unit 15 determines that the received data is an AIT, the second separation unit 15 outputs the AIT to the communication AIT acquisition unit 16. When the second separation unit 15 determines that the received data is an application, the second separation unit 15 outputs the application to the application execution control unit 17.

また、第2分離部15は、受信したデータがTSパケットであると判別した場合、映像、音声、AIT、番組ID等の各種データをTSパケットから分離して抽出する。そして、第2分離部15は、AITを抽出した場合、このAITを通信AIT取得部16に出力し、AIT以外のデータを抽出した場合、このデータをアプリケーション実行制御部17に出力する。   Further, when the second separation unit 15 determines that the received data is a TS packet, the second separation unit 15 separates and extracts various data such as video, audio, AIT, and program ID from the TS packet. The second separation unit 15 outputs this AIT to the communication AIT acquisition unit 16 when the AIT is extracted, and outputs this data to the application execution control unit 17 when data other than the AIT is extracted.

通信AIT取得部16は、第2分離部15から出力されたAITを取得し、AIT記憶部23に記憶させる。   The communication AIT acquisition unit 16 acquires the AIT output from the second separation unit 15 and stores it in the AIT storage unit 23.

アプリケーション実行制御部17は、AIT又はリモコンRを介したユーザの実行指示に基づいてアプリケーションを取得し、取得したアプリケーションの実行を制御する。例えば、アプリケーション実行制御部17は、関連付け情報を生成して出力するアプリケーションを起動した場合、当該アプリケーションの実行によって、メモリ22に記憶された番組ID及びユーザを特定するユーザIDを関連付け部25に出力する。   The application execution control unit 17 acquires an application based on a user's execution instruction via the AIT or the remote controller R, and controls execution of the acquired application. For example, when an application that generates and outputs association information is activated, the application execution control unit 17 outputs a program ID stored in the memory 22 and a user ID that identifies the user to the association unit 25 by executing the application. To do.

メモリ22は、EIT、番組ID等の番組コンテンツのメタ情報やその他各種情報を記憶する。
AIT記憶部23は、放送AIT取得部13及び通信AIT取得部16によって取得されたAITを記憶する。
The memory 22 stores meta information of program contents such as EIT and program ID and other various information.
The AIT storage unit 23 stores the AIT acquired by the broadcast AIT acquisition unit 13 and the communication AIT acquisition unit 16.

デバイス接続部24は、カメラデバイス5やマイクデバイス6等のデバイスを接続し、当該デバイスからの入力情報を視聴状態情報として関連付け部25に供給する。
具体的には、デバイス接続部24は、アプリケーション実行制御部17により実行されたアプリケーション(以下、Hybridcastアプリケーションとも呼ぶ)によって、カメラデバイス5により視聴者が撮影された結果得られる画像のデータを、視聴状態情報として取得して、関連付け部25に出力する。また、デバイス接続部24は、アプリケーション実行制御部17により実行されたアプリケーションによって、マイクデバイス6から入力された視聴者の音声のデータを、視聴状態情報として取得して、関連付け部25に出力する。
なお、デバイス接続部24に接続されるデバイスは、カメラデバイス5やマイクデバイス6に限られず、その他例えば、視聴者の位置情報を取得可能なジャイロセンサや、視聴者の動作を検知可能な光センサであってもよい。
さらに、デバイス接続部24に接続とは、外部機器に接続することのみを意味せず、内蔵機器に接続することも意味する。従って、カメラデバイス5やマイクデバイス6は、外部機器である必要は特になく、受信機4に内蔵されていてもよい。
なお、デバイス接続部24のさらなる詳細については、図6乃至図10を参照して後述する。
The device connection unit 24 connects devices such as the camera device 5 and the microphone device 6 and supplies input information from the devices to the association unit 25 as viewing state information.
Specifically, the device connection unit 24 uses the application executed by the application execution control unit 17 (hereinafter also referred to as “Hybridcast application”) to view the data of the image obtained as a result of the viewer taking a picture with the camera device 5. Obtained as state information and output to the associating unit 25. In addition, the device connection unit 24 acquires the audio data of the viewer input from the microphone device 6 as the viewing state information by the application executed by the application execution control unit 17, and outputs it to the association unit 25.
Note that the device connected to the device connection unit 24 is not limited to the camera device 5 and the microphone device 6. For example, a gyro sensor capable of acquiring viewer position information and an optical sensor capable of detecting viewer operation. It may be.
Furthermore, the connection to the device connection unit 24 does not only mean connecting to an external device but also means connecting to a built-in device. Accordingly, the camera device 5 and the microphone device 6 are not particularly required to be external devices, and may be built in the receiver 4.
Further details of the device connection unit 24 will be described later with reference to FIGS.

関連付け部25は、番組コンテンツにおける所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTSを表示制御部19から取得する。関連付け部25は、当該所定シーンを視聴した時の視聴者の視聴状態を示す視聴状態情報として、画像又は音声のデータをデバイス接続部24から取得する。関連付け部25は、番組IDやユーザID等のID情報をメモリ22から取得する。
関連付け部25は、これらの取得した情報、即ち、NPT又はPTSと、画像又は音声のデータとしての視聴状態情報と、ID情報とを関連付けることによって、関連付け情報を生成して、通信部14を介してサービスサーバ3に送信する。
なお、関連付け部25のさらなる詳細については、図11乃至図14を参照して後述する。
The associating unit 25 acquires NPT or PTS from the display control unit 19 as time information indicating the relative playback start timing of the predetermined scene in the program content. The associating unit 25 acquires image or audio data from the device connecting unit 24 as viewing state information indicating the viewing state of the viewer when viewing the predetermined scene. The associating unit 25 acquires ID information such as a program ID and a user ID from the memory 22.
The associating unit 25 generates associating information by associating the acquired information, that is, NPT or PTS, viewing state information as image or audio data, and ID information, via the communication unit 14. To the service server 3.
Further details of the associating unit 25 will be described later with reference to FIGS. 11 to 14.

さらに以下、このような機能的構成を有する受信機4のうち、デバイス接続部24について、図6乃至図10を参照して説明する。   Further, the device connection unit 24 of the receiver 4 having such a functional configuration will be described below with reference to FIGS.

上述の如く、デバイス接続部24には、カメラデバイス5やマイクデバイス6といったデバイスが接続される。ただし、デバイス接続部24は、デバイスが単に物理的に接続されたとしても、当該デバイスを発見して認識しなければ、当該デバイスからの情報を視聴状態情報として関連付け部25に出力することはできない。   As described above, devices such as the camera device 5 and the microphone device 6 are connected to the device connection unit 24. However, even if the device is simply physically connected, the device connection unit 24 cannot output information from the device as viewing state information to the association unit 25 unless the device is discovered and recognized. .

図6は、このようなデバイスの発見に関する動作を説明する図であって、Hybridcast機能のレイヤの関係を示す図である。
図6に示すように、Hybridcast機能のレイヤとしては、下層から上層に向かう順に、ハードウェア、システムソフトウェア、ヴァーチャルマシン、Hybridcast基本ライブラリ及び拡張ライブラリ、並びに、Hybridcastアプリケーションが存在する。
デバイス接続部24におけるデバイスの発見の動作は、本実施形態では、拡張ライブラリ(ソフトウェアプログラム)の1つである機器発見ライブラリによって行われる。
FIG. 6 is a diagram for explaining an operation related to discovery of such a device, and is a diagram illustrating a relationship between layers of the Hybridcast function.
As shown in FIG. 6, as a layer of the Hybridcast function, there are hardware, system software, a virtual machine, a Hybridcast basic library and an extension library, and a Hybridcast application in order from the lower layer to the upper layer.
In the present embodiment, the device discovery operation in the device connection unit 24 is performed by a device discovery library that is one of extended libraries (software programs).

図7は、デバイス接続部24の概念を示す図である。
図7に示すように、アプリケーション実行制御部17により実行されるHybridcastアプリケーションが、デバイス接続部24に設けられるデバイスマネージャやHID(Human Interface Device)等とやり取りをする。
ここで、一般的なフィジカルネットワーク層におけるデバイスマネージャインプリメンテイションやHIDインプリメンテイションは、本実施形態では、従来から存在するものが流用される。このため、図8乃至図10のシーケンス図に示すような各種各様のリスナーを実装し、同シーケンス図に示すような各種イベント等を生成して処理するクラスとして、デバイスマネージャやHIDを含むインプリメンテイションクラスを実装することにより、デバイス接続部24が実現される。
FIG. 7 is a diagram illustrating the concept of the device connection unit 24.
As shown in FIG. 7, the Hybridcast application executed by the application execution control unit 17 communicates with a device manager provided in the device connection unit 24, an HID (Human Interface Device), and the like.
Here, the device manager implementation and the HID implementation in a general physical network layer are used in the present embodiment. For this reason, various listeners as shown in the sequence diagrams of FIGS. 8 to 10 are implemented, and an implementation including a device manager and an HID is generated as a class for generating and processing various events as shown in the sequence diagrams. By implementing the entertainment class, the device connection unit 24 is realized.

図8は、動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、所定の外部機器がデバイスとして接続されたときのシーケンス図を示している。
ステップS1において、関連付け部25は、番組IDやユーザID等のID情報をメモリ22から取得する。ただし、ID情報の取得は、ステップS1の処理タイミングだけではなく、放送局1からの番組コンテンツの変わり目等で随時行われる。
FIG. 8 shows a sequence diagram when a predetermined external device is connected as a device when a service of a Hybridcast application that uses the device for operation recognition or the like is started.
In step S <b> 1, the associating unit 25 acquires ID information such as a program ID and a user ID from the memory 22. However, acquisition of ID information is performed not only at the processing timing of step S1, but also at any time at the change of the program content from the broadcast station 1.

次に、デバイスマネージャによる機器発見部分のシーケンスとして、次のようなステップS2乃至S9の処理が実行される。
ステップS2において、アプリケーション実行制御部17により実行されるHybridcastアプリケーション(図8乃至図10のシーケンス図の説明ではアプリと略称する)は、デバイス接続部24において、デバイスマネージャインスタンスを登録する。
ステップS3において、デバイスマネージャは、関連付け部25に対してアプリを通知する。
ステップS4において、関連付け部25は、関連付け部物理情報をデバイスマネージャに通知する。ここで、関連付け部物理情報とは、視聴者状態情報(画像や音声)を物理的にどこに流すべきかを示す情報である。
ステップS5において、アプリは、デバイスディスカバリーリスナを生成する。即ち、デバイスディスカバリイベントが登録される。
ステップS6において、デバイスマネージャが、HIDに対してデバイスの発見を試みる。
ステップS7において、HIDは、その応答をデバイスマネージャに返す。
ステップS8において、デバイスマネージャは、ステップS7の応答から得られたデバイス情報と、ステップS4において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
ステップS9において、デバイスマネージャは、デバイス情報をアプリに送ることによって、新しいデバイスをアプリに通知する。
Next, the following steps S2 to S9 are executed as a sequence of device discovery parts by the device manager.
In step S2, the Hybridcast application (abbreviated as “app” in the description of the sequence diagrams of FIGS. 8 to 10) executed by the application execution control unit 17 registers a device manager instance in the device connection unit 24.
In step S <b> 3, the device manager notifies the association unit 25 of the application.
In step S4, the associating unit 25 notifies the device manager of the associating unit physical information. Here, the association unit physical information is information indicating where the viewer state information (image or sound) should be physically flowed.
In step S5, the application generates a device discovery listener. That is, a device discovery event is registered.
In step S6, the device manager attempts to find a device for the HID.
In step S7, the HID returns the response to the device manager.
In step S8, the device manager generates and registers a new device instance based on the device information obtained from the response in step S7 and the association unit physical information notified in step S4.
In step S9, the device manager notifies the app of a new device by sending device information to the app.

このようにして、デバイスマネージャによる機器発見部分のシーケンスとして、ステップS2乃至S9の処理が実行されると、それに引き続き、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、次のようなステップS10乃至S14の処理が実行される。
ステップS10において、アプリは、デバイスインスタンスに対して、デバイスステイタスリスナーを登録する。
ステップS11において、デバイスインスタンスは、デバイスの状況(例えば電源状態がON状態なのかOFF状態なのかといった状況)を、HIDに対して確認する。
ステップS12において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、デバイスの電源状態がOFF状態の場合には、さらに図9に示す処理が必要になるが、この処理については後述する。
ステップS13において、デバイスインスタンスは、HIDから通知されたデバイスの状況を、アプリに通知する。
ステップS14において、デバイスインスタンスは、デバイスの入力データ(画像や音声のデータであって、視聴者状態情報になるデータ)を関連付け部25に出力する制御を実行すべく、関連付け部25の通知をHIDに対して行う。
In this way, when the processing of steps S2 to S9 is executed as a device discovery part sequence by the device manager, the following steps S10 to S14 are subsequently executed as a description and control part sequence by the device instance. The process is executed.
In step S10, the application registers a device status listener for the device instance.
In step S <b> 11, the device instance confirms the device status (for example, the status of whether the power state is ON or OFF) with respect to the HID.
In step S12, the HID notifies the device instance of the status of the device, for example, the power supply status and device specific information. If the power state of the device is OFF, the process shown in FIG. 9 is further required. This process will be described later.
In step S13, the device instance notifies the app of the device status notified from the HID.
In step S <b> 14, the device instance sends the notification of the association unit 25 to the HID so as to execute control to output the input data of the device (data that is image or audio data and becomes viewer state information) to the association unit 25. To do.

ここで、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスについて説明する。
先ず、デバイスの電源状態によらず、ステップS11の処理は実行されるが、デバイスの電源状態がOFF状態である場合には、ステップS12の処理の代わりに、図9のシーケンス図に従った処理が実行される。
図9は、デバイスの電源状態がOFF状態である場合における、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンス図である。
ステップS12−1の処理は、ステップS12と実質同一の処理である。ただし、ステップS12−1においては、電源状態がOFF状態である旨がデバイスインスタンスに通知される。
そこで、ステップS33において、デバイスインスタンスは、デバイスの電源状態をON状態に遷移させる要求(以下、デバイス電源ON要求と呼ぶ)を、デバイスマネージャに対して行う。
ステップS34において、デバイスマネージャは、デバイスの電源状態をON状態に遷移させる。
ステップS12−2において、HIDは、デバイスの状況、例えば電源状態やデバイス固有情報をデバイスインスタンスに通知する。なお、この場合、電源状態がON状態である旨がデバイスインスタンスに通知される。
その後、上述した図8のステップS13及びS14の処理が実行される。
Here, the description of the device instance and the sequence of the control part when the power state of the device is OFF will be described.
First, the process of step S11 is executed regardless of the power state of the device, but when the power state of the device is OFF, the process according to the sequence diagram of FIG. 9 is used instead of the process of step S12. Is executed.
FIG. 9 is a sequence diagram of the description by the device instance and the control part when the power state of the device is OFF.
The process of step S12-1 is substantially the same as step S12. However, in step S12-1, the device instance is notified that the power state is OFF.
In step S33, the device instance makes a request to the device manager to change the power state of the device to the ON state (hereinafter referred to as a device power ON request).
In step S34, the device manager changes the power state of the device to the ON state.
In step S12-2, the HID notifies the device instance of the device status, for example, the power supply status and device-specific information. In this case, the device instance is notified that the power state is ON.
Thereafter, the processes of steps S13 and S14 of FIG. 8 described above are executed.

このようにして、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスとして、図8のステップS10乃至S14の処理(デバイスの電源状態がOFF状態の場合図9の処理)が実行されると、次に引き続き、次のようなステップS15乃至S19の処理が実行される。
ステップS15において、アプリは、デバイスインスタンスに対して、入力イベントを要求する。
ステップS16において、デバイスインスタンスは、HIDに対して、入力イベントを要求する。
ステップS17において、デバイスは、即ちここでは外部機器であるカメラデバイス5又はマイクデバイス6は、画像又は音声のデータをHIDに入力する。
ステップS18において、HIDは、ステップS17の処理で入力された画像又は音声のデータを、入力データとして関連付け部25に提供する。なお、関連付け部25は、当該入力データを視聴者状態情報として取得する。
ステップS19において、表示制御部19は、ステップS18の処理時点のNPT/PTSを関連付け部25に提供する。
これ以降、アプリから入力イベントが要求される毎に、ステップS15乃至S19の処理が繰り返し実行される。
In this way, when the process of steps S10 to S14 of FIG. 8 (the process of FIG. 9 when the power state of the device is OFF) is executed as the description of the device instance and the sequence of the control part, it continues next. The following steps S15 to S19 are executed.
In step S15, the application requests an input event from the device instance.
In step S16, the device instance requests an input event from the HID.
In step S <b> 17, the device, that is, the camera device 5 or the microphone device 6, which is an external device here, inputs image or audio data to the HID.
In step S18, the HID provides the association unit 25 with the image or audio data input in the process of step S17 as input data. The associating unit 25 acquires the input data as viewer state information.
In step S19, the display control unit 19 provides the association unit 25 with the NPT / PTS at the time of processing in step S18.
Thereafter, each time an input event is requested from the application, the processes of steps S15 to S19 are repeatedly executed.

以上まとめると、デバイス接続部24においては、デバイスマネージャが機能する。このデバイスマネージャの主な機能は、HID(デバイス)を発見し、発見したデバイスのデバイス情報と、関連付け部情報とを一緒に用いてデバイスインスタンスを生成することである。
また、このようにしてデバイスマネージャにより生成されたデバイスインスタンスの機能は、アプリから入力イベントを受け取り、HIDと関連付け部25とを制御することである。
また、関連付け部25の機能は、デバイス(HID)からの入力データ(画像や音声のデータであって、視聴者状態情報となるデータ)と、受信機4の内部情報(NPT/PTSといった時間情報やID情報)とを関連付けることである。
In summary, the device manager functions in the device connection unit 24. The main function of this device manager is to discover an HID (device) and generate a device instance using the device information of the discovered device and the association unit information together.
The function of the device instance generated by the device manager in this way is to receive an input event from the application and to control the HID and the association unit 25.
The function of the associating unit 25 includes input data from the device (HID) (image and audio data and data serving as viewer state information), and internal information of the receiver 4 (time information such as NPT / PTS). Or ID information).

ところで、デバイス接続部24に接続されるデバイスは、上述したように、外部機器に特に限定されず、受信機4の内蔵機器であってもよい。   By the way, the device connected to the device connection unit 24 is not particularly limited to the external device as described above, and may be a built-in device of the receiver 4.

図10は、動作認識等でデバイスを使用するHybridcastアプリケーションのサービスが開始される際に、デバイスとして受信機4の内蔵機器を用いる場合のシーケンス図を示している。
図10と図8とを比較するに、図10のステップS51乃至S54は、図8のステップS1乃至S4と同様の処理である。
しかしながら、図10においては、図8のステップS5乃至S7に相当する処理は存在しない。内蔵機器の発見は不要だからである。このため、図10のステップS55においては、デバイスマネージャは、内蔵機器の既知情報と、ステップS54において通知された関連付け部物理情報とに基づいて、新しいデバイスインスタンスを生成して登録する。
また、図10においては、デバイスインスタンスによるディスクリプションとコントロール部分のシーケンスが存在しない。即ち、図10においては、図8のステップS10乃至S14(デバイスの電源状態がOFF状態の場合には図9)に相当する処理は存在しない。内蔵機器の場合、ステイタスリスナーは不要だからである。即ち、デバイスマネージャから状況を変更可能だからである。
なお、図10のステップS56乃至S60は、図8のステップS15乃至S19と同様の処理である。即ち、アプリから入力イベントが要求される毎に、ステップS56乃至S60の処理が繰り返し実行される。
FIG. 10 shows a sequence diagram when the built-in device of the receiver 4 is used as a device when a service of a Hybridcast application that uses the device for operation recognition or the like is started.
Comparing FIG. 10 and FIG. 8, steps S51 to S54 in FIG. 10 are the same processes as steps S1 to S4 in FIG.
However, in FIG. 10, there is no processing corresponding to steps S5 to S7 of FIG. This is because there is no need to discover the internal device. Therefore, in step S55 of FIG. 10, the device manager generates and registers a new device instance based on the known information of the built-in device and the association unit physical information notified in step S54.
In FIG. 10, there is no description of the device instance and the sequence of the control part. That is, in FIG. 10, there is no processing corresponding to steps S10 to S14 of FIG. 8 (FIG. 9 when the power supply state of the device is OFF). This is because a built-in device does not require a status listener. That is, the situation can be changed from the device manager.
Note that steps S56 to S60 in FIG. 10 are the same processes as steps S15 to S19 in FIG. That is, every time an input event is requested from the application, the processes of steps S56 to S60 are repeatedly executed.

以上、図4の機能的構成を有する受信機4のうち、デバイス接続部24の詳細について、図6乃至図10を参照して説明した。次に、このような受信機4のうち、関連付け部25の詳細について、図11乃至図14を参照して説明する。   The details of the device connection unit 24 in the receiver 4 having the functional configuration of FIG. 4 have been described above with reference to FIGS. Next, details of the associating unit 25 in the receiver 4 will be described with reference to FIGS. 11 to 14.

図11は、関連付け部25の機能構成の一例を示す機能ブロック図である。
関連付け部25は、画像情報取得部251と、相対時間情報取得部252と、ID(番組・ユーザID)取得部253と、画像関連付け部254と、により画像関連付け情報を生成する。
画像情報取得部251は、デバイス接続部24から入力データとして出力された画像(動画のコマ又は静止画)のデータ(図8のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時の視聴者が写った画像のデータを、視聴者状態情報として取得する。
相対時間情報取得部252は、表示制御部19から出力された所定シーンの相対的な再生開始タイミングを示す時刻情報として、NPT又はPTS(図8のステップS19参照)を取得する。
ID(番組・ユーザID)取得部253は、アプリケーション実行制御部17から出力された番組ID及びユーザID(図8のステップS1のID情報)を取得する。
画像関連付け部254は、画像情報取得部251に取得された画像のデータと、相対時間情報取得部252に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部253に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、画像関連付け部254により生成される関連付け情報を、特に、画像関連付け情報と呼ぶ。画像関連付け部254は、アプリケーション実行制御部17がアプリケーションを終了させるまで、随時、画像関連付け情報を通信部14に出力する。
FIG. 11 is a functional block diagram illustrating an example of a functional configuration of the associating unit 25.
The association unit 25 generates image association information using the image information acquisition unit 251, the relative time information acquisition unit 252, the ID (program / user ID) acquisition unit 253, and the image association unit 254.
The image information acquisition unit 251 views data (see step S18 in FIG. 8) of images (moving image frames or still images) output as input data from the device connection unit 24, that is, viewing when a predetermined scene of program content is viewed. Data of an image in which the viewer is shown is acquired as viewer state information.
The relative time information acquisition unit 252 acquires NPT or PTS (see step S19 in FIG. 8) as time information indicating the relative playback start timing of the predetermined scene output from the display control unit 19.
The ID (program / user ID) acquisition unit 253 acquires the program ID and the user ID (ID information in step S1 in FIG. 8) output from the application execution control unit 17.
The image association unit 254 includes the image data acquired by the image information acquisition unit 251, the NPT or PTS acquired by the relative time information acquisition unit 252, and the program acquired by the ID (program / user ID) acquisition unit 253. The association information is generated by associating the ID and the user ID. Hereinafter, the association information generated by the image association unit 254 is particularly referred to as image association information. The image association unit 254 outputs image association information to the communication unit 14 at any time until the application execution control unit 17 ends the application.

図12は、図11の例の関連付け部25の処理の流れを説明するフローチャートである。
ステップS101において、関連付け部25は、画像情報取得部251で画像(動画のコマ又は静止画)のデータを取得し、相対時間情報取得部252で時刻情報(NPT又はPTS)を取得し、ID取得部253で番組ID及びユーザIDを取得する。
ステップS102において、画像関連付け部254は、ステップS101で取得した各種情報、即ち、画像のデータ、時刻情報、並びに番組ID及びユーザIDを関連付けることによって、画像関連付け情報を生成する。
ステップS103において、画像関連付け部254は、ステップS102で生成した画像関連付け情報を通信部14に出力する。
ステップS104において、関連付け部25は、アプリケーション実行制御部17がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS101に処理を戻し、終了させた場合は本処理を終了させる。
FIG. 12 is a flowchart for explaining the processing flow of the associating unit 25 in the example of FIG.
In step S101, the associating unit 25 acquires image (moving image frame or still image) data by the image information acquiring unit 251, acquires time information (NPT or PTS) by the relative time information acquiring unit 252, and acquires ID. The unit 253 acquires a program ID and a user ID.
In step S102, the image association unit 254 generates image association information by associating various information acquired in step S101, that is, image data, time information, a program ID, and a user ID.
In step S103, the image association unit 254 outputs the image association information generated in step S102 to the communication unit 14.
In step S104, the associating unit 25 determines whether or not the application execution control unit 17 has ended the application. If the application execution control unit 17 has not ended the process, the process returns to step S101.

関連付け部25から出力された画像関連付け情報は、通信部14を介して、サービスサーバ3(図4参照)に送信される。
サービスサーバ3は、受信した画像関連付け情報をもとに画像処理を行う。これにより、サービスサーバ3は、視聴者が「どのシーンで笑った」、「どのシーンで興味を失った」等の情報を推定し、視聴者に特別な動作をさせることなく、視聴者の視聴状態を推定することが可能となる。
The image association information output from the association unit 25 is transmitted to the service server 3 (see FIG. 4) via the communication unit 14.
The service server 3 performs image processing based on the received image association information. As a result, the service server 3 estimates information such as “in which scene the viewer laughed” and “in which scene he / she lost interest”, and the viewer can watch the viewer without performing a special action. The state can be estimated.

図13は、関連付け部25の機能構成の別の例を示す機能ブロック図である。
関連付け部25は、音声情報取得部255と、相対時間情報取得部252と、ID(番組・ユーザID)取得部253と、音声関連付け部256と、により音声関連付け情報(音声の関連付けられたアップリンク情報)を生成する。
音声情報取得部255は、デバイス接続部24から入力データとして出力された音声のデータ(図8のステップS18参照)、即ち番組コンテンツの所定シーンを視聴した時に発した音声のデータを、音声情報として取得する。
音声関連付け部256は、音声情報取得部255に取得された音声情報と、相対時間情報取得部252に取得されたNPT又はPTSと、ID(番組・ユーザID)取得部253に取得された番組ID及びユーザIDと、を関連付けることによって、関連付け情報を生成する。なお、以下、音声関連付け部256により生成される関連付け情報を、特に、音声関連付け情報と呼ぶ。音声関連付け部256は、アプリケーション実行制御部17がアプリケーションを終了させるまで、随時、音声関連付け情報を通信部14に出力する。
FIG. 13 is a functional block diagram illustrating another example of the functional configuration of the associating unit 25.
The associating unit 25 includes an audio information acquiring unit 255, a relative time information acquiring unit 252, an ID (program / user ID) acquiring unit 253, and an audio associating unit 256. Information).
The audio information acquisition unit 255 uses, as audio information, audio data output from the device connection unit 24 as input data (see step S18 in FIG. 8), that is, audio data generated when a predetermined scene of the program content is viewed. get.
The audio association unit 256 includes the audio information acquired by the audio information acquisition unit 255, the NPT or PTS acquired by the relative time information acquisition unit 252, and the program ID acquired by the ID (program / user ID) acquisition unit 253. And association information is generated by associating the user ID with the user ID. Hereinafter, the association information generated by the audio association unit 256 is particularly referred to as audio association information. The voice association unit 256 outputs the voice association information to the communication unit 14 as needed until the application execution control unit 17 ends the application.

図14は、図13の例の関連付け部25の処理の流れを説明するフローチャートである。
ステップS201において、関連付け部25は、音声情報取得部255で音声情報を取得し、相対時間情報取得部252で時刻情報(NPT又はPTS)を取得し、ID取得部253で番組ID及びユーザIDを取得する。
ステップS202において、音声関連付け部256は、ステップS201で取得した各種情報、即ち、音声情報、時刻情報、番組ID及びユーザIDを関連付けることによって、音声関連付け情報を生成する。
ステップS203において、音声関連付け部256は、ステップS202で生成した音声関連付け情報を通信部14に出力する。
ステップS204において、関連付け部25は、アプリケーション実行制御部17がアプリケーションを終了させたか否かを判断し、終了させていない場合はステップS201に処理を戻し、終了させた場合は本処理を終了させる。
FIG. 14 is a flowchart for explaining the processing flow of the associating unit 25 in the example of FIG.
In step S201, the associating unit 25 acquires audio information with the audio information acquiring unit 255, acquires time information (NPT or PTS) with the relative time information acquiring unit 252, and acquires a program ID and user ID with the ID acquiring unit 253. get.
In step S202, the audio association unit 256 generates audio association information by associating various information acquired in step S201, that is, audio information, time information, a program ID, and a user ID.
In step S <b> 203, the voice association unit 256 outputs the voice association information generated in step S <b> 202 to the communication unit 14.
In step S204, the associating unit 25 determines whether or not the application execution control unit 17 has ended the application. If the application execution control unit 17 has not ended, the process returns to step S201.

本実施形態によれば、以下のような効果がある。
(1)受信機4のデバイス接続部24においては、デバイスマネージャによって、関連付け部25の情報とデバイス(例えばカメラデバイス5やマイクデバイス6)の情報とに基づいて、デバイスインスタンスが生成される。そして、デバイスインスタンスによって、デバイスと関連付け部25とが制御され、アプリケーションからの入力イベント要求があると、デバイスから入力情報が取得されて関連付け部25に供給される。
このようにして、放送と通信の連携を図るシステムにおいて、受信機4にデバイスを接続させて機能させるための適切な仕組みが実現される。
According to this embodiment, there are the following effects.
(1) In the device connection unit 24 of the receiver 4, a device instance is generated by the device manager based on information in the association unit 25 and information on devices (for example, the camera device 5 and the microphone device 6). Then, the device and the association unit 25 are controlled by the device instance, and when there is an input event request from the application, input information is acquired from the device and supplied to the association unit 25.
In this way, an appropriate mechanism for connecting the device to the receiver 4 to function in the system for coordinating broadcasting and communication is realized.

(2)デバイスマネージャによって、さらに、外部機器としてのデバイスが発見される。
これにより、放送と通信の連携を図るシステムにおいて、外部機器としてのデバイスに受信機を接続させて機能させるための適切な仕組みが実現される。
(2) The device manager further discovers a device as an external device.
Thereby, in a system for coordinating broadcasting and communication, an appropriate mechanism for connecting and functioning a receiver to a device as an external device is realized.

なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
本実施形態では、例えば、デバイスとしてカメラデバイス及びマイクデバイスを備えているが、これに限られるものではなく、視聴者の視聴状態情報を取得できる限り、カメラデバイス又はマイクデバイスのいずれかを備えればよい。
It should be noted that the present invention is not limited to the above-described embodiment, and modifications, improvements, etc. within a scope that can achieve the object of the present invention are included in the present invention.
In this embodiment, for example, a camera device and a microphone device are provided as devices. However, the present invention is not limited to this, and any camera device or microphone device can be provided as long as the viewer's viewing state information can be acquired. That's fine.

1 放送局
3 サービスサーバ
4 受信機
17 アプリケーション実行部
24 デバイス接続部
25 関連付け部
14 通信部
N ネットワーク
DESCRIPTION OF SYMBOLS 1 Broadcasting station 3 Service server 4 Receiver 17 Application execution part 24 Device connection part 25 Association part 14 Communication part N Network

Claims (3)

放送局から放送された、番組コンテンツと共に複数の情報が多重化されて構成された放送信号を受信し、ネットワークを介して接続されたサーバから通信によりアプリケーション及び映像や音声の各データを含むアプリ用コンテンツを受信し、前記放送と前記通信とを連携させることができる受信機であって、
前記放送信号に多重化されて又は前記ネットワークを介して伝送されてくるアプリケーション管理情報により管理されるアプリケーションの実行を制御する実行制御手段と、
前記番組コンテンツにおける所定シーンを出力する表示制御部から取得される前記所定シーンの相対的な再生開始タイミングを示す時刻情報と、デバイスから入力される前記所定シーンを視聴した時の視聴者の視聴状態を示す視聴状態情報と、前記放送信号に含まれる前記番組コンテンツを特定する番組IDと、を関連付けた関連付け情報を生成する関連付け手段と、
前記関連付け手段の視聴者状態情報を物理的にどこに流すべきかを示す情報とデバイス情報とに基づいて、デバイスインスタンスを生成するデバイスマネージャと、
前記デバイスマネージャにより生成された後、前記デバイスと前記関連付け手段とを制御し、前記アプリケーションからの入力イベント要求を受け取ると、前記デバイスから入力データであって前記視聴状態情報となるデータを取得して前記関連付け手段に供給するデバイスインスタンスと、を備える受信機。
For applications that receive broadcast signals that are broadcast from broadcast stations and that are composed of multiple pieces of information multiplexed with program content, and that contain applications and video and audio data via communication from a server connected via a network A receiver capable of receiving content and linking the broadcast and the communication ,
Execution control means for controlling execution of an application managed by application management information multiplexed on the broadcast signal or transmitted via the network;
Time information indicating a relative reproduction start timing of the predetermined scene acquired from a display control unit that outputs the predetermined scene in the program content, and a viewing state of the viewer when the predetermined scene input from the device is viewed Association means for generating association information that associates the viewing state information indicating the program content ID that identifies the program content included in the broadcast signal ;
A device manager that generates a device instance based on information indicating where the viewer state information of the association unit should be physically flowed and device information;
After being generated by the device manager, the device and the associating means are controlled, and upon receiving an input event request from the application, data that is input data from the device and becomes the viewing state information is acquired. And a device instance that supplies the association means.
前記デバイスは、前記受信機に対して外部から接続される外部機器であり、
前記デバイスマネージャは、さらに、前記外部機器としての前記デバイスを発見する、
請求項1に記載の受信機。
The device is an external device connected to the receiver from the outside,
The device manager further discovers the device as the external device;
The receiver according to claim 1.
放送局から放送された、番組コンテンツと共に複数の情報が多重化されて構成された放送信号を受信し、ネットワークを介して接続されたサーバから通信によりアプリケーション及び映像や音声の各データを含むアプリ用コンテンツを受信し、前記放送と前記通信とを連携させることができる受信機であって、前記放送信号に多重化されて又は前記ネットワークを介して伝送されてくるアプリケーション管理情報により管理されるアプリケーションの実行を制御する実行制御手段を備える受信機を制御するコンピュータを、
前記番組コンテンツにおける所定シーンを出力する表示制御部から取得される前記所定シーンの相対的な再生開始タイミングを示す時刻情報と、デバイスから入力される前記所定シーンを視聴した時の視聴者の視聴状態を示す視聴状態情報と、前記放送信号に含まれる前記番組コンテンツを特定する番組IDと、を関連付けた関連付け情報を生成する関連付け手段、
前記関連付け手段の視聴者状態情報を物理的にどこに流すべきかを示す情報とデバイス情報とに基づいて、デバイスインスタンスを生成するデバイスマネージャ、
前記デバイスマネージャにより生成された後、前記デバイスと前記関連付け手段とを制御し、前記アプリケーションからの入力イベント要求を受け取ると、前記デバイスから入力データであって前記視聴状態情報となるデータを取得して前記関連付け手段に供給するデバイスインスタンス、
として機能させるプログラム。
For applications that receive broadcast signals that are broadcast from broadcast stations and that are composed of multiple pieces of information multiplexed with program content, and that contain applications and video and audio data via communication from a server connected via a network A receiver capable of receiving content and linking the broadcast and the communication, and is an application managed by application management information multiplexed on the broadcast signal or transmitted through the network A computer for controlling a receiver comprising execution control means for controlling execution;
Time information indicating a relative reproduction start timing of the predetermined scene acquired from a display control unit that outputs the predetermined scene in the program content, and a viewing state of the viewer when the predetermined scene input from the device is viewed Associating means for generating associating information associating viewing state information indicating a program ID identifying the program content included in the broadcast signal ;
A device manager that generates a device instance based on information indicating where the viewer state information of the association unit should be physically flowed and device information;
After being generated by the device manager, the device and the associating means are controlled, and upon receiving an input event request from the application, data that is input data from the device and becomes the viewing state information is acquired. A device instance to be supplied to the association means
Program to function as.
JP2011111797A 2011-05-18 2011-05-18 Receiver and program Active JP5859223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011111797A JP5859223B2 (en) 2011-05-18 2011-05-18 Receiver and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011111797A JP5859223B2 (en) 2011-05-18 2011-05-18 Receiver and program

Publications (2)

Publication Number Publication Date
JP2012244360A JP2012244360A (en) 2012-12-10
JP5859223B2 true JP5859223B2 (en) 2016-02-10

Family

ID=47465610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011111797A Active JP5859223B2 (en) 2011-05-18 2011-05-18 Receiver and program

Country Status (1)

Country Link
JP (1) JP5859223B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6254852B2 (en) * 2014-01-21 2017-12-27 日本放送協会 Broadcast and communication cooperation tactile sense presentation system, service server and program, and portable terminal

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128884A (en) * 2003-10-24 2005-05-19 Sony Corp Device and method for editing information content
JP4525794B2 (en) * 2008-05-14 2010-08-18 ソニー株式会社 Electronic device, content reproduction method, program, and recording medium
JP5433239B2 (en) * 2009-01-15 2014-03-05 日本放送協会 Broadcast application launch system

Also Published As

Publication number Publication date
JP2012244360A (en) 2012-12-10

Similar Documents

Publication Publication Date Title
JP5493627B2 (en) Information processing apparatus, data management method, and program
US9756376B2 (en) Multi-lingual audio streaming
JP6247309B2 (en) Apparatus and method for processing interactive services
EP2910029B1 (en) Apparatus and method for processing an interactive service
JP6109736B2 (en) Program switching control device and program
KR101838084B1 (en) Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
JP5979646B2 (en) Receiving machine
US20130117798A1 (en) Augmenting content generating apparatus and method, augmented broadcasting transmission apparatus and method, and augmented broadcasting reception apparatus and method
JP5854637B2 (en) Receiving machine
JP2012244430A (en) Receiver and program
JP5859223B2 (en) Receiver and program
JP5864131B2 (en) Broadcast communication system, server and program
JP5843480B2 (en) Receiver and program
WO2012157753A1 (en) Integrated broadcast/communication reception device
JP5854636B2 (en) Receiver and program
EP3668101B1 (en) Transmission device, transmission method, reception device, and reception method
JP2012244363A (en) Receiver and program
JP2010109487A (en) Digital broadcast receiving device and digital broadcast receiving method
CN107005745B (en) Method and apparatus for encapsulating a stream of audiovisual content
JP5846761B2 (en) Receiving machine
JP5854068B2 (en) Information processing apparatus, data management method, and program
JP6185959B2 (en) Information processing apparatus, information processing method, and program
JP5584729B2 (en) Broadcast communication cooperative receiver
JP2012257239A (en) Broadcast communication cooperation receiving device
JP2012257238A (en) Broadcast communication cooperation receiving device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151216

R150 Certificate of patent or registration of utility model

Ref document number: 5859223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250