JP4295470B2 - Content providing system, content receiving apparatus, content providing method, content receiving method, content providing program, and content receiving program - Google Patents
Content providing system, content receiving apparatus, content providing method, content receiving method, content providing program, and content receiving program Download PDFInfo
- Publication number
- JP4295470B2 JP4295470B2 JP2002133391A JP2002133391A JP4295470B2 JP 4295470 B2 JP4295470 B2 JP 4295470B2 JP 2002133391 A JP2002133391 A JP 2002133391A JP 2002133391 A JP2002133391 A JP 2002133391A JP 4295470 B2 JP4295470 B2 JP 4295470B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- presentation device
- presentation
- video
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、娯楽性に富むコンテンツを提供するコンテンツ提供システム、コンテンツ受信装置、コンテンツ提供方法、コンテンツ受信方法、コンテンツ提供プログラムおよびコンテンツ受信プログラムに関する。
【0002】
【従来の技術】
近年、デジタル放送やインターネットによるコンテンツの配信により、従来のテレビジョン(以下、TVと記載する)放送と比較すると、利用者にとっては満足度の高い映像や音声が提供されるようになった。また、データ放送により、利用者との双方向通信も可能となり、利用者の満足度を更に高めている。
【0003】
データ放送は、TV放送等の映像や音声による主サービスにデータによる付加情報を加えて各種サービスを行うものであり、そのデータによる付加情報の提示を主サービスの映像や音声を提示する装置(例えば、TV受信機)で行っている。最近、データ放送の中には、主サービスの映像や音声を提示する装置以外の各種装置を制御するものもあるが、その各種装置を制御するための付加情報によって主サービスの映像や音声を変化させるものではない。
【0004】
また、コンテンツに含まれるオブジェクトを抽出して映像や音声を符号化する技術も開発されている。この符号化技術は、主に高能率符号化を目的としたものであり、オブジェクトの映像や音声のデータを効率的に符号化する技術である。したがって、この符号化技術は、映像や音声を出力する提示装置以外の提示装置でオブジェクトを提示することを目的としてデータを符号化するのではなく、映像や音声を出力する提示装置内に閉じたデータの符号化技術である。
【0005】
【発明が解決しようとする課題】
しかしながら、従来のコンテンツを提供するサービスには、コンテンツに含まれるキャラクタ等のオブジェクトを、主サービスの映像や音声を提示する装置以外の各種装置に移動させて提示するようなサービスはない。このようなサービスが実現すると、キャラクタ等がTV画面から飛び出してくるといったことができ、臨場感に溢れるとともに娯楽性に富んだコンテンツとなる。
【0006】
従来のデータ放送における技術は、主サービスの映像や音声を提示する装置以外の各種装置を制御することができ、主サービスの映像や音声に情報を付加することを前提とした技術である。したがって、主サービスの映像や音声からオブジェクトを取り出して、そのオブジェクトを主サービスの映像や音声を提示する装置以外の各種装置に提示させるようなことはできない。また、従来のオブジェクトの符号化技術やサーバ型放送における映像や音声のシーンオブジェクトの代替技術は、コンテンツに含まれるオブジェクトを符号化することはできるが、1台の提示装置内で扱うデータを対象とした技術である。したがって、その符号化によって、オブジェクトが主となる提示装置以外の提示装置に移動させるような符号化を行うことはできない。
【0007】
そこで、本発明の課題は、コンテンツに含まれるオブジェクトを提示装置間で移動させて提示可能なコンテンツ提供システム、コンテンツ受信装置、コンテンツ提供方法、コンテンツ受信方法、コンテンツ提供プログラムおよびコンテンツ受信プログラムを提供することにある。
【0008】
【課題を解決するための手段】
前記課題を解決した本発明の請求項1に係るコンテンツ提供システムは、コンテンツを映像および/または音声で提示する第1提示装置と一体であり、前記コンテンツに含まれるオブジェクトに対応し、前記コンテンツを映像および/または音声以外の代替の手段により提示する第2提示装置が接続されたコンテンツ受信装置に前記コンテンツを提供するコンテンツ提供システムであって、前記コンテンツに含まれるオブジェクト毎に、前記オブジェクトを提示可能な前記第1提示装置及び前記第2提示装置毎に設定され、前記第1提示装置及び前記第2提示装置が前記オブジェクトを提示する手段である映像、音声、動作および演奏情報を示す提示メディアと、1つの前記オブジェクトを前記第1提示装置及び複数の前記第2提示装置で提示可能な場合には前記オブジェクトを提示する優先順序を示す優先度と、を少なくとも含む移動情報を、符号化する移動情報符号化手段、を備え、符号化された前記移動情報を含む多重信号を前記コンテンツ受信装置に提供することを特徴とする。
【0009】
本発明の請求項2に係るコンテンツ受信装置は、コンテンツを映像および/または音声で提示する第1提示装置と一体であり、前記コンテンツに含まれるオブジェクトに対応し、前記コンテンツを映像および/または音声以外の代替の手段により提示する第2提示装置が接続され、コンテンツ提供システムから前記コンテンツを受信するコンテンツ受信装置であって、前記コンテンツに含まれるオブジェクト毎に、前記オブジェクトを提示可能な前記第1提示装置及び前記第2提示装置毎に設定され、前記第1提示装置及び前記第2提示装置が前記オブジェクトを提示する手段である映像、音声、動作および演奏情報を示す提示メディアと、1つの前記オブジェクトを前記第1提示装置及び複数の前記第2提示装置で提示可能な場合には前記オブジェクトを提示する優先順序を示す優先度と、を少なくとも含む移動情報を、復号化する移動情報復号化手段と、復号化された前記移動情報に基づいて、前記オブジェクトを提示する第2提示装置を決定する第2提示装置決定手段と、を備え、前記オブジェクトを、前記第2提示装置決定手段が決定した第2提示装置に提示することを特徴とする。
【0010】
本発明の請求項3に係るコンテンツ提供方法は、コンテンツを映像および/または音声で提示する第1提示装置と一体であり、前記コンテンツに含まれるオブジェクトに対応し、前記コンテンツを映像および/または音声以外の代替の手段により提示する第2提示装置が接続されたコンテンツ受信装置に前記コンテンツを提供するコンテンツ提供方法であって、前記コンテンツに含まれるオブジェクト毎に、前記オブジェクトを提示可能な前記第1提示装置及び前記第2提示装置毎に設定され、前記第1提示装置及び前記第2提示装置が前記オブジェクトを提示する手段である映像、音声、動作および演奏情報を示す提示メディアと、1つの前記オブジェクトを前記第1提示装置及び複数の前記第2提示装置で提示可能な場合には前記オブジェクトを提示する優先順序を示す優先度と、を少なくとも含む移動情報を、符号化する移動情報符号化ステップ、を含み、符号化された前記移動情報を含む多重信号を前記コンテンツ受信装置に提供することを特徴とする。
【0011】
本発明の請求項4に係るコンテンツ受信方法は、コンテンツを映像および/または音声で提示する第1提示装置と一体であり、前記コンテンツに含まれるオブジェクトに対応し、前記コンテンツを映像および/または音声以外の代替の手段により提示する第2提示装置が接続されたコンテンツ受信装置に、コンテンツ提供システムから前記コンテンツを受信するコンテンツ受信方法であって、前記コンテンツに含まれるオブジェクト毎に、前記オブジェクトを提示可能な前記第1提示装置及び前記第2提示装置毎に設定され、前記第1提示装置及び前記第2提示装置が前記オブジェクトを提示する手段である映像、音声、動作および演奏情報を示す提示メディアと、1つの前記オブジェクトを前記第1提示装置及び複数の前記第2提示装置で提示可能な場合には前記オブジェクトを提示する優先順序を示す優先度と、を少なくとも含む移動情報を、復号化する移動情報復号化ステップと、復号化された前記移動情報に基づいて、前記オブジェクトを提示する第2提示装置を決定する第2提示装置決定ステップと、を含み、前記オブジェクトを、前記第2提示装置決定ステップで決定した第2提示装置に提示することを特徴とする。
【0012】
本発明の請求項5に係るコンテンツ提供プログラムは、コンテンツを映像および/または音声で提示する第1提示装置と一体であり、前記コンテンツに含まれるオブジェクトに対応し、前記コンテンツを映像および/または音声以外の代替の手段により提示する第2提示装置が接続されたコンテンツ受信装置に前記コンテンツを提供するためのコンテンツ提供プログラムであって、コンピュータに、請求項3に記載のコンテンツ提供方法を実現させることを特徴とする。
【0013】
本発明の請求項6に係るコンテンツ受信プログラムは、請求項3に記載するコンテンツ提供方法によって提供されたコンテンツを受信するためのコンテンツ受信プログラムであって、コンピュータに、請求項4に記載のコンテンツ受信方法を実現させることを特徴とする。
【0014】
本発明の請求項7に係るコンテンツ提供システムは、請求項1に記載のコンテンツ提供システムにおいて、前記第1提示装置は、音声出力装置を含むTVディスプレイであり、前記第2提示装置は、手足の動作および音声の出力が可能なぬいぐるみであることを特徴とする。
【0015】
本発明の請求項8に係るコンテンツ受信装置は、請求項2に記載のコンテンツ受信装置において、前記第1提示装置は、音声出力装置を含むTVディスプレイであり、前記第2提示装置は、手足の動作および音声の出力が可能なぬいぐるみであることを特徴とする。
【0016】
本発明の請求項9に係るコンテンツ提供方法は、請求項3に記載のコンテンツ提供方法において、前記第1提示装置は、音声出力装置を含むTVディスプレイであり、前記第2提示装置は、手足の動作および音声の出力が可能なぬいぐるみであることを特徴とする。
【0017】
本発明の請求項10に係るコンテンツ受信方法は、請求項4に記載のコンテンツ受信方法において、前記第1提示装置は、音声出力装置を含むTVディスプレイであり、前記第2提示装置は、手足の動作および音声の出力が可能なぬいぐるみであることを特徴とする。
【0019】
なお、第1提示装置は、コンテンツを映像および/または音声で出力する装置であり、例えば、TVディスプレイ(音声出力装置を含む)、コンピュータのディスプレイや音声出力装置、ラジオ等がある。また、第2提示装置は、コンテンツに含まれるオブジェクトの映像および/または音声を代替の手段により提示することができるとともに外部から制御可能な装置であり、例えば、PDA[personal digital assistant]等の端末、発声や動作可能なぬいぐるみ、ロボット、自動で演奏を行う自動楽器、電話、目覚まし時計等がある。また、オブジェクトは、映像および/または音声で提示されるコンテンツにおいてその映像および/または音声を代替の手段でも提示可能なものであり、例えば、人間、動物、動物やアニメ等の各種キャラクタ、人形、楽器、電話、目覚まし時計等がある。また、代替オブジェクトは、第1提示装置で提示しているコンテンツからオブジェクトを第2提示装置に移動させた場合にそのオブジェクトが抜けた後に代わって提示する他のオブジェクトであり、例えば、移動させたオブジェクトに隠れていた他のオブジェクト等がある。また、付随オブジェクトは、第2提示装置にオブジェクトを移動させた場合にそのオブジェクトに付随して提示され、その付随オブジェクトだけでは提示されないオブジェクトであり、例えば、移動させたオブジェクトの背景、移動させたオブジェクトに対する効果音等がある。
【0020】
【発明の実施の形態】
以下、図面を参照して、本発明に係るコンテンツ提供システム、コンテンツ受信装置、コンテンツ提供方法、コンテンツ受信方法、コンテンツ提供プログラムおよびコンテンツ受信プログラムの実施の形態について説明する。
【0021】
本発明は、コンテンツの映像や音声を楽しむ利用者の満足度を更に高めるために、コンテンツに含まれるオブジェクトをそのコンテンツを提示している提示装置から別の提示装置に移動して提示させる。そのために、本発明では、第1提示装置で提示するコンテンツからオブジェクトを分離した映像および/または音声の情報を符号化するとともに、オブジェクトを第2提示装置で提示するための情報を移動先の第2提示装置毎かつオブジェクト毎に分離して符号化する。さらに、本発明では、受信側においてオブジェクトを提示する第2提示装置を決定するために、オブジェクトが移動対象であることの情報、移動提示可能な第2提示装置の情報および移動提示可能な第2提示装置が複数ある場合には移動の優先度の情報からなる移動情報を符号化する。
【0022】
本実施の形態では、デジタルTV放送によってコンテンツ(TV番組)を配信するコンテンツ提供システムとその放送によりコンテンツを受信する受信機に本発明を適用する。本実施の形態では、説明を簡単化するために、オブジェクトとしては動物等のキャラクタおよびピアノ等の楽器とし、第1提示装置としてはTVディスプレイ(音声出力装置を含む)とし、第2提示装置としてはPDA等の端末、キャラクタ(オブジェクト)に対応するぬいぐるみおよび楽器(オブジェクト)に対応する自動楽器とする。キャラクタは、第2提示装置が接続されていない場合にはTVディスプレイに提示され、端末が接続されている場合には端末に提示され、あるいは、キャラクタのぬいぐるみが接続されている場合にはぬいぐるみで提示される。楽器は、第2提示装置が接続されていない場合にはTVディスプレイに提示され、端末が接続されている場合には端末に提示され、あるいは、自動楽器が接続されている場合には自動楽器で提示される。端末とは、例えば、視聴者が手元におく小型画面付きリモコンであり、映像および音声の出力が可能である。ぬいぐるみとは、制御機能付きであり、手足等の動作および音声の出力が可能である。自動楽器とは、制御機能付きであり、楽器の自動演奏が可能である。
【0023】
本実施の形態に係るコンテンツ提供システムは、TV放送局に構成されており、地上波放送あるいは衛星放送によりコンテンツを配信するシステムである。TV放送局は、数MHzの伝送帯域の1つのチャンネルが割り当てられており、ドラマ、スポーツ、バラエティ、ニュース等の様々なTV番組のコンテンツを提供する放送局である。コンテンツ提供システムでは、このコンテンツを提供するために、コンテンツからオブジェクトを分離したデータおよびオブジェクトのデータ等を符号化し、さらに多重化した多重信号(デジタル放送信号)を生成する。
【0024】
また、本実施の形態に係るコンテンツ提供システムは、コンピュータによって多重信号を生成するための主要な処理を行っている。このコンピュータは、コンテンツ提供プログラムがインストールされており、このコンテンツ提供プログラムを実行することによって後記する各手段(各部)を構成する。
【0025】
本実施の形態に係るコンテンツ提供システムの構成について説明するが、本実施の形態では、オブジェクトが2つの場合、オブジェクトが2つで代替オブジェクトおよび付随オブジェクトがある場合、オブジェクトが1つで従来のデジタルTV放送受信機との互換性を考慮した場合の3つの例について説明する。なお、コンテンツ提供システムの構成は、オブジェクトの個数や種類、オブジェクトを移動提示可能な提示装置の個数や種類、代替オブジェクト、付随オブジェクト等によって適宜代わる。
【0026】
図1を参照して、オブジェクト(キャラクタと楽器)が2つの場合のコンテンツ提供システム1Aの構成について説明する。図1は、コンテンツ提供システム1Aの構成図であり、オブジェクトが2つの場合である。
【0027】
コンテンツ提供システム1Aでは、TVディスプレイで提示するコンテンツのオブジェクト(キャラクタ、楽器)および背景の映像および音声の情報、オブジェクトを提示可能な提示装置(TVディスプレイ、端末、ぬいぐるみ、自動楽器)毎かつオブジェクト毎に各提示装置で提示させるための情報およびオブジェクトをどの提示装置に移動させるかの情報をそれぞれ符号化する。さらに、コンテンツ提供システム1Aでは、符号化した全ての情報を多重化して、多重信号を生成する。そして、コンテンツ提供システム1Aでは、この多重信号を配信する。なお、オブジェクトには、キャラクタと楽器の他に、背景のオブジェクトも含む。この際、背景を含む各オブジェクトの符号化では、他のオブジェクトの陰になる部分を含む完全な情報として符号化する必要がある。
【0028】
多重信号を生成するために、コンテンツ提供システム1Aは、オブジェクト符号化手段11A、移動情報符号化手段12Aおよび多重化手段13Aを備えている。
【0029】
オブジェクト符号化手段11Aについて説明する。
オブジェクト符号化手段11Aは、TVディスプレイ、端末、ぬいぐるみおよび自動楽器の提示メディア毎に、各装置で提示可能なオブジェクト(背景、キャラクタ、楽器)の情報を分離して符号化する手段である。そのために、オブジェクト符号化手段11Aには、背景・主映像符号化部11a、背景・主音声符号化部11b、オブジェクト1・主映像符号化部11c、オブジェクト1・主音声符号化部11d、オブジェクト2・主映像符号化部11e、オブジェクト2・主音声符号化部11f、主映像・配置情報符号化部11g、オブジェクト1・別映像符号化部11h、オブジェクト1・別音声符号化部11i、オブジェクト2・別映像符号化部11j、オブジェクト2・別音声符号化部11k、別映像・配置情報符号化部11l、オブジェクト1・ぬいぐるみ動作符号化部11m、オブジェクト1・ぬいぐるみ音声符号化部11nおよびオブジェクト2・演奏情報符号化部11oが構成される。
なお、本実施の形態では、背景・主映像符号化部11aおよび背景・主音声符号化部11bが特許請求の範囲に記載するオブジェクト分離コンテンツ符号化手段に相当する。
【0030】
背景・主映像符号化部11aは、キャラクタおよび楽器が抜けた後の部分も含む背景の映像データを符号化する。ちなみに、背景の映像データは、TVカメラ(図示せず)の撮影において、キャラクタおよび楽器がない状態で撮影した映像データ、TVカメラで撮影した映像から動き部分を除去して静止部分のみを抽出したデータ、バーチャルスタジオ等ではその背景部品のデータ等が使用される。
【0031】
背景・主音声符号化部11bは、キャラクタおよび楽器が発す音声がない場合に聞こえる音声データを符号化する。ちなみに、背景の音声データは、TVカメラ(図示せず)の撮影において、キャラクタおよび楽器がない状態で収録した音声データが使用される。
【0032】
オブジェクト1・主映像符号化部11cは、例えば、TVカメラ(図示せず)でコンテンツのオブジェクト毎に別々に撮影して、そのキャラクタの映像データを符号化する。
【0033】
オブジェクト1・主音声符号化部11dは、例えば、マイクロフォン(図示せず)でコンテンツのオブジェクト毎に別々に収音して、そのキャラクタの音声データを符号化する。
【0034】
オブジェクト2・主映像符号化部11eは、例えば、TVカメラ(図示せず)でコンテンツのオブジェクト毎に別々に撮影して、その楽器の映像データを符号化する。
【0035】
オブジェクト2・主音声符号化部11fは、例えば、マイクロフォン(図示せず)でコンテンツのオブジェクト毎に別々に収音して、その楽器の音声データを符号化する。
【0036】
主映像・配置情報符号化部11gは、背景の映像の中にオブジェクトを配置する場合のオブジェクトがどのオブジェクトの手前にあるか等のオブジェクトの配置に関する主映像オブジェクト配置情報を符号化する。配置情報は、最も単純には、各オブジェクトがどのような順番で重なっているかという情報である。
【0037】
オブジェクト1・別映像符号化部11hは、例えば、TVカメラ(図示せず)でコンテンツのオブジェクト毎に別々に撮影して、端末に適した符号化方式により、そのキャラクタの映像データを符号化する。なお、この符号化データはオブジェクト1・主映像符号化部11cで符号化されたデータと共有できる場合があり、この場合にはオブジェクト1・別映像符号化部11hでの処理は行われない。
【0038】
オブジェクト1・別音声符号化部11iは、例えば、マイクロフォン(図示せず)でコンテンツのオブジェクト毎に別々に収音して、端末に適した符号化方式により、そのキャラクタの音声データを符号化する。なお、この符号化データはオブジェクト1・主音声符号化部11dで符号化されたデータと共有できる場合があり、この場合にはオブジェクト1・別音声符号化部11iでの処理は行われない。
【0039】
オブジェクト2・別映像符号化部11jは、例えば、TVカメラ(図示せず)でコンテンツのオブジェクト毎に別々に撮影して、端末に適した符号化方式により、その楽器の映像データを符号化する。なお、この符号化データはオブジェクト2・主映像符号化部11eで符号化されたデータと共有できる場合があり、この場合にはオブジェクト2・別映像符号化部11iでの処理は行われない。
【0040】
オブジェクト2・別音声符号化部11kは、例えば、マイクロフォン(図示せず)でコンテンツのオブジェクト毎に別々に収音して、端末に適した符号化方式により、その楽器の音声データを符号化する。なお、この符号化データはオブジェクト2・主音声符号化部11fで符号化されたデータと共有できる場合があり、この場合にはオブジェクト2・別音声符号化部11kでの処理は行われない。
【0041】
別映像・配置情報符号化部11lは、端末にオブジェクトを配置する場合のオブジェクトがどのオブジェクトの手前にあるか等のオブジェクトの配置に関する別映像オブジェクト配置情報を、端末に適した符号化方式により別映像オブジェクト配置情報を符号化する。ただし、オブジェクト毎に専用の端末を有する場合には、別映像オブジェクト配置情報は必要ないので、別映像・配置情報符号化部11lでの処理は行われない。
【0042】
オブジェクト1・ぬいぐるみ動作符号化部11mは、キャラクタの動作に対応するぬいぐるみで可能な動作に必要な情報を生成し、その動作の情報をぬいぐるみを制御するための情報に変換する。さらに、オブジェクト1・ぬいぐるみ動作符号化部11mは、ぬいぐるみに適した符号化方式により、その動作の制御情報を符号化する。
【0043】
オブジェクト1・ぬいぐるみ音声符号化部11nは、例えば、マイクロフォン(図示せず)でコンテンツのオブジェクト毎に別々に収音する。そして、オブジェクト1・ぬいぐるみ音声符号化部11nは、そのキャラクタの音声に対応するぬいぐるみで出力可能な音声に必要な情報を生成し、その音声の情報をぬいぐるみを制御するための情報に変換する。さらに、オブジェクト1・ぬいぐるみ音声符号化部11nは、ぬいぐるみに適した符号化方式により、その音声の制御情報を符号化する。なお、この符号化データはオブジェクト1・主音声符号化部11dで符号化されたデータと共有できる場合があり、この場合にはオブジェクト1・ぬいぐるみ音声符号化部11nでの処理は行われない。
【0044】
オブジェクト2・演奏符号化部11oは、楽器の音声に対応する自動楽器で出力可能な演奏に必要な情報を生成し、その演奏の情報を自動楽器を制御するための情報に変換する。さらに、オブジェクト2・演奏情報符号化部11oは、自動楽器に適した符号化方式により、その演奏の制御情報を符号化する。
【0045】
以上、オブジェクト毎に別々に撮影あるいは収音することを基本として説明したが、オブジェクト抽出技術を用いて撮影された映像からオブジェクトを分離して符号化したり、例えば、CGやバーチャルスタジオ等ではオブジェクト部分ごとに符号化したり等の方法を用いてもよい。
【0046】
図2も参照して、移動情報符号化手段12Aについて説明する。図2は、図1に示す場合の移動情報の構成を示す図であり、(a)がオブジェクト1(キャラクタ)の移動情報であり、(b)がオブジェクト2(楽器)の移動情報である。
【0047】
移動情報符号化手段12Aは、受信側においてオブジェクトをどの提示装置で提示するかを決定するために必要な移動情報を符号化する手段である。そのために、移動情報符号化手段12Aには、オブジェクト1・移動情報符号化部12aおよびオブジェクト2・移動情報符号化部12bが構成される。
【0048】
図2を参照して、移動情報について説明しておく。
移動情報は、どのオブジェクトが移動対象であるかを示すために移動対象となるオブジェクト毎に設定される。さらに、オブジェクト毎の移動情報は、そのオブジェクトをどの提示装置で移動提示することができるかを示すために移動提示可能な提示装置毎に設定され、その提示装置毎に優先度、提示メディア、論理提示信号および物理提示信号の情報を有している。
【0049】
優先度は、1つのオブジェクトを複数の提示装置(TVディスプレイを含めて)で提示可能な場合に提示する優先順序を示すものであり、図2の例では0がデフォルトで数字が大きくなるほど優先度が高いことを表している。
【0050】
提示装置は、本実施の形態ではTVディスプレイ、端末、ぬいぐるみ、自動楽器等があり、その情報をコード化して表現してもよい。
【0051】
提示メディアは、各提示装置において提示する手段(ひいては、その手段で提示するために必要なデータの種別)を表し、MPEG−2多重方式(ISO/IEC13818−1)やARIB(電波産業会)番組配列情報方式(ARIB STD−B10)における「ストリーム形式識別」や「データ符号化方式識別」等と同等の機能を持ち、その情報をコード化して表現してもよい。ちなみに、TVディスプレイおよび端末の提示メディアは、映像および音声である。ぬいぐるみの提示メディアは、動作および音声である。自動楽器の提示メディアは、演奏情報である。
【0052】
論理提示信号は、オブジェクト符号化手段11Aにおいて分離して符号化した各データの論理的な構成を示しており、物理提示信号が設定されている場合には特に必要のない信号である。ちなみに、TVディスプレイの論理提示信号は、キャラクタに対してオブジェクト1主映像とオブジェクト1主音声であり、楽器に対してオブジェクト2主映像とオブジェクト2主音声である。端末の論理提示信号は、キャラクタに対してオブジェクト1別映像とオブジェクト1別音声であり、楽器に対してはオブジェクト2別映像とオブジェクト2別音声である。ぬいぐるみの論理提示信号は、キャラクタに対してオブジェクト1ぬいぐるみ動作とオブジェクト1ぬいぐるみ音声である。自動楽器の論理提示信号は、楽器に対してオブジェクト2演奏情報である。
【0053】
物理提示信号は、オブジェクト符号化手段11Aにおいて分離して符号化した各データの実体を示しており、実質的にはMPEG−2多重方式やARIB番組配列情報方式における「ES_pid[Elementary Stream Packet Identifier]」や「コンポーネントタグ」のような各符号化データへのポインタの情報である。ちなみに、TVディスプレイの物理提示信号は、キャラクタに対してオブジェクト1主映像とオブジェクト1主音声の各符号化データへのポインタであり、楽器に対してオブジェクト2主映像とオブジェクト2主音声の各符号化データへのポインタである。端末の物理提示信号は、端末ではTVディスプレイと符号化データを共有するので、TVディスプレイと同じ物理提示信号である。ぬいぐるみの物理提示信号は、ぬいぐるみでは音声のみTVディスプレイと符号化データを共有するので、キャラクタに対してオブジェクト1ぬいぐるみ動作とオブジェクト1主音声の各符号化データへのポインタである。自動楽器の物理提示信号は、楽器に対してオブジェクト2演奏情報の符号化データへのポインタである。
【0054】
移動情報符号化手段12Aの説明に戻って、オブジェクト1・移動情報符号化部12aは、図2(a)に示すキャラクタの移動情報を生成する。そして、オブジェクト1・移動情報符号化部12aは、そのキャラクタの移動情報を符号化する。
【0055】
オブジェクト2・移動情報符号化部12bは、図2(b)に示す楽器の移動情報を生成する。そして、オブジェクト2・移動情報符号化部12bは、その楽器の移動情報を符号化する。
【0056】
多重化手段13Aについて説明する。
多重化手段13Aは、各符号化手段11A,12Aで符号化した全てのデータを、その符号化データに応じた最適な伝送方式により多重化して多重信号に変換する。このとき、多重化手段13Aでは、各データや各情報に対する符号化方式の情報等を格納した制御情報も多重化している。さらに、変調器(図示せず)において、多重信号をOFDM[Orthogonal Frequency Division Multiplexing](直交周波数分割多重)変調方式等によりデジタル変調を施す。そして、このデジタル変調された多重信号は、アンテナ(図示せず)から配信される。
【0057】
ここで、符号化方式と伝送方式についてもう少し詳しく説明する。符号化方式としては、各提示装置やデータ(情報)の種類等を考慮して、各オブジェクトの提示メディア毎、配置情報、移動情報に応じて最適な方式を採用する。このように符号化方式を最適な方式を用いることにより、リアルタイム性や符号化効率等に優れた符号化を行うことができる。また、伝送方式としては、符号化方式に応じてリアルタイム性に優れる方式を採用する。
【0058】
オブジェクトの符号化伝送方式について説明する。
オブジェクトの符号化方式は、特に限定しないが、映像、音声、動作情報、演奏情報毎にかつ提示装置毎に適した符号化方式を採用し、例えば、MPEG−2符号化方式やMPEG−4符号化方式等である。また、オブジェクトの伝送方式は、符号化方式に応じて伝送方式を採用し、例えば、PES形式等によりオブジェクト間の同期が可能な方式が適切である。ちなみに、映像符号化方式としてMPEG−4を採用する場合には、各オブジェクト毎に別々に符号化することなく、1つの提示メディアについて複数のオブジェクトをまとめて符号化することも可能である。なお、最終的には受信機においてオブジェクトを重ね合わせて提示する必要があるので、特に映像符号化においては、通常のRGBやYPbPrの3つの情報(カラーの場合)に対しての符号化に加えて、オブジェクトの形状を表わすためのもう1つの情報に対する符号化も必要である。
【0059】
オブジェクトの配置情報の符号化伝送方式について説明する。
配置情報の符号化方式は、特に限定しないが、配置情報にかつ提示装置に適した符号化方式を採用する。また、配置情報の伝送方式は、符号化方式に応じて伝送方式を採用し、例えば、MPEG−2多重方式やARIB番組配列情報方式におけるPSI/SIに符号化して伝送する方式、バイナリあるいはXML[Extensible Markup Language]で符号化して、PES、専用テーブル、DSM−CC[Digital Storage Media Command and Control](データカルーセル、オブジェクトカルーセル)方式等で伝送する方式がある。この際、オブジェクト間の同期ほど厳密さは要求されないものの、オブジェクトの配置の動的な変化にも対応しようとする場合には、ある程度リアルタイム性のある伝送方式であるPSI/SI方式やPES方式が望ましい。ちなみに、PSI/SI方式は秒単位程度の準リアルタイム性までの方式であり、さらに時間精度の高いリアルタイム性が要求される場合にはPES方式が適している。なお、映像符号化の1つの情報として、オブジェクトの奥行きの符号化を行うことにより、これを配置情報として扱うことも選択肢の1つである。この方法により、配置情報の符号化を行えば、配置情報のリアルタイム性はもちろん、オブジェクトの複雑な重なり合いを表現することも可能である。
【0060】
移動情報の符号化伝送方式について説明する。
移動情報の符号化方式は、特に限定しないが、移動情報に適した符号化方式を採用する。また、移動情報の伝送方式は、符号化方式に応じて伝送方式を採用し、例えば、MPEG−2多重方式やARIB番組配列情報方式におけるPSI/SIに符号化して伝送する方式、バイナリあるいはXMLで符号化して、PES、専用テーブル、DSM−CC方式等で伝送する方式がある。この際、オブジェクト間の同期ほど厳密さは要求されないものの、オブジェクト構成の動的な変化にも対応しようとする場合には、ある程度リアルタイム性のある伝送方式であるPSI/SI方式やPES方式が望ましい。
【0061】
また、オブジェクトの符号化データの共用についてももう少し詳しく説明する。例えば、端末を使って提示する際の別映像や別音声は、TVディスプレイと提示メディアが同じであるので、TVディスプレイで提示する主映像や主音声のデータをそのまま利用することができる。また、ぬいぐるみの音声についても、ぬいぐるみがしゃべっているように音が出さえすればよいので、特別な音声信号でなくても、TVディスプレイの主音声と同じデータを利用できる場合がある。こうした場合には、同じデータを別の提示装置用のデータとして重複して符号化および伝送する必要はなく、同じ符号化データの実体を利用すればよい。そのために、物理提示信号を同じ信号で設定する。例えば、図2(a)に示すキャラクタの移動情報の例では、端末の別映像および別音声の物理提示信号をTVディスプレイの主映像および主音声の物理提示信号で設定し、ぬいぐるみの音声の物理提示信号をTVディスプレイの主音声の物理提示信号で設定している。また、図2(b)に示す楽器の移動情報の例では、端末の別映像および別音声の物理提示信号をTVディスプレイの主映像および主音声の物理提示信号で設定している。
【0062】
以上の構成を有するコンテンツ提供システム1Aでは、キャラクタと楽器を含むあるコンテンツを配信する場合、以下のように動作する。コンテンツ提供システム1Aでは、オブジェクト符号化手段11Aによって、TVディスプレイに提示するための背景、キャラクタ、楽器の主映像および主音声ならびに主映像の配置情報を符号化し(ただし、この符号化は、端末に提示するためのキャラクタと楽器の別映像および別音声の符号化ならびにぬいぐるみに提示するためのぬいぐるみ音声の符号化を兼ねている。)、端末に提示するための別映像の配置情報を符号化し、ぬいぐるみに提示するためのぬいぐるみ動作を符号化し、自動楽器に提示するための演奏情報を符号化する。さらに、コンテンツ提供システム1Aでは、移動情報符号化手段12Aによって、キャラクタに対する移動情報および楽器に対する移動情報を生成し、各移動情報を符号化する。そして、コンテンツ提供システム1Aでは、多重化手段13Aによって、符号化した全てのデータを多重化する。
【0063】
このコンテンツ提供システム1Aによれば、あるコンテンツに含まれるオブジェクトであるキャラクタおよび楽器を、TVディスプレイ以外の提示装置である端末あるいはぬいぐるみや自動楽器に移動させて提示するために必要な情報を含む多重信号を生成することができる。さらに、このコンテンツ提供システム1Aによれば、キャラクタと楽器に対して移動情報を設定しているので、受信側においてどのオブジェクトをどの提示装置に提示すればよいのかを決定することができる。また、このコンテンツ提供システム1Aによれば、映像におけるオブジェクトの配置情報を設定しているので、受信側において複数のオブジェクトを重ねて表示する場合にその重ねる順番を決定することができる。
【0064】
図3を参照して、オブジェクト(キャラクタと楽器)が2つで代替オブジェクトおよび付随オブジェクトがある場合のコンテンツ提供システム1Bの構成について説明する。図3は、コンテンツ提供システム1Bの構成図であり、オブジェクトが2つで代替オブジェクトおよび付随オブジェクトがある場合である。なお、コンテンツ提供システム1Bの構成において、図1に示すコンテンツ提供システム1Aと同様の構成については同一の符号を付し、その説明を省略する。
【0065】
コンテンツ提供システム1Bでは、TVディスプレイで提示するコンテンツのオブジェクト(キャラクタ、楽器)および背景の映像および音声の情報、オブジェクトを提示可能な提示装置(TVディスプレイ、端末、ぬいぐるみ、自動楽器)毎かつオブジェクト毎に各提示装置で提示させるための情報およびオブジェクトをどの提示装置に移動させるかの情報をそれぞれ符号化する。さらに、コンテンツ提供システム1Bでは、符号化した全ての情報を多重化して、多重信号を生成する。そして、コンテンツ提供システム1Bでは、この多重信号を配信する。なお、オブジェクトには、キャラクタと楽器の他に、背景も含む。また、TVディスプレイに提示するオブジェクトには、コンテンツからキャラクタや楽器が抜けた後にこれらのオブジェクトに代わる代替オブジェクトを設けている。また、端末に提示するオブジェクトには、そのオブジェクトの背景として付随背景を設けている。
【0066】
多重信号を生成するために、コンテンツ提供システム1Bは、オブジェクト符号化手段11B、移動情報符号化手段12Bおよび多重化手段13Bを備えている。
【0067】
オブジェクト符号化手段11Bについて説明する。
オブジェクト符号化手段11Bは、TVディスプレイ、端末、ぬいぐるみおよび自動楽器の提示メディア毎に、各装置で提示可能なオブジェクト(背景、キャラクタ、楽器)の情報を分離して符号化する手段である。そのために、オブジェクト符号化手段11Bには、背景・主映像符号化部11a、背景・主音声符号化部11b、オブジェクト1・主映像符号化部11c、オブジェクト1・主音声符号化部11d、オブジェクト2・主映像符号化部11e、オブジェクト2・主音声符号化部11f、主映像・配置情報符号化部11g、オブジェクト1・別映像符号化部11h、オブジェクト1・別音声符号化部11i、オブジェクト2・別映像符号化部11j、オブジェクト2・別音声符号化部11k、別映像・配置情報符号化部11l、オブジェクト1・ぬいぐるみ動作符号化部11m、オブジェクト1・ぬいぐるみ音声符号化部11n、オブジェクト2・演奏情報符号化部11o、代替オブジェクト・代替映像符号化部11pおよび付随背景・別映像符号化部11qが構成される。
【0068】
代替オブジェクト・代替映像符号化部11pは、例えば、TVカメラ(図示せず)でキャラクタの抜けた後に配置するキャラクタ代替オブジェクトを撮影するとともに、TVカメラ(図示せず)で楽器の抜けた後に配置する楽器代替オブジェクトの映像データを撮影する。そして、代替オブジェクト・代替映像符号化部11pは、キャラクタ代替オブジェクトの映像データを符号化するとともに楽器代替オブジェクトの映像データを符号化する。キャラクタ代替オブジェクトとしては、例えば、キャラクタが抜けたことを表現するためにそのキャラクタの外形を塗りつぶしたものや別のキャラクタ等がある。楽器代替オブジェクトとしては、楽器が抜けたことを表現するためにその楽器の外形を塗りつぶしたものや別の楽器等がある。ちなみに、オブジェクトを移動して提示する場合、TVディスプレイの主映像におけるこれらのオブジェクトの抜けた後は、基本としては背景のみの空間になる。しかし、画面のバランスの都合上、画角を変更したり、その空間を別のオブジェクトで埋めたり、あるいは、端末、ぬいぐるみや自動楽器にオブジェクトが移動したことを表現する映像作りをするために代わりのオブジェクトを配置したりすると映像として効果的であるので、代替オブジェクトを設けている。
【0069】
付随背景・別映像符号化部11qは、例えば、TVカメラ(図示せず)で端末に提示するキャラクタの付随背景を撮影するとともに、TVカメラ(図示せず)で端末に提示する楽器の付随背景を撮影する。そして、付随背景・別映像符号化部11qは、端末に適した符号化方式により、キャラクタの付随背景の映像データを符号化するとともに楽器の付随背景の映像データを符号化する。ちなみに、端末にオブジェクトを移動して提示する場合、端末の映像についても背景があるほうが映像として効果的な場合もあるので、付随背景を設けている。
【0070】
図4も参照して、移動情報符号化手段12Bについて説明する。図4は、図3に示す場合の移動情報の構成を示す図であり、(a)がオブジェクト1(キャラクタ)の移動情報であり、(b)がオブジェクト2(楽器)の移動情報である。
【0071】
移動情報符号化手段12Bは、受信側においてオブジェクトをどの提示装置で提示するかを決定するために必要な移動情報を符号化する手段である。そのために、移動情報符号化手段12Bには、オブジェクト1・移動情報符号化部12cおよびオブジェクト2・移動情報符号化部12dが構成される。
【0072】
図4を参照して、移動情報について説明しておく。
前記したように、移動情報は、どのオブジェクトが移動対象であるかを示すために移動対象となるオブジェクト毎に設定される。さらに、オブジェクトの移動情報には、そのオブジェクトをどの提示装置で移動提示することができるかを示すために移動提示可能な提示装置毎に設定され、その提示装置毎に優先度、提示メディア、論理提示信号、物理提示信号、代替信号および付随信号の情報を有している。ここでは、図2に示す移動情報で説明した優先度、提示メディア、論理提示信号、物理提示信号以外の代替信号、付随信号についてのみ説明する。
【0073】
代替信号は、オブジェクト符号化手段11Bにおいて分離して符号化したキャラクタ代替オブジェクトの映像データや楽器代替オブジェクトの映像データの実体を示しており、各符号化データへのポインタの情報である。ちなみに、代替信号は、TVディスプレイに対してのみ設定され、キャラクタに対してオブジェクト1代替映像の符号化データへのポインタであり、楽器に対してオブジェクト2代替映像の符号化データへのポインタである。
【0074】
付随信号は、オブジェクト符号化手段11Bにおいて分離して符号化したキャラクタの付随背景の映像データや楽器の付随背景の映像データの実体を示しており、各符号化データへのポインタの情報である。ちなみに、付随信号は、端末に対してのみ設定され、キャラクタに対してオブジェクト1付随背景映像の符号化データへのポインタであり、楽器に対してオブジェクト2付随背景映像の符号化データへのポインタである。
【0075】
移動情報符号化手段12Bの説明に戻って、オブジェクト1・移動情報符号化部12cは、図4(a)に示すキャラクタの移動情報を生成する。そして、オブジェクト1・移動情報符号化部12cは、そのキャラクタの移動情報を符号化する。
【0076】
オブジェクト2・移動情報符号化部12dは、図4(b)に示す楽器の移動情報を生成する。そして、オブジェクト2・移動情報符号化部12dは、その楽器の移動情報を符号化する。
【0077】
多重化手段13Bについて説明する。
多重化手段13Bは、各符号化手段11B,12Bで符号化した全てのデータを、その符号化データに応じた最適な伝送方式により多重化して多重信号に変換する。このとき、多重化手段13Bでは、各データや各情報に対する符号化方式の情報等を格納した制御情報も多重化している。さらに、変調器(図示せず)において、多重信号にOFDM変調方式等によりデジタル変調を施す。そして、このデジタル変調された多重信号は、アンテナ(図示せず)から配信される。
【0078】
以上の構成を有するコンテンツ提供システム1Bでは、キャラクタと楽器および代替オブジェクトと付随背景を含むあるコンテンツを配信する場合、以下のように動作する。コンテンツ提供システム1Bでは、オブジェクト符号化手段11Bによって、TVディスプレイに提示するための背景、キャラクタ、楽器の主映像および主音声、キャラクタ代替オブジェクト、楽器代替キャラクタの代替映像ならびに主映像の配置情報を符号化し(ただし、この符号化は、端末に提示するためのキャラクタと楽器の別映像および別音声の符号化ならびにぬいぐるみに提示するためのぬいぐるみ音声の符号化を兼ねている。)、端末に提示するためのキャラクタの付随背景、楽器の付随背景の別映像ならびに別映像の配置情報を符号化し、ぬいぐるみに提示するためのぬいぐるみ動作を符号化し、自動楽器に提示するための演奏情報を符号化する。さらに、コンテンツ提供システム1Bでは、移動情報符号化手段12Bによって、キャラクタに対する移動情報および楽器に対する移動情報を生成し、各移動情報を符号化する。そして、コンテンツ提供システム1Bでは、多重化手段13Bによって、符号化した全てのデータを多重化する。
【0079】
このコンテンツ提供システム1Bによれば、コンテンツ提供システム1Aの効果に加えて、代替オブジェクトを設けることによってTVディスプレイにおいてオブジェクトが抜けた後に効果的な映像を提供することができるとともに、付随背景を設けることによって端末において移動させたオブジェクトをより効果的な映像として提供できる。
【0080】
図5を参照して、オブジェクトが1つで従来のデジタルTV放送受信機との互換性を考慮した場合のコンテンツ提供システム1Cの構成について説明する。図5は、コンテンツ提供システム1Cの他の例であり、オブジェクトが1つで従来のデジタルTV放送受信機との互換性を考慮した場合である。なお、コンテンツ提供システム1Cの構成において、図1に示すコンテンツ提供システム1Aと同様の構成については同一の符号を付し、その説明を省略する。
【0081】
ちなみに、従来のデジタルTV放送受信機は、映像および音声の提示機能として、オブジェクトを分離した背景にオブジェクトを合成する機能を持っていない。そのために、従来のデジタルTV放送受信機では、前記したコンテンツ提供システム1A,1Bのように移動可能なオブジェクトを分離して符号化を行った情報だけでは、デフォルトのコンテンツの映像および音声を提示することができない。そこで、コンテンツ提供システム1Cでは、オブジェクトを分離していないデフォルトのコンテンツの映像および音声を符号化した情報を別途伝送することによって、従来のデジタル放送受信機に対してもデフォルトのサービスが行えるようにしている。
【0082】
この際、背景の映像および音声、オブジェクトを分離して符号化した映像および音声と、デフォルトのコンテンツ(すなわち、オブジェクトが合成されたコンテンツ)の映像および音声を伝送することになり、伝送効率は落ちることになる。しかし、移動可能なオブジェクトが1つのみの場合等では、移動の対象となるオブジェクトの主映像および主音声は、TVディスプレイにおいてはそのオブジェクトのみが提示されることがないので(主映像および主音声として提示されるのは、デフォルトのコンテンツの映像および音声、あるいは、移動可能オブジェクトが移動した後の背景の映像および音声のいずれかの場合しかないので)、伝送する必要がなく、現実的な伝送量の範囲でサービスが可能である。
【0083】
コンテンツ提供システム1Cでは、TVディスプレイで提示するコンテンツのオブジェクト(キャラクタ)および背景の映像および音声の情報、オブジェクトを提示可能な提示装置(TVディスプレイ、端末、ぬいぐるみ)毎に各提示装置で提示させるための情報およびオブジェクトをどの提示装置に移動させるかの情報ならびに従来のデジタルTV放送受信機で提示するデフォルトコンテンツの映像および音声をそれぞれ符号化する。さらに、コンテンツ提供システム1Cでは、符号化した全ての情報を多重化して、多重信号を生成する。そして、コンテンツ提供システム1Cでは、この多重信号を配信する。なお、オブジェクトには、キャラクタの他に、背景も含む。
【0084】
多重信号を生成するために、コンテンツ提供システム1Cは、オブジェクト符号化手段11C、移動情報符号化手段12C、多重化手段13Cおよびデフォルトコンテンツ符号化手段14Cを備えている。
【0085】
デフォルトコンテンツ符号化手段14Cについて説明する。
デフォルトコンテンツ符号化手段14Cは、TVディスプレイに提示するためのデフォルトコンテンツの映像および音声を符号化する手段である。そのために、デフォルトコンテンツ符号化手段14Cには、デフォルト・主映像符号化部14aおよびデフォルト・主音声符号化部14bが構成される。
【0086】
デフォルト・主映像符号化部14aは、例えば、TVカメラ(図示せず)で撮影したコンテンツの映像データを取り込む。そして、デフォルト・主映像符号化部14aは、そのデフォルトコンテンツの映像データを符号化する。
【0087】
デフォルト・主音声符号化部14bは、例えば、マイクロフォン(図示せず)で収音したコンテンツの音声データを取り込む。そして、デフォルト・主音声符号化部14bは、そのデフォルトコンテンツの音声データを符号化する。
【0088】
オブジェクト符号化手段11Cについて説明する。
オブジェクト符号化手段11Cは、TVディスプレイ、端末およびぬいぐるみの提示メディア毎に、各装置で提示可能なオブジェクト(背景、キャラクタ)の情報をそれぞれ符号化する手段である。そのために、オブジェクト符号化手段11Cには、背景・主映像符号化部11a、背景・主音声符号化部11b、オブジェクト1・別映像符号化部11h、オブジェクト1・別音声符号化部11i、オブジェクト1・ぬいぐるみ動作符号化部11mおよびオブジェクト1・ぬいぐるみ音声符号化部11nが構成される。なお、この例のコンテンツ提供システム1Cでは移動可能なオブジェクトが1つであり、キャラクタも含むデフォルトコンテンツを符号化して多重信号で配信しているので、TVディスプレイに提示するためのキャラクタの主映像および主音声のデータを配信する必要はない。また、配置情報も必要がない。したがって、コンテンツ提供システム1Cのオブジェクト符号化手段11Cには、図5の破線で示しているオブジェクト1・主映像符号化部11c、オブジェクト1・主音声符号化部11dおよび主映像・配置情報符号化部11gが構成されない。
【0089】
移動情報符号化手段12Cは、受信側においてオブジェクトをどの提示装置で提示するかを決定するために必要な移動情報を符号化する手段である。そのために、移動情報符号化手段12Cには、オブジェクト1・移動情報符号化部12aが構成される。
【0090】
多重化手段13Cについて説明する。
多重化手段13Cは、各符号化手段11C,12C,14Cで符号化した全てのデータを、その符号化データに応じた最適な伝送方式により多重化して多重信号に変換する。このとき、多重化手段13Cでは、各データや各情報に対する符号化方式の情報等を格納した制御情報も多重化している。さらに、変調器(図示せず)において、多重信号にOFDM変調方式等によりデジタル変調を施す。そして、このデジタル変調された多重信号は、アンテナ(図示せず)から配信される。
【0091】
以上の構成を有するコンテンツ提供システム1Cでは、キャラクタを含むあるコンテンツを配信する場合、以下のように動作する。コンテンツ提供システム1Cでは、オブジェクト符号化手段11Cによって、TVディスプレイに提示するための背景の主映像および主音声を符号化し、端末に提示するためのキャラクタの別映像および別音声を符号化し、ぬいぐるみに提示するためのぬいぐるみ動作を符号化する。さらに、コンテンツ提供システム1Cでは、移動情報符号化手段12Cによってキャラクタに対する移動情報を生成し、その移動情報を符号化する。また、コンテンツ提供システム1Cでは、デフォルトコンテンツ符号化手段14Cによって、従来のデジタルTV放送受信機でも提示可能とするためのデフォルトコンテンツの映像および音声を符号化する。そして、コンテンツ提供システム1Cでは、多重化手段13Cによって符号化した全てのデータを多重化する。
【0092】
このコンテンツ提供システム1Cによれば、デフォルトコンテンツも設けることによって、従来のデジタルTV放送受信機でもコンテンツを提示することができる。
【0093】
図6を参照して、受信機2の構成について説明する。図6は、受信機2の構成図である。受信機2には、提示装置としてTVディスプレイD、端末T、ぬいぐるみS、自動楽器M等が無線によって信号を送受信することによって接続されている。なお、受信機2に接続される提示装置は、その受信機2が設置されている状況に応じて適宜代わる。
なお、本実施の形態では、受信機2が特許請求の範囲に記載するコンテンツ受信装置に相当する。
【0094】
受信機2には、変調された多重信号をアンテナ(図示せず)で受信し、その変調された多重信号を復調器(図示せず)において復調して得られた前記したコンテンツ提供システム1A,1B,1C等で生成された多重信号が入力される。そして、受信機2では、移動情報に基づいてどのオブジェクト(キャラクタ、楽器)をどの提示装置(TVディスプレイD、端末T、ぬいぐるみS、自動楽器M)に提示するのかを決定する。さらに、受信機2では、TVディスプレイDにコンテンツの映像データおよび音声データを合成して出力するとともに、オブジェクトを移動して提示する他の提示装置(端末T、ぬいぐるみS、自動楽器M)に各オブジェクトの符号化データを各々出力する。
【0095】
受信機2は、マイクロコンピュータによってTVディスプレイDにコンテンツを提示させるとともに他の提示装置T,S,Mにオブジェクトを提示させるための主要な処理を行っている。このマイクロコンピュータは、コンテンツ受信プログラムがインストールされており、このコンテンツ受信プログラムを実行することによって後記する各部を構成する。
【0096】
受信機2は、移動情報多重分離部20、移動情報デコード部21、提示装置インタフェース部22、提示装置接続判定部23、符号化情報選択部24、符号化情報多重分離部25、映像デコード部26、配置情報デコード部27、映像合成部28、音声デコード部29および音声合成部30を備えている。
なお、本実施の形態では、移動情報デコード部21が特許請求の範囲に記載する移動情報復号化手段に相当し、符号化情報選択部24が特許請求の範囲に記載する第2提示装置決定手段に相当する。
【0097】
移動情報多重分離部20について説明する。
移動情報多重分離部20では、復調された多重信号から符号化された移動情報を分離する。ちなみに、前記したコンテンツ提供システム1A,1Bからの多重信号を受信した場合にはキャラクタの移動情報と楽器の移動情報が分離され、前記したコンテンツ提供システム1Cからの多重信号を受信した場合にはキャラクタの移動情報が分離される。
【0098】
移動情報デコード部21について説明する。
移動情報デコード部21は、移動情報の符号化方式に応じて、移動情報多重分離部20で分離した符号化されたオブジェクトの移動情報を復号化する。
【0099】
提示装置インタフェース部22について説明する。
提示装置インタフェース部22は、受信機2に接続されるTVディスプレイD以外の提示装置T,S,Mとの信号の入出力を管理する。
【0100】
提示装置接続判定部23について説明する。
提示装置接続判定部23は、提示装置インタフェース部22を介して入力される信号に基づいて、各提示装置T,S,Mが接続されているか否かを判定する。
【0101】
図2、図4も参照して、符号化情報選択部24について説明する。
符号化情報選択部24は、移動情報デコード部21で復号化した各オブジェクトの移動情報と提示装置接続判定部23で判定した接続されている提示装置T,S,Mの情報に基づいて、オブジェクトをどの提示装置D,T,S,Mに提示するのかを決定する。符号化情報選択部24における提示装置決定処理を図7のフローチャートに沿って説明する。図7は、符号化情報選択部24におけるオブジェクトの提示装置決定処理のフローチャートである。なお、以下に説明する提示装置決定処理では、処理対象のオブジェクトをオブジェクトi(i=1,2・・・)とする。本実施の形態では、オブジェクト1はキャラクタ、オブジェクト2は楽器である。
【0102】
まず、符号化情報選択部24では、はじめのオブジェクトiとしてオブジェクト1を設定する(S1)。
【0103】
続いて、符号化情報選択部24では、移動対象のオブジェクトiがあるか否かを判定する(S2)。オブジェクトiがない場合、符号化情報選択部24では、処理を終了する。ちなみに、本実施の形態では、オブジェクトi(=3)になったときに、処理が終了する。
【0104】
オブジェクトiがある場合、符号化情報選択部24では、そのオブジェクトiの復号化された移動情報を取得する(S3)。
【0105】
そして、符号化情報選択部24では、取得した移動情報の中で優先度として一番高い優先度jを設定する(S4)。ちなみに、本実施の形態では、図2、図4に示すように、優先度2が一番高い優先度である。
【0106】
次に、符号化情報選択部24では、優先度jの値が0(デフォルト値)か否かを判定する(S5)。
【0107】
優先度jが0の場合、符号化情報選択部24では、オブジェクトiを提示する提示装置をデフォルトの提示装置(TVディスプレイD)に決定し(S6)、オブジェクトiとしてiに1を加算した次のオブジェクトiを設定してステップS2の処理に戻る(S7)。
【0108】
優先度jが0でない場合、符号化情報選択部24では、その優先度jに相当する提示装置が受信機2に接続されているか否かを判定する(S8)。例えば、図2、図4に示す移動情報では、優先度2の場合にはぬいぐるみが接続されているか否かを判定する。
【0109】
優先度jに相当する提示装置が接続されている場合、符号化情報選択部24では、オブジェクトiを提示する提示装置をその優先度jに相当する提示装置に決定し(S9)、オブジェクトiとしてiに1を加算した次のオブジェクトiを設定してステップS2の処理に戻る(S7)。
【0110】
優先度jに相当する提示装置が接続されていない場合、符号化情報選択部24では、優先度jとしてjから1を減算した次の優先度jを設定してステップS5の処理に戻る(S10)。
【0111】
以上の処理により提示装置を決定すると、符号化情報選択部24では、各オブジェクトの移動情報から、オブジェクト毎に決定した提示装置の物理提示信号(および、代替オブジェクトや付随背景が設定されている場合には、代替信号、付随信号)を選択する。
【0112】
符号化情報多重分離部25について説明する。
符号化情報多重分離部25では、符号化情報選択部24で選択した物理提示信号(および、付随背景が設定されている場合には付随信号)に基づいて、復調された多重信号から符号化された各オブジェクトのデータを選択的に分離する。なお、端末に提示する場合には、符号化された別映像の配置情報も分離する。そして、符号化情報多重分離部25では、符号化情報選択部24で決定されたTVディスプレイD以外の提示装置T,S,Mに、分離した各符号化データを提示装置インタフェース部22を介して各々出力する。
【0113】
また、符号化情報多重分離部25では、復調された多重信号から符号化された背景の主映像データ、代替オブジェクトが設定されている場合には代替オブジェクトの代替映像データ、主映像の配置情報、TVディスプレイDにオブジェクトを提示する場合には各オブジェクトの主映像データおよび主音声データを選択して分離する。そして、符号化情報多重分離部25では、分離した各符号化データを映像デコード部26、配置情報デコード部27、音声デコード部29に各々に出力する。
【0114】
映像デコード部26について説明する。
映像デコード部26では、各データの符号化方式に応じて、符号化情報多重分離部25からの符号化された背景の主映像データ、代替オブジェクトが設定されている場合には代替オブジェクトの代替映像データ、TVディスプレイDにオブジェクトを提示する場合には各オブジェクトの主映像データを復号化する。
【0115】
配置情報デコード部27について説明する。
配置情報デコード部27では、主映像の配置情報の符号化方式に応じて、符号化情報多重分離部25からの符号化された主映像の配置情報を復号化する。
【0116】
映像合成部28について説明する。
映像合成部28は、復号された主映像の配置情報に基づいて、背景の主映像にTVディスプレイDにオブジェクトを提示する場合には各オブジェクトの主映像または代替オブジェクトが設定されている場合には代替オブジェクトの代替映像を合成した映像データを生成し、TVディスプレイDに出力する。
【0117】
音声デコード部29について説明する。
音声デコード部29では、各データの符号化方式に応じて、符号化情報多重分離部25からの符号化された背景の主音声データ、TVディスプレイDにオブジェクトを提示する場合には各オブジェクトの主音声データを復号化する。
【0118】
音声合成部30について説明する。
音声合成部30は、背景の主音声にTVディスプレイDにオブジェクトを提示する場合には各オブジェクトの主音声を合成した音声データを生成し、TVディスプレイDに出力する。
【0119】
図6を参照して、TVディスプレイDについて説明する。
TVディスプレイDは、大型ディスプレイおよびスピーカとアンプ等を備えており、デジタルTV放送で配信されたコンテンツを提示する装置である。TVディスプレイDでは、受信機2から送信された映像データにより大型ディスプレイでコンテンツを映像表示するとともに、受信機2から送信された音声データによりスピーカからコンテンツを音声出力する。
【0120】
図6を参照して、端末Tについて説明する。
端末Tは、前記したように、小型画面付きリモコンであり、映像および音声の出力が可能である。端末Tでは、受信機2から符号化された各オブジェクトの別映像データおよび別音声データ、別映像の配置情報、付随背景が設けられている場合には付随背景の別映像データが送信されてきたときに、各オブジェクトを映像と音声で提示する。そのために、端末Tは、提示メディアデコード部Taおよび提示デバイスTbを備えている。
【0121】
提示メディアデコード部Taでは、各符号化方式に応じて、符号化された各オブジェクトの別映像データ、各オブジェクトの別音声データ、別映像の配置情報を復号化する。そして、提示メディアデコード部Taでは、別映像の配置情報に基づいて、オブジェクトの映像データを生成する。特に、付随背景の別映像データがある場合には、提示メディアデコード部Taは、符号化された付随背景の別映像データを復号化し、オブジェクトの別映像に付随背景を合成して映像データを生成する。
【0122】
提示デバイスTbは、小型の液晶ディスプレイおよびスピーカとアンプ等からなる。提示デバイスTbでは、提示メディアデコード部Taで生成した映像データにより小型の液晶ディスプレイでオブジェクトを映像表示するとともに、提示メディアデコード部Taで復号化した音声データによりスピーカからオブジェクトを音声出力する。
【0123】
図6を参照して、ぬいぐるみSについて説明する。
ぬいぐるみSは、前記したように、制御機能付きのぬいぐるみであり、手足等の動作および音声の出力が可能である。ぬいぐるみSでは、受信機2から符号化されたぬいぐるみ動作の制御情報、ぬいぐるみ音声データが送信されてきたときに、キャラクタを動作と音声で提示する。そのために、ぬいぐるみSは、提示メディアデコード部Saおよび提示デバイスSbを備えている。
【0124】
提示メディアデコード部Saでは、各符号化方式に応じて、符号化されたぬいぐるみ動作の制御情報、ぬいぐるみ音声データを復号化する。
【0125】
提示デバイスSbは、電気的に制御可能な手足等の動作機構およびスピーカとアンプ等からなる。提示デバイスSbでは、提示メディアデコード部Saで復号化したぬいぐるみ動作の制御情報によりコンテンツのキャラクタの動作に応じてぬいぐるみ手足等の動作し、提示メディアデコード部Saで復号化した音声データによりスピーカからキャラクタの音声を出力する。
【0126】
図6を参照して、自動楽器Mについて説明する。
自動楽器Mは、前記したように、制御機能付きの楽器であり、楽器の自動演奏が可能である。自動楽器Mでは、受信機2から符号化された演奏情報が送信されてきたときに、楽器を自動演奏で提示する。そのために、自動楽器Mは、提示メディアデコード部Maおよび提示デバイスMbを備えている。
【0127】
提示メディアデコード部Maでは、符号化方式に応じて、符号化された演奏情報を復号化する。
【0128】
提示デバイスMbは、電気的に制御によって自動で演奏する楽器からなる。提示デバイスMbでは、提示メディアデコード部Maで復号化した演奏情報によりコンテンツの楽器の演奏に応じて自動で楽器を演奏する。
【0129】
以上の構成を有する受信機2では、コンテンツ提供システム1A,1B,1C等から配信された多重信号を受信した場合、以下のように動作する。受信機2では、受信した多重信号を復調する。続いて、受信機2では、多重信号から符号化されたオブジェクト毎の移動情報を分離し、その移動情報を復号化する(図2、図4参照)。そして、受信機2では、そのオブジェクト毎の移動情報と接続されている提示装置T,S,Mに基づいて、各オブジェクトを提示する提示装置を決定する。
【0130】
続いて、受信機2では、各オブジェクト毎に決定した提示装置に基づいて、多重信号から符号化された各オブジェクトのデータを選択的に分離し、分離した各符号化データをその決定した提示装置に各々送信する。符号化データが送信された各提示装置では、その符号化データを復号化し、その送信されたタイミングでオブジェクトを提示する。
【0131】
また、受信機2では、多重信号からTVディスプレイDにコンテンツを提示するために必要な全ての符号化データを選択的に分離し、その分離した符号化データを各々復号化する。そして、受信機2では、背景のみのコンテンツあるいは背景と代替オブジェクトまたはオブジェクトとを合成したコンテンツの映像データおよび音声データを生成し、TVディスプレイDに送信する。コンテンツの映像データおよび音声データが送信されたTVディスプレイDでは、コンテンツの映像データおよび音声データにより、コンテンツを映像表示および音声出力する。
【0132】
したがって、TVディスプレイDでコンテンツを視聴していると、以下のような視聴環境となる。コンテンツにおいてキャラクタが登場する場面では、TVディスプレイDの画面からキャラクタが消えて背景か代替オブジェクトが表示されるとともに、キャラクタの音声も無くなる。しかし、端末Tの画面にキャラクタが表示されるとともに音声が出力されるか、あるいは、ぬいぐるみSがTVディスプレイDの状況に合わせて動き始めるとともに音声を発する。また、楽器が演奏する場合では、TVディスプレイDの画面から楽器が消えて背景か代替オブジェクトが表示されるとともに、楽器の演奏音も無くなる。しかし、端末Tの画面に楽器が表示されるとともに演奏音が出力されるか、あるいは、自動楽器MがTVディスプレイDの状況に合わせて演奏を始める。このような視聴環境によって、視聴者は、臨場感や娯楽性に溢れるコンテンツを楽しむことができる。
【0133】
ここで、受信機2に接続されている提示装置(利用可能な提示装置)T,S.Mに応じて各オブジェクトをどの提示装置D,T,S,Mで提示するのかを、コンテンツ提供システム1Aで配信する多重信号を受信した場合とコンテンツ配信システム1Bで配信する多重信号を受信した場合の例で説明する。
【0134】
図8を参照して、受信機2でコンテンツ提供システム1Aで配信する多重信号を受信した場合の例を説明する。図8は、図1に示す場合における利用可能な提示装置と提示するオブジェクトとの関係を示す図である。
【0135】
受信機2にデフォルトの提示装置であるTVディスプレイDしか接続されていない場合、キャラクタおよび楽器はTVディスプレイDに提示される。
【0136】
受信機2に端末Tのみ接続されている場合、ぬいぐるみおよび楽器についてはTVディスプレイDより端末Tのほうが優先度が高い(図2参照)。したがって、キャラクタおよび楽器は、端末Tに提示される。そのため、TVディスプレイDでは、背景のみを提示する。
【0137】
受信機2にぬいぐるみSのみ接続されている場合、キャラクタについてはTVディスプレイDよりぬいぐるみSのほうが優先度が高い(図2参照)。したがって、キャラクタは、ぬいぐるみSに提示される。そのため、TVディスプレイDでは、背景および楽器を提示する。
【0138】
受信機2に端末TおよびぬいぐるみSが接続されている場合、キャラクタについてはTVディスプレイDおよび端末TよりぬいぐるみSのほうが優先度が高く、楽器についてはTVディスプレイDより端末Tのほうが優先度が高い(図2参照)。したがって、キャラクタは、ぬいぐるみSに提示される。また、楽器は、端末Tに提示される。そのため、TVディスプレイDでは、背景のみを提示する。
【0139】
受信機2に自動楽器Mのみ接続されている場合、楽器についてはTVディスプレイDより自動楽器Mのほうが優先度が高い(図2参照)。したがって、楽器は、自動楽器Mに提示される。そのため、TVディスプレイDでは、背景およびキャラクタを提示する。
【0140】
受信機2に端末Tおよび自動楽器Mが接続されている場合、キャラクタについてはTVディスプレイDより端末Tのほうが優先度が高く、楽器についてはTVディスプレイDおよび端末Tより自動楽器Mのほうが優先度が高い(図2参照)。したがって、キャラクタは、端末Tに提示される。また、楽器は、自動楽器Mに提示される。そのため、TVディスプレイDでは、背景のみを提示する。
【0141】
受信機2にぬいぐるみSおよび自動楽器Mが接続されている場合、キャラクタについてはTVディスプレイDよりぬいぐるみSのほうが優先度が高く、楽器についてはTVディスプレイDより自動楽器Mのほうが優先度が高い(図2参照)。したがって、キャラクタは、ぬいぐるみSに提示される。また、楽器は、自動楽器Mに提示される。そのため、TVディスプレイDでは、背景のみを提示する。
【0142】
受信機2に端末T、ぬいぐるみSおよび自動楽器Mが接続されている場合、キャラクタについてはTVディスプレイDおよび端末TよりぬいぐるみSのほうが優先度が高く、楽器についてはTVディスプレイDおよび端末Tより自動楽器Mのほうが優先度が高い(図2参照)。したがって、キャラクタは、ぬいぐるみSに提示される。また、楽器は、自動楽器Mに提示される。そのため、TVディスプレイDでは、背景のみを提示する。ちなみに、端末Tには、オブジェクトが提示されない。
【0143】
図9を参照して、受信機2でコンテンツ提供システム1Bで配信する多重信号を受信した場合の例を説明する。図9は、図3に示す場合における利用可能な提示装置と提示するオブジェクトとの関係を示す図である。
【0144】
この例も、利用可能な提示装置と提示するオブジェクトとの関係は、前記した受信機2でコンテンツ提供システム1Aで配信する多重信号を受信した場合の例と同様の関係となる。その上、この例では、TVディスプレイDでは、他の提示装置T,S,Mでキャラクタまたは/および楽器を提示する場合、その抜けた後に、キャラクタの代替オブジェクトまたは/および楽器の代替オブジェクトを表示する。また、この例では、端末Tでは、キャラクタまたは/および楽器を提示する場合、キャラクタの背景または/および楽器の背景も表示する。
【0145】
以上、本発明の実施の形態について説明したが、本発明は、前記の実施の形態に限定されることなく、様々な形態で実施される。
例えば、本実施の形態ではコンテンツ提供システムおよび受信機における各部をプログラムを実行することによってソフトウエア的に構成したが、電子回路によってハードウエア的に構成してもよい。
また、本実施の形態ではデジタルTV放送による放送によってコンテンツを配信する構成としたが、インターネット等の通信によるコンテンツの配信やパッケージメディア等の蓄積媒体によるコンテンツの配信等の他の配信方法によってコンテンツを配信してもよい。
また、本実施の形態ではデジタルTV放送によって映像および音声からなるコンテンツを対象としたが、ラジオ放送による音声のみからなるコンテンツや映像のみからなるコンテンツを対象としてもよい。
また、本実施の形態ではデジタルTV放送を対象としたが、デフォルトのコンテンツの背景のみをアナログ放送で配信して、オブジェクトに関する情報をデジタル放送で配信することも考えられる。
【0146】
また、本実施の形態ではオブジェクトをキャラクタと楽器としたが、人、動物、電話、目覚まし時計等の様々なものが対象としてもよい。
また、本実施の形態では第1提示装置をTVディスプレイとしたが、パソコンの出力装置、ラジオ、PDA等の他の装置でもよい。
また、本実施の形態では第2提示装置を端末、ぬいぐるみおよび自動楽器としたが、人形、ロボット、電話、目覚まし時計、照明機器、インターホン等の他の装置でもよい。
また、本実施の形態では受信機とTVディスプレイを別体で示しているが、一体でTV受信機としてもよい。
また、本実施の形態では端末等においてオブジェクトの情報を復号化したが、オブジェクトの情報も受信機において復号化してもよい。
【0147】
また、本実施の形態では異なる提示装置間(例えば、TVディスプレイと端末間)であっても同一の提示メディア間で符号化データを共有する構成としたが、異なる提示メディア間で符号化データを共有することも考えられる。例えば、キャラクタの形状や動作の符号化データがあれば、コンピュータグラフィックスでキャラクタを描画して主映像のオブジェクトとして用いたり、同様に、端末の映像のオブジェクトとして用いたり、ぬいぐるみの動作情報に用いたりと、このオブジェクトの全ての提示装置で共通に使用することが可能である。また、主映像のキャラクタの符号化データを端末の別映像として用いる以外に、さらに、主映像のキャラクタの符号化データからキャラクタの動作情報を抽出し、ぬいぐるみを動作させることも考えられる。
【0148】
また、本実施の形態ではデフォルトの提示メディアとして映像および音声でのTV放送によるサービスに適用したが、映像や音声以外の提示メディアによるサービス、例えば、データ放送サービス等に適用してもよい。デフォルトの提示メディアであっても、移動先の提示メディアであってもよいが、データ放送サービスを提示メディアに導入することによって、インタラクティブな(双方向の)要素を有するオブジェクト移動コンテンツをサービスすることが可能になる。すなわち、利用者のインタラクティブな操作によってオブジェクトの動き等の提示が変化するコンテンツや、利用者のインタラクティブな操作によってオブジェクトの提示装置(提示メディア)が変化するコンテンツ等も可能である。
【0149】
また、本実施の形態以外にも本発明を利用して様々なサービスが可能であり、そのいくつかの例を挙げる。
その一例としては、キャラクタの指人形やあやつり人形が出演者と掛け合いをしながら番組を進行していくような子供向け番組がある。この例では、TVディスプレイのみしかない環境においては、従来のTV番組のようにキャラクタの人形がTV画面の中でその役を演じる。TVディスプレイの外部機器として動作するキャラクタのぬいぐるみが接続されている環境では、キャラクタの提示はそのぬいぐるみを用いて行う。この際、TV画面では人形が表示されなくなり、TV画面中の出演者とTV画面外のぬいぐるみとが掛け合いをしているように番組が進行する。これは、最も簡単で現実的な例だが、コンテンツの制作に凝れば、さらに複雑な絡み合いをする番組も作製可能である。
【0150】
また、その他の例としては、アニメーションのアシスタントが学習の補助をしながら進行していく語学番組等がある。この例では、TVディスプレイのみしかない環境においては、従来のTV番組のようにアシスタントがTV画面の中で指導をしていく。TVディスプレイの外部機器として小型画面付き手元リモコン(例えば、PDA)が接続されている環境では、アシスタントは小型画面の中で指導をしていく。この際、例えば、スキット等の映像はTV画面に残したまま、学習のポイントとなる練習文や発音を移動可能オブジェクトとして小型画面付き手元リモコンで提示することが考えられる。
【0151】
また、アクション番組やアニメーション番組においては、変身(進化)用アイテムがよく登場し、変身(進化)の場面になると、このアイテムが動作する場面が登場する。そして、この変身(進化)シーンでは、TV画面の中で「ピカピカ」や「チカチカ」といったようにアイテムの動作シーンが展開される。また、人気のアクション番組やアニメ番組の場合、その変身(進化)用アイテムのおもちゃが販売されている。そこで、そのおもちゃをTV受信機の外部機器として動作するように作っておく。そして、このおもちゃがTVディスプレイの近く(通信可能な領域)に置かれている場合には、変身(進化)シーンになると、このおもちゃのアイテムそのものが「ピカピカ」や「チカチカ」等と動作することにより、子供たちを喜ばせる。
【0152】
また、楽器が飛び出すサービスとして、いわゆるテレミュージックに応用したサービスも考えられるが、ここでは少し変わった新たなサービスの例を示す。その例は、劇場中継やコンサート中継等の生のオーケストラが登場する番組である。この例では、TVディスプレイのみしかない環境においては、従来の中継として視聴することができる。TVディスプレイの外部機器として家庭用の箱庭オーケストラを想定する。この箱庭オーケストラは、一般的なオーケストラの配置に、見た目の効果としての楽器のミニチュアと、各楽器近傍にその音域に適した再生能力を持つスピーカが配置され、各楽器のパートの演奏音を再生する機能を持っている。TVディスプレイの外部機器としてこの箱庭オーケストラが接続されている場合には、オーケストラの音はTVディスプレイのスピーカからではなく、この箱庭オーケストラから提示される。そのため、定位のすばらしいステレオ感が得られる。
【0153】
また、その他の例として、ドラマ等もある。この例では、TVディスプレイのみしかない環境においては、従来のドラマとして視聴することができる。しかし、TVディスプレイの外部機器として制御機能を有する電話や目覚まし時計等が接続されている環境では、例えば、電話が鳴るシーン、目覚まし時計が鳴るシーン等の特徴的な音を発するシーンになると、映像のオブジェクトを移動させるのは現実的ではないが、音のオブジェクトだけでも、実際に居間にある電話や寝室の目覚まし時計によって提示する。そのため、非常にリアルなドラマの演出効果が期待できる。
【0155】
【発明の効果】
本発明の請求項1に係るコンテンツ提供システムは、第2提示装置で提示するために必要なオブジェクトの情報を簡単に取り出すことができるとともに、受信側においてオブジェクトの移動情報に基づいてそのオブジェクトを提示する第2提示装置を決定することができる。
【0160】
本発明の請求項2に係るコンテンツ受信装置は、オブジェクトの移動情報により、オブジェクトを提示する第2提示装置を決定することができる。
【0161】
本発明の請求項3に係るコンテンツ提供方法は、第2提示装置で提示するために必要なオブジェクトの情報を簡単に取り出すことができるとともに、受信側においてオブジェクトの移動情報に基づいてそのオブジェクトを提示する第2提示装置を決定することができる。
【0162】
本発明の請求項4に係るコンテンツ受信方法は、本発明に係るコンテンツ受信方法によって提供されたコンテンツにより、そのコンテンツに含まれるオブジェクトを第2提示装置に提示させることができる。
【0163】
本発明の請求項5に係るコンテンツ提供プログラムは、コンピュータで実行させることによって、本発明に係るコンテンツ提供方法を実現できる。
【0164】
本発明の請求項6に係るコンテンツ受信プログラムは、コンピュータで実行させることによって、本発明に係るコンテンツ受信方法を実現できる。
【図面の簡単な説明】
【図1】本実施の形態に係るコンテンツ提供システムの構成図の一例であり、オブジェクトが2つ(キャラクタと楽器)の場合である。
【図2】図1に示す場合の移動情報の構成を示す図であり、(a)がオブジェクト1(キャラクタ)の移動情報であり、(b)がオブジェクト2(楽器)の移動情報である。
【図3】本実施の形態に係るコンテンツ提供システムの構成図の他の例であり、オブジェクトが2つ(キャラクタと楽器)で代替オブジェクトおよび付随オブジェクトがある場合である。
【図4】図3に示す場合の移動情報の構成を示す図であり、(a)がオブジェクト1(キャラクタ)の移動情報であり、(b)がオブジェクト2(楽器)の移動情報である。
【図5】本実施の形態に係るコンテンツ提供システムの構成図の他の例であり、オブジェクトが1つ(キャラクタ)で従来のデジタルTV放送受信機との互換性を考慮した場合である。
【図6】本実施の形態に係る受信機の構成図である。
【図7】図6の符号化情報選択部におけるオブジェクトの提示装置決定処理のフローチャートである。
【図8】図1に示す場合における利用可能な提示装置と提示するオブジェクトとの関係を示す図である。
【図9】図3に示す場合における利用可能な提示装置と提示するオブジェクトとの関係を示す図である。
【符号の説明】
1A,1B,1C・・・コンテンツ提供システム
2・・・受信機(コンテンツ受信装置)
11A,11B,11C・・・オブジェクト符号化手段
12A,12B,12C・・・移動情報符号化手段
14C・・・デフォルトコンテンツ符号化手段
21・・・移動情報デコード部(移動情報復号化手段)
24・・・符号化情報選択部(第2提示装置決定手段)
D・・・TVディスプレイ(第1提示装置)
M・・・自動楽器(第2提示装置)
S・・・ぬいぐるみ(第2提示装置)
T・・・端末(第2提示装置)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a content providing system, a content receiving device, a content providing method, a content receiving method, a content providing program, and a content receiving program that provide content with a high level of entertainment.
[0002]
[Prior art]
In recent years, digital broadcasting and content distribution via the Internet have provided video and audio with a high degree of satisfaction for users compared to conventional television (hereinafter referred to as TV) broadcasting. Data broadcasting also enables two-way communication with the user, further enhancing user satisfaction.
[0003]
Data broadcasting is to perform various services by adding additional information based on data to the main service such as video and audio such as TV broadcasting, etc., and presenting the additional information based on the data is a device that presents video and audio of the main service (for example, , TV receiver). Recently, some data broadcasts control various devices other than the device that presents the video and audio of the main service, but the video and audio of the main service can be changed by additional information for controlling the various devices. It doesn't let you.
[0004]
In addition, a technique for extracting an object included in content and encoding video and audio has been developed. This encoding technique is mainly for the purpose of high-efficiency encoding, and is a technique for efficiently encoding object video and audio data. Therefore, this encoding technique is not encoded for the purpose of presenting an object on a presentation device other than a presentation device that outputs video and audio, but is enclosed in a presentation device that outputs video and audio. This is a data encoding technique.
[0005]
[Problems to be solved by the invention]
However, there is no conventional service that provides content by moving an object such as a character included in the content to various devices other than the device that presents video and audio of the main service. When such a service is realized, characters and the like can jump out of the TV screen, and the content is full of realism and rich in entertainment.
[0006]
The conventional technology in data broadcasting is a technology that can control various devices other than the device that presents the video and audio of the main service, and is premised on adding information to the video and audio of the main service. Therefore, it is not possible to take out an object from the video and audio of the main service and present the object to various devices other than the device that presents the video and audio of the main service. In addition, the conventional object encoding technology and the alternative technology for video and audio scene objects in server-type broadcasting can encode objects contained in content, but target data handled in one presentation device. Technology. Therefore, it is not possible to perform such encoding that the object is moved to a presentation device other than the main presentation device.
[0007]
Accordingly, an object of the present invention is to provide a content providing system, a content receiving device, a content providing method, a content receiving method, a content providing program, and a content receiving program capable of moving and presenting an object included in content between presentation devices. There is.
[0008]
[Means for Solving the Problems]
The content providing system according to
[0009]
Claims of the invention2Pertaining toThe content receiving device is integrated with a first presentation device that presents content in video and / or audio, corresponds to an object included in the content, and presents the content by an alternative means other than video and / or audio A content receiving device connected to a second presentation device and receiving the content from a content providing system, the first presentation device and the second presentation device capable of presenting the object for each object included in the content A presentation medium that is set for each of the images and is a means for presenting the object by the first presentation device and the second presentation device, and presents one object as the first presentation device, When the object can be presented by a plurality of the second presentation devices, the object is presented. A movement information decoding means for decoding movement information including at least a priority indicating a prior order; and a second presentation device for presenting the object based on the decoded movement information. Presentation device determining means, wherein the object is presented to the second presentation device determined by the second presentation device determination means.
[0010]
Claims of the invention3Pertaining toThe content providing method is integrated with a first presentation device that presents content in video and / or audio, corresponds to an object included in the content, and presents the content by an alternative means other than video and / or audio A content providing method for providing the content to a content receiving device connected to a second presentation device, wherein the first presentation device and the second presentation device are capable of presenting the object for each object included in the content. A presentation medium that is set for each of the images and is a means for presenting the object by the first presentation device and the second presentation device, and presents one object as the first presentation device, Priority order in which the objects are presented when the plurality of second presentation devices can present them Including at least movement information, a priority that indicates the the mobile information encoding step of encoding includes, and providing a multiplexed signal including the mobile information encoded in the content receiving apparatus.
[0011]
Claims of the invention4Pertaining toThe content receiving method is integrated with a first presentation device that presents content in video and / or audio, corresponds to an object included in the content, and presents the content by an alternative means other than video and / or audio A content receiving method for receiving the content from a content providing system to a content receiving device connected to a second presentation device, wherein the first presentation device is capable of presenting the object for each object included in the content, and A presentation medium which is set for each of the second presentation devices and is a means for presenting the object by the first presentation device and the second presentation device, and a presentation medium indicating video, audio, action and performance information, and one object In the case where presentation is possible with the first presentation device and the plurality of second presentation devices, A movement information decoding step for decoding movement information including at least a priority indicating a priority order for presenting objects; and a second presentation device for presenting the object based on the decoded movement information. A second presentation device determination step for determining, wherein the object is presented to the second presentation device determined in the second presentation device determination step.
[0012]
Claims of the invention5Pertaining toThe content providing program is integrated with a first presentation device that presents content in video and / or audio, corresponds to an object included in the content, and presents the content by an alternative means other than video and / or audio A content providing program for providing the content to a content receiving device to which the second presentation device is connected, wherein the computer provides the content providing method according to claim 3.
[0013]
A content receiving program according to claim 6 of the present invention is a content receiving program for receiving content provided by the content providing method according to claim 3, wherein the content receiving program according to claim 4 is received by a computer. It is characterized by realizing the method.
[0014]
The content providing system according to claim 7 of the present invention is the content providing system according to
[0015]
The content receiving device according to claim 8 of the present invention is the content receiving device according to
[0016]
The content providing method according to claim 9 of the present invention is the content providing method according to claim 3, wherein the first presentation device is a TV display including an audio output device, and the second presentation device is a limb. It is a stuffed toy capable of movement and voice output.
[0017]
The content reception method according to claim 10 of the present invention is the content reception method according to claim 4, wherein the first presentation device is a TV display including an audio output device, and the second presentation device is a limb. It is a stuffed toy capable of movement and voice output.
[0019]
The first presentation device is a device that outputs content in video and / or audio, and includes, for example, a TV display (including an audio output device), a computer display and audio output device, a radio, and the like. The second presentation device is a device that can present video and / or audio of an object included in content by an alternative means and can be controlled from the outside. For example, a terminal such as a PDA [personal digital assistant] There are stuffed toys, operable stuffed animals, robots, automatic musical instruments that perform automatically, telephones, alarm clocks, and so on. In addition, the object can present the video and / or audio by an alternative means in the content presented by video and / or audio, for example, various characters such as humans, animals, animals and animation, dolls, There are musical instruments, telephones, alarm clocks, etc. Further, the substitute object is another object that is presented instead of the object that has been removed when the object is moved from the content presented by the first presentation device to the second presentation device. There are other objects hidden behind the object. The accompanying object is an object that is presented along with the object when the object is moved to the second presentation device and is not presented only with the accompanying object. For example, the background of the moved object is moved. There are sound effects for objects.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of a content providing system, a content receiving apparatus, a content providing method, a content receiving method, a content providing program, and a content receiving program according to the present invention will be described with reference to the drawings.
[0021]
According to the present invention, in order to further improve the satisfaction level of a user who enjoys video and audio of content, the object included in the content is moved from the presentation device presenting the content to another presentation device and presented. Therefore, in the present invention, the video and / or audio information obtained by separating the object from the content presented by the first presentation device is encoded, and the information for presenting the object by the second presentation device is the first destination. 2 Separately encode for each presentation device and for each object. Furthermore, in the present invention, in order to determine the second presentation device that presents the object on the receiving side, information that the object is a movement target, information on the second presentation device that can be moved and the second that can be moved and presented. When there are a plurality of presentation devices, movement information including movement priority information is encoded.
[0022]
In the present embodiment, the present invention is applied to a content providing system that distributes content (TV program) by digital TV broadcast and a receiver that receives content by the broadcast. In the present embodiment, in order to simplify the explanation, the object is a character such as an animal and a musical instrument such as a piano, the first presentation device is a TV display (including an audio output device), and the second presentation device is Is a terminal such as a PDA, a stuffed toy corresponding to a character (object), and an automatic musical instrument corresponding to an instrument (object). The character is presented on the TV display when the second presentation device is not connected, is presented on the terminal when the terminal is connected, or is stuffed when the stuffed character is connected Presented. The musical instrument is presented on the TV display when the second presentation device is not connected, is presented on the terminal when the terminal is connected, or is an automatic musical instrument when an automatic musical instrument is connected. Presented. The terminal is, for example, a remote controller with a small screen that a viewer has at hand, and can output video and audio. The stuffed toy is equipped with a control function, and can operate limbs and output voice. The automatic musical instrument has a control function and can automatically play the musical instrument.
[0023]
The content providing system according to the present embodiment is configured in a TV broadcasting station, and is a system that distributes content by terrestrial broadcasting or satellite broadcasting. A TV broadcast station is assigned with one channel of a transmission band of several MHz, and is a broadcast station that provides various TV program contents such as drama, sports, variety, news, and the like. In order to provide the content, the content providing system encodes data obtained by separating the object from the content, data of the object, and the like, and further generates a multiplexed signal (digital broadcast signal).
[0024]
In addition, the content providing system according to the present embodiment performs main processing for generating multiple signals by a computer. This computer has a content providing program installed therein, and constitutes means (units) described later by executing the content providing program.
[0025]
The configuration of the content providing system according to this embodiment will be described. In this embodiment, when there are two objects, when there are two objects and there are alternative objects and accompanying objects, there is one object and the conventional digital Three examples in consideration of compatibility with a TV broadcast receiver will be described. Note that the configuration of the content providing system appropriately changes depending on the number and type of objects, the number and type of presentation devices capable of moving and presenting objects, alternative objects, associated objects, and the like.
[0026]
With reference to FIG. 1, the structure of the content providing system 1A in the case where there are two objects (characters and musical instruments) will be described. FIG. 1 is a configuration diagram of the content providing system 1A, in which there are two objects.
[0027]
In the content providing system 1A, content objects (characters, musical instruments) to be presented on a TV display, background video and audio information, presentation devices capable of presenting objects (TV displays, terminals, stuffed animals, automatic musical instruments) and individual objects The information for making each presentation device present and the information on which presentation device the object is moved to are encoded respectively. Furthermore, in the content providing system 1A, all the encoded information is multiplexed to generate a multiplexed signal. Then, the content providing system 1A distributes this multiplexed signal. The objects include background objects in addition to characters and musical instruments. At this time, in encoding of each object including the background, it is necessary to encode as complete information including a portion which is behind other objects.
[0028]
In order to generate a multiplexed signal, the content providing system 1A includes an
[0029]
The
The
In the present embodiment, the background / main
[0030]
The background / main
[0031]
The background / main
[0032]
The
[0033]
The
[0034]
The
[0035]
For example, the
[0036]
The main video / arrangement
[0037]
The
[0038]
For example, the
[0039]
The
[0040]
The
[0041]
The separate video / placement information encoding unit 11l separates the separate video object placement information related to the placement of the object, such as which object is in front of the object when placing the object on the terminal, according to the coding method suitable for the terminal. The video object arrangement information is encoded. However, when a dedicated terminal is provided for each object, the separate video object arrangement information is not necessary, so the processing in the separate video / arrangement information encoding unit 11l is not performed.
[0042]
The
[0043]
The
[0044]
The
[0045]
In the above, the description has been made on the basis of shooting or sound collection separately for each object. However, the object is separated from the video shot using the object extraction technique and encoded, for example, in CG or virtual studio, the object portion. A method such as encoding may be used.
[0046]
The movement
[0047]
The movement
[0048]
The movement information will be described with reference to FIG.
The movement information is set for each object to be moved in order to indicate which object is the movement target. Furthermore, the movement information for each object is set for each presentation device that can be moved and presented to indicate which presentation device the object can be moved and presented. For each presentation device, priority, presentation media, logic It has information on presentation signals and physical presentation signals.
[0049]
The priority indicates a priority order to present when one object can be presented by a plurality of presentation devices (including a TV display). In the example of FIG. Is high.
[0050]
In the present embodiment, the presentation device includes a TV display, a terminal, a stuffed animal, an automatic musical instrument, and the like, and the information may be encoded and expressed.
[0051]
The presentation media represents a means (and thus a type of data necessary for presentation by the means) presented in each presentation device, and is an MPEG-2 multiplexing (ISO / IEC13818-1) or ARIB (Radio Industry Association) program. It may have functions equivalent to “stream format identification”, “data encoding system identification”, etc. in the array information system (ARIB STD-B10), and the information may be encoded and expressed. Incidentally, the presentation media of the TV display and the terminal are video and audio. The presentation medium of the stuffed animal is movement and sound. The automatic media presentation media is performance information.
[0052]
The logical presentation signal indicates a logical configuration of each piece of data separated and encoded by the
[0053]
The physical presentation signal indicates the substance of each data separated and encoded by the object encoding means 11A, and is substantially “ES_pid [Elementary Stream Packet Identifier] in the MPEG-2 multiplexing system or the ARIB program sequence information system. "Or" component tag "is information on pointers to encoded data. By the way, the physical presentation signal of the TV display is a pointer to each encoded data of the
[0054]
Returning to the description of the movement information encoding means 12A, the
[0055]
The
[0056]
The multiplexing means 13A will be described.
The multiplexing unit 13A multiplexes all the data encoded by the
[0057]
Here, the encoding method and the transmission method will be described in a little more detail. As an encoding method, an optimum method is adopted in accordance with each presentation medium, arrangement information, and movement information of each object in consideration of each presentation device and the type of data (information). In this way, by using an optimal encoding method, it is possible to perform encoding excellent in real-time performance and encoding efficiency. Also, as the transmission method, a method that is excellent in real-time property is adopted according to the encoding method.
[0058]
An object encoding transmission system will be described.
The encoding method of the object is not particularly limited, but an encoding method suitable for each video, audio, motion information, performance information and for each presentation device is adopted. For example, an MPEG-2 encoding method or an MPEG-4 code is used. System. In addition, the transmission method of the object adopts a transmission method according to the encoding method, and for example, a method that can synchronize between objects by PES format or the like is appropriate. Incidentally, when MPEG-4 is employed as the video encoding method, it is possible to encode a plurality of objects for one presentation medium without encoding each object separately. In addition, since it is finally necessary to present the objects in an overlapping manner at the receiver, in particular, in video coding, in addition to coding for the usual three information (in the case of color) of RGB and YPbPr Thus, it is also necessary to encode another piece of information for representing the shape of the object.
[0059]
A description will now be given of an encoded transmission method for object arrangement information.
The encoding method of the arrangement information is not particularly limited, but an encoding method suitable for the arrangement information and the presentation device is adopted. Further, the transmission method of the arrangement information adopts a transmission method according to the encoding method, for example, a method of encoding and transmitting to PSI / SI in the MPEG-2 multiplexing method or the ARIB program sequence information method, binary or XML [ There is a method of encoding by Extensible Markup Language] and transmitting by PES, a dedicated table, a DSM-CC (Digital Storage Media Command and Control) (data carousel, object carousel) method, or the like. At this time, although strictness is not required as much as synchronization between objects, in order to cope with a dynamic change in the arrangement of objects, a PSI / SI method or a PES method, which is a transmission method with some real-time property, is used. desirable. Incidentally, the PSI / SI system is a system up to the near real-time property on the order of seconds, and the PES method is suitable when real-time property with higher time accuracy is required. Note that, as one piece of information for video coding, it is also an option to handle this as arrangement information by coding the depth of the object. If the arrangement information is encoded by this method, not only real-time arrangement information but also complicated overlap of objects can be expressed.
[0060]
A coded transmission scheme for mobile information will be described.
The encoding method of the movement information is not particularly limited, but an encoding method suitable for the movement information is adopted. Further, the mobile information transmission method adopts a transmission method according to the encoding method, for example, a method for encoding and transmitting to PSI / SI in the MPEG-2 multiplexing method or the ARIB program sequence information method, binary or XML. There is a method of encoding and transmitting by PES, dedicated table, DSM-CC method and the like. At this time, although the strictness is not required as much as the synchronization between objects, the PSI / SI method or the PES method, which is a transmission method having some real-time property, is desirable in order to cope with the dynamic change of the object configuration. .
[0061]
Further, sharing of encoded data of the object will be described in a little more detail. For example, another video or another audio when presented using a terminal has the same TV display and presentation media, so the main video and main audio data presented on the TV display can be used as they are. Further, since the sound of the stuffed animal only needs to be output as if the stuffed animal is speaking, the same data as the main sound of the TV display may be used even if it is not a special audio signal. In such a case, it is not necessary to encode and transmit the same data as data for another presentation device, and the entity of the same encoded data may be used. For this purpose, the physical presentation signal is set with the same signal. For example, in the example of the character movement information shown in FIG. 2 (a), the physical presentation signal of the separate video and the separate voice of the terminal is set as the main video and the physical presentation signal of the main voice of the TV display, and the physical nature of the stuffed voice The presentation signal is set by the physical presentation signal of the main voice of the TV display. Further, in the example of the movement information of the musical instrument shown in FIG. 2B, the physical presentation signals for the separate video and separate audio of the terminal are set by the main video and main physical presentation signal of the TV display.
[0062]
The content providing system 1A having the above configuration operates as follows when distributing a certain content including a character and a musical instrument. In the content providing system 1A, the object encoding means 11A encodes the background, character, main video and main audio of the musical instrument and main video arrangement information to be presented on the TV display (however, this encoding is performed on the terminal). It also serves to encode different video and audio of the character and instrument for presentation and encoding of stuffed voice for presentation to the stuffed animal.), Encoding arrangement information of another video for presentation to the terminal, A stuffed animal operation to be presented to the stuffed animal is encoded, and performance information to be presented to the automatic musical instrument is encoded. Further, in the content providing system 1A, the movement information encoding means 12A generates movement information for the character and movement information for the musical instrument, and encodes each movement information. In the content providing system 1A, all the encoded data is multiplexed by the multiplexing unit 13A.
[0063]
According to the content providing system 1A, a character and a musical instrument, which are objects included in a certain content, are multiplexed including information necessary for moving and presenting them to a terminal, which is a presentation device other than a TV display, or a stuffed animal or an automatic musical instrument. A signal can be generated. Furthermore, according to the content providing system 1A, since movement information is set for the character and the musical instrument, it is possible to determine which object should be presented to which presentation device on the receiving side. Further, according to the content providing system 1A, since the arrangement information of the objects in the video is set, when the plurality of objects are displayed in an overlapping manner on the receiving side, the order of the overlapping can be determined.
[0064]
With reference to FIG. 3, the configuration of the
[0065]
In the content providing system 1B, content objects (characters, musical instruments) to be presented on a TV display, background video and audio information, presentation devices capable of presenting objects (TV displays, terminals, stuffed animals, automatic musical instruments) and each object The information for making each presentation device present and the information on which presentation device the object is moved to are encoded respectively. Furthermore, in the content providing system 1B, all the encoded information is multiplexed to generate a multiplexed signal. Then, the content providing system 1B distributes this multiplexed signal. The object includes the background in addition to the character and the musical instrument. In addition, the objects to be presented on the TV display are provided with alternative objects that replace these objects after characters and musical instruments are removed from the content. Further, the object presented on the terminal is provided with an accompanying background as the background of the object.
[0066]
In order to generate a multiplexed signal, the content providing system 1B includes an
[0067]
The
The
[0068]
The substitute object / substitute
[0069]
The accompanying background / separate video encoding unit 11q, for example, captures the accompanying background of the character to be presented to the terminal with a TV camera (not shown) and the accompanying background of the instrument to be presented to the terminal with the TV camera (not shown). Shoot. Then, the accompanying background / separate video encoding unit 11q encodes the video data of the accompanying background of the character and the video data of the accompanying background of the musical instrument by an encoding method suitable for the terminal. Incidentally, when moving and presenting an object to the terminal, an accompanying background is provided because there is a case where the terminal image also has a background in some cases.
[0070]
The movement
[0071]
The movement
[0072]
The movement information will be described with reference to FIG.
As described above, the movement information is set for each object to be moved in order to indicate which object is the movement target. Further, the movement information of an object is set for each presentation device that can be moved and presented in order to indicate which presentation device the object can be moved and presented. For each presentation device, priority, presentation media, logic It has information on a presentation signal, a physical presentation signal, a substitute signal and an accompanying signal. Here, only the priority, the presentation medium, the logical presentation signal, the alternative signal other than the physical presentation signal, and the accompanying signal described in the movement information illustrated in FIG. 2 will be described.
[0073]
The substitute signal indicates the substance of the video data of the character substitute object and the video data of the musical instrument substitute object separately encoded by the
[0074]
The accompanying signal indicates the substance of the accompanying background video data of the character and the musical instrument accompanying background video data separated and encoded by the object encoding means 11B, and is information of a pointer to each encoded data. Incidentally, the accompanying signal is set only for the terminal, is a pointer to the encoded data of the
[0075]
Returning to the description of the movement information encoding means 12B, the
[0076]
The
[0077]
The multiplexing means 13B will be described.
The
[0078]
In the content providing system 1B having the above-described configuration, when a certain content including a character, a musical instrument, an alternative object, and an accompanying background is distributed, the following operation is performed. In the content providing system 1B, the
[0079]
According to the content providing system 1B, in addition to the effects of the content providing system 1A, by providing an alternative object, it is possible to provide an effective video after the object is lost on the TV display and to provide an accompanying background. Thus, the object moved on the terminal can be provided as a more effective video.
[0080]
With reference to FIG. 5, the structure of the content providing system 1C when one object is considered and compatibility with a conventional digital TV broadcast receiver is considered will be described. FIG. 5 shows another example of the content providing system 1C, in which a single object is considered and compatibility with a conventional digital TV broadcast receiver is taken into consideration. In the configuration of the content providing system 1C, the same components as those in the content providing system 1A shown in FIG.
[0081]
Incidentally, a conventional digital TV broadcast receiver does not have a function of synthesizing an object with a background from which the object is separated as a video and audio presentation function. Therefore, in the conventional digital TV broadcast receiver, the video and audio of the default content is presented only by information obtained by separating and encoding the movable object as in the content providing systems 1A and 1B. I can't. Therefore, in the content providing system 1C, the default service that does not separate the objects is transmitted separately from the encoded information of the video and audio of the default content so that the default service can be provided to the conventional digital broadcast receiver. ing.
[0082]
At this time, the background video and audio, the video and audio obtained by separating and encoding the object, and the video and audio of the default content (that is, the content in which the object is synthesized) are transmitted, and the transmission efficiency decreases. It will be. However, when there is only one movable object or the like, the main video and main audio of the object to be moved are not presented on the TV display (main video and main audio). As the default content video and audio, or background video and audio after the movable object has moved), so there is no need to transmit and realistic transmission Service is possible in a range of quantities.
[0083]
In the content providing system 1C, the content object (character) to be presented on the TV display, the background video and audio information, and the presentation device (TV display, terminal, stuffed animal) that can present the object are presented on each presentation device. Information and information indicating which object the object is moved to, and video and audio of default content presented by a conventional digital TV broadcast receiver are encoded. Furthermore, in the content providing system 1C, all the encoded information is multiplexed to generate a multiplexed signal. Then, the content providing system 1C distributes this multiplexed signal. The object includes the background in addition to the character.
[0084]
In order to generate a multiplexed signal, the content providing system 1C includes an
[0085]
The default
The default
[0086]
For example, the default / main
[0087]
The default / main
[0088]
The
The
[0089]
The movement information encoding unit 12 </ b> C is a unit that encodes movement information necessary for determining on which receiving device the object is presented on the receiving side. For this purpose, the movement
[0090]
The multiplexing means 13C will be described.
The
[0091]
In the
[0092]
According to the content providing system 1C, by providing default content as well, content can be presented even by a conventional digital TV broadcast receiver.
[0093]
The configuration of the
In the present embodiment, the
[0094]
The
[0095]
The
[0096]
The
In the present embodiment, the movement
[0097]
The movement
The movement
[0098]
The movement
The movement
[0099]
The presentation
The presentation
[0100]
The presentation device
The presentation device
[0101]
The encoded
Based on the movement information of each object decoded by the movement
[0102]
First, the encoding
[0103]
Subsequently, the encoding
[0104]
When there is an object i, the encoded
[0105]
And the encoding
[0106]
Next, the encoding
[0107]
When the priority j is 0, the encoding
[0108]
When the priority j is not 0, the encoding
[0109]
When the presentation device corresponding to the priority j is connected, the encoding
[0110]
When the presentation device corresponding to the priority j is not connected, the encoding
[0111]
When the presentation device is determined by the above processing, the encoding
[0112]
The encoded
The encoded
[0113]
Also, in the encoded
[0114]
The
In the
[0115]
The arrangement
The arrangement
[0116]
The
When presenting an object on the TV display D on the background main video based on the decoded main video layout information, the
[0117]
The
In the
[0118]
The
When presenting an object on the TV display D with the main voice of the background, the
[0119]
The TV display D will be described with reference to FIG.
The TV display D includes a large display, a speaker, an amplifier, and the like, and is a device that presents content distributed by digital TV broadcasting. In the TV display D, the video is displayed on the large display using the video data transmitted from the
[0120]
The terminal T will be described with reference to FIG.
The terminal T is a remote controller with a small screen as described above, and can output video and audio. In the terminal T, another video data and audio data of each object encoded from the
[0121]
The presentation media decoding unit Ta decodes the encoded different video data of each object, the different audio data of each object, and the arrangement information of the different video according to each encoding method. Then, the presentation media decoding unit Ta generates video data of the object based on the arrangement information of another video. In particular, when there is other video data of the accompanying background, the presentation media decoding unit Ta decodes the encoded video data of the accompanying background and generates video data by synthesizing the accompanying background with the other video of the object. To do.
[0122]
The presentation device Tb includes a small liquid crystal display, a speaker, an amplifier, and the like. The presentation device Tb displays an object on a small liquid crystal display using the video data generated by the presentation media decoding unit Ta, and outputs the object from the speaker using the audio data decoded by the presentation media decoding unit Ta.
[0123]
The stuffed animal S will be described with reference to FIG.
As described above, the stuffed toy S is a stuffed toy with a control function, and can operate the limbs and output sound. In the stuffed toy S, when the encoded control information of the stuffed toy operation and the stuffed toy voice data are transmitted from the
[0124]
The presentation media decoding unit Sa decodes the encoded stuffed operation control information and the stuffed voice data according to each encoding method.
[0125]
The presentation device Sb includes an operation mechanism such as an electrically controllable limb and a speaker and an amplifier. In the presentation device Sb, the stuffed limbs and the like operate according to the operation of the content character by the control information of the stuffed toy operation decoded by the presentation media decoding unit Sa, and the character from the speaker by the audio data decoded by the presentation media decoding unit Sa Is output.
[0126]
The automatic musical instrument M will be described with reference to FIG.
As described above, the automatic musical instrument M is a musical instrument with a control function, and can automatically play the musical instrument. The automatic musical instrument M presents the musical instrument in an automatic performance when the encoded performance information is transmitted from the
[0127]
The presentation media decoding unit Ma decodes the encoded performance information according to the encoding method.
[0128]
The presentation device Mb is composed of a musical instrument that performs automatically under electrical control. In the presentation device Mb, the musical instrument is automatically played according to the performance of the musical instrument of the content based on the performance information decoded by the presentation media decoding unit Ma.
[0129]
When the
[0130]
Subsequently, in the
[0131]
Further, the
[0132]
Therefore, when viewing content on the TV display D, the following viewing environment is obtained. In a scene where a character appears in the content, the character disappears from the screen of the TV display D, the background or alternative object is displayed, and the voice of the character disappears. However, a character is displayed on the screen of the terminal T and sound is output, or the stuffed toy S starts to move according to the situation of the TV display D and emits sound. Further, when the musical instrument is played, the musical instrument disappears from the screen of the TV display D, the background or the alternative object is displayed, and the musical instrument performance sound is also lost. However, a musical instrument is displayed on the screen of the terminal T and a performance sound is output, or the automatic musical instrument M starts playing in accordance with the situation of the TV display D. With such a viewing environment, the viewer can enjoy content that is full of realism and entertainment.
[0133]
Here, presentation devices (available presentation devices) T, S., etc. connected to the
[0134]
With reference to FIG. 8, an example in which the
[0135]
When only the TV display D, which is the default presentation device, is connected to the
[0136]
When only the terminal T is connected to the
[0137]
When only the stuffed animal S is connected to the
[0138]
When the terminal T and the stuffed toy S are connected to the
[0139]
When only the automatic musical instrument M is connected to the
[0140]
When the terminal T and the automatic musical instrument M are connected to the
[0141]
When the stuffed animal S and the automatic musical instrument M are connected to the
[0142]
When the terminal T, the stuffed toy S, and the automatic musical instrument M are connected to the
[0143]
With reference to FIG. 9, an example in which the
[0144]
Also in this example, the relationship between the available presentation device and the object to be presented is the same as the example in the case where the
[0145]
As mentioned above, although embodiment of this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.
For example, in the present embodiment, each unit in the content providing system and the receiver is configured by software by executing a program, but may be configured by hardware by an electronic circuit.
In this embodiment, the content is distributed by digital TV broadcast. However, the content is distributed by other distribution methods such as distribution of content by communication such as the Internet or distribution of storage media such as package media. You may distribute.
Further, in the present embodiment, content consisting of video and audio by digital TV broadcasting is targeted, but content consisting only of audio and radio video content may also be targeted.
Further, although the present embodiment is intended for digital TV broadcasting, it is also conceivable that only the default content background is distributed by analog broadcasting, and information about objects is distributed by digital broadcasting.
[0146]
In this embodiment, the object is a character and a musical instrument. However, various objects such as a person, an animal, a telephone, and an alarm clock may be used.
In the present embodiment, the first presentation device is a TV display, but other devices such as an output device of a personal computer, a radio, and a PDA may be used.
In the present embodiment, the second presentation device is a terminal, a stuffed animal, and an automatic musical instrument. However, other devices such as a doll, a robot, a telephone, an alarm clock, a lighting device, and an interphone may be used.
In this embodiment, the receiver and the TV display are shown separately, but may be integrated as a TV receiver.
In the present embodiment, the object information is decrypted in the terminal or the like, but the object information may also be decrypted in the receiver.
[0147]
Further, in the present embodiment, the encoded data is shared between the same presentation media even between different presentation devices (for example, between the TV display and the terminal). Sharing is also possible. For example, if there is encoded data of the character's shape and movement, the character is drawn by computer graphics and used as the main video object, or similarly used as the terminal video object, or used for stuffed movement information Or it can be used in common for all presentation devices of this object. In addition to using the encoded data of the main video character as another video of the terminal, it is also possible to extract the character motion information from the encoded data of the main video character and operate the stuffed toy.
[0148]
Further, in the present embodiment, the default presentation media is applied to a service based on TV broadcasting using video and audio, but may be applied to services based on presentation media other than video and audio, such as a data broadcasting service. Serving object moving content with interactive (bidirectional) elements by introducing a data broadcasting service into the presentation media, which may be the default presentation media or the destination presentation media Is possible. In other words, content in which presentation of an object motion or the like is changed by an interactive operation of the user, content in which an object presentation device (presentation media) is changed by an interactive operation of the user, or the like is also possible.
[0149]
In addition to this embodiment, various services are possible using the present invention, and some examples will be given.
As an example, there is a program for children in which a finger puppet or a puppet of a character proceeds with a program while interacting with a performer. In this example, in an environment having only a TV display, a character doll plays its role in the TV screen as in a conventional TV program. In an environment where a stuffed character operating as an external device of a TV display is connected, the character is presented using the stuffed toy. At this time, the doll is no longer displayed on the TV screen, and the program proceeds as if the performers on the TV screen are crossed with the stuffed toys outside the TV screen. This is the simplest and most realistic example, but once you've worked on the content, you can create a more complicated program.
[0150]
As another example, there is a language program or the like that an animation assistant proceeds while assisting learning. In this example, in an environment having only a TV display, an assistant provides guidance on the TV screen like a conventional TV program. In an environment where a handheld remote controller with a small screen (for example, a PDA) is connected as an external device of the TV display, the assistant provides guidance within the small screen. At this time, for example, it is conceivable to present a practice sentence or pronunciation as a learning point with a small remote controller with a small screen while leaving a video such as a skit on the TV screen.
[0151]
Also, in action programs and animation programs, transformation (evolution) items often appear, and when the transformation (evolution) scene occurs, a scene in which this item operates appears. In this transformation (evolution) scene, the operation scenes of items such as “shiny” and “flickering” are developed on the TV screen. In the case of popular action programs and animation programs, toys that are items for transformation (evolution) are sold. Therefore, the toy is made to operate as an external device of the TV receiver. And when this toy is placed near the TV display (communication area), when it becomes a transformation (evolution) scene, this toy item itself will operate as “shiny”, “flickering”, etc. To please children.
[0152]
Also, as a service for popping out musical instruments, a service applied to so-called telemusic can be considered, but here is an example of a new service that has changed slightly. An example is a program in which a live orchestra appears, such as a theater broadcast or a concert broadcast. In this example, in an environment having only a TV display, it can be viewed as a conventional relay. A home miniature garden orchestra is assumed as an external device of the TV display. This miniature garden orchestra is a general orchestral arrangement with musical instrument miniatures and speakers with playback capabilities suitable for the sound range in the vicinity of each instrument to reproduce the performance sound of each instrument part. Have the ability to When this miniature garden orchestra is connected as an external device of the TV display, the sound of the orchestra is presented from the miniature garden orchestra, not from the speaker of the TV display. As a result, the stereo image has a great stereo effect.
[0153]
Another example is a drama. In this example, in an environment having only a TV display, it can be viewed as a conventional drama. However, in an environment where a telephone having a control function or an alarm clock is connected as an external device of a TV display, for example, when a scene that emits a characteristic sound such as a scene where a telephone rings or an alarm clock sounds, It is not realistic to move the object, but only the sound object is presented by the telephone in the living room or the alarm clock in the bedroom. Therefore, a very realistic drama effect can be expected.
[0155]
【The invention's effect】
Claims of the invention1The content providing system according to the present invention can easily extract information of an object necessary for presentation by the second presentation device, and can provide a second presentation device that presents the object on the receiving side based on the movement information of the object. Can be determined.
[0160]
Claims of the invention2The content receiving device according to can determine the second presentation device that presents the object based on the movement information of the object.
[0161]
Claims of the invention3The content providing method according to the present invention provides a second presentation device that can easily retrieve object information necessary for presentation by the second presentation device and presents the object on the receiving side based on the movement information of the object. Can be determined.
[0162]
Claims of the invention4According to the content receiving method according to the present invention, the content provided by the content receiving method according to the present invention can cause the second presentation device to present an object included in the content.
[0163]
Claims of the invention5The content providing method according to the present invention can be executed by a computer to realize the content providing method according to the present invention.
[0164]
Claims of the invention6The content receiving program according to the present invention can be executed by a computer to realize the content receiving method according to the present invention.
[Brief description of the drawings]
FIG. 1 is an example of a configuration diagram of a content providing system according to an embodiment, in which there are two objects (a character and a musical instrument).
2 is a diagram showing a configuration of movement information in the case shown in FIG. 1, in which (a) is movement information of object 1 (character), and (b) is movement information of object 2 (instrument).
FIG. 3 is another example of a configuration diagram of the content providing system according to the present embodiment, in which there are two objects (a character and a musical instrument) and there are alternative objects and accompanying objects.
4 is a diagram showing a configuration of movement information in the case shown in FIG. 3, in which (a) is movement information of object 1 (character), and (b) is movement information of object 2 (instrument).
FIG. 5 is another example of a configuration diagram of the content providing system according to the present embodiment, in which one object (character) is considered and compatibility with a conventional digital TV broadcast receiver is considered.
FIG. 6 is a configuration diagram of a receiver according to the present embodiment.
7 is a flowchart of object presentation device determination processing in the encoded information selection unit of FIG. 6;
8 is a diagram showing a relationship between an available presentation device and a presented object in the case shown in FIG.
9 is a diagram illustrating a relationship between an available presentation device and an object to be presented in the case illustrated in FIG. 3;
[Explanation of symbols]
1A, 1B, 1C ... Content provision system
2 ... Receiver (content receiving device)
11A, 11B, 11C ... Object encoding means
12A, 12B, 12C ... movement information encoding means
14C ... default content encoding means
21 ... Movement information decoding unit (movement information decoding means)
24: Encoding information selection unit (second presentation device determining means)
D ... TV display (first presentation device)
M ... Automatic musical instrument (second presentation device)
S ... Stuffed toy (second presentation device)
T ... Terminal (second presentation device)
Claims (10)
前記コンテンツに含まれるオブジェクト毎に、前記オブジェクトを提示可能な前記第1提示装置及び前記第2提示装置毎に設定され、前記第1提示装置及び前記第2提示装置が前記オブジェクトを提示する手段である映像、音声、動作および演奏情報を示す提示メディアと、1つの前記オブジェクトを前記第1提示装置及び複数の前記第2提示装置で提示可能な場合には前記オブジェクトを提示する優先順序を示す優先度と、を少なくとも含む移動情報を、符号化する移動情報符号化手段、を備え、
符号化された前記移動情報を含む多重信号を前記コンテンツ受信装置に提供することを特徴とするコンテンツ提供システム。 A second presentation device that is integrated with a first presentation device that presents content in video and / or audio, corresponds to an object included in the content, and presents the content by an alternative means other than video and / or audio. a content providing system for providing the content to the connected content receiving device,
Means for each object included in the content set for each of the first presentation device and the second presentation device capable of presenting the object, wherein the first presentation device and the second presentation device present the object; Priority indicating the priority order for presenting the objects when the presentation medium showing a certain video, sound, action and performance information and one object can be presented by the first presentation device and the plurality of second presentation devices and degrees, including at least movement information, movement information encoding means for encoding comprises,
A content providing system for providing a multiplexed signal including the encoded movement information to the content receiving device .
前記コンテンツに含まれるオブジェクト毎に、前記オブジェクトを提示可能な前記第1提示装置及び前記第2提示装置毎に設定され、前記第1提示装置及び前記第2提示装置が前記オブジェクトを提示する手段である映像、音声、動作および演奏情報を示す提示メディアと、1つの前記オブジェクトを前記第1提示装置及び複数の前記第2提示装置で提示可能な場合には前記オブジェクトを提示する優先順序を示す優先度と、を少なくとも含む移動情報を、復号化する移動情報復号化手段と、
復号化された前記移動情報に基づいて、前記オブジェクトを提示する第2提示装置を決定する第2提示装置決定手段と、を備え、
前記オブジェクトを、前記第2提示装置決定手段が決定した第2提示装置に提示することを特徴とするコンテンツ受信装置。 A second presentation device that is integrated with a first presentation device that presents content in video and / or audio, corresponds to an object included in the content, and presents the content by an alternative means other than video and / or audio. are connected, a content receiving apparatus that receives the content from the content providing system,
Means for each object included in the content set for each of the first presentation device and the second presentation device capable of presenting the object, wherein the first presentation device and the second presentation device present the object; Priority indicating the priority order in which the objects are presented when the presentation media showing a certain video, sound, action and performance information and one of the objects can be presented by the first presentation device and the plurality of second presentation devices Mobile information decoding means for decoding mobile information including at least
Based on the decrypted by said movement information, and a second presentation device determining means for determining a second presentation device for presenting the object,
A content receiving device , wherein the object is presented to a second presentation device determined by the second presentation device determination means .
前記コンテンツに含まれるオブジェクト毎に、前記オブジェクトを提示可能な前記第1提示装置及び前記第2提示装置毎に設定され、前記第1提示装置及び前記第2提示装置が前記オブジェクトを提示する手段である映像、音声、動作および演奏情報を示す提示メディアと、1つの前記オブジェクトを前記第1提示装置及び複数の前記第2提示装置で提示可能な場合には前記オブジェクトを提示する優先順序を示す優先度と、を少なくとも含む移動情報を、符号化する移動情報符号化ステップ、を含み、
符号化された前記移動情報を含む多重信号を前記コンテンツ受信装置に提供することを特徴とするコンテンツ提供方法。 A second presentation device that is integrated with a first presentation device that presents content in video and / or audio, corresponds to an object included in the content, and presents the content by an alternative means other than video and / or audio. A content providing method for providing the content to a connected content receiving device ,
Means for each object included in the content set for each of the first presentation device and the second presentation device capable of presenting the object, wherein the first presentation device and the second presentation device present the object; Priority indicating the priority order for presenting the objects when the presentation medium showing a certain video, sound, action and performance information and one object can be presented by the first presentation device and the plurality of second presentation devices It includes a degree, including at least movement information, movement information encoding step of encoding, a,
A content providing method comprising providing a multiplexed signal including the encoded movement information to the content receiving device .
前記コンテンツに含まれるオブジェクト毎に、前記オブジェクトを提示可能な前記第1提示装置及び前記第2提示装置毎に設定され、前記第1提示装置及び前記第2提示装置が前記オブジェクトを提示する手段である映像、音声、動作および演奏情報を示す提示メディアと、1つの前記オブジェクトを前記第1提示装置及び複数の前記第2提示装置で提示可能な場合には前記オブジェクトを提示する優先順序を示す優先度と、を少なくとも含む移動情報を、復号化する移動情報復号化ステップと、
復号化された前記移動情報に基づいて、前記オブジェクトを提示する第2提示装置を決定する第2提示装置決定ステップと、を含み、
前記オブジェクトを、前記第2提示装置決定ステップで決定した第2提示装置に提示することを特徴とするコンテンツ受信方法。 A second presentation device that is integrated with a first presentation device that presents content in video and / or audio, corresponds to an object included in the content, and presents the content by an alternative means other than video and / or audio. A content receiving method for receiving the content from a content providing system to a connected content receiving device ,
Means for each object included in the content set for each of the first presentation device and the second presentation device capable of presenting the object, wherein the first presentation device and the second presentation device present the object; Priority indicating the priority order for presenting the objects when the presentation medium showing a certain video, sound, action and performance information and one object can be presented by the first presentation device and the plurality of second presentation devices A mobile information decoding step for decoding mobile information including at least
Based on the decrypted by said movement information, wherein the second presentation device determination step of determining a second presentation device for presenting the object,
The object, content receiving method, characterized that you come to the second presentation device determined in the second presentation device determination step.
コンピュータに、請求項3に記載のコンテンツ提供方法を実現させることを特徴とするコンテンツ提供プログラム。 A second presentation device that is integrated with a first presentation device that presents content in video and / or audio, corresponds to an object included in the content, and presents the content by an alternative means other than video and / or audio. A content providing program for providing the content to a connected content receiving device ,
A content providing program for causing a computer to realize the content providing method according to claim 3 .
コンピュータに、請求項4に記載のコンテンツ受信方法を実現させることを特徴とするコンテンツ受信プログラム。A content receiving program for receiving content provided by the content providing method according to claim 3 ,
A content receiving program for causing a computer to realize the content receiving method according to claim 4 .
前記第2提示装置は、手足の動作および音声の出力が可能なぬいぐるみであることを特徴とする請求項1に記載のコンテンツ提供システム。The content providing system according to claim 1, wherein the second presentation device is a stuffed toy capable of limb movement and voice output.
前記第2提示装置は、手足の動作および音声の出力が可能なぬいぐるみであることを特徴とする請求項2に記載のコンテンツ受信装置。The content receiving apparatus according to claim 2, wherein the second presentation apparatus is a stuffed toy capable of limb movement and voice output.
前記第2提示装置は、手足の動作および音声の出力が可能なぬいぐるみであることを特徴とする請求項3に記載のコンテンツ提供方法。The content providing method according to claim 3, wherein the second presentation device is a stuffed toy capable of limb movement and voice output.
前記第2提示装置は、手足の動作および音声の出力が可能なぬいぐるみであることを特徴とする請求項4に記載のコンテンツ受信方法。5. The content receiving method according to claim 4, wherein the second presentation device is a stuffed toy capable of limb movement and voice output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002133391A JP4295470B2 (en) | 2002-05-08 | 2002-05-08 | Content providing system, content receiving apparatus, content providing method, content receiving method, content providing program, and content receiving program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002133391A JP4295470B2 (en) | 2002-05-08 | 2002-05-08 | Content providing system, content receiving apparatus, content providing method, content receiving method, content providing program, and content receiving program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003333563A JP2003333563A (en) | 2003-11-21 |
JP4295470B2 true JP4295470B2 (en) | 2009-07-15 |
Family
ID=29696389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002133391A Expired - Lifetime JP4295470B2 (en) | 2002-05-08 | 2002-05-08 | Content providing system, content receiving apparatus, content providing method, content receiving method, content providing program, and content receiving program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4295470B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5172343B2 (en) * | 2005-09-13 | 2013-03-27 | Kddi株式会社 | Content playback apparatus and content playback method |
JP4580345B2 (en) * | 2006-01-06 | 2010-11-10 | 日本放送協会 | Content transmission device and content output device |
JP4572928B2 (en) | 2007-11-08 | 2010-11-04 | ソニー株式会社 | Remote control terminal, information acquisition device, information providing device, information providing system, information providing method, and program |
JP2009194595A (en) * | 2008-02-14 | 2009-08-27 | Sony Corp | Broadcast system, transmitter, transmission method, receiver, reception method, exhibition device, exhibition method, program, and recording medium |
JP5618043B2 (en) * | 2009-09-25 | 2014-11-05 | 日本電気株式会社 | Audiovisual processing system, audiovisual processing method, and program |
JP6245594B2 (en) * | 2012-06-15 | 2017-12-13 | 国立研究開発法人産業技術総合研究所 | Video processing apparatus and video processing method |
-
2002
- 2002-05-08 JP JP2002133391A patent/JP4295470B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2003333563A (en) | 2003-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104883516B (en) | It is a kind of to make the method and system for singing video in real time | |
US20070087686A1 (en) | Audio playback device and method of its operation | |
KR101571283B1 (en) | Media content transmission method and apparatus, and reception method and apparatus for providing augmenting media content using graphic object | |
KR101134926B1 (en) | Broadcast Terminal And Method Of Controlling Vibration Of Broadcast Terminal | |
US10105606B2 (en) | Device and method for a streaming music video game | |
KR20080048308A (en) | Apparatus and method for linking a basic device and extended devices | |
KR101131856B1 (en) | Apparatus For Transmitting Broadcast Signal And Method Of Transmitting And Receiving Broadcast Signal Using Same | |
CN1599449A (en) | Digital interactive system for providing full interactivity with programming events | |
EP1397004A1 (en) | System and method for the synchronized activation of external devices in association with video programs | |
JP2003153114A (en) | Digital broadcasting system and method for switching and displaying name called on television program acceding to user's request | |
US9060040B2 (en) | Themed ornament with streaming video display | |
JP4295470B2 (en) | Content providing system, content receiving apparatus, content providing method, content receiving method, content providing program, and content receiving program | |
KR20080067854A (en) | Method for transmitting and receiving sentimental information and apparatus thereof | |
JP2010246094A (en) | Content provision system, content generation apparatus, content reproduction apparatus, and content provision method | |
JP2003501965A (en) | Digital television receiver / decoder with interactive playback of predetermined television program | |
JP3882208B2 (en) | Transmitting device and receiving device | |
KR20020062022A (en) | Digital television receiver capable of reproducing interactive contents and broadcasting system for the contents | |
KR101194825B1 (en) | System and Method for Digital Broadcasting Supplying Multi Angle Display | |
JP3695274B2 (en) | Entertainment system and reception side terminal and transmission side device used therefor | |
JPH0946305A (en) | Isdb transmitter | |
KR100403300B1 (en) | Equipment for extracting the control signal of entertainment equipment in digital broadcasting signal and extracting method therein | |
CN100546339C (en) | A kind of music image playing system and method thereof | |
JP2000244424A (en) | Digital broadcast transmission reception system and digital broadcast receiver | |
JP2003116119A (en) | Viewer participant type broadcast program distribution method, and transmission system and reception system adopting this method | |
CN114390048A (en) | Cloud VR screen projection system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071024 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090317 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090410 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140417 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |