JP2012253823A - 配信システム、配信方法、配信サーバ及び通信端末 - Google Patents
配信システム、配信方法、配信サーバ及び通信端末 Download PDFInfo
- Publication number
- JP2012253823A JP2012253823A JP2012209556A JP2012209556A JP2012253823A JP 2012253823 A JP2012253823 A JP 2012253823A JP 2012209556 A JP2012209556 A JP 2012209556A JP 2012209556 A JP2012209556 A JP 2012209556A JP 2012253823 A JP2012253823 A JP 2012253823A
- Authority
- JP
- Japan
- Prior art keywords
- distribution
- data
- mode
- communication
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】高品質なデータの配信ができるとともに、その配信経路を利用してリアルタイム性の高いコミュニケーションを行うこともできる配信システムおよび配信方法を提供すること。
【解決手段】本発明の配信システムは、通信モードとして、映像および音声の品質を優先して遅延を許容した高品質モード、低遅延であることを優先し、高品質モードより品質が低い低遅延モードを有する。このとき、高品質モードにおいては、一方向通信であるから遅延を短くする必要はなく、各通信端末において高品質な映像、音声の配信を受けることができる。また低遅延モードにおいては、双方向通信によるコミュニケーションを行うが、コミュニケーションには高品質な映像、音声は必要がなく、遅延を短くすることによりリアルタイム性の高い円滑なコミュニケーションを可能とし、利用者に違和感を生じさせないようにすることができる。
【選択図】図4
【解決手段】本発明の配信システムは、通信モードとして、映像および音声の品質を優先して遅延を許容した高品質モード、低遅延であることを優先し、高品質モードより品質が低い低遅延モードを有する。このとき、高品質モードにおいては、一方向通信であるから遅延を短くする必要はなく、各通信端末において高品質な映像、音声の配信を受けることができる。また低遅延モードにおいては、双方向通信によるコミュニケーションを行うが、コミュニケーションには高品質な映像、音声は必要がなく、遅延を短くすることによりリアルタイム性の高い円滑なコミュニケーションを可能とし、利用者に違和感を生じさせないようにすることができる。
【選択図】図4
Description
本発明は、配信サーバと通信端末へのデータの配信、および配信サーバと通信端末との利用者間におけるコミュニケーションを行うための技術に関する。
テレビ放送などの映像、音声を配信するシステムは、一般的には配信側と受信側とが入れ替わることがないため、遅延を許容することにより高品質な映像、音声のデータを配信することができる。一方、このような遅延を許容するシステムにおいて、配信側と受信側においてコミュニケーションを行おうとすると、高品質な映像、音声によるコミュニケーションができたとしても、その遅延の影響からリアルタイム性が確保できず、コミュニケーションの品質としては、非常に悪いものとなってしまう。このような遅延の影響を受けないようにするために、遅延を許容する配信経路とは別の遅延の少ない通信経路を設けて、遅延の少ないコミュニケーションを行う技術が開示されている(例えば、特許文献1)。
しかし、このような方法では、遅延を許容するシステムと遅延が少ないシステムを単に組み合わせただけであり、別経路を利用する通信を実現するためには、ハードウエアの追加などシステムコストの増大につながっていた。
本発明は、上述の事情に鑑みてなされたものであり、高品質なデータの配信ができるとともに、その配信経路を利用してリアルタイム性の高いコミュニケーションを行うこともできる配信システムおよび配信方法を提供することを目的とする。
上述の課題を解決するため、本発明は、通信網を介して、高品質モードまたは低遅延モードの通信モードで通信を行う配信サーバと通信端末とを有する配信システムにおいて、前記配信サーバは、映像または音声の少なくとも一方を示すストリーミング形式の配信データが入力される配信データ入力手段と、前記配信データ入力手段に入力された配信データに対して、第1の処理時間でエンコードを行う高品質エンコード手段と、前記配信データ入力手段に入力された配信データに対して、前記第1の処理時間より短い処理時間でエンコードを行う低遅延エンコード手段と、前記通信モードとして、高品質モードまたは低遅延モードのいずれかを選択する選択手段と、前記通信モードとして高品質モードが選択された場合には、前記高品質エンコード手段によってエンコードが行われた配信データを前記通信端末に送信し、低遅延モードが選択された場合には、前記低遅延エンコード手段によってエンコードが行われた配信データを前記通信端末に送信する配信データ送信手段と、前記通信端末から送信される端末データを受信する端末データ受信手段と、前記端末データ受信手段によって受信された端末データをデコードするデコード手段とを具備し、前記通信端末は、前記配信サーバから送信された配信データを受信する配信データ受信手段と、前記配信データ受信手段によって受信された配信データに対して、第2の処理時間でデコードを行う高品質デコード手段と、前記配信データ受信手段によって受信された配信データに対して、第2の処理時間より短い処理時間でデコードを行う低遅延デコード手段と、前記通信モードが高品質モードであるか低遅延モードであるかを識別する識別手段と、前記識別手段によって、前記通信モードが高品質モードであると識別された場合には、前記高品質デコード手段によってデコードが行われた配信データを出力し、低遅延モー
ドであると識別された場合には、前記低遅延デコード手段によってデコードが行われた配信データを出力する出力手段と、映像または音声の少なくとも一方を示すストリーミング形式の端末データが入力される端末データ入力手段と、前記端末データ入力手段に入力された端末データに対して、エンコードを行うエンコード手段と、前記エンコード手段によってエンコードが行われた端末データを前記配信サーバに送信する端末データ送信手段とを具備し、前記通信端末は、前記配信データ受信手段によって受信された配信データのエンコード方法を解析する解析手段をさらに具備し、前記識別手段は、前記解析手段の解析結果に基づいて、前記通信モードが高品質モードであるか低遅延モードであるかを識別することを特徴とする配信システムを提供する。
ドであると識別された場合には、前記低遅延デコード手段によってデコードが行われた配信データを出力する出力手段と、映像または音声の少なくとも一方を示すストリーミング形式の端末データが入力される端末データ入力手段と、前記端末データ入力手段に入力された端末データに対して、エンコードを行うエンコード手段と、前記エンコード手段によってエンコードが行われた端末データを前記配信サーバに送信する端末データ送信手段とを具備し、前記通信端末は、前記配信データ受信手段によって受信された配信データのエンコード方法を解析する解析手段をさらに具備し、前記識別手段は、前記解析手段の解析結果に基づいて、前記通信モードが高品質モードであるか低遅延モードであるかを識別することを特徴とする配信システムを提供する。
また、別の好ましい態様において、前記通信端末は複数であって、前記低遅延エンコード手段におけるエンコードは、前記配信データ入力手段に入力された配信データに、前記デコード手段がデコードした端末データを合成して生成される配信データに対して行われてもよい。
また、別の好ましい態様において、前記通信端末は複数であって、前記配信サーバは、前記複数の通信端末のうち、1以上の通信端末を特定する特定情報を生成して送信する特定情報送信手段をさらに具備し、前記通信端末は、前記配信サーバから送信される特定情報を受信する特定情報受信手段をさらに具備し、前記複数の通信端末のうち、前記特定情報が示す通信端末から前記配信サーバへの端末データの送信が行われてもよい。
また、別の好ましい態様において、前記通信モードが低遅延モードであるときに、前記通信端末から前記配信サーバへの端末データの送信が行われてもよい。
また、別の好ましい態様において、前記高品質デコード手段は、前記配信データ受信手段によって受信された配信データを所定のデータ量のバッファをし、当該バッファされたデータのデコードを行い、前記低遅延デコード手段は、前記配信データ受信手段によって受信された配信データを前記所定のデータ量より少ないデータ量のバッファをし、当該バッファされたデータのデコードを行ってもよい。
また、本発明は、通信網を介して、高品質モードまたは低遅延モードの通信モードで通信を行う配信サーバと通信端末とを有する配信システムに用いられる配信方法であって、前記配信サーバにおいて用いられる方法は、映像または音声の少なくとも一方を示すストリーミング形式の配信データが入力される配信データ入力過程と、前記配信データ入力過程において入力された配信データに対して、第1の処理時間でエンコードを行う高品質エンコード過程と、前記配信データ入力過程において入力された配信データに対して、前記第1の処理時間より短い処理時間でエンコードを行う低遅延エンコード過程と、前記通信モードとして、高品質モードまたは低遅延モードのいずれかを選択する選択過程と、前記通信モードとして高品質モードが選択された場合には、前記高品質エンコード過程によってエンコードが行われた配信データを前記通信端末に送信し、低遅延モードが選択された場合には、前記低遅延エンコード過程によってエンコードが行われた配信データを前記通信端末に送信する配信データ送信過程と、前記通信端末から送信される端末データを受信する端末データ受信過程と、前記端末データ受信過程によって受信された端末データをデコードするデコード過程とを備え、前記通信端末において用いられる方法は、前記配信サーバから送信された配信データを受信する配信データ受信過程と、前記配信データ受信過程によって受信された配信データに対して、第2の処理時間でデコードを行う高品質デコード過程と、前記配信データ受信過程によって受信された配信データに対して、第2の処理時間より短い処理時間でデコードを行う低遅延デコード過程と、前記通信モードが高品質モードであるか低遅延モードであるかを識別する識別過程と、前記識別過程によって、前記通信モードが高品質モードであると識別された場合には、前記高品質デコード過程によってデコードが行われた配信データを出力し、低遅延モードであると識別された場合には、前記低遅延デコード過程によってデコードが行われた配信データを出力する出力過程と、映像または音声の少なくとも一方を示すストリーミング形式の端末データが入力される端末データ入力過程と、前記端末データ入力過程において入力された端末データに対して、エンコードを行うエンコード過程と、前記エンコード過程によってエンコードが行われた端末データを前記配信サーバに送信する端末データ送信過程とを備え、前記通信端末において用いられる方法は、前記配信データ受信過程において受信された配信データのエンコード方法を解析する解析過程をさらに備え、前記識別過程においては、前記解析過程における解析結果に基づいて、前記通信モードが高品質モードであるか低遅延モードであるかを識別することを特徴とする配信方法を提供する。
本発明によれば、高品質なデータの配信ができるとともに、その配信経路を利用してリアルタイム性の高いコミュニケーションを行うこともできる配信システムおよび配信方法を提供することができる。
以下、本発明の一実施形態について説明する。
<実施形態>
本発明の実施形態に係る配信システムは、図1に示すように、配信サーバ1および通信端末2−A、2−Bを有する。以下、通信端末2−Aと通信端末2−Bを区別しない場合には、単に通信端末2という。配信サーバ1と通信端末2とは、通信網1000を介して接続され、各種データの送受信を行う。また、配信サーバ1は、複数の通信端末2に対して、マルチキャストでの通信を行うことができる。
本発明の実施形態に係る配信システムは、図1に示すように、配信サーバ1および通信端末2−A、2−Bを有する。以下、通信端末2−Aと通信端末2−Bを区別しない場合には、単に通信端末2という。配信サーバ1と通信端末2とは、通信網1000を介して接続され、各種データの送受信を行う。また、配信サーバ1は、複数の通信端末2に対して、マルチキャストでの通信を行うことができる。
配信サーバ1のハードウエアの構成について、図2を用いて説明する。図2は、配信サーバ1のハードウエアの構成を示すブロック図である。CPU(Central Processing Unit)11は、記憶部12に記憶されたプログラムをRAM(Random Access Memory)13にロードして実行する。これにより、CPU11が、バス10を介して、配信サーバ1の各部について制御する。また、RAM13は、CPU11が各データの加工などを行う際のワークエリアとして機能する。
記憶部12は、ハードディスク、ROM(Read Only Memory)、不揮発性メモリなどの記憶手段であって、上述したプログラム、各種情報を記憶する。
操作部14は、例えばキーボード、マウス、リモコンなどであり、配信サーバ1の利用者が操作部14を操作すると、その操作内容を表す情報がCPU11へ出力される。また、操作部14には、高品質モードまたは低遅延モードのいずれかを通信モードとして選択するためのスイッチが設けられ、利用者によって選択されたモードを示す選択情報を出力する。通信モードについては後述する。さらに、操作部14は、後述するように、通信モードが低遅延モードとして選択されているときに、どの通信端末2から映像データと音声データとを受信するかを利用者が操作部14を操作することにより特定し、特定した通信端末2を示す特定情報を出力する。
表示部15は、液晶ディスプレイなどの表示デバイスであって、CPU11によって入力される映像データに基づいて表示を行う。また、CPU11の制御に基づいて、配信サーバ1を操作するためのメニュー画面などの各種画面を表示する。
音声出力部16は、スピーカなどの放音手段を有し、入力される音声データに基づいて放音する。
映像入力部17は、CCD(Charge Coupled Device)などのイメージセンサを有し、イメージセンサの撮影内容に基づいた映像データ(以下、入力映像データという)を生成して出力する。
音声入力部18は、収音を行うマイクロフォンを有し、マイクロフォンの収音に基づいたオーディオデータ(以下、入力音声データという)を生成して出力する。
通信部19は、有線、無線などによって、通信網1000を介して通信端末2とデータの送受信を行う通信手段である。本実施形態においては、配信サーバ1と通信端末2との間で送受信されるデータは、ストリーミング形式の映像データ、音声データであり、さらに、通信部19は、通信端末2へ選択情報、特定情報などの各種情報も送信し、後述する接続依頼情報を通信端末2から受信する。以上が配信サーバ1のハードウエアの構成の説明である。
次に、通信端末2のハードウエアの構成について説明する。通信端末2は、図2に示す配信サーバ1のハードウエアの構成と同様な構成であり、図示を省略する。ここで、配信サーバ1と区別するために、通信端末2が有するハードウエアの構成については、以下、バス20、CPU21、記憶部22、RAM23、操作部24、表示部25、音声出力部26、映像入力部27、音声入力部28および通信部29という。
操作部24は、例えばキーボード、マウス、リモコンなどであり、通信端末2の利用者が操作部24を操作すると、その操作内容を表す情報がCPU21へ出力される。また、操作部24は、利用者によって操作されることにより、配信サーバ1に映像データ、音声データを送信したい旨、および自端末を示す接続依頼情報を生成して出力する。
通信部29は、有線、無線などによって、通信網1000を介して配信サーバ1とデータの送受信を行う通信手段である。本実施形態においては、配信サーバ1と通信端末2との間で送受信されるデータは、ストリーミング形式の映像データ、音声データであり、さらに、通信部29は、配信サーバから選択情報、特定情報などの各種情報を受信し、接続依頼情報を配信サーバ1に送信する。
通信端末2の操作部24、通信部29以外の構成については、配信サーバ1と同様な機能を有しているため、その説明を省略する。
次に、配信サーバ1のCPU11が、記憶部12に記憶されたプログラムを実行することによって実現する機能のうち、映像データ、音声データの送受信に関係する機能について、図3を用いて説明する。図3は、CPU11が実現する機能を示したソフトウエアの構成を示すブロック図である。
映像デコード部101は、通信端末2から送信され、通信部19によって受信される映像データ(以下、端末映像データという)が、通信部19から入力される。この端末映像データは、後述するように通信端末2において所定のエンコードが行われた映像データである。映像デコード部101は、入力された端末映像データに対してデコードを行って出力映像データを生成し、表示部15に出力することによって、出力映像データに係る映像を表示部15に表示させる。また、出力映像データは、映像合成部103にも出力される。このように、映像デコード部101が、所定のエンコードに対応するデコードを端末映像データに対して行うことにより、出力映像データを生成し出力する。
音声デコード部102は、通信端末2から送信され、通信部19によって受信される音声データ(以下、端末音声データという)が、通信部19から入力される。この端末音声データは、後述するように通信端末2において所定のエンコードが行われた音声データである。音声デコード部102は、入力された端末音声データに対してデコードを行って出力音声データを生成し、音声出力部16に出力することによって、出力音声データに係る音声を音声出力部16から放音させる。また、出力音声データは、音声合成部104にも出力される。このように、音声デコード部102が、所定のエンコードに対応するデコードを端末音声データに対して行うことにより、出力音声データを生成し出力する。
映像合成部103は、映像入力部17から出力される入力映像データと、映像デコード部101から出力された出力映像データとを合成して合成映像データを生成し、映像エンコード部105に出力する。入力映像データと出力映像データとの合成は、例えば、入力映像データに係る映像に対して、出力映像データに係る映像をスーパーインポーズするような態様としてもよいし、合成映像データに係る映像を表示部15に表示させた場合に、その画面を分割して、双方の映像が表示されるような態様としてもよい。なお、映像デコード部101から出力映像データが入力されない場合には、入力映像データをそのまま映像エンコード部105に出力するようにすればよい。
音声合成部104は、音声入力部18から出力される入力音声データと、音声デコード部102から出力された出力音声データとを合成して合成音声データを生成し、音声エンコード部106に出力する。入力音声データと出力音声データとの合成は、例えば、入力音声データに係る音声に対して、出力音声データに係る音声をミキシングするような態様としてもよいし、合成音声データが複数チャンネルを有するようにして、入力音声データと出力音声データとを異なるチャンネルに割り当てるようにしてもよい。なお、音声デコード部102から出力音声データが入力されない場合には、入力音声データをそのまま音声エンコード部106に出力するようにすればよい。
映像エンコード部105は、映像合成部103から入力された合成映像データに対して、操作部14から出力された選択情報に基づく所定のエンコードを行って配信映像データを生成し、通信部19に出力する。
音声エンコード部106は、音声合成部104から入力された合成音声データに対して、操作部14から出力された選択情報に基づく所定のエンコードを行って配信音声データを生成し、通信部19に出力する。なお、操作部14から出力された選択情報については、通信部19にも出力される。
ここで、映像エンコード部105、音声エンコード部106の詳細の構成について、図4を用いて説明する。図4は、映像エンコード部105、音声エンコード部106の構成を示すブロック図である。
映像エンコード部105は、高品質映像エンコード部1051および低遅延映像エンコード部1052を有する。高品質映像エンコード部1051および低遅延映像エンコード部1052には、映像合成部103から合成映像データが入力されるとともに、選択情報が入力される。
高品質映像エンコード部1051は、選択情報が示す通信モードが高品質モードであるときに動作し、入力される合成映像データに対して、MPEG2、MPEG4などの規格によってエンコードを行って配信映像データを生成し、通信部19に出力する。一方、低遅延映像エンコード部1052は、選択情報が示す通信モードが低遅延モードであるときに動作し、高品質映像エンコード部1051と同様に、入力される合成映像データに対して、MPEG2、MPEG4などの規格によってエンコードを行って配信映像データを生成し、通信部19に出力する。
高品質映像エンコード部1051と低遅延映像エンコード部1052とは、入力される合成映像データに対して行うエンコードの処理時間が異なり、高品質映像エンコード部1051における処理時間より、低遅延映像エンコード部1052における処理時間が短くなっている。すなわち、高品質映像エンコード部1051は、高品質なエンコードを行うために処理時間が長く、低遅延映像エンコード部1052は、高品質映像エンコード部1051におけるエンコードよりは低品質であるが、処理時間が短くなっている。
この品質の違いは、合成映像データに係る映像について、解像度、単位時間当たりのフレーム数、ビットレートなどが異なることによる違いであり、解像度が高いほど、フレーム数が大きいほど、ビットレートが高いほど、高品質な映像を維持するエンコードとなる。このような品質の程度を異ならせるエンコードを行うことにより、高品質映像エンコード部1051におけるエンコードを行う処理よりも、低遅延映像エンコード部1052におけるエンコードを行う処理の方が、その処理についての負荷が軽く、処理時間が短くなる。
このようにして、映像エンコード部105は、映像合成部103から出力された合成映像データが入力され、選択情報が示す通信モードが高品質モードである場合には、合成映像データに対して高品質なエンコードを行い、低遅延モードである場合には、合成映像データに対して高品質モードのときよりは低品質ながら処理時間が短いエンコードを行って生成した配信映像データを通信部19に出力する。
音声エンコード部106は、高品質音声エンコード部1061および低遅延音声エンコード部1062を有する。高品質音声エンコード部1061および低遅延音声エンコード部1062には、音声合成部104から合成音声データが入力されるとともに、選択情報が入力される。
高品質音声エンコード部1061は、選択情報が示す通信モードが高品質モードであるときに動作し、入力される合成音声データに対して、MPEG2、MPEG4などの規格によってエンコードを行って配信音声データを生成し、通信部19に出力する。一方、低遅延音声エンコード部1062は、選択情報が示す通信モードが低遅延モードであるときに動作し、高品質音声エンコード部1061と同様に、入力される合成音声データに対して、MPEG2、MPEG4などの規格によってエンコードを行って配信音声データを生成し、通信部19に出力する。
高品質音声エンコード部1061と低遅延音声エンコード部1062とは、入力される合成音声データに対して行うエンコードの処理時間が異なり、高品質音声エンコード部1061における処理時間より、低遅延音声エンコード部1062における処理時間が短くなっている。すなわち、高品質音声エンコード部1061は、高品質なエンコードを行うために処理時間が長く、低遅延音声エンコード部1062は、高品質音声エンコード部1061におけるエンコードよりは低品質であるが、処理時間が短くなっている。
この品質の違いは、合成音声データに係る音声について、周波数帯域、サンプリング周波数、ビットレートなどが異なることによる違いであり、周波数帯域が広いほど、サンプリング周波数、ビットレートが高いほど、高品質な音声を維持するエンコードとなる。このような品質の程度を異ならせるエンコードを行うことにより、高品質音声エンコード部1061におけるエンコードを行う処理よりも、低遅延音声エンコード部1062におけるエンコードを行う処理の方が、その処理についての負荷が軽く、処理時間が短くなる。
このようにして、音声エンコード部106は、音声合成部104から出力された合成音声データが入力され、選択情報が示す通信モードが高品質モードである場合には、合成音声データに対して高品質なエンコードを行い、低遅延モードである場合には、合成音声データに対して高品質モードのときよりは低品質ながら処理時間が短いエンコードを行って生成した配信音声データを通信部19に出力する。
図3の説明に戻る。CPU11の制御によって、通信部19は、映像エンコード部105から出力された配信映像データと、音声エンコード部106から出力された配信音声データとについて、タイムコードを付与するなど同期再生可能な状態にし、ストリーミング形式で各通信端末2に送信する。以上が、配信サーバ1のソフトウエアの構成についての説明である。
次に、通信端末2のCPU21が、記憶部22に記憶されたプログラムを実行することによって実現する機能のうち、映像データ、音声データの送受信に関係する機能について、図5を用いて説明する。図5は、CPU21が実現する機能を示したソフトウエアの構成を示すブロック図である。
映像デコード部201は、配信サーバ1から送信され、通信部29によって受信される配信映像データが、通信部29から入力される。この配信映像データは、上述したように配信サーバ1において所定のエンコードが行われた映像データである。映像デコード部201は、入力された配信映像データに対して所定のデコードを行って出力映像データを生成し、表示部25に出力することによって、出力映像データに係る映像を表示部25に表示させる。また、映像デコード部201は、配信サーバ1から送信され、通信部29によって受信される選択情報についても、通信部29から入力される。
音声デコード部202は、配信サーバ1から送信され、通信部29によって受信される配信音声データが、通信部29から入力される。この配信音声データは、上述したように配信サーバ1において所定のエンコードが行われた音声データである。音声デコード部202は、入力された配信音声データに対して所定のデコードを行って出力音声データを生成し、音声出力部26に出力することによって、出力音声データに係る音声を音声出力部26から放音させる。また、音声デコード部202は、配信サーバ1から送信され、通信部29によって受信される選択情報についても、通信部29から入力される。
ここで、映像デコード部201、音声デコード部202の詳細の構成について、図6を用いて説明する。図6は、映像デコード部201、音声デコード部202の構成を示すブロック図である。
映像デコード部201は、高品質映像デコード部2011および低遅延映像デコード部2012を有する。高品質映像デコード部2011および低遅延映像デコード部2012には、通信部29から配信映像データが入力されるとともに、選択情報が入力される。
高品質映像デコード部2011は、選択情報が示す通信モードが高品質モードであるときに動作し、入力される配信映像データに対して、上述した配信サーバ1における高品質映像エンコード部1051においてエンコードされた規格と同様な規格でデコードを行って出力映像データを生成し、表示部25に出力する。すなわち、選択情報が示す通信モードが高品質モードであるときには、入力される配信映像データが、配信サーバ1の高品質映像エンコード部1051によってエンコードが行われたデータであると認識して、そのエンコードに対応するデコードを行う高品質映像デコード部2011を動作させる。
一方、低遅延映像デコード部2012は、選択情報が示す通信モードが低遅延モードであるときに動作し、高品質映像デコード部2011と同様に、入力される配信映像データに対して、上述した配信サーバ1における低遅延映像エンコード部1052においてエンコードされた規格と同様な規格でデコードを行って出力映像データを生成し、表示部25に出力する。すなわち、選択情報が示す通信モードが低遅延モードであるときには、入力される配信映像データが、配信サーバ1の低遅延映像エンコード部1052によってエンコードが行われたデータであると認識して、そのエンコードに対応するデコードを行う低遅延映像デコード部2012を動作させる。
高品質映像デコード部2011と低遅延映像デコード部2012とは、入力される配信映像データに対して行うデコードの処理時間が異なり、高品質映像デコード部2011における処理時間より、低遅延映像デコード部2012における処理時間が短くなっている。すなわち、高品質映像デコード部2011は、配信サーバ1の高品質映像エンコード部1051においてエンコードが行われた高品質な配信映像データに対してデコードを行うために処理時間が長い。一方、低遅延映像デコード部2012は、配信サーバ1の低遅延映像エンコード部1052においてエンコードが行われ、高品質映像エンコード部1051においてエンコードが行われた配信映像データよりは低品質である配信映像データに対してデコードを行うために、高品質映像デコード部2011における処理時間より短くなっている。
このようにして、映像デコード部201は、通信部29から出力された配信映像データが入力され、選択情報が示す通信モードが高品質モードである場合には、配信映像データが高品質なエンコードが行われたデータと認識し、低遅延モードである場合には、配信映像データが高品質モードのときよりは低品質ながら処理時間が短いエンコードが行われたデータと認識して、その配信映像データに対してデコードを行って生成した出力映像データを表示部25に出力する。
音声デコード部202は、高品質音声デコード部2021および低遅延音声デコード部2022を有する。高品質音声デコード部2021および低遅延音声デコード部2022には、通信部29から配信音声データが入力されるとともに、選択情報が入力される。
高品質音声デコード部2021は、選択情報が示す通信モードが高品質モードであるときに動作し、入力される配信音声データに対して、上述した配信サーバ1における高品質音声エンコード部1061においてエンコードされた規格と同様な規格でデコードを行って出力音声データを生成し、音声出力部26に出力する。すなわち、選択情報が示す通信モードが高品質モードであるときには、入力される配信音声データが、配信サーバ1の高品質音声エンコード部1061によってエンコードが行われたデータであると認識して、そのエンコードに対応するデコードを行う高品質音声デコード部2021を動作させる。
一方、低遅延音声デコード部2022は、選択情報が示す通信モードが低遅延モードであるときに動作し、高品質音声デコード部2021と同様に、入力される配信音声データに対して、上述した配信サーバ1における低遅延音声エンコード部1062においてエンコードされた規格と同様な規格でデコードを行って出力音声データを生成し、音声出力部26に出力する。すなわち、選択情報が示す通信モードが低遅延モードであるときには、入力される配信音声データが、配信サーバ1の低遅延音声エンコード部1062によってエンコードが行われたデータであると認識して、そのエンコードに対応するデコードを行う低遅延音声デコード部2022を動作させる。
高品質音声デコード部2021と低遅延音声デコード部2022とは、入力される配信音声データに対して行うデコードの処理時間が異なり、高品質音声デコード部2021における処理時間より、低遅延音声デコード部2022における処理時間が短くなっている。すなわち、高品質音声デコード部2021は、配信サーバ1の高品質音声エンコード部1061においてエンコードが行われた高品質な配信音声データに対してデコードを行うために処理時間が長い。一方、低遅延音声デコード部2022は、配信サーバ1の低遅延音声エンコード部1062においてエンコードが行われ、高品質音声エンコード部1061においてエンコードが行われた配信音声データよりは低品質である配信音声データに対してデコードを行うために、高品質音声デコード部2021における処理時間より短くなっている。
このようにして、音声デコード部202は、通信部29から出力された配信音声データが入力され、選択情報が示す通信モードが高品質モードである場合には、配信音声データが高品質なエンコードが行われたデータと認識し、低遅延モードである場合には、配信音声データが高品質モードのときよりは低品質ながら処理時間が短いエンコードが行われたデータと認識して、その配信音声データに対してデコードを行って生成した出力音声データを音声出力部26に出力する。
図5の説明に戻る。映像エンコード部205は、映像入力部27から入力映像データが入力される。そして、入力映像データに対して所定のエンコードを行って端末映像データを生成し、通信部29に出力する。この所定のエンコードは、本実施形態においては、配信サーバ1の低遅延映像エンコード部1052におけるエンコードと同等なエンコードであり、高品質ではないものの低遅延を実現したエンコードを行う。
音声エンコード部206は、音声入力部28から入力音声データが入力される。そして、入力音声データに対して所定のエンコードを行って端末音声データを生成し、通信部29に出力する。この所定のエンコードは、映像エンコード部205と同様に、本実施形態においては、配信サーバ1の低遅延音声エンコード部1062におけるエンコードと同等なエンコードであり、高品質ではないものの低遅延を実現したエンコードを行う。
ここで、通信部29が受信した特定情報が示す通信端末2が、自らの通信端末2を示していることをCPU21が認識した場合には、CPU21の制御によって、通信部29は、映像エンコード部205から出力された端末映像データと、音声エンコード部206から出力された端末音声データとについて、タイムコードを付与するなど同期再生可能な状態にし、ストリーミング形式で配信サーバ1に送信する。
一方、特定情報が他の通信端末2を示していることを認識した場合には、端末映像データおよび端末音声データの送信を行わない。なお、この場合は、送信を行わないから、CPU21は、映像エンコード部205、音声エンコード部206の動作を停止させてもよいし、さらに映像入力部27における入力映像データの生成、音声入力部28における入力音声データの生成についても停止させてもよい。また、配信サーバ1がこの通信端末2からの端末映像データおよび端末音声データを受信しなければよいから、配信サーバ1の通信部19が、特定情報が示す通信端末2以外の通信端末から端末映像データおよび端末音声データを受信しないように、CPU11が制御してもよい。以上が、通信端末2のソフトウエアの構成についての説明である。
次に、本発明の実施形態に係る配信システムの動作について説明する。この説明においては、通信端末2−Aの利用者を利用者A、通信端末2−Bの利用者を利用者B、配信サーバ1の利用者を利用者Cという。
利用者Cは、配信サーバ1が設置された音楽スタジオにおいて、楽器の生演奏(以下、ライブ演奏という)を行っている。このとき利用者Cは、操作部14を操作して、通信モードを高品質モードとして選択する。
映像入力部17において生成したライブ演奏を撮影した映像(以下、ライブ映像という)を示す入力映像データに対して、映像エンコード部105の高品質映像エンコード部1051においてエンコードが行われる。一方、音声入力部18において生成したライブ演奏を録音した音声(以下、ライブ音声という)を示す入力音声データに対して、音声エンコード部106の高品質音声エンコード部1061においてエンコードが行われる。
そして、通信部19は、ストリーミング形式で配信映像データおよび配信音声データを通信端末2−A、2−Bに送信するとともに、通信モードが高品質モードとして選択されていることを示す選択情報を送信する。
通信端末2−A、2−Bの通信部29は、選択情報、配信映像データおよび配信音声データを受信する。CPU21は、選択情報が示す通信モードが高品質モードであることを認識すると、映像デコード部201の高品質映像デコード部2011において配信映像データに対してデコードを行うように制御するとともに、音声デコード部202の高品質音声デコード部2021において配信音声データに対してデコードを行うように制御する。
これにより利用者A、利用者Bは、表示部25に表示されるライブ映像と、音声出力部26から放音されるライブ音声とを楽しむことができる。このように、高品質モードにおいては、利用者Cのライブ演奏を利用者A、利用者Bに対して配信するだけの一方向の放送型の通信であるから、配信サーバ1におけるエンコード、通信端末2−A、2−Bにおけるデコードに処理時間を要することにより遅延が発生したとしても、利用者A、利用者Bは、違和感を生じることがない。
そして、利用者Cはライブ演奏を終了して、利用者A、利用者Bに対して、コミュニケーションをとってみないか、映像入力部17、音声入力部18を介して提案する。これを受けて利用者Aは、コミュニケーションをとりたい旨の意思を利用者Cに対して伝えるため、通信端末2−Aの操作部24を操作し、配信サーバ1に対して、端末映像データ、端末音声データを送信したい旨、および通信端末2−Aを示す接続依頼情報を送信させる。
一方、配信サーバ1は、接続依頼情報を受信すると、CPU11は、接続依頼情報が示す通信端末が通信端末2−Aであることを認識し、表示部15に通信端末2−Aからコミュニケーションをとりたい旨の意思表示があったことを示す表示をさせる。
利用者Cは、その表示を確認することにより、コミュニケーションをとることを了解した場合には、利用者Cが操作部14を操作することにより、通信端末2−Aを特定する特定情報を生成させ、その特定情報を通信部19から通信端末2−Aに対して送信させる。また、このときに利用者Cが操作部14を操作して、通信モードとして低遅延モードを選択し、低遅延モードが選択されていることを示す選択情報についても生成させて、その選択情報についても通信部19から通信端末2−A、2−Bに対して送信させる。なお、特定情報が生成されると、操作部14を操作しなくても、あわせて低遅延モードが選択されていることを示す選択情報も生成されるようにしてもよい。また、特定情報は、通信端末2−Bにも送信されるようにしてもよい。
これにより、特定情報が示す通信端末である通信端末2−Aにおいては、利用者Aを撮影した映像(以下、会話映像Aという)を示す入力映像データが映像エンコード部205に入力され、入力映像データに対してエンコードを行うことによって生成された端末映像データが通信部29から配信サーバ1に送信される。あわせて利用者Aの音声(以下、会話音声Aという)を録音した内容を示す入力音声データが音声エンコード部206に入力され、入力音声データに対してエンコードを行うことによって生成された端末音声データが通信部29から配信サーバ1に送信される。
配信サーバ1は、端末映像データと端末音声データとを受信すると、それぞれ、映像デコード部101、音声デコード部102においてデコードを行い、生成した出力映像データに基づいて表示部15に会話映像Aを表示させるとともに、生成した出力音声データに基づいて音声出力部16から会話音声Aを放音させる。
一方、映像合成部103には、出力映像データと、利用者Cを撮影した映像(以下、低遅延モードのときの映像を高品質モードのときの映像と区別して、会話映像Cという)を示す入力映像データとが入力される。これにより、会話映像Cの一部分に会話映像Aがスーパーインポーズされた会話映像ACを示す合成映像データが生成される。また、音声合成部104には、出力音声データと、利用者Cの音声(以下、低遅延モードのときの音声を高品質モードのときの音声と区別して、会話音声Cという)を示す入力音声データとが入力される。これにより、会話音声Aと会話音声Cとがミキシングされた会話音声ACを示す合成音声データが生成される。
通信モードが低遅延モードに切り替わることにより、映像エンコード部105、音声エンコード部106におけるエンコードの態様が切り替わり、配信サーバ1から送信される配信映像データは、低遅延映像エンコード部1052によって、会話映像ACを示す合成映像データに対してエンコードが行われた映像データ、配信音声データは、低遅延音声エンコード部1062によって、会話音声ACを示す合成音声データに対してエンコードが行われた音声データとなる。
一方、通信端末2−A、2−Bにおいても、選択情報を受信することにより、映像デコード部201、音声デコード部202におけるデコードの態様が切り替わる。すなわち、配信サーバ1から送信される配信映像データは、低遅延映像デコード部2012でデコードが行われ、配信サーバ1から送信される配信音声データは、低遅延音声デコード部2022でデコードが行われることになる。これにより、通信端末2−A、2−Bにおける表示部25には、会話映像ACが表示され、音声出力部26からは会話音声ACが放音される。ここで、低遅延モードにおいては、高品質モードにおける品質よりも低い品質であるかわりに低遅延とすることができるから、会話映像AC、会話音声ACは、ライブ映像、ライブ音声に比べると、映像、音声の品質が低いものとなる一方、遅延を少なくすることができる。このため、利用者Aと利用者Cとの間におけるコミュニケーションにおいて、遅延による違和感を生じさせないようにすることができる。このときに、コミュニケーションに求められる品質はライブ演奏を視聴するための品質に比べて低いものとなるから、会話映像AC、会話音声ACが、ライブ映像、ライブ音声よりも品質が低かったとしても問題がない。
そして、利用者Aと利用者Cとのコミュニケーションが終了すると、利用者Cは、操作部14を操作して、通信モードとして高品質モードを選択する。これにより、配信サーバ1の映像エンコード部105は、再び高品質映像エンコード部1051においてエンコードを行い、音声エンコード部106は、高品質音声エンコード部1061においてエンコードを行う。一方、通信端末2−A、2−Bの映像デコード部201は、高品質映像デコード部2011においてデコードを行い、音声デコード部202は、高品質音声デコード部2021においてデコードを行う。
また、通信端末2−Aの通信部29から端末映像データ、端末音声データの送信が停止される。これにより、高品質であるが遅延が大きいライブ映像、ライブ音声を通信端末2−A、2−Bにおいて視聴することができる。このときライブ映像、ライブ音声は、配信サーバ1から通信端末2−A、2−Bに対する一方向の放送型の通信であるから、遅延が大きくても利用者A、Bは違和感を生じることがなく、ライブ演奏を楽しむことができる。
このように、本発明の配信システムは、通信モードとして、映像および音声の品質を優先して遅延を許容した高品質モード、低遅延であることを優先し、高品質モードより品質が低い低遅延モードを有し、高品質モードにおいては、配信サーバ1から各通信端末2に対して、放送型の一方向通信を行い、低遅延モードにおいては、配信サーバ1と各通信端末2との双方向通信によるコミュニケーションを実現する。このとき、高品質モードにおいては、一方向通信であるから遅延を短くする必要はなく、各通信端末2において高品質な映像、音声の配信を受けることができる。また低遅延モードにおいては、双方向通信によるコミュニケーションを行うが、コミュニケーションには高品質な映像、音声は必要がなく、遅延を短くすることによりリアルタイム性の高い円滑なコミュニケーションを可能とし、利用者に違和感を生じさせないようにすることができる。
以上、本発明の実施形態について説明したが、本発明は以下のように、さまざまな態様で実施可能である。
<変形例1>
上述した実施形態においては、通信端末2は、映像デコード部201、音声デコード部202において行うデコードについて、受信した選択情報が示す通信モードが高品質モードであるか低遅延モードであるかを識別し、通信モードに応じた処理を行っていたが、通信モードの識別は、別の方法により行なってもよい。例えば、通信部29において受信した配信映像データ、配信音声データのデータ内容を解析し、その解析結果から通信モードを識別するようにしてもよい。この場合は、通信端末の映像デコード部201、音声デコード部202は、図7に示すように、それぞれ映像データ解析部2013、音声データ解析部2023を有する構成とすればよい。
上述した実施形態においては、通信端末2は、映像デコード部201、音声デコード部202において行うデコードについて、受信した選択情報が示す通信モードが高品質モードであるか低遅延モードであるかを識別し、通信モードに応じた処理を行っていたが、通信モードの識別は、別の方法により行なってもよい。例えば、通信部29において受信した配信映像データ、配信音声データのデータ内容を解析し、その解析結果から通信モードを識別するようにしてもよい。この場合は、通信端末の映像デコード部201、音声デコード部202は、図7に示すように、それぞれ映像データ解析部2013、音声データ解析部2023を有する構成とすればよい。
映像データ解析部2013は、通信部29が受信した配信映像データが入力され、その配信映像データを解析する。映像データ解析部2013は、この解析により配信映像データに付されたエンコード形式を示す情報を取得して、配信サーバ1における高品質映像エンコード部1051においてエンコードが行われた配信映像データであるか、低遅延映像エンコード部1052においてエンコードが行われた配信映像データであるかについて識別する。そして、映像データ解析部2013は、配信映像データが高品質映像エンコード部1051においてエンコードが行われた配信映像データであると識別した場合には、この配信映像データを高品質映像デコード部2011に出力する一方、低遅延映像エンコード部1052においてエンコードが行われた配信映像データであると識別した場合には、この配信映像データを低遅延映像デコード部2012に出力する。
上記と同様に、音声データ解析部2023は、通信部29が受信した配信音声データが入力され、その配信音声データを解析する。音声データ解析部2023は、この解析により配信音声データに付されたエンコード形式を示す情報を取得して、配信サーバ1における高品質音声エンコード部1061においてエンコードが行われた配信音声データであるか、低遅延音声エンコード部1062においてエンコードが行われた配信音声データであるかについて識別する。そして、音声データ解析部2023は、配信音声データが高品質音声エンコード部1061においてエンコードが行われた配信音声データであると識別した場合には、この配信音声データを高品質音声デコード部2021に出力する一方、低遅延音声エンコード部1062においてエンコードが行われた配信音声データであると識別した場合には、この配信音声データを低遅延音声デコード部2022に出力する。
このようにすると、通信端末2は、選択情報を受信しなくても、通信モードが高品質モードであるか低遅延モードであるかを識別することができる。なお、配信映像データ、配信音声データに付されるエンコード形式を示す情報は、それぞれ配信サーバ1の映像エンコード部105、音声エンコード部106におけるエンコードが行われるときに付されるようにすればよい。また、特定情報を受信する通信端末2においては、受信によって低遅延モードになったことを識別し、それ以外の通信端末2においては、本変形例のようにして識別するようにしてもよい。
<変形例2>
上述した実施形態においては、配信サーバ1の表示部15には、出力映像データが入力され、会話映像Aが表示されるようになっていたが、映像合成部103において生成される合成映像データが入力されるようにしてもよい。このようにすると、表示部15には、通信端末2の表示部25に表示される映像と同様な会話映像ACを表示させることができる。
上述した実施形態においては、配信サーバ1の表示部15には、出力映像データが入力され、会話映像Aが表示されるようになっていたが、映像合成部103において生成される合成映像データが入力されるようにしてもよい。このようにすると、表示部15には、通信端末2の表示部25に表示される映像と同様な会話映像ACを表示させることができる。
<変形例3>
上述した実施形態においては、通信モードが低遅延モードであるときに行われる配信サーバ1と通信端末2との双方向通信は、特定情報が示す1つの通信端末2と行われていたが、特定情報が示す通信端末2は複数であってもよい。この場合には、複数の通信端末2から配信サーバ1に送信される端末映像データ、端末音声データについて、それぞれ映像デコード部101、音声デコード部102においてデコードを行い、映像合成部103、音声合成部104において、合成するようにすればよい。このように、低遅延モードにおいて行われる双方向通信は、複数の通信端末2と配信サーバ1との間で行なわれるようにしてもよい。ここで、表示部15は、入力される出力映像データが複数の通信端末からのデータである場合には、画面を分割してそれぞれの出力映像データに係る映像が表示されるようにすればよい。
上述した実施形態においては、通信モードが低遅延モードであるときに行われる配信サーバ1と通信端末2との双方向通信は、特定情報が示す1つの通信端末2と行われていたが、特定情報が示す通信端末2は複数であってもよい。この場合には、複数の通信端末2から配信サーバ1に送信される端末映像データ、端末音声データについて、それぞれ映像デコード部101、音声デコード部102においてデコードを行い、映像合成部103、音声合成部104において、合成するようにすればよい。このように、低遅延モードにおいて行われる双方向通信は、複数の通信端末2と配信サーバ1との間で行なわれるようにしてもよい。ここで、表示部15は、入力される出力映像データが複数の通信端末からのデータである場合には、画面を分割してそれぞれの出力映像データに係る映像が表示されるようにすればよい。
<変形例4>
上述した実施形態においては、低遅延モードのときに配信サーバ1と双方向通信を行う通信端末2は特定情報が示す通信端末2であったが、配信サーバ1と通信を行う通信端末2が1つである場合、通信端末2が複数であり、低遅延モードにおける双方向通信を全ての通信端末2と行う場合は、特定情報を用いなくてもよい。また、この場合には、通信端末2から配信サーバ1に対して接続依頼情報を送信しなくてもよい。
上述した実施形態においては、低遅延モードのときに配信サーバ1と双方向通信を行う通信端末2は特定情報が示す通信端末2であったが、配信サーバ1と通信を行う通信端末2が1つである場合、通信端末2が複数であり、低遅延モードにおける双方向通信を全ての通信端末2と行う場合は、特定情報を用いなくてもよい。また、この場合には、通信端末2から配信サーバ1に対して接続依頼情報を送信しなくてもよい。
<変形例5>
上述した実施形態においては、通信モードとして高品質モードを選択するか低遅延モードを選択するかは、利用者が配信サーバ1の操作部14を操作することによって選択していたが、他の方法によって選択されるようにしてもよい。例えば、高品質モードである時間と低遅延モードである時間とを定めた時間情報を記憶部12に記憶させ、この時間情報に基づいて、通信モードとして高品質モードまたは低遅延モードを選択するようにすればよい。このように、通信モードについては、様々な方法により選択することができる。
上述した実施形態においては、通信モードとして高品質モードを選択するか低遅延モードを選択するかは、利用者が配信サーバ1の操作部14を操作することによって選択していたが、他の方法によって選択されるようにしてもよい。例えば、高品質モードである時間と低遅延モードである時間とを定めた時間情報を記憶部12に記憶させ、この時間情報に基づいて、通信モードとして高品質モードまたは低遅延モードを選択するようにすればよい。このように、通信モードについては、様々な方法により選択することができる。
<変形例6>
上述した実施形態における通信端末2の映像デコード部201において、高品質映像デコード部2011と低遅延映像デコード部2012とのデコードを行うときの処理時間の違いは、入力された配信映像データのバッファ量が異なることによる処理時間の違いが含まれていてもよい。この場合、高品質映像デコード部2011は、入力された配信映像データを所定のデータ量のバッファをして、バッファされた配信映像データに対してエンコードを行い、低遅延映像デコード部2012は、入力された配信映像データを高品質映像デコード部2011より少ないデータ量のバッファをして、バッファされた配信映像データに対してエンコードを行なうようにすればよい。
上述した実施形態における通信端末2の映像デコード部201において、高品質映像デコード部2011と低遅延映像デコード部2012とのデコードを行うときの処理時間の違いは、入力された配信映像データのバッファ量が異なることによる処理時間の違いが含まれていてもよい。この場合、高品質映像デコード部2011は、入力された配信映像データを所定のデータ量のバッファをして、バッファされた配信映像データに対してエンコードを行い、低遅延映像デコード部2012は、入力された配信映像データを高品質映像デコード部2011より少ないデータ量のバッファをして、バッファされた配信映像データに対してエンコードを行なうようにすればよい。
多くのデータ量をバッファすることにより、配信サーバ1と通信端末2との通信速度が一時的に悪化しても、配信映像データがバッファされているから、その映像が途切れることを防止し高品質な映像とすることができる。一方、低遅延モードにおいては、品質よりも低遅延であることが優先されるから、通信速度の悪化によって映像が若干途切れて品質が悪化しても、低遅延を維持することによりコミュニケーションを円滑に行うことができる。本変形例においては、映像デコード部201について説明を行ったが、音声デコード部202についても同様である。
<変形例7>
上述した実施形態においては、通信端末2から配信サーバ1に対して接続依頼情報を送信することにより、通信端末2の利用者が配信サーバ1の利用者とコミュニケーションをとりたい旨の意思表示を行っていたが、このような意思表示は他の方法で行なわれてもよい。例えば、通信端末2の映像入力部27において撮影した映像に係る端末映像データを配信サーバ1に送信し、配信サーバ1の表示部15にその映像を表示させることによって行なわれてもよい。また、映像入力部27において利用者を静止画として撮影し、この静止画を示す端末静止画データを配信サーバ1に送信し、配信サーバ1の表示部15にその静止画を表示させることによって行なわれてもよい。このように、通信端末2の利用者によって、配信サーバ1の利用者とコミュニケーションをとりたい旨の意思表示が行なわれればよいから、どのような方法によって行うようにしてもよい。なお、配信サーバ1の操作部14の操作により生成される特定情報は、接続依頼情報を受信してから行う必要はなく、配信サーバ1の利用者が意思表示を求めないときには、接続依頼情報が通信端末2から送信されなくてもよい。
上述した実施形態においては、通信端末2から配信サーバ1に対して接続依頼情報を送信することにより、通信端末2の利用者が配信サーバ1の利用者とコミュニケーションをとりたい旨の意思表示を行っていたが、このような意思表示は他の方法で行なわれてもよい。例えば、通信端末2の映像入力部27において撮影した映像に係る端末映像データを配信サーバ1に送信し、配信サーバ1の表示部15にその映像を表示させることによって行なわれてもよい。また、映像入力部27において利用者を静止画として撮影し、この静止画を示す端末静止画データを配信サーバ1に送信し、配信サーバ1の表示部15にその静止画を表示させることによって行なわれてもよい。このように、通信端末2の利用者によって、配信サーバ1の利用者とコミュニケーションをとりたい旨の意思表示が行なわれればよいから、どのような方法によって行うようにしてもよい。なお、配信サーバ1の操作部14の操作により生成される特定情報は、接続依頼情報を受信してから行う必要はなく、配信サーバ1の利用者が意思表示を求めないときには、接続依頼情報が通信端末2から送信されなくてもよい。
1…配信サーバ、2,2−A,2−B…通信端末、10,20…バス、11,21…CPU、12,22…記憶部、13,23…RAM、14,24…操作部、15,25…表示部、16,26…音声出力部、17,27…映像入力部、18,28…音声入力部、19,29…通信部、101,201…映像デコード部、2011…高品質映像デコード部、2012…低遅延映像デコード部、2013…映像データ解析部、102,202…音声
デコード部、2021…高品質音声デコード部、2022…低遅延音声デコード部、2023…音声データ解析部、103…映像合成部、104…音声合成部、105,205…映像エンコード部、1051…高品質映像エンコード部、1052…低遅延映像エンコード部、106,206…音声エンコード部、1061…高品質音声エンコード部、1062…低遅延音声エンコード部、1000…通信網
デコード部、2021…高品質音声デコード部、2022…低遅延音声デコード部、2023…音声データ解析部、103…映像合成部、104…音声合成部、105,205…映像エンコード部、1051…高品質映像エンコード部、1052…低遅延映像エンコード部、106,206…音声エンコード部、1061…高品質音声エンコード部、1062…低遅延音声エンコード部、1000…通信網
Claims (8)
- 通信網を介して、高品質モードまたは低遅延モードの通信モードで通信を行う配信サーバと通信端末とを有する配信システムにおいて、
前記配信サーバは、
映像または音声の少なくとも一方を示すストリーミング形式の配信データが入力される配信データ入力手段と、
前記配信データ入力手段に入力された配信データに対して、第1の処理時間でエンコードを行う高品質エンコード手段と、
前記配信データ入力手段に入力された配信データに対して、前記第1の処理時間より短い処理時間でエンコードを行う低遅延エンコード手段と、
前記通信モードとして、高品質モードまたは低遅延モードのいずれかを選択する選択手段と、
前記通信モードとして高品質モードが選択された場合には、前記高品質エンコード手段によってエンコードが行われた配信データを前記通信端末に送信し、低遅延モードが選択された場合には、前記低遅延エンコード手段によってエンコードが行われた配信データを前記通信端末に送信する配信データ送信手段と、
前記通信端末から送信される端末データを受信する端末データ受信手段と、
前記端末データ受信手段によって受信された端末データをデコードするデコード手段と
を具備し、
前記通信端末は、
前記配信サーバから送信された配信データを受信する配信データ受信手段と、
前記配信データ受信手段によって受信された配信データに対して、第2の処理時間でデコードを行う高品質デコード手段と、
前記配信データ受信手段によって受信された配信データに対して、第2の処理時間より短い処理時間でデコードを行う低遅延デコード手段と、
前記通信モードが高品質モードであるか低遅延モードであるかを識別する識別手段と、
前記識別手段によって、前記通信モードが高品質モードであると識別された場合には、前記高品質デコード手段によってデコードが行われた配信データを出力し、低遅延モードであると識別された場合には、前記低遅延デコード手段によってデコードが行われた配信データを出力する出力手段と、
映像または音声の少なくとも一方を示すストリーミング形式の端末データが入力される端末データ入力手段と、
前記端末データ入力手段に入力された端末データに対して、エンコードを行うエンコード手段と、
前記エンコード手段によってエンコードが行われた端末データを前記配信サーバに送信する端末データ送信手段と
を具備し、
前記通信端末は、前記配信データ受信手段によって受信された配信データのエンコード方法を解析する解析手段をさらに具備し、
前記識別手段は、前記解析手段の解析結果に基づいて、前記通信モードが高品質モードであるか低遅延モードであるかを識別する
ことを特徴とする配信システム。 - 前記通信端末は複数であって、
前記低遅延エンコード手段におけるエンコードは、前記配信データ入力手段に入力された配信データに、前記デコード手段がデコードした端末データを合成して生成される配信データに対して行われる
ことを特徴とする請求項1に記載の配信システム。 - 前記通信端末は複数であって、
前記配信サーバは、前記複数の通信端末のうち、1以上の通信端末を特定する特定情報を生成して送信する特定情報送信手段をさらに具備し、
前記通信端末は、前記配信サーバから送信される特定情報を受信する特定情報受信手段をさらに具備し、
前記複数の通信端末のうち、前記特定情報が示す通信端末から前記配信サーバへの端末データの送信が行われる
ことを特徴とする請求項1又は2に記載の配信システム。 - 前記通信モードが低遅延モードであるときに、前記通信端末から前記配信サーバへの端末データの送信が行われる
ことを特徴とする請求項1乃至請求項3のいずれかに記載の配信システム。 - 前記高品質デコード手段は、前記配信データ受信手段によって受信された配信データを所定のデータ量のバッファをし、当該バッファされたデータのデコードを行い、
前記低遅延デコード手段は、前記配信データ受信手段によって受信された配信データを前記所定のデータ量より少ないデータ量のバッファをし、当該バッファされたデータのデコードを行う
ことを特徴とする請求項1乃至請求項4のいずれかに記載の配信システム。 - 通信網を介して、高品質モードまたは低遅延モードの通信モードで通信を行う配信サーバと通信端末とを有する配信システムに用いられる配信方法であって、
前記配信サーバにおいて用いられる方法は、
映像または音声の少なくとも一方を示すストリーミング形式の配信データが入力される配信データ入力過程と、
前記配信データ入力過程において入力された配信データに対して、第1の処理時間でエンコードを行う高品質エンコード過程と、
前記配信データ入力過程において入力された配信データに対して、前記第1の処理時間より短い処理時間でエンコードを行う低遅延エンコード過程と、
前記通信モードとして、高品質モードまたは低遅延モードのいずれかを選択する選択過程と、
前記通信モードとして高品質モードが選択された場合には、前記高品質エンコード過程によってエンコードが行われた配信データを前記通信端末に送信し、低遅延モードが選択された場合には、前記低遅延エンコード過程によってエンコードが行われた配信データを前記通信端末に送信する配信データ送信過程と、
前記通信端末から送信される端末データを受信する端末データ受信過程と、
前記端末データ受信過程によって受信された端末データをデコードするデコード過程と
を備え、
前記通信端末において用いられる方法は、
前記配信サーバから送信された配信データを受信する配信データ受信過程と、
前記配信データ受信過程によって受信された配信データに対して、第2の処理時間でデ
コードを行う高品質デコード過程と、
前記配信データ受信過程によって受信された配信データに対して、第2の処理時間より短い処理時間でデコードを行う低遅延デコード過程と、
前記通信モードが高品質モードであるか低遅延モードであるかを識別する識別過程と、
前記識別過程によって、前記通信モードが高品質モードであると識別された場合には、前記高品質デコード過程によってデコードが行われた配信データを出力し、低遅延モードであると識別された場合には、前記低遅延デコード過程によってデコードが行われた配信データを出力する出力過程と、
映像または音声の少なくとも一方を示すストリーミング形式の端末データが入力される端末データ入力過程と、
前記端末データ入力過程において入力された端末データに対して、エンコードを行うエンコード過程と、
前記エンコード過程によってエンコードが行われた端末データを前記配信サーバに送信する端末データ送信過程と
を備え、
前記通信端末において用いられる方法は、前記配信データ受信過程において受信された配信データのエンコード方法を解析する解析過程をさらに備え、
前記識別過程においては、前記解析過程における解析結果に基づいて、前記通信モードが高品質モードであるか低遅延モードであるかを識別する
ことを特徴とする配信方法。 - 当該配信サーバから送信された配信データを受信する配信データ受信手段と、前記配信データ受信手段によって受信された配信データに対して、第2の処理時間でデコードを行う高品質デコード手段と、前記配信データ受信手段によって受信された配信データに対して、第2の処理時間より短い処理時間でデコードを行う低遅延デコード手段と、前記通信モードが高品質モードであるか低遅延モードであるかを識別する識別手段と、前記識別手段によって、前記通信モードが高品質モードであると識別された場合には、前記高品質デコード手段によってデコードが行われた配信データを出力し、低遅延モードであると識別された場合には、前記低遅延デコード手段によってデコードが行われた配信データを出力する出力手段と、映像または音声の少なくとも一方を示すストリーミング形式の端末データが入力される端末データ入力手段と、前記端末データ入力手段に入力された端末データに対して、エンコードを行うエンコード手段と、前記エンコード手段によってエンコードが行われた端末データを当該配信サーバに送信する端末データ送信手段と、前記配信データ受信手段によって受信された配信データのエンコード方法を解析する解析手段とを具備し、前記識別手段は、前記解析手段の解析結果に基づいて、前記通信モードが高品質モードであるか低遅延モードであるかを識別する通信端末との間で、通信網を介して、高品質モードまたは低遅延モードの通信モードで通信を行う配信サーバであって、
映像または音声の少なくとも一方を示すストリーミング形式の配信データが入力される配信データ入力手段と、
前記配信データ入力手段に入力された配信データに対して、第1の処理時間でエンコードを行う高品質エンコード手段と、
前記配信データ入力手段に入力された配信データに対して、前記第1の処理時間より短い処理時間でエンコードを行う低遅延エンコード手段と、
前記通信モードとして、高品質モードまたは低遅延モードのいずれかを選択する選択手段と、
前記通信モードとして高品質モードが選択された場合には、前記高品質エンコード手段によってエンコードが行われた配信データを前記通信端末に送信し、低遅延モードが選択された場合には、前記低遅延エンコード手段によってエンコードが行われた配信データを前記通信端末に送信する配信データ送信手段と、
前記通信端末から送信される端末データを受信する端末データ受信手段と、
前記端末データ受信手段によって受信された端末データをデコードするデコード手段と
を具備する
ことを特徴とする配信サーバ。 - 映像または音声の少なくとも一方を示すストリーミング形式の配信データが入力される配信データ入力手段と、前記配信データ入力手段に入力された配信データに対して、第1の処理時間でエンコードを行う高品質エンコード手段と、前記配信データ入力手段に入力された配信データに対して、前記第1の処理時間より短い処理時間でエンコードを行う低遅延エンコード手段と、前記通信モードとして、高品質モードまたは低遅延モードのいずれかを選択する選択手段と、前記通信モードとして高品質モードが選択された場合には、前記高品質エンコード手段によってエンコードが行われた配信データを当該通信端末に送信し、低遅延モードが選択された場合には、前記低遅延エンコード手段によってエンコードが行われた配信データを当該通信端末に送信する配信データ送信手段と、当該通信端末から送信される端末データを受信する端末データ受信手段と、前記端末データ受信手段によって受信された端末データをデコードするデコード手段とを具備する配信サーバとの間で、通信網を介して、高品質モードまたは低遅延モードの通信モードで通信を行う通信端末であって、
前記配信サーバから送信された配信データを受信する配信データ受信手段と、
前記配信データ受信手段によって受信された配信データに対して、第2の処理時間でデコードを行う高品質デコード手段と、
前記配信データ受信手段によって受信された配信データに対して、第2の処理時間より短い処理時間でデコードを行う低遅延デコード手段と、
前記通信モードが高品質モードであるか低遅延モードであるかを識別する識別手段と、
前記識別手段によって、前記通信モードが高品質モードであると識別された場合には、前記高品質デコード手段によってデコードが行われた配信データを出力し、低遅延モードであると識別された場合には、前記低遅延デコード手段によってデコードが行われた配信データを出力する出力手段と、
映像または音声の少なくとも一方を示すストリーミング形式の端末データが入力される端末データ入力手段と、
前記端末データ入力手段に入力された端末データに対して、エンコードを行うエンコード手段と、
前記エンコード手段によってエンコードが行われた端末データを前記配信サーバに送信する端末データ送信手段と、
前記配信データ受信手段によって受信された配信データのエンコード方法を解析する解析手段と
を具備し、
前記識別手段は、前記解析手段の解析結果に基づいて、前記通信モードが高品質モードであるか低遅延モードであるかを識別する
ことを特徴とする通信端末。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012209556A JP2012253823A (ja) | 2012-09-24 | 2012-09-24 | 配信システム、配信方法、配信サーバ及び通信端末 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012209556A JP2012253823A (ja) | 2012-09-24 | 2012-09-24 | 配信システム、配信方法、配信サーバ及び通信端末 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007257815A Division JP2009089156A (ja) | 2007-10-01 | 2007-10-01 | 配信システムおよび配信方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012253823A true JP2012253823A (ja) | 2012-12-20 |
Family
ID=47526107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012209556A Pending JP2012253823A (ja) | 2012-09-24 | 2012-09-24 | 配信システム、配信方法、配信サーバ及び通信端末 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012253823A (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06261316A (ja) * | 1993-03-05 | 1994-09-16 | Nippon Telegr & Teleph Corp <Ntt> | 多地点間通信会議システム |
JPH07162822A (ja) * | 1993-12-02 | 1995-06-23 | Nippon Telegr & Teleph Corp <Ntt> | 多地点間会議発言者表示方式 |
JP2001008180A (ja) * | 1999-06-21 | 2001-01-12 | Matsushita Electric Ind Co Ltd | 動画像信号符号化/復号装置 |
JP2003284051A (ja) * | 2002-03-26 | 2003-10-03 | Fujitsu Ltd | 映像伝送システム及び映像伝送制御方法 |
JP2004301907A (ja) * | 2003-03-28 | 2004-10-28 | Matsushita Electric Ind Co Ltd | 音声符号化装置 |
JP2006504327A (ja) * | 2002-10-25 | 2006-02-02 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 通信リンク間の遅延トレードオフ |
JP2006033743A (ja) * | 2004-07-21 | 2006-02-02 | Sharp Corp | 送信装置、受信装置、及び送受信装置 |
JP2007088771A (ja) * | 2005-09-21 | 2007-04-05 | Toshiba Corp | 映像圧縮送信装置および映像圧縮方法 |
WO2007080788A1 (ja) * | 2006-01-12 | 2007-07-19 | Matsushita Electric Industrial Co., Ltd. | Tv会議制御装置およびtv会議制御方法 |
-
2012
- 2012-09-24 JP JP2012209556A patent/JP2012253823A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06261316A (ja) * | 1993-03-05 | 1994-09-16 | Nippon Telegr & Teleph Corp <Ntt> | 多地点間通信会議システム |
JPH07162822A (ja) * | 1993-12-02 | 1995-06-23 | Nippon Telegr & Teleph Corp <Ntt> | 多地点間会議発言者表示方式 |
JP2001008180A (ja) * | 1999-06-21 | 2001-01-12 | Matsushita Electric Ind Co Ltd | 動画像信号符号化/復号装置 |
JP2003284051A (ja) * | 2002-03-26 | 2003-10-03 | Fujitsu Ltd | 映像伝送システム及び映像伝送制御方法 |
JP2006504327A (ja) * | 2002-10-25 | 2006-02-02 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 通信リンク間の遅延トレードオフ |
JP2004301907A (ja) * | 2003-03-28 | 2004-10-28 | Matsushita Electric Ind Co Ltd | 音声符号化装置 |
JP2006033743A (ja) * | 2004-07-21 | 2006-02-02 | Sharp Corp | 送信装置、受信装置、及び送受信装置 |
JP2007088771A (ja) * | 2005-09-21 | 2007-04-05 | Toshiba Corp | 映像圧縮送信装置および映像圧縮方法 |
WO2007080788A1 (ja) * | 2006-01-12 | 2007-07-19 | Matsushita Electric Industrial Co., Ltd. | Tv会議制御装置およびtv会議制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11727945B2 (en) | Methods and systems for interactive rendering of object based audio | |
CN116193215A (zh) | 用于虚拟现实应用的音频传递优化 | |
US20110214141A1 (en) | Content playing device | |
WO2016171002A1 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
JP5369418B2 (ja) | 配信システム、配信方法及び通信端末 | |
JP2009089156A (ja) | 配信システムおよび配信方法 | |
JP2012253823A (ja) | 配信システム、配信方法、配信サーバ及び通信端末 | |
WO2023120244A1 (ja) | 伝送装置、伝送方法、およびプログラム | |
WO2018000953A1 (zh) | 音视频处理方法、装置及麦克 | |
KR20120059834A (ko) | 스마트 텔레비전의 내레이션 제공 방법 및 스마트 텔레비전 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130820 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131210 |