JP2016004352A - 端末管理システム、端末管理方法、及びプログラム - Google Patents
端末管理システム、端末管理方法、及びプログラム Download PDFInfo
- Publication number
- JP2016004352A JP2016004352A JP2014123255A JP2014123255A JP2016004352A JP 2016004352 A JP2016004352 A JP 2016004352A JP 2014123255 A JP2014123255 A JP 2014123255A JP 2014123255 A JP2014123255 A JP 2014123255A JP 2016004352 A JP2016004352 A JP 2016004352A
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- communication terminal
- unit
- data
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Information Transfer Between Computers (AREA)
Abstract
【課題】1つの通信端末を、単一の利用する際の端末、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証する。【解決手段】各通信端末の端末ID、各通信端末のうち共有の利用目的を表す共有ID、及び配信サーバのIPアドレスを関連付けて記憶する端末管理テーブル7010と、通信端末から受信した端末IDに基づいて、端末管理テーブル7010を検索することにより共有IDを取得する共有ID検索手段(S22−3)と、共有IDに基づいて、端末管理テーブル7010を検索することにより配信サーバのIPアドレスを取得する配信サーバ検索手段(S22−4)と、を備え、配信サーバ検索手段により取得された共有IDに対応する配信サーバのIPアドレスを通信端末に送信することを特徴とする。【選択図】図26
Description
本発明は、パソコンや電子黒板等の通信端末に、コンテンツを配信するのに先だって、複数の通信端末が共有される場合でも認証が可能になる端末管理システム、端末管理方法、及びプログラムに関する。
近年、インターネットの普及に伴い、様々な分野でクラウドコンピューティングが利用されてきている。クラウドコンピューティングは、ユーザが、インターネットに接続した通信端末を用いてインターネット上のサーバが提供するサービス(クラウドサービス)を利用し、その対価を支払うサービス利用形態である。
ところが、インターネット上で扱われるウェブ(Web)コンテンツは、様々な要求に応えるためにリッチ化される傾向にある。そのため、インターネット経由でサービスを利用するための通信端末を用いて、リッチ化されたコンテンツを利用する場合、通信端末の負荷が高いという問題がある。
また、通信端末の負荷を低減させる技術としては、シンクライアントと呼ばれる技術がある(例えば、特許文献1等を参照)。そして、このシンクライアントの技術により、インターネット環境を利用してウェブベースで様々なアプリケーションを通信端末で実行することができる。
特許文献1には、コンピューティングデバイスからコンテンツを無線により受信して、プロジェクタなどの表示デバイスを用いてコンテンツを表示させている。すなわち、1つの表示デバイスにおいて、1つの画像を単独で表示する技術が開示されている。
特許文献1には、コンピューティングデバイスからコンテンツを無線により受信して、プロジェクタなどの表示デバイスを用いてコンテンツを表示させている。すなわち、1つの表示デバイスにおいて、1つの画像を単独で表示する技術が開示されている。
しかしながら、特許文献1にあっては、1つの表示デバイスを同時に複数の用途に使用できるような構成については、開示されていない。さらに、マルチディスプレイ表示など、1つのコンテンツを複数に分割して表示するような技術についても開示されていない。
このため、特許文献1にあっては、1つの表示デバイスにおいて、シングルの表示(1画面で表示)と、マルチディスプレイの一部として表示することができないといった問題があった。
本発明は、上記に鑑みてなされたもので、その目的としては、1つの通信端末を単一で利用する際の端末もしくは複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことが可能な端末管理システム、端末管理方法、及びプログラムを提供することにある。
このため、特許文献1にあっては、1つの表示デバイスにおいて、シングルの表示(1画面で表示)と、マルチディスプレイの一部として表示することができないといった問題があった。
本発明は、上記に鑑みてなされたもので、その目的としては、1つの通信端末を単一で利用する際の端末もしくは複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことが可能な端末管理システム、端末管理方法、及びプログラムを提供することにある。
請求項1記載の発明は、上記課題を解決するため、少なくとも前記各通信端末のうち共有の利用目的を表す共有ID、及び配信サーバのIPアドレスを関連付けて端末管理記憶手段に記憶されている端末管理システムであって、通信端末から受信した端末IDに基づいて、前記端末管理記憶手段から前記共有IDを取得する共有ID検索手段と、前記共有IDに基づいて、前記端末管理記憶手段から前記配信サーバのIPアドレスを取得する配信サーバ検索手段と、を備え、前記配信サーバ検索手段により取得された前記共有IDに対応する前記配信サーバのIPアドレスを前記通信端末に送信することを特徴とする。
本発明によれば、1つの通信端末を単一の利用する際の端末もしくは複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことができる。
以下に図面を用いて、本実施形態に係る配信システム1を詳細に説明する。なお、以下では、クラウドコンピューティングを利用して、クラウド上でウェブブラウザ(以下、「ブラウザ」と示す)とエンコーダとの両方を連携させて実行させ、通信端末に映像データや音データ等を送信する発明について詳細に説明する。
なお、以下に示される「画像」には、静止画及び動画が含まれる。また、以下に示される「映像」は、基本的に動画を意味し、動画が停止されて静止画状態になった場合も含まれる。更に、静止画及び音のうち少なくとも一方を示す場合には、「静止画(音)」と示す。また、画像及び音のうち少なくとも一方を示す場合には、「画像(音)」と示す。映像及び音のうち少なくとも一方を示す場合には、「映像(音)」と示す。
〔実施形態の概略〕
図1を用いて、本発明の一実施形態の概略を説明する。なお、図1は、本実施形態に係る配信システムの概略図である。
図1を用いて、本発明の一実施形態の概略を説明する。なお、図1は、本実施形態に係る配信システムの概略図である。
<システム構成の概略>
まず、配信システム1の構成の概略について説明する。
まず、配信システム1の構成の概略について説明する。
図1に示されているように、本実施形態の配信システム1は、配信制御システム2、複数の通信端末(5a〜5f)、端末管理システム7、及びウェブサーバ8によって構築されている。なお、以下では、複数の通信端末(5a〜5f)のうち、任意の通信端末を「通信端末5」として表す。また、配信制御システム2、端末管理システム7、及びウェブサーバ8は、いずれもサーバコンピュータによって構築されている。
通信端末5は、配信システム1のサービスを受けるユーザが使用する端末である。このうち、通信端末5aは、ノートPC(Personal Computer)である。通信端末5bは、スマートフォンやタブレット端末等のモバイル端末である。通信端末5cは、コピー、スキャン、プリント、及びファックスの各機能が複合されたMFP(Multifunction Peripheral/Printer/Product)である。通信端末5dは、プロジェクタである。通信端末5eは、カメラ、マイク及びスピーカを備えたテレビ(ビデオ)会議端末である。通信端末5fは、ユーザ等によって描かれた内容を電子的に変換することが可能な電子黒板(ホワイトボード)である。
なお、通信端末5は、図1に示されているような端末だけでなく、腕時計、自動販売機、ガスメータ、カーナビゲーション装置、ゲーム機、エアコン、照明器具、カメラ単体、マイク単体、スピーカ単体等であって、インターネット等の通信ネットワークを介して通信可能な装置であってもよい。
また、配信制御システム2、通信端末5、端末管理システム7、及びウェブサーバ8は、インターネットやLAN(Local Area Network)等の通信ネットワーク9によって通信することができる。この通信ネットワーク9には、3G(3rd Generation)、WiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)等の無線通信によるネットワークも含まれる。
なお、通信端末5によっては、通信端末5d等のように、通信ネットワーク9を介して他の端末やシステムと通信する機能を有していないものがある。しかし、図2に示されているように、ユーザが通信端末6dのUSB(Universal Serial Bus)やHDMI(登録商標)(High-Definition Multimedia Interface)のインターフェース部にドングル99を差し込むことで、通信端末5は通信ネットワーク9を介して他の端末やシステムと通信可能となる。なお、図2は、通信端末にドングルを取り付ける際のイメージ図である。
また、配信制御システム2は、クラウド上でブラウザ20を有し、ブラウザ20におけるレンダラ(Renderer)の機能が、所定の記述言語で示された単一又は複数のコンテンツデータを取得して、レンダリングすることにより、RGB(Red、Green、Blue)によるビットマップデータ等の静止画データやPCM(Pulse Code Modulation)データ等の音データ(即ち、静止画(音)データ)としてのフレームデータを生成することができる。なお、コンテンツデータは、ウェブサーバ8や任意の通信端末等から取得されたデータであって、HTML(Hypertext Markup Language)やCSS(Cascading Style Sheets)による画像(音)データ、MP4(MPEG−4)による画像(音)データ、AAC(Advanced Audio Coding)による音データ等が含まれる。
更に、配信制御システム2は、クラウド上でエンコード部19を有し、エンコード部19がエンコーダとしての役割を果たすことにより、静止画(音)データとしての各フレームデータを、H.264(MPEG−4 AVC)、H.265、Motion JPEG等の圧縮符号化方式の映像(音)データに変換する。
一方、端末管理システム7は、通信端末5のログイン認証を行ったり、通信端末5の契約情報等の管理を行ったりする。また、端末管理システム7は、電子メールを送信するためのSMTP(Simple Mail Transfer Protocol)サーバの機能を有している。端末管理システム7は、例えば、クラウドのサービス(IaaS:Infrastructure as a Service)上に展開される仮想マシンとして実現することができる。端末管理システム7は、不測の事態に対応して継続的なサービス提供を行うために、多重化して運用することが望ましい。
また、ブラウザ20は、リアルタイムコミュニケーション(RTC:Real-time communication/collaboration)を可能にしている。更に、配信制御システム2は後述の図16におけるエンコード部19を有しており、このエンコード部19は、ブラウザ20によって出力されたフレームデータに対して、リアルタイムのエンコードを行い、H.264の規格等に基づく変換により生成された映像(音)データを出力することができる。そのため、配信制御システム2の処理は、DVDプレーヤによって、DVDに記録されているリアルタイム性のない映像(音)データを読み出して配信する場合等とは異なる。
なお、配信制御システム2だけでなく、通信端末5もブラウザを有してもよい。この場合、配信制御システム2のブラウザ20を最新化することで、各通信端末5のブラウザを起動させる必要はなくなる。
<各種配信方法の概略>
続いて、各種配信方法の概略について説明する。
続いて、各種配信方法の概略について説明する。
(基本配信)
図3は、基本的な配信方法を示した概念図である。配信システム1では、図3に示されているように、配信制御システム2のブラウザ20が、ウェブサーバ8から画像(音)データとしてのウェブコンテンツデータ〔A〕を取得してレンダリングすることにより、静止画(音)データとしての各フレームデータ〔A〕を生成する。そして、エンコード部19を含むエンコーダブリッジ部30が、各フレームデータ〔A〕をエンコード等することによりH.264等の圧縮符号化方式の映像(音)データ〔A〕(送信データの一例)に変換する。配信制御システム2は、変換された後の映像(音)データ〔A〕を通信端末5に配信する。
図3は、基本的な配信方法を示した概念図である。配信システム1では、図3に示されているように、配信制御システム2のブラウザ20が、ウェブサーバ8から画像(音)データとしてのウェブコンテンツデータ〔A〕を取得してレンダリングすることにより、静止画(音)データとしての各フレームデータ〔A〕を生成する。そして、エンコード部19を含むエンコーダブリッジ部30が、各フレームデータ〔A〕をエンコード等することによりH.264等の圧縮符号化方式の映像(音)データ〔A〕(送信データの一例)に変換する。配信制御システム2は、変換された後の映像(音)データ〔A〕を通信端末5に配信する。
以上により、たとえリッチなウェブコンテンツデータであっても、配信制御システム2が、クラウド上で、HTML等によるウェブコンテンツデータからH.264等による圧縮した映像(音)データにした状態で、通信端末5に配信することができる。よって、通信端末5側では、自端末のブラウザを最新化したり、CPU(Central Processing Unit)、OS(Operating System)、及びRAM(Random Access Memory)等のスペックを上げる手間や費用を掛けなくても、スムーズにウェブコンテンツを再生したりすることができる。
また、今後、ウェブコンテンツのリッチ化が進んでも、クラウド上の配信制御システム2におけるブラウザ20やCPU等のスペックを上げればよいため、通信端末5のスペックは上げる必要がない。
更に、配信システム1は、上述の配信方法を応用し、図4乃至図6に示されているように、ウェブコンテンツデータを複数の拠点に映像(音)データとして配信することも可能である。ここで、図4乃至図6に示されている配信方法について説明する。
(マルチキャスト)
図4は、マルチキャストの概念図である。図4に示されているように、配信制御システム2の単一のブラウザ20は、ウェブサーバ8から画像(音)データとしてのウェブコンテンツデータ〔A〕を取得してレンダリングすることにより、静止画(音)データとしての各フレームデータ〔A〕を生成する。そして、エンコーダブリッジ部30が、各フレームデータ〔A〕をエンコードして、映像(音)データに変換する。その後、配信制御システム2は、映像(音)データ〔A〕(送信データの一例)を複数の通信端末(5f1、5f2、5f3)に配信する。
図4は、マルチキャストの概念図である。図4に示されているように、配信制御システム2の単一のブラウザ20は、ウェブサーバ8から画像(音)データとしてのウェブコンテンツデータ〔A〕を取得してレンダリングすることにより、静止画(音)データとしての各フレームデータ〔A〕を生成する。そして、エンコーダブリッジ部30が、各フレームデータ〔A〕をエンコードして、映像(音)データに変換する。その後、配信制御システム2は、映像(音)データ〔A〕(送信データの一例)を複数の通信端末(5f1、5f2、5f3)に配信する。
以上により、複数の拠点では、同じ映像(音)が再生される。なお、この場合、通信端末(5f1、5f2、5f3)は同じ表示再生能力(解像度が同じ等)を有する必要はない。このような配信方法は、例えば「マルチキャスト」と呼ぶ。
(マルチディスプレイ)
図5は、マルチディスプレイの概念図である。図5に示されているように、配信制御システム2の単一のブラウザ20は、ウェブサーバ8から画像(音)データとしてのウェブコンテンツデータ〔XYZ〕を取得してレンダリングすることにより、静止画(音)データとしての各フレームデータ〔XYZ〕を生成する。そして、エンコーダブリッジ部30が、フレームデータ〔XYZ〕毎に、複数のフレームデータ(〔X〕、〔Y〕、〔Z〕)に分割した後にエンコードすることで、複数の映像(音)データ(〔X〕、〔Y〕、〔Z〕)に変換する。その後、配信制御システム2は、映像(音)データ〔X〕(送信データの一例)を通信端末5f1に配信する。また、同じように、配信制御システム2は、映像(音)データ〔Y〕(送信データの一例)を通信端末5f2に配信し、映像(音)データ〔Z〕(送信データの一例)を通信端末5f3に配信する。
図5は、マルチディスプレイの概念図である。図5に示されているように、配信制御システム2の単一のブラウザ20は、ウェブサーバ8から画像(音)データとしてのウェブコンテンツデータ〔XYZ〕を取得してレンダリングすることにより、静止画(音)データとしての各フレームデータ〔XYZ〕を生成する。そして、エンコーダブリッジ部30が、フレームデータ〔XYZ〕毎に、複数のフレームデータ(〔X〕、〔Y〕、〔Z〕)に分割した後にエンコードすることで、複数の映像(音)データ(〔X〕、〔Y〕、〔Z〕)に変換する。その後、配信制御システム2は、映像(音)データ〔X〕(送信データの一例)を通信端末5f1に配信する。また、同じように、配信制御システム2は、映像(音)データ〔Y〕(送信データの一例)を通信端末5f2に配信し、映像(音)データ〔Z〕(送信データの一例)を通信端末5f3に配信する。
以上により、例えば、横長のウェブコンテンツ〔XYZ〕であっても、複数の通信端末5で分割して映像(音)が再生されるため、通信端末(5f1、5f2、5f3)を一列に並べて設置すれば、1つの大きな映像を再生させることと同様の効果を得ることができる。なお、この場合、通信端末(5f1、5f2、5f3)は同じ表示再生能力(解像度が同じ等)を有する必要がある。このような配信方法は、例えば「マルチディスプレイ」と呼ぶ。
(複合配信)
図6は、配信制御システムを介して複数の通信端末を使った複合配信の概念図である。
図6に示されているように、第1の拠点(図6の右側)では、電子黒板としての通信端末5f1及びテレビ会議端末としての通信端末5e1が利用され、第2の拠点(図6の左側)では、同じく電子黒板としての通信端末5f2、及びテレビ会議端末としての通信端末5e2が利用されている。また、第1の拠点では、通信端末5f1にストロークによる文字等を描画させるための電子ペンP1が利用され、第2の拠点では、通信端末5f2にストロークによる文字等を描画させるための電子ペンP2が利用されている。
図6は、配信制御システムを介して複数の通信端末を使った複合配信の概念図である。
図6に示されているように、第1の拠点(図6の右側)では、電子黒板としての通信端末5f1及びテレビ会議端末としての通信端末5e1が利用され、第2の拠点(図6の左側)では、同じく電子黒板としての通信端末5f2、及びテレビ会議端末としての通信端末5e2が利用されている。また、第1の拠点では、通信端末5f1にストロークによる文字等を描画させるための電子ペンP1が利用され、第2の拠点では、通信端末5f2にストロークによる文字等を描画させるための電子ペンP2が利用されている。
そして、第1の拠点において、通信端末5e1によって取得された映像(音)データは、エンコード部60でエンコードされた後に、配信制御システム2に送信される。その後、配信制御システム2のデコード部40でデコードされて、ブラウザ20に入力される。
また、電子ペンP1によって通信端末5f1に描かれたストロークを示す操作データ(この場合、通信端末5f1のディスプレイ上における座標データ等)は、配信制御システム2に送信され、ブラウザ20に入力される。一方、第2の拠点においても、通信端末5e2によって取得された映像(音)データは、エンコード部60でエンコードされた後に、配信制御システム2に送信される。その後、配信制御システム2のデコード部40でデコードされて、ブラウザ20に入力される。また、電子ペンP2によって通信端末5f2に描かれたストロークを示す操作データ(この場合、通信端末5f2のディスプレイ上における座標データ等)は、配信制御システム2に送信され、ブラウザ20に入力される。
また、電子ペンP1によって通信端末5f1に描かれたストロークを示す操作データ(この場合、通信端末5f1のディスプレイ上における座標データ等)は、配信制御システム2に送信され、ブラウザ20に入力される。一方、第2の拠点においても、通信端末5e2によって取得された映像(音)データは、エンコード部60でエンコードされた後に、配信制御システム2に送信される。その後、配信制御システム2のデコード部40でデコードされて、ブラウザ20に入力される。また、電子ペンP2によって通信端末5f2に描かれたストロークを示す操作データ(この場合、通信端末5f2のディスプレイ上における座標データ等)は、配信制御システム2に送信され、ブラウザ20に入力される。
一方、ブラウザ20は、例えば、ウェブサーバ8から通信端末(5f1、5f2)のぞれぞれのディスプレイに表示される背景画像であるウェブコンテンツデータ〔A〕を取得する。そして、ブラウザ20は、ウェブコンテンツデータ〔A〕、操作データ(〔p1〕、〔p2〕)及び映像(音)コンテンツデータ(〔E1〕、〔E2〕)を結合してレンダリングすることで、各コンテンツ(〔A〕、〔p1〕、〔p2〕、〔E1〕、〔E2〕)が所望のレイアウトに設置された静止画(音)データとしてのフレームデータを生成する。そして、エンコーダブリッジ部30は、各フレームデータをエンコードし、配信制御システム2が各拠点に同じコンテンツ(〔A〕、〔p1〕、〔p2〕、〔E1〕、〔E2〕)を示す映像(音)データ(送信データの一例)を配信する。これにより、第1の拠点では、通信端末5f1のディスプレイ上に、映像(〔A〕、〔p1〕、〔p2〕、〔E1(映像部分)〕及び〔E2(映像部分)〕)が表示されると共に、通信端末5e1のスピーカから音〔E2(音部分)〕が出力される。一方、第2の拠点でも、通信端末5f2のディスプレイ上に、映像(〔A〕、〔p1〕、〔p2〕、〔E1(映像部分)〕及び〔E2(映像部分)〕)が表示されると共に、通信端末5e2のスピーカから音〔E1(音部分)〕が出力される。なお、第1の拠点では、通信端末5f1のエコーキャンセル機能により、自拠点の音〔E1(音部分)〕は出力されない。一方、第2の拠点では、通信端末5f2のエコーキャンセル機能により、自拠点の音〔E2(音部分)〕は出力されない。
以上により、第1の拠点と第2の拠点とでは、遠隔地間においてリアルタイムで同じ情報を共有する遠隔共有処理を行うことができるため、本実施形態の配信システム1は遠隔会議等に有効である。
〔実施形態の詳細な説明〕
続いて、図7乃至図24を用いて、実施形態の詳細な説明を行う。
続いて、図7乃至図24を用いて、実施形態の詳細な説明を行う。
<実施形態のハードウェア構成>
まずは、図7及び図8を用いて、本実施形態のハードウェア構成を説明する。なお、図7は、配信制御システム、通信端末、端末管理システム、及びウェブサーバのハードウェア構成図である。また、図8は、ドングルのハードウェア構成図である。なお、通信端末の通信に関与するハードウェア構成は、通信端末のハードウェア構成の一部と同じであるため、説明を省略する。
まずは、図7及び図8を用いて、本実施形態のハードウェア構成を説明する。なお、図7は、配信制御システム、通信端末、端末管理システム、及びウェブサーバのハードウェア構成図である。また、図8は、ドングルのハードウェア構成図である。なお、通信端末の通信に関与するハードウェア構成は、通信端末のハードウェア構成の一部と同じであるため、説明を省略する。
図7に示されているように配信制御システム2は、配信制御システム2全体の動作を制御するCPU201、IPL等のCPU201の駆動に用いられるプログラムを記憶したROM202、CPU201のワークエリアとして使用されるRAM203、プログラム等の各種データを記憶するHDD204、CPU201の制御にしたがってHDD204に対する各種データの読み出し又は書き込みを制御するHDC(Hard Disk Controller)205、フラッシュメモリ等の記録メディア206に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ207、各種情報を表示するディスプレイ208、通信ネットワーク9を利用してデータ送信したりドングル99を接続したりするためのI/F209、キーボード211、マウス212、マイク213、スピーカ214、GPU(Graphics Processing Unit)215、上記各構成要素を図7に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン220を備えている。なお、プロジェクタとしての通信端末5dのように、GPUが備えられていない場合もある。また、端末管理システム7、及びウェブサーバ8のハードウェア構成は、配信制御システム2のハードウェア構成と同様であるため、それらの説明を省略する。
次に、図8を用いて、図2に示されているドングルのハードウェア構成について説明する。図8に示されているように、ドングル99は、ドングル99全体の動作を制御するCPU91、基本入出力プログラムを記憶したROM92、CPU91のワークエリアとして使用されるRAM93、CPU91の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)94、GPU95、通信端末5のインターフェースI/F209に接続するためのインターフェースI/F96、アンテナ97a、このアンテナ97aを利用して短距離無線技術により通信を行う通信部97、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン90を備えている。なお、短距離無線技術として、例えば、NFC(Near Field Communication)規格、BlueTooth(登録商標)、WiFi(Wireless Fidelity)、ZigBee等が挙げられる。また、ドングル99にはGPU95が備えられているため、通信端末5dのようにGPUが備えられていない場合であっても、図2に示されているようにドングル99が取り付けられることで、通信端末5dはグラフィクス表示に必要な計算処理を実行することができる。
<実施形態の機能構成>
次に、図9乃至図16を用い、本実施形態の機能構成について説明する。
次に、図9乃至図16を用い、本実施形態の機能構成について説明する。
(配信制御システムの機能構成)
先ずは、図9を用いて、配信制御システム2の機能構成について説明する。図9は、主に配信制御システムの各機能を示す機能ブロック図である。図9では、配信制御システム2が通信端末5f1に対して映像(音)データを配信する場合の機能構成が示されているが、配信先が通信端末5f1以外の場合も、同じ機能構成を有する。なお、配信制御システム2は、複数の配信エンジンサーバを備えているが、説明を簡単にするために、以下では、単一の配信エンジンサーバを備えている場合について説明する。
先ずは、図9を用いて、配信制御システム2の機能構成について説明する。図9は、主に配信制御システムの各機能を示す機能ブロック図である。図9では、配信制御システム2が通信端末5f1に対して映像(音)データを配信する場合の機能構成が示されているが、配信先が通信端末5f1以外の場合も、同じ機能構成を有する。なお、配信制御システム2は、複数の配信エンジンサーバを備えているが、説明を簡単にするために、以下では、単一の配信エンジンサーバを備えている場合について説明する。
図9に示されているように、配信制御システム2は、図7に示されているCPU201等のハードウェア構成及びプログラムによって、図9に示されている各機能構成を有する。
具体的に、配信制御システム2は、ブラウザ20、送受信部21、ブラウザ管理部22、送信用FIFOバッファ24、時刻管理部25、時刻取得部26、回線適応制御部27、エンコーダブリッジ部30、送受信部31、受信用FIFO34、認識部35、遅延情報取得部37a、回線適応制御部37b、及びデコード部40を有している。更に、配信制御システム2は、図7に示されているHDD204によって構築される記憶部2000を有している。この記憶部2000には、認識部35から出力されブラウザ管理部22を介して送られた後述の認識情報が記憶される。なお、ブラウザ20が取得したコンテンツデータは、キャッシュとして、記憶部2000に一時的に記憶しておくこともできる。
上述の各機能構成のうち、ブラウザ20は、配信制御システム2内で動作するウェブブラウザである。ブラウザ20は、ウェブコンテンツのリッチ化に対応させて常に最新化されている。ブラウザ20は、例えば、Media Player、Flash Player、JavaScript(登録商標)、CSS及びHTMLレンダラを有する。なお、JavaScript(登録商標)には、標準規格のものと配信システム1独自のものが含まれる。
ここで、Media Playerは、映像(音)ファイルなどのマルチメディアファイルをブラウザ20内で再生するためのブラウザプラグインである。Flash Playerは、Flashコンテンツをブラウザ20内で再生するためのブラウザプラグインである。独自のJavaScript(登録商標)は、配信システム1に固有のサービスのAPI(Application Programming Interface)を提供するJavaScript(登録商標)群である。CSSは、HTMLで記述されたウェブページの見栄えやスタイルを効率的に定義するための技術である。HTMLレンダラは、HTMLレンダリングエンジンである。
レンダラは、画像(音)データとしてのウェブコンテンツデータ等のコンテンツデータをレンダリングすることにより、静止画(音)データとしての各フレームデータを生成する。また、レンダラは、図6に示されているように、複数種類のコンテンツ(〔A〕、〔p1〕、〔p2〕、〔E1〕、〔E2〕)のレイアウトを行うレイアウトエンジン(Layout Engine)でもある。
また、本実施形態の配信システム1では、配信制御システム2内に複数のブラウザ20を用意しており、これら複数のブラウザ20の中からユーザセッションに使用するクラウドブラウザが選択される。なお、ここでは、説明を簡略化するため、単一のブラウザ20が用意されている場合について、以下続けて説明する。
送受信部21は、端末管理システム7やウェブサーバ8との間で、各種データ、各種要求、各種指示等の送受信を行う。例えば、送受信部21は、ウェブサーバ8のコンテンツサイトからウェブコンテンツデータを取得する。また、送受信部21は、端末管理システム7から取得した各種データを配信制御システム2内の各機能構成に出力したり、端末管理システム7から取得した各種データ、各種要求、又は各種指示等に基づいて配信制御システム2内の各機能構成を制御したりする。例えば、ブラウザ20が複数ある場合、送受信部21は、端末管理システム7からの配信のパターンの切替え要求をブラウザ管理部22に出力し、ブラウザ管理部22が、複数のブラウザ20における一のブラウザから他のブラウザへの切替えを制御する。また、送受信部21は、端末管理システム7からの配信の切替え要求に基づいて、図15及び図16に示されているエンコーダブリッジ部30内の各構成の組み合わせの切替えを行う。
ブラウザ管理部22は、ブラウザ20の管理を行う。例えば、ブラウザ管理部22は、ブラウザ20に、起動又は終了を指示したり、起動又は終了時にエンコーダIDを採番したりする。ここで、エンコーダIDは、ブラウザ管理部22がエンコーダブリッジ30のプロセスを管理するために採番する識別情報である。また、ブラウザ管理部22は、ブラウザ20が起動されるたびに、ブラウザIDを採番して管理する。ここで、ブラウザIDは、ブラウザ管理部22がブラウザ20のプロセスを管理するために採番し、ブラウザ20を識別するための識別情報である。
また、ブラウザ管理部22は、送受信部31を介して通信端末5から、各種操作データを取得し、ブラウザ20に出力する。なお、操作データは、通信端末5での操作イベント(キーボード211やマウス212等による操作や電子ペンPによるストローク等)によって生じたデータである。通信端末5に、温度センサ、湿度センサ、及び加速度センサ等の各種センサが設けられている場合には、ブラウザ管理部22は、通信端末5から各センサの出力信号であるセンサ情報を取得し、ブラウザ20に出力する。更に、ブラウザ管理部22は、認識部35から画像(音)データを取得してブラウザ20に出力したり、認識部35から後述の認識情報を取得して記憶部2000に記憶したりする。また、ブラウザ管理部22は、受信用FIFO34から映像(音)データを取得してブラウザ20に出力する。
送信用FIFO24は、ブラウザ20で生成された静止画(音)データとしての各フレームデータを格納するバッファである。
時刻管理部25は、配信制御システム2独自の時刻Tを管理している。
時刻管理部25は、配信制御システム2独自の時刻Tを管理している。
時刻取得部26は、後述の通信端末5における時刻制御部56と連携して、時刻調整の処理を行う。具体的には、時刻取得部26は、時刻管理部25から配信制御システム2における時刻Tを示す時刻情報(T)を取得したり、送受信部31及び送受信部51を介して、後述の時刻制御部56から通信端末5における時刻tを示す時刻情報(t)を受信したり、時刻制御部56に時刻情報(t)及び時刻情報(T)を送信する。
回線適応制御部27は、送信遅延時間情報(D)に基づいて、再生遅延時間Uを計算したり、エンコーダブリッジ部30における変換部10のフレームレートやデータの解像度等の動作条件を計算したりする。この再生遅延時間は、再生までにデータがバッファリングされることで、再生を遅延させるための時間である。
エンコーダブリッジ部30は、ブラウザ20が生成した静止画(音)データとしての各フレームデータを、エンコーダブリッジ部30における後述の変換部10に出力する。エンコーダブリッジ部30については、図15及び図16を用いて、更に詳細に説明する。
図15は、エンコーダブリッジ部の詳細図である。また、図16は、変換部の各機能を示す機能ブロック図である。
図15は、エンコーダブリッジ部の詳細図である。また、図16は、変換部の各機能を示す機能ブロック図である。
図15に示されているように、エンコーダブリッジ部30は、作成・選択部310、及び選択部320と、これらの間に複数の変換部(10a、10b、10c)が構築されている。ここでは、3つの変換部を示したが、いくつであってもよい。なお、以下、任意の変換部を「変換部10」として表す。
更に、変換部10は、ブラウザ20によって生成された静止画(音)データとしての各フレームデータのデータ形式を、通信ネットワーク9を介して通信端末5に配信できるH.264等のデータ形式に変換する。そのため、変換部10は、図16に示されているように、トリミング部11、リサイズ部12、分割部13、及びエンコード部19を有する。トリミング部11、リサイズ部12、及び分割部13は、音データの場合は、処理を行わない。
このうち、トリミング部11は、静止画の一部だけを切り出す処理を行う。リサイズ部12は、静止画の縮尺を変更する。分割部13は、図5に示されているように、静止画を分割する。
また、エンコード部19は、ブラウザ20で生成された、静止画(音)データとしての各フレームデータをエンコードすることにより、通信ネットワーク9介して通信端末5に映像(音)データを配信できるように変換する。また、エンコード部19は、映像が動かなければ(フレーム間で変化がなければ)、以降、映像が動くまでスキップフレームを挿入することで帯域をセーブする。
なお、レンダリングにより静止画データと共に音データが生成される場合には、これら両方のデータがエンコードされるが、音データだけが生成される場合には、トリミングやリサイズ、分割は行われることはなく、エンコードだけが行われてデータ圧縮される。
また、作成・選択部310は、新たに変換部10を作成したり、既に作成されている変換部10に対して入力させる静止画(音)データとしてのフレームデータを選択したりする。作成する場合としては、作成・選択部310は、通信端末5おける映像(音)データの再生能力に応じた変換が可能な変換部10を作成する。また、選択する場合としては、既に作成されている変換部10を選択する。例えば、通信端末5aへの配信に加えて通信端末5bへの配信を開始するにあたって、通信端末5aへ配信している映像(音)データと同じ映像(音)データを通信端末5bへ配信する場合がある。このような場合で、更に、通信端末5bが通信端末5aにおける映像(音)データの再生能力と同じ再生能力を有する場合には、作成・選択部310は通信端末5b用に新たな変換部10bを作成せずに、通信端末5a用に既に作成している変換部10aを利用する。
一方、選択部320は、既に作成されている変換部10から所望のものを選択する。これら作成・選択部310と選択部320による選択によって、図6に示したような様々なパターンの配信を行うことができる。
送受信部31は、通信端末5との間で、各種データや要求等の送受信を行う。この送受信部31が、クラウド上から通信ネットワーク9を介して通信端末5に各種データや要求等の送信を行うことで、配信制御システム2は通信端末5に対して、各種データや要求等を配信することができる。例えば、送受信部31は、通信端末5のログイン処理において、通信端末5の送受信部51に対し、ユーザにログイン要求を促すための認証画面データを送信する。その他に、送受信部31は、HTTPS(Hypertext Transfer Protocol over Secure Socket Layer)サーバを介して配信システム1独自のプロトコルにより、通信端末5のユーザアプリや通信端末6のデバイスアプリへのデータ送信およびデータ受信を行う。この独自のプロトコルは、配信制御システム2と通信端末との間でリアルタイムに途切れることなくデータを送受信するためのHTTPSベースのアプリケーション層プロトコルである。また、送受信部31は、送信レスポンス制御、リアルタイムのデータ作成、コマンド送信、受信レスポンス制御、受信データ分析、及びジェスチャ変換を行う。
このうち、送信レスポンス制御は、配信制御システム2から通信端末5にデータを送信するために、通信端末5からリクエスト(要求)されたダウンロード用のHTTPSセッションを管理する処理である。このダウンロード用のHTTPSセッションのレスポンスはすぐに終了せず、一定時間(1〜数分)保持する。送受信部31は、通信端末5に送るデータを動的にレスポンスのBody部に書き込む。また、再接続のコストをなくすため、通信端末からは前のセッションが終了しないうちに別のリクエストが届くようにする。
送受信部31を、前のリクエストが完了するまで待機させておくようにすることで、再接続を行っても、オーバヘッドを削除することができる。
送受信部31を、前のリクエストが完了するまで待機させておくようにすることで、再接続を行っても、オーバヘッドを削除することができる。
リアルタイムのデータ作成は、図16におけるエンコード部19で生成された圧縮映像(および圧縮音)のデータに独自のヘッダを付与して、HTTPSのBody部に書き込む処理である。
コマンド送信は、通信端末5に送信するコマンドデータを生成し、通信端末5へのHTTPSのBody部に書き込む処理である。
受信レスポンス制御は、配信制御システム2が通信端末5からデータを受信するために、通信端末5からリクエストされたHTTPSセッションを管理する処理である。このHTTPSセッションのレスポンスはすぐに終了せず、一定時間(1〜数分)保持される。
通信端末5は、配信制御システム2の送受信部31に送るデータを動的にリクエストのBody部に書き込む。
通信端末5は、配信制御システム2の送受信部31に送るデータを動的にリクエストのBody部に書き込む。
受信データ分析は、通信端末5から送られてきたデータを種別ごとに分析し、必要なプロセスにデータを渡す処理である。
ジェスチャ変換は、ユーザが電子黒板としての通信端末5fに電子ペンや手書きにより入力したジェスチャイベントを、ブラウザ20が受け取れる形式のデータに変換する処理である。
また、受信用FIFO34は、デコード部40でデコードされた後の映像(音)データを格納するバッファである。
認識部35は、通信端末5から受信する画像(音)データに対しての処理を行う。具体的には、認識部35は、例えば、サイネージ向けにカメラ62で撮影された画像から人や動物の顔、年齢、及び性別などを認識する。また、認識部35は、オフィス向けに、カメラ62で撮影された画像から顔認識による名前タグ付けや背景画像の差し替え処理などを行う。認識部35は、認識した内容を示す認識情報を記憶部2000に記憶させる。この認識部35は、認識拡張ボードで処理を行うことで高速化が実現される。
遅延情報取得部37aは、上り用の回線適応制御の処理に用いられる遅延情報取得部57に対応して、下り用の回線適応制御の処理に用いられる。具体的には、遅延情報取得部37aは、デコード部40から送信遅延時間d1を示す送信遅延時間情報(d1)を取得して一定時間保持しておき、複数の送信遅延時間情報(d1)を取得したところで、回線適応制御部37bに、複数の送信遅延時間d1による度数分布情報を示す送信遅延時間情報(d)を出力する。
回線適応制御部37bは、上り用の回線適応制御の処理に用いられる回線適応制御部27に対応して、下り用の回線適応制御の処理に用いられる。具体的には、回線適応制御部37bは、送信遅延時間情報(d)に基づいて、エンコード部60の動作条件を計算する。また、回線適応制御部37bは、送受信部31及び送受信部51を介して通信端末5のエンコード部60に、フレームレートやデータの解像度等の動作条件を示す回線適応制御信号を送信する。
デコード部40は、通信端末5から送信されて来た画像(音)データをデコードする。
(通信端末の機能構成)
続いて、図10を用いて、通信端末5の機能構成について説明する。図10は、主に通信端末の各機能を示す機能ブロック図である。通信端末5は、ユーザが配信システム1へのログインや映像(音)データの配信の開始又は停止などを行うためのインターフェースとなる端末である。
(通信端末の機能構成)
続いて、図10を用いて、通信端末5の機能構成について説明する。図10は、主に通信端末の各機能を示す機能ブロック図である。通信端末5は、ユーザが配信システム1へのログインや映像(音)データの配信の開始又は停止などを行うためのインターフェースとなる端末である。
図10に示されているように、通信端末5は、図7に示されているCPU201等のハードウェア構成及びプログラムによって、図10に示されている各機能構成を有する。なお、通信端末5が、図2に示されているようにドングル99が差し込まれることで、通信ネットワーク9を介して他の端末やシステムと通信可能となる場合には、図7及び図8に示されているハードウェア構成及びプログラムによって、図10に示されている各機能構成を有する。
具体的に、通信端末5は、デコード部50、送受信部51、操作部52、再生制御部53、レンダリング部55、時刻制御部56、遅延情報取得部57、表示部58、及びエンコード部60を有している。更に、通信端末5は、図7に示されているRAM203によって構築される記憶部5000を有している。この記憶部5000には、後述の時刻差△を示す時刻差情報(△)、及び通信端末5における時刻tを示す時刻情報(t)が記憶される。
このうち、デコード部50は、配信制御システム2から配信され、再生制御部53から出力された映像(音)データをデコードする。
送受信部51は、配信制御システム2の送受信部31、及び後述の端末管理システム7の送受信部71aとの間で、各種データや要求等の送受信を行う。例えば、送受信部51は、通信端末5のログイン処理において、操作部52による通信端末5の起動に基づき、端末管理システム7の送受信部71にログイン要求を行う。
操作部52は、ユーザの操作入力を受け付ける処理を行い、例えば、電源スイッチ、キーボード、マウス、電子ペンP等による入力や選択等を受け付け、操作データとして配信制御システム2のブラウザ管理部22に送信する。
再生制御部53は、送受信部51から受けた映像(音)データ(リアルタイムデータのパケット)をバッファリングし、再生遅延時間Uを考慮してデコード部50に出力する。
レンダリング部55は、デコード部50によってデコードされたデータをレンダリングする。
時刻制御部56は、配信制御システム2の時刻取得部26と連携して、時刻調整の処理を行う。具体的には、時刻制御部56は、記憶部5000から通信端末5における時刻tを示す時刻情報(t)を取得する。また、時刻制御部56は、送受信部51及び送受信部31を介して、配信制御システム2の時刻取得部26に、配信制御システム2における時刻Tを示す時刻情報(T)を要求する。この場合、時刻情報(T)の要求と共に、時刻情報(t)が送信される。
遅延情報取得部57は、再生制御部53から送信遅延時間D1を示す送信遅延時間情報(D1)を取得して一定時間保持しておき、複数の送信遅延時間情報(D1)を取得したところで、送受信部51及び送受信部31を介して回線適応制御部27に、複数の送信遅延時間D1による度数分布情報を示す送信遅延時間情報(D)を送信する。なお、送信遅延時間情報(D)は、例えば、100フレームに1回送信される。
表示部58は、レンダリング部55によってレンダリングされたデータを再生する。
エンコード部60は、内蔵されたマイク213や、外付けのカメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、同じく記憶部5000から取得した時間差△を示す時間差情報(△)を、送受信部51及び送受信部31を介して、配信制御システム2のデコード部40に送信する。また、エンコード部60は、回線適応制御部37bから受信した回線適応制御信号で示される動作条件に基づいて、エンコード部60の動作条件を変更する。更に、エンコード部60は、新たな動作条件に従って、カメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、記憶部5000から取得した時間差△を示す時間差情報(△)とを、送受信部51及び送受信部31を介して、配信制御システム2のデコード部40に送信する。
エンコード部60は、内蔵されたマイク213や、外付けのカメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、同じく記憶部5000から取得した時間差△を示す時間差情報(△)を、送受信部51及び送受信部31を介して、配信制御システム2のデコード部40に送信する。また、エンコード部60は、回線適応制御部37bから受信した回線適応制御信号で示される動作条件に基づいて、エンコード部60の動作条件を変更する。更に、エンコード部60は、新たな動作条件に従って、カメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、記憶部5000から取得した時間差△を示す時間差情報(△)とを、送受信部51及び送受信部31を介して、配信制御システム2のデコード部40に送信する。
なお、内蔵されたマイク213、外付けのカメラ62及びマイク63等は、入力手段の一例であり、エンコードやデコードが必要な各種デバイスである。入力手段は、映像(音)データの他に、触覚(touch)データや嗅覚(smell)データを出力することができてもよい。入力手段には、温度センサ、方位センサ、加速度センサ等の各種センサも含まれる。
(端末管理システムの機能構成)
続いて、図11を用いて、端末管理システム7の機能構成について説明する。図11は、端末管理システムの各機能を示す機能ブロック図である。
続いて、図11を用いて、端末管理システム7の機能構成について説明する。図11は、端末管理システムの各機能を示す機能ブロック図である。
図11に示されているように、端末管理システム7は、図7に示されているCPU201等のハードウェア構成及びプログラムによって、図11に示されている各機能構成を有する。
具体的に、端末管理システム7は、送受信部71a、送受信部71b、及び認証部75を有している。更に、端末管理システム7は、図7に示されているHDD204によって構築される記憶部7000を有している。この記憶部7000には、配信先選択メニューデータ、端末管理テーブル7010、及び利用可能端末管理テーブル7020が記憶される。
このうち、配信先選択メニューは、図12に示されているような配信先選択メニュー画面を示すデータである。
端末管理テーブル7010では、図13に示されているように、通信端末5の端末ID、ユーザ証明書、ユーザが配信システム1のサービスを利用する際の契約情報、通信端末5の端末種別、各通信端末5のホームURL(Uniform Resource Locator)を示す設定情報、各通信端末5の実行環境情報、共有ID、設置位置情報、及び表示名情報が関連付けて管理されている。このうち、実行環境情報には、各通信端末5の「お気に入り」、「前回のCookie情報」、及び「キャッシュファイル」が含まれており、各通信端末5のログイン後に、設定情報と共に配信制御システム2に送信され、各通信端末5に対して個別のサービスを行うために利用される。
また、共有IDは、各ユーザが、自己の通信端末5に配信されている映像(音)データと同じ内容の映像(音)データを他の通信端末5にも配信させることで、遠隔共有処理を行う場合に利用されるIDであり、他の通信端末又は他の通信端末群を識別する識別情報である。例えば、端末ID「t006」の共有IDは「v006」であり、端末ID「t007」の共有IDは「v006」であり、また、端末ID「t008」の共有IDは「v006」である。更に、端末ID「t001」の通信端末5aから、共有ID「v006」の通信端末(5f1、5f2、5f3)との遠隔共有処理の要求があった場合には、配信制御システム2は、通信端末(5f1、5f2、5f3)に対して、通信端末5aに配信中の映像(音)データと同じ映像(音)データを配信する。但し、通信端末5aと通信端末(5f1、5f2、5f3)の表示部58の解像度が異なる場合には、これに応じて、配信制御システム2が映像(音)データを配信する。
更に、設置位置情報は、例えば、図5に示されているように、通信端末(5f1、5f2、5f3)が並んで設置される場合の設置位置を示している。表示名情報は、図12に示されている配信先選択メニュー画面の表示名の内容を表す情報である。
一方、利用可能端末管理テーブル7020では、端末ID毎に、この端末IDによって示される通信端末5が遠隔共有処理することが可能な通信端末又は通信端末群を示す共有IDが関連付けて管理されている。
次に、図11に戻り、各機能構成について説明する。
送受信部71aは、通信端末5との間で、各種データや要求等の送受信を行う。例えば、送受信部71aは、通信端末5の送受信部51からログイン要求を受信したり、送受信部51に対してログイン要求の認証結果を送信したりする。
送受信部71bは、配信制御システム2との間で、各種データや要求等の送受信を行う。例えば、送受信部71bは、配信制御システム2の送受信部21から配信先選択メニューのデータの要求を受信したり、送受信部21に対して、配信先選択メニューのデータを送信したりする。
認証部75は、通信端末5から受信した端末ID及びユーザ証明書に基づいて、端末管理テーブル7010を検索することにより、同じ組み合わせの端末ID及びユーザ証明書があるか否かを判断することで、通信端末5の認証を行う。
〔実施形態の動作または処理〕
続いて、図17乃至図24を用いて、本実施形態の動作または処理について説明する。
なお、これらの処理は、配信制御システム2、通信端末5、端末管理システム7、ウェブサーバ8における各CPUが、それぞれに格納されているプログラムに従って実行される処理である。
続いて、図17乃至図24を用いて、本実施形態の動作または処理について説明する。
なお、これらの処理は、配信制御システム2、通信端末5、端末管理システム7、ウェブサーバ8における各CPUが、それぞれに格納されているプログラムに従って実行される処理である。
<基本的な配信処理>
まず、図17を用いて、図3に示されている基本的な配信方法における具体的な配信処理を説明する。図17は、配信制御システムの基本的な配信処理を示したシーケンス図である。なお、ここでは、通信端末5aを用いてログイン要求する場合について説明するが、通信端末5a以外の通信端末5を用いてログインしてもよい。
まず、図17を用いて、図3に示されている基本的な配信方法における具体的な配信処理を説明する。図17は、配信制御システムの基本的な配信処理を示したシーケンス図である。なお、ここでは、通信端末5aを用いてログイン要求する場合について説明するが、通信端末5a以外の通信端末5を用いてログインしてもよい。
図17に示されているように、通信端末5aにおいてユーザが電源オンにすると、通信端末5aの送受信部51は、端末管理システム7の送受信部71aに、ログイン要求する(ステップS21)。これにより、送受信部71aは、ログイン要求を受信する。このログイン要求には、通信端末5aの端末ID及びユーザ証明書が含まれている。よって、認証部75は、通信端末5aの端末ID及びユーザ証明書を取得する。
次に、認証部75は、端末ID及びユーザ証明書に基づいて、図13に示されている端末管理テーブル7010を検索することにより、同じ組み合わせの端末ID及びユーザ証明書があるか否かを判断することで、通信端末5aの認証を行う(ステップS22)。ここでは、端末管理テーブル7010に同じ組み合わせの端末ID及びユーザ証明書がある場合、即ち、通信端末5aが配信システム1における正当な端末であると認証された場合について、以下に続けて説明する。
端末管理システム7の送受信部71aは、通信端末5aの送受信部51に、配信制御システム2のIPアドレスを送信する(ステップS23)。なお、配信制御システム2のIPアドレスは、予め、端末管理システム7によって配信制御システム2から取得されて、記憶部7000に記憶されている。
次に、端末管理システム7の送受信部71bは、配信制御システム2の送受信部21に、ブラウザ20の起動要求を行う(ステップS24)。これにより、送受信部21は、ブラウザ20の起動要求を受信する。そして、ブラウザ管理部22は、送受信部21によって受信された起動要求に基づいて、ブラウザ20を起動させる(ステップS25)。
次に、エンコーダブリッジ部30の作成・選択部310は、通信端末5aの再生能力(ディスプレイの解像度等)及びコンテンツの種類に従って変換部10を作成する(ステップS26)。次に、送受信部21は、ブラウザ20の命令に従い、ウェブサーバ8に対して、コンテンツデータ〔A〕を要求する(ステップS27)。これに対して、ウェブサーバ8は、要求されたコンテンツデータ〔A〕を自己の記憶部(不図示)から読み出す(ステップS28)。そして、ウェブサーバ8は、配信制御システム2の送受信部21にコンテンツデータ〔A〕を送信する(ステップS29)。
次に、ブラウザ20が、送受信部21によって受信されたコンテンツデータ〔A〕をレンダリングすることにより、静止画(音)データとしての各フレームデータを生成して、送信用FIFO24に出力する(ステップS30)。そして、変換部10が、送信用FIFO24に格納された各フレームデータをエンコードすることで、通信端末5aに配信すべき映像(音)データ〔A〕に変換する(ステップS31)。
次に、送受信部31は、通信端末5aの送受信部51に映像(音)データ〔A〕を送信する(ステップS32)。これにより、通信端末5aの送受信部51は、映像(音)データ〔A〕を受信して、再生制御部53に出力する。
次に、通信端末5aでは、デコード部50が再生制御部53から映像(音)データ〔A〕を取得してデコードする(ステップS33)。その後、スピーカ61は、デコードされた音データ〔A〕に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ〔A〕に基づいて映像を再生する(ステップS34)。
<複数の通信端末を使った複合配信の処理>
続いて、図18を用いて、配信制御システムを介して複数の通信端末を使った通信の処理を説明する。なお、図18は、配信制御システムを介して複数の通信端末を使った配信の処理を示すシーケンス図である。ここでは、複数の通信端末5として、図6に示されているパターンについて具体的な処理を説明する。なお、ここでも、上述のステップS21〜S29と同様のログイン処理及びブラウザ起動等の処理を行うため、上述のステップS29に対応する処理から説明する。
続いて、図18を用いて、配信制御システムを介して複数の通信端末を使った通信の処理を説明する。なお、図18は、配信制御システムを介して複数の通信端末を使った配信の処理を示すシーケンス図である。ここでは、複数の通信端末5として、図6に示されているパターンについて具体的な処理を説明する。なお、ここでも、上述のステップS21〜S29と同様のログイン処理及びブラウザ起動等の処理を行うため、上述のステップS29に対応する処理から説明する。
図18に示されているように、配信制御システム2の送受信部21は、ウェブサーバ8からコンテンツデータ〔A〕を受信する(ステップS41)。そして、ブラウザ20は、コンテンツデータ〔A〕をレンダリングすることにより、静止画(音)データとしての各フレームデータを生成して、送信用FIFO24に出力する(ステップS42)。
一方、通信端末5f1のエンコード部60が、カメラ62及びマイク63から映像(音)データ〔E〕としてのコンテンツデータの入力を受け付けると(ステップS43)、エンコード部60はコンテンツデータ〔E〕をエンコードする(ステップS44)。送受信部51は、エンコード部60によってエンコードされたコンテンツデータ〔E〕を、配信制御システム2の送受信部31に送信する(ステップS45)。これにより、配信制御システム2の送受信部31は、コンテンツデータ〔E〕を受信する。
次に、配信制御システム2のデコード部40は、送受信部31によって受信されたコンテンツデータ〔E〕をデコードして、受信用FIFO34に出力する(ステップS46)。そして、ブラウザ20が、受信用FIFO34に格納されたコンテンツデータ〔E〕をレンダリングすることにより、静止画(音)データとしてのフレームデータ〔E〕を生成して、送信用FIFO24に出力する(ステップS47)。この場合、ブラウザ20は、既に取得しているコンテンツデータ〔A〕に対して、コンテンツデータ〔E〕を結合したレイアウトにして出力する。
更に、通信端末5f1の操作部52が、電子ペンP1によるストローク操作の入力を受け付けると(ステップS48)、送受信部51は、操作部52によって受け付けられたストローク操作の内容を示す操作データ〔p〕を、配信制御システム2の送受信部31に送信する(ステップS49)。これにより、配信制御システム2の送受信部31は、操作データ〔p〕を受信する。そして、ブラウザ管理部22は、送受信部31によって受信された操作データ〔p〕をブラウザ20に出力する。
次に、ブラウザ20は、操作データ〔p〕をレンダリングすることにより、静止画(音)データとしてのフレームデータ〔p〕を生成して、送信用FIFO24に出力する(ステップS50)。この場合、ブラウザ20は、既に取得しているコンテンツデータ(〔A〕、〔E〕)に対して、操作データ〔p〕を結合したレイアウトにして出力する。
次に、変換部10が、送信用FIFO24に格納された静止画(音)データとしての各フレームデータ(〔A〕、〔E〕、〔p〕)をエンコードすることで、通信端末5aに配信すべき映像(音)データ(〔A〕、〔E〕、〔p〕)に変換する(ステップS51)。
次に、送受信部31は、変換部10を含むエンコーダブリッジ部30からエンコード後の映像(音)データ(〔A〕、〔E〕、〔p〕)を取得し、通信端末5f1の送受信部51に送信する(ステップS52−1)。これにより、通信端末5f1の送受信部51は、映像(音)データ(〔A〕、〔E〕、〔p〕)を受信し、通信端末5f1の再生制御部53が送受信部5f1から映像(音)データ(〔A〕、〔E〕、〔p〕)を取得する。そして、通信端末5f1では、デコード部50が再生制御部53から映像(音)データ(〔A〕、〔E〕、〔p〕)を取得してデコードする(ステップS53−1)。その後、スピーカ61は、デコードされた音データ(〔A〕、〔E〕)に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ(〔A〕、〔E〕、〔p〕に基づいて映像を再生する(ステップS54−1)。
また、通信端末5f2に対しても、ステップS52−1と同様に、送受信部31は、エンコーダブリッジ部30からエンコード後の映像(音)データ(〔A〕、〔E〕、〔p〕)を取得し、通信端末5f2の送受信部51に送信する(ステップS52−2)。これにより、通信端末5f2の再生制御部53が映像(音)データ(〔A〕、〔E〕、〔p〕)を取得する。そして、通信端末5f1では、デコード部50が再生制御部53から映像(音)データ(〔A〕、〔E〕、〔p〕)を取得してデコードする(ステップS53−2)。その後、スピーカ61は、デコードされた音データ(〔A〕、〔E〕)に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ(〔A〕、〔E〕、〔p〕に基づいて映像を再生する(ステップS54−2)。
以上より、通信端末5f1で出力される映像(音)と同じ映像(音)が、通信端末5f2でも出力されることになる。
<時刻調整の処理>
続いて、図19を用いて、時刻調整の処理について説明する。なお、図19は、時刻調整の処理を示したシーケンス図である。
続いて、図19を用いて、時刻調整の処理について説明する。なお、図19は、時刻調整の処理を示したシーケンス図である。
まず、通信端末5の時刻制御部56は、送受信部51が配信制御システム2に時刻情報(T)を要求する時点を示す時刻を取得するために、記憶部5000から通信端末5における時刻情報(ts)を取得する(ステップS81)。そして、送受信部51は送受信部31に、配信制御システム2における時刻情報(T)を要求する(ステップS82)。この場合、時刻情報(T)の要求と共に、上記時刻情報(ts)が送信される。
次に、配信制御システム2の時刻取得部26は、送受信部31が上記ステップS82の要求を受信した時点を示す時刻を取得するために、時刻管理部25から配信制御システム2における時刻情報(Tr)を取得する(ステップS83)。更に、時刻取得部26は、送受信部31が上記ステップS82の要求に応答する時点を示す時刻を取得するために、時刻管理部25から配信制御システム2における時刻情報(Ts)を取得する(ステップS84)。そして、送受信部31は送受信部51に、時刻情報(ts、Tr、Ts)を送信する(ステップS85)。
次に、通信端末5の時刻制御部56は、送受信部51が上記ステップS85の応答を受信した時点を示す時刻を取得するために、記憶部5000から通信端末5における時刻情報(tr)を取得する(ステップS86)。
そして、通信端末5の時刻制御部56は、配信制御システム2と通信端末5との間の時刻差△を計算する(ステップS87)。この時刻差△は、以下の式1によって表される。
△=((Tr+Ts)/2)−((tr+ts)/2)・・・(式1)
そして、時刻制御部56は、記憶部5000に時刻差△を示す時刻差情報(△)を記憶する(ステップS88)。この時刻調整の一連の処理は、例えば、毎分定期的に行われる。
そして、時刻制御部56は、記憶部5000に時刻差△を示す時刻差情報(△)を記憶する(ステップS88)。この時刻調整の一連の処理は、例えば、毎分定期的に行われる。
<下り用の回線適応制御の処理>
続いて、図20を用いて、配信制御システム2から通信端末5に送信する(下り)データの回線適応制御の処理を説明する。なお、図20は、配信制御システムから通信端末に送信するデータの回線適応制御の処理を示したシーケンス図である。
続いて、図20を用いて、配信制御システム2から通信端末5に送信する(下り)データの回線適応制御の処理を説明する。なお、図20は、配信制御システムから通信端末に送信するデータの回線適応制御の処理を示したシーケンス図である。
まず、配信制御システム2の回線適応制御部27は、通信端末5の再生制御部53が映像(音)データを再生させるまでにバッファリングすることで、再生を遅延させるための再生遅延時間Uを示す再生遅延時間情報(U)を計算して、エンコーダブリッジ部30に出力する(ステップS101)。
次に、送受信部31は、エンコーダブリッジ部30から再生遅延時間情報(U)を取得し、通信端末5の送受信部51に再生遅延時間情報(U)を送信する(ステップS102)。これにより、通信端末5の送受信部51は、再生遅延時間情報(U)を受信する。また、エンコーダブリッジ部30は、送信用FIFO24から取得してエンコード等を行った映像(音)データ〔A〕に対して、時刻管理部25から取得した時点を示す時刻T0を示す時刻情報(T0)をタイムスタンプとして付加する(ステップS103)。そして、送受信部31は、通信端末5の送受信部51に、映像(音)データ及び配信制御システム2の時刻情報(T0)を送信する(ステップS104)。これにより、通信端末5の送受信部51は、映像(音)データ及び配信制御システム2の時刻情報(T0)を受信し、再生制御部53に映像(音)データ及び時刻情報(T0)を出力する。
次に、通信端末5では、再生制御部53が、上記ステップS102によって取得した再生遅延時間情報(U)、上記ステップS104によって取得した時刻情報(T0)、及び上記ステップS88によって記憶部5000に記憶した時刻差情報(△)に基づき、通信端末5における時刻(T0+U−△)になるまで待ってから、上記ステップS104によって取得した映像(音)データをデコード部50に出力することで、スピーカ61から音を再生させ、レンダリング部55を介して表示部58から映像を再生させる(ステップS105)。これにより、以下の式2に示される再生遅延時間Uの範囲内に通信端末5が受信した映像(音)データだけが再生されることになり、範囲外の映像(音)データは遅延しすぎるため、再生されずに消去される。
また、再生制御部53は、記憶部5000から、通信端末5における現時点の時刻t0を読み出す(ステップS106)。この時刻t0は、通信端末5が配信制御システム2から映像(音)データを受信した時点の通信端末5における時刻を示す。更に、再生制御部53は、記憶部5000から、上記ステップS86によって記憶されている時刻差△を示す時刻差情報(△)を読み出す(ステップS107)。そして、再生制御部53は、映像(音)データが配信制御システム2から送信されて通信端末5で受信されるまでの時間を示す送信遅延時間D1を計算する(ステップS108)。この計算は、以下の式3によって行われ、通信ネットワーク9が混雑している場合には、送信遅延時間D1が長くなる。
D1=(t0+△)−T0・・・(式3)
次に、遅延情報取得部57は、再生制御部53から送信遅延時間D1を示す送信遅延時間情報(D1)を取得して一定時間保持しておき、複数の送信遅延時間情報(D1)を取得したところで、複数の送信遅延時間D1による度数分布情報を示す送信遅延時間情報(D)を、送受信部51に出力する(ステップS109)。そして、送受信部51は、配信制御システム2の送受信部31に、送信遅延時間情報(D)を送信する(ステップS110)。これにより、配信制御システム2の送受信部31は、送信遅延時間情報(D)を受信して、回線適応制御部27に送信遅延時間情報(D)を出力する。
次に、遅延情報取得部57は、再生制御部53から送信遅延時間D1を示す送信遅延時間情報(D1)を取得して一定時間保持しておき、複数の送信遅延時間情報(D1)を取得したところで、複数の送信遅延時間D1による度数分布情報を示す送信遅延時間情報(D)を、送受信部51に出力する(ステップS109)。そして、送受信部51は、配信制御システム2の送受信部31に、送信遅延時間情報(D)を送信する(ステップS110)。これにより、配信制御システム2の送受信部31は、送信遅延時間情報(D)を受信して、回線適応制御部27に送信遅延時間情報(D)を出力する。
次に、配信制御システム2の回線適応制御部27は、送信遅延時間情報(D)に基づいて、新たに再生遅延情報U’を計算したり、変換部10のフレームレートやデータの解像度等の動作条件を計算したりして、エンコーダブリッジ部30に出力する(ステップS111)。
次に、送受信部31は、エンコーダブリッジ部30から、上記ステップS111によって計算された新たな再生遅延時間U’を示す再生遅延時間情報(U’)を取得し、通信端末5の送受信部51に再生遅延時間情報(U’)を送信する(ステップS112)。これにより、通信端末5の送受信部51は、再生遅延時間情報(U’)を受信する。
更に、エンコードブリッジ部30における変換部10は、動作条件を示す回線適応制御信号に基づいて、変換部10の動作条件を変更する(ステップS113)。例えば、送信遅延時間D1が長すぎる場合、送信遅延時間D1に応じて再生遅延時間Uを長くすると、スピーカ61や表示部58での再生時間が遅くなり過ぎるため、再生遅延時間Uを長くすることには限界がある。そこで、回線適応制御部27は、エンコーダブリッジ部30に対して、再生遅延時間Uを変更させて再生遅延時間U’とするだけでなく、変換部10に対して、映像(音)データのフレームレートを下げさせたり、映像(音)データの解像度を下げさせたりすることで、通信ネットワーク9の混雑に対応する。これにより、エンコーダブリッジ部30は、変更後の動作条件に従って、上記ステップS103のように、映像(音)データ〔A〕に対して、現時点の時刻情報(T0)をタイムスタンプとして付加する(ステップS104)。そして、映像(音)データ付加する(ステップS114)。そして、送受信部31は、通信端末5の送受信部51に、映像(音)データ及び配信制御システム2の時刻情報(T0)を送信する(ステップS115)。これにより、通信端末5の送受信部51は、映像(音)データ及び配信制御システム2の時刻情報(T0)を受信し、再生制御部53に映像(音)データ及び時刻情報(T0)を出力する。
次に、通信端末5では、再生制御部53が、上記ステップS112によって取得した再生遅延時間情報(U’)、上記ステップS115によって取得した時刻情報(T0)、及び上記ステップS88によって記憶部5000に記憶した時刻差情報(△)に基づき、通信端末5における時刻(T0+U’−△)になるまで待ってから、映像(音)データをデコード部50に出力することで、上記ステップS105のように、スピーカ61から音を再生させ、レンダリング部55を介して表示部58から映像を再生させる(ステップS116)。その後、上記ステップS106以降の処理が続けて行われる。このようにして、下り用の回線適応制御の処理が継続して行われる。
<上り用の回線適応制御の処理>
続いて、図21を用いて、通信端末5から配信制御システム2に送信する(上り)データの回線適応制御の処理を説明する。なお、図20は、通信端末から配信制御システムに送信するデータの回線適応制御の処理を示したシーケンス図である。
続いて、図21を用いて、通信端末5から配信制御システム2に送信する(上り)データの回線適応制御の処理を説明する。なお、図20は、通信端末から配信制御システムに送信するデータの回線適応制御の処理を示したシーケンス図である。
まず、通信端末5のエンコード部60は、カメラ62及びマイク63から入力された映像(音)データ〔E〕としてのコンテンツデータをエンコードする(ステップS121)。この際、エンコード部60は、記憶部5000から、現時点の通信端末5における時刻t0を示す時刻情報(t0)及び時間差△を示す時間差情報(△)を取得するが、これらに対しては、エンコードを行わない。そして、送受信部51は、配信制御システム2の送受信部31に、映像(音)データ〔E〕、時刻情報(t0)、及び時間差情報(△)を送信する(ステップS122)。これにより、配信制御システム2の送受信部31は、映像(音)データ〔E〕、時刻情報(t0)、及び時間差情報(△)を受信する。
次に、配信制御システム2では、デコード部40が上記ステップS122によって映像(音)データ〔E〕等を受信した時点を示す時刻T0を時刻管理部25から読み出す(ステップS123)。そして、デコード部40は、映像(音)データが通信端末5から送信されて配信制御システム2で受信されるまでの時間を示す送信遅延時間d1を計算する(ステップS124)。この計算は、以下の式4によって行われ、通信ネットワーク9が混雑している場合には、送信遅延時間d1が長くなる。
d1=T0−(t0+△)・・・(式4)
次に、配信制御システム2の遅延情報取得部37aは、遅延情報取得部57と同様に、デコード部40から送信遅延時間d1を示す送信遅延時間情報(d1)を取得して一定時間保持しておき、複数の送信遅延時間情報(d1)を取得したところで、回線適応制御部37bに、複数の送信遅延時間d1による度数分布情報を示す送信遅延時間情報(d)を出力する(ステップS125)。
次に、配信制御システム2の遅延情報取得部37aは、遅延情報取得部57と同様に、デコード部40から送信遅延時間d1を示す送信遅延時間情報(d1)を取得して一定時間保持しておき、複数の送信遅延時間情報(d1)を取得したところで、回線適応制御部37bに、複数の送信遅延時間d1による度数分布情報を示す送信遅延時間情報(d)を出力する(ステップS125)。
次に、回線適応制御部37bは、送信遅延時間情報(d)に基づいて、エンコード部60の動作条件を計算する(ステップS126)。そして、送受信部31は、通信端末5の送受信部51に、フレームレートやデータの解像度等の動作条件を示す回線適応制御信号を送信する(ステップS127)。これにより、通信端末5の送受信部51は、回線適応制御信号を受信する。即ち、図20に示されている回線適応制御の場合(下り)は、同じ配信制御システム2内でエンコーダブリッジ部30に回線適応制御信号が出力されるのに対して、図21に示されている回線適応制御の場合(上り)は、配信制御システム2から通信ネットワーク9を介して、通信端末5に回線適応制御信号が送信される。
次に、エンコード部60は送受信部51によって受信された回線適応制御信号で示される動作条件に基づいて、エンコード部60の動作条件を変更する(ステップS128)。そして、エンコード部60は、新たな動作条件によって、上記ステップS121と同様の処理を行う(ステップS129)。そして、送受信部51は、配信制御システム2の送受信部31に対して、上記ステップS122のように、カメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、同じく記憶部5000から取得した時間差△を示す時間差情報(△)とを送信する(ステップS130)。これにより、配信制御システム2の送受信部31は、映像(音)データ〔E〕、時刻情報(t0)、及び時間差情報(△)を受信する。その後、上記ステップS123以降の処理が続けて行われる。このようにして、上り用の回線適応制御の処理が継続して行われる。
<マルチディスプレイの処理>
続いて、図22乃至図24を用いて、マルチディスプレイの処理について説明する。なお、図22乃至図24は、図5に示されているマルチディスプレイの処理を示したシーケンス図である。
続いて、図22乃至図24を用いて、マルチディスプレイの処理について説明する。なお、図22乃至図24は、図5に示されているマルチディスプレイの処理を示したシーケンス図である。
ここでは、通信端末5aで再生されている映像(音)〔XYZ〕を、各通信端末(5f1、5f2、5f3)にも分割して再生させる例である。
また、ここでは、ウェブコンテンツを表示させるためのブラウザ20を「ブラウザ20a」と示し、ユーザへの設定画面を表示させるためのブラウザ20を「ブラウザ20b」と示す。更に、ここでは、図17のステップS30に相当する処理から説明する。
まず、配信制御システム2のブラウザ20aは、ウェブサーバ8から取得したウェブコンテンツデータ〔XYZ〕をレンダリングすることにより、静止画(音)データとしての各フレームデータを生成し、送信用FIFO24に出力する(ステップS201)。そして、変換部10が、送信用FIFO24に格納された各フレームデータをエンコードすることで、通信端末5aに配信可能なデータ形式の映像(音)データ〔XYZ〕に変換する(ステップS202)。
次に、送受信部31は、通信端末5aの送受信部51に、上記変換部10によって変換された後の映像(音)データ〔XYZ〕を送信する(ステップS203)。これにより、通信端末5aの送受信部51は、映像(音)データ〔XYZ〕を受信して、再生制御部53に出力する。
次に、通信端末5aでは、デコード部50が再生制御部53から映像(音)データ〔XYZ〕を取得してデコードする(ステップS204)。その後、スピーカ61は、デコードされた音データ〔XYZ〕に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ〔XYZ〕に基づいて映像を再生する(ステップS205)。
次に、通信端末5aのユーザによって、表示部58上に表示されている画面が不図示のメニュー要求画面に切り替えられ、操作部52が、メニュー要求画面中の不図示の「配信先選択メニュー」ボタンの押下を受け付ける(ステップS206)。これにより、送受信部51が、端末管理システム7の送受信部71aに、配信先選択メニューへの切り替え要求を送信する(ステップS207)。これにより、端末管理システム7の送受信部71aは、配信先選択メニューへの切り替え要求を受信する。この要求には、通信端末5aの端末IDが含まれている。
次に、送受信部71bは、配信制御システム2の送受信部21に、ブラウザ20bの起動要求を送信する(ステップS208)。これにより、配信制御システム2の送受信部21は、ブラウザ20bの起動要求を受信し、ブラウザ管理部22に対して、ブラウザ20bの起動要求を行う。
次に、ブラウザ管理部22は、ブラウザ20bを起動させる(ステップS209)。そして、エンコーダブリッジ部30の作成・選択部310は、ブラウザ20aから変換部10(例えば、変換部10a)への出力を、ブラウザ20bから変換部10(例えば、変換部10b)への出力に切り替える(ステップS210)。但し、通信端末5aが他の通信端末5(例えば、通信端末5b)と変換部10(例えば、変換部10a)を共有して上記ステップS203による映像(音)データを受信していた場合には、他の通信端末5(例えば、通信端末5b)はブラウザ20a用に変換部10(例えば、変換部10a)を利用中であるため、エンコーダブリッジ部30の作成・選択部310は、新たに変換部10(例えば、変換部10b)を作成する。
そして、送受信部21は、ブラウザ20bの命令に従って、端末管理システム7の送受信部71bに、配信先選択メニュー要求を送信する(ステップS211)。この際に、通信端末5aの端末IDも送信される。これにより、端末管理システム7の送受信部71bは、配信先選択メニュー要求を受信し、記憶部7000に通信端末5aの端末IDを出力する。
これに対して、端末管理システム7の記憶部7000は、この端末IDに基づいて利用可能端末管理テーブル7020を検索することにより、対応する共有IDを抽出する(ステップS212)。この共有IDは、通信端末5aが遠隔共通処理をするために利用可能な通信端末5を示している。ここでは、図14に示されているように、通信端末5aの端末IDが「t001」であるため、抽出される共有IDは「v003」、「v006」である。
更に、記憶部7000は、抽出した共有IDに基づいて端末管理テーブル7010を検索することにより、対応する表示名を示す表示名情報を抽出する(ステップS213)。ここでは、図13に示されているように、抽出された共有ID「v003」、「v006」に対応する表示名は、それぞれ「東京本社10F MFP」、「大阪展示場1F マルチディスプレイ」である。
そして、送受信部71bは、配信制御システム2の送受信部21に、コンテンツデータとしての配信先選択メニューデータ〔M〕を送信する(ステップS214)。これにより、配信制御システム2の送受信部21は、配信先選択メニューデータ〔M〕を受信し、ブラウザ20bに出力する。この配信先選択メニュー〔M〕は、図12に示されているように、チェックボックス、共有ID、及び表示名が含まれている。
次に、図23に示されているように、ブラウザ20bが、端末管理システム7から取得した配信先選択メニュー〔M〕を示すコンテンツデータをレンダリングすることによって、静止画(音)データとしての各フレームデータを生成し、送信用FIFO24に出力する(ステップS221)。そして、変換部10が、送信用FIFO24に格納された画像(音)データ〔M〕をエンコードすることで、通信端末5aに配信可能なデータ形式の映像(音)データ〔M〕に変換する(ステップS222)。
次に、送受信部31は、通信端末5aの送受信部51に、上記変換部10によって変換された後の映像(音)データ〔M〕を送信する(ステップS223)。これにより、通信端末5aの送受信部51は、映像(音)データ〔M〕を受信して、再生制御部53に出力する。
次に、通信端末5aでは、デコード部50が再生制御部53から映像(音)データ〔M〕を取得してデコードする(ステップS224)。その後、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ〔XYZ〕に基づいて、図12に示されているような映像を再生する(ステップS225)。
次に、図12に示されている配信先選択メニューにおいて、ユーザにより共有ID「v006」のチェックボックスにチェックが入れられ、「OK」ボタンが押下されると、操作部52が、ユーザの操作入力を受け付ける(ステップS226)。
次に、送受信部51は、配信制御システム2の送受信部31に、操作データとしてチェック結果を送信する(ステップS227)。これにより、配信制御システム2の送受信部31は、操作データとしてチェック結果を受信し、ブラウザ20bに出力する。
次に、ブラウザ20bは、チェック結果から共有IDを選択する(ステップS228)。そして、送受信部21は、ブラウザ20bの命令に従って、端末管理システム7の送受信部71bに、配信先追加要求を送信する(ステップS229)。この配信先追加要求には、上記ステップS227によって選択された共有IDが含まれている。これにより、端末管理システム7の送受信部71bは、配信先追加要求を受信し、記憶部7000に共有IDを出力する。そして、ブラウザ20bは、役目を終えて終了する(ステップS230)。これにより、エンコーダブリッジ部30の作成・選択部310は、ブラウザ20bから変換部10への出力を、ブラウザ20aから変換部10への出力に戻すよう切り替える(ステップS231)。
次に、図24に示されているように、端末管理システム7の記憶部7000では、上記ステップS229によって送られて来た共有IDに基づいて、端末管理テーブル7010を検索することにより、対応する端末ID及び設置位置情報を抽出する(ステップS241)。そして、送受信部71bは、配信制御システム2の送受信部21に、配信先の追加指示を送信する(ステップS242)。この配信先の追加指示には、上記ステップS241によって抽出された端末ID及び設置位置情報が含まれている。これにより、配信制御システム2の送受信部21は、配信先の追加指示を受信し、ブラウザ管理部22に配信先の追加指示を出力する。ここでは、端末ID及び設置位置情報が「t006」、「左」と、端末ID及び設置位置情報が「t007」、「中」と、端末ID及び設置位置情報が「t008」、「右」との3組の端末ID及び設置位置情報が含まれている。
次に、エンコーダブリッジ部30の作成・選択部310は、マルチディスプレイ用の変換部10を作成する(ステップS243)。なお、この場合、エンコーダブリッジ部30の作成・選択部310は、ブラウザ管理部22から、端末ID及び設置位置情報を取得する。
そして、上記ステップS243によって作成された変換部10の分割部13が、送信用FIFO24に格納されている静止画(音)データとしての各フレームデータ〔XYZ〕を分割し、エンコード部19が、分割された各フレームデータをエンコードする(ステップS244)。
そして、送受信部31は、エンコーダブリッジ部30によってエンコードされた映像(音)データ〔X〕を、端末ID(「t006」)及び設置位置情報(「左」)に基づいて、通信端末5f1の送受信部51に送信する(ステップS245−1)。これにより、通信端末5f1の送受信部51は、映像(音)データ〔X〕を受信して、再生制御部53に出力する。
次に、通信端末5f1では、デコード部50が再生制御部53から映像(音)データ〔X〕を取得してデコードする(ステップS246−1)。その後、スピーカ61は、デコードされた音データ〔X〕に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ〔X〕に基づいて映像を再生する(ステップS247−1)。
また、同様にして、送受信部31は、エンコーダブリッジ部30によってエンコードされた映像(音)データ〔Y〕を、端末ID(「t007」)及び設置位置情報(「中」)に基づいて、通信端末5f2の送受信部51に送信する(ステップS245−2)。これにより、通信端末5f2の送受信部51は、映像(音)データ〔Y〕を受信して、再生制御部53に出力する。
次に、通信端末5f2では、デコード部50が再生制御部53から映像(音)データ〔Y〕を取得してデコードする(ステップS246−2)。その後、スピーカ61は、デコードされた音データ〔Y〕に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ〔Y〕に基づいて映像を再生する(ステップS247−2)。
更に、同様にして、送受信部31は、エンコーダブリッジ部30によってエンコードされた映像(音)データ「Z」を、端末ID(「t008」)及び設置位置情報(「右」)に基づいて、通信端末5f3の送受信部51に送信する(ステップS235−3)。これにより、通信端末5f3の送受信部51は、映像(音)データ〔Z〕を受信して、再生制御部53に出力する。
次に、通信端末5f3では、デコード部50が再生制御部53から映像(音)データ〔Z〕を取得してデコードする(ステップS246−3)。その後、スピーカ61は、デコードされた音データ〔Z〕に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ〔Z〕に基づいて映像を再生する(ステップS247−3)。
〔実施形態の主な効果〕
以上、具体的な例を挙げながら詳細に説明したように、本実施形態の配信システム1では、クラウド上で配信制御システム2がレンダリングを行うブラウザ20及びエンコード等を行うエンコーダブリッジ部30を有する。これにより、ブラウザ20が所定の記述言語で示されたコンテンツデータに基づいて静止画(音)データとしての各フレームデータを生成し、エンコーダブリッジ部30が各フレームデータを通信ネットワーク2で配信可能な映像(音)データに変換する。その後に、配信制御システム2は、通信端末5に映像(音)データを配信する。よって、通信端末5側では、自端末のブラウザを最新化したり、CPU、OS、及びRAM等のスペックを上げる手間や費用を掛けなくても、スムーズにウェブコンテンツを再生したりすることができる。そのため、コンテンツのリッチ化によって通信端末5の負荷が高くなるという問題を解消することができる。
以上、具体的な例を挙げながら詳細に説明したように、本実施形態の配信システム1では、クラウド上で配信制御システム2がレンダリングを行うブラウザ20及びエンコード等を行うエンコーダブリッジ部30を有する。これにより、ブラウザ20が所定の記述言語で示されたコンテンツデータに基づいて静止画(音)データとしての各フレームデータを生成し、エンコーダブリッジ部30が各フレームデータを通信ネットワーク2で配信可能な映像(音)データに変換する。その後に、配信制御システム2は、通信端末5に映像(音)データを配信する。よって、通信端末5側では、自端末のブラウザを最新化したり、CPU、OS、及びRAM等のスペックを上げる手間や費用を掛けなくても、スムーズにウェブコンテンツを再生したりすることができる。そのため、コンテンツのリッチ化によって通信端末5の負荷が高くなるという問題を解消することができる。
特に、ブラウザ20は、リアルタイムコミュニケーションを可能にし、変換部10は、ブラウザ20によって生成されたフレームデータに対してリアルタイムのエンコードを行う。よって、例えば、映像(音)データのオンデマンド配信のように、DVDプレーヤがリアルタイム性のない(つまり、予めエンコードされている)映像(音)データを選択して配信する場合とは異なり、配信制御システム2は、配信する直前に取得したコンテンツをレンダリングすることによってフレームデータを生成してからエンコードするため、リアルタイム性に優れた映像(音)データの配信を行うことができる。
〔補足説明〕
本実施形態の配信システム1では、端末管理システム7と配信制御システム2とを互いに別個のシステムとして構成しているが、例えば、配信制御システム2に端末管理システム7の機能を持たせるなどにより、端末管理システム7と配信制御システム2とを一体の装置として構成するようにしてもよい。
本実施形態の配信システム1では、端末管理システム7と配信制御システム2とを互いに別個のシステムとして構成しているが、例えば、配信制御システム2に端末管理システム7の機能を持たせるなどにより、端末管理システム7と配信制御システム2とを一体の装置として構成するようにしてもよい。
また、上記実施形態における配信制御システム2、及び端末管理システム7は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
更に、上記実施形態の各プログラムが記録されたCD−ROMやHDD等の記録媒体は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
更に、上記実施形態の各プログラムが記録されたCD−ROMやHDD等の記録媒体は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
特許文献1は、1つの通信端末を1つの共有IDにのみ関連付けることができた。これに対して、本発明の通信端末では、1つの通信端末を複数の共有IDに関連付けられるように構成することに特徴がある。
詳しくは、図17に示すステップS22で、端末管理システム7は、通信端末が正当な端末であることを認証すると共に、該通信端末へ配信する映像(音)データの配信元アドレスを端末管理テーブル7010から検索して選択する。端末管理システム7は、通信端末5の端末IDに基づいて共有IDを検索し、更に共有IDに基づいて検索する。
なお、この時、端末IDを複数の共有IDと関連付け可能としている場合には、例えば、時系列で先に設定されている配信を優先したり、または、新たに優先度データを付加して、本優先度データに基づいて配信データを選択したりする。
詳しくは、図17に示すステップS22で、端末管理システム7は、通信端末が正当な端末であることを認証すると共に、該通信端末へ配信する映像(音)データの配信元アドレスを端末管理テーブル7010から検索して選択する。端末管理システム7は、通信端末5の端末IDに基づいて共有IDを検索し、更に共有IDに基づいて検索する。
なお、この時、端末IDを複数の共有IDと関連付け可能としている場合には、例えば、時系列で先に設定されている配信を優先したり、または、新たに優先度データを付加して、本優先度データに基づいて配信データを選択したりする。
ここで、図25を参照して、端末管理テーブル7010の構成について説明する。
図25に示すように、端末管理テーブル7010には、端末ID、ユーザ証明書、契約情報、端末種別、設定情報(ホームURL)、実行環境情報(お気に入り、前回のCookie情報、キャッシュファイル)共有ID、設置場所、および表示名がレコード毎に記憶されるように構成されている。
なお、端末管理テーブル7010には、サブテーブルとして後述する配信設定テーブルを備えても良い。また、設定情報の蘭に記載されたホームURLに代わって、配信サーバのIPアドレスを記載してもよい。
図25に示すように、端末管理テーブル7010には、端末ID、ユーザ証明書、契約情報、端末種別、設定情報(ホームURL)、実行環境情報(お気に入り、前回のCookie情報、キャッシュファイル)共有ID、設置場所、および表示名がレコード毎に記憶されるように構成されている。
なお、端末管理テーブル7010には、サブテーブルとして後述する配信設定テーブルを備えても良い。また、設定情報の蘭に記載されたホームURLに代わって、配信サーバのIPアドレスを記載してもよい。
<配信する映像(音)データの選択>
次に、図17を参照して、通信端末5へ配信する映像(音)データの決定制御について説明する。
図17では、端末管理システム7と配信制御システム2との間の基本的な配信処理を示したシーケンス図を示している。図17に示すように、通信端末5においてユーザが電源をオンにすると、通信端末5の送受信部51は、端末管理システム7の送受信部71aに、ログイン要求する(ステップS21)。これにより、送受信部71aは、ログイン要求を受信する。このログイン要求には、通信端末5の端末ID及びユーザ証明書が含まれている。よって、端末管理システム7の認証部75は、通信端末5の端末ID及びユーザ証明書を取得する。
次に、図17を参照して、通信端末5へ配信する映像(音)データの決定制御について説明する。
図17では、端末管理システム7と配信制御システム2との間の基本的な配信処理を示したシーケンス図を示している。図17に示すように、通信端末5においてユーザが電源をオンにすると、通信端末5の送受信部51は、端末管理システム7の送受信部71aに、ログイン要求する(ステップS21)。これにより、送受信部71aは、ログイン要求を受信する。このログイン要求には、通信端末5の端末ID及びユーザ証明書が含まれている。よって、端末管理システム7の認証部75は、通信端末5の端末ID及びユーザ証明書を取得する。
次に、図26を参照し、端末管理システム7が実行する通信端末の認証(図17のステップS22)制御について詳細に説明する。
端末管理システム7の認証部75は、端末ID及びユーザ証明書に基づいて、図13に示す端末管理テーブル7010を検索することにより、同じ組み合わせの端末ID及びユーザ証明書があるか否かを判断することで、通信端末5aの認証を行う(ステップS22−1、S22−2)。
ここでは、端末管理テーブル7010に同じ組み合わせの端末ID及びユーザ証明書がある場合、即ち、通信端末5が配信システム1における正当な端末であると認証された場合について、以下に説明する。
端末管理システム7の認証部75は、端末ID及びユーザ証明書に基づいて、図13に示す端末管理テーブル7010を検索することにより、同じ組み合わせの端末ID及びユーザ証明書があるか否かを判断することで、通信端末5aの認証を行う(ステップS22−1、S22−2)。
ここでは、端末管理テーブル7010に同じ組み合わせの端末ID及びユーザ証明書がある場合、即ち、通信端末5が配信システム1における正当な端末であると認証された場合について、以下に説明する。
端末管理テーブル7010の具体的な内容を図25に示す。なお、通信端末5の端末IDを「t100」とする。認証部75は、通信端末5の端末ID(t100)に基づいて端末管理テーブル7010から共有IDを検索すると、共有IDは「v100」と「v110」が検出される(ステップS22−3)。
次いで、認証部75は、検出された通信端末5に関連付く全ての共有IDに対して、端末管理テーブル7010からどのような配信がなされているかを検索する。すなわち、この共有ID(「v100」、「v110」)に基づいて端末管理テーブル7010から配信設定を検索すると、配信設定として設定情報(ホームURL)が検出される(ステップS22−4)。
次いで、認証部75は、端末管理テーブル7010から検索した共有IDの全てがチェック済みか否かを判断する(S22−5)。
次いで、認証部75は、検出された通信端末5に関連付く全ての共有IDに対して、端末管理テーブル7010からどのような配信がなされているかを検索する。すなわち、この共有ID(「v100」、「v110」)に基づいて端末管理テーブル7010から配信設定を検索すると、配信設定として設定情報(ホームURL)が検出される(ステップS22−4)。
次いで、認証部75は、端末管理テーブル7010から検索した共有IDの全てがチェック済みか否かを判断する(S22−5)。
共有IDの全てがチェック済みである場合(S22−5、Yes)には、認証部75は、ステップS22−6に進み、配信コンテンツ及び配信制御システムのIPアドレス(ホームURL)を決定する。なお、配信制御システム2のIPアドレスは、予め、端末管理システム7によって配信制御システム2から取得されて、端末管理システム7の記憶部7000に記憶されている。
具体的には、この配信は、シングルの配信である共有ID「v100」に対する配信映像(音)データと、マルチディスプレイの配信である共有ID「v110」に対する配信映像(音)データである。
複数の配信が検出された場合には、どの配信映像(音)データを配信するかを決定する必要がある。この配信映像(音)データの決定アルゴリズムとしては、複数の方法が考えられる。
一つの手法として、時系列で先に設定された配信映像(音)データを優先する方法がある。また、他の手法として、優先度のデータを設け、その優先度に応じて配信映像(音)データを決定する方法がある。
以下、図17に示すステップS23以降の制御フローに従って配信の制御がなされることにより、通信端末は映像(音)データを受信することになる。
このように、認証部75は、通信端末から受信した端末IDに基づいて、端末管理テーブル7010を検索することにより共有IDを取得し、この共有IDに基づいて端末管理テーブル7010を検索する。これによって配信サーバのIPアドレスを取得しておき、この共有IDに対応する配信サーバのIPアドレスを通信端末に送信することで、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことができる。
複数の配信が検出された場合には、どの配信映像(音)データを配信するかを決定する必要がある。この配信映像(音)データの決定アルゴリズムとしては、複数の方法が考えられる。
一つの手法として、時系列で先に設定された配信映像(音)データを優先する方法がある。また、他の手法として、優先度のデータを設け、その優先度に応じて配信映像(音)データを決定する方法がある。
以下、図17に示すステップS23以降の制御フローに従って配信の制御がなされることにより、通信端末は映像(音)データを受信することになる。
このように、認証部75は、通信端末から受信した端末IDに基づいて、端末管理テーブル7010を検索することにより共有IDを取得し、この共有IDに基づいて端末管理テーブル7010を検索する。これによって配信サーバのIPアドレスを取得しておき、この共有IDに対応する配信サーバのIPアドレスを通信端末に送信することで、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことができる。
<セキュリティの観点>
ここまで述べてきたように、一つの通信端末を複数の共有IDと関連付けることを可能とすると、通信端末の使い勝手は大幅に向上する。しかし、懸念事項もある。すなわち、無条件でどの共有IDにも関連付けることを可能とした場合には、不特定多数のユーザが、一つの端末に対して様々な映像(音)データを配信できるようになる。これは、セキュリティの面でも不安が有り、また、複雑度が上昇して使い辛くなる懸念がある。
ここまで述べてきたように、一つの通信端末を複数の共有IDと関連付けることを可能とすると、通信端末の使い勝手は大幅に向上する。しかし、懸念事項もある。すなわち、無条件でどの共有IDにも関連付けることを可能とした場合には、不特定多数のユーザが、一つの端末に対して様々な映像(音)データを配信できるようになる。これは、セキュリティの面でも不安が有り、また、複雑度が上昇して使い辛くなる懸念がある。
そこで、本発明の更に望ましい活用方法を説明する。
まず、ユーザの上位概念としてグループを設ける。グループは、例えば同じ職場で働くユーザや、居住地が同じユーザなどである。
通信端末には、少なくとも1人のユーザをオーナー(所有者)として設定し、そのオーナーが所属するグループ内でのみ、当該グループ内に属する他の通信端末の共有を許可する。
具体的には、例えば、ある会社に属するユーザを1つのグループとすることで、その会社内でのみ、通信端末を共有利用できるようになる。例えば、図25に示す端末ID「1100」、「1101」、「1102」が同一の展示場の1F(一階)に設けられた3台のマルチディスプレイ(配置位置情報:左、中、右)を1つの共有ID「v110」を用いて関連付けることとする。
このように、各通信端末が属するグループ内でのみ共有IDの利用を許可することで、1つの通信端末を、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
また、通信端末の端末IDに基づいて、共有IDと共に当該通信端末の配置位置情報を取得することで、1つの通信端末を、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
まず、ユーザの上位概念としてグループを設ける。グループは、例えば同じ職場で働くユーザや、居住地が同じユーザなどである。
通信端末には、少なくとも1人のユーザをオーナー(所有者)として設定し、そのオーナーが所属するグループ内でのみ、当該グループ内に属する他の通信端末の共有を許可する。
具体的には、例えば、ある会社に属するユーザを1つのグループとすることで、その会社内でのみ、通信端末を共有利用できるようになる。例えば、図25に示す端末ID「1100」、「1101」、「1102」が同一の展示場の1F(一階)に設けられた3台のマルチディスプレイ(配置位置情報:左、中、右)を1つの共有ID「v110」を用いて関連付けることとする。
このように、各通信端末が属するグループ内でのみ共有IDの利用を許可することで、1つの通信端末を、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
また、通信端末の端末IDに基づいて、共有IDと共に当該通信端末の配置位置情報を取得することで、1つの通信端末を、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
ここで、図27を参照し、本発明の通信端末から表示される画像の表示切り替えについて説明する。
例えば、ある通信端末5mが、1画面シングルの表示デバイスを表す共有ID「v100」に関連付くと同時に、マルチディスプレイを表す共有ID「v110」の一部として関連付けることが可能となる。これにより、通信端末5mは、シングル表示とマルチ表示を選択的に切り替えられるようになる。
例えば、ある通信端末5mが、1画面シングルの表示デバイスを表す共有ID「v100」に関連付くと同時に、マルチディスプレイを表す共有ID「v110」の一部として関連付けることが可能となる。これにより、通信端末5mは、シングル表示とマルチ表示を選択的に切り替えられるようになる。
<配信先の選択>
例えば、図27に示す通信端末5mに対して、あるユーザはシングル用の映像(音)データを配信設定し、他のユーザはマルチディスプレイの一部として配信設定したい場合について説明する。
通信端末は物理的には1つなので、当然、シングルの配信とマルチディスプレイの配信を同時に受信し、表示することはできない。従って、何らかの排他制御が必要となる。
そこで、一実施形態として、時系列において先に設定された配信のみを有効とする方法がある。上述したように、端末管理テーブル7010には、サブテーブルとして後述する配信設定テーブルが設けられている。
例えば、図27に示す通信端末5mに対して、あるユーザはシングル用の映像(音)データを配信設定し、他のユーザはマルチディスプレイの一部として配信設定したい場合について説明する。
通信端末は物理的には1つなので、当然、シングルの配信とマルチディスプレイの配信を同時に受信し、表示することはできない。従って、何らかの排他制御が必要となる。
そこで、一実施形態として、時系列において先に設定された配信のみを有効とする方法がある。上述したように、端末管理テーブル7010には、サブテーブルとして後述する配信設定テーブルが設けられている。
配信設定テーブルは、表1に示すように、端末ID、シングル配信フラグ、マルチ配信フラグ、開始時刻をレコード毎に記憶するように構成されている。
ここで、配信設定テーブルに1番最初に設定した配信フラグのみ有効となり、それ以降は配信設定を制限する。そして、配信設定したユーザが明かに配信を終了するまで、配信フラグの設定状態を「1」に保持し、他の配信設定を制限する。なお、配信設定したユーザが配信を終了した後は、配信フラグの設定状態を「0」に戻す。
なお、表1に示す例では、まず端末ID「1101」がシングル配信を要求したことを示し、次いで、端末ID「1100」がシングル配信(マルチ配信を要求しても不可能なため)を要求したことを示す。
また、表1に示す配信設定テーブルにあっては、配信設定は複数可能とし、実際に配信される映像は、優先度に応じて決定する方法であり、この優先度は時系列で先に設定されたものを優先するでもある。
また、端末ID「1101」がマルチ配信フラグを「1」に設定した場合には、この端末の優先度(開始時刻)が最高位であるため、他の端末がシングル配信フラグを「1」に設定している場合でも、強制的に他の端末のシングル配信フラグは「0」に設定される。
このように、認証部75は、同一の共有IDを有する端末ID毎に、シングル配信フラグと、マルチ配信フラグと、シングル配信フラグについての開始時刻を記憶することで、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
また、認証部75は、シングル配信フラグについての設定がない場合に、マルチ配信フラグについての設定があるときには、同一の共有IDを有する端末ID毎に配信サーバのIPアドレスを取得することで、1つの通信端末を複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
さらに、認証部75は、シングル配信フラグについての設定がある場合には、開始時刻の早い順に、配信サーバのIPアドレスを取得することで、1つの通信端末を単一の利用する際の端末、として管理することができる。
なお、表1に示す例では、まず端末ID「1101」がシングル配信を要求したことを示し、次いで、端末ID「1100」がシングル配信(マルチ配信を要求しても不可能なため)を要求したことを示す。
また、表1に示す配信設定テーブルにあっては、配信設定は複数可能とし、実際に配信される映像は、優先度に応じて決定する方法であり、この優先度は時系列で先に設定されたものを優先するでもある。
また、端末ID「1101」がマルチ配信フラグを「1」に設定した場合には、この端末の優先度(開始時刻)が最高位であるため、他の端末がシングル配信フラグを「1」に設定している場合でも、強制的に他の端末のシングル配信フラグは「0」に設定される。
このように、認証部75は、同一の共有IDを有する端末ID毎に、シングル配信フラグと、マルチ配信フラグと、シングル配信フラグについての開始時刻を記憶することで、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
また、認証部75は、シングル配信フラグについての設定がない場合に、マルチ配信フラグについての設定があるときには、同一の共有IDを有する端末ID毎に配信サーバのIPアドレスを取得することで、1つの通信端末を複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
さらに、認証部75は、シングル配信フラグについての設定がある場合には、開始時刻の早い順に、配信サーバのIPアドレスを取得することで、1つの通信端末を単一の利用する際の端末、として管理することができる。
また、他の実施形態としては、配信設定の優先度は、ユーザ毎に権限を付与して、権限の高いユーザが設定した配信を優先する方法がある。
配信設定テーブルは、表2に示すように、端末ID、シングル配信フラグ、マルチ配信フラグ、優先度(優先度順位:1>2>3)をレコード毎に記憶するように構成されている。
配信設定テーブルは、表2に示すように、端末ID、シングル配信フラグ、マルチ配信フラグ、優先度(優先度順位:1>2>3)をレコード毎に記憶するように構成されている。
ここで、配信設定テーブルに設定した配信フラグは優先度に応じて有効となり、それ以降は配信設定を制限する。そして、配信設定したユーザが明かに配信を終了するまで、配信フラグの設定状態を「1」に保持し、他の配信設定を優先度に応じて制限する。なお、配信設定したユーザが配信を終了した後は、配信フラグの設定状態を「0」に戻す。
なお、表2に示す例では、まず端末ID「1100」がシングル配信を要求したことを示し、次いで、端末ID「1101」がシングル配信(マルチ配信を要求しても不可能なため)を要求したことを示す。
また、表2に示す配信設定テーブルにあっては、配信設定は複数可能とし、実際に配信される映像は、優先度に応じて決定する方法であり、この優先度を表す数値が低いものを優先することとする。
また、端末ID「1100」がマルチ配信フラグを「1」に設定した場合には、この端末の優先度が最高位であるため、他の端末がシングル配信フラグを「1」に設定している場合でも、強制的に他の端末のシングル配信フラグは「0」に設定される。
なお、表2に示す例では、まず端末ID「1100」がシングル配信を要求したことを示し、次いで、端末ID「1101」がシングル配信(マルチ配信を要求しても不可能なため)を要求したことを示す。
また、表2に示す配信設定テーブルにあっては、配信設定は複数可能とし、実際に配信される映像は、優先度に応じて決定する方法であり、この優先度を表す数値が低いものを優先することとする。
また、端末ID「1100」がマルチ配信フラグを「1」に設定した場合には、この端末の優先度が最高位であるため、他の端末がシングル配信フラグを「1」に設定している場合でも、強制的に他の端末のシングル配信フラグは「0」に設定される。
このように、同一の共有IDを有する端末ID毎に、シングル配信フラグと、マルチ配信フラグと、シングル配信フラグについての優先度又は開始時刻を記憶することで、1つの通信端末を、単一の利用する際の端末、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
さらに、シングル配信フラグについての設定がある場合には、優先度の高い順に、配信サーバのIPアドレスを取得することで、1つの通信端末を、単一の利用する際の端末、として管理することができる。
また、各通信端末は、通信手段を有するマルチディスプレイ又はプロジェクタであってもよく、1つのマルチディスプレイ又はプロジェクタを単一の利用する際の端末または複数の通信端末と組み合わせて利用する際の何れか1つの端末、として管理することができる。
さらに、シングル配信フラグについての設定がある場合には、優先度の高い順に、配信サーバのIPアドレスを取得することで、1つの通信端末を、単一の利用する際の端末、として管理することができる。
また、各通信端末は、通信手段を有するマルチディスプレイ又はプロジェクタであってもよく、1つのマルチディスプレイ又はプロジェクタを単一の利用する際の端末または複数の通信端末と組み合わせて利用する際の何れか1つの端末、として管理することができる。
<本発明の実施態様例と効果>
<第1態様>
本態様の端末管理システムの認証部は、複数の通信端末から夫々受信した各端末IDに基づいて各通信端末を認証するとともに、コンテンツを配信するための配信サーバのIPアドレスを各通信端末に夫々返送する端末管理システムである。そして、各通信端末の端末ID、各通信端末のうち共有の利用目的を表す共有ID、及び配信サーバのIPアドレスを関連付けて記憶する端末管理テーブルと、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDを取得する共有ID検索手段と、共有IDに基づいて、端末管理テーブルを検索することにより配信サーバのIPアドレスを取得する配信サーバ検索手段と、を備え、配信サーバ検索手段により取得された共有IDに対応する配信サーバのIPアドレスを通信端末に送信することを特徴とする。
本発明によれば、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDを取得し、この共有IDに基づいて、端末管理テーブルを検索する。そして、配信サーバのIPアドレスを取得しておき、この共有IDに対応する配信サーバのIPアドレスを通信端末に送信する。これによって、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことができる。
<第1態様>
本態様の端末管理システムの認証部は、複数の通信端末から夫々受信した各端末IDに基づいて各通信端末を認証するとともに、コンテンツを配信するための配信サーバのIPアドレスを各通信端末に夫々返送する端末管理システムである。そして、各通信端末の端末ID、各通信端末のうち共有の利用目的を表す共有ID、及び配信サーバのIPアドレスを関連付けて記憶する端末管理テーブルと、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDを取得する共有ID検索手段と、共有IDに基づいて、端末管理テーブルを検索することにより配信サーバのIPアドレスを取得する配信サーバ検索手段と、を備え、配信サーバ検索手段により取得された共有IDに対応する配信サーバのIPアドレスを通信端末に送信することを特徴とする。
本発明によれば、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDを取得し、この共有IDに基づいて、端末管理テーブルを検索する。そして、配信サーバのIPアドレスを取得しておき、この共有IDに対応する配信サーバのIPアドレスを通信端末に送信する。これによって、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことができる。
<第2態様>
本態様の端末管理テーブルは、同一の共有IDを有する端末ID毎に、単一の端末についての配信を行う旨を表すシングル配信フラグと、同一の共有IDを有する複数の端末についての配信を行う旨を表すマルチ配信フラグと、シングル配信フラグについての優先度又は開始時刻を記憶する配信設定テーブルを備えることを特徴とする。
本発明によれば、同一の共有IDを有する端末ID毎に、シングル配信フラグと、マルチ配信フラグと、シングル配信フラグについての優先度又は開始時刻を記憶する。これによって、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
本態様の端末管理テーブルは、同一の共有IDを有する端末ID毎に、単一の端末についての配信を行う旨を表すシングル配信フラグと、同一の共有IDを有する複数の端末についての配信を行う旨を表すマルチ配信フラグと、シングル配信フラグについての優先度又は開始時刻を記憶する配信設定テーブルを備えることを特徴とする。
本発明によれば、同一の共有IDを有する端末ID毎に、シングル配信フラグと、マルチ配信フラグと、シングル配信フラグについての優先度又は開始時刻を記憶する。これによって、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
<第3態様>
本態様の配信サーバ検索手段は、シングル配信フラグについての設定がない場合に、マルチ配信フラグについての設定があるときには、同一の共有IDを有する端末ID毎に配信サーバのIPアドレスを取得することを特徴とする。
本発明によれば、シングル配信フラグについての設定がない場合、マルチ配信フラグについての設定があるときには、同一の共有IDを有する端末ID毎に配信サーバのIPアドレスを取得する。これによって、1つの通信端末を複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
本態様の配信サーバ検索手段は、シングル配信フラグについての設定がない場合に、マルチ配信フラグについての設定があるときには、同一の共有IDを有する端末ID毎に配信サーバのIPアドレスを取得することを特徴とする。
本発明によれば、シングル配信フラグについての設定がない場合、マルチ配信フラグについての設定があるときには、同一の共有IDを有する端末ID毎に配信サーバのIPアドレスを取得する。これによって、1つの通信端末を複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
<第4態様>
本態様の配信サーバ検索手段は、シングル配信フラグについての設定がある場合には、優先度の高い順、又は開始時刻の早い順に、配信サーバのIPアドレスを取得することを特徴とする。
本発明によれば、シングル配信フラグについての設定がある場合には、優先度の高い順、又は開始時刻の早い順に、配信サーバのIPアドレスを取得することで、1つの通信端末を単一の利用する際の端末、として管理することができる。
本態様の配信サーバ検索手段は、シングル配信フラグについての設定がある場合には、優先度の高い順、又は開始時刻の早い順に、配信サーバのIPアドレスを取得することを特徴とする。
本発明によれば、シングル配信フラグについての設定がある場合には、優先度の高い順、又は開始時刻の早い順に、配信サーバのIPアドレスを取得することで、1つの通信端末を単一の利用する際の端末、として管理することができる。
<第5態様>
本態様の端末管理テーブルは、各通信端末が属するグループ内でのみ共有IDの利用を許可することを特徴とする。
本発明によれば、各通信端末が属するグループ内でのみ共有IDの利用を許可することで、1つの通信端末を複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
本態様の端末管理テーブルは、各通信端末が属するグループ内でのみ共有IDの利用を許可することを特徴とする。
本発明によれば、各通信端末が属するグループ内でのみ共有IDの利用を許可することで、1つの通信端末を複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
<第6態様>
本態様の共有ID検索手段は、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDと共に当該通信端末の配置位置情報を取得することを特徴とする。
本発明によれば、通信端末の端末IDに基づいて、共有IDと共に当該通信端末の配置位置情報を取得することで、1つの通信端末を複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
本態様の共有ID検索手段は、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDと共に当該通信端末の配置位置情報を取得することを特徴とする。
本発明によれば、通信端末の端末IDに基づいて、共有IDと共に当該通信端末の配置位置情報を取得することで、1つの通信端末を複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
<第7態様>
本態様の各通信端末は、通信手段を有するマルチディスプレイ又はプロジェクタであることを特徴とする。
本発明によれば、各通信端末は、通信手段を有するマルチディスプレイ又はプロジェクタである。これによって、1つのマルチディスプレイ又はプロジェクタを、単一の利用する際の端末または、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
本態様の各通信端末は、通信手段を有するマルチディスプレイ又はプロジェクタであることを特徴とする。
本発明によれば、各通信端末は、通信手段を有するマルチディスプレイ又はプロジェクタである。これによって、1つのマルチディスプレイ又はプロジェクタを、単一の利用する際の端末または、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として管理することができる。
<第8態様>
本態様の端末管理方法は、複数の通信端末から夫々受信した各端末IDに基づいて各通信端末を認証するとともに、コンテンツを配信するための配信サーバのIPアドレスを各通信端末に夫々返送する端末管理方法であって、各通信端末の端末ID、各通信端末のうち共有の利用目的を表す共有ID、及び配信サーバのIPアドレスを関連付けて端末管理テーブルに記憶する端末管理記憶ステップと、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDを取得する共有ID検索ステップと、共有IDに基づいて、端末管理テーブルを検索することにより配信サーバのIPアドレスを取得する配信サーバ検索ステップと、を備え、配信サーバ検索ステップにより取得された共有IDに対応する配信サーバのIPアドレスを通信端末に送信することを特徴とする。
本発明によれば、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDを取得し、この共有IDに基づいて、端末管理テーブルを検索することにより配信サーバのIPアドレスを取得しておく。そして、この共有IDに対応する配信サーバのIPアドレスを通信端末に送信することで、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことができる。
本態様の端末管理方法は、複数の通信端末から夫々受信した各端末IDに基づいて各通信端末を認証するとともに、コンテンツを配信するための配信サーバのIPアドレスを各通信端末に夫々返送する端末管理方法であって、各通信端末の端末ID、各通信端末のうち共有の利用目的を表す共有ID、及び配信サーバのIPアドレスを関連付けて端末管理テーブルに記憶する端末管理記憶ステップと、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDを取得する共有ID検索ステップと、共有IDに基づいて、端末管理テーブルを検索することにより配信サーバのIPアドレスを取得する配信サーバ検索ステップと、を備え、配信サーバ検索ステップにより取得された共有IDに対応する配信サーバのIPアドレスを通信端末に送信することを特徴とする。
本発明によれば、通信端末から受信した端末IDに基づいて、端末管理テーブルを検索することにより共有IDを取得し、この共有IDに基づいて、端末管理テーブルを検索することにより配信サーバのIPアドレスを取得しておく。そして、この共有IDに対応する配信サーバのIPアドレスを通信端末に送信することで、1つの通信端末を単一の利用する際の端末または複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことができる。
<第9態様>
本態様のプログラムは、第8態様記載の各ステップをプロセッサに実行させることを特徴とする。
本態様によれば、各ステップをCPUに実行させることができるので、1つの通信端末を、単一の利用する際の端末、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことができる。
本態様のプログラムは、第8態様記載の各ステップをプロセッサに実行させることを特徴とする。
本態様によれば、各ステップをCPUに実行させることができるので、1つの通信端末を、単一の利用する際の端末、複数の通信端末を組み合わせて利用する際の何れか1つの端末、として認証ことができる。
1…配信システム、2…配信制御システム、5…通信端末、7…端末管理システム、8…ウェブサーバ、9…通信ネットワーク、10…変換部、11…トリミング部、12…リサイズ部、13…ブレンディング部、14…エンコード部、20…ブラウザ、21…送受信部、22…ブラウザ管理部、23…クラウドブラウザ、24…送信用FIFOバッファ、30…エンコーダブリッジ部、31…送受信部、52…操作部、75…認証部、310…作成・選択部
Claims (9)
- 少なくとも前記各通信端末のうち共有の利用目的を表す共有ID、及び配信サーバのIPアドレスを関連付けて端末管理記憶手段に記憶されている端末管理システムであって、
通信端末から受信した端末IDに基づいて、前記端末管理記憶手段から前記共有IDを取得する共有ID検索手段と、
前記共有IDに基づいて、前記端末管理記憶手段から前記配信サーバのIPアドレスを取得する配信サーバ検索手段と、を備え、
前記配信サーバ検索手段により取得された前記共有IDに対応する前記配信サーバのIPアドレスを前記通信端末に送信することを特徴とする端末管理システム。 - 前記端末管理記憶手段は、さらに端末IDが記憶されており、
同一の前記共有IDを有する前記端末ID毎に、
単一の端末についての配信を行う旨を表すシングル配信フラグと、
同一の前記共有IDを有する複数の端末についての配信を行う旨を表すマルチ配信フラグと、
前記シングル配信フラグについての優先度又は開始時刻が記憶されていることを特徴とする請求項1記載の端末管理システム。 - 前記配信サーバ検索手段は、
前記シングル配信フラグについての設定がない場合で、前記マルチ配信フラグについての設定があるときには、同一の前記共有IDを有する前記端末ID毎に前記配信サーバのIPアドレスを取得することを特徴とする請求項2記載の端末管理システム。 - 前記配信サーバ検索手段は、
前記シングル配信フラグについての設定がある場合には、前記優先度の高い順、又は前記開始時刻の早い順に、前記配信サーバのIPアドレスを取得することを特徴とする請求項2記載の端末管理システム。 - 前記端末管理記憶手段は、
前記各通信端末が属するグループ内でのみ前記共有IDの利用を許可することを特徴とする請求項1記載の端末管理システム。 - 前記共有ID検索手段は、
前記通信端末から受信した端末IDに基づいて、前記端末管理記憶手段を検索することにより前記共有IDと共に当該通信端末の配置位置情報を取得することを特徴とする請求項1記載の端末管理システム。 - 前記各通信端末は、通信手段を有するマルチディスプレイ又はプロジェクタであることを特徴とする請求項6記載の端末管理システム。
- 少なくとも前記各通信端末のうち共有の利用目的を表す共有ID、及び配信サーバのIPアドレスを関連付けて端末管理記憶手段に記憶されている端末管理方法であって、
通信端末から受信した端末IDに基づいて、前記端末管理記憶手段から前記共有IDを取得する共有ID検索ステップと、
前記共有IDに基づいて、前記端末管理記憶手段から前記配信サーバのIPアドレスを取得する配信サーバ検索ステップと、を備え、
前記配信サーバ検索ステップにより取得された前記共有IDに対応する前記配信サーバのIPアドレスを前記通信端末に送信することを特徴とする端末管理方法。 - 請求項8記載の各ステップをプロセッサに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014123255A JP2016004352A (ja) | 2014-06-16 | 2014-06-16 | 端末管理システム、端末管理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014123255A JP2016004352A (ja) | 2014-06-16 | 2014-06-16 | 端末管理システム、端末管理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016004352A true JP2016004352A (ja) | 2016-01-12 |
Family
ID=55223602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014123255A Pending JP2016004352A (ja) | 2014-06-16 | 2014-06-16 | 端末管理システム、端末管理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016004352A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11379819B2 (en) | 2016-12-05 | 2022-07-05 | Advanced New Technologies Co., Ltd. | Method and apparatus for information exchange |
-
2014
- 2014-06-16 JP JP2014123255A patent/JP2016004352A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11379819B2 (en) | 2016-12-05 | 2022-07-05 | Advanced New Technologies Co., Ltd. | Method and apparatus for information exchange |
US12045802B2 (en) | 2016-12-05 | 2024-07-23 | Advanced New Technologies Co., Ltd. | Method and apparatus for information exchange |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6354197B2 (ja) | 配信制御システム、配信制御方法、及びプログラム | |
JP6337499B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP6326855B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP6354764B2 (ja) | 配信管理装置、配信方法、及びプログラム | |
JP6369043B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP6398215B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP6323048B2 (ja) | 配信システム、配信方法、及びプログラム | |
JP6354195B2 (ja) | 配信システム、配信方法、及びプログラム | |
JP2014200076A (ja) | 配信制御システム、配信制御方法、及びプログラム | |
JP2014199648A (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP2014200074A (ja) | 配信制御システム、配信制御方法、及びプログラム | |
JP2015056855A (ja) | 配信管理装置、及び配信管理システム | |
JP2014200075A (ja) | コンピュータシステム、配信制御システム、配信制御方法、及びプログラム | |
JP6589261B2 (ja) | 配信制御システム、配信制御方法、及びプログラム | |
JP2015069244A (ja) | 配信システム、配信方法、及びプログラム | |
WO2015045787A1 (ja) | 配信管理装置、端末及び配信管理方法 | |
JP2015056046A (ja) | 配信管理システム、配信システム、配信管理方法、及びプログラム | |
JP2016063247A (ja) | 配信システム及び配信方法 | |
JP2016004352A (ja) | 端末管理システム、端末管理方法、及びプログラム | |
JP6607298B2 (ja) | 配信制御システム、配信制御方法、及びプログラム | |
JP6442832B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP6387623B2 (ja) | 配信制御システム | |
JP6375638B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP2016058812A (ja) | 配信制御システム、配信システム、配信制御システムの制御方法、及びプログラム | |
JP6197535B2 (ja) | 配信システム、配信方法、及びプログラム |