JP2015061107A - 配信管理装置、及び配信システム - Google Patents
配信管理装置、及び配信システム Download PDFInfo
- Publication number
- JP2015061107A JP2015061107A JP2013191769A JP2013191769A JP2015061107A JP 2015061107 A JP2015061107 A JP 2015061107A JP 2013191769 A JP2013191769 A JP 2013191769A JP 2013191769 A JP2013191769 A JP 2013191769A JP 2015061107 A JP2015061107 A JP 2015061107A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- data
- communication terminal
- video
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 claims abstract description 329
- 238000007726 management method Methods 0.000 claims description 215
- 238000009966 trimming Methods 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 description 175
- 238000000034 method Methods 0.000 description 74
- 230000008569 process Effects 0.000 description 67
- 238000006243 chemical reaction Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 45
- 230000006978 adaptation Effects 0.000 description 23
- 238000009877 rendering Methods 0.000 description 23
- 238000009434 installation Methods 0.000 description 19
- 230000003044 adaptive effect Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 230000004044 response Effects 0.000 description 13
- 239000000872 buffer Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000002131 composite material Substances 0.000 description 4
- 238000001994 activation Methods 0.000 description 3
- 238000002716 delivery method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2662—Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1446—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25808—Management of client data
- H04N21/25825—Management of client data involving client display capabilities, e.g. screen resolution of a mobile phone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/643—Communication protocols
- H04N21/64322—IP
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2356/00—Detection of the display position w.r.t. other display screens
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/12—Synchronisation between the display unit and other units, e.g. other display units, video-disc players
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/34—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators for rolling or scrolling
- G09G5/346—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators for rolling or scrolling for systems having a bit-mapped display memory
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Security & Cryptography (AREA)
- Information Transfer Between Computers (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
クラウドサービスでは、複数の通信端末にウェブ(Web)コンテンツが配信される。例えば特許文献1には、複数の通信端末に夫々ウェブコンテンツを分配する配信システムが記載されている。
しかし、特許文献1では、1つの端末を操作することで他の端末の表示をスクロールさせたりページを切り替えたりすることはできるが、複数のディスプレイ端末の表示を一括して変化させることはできない。
本発明は上述の事情に鑑みてなされたものであり、コンテンツを複数の端末にて分割表示した場合に、任意の端末を操作することで複数の端末の表示を一括して変化させることを目的とする。
図1を用いて、本発明の一実施形態の概略を説明する。なお、図1は、本実施形態に係る配信システムの概略図である。
<システム構成の概略>
まず、配信システム1の構成の概略について説明する。
図1に示されているように、本実施形態の配信システム1は、配信管理システム2、複数の通信端末(5a〜5f)、端末管理システム7、及びウェブサーバ8によって構築されている。なお、以下では、複数の通信端末(5a〜5f)のうち、任意の通信端末を「通信端末5」として表す。また、配信管理システム2、端末管理システム7、及びウェブサーバ8は、いずれもサーバコンピュータによって構築されている。
なお、通信端末5は、図1に示されているような端末だけでなく、腕時計、自動販売機、ガスメータ、カーナビゲーション装置、ゲーム機、エアコン、照明器具、カメラ単体、マイク単体、スピーカ単体等であってもよい。
なお、通信端末5によっては、通信端末5d等のように、通信ネットワーク9を介して他の端末やシステムと通信する機能を有していないものがある。しかし、図2に示されているように、ユーザが通信端末6dのUSB(Universal Serial Bus)やHDMI(登録商標)(High-Definition Multimedia Interface)のインターフェース部にドングル99を差し込むことで、通信端末5は通信ネットワーク9を介して他の端末やシステムと通信可能となる。なお、図2は、通信端末にドングルを取り付ける際のイメージ図である。
更に、配信管理システム2は、クラウド上に存在するウェブブラウザ(以下、「ブラウザ」と示す)20を有することで、クラウド上でウェブコンテンツをレンダリングし、これにより得られたH.264やMPEG-4等の映像(音)データを通信端末5に配信する。
また、ブラウザ20は、リアルタイムコミュニケーション(RTC:Real-time communication/coll aboration)を可能にしている。更に、配信管理システム2は後述の図16におけるエンコード部19を有しており、このエンコード部19は、ブラウザ20によって生成された映像(音)データに対して、リアルタイムのエンコードを行うことができる。そのため、配信管理システム2の処理は、DVDプレーヤによって、DVDに記録されているリアルタイム性のない映像(音)データを読み出して配信する場合等とは異なる。
続いて、各種配信方法の概略について説明する。
(基本配信)
図3は、基本的な配信方法を示した概念図である。配信システム1では、図3に示されているように、配信管理システム2のブラウザ20がウェブサーバ8からウェブコンテンツデータ〔A〕を取得し、レンダリングすることにより、映像(音)データ〔A〕を生成する。そして、エンコーダブリッジ部30が、映像(音)データ〔A〕をエンコード等して、通信端末5に配信する。これにより、たとえHTML(Hyper Text Markup Language)やCSS(Cascading Style Sheets)等により作成されたウェブコンテンツがリッチであっても、H.264やMPEG-4等の映像(音)データとして配信されるため、低スペックの通信端末5であってもスムーズに映像(音)を再生することが可能になる。
また、配信システム1は、上述の配信方法を応用し、図4乃至図6に示されているように、ウェブコンテンツを複数の拠点に映像(音)データとして配信することも可能である。ここで、図4乃至図6に示されている配信方法について説明する。
図4は、マルチキャストの概念図である。図4に示されているように、配信管理システム2の単一のブラウザ20は、ウェブサーバ8からウェブコンテンツデータ〔A〕を取得してレンダリングすることで、映像(音)データ〔A〕を生成する。そして、エンコーダブリッジ部30が、映像(音)データ〔A〕をエンコードする。その後、配信管理システム2は、映像(音)データ〔A〕を複数の通信端末(5f1,5f2,5f3)に配信する。これにより、複数の拠点では、同じ映像(音)が出力される。なお、この場合、通信端末(5f1,5f2,5f3)が同じ表示再生能力(解像度が同じ等)を有する必要はない。このような配信方法は、例えば「マルチキャスト」と呼ぶ。
図5は、マルチディスプレイの概念図である。図5に示されているように、配信管理システム2の単一のブラウザ20は、ウェブサーバ8からウェブコンテンツデータ〔XYZ〕を取得してレンダリングすることで、単一の映像(音)データ〔XYZ〕を生成する。そして、エンコーダブリッジ部30が、単一の映像(音)データ〔XYZ〕を、複数の映像(音)データ(〔X〕,〔Y〕,〔Z〕)に分割した後にエンコードする。その後、配信管理システム2は、分割後の映像(音)データ〔X〕を通信端末5f1に配信する。また、同じように、配信管理システム2は、分割後の映像(音)データ〔Y〕を通信端末5f2に配信し、分割後の映像(音)データ〔Z〕を通信端末5f3に配信する。これにより、例えば、横長のウェブコンテンツデータ〔XYZ〕であっても、複数の通信端末5で分割して映像が表示されるため、通信端末(5f1,5f2,5f3)を一列に並べて設置すれば、1つの大きな映像を表示させることと同様の効果を得ることができる。なお、この場合、通信端末(5f1,5f2,5f3)が同じ表示再生能力(解像度が同じ等)を有する必要がある。このような配信方法は、例えば「マルチディスプレイ」と呼ぶ。
図6は、配信管理システムを介して複数の通信端末を使った複合配信の概念図である。図6に示されているように、第1の拠点(図6の右側)では、電子黒板としての通信端末5f1及びテレビ会議端末としての通信端末5e1が利用され、第2の拠点(図6の左側)では、同じく電子黒板としての通信端末5f2、及びテレビ会議端末としての通信端末5e2が利用されている。また、第1の拠点では、通信端末5f1にストロークによる文字等の操作データを表示させるための電子ペンP1が利用され、第2の拠点では、通信端末5f2にストロークによる文字等の操作データを表示させるための電子ペンP2が利用されている。
続いて、図7乃至図24を用いて、実施形態の詳細な説明を行う。
<実施形態のハードウェア構成>
まずは、図7及び図8を用いて、本実施形態のハードウェア構成を説明する。なお、図7は、配信管理システム、通信端末、端末管理システム、及びウェブサーバのハードウェア構成図である。また、図8は、ドングルのハードウェア構成図である。なお、通信端末の通信に関与するハードウェア構成は、通信端末のハードウェア構成の一部と同じであるため、説明を省略する。
なお、各通信端末、各システム又は各サーバ用のプログラムは、インストール可能な形式又は実行可能な形式のファイルで、上記記録メディア206等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。
次に、図9乃至図16を用い、本実施形態の機能構成について説明する。図9は、主に配信管理システムの各機能を示す機能ブロック図である。図9では、配信管理システム2が通信端末5f1に対して映像(音)データを配信する場合の機能構成が示されているが、配信先が通信端末5f1以外の場合も、同じ機能構成を有する。なお、配信管理システム2は、複数の配信エンジンサーバを備えているが、説明を簡単にするために、以下では、単一の配信エンジンサーバを備えている場合について説明する。
図9に示されているように、配信管理システム2は、図7に示されているハードウェア構成及びプログラムによって、図9に示されている各機能構成を有する。具体的に、配信管理システム2は、ブラウザ20、送受信部21、ブラウザ管理部22、送信用FIFOバッファ24、時刻管理部25、時刻取得部26、回線適応制御部27、エンコーダブリッジ部30、送受信部31、受信用FIFO34、認識部35、遅延情報取得部37a、回線適応制御部37b、及びデコード部40を有している。更に、配信管理システム2は、図7に示されているHDD204によって構築される記憶部2000を有している。この記憶部2000には、認識部35から出力された後述の認識情報が記憶される。なお、ブラウザ20が取得したコンテンツデータは、キャッシュとして、記憶部2000に一時的に記憶しておくこともできる。
上述の各機能構成のうち、ブラウザ20は、配信管理システム2内で動作するウェブブラウザである。ブラウザ20は、ウェブコンテンツデータ等のコンテンツデータをレンダリングすることにより、RGBデータ(又はPCM(Pulse Code Modulation)データ)としての映像(音)データを生成する。ブラウザ20は、ウェブコンテンツのリッチ化に対応させて常に最新化されている。
ブラウザ20は、例えば、Media Player、Flash Player、JavaScript(登録商標)、CSS(Cascading Style Sheet)及びHTML(HyperText Markup Language)レンダラを有する。なお、JavaScript(登録商標)には、標準規格のものと配信システム1独自のものが含まれる。
ここで、Media Playerは、映像(音)ファイルなどのマルチメディアファイルをブラウザ20内で再生するためのブラウザプラグインである。Flash Playerは、Flashコンテンツをブラウザ20内で再生するためのブラウザプラグインである。独自のJavaScript(登録商標)は、配信システム1に固有のサービスのAPI(Application Programming Interface)を提供するJavaScript(登録商標)群である。CSSは、HTMLで記述されたウェブページの見栄えやスタイルを効率的に定義するための技術である。HTMLレンダラは、HTMLレンダリングエンジンである。
ブラウザ管理部22は、ブラウザ20やエンコーダブリッジ部30の管理を行う。例えば、ブラウザ管理部22は、ブラウザ20やエンコーダブリッジ部30に、起動又は終了を指示したり、起動又は終了時にエンコーダIDを採番したりする。ここで、エンコーダIDは、ブラウザ管理部22がエンコーダブリッジ部30のプロセスを管理するために採番する識別情報である。また、ブラウザ管理部22は、ブラウザ20が起動されるたびに、ブラウザIDを採番して管理する。ここで、ブラウザIDは、ブラウザ管理部22がブラウザ20のプロセスを管理するために採番し、ブラウザ20を識別するための識別情報である。
なお、ブラウザ管理部22は、送受信部31を介して通信端末5から、各種操作データを取得し、ブラウザ20に出力する。なお、操作データは、通信端末5での操作イベント(キーボード211やマウス212等による操作や電子ペンPによるストローク等)によって生じたデータである。通信端末5に、温度センサ、湿度センサ、及び加速度センサ等の各種センサが設けられている場合には、ブラウザ管理部22は、通信端末5から各センサの出力信号であるセンサ情報を取得し、ブラウザ20に出力する。
時刻管理部25は、配信管理システム2独自の時刻Tを管理している。
時刻取得部26は、後述の通信端末5における時刻制御部56と連携して、時刻調整の処理を行う。具体的には、時刻取得部26は、時刻管理部25から配信管理システム2における時刻Tを示す時刻情報(T)を取得したり、送受信部31及び送受信部51を介して、後述の時刻制御部56から通信端末5における時刻tを示す時刻情報(t)を受信したり、時刻制御部56に時刻情報(t)及び時刻情報(T)を送信する。
回線適応制御部27は、送信遅延時間情報(D)に基づいて、再生遅延時間Uを計算したり、エンコーダブリッジ部30における変換部10のフレームレートやデータの解像度等の動作条件を計算したりする。この再生遅延時間は、再生までにデータがバッファリングされることで、再生を遅延させるための時間である。
図15に示されているように、エンコーダブリッジ部30は、作成・選択部310、及び選択部320と、これらの間に複数の変換部(10a、10b、10c)が構築されている。ここでは、3つの変換部を示したが、いくつであってもよい。なお、以下、任意の変換部を「変換部10」として表す。
このうち、トリミング部11は、映像(画像)の一部だけを切り出す処理を行う。リサイズ部12は、映像(画像)の縮尺を変更する。分割部13は、図5に示されているように、ウェブサーバ8から取得したウェブコンテンツを分割する。
また、作成・選択部310は、新たに変換部10を作成したり、既に作成されている変換部10に対して入力させる映像(音)データを選択したりする。作成する場合としては、作成・選択部310は、通信端末5おける映像(音)データの再生能力に応じた変換が可能な変換部10を作成する。また、選択する場合としては、既に作成されている変換部20を選択する。例えば、通信端末5aへの配信に加えて通信端末5bへの配信を開始するにあたって、通信端末5aへ配信している映像(音)データと同じ映像(音)データを通信端末5bへ配信する場合がある。このような場合で、更に、通信端末5bが通信端末5aにおける映像(音)データの再生能力と同じ再生能力を有する場合には、作成・選択部310は通信端末5b用に新たな変換部10bを作成せずに、通信端末5a用に既に作成している変換部10aを利用する。
このうち、送信レスポンス制御は、配信管理システム2から通信端末5にデータを送信するために、通信端末5からリクエスト(要求)されたダウンロード用のHTTPSセッションを管理する処理である。このダウンロード用のHTTPSセッションのレスポンスはすぐに終了せず、一定時間(1〜数分)保持する。送受信部31は、通信端末5に送るデータを動的にレスポンスのBody部に書き込む。また、再接続のコストをなくすため、通信端末からは前のセッションが終了しないうちに別のリクエストが届くようにする。送受信部31を、前のリクエストが完了するまで待機させておくようにすることで、再接続を行っても、オーバヘッドを削除することができる。
コマンド送信は、通信端末5に送信するコマンドデータを生成し、通信端末5へのHTTPSのBody部に書き込む処理である。
受信レスポンス制御は、配信管理システム2が通信端末5からデータを受信するために、通信端末5からリクエストされたHTTPSセッションを管理する処理である。このHTTPSセッションのレスポンスはすぐに終了せず、一定時間(1〜数分)保持される。通信端末5は、配信管理システム2の送受信部31に送るデータを動的にリクエストのBody部に書き込む。
受信データ分析は、通信端末5から送られてきたデータを種別ごとに分析し、必要なプロセスにデータを渡す処理である。
ジェスチャ変換は、ユーザが電子黒板としての通信端末5fに電子ペンや手書きにより入力したジェスチャイベントを、ブラウザ20が受け取れる形式に変換する処理である。
また、受信用FIFO34は、デコード部40でデコードされた映像(音)データを格納するバッファである。
回線適応制御部37bは、上り用の回線適応制御の処理に用いられる回線適応制御部27に対応して、下り用の回線適応制御の処理に用いられる。具体的には、回線適応制御部37bは、送信遅延時間情報(d)に基づいて、エンコード部60の動作条件を計算する。また、回線適応制御部37bは、送受信部31及び送受信部51を介して通信端末5のエンコード部60に、フレームレートやデータの解像度等の動作条件を示す回線適応制御信号を送信する。
デコード部40は、通信端末5から送信されて来た映像(音)データをデコードする。
続いて、図10を用いて、通信端末5の機能構成について説明する。通信端末5は、ユーザが配信システム1へのログインや映像(音)データの配信の開始又は停止などを行うためのインターフェースとなる端末である。
図10に示されているように、通信端末5は、デコード部50、送受信部51、操作部52、再生制御部53、レンダリング部55、時刻制御部56、遅延情報取得部57、表示部58、及びエンコード部60を有している。更に、通信端末5は、図7に示されているRAM203によって構築される記憶部5000を有している。この記憶部5000には、後述の時刻差Δを示す時刻差情報(Δ)、及び通信端末5における時刻tを示す時刻情報(t)が記憶される。
このうち、デコード部50は、配信管理システム2から配信され、再生制御部53から出力された映像(音)データをデコードする。
操作部52は、ユーザの操作入力を受け付ける処理を行い、例えば、電源スイッチ、キーボード、マウス、電子ペンP等による入力や選択等を受け付け、操作データとして配信管理システム2のブラウザ管理部22に送信する。
再生制御部53は、送受信部51から受けた映像(音)データ(リアルタイムデータのパケット)をバッファリングし、再生遅延時間Uを考慮してデコード部50に出力する。
レンダリング部55は、デコード部50によってデコードされたデータをレンダリングする。
遅延情報取得部57は、再生制御部53から送信遅延時間D1を示す送信遅延時間情報(D1)を取得して一定時間保持しておき、複数の送信遅延時間情報(D1)を取得したところで、送受信部51及び送受信部31を介して回線適応制御部27に、複数の送信遅延時間D1による度数分布情報を示す送信遅延時間情報(D)を送信する。なお、送信遅延時間情報(D)は、例えば、100フレームに1回送信される。
表示部58は、レンダリング部55によってレンダリングされたデータを再生する。
なお、内蔵されたマイク213、外付けのカメラ62及びマイク63等は、入力手段の一例であり、エンコードやデコードが必要な各種デバイスである。入力手段は、映像(音)データの他に、触覚(touch)データや嗅覚(smell)データを出力することができてもよい。
入力手段には、温度センサ、方位センサ、加速度センサ等の各種センサも含まれる。
続いて、図11を用いて、端末管理システム7の機能構成について説明する。図11は、端末管理システムの各機能を示す機能ブロック図である。
図11に示されているように、端末管理システム7は、送受信部71a、送受信部71b、及び認証部75を有している。更に、端末管理システム7は、図7に示されているHDD204によって構築される記憶部7000(端末管理情報の記憶装置)を有している。この記憶部7000には、配信先選択メニューデータ、端末管理テーブル7010(端末管理情報)、及び利用可能端末管理テーブル7020が記憶される。
このうち、配信先選択メニューは、図12に示されているような配信先選択メニュー画面を示すデータである。
更に、設置位置情報は、例えば、図5に示されているように、通信端末(5f1,5f2,5f3)が並んで設置される場合の設置位置、即ち通信端末間の配置関係を示している。表示名情報は、図12に示されている配信先選択メニュー画面の表示名の内容を表す情報である。
送受信部71aは、通信端末5との間で、各種データや要求等の送受信を行う。例えば、送受信部71aは、通信端末5の送受信部51からログイン要求を受信したり、送受信部51に対してログイン要求の認証結果を送信したりする。
送受信部71bは、配信管理システム2との間で、各種データや要求等の送受信を行う。例えば、送受信部71bは、配信管理システム2の送受信部21から配信先選択メニューのデータの要求を受信したり、送受信部21に対して、配信先選択メニューのデータを送信したりする。
認証部75は、通信端末5から受信した端末ID及びユーザ証明書に基づいて、端末管理テーブル7010を検索することにより、同じ組み合わせの端末ID及びユーザ証明書があるか否かを判断することで、通信端末5の認証を行う。
続いて、図17乃至図24を用いて、本実施形態の動作または処理について説明する。
<基本的な配信処理>
まず、図17を用いて、図3に示されている基本的な配信方法における具体的な配信処理を説明する。図17は、配信管理システムの基本的な配信処理を示したシーケンス図である。なお、ここでは、通信端末5aを用いてログイン要求する場合について説明するが、通信端末5a以外の通信端末5を用いてログインしてもよい。
図17に示されているように、通信端末5aにおいてユーザが電源オンにすると、通信端末5aの送受信部51は、端末管理システム7の送受信部71aを介して認証部75に、ログイン要求を行う(ステップS21)。このログイン要求には、通信端末5aの端末ID及びユーザ証明書が含まれている。
端末管理システム7の認証部75は、送受信部71aを介して、通信端末5aの送受信部51に、配信管理システム2のIPアドレスを送信する(ステップS23)。なお、配信管理システム2のIPアドレスは、予め、端末管理システム7によって取得されて、記憶部7000に記憶されている。
次に、エンコーダブリッジ部30の作成・選択部310は、通信端末5aの再生能力(ディスプレイの解像度等)及びコンテンツの種類に従って変換部10を作成する(ステップS26)。
次に、ブラウザ20は、ウェブサーバ8に対して、コンテンツデータ〔A〕を要求する(ステップS27)。これに対して、ウェブサーバ8は、要求されたコンテンツデータ〔A〕を自己の記憶部(不図示)から読み出す(ステップS28)。そして、ウェブサーバ8は、配信管理システム2の送受信部21を介して、要求元であるブラウザ20にコンテンツデータ〔A〕を送信する(ステップS29)。
次に、ブラウザ20が、コンテンツデータ〔A〕をレンダリングして画像(音)データを生成し、送信用FIFO24に出力する(ステップS30)。そして、変換部10が、送信用FIFO24に格納された画像(音)データをエンコードすることで、通信端末5aに配信すべき映像(音)データ〔A〕に変換する(ステップS31)。
次に、エンコーダブリッジ部30は、送受信部31及び送受信部51を介して、再生制御部53に映像(音)データ〔A〕を送信する(ステップS32)。これにより、通信端末5aでは、再生制御部53からデコード部50に、映像(音)データ〔A〕が出力され、スピーカ61から音が再生されると共に、レンダリング部55を介して表示部58にて映像が再生される(ステップS33)。
続いて、図18を用いて、配信管理システムを介して複数の通信端末を使った通信の処理を説明する。なお、図18は、配信管理システムを介して複数の通信端末を使った配信の処理を示すシーケンス図である。ここでは、複数の通信端末5として、図6に示されているパターンについて具体的な処理を説明する。なお、ここでも、上述のステップS21〜S29と同様のログイン処理及びブラウザ起動等の処理を行うため、上述のステップS29に対応する処理から説明する。
図18に示されているように、配信管理システム2のブラウザ20は、ウェブサーバ8から送受信部21を介してコンテンツデータ〔A〕を受信する(ステップS41)。そして、ブラウザ20は、コンテンツデータ〔A〕をレンダリングすることにより、画像(音)データを生成して、送信用FIFO24に出力する(ステップS42)。
続いて、図19を用いて、時刻調整の処理について説明する。なお、図19は、時刻調整の処理を示したシーケンス図である。
まず、通信端末5の時刻制御部56は、送受信部51が配信管理システム2に時刻情報(T)を要求する時刻を取得するために、記憶部5000から通信端末5における時刻情報(ts)を取得する(ステップS81)。そして、送受信部51は送受信部31に、配信管理システム2における時刻情報(T)を要求する(ステップS82)。この場合、時刻情報(T)の要求と共に、上記時刻情報(ts)が送信される。
次に、時刻取得部26は、送受信部31が上記ステップS82の要求を受信した時刻を取得するために、時刻管理部25から配信管理システム2における時刻情報(Tr)を取得する(ステップS83)。更に、時刻取得部26は、送受信部31が上記ステップS82の要求に応答する時刻を取得するために、時刻管理部25から配信管理システム2における時刻情報(Ts)を取得する(ステップS84)。そして、送受信部31は送受信部51に、時刻情報(ts, Tr,Ts)を送信する(ステップS85)。
そして、通信端末5の時刻制御部56は、配信管理システム2と通信端末5との間の時刻差Δを計算する(ステップS87)。この時刻差Δは、以下の式1によって表される。
Δ=((Tr+Ts)/2)−((tr+ts)/2)・・・(式1)
そして、時刻制御部56は、記憶部5000に時刻差Δを示す時刻差情報(Δ)を記憶する(ステップS88)。この時刻調整の一連の処理は、例えば、毎分定期的に行われる。
続いて、図20を用いて、配信管理システム2から通信端末5に送信する(下り)データの回線適応制御の処理を説明する。なお、図20は、配信管理システムから通信端末に送信するデータの回線適応制御の処理を示したシーケンス図である。
まず、配信管理システム2のエンコーダブリッジ部30は、送受信部31及び送受信部51を介して再生制御部53に、再生までにバッファリングして再生を遅延させるための再生遅延時間を示す再生遅延時間情報(U)を送信する(ステップS101)。また、エンコーダブリッジ部30は、送信用FIFO24から取得してエンコード等を行った映像(音)データ〔A〕に対して、時刻管理部25から取得した現時点の時刻T0をタイムスタンプとして付加し、送受信部31及び送受信部51を介して、再生制御部53に送信する(ステップS102)。
U≧(t0+Δ)−T0・・・(式2)
る。
D1=(t0+Δ)−T0・・・(式3)
次に、配信管理システム2の回線適応制御部27は、送信遅延時間情報(D)に基づいて、新たに再生遅延情報U’を計算したり、変換部10のフレームレートやデータの解像度等の動作条件を計算したりする(ステップS108)。
次に、配信管理システム2のエンコーダブリッジ部30は、送受信部31及び送受信部51を介して再生制御部53に、上記ステップS108によって計算された新たな再生遅延時間U’を示す再生遅延時間情報(U’)を送信する(ステップS109)。
次に、通信端末5では、再生制御部53が、通信端末5における時刻(T0+U’−Δ)になるまで待ってから、映像(音)データをデコード部50に出力することで、上記ステップS103のように、スピーカ61から音を再生させ、レンダリング部55を介して表示部58から映像を再生させる(ステップS112)。その後、上記ステップS104以降の処理が続けて行われる。このようにして、下り用の回線適応制御の処理が継続して行われる。
続いて、図21を用いて、通信端末5から配信管理システム2に送信する(上り)データの回線適応制御の処理を説明する。なお、図20は、通信端末から配信管理システムに送信するデータの回線適応制御の処理を示したシーケンス図である。
まず、通信端末5のエンコード部60は、カメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、記憶部5000から取得した時間差Δを示す時間差情報(Δ)とを、送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する(ステップS121)。
る。
d1=T0−(t0+Δ)・・・(式4)
次に、回線適応制御部37bは、送信遅延時間情報(d)に基づいて、エンコード部60の動作条件を計算する(ステップS108)。そして、回線適応制御部37bは、送受信部31及び送受信部51を介して通信端末5のエンコード部60に、フレームレートやデータの解像度等の動作条件を示す回線適応制御信号を送信する(ステップS126)。即ち、下りの場合の回線適応制御部27は、同じ配信管理システム2内でエンコーダブリッジ部30に回線適応制御信号を出力するのに対して、上りの場合の回線適応制御部37bは、配信管理システム2から通信ネットワーク9を介して、通信端末5に回線適応制御信号を送信する。
続いて、図22乃至図24を用いて、マルチディスプレイの処理について説明する。なお、図22乃至図24は、図5に示されているマルチディスプレイの処理を示したシーケンス図である。
ここでは、通信端末5aで再生されている映像(音)〔XYZ〕のうち、映像部分を、各通信端末(5f1,5f2,5f3)にも分割して再生させる例である。以下、マルチディスプレイの処理の説明において「画像(音)」とは、少なくとも画像データを含むデータを示すものとして説明する。
また、ここでは、ウェブコンテンツを表示させるためのブラウザ20を「ブラウザ20a」と示し、ユーザへの設定画面を表示させるためのブラウザ20を「ブラウザ20b」と示す。更に、ここでは、図17のステップS30に相当する処理から説明する。
次に、通信端末5aのユーザによって、表示部58上に表示されている画面が不図示のメニュー要求画面に切り替えられ、操作部52が、メニュー要求画面中の不図示の「配信先選択メニュー」ボタンの押下を受け付ける(ステップS205)。これにより、送受信部51が、端末管理システム7の送受信部71aに、配信先選択メニューへの切り替えを要求する(ステップS206)。これに対して、送受信部71bは、送受信部21を介して配信管理システム2のブラウザ管理部22に対し、ブラウザ20bの起動要求を行う(ステップS207)。
そして、ブラウザ20bは、送受信部21及び送受信部71bを介して、端末管理システム7の記憶部7000に、配信先選択メニューを要求する(ステップS210)。この際に、通信端末5aの端末IDも送信される。これに対して、端末管理システム7の記憶部7000では、この端末IDに基づいて記憶部7000に記憶されている利用可能端末管理テーブル7020を検索することにより、対応する共有IDを抽出する(ステップS211)。この共有IDは、通信端末5aが遠隔共通処理をするために利用可能な通信端末5を示している。ここでは、図14に示されているように、通信端末5aの端末IDが「t001」であるため、抽出される共有IDは「v003」、「v006」である。
そして、記憶部7000は、送受信部71b及び送受信部21を介して、ブラウザ20bにコンテンツデータとして配信先選択メニューのデータを送信する(ステップS213)。
この配信先選択メニューは、図12に示されているように、チェックボックス、共有ID、及び表示名が含まれている。
次に、エンコーダブリッジ部30は、送受信部31及び送受信部51を介して、通信端末5aの再生制御部53に映像(音)データ〔M〕を送信する(ステップS223)。これにより、通信端末5aでは、再生制御部53からデコード部50に、映像(音)データ〔M〕が出力され、レンダリング部55を介して、表示部58にて、図12に示されているような映像(音)が再生される(ステップS224)。
次に、ブラウザ20bは、チェック結果から共有IDを選択する(ステップS227)。そして、ブラウザ20bは、送受信部21及び送受信部71bを介して、端末管理システム7の記憶部7000に配信先追加要求を行う(ステップS228)。この配信先追加要求には、上記ステップS227によって選択された共有IDが含まれている。そして、ブラウザ20bは、役目を終えて終了する(ステップS229)。これにより、エンコーダブリッジ部30の作成・選択部310は、ブラウザ20bから変換部10への出力を、ブラウザ20aから変換部10への出力に戻すよう切り替える(ステップS230)。
次に、エンコーダブリッジ部30の作成・選択部310は、マルチディスプレイ用の変換部10を作成する(ステップS243)。なお、この場合、エンコーダブリッジ部30の作成・選択部310は、ブラウザ管理部22から、端末ID及び設置位置情報を取得する。
そして、エンコーダブリッジ部30は、端末ID(「t006」)及び設置位置情報(「左」)に基づいて、送受信部31及び通信端末5f1の送受信部51を介して、通信端末5f1の再生制御部53に映像(音)データ〔X〕を送信する(ステップS245−1)。これにより、通信端末5f1では、再生制御部53からデコード部50に、映像(音)データ〔X〕が出力され、スピーカ61から音が再生されると共に、レンダリング部55を介して表示部58にて映像が再生される(ステップS246−1)。
更に、同様にして、エンコーダブリッジ部30は、端末ID(「t008」)及び設置位置情報(「右」)に基づいて、送受信部31及び通信端末5f3の送受信部51を介して、通信端末5f3の再生制御部53に映像(音)データ〔Z〕を送信する(ステップS245−3)。これにより、通信端末5f3は、再生制御部53からデコード部50に、映像(音)データ〔Z〕が出力され、スピーカ61から音が再生されると共に、レンダリング部55を介して表示部58にて映像が再生される(ステップS246−3)。
続いてマルチディスプレイにおけるスクロール処理及びページ切替処理について説明する。なお、ページ切替処理及びスクロール処理は、通信端末5から、各種操作データ(キーボード211やマウス212等による操作や電子ペンPによるストローク等の操作イベント)を取得した場合に行われる処理のひとつである。
以下では、説明の便宜上、音データに関する記載は省略する。
図25(a)に示すように、コンテンツデータは、例えば複数ページからなる文書ファイル等の連続データであり、ここでは連続した4ページからなるデータであるとする。
図25(b)に示すように、3台の通信端末(5f1,5f2,5f3)には、マルチディスプレイ処理が行われ、一部のコンテンツデータをそれぞれに振り分けて表示している。このコンテンツデータの表示振り分けは、記憶部7000に記憶された端末管理テーブル7010中の設置位置情報(図13参照)に基づいて決定している。
各通信端末(5f1,5f2,5f3)には、1つのコンテンツデータの異なる箇所が表示される。しかし、各通信端末(5f1,5f2,5f3)に表示されるコンテンツデータの一部にオーバーラップする部分が存在していても構わない。
図26(a)のように、通信端末5f1に対して横方向のドラッグ操作が行われた場合、配信管理システム2はページ切替処理を行う。ページ切替処理は、各通信端末(5f1、5f2、5f3)に表示する表示画像を1ページ分移動させる(変化させる)処理である。
例えば、通信端末5f1に対して左向き(横順方向)のドラッグ操作が行われた場合、配信管理システム2は、通信端末5f1にコンテンツデータの第2ページを表示させ、通信端末5f2にコンテンツデータの第3ページを表示させ、通信端末5f3にコンテンツデータの第4ページを表示させるような処理を行う。なお、ページ切替処理は、表示画像を一度に複数ページ分移動させる処理であってもよい。
例えば、通信端末5f1に対して上向き(縦順方向)のドラッグ操作が行われ、そのドラッグ量が約半ページ分である場合、配信管理システム2は、通信端末5f1にコンテンツデータの第1ページの後半と第2ページの前半を表示させ、通信端末5f2にコンテンツデータの第2ページの後半と第3ページの前半を表示させ、通信端末5f3にコンテンツデータの第3ページの後半と第4ページの前半を表示させるような処理を行う。
図27は、ページ切替処理が行われた場合のブラウジング内容を説明するための処理概念図である。
配信管理システム2のブラウザ20は、ウェブサーバ8aから取得した4ページ相当のウェブコンテンツデータ〔1234〕をレンダリングして単一の映像データ〔1234〕を生成する。エンコーダブリッジ部30は、ブラウザ20が生成した映像データ〔1234〕から通信端末(5f1,5f2,5f3)に配信する映像データ〔123〕を切り出す。更にエンコーダブリッジ部30は、映像データ〔123〕を複数の映像データ(〔1〕,〔2〕,〔3〕)に分割した後にエンコードする。その後、配信管理システム2は、分割、エンコード後の映像データ〔1〕、〔2〕、〔3〕を夫々の通信端末(5f1,5f2,5f3)に配信する。その結果、ページ切替処理前の通信端末(5f1,5f2,5f3)には、夫々映像〔1〕、〔2〕、〔3〕が表示されている。
これにより、「ページめくり後のブラウジング結果」に示すように、通信端末(5f1,5f2,5f3)には、夫々映像〔2〕、〔3〕、〔4〕が表示される。このように、通信端末(5f1,5f2,5f3)に表示されていた映像が連動して同一ページ分だけ移動するので、各通信端末(5f1,5f2,5f3)に表示されていた映像が同時にページ切り替えされたような効果を得ることができる。
スクロール処理前の通信端末(5f1,5f2,5f3)には、図27と同様に、夫々映像〔1〕、〔2〕、〔3〕が表示されている。
これにより、「スクロール後のブラウジング結果」に示すように、通信端末(5f1,5f2,5f3)には、夫々映像〔1′〕、〔2′〕、〔3′〕が表示される。このように、通信端末(5f1,5f2,5f3)に表示されていた映像が連動して同一量だけ移動するので、各通信端末(5f1,5f2,5f3)に表示されていた映像が同時にスクロールしたような効果を得ることができる。
続いて、図29を用いて、マルチディスプレイにおけるドラッグ操作処理について説明する。図29は、マルチディスプレイの処理を示すシーケンス図である。ここでは、図24のステップS243に相当する処理から説明する。また、音データに関する記述は省略する。
まず、エンコーダブリッジ部30の作成・選択部310は、マルチディスプレイ用の変換部10を作成する(ステップS251)。
次に、ブラウザ20は、ウェブサーバ8aに対して、コンテンツデータ〔XYZ〕を要求する(ステップS252)。これに対して、ウェブサーバ8aは、要求されたコンテンツデータ〔XYZ〕を自己の記憶部(不図示)から読み出す(ステップS253)。そして、ウェブサーバ8aは、配信管理システム2の送受信部21を介して、要求元であるブラウザ20にコンテンツデータ〔XYZ〕を送信する(ステップS254)。
また、ブラウザ20は、ブラウザ管理部22から取得した通信端末(5f1,5f2,5f3)の設置位置情報(端末管理情報)に応じて映像データ〔XYZ〕の切り出し位置(トリミング位置と分割位置を含む)を決定し、切り出し位置情報としてマルチディスプレイ用の変換部10に出力する(ステップS256)。また、ブラウザ20は、映像データ〔XYZ〕の切り出し位置情報を記憶部2000にキャッシュとして記憶させる。
マルチディスプレイ用の変換部10は、ブラウザ20からの切り出し位置情報に応じて、映像データ〔XYZ〕の切り出し(トリミング、分割)、及びエンコードを行う(ステップS257)。即ち、変換部10のトリミング部11が、ブラウザ20からの切り出し位置情報に応じて、送信用FIFO24に格納されている映像データ〔XYZ〕をトリミングして、映像データ〔X1Y1Z1〕を生成する処理を行う。これは、映像データ〔XYZ〕から通信端末に送信されない部分を取り除く処理である。続いて変換部10の分割部13が、トリミング部11がトリミングした映像データ〔X1Y1Z1〕を、複数の映像データ(〔X1〕,〔Y1〕,〔Z1〕)に分割する。そしてエンコード部19が、分割された各映像データ〔X1〕、〔Y1〕、〔Z1〕をエンコードする。
同様に、エンコーダブリッジ部30は、通信端末5f2の再生制御部53に映像データ〔Y1〕を送信する(ステップS258−2)。これにより、通信端末5f2では、表示部58にて映像が再生される(ステップS259−2)。
また同様に、エンコーダブリッジ部30は、通信端末5f2の再生制御部53に映像データ〔Z1〕を送信する(ステップS258−3)。これにより、通信端末5f3では、表示部58にて映像が再生される(ステップS259−3)。
そして、ブラウザ20は、操作データ〔p1〕がドラッグ操作データであると判断した場合、記憶部2000にキャッシュされた映像データ〔XYZ〕を読み出して送信用FIFO24に出力する(ステップS262)。
また、ブラウザ20は、操作データ〔p1〕に基づいて映像データ〔XYZ〕の新たな切り出し位置を決定して、新たな切り出し位置情報として変換部10に出力する(ステップS263)。即ち、ブラウザ20は、記憶部2000にキャッシュされた前回の切り出し位置情報を読み出す。操作データ〔p1〕がページ切替処理を指示するドラッグ操作データの場合、ブラウザ20は、切り出し位置を1ページ分だけ移動させた(ページ単位で移動させた)新たな切り出し位置を決定する。また、操作データ〔p1〕がスクロール処理を指示するドラッグ操作データの場合、ブラウザ20は、切り出し位置をドラッグ操作距離に対応する量だけ移動させた新たな切り出し位置を決定する。ブラウザ20は、決定した切り出し位置を、新たな切り出し位置情報として変換部10に出力すると共に、記憶部2000にキャッシュとして記憶させる。
また、同様にして、エンコーダブリッジ部30は、端末ID及び設置位置情報に基づいて、送受信部31及び通信端末5f2の送受信部51を介して、通信端末5f2の再生制御部53に映像データ〔Y2〕を送信する(ステップS265−2)。これにより、通信端末5f2は、再生制御部53からデコード部50に映像データ〔Y2〕が出力され、レンダリング部55を介して表示部58にて映像が再生される(ステップS266−2)。
更に、同様にして、エンコーダブリッジ部30は、端末ID及び設置位置情報に基づいて、送受信部31及び通信端末5f3の送受信部51を介して、通信端末5f3の再生制御部53に映像データ〔Z2〕を送信する(ステップS265−3)。これにより、通信端末5f3は、再生制御部53からデコード部50に映像データ〔Z2〕が出力され、レンダリング部55を介して表示部58にて映像が再生される(ステップS266−3)。
ブラウザ20は、ステップS256において、分割により生成される映像データ(〔X〕,〔Y〕,〔Z〕)の範囲と、送信先の通信端末(5f1,5f2,5f3)を示す端末IDとをテーブル等により対応づけて、記憶部2000に記憶させてもよい。
ページ切替処理において、映像データ〔XYZ〕の切り出し位置及び分割位置が前回配信時と同一で、配信先の通信端末(5f1,5f2,5f3)のみが変化する場合、ブラウザ20が以下の処理を行ってもよい。即ち、ブラウザ20は、記憶部2000に記憶させた映像データ(〔X〕,〔Y〕,〔Z〕)の範囲と、これに対応する端末IDを示した情報を読み出す。そして、映像データ(〔X〕,〔Y〕,〔Z〕)の範囲に対して端末IDを入れ替えて記憶部2000に記憶させることができる。また、後段の送受信部31は、ブラウザ20が決定した各映像データの配信先の情報に従って、各映像データ〔X〕、〔Y〕、〔Z〕を各通信端末(5f1,5f2,5f3)に配信する。
また、スクロール処理を行う場合、ブラウザ20は、映像データの切り出し位置、及び分割位置を任意に設定して記憶部2000に記憶させる処理を行ってもよい。
上記マルチディスプレイにおけるスクロール処理やページ切替処理は、ユーザによるドラッグ操作に基づいて行うため、メニュー選択などの方法に比べてユーザの負担が少なくて済む。
また、ドラッグ操作の種別(縦方向、又は横方向)に基づいてスクロール処理をするか、ページ切替処理をするかを区別して動作するので、ユーザが感覚的にスクロールとページ切替を行うことができる。更に、ドラッグ操作の方向(順方向又は逆方向)に応じて表示画像を送り方向又は戻し方向に移動させる。特に、ドラッグ操作の方向と表示画像の移動方向が同一である場合は、ユーザがストレスを感じることなく、感覚的にスクロールとページ切替を行うことができる。
また、マルチディスプレイで1つのコンテンツを表示している場合、何れかの通信端末を操作することで全ての通信端末のディスプレイを連動させてスクロール表示、又はページ切替表示できるので、ユーザの負担が少なくて済む。
以上、具体的な例を挙げながら詳細に説明したように、本実施形態の配信システム1では、クラウド上で配信管理システム2がレンダリングを行うブラウザ20及びエンコード等を行うエンコーダブリッジ部30を有する。これにより、ブラウザ20が所定の記述言語で示されたコンテンツデータに基づいて映像(音)データを生成し、エンコーダブリッジ部30が映像(音)データをエンコードしてから通信端末に配信する。よって、通信端末5では、所定の記述言語で示されたコンテンツデータを受信する負荷、及び受信後に映像(音)データを生成する負荷が低減されるため、コンテンツのリッチ化によって通信端末5の負荷が高くなるという問題を解消することができる。
特に、ブラウザ20は、リアルタイムコミュニケーションを可能にし、変換部10は、ブラウザ20によって生成された映像(音)データに対してリアルタイムのエンコードを行う。よって、例えば、映像(音)データのオンデマンド配信のように、DVDプレーヤがリアルタイム性のない(つまり、予めエンコードされている)映像(音)データを選択して配信する場合とは異なり、配信管理システム2は、配信する直前に取得したコンテンツをレンダリングすることで映像(音)データを生成してからエンコードするため、リアルタイム性に優れた映像(音)データの配信を行うことができる。
本実施形態の配信システム1では、端末管理システム7と配信管理システム2とを互いに別個の装置として構成しているが、例えば、配信管理システム2に端末管理システム7の機能を持たせるなどにより、端末管理システム7と配信管理システム2とを一体の装置として構成するようにしてもよい。
また、上記実施形態における配信管理システム2、及び端末管理システム7は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
更に、上記実施形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHDD204は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
Claims (6)
- 複数の通信端末に通信ネットワークを介して少なくとも映像データを夫々配信する配信管理装置であって、
前記各通信端末間の配置関係を示した端末管理情報を取得する取得手段と、
前記取得手段によって取得された前記端末管理情報と何れかの前記通信端末から受信した操作データとに基づいて前記映像データの切り出し位置情報を決定する決定手段と、
前記決定手段により決定された切り出し位置情報に基づいて前記映像データから複数の映像データを切り出す切り出し手段と、
前記切り出し手段により切り出された前記各映像データを前記端末管理情報に基づいて前記各通信端末に夫々配信する配信手段と、を備え、
前記決定手段は、前記操作データに基づいて前記映像データの切り出し位置情報を変化させることを特徴とする配信管理装置。 - 前記切り出し手段は、前記決定手段により決定された前記切り出し位置情報に基づいて前記映像データをトリミングするトリミング手段と、前記トリミング手段によりトリミングされた映像データを複数に分割する分割手段と、を備えたことを特徴とする請求項1に記載の配信管理装置。
- 前記操作データがドラッグ操作データであることを特徴とする請求項1又は2に記載の配信管理装置。
- 前記操作データが、前記各通信端末に夫々配信される各映像データのページ切替を指示する操作データである場合、
前記決定手段は、前記映像データの切り出し位置情報をページ単位で変化させることを特徴とする請求項1乃至3の何れか一項に記載の配信管理装置。 - 前記操作データが、前記各通信端末に配信される各映像データのスクロールを指示する操作データである場合、
前記決定手段は、前記映像データの切り出し位置情報をドラッグ操作距離に対応する量だけ変化させることを特徴とする請求項1乃至4の何れか一項に記載の配信管理装置。 - 請求項1乃至5の何れか一項に記載の配信管理装置と、
前記配信管理装置の取得手段に提供する前記端末管理情報を記憶する記憶装置と、
を有することを特徴とする配信システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013191769A JP2015061107A (ja) | 2013-09-17 | 2013-09-17 | 配信管理装置、及び配信システム |
CN201410465447.6A CN104469536A (zh) | 2013-09-17 | 2014-09-12 | 分布管理装置以及分布系统 |
US14/486,161 US9525901B2 (en) | 2013-09-17 | 2014-09-15 | Distribution management apparatus for distributing data content to communication devices, distribution system, and distribution management method |
EP14184933.1A EP2849453A1 (en) | 2013-09-17 | 2014-09-16 | Distribution management apparatus, distribution system, and distribution management method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013191769A JP2015061107A (ja) | 2013-09-17 | 2013-09-17 | 配信管理装置、及び配信システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015061107A true JP2015061107A (ja) | 2015-03-30 |
Family
ID=51660293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013191769A Pending JP2015061107A (ja) | 2013-09-17 | 2013-09-17 | 配信管理装置、及び配信システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9525901B2 (ja) |
EP (1) | EP2849453A1 (ja) |
JP (1) | JP2015061107A (ja) |
CN (1) | CN104469536A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6312866B2 (ja) | 2015-01-23 | 2018-04-18 | マクセル株式会社 | 表示装置および表示方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001197464A (ja) * | 2000-01-06 | 2001-07-19 | Minolta Co Ltd | 情報表示装置、表示システム及び電子会議システム |
JP2004144822A (ja) * | 2002-10-22 | 2004-05-20 | Nec Corp | 大画面表示装置及び大画面表示方法 |
JP2005301131A (ja) * | 2004-04-15 | 2005-10-27 | Sony Corp | サーバ装置、表示装置及び表示方法 |
JP2006211164A (ja) * | 2005-01-27 | 2006-08-10 | Hitachi Ltd | マルチディスプレイ構成方法及び装置 |
JP2009211547A (ja) * | 2008-03-05 | 2009-09-17 | Seiko Epson Corp | 表示システム、表示装置及びプログラム |
JP2011048431A (ja) * | 2009-08-25 | 2011-03-10 | Brother Industries Ltd | 画像表示システム,画像処理装置および電子ペーパー |
JP2011198316A (ja) * | 2010-03-24 | 2011-10-06 | Nec Casio Mobile Communications Ltd | 端末装置及びプログラム |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1991007739A1 (en) * | 1989-11-14 | 1991-05-30 | Imtech International, Inc. | Moving message display method and apparatus |
US5923307A (en) * | 1997-01-27 | 1999-07-13 | Microsoft Corporation | Logical monitor configuration in a multiple monitor environment |
US6864921B2 (en) | 2000-10-17 | 2005-03-08 | Sony Corporation | Display control system for controlling a display screen formed of multiple display units |
US9213365B2 (en) * | 2010-10-01 | 2015-12-15 | Z124 | Method and system for viewing stacked screen displays using gestures |
US7242369B2 (en) * | 2004-10-26 | 2007-07-10 | Benq Corporation | Method of displaying text on multiple display devices |
JP5046527B2 (ja) | 2006-02-14 | 2012-10-10 | カシオ計算機株式会社 | コンピュータシステムのサーバ装置及びサーバ制御プログラム |
US8797233B2 (en) * | 2008-08-20 | 2014-08-05 | The Regents Of The University Of California | Systems, methods, and devices for dynamic management of data streams updating displays |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
US20100313150A1 (en) * | 2009-06-03 | 2010-12-09 | Microsoft Corporation | Separable displays and composable surfaces |
US20110126113A1 (en) * | 2009-11-23 | 2011-05-26 | c/o Microsoft Corporation | Displaying content on multiple web pages |
KR20110106160A (ko) * | 2010-03-22 | 2011-09-28 | (주)인터큐비트 | 다중 디스플레이를 이용한 초고해상도 영상 재생 시스템 |
US9213480B2 (en) | 2010-04-08 | 2015-12-15 | Nokia Technologies Oy | Method, apparatus and computer program product for joining the displays of multiple devices |
US9052760B2 (en) * | 2010-09-15 | 2015-06-09 | Lenovo (Singapore) Pte. Ltd. | Combining multiple slate displays into a larger display |
EP2472867A1 (en) * | 2010-12-30 | 2012-07-04 | Advanced Digital Broadcast S.A. | Coding and decoding of multiview videos |
US8842057B2 (en) | 2011-09-27 | 2014-09-23 | Z124 | Detail on triggers: transitional states |
JP6069898B2 (ja) | 2011-11-25 | 2017-02-01 | 株式会社リコー | 画像処理装置、画像処理システム、方法およびプログラム |
KR101881925B1 (ko) * | 2012-01-06 | 2018-07-26 | 삼성전자주식회사 | 복수의 휴대 단말들을 이용하여 멀티 비전 시스템을 구축하는 방법 및 이를 위한 장치 |
US8786517B2 (en) * | 2012-02-21 | 2014-07-22 | Blackberry Limited | System and method for displaying a user interface across multiple electronic devices |
US20130222266A1 (en) * | 2012-02-24 | 2013-08-29 | Dan Zacharias GÄRDENFORS | Method and apparatus for interconnected devices |
US9092184B2 (en) * | 2012-06-22 | 2015-07-28 | Harborside Press, LLC | Interactive synchronized multi-screen display |
US9318043B2 (en) * | 2012-07-09 | 2016-04-19 | Mobbers, Inc. | Systems and methods for coordinating portable display devices |
US9197734B2 (en) * | 2013-01-04 | 2015-11-24 | Samsung Electronics Co., Ltd. | Apparatus and method for sharing screens from multiple mobile devices |
AU2014230423A1 (en) | 2013-03-15 | 2015-09-24 | Ricoh Company, Limited | Distribution control system and distribution system |
JP2014200076A (ja) | 2013-03-15 | 2014-10-23 | 株式会社リコー | 配信制御システム、配信制御方法、及びプログラム |
JP2014200075A (ja) | 2013-03-15 | 2014-10-23 | 株式会社リコー | コンピュータシステム、配信制御システム、配信制御方法、及びプログラム |
JP2014200074A (ja) | 2013-03-15 | 2014-10-23 | 株式会社リコー | 配信制御システム、配信制御方法、及びプログラム |
US9940014B2 (en) * | 2013-05-03 | 2018-04-10 | Adobe Systems Incorporated | Context visual organizer for multi-screen display |
KR20150027891A (ko) * | 2013-08-30 | 2015-03-13 | 삼성전자주식회사 | 전자 장치들을 이용한 콘텐트 표현 방법 및 장치 |
-
2013
- 2013-09-17 JP JP2013191769A patent/JP2015061107A/ja active Pending
-
2014
- 2014-09-12 CN CN201410465447.6A patent/CN104469536A/zh active Pending
- 2014-09-15 US US14/486,161 patent/US9525901B2/en not_active Expired - Fee Related
- 2014-09-16 EP EP14184933.1A patent/EP2849453A1/en not_active Ceased
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001197464A (ja) * | 2000-01-06 | 2001-07-19 | Minolta Co Ltd | 情報表示装置、表示システム及び電子会議システム |
JP2004144822A (ja) * | 2002-10-22 | 2004-05-20 | Nec Corp | 大画面表示装置及び大画面表示方法 |
JP2005301131A (ja) * | 2004-04-15 | 2005-10-27 | Sony Corp | サーバ装置、表示装置及び表示方法 |
JP2006211164A (ja) * | 2005-01-27 | 2006-08-10 | Hitachi Ltd | マルチディスプレイ構成方法及び装置 |
JP2009211547A (ja) * | 2008-03-05 | 2009-09-17 | Seiko Epson Corp | 表示システム、表示装置及びプログラム |
JP2011048431A (ja) * | 2009-08-25 | 2011-03-10 | Brother Industries Ltd | 画像表示システム,画像処理装置および電子ペーパー |
JP2011198316A (ja) * | 2010-03-24 | 2011-10-06 | Nec Casio Mobile Communications Ltd | 端末装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US9525901B2 (en) | 2016-12-20 |
US20150082365A1 (en) | 2015-03-19 |
CN104469536A (zh) | 2015-03-25 |
EP2849453A1 (en) | 2015-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6354197B2 (ja) | 配信制御システム、配信制御方法、及びプログラム | |
JP6354764B2 (ja) | 配信管理装置、配信方法、及びプログラム | |
JP6337499B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP6326855B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP6398215B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP6323048B2 (ja) | 配信システム、配信方法、及びプログラム | |
JP6369043B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP6354195B2 (ja) | 配信システム、配信方法、及びプログラム | |
JP2014199648A (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP2015056855A (ja) | 配信管理装置、及び配信管理システム | |
JP6248488B2 (ja) | 通信端末及び通信方法 | |
JP2015069244A (ja) | 配信システム、配信方法、及びプログラム | |
JP6589261B2 (ja) | 配信制御システム、配信制御方法、及びプログラム | |
WO2015045787A1 (ja) | 配信管理装置、端末及び配信管理方法 | |
JP2015056046A (ja) | 配信管理システム、配信システム、配信管理方法、及びプログラム | |
JP2016063247A (ja) | 配信システム及び配信方法 | |
JP2015061107A (ja) | 配信管理装置、及び配信システム | |
JP6197535B2 (ja) | 配信システム、配信方法、及びプログラム | |
JP6442832B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP2016004352A (ja) | 端末管理システム、端末管理方法、及びプログラム | |
JP2016058812A (ja) | 配信制御システム、配信システム、配信制御システムの制御方法、及びプログラム | |
JP6248492B2 (ja) | 配信管理装置、配信管理システム、及び配信管理方法 | |
JP6387623B2 (ja) | 配信制御システム | |
JP6375638B2 (ja) | 配信制御システム、配信システム、配信制御方法、及びプログラム | |
JP2015053613A (ja) | 映像配信装置、及び映像配信システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170919 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180220 |