JP2016143236A - 配信制御装置、配信制御方法、及びプログラム - Google Patents

配信制御装置、配信制御方法、及びプログラム Download PDF

Info

Publication number
JP2016143236A
JP2016143236A JP2015018580A JP2015018580A JP2016143236A JP 2016143236 A JP2016143236 A JP 2016143236A JP 2015018580 A JP2015018580 A JP 2015018580A JP 2015018580 A JP2015018580 A JP 2015018580A JP 2016143236 A JP2016143236 A JP 2016143236A
Authority
JP
Japan
Prior art keywords
data
unit
communication terminal
stroke
whiteboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015018580A
Other languages
English (en)
Inventor
崇範 永原
Takanori Nagahara
崇範 永原
笠谷 潔
Kiyoshi Kasatani
潔 笠谷
村田 憲彦
Norihiko Murata
憲彦 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015018580A priority Critical patent/JP2016143236A/ja
Priority to US15/009,229 priority patent/US9596435B2/en
Priority to EP16153260.1A priority patent/EP3051806A1/en
Priority to CN201610068978.0A priority patent/CN105847904B/zh
Publication of JP2016143236A publication Critical patent/JP2016143236A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25816Management of client data involving client authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/64Addressing
    • H04N21/6405Multicasting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】映像の配信後も操作入力を表示して利便性を向上させる。【解決手段】通信端末5とネットワークを介して接続される配信制御装置2において、通信端末5から、利用者による操作を示す操作データを受信する送受信部31と、当該操作がストロークの指示であった場合、操作データにおける通信端末5に入力された座標を座標蓄積部122に保存し、保存された座標からストロークを示すストロークデータを生成するホワイトボード制御部22と、生成されたストロークデータをデータ管理部120に保存するとともに、ストロークをレンダリングしてフレームデータを生成するホワイトボード部20と、を備え、送受信部31は、生成されたフレームデータが配信可能なデータ形式に変換された変換後のフレームデータを通信端末5に送信する。【選択図】図7

Description

本発明は、配信制御装置、配信制御方法、及びプログラムに関する。
近年、インターネットの普及に伴い、様々な分野でクラウドコンピューティングが利用されてきている。クラウドコンピューティングは、ユーザが、インターネットに接続した通信端末を用いてインターネット上のサーバ(システム)が提供するサービス(クラウドサービス)を利用し、その対価を支払うサービス利用形態である。
映像データを配信するサービスを提供する場合、ビデオ圧縮技術により配信可能なデータ形式に変換した変換映像データを通信端末に配信している。このような技術を利用して、例えば、リモートインターラクションに応答してビデオコンテンツを配信するためのアーキテクチャーが開示されている(特許文献1参照)。当該アーキテクチャーは、連続するビデオフレームを対話形式である装置に対して通信するものである。
しかしながら、従来技術では、例えば、会議などにおいて、対話形式で映像が配信された通信端末に対してユーザによる手書き入力などの操作入力を受け付けた場合、当該操作入力を会議終了後に見ることができなかった。
本発明は、上記に鑑みてなされたものであって、映像の配信時におけるユーザによる操作入力を保存することで、映像の配信後も当該操作入力を表示して利便性を向上させる配信制御装置、配信制御方法、及びプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、通信端末とネットワークを介して接続される配信制御装置において、前記通信端末から、利用者による操作を示す操作データを受信する受信部と、前記操作がストロークの指示であった場合、前記操作データにおける前記通信端末に入力された座標を第1記憶部に保存し、保存された前記座標からストロークを示すストロークデータを生成するホワイトボード制御部と、生成された前記ストロークデータを第2記憶部に保存するとともに、前記ストロークをレンダリングして映像データを生成するホワイトボード部と、生成された前記映像データが配信可能なデータ形式に変換された変換映像データを前記通信端末に送信する送信部と、を備える。
本発明によれば、映像の配信後も当該操作入力を表示して利便性を向上させることができるという効果を奏する。
図1は、実施形態にかかる配信システムの概略図である。 図2は、基本的な配信方法を示した概念図である。 図3は、マルチキャストの概念図である。 図4は、マルチディスプレイの概念図である。 図5は、配信制御装置2を介して複数の通信端末を使った複合配信の概念図である。 図6は、実施形態にかかる配信制御装置及び端末管理装置のハードウェア構成図である。 図7は、実施形態にかかる配信制御装置の各機能を示す機能ブロック図である。 図8は、エンコーダブリッジ部の詳細図である。 図9は、変換部の各機能を示す機能ブロック図である。 図10は、実施形態にかかる通信端末の各機能を示す機能ブロック図である。 図11は、実施形態にかかる配信制御装置の基本的な配信処理を示したシーケンス図である。 図12は、実施形態にかかる配信制御装置を介して複数の通信端末を使った配信の処理を示すシーケンス図である。 図13は、本実施形態の配信制御装置のホワイトボード部によるレンダリング処理の流れを示すフローチャートである。 図14は、メタストローク情報の一例を示す図である。
以下に添付図面を参照して、配信制御装置、配信制御方法、及びプログラムの実施形態を詳細に説明する。以下に示される「画像」には、静止画及び動画が含まれる。また、以下に示される「映像」は、基本的に動画を意味し、動画が停止されて静止画状態になった場合も含まれる。更に、静止画及び音のうち少なくとも一方を示す場合には、「静止画(音)」と示す。また、画像及び音のうち少なくとも一方を示す場合には、「画像(音)」と示す。映像及び音のうち少なくとも一方を示す場合には、「映像(音)」と示す。
<システム構成>
まず、配信システム1の構成について説明する。図1は、実施形態にかかる配信システムの概略図である。
図1に示されているように、本実施形態の配信システム1は、配信制御装置2、複数の通信端末(5a〜5f)、及び端末管理装置7によって構築されている。以下では、複数の通信端末(5a〜5f)のうち、任意の通信端末を「通信端末5」として表す。また、配信制御装置2及び端末管理装置7は、いずれもサーバコンピュータによって構築されている。
通信端末5は、配信システム1のサービスを受けるユーザが使用する端末である。このうち、通信端末5aは、ノートPC(Personal Computer)である。通信端末5bは、スマートフォンやタブレット端末等のモバイル端末である。通信端末5cは、コピー、スキャン、プリント、及びファックスの各機能が複合されたMFP(Multifunction Peripheral/Printer/Product)である。通信端末5dは、プロジェクタである。通信端末5eは、カメラ、マイク及びスピーカを備えたテレビ(ビデオ)会議端末である。通信端末5fは、ユーザ等によって描かれた内容を電子的に変換することが可能な電子黒板(ホワイトボード)である。
なお、通信端末5は、図1に示されているような端末だけでなく、腕時計、自動販売機、ガスメータ、カーナビゲーション装置、ゲーム機、エアコン、照明器具、カメラ単体、マイク単体、スピーカ単体等であって、インターネット等の通信ネットワークを介して通信可能な装置であってもよい。
また、配信制御装置2、通信端末5、及び端末管理装置7は、インターネットやLAN(Local Area Network)等の通信ネットワーク9によって通信することができる。この通信ネットワーク9には、3G(3rd Generation)、WiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)等の無線通信によるネットワークも含まれる。
通信端末5によっては、通信端末5d等のように、通信ネットワーク9を介して他の端末やシステムと通信する機能を有していないものがある。しかし、ユーザが通信端末5dのUSB(Universal Serial Bus)やHDMI(登録商標)(High−Definition Multimedia Interface)のインターフェース部にドングルを差し込むことで、通信端末5dは通信ネットワーク9を介して他の端末やシステムと通信可能となる。
また、配信制御装置2は、ホワイトボード部20を有する。ホワイトボード部20におけるレンダラ(Renderer)の機能が、所定の記述言語で示された単一又は複数のコンテンツデータを取得して、レンダリングする。これにより、RGB(Red Green Blue)によるビットマップデータ等の静止画データやPCM(Pulse Code Modulation)データ等の音データ(即ち、静止画(音)データ)としてのフレームデータを生成することができる。コンテンツデータは、任意の通信端末等から取得されたデータであって、HTML(Hypertext Markup Language)やCSS(Cascading Style Sheets)による画像(音)データ、MP4(MPEG-4)による画像(音)データ、AAC(Advanced Audio Coding)による音データ等が含まれる。
更に、配信制御装置2は、エンコード部19を有し、エンコード部19がエンコーダとしての役割を果たすことにより、静止画(音)データとしての各フレームデータを、H.264(MPEG-4 AVC)、H.265、Motion JPEG等の圧縮符号化方式の映像(音)データに変換する。
一方、端末管理装置7は、通信端末5のログイン認証を行ったり、通信端末5の契約情報等の管理を行ったりする。また、端末管理装置7は、電子メールを送信するためのSMTP(Simple Mail Transfer Protocol)サーバの機能を有している。端末管理装置7は、例えば、クラウドのサービス(IaaS:Infrastructure as a Service)上に展開される仮想マシンとして実現することができる。端末管理装置7は、不測の事態に対応して継続的なサービスを提供するために、多重化して運用することが望ましい。
また、ホワイトボード部20は、リアルタイムコミュニケーション(RTC:Real−time communication/collaboration)を可能にしている。更に、配信制御装置2は後述の図9におけるエンコード部19を有しており、このエンコード部19は、ホワイトボード部20によって出力されたフレームデータに対して、リアルタイムのエンコードを行い、H.264の規格等に基づく変換により生成された映像(音)データを出力することができる。そのため、配信制御装置2の処理は、DVDプレーヤによって、DVDに記録されているリアルタイム性のない映像(音)データを読み出して配信する場合等とは異なる。
なお、配信制御装置2だけでなく、通信端末5もホワイトボード部を有してもよい。この場合、配信制御装置2のホワイトボード部20を最新化することで、各通信端末5のホワイトボード部を起動させる必要はなくなる。
<各種配信方法>
次に、各種配信方法について説明する。
(基本配信)
図2は、基本的な配信方法を示した概念図である。配信システム1では、図2に示されているように、配信制御装置2のホワイトボード部20が、任意の通信端末等から画像(音)データとしてのコンテンツデータ〔A〕を取得してレンダリングすることにより、静止画(音)データとしての各フレームデータ〔A〕を生成する。そして、エンコード部19を含むエンコーダブリッジ部30が、各フレームデータ〔A〕をエンコード等することによりH.264等の圧縮符号化方式の映像(音)データ〔A〕(送信データの一例)に変換する。配信制御装置2は、変換された後の映像(音)データ〔A〕を通信端末5に配信する。
更に、配信システム1は、上述の配信方法を応用し、コンテンツデータを複数の拠点に映像(音)データとして配信することも可能である。以下に、図3〜図5を参照してコンテンツデータを複数の拠点に配信する方法について説明する。
(マルチキャスト)
図3は、マルチキャストの概念図である。図3に示されているように、配信制御装置2のホワイトボード部20は、任意の通信端末等から画像(音)データとしてのコンテンツデータ〔A〕を取得してレンダリングすることにより、静止画(音)データとしての各フレームデータ〔A〕を生成する。そして、エンコーダブリッジ部30が、各フレームデータ〔A〕をエンコードして、映像(音)データに変換する。その後、配信制御装置2は、映像(音)データ〔A〕(送信データの一例)を複数の通信端末(5f1,5f2,5f3)に配信する。
以上により、複数の拠点では、同じ映像(音)が再生される。この場合、通信端末(5f1,5f2,5f3)は同じ表示再生能力(解像度が同じ等)を有する必要はない。このような配信方法は、例えば「マルチキャスト」と呼ぶ。
(マルチディスプレイ)
図4は、マルチディスプレイの概念図である。図4に示されているように、配信制御装置2のホワイトボード部20は、任意の通信端末等から画像(音)データとしてのコンテンツデータ〔XYZ〕を取得してレンダリングすることにより、静止画(音)データとしての各フレームデータ〔XYZ〕を生成する。そして、エンコーダブリッジ部30が、フレームデータ〔XYZ〕毎に、複数のフレームデータ(〔X〕,〔Y〕,〔Z〕)に分割した後にエンコードすることで、複数の映像(音)データ(〔X〕,〔Y〕,〔Z〕)に変換する。その後、配信制御装置2は、映像(音)データ〔X〕(送信データの一例)を通信端末5f1に配信する。また、同じように、配信制御装置2は、映像(音)データ〔Y〕(送信データの一例)を通信端末5f2に配信し、映像(音)データ〔Z〕(送信データの一例)を通信端末5f3に配信する。
以上により、例えば、横長のコンテンツ〔XYZ〕であっても、複数の通信端末5で分割して映像(音)が再生されるため、通信端末(5f1,5f2,5f3)を一列に並べて設置すれば、1つの大きな映像を再生させることと同様の効果を得ることができる。この場合、通信端末(5f1,5f2,5f3)は同じ表示再生能力(解像度が同じ等)を有する必要がある。このような配信方法は、例えば「マルチディスプレイ」と呼ぶ。
(複合配信)
図5は、配信制御装置2を介して複数の通信端末を使った複合配信の概念図である。図5に示されているように、第1の拠点(図5の右側)では、電子黒板としての通信端末5f1及びテレビ会議端末としての通信端末5e1が利用され、第2の拠点(図5の左側)では、同じく電子黒板としての通信端末5f2、及びテレビ会議端末としての通信端末5e2が利用されている。また、第1の拠点では、通信端末5f1にストロークによる文字等を描画させるための電子ペンP1が利用され、第2の拠点では、通信端末5f2にストロークによる文字等を描画させるための電子ペンP2が利用されている。
そして、第1の拠点において、通信端末5e1によって取得された映像(音)データは、エンコード部60でエンコードされた後に、配信制御装置2に送信される。その後、配信制御装置2のデコード部40でデコードされて、ホワイトボード部20に入力される。また、電子ペンP1によって通信端末5f1に描かれたストロークを示す操作データ(この場合、通信端末5f1のディスプレイ上における座標データ等)は、配信制御装置2に送信され、ホワイトボード部20に入力される。
一方、第2の拠点においても、通信端末5e2によって取得された映像(音)データは、エンコード部60でエンコードされた後に、配信制御装置2に送信される。その後、配信制御装置2のデコード部40でデコードされて、ホワイトボード部20に入力される。また、電子ペンP2によって通信端末5f2に描かれたストロークを示す操作データ(この場合、通信端末5f2のディスプレイ上における座標データ等)は、配信制御装置2に送信され、ホワイトボード部20に入力される。
一方、ホワイトボード部20は、例えば、任意の通信端末等から通信端末(5f1,5f2)のそれぞれのディスプレイに表示される背景画像であるコンテンツデータ〔A〕を取得する。そして、ホワイトボード部20は、コンテンツデータ〔A〕、操作データ(〔p1〕,〔p2〕)及び映像(音)コンテンツデータ(〔E1〕,〔E2〕)を結合してレンダリングすることで、各コンテンツ(〔A〕,〔p1〕,〔p2〕,〔E1〕,〔E2〕)が所望のレイアウトに設置された静止画(音)データとしてのフレームデータを生成する。そして、エンコーダブリッジ部30は、各フレームデータをエンコードし、配信制御装置2が各拠点に同じコンテンツ(〔A〕,〔p1〕,〔p2〕,〔E1〕,〔E2〕)を示す映像(音)データ(送信データの一例)を配信する。
これにより、第1の拠点では、通信端末5f1のディスプレイ上に、映像(〔A〕、〔p1〕、〔p2〕、〔E1(映像部分)〕及び〔E2(映像部分)〕)が表示されると共に、通信端末5e1のスピーカから音〔E2(音部分)〕が出力される。一方、第2の拠点でも、通信端末5f2のディスプレイ上に、映像(〔A〕、〔p1〕、〔p2〕、〔E1(映像部分)〕及び〔E2(映像部分)〕)が表示されると共に、通信端末5e2のスピーカから音〔E1(音部分)〕が出力される。
第1の拠点では、通信端末5f1のエコーキャンセル機能により、自拠点の音〔E1(音部分)〕は出力されない。一方、第2の拠点では、通信端末5f2のエコーキャンセル機能により、自拠点の音〔E2(音部分)〕は出力されない。
以上により、第1の拠点と第2の拠点とでは、遠隔地間においてリアルタイムで同じ情報を共有する遠隔共有処理を行うことができるため、本実施形態の配信システム1は遠隔会議等に有効である。
<ハードウェア構成>
図6を用いて、本実施形態にかかる装置のハードウェア構成を説明する。図6は、実施形態にかかる配信制御装置及び端末管理装置のハードウェア構成図である。
まず、配信制御装置2について説明する。図6に示されているように、配信制御装置2は、配信制御装置2全体の動作を制御する(ホスト)CPU(Central Processing Unit)201、IPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶したROM(Read Only Memory)202、CPU201のワークエリアとして使用されるRAM(Random Access Memory)203、プログラム等の各種データを記憶するHDD(Hard Disk Drive)204、CPU201の制御にしたがってHDD204に対する各種データの読み出し又は書き込みを制御するHDC(Hard Disk Controller)205、フラッシュメモリ等の記録メディア206に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ207、各種情報を表示するディスプレイ208、通信ネットワーク9を利用してデータ送信したりドングルを接続したりするためのI/F209、キーボード211、マウス212、マイク213、スピーカ214、GPU(Graphics Processing Unit)215、GPU215の駆動に用いられるプログラムを記憶したROM216、GPU215のワークエリアとして使用されるRAM217、上記各構成要素を図6に示されているように電気的に接続するためのアドレスバスやデータバス等の拡張バスライン220を備えている。なお、プロジェクタとしての通信端末5dのように、GPUが備えられていない場合もある。また、端末管理装置7のハードウェア構成は、配信制御装置2のハードウェア構成と同様であるため、それらの説明を省略する。
<機能構成>
次に、図7〜10を用いて、本実施形態にかかる装置の機能構成について説明する。
(配信制御装置の機能構成)
まずは、図7を用いて、配信制御装置2の機能構成について説明する。図7は、実施形態にかかる配信制御装置の各機能を示す機能ブロック図である。図7では、配信制御装置2が通信端末5f1に対して映像(音)データを配信する場合の機能構成が示されているが、配信先が通信端末5f1以外の場合も、同じ機能構成を有する。なお、配信制御装置2は、複数の配信エンジンサーバを備えているが、説明を簡単にするために、以下では、単一の配信エンジンサーバを備えている場合について説明する。
図7に示されているように、配信制御装置2は、図6に示されているCPU201又はGPU215であるプロセッサ等のハードウェア構成及びプログラムによって、図7に示されている各機能構成を有する。
具体的に、配信制御装置2は、ホワイトボード部20、送受信部21、ホワイトボード制御部22、送信用FIFO(First-In First-Out)24、時刻管理部25、時刻取得部26、回線適応制御部27、エンコーダブリッジ部30、送受信部31、受信用FIFO34、認識部35、遅延情報取得部37a、回線適応制御部37b、及びデコード部40を有している。
更に、配信制御装置2は、図6に示されているHDD204によって構築される記憶部2000、座標蓄積部122、及びデータ管理部120を有している。この記憶部2000には、認識部35から出力されホワイトボード制御部22を介して送られた後述の認識情報が記憶される。ホワイトボード部20が取得したコンテンツデータは、キャッシュとして、記憶部2000に一時的に記憶しておくこともできる。座標蓄積部122は、通信端末5に入力された座標が記憶される。また、データ管理部120は、当該座標から生成されたストロークを示すストロークデータが記憶される。
送受信部21は、端末管理装置7や任意の通信端末との間で、各種データ、各種要求、各種指示等の送受信を行う。例えば、送受信部21は、任意の通信端末からコンテンツデータを取得する。また、送受信部21は、端末管理装置7から取得した各種データを配信制御装置2内の各機能構成に出力したり、端末管理装置7から取得した各種データ、各種要求、又は各種指示等に基づいて配信制御装置2内の各機能構成を制御したりする。例えば、送受信部21は、端末管理装置7からの配信の切替え要求に基づいて、図8に示されているエンコーダブリッジ部30内の各構成の組み合わせの切替えを行う。
ホワイトボード制御部22は、ホワイトボード部20の制御を行う。具体的には、ホワイトボード制御部22は、送受信部31を介して通信端末5から、ユーザによる操作を示す各種操作データを取得し、ホワイトボード部20に出力する。操作データは、通信端末5での操作イベント(キーボード211やマウス212等による操作や電子ペンPによるストローク等)によって生じたデータである。ユーザによる操作がストロークコマンド(ストロークの指示)であった場合、ホワイトボード制御部22は、操作データにおける通信端末5のディスプレイに入力された座標を、座標蓄積部122に保存する。そして、ホワイトボード制御部22は、座標蓄積部122に保存されて蓄積した全ての座標から、ユーザからの操作によるストロークを示すストロークデータを生成し、ホワイトボード部20に出力する。
また、ホワイトボード制御部22は、ユーザによる操作がページコマンド(ページの追加指示)であった場合、追加されたページをホワイトボード部20に出力する。また、ホワイトボード制御部22は、ユーザによる操作が画像コマンド(画像の追加指示)であった場合、追加された画像をホワイトボード部20に出力する。また、ホワイトボード制御部22は、ユーザによる操作がいずれでもなかった場合、マウスイベントとしてホワイトボード部20に出力する。
また、通信端末5に、温度センサ、湿度センサ、及び加速度センサ等の各種センサが設けられている場合には、ホワイトボード制御部22は、通信端末5から各センサの出力信号であるセンサ情報を取得し、ホワイトボード部20に出力する。更に、ホワイトボード制御部22は、認識部35から画像(音)データを取得してホワイトボード部20に出力したり、認識部35から後述の認識情報を取得して記憶部2000に記憶したりする。また、ホワイトボード制御部22は、受信用FIFO34から映像(音)データを取得してホワイトボード部20に出力する。
ホワイトボード部20は、レンダラの機能によって、画像(音)データとしてのコンテンツデータ等をレンダリングすることにより、静止画(音)データとしての各フレームデータを生成する。また、レンダラは、図5に示されているように、複数種類のコンテンツ(〔p1〕,〔p2〕,〔E1〕,〔E2〕)のレイアウトを行うレイアウトエンジン(Layout Engine)でもある。
また、ホワイトボード部20は、ホワイトボード制御部22により生成されたストロークデータを取得すると、データ管理部120に保存する。このときホワイトボード部20は、ストロークデータを例えばPDF(Portable Document Format)形式で保存する。そして、ホワイトボード部20は、取得したストロークデータをレンダリングすることにより、静止画(音)データとしてのフレームデータを生成する。この時、ホワイトボード部20は、既に取得しているコンテンツデータがあった場合、当該コンテンツデータに対して、操作データであるストロークデータを結合したレイアウトにして出力する。
また、ホワイトボード部20は、ユーザによる操作がページコマンド(ページの追加指示)であった場合、取得したページをデータ管理部120に保存する。また、ホワイトボード部20は、ユーザによる操作が画像コマンド(画像の追加指示)であった場合、取得した画像をデータ管理部120に保存する。
送信用FIFO24は、ホワイトボード部20で生成された静止画(音)データとしての各フレームデータを格納するバッファである。
時刻管理部25は、配信制御装置2独自の時刻Tを管理している。
時刻取得部26は、後述の通信端末5における時刻制御部56と連携して、時刻調整の処理を行う。具体的には、時刻取得部26は、時刻管理部25から配信制御装置2における時刻Tを示す時刻情報(T)を取得したり、送受信部31及び送受信部51を介して、後述の時刻制御部56から通信端末5における時刻tを示す時刻情報(t)を受信したり、時刻制御部56に時刻情報(t)及び時刻情報(T)を送信する。
回線適応制御部27は、送信遅延時間情報(D)に基づいて、再生遅延時間Uを計算したり、エンコーダブリッジ部30における変換部10のフレームレートやデータの解像度等の動作条件を計算したりする。この再生遅延時間Uは、再生までにデータがバッファリングされることで、再生を遅延させるための時間である。つまり、回線適応制御部27は、送信遅延時間情報(D)とデータのサイズ(ビット数やバイト数等)に基づき、エンコーダブリッジ部30の動作を変更する。この送信遅延時間情報(D)は、通信端末5における遅延情報取得部57が再生制御部53から取得した複数の送信遅延時間D1によって構成された度数分布情報を示す。各送信遅延時間D1は、映像(音)データが配信制御装置2によって送信されてから通信端末5によって受信されるまでの時間を示す。
エンコーダブリッジ部30は、ホワイトボード部20が生成した静止画(音)データとしての各フレームデータを、エンコーダブリッジ部30における変換部10(図8参照)に出力する。この際、変換部10は、回線適応制御部27で計算された動作条件を考慮して各処理を行なう。エンコーダブリッジ部30については、図8及び図9を用いて、更に詳細に説明する。図8は、エンコーダブリッジ部の詳細図である。また、図9は、変換部の各機能を示す機能ブロック図である。
図8に示されているように、エンコーダブリッジ部30は、作成・選択・転送部310、及び選択部320と、これらの間に複数の変換部(10a,10b,10c)が構築されている。ここでは、3つの変換部を示したが、いくつであってもよい。以下、任意の変換部を「変換部10」として表す。
更に、変換部10は、ホワイトボード部20によって生成された静止画(音)データとしての各フレームデータのデータ形式を、通信ネットワーク9を介して通信端末5に配信できるH.264等のデータ形式に変換する。そのため、変換部10は、図9に示されているように、トリミング部11、リサイズ部12、分割部13、及びエンコード部19を有することで、フレームデータに各種処理を施す。トリミング部11、リサイズ部12、及び分割部13は、音データの場合は、処理を行わない。
このうち、トリミング部11は、静止画の一部だけを切り出す処理を行う。リサイズ部12は、静止画の縮尺を変更する。分割部13は、図4に示されているように、静止画を分割する。
また、エンコード部19は、ホワイトボード部20で生成された、静止画(音)データとしての各フレームデータをエンコードすることにより、通信ネットワーク9を介して通信端末5に映像(音)データを配信できるように変換する。また、エンコード部19は、映像が動かなければ(フレーム間で更新(変化)がなければ)、以降、映像が動くまでスキップフレーム(「フレームスキップ」ともいう)データを挿入することで帯域をセーブする。
なお、レンダリングにより静止画データと共に音データが生成される場合には、これら両方のデータがエンコードされるが、音データだけが生成される場合には、トリミングやリサイズ、分割は行われることはなく、エンコードだけが行われてデータ圧縮される。
また、作成・選択・転送部310は、新たに変換部10を作成したり、既に作成されている変換部10に対して入力させる静止画(音)データとしてのフレームデータを選択したり、変換部10にフレームデータを転送したりする。作成する場合としては、作成・選択・転送部310は、通信端末5における映像(音)データの再生能力に応じた変換が可能な変換部10を作成する。また、選択する場合としては、作成・選択・転送部310は、既に作成されている変換部10を選択する。例えば、通信端末5aへの配信に加えて通信端末5bへの配信を開始するにあたって、通信端末5aへ配信している映像(音)データと同じ映像(音)データを通信端末5bへ配信する場合がある。このような場合で、更に、通信端末5bが通信端末5aにおける映像(音)データの再生能力と同じ再生能力を有する場合には、作成・選択・転送部310は通信端末5b用に新たな変換部10bを作成せずに、通信端末5a用に既に作成している変換部10aを利用する。また、転送する場合としては、作成・選択・転送部310は、送信用FIFO24に記憶されているフレームデータを、変換部10に転送する。
一方、選択部320は、既に作成されている変換部10から所望のものを選択する。これら作成・選択・転送部310と選択部320による選択によって、図5に示したような様々なパターンの配信を行うことができる。
図7に戻り、送受信部31は、通信端末5との間で、各種データや要求等の送受信を行う。この送受信部31が、クラウド上から通信ネットワーク9を介して通信端末5に各種データや要求等を送信することで、配信制御装置2は通信端末5に対して、各種データや要求等を配信することができる。
例えば、送受信部31は、通信端末5のログイン処理において、通信端末5の送受信部51に対し、ユーザにログイン要求を促すための認証画面データを送信する。また、送受信部31は、通信端末5から、ユーザによる操作を示す操作データを受信する。さらに、送受信部31は、変換部10によって静止画(音)データとしての各フレームデータが通信ネットワーク9を介して通信端末5に配信可能なデータ形式に変換されたフレームデータ(変換映像データ)を通信端末5に送信する。送受信部31が、受信部と送信部に相当する。
その他に、送受信部31は、HTTPS(Hypertext Transfer Protocol over Secure Socket Layer)サーバを介して配信システム1独自のプロトコルにより、通信端末5のユーザアプリや通信端末5のデバイスアプリへのデータ送信およびデータ受信を行う。この独自のプロトコルは、配信制御装置2と通信端末との間でリアルタイムに途切れることなくデータを送受信するためのHTTPSベースのアプリケーション層プロトコルである。また、送受信部31は、送信レスポンス制御、リアルタイムのデータ作成、コマンド送信、受信レスポンス制御、受信データ分析、及びジェスチャ変換を行う。
このうち、送信レスポンス制御は、配信制御装置2から通信端末5にデータを送信するために、通信端末5からリクエスト(要求)されたダウンロード用のHTTPSセッションを管理する処理である。このダウンロード用のHTTPSセッションのレスポンスはすぐに終了せず、一定時間(1〜数分)保持する。送受信部31は、通信端末5に送るデータを動的にレスポンスのBody部に書き込む。また、再接続のコストをなくすため、通信端末5からは前のセッションが終了しないうちに別のリクエストが届くようにする。送受信部31を、前のリクエストが完了するまで待機させておくようにすることで、再接続を行っても、オーバヘッドを削除することができる。
リアルタイムのデータ作成は、図9におけるエンコード部19で生成された圧縮映像(および圧縮音)のデータに独自のヘッダを付与して、HTTPSのBody部に書き込む処理である。
コマンド送信は、通信端末5に送信するコマンドデータを生成し、通信端末5へのHTTPSのBody部に書き込む処理である。
受信レスポンス制御は、配信制御装置2が通信端末5からデータを受信するために、通信端末5からリクエストされたHTTPSセッションを管理する処理である。このHTTPSセッションのレスポンスはすぐに終了せず、一定時間(1〜数分)保持される。通信端末5は、配信制御装置2の送受信部31に送るデータを動的にリクエストのBody部に書き込む。
受信データ分析は、通信端末5から送られてきたデータを種別ごとに分析し、必要なプロセスにデータを渡す処理である。
ジェスチャ変換は、ユーザが電子黒板としての通信端末5fに電子ペンや手書きにより入力したジェスチャイベントを、ホワイトボード部20が受け取れる形式のデータに変換する処理である。
また、受信用FIFO34は、デコード部40でデコードされた後の映像(音)データを格納するバッファである。
認識部35は、通信端末5から受信する画像(音)データに対しての処理を行う。具体的には、認識部35は、例えば、サイネージ向けにカメラ62で撮影された画像から人や動物の顔、年齢、及び性別などを認識する。また、認識部35は、オフィス向けに、カメラ62で撮影された画像から顔認識による名前タグ付けや背景画像の差し替え処理などを行う。認識部35は、認識した内容を示す認識情報を記憶部2000に記憶させる。この認識部35は、認識拡張ボードで処理を行うことで高速化が実現される。
遅延情報取得部37aは、下り用の回線適応制御の処理に用いられる通信端末5側の遅延情報取得部57に対応して、上り用の回線適応制御の処理に用いられる。具体的には、遅延情報取得部37aは、デコード部40から送信遅延時間d1を示す送信遅延時間情報(d1)を取得して一定時間保持しておき、複数の送信遅延時間情報(d1)を取得したところで、回線適応制御部37bに、複数の送信遅延時間d1による度数分布情報を示す送信遅延時間情報(d)を出力する。送信遅延時間情報(d1)は、映像(音)データが通信端末5によって送信されてから配信制御装置2によって受信されるまでの時間を示す。
回線適応制御部37bは、下り用の回線適応制御の処理に用いられる回線適応制御部27に対応して、上り用の回線適応制御の処理に用いられる。具体的には、回線適応制御部37bは、送信遅延時間情報(d)に基づいて、通信端末5側のエンコード部60の動作条件を計算する。また、回線適応制御部37bは、送受信部31及び送受信部51を介して通信端末5のエンコード部60に、フレームレートやデータの解像度等の動作条件を示す回線適応制御信号を送信する。
デコード部40は、通信端末5から送信されて来た映像(音)データをデコードする。また、デコード部40は、送信遅延時間d1を示す送信遅延時間情報(d1)を遅延情報取得部37aに出力する。
(通信端末の機能構成)
次に、図10を用いて、通信端末5の機能構成について説明する。図10は、実施形態にかかる通信端末の各機能を示す機能ブロック図である。通信端末5は、ユーザが配信システム1へのログインや映像(音)データの配信の開始又は停止などを行うためのインターフェースとなる端末である。
図10に示されているように、通信端末5は、図6に示されているCPU201等のハードウェア構成及びプログラムによって、図10に示されている各機能構成を有する。ドングルを差し込まれることで通信端末5が通信ネットワーク9を介して他の端末やシステムと通信可能となる場合には、図6に示されているハードウェア構成及びプログラムによって、図10に示されている各機能構成を有する。
具体的に、通信端末5は、デコード部50、送受信部51、操作部52、再生制御部53、レンダリング部55、時刻制御部56、遅延情報取得部57、表示部58、及びエンコード部60を有している。更に、通信端末5は、図6に示されているRAM203によって構築される記憶部5000を有している。この記憶部5000には、後述の時刻差Δを示す時刻差情報(Δ)、及び通信端末5における時刻tを示す時刻情報(t)が記憶される。
このうち、デコード部50は、配信制御装置2から配信され、再生制御部53から出力された映像(音)データをデコードする。デコードした映像(音)データに音声が含まれている場合は、スピーカ61により出力する。
送受信部51は、配信制御装置2の送受信部31、及び端末管理装置7との間で、各種データや要求等の送受信を行う。例えば、送受信部51は、通信端末5のログイン処理において、操作部52による通信端末5の起動に基づき、端末管理装置7にログイン要求を行う。
操作部52は、ユーザの操作入力を受け付ける処理を行い、例えば、電源スイッチ、キーボード、マウス、電子ペンP等による入力や選択等を受け付け、操作データとして配信制御装置2のホワイトボード制御部22に送信する。
再生制御部53は、送受信部51から受けた映像(音)データ(リアルタイムデータのパケット)をバッファリングし、再生遅延時間Uを考慮してデコード部50に出力する。また、再生制御部53は、送信遅延時間D1を示す送信遅延時間情報(D1)を算出し、遅延情報取得部57に出力する。
レンダリング部55は、デコード部50によってデコードされたデータをレンダリングする。
時刻制御部56は、配信制御装置2の時刻取得部26と連携して、時刻調整の処理を行う。具体的には、時刻制御部56は、記憶部5000から通信端末5における時刻tを示す時刻情報(t)を取得する。また、時刻制御部56は、送受信部51及び送受信部31を介して、配信制御装置2の時刻取得部26に、配信制御装置2における時刻Tを示す時刻情報(T)を要求する。この場合、時刻情報(T)の要求と共に、時刻情報(t)が送信される。
遅延情報取得部57は、再生制御部53から送信遅延時間D1を示す送信遅延時間情報(D1)を取得して一定時間保持しておき、複数の送信遅延時間情報(D1)を取得したところで、送受信部51及び送受信部31を介して回線適応制御部27に、複数の送信遅延時間D1による度数分布情報を示す送信遅延時間情報(D)を送信する。送信遅延時間情報(D)は、例えば、100フレームに1回送信される。
表示部58は、レンダリング部55によってレンダリングされたデータを再生する。
エンコード部60は、内蔵されたマイク213や、外付けのカメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、同じく記憶部5000から取得した時刻差Δを示す時刻差情報(Δ)を、送受信部51及び送受信部31を介して、配信制御装置2のデコード部40に送信する。時刻差Δとは、配信制御装置2独自で管理されている時刻と通信端末5独自で管理されている時刻との差である。
また、エンコード部60は、回線適応制御部37bから受信した回線適応制御信号で示される動作条件に基づいて、エンコード部60の動作条件を変更する。更に、エンコード部60は、新たな動作条件に従って、カメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕と、記憶部5000から取得した現時点の通信端末5における時刻t0を示す時刻情報(t0)と、記憶部5000から取得した時刻差Δを示す時刻差情報(Δ)とを、送受信部51及び送受信部31を介して、配信制御装置2のデコード部40に送信する。
なお、内蔵されたマイク213、外付けのカメラ62及びマイク63等は、入力手段の一例であり、エンコードやデコードが必要な各種デバイスである。入力手段は、映像(音)データの他に、触覚(touch)データや嗅覚(smell)データを出力することができてもよい。入力手段には、温度センサ、方位センサ、加速度センサ等の各種センサも含まれる。
<動作または処理>
続いて、図11〜14を用いて、本実施形態の動作または処理について説明する。これらの処理は、配信制御装置2、通信端末5、及び端末管理装置7における各CPUが、それぞれに格納されているプログラムに従って実行される処理である。
(基本的な配信処理)
まず、図11を用いて、図2に示されている基本的な配信方法における具体的な配信処理を説明する。図11は、実施形態にかかる配信制御装置の基本的な配信処理を示したシーケンス図である。ここでは、通信端末5aを用いてログイン要求する場合について説明するが、通信端末5a以外の通信端末5を用いてログインしてもよい。
図11に示されているように、通信端末5aにおいてユーザが電源オンにすると、通信端末5aの送受信部51は、端末管理装置7にログイン要求する(ステップS22)。これにより、端末管理装置7は、ログイン要求を受信し、通信端末5aの認証を行う(ステップS24)。ここでは、通信端末5aが配信システム1における正当な端末であると認証された場合について、以下に続けて説明する。
端末管理装置7は、通信端末5aの送受信部51に、配信制御装置2のIPアドレスを送信する(ステップS26)。配信制御装置2のIPアドレスは、予め、端末管理装置7によって配信制御装置2から取得されて記憶されている。
次に、端末管理装置7は、配信制御装置2の送受信部21に、配信処理の開始要求を行う(ステップS28)。これにより、送受信部21は、配信制御装置処理の開始要求を受信する。そして、ホワイトボード制御部22は、送受信部21によって受信された開始要求に基づいて、ホワイトボード部20を制御する。
次に、エンコーダブリッジ部30の作成・選択・転送部310は、通信端末5aの再生能力(ディスプレイの解像度等)及びコンテンツの種類に従って変換部10を作成する(ステップS30)。次に、送受信部21は、ホワイトボード部20の命令に従い、任意の通信端末からコンテンツデータ〔A〕を取得する(ステップS32)。
次に、ホワイトボード部20が、送受信部21によって取得されたコンテンツデータ〔A〕をレンダリングすることにより、静止画(音)データとしての各フレームデータを生成して、送信用FIFO24に出力する(ステップS34)。そして、変換部10が、送信用FIFO24に格納された各フレームデータをエンコードすることで、通信端末5aに配信すべき映像(音)データ〔A〕に変換する(ステップS36)。
次に、送受信部31は、通信端末5aの送受信部51に映像(音)データ〔A〕を送信する(ステップS38)。これにより、通信端末5aの送受信部51は、映像(音)データ〔A〕を受信して、再生制御部53に出力する。
次に、通信端末5aでは、デコード部50が再生制御部53から映像(音)データ〔A〕を取得してデコードする(ステップS40)。その後、スピーカ61は、デコードされた音データ〔A〕に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ〔A〕に基づいて映像を再生する(ステップS42)。
(複数の通信端末を使った複合配信の処理)
次に、図12を用いて、配信制御装置を介して複数の通信端末を使った通信の処理を説明する。図12は、実施形態にかかる配信制御装置を介して複数の通信端末を使った配信の処理を示すシーケンス図である。ここでは、複数の通信端末5として、図5に示されているパターンについて具体的な処理を説明する。図12では、図11におけるステップS22〜S30と同様のログイン処理、開始要求、及び変換部の作成を行った後の処理とする。
通信端末5f1のエンコード部60が、カメラ62及びマイク63から映像(音)データ〔E〕としてのコンテンツデータの入力を受け付けると(ステップS52)、エンコード部60はコンテンツデータ〔E〕をエンコードする(ステップS54)。送受信部51は、エンコード部60によってエンコードされたコンテンツデータ〔E〕を、配信制御装置2の送受信部31に送信する(ステップS56)。これにより、配信制御装置2の送受信部31は、コンテンツデータ〔E〕を受信する。
次に、配信制御装置2のデコード部40は、送受信部31によって受信されたコンテンツデータ〔E〕をデコードして、受信用FIFO34に出力する(ステップS58)。そして、ホワイトボード部20が、受信用FIFO34に格納されたコンテンツデータ〔E〕をレンダリングすることにより、静止画(音)データとしてのフレームデータ〔E〕を生成して、送信用FIFO24に出力する(ステップS60)。この場合、ホワイトボード部20は、既に取得しているコンテンツデータがあった場合、コンテンツデータ〔E〕を結合したレイアウトにして出力する。
更に、通信端末5f1の操作部52が、電子ペンP1によるストローク操作の入力を受け付けると(ステップS62)、送受信部51は、操作部52によって受け付けられたストローク操作の内容を示す操作データ〔p〕を、配信制御装置2の送受信部31に送信する(ステップS64)。これにより、配信制御装置2の送受信部31は、操作データ〔p〕を受信する。そして、ホワイトボード制御部22は、送受信部31によって受信された操作データ〔p〕をホワイトボード部20に出力する。
次に、ホワイトボード部20は、操作データ〔p〕をレンダリングすることにより、静止画(音)データとしてのフレームデータ〔p〕を生成して、送信用FIFO24に出力する(ステップS66)。この場合、ホワイトボード部20は、既に取得しているコンテンツデータ〔E〕に対して、操作データ〔p〕を結合したレイアウトにして出力する。
次に、変換部10が、送信用FIFO24に格納された静止画(音)データとしての各フレームデータ(〔E〕,〔p〕)をエンコードすることで、通信端末5aに配信すべき映像(音)データ(〔E〕,〔p〕)に変換する(ステップS68)。
次に、送受信部31は、変換部10を含むエンコーダブリッジ部30からエンコード後の映像(音)データ(〔E〕,〔p〕)を取得し、通信端末5f1の送受信部51に送信する(ステップS70−1)。これにより、通信端末5f1の送受信部51は、映像(音)データ(〔E〕,〔p〕)を受信し、通信端末5f1の再生制御部53が送受信部51から映像(音)データ(〔E〕,〔p〕)を取得する。
そして、通信端末5f1では、デコード部50が再生制御部53から映像(音)データ(〔E〕,〔p〕)を取得してデコードする(ステップS72−1)。その後、スピーカ61は、デコードされた音データ〔E〕に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ(〔E〕,〔p〕)に基づいて映像を再生する(ステップS74−1)。
また、通信端末5f2に対しても、ステップS70−1と同様に、送受信部31は、エンコーダブリッジ部30からエンコード後の映像(音)データ(〔E〕,〔p〕)を取得し、通信端末5f2の送受信部51に送信する(ステップS70−2)。これにより、通信端末5f2の再生制御部53が映像(音)データ(〔E〕,〔p〕)を取得する。
そして、通信端末5f2では、デコード部50が再生制御部53から映像(音)データ(〔E〕,〔p〕)を取得してデコードする(ステップS72−2)。その後、スピーカ61は、デコードされた音データ〔E〕に基づいて音を再生すると共に、表示部58は、レンダリング部55によってデコード部50から取得されてレンダリングされた映像データ(〔E〕,〔p〕)に基づいて映像を再生する(ステップS74−2)。
以上より、通信端末5f1で出力される映像(音)と同じ映像(音)が、通信端末5f2でも出力されることになる。
次に、図12のステップS66におけるホワイトボード部20のレンダリング処理の詳細について説明する。図13は、本実施形態の配信制御装置のホワイトボード部によるレンダリング処理の流れを示すフローチャートである。
まず、ホワイトボード制御部22は、送受信部31によって受信したデータが操作データ〔p〕であるか否かを判断する(ステップS82)。受信したデータが操作データでなかった場合(ステップS82:No)、すなわちコンテンツデータ〔E〕であった場合、ホワイトボード部20は、コンテンツデータ〔E〕をレンダリングする(ステップS84)。この処理が図12におけるステップS60のレンダリング処理となる。
一方、受信したデータが操作データであった場合(ステップS82:Yes)、ホワイトボード制御部22は、操作データに含まれるコマンドがストロークコマンドか否かを判断する(ステップS86)。操作データに含まれるコマンドがストロークコマンドであった場合(ステップS86:Yes)、ホワイトボード制御部22は、マウスアップイベントを受信したか否かを判断する(ステップS88)。
マウスアップイベントを受信していない場合(ステップS88:No)、ホワイトボード制御部22は、送信IDとともに操作データに含まれる座標を座標蓄積部122に保存する(ステップS90)。送信IDとは、スクロールコマンドを含む操作データを受信した際に付される識別番号である。
ここで、座標蓄積部122には、図14に示すように、操作データに含まれる色、太さのようなメタストローク情報を蓄積してもよい。また、座標はX,Y座標に加え、時刻や圧力の情報を含んで構成してもよい。以下では、ストロークデータはメタストローク情報と座標列とから生成されているものとする。
一方、ステップS88において、マウスアップイベントを受信した場合(ステップS88:Yes)、ホワイトボード制御部22は、座標蓄積部122に送信IDに関連する座標が蓄積されているか否かを判断する(ステップS92)。座標蓄積部122に送信IDに関連する座標が蓄積されていない場合(ステップS92:No)、何もせず処理を終了する。
一方、座標蓄積部122に送信IDに関する座標が蓄積されている場合(ステップS92:Yes)、ホワイトボード制御部22は、座標蓄積部122に蓄積されている全ての座標を取り出し、取り出した全ての座標からストロークを示すストロークデータを生成する(ステップS94)。なお、ホワイトボード制御部22は、取り出した座標は座標蓄積部122から削除する。
次に、ホワイトボード制御部22は、生成したストロークデータをホワイトボード部20に出力する(ステップS96)。ホワイトボード部20は、取得したストロークデータをデータ管理部120に保存する(ステップS98)。そして、ホワイトボード部20は、取得したストロークデータをレンダリングする(ステップS84)。
ステップS86において、操作データに含まれるコマンドがストロークコマンドでなかった場合(ステップS86:No)、ホワイトボード制御部22は、操作データに含まれるコマンドがページコマンドか否かを判断する(ステップS100)。
操作データに含まれるコマンドがページコマンドであった場合(ステップS100:Yes)、ホワイトボード制御部22は、追加ページをホワイトボード部20に出力する(ステップS102)。ホワイトボード部20は、取得したページをデータ管理部120に保存し(ステップS104)、レンダリングする(ステップS84)。
一方、操作データに含まれるコマンドがページコマンドでなかった場合(ステップS100:No)、ホワイトボード制御部22は、操作データに含まれるコマンドが画像コマンドか否かを判断する(ステップS106)。
操作データに含まれるコマンドが画像コマンドであった場合(ステップS106:Yes)、ホワイトボード制御部22は、追加画像をホワイトボード部20に出力する(ステップS108)。ホワイトボード部20は、取得した画像をデータ管理部120に保存し(ステップS110)、レンダリングする(ステップS84)。
一方、操作データに含まれるコマンドが画像コマンドでなかった場合(ステップS106:No)、ホワイトボード制御部22は、マウスイベントとしてホワイトボード部20に出力し(ステップS112)、ホワイトボード部20がレンダリングする(ステップS84)。なお、データ管理部120でのデータ登録時に、ホワイトボード部20は、全ページからPDFデータを生成し、バックアップデータとしてデータ管理部120に保存する。
ここで、通信端末5と配信制御装置2との間で行われる時刻調整の処理、下り用の回線適応制御の処理、上り用の回線適応制御の処理、および通信端末5と配信制御装置2と端末管理装置7との間で行われるマルチディスプレイの処理、各種フレームデータを生成する処理については、特開2014−200074号公報に詳細が開示されているため説明を省略する。
このように、本実施形態にかかる配信制御装置2では、通信端末5のディスプレイに入力された座標を保存し、蓄積した全ての座標からユーザからの操作によるストロークを示すストロークデータを生成する。そして、生成されたストロークデータを保存した上で、取得したストロークデータをレンダリングすることにより、静止画(音)データとしてのフレームデータを生成する。この時、既に取得しているコンテンツデータがあった場合、当該コンテンツデータに対して、操作データであるストロークデータを結合したレイアウトにして出力する。そして、静止画(音)データとしての各フレームデータを通信端末5に配信可能なデータ形式に変換されたフレームデータを通信端末5に送信すると、通信端末5のディスプレイに再生される。このように、フレームデータ(映像データ)の配信時におけるユーザによる操作入力を保存することで、フレームデータの配信後もストローク等の操作入力をディスプレイに表示でき、利便性を向上させる。
本実施形態の配信制御装置2で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態の配信制御装置2で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の配信制御装置2で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。また、本実施形態の配信制御装置2で実行さえるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
本実施形態の配信制御装置2で実行されるプログラムは、上述した各部(送受信部21、ホワイトボード制御部22、送信用FIFO24、時刻管理部25、時刻取得部26、回線適応制御部27、エンコーダブリッジ部30、送受信部31、受信用FIFO34、認識部35、遅延情報取得部37a、回線適応制御部37b、デコード部40)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上記各部が主記憶装置上に生成されるようになっている。また、例えば、上述した各部の機能のうちの一部または全部が専用のハードウェア回路で実現されてもよい。
1 配信システム
2 配信制御装置
5(5a、5b、5c、5d、5e、5f) 通信端末
7 端末管理装置
9 通信ネットワーク
10(10a、10b、10c) 変換部
11 トリミング部
12 リサイズ部
13 分割部
19 エンコード部
20 ホワイトボード部
21 送受信部
22 ホワイトボード制御部
24 送信用FIFO
25 時刻管理部
26 時刻取得部
27 回線適応制御部
30 エンコーダブリッジ部
31 送受信部
34 受信用FIFO
35 認識部
37a 遅延情報取得部
37b 回線適応制御部
40 デコード部
50 デコード部
51 送受信部
52 操作部
53 再生制御部
55 レンダリング部
56 時刻制御部
57 遅延情報取得部
58 表示部
60 エンコード部
61 スピーカ
62 カメラ
63 マイク
120 データ管理部
122 座標蓄積部
310 作成・選択・転送部
320 選択部
2000 記憶部
5000 記憶部
特許第5451397号公報

Claims (6)

  1. 通信端末とネットワークを介して接続される配信制御装置において、
    前記通信端末から、利用者による操作を示す操作データを受信する受信部と、
    前記操作がストロークの指示であった場合、前記操作データにおける前記通信端末に入力された座標を第1記憶部に保存し、保存された前記座標からストロークを示すストロークデータを生成するホワイトボード制御部と、
    生成された前記ストロークデータを第2記憶部に保存するとともに、前記ストロークをレンダリングして映像データを生成するホワイトボード部と、
    生成された前記映像データが配信可能なデータ形式に変換された変換映像データを前記通信端末に送信する送信部と、を備える配信制御装置。
  2. 前記ホワイトボード部は、前記操作がページの追加指示であった場合、追加された前記ページを前記第2記憶部に保存する、請求項1に記載の配信制御装置。
  3. 前記ホワイトボード部は、前記操作が画像の追加指示であった場合、追加された画像を前記第2記憶部に保存する、請求項1または2に記載の配信制御装置。
  4. 前記ホワイトボード部は、前記ストロークデータをPDF(Portable Document Format)形式で保存する、請求項1〜3のいずれか一つに記載の配信制御装置。
  5. 通信端末とネットワークを介して接続される配信制御装置で実行される配信制御方法において、
    前記通信端末から、利用者による操作を示す操作データを受信する受信ステップと、
    前記操作がストロークの指示であった場合、前記操作データにおける前記通信端末に入力された座標を第1記憶部に保存し、保存された前記座標からストロークを示すストロークデータを生成するホワイトボード制御ステップと、
    生成された前記ストロークデータを第2記憶部に保存するとともに、前記ストロークをレンダリングして映像データを生成するホワイトボードステップと、
    生成された前記映像データが配信可能なデータ形式に変換された変換映像データを前記通信端末に送信する送信ステップと、を含む配信制御方法。
  6. ネットワークを介して接続される通信端末から、利用者による操作を示す操作データを受信する受信ステップと、
    前記操作がストロークの指示であった場合、前記操作データにおける前記通信端末に入力された座標を第1記憶部に保存し、保存された前記座標からストロークを示すストロークデータを生成するホワイトボード制御ステップと、
    生成された前記ストロークデータを第2記憶部に保存するとともに、前記ストロークをレンダリングして映像データを生成するホワイトボードステップと、
    生成された前記映像データが配信可能なデータ形式に変換された変換映像データを前記通信端末に送信する送信ステップと、をコンピュータに実行させるためのプログラム。
JP2015018580A 2015-02-02 2015-02-02 配信制御装置、配信制御方法、及びプログラム Pending JP2016143236A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015018580A JP2016143236A (ja) 2015-02-02 2015-02-02 配信制御装置、配信制御方法、及びプログラム
US15/009,229 US9596435B2 (en) 2015-02-02 2016-01-28 Distribution control apparatus, distribution control method, and computer program product
EP16153260.1A EP3051806A1 (en) 2015-02-02 2016-01-29 Distribution control apparatus, distribution control method, and computer program product
CN201610068978.0A CN105847904B (zh) 2015-02-02 2016-02-01 分发控制设备和分发控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015018580A JP2016143236A (ja) 2015-02-02 2015-02-02 配信制御装置、配信制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2016143236A true JP2016143236A (ja) 2016-08-08

Family

ID=55588008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015018580A Pending JP2016143236A (ja) 2015-02-02 2015-02-02 配信制御装置、配信制御方法、及びプログラム

Country Status (4)

Country Link
US (1) US9596435B2 (ja)
EP (1) EP3051806A1 (ja)
JP (1) JP2016143236A (ja)
CN (1) CN105847904B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6471614B2 (ja) 2015-05-29 2019-02-20 株式会社リコー 通信端末、通信システム、通信制御方法、及びプログラム
JP6451846B2 (ja) * 2015-06-23 2019-01-16 株式会社リコー 通信システム、通信システムの制御方法、及びプログラム
JP6747025B2 (ja) * 2016-04-13 2020-08-26 セイコーエプソン株式会社 表示システム、表示装置、及び、表示システムの制御方法
CN109672940B (zh) * 2018-12-11 2021-10-01 北京砍石高科技有限公司 基于笔记内容的视频回放方法以及视频回放系统
CN110446002A (zh) * 2019-07-30 2019-11-12 视联动力信息技术股份有限公司 一种视频会议的处理方法、系统及装置和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031359A (ja) * 2004-07-15 2006-02-02 Ricoh Co Ltd 画面共有方法、及び会議支援システム
US20060092178A1 (en) * 2004-10-29 2006-05-04 Tanguay Donald O Jr Method and system for communicating through shared media
US20070216660A1 (en) * 2006-03-20 2007-09-20 Steve Sposato Methods and apparatus to implement electronic whiteboards
US20070222747A1 (en) * 2006-03-23 2007-09-27 International Business Machines Corporation Recognition and capture of whiteboard markups in relation to a projected image
US8806354B1 (en) * 2008-12-26 2014-08-12 Avaya Inc. Method and apparatus for implementing an electronic white board
JP2014174687A (ja) * 2013-03-07 2014-09-22 Ricoh Co Ltd 情報処理システム、情報登録方法、会議装置及びプログラム
JP2014200076A (ja) * 2013-03-15 2014-10-23 株式会社リコー 配信制御システム、配信制御方法、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100418157C (zh) * 2001-07-03 2008-09-10 旭联科技股份有限公司 影音视讯系统
JP4250884B2 (ja) * 2001-09-05 2009-04-08 パナソニック株式会社 電子黒板システム
US7262764B2 (en) * 2002-10-31 2007-08-28 Microsoft Corporation Universal computing device for surface applications
US8443398B2 (en) * 2006-11-01 2013-05-14 Skyfire Labs, Inc. Architecture for delivery of video content responsive to remote interaction
US9053455B2 (en) 2011-03-07 2015-06-09 Ricoh Company, Ltd. Providing position information in a collaborative environment
US9086798B2 (en) 2011-03-07 2015-07-21 Ricoh Company, Ltd. Associating information on a whiteboard with a user
JP5589909B2 (ja) 2011-03-14 2014-09-17 株式会社リコー 表示装置、表示装置のイベント切替え制御方法及びプログラム
JP6015086B2 (ja) 2012-04-17 2016-10-26 株式会社リコー 情報共有装置、情報共有システム、描画処理方法及びプログラム
JP2013228797A (ja) 2012-04-24 2013-11-07 Ricoh Co Ltd 画像制御装置、画像処理システムおよびプログラム
JP2014200074A (ja) 2013-03-15 2014-10-23 株式会社リコー 配信制御システム、配信制御方法、及びプログラム
JP6094550B2 (ja) 2013-09-17 2017-03-15 株式会社リコー 情報処理装置、プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031359A (ja) * 2004-07-15 2006-02-02 Ricoh Co Ltd 画面共有方法、及び会議支援システム
US20060092178A1 (en) * 2004-10-29 2006-05-04 Tanguay Donald O Jr Method and system for communicating through shared media
US20070216660A1 (en) * 2006-03-20 2007-09-20 Steve Sposato Methods and apparatus to implement electronic whiteboards
US20070222747A1 (en) * 2006-03-23 2007-09-27 International Business Machines Corporation Recognition and capture of whiteboard markups in relation to a projected image
US8806354B1 (en) * 2008-12-26 2014-08-12 Avaya Inc. Method and apparatus for implementing an electronic white board
JP2014174687A (ja) * 2013-03-07 2014-09-22 Ricoh Co Ltd 情報処理システム、情報登録方法、会議装置及びプログラム
JP2014200076A (ja) * 2013-03-15 2014-10-23 株式会社リコー 配信制御システム、配信制御方法、及びプログラム

Also Published As

Publication number Publication date
EP3051806A1 (en) 2016-08-03
CN105847904A (zh) 2016-08-10
CN105847904B (zh) 2019-06-07
US20160227170A1 (en) 2016-08-04
US9596435B2 (en) 2017-03-14

Similar Documents

Publication Publication Date Title
JP6326855B2 (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム
JPWO2016178365A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6354764B2 (ja) 配信管理装置、配信方法、及びプログラム
JP6337499B2 (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム
JP2014200076A (ja) 配信制御システム、配信制御方法、及びプログラム
JP6323048B2 (ja) 配信システム、配信方法、及びプログラム
JP6369043B2 (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム
JP6354195B2 (ja) 配信システム、配信方法、及びプログラム
US9723337B2 (en) Distribution control system and distribution system
JP2015156175A (ja) 配信制御システム、配信制御方法、及びプログラム
US9578079B2 (en) Distribution control system, distribution system, distribution control method, and computer-readable storage medium
JP2014200074A (ja) 配信制御システム、配信制御方法、及びプログラム
US9596435B2 (en) Distribution control apparatus, distribution control method, and computer program product
US20160014193A1 (en) Computer system, distribution control system, distribution control method, and computer-readable storage medium
US20150029196A1 (en) Distribution management apparatus
US9596282B2 (en) Delivery managing device, terminal, and delivery managing method
JP2015056046A (ja) 配信管理システム、配信システム、配信管理方法、及びプログラム
JP2016063247A (ja) 配信システム及び配信方法
JP2016015597A (ja) 配信制御システム、配信制御方法、及びプログラム
US9525901B2 (en) Distribution management apparatus for distributing data content to communication devices, distribution system, and distribution management method
JP6607298B2 (ja) 配信制御システム、配信制御方法、及びプログラム
JP6442832B2 (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム
JP2016058812A (ja) 配信制御システム、配信システム、配信制御システムの制御方法、及びプログラム
JP6387623B2 (ja) 配信制御システム
JP6375638B2 (ja) 配信制御システム、配信システム、配信制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190423