JP2015056844A - Communication terminal and communication method - Google Patents

Communication terminal and communication method Download PDF

Info

Publication number
JP2015056844A
JP2015056844A JP2013190422A JP2013190422A JP2015056844A JP 2015056844 A JP2015056844 A JP 2015056844A JP 2013190422 A JP2013190422 A JP 2013190422A JP 2013190422 A JP2013190422 A JP 2013190422A JP 2015056844 A JP2015056844 A JP 2015056844A
Authority
JP
Japan
Prior art keywords
communication terminal
unit
management system
data
distribution management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013190422A
Other languages
Japanese (ja)
Other versions
JP6248488B2 (en
Inventor
佳彦 下平
Yoshihiko Shimodaira
佳彦 下平
笠谷 潔
Kiyoshi Kasatani
潔 笠谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013190422A priority Critical patent/JP6248488B2/en
Publication of JP2015056844A publication Critical patent/JP2015056844A/en
Application granted granted Critical
Publication of JP6248488B2 publication Critical patent/JP6248488B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To locally display an image related to input stroke coordinates in real time even in a reproduction delay time until image data related to the stroke coordinates is distributed, after the input stroke coordinates are transmitted to a distribution management system.SOLUTION: A communication terminal connected to a distribution management system through a communication network has: a transmission/reception section 51 for transmitting the coordinates input by the communication terminal to the distribution management system through the communication network; and a stroke control section 550 and a rendering section 55 for displaying video data on the basis of the coordinates.

Description

本発明は、通信ネットワークを介してウェブコンテンツのデータを送受信する通信端末及び通信方法に関する。   The present invention relates to a communication terminal and a communication method for transmitting and receiving web content data via a communication network.

近年、インターネットの普及に伴い、様々な分野でクラウドコンピューティングが利用されてきている。クラウドコンピューティングを利用する形態としては、ユーザが、通信ネットワークに接続した通信端末を用いて通信ネットワーク上のサーバが提供するサービス(クラウドサービス)を利用するものがある。特に、離れた場所でクラウドコンピューティングを利用するシステムが注目されている。   In recent years, with the spread of the Internet, cloud computing has been used in various fields. As a form of using cloud computing, there is one in which a user uses a service (cloud service) provided by a server on a communication network using a communication terminal connected to the communication network. In particular, a system that uses cloud computing at a distant place is attracting attention.

例えば、複数の参加者がネットワーク上で協働的かつリアルタイムのミーティングで異なるタイプのメディアコンテンツを伝達及び共有できるマルチメディア会議システムが提案されている。この提案によれば、ホワイトボード(電子黒板)上のペンストロークのデジタルデータが、マルチメディア会議サーバを介して、遠隔地のユーザに配信して共有化を図ることができる(例えば、特許文献1参照)。   For example, multimedia conferencing systems have been proposed that allow multiple participants to communicate and share different types of media content in collaborative and real-time meetings over a network. According to this proposal, digital data of pen strokes on a whiteboard (electronic blackboard) can be distributed and shared to users at remote locations via a multimedia conference server (for example, Patent Document 1). reference).

このような従来の会議システムにおいては、ある通信端末(例えば、電子黒板)に入力された画像データは、サーバ等の配信管理システムに送信されて処理される。配信管理システムは、その画像データに対してデータ変換等の処理を施して、その送信元の通信端末及び他の通信端末に対して同時に配信する。送信元の通信端末及び他の通信端末は、配信管理システムから同時に配信された画像データを再生して各自の表示部に表示する。   In such a conventional conference system, image data input to a certain communication terminal (for example, an electronic blackboard) is transmitted to a distribution management system such as a server for processing. The distribution management system performs processing such as data conversion on the image data and distributes the image data simultaneously to the transmission source communication terminal and other communication terminals. The transmission source communication terminal and other communication terminals reproduce the image data simultaneously distributed from the distribution management system and display them on their respective display units.

しかしながら、画像データの送信元の通信端末は、入力された画像データを送信して、配信管理システムから配信された画像データを再生するまでの時間(これを「再生遅延時間」という)は、入力された画像データをリアルタイムで表示することができないという問題があった。   However, the communication terminal that is the transmission source of the image data transmits the input image data and the time required to reproduce the image data distributed from the distribution management system (this is referred to as “reproduction delay time”) There has been a problem that the processed image data cannot be displayed in real time.

特に、インターネット上で取り扱われるウェブコンテンツがリッチ化するに伴って、再生遅延時間が長くなるため、送信元の通信端末は、入力された画像データをリアルタイムで表示することができない時間も更に長くなってしまう。よって、ユーザの操作性が低下していた。   In particular, as the web content handled on the Internet becomes richer, the playback delay time becomes longer, so that the time during which the transmission source communication terminal cannot display the input image data in real time becomes even longer. End up. Therefore, the user operability has been reduced.

上述した課題を解決するために、本発明は、通信ネットワークを介して接続された通信端末であって、前記通信ネットワークを介して、前記通信端末に入力された座標を前記配信管理システムに送信する送信手段と、前記座標に基づく画像データを表示させる表示制御手段と、を有する。   In order to solve the above-described problem, the present invention is a communication terminal connected via a communication network, and transmits coordinates input to the communication terminal to the distribution management system via the communication network. A transmission unit; and a display control unit that displays image data based on the coordinates.

本発明によれば、通信端末は、入力された座標を送信手段によって配信管理システムに送信し、配信管理システムから配信された座標をリアルタイムで表示することができるので、ユーザの操作性が向上する。   According to the present invention, the communication terminal transmits the input coordinates to the distribution management system by the transmission unit, and can display the coordinates distributed from the distribution management system in real time, so that the operability for the user is improved. .

本発明の実施の形態に係る配信システムの概略図である。It is a schematic diagram of a distribution system concerning an embodiment of the invention. 図1の通信端末にドングルを取り付ける際のイメージ図である。It is an image figure at the time of attaching a dongle to the communication terminal of FIG. 図1の配信システムにおける基本的な配信方法を示した概念図である。It is the conceptual diagram which showed the basic delivery method in the delivery system of FIG. 実施の形態におけるマルチキャストの概念図である。It is a conceptual diagram of multicast in an embodiment. 実施の形態におけるマルチディスプレイの概念図である。It is a conceptual diagram of the multi-display in embodiment. 図1の配信管理システムを介して複数の通信端末を使った複合配信の概念図である。It is a conceptual diagram of the composite delivery using a some communication terminal via the delivery management system of FIG. 図1の配信管理システム、通信端末、端末管理システム、及びウェブサーバのハードウェア構成図である。It is a hardware block diagram of the delivery management system of FIG. 1, a communication terminal, a terminal management system, and a web server. 図2のドングルのハードウェア構成図である。It is a hardware block diagram of the dongle of FIG. 実施の形態における配信管理システムの各機能を示す機能ブロック図である。It is a functional block diagram which shows each function of the delivery management system in embodiment. 実施の形態における通信端末の各機能を示す機能ブロック図である。It is a functional block diagram which shows each function of the communication terminal in embodiment. 実施の形態における端末管理システムの各機能を示す機能ブロック図である。It is a functional block diagram which shows each function of the terminal management system in embodiment. 図11の配信先選択メニュー画面の概念図である。It is a conceptual diagram of the delivery destination selection menu screen of FIG. 図11の端末管理テーブルの概念図である。It is a conceptual diagram of the terminal management table of FIG. 図11の利用可能端末管理テーブルの概念図である。It is a conceptual diagram of the available terminal management table of FIG. 図9のエンコーダブリッジ部の詳細図である。FIG. 10 is a detailed view of the encoder bridge unit of FIG. 9. 図15の変換部の各機能を示す機能ブロック図である。It is a functional block diagram which shows each function of the conversion part of FIG. 図1の配信管理システムの基本的な配信処理を示したシーケンス図である。It is the sequence diagram which showed the basic delivery process of the delivery management system of FIG. 図1の配信管理システムを介して複数の通信端末を使った通信の処理を示すシーケンス図である。It is a sequence diagram which shows the process of the communication using a some communication terminal via the delivery management system of FIG. 実施の形態における時刻調整の処理を示したシーケンス図である。It is the sequence diagram which showed the process of the time adjustment in embodiment. 実施の形態における配信管理システムから通信端末に送信するデータの回線適応制御の処理を示したシーケンス図である。It is the sequence diagram which showed the process of the channel | line adaptive control of the data transmitted to the communication terminal from the delivery management system in embodiment. 実施の形態における通信端末から配信管理システムに送信するデータの回線適応制御の処理を示したシーケンス図である。It is the sequence figure which showed the process of the line adaptive control of the data transmitted to the delivery management system from the communication terminal in embodiment. 実施の形態におけるマルチディスプレイの処理を示すシーケンス図である。It is a sequence diagram which shows the process of the multi display in embodiment. 実施の形態におけるマルチディスプレイの処理を示す他のシーケンス図である。It is another sequence diagram which shows the process of the multi display in embodiment. 実施の形態におけるマルチディスプレイの処理を示す更に他のシーケンス図である。FIG. 10 is still another sequence diagram showing multi-display processing in the embodiment.

以下に図面を用いて、本発明の第1及び第2の実施の形態に係る配信システムを詳細に説明する。第1の実施の形態は、クラウドコンピューティングを利用してウェブコンテンツを映像データ、音データ、又は映像データ及び音データ等に変換してパソコンや電子黒板等の通信端末に配信する配信システムとしての適用例である。なお、以下、映像及び音のうち少なくとも一方を示す場合には、「映像(音)」として表す。   Hereinafter, the distribution system according to the first and second embodiments of the present invention will be described in detail with reference to the drawings. The first embodiment is a distribution system that uses cloud computing to convert web content into video data, sound data, or video data and sound data, and distributes them to communication terminals such as personal computers and electronic blackboards. This is an application example. Hereinafter, when at least one of video and sound is shown, it is expressed as “video (sound)”.

また、第2の実施の形態は、パソコン、電子黒板、タブレット端末、多機能情報処理装置(MFP)その他の通信端末に対して、特に電子ペン、手書き操作その他によって入力されたストローク座標を処理する配信システムとしての適用例である。   In the second embodiment, stroke coordinates input by an electronic pen, handwriting operation, and the like are processed with respect to a personal computer, an electronic blackboard, a tablet terminal, a multi-function information processing apparatus (MFP) and other communication terminals. It is an application example as a delivery system.

〔第1の実施の形態の概略〕
まずは、図1を用いて、本発明の第1の実施の形態の概略を説明する。図1は、本実施の形態に係る配信システムの概略図である。
[Outline of First Embodiment]
First, the outline of the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a schematic diagram of a distribution system according to the present embodiment.

<システム構成の概略>
まず、配信システム1の構成の概略について説明する。
<Outline of system configuration>
First, an outline of the configuration of the distribution system 1 will be described.

図1に示されているように、本実施の形態の配信システム1は、配信管理システム2、複数の通信端末(5a〜5f)、端末管理システム7、及びウェブサーバ8によって構築されている。なお、以下では、複数の通信端末(5a〜5f)のうち、任意の通信端末は「通信端末5」として表される。また、配信管理システム2、端末管理システム7、及びウェブサーバ8は、いずれもサーバコンピュータによって構築されている。   As shown in FIG. 1, the distribution system 1 of the present embodiment is constructed by a distribution management system 2, a plurality of communication terminals (5 a to 5 f), a terminal management system 7, and a web server 8. In the following, an arbitrary communication terminal among the plurality of communication terminals (5a to 5f) is represented as “communication terminal 5”. The distribution management system 2, the terminal management system 7, and the web server 8 are all constructed by a server computer.

通信端末5は、配信システム1のサービスを受けるユーザが使用する端末である。このうち、通信端末5aは、ノートPCである。通信端末5bは、スマートフォンやタブレット端末等のモバイル端末である。通信端末5cは、コピー、スキャン、プリント、及びファックスの各機能が複合された多機能情報処理装置(MFP)である。   The communication terminal 5 is a terminal used by a user who receives the service of the distribution system 1. Among these, the communication terminal 5a is a notebook PC. The communication terminal 5b is a mobile terminal such as a smartphone or a tablet terminal. The communication terminal 5c is a multi-function information processing apparatus (MFP) in which copy, scan, print, and fax functions are combined.

通信端末5dは、プロジェクタである。通信端末5eは、カメラ、マイク及びスピーカを備えたテレビ(ビデオ)会議端末である。通信端末5fは、ユーザ等によって描かれた内容を電子的に変換することが可能な電子黒板(ホワイトボード)である。   The communication terminal 5d is a projector. The communication terminal 5e is a television (video) conference terminal provided with a camera, a microphone, and a speaker. The communication terminal 5f is an electronic blackboard (whiteboard) capable of electronically converting content drawn by a user or the like.

なお、通信端末5は、図1に示されているような端末だけでなく、腕時計、自動販売機、ガスメータ、カーナビゲーション装置、ゲーム機、エアコン、照明器具、カメラ単体、マイク単体、スピーカ単体等であってもよい。   The communication terminal 5 is not only a terminal as shown in FIG. 1, but also a wristwatch, a vending machine, a gas meter, a car navigation device, a game machine, an air conditioner, a lighting fixture, a camera alone, a microphone alone, a speaker alone, etc. It may be.

また、配信管理システム2、通信端末5、端末管理システム7、及びウェブサーバ8は、インターネットやLAN等の通信ネットワーク9によって通信することができる。この通信ネットワーク9には、3G、WiMAX(登録商標)、LTE(登録商標)等の無線通信によるネットワークも含まれる。   The distribution management system 2, the communication terminal 5, the terminal management system 7, and the web server 8 can communicate with each other via a communication network 9 such as the Internet or a LAN. The communication network 9 includes a network by wireless communication such as 3G, WiMAX (registered trademark), LTE (registered trademark).

なお、通信端末5によっては、通信端末5d等のように、通信ネットワーク9を介して他の端末やシステムと通信する機能を有していないものがある。図2は、通信端末にドングルを取り付ける際のイメージ図である。しかし、図2に示すように、ユーザが通信端末5dのUSBやHDMI(登録商標)(High−Definition Multimedia Interface)のインターフェース部にドングル99を差し込むことで、通信端末5は通信ネットワーク9を介して他の端末やシステムと通信可能になる。   Some communication terminals 5, such as the communication terminal 5d, do not have a function of communicating with other terminals or systems via the communication network 9. FIG. 2 is an image diagram when a dongle is attached to the communication terminal. However, as shown in FIG. 2, when the user inserts the dongle 99 into the interface of the USB or HDMI (registered trademark) (High-Definition Multimedia Interface) of the communication terminal 5 d, the communication terminal 5 passes through the communication network 9. Communication with other terminals and systems becomes possible.

更に、配信管理システム2は、クラウド上に存在するウェブブラウザとしての、いわゆるクラウドブラウザ(以下、「ブラウザ」と示す)20を有する。これにより、配信管理システム2は、クラウド上でウェブコンテンツをレンダリングし、これにより得られたH.264(動画圧縮符号化方式)やMPEG−4(携帯端末用の動画圧縮符号化方式)等の映像(音)データを通信端末5に配信する。   Further, the distribution management system 2 includes a so-called cloud browser (hereinafter referred to as “browser”) 20 as a web browser existing on the cloud. Thereby, the distribution management system 2 renders the web content on the cloud, and the H.264 obtained by this rendering. Video (sound) data such as H.264 (moving picture compression coding method) and MPEG-4 (moving picture compression coding method for portable terminals) is distributed to the communication terminal 5.

一方、端末管理システム7は、管理サーバとしての機能を有する。端末管理システム7は、通信端末5のログイン認証を行い、通信端末5の契約情報等の管理を行ったりする。また、端末管理システム7は、電子メールを送信するためのSMTPサーバの機能を有している。   On the other hand, the terminal management system 7 has a function as a management server. The terminal management system 7 performs login authentication of the communication terminal 5 and manages contract information and the like of the communication terminal 5. Further, the terminal management system 7 has a function of an SMTP server for transmitting electronic mail.

端末管理システム7は、例えば、クラウドのサービス上に展開される仮想マシンとして実現することができる。端末管理システム7は、不測の事態に対応して継続的なサービス提供を行うために、多重化して運用することが望ましい。   The terminal management system 7 can be realized as a virtual machine deployed on a cloud service, for example. The terminal management system 7 is desirably operated in a multiplexed manner in order to provide a continuous service in response to an unexpected situation.

また、ブラウザ20は、リアルタイムコミュニケーション(RTC)を可能にしている。更に、後述の図16におけるエンコード部19を有しており、このエンコード部19は、ブラウザ20によって生成された映像(音)データに対して、リアルタイムのエンコード(符号化)を行うことができる。   The browser 20 enables real-time communication (RTC). Furthermore, it has the encoding part 19 in FIG. 16 mentioned later, This encoding part 19 can perform real time encoding (encoding) with respect to the image | video (sound) data produced | generated by the browser 20. FIG.

そのため、配信管理システム2の処理は、DVDプレーヤによって、DVDに記録されているリアルタイム性のない映像(音)データを読み出して配信する場合等とは異なる。   Therefore, the processing of the distribution management system 2 is different from the case where video (sound) data having no real-time property recorded on a DVD is read and distributed by a DVD player.

<各種配信方法の概略>
続いて、各種配信方法の概略について説明する。
<Outline of various delivery methods>
Next, an outline of various delivery methods will be described.

(基本配信)
図3は、基本的な配信方法を示した概念図である。配信システム1では、図3に示されているように、配信管理システム2のブラウザ20がウェブサーバ8からウェブコンテンツデータ〔A〕を取得する。ブラウザ20は、取得したウェブコンテンツデータ〔A〕をレンダリングすることにより、映像(音)データ〔A〕を生成する。
(Basic delivery)
FIG. 3 is a conceptual diagram showing a basic distribution method. In the distribution system 1, as shown in FIG. 3, the browser 20 of the distribution management system 2 acquires web content data [A] from the web server 8. The browser 20 renders the acquired web content data [A] to generate video (sound) data [A].

そして、エンコーダブリッジ部30が、映像(音)データ〔A〕をエンコード等して、通信端末5に配信する。これにより、例えHTMLやCSS(Cascading Style Sheets)等により作成されたウェブコンテンツがリッチであっても、H.264やMPEG−4等の映像(音)データとして配信される。したがって、通信端末5が低スペックであってもスムーズに映像(音)を再生することが可能になる。   Then, the encoder bridge unit 30 encodes the video (sound) data [A] and distributes it to the communication terminal 5. Thereby, even if the web content created by HTML, CSS (Cascading Style Sheets) or the like is rich, It is distributed as video (sound) data such as H.264 and MPEG-4. Therefore, even if the communication terminal 5 has low specifications, it is possible to smoothly reproduce the video (sound).

また、本実施の形態の配信管理システム2では、ブラウザ20が最新化されているので、ローカルとしての通信端末5にコンテンツを提供するブラウザを最新化しなくても、最新のリッチなウェブコンテンツをスムーズに再生することが可能となる。   In the distribution management system 2 of the present embodiment, since the browser 20 is updated, the latest rich web content can be smoothly updated without updating the browser that provides the content to the communication terminal 5 as a local. It is possible to play back.

また、配信システム1は、上述の配信方法を応用し、図4乃至図6に示されているように、複数のウェブコンテンツを連動させ、複数の拠点に映像(音)データとして配信することも可能である。ここで、図4乃至図6に示されている配信方法について説明する。   In addition, the distribution system 1 may apply the above-described distribution method to link a plurality of web contents and distribute them as a video (sound) data to a plurality of bases as shown in FIGS. Is possible. Here, the distribution method shown in FIGS. 4 to 6 will be described.

(マルチキャスト)
図4は、マルチキャストの概念図である。図4に示されているように、配信管理システム2の単一のブラウザ20は、ウェブサーバ8から取得したウェブコンテンツデータ〔A〕をレンダリングすることで、映像(音)データ〔A〕を生成する。そして、エンコーダブリッジ部30が、映像(音)データ〔A〕をエンコードする。その後、配信管理システム2は、映像(音)データ〔A〕を複数の通信端末(5f1,5f2,5f3)に配信する。
(Multicast)
FIG. 4 is a conceptual diagram of multicast. As shown in FIG. 4, the single browser 20 of the distribution management system 2 generates video (sound) data [A] by rendering the web content data [A] acquired from the web server 8. To do. Then, the encoder bridge unit 30 encodes the video (sound) data [A]. Thereafter, the distribution management system 2 distributes the video (sound) data [A] to a plurality of communication terminals (5f1, 5f2, 5f3).

これにより、複数の拠点では、同じ映像(音)が出力される。なお、この場合、通信端末(5f1,5f2,5f3)が同じ表示再生能力(解像度が同じ等の動作環境)を有する必要はない。このような配信方法は、例えば「マルチキャスト」と呼ばれる。   As a result, the same video (sound) is output at a plurality of locations. In this case, the communication terminals (5f1, 5f2, 5f3) do not need to have the same display reproduction capability (an operating environment with the same resolution, etc.). Such a distribution method is called, for example, “multicast”.

(マルチディスプレイ)
図5は、マルチディスプレイの概念図である。図5に示されているように、配信管理システム2の単一のブラウザ20は、ウェブサーバ8から取得したウェブコンテンツデータ〔XYZ〕をレンダリングすることで、単一の映像(音)データ〔XYZ〕を生成する。そして、エンコーダブリッジ部30が、単一の映像(音)データ〔XYZ〕を、複数の映像(音)データ(〔X〕,〔Y〕,〔Z〕)に分割した後にエンコードする。
(Multi-display)
FIG. 5 is a conceptual diagram of a multi-display. As shown in FIG. 5, the single browser 20 of the distribution management system 2 renders the web content data [XYZ] acquired from the web server 8, thereby generating a single video (sound) data [XYZ]. ] Is generated. Then, the encoder bridge unit 30 divides the single video (sound) data [XYZ] into a plurality of video (sound) data ([X], [Y], [Z]) and then encodes them.

その後、配信管理システム2は、分割後の映像(音)データ〔X〕を通信端末5f1に配信する。また、同じように、配信管理システム2は、分割後の映像(音)データ〔Y〕を通信端末5f2に配信し、分割後の映像(音)データ〔Z〕を通信端末5f3に配信する。   Thereafter, the distribution management system 2 distributes the divided video (sound) data [X] to the communication terminal 5f1. Similarly, the distribution management system 2 distributes the divided video (sound) data [Y] to the communication terminal 5f2, and distributes the divided video (sound) data [Z] to the communication terminal 5f3.

これにより、例えば、横長のウェブコンテンツデータ〔XYZ〕であっても、複数の通信端末5で分割して映像が表示される。その結果、通信端末(5f1,5f2,5f3)を一列に並べて設置すれば、1つの大きな映像を表示させることと同様の効果が得られる。なお、この場合、通信端末(5f1,5f2,5f3)が同じ表示再生能力(解像度が同じ等)を有する必要がある。このような配信方法は、例えば「マルチディスプレイ」と呼ばれる。   Thereby, for example, even horizontally long web content data [XYZ] is divided and displayed by the plurality of communication terminals 5. As a result, if the communication terminals (5f1, 5f2, 5f3) are arranged in a line, the same effect as displaying one large video can be obtained. In this case, the communication terminals (5f1, 5f2, 5f3) need to have the same display reproduction capability (the same resolution, etc.). Such a distribution method is called, for example, “multi-display”.

(複合配信)
図6は、配信管理システム2を介して複数の通信端末を使った複合配信の概念図である。図6に示されているように、第1の拠点(図6の右側)では、電子黒板としての通信端末5f1及びテレビ会議端末としての通信端末5e1が利用されている。第2の拠点(図7の左側)では、同じく電子黒板としての通信端末5f2、及びテレビ会議端末としての通信端末5e2が利用されている。
(Composite delivery)
FIG. 6 is a conceptual diagram of composite distribution using a plurality of communication terminals via the distribution management system 2. As shown in FIG. 6, at the first base (the right side of FIG. 6), a communication terminal 5f1 as an electronic blackboard and a communication terminal 5e1 as a video conference terminal are used. At the second base (left side in FIG. 7), a communication terminal 5f2 as an electronic blackboard and a communication terminal 5e2 as a video conference terminal are used.

また、第1の拠点では、通信端末5f1にストロークによる文字等の操作データを表示させるための電子ペンP1が利用されている。第2の拠点では、通信端末5f2にストロークによる文字等の操作データを表示させるための電子ペンP2が利用されている。   Further, at the first base, an electronic pen P1 for displaying operation data such as characters by stroke on the communication terminal 5f1 is used. At the second base, an electronic pen P2 for displaying operation data such as characters by stroke on the communication terminal 5f2 is used.

そして、第1の拠点において、通信端末5e1によって取得された映像(音)データは、エンコード部60でエンコードされた後に、配信管理システム2に送信される。その後、映像(音)データは、配信管理システム2のデコード部40でデコードされて、ブラウザ20に入力される。また、電子ペンP1によって通信端末5f1に描かれたストローク等を示す操作データ(ストローク座標)は、配信管理システム2に送信され、ブラウザ20に入力される。   The video (sound) data acquired by the communication terminal 5e1 at the first base is encoded by the encoding unit 60 and then transmitted to the distribution management system 2. Thereafter, the video (sound) data is decoded by the decoding unit 40 of the distribution management system 2 and input to the browser 20. Further, operation data (stroke coordinates) indicating a stroke or the like drawn on the communication terminal 5f1 by the electronic pen P1 is transmitted to the distribution management system 2 and input to the browser 20.

一方、第2の拠点においても、通信端末5e2によって取得された映像(音)データは、エンコード部60でエンコードされた後に、配信管理システム2に送信される。その後、映像(音)データは、配信管理システム2のデコード部40でデコードされて、ブラウザ20に入力される。また、電子ペンP2によって通信端末5f2に描かれたストローク等の操作データ(ストローク座標)は、配信管理システム2に送信され、ブラウザ20に入力される。   On the other hand, also at the second site, the video (sound) data acquired by the communication terminal 5e2 is encoded by the encoding unit 60 and then transmitted to the distribution management system 2. Thereafter, the video (sound) data is decoded by the decoding unit 40 of the distribution management system 2 and input to the browser 20. In addition, operation data (stroke coordinates) such as a stroke drawn on the communication terminal 5f2 by the electronic pen P2 is transmitted to the distribution management system 2 and input to the browser 20.

一方、ブラウザ20は、例えば、ウェブサーバ8から通信端末(5e1,5e2)のそれぞれのディスプレイに表示される背景画像のウェブコンテンツデータ〔A〕を取得する。   On the other hand, the browser 20 acquires the web content data [A] of the background image displayed on the respective displays of the communication terminals (5e1, 5e2) from the web server 8, for example.

そして、ブラウザ20は、ウェブコンテンツデータ〔A〕、操作データ(〔p1〕,〔p2〕)及び映像(音)コンテンツデータ(〔E1〕,〔E2〕)を結合する。ブラウザ20は、その結合したコンテンツデータをレンダリングすることで、所望のレイアウトに設置した映像(音)データを生成する。   Then, the browser 20 combines the web content data [A], the operation data ([p1], [p2]), and the video (sound) content data ([E1], [E2]). The browser 20 renders the combined content data to generate video (sound) data installed in a desired layout.

そして、エンコーダブリッジ部30は、映像(音)データをエンコードし、配信管理システム2が各拠点に同じ映像(音)データを配信する。これにより、第1の拠点では、通信端末5f1のディスプレイ上に、映像(〔A〕、〔p1〕、〔p2〕、〔E1(映像部分)〕及び〔E2(映像部分)〕)が表示されると共に、通信端末5e1のスピーカから音〔E2(音部分)〕が出力される。   Then, the encoder bridge unit 30 encodes the video (sound) data, and the distribution management system 2 distributes the same video (sound) data to each site. As a result, at the first location, the video ([A], [p1], [p2], [E1 (video part)] and [E2 (video part)]) is displayed on the display of the communication terminal 5f1. In addition, a sound [E2 (sound part)] is output from the speaker of the communication terminal 5e1.

一方、第2の拠点でも、通信端末5f2のディスプレイ上に、映像(〔A〕、〔p1〕、〔p2〕、〔E1(映像部分)〕及び〔E2(映像部分)〕)が表示されると共に、通信端末5e2のスピーカから音〔E1(音部分)〕が出力される。   On the other hand, at the second site, the video ([A], [p1], [p2], [E1 (video part)] and [E2 (video part)]) is displayed on the display of the communication terminal 5f2. At the same time, sound [E1 (sound part)] is output from the speaker of the communication terminal 5e2.

なお、第1の拠点では、通信端末5e1のエコーキャンセル機能により、自拠点の音〔E1(音部分)〕は出力されない。一方、第2の拠点では、通信端末5e2のエコーキャンセル機能により、自拠点の音〔E2(音部分)〕は出力されない。   At the first site, the sound [E1 (sound part)] of the site is not output by the echo cancellation function of the communication terminal 5e1. On the other hand, at the second site, the sound [E2 (sound part)] of the local site is not output by the echo cancellation function of the communication terminal 5e2.

一方、第1の拠点では、通信端末5f1のディスプレイ上に、電子ペンP1によって描かれた自拠点の映像〔p1〕を表示するとともに、エンコーダブリッジ部30でエンコードして配信管理システム2から各拠点に同じ映像(音)データが配信される前には、自拠点の映像データ〔p1〕を消去し、配信された映像データ〔p1〕に差し替えて表示する。   On the other hand, at the first base, the video [p1] of the local base drawn by the electronic pen P1 is displayed on the display of the communication terminal 5f1 and encoded by the encoder bridge unit 30 from the distribution management system 2 to each base. Before the same video (sound) data is distributed, the local video data [p1] is deleted and replaced with the distributed video data [p1] for display.

第2の拠点では、通信端末5f2のディスプレイ上に、電子ペンP2によって描かれた自拠点の映像〔p2〕を表示するとともに、エンコーダブリッジ部30でエンコードして配信管理システム2から各拠点に同じ映像(音)データが配信される前には、自拠点の映像データ〔p2〕を消去し、配信された映像データ〔p2〕に差し替えて表示する。   At the second base, the video [p2] of the local base drawn by the electronic pen P2 is displayed on the display of the communication terminal 5f2, and is encoded by the encoder bridge unit 30 and the same from the distribution management system 2 to each base. Before the video (sound) data is distributed, the local video data [p2] is deleted and replaced with the distributed video data [p2] for display.

以上により、第1の拠点と第2の拠点とでは、遠隔地間においてリアルタイムで同じ情報を共有する遠隔共有処理を行うことができるため、本実施の形態の配信システム1は遠隔会議等に有効である。   As described above, since the first base and the second base can perform remote sharing processing for sharing the same information in real time between remote locations, the distribution system 1 of the present embodiment is effective for remote conferences and the like. It is.

〔実施の形態の詳細な説明〕
続いて、図7乃至図24を用いて、実施の形態の詳細な説明を行う。
[Detailed Description of Embodiment]
Subsequently, the embodiment will be described in detail with reference to FIGS.

<実施の形態のハードウェア構成>
まずは、図7及び図8を用いて、本実施の形態のハードウェア構成を説明する。なお、図7は、配信管理システム、通信端末、端末管理システム、及びウェブサーバのハードウェア構成図である。また、図8は、ドングルのハードウェア構成図である。なお、通信端末の通信に関与するハードウェア構成は、通信端末のハードウェア構成の一部と同じであるため、説明を省略する。
<Hardware Configuration of Embodiment>
First, the hardware configuration of this embodiment will be described with reference to FIGS. FIG. 7 is a hardware configuration diagram of the distribution management system, the communication terminal, the terminal management system, and the web server. FIG. 8 is a hardware configuration diagram of the dongle. Note that the hardware configuration involved in the communication of the communication terminal is the same as part of the hardware configuration of the communication terminal, and thus the description thereof is omitted.

図7に示すように、配信管理システム2は、配信管理システム2全体の動作を制御するCPU201、IPL等のCPU201の駆動に用いられるプログラムを記憶したROM202、CPU201のワークエリアとして使用されるRAM203を備えている。   As shown in FIG. 7, the distribution management system 2 includes a CPU 201 that controls the operation of the distribution management system 2 as a whole, a ROM 202 that stores a program used to drive the CPU 201 such as an IPL, and a RAM 203 that is used as a work area for the CPU 201. I have.

また、配信管理システム2は、プログラム等の各種データを記憶するHDD204、CPU201の制御にしたがってHDD204に対する各種データの読み出し又は書き込みを制御するHDC(Hard Disk Controller)205を備えている。   The distribution management system 2 also includes an HDD 204 that stores various data such as programs, and an HDC (Hard Disk Controller) 205 that controls reading or writing of various data with respect to the HDD 204 under the control of the CPU 201.

また、配信管理システム2は、フラッシュメモリ等の記録メディア206に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ207、各種情報を表示するディスプレイ208を備えている。また、配信管理システム2は、通信ネットワーク9を利用してデータ送信したり、ドングル99を接続したりするためのI/F209、キーボード211を備えている。   The distribution management system 2 also includes a media drive 207 that controls reading or writing (storage) of data with respect to a recording medium 206 such as a flash memory, and a display 208 that displays various types of information. The distribution management system 2 also includes an I / F 209 and a keyboard 211 for transmitting data using the communication network 9 and connecting a dongle 99.

また、配信管理システム2は、マウス212、マイク213、スピーカ214、GPU215、上記各構成要素を図8に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン220を備えている。   In addition, the distribution management system 2 includes a mouse 212, a microphone 213, a speaker 214, a GPU 215, and a bus line 220 such as an address bus and a data bus for electrically connecting the above components as shown in FIG. It has.

なお、各通信端末、各システム又は各サーバ用のプログラムは、インストール可能な形式又は実行可能な形式のファイルで、上記記録メディア206等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。   The program for each communication terminal, each system, or each server is a file in an installable or executable format, and is recorded and distributed on a computer-readable recording medium such as the recording medium 206. May be.

次に、図8を用いて、ドングルのハードウェア構成について説明する。図8に示されているように、ドングル99は、ドングル99全体の動作を制御するCPU91、基本入出力プログラムを記憶したROM92、CPU91のワークエリアとして使用されるRAM93を備えている。   Next, the hardware configuration of the dongle will be described with reference to FIG. As shown in FIG. 8, the dongle 99 includes a CPU 91 that controls the operation of the dongle 99 as a whole, a ROM 92 that stores basic input / output programs, and a RAM 93 that is used as a work area for the CPU 91.

また、ドングル99は、CPU91の制御にしたがってデータの読み出し又は書き込みを行うEEPROM94、通信端末5のI/F209に接続するためのI/F96を備えている。   The dongle 99 also includes an EEPROM 94 that reads and writes data according to the control of the CPU 91 and an I / F 96 for connection to the I / F 209 of the communication terminal 5.

また、ドングル99は、アンテナ97a、このアンテナ97aを利用して近距離無線技術により通信を行う通信部97、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン90を備えている。   Further, the dongle 99 includes an antenna 97a, a communication unit 97 that performs communication using a short-range wireless technology using the antenna 97a, and a bus line 90 such as an address bus and a data bus for electrically connecting the respective units. It has.

なお、近距離無線技術として、例えば、NFC(Near Field Communication)規格、BlueTooth(登録商標)、Wi−Fi(登録商標)、ZigBee(登録商標)等が挙げられる。   Examples of the short-range wireless technology include NFC (Near Field Communication) standard, BlueTooth (registered trademark), Wi-Fi (registered trademark), and ZigBee (registered trademark).

<実施の形態の機能構成>
次に、図9乃至図16を用い、本実施の形態の機能構成について説明する。図9は、主に配信管理システムの各機能を示す機能ブロック図である。図9では、配信管理システム2が通信端末5f1に対して映像(音)データを配信する場合の機能構成が示されているが、配信先が通信端末5f1以外の場合も、同じ機能構成を有する。
<Functional configuration of the embodiment>
Next, the functional configuration of the present embodiment will be described with reference to FIGS. FIG. 9 is a functional block diagram mainly showing each function of the distribution management system. Although FIG. 9 shows a functional configuration when the distribution management system 2 distributes video (sound) data to the communication terminal 5f1, it has the same functional configuration even when the distribution destination is other than the communication terminal 5f1. .

なお、配信管理システム2は、複数の配信エンジンサーバを備えているが、説明を簡単にするために、以下では、単一の配信エンジンサーバを備えている場合について説明する。   The distribution management system 2 includes a plurality of distribution engine servers. However, in order to simplify the description, a case where a single distribution engine server is included will be described below.

(配信管理システムの機能構成)
図9に示されているように、配信管理システム2は、図7に示されているハードウェア構成及びプログラムによって、図9に示されている各機能構成を有する。
(Functional configuration of distribution management system)
As shown in FIG. 9, the distribution management system 2 has each functional configuration shown in FIG. 9 by the hardware configuration and program shown in FIG. 7.

具体的には、配信管理システム2は、ブラウザ20、送受信部21、ブラウザ管理部22、送信用FIFO24、時刻管理部25、時刻取得部26、回線適応制御部27、エンコーダブリッジ部30を有している。   Specifically, the distribution management system 2 includes a browser 20, a transmission / reception unit 21, a browser management unit 22, a transmission FIFO 24, a time management unit 25, a time acquisition unit 26, a line adaptation control unit 27, and an encoder bridge unit 30. ing.

また、配信管理システム2は、送受信部31、受信用FIFO34、認識部35、遅延情報取得部37a、回線適応制御部37b、及びデコード部40を有している。更に、配信管理システム2は、図8に示されているHDD204によって構築される記憶部5003を有している。   The distribution management system 2 includes a transmission / reception unit 31, a reception FIFO 34, a recognition unit 35, a delay information acquisition unit 37a, a line adaptation control unit 37b, and a decoding unit 40. Furthermore, the distribution management system 2 has a storage unit 5003 constructed by the HDD 204 shown in FIG.

この記憶部5003には、認識部35から出力された後述の認識情報、電子ペン情報、及び描画情報が記憶される。電子ペン情報及び描画情報とは、例えば通信端末5f1や通信端末5f2に関連する情報である。なお、ブラウザ20が取得したコンテンツデータは、キャッシュとして、記憶部5003に一時的に記憶しておくこともできる。   The storage unit 5003 stores later-described recognition information, electronic pen information, and drawing information output from the recognition unit 35. The electronic pen information and the drawing information are information related to the communication terminal 5f1 and the communication terminal 5f2, for example. Note that the content data acquired by the browser 20 may be temporarily stored in the storage unit 5003 as a cache.

電子ペン情報555は、電子黒板である通信端末5の電子ペンPの属性情報である線の太さ、色、線種(直線、破線、など)、及び透明度、その他の情報が含まれる。描画情報は、通信端末5のデバイスID、コンテンツ[A]のウェブサーバ8のURLもしくはディレクトリ名・ファイル名、コンテンツ[A]におけるストローク座標[p]の位置情報、描画コマンド等が含まれる。   The electronic pen information 555 includes line thickness, color, line type (straight line, broken line, etc.), transparency, and other information as attribute information of the electronic pen P of the communication terminal 5 that is an electronic blackboard. The drawing information includes the device ID of the communication terminal 5, the URL or directory name / file name of the web server 8 of the content [A], position information of the stroke coordinates [p] in the content [A], a drawing command, and the like.

上述の各機能構成のうち、ブラウザ20は、配信管理システム2内で動作するウェブブラウザである。ブラウザ20は、ウェブコンテンツデータ等のコンテンツデータをレンダリングすることにより、RGBデータ(又はPCMデータ)としての映像(音)データを生成する。ブラウザ20は、ウェブコンテンツのリッチ化に対応させて常に最新化されている。   Among the above functional configurations, the browser 20 is a web browser that operates in the distribution management system 2. The browser 20 generates video (sound) data as RGB data (or PCM data) by rendering content data such as web content data. The browser 20 is constantly updated in response to the richness of web content.

また、本実施の形態の配信システム1では、配信管理システム2内に複数のブラウザ20を用意しており、これら複数のブラウザ20の中からユーザセッションに使用するクラウドブラウザが選択される。なお、ここでは、説明を簡略化するため、単一のブラウザ20が用意されている場合について、以下続けて説明する。   Further, in the distribution system 1 of the present embodiment, a plurality of browsers 20 are prepared in the distribution management system 2, and a cloud browser to be used for a user session is selected from the plurality of browsers 20. Here, in order to simplify the description, the case where a single browser 20 is prepared will be described below.

ブラウザ20は、例えば、Media Player(登録商標)、Flash Player(登録商標)、JavaScript(登録商標)、CSS(Cascading Style Sheet)及びHTMLレンダラを有する。なお、JavaScript(登録商標)には、標準規格のものと配信システム1独自のものが含まれる。   The browser 20 includes, for example, Media Player (registered trademark), Flash Player (registered trademark), JavaScript (registered trademark), CSS (Cascading Style Sheet), and an HTML renderer. Note that JavaScript (registered trademark) includes a standard specification and a distribution system 1 original.

ここで、Media Playerは、映像(音)ファイルなどのマルチメディアファイルをブラウザ20内で再生するためのブラウザプラグインである。Flash Playerは、Flashコンテンツをブラウザ20内で再生するためのブラウザプラグインである。独自のJavaScript(登録商標)は、配信システム1に固有のサービスのAPI(Application Programming Interface)を提供するJavaScript(登録商標)群である。   Here, Media Player is a browser plug-in for reproducing multimedia files such as video (sound) files in the browser 20. Flash Player is a browser plug-in for playing back Flash content in the browser 20. The unique JavaScript (registered trademark) is a group of JavaScript (registered trademark) that provides an API (Application Programming Interface) of a service unique to the distribution system 1.

CSSは、HTMLで記述されたウェブページの見栄えやスタイルを効率的に定義するための技術である。HTMLレンダラは、ウェブキットベースのHTMLレンダリングエンジンである。   CSS is a technology for efficiently defining the appearance and style of a web page described in HTML. The HTML renderer is a web kit based HTML rendering engine.

次に、送受信部21は、端末管理システム7やウェブサーバ8との間で、各種データや要求等の送受信を行う。例えば、送受信部21は、ウェブサーバ8のコンテンツサイトからウェブコンテンツデータを取得する。   Next, the transmission / reception unit 21 transmits / receives various data and requests to / from the terminal management system 7 and the web server 8. For example, the transmission / reception unit 21 acquires web content data from the content site of the web server 8.

ブラウザ管理部22は、ブラウザ20やエンコーダブリッジ部30の管理を行う。例えば、ブラウザ管理部22は、ブラウザ20やエンコーダブリッジ部30に、起動又は終了を指示したり、起動又は終了時にエンコーダIDを採番したりする。ここで、エンコーダIDは、ブラウザ管理部22がエンコーダブリッジ部30のプロセスを管理するために採番する識別情報である。   The browser management unit 22 manages the browser 20 and the encoder bridge unit 30. For example, the browser management unit 22 instructs the browser 20 or the encoder bridge unit 30 to start or end, or assigns an encoder ID when starting or ending. Here, the encoder ID is identification information that is assigned by the browser management unit 22 to manage the process of the encoder bridge unit 30.

また、ブラウザ管理部22は、ブラウザ20が起動されるたびに、ブラウザIDを採番して管理する。ここで、ブラウザIDは、ブラウザ管理部22がブラウザ20のプロセスを管理するために採番し、ブラウザ20を識別するための識別情報である。   The browser management unit 22 assigns and manages a browser ID every time the browser 20 is activated. Here, the browser ID is identification information for identifying the browser 20 by the browser management unit 22 in order to manage the process of the browser 20.

なお、ブラウザ管理部22は、送受信部31を介して通信端末5から各種操作データを取得し、ブラウザ20に出力する。なお、操作データは、通信端末5での操作イベント(キーボード211やマウス212等による操作や電子ペンPによるストローク等)によって生じたデータである。   The browser management unit 22 acquires various operation data from the communication terminal 5 via the transmission / reception unit 31 and outputs the operation data to the browser 20. The operation data is data generated by an operation event (such as an operation with the keyboard 211 or the mouse 212 or a stroke with the electronic pen P) in the communication terminal 5.

通信端末5に、温度センサ、湿度センサ、及び加速度センサ等の各種センサが設けられている場合には、ブラウザ管理部22は、通信端末5から各センサの出力信号であるセンサ情報を取得し、ブラウザ20に出力する。   When the communication terminal 5 is provided with various sensors such as a temperature sensor, a humidity sensor, and an acceleration sensor, the browser management unit 22 acquires sensor information that is an output signal of each sensor from the communication terminal 5, Output to the browser 20.

送信用FIFO24は、ブラウザ20で生成された映像(音)データを格納するバッファである。時刻管理部25は、配信管理システム2独自の時刻Tを管理している。時刻取得部26は、後述の通信端末5における時刻制御部56と連携して、時刻調整の処理を行う。   The transmission FIFO 24 is a buffer for storing video (sound) data generated by the browser 20. The time management unit 25 manages the time T unique to the distribution management system 2. The time acquisition unit 26 performs time adjustment processing in cooperation with a time control unit 56 in the communication terminal 5 described later.

具体的には、時刻取得部26は、時刻管理部25から配信管理システム2における時刻Tを示す時刻情報(T)を取得する。また、時刻取得部26は、送受信部31及び送受信部51を介して、後述の時刻制御部56から通信端末5における時刻tを示す時刻情報(t)を受信し、時刻制御部56に時刻情報(t)及び時刻情報(T)を送信する。   Specifically, the time acquisition unit 26 acquires time information (T) indicating the time T in the distribution management system 2 from the time management unit 25. In addition, the time acquisition unit 26 receives time information (t) indicating the time t in the communication terminal 5 from the time control unit 56 described later via the transmission / reception unit 31 and the transmission / reception unit 51, and the time control unit 56 receives the time information. (T) and time information (T) are transmitted.

回線適応制御部27は、送信遅延時間情報(D)に基づいて、再生遅延時間Uを計算し、エンコーダブリッジ部30における変換部10のフレームレートやデータの解像度等の動作条件を計算したりする。この再生遅延時間は、再生までにデータがバッファリングされることで、再生を遅延させるための時間である。   The line adaptation control unit 27 calculates the reproduction delay time U based on the transmission delay time information (D), and calculates the operating conditions such as the frame rate and data resolution of the conversion unit 10 in the encoder bridge unit 30. . This reproduction delay time is a time for delaying reproduction by buffering data before reproduction.

エンコーダブリッジ部30は、ブラウザ20が生成した映像(音)データを、エンコーダブリッジ部30における後述の変換部10に出力する。エンコーダブリッジ部30については、図15及び図16を用いて、更に詳細に説明する。図15は、エンコーダブリッジ部の詳細図である。また、図16は、変換部の各機能を示す機能ブロック図である。   The encoder bridge unit 30 outputs the video (sound) data generated by the browser 20 to the conversion unit 10 described later in the encoder bridge unit 30. The encoder bridge unit 30 will be described in more detail with reference to FIGS. 15 and 16. FIG. 15 is a detailed view of the encoder bridge unit. FIG. 16 is a functional block diagram showing each function of the conversion unit.

図15に示されているように、エンコーダブリッジ部30は、作成・選択部310、及び選択部320と、これらの間に複数の変換部(10a,10b,10c)が構築されている。ここでは、3つの変換部を示したが、いくつであってもよい。なお、以下、任意の変換部を「変換部10」として表す。   As shown in FIG. 15, the encoder bridge unit 30 includes a creation / selection unit 310, a selection unit 320, and a plurality of conversion units (10a, 10b, 10c) between them. Here, three conversion units are shown, but any number may be used. Hereinafter, an arbitrary conversion unit is expressed as “conversion unit 10”.

更に、変換部10は、図16に示されているように、トリミング部11、リサイズ部12、分割部13、及びエンコード部19を有する。トリミング部11、リサイズ部12、及び分割部13は、音データの場合は、処理を行わない。   Further, the conversion unit 10 includes a trimming unit 11, a resizing unit 12, a dividing unit 13, and an encoding unit 19, as shown in FIG. The trimming unit 11, the resizing unit 12, and the dividing unit 13 do not perform processing in the case of sound data.

このうち、トリミング部11は、映像(画像)の一部だけを切り出す処理を行う。リサイズ部12は、映像(画像)の縮尺を変更する。分割部13は、図5に示されているように、ウェブサーバ8から取得したウェブコンテンツを分割する。   Among these, the trimming unit 11 performs a process of cutting out only a part of the video (image). The resizing unit 12 changes the scale of the video (image). As shown in FIG. 5, the dividing unit 13 divides the web content acquired from the web server 8.

また、エンコード部19は、ブラウザ20で生成された画像(音)データをエンコードすることにより、通信ネットワーク9を介して通信端末5に画像(音)データを配信できるように変換する。また、エンコード部19は、映像が動かなければ(フレーム間で変化がなければ)、以降、映像が動くまでスキップフレームを挿入することで帯域をセーブする。なお、音の場合には、エンコードだけが行われる。   The encoding unit 19 converts the image (sound) data generated by the browser 20 so that the image (sound) data can be distributed to the communication terminal 5 via the communication network 9. In addition, if the video does not move (if there is no change between frames), the encoding unit 19 subsequently saves the bandwidth by inserting skip frames until the video moves. In the case of sound, only encoding is performed.

また、作成・選択部310は、新たに変換部10を作成し、既に作成されている変換部10に対して入力させる映像(音)データを選択したりする。作成する場合としては、例えば、作成・選択部310は、通信端末5における映像(音)データの再生能力に応じた変換が可能な変換部10を作成する。   The creation / selection unit 310 newly creates the conversion unit 10 and selects video (sound) data to be input to the conversion unit 10 that has already been created. For example, the creation / selection unit 310 creates the conversion unit 10 that can perform conversion according to the reproduction capability of video (sound) data in the communication terminal 5.

また、選択する場合としては、既に作成されている変換部20を選択する。例えば、通信端末5aへの配信に加えて通信端末5bへの配信を開始するにあたって、通信端末5aへ配信している映像(音)データと同じ映像(音)データを通信端末5bへ配信する場合がある。   Moreover, as a case of selecting, a conversion unit 20 that has already been created is selected. For example, when starting distribution to the communication terminal 5b in addition to distribution to the communication terminal 5a, the same video (sound) data as the video (sound) data distributed to the communication terminal 5a is distributed to the communication terminal 5b. There is.

このような場合で、更に、通信端末5bが通信端末5aにおける映像(音)データの再生能力と同じ再生能力を有する場合には、作成・選択部310は通信端末5b用に新たな変換部10bを作成せずに、通信端末5a用に既に作成している変換部10aを利用する。   In such a case, when the communication terminal 5b has the same reproduction capability as the reproduction capability of the video (sound) data in the communication terminal 5a, the creation / selection unit 310 adds a new conversion unit 10b for the communication terminal 5b. Without using the conversion unit 10a already created for the communication terminal 5a.

一方、選択部320は、既に作成されている変換部10から所望のものを選択する。これら作成・選択部310と選択部320による選択は、図6に示したような様々なパターンの配信を行うことを可能にする。   On the other hand, the selection unit 320 selects a desired one from the conversion units 10 that have already been created. These selections by the creation / selection unit 310 and the selection unit 320 enable delivery of various patterns as shown in FIG.

送受信部31は、通信端末5との間で、各種データや要求等の送受信を行う。例えば、送受信部31は、通信端末5のログイン処理において、通信端末5の送受信部51に対し、ユーザにログイン要求を促すための認証画面データ(図12参照)を送信する。   The transmission / reception unit 31 transmits / receives various data and requests to / from the communication terminal 5. For example, in the login process of the communication terminal 5, the transmission / reception unit 31 transmits authentication screen data (see FIG. 12) for prompting the user to log in to the transmission / reception unit 51 of the communication terminal 5.

その他に、送受信部31は、HTTPSサーバを介して配信システム1独自のプロトコルにより、通信端末5のユーザアプリや通信端末5のデバイスアプリへのデータ送信およびデータ受信を行う。   In addition, the transmission / reception unit 31 performs data transmission and data reception to the user application of the communication terminal 5 and the device application of the communication terminal 5 using the protocol unique to the distribution system 1 via the HTTPS server.

この独自のプロトコルは、配信管理システム2と通信端末との間でリアルタイムに途切れることなくデータを送受信するためのHTTPSベースのアプリケーション層プロトコルである。また、送受信部31は、送信レスポンス制御、リアルタイムのデータ作成、クライアントコマンド送信、受信レスポンス制御、受信データ分析、及びジェスチャ変換を行う。   This unique protocol is an HTTPS-based application layer protocol for transmitting and receiving data between the distribution management system 2 and the communication terminal in real time without interruption. The transmission / reception unit 31 performs transmission response control, real-time data creation, client command transmission, reception response control, reception data analysis, and gesture conversion.

このうち、送信レスポンス制御は、配信管理システム2から通信端末5にデータを送信するために、通信端末5からリクエスト(要求)されたダウンロード用のHTTPSセッションを管理する処理である。このダウンロード用のHTTPSセッションのレスポンスはすぐに終了せず、一定時間(1〜数分)保持する。送受信部31は、通信端末に送るデータを動的にレスポンスのBody部に書き込む。   Among these, the transmission response control is a process for managing a download HTTPS session requested (requested) from the communication terminal 5 in order to transmit data from the distribution management system 2 to the communication terminal 5. The response of the download HTTPS session does not end immediately, but is held for a certain time (1 to several minutes). The transmission / reception unit 31 dynamically writes data to be sent to the communication terminal in the body part of the response.

また、送受信部31は、再接続のコストをなくすため、通信端末からは前のセッションが終了しないうちに別のリクエストが届くようにする。前のリクエストが完了するまで送受信部31が待機することで、再接続を行っても、オーバヘッドを削除することができる。   In addition, in order to eliminate the cost of reconnection, the transmission / reception unit 31 allows another request to arrive from the communication terminal before the previous session ends. Since the transmission / reception unit 31 waits until the previous request is completed, the overhead can be deleted even if reconnection is performed.

リアルタイムのデータ作成は、後述の図16におけるエンコード部19で生成された圧縮映像(および圧縮音)のデータ(RTPデータ)に独自のヘッダを付与して、通信端末への下り用のHTTPSのBody部に書き込む処理である。   In real-time data creation, a unique header is added to the data (RTP data) of the compressed video (and compressed sound) generated by the encoding unit 19 in FIG. 16 to be described later, and the body of the HTTPS for downlink to the communication terminal This is the process of writing to the part.

クライアントコマンド送信は、通信端末5に送信するコマンドデータを生成し、通信端末5への配信用(下り用)のHTTPSのBody部に書き込む処理である。   The client command transmission is a process of generating command data to be transmitted to the communication terminal 5 and writing it in the Body part of the HTTPS for distribution (downlink) to the communication terminal 5.

受信レスポンス制御は、配信管理システム2が通信端末5からデータを受信するために、通信端末5からリクエストされた送信用(上り用)のHTTPSセッションを管理する処理である。このHTTPSセッションのリクエストはすぐに終了せず、一定時間(1〜数分)保持される。通信端末5は、配信管理システム2の送受信部31に送るデータを動的にリクエストのBody部に書き込む。   The reception response control is processing for managing a transmission (upstream) HTTPS session requested from the communication terminal 5 in order for the distribution management system 2 to receive data from the communication terminal 5. This HTTPS session request does not end immediately, but is held for a certain time (1 to several minutes). The communication terminal 5 dynamically writes data to be transmitted to the transmission / reception unit 31 of the distribution management system 2 in the Body part of the request.

受信データ分析は、通信端末5から送られてきたデータを種別ごとに分析し、必要なプロセスにデータを渡す処理である。   The received data analysis is a process of analyzing data sent from the communication terminal 5 for each type and passing the data to a necessary process.

ジェスチャ変換は、ユーザが電子黒板としての通信端末5fに電子ペンや手書きにより入力したジェスチャイベントを、ブラウザ20が受け取れる形式に変換する処理である。また、受信用FIFO34は、デコード部40でデコードされた映像(音)データを格納するバッファである。   The gesture conversion is a process of converting a gesture event input by the user into the communication terminal 5f as an electronic blackboard by an electronic pen or handwriting into a format that the browser 20 can receive. The reception FIFO 34 is a buffer for storing video (sound) data decoded by the decoding unit 40.

認識部35は、通信端末5から受信する映像(音)データに対しての処理を行う。具体的には、認識部35は、例えば、サイネージ向けにカメラ62で撮影された映像から人や動物の顔、年齢、及び性別などを認識する。   The recognition unit 35 performs processing on video (sound) data received from the communication terminal 5. Specifically, for example, the recognition unit 35 recognizes the face, age, sex, and the like of a person or an animal from an image captured by the camera 62 for signage.

また、認識部35は、オフィス向けに、カメラ62で撮影された映像から顔認識による名前タグ付けや背景映像の差し替え処理などを行う。認識部35は、認識した内容を示す認識情報を記憶部5003に記憶させる。この認識部35は、認識拡張ボードで処理を行うことで高速化が実現される。   In addition, the recognition unit 35 performs name tagging by face recognition, background video replacement processing, and the like from the video captured by the camera 62 for the office. The recognition unit 35 causes the storage unit 5003 to store recognition information indicating the recognized content. The recognition unit 35 is speeded up by performing processing with a recognition expansion board.

遅延情報取得部37aは、上り用の回線適応制御の処理に用いられる遅延情報取得部57に対応して、下り用の回線適応制御の処理に用いられる。具体的には、遅延情報取得部37aは、デコード部40から送信遅延時間d1を示す送信遅延時間情報(d1)を取得して一定時間保持する。   The delay information acquisition unit 37a is used for downlink channel adaptive control processing corresponding to the delay information acquisition unit 57 used for uplink channel adaptive control processing. Specifically, the delay information acquisition unit 37a acquires transmission delay time information (d1) indicating the transmission delay time d1 from the decoding unit 40 and holds it for a certain period of time.

次に、遅延情報取得部37aは、複数の送信遅延時間情報(d1)を取得したところで、回線適応制御部37bに、複数の送信遅延時間d1による度数分布情報を示す送信遅延時間情報(d)を出力する。   Next, when the delay information acquisition unit 37a acquires a plurality of transmission delay time information (d1), the delay information acquisition unit 37a transmits transmission delay time information (d) indicating frequency distribution information based on the plurality of transmission delay times d1 to the line adaptive control unit 37b. Is output.

回線適応制御部37bは、上り用の回線適応制御の処理に用いられる回線適応制御部27に対応して、下り用の回線適応制御の処理に用いられる。具体的には、回線適応制御部37bは、送信遅延時間情報(d)に基づいて、エンコード部60の動作条件を計算する。   The channel adaptation control unit 37b is used for downlink channel adaptation control processing corresponding to the channel adaptation control unit 27 used for uplink channel adaptation control processing. Specifically, the line adaptive control unit 37b calculates the operating condition of the encoding unit 60 based on the transmission delay time information (d).

また、回線適応制御部37bは、送受信部31及び送受信部51を介して通信端末5のエンコード部60に、フレームレートやデータの解像度等の動作条件を示す回線適応制御信号を送信する。デコード部40は、通信端末5から送信されて来た映像(音)データをデコードする。   Also, the line adaptation control unit 37b transmits a line adaptation control signal indicating operation conditions such as a frame rate and data resolution to the encoding unit 60 of the communication terminal 5 via the transmission / reception unit 31 and the transmission / reception unit 51. The decoding unit 40 decodes video (sound) data transmitted from the communication terminal 5.

(通信端末の機能構成)
続いて、図10を用いて、通信端末5の機能構成について説明する。通信端末5は、ユーザが配信システム1へのログインや映像(音)データの配信の開始又は停止などを行うためのインターフェースとなる端末である。
(Functional configuration of communication terminal)
Next, the functional configuration of the communication terminal 5 will be described with reference to FIG. The communication terminal 5 is a terminal that serves as an interface for a user to log in to the distribution system 1 or start or stop distribution of video (sound) data.

図10に示されているように、通信端末5は、デコード部50、送受信部51、操作部52、再生制御部53、レンダリング部55、時刻制御部56、遅延情報取得部57、表示部58、エンコード部60、及びストローク制御部550を有している。更に、通信端末5は、図8に示されているRAM203によって構築される記憶部6000を有している。   As illustrated in FIG. 10, the communication terminal 5 includes a decoding unit 50, a transmission / reception unit 51, an operation unit 52, a reproduction control unit 53, a rendering unit 55, a time control unit 56, a delay information acquisition unit 57, and a display unit 58. , An encoding unit 60, and a stroke control unit 550. Further, the communication terminal 5 has a storage unit 6000 constructed by the RAM 203 shown in FIG.

記憶部6000には、後述の時刻差Δを示す時刻差情報(Δ)、及び通信端末5における時刻tを示す時刻情報(t)が記憶される。   The storage unit 6000 stores time difference information (Δ) indicating a time difference Δ described later, and time information (t) indicating a time t in the communication terminal 5.

このうち、デコード部50は、配信管理システム2から配信され、再生制御部53から出力された映像(音)データをデコードする。   Among these, the decoding unit 50 decodes the video (sound) data distributed from the distribution management system 2 and output from the reproduction control unit 53.

送受信部51は、配信管理システム2の送受信部31、及び後述の端末管理システム7の送受信部71aとの間で、各種データや要求等の送受信を行う。例えば、送受信部51は、通信端末5のログイン処理において、操作部52による通信端末5の起動に基づき、端末管理システム7の送受信部71bにログイン要求を行う。   The transmission / reception unit 51 transmits and receives various data and requests between the transmission / reception unit 31 of the distribution management system 2 and the transmission / reception unit 71a of the terminal management system 7 described later. For example, the transmission / reception unit 51 makes a login request to the transmission / reception unit 71 b of the terminal management system 7 based on the activation of the communication terminal 5 by the operation unit 52 in the login process of the communication terminal 5.

操作部52は、ユーザの操作入力を受け付ける処理を行い、例えば、電源スイッチ、キーボード、マウス、電子ペンP等による入力や選択等を受け付け、操作データとして配信管理システム2のブラウザ管理部22に送信する。   The operation unit 52 performs a process of accepting a user's operation input. For example, the operation unit 52 accepts an input or selection using a power switch, a keyboard, a mouse, an electronic pen P, and the like, and transmits the operation data to the browser management unit 22 of the distribution management system 2. To do.

再生制御部53は、送受信部51から受けた映像(音)データ(リアルタイムデータのパケット)をバッファリングし、再生遅延時間Uを考慮してデコード部50に出力する。レンダリング部55は、デコード部50によってデコードされたデータをレンダリングする。時刻制御部56は、配信管理システム2の時刻取得部26と連携して、時刻調整の処理を行う。具体的には、時刻制御部56は、記憶部6000から通信端末5における時刻tを示す時刻情報(t)を取得する。   The reproduction control unit 53 buffers the video (sound) data (real-time data packet) received from the transmission / reception unit 51 and outputs it to the decoding unit 50 in consideration of the reproduction delay time U. The rendering unit 55 renders the data decoded by the decoding unit 50. The time control unit 56 performs time adjustment processing in cooperation with the time acquisition unit 26 of the distribution management system 2. Specifically, the time control unit 56 acquires time information (t) indicating the time t in the communication terminal 5 from the storage unit 6000.

また、時刻制御部56は、送受信部51及び送受信部31を介して、配信管理システム2の時刻取得部26に、配信管理システム2における時刻Tを示す時刻情報(T)を要求する。この場合、時刻情報(T)の要求と共に、時刻情報(t)が送信される。   Further, the time control unit 56 requests time information (T) indicating the time T in the distribution management system 2 from the time acquisition unit 26 of the distribution management system 2 via the transmission / reception unit 51 and the transmission / reception unit 31. In this case, time information (t) is transmitted together with a request for time information (T).

遅延情報取得部57は、再生制御部53から送信遅延時間D1を示す送信遅延時間情報(D1)を取得して一定時間保持する。次に、遅延情報取得部57は、複数の送信遅延時間情報(D1)を取得したところで、送受信部51及び送受信部31を介して回線適応制御部27に、複数の送信遅延時間D1による度数分布情報を示す送信遅延時間情報(D)を送信する。なお、送信遅延時間情報(D)は、例えば、100フレームに1回送信される。   The delay information acquisition unit 57 acquires the transmission delay time information (D1) indicating the transmission delay time D1 from the reproduction control unit 53 and holds it for a certain time. Next, when the delay information acquisition unit 57 acquires a plurality of pieces of transmission delay time information (D1), the frequency distribution due to the plurality of transmission delay times D1 is sent to the line adaptive control unit 27 via the transmission / reception unit 51 and the transmission / reception unit 31. Transmission delay time information (D) indicating information is transmitted. The transmission delay time information (D) is transmitted once every 100 frames, for example.

表示部58は、レンダリング部55によってレンダリングされたデータを再生する。   The display unit 58 plays back the data rendered by the rendering unit 55.

エンコード部60は、内蔵されたマイク213や、外付けのカメラ62及びマイク63から取得したエンコードした映像(音)データ〔E〕を、送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する。また、エンコード部60は、記憶部6000から取得した現時点の通信端末5における時刻tを示す時刻情報(t0)及び時間差Δを示す時間差情報(Δ)を、送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する。 The encoding unit 60 transmits the encoded video (sound) data [E] acquired from the built-in microphone 213, the external camera 62, and the microphone 63 via the transmission / reception unit 51 and the transmission / reception unit 31. To the decoding unit 40. Also, encoding unit 60, the time information indicating the time t 0 in the communication terminal 5 of current acquired from the storage unit 6000 (t0) and the time difference information indicating a time difference delta a (delta), via the transceiver 51 and the transceiver 31 To the decoding unit 40 of the distribution management system 2.

また、エンコード部60は、回線適応制御部37bから受信した回線適応制御信号で示される動作条件に基づいて、エンコード部60の動作条件を変更する。   In addition, the encoding unit 60 changes the operation condition of the encoding unit 60 based on the operation condition indicated by the channel adaptation control signal received from the channel adaptation control unit 37b.

更に、エンコード部60は、新たな動作条件に従って、カメラ62及びマイク63から取得したエンコードした映像(音)データ〔E〕を、送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する。またエンコード部60は、記憶部6000から取得した現時点の通信端末5における時刻tを示す時刻情報(t)及び時間差Δを示す時間差情報(Δ)を、送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する。 Furthermore, the encoding unit 60 decodes the encoded video (sound) data [E] acquired from the camera 62 and the microphone 63 according to the new operating condition via the transmission / reception unit 51 and the transmission / reception unit 31. To the unit 40. The encoding unit 60, the time information indicating the time t 0 in the communication terminal 5 of current acquired from the storage unit 6000 (t 0) and the time difference information indicating a time difference delta a (delta), via the transceiver 51 and the transceiver 31 To the decoding unit 40 of the distribution management system 2.

なお、内蔵されたマイク213や、外付けのカメラ62及びマイク63は、入力手段の一例であり、エンコードやデコードが必要な各種デバイスである。入力手段は、映像(音)データの他に、触覚(touch)データや嗅覚(smell)データを出力することができてもよい。入力手段には、温度センサ、方位センサ、加速度センサ等の各種センサも含まれる。   Note that the built-in microphone 213, the external camera 62, and the microphone 63 are examples of input means, and are various devices that require encoding and decoding. The input means may be able to output touch data and smell data in addition to video (sound) data. The input means includes various sensors such as a temperature sensor, a direction sensor, and an acceleration sensor.

(端末管理システムの機能構成)
続いて、図11を用いて、端末管理システム7の機能構成について説明する。図11は、端末管理システムの各機能を示す機能ブロック図である。
(Functional configuration of terminal management system)
Next, the functional configuration of the terminal management system 7 will be described with reference to FIG. FIG. 11 is a functional block diagram showing each function of the terminal management system.

図11に示されているように、端末管理システム7は、送受信部71a、送受信部71b、及び認証部75を有している。更に、端末管理システム7は、図7に示されているHDD204によって構築される記憶部7000を有している。この記憶部7000には、配信先選択メニューデータ、端末管理テーブル7010、及び利用可能端末管理テーブル7020が記憶される。   As illustrated in FIG. 11, the terminal management system 7 includes a transmission / reception unit 71a, a transmission / reception unit 71b, and an authentication unit 75. Furthermore, the terminal management system 7 has a storage unit 7000 constructed by the HDD 204 shown in FIG. The storage unit 7000 stores distribution destination selection menu data, a terminal management table 7010, and an available terminal management table 7020.

このうち、配信先選択メニューは、図12に示されているような配信先選択メニュー画面を示すデータである。   Among these, the delivery destination selection menu is data indicating a delivery destination selection menu screen as shown in FIG.

図13に端末管理テーブル7010の構成を示す。端末管理テーブルでは、通信端末5の端末ID、ユーザ証明書、契約情報、通信端末5の端末種別、各通信端末5のURLを示す設定情報、各通信端末5の実行環境情報、共有ID、設置位置情報、及び表示名情報が関連付けて管理されている。契約情報は、ユーザが配信システム1のサービスを利用する際の情報である。   FIG. 13 shows the configuration of the terminal management table 7010. In the terminal management table, the terminal ID of the communication terminal 5, the user certificate, the contract information, the terminal type of the communication terminal 5, the setting information indicating the URL of each communication terminal 5, the execution environment information of each communication terminal 5, the shared ID, and the installation Position information and display name information are managed in association with each other. The contract information is information when the user uses the service of the distribution system 1.

このうち、実行環境情報には、各通信端末5の「お気に入り」、「前回のCookie情報」、及び「キャッシュファイル」が含まれている。そして、各通信端末5のログイン後に、設定情報と共に配信管理システム2に送信され、各通信端末5に対して個別のサービスを行うために利用される。   Among these, the execution environment information includes “favorite”, “previous cookie information”, and “cache file” of each communication terminal 5. Then, after each communication terminal 5 is logged in, it is transmitted to the distribution management system 2 together with the setting information, and is used for providing an individual service to each communication terminal 5.

また、共有IDは、各ユーザが、自己の通信端末5に配信されている映像(音)データと同じ内容の映像(音)データを他の通信端末5にも配信させる。これにより、遠隔共有処理を行う場合に利用されるIDであり、他の通信端末又は他の通信端末群を識別する識別情報である。   In addition, the shared ID allows each user to distribute video (sound) data having the same contents as the video (sound) data distributed to his / her communication terminal 5 to other communication terminals 5. Thus, the ID is used when remote sharing processing is performed, and is identification information for identifying another communication terminal or another communication terminal group.

例えば、端末ID「t006」の共有IDは「v006」であり、端末ID「t007」の共有IDは「v006」であり、また、端末ID「t008」の共有IDは「v006」である。   For example, the shared ID of the terminal ID “t006” is “v006”, the shared ID of the terminal ID “t007” is “v006”, and the shared ID of the terminal ID “t008” is “v006”.

更に、端末ID「t001」の通信端末5aから、共有ID「v006」の通信端末(5f1,5f2,5f3)との遠隔共有処理の要求があったとする。この場合には、配信管理システム2は、通信端末(5f1,5f2,5f3)に対して、通信端末5aに配信中の映像(音)データと同じ映像(音)データを配信する。   Furthermore, it is assumed that the communication terminal 5a having the terminal ID “t001” requests remote sharing processing with the communication terminals (5f1, 5f2, 5f3) having the sharing ID “v006”. In this case, the distribution management system 2 distributes the same video (sound) data as the video (sound) data being distributed to the communication terminal 5a to the communication terminals (5f1, 5f2, 5f3).

但し、通信端末5aと通信端末(5f1,5f2,5f3)の表示部58の解像度が異なる場合には、これに応じて、配信管理システム2が映像(音)データを配信する。   However, when the resolutions of the display units 58 of the communication terminal 5a and the communication terminals (5f1, 5f2, 5f3) are different, the distribution management system 2 distributes video (sound) data accordingly.

更に、設置位置情報は、例えば、図5に示されているように、通信端末(5f1,5f2,5f3)が並んで設置される場合の設置位置を示している。表示名情報は、図12に示されている配信先選択メニュー画面の表示名の内容を表す情報である。   Furthermore, the installation position information indicates the installation position when the communication terminals (5f1, 5f2, 5f3) are installed side by side, for example, as shown in FIG. The display name information is information representing the contents of the display name on the distribution destination selection menu screen shown in FIG.

一方、利用可能端末管理テーブル7020では、端末ID毎に、この端末IDによって示される通信端末5が遠隔共有処理することが可能な通信端末又は通信端末群を示す共有IDが関連付けて管理されている。   On the other hand, in the available terminal management table 7020, for each terminal ID, a shared ID indicating a communication terminal or a communication terminal group that can be remotely shared by the communication terminal 5 indicated by the terminal ID is managed in association with each other. .

次に、図11に戻り、各機能構成について説明する。   Next, returning to FIG. 11, each functional configuration will be described.

送受信部71aは、通信端末5との間で、各種データや要求等の送受信を行う。例えば、送受信部71aは、通信端末5の送受信部51からログイン要求を受信し、送受信部51に対してログイン要求の認証結果を送信したりする。   The transmission / reception unit 71 a transmits and receives various data and requests to and from the communication terminal 5. For example, the transmission / reception unit 71 a receives a login request from the transmission / reception unit 51 of the communication terminal 5 and transmits an authentication result of the login request to the transmission / reception unit 51.

送受信部71bは、配信管理システム2との間で、各種データや要求等の送受信を行う。例えば、送受信部71bは、配信管理システム2の送受信部21から配信先選択メニューのデータの要求を受信し、送受信部21に対して、配信先選択メニューのデータを送信したりする。   The transmission / reception unit 71b transmits / receives various data and requests to / from the distribution management system 2. For example, the transmission / reception unit 71 b receives a request for data of the distribution destination selection menu from the transmission / reception unit 21 of the distribution management system 2, and transmits the data of the distribution destination selection menu to the transmission / reception unit 21.

認証部75は、通信端末5から受信した端末ID及びユーザ証明書に基づいて、端末管理テーブル7010を検索することにより、同じ組み合わせの端末ID及びユーザ証明書があるか否かを判断することで、通信端末5aの認証を行う。   The authentication unit 75 searches the terminal management table 7010 based on the terminal ID and user certificate received from the communication terminal 5 to determine whether or not there are the same combination of terminal ID and user certificate. Then, the communication terminal 5a is authenticated.

〔第1の実施の形態の動作または処理〕
続いて、図17乃至図24を用いて、第1の実施の形態の動作または処理について説明する。
[Operation or Processing of First Embodiment]
Next, the operation or processing of the first embodiment will be described with reference to FIGS.

<基本的な配信処理>
まず、図17を用いて、配信管理システム2の基本的な配信方法における具体的な配信処理を説明する。図17は、配信管理システムの基本的な配信処理を示したシーケンス図である。なお、ここでは、通信端末5aを用いてログイン要求する場合について説明するが、通信端末5a以外の通信端末5を用いてログインしてもよい。
<Basic delivery processing>
First, specific distribution processing in the basic distribution method of the distribution management system 2 will be described with reference to FIG. FIG. 17 is a sequence diagram showing basic distribution processing of the distribution management system. Here, a case where a login request is made using the communication terminal 5a will be described, but login may be made using a communication terminal 5 other than the communication terminal 5a.

図17に示されているように、通信端末5aにおいてユーザが電源オンにすると、通信端末5aの送受信部51は、端末管理システム7の送受信部71aを介して認証部75に、ログイン要求を行う(ステップS21)。このログイン要求には、通信端末5aの端末ID及びユーザ証明書が含まれている。   As shown in FIG. 17, when the user turns on the power in the communication terminal 5a, the transmission / reception unit 51 of the communication terminal 5a makes a login request to the authentication unit 75 via the transmission / reception unit 71a of the terminal management system 7. (Step S21). This login request includes the terminal ID of the communication terminal 5a and the user certificate.

次に、認証部75は、受信した端末ID及びユーザ証明書に基づいて、端末管理テーブル7010を検索することにより、同じ組み合わせの端末ID及びユーザ証明書があるか否かを判断することで、通信端末5aの認証を行う(ステップS22)。ここでは、端末管理テーブル7010に同じ組み合わせの端末ID及びユーザ証明書がある、即ち、通信端末5aが配信システム1における正当な端末であると認証された場合について、以下に続けて説明する。   Next, the authentication unit 75 searches the terminal management table 7010 based on the received terminal ID and user certificate to determine whether there is a terminal ID and user certificate of the same combination. Authentication of the communication terminal 5a is performed (step S22). Here, the case where the terminal management table 7010 has the same combination of terminal ID and user certificate, that is, the case where the communication terminal 5a is authenticated as a valid terminal in the distribution system 1 will be described below.

端末管理システム7の認証部75は、送受信部71aを介して、通信端末5aの送受信部51bに、配信管理システム2のIPアドレスを送信する(ステップS23)。なお、配信管理システム2のIPアドレスは、予め、端末管理システム7によって取得されて、記憶部7000に記憶されている。更に、端末管理システム7の送受信部71bは、配信管理システム2の送受信部21を介して、ブラウザ管理部22に、ブラウザ20の起動要求を行う(ステップS24)。これにより、ブラウザ管理部22は、ブラウザ20を起動させる(ステップS25)。   The authentication unit 75 of the terminal management system 7 transmits the IP address of the distribution management system 2 to the transmission / reception unit 51b of the communication terminal 5a via the transmission / reception unit 71a (step S23). Note that the IP address of the distribution management system 2 is acquired in advance by the terminal management system 7 and stored in the storage unit 7000. Further, the transmission / reception unit 71b of the terminal management system 7 requests the browser management unit 22 to start the browser 20 via the transmission / reception unit 21 of the distribution management system 2 (step S24). Thereby, the browser management part 22 starts the browser 20 (step S25).

次に、エンコーダブリッジ部30の作成・選択部310は、通信端末5aの再生能力(ディスプレイの解像度等)及びコンテンツの種類に従って変換部10を作成する(ステップS26)。   Next, the creation / selection unit 310 of the encoder bridge unit 30 creates the conversion unit 10 according to the reproduction capability (display resolution, etc.) of the communication terminal 5a and the type of content (step S26).

次に、ブラウザ20は、ウェブサーバ8に対して、コンテンツデータ〔A〕を要求する(ステップS27)。これに対して、ウェブサーバ8は、要求されたコンテンツデータ〔A〕を自己の記憶部(不図示)から読み出す(ステップS28)。そして、ウェブサーバ8は、配信管理システム2の送受信部21を介して、要求元であるブラウザ20にコンテンツデータ〔A〕を送信する(ステップS29)。   Next, the browser 20 requests content data [A] from the web server 8 (step S27). In response to this, the web server 8 reads the requested content data [A] from its own storage unit (not shown) (step S28). Then, the web server 8 transmits the content data [A] to the browser 20 that is the request source via the transmission / reception unit 21 of the distribution management system 2 (step S29).

次に、ブラウザ20が、コンテンツデータ〔A〕をレンダリングして画像(音)データを生成し、送信用FIFO24に出力する(ステップS30)。そして、変換部10が、送信用FIFO24に格納された画像(音)データをエンコードすることで、通信端末5aに配信すべき映像(音)データ〔A〕に変換する(ステップS31)。   Next, the browser 20 renders the content data [A] to generate image (sound) data, and outputs it to the transmission FIFO 24 (step S30). Then, the converter 10 encodes the image (sound) data stored in the transmission FIFO 24 to convert it into video (sound) data [A] to be distributed to the communication terminal 5a (step S31).

次に、エンコーダブリッジ部30は、送受信部31及び送受信部51を介して、再生制御部53に映像(音)データ〔A〕を送信する(ステップS32)。これにより、通信端末5aでは、再生制御部53からデコード部50に、映像(音)データ〔A〕が出力され、スピーカ61から音が再生されると共に、レンダリング部55を介して表示部58にて映像が再生される(ステップS33)。   Next, the encoder bridge unit 30 transmits the video (sound) data [A] to the reproduction control unit 53 via the transmission / reception unit 31 and the transmission / reception unit 51 (step S32). As a result, in the communication terminal 5 a, the video (sound) data [A] is output from the reproduction control unit 53 to the decoding unit 50, the sound is reproduced from the speaker 61, and also displayed on the display unit 58 via the rendering unit 55. The video is reproduced (step S33).

<時刻調整の処理>
続いて、図19を用いて、時刻調整の処理について説明する。なお、図19は、時刻調整の処理を示したシーケンス図である。まず、通信端末5の時刻制御部56は、送受信部51が配信管理システム2に時刻情報(T)を要求する時刻を取得するために、記憶部5000から通信端末5における時刻情報(ts)を取得する(ステップS81)。そして、送受信部51は送受信部31に、配信管理システム2における時刻情報(T)を要求する(ステップS82)。この場合、時刻情報(T)の要求と共に、上記時刻情報(ts)が送信される。
<Time adjustment processing>
Next, time adjustment processing will be described with reference to FIG. FIG. 19 is a sequence diagram showing time adjustment processing. First, the time control unit 56 of the communication terminal 5 obtains the time information (ts) in the communication terminal 5 from the storage unit 5000 in order to acquire the time when the transmission / reception unit 51 requests the time information (T) from the distribution management system 2. Obtain (step S81). Then, the transmission / reception unit 51 requests the time information (T) in the distribution management system 2 from the transmission / reception unit 31 (step S82). In this case, the time information (ts) is transmitted together with a request for time information (T).

次に、時刻取得部26は、送受信部31が上記ステップS82の要求を受信した時刻を取得するために、時刻管理部25から配信管理システム2における時刻情報(Tr)を取得する(ステップS83)。更に、時刻取得部26は、送受信部31が上記ステップS82の要求に応答する時刻を取得するために、時刻管理部25から配信管理システム2における時刻情報(Ts)を取得する(ステップS84)。そして、送受信部31は送受信部51に、時刻情報(ts,Tr,Ts)を送信する(ステップS85)。   Next, the time acquisition unit 26 acquires time information (Tr) in the distribution management system 2 from the time management unit 25 in order to acquire the time when the transmission / reception unit 31 receives the request in step S82 (step S83). . Furthermore, the time acquisition unit 26 acquires time information (Ts) in the distribution management system 2 from the time management unit 25 in order to acquire the time at which the transmission / reception unit 31 responds to the request in step S82 (step S84). Then, the transmitter / receiver 31 transmits time information (ts, Tr, Ts) to the transmitter / receiver 51 (step S85).

次に、通信端末5の時刻制御部56は、送受信部51が上記ステップS85の応答を受信した時刻を取得するために、記憶部5000から通信端末5における時刻情報(tr)を取得する(ステップS86)。   Next, the time control unit 56 of the communication terminal 5 acquires the time information (tr) in the communication terminal 5 from the storage unit 5000 in order to acquire the time when the transmission / reception unit 51 received the response of step S85 (step S85). S86).

そして、通信端末5の時刻制御部56は、配信管理システム2と通信端末5との間の時刻差Δを計算する(ステップS87)。この時刻差Δは、以下の式1によって表される。
Δ=((Tr+Ts)/2)−((tr+ts)/2)・・・(式1)
Then, the time control unit 56 of the communication terminal 5 calculates a time difference Δ between the distribution management system 2 and the communication terminal 5 (step S87). This time difference Δ is expressed by the following Equation 1.
Δ = ((Tr + Ts) / 2) − ((tr + ts) / 2) (Equation 1)

そして、時刻制御部56は、記憶部6000に時刻差データΔを記憶する(ステップS88)。この時刻調整の一連の処理は、例えば、毎分定期的に行われる。   Then, the time control unit 56 stores the time difference data Δ in the storage unit 6000 (step S88). This series of time adjustment processes is performed periodically, for example, every minute.

<下り用の回線適応制御の処理>
続いて、図20を用いて、配信管理システム2から通信端末5に送信する(下り)データの回線適応制御の処理を説明する。なお、図20は、配信管理システムから通信端末に送信するデータの回線適応制御の処理を示したシーケンス図である。
<Process of downlink adaptive control>
Next, a description will be given of the channel adaptive control processing of (downstream) data transmitted from the distribution management system 2 to the communication terminal 5 with reference to FIG. FIG. 20 is a sequence diagram showing a process of line adaptive control of data transmitted from the distribution management system to the communication terminal.

まず、配信管理システム2のエンコーダブリッジ部30は、送受信部31及び送受信部51を介して再生制御部53に、再生までにバッファリングして再生を遅延させるための再生遅延時間を示す再生遅延時間情報(U)を送信する(ステップS101)。   First, the encoder bridge unit 30 of the distribution management system 2 uses the transmission / reception unit 31 and the transmission / reception unit 51 to the reproduction control unit 53 to reproduce the reproduction delay time for buffering before reproduction and delaying the reproduction. Information (U) is transmitted (step S101).

また、エンコーダブリッジ部30は、送信用FIFO24から取得してエンコード等を行った映像(音)データ〔A〕に対して、時刻管理部25から取得した現時点の時刻Tをタイムスタンプとして付加する。次に、エンコーダブリッジ部30は、送受信部31及び送受信部51を介して、再生制御部53に送信する(ステップS102)。 The encoder bridge unit 30 adds the current time T 0 acquired from the time management unit 25 as a time stamp to the video (sound) data [A] acquired from the transmission FIFO 24 and encoded. . Next, the encoder bridge unit 30 transmits the reproduction control unit 53 via the transmission / reception unit 31 and the transmission / reception unit 51 (step S102).

一方、通信端末5では、再生制御部53が、通信端末5における時刻(T+U−Δ)になるまで待ってから、再生遅延時間U内に受信した映像(音)データをデコード部50に出力することで、スピーカ61から音を再生させ、レンダリング部55を介して表示部58で映像を再生させる(ステップS103)。 On the other hand, in the communication terminal 5, after the reproduction control unit 53 waits until the time (T 0 + U−Δ) in the communication terminal 5 is reached, the video (sound) data received within the reproduction delay time U is sent to the decoding unit 50. By outputting, the sound is reproduced from the speaker 61, and the video is reproduced on the display unit 58 via the rendering unit 55 (step S103).

即ち、以下の式2に示される再生遅延時間Uの範囲内に通信端末5が受信した映像(音)データだけが再生されることになり、範囲外の映像(音)データは再生されずに消去される。
U≧(t+Δ)−T・・・(式2)
That is, only the video (sound) data received by the communication terminal 5 is reproduced within the range of the reproduction delay time U shown in Expression 2 below, and the video (sound) data outside the range is not reproduced. Erased.
U ≧ (t 0 + Δ) −T 0 (Expression 2)

また、再生制御部53は、記憶部6000から、通信端末5における現時点の時刻tを読み出す(ステップS104)。この時刻tは、通信端末5が配信管理システム2から映像(音)データを受信した時点の通信端末5における時刻を示す。更に、再生制御部53は、記憶部6000から、上記ステップS86によって記憶されている時刻差Δを示す時刻差情報(Δ)を読み出す(ステップS105)。 Further, the reproduction control unit 53 reads the current time t 0 in the communication terminal 5 from the storage unit 6000 (step S104). This time t 0 indicates the time at the communication terminal 5 when the communication terminal 5 receives the video (sound) data from the distribution management system 2. Further, the reproduction control unit 53 reads time difference information (Δ) indicating the time difference Δ stored in step S86 from the storage unit 6000 (step S105).

そして、再生制御部53は、映像(音)データが配信管理システム2から送信されて通信端末5で受信されるまでの時間を示す送信遅延時間D1を計算する(ステップS106)。この計算は、以下の式3によって行われ、通信ネットワーク9が混雑している場合には、送信遅延時間D1が長くなる。
D1=(t+Δ)−T・・・(式3)
Then, the reproduction control unit 53 calculates a transmission delay time D1 indicating the time from when the video (sound) data is transmitted from the distribution management system 2 until it is received by the communication terminal 5 (step S106). This calculation is performed according to the following Expression 3, and when the communication network 9 is congested, the transmission delay time D1 becomes long.
D1 = (t 0 + Δ) −T 0 (Equation 3)

次に、遅延情報取得部57は、再生制御部53から送信遅延時間D1を示す送信遅延時間情報(D1)を取得して一定時間保持する。次に、遅延情報取得部57は、複数の送信遅延時間情報(D1)を取得したところで、送受信部51及び送受信部31を介して回線適応制御部27に、複数の送信遅延時間D1による度数分布情報を示す送信遅延時間情報(D)を送信する(ステップS107)。   Next, the delay information acquisition unit 57 acquires the transmission delay time information (D1) indicating the transmission delay time D1 from the reproduction control unit 53 and holds it for a certain time. Next, when the delay information acquisition unit 57 acquires a plurality of pieces of transmission delay time information (D1), the frequency distribution due to the plurality of transmission delay times D1 is sent to the line adaptive control unit 27 via the transmission / reception unit 51 and the transmission / reception unit 31. Transmission delay time information (D) indicating the information is transmitted (step S107).

次に、配信管理システム2の回線適応制御部27は、送信遅延時間情報(D)に基づいて、新たに再生遅延情報U´を計算し、変換部10のフレームレートやデータの解像度等の動作条件を計算したりする(ステップS108)。   Next, the line adaptation control unit 27 of the distribution management system 2 newly calculates reproduction delay information U ′ based on the transmission delay time information (D), and performs operations such as the frame rate and data resolution of the conversion unit 10. The conditions are calculated (step S108).

次に、配信管理システム2のエンコーダブリッジ部30は、送受信部31及び送受信部51を介して再生制御部53に、上記ステップS108によって計算された新たな再生遅延時間U´を示す再生遅延時間情報(U´)を送信する(ステップS109)。   Next, the encoder bridge unit 30 of the distribution management system 2 sends reproduction delay time information indicating the new reproduction delay time U ′ calculated in step S108 to the reproduction control unit 53 via the transmission / reception unit 31 and the transmission / reception unit 51. (U ') is transmitted (step S109).

更に、変換部10は、動作条件を示す回線適応制御信号に基づいて、変換部10の動作条件を変更する(ステップS110)。例えば、送信遅延時間D1が長すぎる場合、送信遅延時間D1に応じて再生遅延時間Uを長くすると、スピーカ61や表示部58での再生時間が遅くなり過ぎるため、再生遅延時間Uを長くすることには限界がある。   Furthermore, the conversion unit 10 changes the operation condition of the conversion unit 10 based on the line adaptive control signal indicating the operation condition (step S110). For example, when the transmission delay time D1 is too long, if the reproduction delay time U is lengthened in accordance with the transmission delay time D1, the reproduction time on the speaker 61 or the display unit 58 becomes too late, so the reproduction delay time U is lengthened. Has its limits.

そこで、回線適応制御部27は、エンコーダブリッジ部30に対して、再生遅延時間Uを変更させて再生遅延時間U´とするだけでなく、変換部10に対して、映像(音)データのフレームレートを下げさせ、映像(音)データの解像度を下げさせたりする。したがって、通信ネットワーク9の混雑に対応することができる。   Therefore, the line adaptive control unit 27 not only changes the reproduction delay time U to the encoder bridge unit 30 to obtain the reproduction delay time U ′, but also provides the conversion unit 10 with a frame of video (sound) data. Decrease the rate and reduce the resolution of the video (sound) data. Therefore, it is possible to cope with the congestion of the communication network 9.

これにより、エンコーダブリッジ部30は、変更後の動作条件に従って、上記ステップS102のように、現時点の時刻Tをタイムスタンプとして付加した映像(音)データを通信端末5の再生制御部53に送信する(ステップS111)。 Thereby, the encoder bridge unit 30 transmits the video (sound) data to which the current time T 0 is added as a time stamp to the reproduction control unit 53 of the communication terminal 5 according to the changed operation condition as in step S102. (Step S111).

次に、通信端末5では、再生制御部53が、通信端末5における時刻(T+U'−Δ)になるまで待ってから、再生遅延時間U´内に受信した映像(音)データをデコード部50に出力する。これにより、再生制御部53は、上記ステップS103のように、スピーカ61から音を再生させ、レンダリング部55を介して表示部58から映像を再生させる(ステップS112)。その後、上記ステップS104以降の処理が続けて行われる。このようにして、下り用の回線適応制御の処理が継続して行われる。 Next, in the communication terminal 5, the reproduction control unit 53 waits until the time (T 0 + U′−Δ) in the communication terminal 5 is reached, and then decodes the video (sound) data received within the reproduction delay time U ′. To the unit 50. Thereby, the reproduction | regeneration control part 53 reproduces | regenerates a sound from the speaker 61 like said step S103, and reproduces | regenerates an image | video from the display part 58 via the rendering part 55 (step S112). Thereafter, the processing after step S104 is continued. In this way, the downlink channel adaptive control process is continuously performed.

<上り用の回線適応制御の処理>
続いて、図21を用いて、通信端末5から配信管理システム2に送信する(上り)データの回線適応制御の処理を説明する。なお、図21は、通信端末から配信管理システムに送信するデータの回線適応制御の処理を示したシーケンス図である。
<Processing of uplink adaptive control>
Next, the processing of line adaptation control of (upstream) data transmitted from the communication terminal 5 to the distribution management system 2 will be described with reference to FIG. FIG. 21 is a sequence diagram showing a process of line adaptive control of data transmitted from the communication terminal to the distribution management system.

まず、通信端末5のエンコード部60は、カメラ62及びマイク63から取得してエンコードした映像(音)データ〔E〕を送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する(ステップS121)。   First, the encoding unit 60 of the communication terminal 5 receives the video (sound) data [E] acquired and encoded from the camera 62 and the microphone 63 via the transmission / reception unit 51 and the transmission / reception unit 31, and the decoding unit 40 of the distribution management system 2. (Step S121).

また、エンコード部60は、記憶部6000から取得した現時点の通信端末5における時刻tを示す時刻情報(t)を、送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する(ステップS121)。更に、エンコード部60は、記憶部6000から取得した時間差Δを示す時間差情報(Δ)を、送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する(ステップS121)。 In addition, the encoding unit 60 receives the time information (t 0 ) indicating the current time t 0 in the communication terminal 5 acquired from the storage unit 6000 via the transmission / reception unit 51 and the transmission / reception unit 31, and the decoding unit of the distribution management system 2. 40 (step S121). Further, the encoding unit 60 transmits time difference information (Δ) indicating the time difference Δ acquired from the storage unit 6000 to the decoding unit 40 of the distribution management system 2 via the transmission / reception unit 51 and the transmission / reception unit 31 (step S121). .

次に、配信管理システム2では、デコード部40が上記ステップS121によって映像(音)データ〔E〕等を受信した時点の時刻Tを時刻管理部25から読み出す(ステップS122)。そして、デコード部40は、映像(音)データが通信端末5から送信されて配信管理システム2で受信されるまでの時間を示す送信遅延時間d1を計算する(ステップS123)。 Next, in the distribution management system 2, the time T 0 when the decoding unit 40 receives the video (sound) data [E] and the like in step S 121 is read from the time management unit 25 (step S 122). Then, the decoding unit 40 calculates a transmission delay time d1 that indicates a time from when the video (sound) data is transmitted from the communication terminal 5 until it is received by the distribution management system 2 (step S123).

この計算は、以下の式4によって行われ、通信ネットワーク9が混雑している場合には、送信遅延時間D1が長くなる。
d1=T−(t+Δ)・・・(式4)
This calculation is performed according to the following Expression 4, and when the communication network 9 is congested, the transmission delay time D1 becomes long.
d1 = T 0 − (t 0 + Δ) (Formula 4)

次に、配信管理システム2の遅延情報取得部37aは、遅延情報取得部57と同様に、デコード部40から送信遅延時間d1を示す送信遅延時間情報(d1)を取得して一定時間保持する。遅延情報取得部37aは、複数の送信遅延時間情報(d1)を取得したところで、回線適応制御部37bに、複数の送信遅延時間d1による度数分布情報を示す送信遅延時間情報(d)を出力する(ステップS124)。   Next, similarly to the delay information acquisition unit 57, the delay information acquisition unit 37a of the distribution management system 2 acquires transmission delay time information (d1) indicating the transmission delay time d1 from the decoding unit 40 and holds it for a certain period of time. When the delay information acquisition unit 37a acquires a plurality of transmission delay time information (d1), the delay information acquisition unit 37a outputs transmission delay time information (d) indicating frequency distribution information based on the plurality of transmission delay times d1 to the line adaptive control unit 37b. (Step S124).

次に、回線適応制御部37bは、送信遅延時間情報(d)に基づいて、エンコード部60の動作条件を計算する(ステップS108)。そして、回線適応制御部37bは、送受信部31及び送受信部51を介して通信端末5のエンコード部60に、フレームレートやデータの解像度等の動作条件を示す回線適応制御信号を送信する(ステップS126)。   Next, the line adaptation control unit 37b calculates the operating condition of the encoding unit 60 based on the transmission delay time information (d) (step S108). Then, the channel adaptation control unit 37b transmits a channel adaptation control signal indicating an operation condition such as a frame rate and data resolution to the encoding unit 60 of the communication terminal 5 via the transmission / reception unit 31 and the transmission / reception unit 51 (step S126). ).

即ち、下りの場合の回線適応制御部27は、同じ配信管理システム2内でエンコーダブリッジ部30に回線適応制御信号を出力する。これに対して、上りの場合の回線適応制御部37bは、配信管理システム2から通信ネットワーク9を介して、通信端末5に回線適応制御信号を送信する。   That is, the downlink channel adaptation control unit 27 outputs a channel adaptation control signal to the encoder bridge unit 30 in the same distribution management system 2. On the other hand, the uplink channel adaptation control unit 37 b transmits a channel adaptation control signal from the distribution management system 2 to the communication terminal 5 via the communication network 9.

次に、エンコード部60は、受信した回線適応制御信号で示される動作条件に基づいて、エンコード部60の動作条件を変更する(ステップS127)。   Next, the encoding unit 60 changes the operating condition of the encoding unit 60 based on the operating condition indicated by the received line adaptation control signal (step S127).

そして、エンコード部60は、新たな動作条件によって、上記ステップS121のように、カメラ62及びマイク63からエンコードした映像(音)データ〔E〕を取得する。エンコード部60は、その取得した映像(音)データ〔E〕を送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する(ステップS128)。   Then, the encoding unit 60 acquires the encoded video (sound) data [E] from the camera 62 and the microphone 63, as in step S121, according to the new operation condition. The encoding unit 60 transmits the acquired video (sound) data [E] to the decoding unit 40 of the distribution management system 2 via the transmission / reception unit 51 and the transmission / reception unit 31 (step S128).

また、エンコード部60は、記憶部6000から取得した現時点の通信端末5における時刻tを示す時刻情報(t)を、送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する(ステップS128)。 In addition, the encoding unit 60 receives the time information (t 0 ) indicating the current time t 0 in the communication terminal 5 acquired from the storage unit 6000 via the transmission / reception unit 51 and the transmission / reception unit 31, and the decoding unit of the distribution management system 2. 40 (step S128).

更に、エンコード部60は、同じく記憶部6000から取得した時間差Δを示す時間差情報(Δ)を、送受信部51及び送受信部31を介して、配信管理システム2のデコード部40に送信する(ステップS128)。その後、上記ステップS122以降の処理が続けて行われる。このようにして、上り用の回線適応制御の処理が継続して行われる。   Furthermore, the encoding unit 60 transmits time difference information (Δ) indicating the time difference Δ acquired from the storage unit 6000 to the decoding unit 40 of the distribution management system 2 via the transmission / reception unit 51 and the transmission / reception unit 31 (step S128). ). Thereafter, the processing after step S122 is continued. In this way, the uplink channel adaptive control process is continuously performed.

<マルチディスプレイの処理>
続いて、図22乃至図24を用いて、マルチディスプレイの処理について説明する。なお、図22乃至図24は、図5に示されているマルチディスプレイの処理を示したシーケンス図である。ここでは、通信端末5aで再生されている映像(音)〔XYZ〕を、各通信端末(5f1,5f2,5f3)にも分割して再生させる例である。
<Multi-display processing>
Next, multi-display processing will be described with reference to FIGS. 22 to 24 are sequence diagrams showing the processing of the multi-display shown in FIG. In this example, the video (sound) [XYZ] reproduced on the communication terminal 5a is also divided and reproduced on each communication terminal (5f1, 5f2, 5f3).

また、ここでは、ウェブコンテンツを表示させるためのブラウザ20を「ブラウザ20a」と示し、ユーザへの設定画面を表示させるためのブラウザ20を「ブラウザ20b」と示す。更に、ここでは、図17のステップS30に相当する処理から説明する。   Further, here, the browser 20 for displaying web content is indicated as “browser 20a”, and the browser 20 for displaying a setting screen for the user is indicated as “browser 20b”. Furthermore, the processing corresponding to step S30 in FIG. 17 will be described here.

まず、配信管理システム2のブラウザ20aは、ウェブサーバ8から取得したウェブコンテンツデータ〔XYZ〕をレンダリングして画像(音)データを生成し、送信用FIFO24に出力する(ステップS201)。そして、変換部10が、送信用FIFO24に格納された画像(音)データをエンコードすることで、通信端末5aに配信すべき映像(音)データ〔XYZ〕に変換する(ステップS202)。   First, the browser 20a of the distribution management system 2 renders the web content data [XYZ] acquired from the web server 8 to generate image (sound) data, and outputs it to the transmission FIFO 24 (step S201). Then, the converter 10 encodes the image (sound) data stored in the transmission FIFO 24 to convert it into video (sound) data [XYZ] to be distributed to the communication terminal 5a (step S202).

次に、エンコーダブリッジ部30は、送受信部31及び送受信部51を介して、通信端末5aの再生制御部53に映像(音)データ〔XYZ〕を送信する(ステップS203)。これにより、通信端末5aでは、再生制御部53からデコード部50に、映像(音)データ〔XYZ〕が出力され、レンダリング部55を介して、表示部58にて映像(音)が再生される(ステップS204)。   Next, the encoder bridge unit 30 transmits the video (sound) data [XYZ] to the reproduction control unit 53 of the communication terminal 5a via the transmission / reception unit 31 and the transmission / reception unit 51 (step S203). Thereby, in the communication terminal 5a, the video (sound) data [XYZ] is output from the playback control unit 53 to the decoding unit 50, and the video (sound) is played back on the display unit 58 via the rendering unit 55. (Step S204).

次に、通信端末5aのユーザによって、表示部58上に表示されている画面が不図示のメニュー要求画面に切り替えられ、操作部52が、メニュー要求画面中の不図示の「配信先選択メニュー」ボタンの押下を受け付ける(ステップS205)。これにより、送受信部51が、端末管理システム7の送受信部71aに、配信先選択メニューへの切り替えを要求する(ステップS206)。これに対して、送受信部71bは、送受信部21を介して配信管理システム2のブラウザ管理部22に対し、ブラウザ20bの起動要求を行う(ステップS208)。   Next, the user of the communication terminal 5a switches the screen displayed on the display unit 58 to a menu request screen (not shown), and the operation unit 52 displays a “delivery destination selection menu” (not shown) in the menu request screen. A button press is accepted (step S205). Accordingly, the transmission / reception unit 51 requests the transmission / reception unit 71a of the terminal management system 7 to switch to the distribution destination selection menu (step S206). In response to this, the transmission / reception unit 71b requests the browser management unit 22 of the distribution management system 2 to start the browser 20b via the transmission / reception unit 21 (step S208).

次に、エンコーダブリッジ部30の作成・選択部310は、ブラウザ20aから変換部10(例えば、変換部10a)への出力を、ブラウザ20bから変換部10(例えば、変換部10b)への出力に切り替える(ステップS209)。但し、通信端末5aが他の通信端末5(例えば、通信端末5b)と変換部10(例えば、変換部10a)を共有して上記ステップS203による映像(音)データを受信していた場合には、他の通信端末5(例えば、通信端末5b)はブラウザ20a用に変換部10(例えば、変換部10a)を利用中であるため、エンコーダブリッジ部30の作成・選択部310は、新たに変換部10(例えば、変換部10b)を作成する。そして、ブラウザ20bは、送受信部21及び送受信部71bを介して、端末管理システム7の記憶部7000に、配信先選択メニューを要求する(ステップS210)。   Next, the creation / selection unit 310 of the encoder bridge unit 30 converts the output from the browser 20a to the conversion unit 10 (for example, the conversion unit 10a) and the output from the browser 20b to the conversion unit 10 (for example, the conversion unit 10b). Switching (step S209). However, when the communication terminal 5a shares the conversion unit 10 (for example, the conversion unit 10a) with another communication terminal 5 (for example, the communication terminal 5b) and receives the video (sound) data in the above step S203. Since the other communication terminal 5 (for example, the communication terminal 5b) is using the conversion unit 10 (for example, the conversion unit 10a) for the browser 20a, the creation / selection unit 310 of the encoder bridge unit 30 performs a new conversion. The unit 10 (for example, the conversion unit 10b) is created. Then, the browser 20b requests a delivery destination selection menu from the storage unit 7000 of the terminal management system 7 via the transmission / reception unit 21 and the transmission / reception unit 71b (step S210).

この際に、通信端末5aの端末IDも送信される。これに対して、端末管理システム7の記憶部7000では、この端末IDに基づいて記憶部7000に記憶されている利用可能端末管理テーブル7020を検索することにより、対応する共有IDを抽出する(ステップS211)。   At this time, the terminal ID of the communication terminal 5a is also transmitted. On the other hand, the storage unit 7000 of the terminal management system 7 extracts the corresponding shared ID by searching the available terminal management table 7020 stored in the storage unit 7000 based on this terminal ID (step S211).

この共有IDは、通信端末5aが遠隔共通処理をするために利用可能な通信端末5を示している。ここでは、図14に示されているように、通信端末5aの端末IDが「t001」であるため、抽出される共有IDは「v003」、「v006」である。   This shared ID indicates the communication terminal 5 that can be used by the communication terminal 5a for remote common processing. Here, as shown in FIG. 14, since the terminal ID of the communication terminal 5a is “t001”, the extracted shared IDs are “v003” and “v006”.

更に、記憶部7000は、抽出した共有IDに基づいて端末管理テーブル7010を検索することにより、対応する表示名を示す表示名情報を抽出する(ステップS212)。ここでは、図13に示されているように、抽出された共有ID「v003」、「v006」に対応する表示名は、それぞれ「東京本社10F MFP」、「大阪展示場1F マルチディスプレイ」である。そして、記憶部7000は、送受信部71b及び送受信部21を介して、ブラウザ20bにコンテンツデータとして配信先選択メニューのデータを送信する(ステップS213)。   Further, the storage unit 7000 searches the terminal management table 7010 based on the extracted shared ID, thereby extracting display name information indicating the corresponding display name (step S212). Here, as shown in FIG. 13, the display names corresponding to the extracted shared IDs “v003” and “v006” are “Tokyo head office 10F MFP” and “Osaka exhibition hall 1F multi-display”, respectively. . And the memory | storage part 7000 transmits the data of a delivery destination selection menu as content data to the browser 20b via the transmission / reception part 71b and the transmission / reception part 21 (step S213).

この配信先選択メニューは、図13に示されているように、チェックボックス、共有ID、及び表示名が含まれている。   As shown in FIG. 13, the distribution destination selection menu includes a check box, a shared ID, and a display name.

次に、図23に示されているように、ブラウザ20bが、端末管理システム7から取得した配信先選択メニュー〔M〕を示すコンテンツデータをレンダリングして画像(音)データを生成し、送信用FIFO24に出力する(ステップS221)。そして、変換部10が、送信用FIFO24に格納された画像(音)データ〔M〕をエンコードすることで、通信端末5aに配信すべき映像(音)データ〔M〕に変換する(ステップS222)。   Next, as shown in FIG. 23, the browser 20b renders content data indicating the distribution destination selection menu [M] acquired from the terminal management system 7 to generate image (sound) data, and transmits it. The data is output to the FIFO 24 (step S221). Then, the conversion unit 10 encodes the image (sound) data [M] stored in the transmission FIFO 24 to convert it into video (sound) data [M] to be distributed to the communication terminal 5a (step S222). .

次に、エンコーダブリッジ部30は、送受信部31及び送受信部51を介して、通信端末5aの再生制御部53に映像(音)データ〔M〕を送信する(ステップS223)。これにより、通信端末5aでは、再生制御部53からデコード部50に、映像(音)データ〔M〕が出力され、レンダリング部55を介して、表示部58にて、図12に示されているような映像(音)が再生される(ステップS224)。   Next, the encoder bridge unit 30 transmits the video (sound) data [M] to the reproduction control unit 53 of the communication terminal 5a via the transmission / reception unit 31 and the transmission / reception unit 51 (step S223). Thereby, in the communication terminal 5a, the video (sound) data [M] is output from the reproduction control unit 53 to the decoding unit 50, and is shown in FIG. 12 on the display unit 58 via the rendering unit 55. Such video (sound) is reproduced (step S224).

次に、ユーザが共有ID「v006」のチェックボックスにチェックを入れ、「OK」ボタンを押下する。その結果、操作部52が、送受信部51及び送受信部31を介してブラウザ管理部22に、操作データとしてチェック結果を送信する(ステップS226)。   Next, the user checks the check box of the shared ID “v006” and presses the “OK” button. As a result, the operation unit 52 transmits the check result as operation data to the browser management unit 22 via the transmission / reception unit 51 and the transmission / reception unit 31 (step S226).

次に、ブラウザ20bは、チェック結果から共有IDを選択する(ステップS227)。   Next, the browser 20b selects a shared ID from the check result (step S227).

そして、ブラウザ20bは、送受信部21及び送受信部71bを介して、端末管理システム7の記憶部7000に配信先追加要求を行う(ステップS228)。この配信先追加要求には、上記ステップS227によって選択された共有IDが含まれている。そして、ブラウザ20bは、役目を終えて終了する(ステップS229)。   Then, the browser 20b makes a distribution destination addition request to the storage unit 7000 of the terminal management system 7 via the transmission / reception unit 21 and the transmission / reception unit 71b (step S228). This distribution destination addition request includes the shared ID selected in step S227. Then, the browser 20b finishes its role and ends (step S229).

これにより、エンコーダブリッジ部30の作成・選択部310は、ブラウザ20bから変換部10への出力を、ブラウザ20aから変換部10への出力に戻すよう切り替える(ステップS230)。   Thereby, the creation / selection unit 310 of the encoder bridge unit 30 switches the output from the browser 20b to the conversion unit 10 so as to return the output from the browser 20a to the conversion unit 10 (step S230).

次に、図24に示されているように、端末管理システム7の記憶部7000では、上記ステップS228によって送られて来た共有IDに基づいて、端末管理テーブル7010を検索して、対応する端末ID及び設置位置情報を抽出する(ステップS241)。そして、記憶部7000は、送受信部71b及び送受信部21を介してブラウザ管理部22に、配信先の追加指示を行う(ステップS242)。   Next, as shown in FIG. 24, in the storage unit 7000 of the terminal management system 7, the terminal management table 7010 is searched based on the shared ID sent in step S228, and the corresponding terminal ID and installation position information are extracted (step S241). Then, the storage unit 7000 instructs the browser management unit 22 to add a distribution destination via the transmission / reception unit 71b and the transmission / reception unit 21 (step S242).

配信先の追加指示には、ステップS241によって抽出された端末ID及び設置位置情報が含まれている。図14の大阪展示場のマルチディスプレイの例では、「t006」及び「左」、「t007」及び「中」、「t008」及び「右」からなる3組の端末ID及び設置位置情報が含まれている。ブラウザ管理部22は、ブラウザ20及び送信用FIFO24経由で、これらの端末ID及び設置位置情報をエンコーダブリッジ部30に出力する。   The distribution destination addition instruction includes the terminal ID and installation position information extracted in step S241. In the example of the multi-display in the Osaka exhibition hall of FIG. 14, three sets of terminal IDs and installation position information including “t006” and “left”, “t007” and “middle”, “t008” and “right” are included. ing. The browser management unit 22 outputs the terminal ID and installation position information to the encoder bridge unit 30 via the browser 20 and the transmission FIFO 24.

次に、エンコーダブリッジ部30の作成・選択部310は、マルチディスプレイ用の変換部10を作成する(ステップS243)。なお、この場合、エンコーダブリッジ部30の作成・選択部310は、ブラウザ管理部22から、端末ID及び設置位置情報を取得する。そして、上記ステップS243によって作成された変換部10の分割部13が、送信用FIFO24に格納されている画像(音)データ〔XYZ〕を分割し、エンコード部19が、分割された各データをエンコードする(ステップS244)。   Next, the creation / selection unit 310 of the encoder bridge unit 30 creates the conversion unit 10 for multi-display (step S243). In this case, the creation / selection unit 310 of the encoder bridge unit 30 acquires the terminal ID and the installation position information from the browser management unit 22. Then, the dividing unit 13 of the converting unit 10 created in step S243 divides the image (sound) data [XYZ] stored in the transmission FIFO 24, and the encoding unit 19 encodes each divided data. (Step S244).

そして、エンコーダブリッジ部30は、端末ID(「t006」)及び設置位置情報(「左」)に基づいて、送受信部31及び通信端末5f1の送受信部51を介して、通信端末5f1の再生制御部53に映像(音)データ〔X〕を送信する(ステップS245−1)。   Then, the encoder bridge unit 30 is based on the terminal ID (“t006”) and the installation position information (“left”), and the reproduction control unit of the communication terminal 5f1 via the transmission / reception unit 31 and the transmission / reception unit 51 of the communication terminal 5f1. The video (sound) data [X] is transmitted to 53 (step S245-1).

これにより、通信端末5f1では、再生制御部53からデコード部50に、映像(音)データ〔X〕が出力され、スピーカ61から音が再生されると共に、レンダリング部55を介して表示部58にて映像が再生される(ステップS246−1)。   Thus, in the communication terminal 5f1, the video (sound) data [X] is output from the reproduction control unit 53 to the decoding unit 50, and the sound is reproduced from the speaker 61, and also displayed on the display unit 58 via the rendering unit 55. The video is reproduced (step S246-1).

また、同様にして、エンコーダブリッジ部30は、端末ID(「t007」)及び設置位置情報(「中」)に基づいて、送受信部31及び通信端末5f2の送受信部51を介して、通信端末5f2の再生制御部53に映像(音)データ〔Y〕を送信する(ステップS245−2)。   Similarly, the encoder bridge unit 30 communicates with the communication terminal 5f2 via the transmission / reception unit 31 and the transmission / reception unit 51 of the communication terminal 5f2 based on the terminal ID (“t007”) and the installation position information (“middle”). The video (sound) data [Y] is transmitted to the reproduction control unit 53 (step S245-2).

これにより、通信端末5f2は、再生制御部53からデコード部50に、映像(音)データ〔Y〕が出力され、スピーカ61から音が再生されると共に、レンダリング部55を介して表示部58にて映像が再生される(ステップS246−2)。   As a result, the communication terminal 5f2 outputs the video (sound) data [Y] from the reproduction control unit 53 to the decoding unit 50, reproduces the sound from the speaker 61, and displays it on the display unit 58 via the rendering unit 55. Thus, the video is reproduced (step S246-2).

更に、同様にして、エンコーダブリッジ部30は、端末ID(「t008」)及び設置位置情報(「右」)に基づいて、送受信部31及び通信端末5f3の送受信部51を介して、通信端末5f3の再生制御部53に映像(音)データ〔Z〕を送信する(ステップS245−3)。   Further, similarly, the encoder bridge unit 30 communicates with the communication terminal 5f3 via the transmission / reception unit 31 and the transmission / reception unit 51 of the communication terminal 5f3 based on the terminal ID (“t008”) and the installation position information (“right”). The video (sound) data [Z] is transmitted to the reproduction control unit 53 (step S245-3).

これにより、通信端末5f3は、再生制御部53からデコード部50に、映像(音)データ〔Z〕が出力され、スピーカ61から音が再生されると共に、レンダリング部55を介して表示部58にて映像が再生される(ステップS246−3)。   Accordingly, the communication terminal 5f3 outputs the video (sound) data [Z] from the reproduction control unit 53 to the decoding unit 50, reproduces the sound from the speaker 61, and also displays the sound on the display unit 58 via the rendering unit 55. The video is reproduced (step S246-3).

[第1の実施の形態の主な効果]
以上、詳細に説明したように、本実施形態の配信システム1では、クラウド上で配信管理システム2がブラウザ20及びエンコード等を行うエンコーダブリッジ部30を有する。これにより、ブラウザ20が所定の記述言語で示されたコンテンツデータから映像データ又は音データを生成し、エンコーダブリッジ部30が通信ネットワーク9を介して配信することができるようにデータ形式を変換してから通信端末5に配信する。
[Main effects of the first embodiment]
As described above in detail, in the distribution system 1 of the present embodiment, the distribution management system 2 includes the browser 20 and the encoder bridge unit 30 that performs encoding and the like on the cloud. As a result, the browser 20 generates video data or sound data from the content data indicated in a predetermined description language, and converts the data format so that the encoder bridge unit 30 can distribute the data via the communication network 9. To the communication terminal 5.

よって、通信端末5では、所定の記述言語で示されたコンテンツデータを受信する負荷、及び受信後に映像データ又は音データに変換する負荷が低減されるため、コンテンツのリッチ化に対応させるための負荷が高いという問題を解消することができる。   Therefore, in the communication terminal 5, the load for receiving the content data indicated in the predetermined description language and the load for converting to the video data or the sound data after the reception are reduced. Can be solved.

特に、ブラウザ20は、リアルタイムコミュニケーションを可能にし、変換部10は、ブラウザ20によって生成された映像(音)データに対してリアルタイムのエンコードを行う。このため、配信管理システム2は、配信する直前に取得したコンテンツをレンダリングすることで映像(音)データを生成してからエンコードするため、リアルタイム性に優れた映像(音)データの配信を行うことができる。   In particular, the browser 20 enables real-time communication, and the conversion unit 10 performs real-time encoding on video (sound) data generated by the browser 20. For this reason, the distribution management system 2 generates the video (sound) data by rendering the content acquired immediately before distribution, and then encodes it. Therefore, the distribution management system 2 distributes the video (sound) data with excellent real-time characteristics. Can do.

したがって、例えば、オンデマンド配信のように、DVDプレーヤがリアルタイム性のない予めエンコードされている映像(音)データを選択して配信する場合とは異なり、リアルタイム性に優れた映像(音)データの配信を行うことができる。   Therefore, for example, unlike a case where a DVD player selects and distributes pre-encoded video (sound) data without real-time characteristics, such as on-demand distribution, video (sound) data with excellent real-time characteristics is distributed. Distribution can be performed.

〔第2の実施の形態の概略〕
次に、本発明の第2の実施の形態における電子ペンP等や指入力等によるに基づくストローク座標[p]のローカル表示の制御について説明する。ローカル表示については後述するとして、まず、配信管理システム2によるデータの配信について説明する。なお、第2の実施の形態のハードウェア構成は、第1の実施の形態のものとほぼ同一であるので、第1の実施の形態の説明及び図面を援用するとともに、重複した説明は省略する。
[Outline of Second Embodiment]
Next, the local display control of the stroke coordinate [p] based on the electronic pen P or the like or finger input or the like in the second embodiment of the present invention will be described. The local display will be described later. First, data distribution by the distribution management system 2 will be described. Since the hardware configuration of the second embodiment is almost the same as that of the first embodiment, the description of the first embodiment and the drawings are used, and redundant description is omitted. .

配信管理システム2は、通信ネットワーク9を介して接続された通信端末に対して、通信端末から送信されたデータに基づいて画像データを生成する。また、この画像データを変換した映像データを通信端末に配信する。配信される通信端末は、データが送信された通信端末だけでなく、これ以外の複数の通信端末に各々配信することも可能である。   The distribution management system 2 generates image data based on the data transmitted from the communication terminal to the communication terminal connected via the communication network 9. Also, the video data obtained by converting the image data is distributed to the communication terminal. The communication terminal to be distributed can be distributed not only to the communication terminal to which data is transmitted but also to a plurality of other communication terminals.

例えば、複数の通信端末が通信ネットワークを介して配信管理システム2と接続されている例を説明する。複数の通信端末の各々は、自己の通信端末に対して電子ペンPや指等によって入力されたストローク座標[p]であっても、原則として、そのストローク座標[p]を配信管理システム2に送信した後、配信管理システム2から他の通信端末にも同時に配信されたストローク座標[p]に基づく画像データを表示することになっている。   For example, an example in which a plurality of communication terminals are connected to the distribution management system 2 via a communication network will be described. Even if each of the plurality of communication terminals is the stroke coordinate [p] input by the electronic pen P or the finger to its own communication terminal, in principle, the stroke coordinate [p] is sent to the distribution management system 2. After the transmission, the image data based on the stroke coordinates [p] distributed simultaneously from the distribution management system 2 to other communication terminals is to be displayed.

すなわち、ある特定の通信端末に入力されたストローク座標[p]は、一旦、配信管理システム2に送信された後、その特定の通信端末及び他の通信端末も、配信管理システム2から同時に配信されたストローク座標[p]に基づく画像データをそれぞれ表示する。しかし、この第2の実施の形態に記載する発明においては、ストローク座標[p]が入力された通信端末は、他の通信端末とは異なり、変則的な表示処理(後述する「ローカル表示」)を行う。もちろん、複数の通信端末でなく、1つの通信端末であってもローカル表示を行うことは可能である。   That is, the stroke coordinates [p] input to a specific communication terminal are once transmitted to the distribution management system 2, and then the specific communication terminal and other communication terminals are simultaneously distributed from the distribution management system 2. The image data based on the stroke coordinates [p] is displayed. However, in the invention described in the second embodiment, the communication terminal to which the stroke coordinate [p] is input differs from other communication terminals in an irregular display process ("local display" described later). I do. Of course, local display is possible even with a single communication terminal instead of a plurality of communication terminals.

[第2の実施の形態の詳細な説明]
次に、図10及び図11を参照して、第2の実施の形態の詳細な説明を行う。例えば、上記した複数の通信端末は、図11の通信端末5f1,5f2であり、1の通信端末は、通信端末5f1である。
[Detailed Description of Second Embodiment]
Next, a detailed description of the second embodiment will be given with reference to FIGS. 10 and 11. For example, the plurality of communication terminals described above are the communication terminals 5f1 and 5f2 in FIG. 11, and the one communication terminal is the communication terminal 5f1.

図11において、通信端末5f1は、表示部58と、入力されたペンストローク(描画軌跡)に基づくストローク座標[p]を、通信ネットワーク9を介して配信管理システム2に送信する送受信部51とを有する。また、通信端末5f1は、入力されたペンストローク(描画軌跡)に基づくストローク座標[p]から画像データを生成し、表示部58に表示するためのストローク制御部550及びレンダリング部55を有する。   In FIG. 11, the communication terminal 5 f 1 includes a display unit 58 and a transmission / reception unit 51 that transmits stroke coordinates [p] based on an input pen stroke (drawing locus) to the distribution management system 2 via the communication network 9. Have. Further, the communication terminal 5 f 1 includes a stroke control unit 550 and a rendering unit 55 for generating image data from stroke coordinates [p] based on the input pen stroke (drawing locus) and displaying the image data on the display unit 58.

入力されたペンストローク(描画軌跡)は、例えば、電子ペンP1の描画操作に応じて、電子黒板等の表示部58に描画されたものがあげられる。以下、説明の簡便のため、入力されたペンストローク(描画軌跡)は、電子ペンP1の描画操作に応じて電子黒板の表示部58に入力されたストローク座標[p]画像データとする。   The input pen stroke (drawing locus) is, for example, that drawn on the display unit 58 such as an electronic blackboard in accordance with the drawing operation of the electronic pen P1. Hereinafter, for ease of explanation, the input pen stroke (drawing locus) is assumed to be stroke coordinate [p] image data input to the display unit 58 of the electronic blackboard in accordance with the drawing operation of the electronic pen P1.

もちろん、通信端末5f1は、複写機能、ファクシミリ機能、及びスキャナ機能を任意に組み合わせた多機能情報処理装置(MFP)、又はテレビ会議システム用の電子黒板若しくはタブレット端末等を含むものである。   Of course, the communication terminal 5f1 includes a multi-function information processing apparatus (MFP) arbitrarily combining a copy function, a facsimile function, and a scanner function, or an electronic blackboard or tablet terminal for a video conference system.

図11の操作部52は、電子ペンによって電子黒板としての通信端末5f1に描画されたペンストローク(描画軌跡)の入力を受け付け、ストローク座標[p]を配信管理システム2に送信する。同時に、操作部52は、そのストローク座標[p]をストローク制御部550に出力する。   The operation unit 52 in FIG. 11 receives an input of a pen stroke (drawing locus) drawn on the communication terminal 5 f 1 as an electronic blackboard by the electronic pen, and transmits the stroke coordinates [p] to the distribution management system 2. At the same time, the operation unit 52 outputs the stroke coordinates [p] to the stroke control unit 550.

ストローク制御部550は、操作部52から取得したストローク座標[p]をストローク命令とともにレンダリング部55に出力する。レンダリング部55は、そのストローク命令に応じて、ストローク座標[p]に基づいてレンダリングして、画像データを生成し、表示部58に表示する。   The stroke control unit 550 outputs the stroke coordinates [p] acquired from the operation unit 52 to the rendering unit 55 together with the stroke command. The rendering unit 55 performs rendering based on the stroke coordinates [p] according to the stroke command, generates image data, and displays the image data on the display unit 58.

すなわち、通信端末5f1は、入力されたストローク座標[p]を送受信部51によって配信管理システム2に送信するとともに、通信端末5f1のストローク制御部550及びレンダリング部55によって表示部58に独自して所定時間表示させる。所定時間、ペンストローク(描画軌跡)を表示部58に独立してすなわちローカル的に表示するので、この表示処理をローカルストローク描画又はローカル表示という。   In other words, the communication terminal 5f1 transmits the input stroke coordinates [p] to the distribution management system 2 by the transmission / reception unit 51, and the communication unit 5f1 uniquely determines the display unit 58 by the stroke control unit 550 and the rendering unit 55 of the communication terminal 5f1. Display time. Since the pen stroke (drawing locus) is displayed on the display unit 58 independently, that is, locally for a predetermined time, this display processing is called local stroke drawing or local display.

ストローク制御部550は、配信管理システム2の記憶部5003に記憶される属性情報と同一の属性情報をあらかじめ記憶している記憶部551を有する。ストローク制御部550は、記憶部551に記憶された属性情報に基づいて、レンダリング部55でレンダリングして生成した画像データを表示部58に表示させる。   The stroke control unit 550 includes a storage unit 551 that stores in advance the same attribute information as the attribute information stored in the storage unit 5003 of the distribution management system 2. The stroke control unit 550 causes the display unit 58 to display the image data generated by the rendering unit 55 based on the attribute information stored in the storage unit 551.

例えば、電子ペンP1が電子黒板の表示画面に表示されるメニューから"赤色"を選択した場合を考える。この際、選択したストローク座標[p]に基づいて、記憶部551に記憶されるストローク座標[p]に対応する属性情報として赤色を読み出し、レンダリング部55で赤色の画像データを生成する。   For example, consider a case where the electronic pen P1 selects “red” from a menu displayed on the display screen of the electronic blackboard. At this time, red is read as attribute information corresponding to the stroke coordinates [p] stored in the storage unit 551 based on the selected stroke coordinates [p], and the rendering unit 55 generates red image data.

更に、ストローク制御部550の記憶部551は、配信管理システム2から送信された画像データを表示させることが可能な表示可能領域情報を記憶する。ストローク制御部550は、記憶部551に記憶された表示可能領域情報に一致する表示部58の表示領域を設定する。   Further, the storage unit 551 of the stroke control unit 550 stores displayable area information capable of displaying the image data transmitted from the distribution management system 2. The stroke control unit 550 sets the display area of the display unit 58 that matches the displayable area information stored in the storage unit 551.

例えば、通信端末5f1の表示部58に表示されるメニューの領域は、表示可能領域とはしない。表示可能領域を設定することによって、メニューとストロークが重畳して表示されることはない。   For example, the menu area displayed on the display unit 58 of the communication terminal 5f1 is not a displayable area. By setting the displayable area, the menu and the stroke are not superimposed and displayed.

通信端末5f1の送受信部51は、配信管理システム2から配信される映像データを受信する。ストローク制御部550及びレンダリング部55は、あらかじめ設定されている所定時間の経過の後に、表示部58に表示されたストローク座標[p]の画像データを消去する。次に、送受信部51によって配信管理システム2に送信された配信に係る画像データを送受信部51から取得して、ストローク座標[p]の画像データを消去した後の表示部58に表示する。   The transmission / reception unit 51 of the communication terminal 5f1 receives video data distributed from the distribution management system 2. The stroke control unit 550 and the rendering unit 55 delete the image data of the stroke coordinates [p] displayed on the display unit 58 after a predetermined time set in advance. Next, image data relating to distribution transmitted to the distribution management system 2 by the transmission / reception unit 51 is acquired from the transmission / reception unit 51 and displayed on the display unit 58 after the image data of the stroke coordinates [p] is erased.

通信端末5f1は、入力されたストローク座標[p]を配信管理システム2に送信した時から、そのストローク座標[p]が配信管理システム2に到達するまでの上り遅延時間(これを「第1の遅延時間」という)を取得する。   The communication terminal 5f1 transmits the input stroke coordinate [p] to the distribution management system 2, and then the upstream delay time (this is referred to as “first delay” until the stroke coordinate [p] reaches the distribution management system 2. "Delay time").

なお、この上りに関する第1の遅延時間の取得は実行しなくてもよい。すなわち、この上りに関しては、配信管理システム2にストローク座標[p]を送るだけの非常に短い時間であるため、無視することが可能な程度の遅延時間ともいえる。また、通信速度等を考慮して予め既知な時間であるなどの場合にも取得は不要である。   Note that the acquisition of the first delay time related to this uplink need not be executed. In other words, since this is an extremely short time for only sending the stroke coordinates [p] to the distribution management system 2, it can be said that it is a delay time that can be ignored. Further, acquisition is not necessary even when the time is known in advance in consideration of the communication speed or the like.

通信端末5f1は、送信したストローク座標[p]が配信管理システム2に到達した時から、そのストローク座標[p]に基づく画像データが通信端末5f1に配信されて、表示のための再生処理が開始するまでの下り遅延時間(これを「第2の遅延時間」という)を取得する。   When the transmitted stroke coordinate [p] reaches the distribution management system 2, the communication terminal 5f1 distributes the image data based on the stroke coordinate [p] to the communication terminal 5f1, and starts a reproduction process for display. Downlink delay time until this is done (this is referred to as “second delay time”).

次に、通信端末5f1は、第1の遅延時間と第2の遅延時間とを合算して、その合算した値を再生遅延時間Uとして記憶部551に記憶する。すなわち、再生遅延時間Uは、入力されたストローク座標[p]を配信管理システム2に送信した時から、そのストローク座標[p]に基づく画像データが通信端末5f1に配信されて、表示のための再生処理が開始するまでの往復の通信遅延時間である。   Next, the communication terminal 5f1 adds the first delay time and the second delay time, and stores the added value in the storage unit 551 as the reproduction delay time U. In other words, the reproduction delay time U is determined so that image data based on the stroke coordinate [p] is distributed to the communication terminal 5f1 from the time when the input stroke coordinate [p] is transmitted to the distribution management system 2, and is displayed. It is a round-trip communication delay time until the reproduction process starts.

通信端末5f1は、ストローク制御部550内に記憶部551を有する。ストローク制御部550は、第1の遅延時間と第2の遅延時間とを合算した再生遅延時間Uをその記憶部551に記憶する。なお、上述したように、第1の遅延時間を取得しなかった場合にはこの合算処理は不要である。ストローク制御部550及びレンダリング部55は、記憶部551に記憶された再生遅延時間Uより短い時間を所定時間Tsとして設定する。   The communication terminal 5f1 has a storage unit 551 in the stroke control unit 550. The stroke control unit 550 stores the reproduction delay time U, which is the sum of the first delay time and the second delay time, in the storage unit 551. As described above, when the first delay time is not acquired, this summing process is unnecessary. The stroke control unit 550 and the rendering unit 55 set a time shorter than the reproduction delay time U stored in the storage unit 551 as the predetermined time Ts.

通信端末5f1は、配信管理システム2から受信した第1の遅延時間の変化を検出する再生制御部53を有する。   The communication terminal 5f1 includes a reproduction control unit 53 that detects a change in the first delay time received from the distribution management system 2.

なお、ストローク制御部550は、所定時間としてストローク座標[p]を配信管理システム2に送信した時から、ストローク削除予定時刻に達したとき、表示部58に表示されているストローク座標[p]に基づく画像データを消去する。   The stroke control unit 550 sets the stroke coordinate [p] displayed on the display unit 58 when the stroke deletion scheduled time is reached after the stroke coordinate [p] is transmitted to the distribution management system 2 as the predetermined time. Erase the image data based.

より具体的には、ストローク制御部550は、操作部52がストローク座標[p]を取得した時刻に第2の遅延時間を加算したストローク削除予定時刻になった時に、画像データを表示部58から消去する。そして、配信管理システム58から配信された映像データを表示する。このストローク削除予定時刻は、ストローク座標[p]に関連付けられて記憶部551に記憶される。   More specifically, the stroke control unit 550 receives the image data from the display unit 58 when the scheduled stroke deletion time obtained by adding the second delay time to the time when the operation unit 52 acquires the stroke coordinates [p] is reached. to erase. Then, the video data distributed from the distribution management system 58 is displayed. The estimated stroke deletion time is stored in the storage unit 551 in association with the stroke coordinates [p].

通信端末5f1の送受信部51は、ストローク座標[p]を配信管理システム2に送信するとともに、配信管理システム2から配信されるストローク座標[p]に基いて生成された画像データを受信する。ストローク制御部550及びレンダリング部55は、送受信部51が配信管理システム2に送信した配信に係る画像データを折り返し受信したときは、表示部58に表示された画像データを消去した後に、その受信した画像データを表示部58に表示する。   The transmission / reception unit 51 of the communication terminal 5f1 transmits the stroke coordinates [p] to the distribution management system 2 and receives image data generated based on the stroke coordinates [p] distributed from the distribution management system 2. When the stroke control unit 550 and the rendering unit 55 receive the image data related to the distribution transmitted from the transmission / reception unit 51 to the distribution management system 2, the image data displayed on the display unit 58 is erased and received. The image data is displayed on the display unit 58.

あるいは、他の変形例として、ストローク制御部550及びレンダリング部55は、ストローク座標に係る画像データを表示部58に表示した後、送受信部51が受信した画像データを表示することなく廃棄する。すなわち、ローカル表示の画像データを消去せずにそのまま利用する。この場合は、ストローク制御部550及びレンダリング部55は、消去処理及びその後の再度の表示処理を割愛できる。   Alternatively, as another modification, the stroke control unit 550 and the rendering unit 55 display the image data related to the stroke coordinates on the display unit 58, and then discard the image data received by the transmission / reception unit 51 without displaying the image data. That is, the local display image data is used without being erased. In this case, the stroke control unit 550 and the rendering unit 55 can omit the erasing process and the subsequent display process.

[第2の実施の形態の動作または処理]
続いて、図18を用いて、通信端末5f1に入力されたペンストローク(描画軌跡)を、配信管理システム2を介して通信端末5f1及び他の通信端末5f2に配信する場合の処理について説明する。図18は、配信管理システム2と通信端末5f1及び通信端末5f2との間における通信方法を示すシーケンス図である。
[Operation or Processing of Second Embodiment]
Next, a process for distributing a pen stroke (drawing locus) input to the communication terminal 5f1 to the communication terminal 5f1 and other communication terminals 5f2 via the distribution management system 2 will be described with reference to FIG. FIG. 18 is a sequence diagram illustrating a communication method between the distribution management system 2, the communication terminal 5f1, and the communication terminal 5f2.

ここでは、図10に示した通信端末5f1から図9に示した配信管理システム2に対して、ペンストローク(描画軌跡)に基づくストローク座標[p]を送信する。そして、配信管理システム2は、通信端末5f1及び通信端末5f2に対して、そのストローク座標[p]に基づく画像データを同時に配信する。   Here, the stroke coordinate [p] based on the pen stroke (drawing locus) is transmitted from the communication terminal 5f1 shown in FIG. 10 to the distribution management system 2 shown in FIG. And the delivery management system 2 delivers simultaneously the image data based on the stroke coordinate [p] with respect to the communication terminal 5f1 and the communication terminal 5f2.

なお、図6等の、配信管理システム2は、少なくとも映像(音)データ[A]、映像(音)データ[E]、ストローク座標[p]のうち1つ以上が含まれるコンテンツデータを通信端末に配信した例である。図18では、電子ペンP1によるストローク座標[p]の配信について説明する。ここでストローク座標[p]のみの配信であってもよいし、映像(音)データ[A]または映像(音)データ[E]の上に描かれたストローク座標[p]の配信であってもよい。もちろん、映像(音)データ[A]および映像(音)データ[E]の上に描かれたストローク座標[p]の配信であってもよい。   6 or the like, the distribution management system 2 transmits content data including at least one of video (sound) data [A], video (sound) data [E], and stroke coordinates [p] to a communication terminal. It is an example delivered to. In FIG. 18, the delivery of the stroke coordinates [p] by the electronic pen P1 will be described. Here, only the stroke coordinates [p] may be distributed, or the stroke coordinates [p] drawn on the video (sound) data [A] or the video (sound) data [E] may be distributed. Also good. Of course, distribution of stroke coordinates [p] drawn on video (sound) data [A] and video (sound) data [E] may be used.

図18において、配信管理システム2のブラウザ20は、図1に示したウェブサーバ8から送受信部21を介してコンテンツデータ[A]を受信する(ステップS60)。そして、ブラウザ20はコンテンツデータ[A]をレンダリングすることにより、画像(音)データを生成して、送信用FIFO24に出力する(ステップS61)。   18, the browser 20 of the distribution management system 2 receives the content data [A] from the web server 8 shown in FIG. 1 via the transmission / reception unit 21 (step S60). Then, the browser 20 renders the content data [A] to generate image (sound) data and outputs it to the transmission FIFO 24 (step S61).

次に、通信端末5f1は、コンテンツデータ[E]を配信管理システム2に対して送信する(ステップS62)。このコンテンツデータ[E]は、通信端末5f1のエンコード部60が、カメラ62及びマイク63等からコンテンツデータ[E]の入力を受け付けたものである。エンコード部60はエンコードした後、送受信部51及び送受信部31を介して、デコード部40にコンテンツデータ[E]を送信する。これにより、コンテンツデータ〔E〕は、デコード部40でデコードされた後、受信用FIFO34を介して、ブラウザ20に入力される。配信管理システム2のブラウザ20は、そのコンテンツデータ[E]をレンダリングすることにより、画像(音)データ[E]を生成して、送信用FIFO24に出力する(ステップS63)。   Next, the communication terminal 5f1 transmits the content data [E] to the distribution management system 2 (step S62). The content data [E] is obtained by the encoding unit 60 of the communication terminal 5f1 receiving the input of the content data [E] from the camera 62, the microphone 63, and the like. After encoding, the encoding unit 60 transmits the content data [E] to the decoding unit 40 via the transmission / reception unit 51 and the transmission / reception unit 31. Accordingly, the content data [E] is decoded by the decoding unit 40 and then input to the browser 20 via the reception FIFO 34. The browser 20 of the distribution management system 2 generates the image (sound) data [E] by rendering the content data [E] and outputs it to the transmission FIFO 24 (step S63).

通信端末5f1の操作部52は、電子ペンP1のペンストローク(描画軌跡)に応じた操作データであるストローク座標[p]を受け付ける(ステップS64)。次に、通信端末5f1は、ストローク座標[p]を操作結果情報として配信管理システム2に送信する(ステップS65−1)。このとき、操作部52によって、送受信部51及び送受信部31を介して、ブラウザ管理部22にストローク座標[p]が送信される。   The operation unit 52 of the communication terminal 5f1 receives stroke coordinates [p] that are operation data corresponding to the pen stroke (drawing locus) of the electronic pen P1 (step S64). Next, the communication terminal 5f1 transmits the stroke coordinates [p] as operation result information to the distribution management system 2 (step S65-1). At this time, the operation unit 52 transmits the stroke coordinates [p] to the browser management unit 22 via the transmission / reception unit 51 and the transmission / reception unit 31.

通信端末5f1の操作部52は、ステップS65−1の送信と同時に、操作データであるストローク座標[p]をストローク制御部550に出力する。ストローク制御部550は、レンダリング部55に対して、ストローク命令を出力する。このストローク命令によってレンダリング部55は、ストローク座標[p]に基づいてレンダリングして画像データを生成し、ローカルストローク描画処理を行う(ステップS501)。   The operation unit 52 of the communication terminal 5f1 outputs the stroke coordinates [p], which are operation data, to the stroke control unit 550 simultaneously with the transmission of step S65-1. The stroke control unit 550 outputs a stroke command to the rendering unit 55. In response to this stroke command, the rendering unit 55 performs rendering based on the stroke coordinates [p] to generate image data, and performs local stroke drawing processing (step S501).

すなわち、ローカルストローク描画処理とは、配信管理システム2から配信されるストローク座標[p]に基づく画像データとは別に、通信端末5f1がストローク座標[p]に基づく画像データを生成し、生成した画像データを表示部58に独立して(ローカル的に)表示するための処理のことである。   That is, in the local stroke drawing process, the communication terminal 5f1 generates image data based on the stroke coordinates [p] separately from the image data based on the stroke coordinates [p] distributed from the distribution management system 2, and the generated image. This is a process for displaying the data independently (locally) on the display unit 58.

次に、通信端末5f1のストローク制御部550は、ステップS64でストローク座標[p]を受け付けた時刻に第2の遅延時間を加算したストローク削除予定時刻に達したか否か(所定時間経過したか否か)を判別する時刻検出処理を行う(ステップS502)。ストローク削除予定時刻に達していれば、ステップS501で表示された画像データを削除する。ストローク削除予定時刻に達していなければ、画像データの表示は削除されず、ストローク削除予定時刻になるまで表示される。   Next, whether or not the stroke control unit 550 of the communication terminal 5f1 has reached the scheduled stroke deletion time obtained by adding the second delay time to the time when the stroke coordinate [p] is received in step S64 (whether a predetermined time has elapsed). A time detection process for determining whether or not) is performed (step S502). If the scheduled stroke deletion time has been reached, the image data displayed in step S501 is deleted. If the scheduled stroke deletion time has not been reached, the display of the image data is not deleted and is displayed until the scheduled stroke deletion time is reached.

第1の遅延時間は、配信管理システム2にストローク座標[p]を送るだけの非常に短い時間である。ここでは、第2の遅延時間のみを考慮し、第1の遅延時間を考慮していない。第1の遅延時間もさらに加算した時刻をストローク削除予定時刻とすれば、より正確な処理が可能である。   The first delay time is a very short time for sending the stroke coordinates [p] to the delivery management system 2. Here, only the second delay time is considered, and the first delay time is not considered. If the time obtained by further adding the first delay time is set as the scheduled stroke deletion time, more accurate processing can be performed.

通信端末5f1のストローク制御部550は、現在時刻がストローク削除予定時刻に達した時は、レンダリング部55に命令して表示部58の表示を消去するローカルストローク削除処理を行う(ステップS503)。   When the current time reaches the scheduled stroke deletion time, the stroke control unit 550 of the communication terminal 5f1 performs a local stroke deletion process for instructing the rendering unit 55 to delete the display on the display unit 58 (step S503).

一方、配信管理システム2のブラウザ20は、通信端末5f1の操作部52から受信したストローク座標[p]をレンダリングすることにより、画像データ〔p〕を生成して、送信用FIFO24に出力する(ステップS66−1)。   On the other hand, the browser 20 of the distribution management system 2 generates the image data [p] by rendering the stroke coordinates [p] received from the operation unit 52 of the communication terminal 5f1, and outputs the image data [p] to the transmission FIFO 24 (step S1). S66-1).

次に、エンコーダブリッジ部30の変換部10は、送信用FIFO24に格納されたストローク座標[p](画像データ)を含むコンテンツデータ[AEp]を映像(音)データ[AEp]に変換する(ステップS67)。   Next, the conversion unit 10 of the encoder bridge unit 30 converts the content data [AEp] including the stroke coordinates [p] (image data) stored in the transmission FIFO 24 into video (sound) data [AEp] (step) S67).

次に、エンコーダブリッジ部30は、映像(音)データ[AEp]を通信端末5f1に配信する(ステップS68−1)。また、エンコーダブリッジ部30は、映像(音)データ[AEp]を通信端末5f2に配信する(ステップS68−2)。   Next, the encoder bridge unit 30 distributes the video (sound) data [AEp] to the communication terminal 5f1 (step S68-1). In addition, the encoder bridge unit 30 distributes the video (sound) data [AEp] to the communication terminal 5f2 (step S68-2).

通信端末5f1のストローク制御部550は、配信管理システム2から配信された映像(音)データ[AEp]をレンダリング部55に出力する。レンダリング部55は、映像(音)データ[AEp]をレンダリングして、ローカルストローク削除処理によって画像が消去された直後の表示部58に、電子ペンP1による画像データを含む映像(音)データを再生して表示する(ステップS69−1)。   The stroke control unit 550 of the communication terminal 5f1 outputs the video (sound) data [AEp] distributed from the distribution management system 2 to the rendering unit 55. The rendering unit 55 renders the video (sound) data [AEp] and reproduces the video (sound) data including the image data by the electronic pen P1 on the display unit 58 immediately after the image is erased by the local stroke deletion process. Are displayed (step S69-1).

同様に、通信端末5f2のストローク制御部は、配信管理システム2から配信された映像(音)データ[AEp]をレンダリング部に出力する。レンダリング部は、映像(音)データ[AEp]をレンダリングして、電子ペンP1による画像データを含む映像(音)を再生して表示部に表示する(ステップS69−2)。   Similarly, the stroke control unit of the communication terminal 5f2 outputs the video (sound) data [AEp] distributed from the distribution management system 2 to the rendering unit. The rendering unit renders the video (sound) data [AEp], reproduces the video (sound) including the image data by the electronic pen P1, and displays it on the display unit (step S69-2).

図18において、ステップS64からステップS68−1までの時間が、再生遅延時間Uに相当する。このため、再生遅延時間Uから調整時間uを減算した所定時間Tsが経過した時に、ローカル表示の画像データを消去することで、ローカル表示の画像と配信に係る画像とが画面上で混在しない。   In FIG. 18, the time from step S64 to step S68-1 corresponds to the reproduction delay time U. For this reason, when a predetermined time Ts obtained by subtracting the adjustment time u from the reproduction delay time U has elapsed, the local display image data is deleted, so that the local display image and the image related to distribution do not coexist on the screen.

このように、通信端末5f1は、通信ネットワーク9を介して接続された配信管理システム2との間でデータの送受信を行う通信方法を実行する。   Thus, the communication terminal 5f1 executes a communication method for transmitting and receiving data to and from the distribution management system 2 connected via the communication network 9.

すなわち、入力されたストローク座標[p]を、通信ネットワーク9を介して配信管理システム2に配信に係る画像データとして送信する送信ステップと、入力された画像データを表示部58に配信管理システム2の配信とは独立して表示する表示制御ステップと、を実行する。   That is, a transmission step of transmitting the input stroke coordinates [p] as image data related to distribution to the distribution management system 2 via the communication network 9, and the input image data to the display unit 58 of the distribution management system 2. And a display control step of displaying independently of the distribution.

なお、このような通信方法は、プログラムによって実行される。図7に示すように、通信端末5f1は、コンピュータとしてのCPU201及びプログラムを記憶できるROM202を有する。したがって、通信端末5f1のコンピュータ(CPU201)は、上記した各ステップを実行させるためのプログラムをROM202から読み出して実行する。   Such a communication method is executed by a program. As shown in FIG. 7, the communication terminal 5f1 has a CPU 201 as a computer and a ROM 202 that can store a program. Therefore, the computer (CPU 201) of the communication terminal 5f1 reads a program for executing the above steps from the ROM 202 and executes it.

〔第2の実施の形態の主な効果〕
以上、具体的な例を挙げながら詳細に説明したように、通信端末5f1は、表示部58と、入力されたストローク座標[p]を、通信ネットワーク9を介して配信管理システム2に配信に係るストローク座標[p]として送信する送受信部51とを有する。また、通信端末5f1は、入力されたストローク座標[p]を表示部58に表示するストローク制御部550及びレンダリング部55を有する。
[Main effects of the second embodiment]
As described above in detail with specific examples, the communication terminal 5f1 relates to the distribution of the display unit 58 and the input stroke coordinates [p] to the distribution management system 2 via the communication network 9. It has the transmission / reception part 51 which transmits as stroke coordinate [p]. The communication terminal 5f1 includes a stroke control unit 550 and a rendering unit 55 that display the input stroke coordinates [p] on the display unit 58.

すなわち、入力された画像データを配信管理システム2に配信に係るストローク座標[p]として送信するとともに、配信管理システム2の配信とは独立して、入力されたストローク座標[p]を表示部58にローカル表示する。   That is, the input image data is transmitted to the distribution management system 2 as stroke coordinates [p] related to distribution, and the input stroke coordinates [p] are displayed independently of the distribution of the distribution management system 2. To display locally.

すなわち、送信元の通信端末は、上り通信時間(入力されたストローク座標を配信管理システムに送信する時間)である第1の遅延時間、配信管理システムの処理時間、及び下り通信時間(配信管理システムから配信された画像データを再生するまでの時間)である第2の遅延時間、の合計(これを「再生遅延時間」という)の間においても、画像データに基づく画像を表示することができる。   That is, the transmission source communication terminal transmits the first delay time, which is the uplink communication time (time for transmitting the input stroke coordinates to the distribution management system), the processing time of the distribution management system, and the downlink communication time (distribution management system). The image based on the image data can also be displayed during the total of the second delay time, which is the time from when the image data delivered to the time of reproduction is reproduced (referred to as “reproduction delay time”).

したがって、入力された画像データを配信管理システム2に送信した後、その画像データが配信されるまでの往復の遅延時間の間も、入力された画像データをリアルタイムで表示することができるので、ユーザの操作性が向上する。   Therefore, the input image data can be displayed in real time during the round-trip delay time until the image data is distributed after the input image data is transmitted to the distribution management system 2. Improved operability.

すなわち、送信元の通信端末が電子黒板である場合には、描画操作に応じたストローク座標[p]に係る画像データが再生遅延時間だけ遅れて表示されるため、ユーザの操作性が著しく低下するという問題があった。また、送信元の通信端末がスキャナやスキャン機能を有する複合機等である場合には、スキャン動作の開始に応じた画像データが再生遅延時間だけ遅れて表示されるため、操作ミス又は複合機等の故障ではないかとの疑義をユーザに抱かせるおそれがあった。これに対し、本実施の形態では、このような問題を解決することができる。   That is, when the communication terminal of the transmission source is an electronic blackboard, the image data related to the stroke coordinate [p] corresponding to the drawing operation is displayed with a delay of the reproduction delay time, so that the user operability is significantly reduced. There was a problem. In addition, when the communication terminal of the transmission source is a scanner or a multifunction device having a scanning function, image data corresponding to the start of the scanning operation is displayed with a delay of the reproduction delay time. There is a risk that the user may be suspected of having a malfunction. In contrast, the present embodiment can solve such a problem.

ストローク制御部550は、配信管理システム2から各通信端末に対して配信される映像データに伴って配信される映像データの属性情報と同一の属性情報をあらかじめ記憶している記憶部551を有する。ストローク制御部550は、記憶部551に記憶された属性情報に基づいて、レンダリング部55に対して入力されたストローク座標[p]に係る画像を表示部58に表示させる。   The stroke control unit 550 includes a storage unit 551 that stores in advance the same attribute information as the attribute information of the video data distributed along with the video data distributed from the distribution management system 2 to each communication terminal. The stroke control unit 550 causes the display unit 58 to display an image related to the stroke coordinates [p] input to the rendering unit 55 based on the attribute information stored in the storage unit 551.

したがって、配信管理システム2から配信される映像データの線の太さや色等と同一の属性を有する画像データを表示部58にローカル表示することができる。その結果、ローカル表示した画像データに代えて配信された映像データの画像を表示した場合に、ユーザに対して画面上の変化を意識させることがない。   Therefore, the image data having the same attributes as the line thickness and color of the video data distributed from the distribution management system 2 can be locally displayed on the display unit 58. As a result, when the image of the distributed video data is displayed instead of the locally displayed image data, the user is not aware of the change on the screen.

ストローク制御部550の記憶部551は、配信管理システム2から送信された映像データの表示可能領域情報を記憶する。ストローク制御部550は、記憶部551に記憶された表示可能領域情報に一致する表示部58の表示領域を設定する。   The storage unit 551 of the stroke control unit 550 stores displayable area information of video data transmitted from the distribution management system 2. The stroke control unit 550 sets the display area of the display unit 58 that matches the displayable area information stored in the storage unit 551.

したがって、配信管理システム2から配信される映像データの画像の表示指定領域内に、入力されたストローク座標[p]に係る画像をローカル表示することができる。例えば、配信される映像データに伴う操作バーの画像によって、ローカル表示の画像が隠れる事態が回避できる。   Therefore, the image related to the input stroke coordinate [p] can be locally displayed in the display designation area of the image of the video data distributed from the distribution management system 2. For example, it is possible to avoid a situation in which a local display image is hidden by an image of the operation bar accompanying the distributed video data.

通信端末5f1の送受信部51は、配信管理システム2から配信される映像データを受信する。ストローク制御部550及びレンダリング部55は、あらかじめ設定されている所定時間の経過の後に、表示部58に表示された入力されたストローク座標[p]の画像を消去する。次に、送受信部51によって配信管理システム2に送信された配信に係る映像データを送受信部51から取得して、画像を消去した後の表示部58に表示する。   The transmission / reception unit 51 of the communication terminal 5f1 receives video data distributed from the distribution management system 2. The stroke control unit 550 and the rendering unit 55 erase the image of the input stroke coordinate [p] displayed on the display unit 58 after a predetermined time has elapsed. Next, video data relating to distribution transmitted to the distribution management system 2 by the transmission / reception unit 51 is acquired from the transmission / reception unit 51 and displayed on the display unit 58 after the image is erased.

したがって、通信端末5f1は、ローカル表示の画像を表示部58から消去した後に、配信管理システム2から配信された映像データの画像を表示部58に表示するので、ローカル表示の画像と配信された画像とが、表示部58に重なって表示されることがない。   Therefore, the communication terminal 5f1 deletes the local display image from the display unit 58 and then displays the image of the video data distributed from the distribution management system 2 on the display unit 58. Therefore, the local display image and the distributed image are displayed. Are not displayed on the display unit 58.

通信端末5f1の送受信部51は、入力されたストローク座標[p]を配信管理システム2に送信するとともに、配信管理システム2から配信される映像データを受信する。ストローク制御部550及びレンダリング部55は、送受信部51が配信管理システム2に送信したストローク座標[p]に対して、映像データを折り返し受信したときは、表示部58に表示された画像を消去した後に、その受信した映像データに係る画像を表示部58に表示する。   The transmission / reception unit 51 of the communication terminal 5f1 transmits the input stroke coordinates [p] to the distribution management system 2 and receives video data distributed from the distribution management system 2. The stroke control unit 550 and the rendering unit 55 erase the image displayed on the display unit 58 when the video data is received in response to the stroke coordinate [p] transmitted from the transmission / reception unit 51 to the distribution management system 2. Later, an image related to the received video data is displayed on the display unit 58.

したがって、通信端末5f1は、ローカル表示の画像を表示部58から消去した後に、配信管理システム2から配信された映像データに係る画像を表示部58に表示するので、ローカル表示の画像と配信された画像とが、表示部58に重なって表示されることがない。   Therefore, the communication terminal 5f1 deletes the local display image from the display unit 58, and then displays the image related to the video data distributed from the distribution management system 2 on the display unit 58. Therefore, the communication terminal 5f1 is distributed with the local display image. The image is not displayed overlapping the display unit 58.

通信端末5f1の再生制御部53は、配信管理システム2から受信した第1の遅延時間の変化を検出する。ストローク制御部550及びレンダリング部55は、第1の遅延時間の変化に応じて、記憶部551に記憶されている配信遅延時間Uを更新する。   The reproduction control unit 53 of the communication terminal 5f1 detects a change in the first delay time received from the distribution management system 2. The stroke control unit 550 and the rendering unit 55 update the delivery delay time U stored in the storage unit 551 in accordance with the change in the first delay time.

したがって、通信ネットワーク9の回線状態により再生遅延時間Uが変化した場合でも、適切なタイミングでローカル表示の画像を消去することができる。   Therefore, even when the reproduction delay time U changes depending on the line state of the communication network 9, the locally displayed image can be erased at an appropriate timing.

通信端末5f1は、入力されたストローク座標[p]を特定のデータ形式で配信管理システム2に送信する機能を有する。例えば、通信端末5f1は、JPEGのデータ形式でストローク座標[p]を配信管理システム2に送信する。   The communication terminal 5f1 has a function of transmitting the input stroke coordinates [p] to the distribution management system 2 in a specific data format. For example, the communication terminal 5f1 transmits the stroke coordinates [p] to the distribution management system 2 in the JPEG data format.

配信管理システム2は、通信端末5f1から取得したデータ形式のストローク座標[p]を複数種類のデータ形式の画像データに変換する複数の変換部10a,10b,10cを、エンコーダブリッジ部30内に有する。例えば、変換部10aはJPEGのデータ形式をGIFのデータ形式に変換する。変換部10bはJPEGのデータ形式をPNGのデータ形式に変換する。変換部10aはJPEGのデータ形式をH.264のデータ形式に変換する。   The distribution management system 2 includes a plurality of conversion units 10a, 10b, and 10c in the encoder bridge unit 30 that convert stroke coordinates [p] in the data format acquired from the communication terminal 5f1 into image data in a plurality of types of data formats. . For example, the conversion unit 10a converts a JPEG data format into a GIF data format. The conversion unit 10b converts the JPEG data format to the PNG data format. The conversion unit 10a converts the JPEG data format to H.264. To H.264 data format.

エンコーダブリッジ部30内の選択部320は、変換部10a,10b,10cによって変換された複数種類のデータ形式の画像データの中から、配信対象の通信端末に配信可能な少なくとも1つの種類のデータ形式の画像データを選択する。配信管理システム2の送受信部31は、選択部320によって選択された映像データを配信対象の通信端末に配信する。   The selection unit 320 in the encoder bridge unit 30 includes at least one type of data format that can be distributed to a communication terminal to be distributed among image data of a plurality of types of data formats converted by the conversion units 10a, 10b, and 10c. Select the image data. The transmission / reception unit 31 of the distribution management system 2 distributes the video data selected by the selection unit 320 to the communication terminals to be distributed.

したがって、映像データを配信する通信端末の動作環境に合わせて、その通信端末に適切なデータ形式で映像データを配信することができる。   Therefore, video data can be distributed in an appropriate data format to the communication terminal in accordance with the operating environment of the communication terminal that distributes the video data.

なお、図10に示した通信端末5f1は、テレビ会議システム用の電子黒板に限らず、電子ペンP1での描画操作が可能なタブレット端末、複写機能、ファクシミリ機能、及びスキャナ機能を任意に組み合わせた多機能情報処理装置(MFP)であってもよい。   Note that the communication terminal 5f1 shown in FIG. 10 is not limited to the electronic blackboard for the video conference system, but arbitrarily combines a tablet terminal capable of drawing operation with the electronic pen P1, a copying function, a facsimile function, and a scanner function. It may be a multi-function information processing apparatus (MFP).

したがって、それぞれの通信端末において、描画操作によって入力されたストローク座標[p]を配信管理システム2に送信してから、そのストローク座標[p]に係る映像データが配信されるまでの再生遅延時間Uの間も、入力されたストローク座標[p]に係る画像をリアルタイムでローカル表示するので、操作性が向上する。   Therefore, in each communication terminal, the reproduction delay time U from when the stroke coordinate [p] input by the drawing operation is transmitted to the distribution management system 2 until the video data related to the stroke coordinate [p] is distributed. Since the image related to the input stroke coordinate [p] is locally displayed in real time, the operability is improved.

第2の実施の形態の通信方法は、入力されたストローク座標[p]を、配信管理システム2に配信に係る画像データとして送信する送信ステップと、入力されたストローク座標[p]に係る画像を表示部58に配信管理システム2の配信とは独立してローカル表示する表示制御ステップと、を実行する。   In the communication method according to the second embodiment, a transmission step of transmitting the input stroke coordinates [p] as image data related to distribution to the distribution management system 2, and an image related to the input stroke coordinates [p]. The display control step of performing local display independently from the distribution of the distribution management system 2 on the display unit 58 is executed.

したがって、入力されたストローク座標[p]を配信管理システム2に送信してから、そのストローク座標[p]に係る映像データが配信されるまでの再生遅延時間Uの間も、入力された画像をリアルタイムでローカル表示するので、操作性が向上する。   Therefore, the input image is displayed during the reproduction delay time U from when the input stroke coordinate [p] is transmitted to the distribution management system 2 until the video data related to the stroke coordinate [p] is distributed. The local display in real time improves operability.

上記第1及び第2の実施の形態の配信システム1では、端末管理システム7と配信管理システム2とを互いに別個の装置として構成している。しかしながら、例えば、配信管理システム2に端末管理システム7の機能を持たせるなどにより、端末管理システム7と配信管理システム2とを一体の装置として構成するようにしてもよい。   In the distribution systems 1 of the first and second embodiments, the terminal management system 7 and the distribution management system 2 are configured as separate devices. However, for example, the terminal management system 7 and the distribution management system 2 may be configured as an integrated device by providing the distribution management system 2 with the function of the terminal management system 7.

上記第1及び第2の実施の形態における配信管理システム2、及び端末管理システム7は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。   The distribution management system 2 and the terminal management system 7 in the first and second embodiments may be constructed by a single computer, or may be arbitrarily divided by dividing each unit (function, means, or storage unit). It may be constructed by a plurality of computers assigned to.

また、上記第1及び第2の実施の形態において、図10のストローク制御部550とレンダリング部55とを別個の構成要素にしたが、レンダリング部55がストローク制御部550の機能を有する構成にしてもよい。   In the first and second embodiments, the stroke control unit 550 and the rendering unit 55 in FIG. 10 are separate components, but the rendering unit 55 has a function of the stroke control unit 550. Also good.

以上説明したように、本発明に係る通信端末及び通信方法は、ストローク座標[p]の送信元の通信端末が、入力されたストローク座標[p]を送信して、配信管理システムから配信された映像データを再生するまでの時間も、入力されたストローク座標[p]に係る画像をリアルタイムで表示することができるので、ユーザの操作性が向上するという効果を有し、通信ネットワークを介してウェブコンテンツのデータを送受信する通信端末及び通信方法の全般に有用である。   As described above, in the communication terminal and the communication method according to the present invention, the communication terminal that is the transmission source of the stroke coordinates [p] transmits the input stroke coordinates [p] and is distributed from the distribution management system. Since the image related to the input stroke coordinates [p] can also be displayed in real time until the video data is played back, it has the effect of improving the operability for the user, and the web can be accessed via the communication network. It is useful for communication terminals and communication methods that transmit and receive content data in general.

1 配信システム
2 配信管理システム
5 通信端末
7 端末管理システム
8 ウェブサーバ
9 通信ネットワーク
10 変換部(変換手段)
11 トリミング部
12 リサイズ部
13 分割部
19 エンコード部
20 ブラウザ(生成手段)
21 送受信部
22 ブラウザ管理部
23 クラウドブラウザ
24 送信用FIFO
30 エンコーダブリッジ部
31 送受信部(配信手段)
53 再生制御部(再生制御手段)
55 レンダリング部(表示制御手段の部分)
58 表示部(表示手段)
550 ストローク制御部(表示制御手段の部分)
551 記憶手段(記憶手段)
DESCRIPTION OF SYMBOLS 1 Distribution system 2 Distribution management system 5 Communication terminal 7 Terminal management system 8 Web server 9 Communication network 10 Conversion part (conversion means)
DESCRIPTION OF SYMBOLS 11 Trimming part 12 Resize part 13 Dividing part 19 Encoding part 20 Browser (generation means)
21 Transmission / Reception Unit 22 Browser Management Unit 23 Cloud Browser 24 Transmission FIFO
30 Encoder bridge 31 Transmitter / receiver (distribution means)
53 Reproduction control unit (reproduction control means)
55 Rendering part (part of display control means)
58 Display section (display means)
550 Stroke control section (display control means)
551 Storage means (storage means)

特表2011−524572号公報Special table 2011-524572 gazette

Claims (10)

配信管理システムに通信ネットワークを介して接続された通信端末であって、
前記通信ネットワークを介して、前記通信端末に入力された座標を前記配信管理システムに送信する送信手段と、
前記座標に基づく映像データを表示させる表示制御手段と、
を有することを特徴とする通信端末。
A communication terminal connected to the distribution management system via a communication network,
Transmitting means for transmitting coordinates input to the communication terminal to the distribution management system via the communication network;
Display control means for displaying video data based on the coordinates;
A communication terminal comprising:
前記通信端末は、前記配信管理システムから配信される映像データを受信する受信手段を更に有し、
前記表示制御手段は、所定時間の経過の後に、前記表示された映像データを消去し、前記受信手段で受信した映像データを表示させる
ことを特徴とする請求項1に記載の通信端末。
The communication terminal further includes receiving means for receiving video data distributed from the distribution management system,
The communication terminal according to claim 1, wherein the display control unit deletes the displayed video data and displays the video data received by the receiving unit after a predetermined time has elapsed.
前記所定時間は、前記座標が通信端末に入力された時刻に、遅延時間を加算した時間である
ことを特徴とする請求項2に記載の通信端末。
The communication terminal according to claim 2, wherein the predetermined time is a time obtained by adding a delay time to a time when the coordinates are input to the communication terminal.
前記受信手段で受信した映像データは、
前記座標に基づいて、前記配信管理システムの生成手段で映像データを生成し、当該映像が変換されて映像データとして配信されたものである
ことを特徴とする請求項1乃至3のいずれか1の請求項に記載の通信端末。
The video data received by the receiving means is
The video data is generated by the generation means of the distribution management system based on the coordinates, and the video is converted and distributed as video data. The communication terminal according to claim.
前記遅延時間は、
前記配信管理システムが前記通信端末から座標を受信してから、前記通信端末で映像データの表示を開始するまでの時間である
ことを特徴とする請求項3乃至4のいずれか1の請求項に記載の通信端末。
The delay time is
The time from the time when the distribution management system receives coordinates from the communication terminal to the time when the communication terminal starts displaying video data. The claim according to any one of claims 3 to 4, The communication terminal described.
前記所定の時間は、さらに前記座標が通信端末から前記配信管理システムに送信されてから、当該座標を配信管理システムで受信するまでの時間をさらに加算した時間を加算した
ことを特徴とする請求項5に記載の通信端末。
The predetermined time is further obtained by adding a time obtained by further adding a time from when the coordinates are transmitted from the communication terminal to the distribution management system until the coordinates are received by the distribution management system. 5. The communication terminal according to 5.
前記表示制御手段は、前記配信管理システムから通信端末に対して配信される映像データに伴って配信される映像データの属性情報と同一の属性情報をあらかじめ記憶している記憶手段を有し、前記記憶手段に記憶された属性情報に基づく映像データを生成し、当該映像データを表示させる
ことを特徴とする請求項1に記載の通信端末。
The display control means has storage means for storing in advance the same attribute information as the attribute information of the video data distributed along with the video data distributed from the distribution management system to the communication terminal, The communication terminal according to claim 1, wherein video data based on the attribute information stored in the storage unit is generated and the video data is displayed.
前記表示制御手段は、前記映像データを表示可能な表示可能領域情報を記憶する記憶手段を有し、前記記憶手段に記憶された表示可能領域情報に一致する前記表示手段の表示領域を設定する
ことを特徴とする請求項1に記載の通信端末。
The display control means has storage means for storing displayable area information capable of displaying the video data, and sets the display area of the display means that matches the displayable area information stored in the storage means. The communication terminal according to claim 1.
前記通信端末は、複写機能、ファクシミリ機能、及びスキャナ機能を任意に組み合わせた多機能情報処理装置、又はテレビ会議システム用の電子黒板を含む
ことを特徴とする請求項1乃至7のいずれか1の請求項に記載の通信端末。
The communication terminal includes a multi-function information processing apparatus arbitrarily combining a copy function, a facsimile function, and a scanner function, or an electronic blackboard for a video conference system. The communication terminal according to claim.
配信管理システムに通信ネットワークを介して接続された通信端末によって通信する通信方法であって、
前記通信ネットワークを介して、前記通信端末に入力された座標を前記配信管理システムに送信する送信ステップと、
前記座標に基づく映像データを表示させる表示制御ステップと、
を有することを特徴とする通信方法。
A communication method of communicating by a communication terminal connected to a distribution management system via a communication network,
A transmission step of transmitting coordinates input to the communication terminal to the distribution management system via the communication network;
A display control step of displaying video data based on the coordinates;
A communication method characterized by comprising:
JP2013190422A 2013-09-13 2013-09-13 Communication terminal and communication method Active JP6248488B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013190422A JP6248488B2 (en) 2013-09-13 2013-09-13 Communication terminal and communication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013190422A JP6248488B2 (en) 2013-09-13 2013-09-13 Communication terminal and communication method

Publications (2)

Publication Number Publication Date
JP2015056844A true JP2015056844A (en) 2015-03-23
JP6248488B2 JP6248488B2 (en) 2017-12-20

Family

ID=52820896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013190422A Active JP6248488B2 (en) 2013-09-13 2013-09-13 Communication terminal and communication method

Country Status (1)

Country Link
JP (1) JP6248488B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3119084A1 (en) 2015-07-16 2017-01-18 Ricoh Company, Ltd. Electronic information terminal, image processing apparatus and image processing system
US10148708B2 (en) 2014-11-26 2018-12-04 Ricoh Company, Ltd. Electronic information terminal, image processing apparatus, and information processing method
JP2020046772A (en) * 2018-09-14 2020-03-26 株式会社Tbsテレビ Drawing system, server, and method of transmitting drawing instruction information
JPWO2022131325A1 (en) * 2020-12-16 2022-06-23

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164307A (en) * 2002-11-13 2004-06-10 Ricoh Co Ltd Display device, scroll information generation method and program
JP2011151613A (en) * 2010-01-21 2011-08-04 Nippon Telegr & Teleph Corp <Ntt> Information-sharing device, information sharing method, and program
JP2011253307A (en) * 2010-06-01 2011-12-15 Dainippon Printing Co Ltd Information processing system and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164307A (en) * 2002-11-13 2004-06-10 Ricoh Co Ltd Display device, scroll information generation method and program
JP2011151613A (en) * 2010-01-21 2011-08-04 Nippon Telegr & Teleph Corp <Ntt> Information-sharing device, information sharing method, and program
JP2011253307A (en) * 2010-06-01 2011-12-15 Dainippon Printing Co Ltd Information processing system and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148708B2 (en) 2014-11-26 2018-12-04 Ricoh Company, Ltd. Electronic information terminal, image processing apparatus, and information processing method
EP3119084A1 (en) 2015-07-16 2017-01-18 Ricoh Company, Ltd. Electronic information terminal, image processing apparatus and image processing system
JP2020046772A (en) * 2018-09-14 2020-03-26 株式会社Tbsテレビ Drawing system, server, and method of transmitting drawing instruction information
JPWO2022131325A1 (en) * 2020-12-16 2022-06-23
WO2022131325A1 (en) * 2020-12-16 2022-06-23 株式会社ワコム Image drawing method
JP7200446B2 (en) 2020-12-16 2023-01-06 株式会社ワコム Image processing method
EP4266679A1 (en) * 2020-12-16 2023-10-25 Wacom Co., Ltd. Image drawing method

Also Published As

Publication number Publication date
JP6248488B2 (en) 2017-12-20

Similar Documents

Publication Publication Date Title
JP6354197B2 (en) Delivery control system, delivery control method, and program
JP6398215B2 (en) Delivery control system, delivery system, delivery control method, and program
JP6354764B2 (en) Distribution management apparatus, distribution method, and program
JP6337499B2 (en) Delivery control system, delivery system, delivery control method, and program
JP6326855B2 (en) Delivery control system, delivery system, delivery control method, and program
JP6323048B2 (en) Distribution system, distribution method, and program
JP6369043B2 (en) Delivery control system, delivery system, delivery control method, and program
JP6354195B2 (en) Distribution system, distribution method, and program
US20150082359A1 (en) Distribution management apparatus and distribution management system
JP2014199648A (en) Distribution control system, distribution system, distribution control method, and program
JP6248488B2 (en) Communication terminal and communication method
JP6589261B2 (en) Delivery control system, delivery control method, and program
WO2015045787A1 (en) Distribution management device, terminal, and distribution management method
JP2015056046A (en) Distribution management system, distribution system, distribution management method, and program
JP2016063247A (en) Distribution system and distribution method
US9525901B2 (en) Distribution management apparatus for distributing data content to communication devices, distribution system, and distribution management method
JP6197535B2 (en) Distribution system, distribution method, and program
JP6248492B2 (en) Distribution management device, distribution management system, and distribution management method
JP6442832B2 (en) Delivery control system, delivery system, delivery control method, and program
JP6387623B2 (en) Distribution control system
JP2016058812A (en) Distribution control system, distribution system, distribution control system control method, and program
JP2016004352A (en) Terminal management system, terminal management method, and program
JP2015053613A (en) Video distribution device and video distribution system
JP6375638B2 (en) Delivery control system, delivery system, delivery control method, and program
JP2016058959A (en) Distribution control system, distribution system, distribution control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171106

R151 Written notification of patent or utility model registration

Ref document number: 6248488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151