JP2003134487A - Multi-spot conference system - Google Patents

Multi-spot conference system

Info

Publication number
JP2003134487A
JP2003134487A JP2001327253A JP2001327253A JP2003134487A JP 2003134487 A JP2003134487 A JP 2003134487A JP 2001327253 A JP2001327253 A JP 2001327253A JP 2001327253 A JP2001327253 A JP 2001327253A JP 2003134487 A JP2003134487 A JP 2003134487A
Authority
JP
Japan
Prior art keywords
conference
video
terminal
server device
layout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001327253A
Other languages
Japanese (ja)
Inventor
Koichi Fujita
孝一 藤田
Tomohisa Suyama
智久 陶山
Yasuo Yomogida
康雄 蓬田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001327253A priority Critical patent/JP2003134487A/en
Publication of JP2003134487A publication Critical patent/JP2003134487A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To dynamically change the layout of a combined image to be displayed on each conference terminal. SOLUTION: A video combining means 106 of a server device 100 holds an XML file that defines the picture-combined layout of combined video to be distributed to each terminal 200, and the picture-combined layout of the XML file can be selected at an optional time such as a time during a conference and a time before the start of a conference in the each terminal. The video combining means follows the defined file to combine the videos of conference participants with a layout set in the each terminal, and distributes the video to the each terminal.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、遠隔地の多地点間
で会議を行うために映像、音声などを伝送する多地点会
議システムに関し、特に会議参加者の映像をレイアウト
して合成する場合のレイアウトに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multipoint conferencing system for transmitting video, audio, etc. for conducting a conference between multipoints in a remote place, and particularly in the case of laying out and synthesizing images of conference participants. Regarding layout.

【0002】[0002]

【従来の技術】一般に、この種の会議システムでは、コ
ントローラ側が複数の会議端末から送られてきた各映像
を1画面上に合成して各会議端末に配信する場合、例え
ば1番目の会議端末の映像は1番目のウィンドウに、2
番目の会議端末の映像は2番目のウィンドウに、のよう
にレイアウトして各会議端末に配信する。また、各会議
端末は、コントローラ側から送られてきた合成画像をそ
のままのレイアウトで表示する。
2. Description of the Related Art Generally, in this type of conference system, when the controller side synthesizes each video sent from a plurality of conference terminals on one screen and distributes it to each conference terminal, for example, The image is 2 in the first window
The video of the second conference terminal is laid out in the second window as in, and distributed to each conference terminal. In addition, each conference terminal displays the composite image sent from the controller side in the same layout.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来の会議システムでは、各会議端末に表示される合成画
像のレイアウトが同じであり、ダイナミックに変更する
ことができないので、各会議参加者は所望のレイアウト
で合成画像を見ることができないという問題点がある。
However, in the above-mentioned conventional conference system, since the layout of the composite image displayed on each conference terminal is the same and cannot be dynamically changed, each conference participant can obtain a desired image. There is a problem that the composite image cannot be seen in the layout.

【0004】本発明は上記従来例の問題点に鑑み、各会
議端末に表示される合成画像のレイアウトをダイナミッ
クに変更することができ、ひいては各会議参加者が所望
のレイアウトで合成画像を見ることができる多地点会議
システムを提供することを目的とする。
In view of the above-mentioned problems of the conventional example, the present invention can dynamically change the layout of the composite image displayed on each conference terminal, so that each conference participant can see the composite image in the desired layout. It is an object of the present invention to provide a multipoint conference system capable of performing.

【0005】[0005]

【課題を解決するための手段】本発明は上記目的を達成
するために、複数の会議端末と会議サーバ装置とがネッ
トワークを介して接続され、前記会議サーバ装置が前記
複数の会議端末から受信した映像及び音声を合成して前
記複数の会議端末に配信する多地点会議システムであっ
て、前記会議サーバ装置は、前記複数の会議端末の各々
毎に合成映像のレイアウト情報を記憶し、前記レイアウ
ト情報に基づいて会議端末毎にレイアウトの合成映像を
生成して前記複数の会議端末の各々に配信するように構
成した。
In order to achieve the above object, the present invention is configured such that a plurality of conference terminals and a conference server device are connected via a network, and the conference server device receives from the plurality of conference terminals. A multipoint conferencing system for synthesizing video and audio to deliver to the plurality of conference terminals, wherein the conference server device stores layout information of a composite video for each of the plurality of conference terminals, and the layout information. The composite video of the layout is generated for each conference terminal based on the above, and is delivered to each of the plurality of conference terminals.

【0006】上記構成により、各会議端末に表示される
合成画像のレイアウトをダイナミックに変更することが
でき、ひいては各会議参加者が所望のレイアウトで合成
画像を見ることができる。
With the above configuration, the layout of the composite image displayed on each conference terminal can be dynamically changed, and each conference participant can view the composite image in a desired layout.

【0007】本発明はまた、前記複数の会議端末の各々
から前記会議サーバ装置に対して前記合成映像のレイア
ウト情報の変更要求を送出し、前記会議サーバ装置が前
記変更要求に基づいて前記複数の会議端末の各々毎に定
義された合成映像のレイアウト情報を変更するように構
成した。
According to the present invention, each of the plurality of conference terminals sends a request for changing the layout information of the composite video to the conference server device, and the conference server device performs the plurality of requests based on the change request. The layout information of the composite video defined for each of the conference terminals is changed.

【0008】上記構成により、各会議端末に表示される
合成画像のレイアウトをダイナミックに変更することが
でき、ひいては各会議参加者が所望のレイアウトで合成
画像を見ることができる。
With the above arrangement, the layout of the composite image displayed on each conference terminal can be dynamically changed, and each conference participant can see the composite image in the desired layout.

【0009】本発明はまた、複数の会議端末と会議サー
バ装置がネットワークを介して接続され、前記会議サー
バ装置が前記複数の会議端末から受信した会議参加者の
映像及び音声を合成して前記複数の会議端末に配信する
多地点会議システムであって、前記会議サーバ装置は、
前記複数の会議端末に対して同じレイアウトの合成映像
を生成して配信し、前記複数の会議端末は、各々毎に定
義可能な合成映像のレイアウト情報を記憶し、前記レイ
アウト情報に基づいて前記会議サーバ装置から配信され
た合成映像のレイアウトを変更するように構成した。
According to the present invention, a plurality of conference terminals and a conference server device are connected via a network, and the conference server device synthesizes the video and audio of the conference participants received from the plurality of conference terminals to synthesize the plurality of conference terminals. Is a multipoint conference system for delivering to a conference terminal of
The composite video having the same layout is generated and delivered to the plurality of conference terminals, the plurality of conference terminals store layout information of the composite video that can be defined for each, and the conference based on the layout information. The layout of the composite video distributed from the server device is changed.

【0010】上記構成により、各会議端末に表示される
合成画像のレイアウトをダイナミックに変更することが
でき、ひいては各会議参加者が所望のレイアウトで合成
画像を見ることができる。
With the above configuration, the layout of the composite image displayed on each conference terminal can be dynamically changed, and each conference participant can view the composite image in a desired layout.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。図1は本発明に係る多地点
会議システムの一実施形態を示す構成図である。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a multipoint conference system according to the present invention.

【0012】図1に示すシステムでは、一例として多地
点会議サーバ装置(単に会議サーバ装置又はサーバ装置
ともいう)100に対して最大8台の多地点会議クライ
アント端末(以下単に「端末」ともいう)200がLA
N/WAN300を介して接続される。サーバ装置10
0には大容量記憶装置としてハードディスク(HD)1
20が設けられている。
In the system shown in FIG. 1, as an example, a maximum of eight multipoint conference client terminals (hereinafter also simply referred to as "terminals") with respect to a multipoint conference server apparatus (also simply referred to as a conference server apparatus or server apparatus) 100. 200 is LA
It is connected via the N / WAN 300. Server device 10
0 is a hard disk (HD) as a mass storage device 1
20 are provided.

【0013】また、LAN/WAN300は、世界中の
WWWサーバ400に接続可能であり、さらに、会議サ
ーバ装置100も同様にWWWサーバである。
The LAN / WAN 300 can be connected to WWW servers 400 around the world, and the conference server device 100 is also a WWW server.

【0014】図2は図1に示すシステムにおいて、端末
200がWWWサーバ400上(さらには会議サーバ装
置100上)のWEB資料にアクセスする動作を示し、
端末200はブラウザを有する。そして、会議サーバ装
置100はWWWサーバ400上のWEB資料名とUR
Lアドレスを対応して登録するためのWEB資料データ
ベースを有する。
FIG. 2 shows an operation in which the terminal 200 accesses the WEB material on the WWW server 400 (and further on the conference server device 100) in the system shown in FIG.
The terminal 200 has a browser. Then, the conference server device 100 displays the WEB material name and the UR on the WWW server 400.
It has a WEB material database for correspondingly registering L addresses.

【0015】このWEB資料データベースにはさらに、
自己のWEB資料が登録される。WEB資料はテキスト
ファイルや、JPEG、GIF、BMPなどの画像を含
むファイルである。
The WEB material database further includes
Your WEB material is registered. The WEB material is a text file or a file including images such as JPEG, GIF, and BMP.

【0016】図2における手順(1)はWWWサーバ4
00上のWEB資料を「見る」手順を示し、手順(2)
は「見せる」手順を示す。 (1)見る側の端末200aのクライアントがWWWサ
ーバ400上のWEB資料名を選択して「見る」ボタン
を操作して端末200aが会議サーバ装置100に対し
てWEB資料名を送ると、会議サーバ装置100はこれ
に応答してそのURLアドレスを送る。これにより、端
末200aはWWWサーバ400上のWEB資料にアク
セスすることができる。
The procedure (1) in FIG. 2 is the WWW server 4
The procedure to "see" the WEB material on 00 is shown, and the procedure (2)
Indicates the procedure of "showing". (1) When the client of the terminal 200a on the viewing side selects the WEB material name on the WWW server 400 and operates the "view" button to send the WEB material name to the conference server device 100, the conference server Device 100 responds by sending its URL address. As a result, the terminal 200a can access the WEB material on the WWW server 400.

【0017】(2)見せる側の端末200aのクライア
ントがWWWサーバ400上のWEB資料のURLアド
レスを選択して他の見せられる側の端末200bのクラ
イアントに「見せたい」ボタンを操作し、端末200a
が会議サーバ装置100に対してそのURLアドレスを
送ると、会議サーバ装置100は見せられる側の端末2
00bに対してそのURLアドレスを送る。これによ
り、見せられる側の端末200bがWWWサーバ400
上のWEB資料にアクセスすることができるので、端末
200aのクライアントが他の端末200bのクライア
ントに、見せたいWEB資料を見せることができる。こ
のようにWWWサーバ400上のWEB資料を見ている
間(アクセス中)は、会議サーバ装置100の負担はな
い。
(2) The client of the terminal 200a on the showing side selects the URL address of the WEB material on the WWW server 400 and operates the "I want to show" button to the client of the terminal 200b on the other side to be shown, and
Sends the URL address to the conference server device 100, the conference server device 100 displays the terminal 2 on the visible side.
The URL address is sent to 00b. As a result, the terminal 200b on the visible side is displayed on the WWW server 400.
Since the above WEB material can be accessed, the client of the terminal 200a can show the WEB material to be displayed to the client of the other terminal 200b. In this way, the conference server device 100 is not burdened while viewing (accessing) the WEB material on the WWW server 400.

【0018】図3を参照してサーバ装置100について
詳しく説明する。このサーバ装置100はソフトウエア
及びハードウエアにより構成される通信制御手段10
1、ユーザ認証手段102、予約管理手段103、サー
バ制御手段104、文字合成手段105、映像合成手段
106、音声フォーマット変換手段107、音声合成手
段108、WWWサーバ手段111、蓄積手段113、
及び負荷監視制御手段115と、HD120上に構成さ
れるユーザ管理データベース109、予約管理データベ
ース110、WEB資料データベース112、映像デー
タベース114及び画面合成定義データベース116を
有する。
The server device 100 will be described in detail with reference to FIG. This server device 100 is a communication control means 10 composed of software and hardware.
1, user authentication means 102, reservation management means 103, server control means 104, character synthesis means 105, video synthesis means 106, audio format conversion means 107, speech synthesis means 108, WWW server means 111, storage means 113,
And a load monitoring control means 115, a user management database 109, a reservation management database 110, a WEB material database 112, a video database 114, and a screen synthesis definition database 116 which are configured on the HD 120.

【0019】通信制御手段101はクライアント端末2
00から受信するデータ/制御コマンド1として、映像
音声データ、ユーザ認証データ、予約登録情報、端末情
報、映像資料データ、WEB資料データ、URLデー
タ、拡大映像要求コマンド及びその他制御用データなど
を受け取り、クライアント端末200に対して送信する
データ/制御コマンド2として、映像音声データ、HT
MLデータ、会議情報データ、ユーザ認証結果通知及び
その他制御用データなどを送る。
The communication control means 101 is a client terminal 2
As data / control command 1 received from 00, audio / video data, user authentication data, reservation registration information, terminal information, video material data, WEB material data, URL data, enlarged video request command and other control data are received, As the data / control command 2 to be transmitted to the client terminal 200, audio / video data, HT
It sends ML data, conference information data, user authentication result notification, and other control data.

【0020】通信制御手段101とユーザ認証手段10
2の間ではユーザ認証データ及びユーザ認証結果通知3
がやり取りされ、通信制御手段101と予約管理手段1
03との間では予約情報データ4がやり取りされる。通
信制御手段101とサーバ制御手段104との間では制
御用データ5がやり取りされ、通信制御手段101から
文字合成手段105には文字情報データ6が送られる。
通信制御手段101と映像合成手段106との間では映
像データ及び合成映像データ7がやり取りされ、文字合
成手段105から映像合成手段106には文字映像デー
タ10が送られる。通信制御手段101から音声フォー
マット変換手段107にはGSM音声データ8が送ら
れ、音声合成手段108から通信制御手段101には合
成GSM音声データ9が送られる。音声フォーマット変
換手段107と音声合成手段108との間ではPCM合
成音声データ及びGSM合成音声データ11がやり取り
される。
Communication control means 101 and user authentication means 10
User authentication data and user authentication result notification between 2
Are exchanged, the communication control means 101 and the reservation management means 1
Reservation information data 4 is exchanged with 03. The control data 5 is exchanged between the communication control means 101 and the server control means 104, and the character information data 6 is sent from the communication control means 101 to the character synthesis means 105.
Video data and composite video data 7 are exchanged between the communication control means 101 and the video composition means 106, and the character video data 10 is sent from the character composition means 105 to the video composition means 106. The communication control means 101 sends the GSM voice data 8 to the voice format conversion means 107, and the voice synthesis means 108 sends the synthesized GSM voice data 9 to the communication control means 101. The PCM synthesized voice data and the GSM synthesized voice data 11 are exchanged between the voice format conversion means 107 and the voice synthesis means 108.

【0021】ユーザ認証手段102とユーザ管理データ
ベース109との間ではユーザ認証データ12がやり取
りされ、予約管理手段103と予約管理データベース1
10との間では予約情報データ13がやり取りされる。
サーバ制御手段104とWWWサーバ手段111との間
ではHTTPリクエストデータ及びHTTPレスポンス
データ14がやり取りされ、サーバ制御手段104と音
声合成手段108との間では音声合成制御データ15が
やり取りされる。サーバ制御手段104から映像合成手
段106に対しては映像合成制御データ16が送られ
る。サーバ制御手段104と蓄積手段113との間では
蓄積制御データ及び読み出し制御データ17がやり取り
され、映像合成手段106と蓄積手段113との間では
蓄積映像データ及び読み出し映像データ18がやり取り
される。音声合成手段108と蓄積手段113との間で
は蓄積音声データ及び読み出し音声データ19がやり取
りされる。
User authentication data 12 is exchanged between the user authentication means 102 and the user management database 109, and the reservation management means 103 and the reservation management database 1 are exchanged.
Reservation information data 13 is exchanged with 10.
HTTP request data and HTTP response data 14 are exchanged between the server control means 104 and the WWW server means 111, and voice synthesis control data 15 is exchanged between the server control means 104 and the voice synthesis means 108. The video synthesis control data 16 is sent from the server control means 104 to the video synthesis means 106. The storage control data and the read control data 17 are exchanged between the server control means 104 and the storage means 113, and the stored video data and the read video data 18 are exchanged between the video composition means 106 and the storage means 113. The accumulated voice data and the read voice data 19 are exchanged between the voice synthesis unit 108 and the storage unit 113.

【0022】WWWサーバ手段111とWEB資料デー
タベース112との間ではWEB資料及びWEB資料デ
ータ20がやり取りされ、蓄積手段113と映像データ
ベース114との間では映像・音声データ及び映像資料
データ21がやり取りされる。また、蓄積手段113と
WEB資料データベース112との間ではWEB資料及
びWEB資料データ20がやり取りされる。映像合成手
段106と画面合成定義データベース116との間では
画面合成定義データ24がやり取りされる。負荷監視制
御手段115はLAN/WAN300との間で負荷監視
用パケットデータ及び負荷監視用応答パケットデータ2
2をやり取りして、レート制御指示データ23を通信制
御手段101に送る。
WEB material and WEB material data 20 are exchanged between the WWW server means 111 and the WEB material database 112, and video / audio data and video material data 21 are exchanged between the accumulating means 113 and the video database 114. It Further, WEB materials and WEB material data 20 are exchanged between the storage means 113 and the WEB material database 112. The screen synthesis definition data 24 is exchanged between the video synthesis means 106 and the screen synthesis definition database 116. The load monitoring control means 115 exchanges load monitoring packet data and load monitoring response packet data 2 with the LAN / WAN 300.
2 is exchanged to send the rate control instruction data 23 to the communication control means 101.

【0023】サーバ装置100の基本機能を説明する。 ・プロキシ機能:WWWサーバ機能。LAN/WAN3
00からの要求が多地点会議のHTTP要求か通常のイ
ンターネットアクセス要求かを判断し、後者の場合には
インターネット用プロキシへ配信する。 ・ユーザ認証機能:あらかじめ登録されているユーザか
否かを判断する。 ・映像合成・配信機能:全ての端末200から受信した
各会議参加者の映像を、画面合成定義データベース11
6上に各端末200毎に定義されたレイアウトで1枚に
合成してそれぞれの端末200に配信する。各端末20
0毎に定義されたレイアウト情報は、それぞれの端末2
00からの変更要求により変更可能である。 ・音声合成・配信機能:各端末200からの音声を指定
された組み合わせでミキシングして全端末200に配信
する。 ・文字合成機能:各端末200からの映像の下部にスラ
イスデータを合成して1枚のフレームに合成する。
The basic functions of the server device 100 will be described. -Proxy function: WWW server function. LAN / WAN3
It is determined whether the request from 00 is an HTTP request for a multipoint conference or a normal Internet access request, and in the latter case, the request is delivered to the Internet proxy. -User authentication function: Judges whether the user is registered in advance. -Video composition / distribution function: The screen composition definition database 11 stores the images of the conference participants received from all terminals 200.
6 are combined into one sheet with a layout defined for each terminal 200 and distributed to each terminal 200. Each terminal 20
The layout information defined for each 0 is used for each terminal 2
It can be changed by a change request from 00. -Voice synthesis / delivery function: The voices from each terminal 200 are mixed in a designated combination and delivered to all terminals 200. Character synthesizing function: Slice data is synthesized in the lower part of the image from each terminal 200 to synthesize one frame.

【0024】・記録機能:各端末200からの映像・音
声をHD120に記録する。 ・記録再生機能:HD120に記録された映像・音声デ
ータを再生して各端末200に配信する。ダウンロード
であれば、MPEG−1形式に変換してダウンロードす
る。 ・レート制御機能:端末200が接続されているネット
ワーク帯域幅を調査し、帯域幅に応じた映像ビットレー
ト、音声符号化方式を採用する。
Recording function: Video / audio from each terminal 200 is recorded in the HD 120. Recording / reproducing function: Reproduces video / audio data recorded in the HD 120 and distributes it to each terminal 200. If it is a download, it is converted into the MPEG-1 format and downloaded. Rate control function: investigates the network bandwidth to which the terminal 200 is connected, and adopts a video bit rate and an audio encoding method according to the bandwidth.

【0025】次に詳細な機能を説明する。 <会議予約> ・会議登録:開催する会議を予約登録する機能。予約時
に登録する内容は、日時/開催会議名/コメント/参加
ユーザ認証設定。 ・会議削除:既に予約登録した会議予約内容を削除する
機能。 ・会議登録内容一覧表示:既に登録した会議内容を日付
指定された日の内容一覧表として表示する機能。 ・会議参加認証:ユーザが会議に参加する際に、その会
議に登録されているか否かを判断し、登録されていない
場合には会議参加を拒否する機能。
Next, detailed functions will be described. <Meeting reservation> -Meeting registration: A function to reserve and register a meeting to be held. The contents registered at the time of reservation are date / time / held conference name / comment / participating user authentication setting. -Delete meeting: A function to delete the contents of a meeting reservation that has already been registered for reservation. -Meeting registration content list display: A function to display the already registered meeting content as a content list for the specified date. -Conference participation authentication: A function of determining whether or not a user is registered in the conference when the user participates in the conference, and rejecting the conference participation when the user is not registered.

【0026】<WEB資料> ・WEB資料登録:WEB資料として使用するURLア
ドレスに関連付けた名前を「WEB資料名」として登録
する機能。 ・WEB資料削除:既に登録したWEB資料名を削除す
る機能。 ・WEB資料一覧表示:サーバ装置100に登録されて
いるWEB資料名の一覧を表示する機能。 ・WEB資料表示:登録されたWEB資料名を選択して
WEB資料名に関連付けられたURLアドレスのWEB
ページ情報を表示する機能。会議中であれば映像表示エ
リアを縮小して表示する。 ・WEB資料反映:現在表示しているWEB資料の内容
を他の会議参加者に反映する機能。
<WEB material> Web material registration: A function of registering a name associated with a URL address used as a WEB material as a "WEB material name".・ WEB material deletion: A function to delete the already registered WEB material name. -WEB material list display: a function of displaying a list of WEB material names registered in the server apparatus 100.・ WEB material display: Select the registered WEB material name and WEB of the URL address associated with the WEB material name
A function to display page information. If it is during a meeting, the image display area is reduced and displayed. -Reflect WEB material: A function to reflect the content of the WEB material currently displayed to other conference participants.

【0027】<映像資料> ・映像資料登録:DV(デジタルビデオの略:以下同
じ)カメラに記録した映像をMPEG−1に変換してサ
ーバ装置100上に登録する。 ・映像資料削除:既に登録された映像資料を削除する。 ・映像資料プレビュー(再生/一時停止/早送り/巻き
戻し):既に登録した映像資料を再生、再生一時停止、
早送り、巻き戻す機能。 ・映像資料一覧表示:既に登録された映像資料の一覧を
表示する機能。 ・映像資料見る(再生/一時停止/早送り/巻き戻
し):登録された映像資料を会議中に合成して配信する
ことで一人で参照する機能。 ・映像資料見せる:登録された映像資料を会議中に合成
して全員に配信する機能。
<Video material> -Video material registration: A video recorded in a DV (abbreviation of digital video: the same hereinafter) camera is converted into MPEG-1 and registered on the server 100. -Delete video material: Delete the registered video material.・ Video material preview (Play / Pause / Fast forward / Rewind): Plays / Pauses / plays back the already registered video material.
Fast forward and rewind function. -Video material list display: A function to display a list of already registered video materials. -View video material (play / pause / fast forward / rewind): A function that allows registered video material to be composited during a meeting and distributed to be viewed by one person. -Show video material: A function to combine registered video materials during the conference and distribute them to everyone.

【0028】<議事録> ・議事録録画:現在会議中の映像・音声、映像資料、W
EB資料をサーバ装置100上に記録する機能。 ・議事録ダウンロード:サーバ装置100上に登録され
た議事録をHTML形式で、端末200の記録媒体上に
ダウンロードする機能。 ・議事録閲覧:サーバ装置100上に登録された議事録
をレート制御を受けながら配信する機能。 ・議事録一覧表示/削除:サーバ装置100上に登録さ
れた議事録を一覧表示し、また、削除する機能。 ・議事録再生(WEB資料再生):ダウンロードした議
事録をWEBブラウザで参照する機能。
<Minutes> ・ Recording minutes: video / audio, video materials, W during the meeting
A function of recording the EB material on the server device 100. -Minutes download: A function of downloading the minutes registered in the server device 100 in the HTML format onto the recording medium of the terminal 200. -Browsing minutes: A function of distributing minutes registered on the server device 100 while receiving rate control. -Meeting list display / deletion: A function of displaying a list of registered minutes on the server 100 and deleting them. -Record minutes reproduction (WEB material reproduction): A function to refer to the downloaded minutes on the WEB browser.

【0029】<表示> ・会議参加者名表示:映像表示領域の一部に参加者名を
合成する機能。 ・会議情報表示:現在開催中の会議情報(会議名/開催
日時/主催者名/参加者名)を表示する機能。 ・映像拡大/縮小
<Display> • Conference participant name display: A function for composing the participant name in a part of the video display area. -Meeting information display: A function to display the information of the currently held meeting (meeting name / date / time / host name / participant name).・ Image enlargement / reduction

【0030】次に図4を参照して端末200について詳
しく説明する。この端末200は音声入出力手段20
1、映像入力手段202、WWW表示手段203、操作
入力手段204、音声フォーマット変換手段205、映
像フォーマット変換手段206、WWW制御手段20
7、音声コーデック制御手段208、映像コーデック制
御手段209、端末制御手段210、蓄積手段211、
記録媒体212及び通信制御手段213を有し、通信制
御手段213はLAN/WAN300(図1、図3参
照)に接続される。
Next, the terminal 200 will be described in detail with reference to FIG. This terminal 200 has a voice input / output means 20.
1, video input means 202, WWW display means 203, operation input means 204, audio format conversion means 205, video format conversion means 206, WWW control means 20
7, audio codec control means 208, video codec control means 209, terminal control means 210, storage means 211,
It has a recording medium 212 and a communication control means 213, and the communication control means 213 is connected to the LAN / WAN 300 (see FIGS. 1 and 3).

【0031】音声入出力手段201から音声フォーマッ
ト変換手段205にはPCM音声入力信号31が送ら
れ、音声コーデック制御手段208から音声入出力手段
201には音声出力信号32が送られる。映像入力手段
202から映像フォーマット変換手段206にはDV映
像信号33が送られる。WWW制御手段207からWW
W表示手段203にはHTMLファイル制御情報34が
送られ、WWW表示手段203からWWW制御手段20
7にはCGIフォーム情報35aが送られる。操作入力
手段204からWWW表示手段203には操作イベント
データ35bが送られる。
The audio input / output unit 201 sends the PCM audio input signal 31 to the audio format conversion unit 205, and the audio codec control unit 208 sends the audio output signal 32 to the audio input / output unit 201. The DV video signal 33 is sent from the video input unit 202 to the video format conversion unit 206. WWW control means 207 to WW
The HTML file control information 34 is sent to the W display means 203, and the WWW display means 203 sends the WWW control means 20.
The CGI form information 35a is sent to 7. The operation event data 35b is sent from the operation input means 204 to the WWW display means 203.

【0032】音声フォーマット変換手段205から音声
コーデック制御手段208にはPCMダウンサンプリン
グ音声データ36が送られ、映像フォーマット変換手段
206から映像コーデック制御手段209にはDV映像
データ37が送られる。映像コーデック制御手段209
からWWW制御手段207にはMPEG−1映像データ
38が送られる。WWW制御手段207から端末制御手
段210には制御用データ39が送られ、端末制御手段
210と蓄積手段211との間では制御用データ40が
やり取りされる。蓄積手段211と記録媒体212との
間では映像・音声データ、映像資料及びWEB資料用デ
ータ(HTML)41がやり取りされる。
The audio format conversion means 205 sends the PCM down-sampled audio data 36 to the audio codec control means 208, and the video format conversion means 206 sends the DV video data 37 to the video codec control means 209. Video codec control means 209
From the WWW control means 207, MPEG-1 video data 38 is sent. The WWW control means 207 sends the control data 39 to the terminal control means 210, and the control data 40 is exchanged between the terminal control means 210 and the storage means 211. Video / audio data, video material, and WEB material data (HTML) 41 are exchanged between the storage means 211 and the recording medium 212.

【0033】音声コーデック制御手段208から通信制
御手段213にはGSM音声データ42が送られ、通信
制御手段213から音声コーデック制御手段208には
GSM音声データ43が送られる。映像コーデック制御
手段209から通信制御手段213にはMPEG−1映
像データ44が送られ、通信制御手段213から映像コ
ーデック制御手段209にはMPEG−1映像データ4
5が送られる。端末制御手段210と通信制御手段21
3との間では制御用データ46がやり取りされる。
The voice codec control means 208 sends the GSM voice data 42 to the communication control means 213, and the communication control means 213 sends the GSM voice data 43 to the voice codec control means 208. The MPEG-1 video data 44 is sent from the video codec control means 209 to the communication control means 213, and the MPEG-1 video data 4 is sent from the communication control means 213 to the video codec control means 209.
5 is sent. Terminal control means 210 and communication control means 21
The control data 46 is exchanged with the device 3.

【0034】次に端末200の主な機能について説明す
る。 ・音声データ配信:DVカメラ/マイク入力から音声を
取り込み、音声データをサーバ装置に配信する機能。
(DVカメラ/マイク入力からの音声入力PCMデータ
をダウンサンプリング後にGSMに変換し、GSMのフ
レーム単位でパケット化してHTTPプロトコルで配信
する。) ・音声再生: ・映像データ配信:DVカメラ/USBカメラから映像
を取り込み、映像データをサーバ装置に配信する機能。
(DVカメラ/USBカメラからDV形式の映像データ
をMPEG−1に変換し、MPEG−1のフレーム単位
でパケット化してHTTPプロトコルで配信する。)
Next, the main functions of the terminal 200 will be described. -Voice data distribution: A function of capturing sound from a DV camera / microphone input and distributing the sound data to the server device.
(Audio input PCM data from DV camera / microphone input is downsampled, converted to GSM, packetized in GSM frame units, and delivered by HTTP protocol.) Audio playback: -Video data delivery: DV camera / USB camera A function to capture video from and distribute the video data to the server device.
(The DV format video data from the DV camera / USB camera is converted to MPEG-1, packetized in MPEG-1 frame units, and delivered by the HTTP protocol.)

【0035】次に図5〜図15を参照して端末200の
表示画面を説明する。 <メニュー画面>メニュー画面には図5に示すように、
「会議予約画面表示ボタン」、「映像資料登録画面表示
ボタン」、「WEB資料登録画面表示ボタン」、「会議
議事録の閲覧ダウンロード画面表示ボタン」、「現在開
催中の会議に参加するボタン」、「現在開催中の会議情
報の表示エリア」、「現在会議が開催されているか否か
の状況を表示するエリア」、「現在開催中の会議情報の
要求ボタン」、「本日開催開始予定の会議情報を表示す
るエリア」などが表示される。 <予約画面>図5に示すメニュー画面上の「会議予約画
面表示ボタン」が操作されると、図6に示すような会議
予約画面が表示され、この会議予約画面から会議を予約
することができる。
Next, the display screen of the terminal 200 will be described with reference to FIGS. <Menu screen> On the menu screen, as shown in FIG.
"Meeting reservation screen display button", "Video material registration screen display button", "WEB material registration screen display button", "Meeting minutes browsing download screen display button", "Button to join the currently held meeting", "Current meeting information display area", "Current meeting status display area", "Current meeting information request button", "Today's scheduled meeting information" Area for displaying "is displayed. <Reservation screen> When the "conference reservation screen display button" on the menu screen shown in FIG. 5 is operated, a conference reservation screen as shown in FIG. 6 is displayed, and a conference can be reserved from this conference reservation screen. .

【0036】<会議画面>図5に示すメニュー画面上の
「会議開始ボタン」が操作されると、図7に示すような
会議画面が表示される。この会議画面には「議事録会議
情報表示エリア」、「映像資料表示エリア」、選択した
映像資料を「見る」ボタン及び「見せる」ボタン、「登
録WEB資料一覧表示エリア」、選択したWEB資料を
「見る」ボタン、「議事録録画開始/停止ボタン、メニ
ュー画面に戻るための「メニューへ」ボタン、「会議映
像表示エリア」が設けられている。「会議映像表示エリ
ア」は図8に詳しく示すように、下側の略半分は4×2
=8個のウィンドウに分割され、各分割ウィンドウには
8名の会議参加者のそれぞれの映像が表示される。ま
た、上側の略半分は2×1=2個のウィンドウに分割さ
れ、その右側ウィンドウには自分が見たい、又は他の参
加者に見せられた映像資料が表示され、左側ウィンドウ
にはその映像資料の拡大映像が表示される。
<Conference screen> When the "meeting start button" on the menu screen shown in FIG. 5 is operated, a conference screen as shown in FIG. 7 is displayed. In this meeting screen, "Meeting information display area", "Video material display area", "View" button and "Show" button of the selected video material, "Registered WEB material list display area", selected WEB material A “view” button, a “recording minutes start / stop button”, a “menu” button for returning to the menu screen, and a “meeting image display area” are provided. As shown in detail in FIG. 8, the “meeting image display area” is 4 × 2 in the lower half.
= 8 windows are divided, and each divided window displays the video of each of the eight conference participants. In addition, the upper half is divided into 2 × 1 = 2 windows, the right side window displays the video material that you want to see or is shown to other participants, and the left side window displays the image. An enlarged image of the material is displayed.

【0037】<会議画面(映像資料表示)>図7に示す
会議画面上の、選択した映像資料を「見る」ボタン及び
「見せる」ボタンが操作されると、図9に示すような映
像資料表示の会議画面が表示される。この会議画面に
は、「会議映像表示エリア」に映像資料が表示され、ま
た、図7に示す会議画面の表示の他に更に、「映像資料
再生/一時停止/停止/スライダー/映像資料終了」の
各ボタンが表示される。 <会議画面(WEB表示)>図7に示す会議画面上の、
選択したWEB資料を「見る」ボタンが操作されると、
図10に示すようなWEB表示の会議画面が表示され
る。この会議画面には、図7に示す会議画面の表示の他
に更に、「WEBページ表示エリア」、縮小された「会
議映像表示エリア」、「URL入力欄」、「WEBペー
ジ操作ボタン」、表示中のWEBページを他の端末に
「見せる」ボタン、「WEB資料表示を終了する」ボタ
ンが表示される。
<Conference screen (display of video material)> When the "view" button and the "show" button of the selected video material on the meeting screen shown in FIG. 7 are operated, the video material is displayed as shown in FIG. The meeting screen of is displayed. On this conference screen, the video material is displayed in the "conference video display area", and in addition to the display of the conference screen shown in FIG. 7, "Play / pause / stop / slider / end video material" is displayed. Each button of is displayed. <Conference screen (WEB display)> On the conference screen shown in FIG.
When the "View" button of the selected WEB material is operated,
A WEB display conference screen as shown in FIG. 10 is displayed. In this conference screen, in addition to the display of the conference screen shown in FIG. 7, a “WEB page display area”, a reduced “conference image display area”, a “URL input field”, a “WEB page operation button”, and a display A "show" button for displaying the inside WEB page to another terminal and a "end WEB material display" button are displayed.

【0038】<映像資料登録画面(プレビュー中)>プ
レビュー中の映像資料登録画面には図11に示すよう
に、サーバ100上に登録された映像資料一覧、自端末
上の映像資料一覧、外部記録機器内の映像資料一覧、選
択した映像資料の移動先/削除ボタン、「メニューへ」
ボタン、映像資料再生表示エリア、スライダーバー、映
像資料再生/一時停止/停止ボタン、映像資料名入力欄
などが表示される。
<Video material registration screen (during preview)> On the video material registration screen during preview, as shown in FIG. 11, the video material list registered on the server 100, the video material list on the terminal itself, and external recording. List of video materials in the device, move / delete button of selected video material, "to menu"
Buttons, video material playback display area, slider bar, video material playback / pause / stop button, video material name input field, etc. are displayed.

【0039】<WEB資料登録画面>WEB資料登録画
面には図12に示すように、登録するWEB資料名入力
欄、入力したWEB資料名登録ボタン、既に登録された
WEB資料名表示一覧、WEB資料一覧からの表示/削
除ボタン、「メニューへ」ボタン、URLアドレス入力
欄、WEBページ表示エリア、WEB操作ボタンなどが
表示される。
<WEB material registration screen> On the WEB material registration screen, as shown in FIG. 12, a WEB material name input field to be registered, an inputted WEB material name registration button, a WEB material name display list already registered, WEB material Display / delete button from list, “to menu” button, URL address input field, WEB page display area, WEB operation button and the like are displayed.

【0040】<会議議事録閲覧画面(ダウンロード)>
ダウンロードを行うための会議議事録閲覧画面には図1
3に示すように、「メニューへ」ボタン、議事録一覧表
示エリア、議事録一覧からのダウンロード/閲覧/削除
ボタン、ダウンロード先指定エリアなどが表示される。 <会議議事録閲覧画面>会議議事録閲覧画面には図14
に示すように、議事録会議情報表示エリア、映像・WE
B資料表示モード切換ボタン、スライダーバー、議事録
再生/一時停止/停止ボタン、閲覧ダウンロード画面へ
進むボタン、議事録映像表示エリアなどが表示される。
<Meeting minutes browsing screen (download)>
Figure 1 is displayed on the conference minutes browsing screen for downloading.
As shown in 3, a “menu” button, a minutes list display area, a download / view / delete button from the minutes list, a download destination designation area, and the like are displayed. <Meeting minutes browsing screen> Figure 14 on the meeting minutes browsing screen
As shown in, the meeting information display area, video / WE
B Material display mode switching button, slider bar, minutes play / pause / stop button, button to browse and download screen, minutes video display area, etc. are displayed.

【0041】<会議議事録閲覧画面(WEB表示)>W
EB表示の会議議事録閲覧画面には図15に示すよう
に、図14に示す表示に加えて、URLアドレス入力
欄、WEBページ表示エリア(議事録映像表示エリアに
代わる)、縮小された議事録映像表示エリア、WEBペ
ージ操作ボタンなどが表示される。
<Meeting minutes browsing screen (WEB display)> W
As shown in FIG. 15, in the conference minutes browsing screen of the EB display, in addition to the display shown in FIG. 14, a URL address input field, a WEB page display area (instead of the minutes video display area), and a reduced minutes A video display area, WEB page operation buttons, etc. are displayed.

【0042】<議事録>次に図16を参照してサーバ装
置100の議事録記録の開始処理を説明する。まず、端
末200は「議事録記録開始」ボタンが操作されると議
事録記録開始コマンドをサーバ装置100に送信する。
サーバ装置100では、通信制御手段101が端末20
0からコマンド(議事録記録開始コマンド)を受信する
と、サーバ制御手段104に対してコマンド解析を指示
し(ステップS1)、サーバ制御手段104が受信コマ
ンドを議事録記録開始コマンドと解析すると議事録の記
録指示を蓄積手段113に発行する(ステップS2)。
そして、蓄積手段113が会議中の映像・音声を議事録
としてHD120上の映像データベース114へ記録を
開始する(ステップS3)。ここで、議事録として記録
する映像・音声は、HD120の容量を節約するため
に、端末200から受信した全ての映像・音声ではな
く、その内、端末200に配信した映像・音声のみであ
る。
<Minutes> Next, with reference to FIG. 16, a process of starting the minutes recording of the server device 100 will be described. First, the terminal 200 transmits a minutes record recording start command to the server device 100 when the “minutes record start” button is operated.
In the server device 100, the communication control unit 101 has the terminal 20.
When a command (minutes record start command) is received from 0, the server controller 104 is instructed to analyze the command (step S1), and when the server controller 104 analyzes the received command as the minutes record start command, the minutes are recorded. A recording instruction is issued to the storage means 113 (step S2).
Then, the accumulating means 113 starts recording the video / audio during the conference in the video database 114 on the HD 120 as the minutes (step S3). Here, the video / audio recorded as the minutes is not all the video / audio received from the terminal 200 in order to save the capacity of the HD 120, but only the video / audio distributed to the terminal 200.

【0043】<映像資料登録>次に図17を参照してサ
ーバ装置100の映像資料登録の処理を説明する。ま
ず、端末200は「映像資料登録」ボタンが操作される
と映像資料登録コマンドをサーバ装置100に送信す
る。サーバ装置100では、通信制御手段101が端末
200からコマンド(映像資料登録コマンド)を受信す
ると、サーバ制御手段104に対してコマンド解析を指
示し(ステップS21)、サーバ制御手段104が受信
コマンドを映像資料登録コマンドと解析すると映像資料
の書き込み指示を蓄積手段113に発行する(ステップ
S22)。そして、蓄積手段113が映像資料登録コマ
ンドが指示する映像資料をHD120上の映像データベ
ース114に記録し、また、その管理データをユーザ管
理データベース109に記録する(ステップS23)。
<Image Material Registration> Next, with reference to FIG. 17, the image material registration process of the server device 100 will be described. First, the terminal 200 transmits a video material registration command to the server device 100 when the “video material registration” button is operated. In the server device 100, when the communication control means 101 receives a command (video material registration command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S21), and the server control means 104 images the received command. When analyzed with the material registration command, an instruction to write the video material is issued to the storage means 113 (step S22). Then, the storage unit 113 records the video material designated by the video material registration command in the video database 114 on the HD 120, and records the management data thereof in the user management database 109 (step S23).

【0044】<映像資料再生>次に図18を参照してサ
ーバ装置100の映像資料再生の処理を説明する。ま
ず、端末200は「見る」ボタンが操作されると映像資
料再生コマンドをサーバ装置100に送信する。サーバ
装置100では、通信制御手段101が端末200から
コマンド(映像資料再生コマンド)を受信すると、サー
バ制御手段104に対してコマンド解析を指示し(ステ
ップS31)、サーバ制御手段104が受信コマンドを
映像資料再生コマンドと解析するとアクセス権判断指示
をサーバ制御手段104に発行し(ステップS32)、
サーバ制御手段104がそのユーザのアクセス権を判断
する(ステップS33)。
<Video Material Reproduction> Next, with reference to FIG. 18, the processing of the video material reproduction of the server apparatus 100 will be described. First, when the “view” button is operated, the terminal 200 transmits a video material reproduction command to the server device 100. In the server device 100, when the communication control means 101 receives a command (video material reproduction command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S31), and the server control means 104 images the received command. When analyzed with the material reproduction command, an access right judgment instruction is issued to the server control means 104 (step S32),
The server control means 104 determines the access right of the user (step S33).

【0045】そして、「アクセス権有り」の場合には、
蓄積手段113が映像資料再生開始コマンドが指示する
映像資料を、ユーザ管理データベース109を参照しな
がら映像データベース114から再生し(ステップS3
4→S35)、次いで再生した映像・音声をそれぞれ映
像合成手段106と音声合成手段108により合成し
(ステップS36)、次いでこれを通信制御手段101
により端末200に配信する(ステップS37)。他
方、「アクセス権無し」の場合には、サーバ制御手段1
04が「アクセス権無し」の送信コマンドを生成し(ス
テップS34→S38)、次いでこれを通信制御手段1
01により端末200に配信する(ステップS39)。
Then, in the case of "access right",
The accumulation means 113 reproduces the video material designated by the video material reproduction start command from the video database 114 with reference to the user management database 109 (step S3).
4 → S35), and then the reproduced video / audio is synthesized by the video synthesizing means 106 and the voice synthesizing means 108, respectively (step S36), and then the communication control means 101
Is delivered to the terminal 200 (step S37). On the other hand, in the case of “no access right”, the server control means 1
04 generates a transmission command of “no access right” (steps S34 → S38), and then transmits this to the communication control means 1
01 is delivered to the terminal 200 (step S39).

【0046】<WEB資料登録>次に図19を参照して
サーバ装置100のWEB資料登録の処理を説明する。
まず、端末200は「WEB資料登録」ボタンが操作さ
れるとWEB資料登録コマンドをサーバ装置100に送
信する。サーバ装置100では、通信制御手段101が
端末200からコマンド(WEB資料登録コマンド)を
受信すると、サーバ制御手段104に対してコマンド解
析を指示し(ステップS71)、サーバ制御手段104
が受信コマンドをWEB資料登録コマンドと解析すると
WEB資料管理テーブルの書き込み指示を蓄積手段11
3に発行する(ステップS72)。そして、蓄積手段1
13がWEB資料管理テーブルを作成してHD120上
のWEB資料データベース112に記録する(ステップ
S73)。
<WEB Material Registration> Next, referring to FIG. 19, the web material registration processing of the server 100 will be described.
First, when the "WEB material registration" button is operated, the terminal 200 transmits a WEB material registration command to the server device 100. In the server device 100, when the communication control means 101 receives a command (WEB material registration command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S71), and the server control means 104.
When the received command is analyzed by the WEB material registration command, the storing means 11 stores the write instruction of the WEB material management table.
3 (step S72). And storage means 1
13 creates a WEB material management table and records it in the WEB material database 112 on the HD 120 (step S73).

【0047】<WEB資料イベント登録>次に図20を
参照してサーバ装置100のWEB資料イベントの記録
処理を説明する。まず、端末200は「WEB資料記
録」ボタンが操作されるとWEB資料記録用制御コマン
ドをサーバ装置100に送信する。サーバ装置100で
は、通信制御手段101が端末200からコマンド(W
EB資料記録用制御コマンド)を受信すると、サーバ制
御手段104に対してコマンド解析を指示し(ステップ
S41)、サーバ制御手段104が受信コマンドをWE
B資料記録用制御コマンドと解析すると、表示中の映像
資料のURLの記録指示を蓄積手段113に発行する
(ステップS42)。そして、蓄積手段113が映像資
料のWEB資料イベントとして、会議情報(会議名/開
催日時/主催者名/参加者名)と、表示中の映像資料の
URLアドレスと、会議開始からの経過時間をHD12
0上のWEB資料データベース114に記録する(ステ
ップS43)。
<WEB Material Event Registration> Next, referring to FIG. 20, the recording processing of the WEB material event of the server 100 will be described. First, when the “WEB material recording” button is operated, the terminal 200 transmits a WEB material recording control command to the server device 100. In the server device 100, the communication control unit 101 sends a command (W
When receiving the EB material recording control command), the server control unit 104 is instructed to analyze the command (step S41), and the server control unit 104 sends the received command to the WE.
When analyzed with the B material recording control command, a recording instruction of the URL of the video material being displayed is issued to the accumulating means 113 (step S42). Then, the storage unit 113 stores the meeting information (meeting name / holding date / organizer name / participant name) as a WEB material event of the video material, the URL address of the displayed video material, and the elapsed time from the start of the meeting. HD12
0 is recorded in the WEB material database 114 (step S43).

【0048】<WEB資料見せる>次に図21を参照し
てサーバ装置100のWEB資料イベントの通知処理を
説明する。まず、端末200は「見せる」ボタンが操作
されるとWEB資料URL通知用制御コマンドをサーバ
装置100に送信する。サーバ装置100では、通信制
御手段101が端末200からコマンド(WEB資料U
RL通知用制御コマンド)を受信すると、サーバ制御手
段104に対してコマンド解析を指示し(ステップS5
1)、サーバ制御手段104が受信コマンドをWEB資
料URL通知用制御コマンドと解析すると、URL通知
コマンドの生成指示を発行する(ステップS52)。
<Showing WEB Material> Next, the WEB material event notification process of the server 100 will be described with reference to FIG. First, when the “show” button is operated, the terminal 200 transmits a WEB material URL notification control command to the server device 100. In the server device 100, the communication control means 101 sends a command (WEB data U
When receiving the RL notification control command), it instructs the server control means 104 to analyze the command (step S5).
1) When the server control unit 104 analyzes the received command as the WEB material URL notification control command, it issues a URL notification command generation instruction (step S52).

【0049】そして、サーバ制御手段104がURL通
知コマンドを生成してその送信指示を通信制御手段10
1に発行し(ステップS53)、次いで通信制御手段1
01がこのURL通知コマンドを他の端末200に送信
する(ステップS54)。これにより、「見せる」ボタ
ンが操作された端末200で表示中のWEB資料のUR
Lアドレスが他の端末200で表示されるので、他の端
末200がこのURLアドレスでWWWサーバ400
(さらにはサーバ装置100)のWEB資料にアクセス
して表示することができる。
Then, the server control means 104 generates a URL notification command and sends the transmission instruction to the communication control means 10.
1 (step S53), and then communication control means 1
01 transmits this URL notification command to another terminal 200 (step S54). As a result, the UR of the WEB material being displayed on the terminal 200 whose “show” button has been operated
Since the L address is displayed on the other terminal 200, the other terminal 200 uses this URL address for the WWW server 400.
(In addition, the WEB material of the server device 100) can be accessed and displayed.

【0050】<議事録再生>次に図22を参照してサー
バ装置100の議事録再生処理を説明する。まず、端末
200は「議事録再生」ボタンが操作されると議事録再
生コマンドをサーバ装置100に送信する。サーバ装置
100では、通信制御手段101が端末200からコマ
ンド(議事録再生コマンド)を受信すると、サーバ制御
手段104に対してコマンド解析を指示し(ステップS
61)、サーバ制御手段104が受信コマンドを議事録
再生コマンドと解析すると、議事録とWEB資料イベン
トの読み出し指示を蓄積手段113に発行する(ステッ
プS62)。
<Reproduction of Minutes> Next, the minutes reproduction processing of the server device 100 will be described with reference to FIG. First, when the “minutes reproduction” button is operated, the terminal 200 transmits a minutes reproduction command to the server device 100. In the server device 100, when the communication control means 101 receives a command (minutes reproduction command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S
61), when the server control means 104 analyzes the received command with the minutes reproduction command, it issues an instruction to read the minutes and WEB material event to the storage means 113 (step S62).

【0051】次いで蓄積手段113が議事録とWEB資
料イベントをHD120から読み出し(ステップS6
3)、次いでサーバ制御手段104がWEB資料イベン
トの経過時間(参照時間)か否かを判断する(ステップ
S64)。そして、経過時間(参照時間)の場合にはサ
ーバ制御手段104がURL通知コマンドを生成してそ
の配信指示を通信制御手段101に発行し (ステップ
S65)、次いで通信制御手段101がこのURL通知
コマンドを端末200に送信し(ステップS66)、次
いでステップS67に進む。ステップS64において経
過時間(参照時間)でない場合には直接ステップS67
に進む。ステップS67では議事録の映像と音声をそれ
ぞれ映像合成手段106と音声合成手段107により合
成してその配信指示を通信制御手段101に発行し、次
いで通信制御手段101がレート制御を行いながら、こ
の合成された映像と音声を端末200に送信する(ステ
ップS68)。
Then, the storage means 113 reads the minutes and the WEB material event from the HD 120 (step S6).
3) Then, the server control means 104 determines whether or not the elapsed time (reference time) of the WEB material event is reached (step S64). Then, in the case of the elapsed time (reference time), the server control means 104 generates a URL notification command and issues the distribution instruction to the communication control means 101 (step S65), and then the communication control means 101 sends this URL notification command. Is transmitted to the terminal 200 (step S66), and then the process proceeds to step S67. If it is not the elapsed time (reference time) in step S64, the process directly proceeds to step S67.
Proceed to. In step S67, the video and audio of the minutes are synthesized by the video synthesizing means 106 and the voice synthesizing means 107, respectively, and the distribution instruction is issued to the communication control means 101, and then the synthesis is performed while the communication control means 101 performs rate control. The selected video and audio are transmitted to the terminal 200 (step S68).

【0052】したがって、会議参加者が会議終了後など
に議事録を再生する場合に、会議中に映像資料が表示さ
れてWEB資料として登録された時点でそのURLアド
レスを通知されるので、そのURLアドレスで再生指示
することによりWEB資料を再生表示させることができ
る。なお、ステップS65、S66においてURL通知
コマンドを端末200に送信する代わりに、そのWEB
資料をURLアドレスに基づいて自動的に再生表示する
ようにしてもよい。
Therefore, when a conference participant reproduces the minutes after the conference has ended, the URL address is notified when the video material is displayed during the conference and registered as the WEB material. The WEB material can be reproduced and displayed by instructing reproduction by the address. Note that instead of transmitting the URL notification command to the terminal 200 in steps S65 and S66, the WEB
The material may be automatically reproduced and displayed based on the URL address.

【0053】ここで、サーバ装置100の画面合成定義
データベース116は、各端末200に配信する合成映
像の画面合成レイアウトを定義したXMLファイルを保
持し、このXMLファイルの画面合成レイアウトは、各
端末200毎に会議中や会議開始前などの任意の時に選
択することができる。そして、映像合成手段106はそ
の定義ファイルに従い、各端末200毎に設定されたレ
イアウトで会議参加者の映像を合成する。
Here, the screen compositing definition database 116 of the server device 100 holds an XML file that defines the screen compositing layout of the composite video distributed to each terminal 200, and the screen compositing layout of this XML file is the terminal 200. It can be selected at any time, such as during the meeting or before the start of the meeting. Then, the image synthesizing unit 106 synthesizes the images of the conference participants in the layout set for each terminal 200 according to the definition file.

【0054】図23を参照してレイアウト処理を説明す
る。まず、端末200は「会議開始」ボタンが操作され
ると会議開始コマンドをサーバ装置100に送信する。
サーバ装置100では、通信制御手段101が端末20
0からコマンド(会議開始コマンド)を受信すると、サ
ーバ制御手段104に対してコマンド解析を指示し(ス
テップS91)、サーバ制御手段104が受信コマンド
を会議開始コマンドと解析すると合成用画像の受信指示
を通信制御手段101に発行する(ステップS92)。
The layout process will be described with reference to FIG. First, when the “start conference” button is operated, the terminal 200 transmits a conference start command to the server device 100.
In the server device 100, the communication control unit 101 has the terminal 20.
When a command (conference start command) is received from 0, the server control unit 104 is instructed to analyze the command (step S91). It is issued to the communication control means 101 (step S92).

【0055】そして、通信制御手段101が合成用画像
の受信指示を受信すると映像合成レイアウトデータの読
み込みを映像合成手段106に指示し(ステップS9
3)、次いで映像合成手段106が各端末200毎の映
像合成レイアウトデータを読み込んでそのレイアウトで
合成用画像を合成し(ステップS94、S95)、次い
で通信制御手段101が合成画像を各端末200に送信
する(ステップS96)。
When the communication control means 101 receives the instruction to receive the image for synthesis, it instructs the image synthesis means 106 to read the image synthesis layout data (step S9).
3) Next, the video synthesizing means 106 reads the video synthesizing layout data for each terminal 200 and synthesizes the images for synthesizing with the layout (steps S94, S95), and then the communication control means 101 sends the synthesized image to each terminal 200. It is transmitted (step S96).

【0056】したがって、上記レイアウト方法によれ
ば、サーバ装置100の映像合成手段106が各端末2
00に配信する合成映像の画面合成レイアウトを定義し
たXMLファイルを保持し、このXMLファイルの画面
合成レイアウトが各端末200毎に選択することができ
るので、各端末200に表示される合成画像のレイアウ
トをダイナミックに変更することができ、ひいては各会
議参加者が所望のレイアウトで合成画像を見ることがで
きる。
Therefore, according to the layout method described above, the video synthesizing means 106 of the server apparatus 100 causes each terminal 2 to operate.
Since the XML file defining the screen synthesis layout of the synthesized video to be distributed to 00 is held and the screen synthesis layout of this XML file can be selected for each terminal 200, the layout of the synthesized image displayed on each terminal 200. Can be dynamically changed so that each conference participant can see the composite image in a desired layout.

【0057】なお、サーバ装置100が上記の画面合成
レイアウトのXMLファイルを保持する代わりに、各端
末200側(WWW制御手段207)が自己の合成映像
の画面合成レイアウトを定義したXMLファイルを保持
することにより、サーバ装置100は同じレイアウトの
合成映像を全ての端末200に配信し、各端末200側
でこの合成映像のレイアウトを自己のXMLファイルに
基づいて変更するようにしてもよい。
It should be noted that instead of the server device 100 holding the above-mentioned screen synthesis layout XML file, each terminal 200 side (WWW control means 207) holds an XML file defining the screen synthesis layout of its own composite video. By doing so, the server device 100 may deliver the composite video of the same layout to all the terminals 200, and each terminal 200 side may change the layout of the composite video based on its own XML file.

【0058】ここで、図1では、8台の端末200と1
台のサーバ装置100のみしか示されていないが、図2
4に示すようにN台の端末200の任意の8台とM台の
サーバ装置100の任意の1台を用いて1つの会議を開
催することができる。
Here, in FIG. 1, eight terminals 200 and 1 are connected.
Although only one server device 100 is shown in FIG.
As shown in FIG. 4, one conference can be held using any eight N terminals 200 and any one M server apparatus 100.

【0059】[0059]

【発明の効果】以上説明したように本発明によれば、各
会議端末に表示される合成画像のレイアウトをダイナミ
ックに変更することができ、ひいては各会議参加者が所
望のレイアウトで合成画像を見ることができる多地点会
議システムを提供することができる。
As described above, according to the present invention, the layout of the composite image displayed on each conference terminal can be dynamically changed, and each conference participant can view the composite image in the desired layout. It is possible to provide a multipoint conference system capable of performing the above.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る多地点会議システムの一実施形態
を示す構成図
FIG. 1 is a configuration diagram showing an embodiment of a multipoint conference system according to the present invention.

【図2】図1のシステムにおいてWEB資料をアクセス
する場合の手順を示す説明図
FIG. 2 is an explanatory diagram showing a procedure for accessing WEB materials in the system of FIG.

【図3】図1のサーバ装置を詳しく示すブロック図3 is a block diagram showing the server device of FIG. 1 in detail.

【図4】図1のクライアント端末を詳しく示すブロック
FIG. 4 is a block diagram showing the client terminal of FIG. 1 in detail.

【図5】図1の端末のメニュー画面を示す説明図5 is an explanatory diagram showing a menu screen of the terminal of FIG.

【図6】図1の端末の会議予約画面を示す説明図6 is an explanatory diagram showing a conference reservation screen of the terminal of FIG.

【図7】図1の端末の会議画面を示す説明図7 is an explanatory diagram showing a conference screen of the terminal of FIG.

【図8】図7の会議映像表示エリアを詳しく示す説明図FIG. 8 is an explanatory diagram showing in detail the conference video display area of FIG.

【図9】図1の端末の会議画面(映像資料表示)を示す
説明図
FIG. 9 is an explanatory diagram showing a conference screen (video material display) of the terminal of FIG.

【図10】図1の端末の会議画面(WEB表示)を示す
説明図
FIG. 10 is an explanatory diagram showing a conference screen (WEB display) of the terminal of FIG.

【図11】図1の端末の映像資料登録画面(プレビュー
中)を示す説明図
11 is an explanatory diagram showing a video material registration screen (during preview) of the terminal of FIG.

【図12】図1の端末のWEB資料登録画面を示す説明
FIG. 12 is an explanatory diagram showing a WEB material registration screen of the terminal of FIG.

【図13】図1の端末の会議議事録閲覧画面(ダウンロ
ード)を示す説明図
FIG. 13 is an explanatory diagram showing a conference minutes browsing screen (download) of the terminal of FIG.

【図14】図1の端末の会議議事録閲覧画面を示す説明
FIG. 14 is an explanatory diagram showing a conference minutes browsing screen of the terminal of FIG. 1.

【図15】図1の端末の会議議事録閲覧画面(WEB表
示)を示す説明図
15 is an explanatory diagram showing a conference minutes browsing screen (WEB display) of the terminal of FIG.

【図16】図1のサーバ装置の議事録記録の処理を示す
フローチャート
16 is a flowchart showing a process of recording minutes of the server device of FIG.

【図17】図1のサーバ装置の映像資料登録の処理を示
すフローチャート
17 is a flowchart showing a process of registering video material in the server device of FIG.

【図18】図1のサーバ装置の映像資料再生の処理を示
すフローチャート
FIG. 18 is a flowchart showing a process of reproducing video material by the server device of FIG.

【図19】図1のサーバ装置のWEB資料登録の処理を
示すフローチャート
19 is a flowchart showing a process of WEB material registration of the server device of FIG.

【図20】図1のサーバ装置のWEB資料イベント記録
の処理を示すフローチャート
20 is a flowchart showing a process of recording a WEB material event in the server device of FIG.

【図21】図1のサーバ装置のWEB資料イベント通知
の処理を示すフローチャート
FIG. 21 is a flowchart showing the processing of the WEB material event notification of the server device of FIG.

【図22】図1のサーバ装置の議事録再生の処理を示す
フローチャート
FIG. 22 is a flowchart showing a process of playing the minutes of the server device of FIG.

【図23】図1のサーバ装置の合成処理を示すフローチ
ャート
FIG. 23 is a flowchart showing a composition process of the server device of FIG.

【図24】図1の多地点会議システムの応用例を示す構
成図
24 is a configuration diagram showing an application example of the multipoint conference system in FIG.

【符号の説明】[Explanation of symbols]

100 サーバ装置(多地点会議サーバ装置)(会議サ
ーバ装置) 112 WEB資料データベース 114 映像資料データベース 120 ハードディスク(HD) 200 クライアント端末(多地点会議クライアント端
末)(会議端末又は単に端末) 300 LAN/WAN 400 WWWサーバ
100 server device (multipoint conference server device) (conference server device) 112 WEB material database 114 video material database 120 hard disk (HD) 200 client terminal (multipoint conference client terminal) (conference terminal or simply terminal) 300 LAN / WAN 400 WWW server

フロントページの続き (72)発明者 蓬田 康雄 神奈川県横浜市港北区綱島東四丁目3番1 号 松下通信工業株式会社内 Fターム(参考) 5C064 AA02 AB03 AB04 AC04 AC14 AC22 AD08 5K015 AA10 AB01 AF05 JA03 5K024 AA52 BB04 BB07 CC10 CC14 DD01 DD04 FF04 GG01 5K030 GA18 HB01 HB02 LD08 5K101 KK07 LL02 MM06 MM07 NN06 NN07 NN18 TT02 UU19 Continued front page    (72) Inventor Yasuo Homoda             3-1, Tsunashima-Higashi 4-chome, Kohoku-ku, Yokohama-shi, Kanagawa             Matsushita Communication Industry Co., Ltd. F-term (reference) 5C064 AA02 AB03 AB04 AC04 AC14                       AC22 AD08                 5K015 AA10 AB01 AF05 JA03                 5K024 AA52 BB04 BB07 CC10 CC14                       DD01 DD04 FF04 GG01                 5K030 GA18 HB01 HB02 LD08                 5K101 KK07 LL02 MM06 MM07 NN06                       NN07 NN18 TT02 UU19

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 複数の会議端末と会議サーバ装置とがネ
ットワークを介して接続され、前記会議サーバ装置が前
記複数の会議端末から受信した映像及び音声を合成して
前記複数の会議端末に配信する多地点会議システムであ
って、 前記会議サーバ装置は、前記複数の会議端末の各々毎に
合成映像のレイアウト情報を記憶し、前記レイアウト情
報に基づいて会議端末毎にレイアウトの合成映像を生成
して前記複数の会議端末の各々に配信するように構成し
た多地点会議システム。
1. A plurality of conference terminals and a conference server device are connected via a network, and the conference server device synthesizes video and audio received from the plurality of conference terminals and delivers them to the plurality of conference terminals. A multipoint conference system, wherein the conference server device stores layout information of a composite video for each of the plurality of conference terminals, and generates a composite video of a layout for each conference terminal based on the layout information. A multipoint conference system configured to deliver to each of the plurality of conference terminals.
【請求項2】 前記複数の会議端末の各々から前記会議
サーバ装置に対して前記合成映像のレイアウト情報の変
更要求を送出し、前記会議サーバ装置が前記変更要求に
基づいて前記複数の会議端末の各々毎に定義された合成
映像のレイアウト情報を変更する請求項1に記載の多地
点会議システム。
2. A request for changing the layout information of the composite video is sent from each of the plurality of conference terminals to the conference server apparatus, and the conference server apparatus operates based on the change request. The multipoint conference system according to claim 1, wherein the layout information of the composite video defined for each is changed.
【請求項3】 複数の会議端末と会議サーバ装置がネッ
トワークを介して接続され、前記会議サーバ装置が前記
複数の会議端末から受信した会議参加者の映像及び音声
を合成して前記複数の会議端末に配信する多地点会議シ
ステムであって、 前記会議サーバ装置は、前記複数の会議端末に対して同
じレイアウトの合成映像を生成して配信し、 前記複数の会議端末は、各々毎に定義可能な合成映像の
レイアウト情報を記憶し、前記レイアウト情報に基づい
て前記会議サーバ装置から配信された合成映像のレイア
ウトを変更するように構成した多地点会議システム。
3. A plurality of conference terminals and a conference server device are connected via a network, and the conference server device synthesizes the video and audio of the conference participants received from the plurality of conference terminals to synthesize the plurality of conference terminals. Is a multipoint conference system, wherein the conference server device generates and distributes a composite video of the same layout to the plurality of conference terminals, and the plurality of conference terminals can be defined for each. A multipoint conference system configured to store layout information of a composite video and change the layout of the composite video distributed from the conference server device based on the layout information.
JP2001327253A 2001-10-25 2001-10-25 Multi-spot conference system Withdrawn JP2003134487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001327253A JP2003134487A (en) 2001-10-25 2001-10-25 Multi-spot conference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001327253A JP2003134487A (en) 2001-10-25 2001-10-25 Multi-spot conference system

Publications (1)

Publication Number Publication Date
JP2003134487A true JP2003134487A (en) 2003-05-09

Family

ID=19143509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001327253A Withdrawn JP2003134487A (en) 2001-10-25 2001-10-25 Multi-spot conference system

Country Status (1)

Country Link
JP (1) JP2003134487A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352933A (en) * 2004-06-14 2005-12-22 Fuji Xerox Co Ltd Display arrangement, system, and display method
US7558221B2 (en) 2004-02-13 2009-07-07 Seiko Epson Corporation Method and system for recording videoconference data
JP2010219887A (en) * 2009-03-17 2010-09-30 Hitachi Ltd Conference system, management server, relay server, client terminal, and conference method
US7884843B2 (en) * 2004-01-20 2011-02-08 Polycom, Inc. Method and apparatus for mixing compressed video
US8179421B2 (en) 2006-11-21 2012-05-15 Kabushiki Kaisha Toshiba Image synthesizing device and method and computer readable medium
JP2012182524A (en) * 2011-02-28 2012-09-20 Ricoh Co Ltd Communication apparatus
JP2015053613A (en) * 2013-09-06 2015-03-19 株式会社リコー Video distribution device and video distribution system
US9055193B2 (en) 2012-02-29 2015-06-09 Brother Kogyo Kabushiki Kaisha System and method of a remote conference
US9960925B2 (en) 2013-03-29 2018-05-01 Brother Kogyo Kabushiki Kaisha Server apparatus program, server apparatus, and communication apparatus program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7884843B2 (en) * 2004-01-20 2011-02-08 Polycom, Inc. Method and apparatus for mixing compressed video
US7558221B2 (en) 2004-02-13 2009-07-07 Seiko Epson Corporation Method and system for recording videoconference data
JP2005352933A (en) * 2004-06-14 2005-12-22 Fuji Xerox Co Ltd Display arrangement, system, and display method
US8179421B2 (en) 2006-11-21 2012-05-15 Kabushiki Kaisha Toshiba Image synthesizing device and method and computer readable medium
JP2010219887A (en) * 2009-03-17 2010-09-30 Hitachi Ltd Conference system, management server, relay server, client terminal, and conference method
JP2012182524A (en) * 2011-02-28 2012-09-20 Ricoh Co Ltd Communication apparatus
US9055193B2 (en) 2012-02-29 2015-06-09 Brother Kogyo Kabushiki Kaisha System and method of a remote conference
US9960925B2 (en) 2013-03-29 2018-05-01 Brother Kogyo Kabushiki Kaisha Server apparatus program, server apparatus, and communication apparatus program
JP2015053613A (en) * 2013-09-06 2015-03-19 株式会社リコー Video distribution device and video distribution system

Similar Documents

Publication Publication Date Title
US8510441B2 (en) Transmission apparatus, transmission method, content delivery system, content delivery method, and program
US7349944B2 (en) System and method for record and playback of collaborative communications session
JP4551668B2 (en) Minute file generation method, minutes file management method, conference server, and network conference system
US20090070840A1 (en) Terminal-Cooperated System, Terminal, Server and Method for Uninterrupted Reception of Contents
EP1274245A2 (en) Content distribution system and distribution method
US20020046241A1 (en) Recording and reproducing system, server apparatus, recording and reproducing method, terminal apparatus, operating method, and program storage medium
US20070192370A1 (en) Multimedia content production method for portable device
JP2003087727A (en) Network information processing system and information processing method
EP1139663A2 (en) Communication method, communication service apparatus, communication terminal device and communication system
JP2002034014A (en) Image information forming apparatus, video communication terminal, image distribution server and image information service system
JP2002262251A (en) Conference server device and multi-point conference system
JP2003108423A (en) Information processing system, client device forming the system, information providing server, and method for exclusive control of information providing server
JP2003134487A (en) Multi-spot conference system
JP2004015750A (en) Live distribution server and live distribution method
JP2007089025A (en) Information processing apparatus for viewing content during speech, information processing method and program therefor
JP2002247538A (en) Conference server device and multipoint conference system
JP2003271498A (en) Scattered-sites conference system
US20230199138A1 (en) Information processing device, information processing program, and recording medium
JP2003324704A (en) Lecture system
JP4244545B2 (en) Information creation method, information creation apparatus, and network information processing system
JP3760564B2 (en) Video conference system
JP2003140904A (en) Lecture system
JP2003333567A (en) Lecture system
JP2003141265A (en) Lecture system
JP2004304651A (en) Information processing apparatus, portable information terminal, information processing method, program, and recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050104