JP2004023706A - Multi-point conference system - Google Patents

Multi-point conference system Download PDF

Info

Publication number
JP2004023706A
JP2004023706A JP2002179693A JP2002179693A JP2004023706A JP 2004023706 A JP2004023706 A JP 2004023706A JP 2002179693 A JP2002179693 A JP 2002179693A JP 2002179693 A JP2002179693 A JP 2002179693A JP 2004023706 A JP2004023706 A JP 2004023706A
Authority
JP
Japan
Prior art keywords
conference
video
server device
web material
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002179693A
Other languages
Japanese (ja)
Inventor
Koichi Fujita
藤田 孝一
Tomohisa Suyama
陶山 智久
Yasuo Yomogida
蓬田 康雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002179693A priority Critical patent/JP2004023706A/en
Publication of JP2004023706A publication Critical patent/JP2004023706A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To superimpose images or the like on video images of conference attendances' faces and video image references without limitation of characters to be compounded. <P>SOLUTION: In a terminal 200, a WWW control means 207 converts the characters and the images to be compounded specified by an operation input means 204 into bitmap (BMP) image data, which is output to an image CODEC control means 209. The image CODEC control means converts the BMP image data into data corresponding to one slice of MPEG-1 data, and sends the converted data to a server device 100. The server device replaces the data with a 4th slice image of the terminal and compound the data with 1st to 3rd slice images. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、遠隔地の多地点間で会議を行うために映像、音声などを伝送する多地点会議システムに関し、特に会議参加者の顔の映像や映像資料に名前などの文字や画像を合成する機能に関する。
【0002】
【従来の技術】
この種の従来例として、TV会議システムなどでは、全ての会議参加者の顔を合成して表示する場合、画面上に表示されている他の会議参加者が分からないケースがあるので、文字発生器が発生する文字により名前、所属名などを作成して顔などの映像の下にスーパーインポーズなどで合成する。また、PC(パーソナルコンピュータ)上のTV会議アプリケーションでは、映像に合成しないでウィンドウのタイトルバーに参加者名などを表示するものも知られている。
【0003】
【発明が解決しようとする課題】
しかしながら、上記の前者の場合には、文字発生器が発生する文字しか使用することができないので、表示できる文字の種類が少なく、また、合成する際の設定を合成機器側で登録する必要が有り、さらに、合成する文字を毎回変更する場合に柔軟性に欠けるという問題点がある。
また、後者の場合には、PC上には多種多様なフォントデータが記憶されているのが通常であるので文字の制限はほとんどないが、文字以外の画像などを合成することができないという問題点がある。
【0004】
本発明は上記従来例の問題点に鑑み、会議参加者の顔の映像や映像資料に合成する文字の制限を受けることなくかつ画像なども合成することができる多地点会議システムを提供することを目的とする。
【0005】
【課題を解決するための手段】
本発明は上記目的を達成するために、複数の会議端末と会議サーバ装置がネットワークを介して接続され、前記会議サーバ装置が前記複数の会議端末から受信した会議参加者の映像及び音声を合成して前記複数の会議端末に配信する多地点会議システムであって、
前記会議参加者の映像に合成する文字データを画像データに変換する手段と、
前記画像データを前記会議参加者の映像に合成する手段とを、
有する構成とした。
【0006】
上記構成により、多種多様なフォントデータを画像データに変換して合成することができるので、会議参加者の顔の映像に合成する文字の制限を受けることなくかつ画像なども合成することができる。
【0007】
本発明はまた、複数の会議端末と会議サーバ装置がネットワークを介して接続され、前記会議サーバ装置が前記複数の会議端末から受信した会議参加者の映像及び音声を合成して前記複数の会議端末に配信する多地点会議システムであって、
前記会議端末が自己の会議参加者の映像に合成する文字データをビットマップイメージデータに変換し、このビットマップイメージデータをMPEG1のスライスデータに変換してこのスライスデータを前記サーバ装置に送信し、
前記サーバ装置が前記スライスデータを前記会議参加者の映像のMPEG1のスライスデータに合成して前記複数の会議端末に配信するように構成した。
上記構成により、多種多様なフォントデータをMPEG1のスライスデータに変換して合成することができるので、会議参加者の顔の映像に合成する文字の制限を受けることなくかつ画像なども合成することができる。
【0008】
本発明はまた、複数の会議端末と会議サーバ装置がネットワークを介して接続され、前記会議サーバ装置が前記複数の会議端末から受信した会議参加者の映像及び音声を合成して前記複数の会議端末に配信する多地点会議システムであって、
前記会議端末が自己の会議参加者の映像に合成する文字データをビットマップイメージデータに変換し、このビットマップイメージデータをMPEG1のスライスデータに変換してこのスライスデータを前記会議参加者の映像のMPEG1のスライスデータに合成して前記サーバ装置に送信し、
前記サーバ装置が前記会議端末から送信された合成映像を前記複数の会議端末に配信するように構成した。
上記構成により、多種多様なフォントデータをMPEG1のスライスデータに変換して合成することができるので、会議参加者の顔の映像に合成する文字の制限を受けることなくかつ画像なども合成することができる。
【0009】
本発明はまた、映像資料に合成する文字データを画像データに変換し、前記画像データを前記映像資料に合成するように構成した。
上記構成により、映像資料に合成する文字の制限を受けることなくかつ画像なども合成することができる。
【0010】
本発明はまた、ネットワーク上のWWWサーバに登録されているWEB資料であって前記会議端末が他の会議参加者に見せたいWEB資料のURLアドレスを前記会議サーバ装置に通知し、前記会議サーバ装置が前記通知されたURLアドレスを他の会議端末に通知し、前記他の会議端末が前記通知されたURLアドレスに基づいて前記WWWサーバ上のWEB資料をアクセスして表示した場合に、前記会議端末の会議参加者の映像に対してその会議参加者が前記WEB資料を見せたことを示す画像を合成するように構成した。
上記構成により、どの会議参加者がWEB資料を見せたかを、会議参加者の顔の映像に合成する文字の制限を受けることなくかつ画像でも合成して表示することができる。
【0011】
本発明はまた、前記会議サーバ装置がネットワーク上のWWWサーバに登録されているWEB資料のURLアドレスをWEB資料データベースに登録し、前記WEB資料データベースに登録されているURLアドレスであって前記会議端末が他の会議参加者に見せたいWEB資料のURLアドレスを前記会議サーバ装置に通知し、前記会議サーバ装置が前記通知されたURLアドレスを他の会議端末に通知し、前記他の会議端末が前記通知されたURLアドレスに基づいて前記WWWサーバ上のWEB資料をアクセスして表示した場合に、前記会議端末の会議参加者の映像に対してその会議参加者が前記WEB資料を見せたことを示す画像を合成するように構成した。
上記構成により、どの会議参加者がWEB資料を見せたかを、会議参加者の顔の映像に合成する文字の制限を受けることなくかつ画像でも合成して表示することができる。
【0012】
本発明はまた、前記会議サーバ装置がさらに、自己のWEB資料及びそのURLアドレスが登録されたWEB資料データベースと、前記会議端末から前記自己のWEB資料を他の会議参加者に見せたい要求があった場合にそのURLアドレスを他の会議端末に通知する手段とを有し、前記他の会議端末が前記通知されたURLアドレスに基づいて前記WEB資料データベース上のWEB資料をアクセスして表示した場合に、前記会議端末の会議参加者の映像に対してその会議参加者が前記WEB資料を見せたことを示す画像を合成するように構成した。
上記構成により、どの会議参加者がWEB資料を見せたかを、会議参加者の顔の映像に合成する文字の制限を受けることなくかつ画像でも合成して表示することができる。
【0013】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。図1は本発明に係る多地点会議システムの一実施形態を示す構成図である。
【0014】
図1に示すシステムでは、一例として多地点会議サーバ装置(単に会議サーバ装置又はサーバ装置ともいう)100に対して最大8台の多地点会議クライアント端末(以下単に「端末」ともいう)200がLAN/WAN300を介して接続される。サーバ装置100には大容量記憶装置としてハードディスク(HD)120が設けられている。また、LAN/WAN300は、世界中のWWWサーバ400に接続可能であり、さらに、会議サーバ装置100も同様にWWWサーバである。
【0015】
図2は図1に示すシステムにおいて、端末200がWWWサーバ400上(さらには会議サーバ装置100上)のWEB資料にアクセスする動作を示し、端末200はブラウザを有する。そして、会議サーバ装置100はWWWサーバ400上のWEB資料名とURLアドレスを対応して登録するためのWEB資料データベースを有する。このWEB資料データベースにはさらに、自己のWEB資料が登録される。WEB資料はテキストファイルや、JPEG、GIF、BMPなどの画像を含むファイルである。
【0016】
図2における手順(1)はWWWサーバ400上のWEB資料を「見る」手順を示し、手順(2)は「見せる」手順を示す。
(1)見る側の端末200aのクライアントがWWWサーバ400上のWEB資料名を選択して「見る」ボタンを操作して端末200aが会議サーバ装置100に対してWEB資料名を送ると、会議サーバ装置100はこれに応答してそのURLアドレスを送る。これにより、端末200aはWWWサーバ400上のWEB資料にアクセスすることができる。
【0017】
(2)見せる側の端末200aのクライアントがWWWサーバ400上のWEB資料のURLアドレスを選択して他の見せられる側の端末200bのクライアントに「見せたい」ボタンを操作し、端末200aが会議サーバ装置100に対してそのURLアドレスを送ると、会議サーバ装置100は見せられる側の端末200bに対してそのURLアドレスを送る。これにより、見せられる側の端末200bがWWWサーバ400上のWEB資料にアクセスすることができるので、端末200aのクライアントが他の端末200bのクライアントに、見せたいWEB資料を見せることができる。
このようにWWWサーバ400上のWEB資料を見ている間(アクセス中)は、会議サーバ装置100の負担はない。
【0018】
図3を参照してサーバ装置100について詳しく説明する。このサーバ装置100はソフトウエア及びハードウエアにより構成される通信制御手段101、ユーザ認証手段102、予約管理手段103、サーバ制御手段104、文字合成手段105、映像合成手段106、音声フォーマット変換手段107、音声合成手段108、WWWサーバ手段111、蓄積手段113、及び負荷監視制御手段115と、HD120上に構成されるユーザ管理データベース109、予約管理データベース110、WEB資料データベース112、映像データベース114及び画面合成定義データベース116を有する。
【0019】
通信制御手段101はクライアント端末200から受信するデータ/制御コマンド1として、映像音声データ、ユーザ認証データ、予約登録情報、端末情報、映像資料データ、WEB資料データ、URLデータ、拡大映像要求コマンド及びその他制御用データなどを受け取り、クライアント端末200に対して送信するデータ/制御コマンド2として、映像音声データ、HTMLデータ、会議情報データ、ユーザ認証結果通知及びその他制御用データなどを送る。
【0020】
通信制御手段101とユーザ認証手段102の間ではユーザ認証データ及びユーザ認証結果通知3がやり取りされ、通信制御手段101と予約管理手段103との間では予約情報データ4がやり取りされる。通信制御手段101とサーバ制御手段104との間では制御用データ5がやり取りされ、通信制御手段101から文字合成手段105には文字情報データ6が送られる。通信制御手段101と映像合成手段106との間では映像データ及び合成映像データ7がやり取りされ、文字合成手段105から映像合成手段106には文字映像データ10が送られる。通信制御手段101から音声フォーマット変換手段107にはGSM音声データ8が送られ、音声合成手段108から通信制御手段101には合成GSM音声データ9が送られる。音声フォーマット変換手段107と音声合成手段108との間ではPCM合成音声データ及びGSM合成音声データ11がやり取りされる。
【0021】
ユーザ認証手段102とユーザ管理データベース109との間ではユーザ認証データ12がやり取りされ、予約管理手段103と予約管理データベース110との間では予約情報データ13がやり取りされる。サーバ制御手段104とWWWサーバ手段111との間ではHTTPリクエストデータ及びHTTPレスポンスデータ14がやり取りされ、サーバ制御手段104と音声合成手段108との間では音声合成制御データ15がやり取りされる。サーバ制御手段104から映像合成手段106に対しては映像合成制御データ16が送られる。サーバ制御手段104と蓄積手段113との間では蓄積制御データ及び読み出し制御データ17がやり取りされ、映像合成手段106と蓄積手段113との間では蓄積映像データ及び読み出し映像データ18がやり取りされる。音声合成手段108と蓄積手段113との間では蓄積音声データ及び読み出し音声データ19がやり取りされる。
【0022】
WWWサーバ手段111とWEB資料データベース112との間ではWEB資料及びWEB資料データベース20がやり取りされ、蓄積手段113と映像データベース114との間では映像・音声データ及び映像資料データ21がやり取りされる。また、蓄積手段113とWEB資料データベース112との間ではWEB資料及びWEB資料データベース20がやり取りされる。映像合成手段106と画面合成定義データベース116との間では画面合成定義データ24がやり取りされる。負荷監視制御手段115はLAN/WAN300との間で負荷監視用パケットデータ及び負荷監視用応答パケットデータ22をやり取りして、レート制御指示データ23を通信制御手段101に送る。
【0023】
サーバ装置100の基本機能を説明する。
・プロキシ機能:WWWサーバ機能。LAN/WAN300からの要求が多地点会議のHTTP要求か通常のインターネットアクセス要求かを判断し、後者の場合にはインターネット用プロキシへ配信する。
・ユーザ認証機能:あらかじめ登録されているユーザか否かを判断する。
・映像合成・配信機能:各端末200からの映像を指定されたレイアウトで1枚に合成して全端末200に配信する。
・音声合成・配信機能:各端末200からの音声を指定された組み合わせでミキシングして全端末200に配信する。
・文字合成機能:各端末200からの映像の下部にスライスデータを合成して1枚のフレームに合成する。
【0024】
・記録機能:各端末200からの映像・音声をHD120に記録する。
・記録再生機能:HD120に記録された映像・音声データを再生して各端末200に配信する。ダウンロードであれば、MPEG1形式に変換してダウンロードする。
・レート制御機能:端末200が接続されているネットワーク帯域幅を調査し、帯域幅に応じた映像ビットレート、音声符号化方式を採用する。
【0025】
次に詳細な機能を説明する。
<会議予約>
・会議登録:開催する会議を予約登録する機能。予約時に登録する内容は、日時/開催会議名/コメント/参加ユーザ認証設定。
・会議削除:既に予約登録した会議予約内容を削除する機能。
・会議登録内容一覧表示:既に登録した会議内容を日付指定された日の内容一覧表として表示する機能。
・会議参加認証:ユーザが会議に参加する際に、その会議に登録されているか否かを判断し、登録されていない場合には会議参加を拒否する機能。
【0026】
<WEB資料>
・WEB資料登録:WEB資料として使用するURLアドレスに関連付けた名前を「WEB資料名」として登録する機能。
・WEB資料削除:既に登録したWEB資料名を削除する機能。
・WEB資料一覧表示:サーバ装置100に登録されているWEB資料名の一覧を表示する機能。
・WEB資料表示:登録されたWEB資料名を選択してWEB資料名に関連付けられたURLアドレスのWEBページ情報を表示する機能。会議中であれば映像表示エリアを縮小して表示する。
・WEB資料反映:現在表示しているWEB資料の内容を他の会議参加者に反映する機能。
【0027】
<映像資料>
・映像資料登録:DV(デジタルビデオの略:以下同じ)カメラに記録した映像をMPEG1に変換してサーバ装置100上に登録する。
・映像資料削除:既に登録された映像資料を削除する。
・映像資料プレビュー(再生/一時停止/早送り/巻き戻し):既に登録した映像資料を再生、再生一時停止、早送り、巻き戻す機能。
・映像資料一覧表示:既に登録された映像資料の一覧を表示する機能。
・映像資料見る(再生/一時停止/早送り/巻き戻し):登録された映像資料を会議中に合成して配信することで一人で参照する機能。
・映像資料見せる:登録された映像資料を会議中に合成して全員に配信する機能。
【0028】
<議事録>
・議事録録画:現在会議中の映像・音声、映像資料、WEB資料をサーバ装置100上に記録する機能。
・議事録ダウンロード:サーバ装置100上に登録された議事録をHTML形式で、端末200の記録媒体上にダウンロードする機能。
・議事録閲覧:サーバ装置100上に登録された議事録をレート制御を受けながら配信する機能。
・議事録一覧表示/削除:サーバ装置100上に登録された議事録を一覧表示し、また、削除する機能。
・議事録再生(WEB資料再生):ダウンロードした議事録をWEBブラウザで参照する機能。
【0029】
<表示>
・会議参加者名表示:映像表示領域の一部に参加者名を合成する機能。
・会議情報表示:現在開催中の会議情報(会議名/開催日時/主催者名/参加者名)を表示する機能。
・映像拡大/縮小
【0030】
次に図4を参照して端末200について詳しく説明する。この端末200は音声入出力手段201、映像入力手段202、WWW表示手段203、操作入力手段204、音声フォーマット変換手段205、映像フォーマット変換手段206、WWW制御手段207、音声コーデック制御手段208、映像コーデック制御手段209、端末制御手段210、蓄積手段211、記録媒体212及び通信制御手段213を有し、通信制御手段213はLAN/WAN300(図1、図3参照)に接続される。
【0031】
音声入出力手段201から音声フォーマット変換手段205にはPCM音声入力信号31が送られ、音声コーデック制御手段208から音声入出力手段201には音声出力信号32が送られる。映像入力手段202から映像フォーマット変換手段206にはDV映像信号33が送られる。WWW制御手段207からWWW表示手段203にはHTMLファイル制御情報34が送られ、WWW表示手段203からWWW制御手段207にはCGIフォーム情報35aが送られる。操作入力手段204からWWW表示手段203には操作イベントデータ35bが送られる。
【0032】
音声フォーマット変換手段205から音声コーデック制御手段208にはPCMダウンサンプリング音声データ36が送られ、映像フォーマット変換手段206から映像コーデック制御手段209にはDV映像データ37が送られる。映像コーデック制御手段209からWWW制御手段207にはMPEG1映像データ38が送られる。WWW制御手段207から端末制御手段210には制御用データ39が送られ、端末制御手段210と蓄積手段211との間では制御用データ40がやり取りされる。蓄積手段211と記録媒体212との間では映像・音声データ、映像資料及びWEB資料用データ(HTML)41がやり取りされる。
【0033】
音声コーデック制御手段208から通信制御手段213にはGSM音声データ42が送られ、通信制御手段213から音声コーデック制御手段208にはGSM音声データ43が送られる。映像コーデック制御手段209から通信制御手段213にはMPEG1映像データ44が送られ、通信制御手段213から映像コーデック制御手段209にはMPEG1映像データ45が送られる。端末制御手段210と通信制御手段213との間では制御用データ46がやり取りされる。
【0034】
次に端末200の主な機能について説明する。
・音声データ配信:DVカメラ/マイク入力から音声を取り込み、音声データをサーバ装置に配信する機能。(DVカメラ/マイク入力からの音声入力PCMデータをダウンサンプリング後にGSMに変換し、GSMのフレーム単位でパケット化してHTTPプロトコルで配信する。)
・音声再生:
・映像データ配信:DVカメラ/USBカメラから映像を取り込み、映像データをサーバ装置に配信する機能。(DVカメラ/USBカメラからDV形式の映像データをMPEG1に変換し、MPEG1のフレーム単位でパケット化してHTTPプロトコルで配信する。)
【0035】
次に図5〜図15を参照して端末200の表示画面を説明する。
<メニュー画面>
メニュー画面には図5に示すように、「会議予約画面表示ボタン」、「映像資料登録画面表示ボタン」、「WEB資料登録画面表示ボタン」、「会議議事録の閲覧ダウンロード画面表示ボタン」、「現在開催中の会議に参加するボタン」、「現在開催中の会議情報の表示エリア」、「現在会議が開催されているか否かの状況を表示するエリア」、「現在開催中の会議情報の要求ボタン」、「本日開催開始予定の会議情報を表示するエリア」などが表示される。
<予約画面>
図5に示すメニュー画面上の「会議予約画面表示ボタン」が操作されると、図6に示すような会議予約画面が表示され、この会議予約画面から会議を予約することができる。
【0036】
<会議画面>
図5に示すメニュー画面上の現在開催中の会議に参加するための「会議開始ボタン」が操作されると、図7に示すような会議画面が表示される。この会議画面には「議事録会議情報表示エリア」、「映像資料表示エリア」、選択した映像資料を「見る」ボタン及び「見せる」ボタン、「登録WEB資料一覧表示エリア」、選択したWEB資料を「見る」ボタン、「議事録録画開始/停止ボタン」、メニュー画面に戻るための「メニューへ」ボタン、「会議映像表示エリア」が設けられている。「会議映像表示エリア」は図8に詳しく示すように、下側の略半分は4×2=8個のウィンドウに分割され、各分割ウィンドウには8名の会議参加者のそれぞれの映像が表示される。また、上側の略半分は2×1=2個のウィンドウに分割され、その右側ウィンドウには自分が見たい、又は他の参加者に見せられた映像資料が表示され、左側ウィンドウにはその映像資料の拡大映像が表示される。
【0037】
<会議画面(映像資料表示)>
図7に示す会議画面上の、選択した映像資料を「見る」ボタン及び「見せる」ボタンが操作されると、図9に示すような映像資料表示の会議画面が表示される。この会議画面には、「会議映像表示エリア」に映像資料が表示され、また、図7に示す会議画面の表示の他に更に、「映像資料再生/一時停止/停止/スライダー/映像資料終了」の各ボタンが表示される。
<会議画面(WEB表示)>
図7に示す会議画面上の、選択したWEB資料を「見る」ボタンが操作されると、図10に示すようなWEB表示の会議画面が表示される。この会議画面には、図7に示す会議画面の表示の他に更に、「WEBページ表示エリア」、縮小された「会議映像表示エリア」、「URL入力欄」、「WEBページ操作ボタン」、表示中のWEBページを他の端末に「見せる」ボタン、「WEB資料表示を終了する」ボタンが表示される。
【0038】
<映像資料登録画面(プレビュー中)>
プレビュー中の映像資料登録画面には図11に示すように、サーバ100上に登録された映像資料一覧、自端末上の映像資料一覧、外部記録機器内の映像資料一覧、選択した映像資料の移動先/削除ボタン、「メニューへ」ボタン、映像資料再生表示エリア、スライダーバー、映像資料再生/一時停止/停止ボタン、映像資料名入力欄などが表示される。
【0039】
<WEB資料登録画面>
WEB資料登録画面には図12に示すように、登録するWEB資料名入力欄、入力したWEB資料名登録ボタン、既に登録されたWEB資料名表示一覧、WEB資料一覧からの表示/削除ボタン、「メニューへ」ボタン、URLアドレス入力欄、WEBページ表示エリア、WEB操作ボタンなどが表示される。
【0040】
<会議議事録閲覧画面(ダウンロード)>
ダウンロードを行うための会議議事録閲覧画面には図13に示すように、「メニューへ」ボタン、議事録一覧表示エリア、議事録一覧からのダウンロード/閲覧/削除ボタン、ダウンロード先指定エリアなどが表示される。
<会議議事録閲覧画面>
会議議事録閲覧画面には図14に示すように、議事録会議情報表示エリア、映像・WEB資料表示モード切換ボタン、スライダーバー、議事録再生/一時停止/停止ボタン、閲覧ダウンロード画面へ進むボタン、議事録映像表示エリアなどが表示される。
【0041】
<会議議事録閲覧画面(WEB表示)>
WEB表示の会議議事録閲覧画面には図15に示すように、図14に示す表示に加えて、URLアドレス入力欄、WEBページ表示エリア(議事録映像表示エリアに代わる)、縮小された議事録映像表示エリア、WEBページ操作ボタンなどが表示される。
【0042】
<議事録>
次に図16を参照してサーバ装置100の議事録記録の開始処理を説明する。まず、端末200は「議事録記録開始」ボタンが操作されると議事録記録開始コマンドをサーバ装置100に送信する。サーバ装置100では、通信制御手段101が端末200からコマンド(議事録記録開始コマンド)を受信すると、サーバ制御手段104に対してコマンド解析を指示し(ステップS1)、サーバ制御手段104が受信コマンドを議事録記録開始コマンドと解析すると議事録の記録指示を蓄積手段113に発行する(ステップS2)。そして、蓄積手段113が会議中の映像・音声を議事録としてHD120上の映像データベース114へ記録を開始する(ステップS3)。ここで、議事録として記録する映像・音声は、HD120の容量を節約するために、端末200から受信した全ての映像・音声ではなく、その内、端末200に配信した映像・音声のみである。
【0043】
<映像資料登録>
次に図17を参照してサーバ装置100の映像資料登録の処理を説明する。まず、端末200は「映像資料登録」ボタンが操作されると映像資料登録コマンドをサーバ装置100に送信する。サーバ装置100では、通信制御手段101が端末200からコマンド(映像資料登録コマンド)を受信すると、サーバ制御手段104に対してコマンド解析を指示し(ステップS21)、サーバ制御手段104が受信コマンドを映像資料登録コマンドと解析すると映像資料の書き込み指示を蓄積手段113に発行する(ステップS22)。そして、蓄積手段113が映像資料登録コマンドが指示する映像資料をHD120上の映像データベース114に記録し、また、その管理データをユーザ管理データベース109に記録する(ステップS23)。
【0044】
<映像資料再生>
次に図18を参照してサーバ装置100の映像資料再生の処理を説明する。まず、端末200は「見る」ボタンが操作されると映像資料再生コマンドをサーバ装置100に送信する。サーバ装置100では、通信制御手段101が端末200からコマンド(映像資料再生コマンド)を受信すると、サーバ制御手段104に対してコマンド解析を指示し(ステップS31)、サーバ制御手段104が受信コマンドを映像資料再生コマンドと解析するとアクセス権判断指示をサーバ制御手段104に発行し(ステップS32)、サーバ制御手段104がそのユーザのアクセス権を判断する(ステップS33)。
【0045】
そして、「アクセス権有り」の場合には、蓄積手段113が映像資料再生開始コマンドが指示する映像資料を、ユーザ管理データベース109を参照しながら映像データベース114から再生し(ステップS34→S35)、次いで再生した映像・音声をそれぞれ映像合成手段106と音声合成手段108により合成し(ステップS36)、次いでこれを通信制御手段101により端末200に配信する(ステップS37)。他方、「アクセス権無し」の場合には、サーバ制御手段104が「アクセス権無し」の送信コマンドを生成し(ステップS34→S38)、次いでこれを通信制御手段101により端末200に配信する(ステップS39)。
【0046】
<WEB資料登録>
次に図19を参照してサーバ装置100のWEB資料登録の処理を説明する。まず、端末200は「WEB資料登録」ボタンが操作されるとWEB資料登録コマンドをサーバ装置100に送信する。サーバ装置100では、通信制御手段101が端末200からコマンド(WEB資料登録コマンド)を受信すると、サーバ制御手段104に対してコマンド解析を指示し(ステップS71)、サーバ制御手段104が受信コマンドをWEB資料登録コマンドと解析するとWEB資料管理テーブルの書き込み指示を蓄積手段113に発行する(ステップS72)。そして、蓄積手段113がWEB資料管理テーブルを作成してHD120上のWEB資料データベース112に記録する(ステップS73)。
【0047】
<WEB資料イベント登録>
次に図20を参照してサーバ装置100のWEB資料イベントの記録処理を説明する。まず、端末200は「WEB資料記録」ボタンが操作されるとWEB資料記録制御コマンドをサーバ装置100に送信する。サーバ装置100では、通信制御手段101が端末200からコマンド(WEB資料記録制御コマンド)を受信すると、サーバ制御手段104に対してコマンド解析を指示し(ステップS41)、サーバ制御手段104が受信コマンドをWEB資料記録制御コマンドと解析すると、表示中の映像資料のURLの記録指示を蓄積手段113に発行する(ステップS42)。そして、蓄積手段113が映像資料のWEB資料イベントとして、会議情報(会議名/開催日時/主催者名/参加者名)と、表示中の映像資料のURLアドレスと、会議開始からの経過時間をHD120上のWEB資料データベース112に記録する(ステップS43)。
【0048】
<WEB資料見せる>
次に図21を参照してサーバ装置100のWEB資料イベントの通知処理を説明する。まず、端末200は「見せる」ボタンが操作されるとWEB資料URL通知用制御コマンドをサーバ装置100に送信する。サーバ装置100では、通信制御手段101が端末200からコマンド(WEB資料URL通知用制御コマンド)を受信すると、サーバ制御手段104に対してコマンド解析を指示し(ステップS51)、サーバ制御手段104が受信コマンドをWEB資料URL通知用制御コマンドと解析すると、URL通知コマンドの生成指示を発行する(ステップS52)。
【0049】
そして、サーバ制御手段104がURL通知コマンドを生成してその送信指示を通信制御手段101に発行し(ステップS53)、次いで通信制御手段101がこのURL通知コマンドを他の端末200に送信する(ステップS54)。これにより、「見せる」ボタンが操作された端末200で表示中のWEB資料のURLアドレスが他の端末200で表示されるので、他の端末200がこのURLアドレスでWWWサーバ400(さらにはサーバ装置100)のWEB資料にアクセスして表示することができる。
【0050】
<議事録再生>
次に図22を参照してサーバ装置100の議事録再生処理を説明する。まず、端末200は「議事録再生」ボタンが操作されると議事録再生コマンドをサーバ装置100に送信する。サーバ装置100では、通信制御手段101が端末200からコマンド(議事録再生コマンド)を受信すると、サーバ制御手段104に対してコマンド解析を指示し(ステップS61)、サーバ制御手段104が受信コマンドを議事録再生コマンドと解析すると、議事録とWEB資料イベントの読み出し指示を蓄積手段113に発行する(ステップS62)。
【0051】
次いで蓄積手段113が議事録とWEB資料イベントをHD120から読み出し(ステップS63)、次いでサーバ制御手段104がWEB資料イベントの経過時間(参照時間)か否かを判断する(ステップS64)。そして、経過時間(参照時間)の場合にはサーバ制御手段104がURL通知コマンドを生成してその配信指示を通信制御手段101に発行し (ステップS65)、次いで通信制御手段101がこのURL通知コマンドを端末200に送信し(ステップS66)、次いでステップS67に進む。ステップS64において経過時間(参照時間)でない場合には直接ステップS67に進む。ステップS67では議事録の映像と音声をそれぞれ映像合成手段106と音声合成手段107により合成してその配信指示を通信制御手段101に発行し、次いで通信制御手段101がレート制御を行いながら、この合成された映像と音声を端末200に送信する(ステップS68)。
【0052】
したがって、会議参加者が会議終了後などに議事録を再生する場合に、会議中に映像資料が表示されてWEB資料として登録された時点でそのURLアドレスを通知されるので、そのURLアドレスで再生指示することによりWEB資料を再生表示させることができる。なお、ステップS65、S66においてURL通知コマンドを端末200に送信する代わりに、そのWEB資料をURLアドレスに基づいて自動的に再生表示するようにしてもよい。
【0053】
次に図23を参照して図8に示した4×2=8個の各会議参加者映像ウィンドウに文字などを合成する処理について説明する。ここで、MPEG1の1フレーム分のデータは、図23(a)に示すように縦方向に4つのスライスに分割されて符号化されている。そこで、端末200では、WWW制御手段207が操作入力手段204により指示された、合成する文字や画像をビットマップ(BMP)イメージデータに変換し、このBMPイメージデータを映像コーデック制御手段209に出力する。そして、映像コーデック制御手段209はこのBMPイメージデータをMPEG1の1つのスライス分のデータに変換してこれをサーバ装置100に送信する。そして、サーバ装置100はこのデータをその端末の4番目のスライス映像に置換して1〜3番目のスライス映像と合成し、その合成画像を会議参加者映像ウィンドウとして全ての端末200に配信する。
【0054】
図24はサーバ装置100の処理を示している。まず、端末200は「画像合成」ボタンが操作されると画像合成コマンドと合成用画像(MPEG1スライスデータ)をサーバ装置100に送信する。サーバ装置100では、通信制御手段101が端末200からコマンド(画像合成コマンド)を受信すると、サーバ制御手段104に対してコマンド解析を指示し(ステップS81)、サーバ制御手段104が受信コマンドを画像合成コマンドと解析すると合成画像の受信指示を通信制御手段101に発行する(ステップS82)。そして、通信制御手段101が合成画像を受信すると画像合成を文字合成手段105に指示し(ステップS83)、次いで文字合成手段105が合成画像を処理し(ステップS84)、次いで映像合成手段106が合成画像を会議中の映像と合成し(ステップS85)、次いで通信制御手段101が合成画像を全端末200に送信する(ステップS86)。
【0055】
このような合成方法によれば、端末200には多種多様なフォントデータが記憶されているのが通常であるので文字の制限はほとんどなく、また、フォントデータを画像データ(MPEG1データ)に変換するので、文字以外の画像などもMPEGデータに変換することにより合成することができる。また、サーバ装置100は単に端末200から合成用画像を受け取って合成するのみであるので、文字や画像の変更なども柔軟に対応することができる。
【0056】
なお、上記の画像合成をサーバ装置100側で行う代わりに端末200側で行って合成画像をサーバ装置100側に送信し、サーバ装置100側では画像合成を行わずに配信のみを行うようにしてもよい。さらに、このシステムでは、会議参加者が他の会議参加者に映像資料を「見せる」ことができるが、誰が見せたか(名前)やコメントを図8に示す会議参加者映像ウィンドウや映像資料ウィンドウに合成することができる。
【0057】
ここで、図1では、8台の端末200と1台のサーバ装置100のみしか示されていないが、図25に示すようにN台の端末200の任意の8台とM台のサーバ装置100の任意の1台を用いて1つの会議を開催することができる。
【0058】
【発明の効果】
以上説明したように本発明によれば、多種多様なフォントデータを画像データに変換して合成することができるので、会議参加者の顔の映像に、合成する文字の制限を受けることなくかつ画像なども合成することができる、多地点会議システムを提供できるものである。
【図面の簡単な説明】
【図1】本発明に係る多地点会議システムの一実施形態を示す構成図
【図2】図1のシステムにおいてWEB資料をアクセスする場合の手順を示す説明図
【図3】図1のサーバ装置を詳しく示すブロック図
【図4】図1のクライアント端末を詳しく示すブロック図
【図5】図1の端末のメニュー画面を示す説明図
【図6】図1の端末の会議予約画面を示す説明図
【図7】図1の端末の会議画面を示す説明図
【図8】図7の会議映像表示エリアを詳しく示す説明図
【図9】図1の端末の会議画面(映像資料表示)を示す説明図
【図10】図1の端末の会議画面(WEB表示)を示す説明図
【図11】図1の端末の映像資料登録画面(プレビュー中)を示す説明図
【図12】図1の端末のWEB資料登録画面を示す説明図
【図13】図1の端末の会議議事録閲覧画面(ダウンロード)を示す説明図
【図14】図1の端末の会議議事録閲覧画面を示す説明図
【図15】図1の端末の会議議事録閲覧画面(WEB表示)を示す説明図
【図16】図1のサーバ装置の議事録記録の処理を示すフローチャート
【図17】図1のサーバ装置の映像資料登録の処理を示すフローチャート
【図18】図1のサーバ装置の映像資料再生の処理を示すフローチャート
【図19】図1のサーバ装置のWEB資料登録の処理を示すフローチャート
【図20】図1のサーバ装置のWEB資料イベント記録の処理を示すフローチャート
【図21】図1のサーバ装置のWEB資料イベント通知の処理を示すフローチャート
【図22】図1のサーバ装置の議事録再生の処理を示すフローチャート
【図23】文字合成処理を示す説明図
【図24】図1のサーバ装置の合成処理を示すフローチャート
【図25】図1の多地点会議システムの応用例を示す構成図
【符号の説明】
100 サーバ装置(多地点会議サーバ装置)(会議サーバ装置)
112 WEB資料データベース
114 映像資料データベース
120 ハードディスク(HD)
200 クライアント端末(多地点会議クライアント端末)(会議端末又は単に端末)
300 LAN/WAN
400 WWWサーバ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a multipoint conferencing system for transmitting video, audio, and the like for conducting a conference between remote multipoints, and in particular, synthesizes a character or image such as a name with a video or video material of a face of a conference participant. Regarding functions.
[0002]
[Prior art]
As a conventional example of this type, in a TV conference system or the like, when the faces of all conference participants are combined and displayed, there is a case where other conference participants displayed on the screen are not known, so that a character Names, affiliations, etc. are created using characters generated by the container, and are synthesized under superimposition or the like under images such as faces. There is also known a TV conference application on a PC (personal computer) that displays a participant's name or the like in a window title bar without combining with a video.
[0003]
[Problems to be solved by the invention]
However, in the former case, since only characters generated by the character generator can be used, the types of characters that can be displayed are small, and it is necessary to register settings for combining on the combining device side. In addition, there is a problem that the flexibility is low when the character to be synthesized is changed every time.
In the latter case, there is almost no character limitation since various types of font data are usually stored on the PC, but it is not possible to synthesize images other than characters. There is.
[0004]
The present invention has been made in view of the above-described problems of the related art, and provides a multipoint conference system capable of synthesizing images and the like without being restricted by characters to be synthesized with a video or video material of a face of a conference participant. Aim.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, in the present invention, a plurality of conference terminals and a conference server device are connected via a network, and the conference server device synthesizes video and audio of conference participants received from the plurality of conference terminals. A multi-point conference system for delivering to the plurality of conference terminals,
Means for converting character data to be synthesized with the video of the conference participant into image data,
Means for synthesizing the image data with the video of the conference participant,
Configuration.
[0006]
According to the above configuration, various font data can be converted into image data and synthesized, so that an image or the like can be synthesized without being restricted by characters to be synthesized with a video of a face of a conference participant.
[0007]
According to the present invention, a plurality of conference terminals and a conference server device are connected via a network, and the conference server device synthesizes a video and audio of a conference participant received from the plurality of conference terminals, and the plurality of conference terminals. Is a multi-point conference system that delivers to
The conference terminal converts character data to be synthesized with the video of the conference participant into bitmap image data, converts the bitmap image data into MPEG1 slice data, and transmits the slice data to the server device;
The server device is configured to combine the slice data with MPEG1 slice data of the video of the conference participant and distribute the composite data to the plurality of conference terminals.
According to the above configuration, various types of font data can be converted into MPEG1 slice data and synthesized, so that it is possible to synthesize images and the like without being restricted by characters to be synthesized with a video of a face of a conference participant. it can.
[0008]
According to the present invention, a plurality of conference terminals and a conference server device are connected via a network, and the conference server device synthesizes a video and audio of a conference participant received from the plurality of conference terminals, and the plurality of conference terminals. Is a multi-point conference system that delivers to
The conference terminal converts character data to be synthesized with the video of the conference participant into bitmap image data, converts the bitmap image data into MPEG1 slice data, and converts the slice data into the video of the conference participant. Synthesizing with MPEG1 slice data and transmitting to the server device,
The server device is configured to distribute the composite video transmitted from the conference terminal to the plurality of conference terminals.
According to the above configuration, various types of font data can be converted into MPEG1 slice data and synthesized, so that it is possible to synthesize images and the like without being restricted by characters to be synthesized with a video of a face of a conference participant. it can.
[0009]
The present invention is also configured to convert character data to be combined with video material into image data, and to combine the image data with the video material.
According to the above configuration, an image or the like can be synthesized without being restricted by the characters to be synthesized with the video material.
[0010]
The present invention also provides a Web server registered on a WWW server on a network, wherein the conference terminal notifies the conference server device of a URL address of the Web material that the conference terminal wants to show to other conference participants. Informs another conference terminal of the notified URL address, and when the other conference terminal accesses and displays a web material on the WWW server based on the notified URL address, the conference terminal An image indicating that the conference participant has shown the web material is synthesized with the video of the conference participant.
According to the above configuration, it is possible to display which conference participant showed the WEB material, without being restricted by the characters to be synthesized with the video of the face of the conference participant, and also by synthesizing the image.
[0011]
In the present invention, the conference server may register a URL address of a web material registered in a WWW server on a network in a web material database, and the URL may be a URL address registered in the web material database. Notifies the conference server device of the URL address of the WEB material that the other conference participants want to show, the conference server device notifies the notified URL address to another conference terminal, and the other conference terminal When accessing and displaying the web material on the WWW server based on the notified URL address, it indicates that the conference participant showed the web material to the video of the conference participant of the conference terminal. It was configured to combine images.
According to the above configuration, it is possible to display which conference participant showed the WEB material, without being restricted by the characters to be synthesized with the video of the face of the conference participant, and also by synthesizing the image.
[0012]
According to the present invention, there is also a request that the conference server device further wants to show its own WEB material and its URL address in a WEB material database, and to display the WEB material from the conference terminal to another conference participant. Means for notifying the URL address to another conference terminal in a case where the other conference terminal accesses and displays a web material on the web material database based on the notified URL address. Further, an image indicating that the conference participant has shown the WEB material is synthesized with the video of the conference participant of the conference terminal.
According to the above configuration, it is possible to display which conference participant showed the WEB material, without being restricted by the characters to be synthesized with the video of the face of the conference participant, and also by synthesizing the image.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram showing an embodiment of a multipoint conference system according to the present invention.
[0014]
In the system shown in FIG. 1, as an example, a maximum of eight multipoint conference client terminals (hereinafter, also simply referred to as “terminals”) 200 are connected to a multipoint conference server device (also simply referred to as a conference server device or server device) 100 by a LAN. / WAN300. The server device 100 is provided with a hard disk (HD) 120 as a mass storage device. The LAN / WAN 300 can be connected to WWW servers 400 around the world, and the conference server device 100 is also a WWW server.
[0015]
FIG. 2 shows an operation in which the terminal 200 accesses WEB materials on the WWW server 400 (further, on the conference server device 100) in the system shown in FIG. 1, and the terminal 200 has a browser. The conference server device 100 has a web material database for registering web material names and URL addresses on the WWW server 400 in association with each other. Further, the user's own web material is registered in the web material database. The WEB material is a file including a text file or an image such as JPEG, GIF, or BMP.
[0016]
The procedure (1) in FIG. 2 shows a procedure for “seeing” the WEB material on the WWW server 400, and the procedure (2) shows a procedure for “showing” the web material.
(1) When the client of the terminal 200a on the viewing side selects the WEB material name on the WWW server 400 and operates the “view” button, and the terminal 200a sends the WEB material name to the conference server device 100, the conference server The device 100 sends its URL address in response. Thereby, the terminal 200a can access the WEB material on the WWW server 400.
[0017]
(2) The client of the terminal 200a to be shown selects the URL address of the WEB material on the WWW server 400, and operates the button "I want to show" to the client of the terminal 200b to be shown, and the terminal 200a sets the conference server. When the URL address is transmitted to the device 100, the conference server device 100 transmits the URL address to the terminal 200b on the side to be viewed. Thus, the terminal 200b on the side to be shown can access the WEB material on the WWW server 400, so that the client of the terminal 200a can show the WEB material to be shown to the client of the other terminal 200b.
Thus, the conference server device 100 is not burdened while viewing the WEB material on the WWW server 400 (during access).
[0018]
The server device 100 will be described in detail with reference to FIG. The server apparatus 100 includes a communication control unit 101 composed of software and hardware, a user authentication unit 102, a reservation management unit 103, a server control unit 104, a character synthesizing unit 105, a video synthesizing unit 106, an audio format converting unit 107, Voice synthesizing means 108, WWW server means 111, storage means 113, load monitoring control means 115, user management database 109 configured on HD 120, reservation management database 110, WEB material database 112, video database 114, and screen synthesis definition It has a database 116.
[0019]
The communication control means 101 includes video / audio data, user authentication data, reservation registration information, terminal information, video material data, WEB material data, URL data, enlarged video request command, and other data / control commands 1 received from the client terminal 200. It receives control data and the like, and sends video / audio data, HTML data, conference information data, user authentication result notification, and other control data as data / control commands 2 to be transmitted to the client terminal 200.
[0020]
The user authentication data and the user authentication result notification 3 are exchanged between the communication control means 101 and the user authentication means 102, and the reservation information data 4 is exchanged between the communication control means 101 and the reservation management means 103. The control data 5 is exchanged between the communication control means 101 and the server control means 104, and the character information data 6 is sent from the communication control means 101 to the character synthesizing means 105. Video data and composite video data 7 are exchanged between the communication control means 101 and the video composition means 106, and the character video data 10 is sent from the character composition means 105 to the video composition means 106. The GSM audio data 8 is sent from the communication control means 101 to the audio format conversion means 107, and the synthesized GSM audio data 9 is sent from the audio synthesis means 108 to the communication control means 101. PCM synthesized voice data and GSM synthesized voice data 11 are exchanged between the voice format conversion means 107 and the voice synthesis means 108.
[0021]
User authentication data 12 is exchanged between the user authentication means 102 and the user management database 109, and reservation information data 13 is exchanged between the reservation management means 103 and the reservation management database 110. HTTP request data and HTTP response data 14 are exchanged between the server control unit 104 and the WWW server unit 111, and speech synthesis control data 15 is exchanged between the server control unit 104 and the speech synthesis unit 108. Video synthesis control data 16 is sent from the server control means 104 to the video synthesis means 106. Storage control data and read control data 17 are exchanged between the server control means 104 and the storage means 113, and stored video data and read video data 18 are exchanged between the video synthesizing means 106 and the storage means 113. The stored voice data and the read voice data 19 are exchanged between the voice synthesis unit 108 and the storage unit 113.
[0022]
Web materials and the WEB material database 20 are exchanged between the WWW server means 111 and the WEB material database 112, and video / audio data and video material data 21 are exchanged between the storage means 113 and the video database 114. Further, the web material and the web material database 20 are exchanged between the storage unit 113 and the web material database 112. The screen composition definition data 24 is exchanged between the video composition means 106 and the screen composition definition database 116. The load monitoring control means 115 exchanges load monitoring packet data and load monitoring response packet data 22 with the LAN / WAN 300, and sends rate control instruction data 23 to the communication control means 101.
[0023]
The basic functions of the server device 100 will be described.
-Proxy function: WWW server function. It determines whether the request from the LAN / WAN 300 is an HTTP request for a multipoint conference or a normal Internet access request. In the latter case, the request is distributed to the Internet proxy.
-User authentication function: Determines whether the user is a registered user.
-Video composition / delivery function: Combines video from each terminal 200 into one with a specified layout and distributes it to all terminals 200.
Speech synthesis / distribution function: Mixes the voice from each terminal 200 in a specified combination and distributes it to all terminals 200.
Character combination function: The slice data is combined with the lower part of the video from each terminal 200 and combined into one frame.
[0024]
Recording function: The video / audio from each terminal 200 is recorded on the HD 120.
Recording / playback function: Plays back video / audio data recorded in the HD 120 and distributes it to each terminal 200. If it is a download, it is converted to the MPEG1 format and downloaded.
Rate control function: Checks the bandwidth of the network to which the terminal 200 is connected, and employs a video bit rate and an audio encoding method according to the bandwidth.
[0025]
Next, detailed functions will be described.
<Meeting reservation>
・ Meeting registration: A function to register a meeting to be held. The contents to be registered at the time of reservation are date and time / name of the conference to be held / comment / participating user authentication setting.
・ Meeting deletion: Function to delete the contents of the conference reservation already registered.
-Conference registration content list display: A function to display the registered conference content as a content list on the date specified.
Meeting authentication: a function that determines whether or not a user is registered in a conference when the user participates in the conference, and refuses to participate in the conference if the user is not registered.
[0026]
<Web materials>
Web material registration: A function for registering a name associated with a URL address used as a Web material as a “Web material name”.
-Web material deletion: A function for deleting the registered Web material name.
-Web material list display: A function of displaying a list of Web material names registered in the server device 100.
-Web material display: A function of selecting a registered Web material name and displaying Web page information of a URL address associated with the Web material name. During a meeting, the image display area is reduced and displayed.
-Web material reflection: A function of reflecting the contents of the currently displayed Web material to other conference participants.
[0027]
<Video material>
Video material registration: A video recorded on a DV (abbreviation for digital video: the same applies hereinafter) camera is converted into MPEG1 and registered on the server device 100.
-Deletion of video material: Deletes the video material already registered.
-Video material preview (play / pause / fast forward / rewind): A function to play, pause, fast forward, and rewind already registered video materials.
・ Video material list display: A function to display a list of already registered video materials.
-Viewing video materials (play / pause / fast forward / rewind): A function that allows registered video materials to be synthesized and distributed during a meeting for single reference.
・ Show video material: A function that combines registered video materials during a meeting and distributes them to everyone.
[0028]
<Minutes>
Recording of minutes: A function of recording video / audio, video materials, and WEB materials currently in a meeting on the server device 100.
Minutes download: A function of downloading the minutes registered on the server device 100 in HTML format onto the recording medium of the terminal 200.
-Minute browsing: a function of distributing the minutes registered on the server apparatus 100 while receiving rate control.
Minute list display / deletion: a function of displaying a list of minutes registered on the server apparatus 100 and deleting the minutes.
-Minutes playback (Web material playback): A function of referring to downloaded minutes with a Web browser.
[0029]
<Display>
・ Conference participant name display: Function to combine participant names in a part of the video display area.
-Meeting information display: A function to display information on the currently held meeting (meeting name / holding date / time / organizer name / participant name).
・ Video enlargement / reduction
[0030]
Next, the terminal 200 will be described in detail with reference to FIG. The terminal 200 includes audio input / output means 201, video input means 202, WWW display means 203, operation input means 204, audio format conversion means 205, video format conversion means 206, WWW control means 207, audio codec control means 208, video codec It has a control unit 209, a terminal control unit 210, a storage unit 211, a recording medium 212, and a communication control unit 213. The communication control unit 213 is connected to the LAN / WAN 300 (see FIGS. 1 and 3).
[0031]
The PCM audio input signal 31 is sent from the audio input / output unit 201 to the audio format conversion unit 205, and the audio output signal 32 is sent from the audio codec control unit 208 to the audio input / output unit 201. The DV video signal 33 is sent from the video input means 202 to the video format conversion means 206. The HTML file control information 34 is sent from the WWW control means 207 to the WWW display means 203, and the CGI form information 35a is sent from the WWW display means 203 to the WWW control means 207. Operation event data 35b is sent from the operation input unit 204 to the WWW display unit 203.
[0032]
The PCM down-sampled audio data 36 is sent from the audio format converter 205 to the audio codec controller 208, and the DV video data 37 is sent from the video format converter 206 to the video codec controller 209. MPEG1 video data 38 is sent from the video codec control means 209 to the WWW control means 207. The control data 39 is sent from the WWW control means 207 to the terminal control means 210, and the control data 40 is exchanged between the terminal control means 210 and the storage means 211. Video / audio data, video material, and WEB material data (HTML) 41 are exchanged between the storage unit 211 and the recording medium 212.
[0033]
The GSM voice data 42 is sent from the voice codec control means 208 to the communication control means 213, and the GSM voice data 43 is sent from the communication control means 213 to the voice codec control means 208. The MPEG1 video data 44 is sent from the video codec control means 209 to the communication control means 213, and the MPEG1 video data 45 is sent from the communication control means 213 to the video codec control means 209. The control data 46 is exchanged between the terminal control means 210 and the communication control means 213.
[0034]
Next, main functions of the terminal 200 will be described.
Audio data distribution: a function of capturing audio from a DV camera / microphone input and distributing audio data to a server device. (The sound input PCM data from the DV camera / microphone input is downsampled, converted to GSM, packetized in GSM frame units, and distributed by the HTTP protocol.)
・ Audio playback:
-Video data distribution: a function of capturing a video from a DV camera / USB camera and distributing the video data to a server device. (The DV format video data from the DV camera / USB camera is converted into MPEG1, packetized in MPEG1 frame units, and distributed according to the HTTP protocol.)
[0035]
Next, a display screen of the terminal 200 will be described with reference to FIGS.
<Menu screen>
As shown in FIG. 5, the menu screen includes a “meeting reservation screen display button”, a “video material registration screen display button”, a “web material registration screen display button”, a “meeting minutes browsing download screen display button”, Button for joining the currently held meeting, "display area for currently held meeting information", "area for displaying the status of whether or not the meeting is currently held", "request for currently held meeting information" Buttons, an area for displaying meeting information scheduled to be held today, and the like.
<Reservation screen>
When the “conference reservation screen display button” on the menu screen shown in FIG. 5 is operated, a conference reservation screen as shown in FIG. 6 is displayed, and a conference can be reserved from this conference reservation screen.
[0036]
<Meeting screen>
When the "meeting start button" for participating in the currently held meeting on the menu screen shown in FIG. 5 is operated, a meeting screen as shown in FIG. 7 is displayed. The meeting screen includes a "minutes meeting information display area", a "video material display area", a "view" button and a "show" button for the selected video material, a "registered web material list display area", and a selected web material. A “view” button, a “minutes recording start / stop button”, a “go to menu” button for returning to the menu screen, and a “conference video display area” are provided. As shown in detail in FIG. 8, the “conference video display area” is divided into approximately 4 × 2 = 8 windows in the lower half, and each divided window displays the video of each of the eight conference participants. Is done. The upper half is divided into 2 × 1 = 2 windows, and the right window displays the video material that the user wants to see or is shown to other participants, and the left window displays the video. The enlarged video of the material is displayed.
[0037]
<Meeting screen (video material display)>
When the "view" button and the "show" button for the selected video material on the conference screen shown in FIG. 7 are operated, a video material display conference screen as shown in FIG. 9 is displayed. On this conference screen, video materials are displayed in the “conference video display area”. In addition to the display of the conference screen shown in FIG. 7, further, “video material playback / pause / stop / slider / video material end” Buttons are displayed.
<Conference screen (Web display)>
When the “view” button on the selected web material on the conference screen shown in FIG. 7 is operated, a web-based conference screen as shown in FIG. 10 is displayed. In addition to the display of the conference screen shown in FIG. 7, the conference screen further includes a “Web page display area”, a reduced “conference video display area”, a “URL input field”, a “Web page operation button”, and a display. A button for "showing" the WEB page in the middle to another terminal and a button for "ending the display of WEB materials" are displayed.
[0038]
<Video material registration screen (during preview)>
As shown in FIG. 11, on the video material registration screen during preview, a video material list registered on the server 100, a video material list on its own terminal, a video material list in the external recording device, and a movement of the selected video material A destination / delete button, a “go to menu” button, a video material playback display area, a slider bar, a video material play / pause / stop button, a video material name input field, and the like are displayed.
[0039]
<Web material registration screen>
As shown in FIG. 12, on the WEB material registration screen, a WEB material name input field to be registered, an input WEB material name registration button, a list of already registered WEB material names, a display / delete button from the WEB material list, A "Go to menu" button, a URL address input field, a web page display area, a web operation button, and the like are displayed.
[0040]
<Conference minutes browsing screen (download)>
As shown in FIG. 13, the meeting minutes browsing screen for downloading includes a “go to menu” button, a minutes list display area, a download / browse / delete button from the minutes list, a download destination designation area, and the like. Is done.
<Conference minutes viewing screen>
As shown in FIG. 14, the meeting minutes browsing screen includes a minutes meeting information display area, a video / web material display mode switching button, a slider bar, a minutes playing / pause / stop button, a button for proceeding to a browsing download screen, The minutes video display area is displayed.
[0041]
<Meeting minutes browsing screen (Web display)>
As shown in FIG. 15, in addition to the display shown in FIG. 14, a URL address input box, a WEB page display area (in place of the minutes video display area), and a reduced minutes An image display area, a web page operation button, and the like are displayed.
[0042]
<Minutes>
Next, with reference to FIG. 16, a description will be given of a process of starting minutes recording by the server apparatus 100. First, when the “start minutes recording” button is operated, the terminal 200 transmits a minutes recording start command to the server device 100. In the server apparatus 100, when the communication control means 101 receives a command (minutes recording start command) from the terminal 200, the communication control means 101 instructs the server control means 104 to analyze the command (step S1). When analyzed as a minutes recording start command, a minutes recording instruction is issued to the storage unit 113 (step S2). Then, the storage unit 113 starts recording the video / audio during the meeting as the minutes in the video database 114 on the HD 120 (step S3). Here, the video / audio recorded as the minutes is not all video / audio received from the terminal 200 but only video / audio distributed to the terminal 200 in order to save the capacity of the HD 120.
[0043]
<Video material registration>
Next, with reference to FIG. 17, the process of registering the video material of the server device 100 will be described. First, when the “video material registration” button is operated, the terminal 200 transmits a video material registration command to the server device 100. In the server apparatus 100, when the communication control means 101 receives a command (video material registration command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S21). When analyzed with the material registration command, a write instruction of the video material is issued to the storage means 113 (step S22). Then, the storage unit 113 records the video material specified by the video material registration command in the video database 114 on the HD 120, and records the management data in the user management database 109 (step S23).
[0044]
<Video material playback>
Next, with reference to FIG. 18, a description will be given of a process of reproducing video material by the server apparatus 100. First, when the “view” button is operated, the terminal 200 transmits a video material reproduction command to the server device 100. In the server device 100, when the communication control means 101 receives a command (video material playback command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S31), and the server control means 104 converts the received command into a video image. When analyzing the data reproduction command, an access right determination instruction is issued to the server control means 104 (step S32), and the server control means 104 determines the access right of the user (step S33).
[0045]
In the case of "with access right", the storage means 113 reproduces the video material indicated by the video material reproduction start command from the video database 114 while referring to the user management database 109 (step S34 → S35), and then The reproduced video and audio are synthesized by the video synthesizing unit 106 and the audio synthesizing unit 108 (step S36), and then distributed to the terminal 200 by the communication control unit 101 (step S37). On the other hand, in the case of "no access right", the server control means 104 generates a transmission command of "no access right" (step S34 → S38), and then distributes this to the terminal 200 by the communication control means 101 (step S34). S39).
[0046]
<Web material registration>
Next, referring to FIG. 19, a process of registering WEB materials by the server device 100 will be described. First, the terminal 200 transmits a web material registration command to the server device 100 when a “web material registration” button is operated. In the server device 100, when the communication control means 101 receives a command (Web material registration command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S71), and the server control means 104 transmits the received command to the WEB. When it is analyzed as a material registration command, a write instruction for the WEB material management table is issued to the storage unit 113 (step S72). Then, the storage unit 113 creates a WEB material management table and records it in the WEB material database 112 on the HD 120 (step S73).
[0047]
<Web material event registration>
Next, a recording process of a WEB material event of the server apparatus 100 will be described with reference to FIG. First, the terminal 200 transmits a web material recording control command to the server device 100 when the “web material recording” button is operated. In the server apparatus 100, when the communication control means 101 receives a command (Web material recording control command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S41), and the server control means 104 transmits the received command. When it is analyzed as a WEB material recording control command, a URL recording instruction of the video material being displayed is issued to the storage unit 113 (step S42). Then, the storage unit 113 stores the conference information (meeting name / date / time / organizer name / participant name), the URL address of the video material being displayed, and the elapsed time from the start of the conference as the WEB material event of the video material. It is recorded in the WEB material database 112 on the HD 120 (step S43).
[0048]
<Show web materials>
Next, a Web material event notification process of the server apparatus 100 will be described with reference to FIG. First, when the “show” button is operated, the terminal 200 transmits a Web material URL notification control command to the server device 100. In the server apparatus 100, when the communication control means 101 receives a command (a control command for notifying a Web material URL) from the terminal 200, the communication control means 101 instructs the server control means 104 to analyze the command (step S51), and the server control means 104 receives the command. When the command is analyzed as a web material URL notification control command, an instruction to generate a URL notification command is issued (step S52).
[0049]
Then, the server control means 104 generates a URL notification command and issues a transmission instruction to the communication control means 101 (step S53), and then the communication control means 101 transmits the URL notification command to another terminal 200 (step S53). S54). As a result, the URL address of the WEB material being displayed on the terminal 200 on which the “show” button has been operated is displayed on the other terminal 200, and the other terminal 200 uses this URL address for the WWW server 400 (and further the server device). 100) Web materials can be accessed and displayed.
[0050]
<Reproduction of minutes>
Next, the minutes reproduction process of the server device 100 will be described with reference to FIG. First, when the “play minutes” button is operated, the terminal 200 transmits a minutes playback command to the server device 100. In the server device 100, when the communication control means 101 receives a command (minutes reproduction command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S61), and the server control means 104 discusses the received command. When the command is analyzed as a recording / playback command, a reading instruction of the minutes and the WEB material event is issued to the storage unit 113 (step S62).
[0051]
Next, the accumulation means 113 reads the minutes and the WEB material event from the HD 120 (step S63), and then the server control means 104 determines whether or not the elapsed time (reference time) of the WEB material event (step S64). In the case of the elapsed time (reference time), the server control means 104 generates a URL notification command and issues a distribution instruction to the communication control means 101 (step S65). Is transmitted to the terminal 200 (step S66), and then the process proceeds to step S67. If it is not the elapsed time (reference time) in step S64, the process directly proceeds to step S67. In step S67, the video and audio of the minutes are synthesized by the video synthesizing unit 106 and the audio synthesizing unit 107, respectively, and a distribution instruction is issued to the communication control unit 101. Then, the communication control unit 101 performs the rate control while performing the rate control. The transmitted video and audio are transmitted to terminal 200 (step S68).
[0052]
Therefore, when a meeting participant plays the minutes after the meeting, for example, the video material is displayed during the meeting and the URL address is notified when it is registered as the WEB material. By instructing, the web material can be reproduced and displayed. Instead of transmitting the URL notification command to the terminal 200 in steps S65 and S66, the web material may be automatically reproduced and displayed based on the URL address.
[0053]
Next, with reference to FIG. 23, a description will be given of a process of combining characters and the like with each of the 4 × 2 = 8 conference participant video windows shown in FIG. Here, the data of one frame of MPEG1 is divided into four slices in the vertical direction and encoded as shown in FIG. Therefore, in the terminal 200, the WWW control unit 207 converts the character or image to be synthesized, which is instructed by the operation input unit 204, into bitmap (BMP) image data, and outputs the BMP image data to the video codec control unit 209. . Then, the video codec control unit 209 converts the BMP image data into data of one slice of MPEG1, and transmits the data to the server device 100. Then, the server device 100 replaces this data with the fourth slice image of the terminal and synthesizes it with the first to third slice images, and distributes the synthesized image to all the terminals 200 as a conference participant image window.
[0054]
FIG. 24 shows the processing of the server device 100. First, when the “image composition” button is operated, the terminal 200 transmits an image composition command and an image for composition (MPEG1 slice data) to the server device 100. In the server device 100, when the communication control means 101 receives a command (image synthesis command) from the terminal 200, it instructs the server control means 104 to analyze the command (step S81), and the server control means 104 converts the received command into an image synthesis command. When the command is analyzed as a command, an instruction to receive a composite image is issued to the communication control means 101 (step S82). Then, when the communication control means 101 receives the combined image, it instructs the character combining means 105 to combine the images (step S83), the character combining means 105 processes the combined image (step S84), and then the video combining means 106 combines. The image is combined with the video during the meeting (step S85), and then the communication control means 101 transmits the combined image to all terminals 200 (step S86).
[0055]
According to such a synthesizing method, the terminal 200 generally stores a wide variety of font data, so that there are almost no character restrictions, and the font data is converted into image data (MPEG1 data). Therefore, images other than characters can be synthesized by converting the data into MPEG data. Further, since the server device 100 merely receives and synthesizes the image for synthesis from the terminal 200, it is possible to flexibly cope with a change of a character or an image.
[0056]
Instead of performing the above-described image composition on the server device 100 side, the terminal 200 side transmits the composite image to the server device 100 side, and the server device 100 performs only distribution without performing image composition. Is also good. Further, in this system, a conference participant can “show” video materials to other conference participants, but the names (names) and comments of the participants can be displayed in the conference participant video window or the video material window shown in FIG. Can be synthesized.
[0057]
Here, in FIG. 1, only eight terminals 200 and one server device 100 are shown, but as shown in FIG. 25, arbitrary eight terminals of N terminals 200 and M server devices 100 One conference can be held using any one of the above.
[0058]
【The invention's effect】
As described above, according to the present invention, various types of font data can be converted into image data and synthesized, so that the image of the face of the meeting participant can be displayed without being restricted by the characters to be synthesized and the image can be displayed. It is possible to provide a multi-point conference system that can also combine the above.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an embodiment of a multipoint conference system according to the present invention.
FIG. 2 is an explanatory diagram showing a procedure for accessing a web material in the system of FIG. 1;
FIG. 3 is a block diagram showing the server device of FIG. 1 in detail;
FIG. 4 is a block diagram showing the client terminal of FIG. 1 in detail;
FIG. 5 is an explanatory view showing a menu screen of the terminal shown in FIG. 1;
FIG. 6 is an explanatory diagram showing a conference reservation screen of the terminal of FIG. 1;
FIG. 7 is an explanatory diagram showing a conference screen of the terminal in FIG. 1;
FIG. 8 is an explanatory diagram showing the conference video display area of FIG. 7 in detail;
FIG. 9 is an explanatory diagram showing a conference screen (video material display) of the terminal in FIG. 1;
FIG. 10 is an explanatory diagram showing a conference screen (Web display) of the terminal in FIG. 1;
FIG. 11 is an explanatory diagram showing a video material registration screen (during preview) of the terminal of FIG. 1;
FIG. 12 is an explanatory diagram showing a WEB material registration screen of the terminal of FIG. 1;
FIG. 13 is an explanatory diagram showing a meeting minutes browsing screen (download) of the terminal in FIG. 1;
FIG. 14 is an explanatory diagram showing a meeting minutes browsing screen of the terminal in FIG. 1;
FIG. 15 is an explanatory diagram showing a meeting minutes browsing screen (Web display) of the terminal in FIG. 1;
FIG. 16 is a flowchart showing processing for recording minutes of a meeting performed by the server device of FIG. 1;
FIG. 17 is a flowchart showing a process of registering video material in the server device of FIG. 1;
FIG. 18 is a flowchart showing a process of reproducing video material by the server device of FIG. 1;
FIG. 19 is a flowchart showing a process of registering WEB materials by the server device of FIG. 1;
20 is a flowchart showing a process of recording a WEB material event by the server device of FIG. 1;
FIG. 21 is a flowchart showing processing of a web material event notification of the server device of FIG. 1;
FIG. 22 is a flowchart showing processing for playing back minutes of a meeting in the server device of FIG. 1;
FIG. 23 is an explanatory diagram showing a character synthesizing process.
FIG. 24 is a flowchart showing a combining process of the server device of FIG. 1;
FIG. 25 is a configuration diagram showing an application example of the multipoint conference system of FIG. 1;
[Explanation of symbols]
100 server device (multipoint conference server device) (conference server device)
112 WEB material database
114 Video Material Database
120 Hard Disk (HD)
200 client terminal (multipoint conference client terminal) (conference terminal or simply terminal)
300 LAN / WAN
400 WWW server

Claims (7)

複数の会議端末と会議サーバ装置がネットワークを介して接続され、前記会議サーバ装置が前記複数の会議端末から受信した会議参加者の映像及び音声を合成して前記複数の会議端末に配信する多地点会議システムであって、
前記会議参加者の映像に合成する文字データを画像データに変換する手段と、
前記画像データを前記会議参加者の映像に合成する手段とを、
有する多地点会議システム。
A multi-point system in which a plurality of conference terminals and a conference server device are connected via a network, and the conference server device synthesizes video and audio of conference participants received from the plurality of conference terminals and distributes the synthesized video and audio to the plurality of conference terminals. A conference system,
Means for converting character data to be synthesized with the video of the conference participant into image data,
Means for synthesizing the image data with the video of the conference participant,
Multipoint conference system to have.
複数の会議端末と会議サーバ装置がネットワークを介して接続され、前記会議サーバ装置が前記複数の会議端末から受信した会議参加者の映像及び音声を合成して前記複数の会議端末に配信する多地点会議システムであって、
前記会議端末が自己の会議参加者の映像に合成する文字データをビットマップイメージデータに変換し、このビットマップイメージデータをMPEG1のスライスデータに変換してこのスライスデータを前記サーバ装置に送信し、
前記サーバ装置が前記スライスデータを前記会議参加者の映像のMPEG1のスライスデータに合成して前記複数の会議端末に配信するように構成した多地点会議システム。
A multi-point system in which a plurality of conference terminals and a conference server device are connected via a network, and the conference server device synthesizes video and audio of conference participants received from the plurality of conference terminals and distributes the synthesized video and audio to the plurality of conference terminals. A conference system,
The conference terminal converts character data to be synthesized with the video of the conference participant into bitmap image data, converts the bitmap image data into MPEG1 slice data, and transmits the slice data to the server device;
A multipoint conference system, wherein the server device combines the slice data with MPEG1 slice data of the video of the conference participant and distributes the data to the plurality of conference terminals.
複数の会議端末と会議サーバ装置がネットワークを介して接続され、前記会議サーバ装置が前記複数の会議端末から受信した会議参加者の映像及び音声を合成して前記複数の会議端末に配信する多地点会議システムであって、
前記会議端末が自己の会議参加者の映像に合成する文字データをビットマップイメージデータに変換し、このビットマップイメージデータをMPEG1のスライスデータに変換してこのスライスデータを前記会議参加者の映像のMPEG1のスライスデータに合成して前記サーバ装置に送信し、
前記サーバ装置が前記会議端末から送信された合成映像を前記複数の会議端末に配信するように構成した多地点会議システム。
A multi-point system in which a plurality of conference terminals and a conference server device are connected via a network, and the conference server device synthesizes video and audio of conference participants received from the plurality of conference terminals and distributes the synthesized video and audio to the plurality of conference terminals. A conference system,
The conference terminal converts character data to be synthesized with the video of the conference participant into bitmap image data, converts the bitmap image data into MPEG1 slice data, and converts the slice data into the video of the conference participant. Synthesizing with MPEG1 slice data and transmitting to the server device,
A multipoint conference system, wherein the server device distributes the composite video transmitted from the conference terminal to the plurality of conference terminals.
映像資料に合成する文字データを画像データに変換し、前記画像データを前記映像資料に合成することを特徴とする請求項1ないし3のいずれか1つに記載の多地点会議システム。4. The multipoint conference system according to claim 1, wherein the character data to be combined with the video material is converted into image data, and the image data is combined with the video material. ネットワーク上のWWWサーバに登録されているWEB資料であって前記会議端末が他の会議参加者に見せたいWEB資料のURLアドレスを前記会議サーバ装置に通知し、前記会議サーバ装置が前記通知されたURLアドレスを他の会議端末に通知し、前記他の会議端末が前記通知されたURLアドレスに基づいて前記WWWサーバ上のWEB資料をアクセスして表示した場合に、前記会議端末の会議参加者の映像に対してその会議参加者が前記WEB資料を見せたことを示す画像を合成することを特徴とする請求項1ないし3のいずれか1つに記載の多地点会議システム。The conference terminal notifies the conference server device of a URL address of the WEB material registered in the WWW server on the network and the conference terminal wants to be shown to other conference participants, and the conference server device notifies the conference server device of the URL address. When a URL address is notified to another conference terminal, and the other conference terminal accesses and displays a WEB material on the WWW server based on the notified URL address, a conference participant of the conference terminal is displayed. The multipoint conference system according to any one of claims 1 to 3, wherein an image indicating that the conference participant has shown the WEB material is combined with the video. 前記会議サーバ装置がネットワーク上のWWWサーバに登録されているWEB資料のURLアドレスをWEB資料データベースに登録し、前記WEB資料データベースに登録されているURLアドレスであって前記会議端末が他の会議参加者に見せたいWEB資料のURLアドレスを前記会議サーバ装置に通知し、前記会議サーバ装置が前記通知されたURLアドレスを他の会議端末に通知し、前記他の会議端末が前記通知されたURLアドレスに基づいて前記WWWサーバ上のWEB資料をアクセスして表示した場合に、前記会議端末の会議参加者の映像に対してその会議参加者が前記WEB資料を見せたことを示す画像を合成することを特徴とする請求項1ないし3及び5のいずれか1つに記載の多地点会議システム。The conference server device registers a URL address of a WEB material registered in a WWW server on a network in a WEB material database, and the URL is a URL address registered in the WEB material database and the conference terminal participates in another conference. The conference server device notifies the conference server device of the URL address of the WEB material that the user wants to show, the conference server device notifies the notified URL address to another conference terminal, and the other conference terminal notifies the notified URL address. When accessing and displaying the web material on the WWW server based on the above, an image indicating that the conference participant has shown the web material is synthesized with the video of the conference participant of the conference terminal. The multipoint conference system according to any one of claims 1 to 3, wherein: 前記会議サーバ装置がさらに、自己のWEB資料及びそのURLアドレスが登録されたWEB資料データベースと、前記会議端末から前記自己のWEB資料を他の会議参加者に見せたい要求があった場合にそのURLアドレスを他の会議端末に通知する手段とを有し、前記他の会議端末が前記通知されたURLアドレスに基づいて前記WEB資料データベース上のWEB資料をアクセスして表示した場合に、前記会議端末の会議参加者の映像に対してその会議参加者が前記WEB資料を見せたことを示す画像を合成することを特徴とする請求項1ないし3及び5、6のいずれか1つに記載の多地点会議システム。The conference server device further includes a WEB material database in which its own WEB material and its URL address are registered, and a URL when there is a request from the conference terminal to show the WEB material to another conference participant. Means for notifying an address to another conference terminal, wherein when the other conference terminal accesses and displays a web material on the web material database based on the notified URL address, the conference terminal 7. The multi-function apparatus according to claim 1, wherein an image indicating that the conference participant has shown the web material is combined with the video of the conference participant. Point conferencing system.
JP2002179693A 2002-06-20 2002-06-20 Multi-point conference system Withdrawn JP2004023706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002179693A JP2004023706A (en) 2002-06-20 2002-06-20 Multi-point conference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002179693A JP2004023706A (en) 2002-06-20 2002-06-20 Multi-point conference system

Publications (1)

Publication Number Publication Date
JP2004023706A true JP2004023706A (en) 2004-01-22

Family

ID=31177036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002179693A Withdrawn JP2004023706A (en) 2002-06-20 2002-06-20 Multi-point conference system

Country Status (1)

Country Link
JP (1) JP2004023706A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011224A (en) * 2006-06-29 2008-01-17 Fujitsu Ltd Image processing device, image transmitting/receiving system, and image processing method
JP2011503984A (en) * 2007-11-13 2011-01-27 アルカテル−ルーセント Method and arrangement for personalized video coding
KR20140136013A (en) * 2012-03-13 2014-11-27 텔레폰악티에볼라겟엘엠에릭슨(펍) mixing of encoded video streams

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011224A (en) * 2006-06-29 2008-01-17 Fujitsu Ltd Image processing device, image transmitting/receiving system, and image processing method
JP2011503984A (en) * 2007-11-13 2011-01-27 アルカテル−ルーセント Method and arrangement for personalized video coding
US8542743B2 (en) 2007-11-13 2013-09-24 Alcatel Lucent Method and arrangement for personalized video encoding
KR101504789B1 (en) * 2007-11-13 2015-03-30 알까뗄 루슨트 Method and arrangement for personalized video encoding
KR20140136013A (en) * 2012-03-13 2014-11-27 텔레폰악티에볼라겟엘엠에릭슨(펍) mixing of encoded video streams
JP2015515190A (en) * 2012-03-13 2015-05-21 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Mixing encoded video streams
US9386066B2 (en) 2012-03-13 2016-07-05 Telefonaktiebolaget Lm Ericsson (Publ) Mixing of encoded video streams
KR101686723B1 (en) 2012-03-13 2016-12-14 텔레폰악티에볼라겟엘엠에릭슨(펍) mixing of encoded video streams

Similar Documents

Publication Publication Date Title
US7280711B2 (en) Information processing apparatus, information processing method, information processing system and program thereof
US7823080B2 (en) Information processing apparatus, screen display method, screen display program, and recording medium having screen display program recorded therein
US7346650B2 (en) Recording and reproducing system, server apparatus, recording and reproducing method, terminal apparatus, operating method, and program storage medium
JP2008172582A (en) Minutes generating and reproducing apparatus
US20070192370A1 (en) Multimedia content production method for portable device
JP2003087727A (en) Network information processing system and information processing method
JP2008293219A (en) Content management system, information processor in content management system, link information generation system in information processor, link information generation program in information processor, and recording medium with link information generation program recorded thereon
EP1139663A2 (en) Communication method, communication service apparatus, communication terminal device and communication system
JP2003108423A (en) Information processing system, client device forming the system, information providing server, and method for exclusive control of information providing server
JP2002262251A (en) Conference server device and multi-point conference system
JP2007150994A (en) Video editing system and video editing apparatus
JP2003134487A (en) Multi-spot conference system
JP4565232B2 (en) Lecture video creation system
JP2007089025A (en) Information processing apparatus for viewing content during speech, information processing method and program therefor
JP2004023706A (en) Multi-point conference system
JP4244545B2 (en) Information creation method, information creation apparatus, and network information processing system
JP2002247538A (en) Conference server device and multipoint conference system
JP2002232827A (en) Video/audio editing system
JP2004304651A (en) Information processing apparatus, portable information terminal, information processing method, program, and recording medium
JP2003271498A (en) Scattered-sites conference system
JP4413114B2 (en) Electronic conference record data processing method
JP2003333567A (en) Lecture system
JP2003324704A (en) Lecture system
JP2004200823A (en) Imaging unit, recorder, and reproducing unit
JP4791213B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906