JP4244545B2 - Information creation method, information creation apparatus, and network information processing system - Google Patents

Information creation method, information creation apparatus, and network information processing system Download PDF

Info

Publication number
JP4244545B2
JP4244545B2 JP2001278963A JP2001278963A JP4244545B2 JP 4244545 B2 JP4244545 B2 JP 4244545B2 JP 2001278963 A JP2001278963 A JP 2001278963A JP 2001278963 A JP2001278963 A JP 2001278963A JP 4244545 B2 JP4244545 B2 JP 4244545B2
Authority
JP
Japan
Prior art keywords
information
display
still image
displayed
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001278963A
Other languages
Japanese (ja)
Other versions
JP2003087725A (en
JP2003087725A5 (en
Inventor
篤彦 藤本
英春 藤山
衆治 蔵重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001278963A priority Critical patent/JP4244545B2/en
Priority to PCT/JP2002/009401 priority patent/WO2003026289A1/en
Priority to CNB028227425A priority patent/CN100348030C/en
Priority to US10/489,556 priority patent/US7486254B2/en
Priority to EP02798834A priority patent/EP1427206A4/en
Publication of JP2003087725A publication Critical patent/JP2003087725A/en
Publication of JP2003087725A5 publication Critical patent/JP2003087725A5/ja
Application granted granted Critical
Publication of JP4244545B2 publication Critical patent/JP4244545B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、情報作成方法、情報作成装置およびネットワーク情報処理システムに関する。詳しくは、動画・音声入力装置からの動画・音声情報に対して、複数の表示装置が用いられているとき、そのそれぞれで表示した複数の静止画情報を、動画・音声情報に同期して記録し、さらにそれらより再生用コンテンツを生成することで、複数の表示装置から静止画情報が複数提供される場合であっても、それらの静止画情報を同時に表示できるようにすると共に、現にその動画・音声情報に同期して再生されている静止画情報を拡大表示することで、その静止画情報の内容を見やすくできるようにしたものである。
【0002】
この発明に係るネットワーク情報処理システムを電子会議システムなどに適用する場合には、複数のビデオプロジェクタを使用してプレゼンテーション資料を表示して会議を進行させているときでも、複数のビデオプロジェクタで表示された複数のプレゼンテーション資料を記録できるようにし、またその内容を再生するときには、これらのプレゼンテーション資料を会議の進行に同期させて同一画面に表示できるようにしたものであり、そのとき現に使用しているプレゼンテーション資料を拡大表示してその内容を見やすくしたものである。
【0003】
【従来の技術】
ネットワークを介して行われる情報処理システムとしては、ネットワーク電子会議システム(ネットワーク会議システム)、ネットワーク教育システム、ネットワークゲームシステムなどが考えられる。
【0004】
これらのうち例えば、ネットワーク会議システムにあっては、会議の模様がビデオカメラで撮られる他、プレゼンテーションに使用される資料はビデオプロジェクタなどを使用して会議者に提供される。
【0005】
これらの情報をそれぞれ記録し、後に会議の議事録(会議コンテンツ)として作成する場合にあっては、通常会議の模様を撮像した動画・音声情報と、その会議で使用された静止画情報(プレゼンテーションに使用したプレゼンテーション資料)とは別々に保管されているのが普通である。これは、会議の模様を収録した動画・音声情報は会議主催者が管理し、プレゼンテーション資料はプレゼンテーションを行った本人(プレゼンター)が管理している場合が多いからである。そして、後日会議主催者に命じられた会議参加者が、別々に保管されたこれらの情報を用いて、会議の議事録を電子的データ(会議コンテンツ)として作成している。
【0006】
【発明が解決しようとする課題】
このように、別々に管理された動画・音声情報とプレゼンテーション資料を利用して会議コンテンツを作成するため面倒である。これに加えて次のような問題も派生している。
【0007】
会議を行う場合、使用するビデオプロジェクタは1台に限らない。数台のビデオプロジェクタを使用し、それぞれに別々のプレゼンテーション資料を表示しながら説明を加えつつ会議が進行することも多い。
【0008】
ビデオプロジェクタが1台の場合には当日収録した動画・音声情報を再生しながら、プレゼンテーション資料の挿入タイミングを検討し、妥当なタイミングであれば、そのプレゼンテーション資料を動画・音声情報に挿入する処理を繰り返すことで当日の会議議事録を電子的に作成することができる。
【0009】
ところが、複数台のビデオプロジェクタを使用してそのそれぞれにプレゼンテーション資料を表示しながら会議が進行しているような場合には、どの場面でどのプレゼンテーション資料を用いてプレゼンテーションが進んでいるのか判然としない。
【0010】
また、プレゼンテーション資料の使用タイミングを把握していたとしても、どのタイミングでそのプレゼンテーション資料を動画・音声情報に合成すべきかを的確に判断できない場合が多く、しかもその場合にはその直前に使用していたプレゼンテーション資料に代えてこの新しいプレゼンテーション資料が挿入されるため、前のプレゼンテーション資料が消えてしまう。しかし実際の会議では両方の資料を使用して会議が進行している場合が多い。したがって実際に行われた会議と同じ状態を議事録である会議コンテンツに再現できなくなってしまう。
【0011】
この会議システムは、1つの会議室だけで行われる場合だけでなく、ネットワークを介して複数の会議室同士を電子的に結んで会議を進行させたり、遠隔地の会議室(例えば本社、支社、工場、研究所などの複数地点間)をネットワークで結んで行う場合も同じような問題を惹起している。
【0012】
このような問題は、ネットワーク会議システムのみならず、予備校同士、姉妹校同士などでの授業や講義をネットワークを利用して行うネットワーク教育システムや、遠隔地に滞在する複数の者の間でゲームを楽しむようなネットワークゲームシステムなどでも発生する。
【0013】
そこで、この発明はこのような従来の課題を解決したものであって、特に表示装置が複数使用されている場合でも、それらに表示されている静止画情報を漏れなく記録し、再生する場合であっては全ての静止画情報を同じ画面に表示できるようにすると共に、現に使用している静止画情報を拡大表示できるようにした再現性および視認性の優れた情報作成方法、情報作成装置およびネットワーク情報処理システムを提案するものである。
【0014】
【課題を解決するための手段】
上述の課題を解決するため、請求項1に記載したこの発明に係る情報作成方法では、動画・音声入力装置からの動画・音声情報に同期して、複数の表示装置に表示された静止画情報が記録され、記録されたこれら情報を再生するための編集を行うに当たり、
上記複数の静止画情報を同一画面に同時に再生表示できるように、上記表示装置の数に応じて再生画面の表示パターンを選択するステップと、
上記表示パターン内に表示されたアイコンを指示することで、その表示パターン内に表示された静止画情報を拡大して再生するステップとを有することを特徴とする。
【0015】
請求項7に記載したこの発明に係る情報作成装置では、動画・音声入力装置からの動画・音声情報と、複数の表示装置からの静止画情報をそれぞれ記録する情報記録手段と、
入力した複数の静止画情報についての属性情報をリスト化する再生管理リスト作成手段と、
上記再生管理リスト作成手段からの属性情報に基づいて上記複数の静止画情報を表示画面上に同時に表示できる表示パターンを選択しながら、上記動画・音声情報と静止画情報を再編成する編成手段と、
これら複数の手段を制御する制御手段とで構成されたことを特徴とする。
【0016】
さらに請求項13に記載したこの発明に係るネットワーク情報処理システムでは、入力操作機能を有すると共に、任意の情報を処理する一以上の情報処理装置と、
少なくとも上記情報処理装置から転送された情報に基づいて映像を表示する表示装置と、
上記情報処理装置からの入力操作指示に基づいて上記表示装置における表示処理を含むネットワーク情報処理を支援する情報処理支援装置と、
上記情報処理支援装置と上記情報処理装置とを接続する通信手段と、
上記情報処理装置から転送される情報以外の映像および音声を入力する動画・音声入力装置と、
上記情報処理装置および上記動画・音声入力装置から転送される情報を、上記情報処理装置からの指示にしたがって記録すると共に、これをネットワークを介して通信できるコンテンツとして再編成する情報作成装置とを備え、
この情報作成装置は、
動画・音声入力装置からの動画・音声情報と、複数の表示装置からの静止画情報をそれぞれ記録する情報記録手段と、
入力した複数の静止画情報についての属性情報をリスト化する再生管理リスト作成手段と、
上記再生管理リスト作成手段からの属性情報に基づいて上記複数の静止画情報を表示画面上に同時に表示できる表示パターンを選択しながら、上記動画・音声情報と静止画情報を再編成する編成手段と、
これら複数の手段を制御する制御手段とで構成されたことを特徴とする。
【0017】
この発明では、動画・音声情報と静止画情報の双方を記録する。静止画情報は複数の表示装置で表示されているときは、その全ての表示装置で表示されている情報である。これらの情報の記録と同時に、動画・音声情報に対する静止画情報の再生管理リストを作成する。
【0018】
再生管理リストは、静止画情報のファイル名、表示装置への表示開始時間などの時間管理情報、表示装置の識別情報などであり、このリストによって何時、どの表示装置からどのようなファイル名で表示されたのかを時系列的に把握することができる。
【0019】
そして、記録終了時にこれらの情報をネットワークを介して再生できるコンテンツ(HTML形式)に再編成する。さらに、使用されている表示装置の数に応じて1画面に表示する表示パターン(画面分割パターン)を決定する。
【0020】
再生モードのときには、再生管理リストに基づいて決定した表示パターンに応じたその分割画面に全ての静止画情報が嵌め込まれて表示される。これとは別の固定の表示エリアに動画・音声情報が表示される。こうすることで、特定の静止画情報のみが再生されるような問題がなくなる。
【0021】
ネットワーク会議の場合には、全てのビデオプロジェクタで使用されているプレゼンテーション資料を同時に同一画面に分割表示できるから、プレゼンテーション資料を欠如することなく会議コンテンツを作成、表示できる。
【0022】
そして、現に表示されている静止画情報に対して拡大表示の指示がなされたときには、その静止画情報を拡大表示する。例えば、表示装置が1つだけ使用されているときに表示される表示パターン(最大表示パターン)を選択して拡大表示する。こうすることで、静止画情報の内容が見やすくなり、視認性が改善される。静止画情報が新たなものに切り替えられて表示されたときには、更新されたこの新しい静止画情報も拡大表示される。
【0023】
【発明の実施の形態】
続いて、この発明に係る情報作成方法、情報作成装置およびネットワーク情報処理システムの一実施形態を図面を参照して詳細に説明する。以下には、説明の都合上、ネットワーク会議システムに適用した場合を実施の形態として説明する。
【0024】
ネットワーク電子会議システムは、電子的に作成されたプレゼンテーション資料を表示装置であるプロジェクタなどに転送して、その資料を拡大表示しながら会議を進行するシステムである。そのため、プレゼンテーション資料を管理する情報処理装置としてのコンピュータ(パーソナルコンピュータ)を備えると共に、プレゼンテーション資料を表示装置に転送するためなどに使用される情報処理支援装置(パーソナルコンピュータ構成)などが備えられてシステム全体が構築される。
【0025】
図1はこのネットワーク電子会議システム100の要部の構成例を示す。このシステム100は、上述したようにプレゼンテーション資料(ファイルデータ)を保存し管理している情報処理装置(以下クライアントPC(Client PC)という)2、プレゼンテーション資料や書画カメラから取り入れたプレゼンテーション資料を投影表示するためのプロジェクタなどを使用した表示装置(以下プロジェクタという)4を有する他、クライアントPC2とプロジェクタ4の間のデータ授受やデータ加工などを支援するパーソナルコンピュータで構成された情報処理支援装置(以下コミュニケータ(Communicator)という)3を備えている。
【0026】
クライアントPC2によってコミュニケータ3が制御され、このコミュニケータ3を介してビデオプロジェクタ4の表示映像がコントロールされる。そのため、コミュニケータとプロジェクタ4との間はRGBケーブルなどで接続されている。
【0027】
クライアントPC2とコミュニケータ3との間は通信手段(ネットワークアダプタ)2aによって結ばれている。通信手段2aは無線による場合と有線による場合が考えられるが、この実施の形態では無線を通信手段として採用している。
【0028】
そのため、クライアントPC2とコミュニケータ3の双方には、これらの間を接続する通信手段として無線LANカード(ネットワークインタフェースカード)2aが装備されている。もちろん無線通信の場合であっても、無線LANカードを使用する他に、アクセスポイント(図示はしない)を使用し、このアクセスポイントを経由して相互に通信を行うように構成することもできる。
【0029】
このネットワーク電子会議システム100にはさらに、会議室の模様を映像および音声として記録し、さらにその会議で使用したプレゼンテーション資料を記録して、会議の議事録(会議コンテンツ)を作成する情報作成装置(以下クリエータ(Creator)という)1がLANによって結ばれている。クリエータ1には動画入力装置としてのビデオカメラ5aと、音声入力装置としてのマイク5bが接続されている。この動画・音声入力装置5はこの例ではクリエータ1に直接接続され、そしてクライアントPC2からの指示にしたがってその動作モードが制御できるように構成されている。
【0030】
コミュニケータ3およびクリエータ1はこれら相互間の通信およびインターネットなどのネットワークを介して遠隔地間に設置された会議室同士での会議を遂行できるようにするため、この例ではクリエータ1とコミュニケータ3のそれぞれは同一セグメントのグローバルIPアドレスを保有する。セグメントが異なるグローバルIPアドレスであっても相互通信には支障を来さない。
【0031】
電子会議システムにはさらに情報保存装置としてのサーバ6がLAN経由で接続され、このサーバ6で会議コンテンツなどを一括して保存、管理できるようにしている。
【0032】
クライアントPC2は電子会議用アプリケーションソフトウエアがインストールされている。そして1つの会議システムの中では、最大16台まで使用することが可能である。複数のクライアントPCを使用するとき、それぞれには固有のプライベートIPアドレスが設定される。
【0033】
複数台のクライアントPC2を使用する場合、その会議室内での閉ざされた環境を作り、外部から不特定第三者が会議に参加したり、会議内容を閲覧できないように秘匿性のある会議システムを構築するため、共通のパスワードが設定される。
【0034】
このパスワードは最初の会議参加者が自由に設定することができ、残りの会議参加者はそのパスワードを入力することでこの会議システムに参加することができる。
【0035】
会議参加者のうちの1人がプレゼンテーション資料をクライアントPC2からコミュニケータ3に無線LANカード2a経由で転送しプロジェクタ4で表示して、プレゼンテーションする権利を獲得する。クライアントPCのファンクションキーを操作するだけで、プレゼンテーションする権利を放棄し、別の会議参加者にプレゼンテーションする権利を委譲することができるので、会議参加者の全てがプレゼンターとしての資格を保留している。
【0036】
会議参加者の残りのうちの1人がクライアントPC2を用いてクリエータ1に対する記録、再生等の動作モードを制御することができるように構成されている。つまり、この残りのうちの1人が会議の議事録用の資料作りを行う権利を獲得することになる。
【0037】
次に、ネットワーク電子会議システム100の各構成部分について説明する。
【0038】
1つの会議室の中には1台のプロジェクタ4が設置され、したがって1台のコミュニケータ3によって電子会議システムが構築されるのが、最もシンプルな基本構成である。しかし、場合によっては複数台のプロジェクタ4を使用して会議を進行させた方が会議を効率的に運用できる場合がある。複数のプロジェクタに異なるプレゼンテーション資料を同時に表示してそれらを使用しながら説明を行う場合が多々考えられるからである。
【0039】
このような場合には、基本的にはプロジェクタ4の設置台数に応じてコミュニケータ3が配される。図1は3台のプロジェクタ4を使用した場合の構成例である。このように複数台のコミュニケータ3を使用する場合には、そのうちの1台をメインコミュニケータ(Main Communicator)3aとして使用し、残り2台はサブコミュニケータ(Sub Communicator)3b,3cとして使用する。
【0040】
この場合、クライアントPC2から送られてきたプレゼンテーション資料などはメインコミュニケータ3aが管理し、それぞれのサブコミュニケータ3b、3cを介して対応するプロジェクタ4b、4cで表示するような制御体系となっている。そのため、サブコミュニケータ3b、3cはプライベートIPアドレスを保有する。複数のコミュニケータ3a、3b、3cをそれぞれ独立させて制御することも可能である。
【0041】
メインコミュニケータ3aはまた、クライアントPC2から転送されたプレゼンテーション資料そのものと、そのプレゼンテーション資料のページを切り替えたときの属性情報(ページを切り替えた時間やページ情報など)を再生管理情報としてLANを介してクリエータ1に送ったり、クライアントPC2からの指示にしたがって、クリエータ1に記録されている情報を受信してクライアントPC2に配布するなどの機能を有する。
【0042】
図2はコミュニケータ3の構成を示している。図2に示すように、コミュニケータ3は、クライアントPC2からのプレゼンテーション資料の送受信を行うためのネットワークアダプタ30aを始めとして、処理プログラムを格納した記憶装置30b、ワーキング用のメモリ(Work用RAM)30c、CPU30d、およびプレゼンテーション資料をRGB信号で出力するためのディスプレイアダプタ30eとから構成されている。
【0043】
ネットワークアダプター30aは、この例では上述した無線LANカード2aが使用される。記憶装置30bにはコミュニケータ3を動作させるための基本ソフトウエア(電子会議用アプリケーションソフトウエア)やプレゼンテーション資料を処理する処理プログラムが格納されている。
【0044】
Work用RAM30cでは受信したプレゼンテーション資料を一時的に蓄積したり、その資料を加工処理したりするために使用される。プレゼンテーション資料はCPU30dの介在の下で、R、G、B信号に変換してからディスプレイアダプタ30eに供給される。プロジェクタ4はコミュニケータ3とRGBケーブルで接続されている。
【0045】
図3はクリエータ1の構成を示している。このクリエータ1は、プログラムを処理するCPU1aと、送受信した情報(動画や静止画などの情報)を処理するためのワークメモリ(この例ではハードディスクHDD)1bと、プレゼンテーション資料を始めとして動画・音声等の情報およびそれらを処理するための制御プログラムを記録する記憶装置1cと、コミュニケータ3と接続するためのネットワークアダプタ1dとで構成される。クリエータ1にはさらに動画・音声入力装置5から動画および音声情報を受信したり、これを制御したりするための映像・音声入力端子(I/Oインタフェース)1eを備えている。
【0046】
このクリエータ1は、上述したようにコミュニケータ3で表示されているプレゼンテーション資料に関する情報を記録する他、電子会議に出席した出席者の情報(IPアドレスや顔写真などの情報)などコミュニケータ3から転送される情報、さらには動画・音声情報などを記録する。そして、記録終了と共に会議の議事録とも言える会議コンテンツを自動的に生成する機能を有する。会議コンテンツの自動作成処理については後述する。
【0047】
クリエータ1および動画・音声入力装置5に対する制御は、上述したように複数のクライアントPCが存在する場合、その内の1台のクライアントPC2によって制御される。つまり書記役のクライアントPC(記録者用クライアントPC)2によって管理されることになる。
【0048】
書記役のクライアントPCとなるためには、クリエータ1に対する操作画面として使用されるコントロール(CONTROL)画面を開ければよい。コントロール画面を開けているクライアントPCがあると、残りのクライアントPCは記録者クライアントPCとはなり得ないように、コミュニケータ3では禁止フラグが立つようになっている。図4は記録者用クライアントPCの表示画面に表示されるGUI画面の一例を示す図である。
【0049】
この表示画面は縦分割された大凡3つの表示画面として構成され、その中央部にはクライアントPC側の基本画面が表示され、その右側には会議に参加している参加者に関する情報を表示した参加者画面が表示され、基本画面の左側にはクリエータ1をコントロールするコントロール画面が表示される。そして画面最下部には横長のメモ画面が表示される。
【0050】
基本画面の上部側には、電子会議システムに接続されている機器のアイコンが表示される。図ではクリエータ1のアイコン▲1▼、コミュニケータ3のアイコン▲2▼などが表示されている。また図では符号は付さないが、動画・音声入力装置5用のアイコンも表示されている。
【0051】
基本画面の下部側はファイルのリスト欄として使用され、ここにはクライアントPCに蓄積されているファイル名▲3▼が表示されている。
【0052】
参加者画面には、参加者の顔写真、参加者が所有しているクライアントPCのプライベートIPアドレスなどが表示される。
【0053】
コントロール画面は、その最上部が映像表示部となされ、ここにビデオカメラ5aで撮像された映像が動画として表示される。その中央部は帯状の表示エリアであって、ファンクションキーを含む複数のソフトキー操作部であり、その最下部が題名などの入力部となされている。ソフトキー操作部には、RECキー▲4▼、STOPキー▲5▼、PAUSEキー▲6▼の他に、記録中重要な映像個所にマークをつけるためのMARKキー▲7▼、メモ画面を開くためのMEMOキー▲8▼およびプロジェクタ4に表示されている静止画情報(プレゼンテーション資料)を保存するためのCAPTUREキー▲9▼などが表示されている。
【0054】
クライアントPC2からコミュニケータ3にログオンすると、その表示画面上には基本画面のみが表示される。ファイルリスト▲3▼中のファイルをコミュニケータ3のアイコンにDrug&Dropすることで、そのファイルデータ(プレゼンテーション資料)がコミュニケータ3に転送され、プロジェクタ4に表示されてプレゼンテーションすることができる。ただし、これはプレゼンターの資格を得たクライアントPC2側で操作した場合である。
【0055】
基本画面のAttendeeキーを押すと、図4のようにその右側に参加者画面が表示される。
【0056】
そして、クリエータアイコン▲1▼を右クリックすると、図5に示すようなメニュー画面が表示され、そのメニュー画面の中から「コントロール」を選択すると、図4に示すコントロール画面が表示される。コントロール画面の中からMEMOキー▲8▼を操作すると、図4の画面位置にメモ画面が表示され、ここに文章などを入力できる。メモ画面は4〜6行分のスペースがとられている。
【0057】
図5に示すメニュー画面より「コンテンツマネージャー」を選択すると、クリエータ1に保存されている会議コンテンツ用リストメニュー(クリエータ・コンテンツ・マネージャー画面)が表示される。
【0058】
図6はこのクリエータ・コンテンツ・マネージャー画面の表示例を示す。この画面には、クリエータ1内に保存されているコンテンツリスト▲1▼が表示される他、選択されたコンテンツリストに対する動作モード選択用のソフトキーが表示される。実施の形態では、選択されたコンテンツを再生するReviewキー▲2▼、選択されたコンテンツをクライアントPC2に転送するクライアント転送キー(Download to My Computerキー)▲3▼、選択されたコンテンツをサーバに転送するサーバ転送キー(Upload to Serverキー)▲4▼、選択されたコンテンツの詳細情報を見るための詳細キー(Show Contents Informationキー)▲5▼、選択されたコンテンツを消去するためのDeleteキー▲6▼などが表示されている。
【0059】
上述したネットワーク電子会議システム100、特に図1に示すシステムの態様は1つの会議室内だけでネットワークを構築した場合の電子会議システムであるが、これ以外でもネットワーク電子会議システムを構築できる。
【0060】
図7に示すネットワーク電子会議システム200は、複数例えば二つの会議室を利用してプレゼンテーションを行いながら会議を進行する場合に適用されるシステムである。
【0061】
この場合の会議室AもBもシステム構築は同一な場合が多いが、そうでない場合もある。図7はその実施の形態を示す。会議室A内のシステムには、クリエータ1、クライアントPC2,コミュニケータ3、コミュニケータ3に接続されたプロジェクタ4および動画・音声入力装置5が備えられている。プロジェクタは3台である。したがってコミュニケータ3も3台設置されている。通信手段は無線LANカード2aが使用される。
【0062】
会議室Bのシステムも同様に構成されているが、この実施の形態では1台のプロジェクタ4のみが装備されているので、コミュニケータ3は1台設置されている。また会議室Bではアクセスポイント2bを介してクライアントPC2とコミュニケータ3などの間で通信を行うようにした場合である。
【0063】
二つの会議室A,Bの間はLANで接続されている。会議室B側のクライアントPC2を使用して、アクセスポイント2b経由で会議室Aでのプレゼンテーションに参加することが可能である。
【0064】
この場合、例えば会議室Aのプレゼンターがプレゼンテーション資料を会議室A内のコミュニケータ3に転送してメインコミュニケータ用のプロジェクタ4でその資料を表示した場合には、会議室Bのコミュニケータ3にも同じプレゼンテーション資料が転送され、そのプロジェクタ4に転送された資料が表示される。
【0065】
そして、マウスなどで表示画面上のポインタを動かしたときには、会議室B側でもそれと同じ位置にポインタが表示されるように相互の表示が制御される。つまり会議室AとBとはミラー表示構成となっている。
【0066】
会議室Bから資料を会議室A側に転送する場合も同じである。ただし、会議室Bにはプロジェクタが1台しか設置されていないので、このような場合には会議室Aのサブコミュニケータ3b、3cは使用されない。
【0067】
図8に示す実施の形態は、遠隔2地点の各会議室の間でプレゼンテーションを行う場合のネットワーク電子会議システム300に適用した場合である。
【0068】
このシステム300は、会議室AとBがLANで結ばれ、会議室A,Bと遠隔地点の会議室Cとはネットワークによってその通信回線が接続されている場合を示す。会議室A、B、Cのそれぞれには図1あるいは図7で説明したシステムがそれぞれ構築されているものとする。したがって個々の構成についての詳細は割愛する。クリエータ1およびサーバ6は共通に1台設置してあれば十分である。
【0069】
この場合も、会議室A、B、Cのコミュニケータ3の間の通信で各会議室のプロジェクタ4でプレゼンテーション資料のミラー表示が実現されているので、会議参加者は同時に同様の表示資料を見ながら会議に参加できる。また、遠隔地間であってもマウスの動きに応じて、同じ表示画面にポインタを同期して表示することが可能である。
【0070】
次に、上述したネットワーク電子会議システムの100の動作を図9を参照して説明する。
【0071】
まず、ステップS1で、会議参加者のクライアントPC2を用いて電子会議用アプリケーションソフトウエアを起動し、コミュニケータ(若しくはメインコミュニケータ)3にログオンする。
【0072】
この場合、最初の会議参加者がパスワードを設定し、それ以降の参加者はそのパスワードを入力することでその会議に参加することができることは既に説明した。パスワードは予めその電子会議システムに決められた固有の値ではないので、パスワードを忘れたり、間違って電子会議システムを起動できないような不都合な問題をなくすことができる。
【0073】
ステップS2で、会議参加者がクリエータ1の操作画面であるコントロール(CONTROL)画面を開くと、そのクライアントだけが記録者クライアントPCとなる(図4参照)。
【0074】
クライアントPC2のGUI画面上で、クリエータ1のアイコン▲1▼(図4参照)を右クリックし、表示されたメニューから「コントロール」を選択すると、コントロール画面が表示される。(図4参照)
ステップS3で、コントロール画面のRECキー▲4▼(図4)を押すと、動画・音声入力装置5が起動されて会議の映像記録を開始する。
【0075】
また、コントロール画面でメモキー▲8▼(図4)を押すと、図4のようなメモ画面が開きテキストの入力が可能になる。SENDキーを押すと、入力したテキストがクリエータ1内に取り込まれる。
【0076】
ステップS4で、クライアントPC2のファイルリスト▲3▼からプレゼンテーション資料を表示したいプロジェクタ4のアイコン▲2▼にドラッグ&ドロップすると、このプレゼンテーション資料がクリエータ3に転送され、プロジェクタ4の画面上にファイルリストで選択されたこのプレゼンテーション資料が表示される。これと同時にこのプレゼンテーション資料およびページ切り替え情報などがクリエータ1内のハードディスクに保存される。
【0077】
ステップS5で、記録を終了する時は、コントロール画面でSTOPキー▲5▼を押す。その際、記録者側クライアントPC2には図10に示すような保存確認画面が表示される。保存処理以外はその内容が消去される。保存操作を行うと、ステップS6で会議コンテンツが自動的に生成される。つまり、このステップS6では、コミュニケータ3からの静止画情報と動画・音声入力装置5からの動画・音声情報を基に会議コンテンツが生成される。この会議コンテンツはインターネットのようなネットワークを介して参照できるようにするため、ファイルデータはHTML形式のファイルデータに変換される。
【0078】
ステップS7で、会議コンテンツの生成が完了すると、クリエータ・コンテンツ・マネージャー画面が表示され、クリエータ1内に保存されている会議コンテンツを確認することができる(図6参照)。
【0079】
ステップS8で、このクリエータ・コンテンツ・マネージャー画面から見たい会議コンテンツを選択することで、その内容を再生できる。内容が確認されたコンテンツはサーバ(Server)6に転送することで保存される(ステップS9)。
【0080】
また、ステップS8で、会議コンテンツを再生し、その内容を編集したいときには、ステップS10で、クリエータ・コンテンツ・マネージャー画面を操作することで、その会議コンテンツをクライアントPC側に転送して、既知の編集ソフトで編集することができる。編集後のサーバコンテンツはサーバ6に転送して保存される(ステップS9)。
【0081】
記録者であるクライアントPC2からはサーバ6上の会議コンテンツを再生することができる(ステップS11)。図11は、コンテンツ再生画面の一例である。
【0082】
コンテンツ再生画面は、図示するように会議の模様を映像記録した動画再生部が左上部に位置し、そしてその会議で使用した静止画情報であるプレゼンテーション資料の静止画再生部がその右半分に位置するように分割表示され、これらが同一表示画面上で同時に表示できるような画面構成となっている。
【0083】
そのため、プレゼンテーション資料用の静止画再生部は、1つの会議室に設置されるプロジェクタの最大数によってその表示パターンが相違する。実施の形態では3台までプロジェクタが接続できる構成であり、最大三枚のプレゼンテーション資料が表示される場合があるので、静止画再生部の再生画面構成は最大4分割できる表示パターンとなっている。
【0084】
この表示パターンはテンプレート化されており、プロジェクタの使用台数に応じてテンプレート化された表示パターン(テンプレート1〜3)が選択される。図11はテンプレート3の表示パターンの場合であり、プロジェクタが3台使用されたときの表示例である。静止画P1はプロジェクタ4aで表示された資料▲5▼であり、同様に静止画P2、P3はプロジェクタ4b、4cを用いて表示された資料▲5▼である。コンテンツ再生時には時間経過に合わせてこの静止画再生部に表示される資料▲5▼が自動的に切り替わる。テンプレート1および2の表示パターンの詳細は後述する。
【0085】
動画再生部には、上述した会議の映像や音声のみを示すシンボルマークが表示される他に、その映像表示部の真下には横軸(水平方向)を再生時間軸として動画の再生時間を示すマークSMが表示される。
【0086】
このマークSMをマウスでクリックすることで、このマークSMをその再生時間軸上の任意の位置にシフト(シーク)できる。そしてシークした位置に動画の再生時間軸がシフトし、この再生時間軸から動画がノーマル再生が再開されるので、このマークSMはシークマークとしても機能する。
【0087】
そしてシークした再生時間軸に同期して静止画情報であるプレゼンテーション資料も再生される。したがってこの再生時間軸に一致したプレゼンテーション資料が対応する表示エリアに表示される。
【0088】
マークSMの表示位置のさらにその下側の表示部は2段に分かれ、プロジェクタで表示したプレゼンテーション資料が最大6枚までサムネイル表示される。複数台のプロジェクタを使用しているときは選択された1台のプロジェクタに表示された資料がサムネイル表示される。
【0089】
任意のサムネイルを選択すると、上に表示された動画もこれに同期して、そのサムネイルが表示された時間軸までシフトし、その時間軸からノーマル再生される。
【0090】
このサムネイル表示▲2▼に代えて上述したマーク表示▲4▼に切り替えることができる。サムネイル表示とマーク表示の切り替えはView切り替え部▲1▼で選択する。
会議中にコントロール画面のMARKキー▲7▼を押した順に、編集処理時に付された題名(題名が無い場合は「Untitled」になる)と時間が表示される。そしてマーク表示欄▲4▼の題名をマウスでクリックすると、上に表示された動画もこれに同期してその時間軸までシフトして、ノーマル再生となる。これによって常に動画と静止画(プレゼンテーション資料)との同期が取られて表示されることになる。
再生時には時間経過に合わせて表示がそれぞれ切り替わる。
【0091】
上述した静止画再生部の各表示画面の下側には、画面の拡大表示キー▲6▼があり、これが選択されたときには表示されている静止画が、最大表示パターンに切り替えて表示(オリジナルサイズ表示)される(図18参照)。
【0092】
続いて、図12および図13のフローチャートを参照しながら、クリエータ1の記録時の動作を説明する。
【0093】
クライアントPC2からの記録指示にしたがってクリエータ1は動画の記録を行うと共に、コミュニケータ3から送られてくるプレゼンテーション情報を記録、保存する。プレゼンテーション資料としては、静止画そのもの、資料作成ソフト(プレゼンテーションソフト)例えば、power pointを使用して作成された資料、PDF(Potable Document Format)形式で作成された文章表示ファイル、GIF(Graphic Interchange Format)形式で作成された画像データ、表計算ソフトで作成されたファイルデータなど様々なデータなどを含むものとする。
【0094】
図12から説明する。まずクライアントPC2のコントロール画面を利用してRECキー▲4▼を押すと、動画の記録を開始する(ステップS21)。
【0095】
次に、ステップS22で、コミュニケータ3からの情報を監視する。
この情報としては、プレゼンテーション資料を転送したとき、転送した資料のページを切り替えたときなどの他に、ページは切り替えられていないがスクロールなどによって表示画面が変わったようなときにキャプチャーキーの操作情報なども含むものとする。
【0096】
例えば図14に示すように、プレゼンテーション資料として転送されたファイルデータ量が多く、プロジェクタ4ではその資料全体の情報を表示できないようなときには、最初に例えば上半分の資料Aをプロジェクタ4に表示し(時点ta)、次の適当なタイミング(時点tb)で、画面をスクロールして下半分の資料Bをプロジェクタ4に表示するような場合である。
【0097】
このようなプレゼンテーションでは、最初に転送されたファイル情報だけでは、プレゼンタが現にその説明として使用しているのがどの部分に当たるのか不明になり、説明と資料の内容とが食い違ってしまう。したがってこのような場合には、プロジェクタ4に表示されている現実の資料も会議資料として記録しておいた方が好ましい。
【0098】
このような場合には、記録者がコントロール画面の「CAPHURE」キーを押して、そのときにプロジェクタ4に表示されているプレゼンテーション資料を記録できるようにするのが好ましいので、コミュニケータ3から送られてくるこのようなキャプチャー情報も監視すべき情報のひとつである。
【0099】
次に、ステップS23で、コミュニケータ3から転送される静止画情報に対する属性情報を判別し、その属性情報が静止画ファイルであるときは、静止画ファイルである旨の属性情報を管理情報として管理リスト(再生管理リスト)に記述する(ステップS20)。
【0100】
以下同様に、ステップ24でメモに関する属性情報(テキストファイル)であると確認したときには、その旨の情報を再生管理リストに記述し(ステップ20)、またpower pointで作成されたファイルに関する属性情報であるときにはその旨を示す情報を記述する(ステップS25,S20)。
【0101】
入力した情報がこれら情報の何れでもないときには、その属性情報が表示の終了を示す情報であるかを判別し、表示終了情報であるときには、同じく再生管理リストにその情報を記述する(ステップS26,S20)。
【0102】
さて、図12のステップS20〜S26までで属性情報の判別が終了し、続いて静止画情報そのものの種別を判断するステップに遷移する。図13を参照して説明する。
【0103】
まずステップS27で転送された静止画情報が静止画ファイルであるときには対応するフォルダーに保存する(ステップS28)。
【0104】
電子会議システムの中でプロジェクタ4が3台使用されていたときには、プロジェクタ4aで使用された資料(静止画ファイル)はP1フォルダーへ、プロジェクタ4bで使用された資料(静止画ファイル)であるときはP2フォルダーへ、そしてプロジェクタ4cで使用された資料(静止画ファイル)はP3フォルダーにそれぞれコピーされる。
【0105】
このようにプレゼンテーションに使用されたプロジェクタに応じて保存すべきフォルダーを特定することで、会議コンテンツを再生するときに目的の表示テンプレートを使用してコンテンツ再生画面上に同時に複数のプレゼンテーション資料を再生表示することができるようになる。
【0106】
次に、ステップS29でメモファイルであると判断されたときには、このメモファイルをメモフォルダーに保存する(ステップS30)。転送された静止画情報がPower Pointファイルであるときには、ステップ32でこのPower Pointファイルを画像圧縮する。圧縮形式としてはインターネットなどのネットワークで多用されている例えばJPEG形式を利用できる。JPEGファイルに変換した新しいファイルに対してはユニークな名前を付けた上でイメージフォルダーに保存する(ステップS33)。ステップS32で圧縮処理待ちのときには、待ち行列に一時的に保存しておくことになる。
【0107】
以上のような属性情報の監視と、静止画情報の種別を判別しながら特定のフォルダーに保存する処理を、コミュニケータ3から情報が入力するタイミングで繰り返される(ステップS22)。
【0108】
さて、図12で説明したコミュニケータ3から送られてくる属性情報としては、
A)Power Pointの表示ページ(表示の開始時間、ページ変えしたときのページ情報、プロジェクタ番号など)
B)JPEGファイルのファイル名(表示の開始時間、プロジェクタ番号を含む)
C)GIFファイルのファイル名(表示の開始時間、プロジェクタ番号を含む)
D)全ての表示終了。
などが考えられる。これに基づいて、再生管理リスト(データベース)が作成される。
【0109】
図15に再生管理リストの一例を示す。ここに、表示開始時間は、静止画、メモの表示開始時間や動画の頭からの相対時間である。
【0110】
機能コードは、11 = 静止画表示場所(プロジェクタ1〜3に対応した場所
P1〜P3)に静止画を表示。
12 = メモ画面にメモを表示。
13 = 静止画表示部(P1〜P3)の静止画表示を消す。
14 = メモ表示を消す。
を表している。ファイル名は、表示するファイルの名前である。Power PointファイルをJPEGに変換すると、例えば以下のフォーマットで名前が付けられる。
変換した時間_ページ番号.jpg(変換した時間=YYYYMMDDhhmmss)
【0111】
続いて、以上のようにして記録された動画・音声情報と静止画情報は記録終了と共にその会議の議事録として使用される会議コンテンツに自動的に再編される。この会議コンテンツはWeb Viewerで検索、視聴可能なコンテンツとして生成される。図16および図17を参照しながら説明する。
【0112】
図16はコンテンツ生成時のフローチャートである。クリエータ1側の記録を終了させるときは、コントロール画面でSTOPキー▲5▼を押す。記録終了と同時にコンテンツ生成処理がスタートし、まずPower Pointファイルがあるときには、このファイルのJPEGファイル変換終了を確認する(ステップS40)。
【0113】
JPEGファイルへの変換終了を待って、ステップS41でイメージフォルダーから必要なJPEGデータのみ対応するP1フォルダ〜P3フォルダーにコピーする。同じプロジェクタを使用しているときはJPEG変換ファイルも同じフォルダーにコピーするためである。
【0114】
ステップS42で再生管理リストをJPEGのファイル名に書き換えて拡張子を揃えておく。次のステップS43で会議コンテンツとして保存するかどうかを確認する(図10参照)。
【0115】
ステップS50で保存しない旨の指示があったときには、ファイルデータ全体を除去するかを確認し、そうであるときにはステップS51で記録したデータを全て削除し、コンテンツ生成処理を中止する。
【0116】
これに対してファイルを保存する処理が選択されたときには、ステップS44で保存されたデータのうち、動画・音声入力装置5から送られてきた情報が音声のみか、動画と音声を共有するかを確認する(ステップS44)。これは音声のみと、動画と音声を共有する場合では以後の処理が相違するからである。
【0117】
動画と音声を共有している場合から説明すると、この場合にはステップS45でプレゼンテーションに使用したプロジェクタの台数をチェックする。複数台でない、即ちプロジェクタを1台使用した場合には、コンテンツ表示用のテンプレートつまり表示パターンとしてテンプレート1を選択する(ステップS45a)。
【0118】
プロジェクタを2台使用したときには表示用テンプレート2を選択し(ステップS46、S46a)、3台のときには表示用テンプレート3を選択する(ステップS46,S46c)。
【0119】
このようにプロジェクタ4の使用台数に応じて表示用テンプレートを選択した上でコンテンツ画面として再生表示すれば、プロジェクタの使用台数に拘わらず、常に使用台数分のプレゼンテーション資料を動画と共に、同時に再生表示できる。その結果、複数台同時にプレゼンテーション用として使用したとき、一部のプロジェクタで使用したプレゼンテーション資料を会議コンテンツとして再生できなくなるような不都合な問題を確実に一掃できる。
【0120】
ここで、表示用テンプレートとしてテンプレート1を選択したときの静止画再生部での表示サイズは、図18にその一例を示すように最も大きな表示サイズとなる。これに対してテンプレート2を選択したときは、2台のプロジェクタからの静止画情報を同時に画面に表示する関係で、図19に示すように上下2段に亘って表示される。したがって表示サイズは少し小さくなる。そして3台使用したときには図11に示すような表示パターンとなる。図11は画面のアスペクト比を4:3としたときの表示例である。因みに、この実施の形態では最少表示サイズは、320×240ピクセル表示である。
【0121】
次に図17のステップS47に示すように、選択したテンプレートに合わせてHTMLファイルが作成されるが、その前に音声のみの場合の処理も行われる。
音声のみの場合には、動画再生部に会議の映像ではなく、音声のみを示すシンボルマークが表示されるだけで、使用するプロジェクタの台数に応じたテンプレートが選択される。したがってステップS55、S55a、S56,S56a、S56bで選択されるテンプレートの態様は動画・音声共有の場合と同じであるので、その詳細説明は割愛する。ここに、テンプレート4はテンプレート1に対応し、テンプレート5,テンプレート6はそれぞれテンプレート2,テンプレート3に対応する。因みに、3台のプロジェクタを使用したときの会議コンテンツの再生画面の一例を図20に示す。
【0122】
このようにして表示用テンプレートが決まった動画・音声若しくは音声のみのデータは上述したステップS47でそのテンプレートにあった状態でHTMLファイルに変換される。
【0123】
その後ステップS48で、データ全てつまり、動画・音声データを含めて、再生管理リストのJPEGデータ、静止画ファイルデータ(JPEGデータ)、power pointファイルのJPEGデータ、テキストデータの全てがコンテンツ保存場所にコピーされる。その後クリエータ1のワークメモリであるハードディスク1bに確保しておいたワークエリアを削除して会議用コンテンツの自動作成処理が終了する(ステップS49)。
【0124】
次に、会議コンテンツの再生動作を図21および図22のフローチャートを参照して説明する。
【0125】
メニューを選択して図6に示したクリエータ・コンテンツ・マネージャー画面を開く。そして見たい会議コンテンツを指示してReviewキー▲2▼を押すと、Webブラウザ(例えばInternet Explorer)が開き、HTMLファイルにしたがってフレーム単位でファイルの中味が表示される(ステップS60)。
【0126】
ステップS61で、データが音声のみの場合には、ステップS62で動画表示位置に音声のみを示すシンボルマークを表示する(図20参照)。そして音声を再生する(ステップS64)。動画がある場合には、ステップS63で動画表示位置に動画(会議映像)を再生する。
【0127】
その後、ステップS65で再生時間を監視し、動画または音声の再生が最後ではないときには(ステップS66)、図22に示すようにその再生時間に一致する静止画情報(HTML形式にファイルデータ)が存在するかどうかを確認する(ステップS68)。
【0128】
動画などの再生時間に一致するファイルデータがある場合で、それが静止画ファイルであるときには、該当する時間の静止画ファイルを指定された表示エリアP1〜P3に表示する(ステップS69,S70)。そのファイルデータがテキストファイル(メモ情報)であるときには、該当する時間にメモの表示エリアに表示する(ステップS72)。
【0129】
また、画像の表示だけでなく、その消去も監視する。再生管理リストに静止画やメモを消す情報が存在するときには、その時間の到来を監視し、その時間に至ったときには、静止画であればその表示場所での表示を消す(ステップS73,S74)。またメモであればその表示場所での表示を消す処理を行う(ステップS75,S76)。
【0130】
このような表示管理処理および消去管理処理を動画若しくは音声の再生が終了するまで行い(ステップS66)、終了と共に会議コンテンツ再生処理モードが終了する。
【0131】
図22に示すフローチャートにおいて、静止画情報を画面に再生表示しているときに、拡大表示キーが押されたときには、拡大表示キーが押された画像を拡大表示する。これは図11のように表示されているときは全てのプロジェクタで表示されているプレゼンテーション資料を見ることができる反面、プレゼンテーション資料自体の内容まで確認できる大きさとはなっていない。そのようなとき現実にプレゼンテーションを行っている資料(過去のプレゼンテーション資料でもよい)を拡大して表示するのがこの拡大表示機能である。
【0132】
この場合には図22に示すフローチャートにさらに次のような処理が付加される。したがって図23は図22のステップS75の判断処理の終了から図21に示すステップS66に至るまでの間で処理される。
【0133】
図23に示すように再生表示されている静止画について拡大表示の指示があったときには(ステップS81)、別のウインドを開いて静止画をオリジナルサイズで表示する(ステップS82)。もちろん、表示パターンを決定する表示用テンプレートをテンプレート1に変更して静止画を表示することもできる。
【0134】
その後は拡大表示ウインド(オリジナルサイズウインド)を閉じる指示があるがどうかをチェックし(ステップS83)、ウインドを閉じる指示があったときには、そのウインドを閉じる処理を行う(ステップS84)。これで元の表示に戻る。
【0135】
ウインドを閉じる指示がないときには拡大表示を継続する。したがってこの状態で同じ場所に表示される静止画が切り替わったときには、更新されたその静止画が同じく拡大表示されることになる。
【0136】
ノーマル指示があったときには、当初のテンプレートに戻して静止画を表示する(ステップS84)。こうすれば、内容を確認したい静止画を任意に選択してこれを拡大表示できるようになる。
【0137】
また、図11に示したコンテンツ再生画面に表示されたマークSMをクリックしてシークさせると、上述したようにシーク終了時点から動画がノーマル再生され、これに同期してプレゼンテーション資料も対応する表示位置に表示されることを説明した。
【0138】
このような同期再生処理を行うための一例を図24のフローチャートを参照して説明する。この処理手順は図22の例えばステップS75のメモ消去処理を監視した後、図21の処理ステップS66に遷移するまでの間に挿入することができる。図23の処理手順が存在する場合にはこの処理手順が終了した後に図24の処理手順を挿入すればよい。
【0139】
まず、ステップS91でマークSMのクリックを監視し、マークSMがクリックされたときには、再生時間軸を管理しながらマークSMのシーク終了タイミングを監視する(ステップS92、S93)。シークが終了した再生時間軸から動画がノーマル再生される(ステップS94)。
【0140】
そして、シークした再生時間情報と、再生管理リストに記録されているプレゼンテーション資料に関する時間管理情報とをシーク期間中、常に照合し続け、シーク終了時の時間管理情報に一致するプレゼンテーション資料を検索し、一致したプレゼンテーション資料が存在するときは、そのプレゼンテーション資料がシーク終了後の再生情報として選択される(ステップ95)。
【0141】
シーク終了タイミングが、あるプレゼンテーション資料の表示開始時間と次のプレゼンテーション資料の表示開始時間との間にあるときには、最初の表示開始時間であるプレゼンテーション資料が再生用のプレゼンテーション資料として選択される。
【0142】
例えばシーク終了時の再生時間が00時05分00秒であるとき、再生管理リストを参照すると、対応する時間管理情報の表示開始時間が00時04分00秒と、00時07分00秒にそれぞれプレゼンテーション資料が存在するときには、表示開始時間が00時04分00秒である最初のプレゼンテーション資料を再生用のプレゼンテーション資料として選択して再生表示することになる。
【0143】
こうすれば、再生時間軸上のどのような位置にマークSMをシフトさせても、その動画に同期したプレゼンテーション資料を確実に再生表示することができる。つまりシーク位置によってはプレゼンテーション資料を動画に同期して更新されなくなるような問題を一掃できる。
【0144】
上述実施の形態においては、この発明をネットワーク電子会議システムに適用したものであるが、これに限定されるものではない。例えば、冒頭でも説明したようなネットワーク教育システム、ネットワークゲームシステム等にもこの発明を同様に適用できる。
【0145】
【発明の効果】
以上説明したようにこの発明では、動画・音声情報と静止画情報の双方を記録するに当たり、静止画情報は複数の表示装置で表示されているときは、その全ての表示装置で表示されている情報を記録し、動画・音声情報に対する静止画情報の再生管理リストを作成し、この再生管理リストを利用してコンテンツの再編成や再生処理の表示パターンなどを管理すると共に、再生されている静止画情報を拡大表示できるようにしたものである。
【0146】
これによれば、動画・音声情報とプレゼンテーションなどで使用した静止画情報を同一次元で管理できる特徴に加えて、再生管理リストによって何時、どの表示装置からどのようなファイル名で表示されたのかを時系列的に把握することができる。そのため、HTML形式などで表現されたコンテンツを再生する場合でも、同一画面に再生すべき表示パターンを簡単に選択できるから、分割画面に全ての静止画情報を漏れなく嵌め込んで表示できる。
【0147】
こうすることで、特定の静止画情報のみが再生されるような問題がなくなり、実際に行われた会議に近い状態を再現できる。したがって、ネットワーク会議のような場合には、全てのビデオプロジェクタで使用されているプレゼンテーション資料を同時に同一画面に分割表示できるから、プレゼンテーション資料を欠如することなく会議コンテンツを作成、表示できる特徴を有する。
【0148】
さらに、この発明では表示画面に表示されている1つの静止画情報を拡大表示できるので、その内容が見やすくなり、視認性を改善できる。
【0149】
したがってこの発明は、ネットワークを利用して会議をしたり、授業や講義を行ったり、ゲームを楽しんだりするネットワーク会議システム、ネットワーク教育システム、ネットワークゲームシステムなどに適用して極めて好適である。
【図面の簡単な説明】
【図1】ネットワーク情報処理システムをネットワーク電子会議システムに適用したときの構成を示す図である。
【図2】情報処理支援装置として機能するコミュニケータの構成を示す図である。
【図3】情報作成装置として機能するクリエータの構成を示す図である。
【図4】情報処理装置として機能するクライアントPCの表示画面を示す図である。
【図5】クリエータのメニューが表示される状態を示す図である。
【図6】コンテンツマネージャ画面を示す図である。
【図7】ネットワーク電子会議システムの他の例を示す図である。
【図8】ネットワーク電子会議システムの他の例を示す図である。
【図9】システム動作のフローチャートである。
【図10】コンテンツ保存確認画面を示す図である。
【図11】コンテンツ再生画面を示す図である。
【図12】クリエータの記録動作のフローチャートである(その1)。
【図13】クリエータの記録動作のフローチャートである(その2)。
【図14】ファイル転送と実際の表示画面例を示す図である。
【図15】再生管理リストの例を示す図である。
【図16】クリエータのコンテンツ生成動作のフローチャートである(その1)。
【図17】クリエータのコンテンツ生成動作のフローチャートである(その2)。
【図18】プロジェクターを一台利用した場合のテンプレートを使用した表示パターンを示す図である。
【図19】プロジェクターを二台利用した場合のテンプレートを使用した表示パターンを示す図である。
【図20】音声のみのときでプロジェクタを三台使用したときのテンプレートを使用した表示パターンを示す図である。
【図21】クリエータのコンテンツ再生動作のフローチャートである(その1)。
【図22】クリエータのコンテンツ再生動作のフローチャートである(その2)。
【図23】拡大表示のための一部のフローチャートを示す図である。
【図24】シーク処理例のための一部のフローチャートを示す図である。
【符号の説明】
1・・・情報作成装置(クリエータ)、1a,30d・・・CPU、1b,30c・・・Work用RAM、1d,30a・・・ネットワークアダプタ、1e・・・映像・音声入力端子、2・・・情報処理装置(クライアントPC)、2a・・・通信手段(無線LANカード),2b・・・アクセスポイント、3・・・情報処理支援装置(コミュニケータ)、30e・・・ディスプレイアダプタ、4・・・プロジェクター、5・・・動画・音声入力装置、5a・・・ビデオカメラ、5b・・・マイク、6・・・サーバ、100,200,300・・・ネットワーク電子会議システム
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information creation method, an information creation device, and a network information processing system. Specifically, when multiple display devices are used for moving image / audio information from the moving image / audio input device, a plurality of still image information displayed on each display device is recorded in synchronization with the moving image / audio information. Furthermore, by generating playback content from them, even when a plurality of still image information is provided from a plurality of display devices, the still image information can be displayed at the same time. -The still image information reproduced in synchronization with the audio information is enlarged and displayed so that the content of the still image information can be easily seen.
[0002]
When the network information processing system according to the present invention is applied to an electronic conference system or the like, even when a presentation material is displayed using a plurality of video projectors and the conference is proceeding, the video information is displayed on the plurality of video projectors. It is possible to record multiple presentation materials, and when reproducing the contents, these presentation materials can be displayed on the same screen in synchronization with the progress of the meeting, and are currently used at that time. The presentation material is enlarged to make it easier to see.
[0003]
[Prior art]
As an information processing system performed via a network, a network electronic conference system (network conference system), a network education system, a network game system, etc. can be considered.
[0004]
Among these, for example, in a network conferencing system, a conference pattern is taken by a video camera, and materials used for presentation are provided to a conference person using a video projector or the like.
[0005]
When recording each of these pieces of information and later creating it as meeting minutes (meeting content), video / audio information that captures the pattern of a normal meeting and still picture information (presentation) used in the meeting It is usually stored separately from the presentation material used for This is because the conference organizer manages the video / audio information recording the conference pattern, and the presentation material is often managed by the person who made the presentation (presenter). Then, a conference participant who is instructed by the conference organizer later creates a meeting minutes as electronic data (conference content) using these separately stored information.
[0006]
[Problems to be solved by the invention]
As described above, it is troublesome to create conference contents using separately managed video / audio information and presentation materials. In addition to this, the following problems are also derived.
[0007]
When a meeting is performed, the number of video projectors used is not limited to one. In many cases, conferences are carried out using several video projectors and adding explanations while displaying separate presentation materials.
[0008]
If there is only one video projector, review the insertion timing of the presentation material while playing the video / audio information recorded on the day, and if appropriate, insert the presentation material into the video / audio information. By repeating, the minutes of the day's meeting can be created electronically.
[0009]
However, when a conference is in progress using multiple video projectors and displaying presentation materials on each of them, it is unclear which presentation material is used in which scene. .
[0010]
In addition, even if the timing of using presentation materials is known, there are many cases where it is not possible to accurately determine at what timing the presentation materials should be combined with video / audio information. Since this new presentation material is inserted instead of the previous presentation material, the previous presentation material disappears. However, in actual meetings, meetings are often performed using both materials. Therefore, the same state as the actual conference cannot be reproduced in the conference content as the minutes.
[0011]
This conference system is not only performed in one conference room, but also a plurality of conference rooms are electronically connected via a network to advance a conference, or a remote conference room (for example, a head office, a branch office, The same problem is caused when connecting multiple sites (factories, laboratories, etc.) via a network.
[0012]
Such problems include not only network conferencing systems, but also network education systems that use classes to provide classes and lectures at prep schools and sister schools, and games between multiple people who are staying at remote locations. It also occurs in enjoyable network game systems.
[0013]
Therefore, the present invention solves such a conventional problem, particularly in a case where still image information displayed on them is recorded and reproduced without omission even when a plurality of display devices are used. In this case, all the still image information can be displayed on the same screen, and the currently used still image information can be enlarged and displayed. A network information processing system is proposed.
[0014]
[Means for Solving the Problems]
In order to solve the above-described problem, in the information creation method according to the first aspect of the present invention, still image information displayed on a plurality of display devices in synchronization with the moving image / audio information from the moving image / audio input device Is recorded, and when performing editing to reproduce these recorded information,
Selecting a display pattern of the playback screen according to the number of the display devices so that the plurality of still image information can be simultaneously played back and displayed on the same screen;
A step of enlarging and reproducing the still image information displayed in the display pattern by designating an icon displayed in the display pattern.
[0015]
In the information creation device according to the present invention described in claim 7, information recording means for recording the moving image / audio information from the moving image / audio input device and the still image information from the plurality of display devices,
Reproduction management list creation means for listing attribute information for a plurality of input still image information;
Organizing means for reorganizing the video / audio information and the still image information while selecting a display pattern capable of simultaneously displaying the plurality of still image information on a display screen based on the attribute information from the reproduction management list creating means; ,
It is characterized by comprising control means for controlling these plural means.
[0016]
Furthermore, in the network information processing system according to the present invention described in claim 13, one or more information processing apparatuses that have an input operation function and process arbitrary information;
A display device that displays video based on at least information transferred from the information processing device;
The display device based on an input operation instruction from the information processing device Display processing An information processing support device for supporting network information processing including:
Communication means for connecting the information processing support device and the information processing device;
A video / audio input device for inputting video and audio other than information transferred from the information processing device;
An information creation device that records information transferred from the information processing device and the video / audio input device in accordance with an instruction from the information processing device and reorganizes the information as content that can be communicated via a network; ,
This information creation device
Information recording means for recording moving image / audio information from the moving image / audio input device and still image information from a plurality of display devices,
Reproduction management list creation means for listing attribute information for a plurality of input still image information;
Organizing means for reorganizing the video / audio information and the still image information while selecting a display pattern capable of simultaneously displaying the plurality of still image information on a display screen based on the attribute information from the reproduction management list creating means; ,
It is characterized by comprising control means for controlling these plural means.
[0017]
In the present invention, both moving image / audio information and still image information are recorded. When still image information is displayed on a plurality of display devices, the still image information is information displayed on all the display devices. Simultaneously with the recording of these information, a reproduction management list of still image information for moving image / audio information is created.
[0018]
The playback management list includes the file name of still image information, time management information such as display start time on the display device, display device identification information, etc., and this list displays what file name from what display device at what time. It is possible to grasp in time series whether or not
[0019]
Then, at the end of recording, these pieces of information are reorganized into contents (HTML format) that can be reproduced via the network. Further, a display pattern (screen division pattern) to be displayed on one screen is determined according to the number of display devices being used.
[0020]
In the playback mode, all still image information is inserted and displayed on the divided screen corresponding to the display pattern determined based on the playback management list. Video / audio information is displayed in a fixed display area other than this. This eliminates the problem of reproducing only specific still image information.
[0021]
In the case of a network conference, presentation materials used in all video projectors can be divided and displayed on the same screen at the same time, so that conference contents can be created and displayed without lacking presentation materials.
[0022]
When an enlargement display instruction is given to the still image information that is currently displayed, the still image information is enlarged and displayed. For example, a display pattern (maximum display pattern) displayed when only one display device is used is selected and enlarged. By doing so, the content of the still image information becomes easy to see and the visibility is improved. When the still image information is switched to a new one and displayed, the updated new still image information is also enlarged and displayed.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Next, an embodiment of an information creation method, an information creation device, and a network information processing system according to the present invention will be described in detail with reference to the drawings. Hereinafter, for convenience of explanation, a case where the present invention is applied to a network conference system will be described as an embodiment.
[0024]
The network electronic conferencing system is a system for transferring a presentation material created electronically to a projector or the like as a display device, and proceeding with the conference while enlarging and displaying the material. Therefore, the system includes a computer (personal computer) as an information processing apparatus for managing presentation materials, and an information processing support device (personal computer configuration) used for transferring presentation materials to a display device. The whole is built.
[0025]
FIG. 1 shows a configuration example of a main part of the network electronic conference system 100. As described above, the system 100 projects and displays an information processing apparatus (hereinafter referred to as a client PC) 2 that stores and manages presentation materials (file data), presentation materials and presentation materials taken from a document camera. In addition to a display device (hereinafter referred to as a projector) 4 that uses a projector or the like, an information processing support device (hereinafter referred to as a communicator) composed of a personal computer that supports data exchange or data processing between the client PC 2 and the projector 4. (Referred to as Communicator) 3.
[0026]
The communicator 3 is controlled by the client PC 2, and the display image of the video projector 4 is controlled via the communicator 3. Therefore, communicator 3 And the projector 4 are connected by an RGB cable or the like.
[0027]
The client PC 2 and the communicator 3 are connected by a communication means (network adapter) 2a. The communication means 2a can be wireless or wired. In this embodiment, wireless is used as the communication means.
[0028]
Therefore, both the client PC 2 and the communicator 3 are equipped with a wireless LAN card (network interface card) 2a as a communication means for connecting between them. Of course, even in the case of wireless communication, in addition to using a wireless LAN card, an access point (not shown) can be used to communicate with each other via this access point.
[0029]
The network electronic conference system 100 further records information on a conference room as video and audio, and also records presentation materials used in the conference to create a meeting minutes (meeting content). (Hereinafter referred to as “Creator”) 1 is connected by a LAN. The creator 1 is connected with a video camera 5a as a moving image input device and a microphone 5b as an audio input device. In this example, the moving image / audio input device 5 is directly connected to the creator 1 and is configured so that its operation mode can be controlled in accordance with an instruction from the client PC 2.
[0030]
In order to enable the communicator 3 and the creator 1 to perform a conference between the conference rooms installed between remote places via a communication between them and a network such as the Internet, in this example, the creator 1 and the communicator 3 are used. Each holds a global IP address of the same segment. Even if the global IP address is in a different segment, mutual communication is not hindered.
[0031]
Further, a server 6 as an information storage device is connected to the electronic conference system via a LAN so that conference content and the like can be stored and managed collectively by the server 6.
[0032]
The client PC 2 has electronic conference application software installed. In one conference system, up to 16 units can be used. When a plurality of client PCs are used, a unique private IP address is set for each.
[0033]
When using multiple client PCs 2, create a closed environment in the conference room, and establish a confidential conference system so that unspecified third parties cannot participate in the conference or view the conference content from the outside. To build, a common password is set.
[0034]
This password can be freely set by the first conference participant, and the remaining conference participants can join this conference system by entering the password.
[0035]
One of the participants in the conference transfers the presentation material from the client PC 2 to the communicator 3 via the wireless LAN card 2a and displays it on the projector 4 to acquire the right to make a presentation. By simply operating the function key of the client PC, the right to present can be abandoned, and the right to present to another conference participant can be delegated, so all conference participants are suspended as presenters. .
[0036]
One of the remaining conference participants is configured to be able to control the operation mode such as recording and reproduction for the creator 1 using the client PC 2. In other words, one of the remaining persons will have the right to make materials for the minutes of the meeting.
[0037]
Next, each component of the network electronic conference system 100 will be described.
[0038]
In one conference room, one projector 4 is installed, and therefore, an electronic conference system is constructed by one communicator 3 is the simplest basic configuration. However, in some cases, the conference can be operated more efficiently if the conference is progressed using a plurality of projectors 4. This is because there are many cases where different presentation materials are simultaneously displayed on a plurality of projectors and explanations are made while using them.
[0039]
In such a case, the communicator 3 is basically arranged according to the number of projectors 4 installed. FIG. 1 shows a configuration example when three projectors 4 are used. When a plurality of communicators 3 are used in this way, one of them is used as a main communicator (Main Communicator) 3a, and the remaining two are used as sub communicators (Sub Communicators) 3b and 3c. .
[0040]
In this case, the presentation material or the like sent from the client PC 2 is managed by the main communicator 3a and is displayed on the corresponding projectors 4b and 4c via the sub-communicators 3b and 3c. . Therefore, the subcommunicators 3b and 3c have private IP addresses. It is also possible to control the plurality of communicators 3a, 3b, 3c independently of each other.
[0041]
The main communicator 3a also uses the presentation material itself transferred from the client PC 2 and attribute information (such as page switching time and page information) when switching the page of the presentation material as reproduction management information via the LAN. It has a function of sending information to the creator 1 or receiving information recorded in the creator 1 and distributing it to the client PC 2 in accordance with an instruction from the client PC 2.
[0042]
FIG. 2 shows the configuration of the communicator 3. As shown in FIG. 2, the communicator 3 includes a network adapter 30a for sending and receiving presentation materials from the client PC 2, a storage device 30b for storing processing programs, and a working memory (Work RAM) 30c. , A CPU 30d, and a display adapter 30e for outputting presentation materials as RGB signals.
[0043]
In this example, the above-described wireless LAN card 2a is used as the network adapter 30a. The storage device 30b stores basic software (electronic conference application software) for operating the communicator 3 and a processing program for processing presentation materials.
[0044]
The Work RAM 30c is used for temporarily storing received presentation materials and processing the materials. Presentation materials are converted into R, G, B signals under the intervention of the CPU 30d and then supplied to the display adapter 30e. The projector 4 is connected to the communicator 3 with an RGB cable.
[0045]
FIG. 3 shows the configuration of the creator 1. The creator 1 includes a CPU 1a for processing a program, a work memory (in this example, a hard disk HDD) 1b for processing transmitted / received information (information such as a moving image and a still image), and a moving image / audio including presentation materials. And a storage device 1c that records a control program for processing them, and a network adapter 1d for connecting to the communicator 3. The creator 1 further includes a video / audio input terminal (I / O interface) 1e for receiving and controlling the video and audio information from the video / audio input device 5.
[0046]
The creator 1 records information related to the presentation material displayed on the communicator 3 as described above, and information on the attendees attending the electronic conference (information such as IP address and face photo) from the communicator 3. It records information to be transferred, as well as video / audio information. And it has the function to generate | occur | produce automatically the meeting content which can be called the minutes of a meeting with the completion | finish of recording. The conference content automatic creation process will be described later.
[0047]
When there are a plurality of client PCs as described above, the creator 1 and the moving image / audio input device 5 are controlled by one client PC 2. That is, it is managed by the client PC (recorder client PC) 2 of the clerk.
[0048]
In order to become a clerk client PC, a control (CONTROL) screen used as an operation screen for the creator 1 may be opened. If there is a client PC that has opened the control screen, the communicator 3 sets a prohibition flag so that the remaining client PCs cannot become recorder client PCs. FIG. 4 shows an example of a GUI screen displayed on the display screen of the recording client PC.
[0049]
This display screen consists of roughly three vertically divided display screens. The basic screen on the client PC side is displayed in the center of the display screen. On the right side of the display, information about participants who are participating in the conference is displayed. A user screen is displayed, and a control screen for controlling the creator 1 is displayed on the left side of the basic screen. A horizontally long memo screen is displayed at the bottom of the screen.
[0050]
On the upper side of the basic screen, icons of devices connected to the electronic conference system are displayed. In the figure, an icon (1) for the creator 1 and an icon (2) for the communicator 3 are displayed. Further, although not indicated by a symbol in the figure, an icon for the moving image / audio input device 5 is also displayed.
[0051]
The lower part of the basic screen is used as a file list field, and the file name {circle over (3)} stored in the client PC is displayed here.
[0052]
The participant screen shows the participant's face photo and the client PC owned by the participant. 2 Private IP address etc. are displayed.
[0053]
The uppermost part of the control screen is a video display unit, and video captured by the video camera 5a is displayed here as a moving image. The central part is a strip-shaped display area, which is a plurality of soft key operation parts including function keys, and the lowermost part is an input part such as a title. In addition to the REC key (4), STOP key (5), PAUSE key (6), the MARK key (7) for marking important video locations during recording and a memo screen are opened For example, a MEMO key {circle over (8)} and a CAPTURE key {circle around (9)} for saving still image information (presentation material) displayed on the projector 4 are displayed.
[0054]
When the client PC 2 logs on to the communicator 3, only the basic screen is displayed on the display screen. By dragging and dropping the file in the file list (3) to the icon of the communicator 3, the file data (presentation material) is transferred to the communicator 3 and displayed on the projector 4 for presentation. However, this is a case where the operation is performed on the client PC 2 side having the presenter qualification.
[0055]
When the attendee key on the basic screen is pressed, the participant screen is displayed on the right side as shown in FIG.
[0056]
When the creator icon (1) is right-clicked, a menu screen as shown in FIG. 5 is displayed. When “control” is selected from the menu screen, the control screen shown in FIG. 4 is displayed. When the MEMO key (8) is operated from the control screen, a memo screen is displayed at the screen position in FIG. 4, and a text or the like can be input here. The memo screen has 4-6 lines of space.
[0057]
When “content manager” is selected from the menu screen shown in FIG. 5, the conference content list menu (creator content manager screen) stored in the creator 1 is displayed.
[0058]
FIG. 6 shows a display example of the creator content manager screen. On this screen, the content list {circle over (1)} stored in the creator 1 is displayed and soft keys for selecting an operation mode for the selected content list are displayed. In the embodiment, the Review key (2) for playing back the selected content, the client transfer key (Download to My Computer key) (3) for transferring the selected content to the client PC 2, and the selected content to the server Server transfer key (Upload to Server key) (4), detail key (Show Contents Information key) (5) for viewing detailed information of the selected content, Delete key (6) for deleting the selected content ▼ etc. are displayed.
[0059]
The network electronic conference system 100 described above, particularly the system shown in FIG. 1, is an electronic conference system when a network is constructed only in one conference room, but a network electronic conference system can be constructed in other cases.
[0060]
A network electronic conference system 200 shown in FIG. 7 is a system that is applied when a conference proceeds while making a presentation using a plurality of, for example, two conference rooms.
[0061]
In this case, the conference rooms A and B often have the same system construction, but may not. FIG. 7 shows the embodiment. The system in the conference room A includes a creator 1, a client PC 2, a communicator 3, a projector 4 connected to the communicator 3, and a video / audio input device 5. There are three projectors. Therefore, three communicators 3 are also installed. As a communication means, a wireless LAN card 2a is used.
[0062]
The system of the conference room B is configured in the same manner, but since only one projector 4 is equipped in this embodiment, one communicator 3 is installed. In the conference room B, communication is performed between the client PC 2 and the communicator 3 through the access point 2b.
[0063]
The two conference rooms A and B are connected by a LAN. It is possible to participate in the presentation in the conference room A via the access point 2b using the client PC 2 on the conference room B side.
[0064]
In this case, for example, when the presenter in the conference room A transfers the presentation material to the communicator 3 in the conference room A and displays the material on the projector 4 for the main communicator, the presenter displays it in the communicator 3 in the conference room B. The same presentation material is transferred, and the transferred material is displayed on the projector 4.
[0065]
When the pointer on the display screen is moved with a mouse or the like, mutual display is controlled so that the pointer is also displayed at the same position on the conference room B side. That is, the conference rooms A and B have a mirror display configuration.
[0066]
The same applies when materials are transferred from the conference room B to the conference room A side. However, since only one projector is installed in the conference room B, the subcommunicators 3b and 3c in the conference room A are not used in such a case.
[0067]
The embodiment shown in FIG. 8 is a case where the present invention is applied to a network electronic conference system 300 in the case of giving a presentation between conference rooms at two remote locations.
[0068]
This system 300 shows a case where the conference rooms A and B are connected by a LAN, and the communication lines are connected between the conference rooms A and B and the conference room C at a remote location via a network. It is assumed that the system described in FIG. 1 or FIG. 7 is constructed in each of the conference rooms A, B, and C. Therefore, the details about each configuration are omitted. It is sufficient that one creator 1 and one server 6 are installed in common.
[0069]
Also in this case, since the presentation material mirror display is realized by the projector 4 in each conference room by communication between the communicators 3 in the conference rooms A, B, and C, the conference participants can view the same display material at the same time. While attending the meeting. Further, even between remote locations, pointers can be displayed in synchronization on the same display screen according to the movement of the mouse.
[0070]
Next, the operation of the network electronic conference system 100 described above will be described with reference to FIG.
[0071]
First, in step S 1, the electronic conference application software is activated using the client PC 2 of the conference participant and logged on to the communicator (or main communicator) 3.
[0072]
In this case, it has already been described that the first conference participant sets a password, and subsequent participants can join the conference by entering the password. Since the password is not a unique value determined in advance for the electronic conference system, it is possible to eliminate an inconvenient problem such as forgetting the password or inadvertently starting the electronic conference system.
[0073]
In step S2, when a conference participant opens a control (CONTROL) screen that is an operation screen of the creator 1, only the client becomes the recorder client PC (see FIG. 4).
[0074]
On the GUI screen of the client PC 2, right-click on the icon 1 of the creator 1 (see FIG. 4) and select “control” from the displayed menu to display the control screen. (See Figure 4)
In step S3, when the REC key (4) (FIG. 4) on the control screen is pressed, the moving image / audio input device 5 is activated and video recording of the conference is started.
[0075]
When the memo key (8) (FIG. 4) is pressed on the control screen, the memo screen as shown in FIG. 4 is opened and text can be input. When the SEND key is pressed, the entered text is taken into the creator 1.
[0076]
In step S4, dragging and dropping the presentation material from the file list (3) of the client PC 2 to the icon (2) of the projector 4 for which the presentation material is to be displayed is transferred to the creator 3 and displayed in the file list on the screen of the projector 4 The selected presentation material is displayed. At the same time, the presentation material and page switching information are stored in the hard disk in the creator 1.
[0077]
To end recording in step S5, press the STOP key (5) on the control screen. At that time, a storage confirmation screen as shown in FIG. The contents are deleted except for the saving process. When the save operation is performed, conference content is automatically generated in step S6. That is, in this step S 6, conference content is generated based on the still image information from the communicator 3 and the moving image / audio information from the moving image / audio input device 5. In order to be able to refer to the conference content via a network such as the Internet, the file data is converted into HTML format file data.
[0078]
When the generation of the conference content is completed in step S7, the creator content manager screen is displayed, and the conference content stored in the creator 1 can be confirmed (see FIG. 6).
[0079]
In step S8, the content can be reproduced by selecting the conference content to be viewed from the creator content manager screen. The content whose contents have been confirmed is saved by being transferred to the server 6 (step S9).
[0080]
In step S8, when the conference content is played back and it is desired to edit the content, in step S10, the conference content is transferred to the client PC side by operating the creator content manager screen, and the known content is edited. Can be edited with software. The edited server content is transferred to the server 6 and stored (step S9).
[0081]
The conference content on the server 6 can be reproduced from the client PC 2 that is the recorder (step S11). FIG. 11 is an example of a content playback screen.
[0082]
On the content playback screen, as shown in the figure, the video playback unit that recorded the conference pattern is located in the upper left, and the still image playback unit for the presentation material that is still image information used in the conference is located in the right half The screen configuration is such that these can be divided and displayed simultaneously on the same display screen.
[0083]
Therefore, the display pattern of the still image reproducing unit for presentation materials differs depending on the maximum number of projectors installed in one conference room. In the embodiment, the projector can be connected to up to three projectors, and a maximum of three presentation materials may be displayed. Therefore, the playback screen configuration of the still image playback unit has a display pattern that can be divided into a maximum of four.
[0084]
This display pattern is templated, and templated display patterns (templates 1 to 3) are selected according to the number of projectors used. FIG. 11 shows a display pattern of the template 3, which is a display example when three projectors are used. The still image P1 is the material {circle around (5)} displayed by the projector 4a. Similarly, the still images P2 and P3 are the material {circle around (5)} displayed using the projectors 4b and 4c. When the content is reproduced, the material {circle over (5)} displayed on the still image reproducing unit is automatically switched as time elapses. Details of the display patterns of templates 1 and 2 will be described later.
[0085]
In addition to displaying the above-described symbol mark indicating only the video and audio of the conference, the video playback unit shows the playback time of the video with the horizontal axis (horizontal direction) as the playback time axis immediately below the video display unit. The mark SM is displayed.
[0086]
The mark SM can be shifted (seeked) to an arbitrary position on the reproduction time axis by clicking the mark SM with a mouse. Then, the reproduction time axis of the moving image is shifted to the seek position, and normal reproduction of the moving image is resumed from this reproduction time axis, so that this mark SM also functions as a seek mark.
[0087]
Then, presentation material as still image information is also reproduced in synchronization with the seek reproduction time axis. Accordingly, the presentation material that matches the reproduction time axis is displayed in the corresponding display area.
[0088]
The display section further below the display position of the mark SM is divided into two stages, and up to six presentation materials displayed by the projector are displayed as thumbnails. When a plurality of projectors are used, the materials displayed on the selected projector are displayed as thumbnails.
[0089]
When an arbitrary thumbnail is selected, the moving image displayed above is also synchronized with this, and is shifted to the time axis on which the thumbnail is displayed, and is normally reproduced from the time axis.
[0090]
Instead of the thumbnail display (2), the above-mentioned mark display (4) can be switched. Switching between thumbnail display and mark display is selected by the view switching section (1).
In the order in which the MARK key (7) on the control screen is pressed during the meeting, the titles given during the editing process (if there is no title, “Untitled”) and the time are displayed. When the title of the mark display column (4) is clicked with the mouse, the moving image displayed above is also shifted to the time axis in synchronization with this and normal playback is performed. As a result, the moving image and the still image (presentation material) are always displayed in synchronization.
During playback, the display is switched as time elapses.
[0091]
On the lower side of each display screen of the above-described still image reproduction section, there is an enlarged display key (6). When this is selected, the displayed still image is switched to the maximum display pattern and displayed (original size). Display) (see FIG. 18).
[0092]
Next, the recording operation of the creator 1 will be described with reference to the flowcharts of FIGS. 12 and 13.
[0093]
In accordance with a recording instruction from the client PC 2, the creator 1 records a moving image and records and saves presentation information sent from the communicator 3. Presentation materials include still images themselves, document creation software (presentation software), for example, documents created using power points, text display files created in PDF (Potable Document Format) format, GIF (Graphic Interchange Format) It includes various data such as image data created in a format, file data created with spreadsheet software.
[0094]
It demonstrates from FIG. First, when the REC key (4) is pressed using the control screen of the client PC 2, recording of a moving image is started (step S21).
[0095]
Next, in step S22, information from the communicator 3 is monitored.
This information includes the operation information of the capture key when the presentation material is transferred, when the page of the transferred material is switched, or when the display screen is changed due to scrolling etc. Etc.
[0096]
For example, as shown in FIG. 14, when the amount of file data transferred as presentation material is large and the projector 4 cannot display the information of the entire material, the material A in the upper half is first displayed on the projector 4 ( In this case, the screen is scrolled and the lower half of the document B is displayed on the projector 4 at the next appropriate timing (time tb).
[0097]
In such a presentation, it is unclear which part the presenter is currently using as the explanation only by the file information transferred first, and the explanation and the contents of the material are inconsistent. Therefore, in such a case, it is preferable to record the actual material displayed on the projector 4 as the conference material.
[0098]
In such a case, it is preferable that the recording person presses the “CAPHURE” key on the control screen so that the presentation material displayed on the projector 4 can be recorded at that time, and is sent from the communicator 3. Such capture information is one of the information that should be monitored.
[0099]
Next, in step S23, attribute information for the still image information transferred from the communicator 3 is determined. When the attribute information is a still image file, the attribute information indicating that the image is a still image file is managed as management information. It describes in the list (reproduction management list) (step S20).
[0100]
Similarly, when it is confirmed in step 24 that the attribute information (text file) is related to the memo, the information to that effect is described in the reproduction management list (step 20), and the attribute information related to the file created at the power point is used. If there is, information indicating that is described (steps S25 and S20).
[0101]
If the input information is not any of these information, it is determined whether the attribute information is information indicating the end of display. If the input information is display end information, the information is similarly described in the reproduction management list (step S26, S20).
[0102]
Now, the determination of the attribute information is completed in steps S20 to S26 in FIG. 12, and then the process proceeds to a step of determining the type of still image information itself. This will be described with reference to FIG.
[0103]
First, when the still image information transferred in step S27 is a still image file, it is stored in the corresponding folder (step S28).
[0104]
When three projectors 4 are used in the electronic conference system, when the material (still image file) used by the projector 4a is the document (still image file) used by the projector 4b to the P1 folder The material (still image file) used in the P2 folder and in the projector 4c is copied to the P3 folder.
[0105]
By specifying the folder to be saved according to the projector used for the presentation in this way, multiple presentation materials can be played and displayed simultaneously on the content playback screen using the target display template when playing the conference content Will be able to.
[0106]
Next, when it is determined in step S29 that the file is a memo file, the memo file is stored in the memo folder (step S30). If the transferred still image information is a power point file, the power point file is compressed in step 32. As the compression format, for example, the JPEG format frequently used in networks such as the Internet can be used. The new file converted into the JPEG file is given a unique name and stored in the image folder (step S33). When waiting for compression processing in step S32, it is temporarily stored in the queue.
[0107]
The above-described monitoring of attribute information and the process of storing in a specific folder while determining the type of still image information are repeated at the timing when information is input from the communicator 3 (step S22).
[0108]
Now, as attribute information sent from the communicator 3 described in FIG.
A) Power Point display page (display start time, page information when the page is changed, projector number, etc.)
B) JPEG file name (including display start time and projector number)
C) GIF file name (including display start time and projector number)
D) All display ends.
And so on. Based on this, a reproduction management list (database) is created.
[0109]
FIG. 15 shows an example of the reproduction management list. Here, the display start time is a display start time of a still image or a memo or a relative time from the beginning of a moving image.
[0110]
Function code is 11 = Still image display location (location corresponding to projectors 1-3
Display still images on P1 to P3).
12 = Show note on note screen.
13 = Turn off the still image display in the still image display area (P1 to P3).
14 = Turn off the memo display.
Represents. The file name is the name of the file to be displayed. When a Power Point file is converted to JPEG, it is named in the following format, for example.
Converted time_page number.jpg (converted time = YYYYMMDDhhmmss)
[0111]
Subsequently, the moving image / audio information and still image information recorded as described above are automatically reorganized into conference content used as the minutes of the conference upon completion of recording. This conference content is generated as a content that can be searched and viewed by Web Viewer. This will be described with reference to FIGS. 16 and 17.
[0112]
FIG. 16 is a flowchart when content is generated. To stop recording on the creator 1, press the STOP key (5) on the control screen. The content generation process starts simultaneously with the end of recording, and when there is a Power Point file, the end of JPEG file conversion of this file is confirmed (step S40).
[0113]
After completing the conversion to the JPEG file, in step S41, only the necessary JPEG data is copied from the image folder to the corresponding P1 folder to P3 folder. This is because the JPEG conversion file is copied to the same folder when using the same projector.
[0114]
In step S42, the reproduction management list is rewritten with the JPEG file name to have the same extension. In the next step S43, it is confirmed whether or not to save as conference content (see FIG. 10).
[0115]
If there is an instruction not to save in step S50, it is confirmed whether or not the entire file data is to be deleted. If so, all the data recorded in step S51 is deleted, and the content generation process is stopped.
[0116]
On the other hand, when the process for saving the file is selected, whether the information sent from the video / audio input device 5 is only audio or the video and audio are shared among the data saved in step S44. Confirm (step S44). This is because the subsequent processing is different in the case of sharing only audio and moving image and audio.
[0117]
The description starts from the case where the moving image and the sound are shared. In this case, the number of projectors used for the presentation is checked in step S45. When there are not a plurality of projectors, that is, when one projector is used, the template 1 is selected as a template for displaying contents, that is, a display pattern (step S45a).
[0118]
When two projectors are used, the display template 2 is selected (steps S46 and S46a), and when three projectors are used, the display template 3 is selected (steps S46 and S46c).
[0119]
As described above, if a display template is selected according to the number of projectors 4 used and reproduced and displayed as a content screen, presentation materials for the number of projectors used can always be reproduced and displayed at the same time, regardless of the number of projectors used. . As a result, when a plurality of projectors are used for presentation at the same time, it is possible to surely eliminate an inconvenient problem in which presentation materials used by some projectors cannot be reproduced as conference content.
[0120]
Here, when the template 1 is selected as the display template, the display size in the still image reproduction unit is the largest display size as shown in FIG. On the other hand, when the template 2 is selected, the still image information from the two projectors is displayed on the screen at the same time as shown in FIG. Therefore, the display size is slightly reduced. When three units are used, a display pattern as shown in FIG. 11 is obtained. FIG. 11 shows a display example when the aspect ratio of the screen is 4: 3. Incidentally, in this embodiment, the minimum display size is 320 × 240 pixel display.
[0121]
Next, as shown in step S47 in FIG. 17, an HTML file is created in accordance with the selected template, but before that, processing in the case of only audio is also performed.
In the case of only audio, a template corresponding to the number of projectors to be used is selected only by displaying a symbol mark indicating only audio, not a conference video, in the moving image reproduction unit. Accordingly, the template mode selected in steps S55, S55a, S56, S56a, and S56b is the same as that in the case of video / audio sharing, and the detailed description thereof is omitted. Here, the template 4 corresponds to the template 1, and the templates 5 and 6 correspond to the templates 2 and 3, respectively. Incidentally, FIG. 20 shows an example of a conference content playback screen when three projectors are used.
[0122]
In this way, the moving image / audio or audio-only data for which the display template is determined is converted into an HTML file in the above-described state in step S47.
[0123]
After that, in step S48, all the data, that is, all of the JPEG data, still image file data (JPEG data) in the playback management list, JPEG data in the power point file, and text data are copied to the content storage location, including video / audio data. Is done. Thereafter, the work area secured in the hard disk 1b, which is the work memory of the creator 1, is deleted, and the conference content automatic creation process ends (step S49).
[0124]
Next, the conference content playback operation will be described with reference to the flowcharts of FIGS.
[0125]
The menu is selected to open the creator content manager screen shown in FIG. When the user wants to view the conference content and presses the Review key (2), a Web browser (for example, Internet Explorer) is opened, and the contents of the file are displayed in units of frames according to the HTML file (step S60).
[0126]
If the data is audio only at step S61, a symbol mark indicating only audio is displayed at the moving image display position at step S62 (see FIG. 20). Then, the sound is reproduced (step S64). If there is a moving image, the moving image (conference video) is reproduced at the moving image display position in step S63.
[0127]
Thereafter, the playback time is monitored in step S65, and when the video or audio playback is not the last (step S66), there is still image information (file data in HTML format) that matches the playback time as shown in FIG. It is confirmed whether or not to perform (step S68).
[0128]
If there is file data matching the playback time such as a moving image and it is a still image file, the still image file at the corresponding time is displayed in the designated display areas P1 to P3 (steps S69 and S70). If the file data is a text file (memo information), it is displayed in the memo display area at the corresponding time (step S72).
[0129]
Moreover, not only the display of the image but also the deletion thereof is monitored. When there is information for erasing a still image or memo in the reproduction management list, the arrival of the time is monitored, and when that time is reached, if it is a still image, the display at that display location is erased (steps S73, S74). . If it is a memo, processing for erasing the display at the display location is performed (steps S75 and S76).
[0130]
Such display management processing and erasure management processing are performed until the reproduction of the moving image or the sound is completed (step S66), and the conference content reproduction processing mode is terminated at the same time.
[0131]
In the flowchart shown in FIG. 22, when the enlarged display key is pressed while the still image information is reproduced and displayed on the screen, the image with the enlarged display key pressed is enlarged and displayed. This is because the presentation material displayed on all projectors can be viewed when displayed as shown in FIG. 11, but the size of the presentation material itself is not large enough to be confirmed. In such a case, this enlarged display function displays an enlarged material (which may be a past presentation material) that is actually being presented.
[0132]
In this case, the following processing is further added to the flowchart shown in FIG. Accordingly, FIG. 23 is processed from the end of the determination process in step S75 of FIG. 22 to the step S66 shown in FIG.
[0133]
As shown in FIG. 23, when there is an enlarged display instruction for the still image being reproduced and displayed (step S81), another window is opened to display the still image in the original size (step S82). Of course, the display template for determining the display pattern can be changed to the template 1 to display a still image.
[0134]
Thereafter, it is checked whether or not there is an instruction to close the enlarged display window (original size window) (step S83), and when there is an instruction to close the window, a process for closing the window is performed (step S84). This returns to the original display.
[0135]
When there is no instruction to close the window, the enlarged display is continued. Therefore, when the still image displayed at the same place is switched in this state, the updated still image is also displayed in an enlarged manner.
[0136]
When there is a normal instruction, the original template is restored and a still image is displayed (step S84). In this way, a still image whose contents are to be confirmed can be arbitrarily selected and displayed in an enlarged manner.
[0137]
When the mark SM displayed on the content playback screen shown in FIG. 11 is clicked to seek, the video is normally played back from the end of the seek as described above, and the display position corresponding to the presentation material is also synchronized with this. It explained that it is displayed in.
[0138]
An example for performing such synchronous reproduction processing will be described with reference to the flowchart of FIG. This processing procedure can be inserted after monitoring the memo erasing process in step S75 in FIG. 22, for example, and before transitioning to processing step S66 in FIG. If the processing procedure of FIG. 23 exists, the processing procedure of FIG. 24 may be inserted after this processing procedure is completed.
[0139]
First, in step S91, the click of the mark SM is monitored. When the mark SM is clicked, the seek end timing of the mark SM is monitored while managing the reproduction time axis (steps S92 and S93). The moving image is normally reproduced from the reproduction time axis at which the seek is completed (step S94).
[0140]
The seek time information and the time management information related to the presentation material recorded in the reproduction management list are always collated during the seek period, and the presentation material matching the time management information at the end of the seek is searched. If there is a matching presentation material, the presentation material is selected as reproduction information after the end of seek (step 95).
[0141]
When the seek end timing is between the display start time of one presentation material and the display start time of the next presentation material, the presentation material that is the first display start time is selected as a presentation material for reproduction.
[0142]
For example, when the playback time at the end of seek is 00:05:00, referring to the playback management list, the display start times of the corresponding time management information are 00:04:00 and 00:07:00. When each presentation material exists, the first presentation material whose display start time is 00:04:00 is selected as a presentation material for reproduction and reproduced and displayed.
[0143]
In this way, the presentation material synchronized with the moving image can be reliably reproduced and displayed regardless of the position of the mark SM on the reproduction time axis. In other words, depending on the seek position, it is possible to eliminate the problem that the presentation material is not updated in synchronization with the moving image.
[0144]
In the above embodiment, the present invention is applied to a network electronic conference system, but the present invention is not limited to this. For example, the present invention can be similarly applied to a network education system, a network game system, and the like described in the beginning.
[0145]
【The invention's effect】
As described above, in the present invention, when recording both moving image / audio information and still image information, when still image information is displayed on a plurality of display devices, it is displayed on all the display devices. Record information, create a playback management list of still image information for video / audio information, use this playback management list to manage content reorganization, playback processing display patterns, etc. The image information can be enlarged and displayed.
[0146]
According to this, in addition to the feature that video / audio information and still image information used in presentations can be managed in the same dimension, what time and what file name was displayed from what display device by the playback management list It can be grasped in time series. Therefore, even when content expressed in the HTML format or the like is reproduced, a display pattern to be reproduced on the same screen can be easily selected, so that all still image information can be fitted and displayed on the divided screen without omission.
[0147]
By doing this, there is no problem that only specific still image information is reproduced, and a state close to an actual conference can be reproduced. Accordingly, in the case of a network conference, presentation materials used in all video projectors can be divided and displayed on the same screen at the same time, so that the conference content can be created and displayed without the lack of presentation materials.
[0148]
Furthermore, in this invention, since one still picture information currently displayed on the display screen can be enlarged and displayed, the contents can be easily seen and visibility can be improved.
[0149]
Therefore, the present invention is extremely suitable when applied to a network conference system, a network education system, a network game system, or the like that uses a network to hold a meeting, conduct a class or lecture, or enjoy a game.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration when a network information processing system is applied to a network electronic conference system.
FIG. 2 is a diagram illustrating a configuration of a communicator that functions as an information processing support apparatus.
FIG. 3 is a diagram illustrating a configuration of a creator that functions as an information creation device.
FIG. 4 is a diagram illustrating a display screen of a client PC that functions as an information processing apparatus.
FIG. 5 is a diagram showing a state in which a creator menu is displayed.
FIG. 6 is a diagram showing a content manager screen.
FIG. 7 is a diagram showing another example of a network electronic conference system.
FIG. 8 is a diagram showing another example of a network electronic conference system.
FIG. 9 is a flowchart of system operation.
FIG. 10 is a diagram showing a content storage confirmation screen.
FIG. 11 is a diagram showing a content playback screen.
FIG. 12 is a flowchart of the recording operation of the creator (part 1).
FIG. 13 is a flowchart of the recording operation of the creator (part 2).
FIG. 14 is a diagram illustrating an example of a file transfer and an actual display screen.
FIG. 15 is a diagram illustrating an example of a reproduction management list.
FIG. 16 is a flowchart of a creator content generation operation (part 1);
FIG. 17 is a flowchart of the content generation operation of the creator (part 2).
FIG. 18 is a diagram showing a display pattern using a template when one projector is used.
FIG. 19 is a diagram showing a display pattern using a template when two projectors are used.
FIG. 20 is a diagram showing a display pattern using a template when only three projectors are used when only sound is used.
FIG. 21 is a flowchart of the content reproduction operation of the creator (part 1).
FIG. 22 is a flowchart of the content reproduction operation of the creator (part 2).
FIG. 23 is a diagram illustrating a partial flowchart for enlarged display;
FIG. 24 is a diagram illustrating a partial flowchart for an example of seek processing.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Information preparation apparatus (creator), 1a, 30d ... CPU, 1b, 30c ... Work RAM, 1d, 30a ... Network adapter, 1e ... Video / audio input terminal, 2. .. Information processing device (client PC), 2a ... communication means (wireless LAN card), 2b ... access point, 3 ... information processing support device (communicator), 30e ... display adapter, 4 ... Projector, 5 ... Video / audio input device, 5a ... Video camera, 5b ... Microphone, 6 ... Server, 100, 200, 300 ... Network electronic conference system

Claims (19)

動画・音声入力装置からの動画・音声情報に同期して、複数の表示装置に表示された静止画情報が記録され、記録されたこれら情報を再生するための編集を行うに当たり、
上記複数の静止画情報を同一画面に同時に再生表示できるように、上記表示装置の数に応じて再生画面の表示パターンを選択するステップと、
上記表示パターン内に表示されたアイコンを指示することで、その表示パターン内に表示された静止画情報を拡大して再生するステップとを有することを特徴とする情報作成方法。
In synchronization with video / audio information from the video / audio input device, still image information displayed on a plurality of display devices is recorded, and when performing editing for reproducing these recorded information,
Selecting a display pattern of the playback screen according to the number of the display devices so that the plurality of still image information can be simultaneously played back and displayed on the same screen;
And a step of enlarging and reproducing still image information displayed in the display pattern by designating an icon displayed in the display pattern.
上記表示画面には、上記動画・音声情報が同時に再生表示するためのステップを有することを特徴とする請求項1記載の情報作成方法。2. The information creating method according to claim 1, further comprising the step of reproducing and displaying the moving image / audio information simultaneously on the display screen. 上記表示パターンを選択するステップにおける上記表示パターンは、表示エリアを最大で4分割できる4つの表示パターンを持ち、
使用された表示装置の数に応じて上記4つの表示パターンが選択されることを特徴とする請求項1記載の情報作成方法。
The display pattern in the step of selecting the display pattern has four display patterns that can divide the display area into four at maximum,
2. The method according to claim 1, wherein the four display patterns are selected according to the number of display devices used.
上記動画・音声情報に同期して再生されている上記静止画情報について拡大表示すべき指示が入力したときには、上記表示パターンとしては1つの表示装置を使用してその静止画情報を表示するときに使用する最大表示パターンが選択されることを特徴とする請求項1記載の情報作成方法。When an instruction to enlarge and display the still image information reproduced in synchronization with the video / audio information is input, the display pattern is displayed when the still image information is displayed using one display device. 2. The information creation method according to claim 1, wherein a maximum display pattern to be used is selected. 上記静止画情報を拡大している状態で、この静止画情報が更新されたときには、更新された静止画情報が拡大表示されることを特徴とする請求項1記載の情報作成方法。2. The information creating method according to claim 1, wherein when the still image information is updated while the still image information is enlarged, the updated still image information is enlarged and displayed. 上記動画・音声入力装置はビデオカメラであり、上記表示装置はビデオプロジェクタであることを特徴とする請求項1記載の情報作成方法。2. The information creation method according to claim 1, wherein the video / audio input device is a video camera, and the display device is a video projector. 動画・音声入力装置からの動画・音声情報と、複数の表示装置からの静止画情報をそれぞれ記録する情報記録手段と、
入力した複数の静止画情報についての属性情報をリスト化する再生管理リスト作成手段と、
上記再生管理リスト作成手段からの属性情報に基づいて上記複数の静止画情報を表示画面上に同時に表示できる表示パターンを選択しながら、上記動画・音声情報と静止画情報を再編成する編成手段と、
これら複数の手段を制御する制御手段とで構成されたことを特徴とする情報作成装置。
Information recording means for recording moving image / audio information from the moving image / audio input device and still image information from a plurality of display devices,
Reproduction management list creation means for listing attribute information for a plurality of input still image information;
Organizing means for reorganizing the video / audio information and the still image information while selecting a display pattern capable of simultaneously displaying the plurality of still image information on a display screen based on the attribute information from the reproduction management list creating means; ,
An information creating apparatus characterized by comprising control means for controlling the plurality of means.
上記再生管理リストには、上記静止画情報を表示した表示装置を識別する識別情報、表示開始時間などの時間管理情報、上記静止画情報のファイル名などであることを特徴とする請求項7記載の情報作成装置。8. The reproduction management list includes identification information for identifying a display device displaying the still image information, time management information such as a display start time, a file name of the still image information, and the like. Information creation device. 上記属性情報は、上記表示装置を識別する識別情報であることを特徴とする請求項7記載の情報作成装置。8. The information creating apparatus according to claim 7, wherein the attribute information is identification information for identifying the display device. 上記識別情報に応じて、表示パターンが選択されることを特徴とする請求項9記載の情報作成装置。The information generation apparatus according to claim 9, wherein a display pattern is selected according to the identification information. 上記動画・音声情報に同期して表示されている静止画情報について拡大表示すべき指示が入力したときには、上記表示パターンとしては1つの表示装置を使用してその静止画情報を表示するときに使用する最大表示パターンが選択されることを特徴とする請求項9記載の情報作成装置。Used when displaying the still image information using one display device as the display pattern when an instruction to enlarge the display is input for the still image information displayed in synchronization with the moving image / audio information. The information creating apparatus according to claim 9, wherein a maximum display pattern to be selected is selected. 上記静止画情報を拡大している状態で、この静止画情報が更新されたときには、更新された静止画情報が拡大表示されることを特徴とする請求項11記載の情報作成装置。12. The information creating apparatus according to claim 11, wherein when the still image information is updated while the still image information is enlarged, the updated still image information is displayed in an enlarged manner. 入力操作機能を有すると共に、任意の情報を処理する一以上の情報処理装置と、
少なくとも上記情報処理装置から転送された情報に基づいて映像を表示する表示装置と、
上記情報処理装置からの入力操作指示に基づいて上記表示装置における表示処理を含むネットワーク情報処理を支援する情報処理支援装置と、
上記情報処理支援装置と上記情報処理装置とを接続する通信手段と、
上記情報処理装置から転送される情報以外の映像および音声を入力する動画・音声入力装置と、
上記情報処理装置および上記動画・音声入力装置から転送される情報を、上記情報処理装置からの指示にしたがって記録すると共に、これをネットワークを介して通信できるコンテンツとして再編成する情報作成装置とを備え、
この情報作成装置は、
動画・音声入力装置からの動画・音声情報と、複数の表示装置からの静止画情報をそれぞれ記録する情報記録手段と、
入力した複数の静止画情報についての属性情報をリスト化する再生管理リスト作成手段と、
上記再生管理リスト作成手段からの属性情報に基づいて上記複数の静止画情報を表示画面上に同時に表示できる表示パターンを選択しながら、上記動画・音声情報と静止画情報を再編成する編成手段と、
これら複数の手段を制御する制御手段とで構成されたことを特徴とするネットワーク情報処理システム。
One or more information processing devices that have an input operation function and process arbitrary information;
A display device that displays video based on at least information transferred from the information processing device;
An information processing support device that supports network information processing including display processing in the display device based on an input operation instruction from the information processing device;
Communication means for connecting the information processing support device and the information processing device;
A video / audio input device for inputting video and audio other than information transferred from the information processing device;
An information creation device that records information transferred from the information processing device and the video / audio input device in accordance with an instruction from the information processing device and reorganizes the information as content that can be communicated via a network; ,
This information creation device
Information recording means for recording moving image / audio information from the moving image / audio input device and still image information from a plurality of display devices,
Reproduction management list creation means for listing attribute information for a plurality of input still image information;
Organizing means for reorganizing the video / audio information and the still image information while selecting a display pattern capable of simultaneously displaying the plurality of still image information on a display screen based on the attribute information from the reproduction management list creating means; ,
A network information processing system comprising control means for controlling the plurality of means.
上記通信手段は、有線方式または無線方式であることを特徴とする請求項13記載のネットワーク情報処理システム。14. The network information processing system according to claim 13, wherein the communication means is a wired system or a wireless system. 上記情報処理支援装置と情報作成装置はネットワークに接続されたことを特徴とする請求項13記載のネットワーク情報処理システム。14. The network information processing system according to claim 13, wherein the information processing support device and the information creation device are connected to a network. 上記情報処理装置の表示画面に、上記情報作成装置で再生された動画・音声入力装置からの動画・音声情報と、上記表示装置で表示された静止画情報が転送されて同時に表示されることを特徴とする請求項13記載のネットワーク情報処理システム。On the display screen of the information processing device, the moving image / audio information from the moving image / audio input device reproduced by the information creating device and the still image information displayed on the display device are transferred and displayed simultaneously. The network information processing system according to claim 13, characterized in that: 上記表示装置が複数あるときは、その数に応じた分割表示パターンに応じて上記静止画情報が同時に上記表示画面に表示されることを特徴とする請求項13記載のネットワーク情報処理システム。14. The network information processing system according to claim 13, wherein when there are a plurality of display devices, the still image information is simultaneously displayed on the display screen according to a divided display pattern corresponding to the number of display devices. 上記情報処理装置から上記静止画情報を拡大表示すべき指示があったときには、上記表示パターンとしては1つの表示装置を用いてその静止画情報を表示するときに使用する最大表示パターンが選択されることを特徴とする請求項13記載のネットワーク情報処理システム。When the information processing apparatus gives an instruction to enlarge and display the still image information, a maximum display pattern used when displaying the still image information using one display device is selected as the display pattern. The network information processing system according to claim 13. 上記静止画情報を拡大している状態で、この静止画情報が更新されたときには、更新された静止画情報が拡大表示されることを特徴とする請求項18記載のネットワーク情報処理システム。19. The network information processing system according to claim 18, wherein when the still image information is updated while the still image information is enlarged, the updated still image information is displayed in an enlarged manner.
JP2001278963A 2001-09-14 2001-09-14 Information creation method, information creation apparatus, and network information processing system Expired - Fee Related JP4244545B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2001278963A JP4244545B2 (en) 2001-09-14 2001-09-14 Information creation method, information creation apparatus, and network information processing system
PCT/JP2002/009401 WO2003026289A1 (en) 2001-09-14 2002-09-13 Information creation method, information creation apparatus, and network information processing system
CNB028227425A CN100348030C (en) 2001-09-14 2002-09-13 Information creating method, information creating device, and network information processing system
US10/489,556 US7486254B2 (en) 2001-09-14 2002-09-13 Information creating method information creating apparatus and network information processing system
EP02798834A EP1427206A4 (en) 2001-09-14 2002-09-13 Information creation method, information creation apparatus, and network information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001278963A JP4244545B2 (en) 2001-09-14 2001-09-14 Information creation method, information creation apparatus, and network information processing system

Publications (3)

Publication Number Publication Date
JP2003087725A JP2003087725A (en) 2003-03-20
JP2003087725A5 JP2003087725A5 (en) 2008-10-23
JP4244545B2 true JP4244545B2 (en) 2009-03-25

Family

ID=19103239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001278963A Expired - Fee Related JP4244545B2 (en) 2001-09-14 2001-09-14 Information creation method, information creation apparatus, and network information processing system

Country Status (1)

Country Link
JP (1) JP4244545B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7098868B2 (en) * 2003-04-08 2006-08-29 Microsoft Corporation Display source divider
EP1636647A4 (en) * 2003-05-29 2009-10-28 Infocus Corp Protector device user interface system
JP4543694B2 (en) 2004-02-17 2010-09-15 富士ゼロックス株式会社 COMMUNICATION SYSTEM, COMMUNICATION SYSTEM SERVER, AND SERVER PROCESSING METHOD
JP2005354541A (en) 2004-06-11 2005-12-22 Fuji Xerox Co Ltd Display apparatus, system, and display method
JP2005352933A (en) 2004-06-14 2005-12-22 Fuji Xerox Co Ltd Display arrangement, system, and display method
JP2008249908A (en) * 2007-03-29 2008-10-16 Brother Ind Ltd Projector
CN112650464B (en) * 2021-01-05 2024-02-06 深圳市捷视飞通科技股份有限公司 Video picture display method, apparatus, computer device and storage medium

Also Published As

Publication number Publication date
JP2003087725A (en) 2003-03-20

Similar Documents

Publication Publication Date Title
JP4288879B2 (en) Network information processing system and information processing method
US7486254B2 (en) Information creating method information creating apparatus and network information processing system
JP3664132B2 (en) Network information processing system and information processing method
JP2006146415A (en) Conference support system
US20040249945A1 (en) Information processing system, client apparatus and information providing server constituting the same, and information providing server exclusive control method
JP2006148730A (en) Conference system and conference information providing method
JP2006339878A (en) Editing terminal and editing method for multimedia content, and program
JP4010094B2 (en) Lecture information presentation device for remote locations
JP4244545B2 (en) Information creation method, information creation apparatus, and network information processing system
JP3948264B2 (en) Network information processing system and information processing method
JP4288878B2 (en) Information creating method and information creating apparatus
JP2003087758A (en) Information generating method and network information processing system
JP4129162B2 (en) Content creation demonstration system and content creation demonstration method
JP4686990B2 (en) Content processing system, content processing method, and computer program
JP2000267639A (en) Information processor
JP4308235B2 (en) Shared whiteboard history reproduction method, shared whiteboard system, program, and recording medium
JP2004336289A (en) Shared white board history reproducing method, shared white board system, client, program and recording medium
JP2003085527A (en) Method for producing information, device for producing information, and system for processing network information
JP2004056551A (en) Image information transmitting device for electronic conference
JP4269980B2 (en) Content processing system, content processing method, and computer program
JP2001350775A (en) Method and device for presenting a plurality of information
JP4413114B2 (en) Electronic conference record data processing method
JP2003324704A (en) Lecture system
JP2005260512A (en) System and method for processing content, and computer program
JP2004023706A (en) Multi-point conference system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081229

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees