以下、図面を参照しながら本発明の実施形態について詳解する。
以下、図面を参照しながら本発明の実施形態について詳解する。但し、ビデオ・データと資料画像データやその他の付加画像データを含むコンテンツをユーザに配信するシステムについてまず説明し、続いて、このような配信コンテンツを作成するためのシステム、コンテンツを再生するためにシステムについて説明する。
A.コンテンツ配信システムの構成
図1には、コンテンツ配信システムの構成を模式的に示している。図示のコンテンツ配信システムは、インターネットNを介して接続される配信サーバ1、閲覧クライアント2、登録クライアント3を備えて構成される。
配信サーバ1、閲覧クライアント2、並びに登録クライアント3は、パーソナル・コンピュータ(PC)などの一般的な計算機システムに、それぞれの機能を実現するためのサーバ・アプリケーション、クライアント・アプリケーションをインストールすることによって構成されている。また、閲覧クライアント2は、配信サーバ1より配信されるコンテンツを閲覧するためのブラウザ機能をインストールしている。
図1では簡素化のため、配信サーバ1、閲覧クライアント2、登録クライアント3を各1台ずつしか描いていないが、インターネットN上にはこれらサーバ、クライアント、あるいはその他の無数のホスト装置が接続されていてもよい。例えば、閲覧クライアント2はコンテンツを閲覧するユーザが使用する端末であるので多数接続される。一方、配信サーバ1や登録クライント3は集中管理を行なうように1台としてもよい。なお、後述するように配置先セットの集合でコンテンツ・データの記憶領域を構成するので、配信サーバ1は複数のサーバ装置で機能やデータを分担する構成とするのが好ましい。
本実施形態では、配信サーバ1は、ビデオ・データと、ビデオ・データ毎に対応付けたスライド画像データ、資料画像データ、検索用の音声インデックス・データ、コンテンツ・タイトルなどのコンテンツ・レコード(メタデータ)をコンテンツ毎のデータとして記憶保持しており、閲覧クライアント2からの要求に応じて該当するコンテンツ・データを配信提供する。
図2には、配信サーバ1に登録されている配信用コンテンツの構造を模式的に示している。図2(a)にはビデオ・データ5とスライド画像データ6との対応付け関係を示している。また、図2(b)にはビデオ・データ5と資料画像データ7との対応付け関係を示してある。
ビデオ・データ5は、配信用のストリーム形式に変換された動画像データであり、スライド画像データ6(A〜K)は配置登録前の前処理によってビデオ・データ5中から自動処理又はオペレータ操作によって抽出された静止画像データである。これらスライド画像データは、例えばビデオ中のある時間幅を持った場面を代表的に表すシーンの画像であり、ビデオ・データ5の該当する場面に対応付けられている。スライド画像データは、主に閲覧ユーザが所望のコンテンツを探したり又はコンテンツビデオ中の所望の場面を探したりする検索用として用いられる。
また、資料画像データ7(a〜n)は、配置登録前の前処理によってオペレータがビデオを見ながら設定操作してビデオ・データ5に対応付けた静止画像データであり、例えばプレゼンテーションや講義などを写したビデオ・データ5に対し、当該プレゼンテーションにおいて使用された資料を写した画像データである。資料画像データ7は、資料が用いられたビデオ中の或る時間幅を持った場面に対応付けられ、閲覧ユーザに対してビデオ画像に同期して該当する資料画像を提供する。
なお、これらスライド画像データ6と資料画像データ7とはいずれか一方だけをビデオ・データ5に付随させるようにしてもよく、本明細書の説明では、特に指摘する場合を除いて、スライド画像データ6と資料画像データ7との両方又はいずれか一方を画像データと記述するものとする。
このようなコンテンツ・データは、ブラウザを使用する閲覧クライアント2からの要求に応答して、配信クライアント1から配信処理され、要求元の閲覧クライアント2に提供されてその表示装置に画面表示される。
図3には、配信サーバ1から配信されたコンテンツ・データが閲覧クライアント2側で表示されるコンテンツ閲覧画面の構成例を示している。
このコンテンツ閲覧画面は、画像を表示するビデオ画面133及び再生や停止などの操作ボタンが配置されたビデオ操作部134を有したビデオ・プレイヤ135と、コマ送り操作ボタンが配置された操作部136を有した画像表示部137と、コンテンツ・データに関するプログラム記述などを表示するノート表示画面部138を含んでいる。したがって、閲覧するユーザがポインティング入力で操作することにより、ビデオ画面133にビデオ画像を再生させ、画像表示部137にスライド画像や資料画像を表示させることができる。
後述するように、本実施形態では、配信サーバ1は、同じ時間軸を共有する複数のビデオ・ストリームを1つの集合データとして取り扱う。ビデオ・プレイヤ135側では、複数のビデオ・ストリームのうちユーザが選択したビデオ・ストリームがアクティブ・ストリームとしてビデオ画面133上で再生される。
また、配信サーバ1側では、各ビデオ・ストリームをそれぞれインデキシングして代表画像を作成しており、アクティブ・ストリームとして選択されたビデオ・ストリームをストリーミング配信する一方、その他のビデオ・ストリームの代表画像を配信する。
ビデオ・プレイヤ135では、ビデオ画面133上でのビデオ(アクティブ・ストリーム)の進行に同期して再生時刻に対応した代表画像に切り替える。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。
また、配信サーバ1にアクセスし、資料画像などの所望のコンテンツの画像データが閲覧クライアント2へ配信される。図4並びに図5には、この配信された画像データが閲覧クライアント2で表示される詳細表示画面の構成例を示している。
図4では、スライド画像データ6の一覧表示を行なった状態を示しており、レコード・データ表示部140には当該コンテンツのメタデータの諸項目が表示され、スライド画像表示部141には当該コンテンツに対応付けられたすべてのスライド画像106が時系列に表示されている。
各スライド画像106は、該当する場面の時間長さに応じて大きくなるようにスライド画像表示部141に表示される。例えば、図2(a)に示すように、他に較べて場面の長さが短いCやDのスライド画像106は、スライド画像表示部141において他のスライド画像より小さいサイズで表示される。このようなサイズ変換は、例えば、各スライド画像に場面長さに応じた情報を付加しておくことにより、詳細表示の要求に応じて配信サーバ1において行なうことができる。なお、このような画像サイズに差を持たせて表示する態様は、場面の内容が変化する大きさに応じたり、作者の意図に応じたりといったように、場面の重要度に応じてサイズを設定するようにしてもよい。
また、図5には、資料画像データ7の一覧表示を行なった状態を示している。図示の通り、レコード・データ表示部142には、当該コンテンツのメタデータの諸項目が表示される。資料画像表示部143には、当該コンテンツに対応付けられたすべての資料画像107が時系列に表示されるとともに、各資料画像107から抽出された内容の記述文字列107aが画像表示される。この文字列7aは資料画像データ6から必要に応じて文字認識処理などで抽出され、資料画像をキーワード検索する際に照合される。
B.コンテンツ・データの登録
次に、コンテンツ・データを配信サーバ1に配置登録することについて説明する。
図6には、配信サーバ1に各コンテンツのレコードを記憶管理するための機能構成を示している。同図に示すように、配信サーバ1は、配置登録した各コンテンツのレコードを記憶管理するデータベース150と、各コンテンツ・データの実体を格納する複数の配置先セット151を備えている。
データベース150は、各コンテンツ・データのメタデータ、配置先ファイル・パス、配置先URLなどを含むコンテンツ用レコード152とともに、当該コンテンツ・データが配置登録されている配置先セットを特定する番号153を記憶管理している。したがって、データベース150を参照することにより、配信可能に各コンテンツ・データを配置登録し、また、閲覧クライアント2から要求された該当するコンテンツ・データを配信することができる。
コンテンツ用レコード152内には、会議を撮影して得られたビデオ・データなどのコンテンツに関するレコードの他に、スライドなどのプレゼンテーション用の資料画像データや、プレゼンテーションの際に行なわれたアノテーション情報などの各画像データに関するレコードが格納される。
本実施形態では、これら画像データを、会議すなわちビデオ・データの時間軸と対応付けて管理するために、これら画像データ毎のレコードは、データを識別するID、保管場所を示す配置先URLと、ビデオ・データの時間軸上の配置場所を示す時刻情報を組み合わせて構成される。この時刻情報は、ライブのプレゼンテーションにおいてスライドが提示された時刻、スライドに対しアノテーションが入力された時刻、あるいはプレゼンテーションの再生時においてアノテーションが入力された時刻を表す。
また、本実施形態では、複数のカメラを用いて、プレゼンテーションの様子を同時に収録する。このようにして得られた同じ時間軸を共有する複数のビデオ・データは、コンテンツ用レコード152内では、1つの集合データとしてビデオ時間関連情報とともに記録・管理される。時間関連情報は、ビデオ素材を指定する情報と、開始時刻を含むデータの集合であり、カメラの収録動作の制御情報からビデオ時間関連情報を抽出することができる。また、ビデオに関連する情報は、資料画像データ及び矢印などの付加画像データ、アノテーション情報(後述)、及びビデオ時間と同期するタイミングのデータである。
配置先セット151は、それぞれが1又は複数のコンテンツ・データを格納する記憶領域であり、これら配置先セット151の集合として配置サーバ1のコンテンツ・データ記憶領域が構成されている。図示の例では、各配置先セット151には、ビデオ・データを格納するビデオ・データ・フォルダ154、画像データを格納するための画像データ・フォルダ155、音声インデックス・データを格納するための音声インデックス・フォルダ156が設けられている。スライドなどのプレゼンテーション用の資料画像データや、プレゼンテーションの際に行なわれたアノテーション情報などの画像データは、画像データ・フォルダ155内に格納される(但し、資料画像データとアノテーション情報とを別のデータ・フォルダに分けて記録・管理するようにしてもよい)。同じコンテンツのデータは同じ配置先セット151となるように、これらフォルダ154〜156内に各コンテンツの対応するデータが登録格納される。配置先セット151に登録されたコンテンツ・データの配信は、閲覧クライアント2からの要求に応じてデータベース150を参照することにより行なわれる。
コンテンツ作成ツール160は、MPEG(Moving Picture Experts Group)などの形式のビデオ・データを配信用のストリーム形式のビデオ・データに変換する処理や、ビデオ・データにスライド画像データを対応付けて登録する処理、ビデオ・データに資料画像データを対応付けする処理、ビデオ・データに音声インデックス・データを対応付けする処理などを行なう。
このようにして、配信サーバ1に登録配置されたコンテンツ・データは、閲覧クライアント2からの要求に応じてデータベース150を参照することにより配信サーバ1から提供される。すなわち、閲覧クライアント2が配信サーバ1に対してコンテンツを指定する情報を含む要求を送信すると、配信サーバ1はコンテンツ・レコード152を参照して当該コンテンツ・データを配置した配置先セット番号を割り出し、該当するコンテンツを閲覧クライアント2へ提供する処理を行なう。
本実施形態では、複数のビデオ・データとビデオに関連する画像などの各メディア・コンテンツを、1つの集合データとしてシステムに蓄積し、時間的な共有のデータも蓄積することにより、閲覧者が同一の時間帯でのビデオ及び資料画面を見比べながら閲覧できるようにすることができる。
ここで、配置先セット151は物理的又は論理的な記憶領域であり、各配置先セット151を異なるデータ・サーバ装置に設けたり、あるいは単一又は複数のデータ・サーバ装置を論理的に横断した形で配置先セットを構成したりすることができる。例えば、図7に示すように、コンテンツ・レコードを管理するデータベース150をデータベース・サーバ150とし、各配置先セット151を複数のデータ・サーバ装置157〜159にそれぞれ分散し、これらサーバ装置によって配信サーバ1を構成することもできる。
図7に示したように複数のデータ・サーバ装置157〜159により配置先セット151を構成することにより、データ・サーバ装置157〜159を追加するとともにコンテンツ用レコード152を追加するだけで、コンテンツ・データの記憶領域を増設することができ、システム構成を柔軟なものとすることができる。なお、論理的な構成としても、各配置先セットの容量などを容易に変更することができ、同様にシステム構成を柔軟なものとすることができる。ビデオ・データの配信を行なうシステムではデータが大きいことから、システム構成を変更する必要性が頻繁に生ずるばかりではなく、コンテンツ・データへのアクセス負荷を分散するためにも各コンテンツの配置先を分散させる必要性が生ずる。
なお、配信サーバ1では、配信用に形式変換されたコンテンツ・データ(ビデオ・データ、画像データ、音声インデックス・データ)と、さらにコンテンツ検索用のメタデータとをまとめた配信検索用コンテンツの形式にしてから、配置登録が行なわれる。配信検索用コンテンツは、検索用のデータがコンテンツ本体に紐付けされた「アーカイブ・ファイル」であり、持ち運びが可能である。
アーカイブ・ファイルは、ビデオ・データなどのソース・コンテンツを、アーカイブ・ツールで加工することによって作成される。図8には、アーカイブ・ファイルの構成を模式的に示している。アーカイブ・ファイル165は、コンテンツ・データを構成するストリーム形式のビデオ・データ167、スライド画像又は資料画像の画像データ168、音声インデックス・データ169、メタデータで構成され、さらにメタデータを更新するアプレット用データ170が含まれている。
このように複数種類のデータ167〜170を含むコンテンツ・データを1つのアーカイブ・ファイル165にしておくことにより、配信サーバ1への登録配置処理に要する時間を短縮化することができ、また、このアーカイブ・ファイル165の持ち運び性が向上し、同一のコンテンツを登録する他のシステムへの再利用やバックアップ・データとしての利用に供することができる。
C.コンテンツ作成システム
次に、このような配信コンテンツを作成するためのシステムについて説明する。
本実施形態に係るコンテンツ作成システムは、複数のビデオ・カメラを用いてプレゼンテーションにおける進行状況を映像や音響などのビデオ・データとして捕捉し、これら複数のビデオ・データを1つの集合データとして扱うとともに、スライドなどのプレゼンテーション用の資料画像データや、プレゼンテーションの際(又はプレゼンテーションの再生の際)に行なわれたアノテーションなどの画像データをビデオ・データの時間軸と対応付けて記録・管理する。これら画像データが持つ時刻情報は、ライブのプレゼンテーションにおいてスライドが提示された時刻、スライドに対しアノテーションが入力された時刻、あるいはプレゼンテーションの再生時においてアノテーションが入力された時刻を表す。
なお、本明細書中では、会議、講演、授業、説明会などといったように、資料を聴衆に提示しながら発表を行なう行為を総称してプレゼンテーションと呼ぶことにする。
図9には、本実施形態に係るコンテンツ作成システムの機能構成を模式的に示している。
アーカーブ・ファイル25に収められて配信サーバ1に登録されるコンテンツは、プレゼンテータPがプロジェクタJでスクリーンSに資料画像30を切換表示しながら行なったプレゼンテーションをビデオ・カメラVで収録したビデオ・データ31と、これら資料画像30のデータ、さらにはプレゼンテーションの際に行なわれたアノテーション情報を含んでいる。なお、コンテンツには、資料画像30に対して付加して表示する矢印やアニメーションなどの付加画像データ、並びにアノテーション情報を含めることもできる。また、プレゼンテータPの操作用としてプレゼンテーション支援装置40が当該プレゼンテータPの手元に設置されている。
本実施形態では、複数のカメラ51、V2…を用いて、プレゼンテーションの様子を同時に収録する。各ビデオ・カメラ51、V2…から得られたビデオ・データは、後述するように所定の時間軸に対応付けられ、ビデオ時間関連情報とともに記録・管理される。後述するように、複数のビデオ・データとビデオに関連する画像などの各メディア・コンテンツを、1つの集合データとしてシステムに蓄積し、時間的な共有のデータも蓄積することにより、閲覧者が同一の時間帯でのビデオ及び資料画面を見比べながら閲覧できるようにすることができる。
また、プレゼンテーションで使用される複数の資料画像データ30は、あらかじめファイル作成装置50によって1つの資料ファイル61にまとめられてファイル保持装置60に保持されている。そして、プレゼンテータPがプレゼンテーション支援装置40から入力する切換指示に応じて、資料ファイル61に収められている資料画像データ30を予め設定された順序に従って読み出され、ビューア70による表示制御処理を経てプロジェクタJからスクリーンSに投影表示される。
また、発言者が視聴者や聴衆に対し発言内容の理解を促すために、線描画などで構成されるアノテーションの入力が行なわれる。アノテーションの入力は、スクリーン上に投影されたスライドやその他の資料画像、会議室内に設置されているホワイトボード(図示しない)、発言者が取り扱っているPCのモニタ画面などに向かって行なうことができる。
収録されたビデオ・データ31、当該プレゼンテーションで使用される資料画像データ30(すなわち、資料ファイル61)、当該プレゼンテーションでプレゼンテーション支援装置40から出力される切換指示信号、並びに、発言者がアノテーション入力部110に対して入力したアノテーション入力信号は、対応付け装置80に逐一入力され、実際のプレゼンテーションにおける使用タイミングで資料画像データ30がビデオ・データ31の時間軸に対応付けされる。
この対応付けされた資料ファイル62、アノテーション情報は、各ビデオ・カメラ51、V2…から得られた複数のビデオ・データ31とともに、配信サーバ1に登録するコンテンツ素材としてデータ保持装置90に保持され、これらコンテンツ素材が編集装置100によって必要な編集を施されて、配信登録用のアーカイブ・ファイル25にまとめられる。
本実施形態では、会議室内にアノテーション入力装置10が設置されている。アノテーションの入力は、スクリーン上に投影されたスライドやその他の資料画像、会議室内に設置されているホワイトボード(図示しない)、発言者が取り扱っているPCのモニタ画面などに向かって行なうことができる。アノテーション入力装置10は、発言者が視聴者や聴衆に対し発言内容の理解を促すために行なう線描画に関する情報を操作面から直接読み取ることができるGUI画面やデジタイザ、あるいは間接的に読み取ることができる任意の装置として構成することができる。
本実施形態では、アノテーションは、点を結ぶ線の集合として取り扱い、各点の座標(point)、線の太さ、線の色などの属性情報(attribute)を、描画を完了した時刻ともに記録する。点の総数の制限、各点の距離を一定以上に制限したり、さらに矩形や楕円などは対角する2点の座標のみを記録したりし、点の数が増えることによって記録情報が増大することを防ぐことができる。
図10には、資料画像ファイル61の作成及び資料画像30の表示に係るファイル作成装置50、ファイル保持装置60、ビューア70の構成を示している。
ファイル作成装置50は、資料画像データを入力する入力装置51と、入力される際にオペレータにより指定された順序情報を各資料画像データに付加する順序付け装置52、入力された資料画像データを資料ファイル61にまとめるファイル化装置53、資料ファイル61をファイル保持装置60に出力する出力装置54を備えている。すなわち、ファイル作成装置50は、入力装置51が資料画像データを入力し、ファイル化装置53が入力された複数の資料画像データを資料ファイル61にまとめる処理を、下記のビューア70による処理に先立って行なう。
資料画像データには、静止画像や動画像、さらにはデータ形式の制限は特になく、これら種別に関わりなく複数の資料画像データをファイル作成装置50に入力して資料ファイル61とすることができる。
図11には、資料ファイルのデータ構造を模式的に示している。同図に示すように、資料ファイル61に収められる各資料画像データ30は、資料画像を成す実データに加えて、資料ID、種別情報、オペレータにより指定された順序情報(デフォルト)、オペレータにより付加されたタイトルや重要語などのキーワードなどのデータを含んでいる。
ここで、各資料画像に重ね表示する矢印などの付加画像データ33も資料画像データ30とともにファイル作成装置50に入力されて、資料ファイルの一部又は付属とされる。付加画像データ33とビデオ・データ30とは、あらかじめ対応付けがなされており、この対応付けに基づいて、資料画像30の表示に伴って付加画像33が同期表示される。
ビューア70は、ファイル保持装置60から資料ファイル61を入力する入力手段71、プレゼンテーション支援装置40からの表示資料画像の切換指示を入力する指示入力装置72、切換指示に応じて資料ファイル61から順次読み出す資料画像データ30のデータ種別をその種別情報から判定する種別判定装置73、資料画像データをプロジェクタJが表示出力可能な統一的な形式に変換する各種のプレイヤ・モジュールを保持したプレイヤ・ファイル74、資料ファイル61から読み出した資料画像データ30をそのデータ種別に対応したプレイヤ・モジュールを起動してプロジェクタJが表示出力可能な形式に変換する出力制御装置75、投影用に形式変換された資料画像データ30をプロジェクタJに出力する出力装置76を備えている。
このビューア70は、指示入力装置72が表示資料を切り換えるオペレータ指示を受け付け、種別判定装置73が切換指示に応じて複数種類の資料画像データ30を収めた資料ファイル61から次に読み出して表示する資料画像データの種別を判定し、出力制御装置75がデータ種別に応じて用意されたプレイヤ・ファイル74から判定された種別に対応するプレイヤを選択起動して資料画像データ30をプロジェクタJに出力する処理を行なう。
上記の切換指示に応じた資料ファイル61からの資料画像データ30の読み出し(すなわち、スクリーンSへの資料の表示)は、各資料画像データ30に初期的に設定されている順序情報(デフォルト)に従ってなされる。したがって、プレゼンテータが切換指示をするタイミングで、順序情報(デフォルト)に従った順序で資料ファイル61内に収められた資料画像が順次切り換えられてスクリーンSに表示される。そして、このような資料画像データ30は、そのデータ形式に関わりなく資料ファイル61に収めれば、プレゼンテーション資料として使用することができ、資料の準備作業を極めて容易に行なうことができる。
なお、ファイル作成装置50、ファイル保持装置60、ビューア70はそれぞれ別個の装置として構成しても、これら装置機能を一体化した単一の装置として構成してもよく、いずれの装置構成においても、例えば、コンピュータに上記機能を実現するプログラムを実行させることにより構成することができる。
図12には、プレゼンテータPが操作するプレゼンテーション支援装置40の構成を示している。
プレゼンテーション支援装置40は、ファイル保持装置60に保持された資料ファイル61をビューア70を介して入力する資料ファイル入力装置41、資料ファイル61中の各資料画像データ30を縮小してサムネイル画像化するサムネイル化装置42、資料ファイル61中のスクリーンSで聴衆に対して表示出力される資料画像を表示する領域44と残余の資料画像をサムネイル一覧で表示する領域45とを画面上に有する表示装置43、プレゼンテータPからの操作入力を受け付ける操作入力装置46、プレゼンテータPから入力された検索条件に合致する資料画像をサムネイル一覧45から検索する検索装置47を備えている。
ビューア70は、資料ファイル61に収められているすべての資料画像データをプロジェクタ表示可能に変換してプレゼンテーション支援装置40に提供する。
図13には、プレゼンテーション支援装置40がプレゼンテータPに提示する画面構成例を示している。表示装置43は、順序情報(デフォルト)に従ってスクリーン表示される最初の資料画像を画面43の領域44に表示してプレゼンテータPに提示し、残余の資料画像をサムネイル画像として領域45に一覧表示する。
そして、画面43上にはスクリーン表示する資料画像を前へ戻すための「戻る」ボタン48aとスクリーン表示する資料画像を次の順序のものに切り換えるための「進む」ボタン48bとが設けられており、プレゼンテータPが操作入力手段46からこれらボタンを押下することにより、スクリーン表示する資料画像を順次切り換えることができる。
なお、領域45に一覧表示される資料画像はサムネイル形式であるので、これらサムネイル画像をプレゼンテータPが操作入力装置46から選択押下することにより切換信号を発して、選択した資料画像をスクリーン表示させることもできる。
このようなプレゼンテータPによる操作により、上記の資料画像の切換指示信号がビューア70に入力されてスクリーン表示が切り換えられ、また、対応付け装置80に入力され、ビデオ・データ31と各資料画像データとの時間位置関係の対応付け、及び各資料画像データの順序情報の更新がなされる。
また、画面43上には検索条件を入力するための欄49aと検索処理を実行指示するための「検索」ボタン49bとが設けられており、プレゼンテータPが操作入力手段46から欄49aに検索条件を入力しボタン49bを押下することにより、検索装置47がサムネイル一覧45の中から条件に合致する資料画像を検索し、当該資料画像のサムネイルをハイライト表示するあるいは当該資料画像を領域44に表示することができる。
この検索条件には、各資料画像データに設定されている順序情報、データ種別、キーワードなどを用いることができ、例えば、何番目に用いた資料画像、動画の資料画像、あるタイトルの資料画像といったように、検索装置47により資料ファイル61内から条件に合致する資料画像を検索することができる。
プレゼンテーション支援装置40は、例えば、一般的なコンピュータ・システムに所定のプレゼンテーション支援用アプリケーション・プログラムを実行させるという形態で構成することができる。プレゼンテーション支援装置40によると、プレゼンテータPは必要に応じて切換指示を入力するだけでスクリーン表示する資料画像を任意に切り換えることができるとともに、事後における聴衆からの質問等に応じて必要な資料画像を探す際でも、検索処理によって迅速に所望の資料画像を探し出すことができる。
図14には、アノテーション入力装置10の構成例を示している。アノテーションは、発言者が視聴者や聴衆に対し発言内容の理解を促すために行なう線描画などで構成される。アノテーションの入力形態として幾つか考えられ、例えば、スクリーン上に投影されたスライドやその他の資料画像、会議室内に設置されているホワイトボード、発言者が取り扱っているPCのモニタ画面などに向かって行なう。したがって、アノテーション入力装置10は、このような線描画に関する情報を操作面から直接読み取ることができるGUI画面やデジタイザ、あるいは間接的に読み取ることができる任意の装置として構成することができる。
図14に示す例では、アノテーション入力装置10は、プレゼンテーションの映像を記録するとともに、ドキュメントを閲覧することができるPCのブラウザ画面を利用して構成されている。すなわち、アノテーション入力装置10は、アノテーション記録・再生用コントローラ11と、スライドなどの資料画像データやプレゼンテーション用ドキュメントを表示するドキュメント表示部12と、プレゼンテーションの様子やPC上で管理されている一般的な情報資源を閲覧するブラウザ13で構成されている。
アノテーションの記録時には、例えば、プレゼンテーションの進行に合わせて、表示されるドキュメント上でマウス操作を行なうことにより、アノテーションを描画する。この描画動作は、点の結ぶ線の集合としてサンプリングされ、各点の座標と、点毎の入力時刻、点同士を結ぶ線の太さや色などの属性情報がアノテーション情報として、ブラウザを経由して対応付け装置80へ送信される。そして、対応付け装置80では、ライブのプレゼンテーションにおいて利用されるスライドなどの資料画像データの切り替わり情報とともに、アノテーション情報がプレゼンテーションを記録するビデオ・データの時間軸に対応付けてデータ保持装置90(データ・サーバ)上で記録・管理される。
入力されたアノテーション情報は、ライブのプレゼンテーションにおいて利用されるスライドなどの資料画像データなどと同様に、プレゼンテーションを記録するビデオ・データの時間軸に対応付けて、データ・サーバ上で記録・管理される。
一方、記録されたアノテーション情報を再生するときには、まず、配信サーバ1に対し、プレゼンテーションを記録するビデオ・データへのアクセス要求が行なわれる。配信サーバ1は、アクセス要求に応答して、動画像やスライドなどの資料画像データ・ドキュメントを同期配信するとともに、アノテーション情報も配信する。配信サーバ1上では、プレゼンテーションを記録するビデオ・データへのアクセス要求がなされたときに、その時間軸に対応付けてアノテーション情報が配信される。すなわち、配信サーバ1にアクセスした視聴者は、プレゼンテーションを再生する動画像や、スライドなどのドキュメントとともに、ドキュメント上に再現されるアノテーションを見ることができる。
ビデオ・データはブラウザ13上で表示される。また、スライドなどの資料画像データ、プレゼンテーション用ドキュメントは、ドキュメント表示部12で表示される。そして、アノテーション情報は、ブラウザ13から、アノテーション記録・再生用コントローラ11に渡される。そして、アノテーション記録・再生用コントローラ11では、アノテーション情報に含まれる点同士を属性情報に従って結線処理して描画し、アノテーションを再現する。
なお、アノテーションの再生時において、アノテーションを記録する時刻が、アノテーションの描画が終了した時刻であることを操作者が認識できるようにするため、アノテーションの描画中(マウスのドラッグ中など)は線を半透明で描画し、描画の完了(マウスのボタンを離す)時に線を不透明な色で再描画する。
図15には、複数のビデオ・カメラV1、V2…で収録されたプレゼンテーションのビデオ・データ31−1、31−2…と、そこで使用された資料画像データ30と、プレゼンテーションの進行に合わせて入力されたアノテーション情報とを対応付ける対応付け装置80の機能構成を示している。
対応付け装置80は、収録されたビデオ・データを入力するビデオ入力手段81、プレゼンテーションで使用される資料画像データ(資料ファイル61)を入力する資料ファイル入力手段82、プレゼンテーションにおいてプレゼンテータPが行なった資料画像の切換指示を入力する切換指示入力手段83、ビデオ・データを基準とした時間軸に対して資料画像データやアノテーション情報の対応付けを行なう対応付け手段85、対応付け処理により更新した資料ファイル、アノテーション情報、並びに、ビデオ・データを、データを保持するデータ・サーバに出力する出力手段86を備えている。
対応付け装置85は、ビデオ・カメラV1による撮影時間を基準とした時間軸に対して、各ビデオ・カメラ51、V2…から得られたビデオ・データを管理するためのビデオ時間データ・テーブル(後述)を作成する。ビデオ時間データ・テーブルは、ビデオ・データを識別するビデオ・データ識別IDと、撮影開始時間を含んでいる。
また、対応付け装置85は、ビデオ・カメラV1による撮影時間を基準とした時間軸に対して、切換指示の入力タイミングを当該切り換えられる資料画像データの表示開始タイミングとして設定する。
また、対応付け装置85は、ビデオ・データを基準とした時間軸に対して、マウス操作などによりアノテーションを記録する時刻を、アノテーションの描画開始タイミングとして設定する。
図16には、対応付け装置85によってビデオ・データを基準とした時間軸に対し、資料画像データの表示開始タイミングやアノテーションの描画開始タイミングが設定すなわち対応付けられている様子を示している。
図示の例では、ビデオ・カメラから入力されるビデオ・データ、ファイル保持装置60から入力される資料画像データ、並びにアノテーション入力装置10から入力されるアノテーション情報は、それぞれデータを識別するビデオID、資料画像ID(スライドID)、並びにアノテーションIDが既に割り振られた状態で対応付け手段85に入力されるものとする。勿論、対応付け装置85において、これらのデータに固有のIDを割り振るようにしてもよい。
ビデオ・カメラから入力されるビデオ・データは、データ・エンティティとともに、撮影開始時刻とデータ・サイズが付加されている。データ・サイズから撮影時間が算出されることから、撮影終了時刻を特定することができ、これが対応付けの基準となるビデオ・データの時間軸を構成する。
本実施形態では、会議室内には複数のビデオ・カメラV1、V2…が設置されており、それぞれから得られたビデオ・データは、撮影時刻などで表わされる同じ時間軸上で対応付けられ、図16では1本のコンテンツとして描かれているビデオ・データは実際には複数のビデオ・データをまとめた1つの集合データとして構成されている。各ビデオ・カメラ51、V2…による撮影開始時刻や撮影終了時刻は区々であり、例えばビデオ・カメラV1による撮影時間を基準の時間軸とする。
対応付け装置85は、各ビデオ・カメラ51、V2…から得られたビデオ・データに対し、ビデオ時間データ・テーブルを作成する。図17には、ビデオ時間データ・テーブルの構成例を示している。ビデオ時間データ・テーブルは、ビデオ・データを識別するビデオ・データ識別IDと、撮影開始時間を含んでいる。撮影終了時刻若しくはビデオ再生時間は、ビデオ・データのデータ・サイズから算出することができる。
これら複数のビデオ・データは、単一の時間軸上で、1つの集合データとして表される。図18には、複数のビデオ・データを1つの集合データとして構成した様子を模式的に示している。図16では1本のコンテンツとして描かれているビデオ・データは、実際には図18に示すように複数のビデオ・データで構成されることを十分理解されたい。各ビデオ・カメラ51、V2…による撮影開始時刻や撮影終了時刻は区々であるが、図示のように集合データとして構成することにより、単一のビデオ・データとして取り扱うことを可能にしている。
ビデオ・プレイヤ135側では、複数のビデオ・ストリームのうちユーザが選択したビデオ・ストリームがアクティブ・ストリームとしてビデオ画面133上で再生される。例えば、ビデオ・データ1〜4がビデオ時間データ・テーブルに登録されていた場合、コンテンツ再生時には、再生時間tでビデオ・データ1に切り替えた場合は、ビデオ・データ1の開始時間からt1の位置の再生画面が表示される。その後、ビデオ・データ2に切り替えた場合は、ビデオ・データ2の開始時間からt2の位置の再生画面が表示される。また、ビデオ・プレイヤ135では、ビデオ画面133上でのビデオ(アクティブ・ストリーム)の進行に同期して再生時刻に対応した代表画像に切り替える。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。
スライドやドキュメントなどの各資料画像データの表示順序や表示開始タイミングは、プレゼンテーションの前にあらかじめ取り決めておいたものでもよいが、本実施形態では、ライブのプレゼンテーションにおいて各資料画像データを表示する際に入力された切換指示の入力タイミングを基に、資料画像データの表示開始タイミングが与えられる。配信サーバのデータベースでは、各資料画像データのコンテンツ用レコードは、資料画像データを識別するIDと、ビデオ・データの時間軸上の配置場所すなわち表示開始タイミングと、資料画像の実データの保管場所を表すURLの組を記載している。
プレゼンテーションで使用する複数の資料画像データはあらかじめ使用する順序情報(デフォルト)が付与されて、原則的には、当該順序情報に従った順でスクリーン表示されて使用されるが、実際のプレゼンテーションでは、プレゼンテータの操作によってスクリーン表示する資料画像の順序が変更されたり、ある資料画像を繰り返しスクリーン表示したりすることがなされるため、これをコンテンツ・データで再現できるようにするために、対応付け装置85は、入力された切換指示に応じて実際に使用された順序に従って各資料画像データの順序情報(デフォルト)を順序情報(リアル)更新する。プレゼンテーション支援装置40から入力される切換指示には資料IDが含まれており、対応付け装置85はどの資料画像データが何時(タイミング)切り換えられたかを把握して対応付け処理を行なう。
プレゼンテーションで実際に使用される前の各資料画像データは図11に示すようにビデオ・データ31との時間タイミングの対応付けがなされていないが、対応付け装置85は、切換指示の入力タイミングに基づいて、各画像データに対してその使用を開始タイミング(ビデオ・データの時間軸における時刻)を付加する時間位置の対応付けを行なう。
アノテーション情報は、アノテーション入力装置10上でアノテーションの入力が開始された時刻を基に、その描画開始タイミングが与えられる。配信サーバ1のデータベースでは、各アノテーション情報のコンテンツ用レコードは、アノテーション情報を識別するIDと、ビデオ・データの時間軸上の配置場所すなわち描画開始タイミングと、アノテーション情報の実データの保管場所を示すURLの組を記載している。アノテーション情報の実データは、描画内容をそのまま捕捉した画像データでもよいが、本実施形態では、各点の座標、点毎の入力時刻、点同士を結ぶ線の太さや線の色などの属性情報で構成されている。
図19には、ビデオ・データの時間軸の対応付けを行なった後の資料ファイルのデータ構成例を示している。スクリーンSにいずれかの資料画像が常時表示されるというプレゼンテーションの形態では、各資料画像の開始タイミングを規定するだけで、ビデオ・データ31に対する各資料画像データの時間位置が特定される。勿論、開始タイミングと終了タイミングとの組、あるいは、開始タイミングと使用時間幅との組みといったような形式で時間位置対応を付けるようにしてもよい。
対応付け装置80によると、ビデオ入力装置81が収録したビデオ・データ31を入力し、資料ファイル入力装置82がプレゼンテーションで使用される資料画像データ30を入力し、切換指示入力装置83がプレゼンテーションにおいてプレゼンテータPが行なった資料画像の切換指示を入力し、対応付け装置85が、これら入力に基づいて、ビデオ・データ31を基準とした時間軸に対して、切換指示の入力タイミングを当該切り換えられる資料画像データの表示開始タイミングとして設定する対応付け処理を行ない、さらには、入力された切換指示に応じて実際に使用された順序に従って各資料画像データの順序情報を更新する処理を行なう。
また、対応付け装置80によると、アノテーション入力に基づいて、ビデオ・データ31を基準とした時間軸に対して、アノテーション情報の描画開始タイミングを設定する対応付け処理を行なう。そして、この対応付け及び更新処理を施した資料ファイル、アノテーション情報、及びビデオ・データ31をデータ保持装置90に出力する処理がなされる。
このような対応付け装置80による処理によって、プレゼンテーションを収録したビデオ・データ31と、ライブのプレゼンテーションで使用された資料画像データ、並びに資料画像データやその他の対象物に対して印加されたアノテーションが、実際のプレゼンテーションを再現する対応関係で関連付けられ、これらがアーカイブ・ファイル25にまとめられて配信サーバ1に登録されることとなる。したがって、配信サーバ1から配信されたコンテンツを閲覧する閲覧クライアント2では、その画面上にプレゼンテーションの光景とそこで使用された資料とが、実際のプレゼンテーションを再現した状態で表示出力される。
なお、対応付け装置80と、データを保持するデータ・サーバと、データを編集する編集装置100はそれぞれ別個の装置として構成しても、これら装置機能を一体化した単一の装置として構成してもよい。これらのうちいずれの装置構成においても、例えば、コンピュータに必要な処理機能を実現するプログラムを実行させることにより構成することができる。また、一体構成する場合は、更にプレゼンテーション支援装置40、ファイル作成装置50、ファイル保持装置60、ビューア70をも含めた構成とすることもできる。
図20には、上記のようにしてコンテンツとしてアーカイブ・ファイル25にまとめられるビデオ・データ31、資料画像データ30、付加画像データ33、アノテーション情報34のデータ構造を模式的に示している。
ビデオ・データ31は、図20(a)に示すように、ビデオ映像を成す実データの他に、自己のビデオID、ビデオの総時間情報(データ・サイズ)を含んでいる。
但し、図9に示したように複数のビデオ・カメラV1、V2…を設置したようなシステムにおいては、ビデオ・データ31は、各ビデオ・カメラから得られた複数のビデオ・データとして構成され、同じ時間軸上で対応付けて1つの集合データとして構成される。この場合、ビデオ・データ31は、図20(a)に代えて、図17に示したビデオ時間情報データ・テーブルを用いて管理され、実データは複数のビデオ・データが時間軸上に並列的に配置されて構成される。
資料画像データ30は、図20(b)に示すように、資料画像を成す実データの他に、自己の資料ID、対応付けられたビデオ・データのビデオID、自己の表示開始タイミング、自己のデータ形式種別、実際の使用順序である順序情報(リアル)、検索に用いられるキーワードなどを含んでいる。
付加画像データ33は、図20(c)に示すように、矢印画像やアニメーション画像等の付加画像を成す実データの他に、自己の付加画像ID、対応付けられた資料画像データの資料ID、自己の表示開始タイミングなどを含んでいる。
アノテーション情報データ34は、図20(d)に示すように、アノテーションを成す実データの他に、自己のアノテーションID、対応付けられたビデオ・データのビデオID、自己の表示開始タイミングなどを含んでいる。アノテーションの実データは、描画内容をそのまま捕捉した画像データでもよいが、本実施形態では、各点の座標、点毎の入力時刻、点同士を結ぶ線の太さや線の色などの属性情報で構成されている。
これら、ビデオ・データ31、資料画像データ30、付加画像データ33、アノテーション情報34などの会議を記録する情報コンテンツはデータ・サーバ上の各配置先セット151…に格納される。また、これらコンテンツを管理するための管理用レコードは、ビデオID、資料ID、付加画像ID、アノテーションIDなどの識別情報と、データ・サーバ上の配置場所(URLなどで記述される)との組み合わせで構成され、データベース150内のコンテンツ用レコードに保管される。資料画像データ30、付加画像データ33、アノテーション情報34は、ビデオ・データの時間軸と対応付けて管理するため、これらのコンテンツ用レコードは、対応するビデオ・データのビデオID並びにその時間軸上での表示開始タイミングなどの時刻情報を含んでいる。
図21には、資料画像データ30、付加画像データ33、並びにアノテーション情報データ34が、ビデオ・データ31が持つ時間軸上に関連付けられている一例を示している。
ビデオ・データ31は時間幅Tの連続した動画像データである。但し、図9に示したように複数のビデオ・カメラV1、V2…を設置したようなシステムにおいては、ビデオ・データ31は、複数のビデオ・データが時間軸上に並列的に配置されて構成されている(図18を参照のこと)。
このようなビデオ・データ31の時間軸に対して、時刻TAを開始タイミングとした資料画像A、時刻TBを開始タイミングとした資料画像B、時刻TCを開始タイミングとした資料画像C、時刻TDを開始タイミングとした資料画像Dが対応付けられている。
また、各資料画像30に対応して、時刻Taを開始タイミングとした矢印画像a、時刻Tbを開始タイミングとしたアニメーション画像b、時刻Tcを開始タイミングとした矢印画像c、時刻Tdを開始タイミングとした矢印画像dが対応付けられている。
また、このビデオ・データ31の時間軸に対して、時刻TIを開始タイミングとしたアノテーション情報I、時刻TJを開始タイミングとしたアノテーション情報J、時刻TKを開始タイミングとしたアノテーション情報TKが対応付けられている。
資料画像30は開始タイミングから次の資料画像の開始タイミングまでスクリーン表示されているため、同図では資料画像データ30をある時間幅を持ったデータのように表現されているが、これら表示間隔を示しているだけで、動画像でない静止画像の資料画像データはそれ自体で時間幅を有している訳ではない。
また、付加画像33についても同様であり、同図では表示間隔を示しているだけで、動画像でない静止画像の付加画像データはそれ自体で時間幅を有している訳ではない。
これに対し、アノテーション情報34は、各点の座標と、点同士を結ぶ線の太さや色などの属性情報が点毎の入力時刻とともに記録されているので、1つのアノテーション情報を構成する線分毎に時間の幅を有することができる。したがって、再生時(若しくはコンテンツの配信時)には、ビデオ・データ31の時間軸に対応付けて、各線分の情報を再生若しくは配信することで、プレゼンテーションを再生する動画像や、スライドなどのドキュメントとともに、ドキュメント上に再現されるアノテーションを見ることができる。
D.コンテンツの再生
上述したように、配信サーバ上に登録配置されたコンテンツ・データは、閲覧クライアント2からの要求に応じてデータベース150を参照することにより配信サーバ1から提供される。
すなわち、閲覧クライアント2が配信サーバ1に対してコンテンツを指定する情報を含む要求を送信すると、配信サーバ1はコンテンツ・レコード52を参照して当該コンテンツ・データを配置した配置先セット番号を割り出し、当該配置先セット番号からセット・レコード62を参照して該当するビデオ・データやその画像データのURLを割り出し、閲覧クライアント2へ提供する。閲覧クライアント2では配信サーバ1から提供されたURLに基づいてコンテンツ・データ・ファイルにアクセスし、該当するビデオ・データや画像データ、並びにアノテーション情報を取得して画面に表示出力する。
次に、上記したように閲覧クライアント2がビデオ・データの再生に同期して、配信サーバ1から該当する静止画像データ(資料画像データ)、並びにアノテーション情報を取得して同期再生する処理を詳しく説明する。
この同期再生処理は、図22に示すように配信サーバ1と閲覧クライアント2とが協働的に動作して、図23に示す手順で実行される。
まず、上記のように閲覧クライアント2が配信サーバ1に接続し、所望のコンテンツを要求すると(ステップT1)、配信サーバ1が該当するビデオ・データとともに、当該ビデオ・データに同期して対応付けられた資料画像データ並びにアノテーション情報を配信サーバ1から取得するためのプログラムを閲覧クライアント2に提供する(ステップT2)。
閲覧クライアント2では、提供されたビデオ・データをビデオ・プレイヤ135により再生して画面表示し、これとともに提供されたプログラムを実行する画像同期機能39が起動し、再生されているビデオ・データの再生時間位置を取得して表示すべき静止画像データを特定する(ステップT3)。
そして、閲覧クライアント2が配信サーバ1に対して必要な静止画像データを要求し(ステップT4)、配信サーバ1が要求された画像データを閲覧クライアント2へ提供する(ステップT6)。この提供された画像データは即座に再生されて画像表示部137に表示出力される。このステップT3〜T6の処理はビデオ・データの再生中は繰り返し行なわれ、再生されているビデオ・データの再生時間位置に対応した資料画像データ並びにアノテーション情報が図3に示したように同一画面上で同期して切換え表示される。
ここで、ビデオ・データ31は、複数のビデオ・データが時間軸上に並列的に配置されて構成される場合(図18を参照のこと)、閲覧クライアントは、ビデオ・データの切り替えを要求することができる(ステップT7)。配信サーバ側では、ビデオ・データの切替要求に応答して、該当するビデオ・データをデータベースから取り出し(ステップT8)、これを要求元の閲覧クライアントへ返送する(ステップT9)。例えば、再生時間tでビデオ・データ1に切り替えた場合は、閲覧クライアントでは、ビデオ・データ1の開始時間からt1の位置の再生画面が表示される。その後、ビデオ・データ2に切り替えた場合は、ビデオ・データ2の開始時間からt2の位置の再生画面が表示される。
より具体的には、図24に閲覧クライアント2のWebブラウザで画面表示されるWebページを示すように、このWebページには図3に示したようにビデオ・プレイヤ135が埋め込まれているが、配信サーバ1から提供された上記プログラムも埋め込まれる。このプログラムはプログラム・コード70と複数の同期コマンド・データ71を含んでいる。
プログラム・コード70は、再生しているビデオ・データの再生時間位置情報を取得する動画再生位置取得プログラム、同期コマンド・データ71をチェックする同期コマンド・データ・チェック・プログラム、同期コマンド・データ71に対応するコマンドを実行する同期コマンド実行プログラムを含んでいる。
同期コマンド・データ71は、コマンド実行時刻としてのビデオ・データ再生時間情報と、実行するコマンド情報を含んでいる。すなわち、同期コマンド・データ71は、ビデオ・データに対応付けられている複数の資料画像データ並びにアノテーション情報のそれぞれについて同期コマンド・データ71が存在し、当該静止画像データのビデオ・データに対する対応付け位置を示す再生時間位置情報と、当該再生時間位置で所定の代表画像データ、資料画像データ、アノテーション情報を配信サーバ1に要求するコマンドを含んでいる。
したがって、ビデオ・プレイヤ135によるビデオ・データの再生と同期してプログラム・コード70が実行され、動画再生位置取得プログラムが再生されているビデオ・データの再生時間位置を取得し、同期コマンド・データ・チェック・プログラムが同期コマンド・データ71に取得した再生時間位置に該当するものが存在するかを判定し、存在する場合にはコマンド実行プログラムが当該同期コマンド・データのコマンドを実行して、該当する代表画像データ、資料画像データ並びにアノテーション情報を配信サーバ1に要求するという処理が、ビデオ・データの再生を実行している間に繰り返し行なわれる。
上述したように、配信サーバ1は、同じ時間軸を共有する複数のビデオ・ストリームを1つの集合データとして取り扱う。また、配信サーバ1側では、各ビデオ・ストリームをそれぞれインデキシングして代表画像を作成しており、アクティブ・ストリームとして選択されたビデオ・ストリームをストリーミング配信する一方、その他のビデオ・ストリームの代表画像を配信する。
これに対し、閲覧クライアント側では、複数のビデオ・ストリームのうちユーザが選択したビデオ・ストリームがアクティブ・ストリームとしてビデオ・プレイヤ135のビデオ画面133上で再生される。また、閲覧クライアント側では、ビデオ画面133上でのビデオ(アクティブ・ストリーム)の進行に同期して再生時刻に対応した代表画像に切り替わる。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。
図25には、配信サーバ1から閲覧クライアント2へビデオ・ストリームを配信している様子を模式的に示している。
図示の例では、配信サーバ1は、同じ時間軸を共有する4本のビデオ・ストリームA〜Dを1つの集合データとするコンテンツを提供している。これらのビデオ・ストリームA〜Dは、例えば図9に示したように同じ会議室内に設置された4台のビデオ・カメラを用い、同じプレゼンテーションを撮影することにより得られたものである。そして、配信サーバ1は、これら複数のビデオ・ストリームA〜Dのうち、ユーザが選択したビデオ・ストリームをアクティブ・ストリームとして配信する。図示の例では、ビデオ・ストリームCがアクティブ・ストリームとして選択されている。
また、配信サーバ1は、各ビデオ・ストリームA〜Dをそれぞれインデキシングして代表画像を作成し、アクティブ・ストリーム以外のビデオ・ストリームについてはビデオの再生位置に同期してそれぞれの代表画像を表現することができる。図示の例では、アクティブ・ストリーム以外のビデオ・ストリームA、B、Dについては代表画像が表示される。
閲覧クライアント2側では、ビデオ・プレイヤ135が、アクティブ・ストリームをビデオ画面133で表示するとともに、その再生位置に対応する各ビデオ・ストリームA〜Bの代表画像を並行して表示する(図26を参照のこと)。また、各ビデオ・ストリームA〜Bの代表画像は、ビデオ画面133上でのビデオの進行に同期して再生時刻に対応した代表画像に切り替わっていく。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。
このように、同じ時間軸を共有する複数のビデオ・ストリームからなる集合データを要求する際、実際にはアクティブ・ストリームを選択できることにより、閲覧クライアント2は1本のビデオ・ストリームとして受信することができるので、通信帯域や通信負荷を低減することができる。また、ビデオと同期して複数の代表画像が切り替わるので、ユーザの取得情報が増大し、アクティブ・ストリーム選択のよい動機付けとなる。また、ユーザは、各ビデオ・ストリームの代表画像を同期して閲覧することができるので、アクティブ・ストリームに限定して受信することに伴う情報の欠落を補うことができるとともに、代表画像を基に好みの視点を確認しながらビデオを視聴することができるので、ビデオ再生時の臨場感が向上する。
図27には、各ビデオ・ストリームA〜Dをそれぞれインデキシングして得られた代表画像の表示時間を示している。図示の例では、ビデオ・ストリームAからは代表画像a1〜a5が抽出され、ビデオ記録・再生の時間軸上において各代表画像aiは後続の代表画像ai+1が出現するまでの時間帯において当該ビデオ・ストリームAの代表画像を表現する。また、ビデオ・ストリームBからは代表画像b1〜b4が抽出され、ビデオ記録・再生の時間軸上において各代表画像biは後続の代表画像bi+1が出現するまでの時間帯において当該ビデオ・ストリームBの代表画像を表現する。また、ビデオ・ストリームCからは代表画像c1〜c4が抽出され、ビデオ記録・再生の時間軸上において各代表画像ciは後続の代表画像ci+1が出現するまでの時間帯において当該ビデオ・ストリームCの代表画像を表現する。また、ビデオ・ストリームDからは代表画像d1〜d5が抽出され、ビデオ記録・再生の時間軸上において各代表画像diは後続の代表画像di+1が出現するまでの時間帯において当該ビデオ・ストリームDの代表画像を表現する。
例えば、ビデオ・ストリームA〜Dの共通の時間軸上で、時刻t1では、同期する代表画像a2、b2、c2、d1がビデオ・プレイヤ135上に表示され、ユーザはさまざまな視点からの代表画像を見て、好ましいビデオ・ストリームが何であるかを判断することができる。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。同様に、時刻t2では、同期する代表画像a4、b3、c3、d4がビデオ・プレイヤ135上に表示される。
図28には、代表画像の操作によりアクティブ・ストリームを選択する動作手順を図解している。同図に示す例では、同じ時間軸を共有する4本のビデオ・ストリームA〜Dが存在している。そして、代表画像は各々のビデオ・ストリームをインデキシングして作成された各ビデオ中の代表画像を表現している。
このような場合、時間軸上をマウスで操作することにより、該当する時刻に対応する代表画像が代表画像表示部にそれぞれ表示される。図示の例では、時刻18:10に対応する各ビデオ・ストリームの代表画像が表示されている。そして、各代表画像を選択することにより、選択されたビデオ・ストリームを該当する時間から受信することができる。このように、同一時間軸上に複数の代表画像表示部を配置することにより、コンテンツの内容を短時間で多角的に評価することが可能となる。
図29には、配信サーバから閲覧クライアントへアクティブ・ストリームを配信するとともに、アクティブ・ストリームの進行に同期して再生時刻に対応した代表画像を配信するための動作手順を示している。
但し、図示の例では、説明の便宜上、配信サーバはビデオ・ストリームを配信するストリーム配信サーバと各ビデオ・ストリームについての代表画像を配信するイメージ配信サーバに分離して恒例されるが、勿論これらを1台のサーバ装置として構成することは可能である。
以下、同じ時間軸を持つ4本のビデオ・ストリームA〜Dから構成されるコンテンツをビデオ・ストリームA→ビデオ・ストリームB→ビデオ・ストリームCの順に切り替えながら視聴する場合を例にとって説明する。
閲覧クライアント(ブラウザ)側からビデオ・ストリームAの配信を要求すると、ストリーム配信サーバからビデオ・ストリームAがストリーム配信される。要求元ブラウザ側では、ビデオ・プレイヤ135のビデオ表示画面133上で、受信されたビデオ・ストリームAが表示される。
そして、ブラウザは、ビデオ・ストリームAの再生時間軸上での現在の時刻すなわち再生位置を取得すると、当該時刻に対応する各ビデオ・ストリームA〜Dの代表画像をイメージ配信サーバに要求し、イメージ配信サーバは各ビデオ・ストリームA〜Dの該当する代表画像を返信する。そして、要求元ブラウザ側では、ビデオ・プレイヤ135上でこれら各代表画像が並列表示される。代表画像の取得処理は、ビデオ・ストリームの表示中は定期的に繰り返され、この結果、ビデオ・ストリームの再生位置と同期して代表画像の表示が更新されていく。ユーザは、ビデオ・ストリームAの現在の再生位置における各視点における代表画像を同期して確認することができる。
そして、ユーザは、所望の代表画像を選択することで、ビデオ・ストリームの切り替えを要求することができる。ここでは、ビデオ・ストリームBの代表画像が選択されたとする。これに応答して、閲覧クライアント(ブラウザ)側からビデオ・ストリームBの配信を要求すると、ストリーム配信サーバからビデオ・ストリームBがストリーム配信される。要求元ブラウザ側では、ビデオ・プレイヤ135のビデオ表示画面133上で、受信されたビデオ・ストリームBが表示される。
そして、ブラウザは、ビデオ・ストリームBの再生時間軸上での現在の時刻すなわち再生位置を取得すると、当該時刻に対応する各ビデオ・ストリームA〜Dの代表画像をイメージ配信サーバに要求し、イメージ配信サーバは各ビデオ・ストリームA〜Dの該当する代表画像を返信する。そして、要求元ブラウザ側では、ビデオ・プレイヤ135上でこれら各代表画像が並列表示される。代表画像の取得処理は、ビデオ・ストリームの表示中は定期的に繰り返され、この結果、ビデオ・ストリームの再生位置と同期して代表画像の表示が更新されていく。
次いで、ユーザがビデオ・ストリームCの代表画像を選択したとする。これに応答して、閲覧クライアント(ブラウザ)側からビデオ・ストリームCの配信を要求すると、ストリーム配信サーバからビデオ・ストリームBがストリーム配信される。要求元ブラウザ側では、ビデオ・プレイヤ135のビデオ表示画面133上で、受信されたビデオ・ストリームCが表示される。
そして、ブラウザは、ビデオ・ストリームCの再生時間軸上での現在の時刻すなわち再生位置を取得すると、当該時刻に対応する各ビデオ・ストリームA〜Dの代表画像をイメージ配信サーバに要求し、イメージ配信サーバは各ビデオ・ストリームA〜Dの該当する代表画像を返信する。そして、要求元ブラウザ側では、ビデオ・プレイヤ135上でこれら各代表画像が並列表示される。代表画像の取得処理は、ビデオ・ストリームの表示中は定期的に繰り返され、この結果、ビデオ・ストリームの再生位置と同期して代表画像の表示が更新されていく。
図30には、閲覧クライアントにおいてアクティブ・ストリーム並びに各ビデオ・ストリームの代表画像を動機的に表示するための処理手順をフローチャートの形式で示している。但し、図示の例では、同じ時間軸を持つ4本のビデオ・ストリームA〜Dから構成されるコンテンツの代表画像が図27に示したように作成され、ユーザが時刻t1をマウスで設定し、ビデオ・ストリームAの代表画像をクリックしてビデオ・ストリームAのビデオを再生する場合を例にとっている。
ユーザは、時間軸上でマウス・カーソルを時刻t1に設定する(ステップS1)。
ここで、ビデオ・ストリームAの時刻t1に該当する代表画像が存在しなければ(ステップS2)、ビデオ・ストリームの代表画像を表示しないが(ステップS12)、存在すれば、これを表示する(ステップS3)。
また、ビデオ・ストリームBの時刻t1に該当する代表画像が存在しなければ(ステップS4)、ビデオ・ストリームの代表画像を表示しないが(ステップS13)、存在すれば、これを表示する(ステップS5)。
また、ビデオ・ストリームCの時刻t1に該当する代表画像が存在しなければ(ステップS6)、ビデオ・ストリームの代表画像を表示しないが(ステップS14)、存在すれば、これを表示する(ステップS7)。
また、ビデオ・ストリームDの時刻t1に該当する代表画像が存在しなければ(ステップS8)、ビデオ・ストリームの代表画像を表示しないが(ステップS15)、存在すれば、これを表示する(ステップS9)。
ここで、ユーザがビデオ・ストリームAの代表画像をクリックすると(ステップS10)、ビデオ・ストリームAの当該代表画像に該当する時刻からビデオが再生される(ステップS11)。
なお、閲覧クライアント2が配信サーバ1からデータの配信を受けて再生するシステムを例にとって説明したが、本発明は、例えば、ビデオ・データとこれに対応付けられた資料画像データ並びにアノテーション情報を保持したスタンドアローン型のシステム構成としてもよく、このような構成とする場合には、該当する静止画像データを自らのシステム内で取得してビデオ・データと同期再生することができる。