JP4269980B2 - コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム - Google Patents

コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP4269980B2
JP4269980B2 JP2004068219A JP2004068219A JP4269980B2 JP 4269980 B2 JP4269980 B2 JP 4269980B2 JP 2004068219 A JP2004068219 A JP 2004068219A JP 2004068219 A JP2004068219 A JP 2004068219A JP 4269980 B2 JP4269980 B2 JP 4269980B2
Authority
JP
Japan
Prior art keywords
video
video data
data
representative image
playback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004068219A
Other languages
English (en)
Other versions
JP2005260511A (ja
Inventor
俊介 長谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2004068219A priority Critical patent/JP4269980B2/ja
Publication of JP2005260511A publication Critical patent/JP2005260511A/ja
Application granted granted Critical
Publication of JP4269980B2 publication Critical patent/JP4269980B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、複数のシーンが時間軸上に配列して構成される動画像データの中から所望のシーンを検索する作業を支援するコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムに係り、特に、会議室で開催される会議を録画した動画像データの中から所望のシーンを検索する作業を支援するコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムに関する。
さらに詳しくは、本発明は、複数のビデオ・カメラを用いて会合の様子を撮影した集合データの中から所望のシーンを検索する作業を支援するコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムに係り、特に、同じ時間軸を共有する複数本のビデオ・ストリームからビデオ・インデキシングにより所望のシーンを検索する作業を支援するコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムに関する。
昨今のコンピューティング技術の発展に伴い、コンピュータがオフィスや一般家庭内に深く浸透してきている。これと相俟って、さまざまな適用業務はコンピュータの支援を受けることができるようになってきている。
例えば、企業における産業活動やその他のさまざまに日常生活において、会議やセミナー・講演会、説明会、プレゼンテーションなどが頻繁に行なわれているが、会議室にコンピュータを取り込むことで、これらさまざまな形態の会合の運用を支援することができる。
会議支援システムの一例として、遠隔会議システムを取り上げることができる。遠隔会議システムによれば、遠隔に位置する複数の会議室において、カメラやマイクなどの画像・音声入力装置や、モニタやスピーカなどの画像・音声出力装置を設置し、通信回線を利用して、各会議室において行なわれる発言や質疑応答などのイベントを共有し、遠隔地間で議事を同期して進行させることができる。
例えば、複数のユーザが端末装置のネットワーク接続によって対話を可能とした会議システムとしての対話システム制御方式がある(例えば、特許文献1を参照のこと)。この方式によれば、各端末装置において対話への参加、参加者の離脱を処理することによって、自由な参加や離脱を可能にして会議に相当する対話をすることができる。
また、会議の進行上、会議の参加者を撮影した映像や、参加者の初全内容などの音声だけでなく、会議で使用されるホワイトボードや、スライドその他のプレゼンテーション資料など、会議に関連するさまざまな資料を会議室間で共有し、保管することができる。
例えば、会議に用いられる共有の資料などの用意や保管を容易に行なうことができる会議システムについて提案がなされている(例えば、特許文献2を参照のこと)。この場合、インターネット上の会議支援ウェブサイトを運営する情報提供装置によりTV電話会議のサービスを提供する第1の工程と、会議参加者(ユーザ)が通信端末を用いるとともに、この情報提供装置を通し、共有資料を用いてリアルタイムで会議を行う第2の工程とを備え、会議に用いられる共有の資料等の用意や保管を容易に行うことができ、その場で資料等に書込みを行うこともでき、さらにはアプリケーションソフトの違いやバージョンの違いによる不具合も解消することができる。
また、プレゼンテーションは、プレゼンテータ又はその助手がオペレータとなって多くの資料画像を切り換えて、これら資料画像を聴衆に対して提示しながら進められる。オペレータの手元に置かれるコンピュータの画面に使用する資料画像のタイトル一覧や縮小画像一覧が表示され、オペレータがこれら一覧から所望のものを選択して資料画像をスクリーンに表示するなどして聴衆に提示する。これら資料画像データはあらかじめ用いようとする順序で一覧表示するのが一般的であり、オペレータはプレゼンテーションの進行に従って一覧中から順次資料画像を選択して表示切換を行なう。
しかしながら、プレゼンテーションは予定通りの段取りで進行しない場合もあり、このような場合には、使用する資料画像の順序も予定外となってしまう。また、一通りのプレゼンテーションが終了して、聴衆との質疑応答を行なう場合には、必要な資料画像を遡って表示する必要も生ずる。すなわち、用意された複数の資料画像がプレゼンテーションにおいて何時どのような順序で使用されるかは、実際にプレゼンテーションを実施してみて初めて決定される。
プレゼンテーションを収録したビデオ・データとともに、当該プレゼンテーションで使用された資料画像データを含んだコンテンツを作成して、当該コンテンツを閲覧するユーザにプレゼンテーションを再現して提示する場合、ビデオ・データと資料画像データとを実際の使用状態を反映して対応付けることが重要である。
プレゼンテーションを収録したビデオ・データと、その場で使用された資料画像データとを実際のプレゼンテーション行為を反映させて対応付け、これによってプレゼンテーションを収録したコンテンツの品質を高めることができる(例えば、非特許文献1を参照のこと)。
この場合、カメラ収録されたビデオ・データを入力し、プレゼンテーションで使用される資料画像データ、並びにプレゼンテーションにおいてプレゼンテータが行った資料画像の切換指示をそれぞれ入力し、ビデオ・データを基準とした時間軸に対して切換指示の入力タイミングを当該切り換えられる資料画像データの表示開始タイミングとして設定する処理を行ない、複数の資料画像を切換え表示しながら行うプレゼンテーションを収録したビデオ・データに対して使用された資料画像のデータを対応付ける。これによって、ビデオ・データの再生時には、ビデオ・データと資料画像データとを実際の使用状態を反映して対応付けることができ、プレゼンテーションを忠実に再現することができるコンテンツを作成することが可能となる。
会議は、ほぼ毎日、複数の会議において時間毎に開催される。このため、会議毎に捕捉され、蓄積された会議データは膨大であり、その数は日々増加していく。ここで、会議での決定事項を見返すなど、会議データを再利用したいときに、所望の会議記録の中から所望の箇所を探し出す手間が煩わしくなる、あるいは探し出すことが困難若しくは不可能である、という問題が浮上する。
従来、会議などでの決定事項などは、後に発行される議事録を見返すことにより振り返ることができる。しかし、決定事項に至った詳細な経緯などは記録されないため、振り返ることができない。また、本題から外れた内容であるが当人にとっては重要であると思える発話の内容や資料の内容など、議事録に載らないような事柄でも後で思い出したいと思う場合がある。
このような振り返りを支援する技術として動画像を利用する方法がある。会議をビデオ撮影し、後で思い出したいシーンを再生することにより想起を支援する方法である。そのためには、見たいシーンをすばやく検索する技術が不可欠となる。
例えば、1本のビデオ・ストリームからビデオ・インデキシング結果を基にからコンテンツの内容を把握することができる(例えば、特許文献3を参照のこと)。
ここで、映像や音声など会議の進行上で発生するさまざまなデータを記録する会議システムにおいて、1台のビデオ・カメラのみで会合の様子を記録する場合、カメラの視野角や設置場所などの制約から、実際に見たい参加者や発言内容が撮影されず、コンテンツの再生時には十分な臨場感が得られないという問題がある。
これに対し、複数台のビデオ・カメラを用意し、会議室内に分散して配置することで、会議で起きたさまざまなイベントを捕捉することができる。ところが、各ビデオ・カメラは、本来それぞれ独立した機器であり、得られた複数のビデオ・ストリームを集合データとして取り扱う場合、コンテンツの内容の把握方法やシーン検索の処理が問題となる。
すなわち、異なるビデオ・カメラから得られたビデオ・ストリーム毎に視点が相違するため、従来のビデオ・インデキシング技術をそのまま適用することはできない。また、特定のビデオ・ストリームのビデオ・インデキシング結果を基に複数のビデオ・ストリームをまとめて取り扱おうとすると、視点の相違に起因する情報の欠落が発生したり、ユーザの求める視点との相違が発生したりするため、良好なシーン検索を行なえない可能性がある。一方、複数のビデオ・ストリームを同時に取り扱おうとすると、帯域や処理不可の問題が浮上する。
特開平3−192845号公報 特開2002−41429号公報 特開2000−90121号公報 特願2003−201673号
本発明の目的は、複数のシーンが時間軸上に配列して構成される動画像データの中から所望のシーンを検索する作業を好適に支援することができる、優れたコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、複数のビデオ・カメラを用いて会合の様子を撮影した集合データの中から所望のシーンを検索する作業を好適に支援することができる、優れたコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、同じ時間軸を共有する複数本のビデオ・ストリームからビデオ・インデキシングにより所望のシーンを検索する作業を好適に支援することができる、優れたコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムを提供することにある。
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、同じ時間軸を共有する複数のビデオ・データを提供するための処理を行なうコンテンツ処理システムであって、前記の各ビデオ・データをそれぞれインデキシング処理し、ビデオ・データ毎の代表画像を作成し、それぞれ時間軸上に配列して管理する代表画像管理手段と、ビデオ・データの再生要求を受容するビデオ要求入力手段と、ビデオ・データの要求に応じて、選択された1以上のビデオ・データの再生画面を提供するビデオ再生画面提供手段と、前記ビデオ再生画面に提供されているビデオ・データの再生位置に対応する前記の各ビデオ・データの代表画像を提供する代表画像提供手段とを具備することを特徴とするコンテンツ処理システムである。
ここで、前記ビデオ要求入力手段は、前記代表画像提供手段により提供されている代表画像の選択操作に応じて、対応するビデオ・データの再生要求を受容する。また、前記ビデオ再生画面提供手段は、ビデオ・データの再生中に代表画像の選択操作が行なわれたことに応答して、選択されたビデオ・データの再生画面に切り替える。そして、前記ビデオ再生画面提供手段は、ビデオ・データの再生中で代表画像の選択操作が行なわれた時点における再生位置から、選択されたビデオ・データの再生を開始する。
また、前記代表画像提供手段は、前記ビデオ再生画面提供手段により提供されるビデオ・データの再生位置の進行に同期して、各ビデオ・データの代表画像の表示を順次切り替えていく。
本発明によれば、同じ時間軸を共有する複数のビデオ・ストリームのうちユーザが選択したビデオ・ストリームをアクティブ・ストリームとして再生する際に、これに並行して、各ビデオ・ストリームをそれぞれインデキシングして作成した代表画像を表示することができる。ビデオの進行に同期して再生時刻に対応した代表画像に順次切り替えていく。そして、ユーザが代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。
したがって、本発明によれば、ユーザは、ビデオ・ストリームの本数に相当する代表画像の数だけ異なる視点でビデオ・ストリームの閲覧が可能となる。ビデオの表示と同期して複数の代表画像が切り替わることにより、ユーザにとって取得情報が増大するので、アクティブ・ストリーム選択の動機付けとなる。この結果、ビデオ・インデキシングに伴う情報の欠落を補うことができるとともに、ユーザは好みの視点でビデオを視聴することができるので、コンテンツ再生時の臨場感が向上する。
また、ユーザは、代表画像が提示される複数のビデオ・ストリームの中からアクティブ・ストリームを選択することにより、1本分のビデオ・ストリームに限定して受信することができ、通信帯域や通信負荷を低減することができる。
勿論、閲覧クライアントにおいて同時に複数のビデオ・ストリームを受信する場合には、そのビデオ・ディスプレイ部が受信するビデオ・ストリームの数だけ表示することが可能である。
また、本発明の第2の側面は、同じ時間軸を共有する複数のビデオ・データを提供するための処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、前記の各ビデオ・データをそれぞれインデキシング処理し、ビデオ・データ毎の代表画像を作成し、それぞれ時間軸上に配列する代表画像生成ステップと、ビデオ・データの再生要求を受容するビデオ要求入力ステップと、ビデオ・データの要求に応じて、選択された1以上のビデオ・データの再生画面を提供するビデオ再生画面提供ステップと、前記ビデオ再生画面に提供されているビデオ・データの再生位置に対応する前記の各ビデオ・データの代表画像を提供する代表画像提供ステップとを具備することを特徴とするコンピュータ・プログラムである。
本発明の第2の側面に係るコンピュータ・プログラムは、コンピュータ・システム上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第2の側面に係るコンピュータ・プログラムをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係るコンテンツ処理システムと同様の作用効果を得ることができる。
本発明によれば、複数のシーンが時間軸上に配列して構成される動画像データの中から所望のシーンを検索する作業を好適に支援することができる、優れたコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムを提供することができる。
また、本発明によれば、複数のビデオ・カメラを用いて会合の様子を撮影した集合データの中から所望のシーンを検索する作業を好適に支援することができる、優れたコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムを提供することができる。
また、本発明によれば、同じ時間軸を共有する複数本のビデオ・ストリームからビデオ・インデキシングにより所望のシーンを検索する作業を好適に支援することができる、優れたコンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラムを提供することができる。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本発明の実施形態について詳解する。
以下、図面を参照しながら本発明の実施形態について詳解する。但し、ビデオ・データと資料画像データやその他の付加画像データを含むコンテンツをユーザに配信するシステムについてまず説明し、続いて、このような配信コンテンツを作成するためのシステム、コンテンツを再生するためにシステムについて説明する。
A.コンテンツ配信システムの構成
図1には、コンテンツ配信システムの構成を模式的に示している。図示のコンテンツ配信システムは、インターネットNを介して接続される配信サーバ1、閲覧クライアント2、登録クライアント3を備えて構成される。
配信サーバ1、閲覧クライアント2、並びに登録クライアント3は、パーソナル・コンピュータ(PC)などの一般的な計算機システムに、それぞれの機能を実現するためのサーバ・アプリケーション、クライアント・アプリケーションをインストールすることによって構成されている。また、閲覧クライアント2は、配信サーバ1より配信されるコンテンツを閲覧するためのブラウザ機能をインストールしている。
図1では簡素化のため、配信サーバ1、閲覧クライアント2、登録クライアント3を各1台ずつしか描いていないが、インターネットN上にはこれらサーバ、クライアント、あるいはその他の無数のホスト装置が接続されていてもよい。例えば、閲覧クライアント2はコンテンツを閲覧するユーザが使用する端末であるので多数接続される。一方、配信サーバ1や登録クライント3は集中管理を行なうように1台としてもよい。なお、後述するように配置先セットの集合でコンテンツ・データの記憶領域を構成するので、配信サーバ1は複数のサーバ装置で機能やデータを分担する構成とするのが好ましい。
本実施形態では、配信サーバ1は、ビデオ・データと、ビデオ・データ毎に対応付けたスライド画像データ、資料画像データ、検索用の音声インデックス・データ、コンテンツ・タイトルなどのコンテンツ・レコード(メタデータ)をコンテンツ毎のデータとして記憶保持しており、閲覧クライアント2からの要求に応じて該当するコンテンツ・データを配信提供する。
図2には、配信サーバ1に登録されている配信用コンテンツの構造を模式的に示している。図2(a)にはビデオ・データ5とスライド画像データ6との対応付け関係を示している。また、図2(b)にはビデオ・データ5と資料画像データ7との対応付け関係を示してある。
ビデオ・データ5は、配信用のストリーム形式に変換された動画像データであり、スライド画像データ6(A〜K)は配置登録前の前処理によってビデオ・データ5中から自動処理又はオペレータ操作によって抽出された静止画像データである。これらスライド画像データは、例えばビデオ中のある時間幅を持った場面を代表的に表すシーンの画像であり、ビデオ・データ5の該当する場面に対応付けられている。スライド画像データは、主に閲覧ユーザが所望のコンテンツを探したり又はコンテンツビデオ中の所望の場面を探したりする検索用として用いられる。
また、資料画像データ7(a〜n)は、配置登録前の前処理によってオペレータがビデオを見ながら設定操作してビデオ・データ5に対応付けた静止画像データであり、例えばプレゼンテーションや講義などを写したビデオ・データ5に対し、当該プレゼンテーションにおいて使用された資料を写した画像データである。資料画像データ7は、資料が用いられたビデオ中の或る時間幅を持った場面に対応付けられ、閲覧ユーザに対してビデオ画像に同期して該当する資料画像を提供する。
なお、これらスライド画像データ6と資料画像データ7とはいずれか一方だけをビデオ・データ5に付随させるようにしてもよく、本明細書の説明では、特に指摘する場合を除いて、スライド画像データ6と資料画像データ7との両方又はいずれか一方を画像データと記述するものとする。
このようなコンテンツ・データは、ブラウザを使用する閲覧クライアント2からの要求に応答して、配信クライアント1から配信処理され、要求元の閲覧クライアント2に提供されてその表示装置に画面表示される。
図3には、配信サーバ1から配信されたコンテンツ・データが閲覧クライアント2側で表示されるコンテンツ閲覧画面の構成例を示している。
このコンテンツ閲覧画面は、画像を表示するビデオ画面133及び再生や停止などの操作ボタンが配置されたビデオ操作部134を有したビデオ・プレイヤ135と、コマ送り操作ボタンが配置された操作部136を有した画像表示部137と、コンテンツ・データに関するプログラム記述などを表示するノート表示画面部138を含んでいる。したがって、閲覧するユーザがポインティング入力で操作することにより、ビデオ画面133にビデオ画像を再生させ、画像表示部137にスライド画像や資料画像を表示させることができる。
後述するように、本実施形態では、配信サーバ1は、同じ時間軸を共有する複数のビデオ・ストリームを1つの集合データとして取り扱う。ビデオ・プレイヤ135側では、複数のビデオ・ストリームのうちユーザが選択したビデオ・ストリームがアクティブ・ストリームとしてビデオ画面133上で再生される。
また、配信サーバ1側では、各ビデオ・ストリームをそれぞれインデキシングして代表画像を作成しており、アクティブ・ストリームとして選択されたビデオ・ストリームをストリーミング配信する一方、その他のビデオ・ストリームの代表画像を配信する。
ビデオ・プレイヤ135では、ビデオ画面133上でのビデオ(アクティブ・ストリーム)の進行に同期して再生時刻に対応した代表画像に切り替える。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。
また、配信サーバ1にアクセスし、資料画像などの所望のコンテンツの画像データが閲覧クライアント2へ配信される。図4並びに図5には、この配信された画像データが閲覧クライアント2で表示される詳細表示画面の構成例を示している。
図4では、スライド画像データ6の一覧表示を行なった状態を示しており、レコード・データ表示部140には当該コンテンツのメタデータの諸項目が表示され、スライド画像表示部141には当該コンテンツに対応付けられたすべてのスライド画像106が時系列に表示されている。
各スライド画像106は、該当する場面の時間長さに応じて大きくなるようにスライド画像表示部141に表示される。例えば、図2(a)に示すように、他に較べて場面の長さが短いCやDのスライド画像106は、スライド画像表示部141において他のスライド画像より小さいサイズで表示される。このようなサイズ変換は、例えば、各スライド画像に場面長さに応じた情報を付加しておくことにより、詳細表示の要求に応じて配信サーバ1において行なうことができる。なお、このような画像サイズに差を持たせて表示する態様は、場面の内容が変化する大きさに応じたり、作者の意図に応じたりといったように、場面の重要度に応じてサイズを設定するようにしてもよい。
また、図5には、資料画像データ7の一覧表示を行なった状態を示している。図示の通り、レコード・データ表示部142には、当該コンテンツのメタデータの諸項目が表示される。資料画像表示部143には、当該コンテンツに対応付けられたすべての資料画像107が時系列に表示されるとともに、各資料画像107から抽出された内容の記述文字列107aが画像表示される。この文字列7aは資料画像データ6から必要に応じて文字認識処理などで抽出され、資料画像をキーワード検索する際に照合される。
B.コンテンツ・データの登録
次に、コンテンツ・データを配信サーバ1に配置登録することについて説明する。
図6には、配信サーバ1に各コンテンツのレコードを記憶管理するための機能構成を示している。同図に示すように、配信サーバ1は、配置登録した各コンテンツのレコードを記憶管理するデータベース150と、各コンテンツ・データの実体を格納する複数の配置先セット151を備えている。
データベース150は、各コンテンツ・データのメタデータ、配置先ファイル・パス、配置先URLなどを含むコンテンツ用レコード152とともに、当該コンテンツ・データが配置登録されている配置先セットを特定する番号153を記憶管理している。したがって、データベース150を参照することにより、配信可能に各コンテンツ・データを配置登録し、また、閲覧クライアント2から要求された該当するコンテンツ・データを配信することができる。
コンテンツ用レコード152内には、会議を撮影して得られたビデオ・データなどのコンテンツに関するレコードの他に、スライドなどのプレゼンテーション用の資料画像データや、プレゼンテーションの際に行なわれたアノテーション情報などの各画像データに関するレコードが格納される。
本実施形態では、これら画像データを、会議すなわちビデオ・データの時間軸と対応付けて管理するために、これら画像データ毎のレコードは、データを識別するID、保管場所を示す配置先URLと、ビデオ・データの時間軸上の配置場所を示す時刻情報を組み合わせて構成される。この時刻情報は、ライブのプレゼンテーションにおいてスライドが提示された時刻、スライドに対しアノテーションが入力された時刻、あるいはプレゼンテーションの再生時においてアノテーションが入力された時刻を表す。
また、本実施形態では、複数のカメラを用いて、プレゼンテーションの様子を同時に収録する。このようにして得られた同じ時間軸を共有する複数のビデオ・データは、コンテンツ用レコード152内では、1つの集合データとしてビデオ時間関連情報とともに記録・管理される。時間関連情報は、ビデオ素材を指定する情報と、開始時刻を含むデータの集合であり、カメラの収録動作の制御情報からビデオ時間関連情報を抽出することができる。また、ビデオに関連する情報は、資料画像データ及び矢印などの付加画像データ、アノテーション情報(後述)、及びビデオ時間と同期するタイミングのデータである。
配置先セット151は、それぞれが1又は複数のコンテンツ・データを格納する記憶領域であり、これら配置先セット151の集合として配置サーバ1のコンテンツ・データ記憶領域が構成されている。図示の例では、各配置先セット151には、ビデオ・データを格納するビデオ・データ・フォルダ154、画像データを格納するための画像データ・フォルダ155、音声インデックス・データを格納するための音声インデックス・フォルダ156が設けられている。スライドなどのプレゼンテーション用の資料画像データや、プレゼンテーションの際に行なわれたアノテーション情報などの画像データは、画像データ・フォルダ155内に格納される(但し、資料画像データとアノテーション情報とを別のデータ・フォルダに分けて記録・管理するようにしてもよい)。同じコンテンツのデータは同じ配置先セット151となるように、これらフォルダ154〜156内に各コンテンツの対応するデータが登録格納される。配置先セット151に登録されたコンテンツ・データの配信は、閲覧クライアント2からの要求に応じてデータベース150を参照することにより行なわれる。
コンテンツ作成ツール160は、MPEG(Moving Picture Experts Group)などの形式のビデオ・データを配信用のストリーム形式のビデオ・データに変換する処理や、ビデオ・データにスライド画像データを対応付けて登録する処理、ビデオ・データに資料画像データを対応付けする処理、ビデオ・データに音声インデックス・データを対応付けする処理などを行なう。
このようにして、配信サーバ1に登録配置されたコンテンツ・データは、閲覧クライアント2からの要求に応じてデータベース150を参照することにより配信サーバ1から提供される。すなわち、閲覧クライアント2が配信サーバ1に対してコンテンツを指定する情報を含む要求を送信すると、配信サーバ1はコンテンツ・レコード152を参照して当該コンテンツ・データを配置した配置先セット番号を割り出し、該当するコンテンツを閲覧クライアント2へ提供する処理を行なう。
本実施形態では、複数のビデオ・データとビデオに関連する画像などの各メディア・コンテンツを、1つの集合データとしてシステムに蓄積し、時間的な共有のデータも蓄積することにより、閲覧者が同一の時間帯でのビデオ及び資料画面を見比べながら閲覧できるようにすることができる。
ここで、配置先セット151は物理的又は論理的な記憶領域であり、各配置先セット151を異なるデータ・サーバ装置に設けたり、あるいは単一又は複数のデータ・サーバ装置を論理的に横断した形で配置先セットを構成したりすることができる。例えば、図7に示すように、コンテンツ・レコードを管理するデータベース150をデータベース・サーバ150とし、各配置先セット151を複数のデータ・サーバ装置157〜159にそれぞれ分散し、これらサーバ装置によって配信サーバ1を構成することもできる。
図7に示したように複数のデータ・サーバ装置157〜159により配置先セット151を構成することにより、データ・サーバ装置157〜159を追加するとともにコンテンツ用レコード152を追加するだけで、コンテンツ・データの記憶領域を増設することができ、システム構成を柔軟なものとすることができる。なお、論理的な構成としても、各配置先セットの容量などを容易に変更することができ、同様にシステム構成を柔軟なものとすることができる。ビデオ・データの配信を行なうシステムではデータが大きいことから、システム構成を変更する必要性が頻繁に生ずるばかりではなく、コンテンツ・データへのアクセス負荷を分散するためにも各コンテンツの配置先を分散させる必要性が生ずる。
なお、配信サーバ1では、配信用に形式変換されたコンテンツ・データ(ビデオ・データ、画像データ、音声インデックス・データ)と、さらにコンテンツ検索用のメタデータとをまとめた配信検索用コンテンツの形式にしてから、配置登録が行なわれる。配信検索用コンテンツは、検索用のデータがコンテンツ本体に紐付けされた「アーカイブ・ファイル」であり、持ち運びが可能である。
アーカイブ・ファイルは、ビデオ・データなどのソース・コンテンツを、アーカイブ・ツールで加工することによって作成される。図8には、アーカイブ・ファイルの構成を模式的に示している。アーカイブ・ファイル165は、コンテンツ・データを構成するストリーム形式のビデオ・データ167、スライド画像又は資料画像の画像データ168、音声インデックス・データ169、メタデータで構成され、さらにメタデータを更新するアプレット用データ170が含まれている。
このように複数種類のデータ167〜170を含むコンテンツ・データを1つのアーカイブ・ファイル165にしておくことにより、配信サーバ1への登録配置処理に要する時間を短縮化することができ、また、このアーカイブ・ファイル165の持ち運び性が向上し、同一のコンテンツを登録する他のシステムへの再利用やバックアップ・データとしての利用に供することができる。
C.コンテンツ作成システム
次に、このような配信コンテンツを作成するためのシステムについて説明する。
本実施形態に係るコンテンツ作成システムは、複数のビデオ・カメラを用いてプレゼンテーションにおける進行状況を映像や音響などのビデオ・データとして捕捉し、これら複数のビデオ・データを1つの集合データとして扱うとともに、スライドなどのプレゼンテーション用の資料画像データや、プレゼンテーションの際(又はプレゼンテーションの再生の際)に行なわれたアノテーションなどの画像データをビデオ・データの時間軸と対応付けて記録・管理する。これら画像データが持つ時刻情報は、ライブのプレゼンテーションにおいてスライドが提示された時刻、スライドに対しアノテーションが入力された時刻、あるいはプレゼンテーションの再生時においてアノテーションが入力された時刻を表す。
なお、本明細書中では、会議、講演、授業、説明会などといったように、資料を聴衆に提示しながら発表を行なう行為を総称してプレゼンテーションと呼ぶことにする。
図9には、本実施形態に係るコンテンツ作成システムの機能構成を模式的に示している。
アーカーブ・ファイル25に収められて配信サーバ1に登録されるコンテンツは、プレゼンテータPがプロジェクタJでスクリーンSに資料画像30を切換表示しながら行なったプレゼンテーションをビデオ・カメラVで収録したビデオ・データ31と、これら資料画像30のデータ、さらにはプレゼンテーションの際に行なわれたアノテーション情報を含んでいる。なお、コンテンツには、資料画像30に対して付加して表示する矢印やアニメーションなどの付加画像データ、並びにアノテーション情報を含めることもできる。また、プレゼンテータPの操作用としてプレゼンテーション支援装置40が当該プレゼンテータPの手元に設置されている。
本実施形態では、複数のカメラ51、V2…を用いて、プレゼンテーションの様子を同時に収録する。各ビデオ・カメラ51、V2…から得られたビデオ・データは、後述するように所定の時間軸に対応付けられ、ビデオ時間関連情報とともに記録・管理される。後述するように、複数のビデオ・データとビデオに関連する画像などの各メディア・コンテンツを、1つの集合データとしてシステムに蓄積し、時間的な共有のデータも蓄積することにより、閲覧者が同一の時間帯でのビデオ及び資料画面を見比べながら閲覧できるようにすることができる。
また、プレゼンテーションで使用される複数の資料画像データ30は、あらかじめファイル作成装置50によって1つの資料ファイル61にまとめられてファイル保持装置60に保持されている。そして、プレゼンテータPがプレゼンテーション支援装置40から入力する切換指示に応じて、資料ファイル61に収められている資料画像データ30を予め設定された順序に従って読み出され、ビューア70による表示制御処理を経てプロジェクタJからスクリーンSに投影表示される。
また、発言者が視聴者や聴衆に対し発言内容の理解を促すために、線描画などで構成されるアノテーションの入力が行なわれる。アノテーションの入力は、スクリーン上に投影されたスライドやその他の資料画像、会議室内に設置されているホワイトボード(図示しない)、発言者が取り扱っているPCのモニタ画面などに向かって行なうことができる。
収録されたビデオ・データ31、当該プレゼンテーションで使用される資料画像データ30(すなわち、資料ファイル61)、当該プレゼンテーションでプレゼンテーション支援装置40から出力される切換指示信号、並びに、発言者がアノテーション入力部110に対して入力したアノテーション入力信号は、対応付け装置80に逐一入力され、実際のプレゼンテーションにおける使用タイミングで資料画像データ30がビデオ・データ31の時間軸に対応付けされる。
この対応付けされた資料ファイル62、アノテーション情報は、各ビデオ・カメラ51、V2…から得られた複数のビデオ・データ31とともに、配信サーバ1に登録するコンテンツ素材としてデータ保持装置90に保持され、これらコンテンツ素材が編集装置100によって必要な編集を施されて、配信登録用のアーカイブ・ファイル25にまとめられる。
本実施形態では、会議室内にアノテーション入力装置10が設置されている。アノテーションの入力は、スクリーン上に投影されたスライドやその他の資料画像、会議室内に設置されているホワイトボード(図示しない)、発言者が取り扱っているPCのモニタ画面などに向かって行なうことができる。アノテーション入力装置10は、発言者が視聴者や聴衆に対し発言内容の理解を促すために行なう線描画に関する情報を操作面から直接読み取ることができるGUI画面やデジタイザ、あるいは間接的に読み取ることができる任意の装置として構成することができる。
本実施形態では、アノテーションは、点を結ぶ線の集合として取り扱い、各点の座標(point)、線の太さ、線の色などの属性情報(attribute)を、描画を完了した時刻ともに記録する。点の総数の制限、各点の距離を一定以上に制限したり、さらに矩形や楕円などは対角する2点の座標のみを記録したりし、点の数が増えることによって記録情報が増大することを防ぐことができる。
図10には、資料画像ファイル61の作成及び資料画像30の表示に係るファイル作成装置50、ファイル保持装置60、ビューア70の構成を示している。
ファイル作成装置50は、資料画像データを入力する入力装置51と、入力される際にオペレータにより指定された順序情報を各資料画像データに付加する順序付け装置52、入力された資料画像データを資料ファイル61にまとめるファイル化装置53、資料ファイル61をファイル保持装置60に出力する出力装置54を備えている。すなわち、ファイル作成装置50は、入力装置51が資料画像データを入力し、ファイル化装置53が入力された複数の資料画像データを資料ファイル61にまとめる処理を、下記のビューア70による処理に先立って行なう。
資料画像データには、静止画像や動画像、さらにはデータ形式の制限は特になく、これら種別に関わりなく複数の資料画像データをファイル作成装置50に入力して資料ファイル61とすることができる。
図11には、資料ファイルのデータ構造を模式的に示している。同図に示すように、資料ファイル61に収められる各資料画像データ30は、資料画像を成す実データに加えて、資料ID、種別情報、オペレータにより指定された順序情報(デフォルト)、オペレータにより付加されたタイトルや重要語などのキーワードなどのデータを含んでいる。
ここで、各資料画像に重ね表示する矢印などの付加画像データ33も資料画像データ30とともにファイル作成装置50に入力されて、資料ファイルの一部又は付属とされる。付加画像データ33とビデオ・データ30とは、あらかじめ対応付けがなされており、この対応付けに基づいて、資料画像30の表示に伴って付加画像33が同期表示される。
ビューア70は、ファイル保持装置60から資料ファイル61を入力する入力手段71、プレゼンテーション支援装置40からの表示資料画像の切換指示を入力する指示入力装置72、切換指示に応じて資料ファイル61から順次読み出す資料画像データ30のデータ種別をその種別情報から判定する種別判定装置73、資料画像データをプロジェクタJが表示出力可能な統一的な形式に変換する各種のプレイヤ・モジュールを保持したプレイヤ・ファイル74、資料ファイル61から読み出した資料画像データ30をそのデータ種別に対応したプレイヤ・モジュールを起動してプロジェクタJが表示出力可能な形式に変換する出力制御装置75、投影用に形式変換された資料画像データ30をプロジェクタJに出力する出力装置76を備えている。
このビューア70は、指示入力装置72が表示資料を切り換えるオペレータ指示を受け付け、種別判定装置73が切換指示に応じて複数種類の資料画像データ30を収めた資料ファイル61から次に読み出して表示する資料画像データの種別を判定し、出力制御装置75がデータ種別に応じて用意されたプレイヤ・ファイル74から判定された種別に対応するプレイヤを選択起動して資料画像データ30をプロジェクタJに出力する処理を行なう。
上記の切換指示に応じた資料ファイル61からの資料画像データ30の読み出し(すなわち、スクリーンSへの資料の表示)は、各資料画像データ30に初期的に設定されている順序情報(デフォルト)に従ってなされる。したがって、プレゼンテータが切換指示をするタイミングで、順序情報(デフォルト)に従った順序で資料ファイル61内に収められた資料画像が順次切り換えられてスクリーンSに表示される。そして、このような資料画像データ30は、そのデータ形式に関わりなく資料ファイル61に収めれば、プレゼンテーション資料として使用することができ、資料の準備作業を極めて容易に行なうことができる。
なお、ファイル作成装置50、ファイル保持装置60、ビューア70はそれぞれ別個の装置として構成しても、これら装置機能を一体化した単一の装置として構成してもよく、いずれの装置構成においても、例えば、コンピュータに上記機能を実現するプログラムを実行させることにより構成することができる。
図12には、プレゼンテータPが操作するプレゼンテーション支援装置40の構成を示している。
プレゼンテーション支援装置40は、ファイル保持装置60に保持された資料ファイル61をビューア70を介して入力する資料ファイル入力装置41、資料ファイル61中の各資料画像データ30を縮小してサムネイル画像化するサムネイル化装置42、資料ファイル61中のスクリーンSで聴衆に対して表示出力される資料画像を表示する領域44と残余の資料画像をサムネイル一覧で表示する領域45とを画面上に有する表示装置43、プレゼンテータPからの操作入力を受け付ける操作入力装置46、プレゼンテータPから入力された検索条件に合致する資料画像をサムネイル一覧45から検索する検索装置47を備えている。
ビューア70は、資料ファイル61に収められているすべての資料画像データをプロジェクタ表示可能に変換してプレゼンテーション支援装置40に提供する。
図13には、プレゼンテーション支援装置40がプレゼンテータPに提示する画面構成例を示している。表示装置43は、順序情報(デフォルト)に従ってスクリーン表示される最初の資料画像を画面43の領域44に表示してプレゼンテータPに提示し、残余の資料画像をサムネイル画像として領域45に一覧表示する。
そして、画面43上にはスクリーン表示する資料画像を前へ戻すための「戻る」ボタン48aとスクリーン表示する資料画像を次の順序のものに切り換えるための「進む」ボタン48bとが設けられており、プレゼンテータPが操作入力手段46からこれらボタンを押下することにより、スクリーン表示する資料画像を順次切り換えることができる。
なお、領域45に一覧表示される資料画像はサムネイル形式であるので、これらサムネイル画像をプレゼンテータPが操作入力装置46から選択押下することにより切換信号を発して、選択した資料画像をスクリーン表示させることもできる。
このようなプレゼンテータPによる操作により、上記の資料画像の切換指示信号がビューア70に入力されてスクリーン表示が切り換えられ、また、対応付け装置80に入力され、ビデオ・データ31と各資料画像データとの時間位置関係の対応付け、及び各資料画像データの順序情報の更新がなされる。
また、画面43上には検索条件を入力するための欄49aと検索処理を実行指示するための「検索」ボタン49bとが設けられており、プレゼンテータPが操作入力手段46から欄49aに検索条件を入力しボタン49bを押下することにより、検索装置47がサムネイル一覧45の中から条件に合致する資料画像を検索し、当該資料画像のサムネイルをハイライト表示するあるいは当該資料画像を領域44に表示することができる。
この検索条件には、各資料画像データに設定されている順序情報、データ種別、キーワードなどを用いることができ、例えば、何番目に用いた資料画像、動画の資料画像、あるタイトルの資料画像といったように、検索装置47により資料ファイル61内から条件に合致する資料画像を検索することができる。
プレゼンテーション支援装置40は、例えば、一般的なコンピュータ・システムに所定のプレゼンテーション支援用アプリケーション・プログラムを実行させるという形態で構成することができる。プレゼンテーション支援装置40によると、プレゼンテータPは必要に応じて切換指示を入力するだけでスクリーン表示する資料画像を任意に切り換えることができるとともに、事後における聴衆からの質問等に応じて必要な資料画像を探す際でも、検索処理によって迅速に所望の資料画像を探し出すことができる。
図14には、アノテーション入力装置10の構成例を示している。アノテーションは、発言者が視聴者や聴衆に対し発言内容の理解を促すために行なう線描画などで構成される。アノテーションの入力形態として幾つか考えられ、例えば、スクリーン上に投影されたスライドやその他の資料画像、会議室内に設置されているホワイトボード、発言者が取り扱っているPCのモニタ画面などに向かって行なう。したがって、アノテーション入力装置10は、このような線描画に関する情報を操作面から直接読み取ることができるGUI画面やデジタイザ、あるいは間接的に読み取ることができる任意の装置として構成することができる。
図14に示す例では、アノテーション入力装置10は、プレゼンテーションの映像を記録するとともに、ドキュメントを閲覧することができるPCのブラウザ画面を利用して構成されている。すなわち、アノテーション入力装置10は、アノテーション記録・再生用コントローラ11と、スライドなどの資料画像データやプレゼンテーション用ドキュメントを表示するドキュメント表示部12と、プレゼンテーションの様子やPC上で管理されている一般的な情報資源を閲覧するブラウザ13で構成されている。
アノテーションの記録時には、例えば、プレゼンテーションの進行に合わせて、表示されるドキュメント上でマウス操作を行なうことにより、アノテーションを描画する。この描画動作は、点の結ぶ線の集合としてサンプリングされ、各点の座標と、点毎の入力時刻、点同士を結ぶ線の太さや色などの属性情報がアノテーション情報として、ブラウザを経由して対応付け装置80へ送信される。そして、対応付け装置80では、ライブのプレゼンテーションにおいて利用されるスライドなどの資料画像データの切り替わり情報とともに、アノテーション情報がプレゼンテーションを記録するビデオ・データの時間軸に対応付けてデータ保持装置90(データ・サーバ)上で記録・管理される。
入力されたアノテーション情報は、ライブのプレゼンテーションにおいて利用されるスライドなどの資料画像データなどと同様に、プレゼンテーションを記録するビデオ・データの時間軸に対応付けて、データ・サーバ上で記録・管理される。
一方、記録されたアノテーション情報を再生するときには、まず、配信サーバ1に対し、プレゼンテーションを記録するビデオ・データへのアクセス要求が行なわれる。配信サーバ1は、アクセス要求に応答して、動画像やスライドなどの資料画像データ・ドキュメントを同期配信するとともに、アノテーション情報も配信する。配信サーバ1上では、プレゼンテーションを記録するビデオ・データへのアクセス要求がなされたときに、その時間軸に対応付けてアノテーション情報が配信される。すなわち、配信サーバ1にアクセスした視聴者は、プレゼンテーションを再生する動画像や、スライドなどのドキュメントとともに、ドキュメント上に再現されるアノテーションを見ることができる。
ビデオ・データはブラウザ13上で表示される。また、スライドなどの資料画像データ、プレゼンテーション用ドキュメントは、ドキュメント表示部12で表示される。そして、アノテーション情報は、ブラウザ13から、アノテーション記録・再生用コントローラ11に渡される。そして、アノテーション記録・再生用コントローラ11では、アノテーション情報に含まれる点同士を属性情報に従って結線処理して描画し、アノテーションを再現する。
なお、アノテーションの再生時において、アノテーションを記録する時刻が、アノテーションの描画が終了した時刻であることを操作者が認識できるようにするため、アノテーションの描画中(マウスのドラッグ中など)は線を半透明で描画し、描画の完了(マウスのボタンを離す)時に線を不透明な色で再描画する。
図15には、複数のビデオ・カメラV1、V2…で収録されたプレゼンテーションのビデオ・データ31−1、31−2…と、そこで使用された資料画像データ30と、プレゼンテーションの進行に合わせて入力されたアノテーション情報とを対応付ける対応付け装置80の機能構成を示している。
対応付け装置80は、収録されたビデオ・データを入力するビデオ入力手段81、プレゼンテーションで使用される資料画像データ(資料ファイル61)を入力する資料ファイル入力手段82、プレゼンテーションにおいてプレゼンテータPが行なった資料画像の切換指示を入力する切換指示入力手段83、ビデオ・データを基準とした時間軸に対して資料画像データやアノテーション情報の対応付けを行なう対応付け手段85、対応付け処理により更新した資料ファイル、アノテーション情報、並びに、ビデオ・データを、データを保持するデータ・サーバに出力する出力手段86を備えている。
対応付け装置85は、ビデオ・カメラV1による撮影時間を基準とした時間軸に対して、各ビデオ・カメラ51、V2…から得られたビデオ・データを管理するためのビデオ時間データ・テーブル(後述)を作成する。ビデオ時間データ・テーブルは、ビデオ・データを識別するビデオ・データ識別IDと、撮影開始時間を含んでいる。
また、対応付け装置85は、ビデオ・カメラV1による撮影時間を基準とした時間軸に対して、切換指示の入力タイミングを当該切り換えられる資料画像データの表示開始タイミングとして設定する。
また、対応付け装置85は、ビデオ・データを基準とした時間軸に対して、マウス操作などによりアノテーションを記録する時刻を、アノテーションの描画開始タイミングとして設定する。
図16には、対応付け装置85によってビデオ・データを基準とした時間軸に対し、資料画像データの表示開始タイミングやアノテーションの描画開始タイミングが設定すなわち対応付けられている様子を示している。
図示の例では、ビデオ・カメラから入力されるビデオ・データ、ファイル保持装置60から入力される資料画像データ、並びにアノテーション入力装置10から入力されるアノテーション情報は、それぞれデータを識別するビデオID、資料画像ID(スライドID)、並びにアノテーションIDが既に割り振られた状態で対応付け手段85に入力されるものとする。勿論、対応付け装置85において、これらのデータに固有のIDを割り振るようにしてもよい。
ビデオ・カメラから入力されるビデオ・データは、データ・エンティティとともに、撮影開始時刻とデータ・サイズが付加されている。データ・サイズから撮影時間が算出されることから、撮影終了時刻を特定することができ、これが対応付けの基準となるビデオ・データの時間軸を構成する。
本実施形態では、会議室内には複数のビデオ・カメラV1、V2…が設置されており、それぞれから得られたビデオ・データは、撮影時刻などで表わされる同じ時間軸上で対応付けられ、図16では1本のコンテンツとして描かれているビデオ・データは実際には複数のビデオ・データをまとめた1つの集合データとして構成されている。各ビデオ・カメラ51、V2…による撮影開始時刻や撮影終了時刻は区々であり、例えばビデオ・カメラV1による撮影時間を基準の時間軸とする。
対応付け装置85は、各ビデオ・カメラ51、V2…から得られたビデオ・データに対し、ビデオ時間データ・テーブルを作成する。図17には、ビデオ時間データ・テーブルの構成例を示している。ビデオ時間データ・テーブルは、ビデオ・データを識別するビデオ・データ識別IDと、撮影開始時間を含んでいる。撮影終了時刻若しくはビデオ再生時間は、ビデオ・データのデータ・サイズから算出することができる。
これら複数のビデオ・データは、単一の時間軸上で、1つの集合データとして表される。図18には、複数のビデオ・データを1つの集合データとして構成した様子を模式的に示している。図16では1本のコンテンツとして描かれているビデオ・データは、実際には図18に示すように複数のビデオ・データで構成されることを十分理解されたい。各ビデオ・カメラ51、V2…による撮影開始時刻や撮影終了時刻は区々であるが、図示のように集合データとして構成することにより、単一のビデオ・データとして取り扱うことを可能にしている。
ビデオ・プレイヤ135側では、複数のビデオ・ストリームのうちユーザが選択したビデオ・ストリームがアクティブ・ストリームとしてビデオ画面133上で再生される。例えば、ビデオ・データ1〜4がビデオ時間データ・テーブルに登録されていた場合、コンテンツ再生時には、再生時間tでビデオ・データ1に切り替えた場合は、ビデオ・データ1の開始時間からt1の位置の再生画面が表示される。その後、ビデオ・データ2に切り替えた場合は、ビデオ・データ2の開始時間からt2の位置の再生画面が表示される。また、ビデオ・プレイヤ135では、ビデオ画面133上でのビデオ(アクティブ・ストリーム)の進行に同期して再生時刻に対応した代表画像に切り替える。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。
スライドやドキュメントなどの各資料画像データの表示順序や表示開始タイミングは、プレゼンテーションの前にあらかじめ取り決めておいたものでもよいが、本実施形態では、ライブのプレゼンテーションにおいて各資料画像データを表示する際に入力された切換指示の入力タイミングを基に、資料画像データの表示開始タイミングが与えられる。配信サーバのデータベースでは、各資料画像データのコンテンツ用レコードは、資料画像データを識別するIDと、ビデオ・データの時間軸上の配置場所すなわち表示開始タイミングと、資料画像の実データの保管場所を表すURLの組を記載している。
プレゼンテーションで使用する複数の資料画像データはあらかじめ使用する順序情報(デフォルト)が付与されて、原則的には、当該順序情報に従った順でスクリーン表示されて使用されるが、実際のプレゼンテーションでは、プレゼンテータの操作によってスクリーン表示する資料画像の順序が変更されたり、ある資料画像を繰り返しスクリーン表示したりすることがなされるため、これをコンテンツ・データで再現できるようにするために、対応付け装置85は、入力された切換指示に応じて実際に使用された順序に従って各資料画像データの順序情報(デフォルト)を順序情報(リアル)更新する。プレゼンテーション支援装置40から入力される切換指示には資料IDが含まれており、対応付け装置85はどの資料画像データが何時(タイミング)切り換えられたかを把握して対応付け処理を行なう。
プレゼンテーションで実際に使用される前の各資料画像データは図11に示すようにビデオ・データ31との時間タイミングの対応付けがなされていないが、対応付け装置85は、切換指示の入力タイミングに基づいて、各画像データに対してその使用を開始タイミング(ビデオ・データの時間軸における時刻)を付加する時間位置の対応付けを行なう。
アノテーション情報は、アノテーション入力装置10上でアノテーションの入力が開始された時刻を基に、その描画開始タイミングが与えられる。配信サーバ1のデータベースでは、各アノテーション情報のコンテンツ用レコードは、アノテーション情報を識別するIDと、ビデオ・データの時間軸上の配置場所すなわち描画開始タイミングと、アノテーション情報の実データの保管場所を示すURLの組を記載している。アノテーション情報の実データは、描画内容をそのまま捕捉した画像データでもよいが、本実施形態では、各点の座標、点毎の入力時刻、点同士を結ぶ線の太さや線の色などの属性情報で構成されている。
図19には、ビデオ・データの時間軸の対応付けを行なった後の資料ファイルのデータ構成例を示している。スクリーンSにいずれかの資料画像が常時表示されるというプレゼンテーションの形態では、各資料画像の開始タイミングを規定するだけで、ビデオ・データ31に対する各資料画像データの時間位置が特定される。勿論、開始タイミングと終了タイミングとの組、あるいは、開始タイミングと使用時間幅との組みといったような形式で時間位置対応を付けるようにしてもよい。
対応付け装置80によると、ビデオ入力装置81が収録したビデオ・データ31を入力し、資料ファイル入力装置82がプレゼンテーションで使用される資料画像データ30を入力し、切換指示入力装置83がプレゼンテーションにおいてプレゼンテータPが行なった資料画像の切換指示を入力し、対応付け装置85が、これら入力に基づいて、ビデオ・データ31を基準とした時間軸に対して、切換指示の入力タイミングを当該切り換えられる資料画像データの表示開始タイミングとして設定する対応付け処理を行ない、さらには、入力された切換指示に応じて実際に使用された順序に従って各資料画像データの順序情報を更新する処理を行なう。
また、対応付け装置80によると、アノテーション入力に基づいて、ビデオ・データ31を基準とした時間軸に対して、アノテーション情報の描画開始タイミングを設定する対応付け処理を行なう。そして、この対応付け及び更新処理を施した資料ファイル、アノテーション情報、及びビデオ・データ31をデータ保持装置90に出力する処理がなされる。
このような対応付け装置80による処理によって、プレゼンテーションを収録したビデオ・データ31と、ライブのプレゼンテーションで使用された資料画像データ、並びに資料画像データやその他の対象物に対して印加されたアノテーションが、実際のプレゼンテーションを再現する対応関係で関連付けられ、これらがアーカイブ・ファイル25にまとめられて配信サーバ1に登録されることとなる。したがって、配信サーバ1から配信されたコンテンツを閲覧する閲覧クライアント2では、その画面上にプレゼンテーションの光景とそこで使用された資料とが、実際のプレゼンテーションを再現した状態で表示出力される。
なお、対応付け装置80と、データを保持するデータ・サーバと、データを編集する編集装置100はそれぞれ別個の装置として構成しても、これら装置機能を一体化した単一の装置として構成してもよい。これらのうちいずれの装置構成においても、例えば、コンピュータに必要な処理機能を実現するプログラムを実行させることにより構成することができる。また、一体構成する場合は、更にプレゼンテーション支援装置40、ファイル作成装置50、ファイル保持装置60、ビューア70をも含めた構成とすることもできる。
図20には、上記のようにしてコンテンツとしてアーカイブ・ファイル25にまとめられるビデオ・データ31、資料画像データ30、付加画像データ33、アノテーション情報34のデータ構造を模式的に示している。
ビデオ・データ31は、図20(a)に示すように、ビデオ映像を成す実データの他に、自己のビデオID、ビデオの総時間情報(データ・サイズ)を含んでいる。
但し、図9に示したように複数のビデオ・カメラV1、V2…を設置したようなシステムにおいては、ビデオ・データ31は、各ビデオ・カメラから得られた複数のビデオ・データとして構成され、同じ時間軸上で対応付けて1つの集合データとして構成される。この場合、ビデオ・データ31は、図20(a)に代えて、図17に示したビデオ時間情報データ・テーブルを用いて管理され、実データは複数のビデオ・データが時間軸上に並列的に配置されて構成される。
資料画像データ30は、図20(b)に示すように、資料画像を成す実データの他に、自己の資料ID、対応付けられたビデオ・データのビデオID、自己の表示開始タイミング、自己のデータ形式種別、実際の使用順序である順序情報(リアル)、検索に用いられるキーワードなどを含んでいる。
付加画像データ33は、図20(c)に示すように、矢印画像やアニメーション画像等の付加画像を成す実データの他に、自己の付加画像ID、対応付けられた資料画像データの資料ID、自己の表示開始タイミングなどを含んでいる。
アノテーション情報データ34は、図20(d)に示すように、アノテーションを成す実データの他に、自己のアノテーションID、対応付けられたビデオ・データのビデオID、自己の表示開始タイミングなどを含んでいる。アノテーションの実データは、描画内容をそのまま捕捉した画像データでもよいが、本実施形態では、各点の座標、点毎の入力時刻、点同士を結ぶ線の太さや線の色などの属性情報で構成されている。
これら、ビデオ・データ31、資料画像データ30、付加画像データ33、アノテーション情報34などの会議を記録する情報コンテンツはデータ・サーバ上の各配置先セット151…に格納される。また、これらコンテンツを管理するための管理用レコードは、ビデオID、資料ID、付加画像ID、アノテーションIDなどの識別情報と、データ・サーバ上の配置場所(URLなどで記述される)との組み合わせで構成され、データベース150内のコンテンツ用レコードに保管される。資料画像データ30、付加画像データ33、アノテーション情報34は、ビデオ・データの時間軸と対応付けて管理するため、これらのコンテンツ用レコードは、対応するビデオ・データのビデオID並びにその時間軸上での表示開始タイミングなどの時刻情報を含んでいる。
図21には、資料画像データ30、付加画像データ33、並びにアノテーション情報データ34が、ビデオ・データ31が持つ時間軸上に関連付けられている一例を示している。
ビデオ・データ31は時間幅Tの連続した動画像データである。但し、図9に示したように複数のビデオ・カメラV1、V2…を設置したようなシステムにおいては、ビデオ・データ31は、複数のビデオ・データが時間軸上に並列的に配置されて構成されている(図18を参照のこと)。
このようなビデオ・データ31の時間軸に対して、時刻TAを開始タイミングとした資料画像A、時刻TBを開始タイミングとした資料画像B、時刻TCを開始タイミングとした資料画像C、時刻TDを開始タイミングとした資料画像Dが対応付けられている。
また、各資料画像30に対応して、時刻Taを開始タイミングとした矢印画像a、時刻Tbを開始タイミングとしたアニメーション画像b、時刻Tcを開始タイミングとした矢印画像c、時刻Tdを開始タイミングとした矢印画像dが対応付けられている。
また、このビデオ・データ31の時間軸に対して、時刻TIを開始タイミングとしたアノテーション情報I、時刻TJを開始タイミングとしたアノテーション情報J、時刻TKを開始タイミングとしたアノテーション情報TKが対応付けられている。
資料画像30は開始タイミングから次の資料画像の開始タイミングまでスクリーン表示されているため、同図では資料画像データ30をある時間幅を持ったデータのように表現されているが、これら表示間隔を示しているだけで、動画像でない静止画像の資料画像データはそれ自体で時間幅を有している訳ではない。
また、付加画像33についても同様であり、同図では表示間隔を示しているだけで、動画像でない静止画像の付加画像データはそれ自体で時間幅を有している訳ではない。
これに対し、アノテーション情報34は、各点の座標と、点同士を結ぶ線の太さや色などの属性情報が点毎の入力時刻とともに記録されているので、1つのアノテーション情報を構成する線分毎に時間の幅を有することができる。したがって、再生時(若しくはコンテンツの配信時)には、ビデオ・データ31の時間軸に対応付けて、各線分の情報を再生若しくは配信することで、プレゼンテーションを再生する動画像や、スライドなどのドキュメントとともに、ドキュメント上に再現されるアノテーションを見ることができる。
D.コンテンツの再生
上述したように、配信サーバ上に登録配置されたコンテンツ・データは、閲覧クライアント2からの要求に応じてデータベース150を参照することにより配信サーバ1から提供される。
すなわち、閲覧クライアント2が配信サーバ1に対してコンテンツを指定する情報を含む要求を送信すると、配信サーバ1はコンテンツ・レコード52を参照して当該コンテンツ・データを配置した配置先セット番号を割り出し、当該配置先セット番号からセット・レコード62を参照して該当するビデオ・データやその画像データのURLを割り出し、閲覧クライアント2へ提供する。閲覧クライアント2では配信サーバ1から提供されたURLに基づいてコンテンツ・データ・ファイルにアクセスし、該当するビデオ・データや画像データ、並びにアノテーション情報を取得して画面に表示出力する。
次に、上記したように閲覧クライアント2がビデオ・データの再生に同期して、配信サーバ1から該当する静止画像データ(資料画像データ)、並びにアノテーション情報を取得して同期再生する処理を詳しく説明する。
この同期再生処理は、図22に示すように配信サーバ1と閲覧クライアント2とが協働的に動作して、図23に示す手順で実行される。
まず、上記のように閲覧クライアント2が配信サーバ1に接続し、所望のコンテンツを要求すると(ステップT1)、配信サーバ1が該当するビデオ・データとともに、当該ビデオ・データに同期して対応付けられた資料画像データ並びにアノテーション情報を配信サーバ1から取得するためのプログラムを閲覧クライアント2に提供する(ステップT2)。
閲覧クライアント2では、提供されたビデオ・データをビデオ・プレイヤ135により再生して画面表示し、これとともに提供されたプログラムを実行する画像同期機能39が起動し、再生されているビデオ・データの再生時間位置を取得して表示すべき静止画像データを特定する(ステップT3)。
そして、閲覧クライアント2が配信サーバ1に対して必要な静止画像データを要求し(ステップT4)、配信サーバ1が要求された画像データを閲覧クライアント2へ提供する(ステップT6)。この提供された画像データは即座に再生されて画像表示部137に表示出力される。このステップT3〜T6の処理はビデオ・データの再生中は繰り返し行なわれ、再生されているビデオ・データの再生時間位置に対応した資料画像データ並びにアノテーション情報が図3に示したように同一画面上で同期して切換え表示される。
ここで、ビデオ・データ31は、複数のビデオ・データが時間軸上に並列的に配置されて構成される場合(図18を参照のこと)、閲覧クライアントは、ビデオ・データの切り替えを要求することができる(ステップT7)。配信サーバ側では、ビデオ・データの切替要求に応答して、該当するビデオ・データをデータベースから取り出し(ステップT8)、これを要求元の閲覧クライアントへ返送する(ステップT9)。例えば、再生時間tでビデオ・データ1に切り替えた場合は、閲覧クライアントでは、ビデオ・データ1の開始時間からt1の位置の再生画面が表示される。その後、ビデオ・データ2に切り替えた場合は、ビデオ・データ2の開始時間からt2の位置の再生画面が表示される。
より具体的には、図24に閲覧クライアント2のWebブラウザで画面表示されるWebページを示すように、このWebページには図3に示したようにビデオ・プレイヤ135が埋め込まれているが、配信サーバ1から提供された上記プログラムも埋め込まれる。このプログラムはプログラム・コード70と複数の同期コマンド・データ71を含んでいる。
プログラム・コード70は、再生しているビデオ・データの再生時間位置情報を取得する動画再生位置取得プログラム、同期コマンド・データ71をチェックする同期コマンド・データ・チェック・プログラム、同期コマンド・データ71に対応するコマンドを実行する同期コマンド実行プログラムを含んでいる。
同期コマンド・データ71は、コマンド実行時刻としてのビデオ・データ再生時間情報と、実行するコマンド情報を含んでいる。すなわち、同期コマンド・データ71は、ビデオ・データに対応付けられている複数の資料画像データ並びにアノテーション情報のそれぞれについて同期コマンド・データ71が存在し、当該静止画像データのビデオ・データに対する対応付け位置を示す再生時間位置情報と、当該再生時間位置で所定の代表画像データ、資料画像データ、アノテーション情報を配信サーバ1に要求するコマンドを含んでいる。
したがって、ビデオ・プレイヤ135によるビデオ・データの再生と同期してプログラム・コード70が実行され、動画再生位置取得プログラムが再生されているビデオ・データの再生時間位置を取得し、同期コマンド・データ・チェック・プログラムが同期コマンド・データ71に取得した再生時間位置に該当するものが存在するかを判定し、存在する場合にはコマンド実行プログラムが当該同期コマンド・データのコマンドを実行して、該当する代表画像データ、資料画像データ並びにアノテーション情報を配信サーバ1に要求するという処理が、ビデオ・データの再生を実行している間に繰り返し行なわれる。
上述したように、配信サーバ1は、同じ時間軸を共有する複数のビデオ・ストリームを1つの集合データとして取り扱う。また、配信サーバ1側では、各ビデオ・ストリームをそれぞれインデキシングして代表画像を作成しており、アクティブ・ストリームとして選択されたビデオ・ストリームをストリーミング配信する一方、その他のビデオ・ストリームの代表画像を配信する。
これに対し、閲覧クライアント側では、複数のビデオ・ストリームのうちユーザが選択したビデオ・ストリームがアクティブ・ストリームとしてビデオ・プレイヤ135のビデオ画面133上で再生される。また、閲覧クライアント側では、ビデオ画面133上でのビデオ(アクティブ・ストリーム)の進行に同期して再生時刻に対応した代表画像に切り替わる。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。
図25には、配信サーバ1から閲覧クライアント2へビデオ・ストリームを配信している様子を模式的に示している。
図示の例では、配信サーバ1は、同じ時間軸を共有する4本のビデオ・ストリームA〜Dを1つの集合データとするコンテンツを提供している。これらのビデオ・ストリームA〜Dは、例えば図9に示したように同じ会議室内に設置された4台のビデオ・カメラを用い、同じプレゼンテーションを撮影することにより得られたものである。そして、配信サーバ1は、これら複数のビデオ・ストリームA〜Dのうち、ユーザが選択したビデオ・ストリームをアクティブ・ストリームとして配信する。図示の例では、ビデオ・ストリームCがアクティブ・ストリームとして選択されている。
また、配信サーバ1は、各ビデオ・ストリームA〜Dをそれぞれインデキシングして代表画像を作成し、アクティブ・ストリーム以外のビデオ・ストリームについてはビデオの再生位置に同期してそれぞれの代表画像を表現することができる。図示の例では、アクティブ・ストリーム以外のビデオ・ストリームA、B、Dについては代表画像が表示される。
閲覧クライアント2側では、ビデオ・プレイヤ135が、アクティブ・ストリームをビデオ画面133で表示するとともに、その再生位置に対応する各ビデオ・ストリームA〜Bの代表画像を並行して表示する(図26を参照のこと)。また、各ビデオ・ストリームA〜Bの代表画像は、ビデオ画面133上でのビデオの進行に同期して再生時刻に対応した代表画像に切り替わっていく。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。
このように、同じ時間軸を共有する複数のビデオ・ストリームからなる集合データを要求する際、実際にはアクティブ・ストリームを選択できることにより、閲覧クライアント2は1本のビデオ・ストリームとして受信することができるので、通信帯域や通信負荷を低減することができる。また、ビデオと同期して複数の代表画像が切り替わるので、ユーザの取得情報が増大し、アクティブ・ストリーム選択のよい動機付けとなる。また、ユーザは、各ビデオ・ストリームの代表画像を同期して閲覧することができるので、アクティブ・ストリームに限定して受信することに伴う情報の欠落を補うことができるとともに、代表画像を基に好みの視点を確認しながらビデオを視聴することができるので、ビデオ再生時の臨場感が向上する。
図27には、各ビデオ・ストリームA〜Dをそれぞれインデキシングして得られた代表画像の表示時間を示している。図示の例では、ビデオ・ストリームAからは代表画像a1〜a5が抽出され、ビデオ記録・再生の時間軸上において各代表画像aiは後続の代表画像ai+1が出現するまでの時間帯において当該ビデオ・ストリームAの代表画像を表現する。また、ビデオ・ストリームBからは代表画像b1〜b4が抽出され、ビデオ記録・再生の時間軸上において各代表画像biは後続の代表画像bi+1が出現するまでの時間帯において当該ビデオ・ストリームBの代表画像を表現する。また、ビデオ・ストリームCからは代表画像c1〜c4が抽出され、ビデオ記録・再生の時間軸上において各代表画像ciは後続の代表画像ci+1が出現するまでの時間帯において当該ビデオ・ストリームCの代表画像を表現する。また、ビデオ・ストリームDからは代表画像d1〜d5が抽出され、ビデオ記録・再生の時間軸上において各代表画像diは後続の代表画像di+1が出現するまでの時間帯において当該ビデオ・ストリームDの代表画像を表現する。
例えば、ビデオ・ストリームA〜Dの共通の時間軸上で、時刻t1では、同期する代表画像a2、b2、c2、d1がビデオ・プレイヤ135上に表示され、ユーザはさまざまな視点からの代表画像を見て、好ましいビデオ・ストリームが何であるかを判断することができる。そして、ユーザは、代表画像を選択することにより、アクティブ・ストリームを切り替えることができる。同様に、時刻t2では、同期する代表画像a4、b3、c3、d4がビデオ・プレイヤ135上に表示される。
図28には、代表画像の操作によりアクティブ・ストリームを選択する動作手順を図解している。同図に示す例では、同じ時間軸を共有する4本のビデオ・ストリームA〜Dが存在している。そして、代表画像は各々のビデオ・ストリームをインデキシングして作成された各ビデオ中の代表画像を表現している。
このような場合、時間軸上をマウスで操作することにより、該当する時刻に対応する代表画像が代表画像表示部にそれぞれ表示される。図示の例では、時刻18:10に対応する各ビデオ・ストリームの代表画像が表示されている。そして、各代表画像を選択することにより、選択されたビデオ・ストリームを該当する時間から受信することができる。このように、同一時間軸上に複数の代表画像表示部を配置することにより、コンテンツの内容を短時間で多角的に評価することが可能となる。
図29には、配信サーバから閲覧クライアントへアクティブ・ストリームを配信するとともに、アクティブ・ストリームの進行に同期して再生時刻に対応した代表画像を配信するための動作手順を示している。
但し、図示の例では、説明の便宜上、配信サーバはビデオ・ストリームを配信するストリーム配信サーバと各ビデオ・ストリームについての代表画像を配信するイメージ配信サーバに分離して恒例されるが、勿論これらを1台のサーバ装置として構成することは可能である。
以下、同じ時間軸を持つ4本のビデオ・ストリームA〜Dから構成されるコンテンツをビデオ・ストリームA→ビデオ・ストリームB→ビデオ・ストリームCの順に切り替えながら視聴する場合を例にとって説明する。
閲覧クライアント(ブラウザ)側からビデオ・ストリームAの配信を要求すると、ストリーム配信サーバからビデオ・ストリームAがストリーム配信される。要求元ブラウザ側では、ビデオ・プレイヤ135のビデオ表示画面133上で、受信されたビデオ・ストリームAが表示される。
そして、ブラウザは、ビデオ・ストリームAの再生時間軸上での現在の時刻すなわち再生位置を取得すると、当該時刻に対応する各ビデオ・ストリームA〜Dの代表画像をイメージ配信サーバに要求し、イメージ配信サーバは各ビデオ・ストリームA〜Dの該当する代表画像を返信する。そして、要求元ブラウザ側では、ビデオ・プレイヤ135上でこれら各代表画像が並列表示される。代表画像の取得処理は、ビデオ・ストリームの表示中は定期的に繰り返され、この結果、ビデオ・ストリームの再生位置と同期して代表画像の表示が更新されていく。ユーザは、ビデオ・ストリームAの現在の再生位置における各視点における代表画像を同期して確認することができる。
そして、ユーザは、所望の代表画像を選択することで、ビデオ・ストリームの切り替えを要求することができる。ここでは、ビデオ・ストリームBの代表画像が選択されたとする。これに応答して、閲覧クライアント(ブラウザ)側からビデオ・ストリームBの配信を要求すると、ストリーム配信サーバからビデオ・ストリームBがストリーム配信される。要求元ブラウザ側では、ビデオ・プレイヤ135のビデオ表示画面133上で、受信されたビデオ・ストリームBが表示される。
そして、ブラウザは、ビデオ・ストリームBの再生時間軸上での現在の時刻すなわち再生位置を取得すると、当該時刻に対応する各ビデオ・ストリームA〜Dの代表画像をイメージ配信サーバに要求し、イメージ配信サーバは各ビデオ・ストリームA〜Dの該当する代表画像を返信する。そして、要求元ブラウザ側では、ビデオ・プレイヤ135上でこれら各代表画像が並列表示される。代表画像の取得処理は、ビデオ・ストリームの表示中は定期的に繰り返され、この結果、ビデオ・ストリームの再生位置と同期して代表画像の表示が更新されていく。
次いで、ユーザがビデオ・ストリームCの代表画像を選択したとする。これに応答して、閲覧クライアント(ブラウザ)側からビデオ・ストリームCの配信を要求すると、ストリーム配信サーバからビデオ・ストリームBがストリーム配信される。要求元ブラウザ側では、ビデオ・プレイヤ135のビデオ表示画面133上で、受信されたビデオ・ストリームCが表示される。
そして、ブラウザは、ビデオ・ストリームCの再生時間軸上での現在の時刻すなわち再生位置を取得すると、当該時刻に対応する各ビデオ・ストリームA〜Dの代表画像をイメージ配信サーバに要求し、イメージ配信サーバは各ビデオ・ストリームA〜Dの該当する代表画像を返信する。そして、要求元ブラウザ側では、ビデオ・プレイヤ135上でこれら各代表画像が並列表示される。代表画像の取得処理は、ビデオ・ストリームの表示中は定期的に繰り返され、この結果、ビデオ・ストリームの再生位置と同期して代表画像の表示が更新されていく。
図30には、閲覧クライアントにおいてアクティブ・ストリーム並びに各ビデオ・ストリームの代表画像を動機的に表示するための処理手順をフローチャートの形式で示している。但し、図示の例では、同じ時間軸を持つ4本のビデオ・ストリームA〜Dから構成されるコンテンツの代表画像が図27に示したように作成され、ユーザが時刻t1をマウスで設定し、ビデオ・ストリームAの代表画像をクリックしてビデオ・ストリームAのビデオを再生する場合を例にとっている。
ユーザは、時間軸上でマウス・カーソルを時刻t1に設定する(ステップS1)。
ここで、ビデオ・ストリームAの時刻t1に該当する代表画像が存在しなければ(ステップS2)、ビデオ・ストリームの代表画像を表示しないが(ステップS12)、存在すれば、これを表示する(ステップS3)。
また、ビデオ・ストリームBの時刻t1に該当する代表画像が存在しなければ(ステップS4)、ビデオ・ストリームの代表画像を表示しないが(ステップS13)、存在すれば、これを表示する(ステップS5)。
また、ビデオ・ストリームCの時刻t1に該当する代表画像が存在しなければ(ステップS6)、ビデオ・ストリームの代表画像を表示しないが(ステップS14)、存在すれば、これを表示する(ステップS7)。
また、ビデオ・ストリームDの時刻t1に該当する代表画像が存在しなければ(ステップS8)、ビデオ・ストリームの代表画像を表示しないが(ステップS15)、存在すれば、これを表示する(ステップS9)。
ここで、ユーザがビデオ・ストリームAの代表画像をクリックすると(ステップS10)、ビデオ・ストリームAの当該代表画像に該当する時刻からビデオが再生される(ステップS11)。
なお、閲覧クライアント2が配信サーバ1からデータの配信を受けて再生するシステムを例にとって説明したが、本発明は、例えば、ビデオ・データとこれに対応付けられた資料画像データ並びにアノテーション情報を保持したスタンドアローン型のシステム構成としてもよく、このような構成とする場合には、該当する静止画像データを自らのシステム内で取得してビデオ・データと同期再生することができる。
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
図1は、コンテンツ配信システムの構成を模式的に示した図である。 図2は、配信サーバ1に登録されている配信用コンテンツの構造を模式的に示した図である。 図3は、配信サーバ1から配信されたコンテンツ・データが閲覧クライアント2側で表示されるコンテンツ閲覧画面の構成例を示した図である。 図4は、スライド画像データ6の一覧表示を行なった状態の詳細表示画面の構成例を示した図である。 図5は、資料画像データ7の一覧表示を行なった状態の詳細表示画面の構成例を示した図である。 図6は、配信サーバ1に各コンテンツのレコードを記憶管理するための機能構成を示した図である。 図7は、コンテンツ・レコードを管理するデータベース150をデータベース・サーバ50とし、各配置先セット151を複数のデータ・サーバ装置57〜59にそれぞれ分散したシステム構成例を示した図である。 図8は、アーカイブ・ファイルの構成を模式的に示した図である。 図9は、コンテンツ作成システムの機能構成を模式的に示した図である。 図10は、資料画像ファイル61の作成及び資料画像30の表示に係るファイル作成装置50、ファイル保持装置60、ビューア70の構成を示した図である。 図11は、資料ファイルのデータ構造を模式的に示した図である。 図12は、プレゼンテータPが操作するプレゼンテーション支援装置40の構成を示した図である。 図13は、プレゼンテーション支援装置40がプレゼンテータPに提示する画面構成例を示した図である。 図14は、アノテーション入力装置10の構成例を示した図である。 図15は、対応付け装置80の機能構成を示した図である。 図16は、対応付け手段85によってビデオ・データを基準とした時間軸に対し、資料画像データの表示開始タイミングやアノテーションの描画開始タイミングが設定すなわち対応付けられている様子を示した図である。 図17は、ビデオ時間情報データ・テーブルの構成例を示した図である。 図18は、複数のビデオ・データを1つの集合データとして構成した様子を模式的に示した図である。 図19は、ビデオ・データの時間軸の対応付けを行なった後の資料ファイルのデータ構成例を示した図である。 図20は、アーカイブ・ファイル25にまとめられるビデオ・データ31、資料画像データ30、付加画像データ33、アノテーション情報34のデータ構造を模式的に示した図である。 図21は、資料画像データ30、付加画像データ33、並びにアノテーション情報データ34が、ビデオ・データ31が持つ時間軸上に関連付けられている一例を示した図である。 図22は、同期再生処理の閲覧クライアントと配信サーバとの関係を説明するための図である。 図23は、同期再生処理の手順を説明するための図である。 図24は、閲覧クライアントのWeb機能を説明する図である。 図25は、配信サーバ1から閲覧クライアント2へビデオ・ストリームを配信している様子を模式的に示した図である。 図26は、ビデオ・プレイヤ135が、アクティブ・ストリームをビデオ画面133で表示するとともに、その再生位置に対応する各ビデオ・ストリームA〜Dの代表画像を並行して表示する様子を示した図である。 図27は、各ビデオ・ストリームA〜Dをそれぞれインデキシングして得られた代表画像の表示時間を示した図である。 図28は、代表画像の操作によりアクティブ・ストリームを選択する動作手順を説明するための図である。 図29は、配信サーバから閲覧クライアントへアクティブ・ストリームを配信するとともに、アクティブ・ストリームの進行に同期して再生時刻に対応した代表画像を配信するための動作手順を示したシーケンス図である。 図30は、閲覧クライアントにおいてアクティブ・ストリーム並びに各ビデオ・ストリームの代表画像を動機的に表示するための処理手順を示したフローチャートである。
符号の説明
1…配信サーバ
2…閲覧クライアント
3…登録クライアント
5…ビデオ・データ
6…資料画像データ
25…アーカイブ・ファイル
30…資料画像データ
31…ビデオ・データ
33…付加画像データ
34…アノテーション情報
40…プレゼンテーション支援装置
50…ファイル作成装置
60…ファイル保持装置
61…資料ファイル(デフォルト)
62…資料ファイル(リアル)
70…ビューア
80…対応付け装置
90…データ保持装置
100…編集装置
J…プロジェクタ
P…プレゼンテータ
S…スクリーン
V…ビデオ・カメラ

Claims (11)

  1. 同じ時間軸を共有する複数のビデオ・データを提供するコンテンツ処理システムであって、
    前記の各ビデオ・データをそれぞれインデキシング処理してビデオ・データ毎の代表画像を作成し、それぞれ時間軸上に配列して管理する代表画像管理手段と、
    ビデオ・データの再生要求を受容するビデオ要求入力手段と、
    ビデオ・データの要求に応じて、選択された1以上のビデオ・データの再生画面を提供するビデオ再生画面提供手段と、
    前記ビデオ再生画面に提供されているビデオ・データの再生位置に対応する前記の各ビデオ・データの代表画像を提供する代表画像提供手段と、
    を具備することを特徴とするコンテンツ処理システム。
  2. 前記ビデオ要求入力手段は、前記代表画像提供手段により提供されている代表画像の選択操作に応じて、対応するビデオ・データの再生要求を受容する、
    ことを特徴とする請求項1に記載のコンテンツ処理システム。
  3. 前記ビデオ再生画面提供手段は、ビデオ・データの再生中に代表画像の選択操作が行なわれたことに応答して、選択されたビデオ・データの再生画面に切り替える、
    ことを特徴とする請求項2に記載のコンテンツ処理システム。
  4. 前記ビデオ再生画面提供手段は、ビデオ・データの再生中に代表画像の選択操作が行なわれた時点における再生位置から、選択されたビデオ・データの再生を開始する、
    ことを特徴とする請求項3に記載のコンテンツ処理システム。
  5. 前記代表画像提供手段は、前記ビデオ再生画面提供手段により提供されるビデオ・データの再生位置の進行に同期して、各ビデオ・データの代表画像を切り替えていく、
    ことを特徴とする請求項1に記載のコンテンツ処理システム。
  6. 同じ時間軸を共有する複数のビデオ・データを提供するコンテンツ処理方法であって、
    前記の各ビデオ・データをそれぞれインデキシング処理し、ビデオ・データ毎の代表画像を作成し、それぞれ時間軸上に配列する代表画像生成ステップと、
    ビデオ・データの再生要求を受容するビデオ要求入力ステップと、
    ビデオ・データの要求に応じて、選択された1以上のビデオ・データの再生画面を提供するビデオ再生画面提供ステップと、
    前記ビデオ再生画面に提供されているビデオ・データの再生位置に対応する前記の各ビデオ・データの代表画像を提供する代表画像提供ステップと、
    を具備することを特徴とするコンテンツ処理方法。
  7. 前記ビデオ要求入力ステップでは、前記代表画像提供ステップにおいて提供されている代表画像の選択操作に応じて、対応するビデオ・データの再生要求を受容する、
    ことを特徴とする請求項6に記載のコンテンツ処理方法。
  8. 前記ビデオ再生画面提供ステップでは、ビデオ・データの再生中に代表画像の選択操作が行なわれたことに応答して、選択されたビデオ・データの再生画面に切り替える、
    ことを特徴とする請求項7に記載のコンテンツ処理方法。
  9. 前記ビデオ再生画面提供ステップでは、ビデオ・データの再生中に代表画像の選択操作が行なわれた時点における再生位置から、選択されたビデオ・データの再生を開始する、
    ことを特徴とする請求項7に記載のコンテンツ処理方法。
  10. 前記代表画像提供ステップでは、前記ビデオ再生画面提供ステップにおいて提供されるビデオ・データの再生位置の進行に同期して、各ビデオ・データの代表画像を切り替えていく、
    ことを特徴とする請求項6に記載のコンテンツ処理方法。
  11. 同じ時間軸を共有する複数のビデオ・データを提供するための処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、
    前記の各ビデオ・データをそれぞれインデキシング処理し、ビデオ・データ毎の代表画像を作成し、それぞれ時間軸上に配列する代表画像生成ステップと、
    ビデオ・データの再生要求を受容するビデオ要求入力ステップと、
    ビデオ・データの要求に応じて、選択された1以上のビデオ・データの再生画面を提供するビデオ再生画面提供ステップと、
    前記ビデオ再生画面に提供されているビデオ・データの再生位置に対応する前記の各ビデオ・データの代表画像を提供する代表画像提供ステップと、
    を具備することを特徴とするコンピュータ・プログラム。
JP2004068219A 2004-03-10 2004-03-10 コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム Expired - Fee Related JP4269980B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004068219A JP4269980B2 (ja) 2004-03-10 2004-03-10 コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004068219A JP4269980B2 (ja) 2004-03-10 2004-03-10 コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2005260511A JP2005260511A (ja) 2005-09-22
JP4269980B2 true JP4269980B2 (ja) 2009-05-27

Family

ID=35085823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004068219A Expired - Fee Related JP4269980B2 (ja) 2004-03-10 2004-03-10 コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP4269980B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142750A (ja) * 2005-11-17 2007-06-07 National Agency For The Advancement Of Sports & Health 映像閲覧システム、コンピュータ端末並びにプログラム
KR100729622B1 (ko) * 2005-12-01 2007-06-19 삼성전자주식회사 멀디미디어 컨텐츠 재생 방법 및 장치
JP4767799B2 (ja) * 2006-09-11 2011-09-07 パナソニック株式会社 デジタル放送記録装置及びデジタル放送記録方法
JP4709112B2 (ja) * 2006-09-29 2011-06-22 Necパーソナルプロダクツ株式会社 映像特定システム
JP4829171B2 (ja) * 2007-04-27 2011-12-07 株式会社ドワンゴ 端末装置、コメント配信サーバ、コメント送信方法、コメント出力方法、コメント配信方法、及びプログラム
CN112231498A (zh) 2020-09-29 2021-01-15 北京字跳网络技术有限公司 互动信息处理方法、装置、设备及介质

Also Published As

Publication number Publication date
JP2005260511A (ja) 2005-09-22

Similar Documents

Publication Publication Date Title
US8139099B2 (en) Generating representative still images from a video recording
US9235576B2 (en) Methods and systems for selection of multimedia presentations
JP4171157B2 (ja) ノート作成システム、ノート作成方法及びノート作成システムの動作方法
JP3449671B2 (ja) 個人用映画プレゼンテーションおよび個人用映画コレクションの作成を可能にするシステムおよび方法
JP4288879B2 (ja) ネットワーク情報処理システムおよび情報処理方法
JP2006146415A (ja) 会議支援システム
KR20050087877A (ko) 디지털 비디오 컨텐트의 대화방식 네트워크 공유를 위한방법 및 장치
KR20060025518A (ko) 디지털 비디오 컨텐트를 대화방식의 관점에서 저작하기위한 방법 및 장치
KR20050087876A (ko) 디지털 비디오 컨텐트의 대화방식의 맵-기반 분석을 위한방법 및 장치
JPH0937223A (ja) 映画をその基礎にあるソース情報とリンクし表示するシステムおよび方法
JP2009111991A (ja) コンピュータ読み取り可能な記録媒体およびテレビ会議装置
CN105744186A (zh) 通过综合频道管理来再现内容的方法和设备
JP2006148730A (ja) 会議システム及び会議情報提供方法
JP2004207951A (ja) ビデオ閲覧システム
JP2004207948A (ja) ビデオ閲覧システム
US7873905B2 (en) Image processing system
JP4686990B2 (ja) コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム
JP4269980B2 (ja) コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム
JP2008066794A (ja) テレビ会議予約・実施制御・記録制御装置、テレビ会議予約・実施制御・記録制御方法およびテレビ会議予約・実施制御・記録制御プログラム
KR101328270B1 (ko) 스마트 tv의 비디오 어노테이션 및 증강 방법 및 그 시스템
JP4129162B2 (ja) コンテンツ作成実演システム及びコンテンツ作成実演方法
JP2012053855A (ja) コンテンツ閲覧装置、コンテンツ表示方法及びコンテンツ表示プログラム
JP2005260512A (ja) コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム
JP4238662B2 (ja) プレゼンテーション支援装置及びプレゼンテーション支援方法
JP2008090526A (ja) 会議情報保存装置、システム、会議情報表示装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090216

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140306

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees