JP4449361B2 - マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、及び実行させるためのプログラム - Google Patents

マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、及び実行させるためのプログラム Download PDF

Info

Publication number
JP4449361B2
JP4449361B2 JP2003279401A JP2003279401A JP4449361B2 JP 4449361 B2 JP4449361 B2 JP 4449361B2 JP 2003279401 A JP2003279401 A JP 2003279401A JP 2003279401 A JP2003279401 A JP 2003279401A JP 4449361 B2 JP4449361 B2 JP 4449361B2
Authority
JP
Japan
Prior art keywords
annotation
annotations
multimedia
video stream
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003279401A
Other languages
English (en)
Other versions
JP2004080769A (ja
Inventor
ドゥヌ ローラン
透 布施
チィーウ パトリック
ディー.ウィルコックス リン
ダブリュ.マクドナルド デイビッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2004080769A publication Critical patent/JP2004080769A/ja
Application granted granted Critical
Publication of JP4449361B2 publication Critical patent/JP4449361B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs

Description

本発明は、一つ以上のマルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るためのシステム及び方法に関する。
ミーティング、セミナー、及び授業のディジタルマルチメディア記録が、より広く活用できるようになってきている。様々な種類のマルチメディア記録に際して、ラップトップ、ペンベースノートブックコンピュータ、パーソナルディジタルアシスタント等を用いてノートを取るためのシステム及び方法が開発されてきた。このようなシステム及び方法の例として、(株)富士ゼロックス製のNOTELOOK(ノートルック)及びLITEMINUTES(ライトミニッツ)があげられる。また、上記したデバイスからキータグ又はワイヤレステレフォンに至るまでのいずれかを用いてミーティングや他のビデオストリームでの関心が持たれる点に注釈を付けるための様々な方法が考案されつつある。これらの注釈は、一般に、ビデオストリームを介してブラウジングするため、及び/又はビデオストリームの特定部分をリトリーブするため、ビデオストリームにタイムスタンプされたり及び/又は対応付けされたりする。
上記された技術を用いることによって、注釈は、いろいろな人間により、いろいろなデバイスを用いて、及び、時には分散型設定において、作成され得る。これらの注釈を統合することによって、ビデオストリームを後から見たり、このビデオストリームを別のユーザが見たりするための貴重なツールを作成することができる。
ヒー(He)他は、非特許文献1に記載されているように、オーディオ−ビデオプレゼンテーションを見る方法を開発した。ヒー(He)他によれば、プレゼンテーションをまとめるために、ユーザのオーディオ−ビジュアルプレゼンテーションへのアクセスパターンを使用し、オーディオ−ビジュアルプレゼンテーションの特別なセグメントの重要度は、例えば、所与の時間又は所与の周期でのある時点又はあるセグメントでプレゼンテーションを停止又は開始したビューア(見る人)の数に基づいて決定されるか、或いは、単に、プレゼンテーションのそのセグメントを見たビューアの数に基づいて決定され得る。
リー(Li)他は、ビデオプレゼンテーションを見る方法の別の例を開発した。非特許文献2に記載されているように、Li他によれば、学生が教室での授業のプレゼンテーションの主要ポイントをまとめるように要求された時、学生には時間的制約が課されるため、ビデオ全体を見ることができない。そこで、リー(Li)は、授業のプレゼンテーション中にスライド交換によって演算されるコンテンツの表を用いたユーザがプレゼンテーションの大部分を見ることができることを発見したが、Liによって提供されたビューイングの方法はプレゼンテーションの本来の特徴に依存している(スライド交換)。
コレイア(Correia)他は、ビデオプレゼンテーションに関して様々なユーザによって提供されるコンテンツを統合する可能性を示唆する。非特許文献3に記載されているように、コレイア(Correia)によれば、単一オーディオ又はビジュアルプレゼンテーションに対して、複数のユーザによって提供されたコンテンツを適切なツールを用いて組み合わせることによって、参加者によるコミュニティを作成することが可能となることを述べている。従って、特別なテレビ番組やオーディオプレゼンテーションのビューアが、その意見、考え、及びコメントをもたらした媒体を用いることによって、その意見、考え、及びコメントをシェアすることができる。
人気の高さに基づいてドキュメントの重み付けをする様々なシステム及び方法が知られている。例えば、グーグル(GOOGLE登録商標)などのサーチエンジンは、特別なドキュメントにアクセスするか又は特別なドキュメントを使用するユーザの数に基づいて、テクスチャルドキュメント(ウェブページ)の重み付けをする。同様に、アマゾンドットコム(AMAZON.COM登録商標)などのオンライン小売業者は、本を購入するe−コンシューマ(消費者)の人数に基づいて様々な本を紹介する。非特許文献4に記載されているように、レズニック(Resnick)他は、ユーズネットニュース(Usenet News)に適用されるように、人気の高いドキュメントを推奨するためのフィルタリングのコンセプトを開発した。非特許文献5に記載されているように、ゴールドバーグ(Goldberg)他は、より大規模な集合体から人気の高いeメールメッセージだけを強調する共同フィルタリングの使用を提供した。非特許文献6に記載されているように、バラバノヴィック(Balabanovic)他は、人気の高いウェブページの推奨部分を提供する方法を提案した。非特許文献7に記載されているように、ヒル(Hill)他は、アイテムの人気の高さに基づいて、特別な映画や音楽を推奨する方法を開発した。これらのシステムにおいて、ユーザは、しばしば、明示レーティング(格付け)やランキング得点を介して、アイテム又はドキュメント全体について、即ち、コンパクトディスクやDVDや本についての趣向を述べる。ユーザアクティビティの様々な形態を暗黙の趣向ステートメントとして考慮した方法もいくつかある。
人気の高さに基づいてドキュメントの特定の部分を重み付けするためのシステム及び方法も知られている。非特許文献1に記載されているように、ヒー(He)は、ビデオプレゼンテーションの特定の部分を重み付けするための方法を提案した。ヒー(He)によれば、ビデオの特定のセグメントを選択するためにコンテンツの表へのエントリが使用される回数に基づいて、ビデオの一部がより「貴重」であると考えられる。ヒー(He)の方法においては、ビデオの最も人気のあるセグメントが最も有効な情報を含むと仮定される。
また、注釈をつけられたドキュメントを見るための様々なシステム及び方法が知られている。例えば、その全体が本明細書中に組み込まれる米国特許出願09/951,733号は、注釈付けされたドキュメントにおいて、特別な注釈部分を強調するためのシステム及び方法を開発した。注釈を強調する機能は、作成された注釈の頻度及びタイプ、並びにコメントが含まれているか又は注釈に対応付けされているかを考慮することによって、実行される。上記のシステム及び方法は、ユーザが、注釈がつけられたドキュメントを見て、強調に値すると決定された部分を容易に見ることを可能にする。
複数のグラフィックオブジェクトを動的にグループ化する方法が、以下のように、特許文献1に記載されている。たとえば画像入力表示装置に表示された、複数のグラフィックオブジェクトを動的にグループ化する場合には、複数のグラフィックオブジェクトに対して1つのクラスタツリーが形成される。クラスタツリーは、複数の異なる種類の距離測定に基づく。これらは、時間的距離及び空間的距離を含む。これらの距離は、結合され、一対のグラフィックオブジェクト間の距離を示す距離測定基準を形成する。クラスタツリーの各レベルは、グラフィックオブジェクトの新しいクラスタを定義する。グラフィックオブジェクトの少なくとも一つが選択される。選択されたグラフィックオブジェクトを含む、クラスタツリーの異なるクラスタレベルが表示可能である。グラフィックオブジェクトの表示されたクラスタは、選択されたグラフィックオブジェクトを含むクラスタのクラスタレベルを増加又は減少させるために、修正可能である。
米国特許第5,889,523号(1999年3月) ヒー(He)他著、「オーディオ−ビデオプレゼンテーションの自動要約(Auto−Summarization of Audio−Video Presentations)」ACMマルチメディア予稿集(Proceedings of ACM MultiMedia)、1999年 リー(Li)他著、「ブラウジングディジタルビデオ(Browsing Digital Video)」CHI予稿集2000(Proceedings of CHI2000)、2000年 コレイア(Correia)他著、「注釈を用いたアクティブなビデオウォッチング(Active Video Watching Using Annotation)」ACMマルチメディア(ACM Multimedia)、1999年 レズニック(Resnick)他著、「ネットニュースの共同フィルタリングのためのオープンアーキテクチャ(An Open Architecture for Collaborative Filtering of Netnews)」CSCW予稿集(Proceedings of CSCW)、1994年 ゴールドバーグ(Goldberg)他著、「情報タペストリを織るための共同フィルタリングの使用(Using Collaborative Filtering to Weave an Information Tapestry)」CACM、第35巻、第12章、p.51−60、1992年12月 バラバノヴィック(Balabanovic)他著、「コンテンツベース共同リコメンデーション(Content−Based,Collaborative Recommendation) CACM、第40巻、第3章、p.66−72、1997年 ヒル(Hill)他著、「役に立つ仮想コミュニティにおける選択の推奨及び評価(Recommending and Evaluating Choices in a Virtual Community of Use)」CHI予稿集、1995年
ドキュメントやドキュメントの部分を見たり及び/又は強調したりする上述のシステム及び方法は有用であるが、使い易さとより正確な推奨を提供する、媒体をフィルタリングして見るより改良されたシステム及び方法を提供することが重要である。本発明は、他の特徴の中でも、マルチメディア又はビデオストリームの注釈の共同インデックスの優れた解析と、注釈付けされたマルチメディア又はビデオストリームの有効なリトリーバル及びブラウジングを支援する優れた視覚化技術と、を含む、マルチメディア又はビデオストリームをフィルタリングして見るシステム及び方法に関する。
様々な形態のマルチメディア又はビデオストリームとの遠隔対話が知られている。遠距離の学習又は遠距離のビデオ会議に関連するテクノロジーによって、多数のユーザは、遠隔地からリアルタイムでマルチメディア又はビデオプレゼンテーションを見たり、又は、非同期的にマルチメディア又はビデオストリームの重要部分のノートを取ったり、マーキングしたりすることができる。マルチメディア又はビデオストリームに対応付けされるこれらのマーク又はノートは注釈として言及される。注釈は、タイムスタンプに限定されてもよいし、或いは、マルチメディア又はビデオストリームのフレームへのテキストや実際のマーキングなどのコンテンツを含んでいてもよい。
本発明によるシステム及び方法は、ユーザによって行われる自然な動作、例えば、注釈を利用して、マルチメディア又はビデオコンテンツのセグメントを識別し、これに続いて、識別されたセグメントを推奨する。マルチメディア又はビデオプレゼンテーションと共に用いられる対話のパターン、例えば、注釈のパターンは、どの事象が質問に結びつくかを理解して、これにより、願わくは、これ以降のユーザがよりよく理解できるように、マルチメディア又はビデオストリームの作成者がこのプレゼンテーションを洗練させて提供できるようにするために有用である。これらのパターンは、プレゼンテーションを非同期的に見たいとする新しいユーザにとっても有利である。これらの新しいユーザは、マルチメディア又はビデオストリームの重要なセグメントに速やかにアクセスするために、以前のビューアによって付された注釈を利用することもできる。注釈とこれらの注釈に対応付けされたマルチメディア又はビデオストリームが十分に視覚化されている場合は特に、以前のユーザによって付された注釈を併合して、集団がマルチメディア又はビデオストリームの周辺で共同作業を行うことを可能にすることは有用である。
これ以降のユーザにとっては、多数の異なるヒューリスティックに基づいて、低減された又は増加した価値が注釈に割当てられる。ヒューリスティックは、役に立つと考えられた注釈の任意の特別な特性を含んでいてもよい。注釈のこのような解析は、注釈を行ったユーザの数人又は全員を考慮に入れて行う。或いは、特別なユーザにとっては、注釈への高い価値又は低い価値の割当ては、どのユーザが特別な注釈を作成したかによって、左右される。例えば、信頼できるユーザ又は同様の関心を持つユーザによって作成された注釈はもっと重要であるとみなされる。注釈する行為に基づいて同様の又は信頼できるユーザを識別することができるシステム及び方法も従って重要とされる。高い価値のユーザの推奨は、特別なユーザがまだ見てなかった、或いは、注釈を行わなかった他のビデオストリームに関して推奨を行うために有用となり得る。
本発明は、マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして見る(view)システム及び方法をそれぞれ提供する。
本発明は、マルチメディア又はビデオストリームの高価値注釈を決定するシステム及び方法をそれぞれ提供する。
本発明は、一つ以上のヒューテリスティックに基づいて、マルチメディア又はビデオストリームの高価値注釈を決定するシステム及び方法をそれぞれ提供する。
本発明は、注釈者のアイデンティティと、この注釈者とインスタントユーザとの関連性と、に基づいて、マルチメディア又はビデオストリームの高価値注釈を決定するシステム及び方法をそれぞれ提供する。
様々な実施の形態において、本発明のシステム及び方法は、マルチメディア又はビデオストリームを得るステップと、このマルチメディア又はビデオストリームの注釈のユーザインデックスを得るステップと、これらのインデックスを併合するステップと、このマルチメディア又はビデオストリームの部分と注釈とを対応付けするステップと、特定の時間又はそれに近い時間において行われた注釈を評価するために、特定の時間又はそれに近い時間において行われた注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定ステップ、及びこの高価値注釈を表示するステップと、を有する。
様々な実施の形態において、本発明のシステム及び方法は、注釈のインデックスと高価値注釈との有用な視覚化を提供することを含む。
本発明の第1の態様は、マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見る方法であって、少なくとも一つのマルチメディア又はビデオストリームを得るステップと、マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得るステップと、注釈をマルチメディア又はビデオストリームの一部と対応付けするステップと、注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定ステップと、高価値注釈を表示するステップと、を有する、方法である。
本発明の第2の態様は、上記第1の態様において、少なくとも一つのマルチメディア又はビデオストリームを得るステップが、少なくとも二つのマルチメディア又はビデオストリームを得るステップを有することを特徴とする。
本発明の第3の態様は、上記第2の態様において、少なくとも二つのインデックスを併合して、注釈から得られた少なくとも一つのインデックスとして、共同インデックスを作成するステップを更に有することを特徴とする。
本発明の第4の態様は、上記第1の態様において、少なくとも一つのマルチメディア又はビデオストリームを得るステップが、オーディオビジュアル記録デバイスを用いて事象を記録するステップを有することを特徴とする。
本発明の第5の態様は、上記第1の態様において、少なくとも一つのマルチメディア又はビデオストリームを得るステップが、予め記録された事象のオーディオビジュアルストリームを得るステップを有することを特徴とする。
本発明の第6の態様は、上記第1の態様において、マルチメディア又はビデオストリームの複数の注釈から少なくとも一つのインデックスを得るステップが、少なくとも一つの記録デバイスを用いて、マルチメディア又はビデオストリームに関連する注釈を得るステップを有することを特徴とする。
本発明の第7の態様は、上記第6の態様において、少なくとも一つの記録デバイスが、ラップトップコンピュータ、ペンベースノートブックコンピュータ、パーソナルディジタルアシスタント、キータグ、及びワイヤレステレフォンの少なくとも一つを含むことを特徴とする。
本発明の第8の態様は、上記第1の態様において、マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得るステップと、少なくとも一つのマルチメディア又はビデオストリームを得るステップと、が同時に発生することを特徴とする。
本発明の第9の態様は、上記第1の態様において、マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得るステップと、少なくとも一つのマルチメディア又はビデオストリームを得るステップと、が非同期的に発生することを特徴とする
発明の第10の態様は、上記第の態様において、高価値注釈決定ステップが、注釈の各々の特定の時間への接近度に基づいて、注釈に値を付けるステップを有することを特徴とする。
本発明の第11の態様は、上記第の態様において、高価値注釈決定ステップが、注釈の各々のコンテンツに基づいて、注釈に値を付けるステップを有することを特徴とする。
本発明の第12の態様は、上記第の態様において、高価値注釈決定ステップが、注釈を行ったユーザに対して予め割り当てられている重みに基づいて、注釈に値を付けるステップを有することを特徴とする。
本発明の第13の態様は、上記第12の態様において、注釈に値を付けるステップが、ユーザによって付けられた注釈と少なくとも一人の他のユーザによって付けられた注釈の類似度を求めるステップを有することを特徴とする。
本発明の第14の態様は、上記第1の態様において、高価値注釈を表示するステップが、高価値注釈を見るために使用可能なユーザインタフェースを提供するステップを有することを特徴とする。
本発明の第15の態様は、マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るシステムであって、入力デバイスと、表示デバイスと、ビデオ又はマルチメディア及び/又は注釈インデックスの対応付け回路又はルーチンと、インデックス併合回路又はルーチンと、特定の時間又はそれに近い時間において行われた注釈を評価するために、特定の時間又はそれに近い時間において行われた注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定回路又はルーチンと、表示回路又はルーチンと、を備える、システムである。
本発明の第16の態様は、上記第15の態様において、入力デバイスがメモリへ少なくとも一つのマルチメディア又はビデオストリームを提供するために使用され得ることを特徴とする。
本発明の第17の態様は、上記第15の態様において、入力デバイスがメモリへ注釈から少なくとも一つのインデックスを提出するために使用され得ることを特徴とする。
本発明の第18の態様は、上記第15の態様において、入力デバイスが、ラップトップコンピュータ、ペンベースノートブックコンピュータ、パーソナルディジタルアシスタント、キータグ、及びワイヤレステレフォンの少なくとも一つを有することを特徴とする。
本発明の第19の態様は、上記第15の態様において、インデックス併合回路又はルーチンが、注釈の少なくとも二つのインデックスを共同インデックスへコンパイルするために使用可能であることを特徴とする。
本発明の第20の態様は、上記第15の態様において、ビデオ又はマルチメディア及び/又は注釈インデックスとの対応付け回路又はルーチンが、少なくとも一つのマルチメディア又はビデオストリームに注釈の少なくとも一つのインデックスを対応付けすることを特徴とする
発明の第21の態様は、上記第15の態様において、高価値注釈決定回路又はルーチンが、注釈の各々の特定の時間への接近度に基づいて、注釈を重み付けすることを特徴とする。
本発明の第22の態様は、上記第15の態様において、高価値注釈決定回路又はルーチンが、注釈の各コンテンツに基づいて、注釈に重み付けすることを特徴とする。
本発明の第23の態様は、上記第15の態様において、高価値注釈決定回路又はルーチンが、注釈を行ったユーザに対して予め割り当てられている重みに基づいて、複数の注釈に重み付けをすることを特徴とする。
本発明の第24の態様は、上記第15の態様において、ユーザによって行われた注釈と、少なくとも一人の他のユーザによって行われた注釈と、の類似度を求めることによって、注釈の重み付けをすることを特徴とする。
本発明の第25の態様は、上記第15の態様において、表示回路又はルーチンが、表示デバイスに高価値注釈を表示するために使用可能なユーザインタフェースを作成するか又は変更することを特徴とする。
本発明の第26の態様は、少なくとも一つのマルチメディア又はビデオストリームを得る手順と、マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得る手順と、注釈をマルチメディア又はビデオストリームの一部と対応付けする手順と、特定の時間又はそれに近い時間において行われた前記注釈を評価するために、前記特定の時間又はそれに近い時間において行われた注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈を決定する手順と、高価値注釈を表示する手順と、を含む、マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見る方法をコンピュータに実行させるためのプログラムである。
本発明の様々な特徴及び利点は、本発明の様々な実施の形態によるシステム及び方法について、以下に詳細に説明されることによって、より明確となるであろう。
図1は、本発明の一つの実施の形態によるマルチメディア又はビデオストリームの共同インデックスをフィルタリングして、見るための方法を概略的に示すフローチャートである。図1に示されるように、ステップ100から始めて、オペレーションは、ステップ200へ進み、マルチメディア又はビデオストリームが得られる。このマルチメディア又はビデオストリームは、任意の知られている又は今後開発される、マルチメディア又はビデオストリームを記憶又は記録する方法によって、得ることができる。
次に、ステップ300において、ビデオストリームのユーザ注釈の一つ以上のインデックスが得られる。これらの注釈は、任意の知られている又は今後開発される、マルチメディア又はビデオストリームにブックマークしたり(しおりを挟んだり)、注釈を付けたりするための技術によって、得られる。注釈は、タイムスタンプに限定されるブックマーク、又は注釈自体がコンテンツを含むより長い注釈を含むことができる。ラップトップ、ペンベースノートブックコンピュータ、及びパーソナルディジタルアシスタント上でノートを取るための技術が開発されてきた。ミーティングにおいて関心が持たれる点にブックマークをしたり、ビデオストリームに注釈を付けたりすることによる様々な方法は、キータグからワイヤレステレフォンに至るまでの何かを用いることによって、改良されてきた。これらの注釈は、マルチメディア又はビデオストリームの流れと注釈とを相互に関連させるためにタイムスタンプされ得る。これらの注釈は、注釈が付けられる度に、記憶され得る。或いは、ユーザ注釈のインデックスは、インデックスの作成に引き続いて記憶されてもよい。リアルタイムのユーザは、限定はされないが、全て(株)富士ゼロックス製の、LITEMIMUTES(ライトミニッツ)、NOTELOOK(ノートルック)、DYNOMITE(ダイノマイト)、又はNOTEPALS(ノートパルズ)を含むシステム又は方法を用いて、リアルタイムでビデオストリームに注釈を付けることができる。非同期的ユーザは、限定はされないが、マイクロソフト社(Microsoft, Inc.)製のMRASを含むシステム及び方法を用いて、ビデオストリームの作成に引き続いてビデオストリームに注釈を付けることができる。
次に、ステップ400において、ステップ300で得られた注釈のインデックスは、注釈の共同インデックスを形成するために併合される。これらのインデックスは、インデックスと注釈自体とが相対的に評価され得るように併合される。インデックスは、これらの得られたインデックスの同時解析を可能とする、任意の知られている又は今後開発される方法を用いて、併合され得る。様々な実施の形態において、インデックスを併合することによって、併合されたインデックスを表示することを含むことができ、これによって、ユーザが、全てのユーザによって付された注釈を見て、(注釈が)利用可能な場合は、マルチメディア又はビデオストリームの対応付けされた部分をブラウズすることが可能となる。
ステップ500において、マルチメディア又はビデオストリームの部分が、得られた注釈に対応付けされる。これらの注釈は、マルチメディア又はビデオストリームの一部と対応付けされることによって、注釈が表示される時、注釈を選択することによって、ユーザが、この注釈に対応付けされるマルチメディア又はビデオストリームの一部を見たり、そうでない場合は、この注釈に対応付けされるマルチメディア又はビデオストリームの一部を体験することが可能となる。マルチメディア又はビデオストリームの部分は、例えば、注釈が付された時間と相互に関連するように対応付けされてもよい。マルチメディア又はビデオストリームの部分は、この方法の適用に好適である、任意の継続時間であってもよいし、又は、任意のフォーマットで示されてもよい。マルチメディア又はビデオストリームの部分が、マルチメディア又はビデオストリームと注釈とを得たあとに引き続く任意の時間で、及び、高価値注釈を表示することに先立って、注釈に対応付けされてもよいことを理解されたい。
次に、ステップ600において、高価値注釈が決定される。高価値注釈は、選択された基準に基づいた特別なユーザに役立つように決定される注釈である。どの注釈が高価値注釈であるかを決定するとき、マルチメディア又はビデオストリームの継続時間のどの辺りで注釈が付されたかに基づいてどのブックマークが役立つかを決定するために、注釈の併合されたインデックス全体又は注釈の併合されたインデックス全体の部分が見られ得る。或いは、最初のユーザに類似している特別なユーザが識別され、その特別なユーザによって生成されるブックマークの各々が、高価値を有するものとして識別され得る。
ステップ700において、高価値注釈が表示される。高価値注釈が決定された後に、ユーザが注釈を見て高価値注釈と対応付けされたマルチメディア又はビデオストリームの部分をブラウズすることが可能となるように、これらの注釈が表示される。これらの注釈は、任意の知られている又は今後開発されるユーザインタフェースを用いて、表示されてもよい。高価値注釈を表示する様々な例示的な方法は、本発明によるシステムを説明する下記において説明されている。
次にステップ800において、新たな注釈を得るべきかが決定される。新たな注釈を得るべきであると決定された場合、オペレーションはステップ400へもどる。そうでない場合、オペレーションはステップ900へ進む。ステップ900において、任意の更なるマルチメディア又はビデオストリームを得て解析すべきかが決定される。任意の更なるマルチメディア又はビデオストリームを得て解析すべきであると決定された場合、オペレーションはステップ200へ戻る。そうでない場合、オペレーションは、ステップ1000へ進み、オペレーションは終了される。
様々な実施の形態において、ステップ600において、注釈の併合されたインデックスは、マルチメディア又はビデオストリームの時間継続の任意の特別な時間tにおいて付された注釈の信頼度値を求めるために評価される。時間tで行われるブックマークの信頼度値は、
(1)




式(1)において、C(t)は時間tで行われる注釈の信頼度の値、iはユーザ、nはn番目のユーザ、sは特別な注釈が行われた時間、tは評価される時間、w(t−s)は、時間sで行われるブックマークに対して重み付けをするハミング関数、そして、mi(s)は、時間sで行われる注釈の有無を示す関数である。
式(1)において、関数w(t)は、例えば、共通のハミング関数などのタイムウィンドウ(時間窓)に対して定義付けされる。図2は、ハミング関数を示す。ハミング関数は、ウィンドウ(t)の中心より離れた注釈に対してよりも、ウィンドウ(t)の中心により近い注釈に対して、より重く、重み付けをする。ハミング関数において、時間tにおいて、関数w(t−s)は1に等しいが、ある時間t−Δt及びある時点t+Δtに向かって正負両方の方向に移動すると、関数w(t−s)は0に近づく。しかしながら、ハミング関数は使用されなくてもよい。様々な実施の形態においては、注釈の他の特徴をより重く重み付けするような、変更されたハミング関数又は他の関数が使用されてもよい。例えば、このような変更されたハミング関数が、図3に示されている。図3に示された関数w(t−s)において、時間t後に行われた注釈が、時間t前に行われた注釈より、より重く、重み付けされている。ハミング関数又は他の適切な関数に対して、様々な変更を行うことが可能であることが当業者にとって明確であることが理解されよう。
関数mi(s)は、特別なユーザiが時間sにおいて注釈を行ったかどうかを示す。i番目のユーザが時間sで注釈を行った場合、関数の値は1に等しく、i番目のユーザが時間sで注釈を行わなかった場合、関数の値は0に等しい。このように、式(1)は、任意の時間tで行われる注釈に対する信頼度スコアを提供して、他のユーザによって行われる注釈の全てに対する、時間tで行われる特別な注釈の近接度を表示する。
関数C(t)は、いくつかの注釈に対して、他の注釈に対してよりも、多くの重みを付与するように変更され得る。式(2)は、ブックマークが重み付けされる特別な方法を考慮に入れて、関数を等式(1)に加算したものである。
(2)



式(2)において、Wi(s)は重み付け関数である。
重み付け関数Wi(s)は、任意の特別なヒューリスティックを考慮にいれることができる。例えば、様々な実施の形態において、注釈のコンテンツに基づいて注釈が重み付けされてもよい。コメントの長さや注釈の種類を評価することによって、注釈同士が互いに重み付けされてもよい。例えば、マルチメディア又はビデオストリームからの枠に描かれる赤のマークやマージンバーのような自由形式の注釈が高い価値を有する傾向がある。しかしながら、特別なユーザが同じタイプの注釈を常に使用する場合は、そのユーザにとって、この特別なタイプの注釈の値はそれに相応しい価値を示さない。例えば、ユーザが各ブックマークに対して長いコメントを書く傾向があるとき、これらのブックマークはユーザがめったに長いコメントを書かない場合よりその価値が低下する。重み付け関数Wi(s)は、これらの関係を考慮に入れることができる。これらの注釈は、マルチメディア又はビデオストリームの中でのこれら注釈の使用頻度に基づいて、重み付けされ得る。
様々な実施の形態においては、例えば、本発明によるシステム又は方法において、以前に行われた反復によって生成された共同インデックスにおいて、注釈が何回レビューされたかを求めるなどの注釈の用途に基づいて、注釈は、評価され得る。ユーザが注釈に直接ジャンプする時、この注釈はより高い価値を割当てられる。注釈がクラスタされる時、このクラスタの各注釈の価値が大きくなる。このようなヒューリスティックが使用される場合、より多くのユーザが共同インデックスへアクセスし特定の注釈へジャンプするので、各注釈の価値は経時的に進化し得る。
注釈は、特別なユーザの好みによって重み付けされてもよい。或いは、注釈は、他のユーザ(複数のユーザ)の誰が注釈を行ったかに基づいて、重み付けされてもよい。例えば、特別なユーザは、この特別なユーザが信頼している一人以上の他のユーザによって作成又はアクセスされたブックマークのみを選択することができる。これらの重みは、ユーザによって手動的に割り当てられてもよい。
式(3)において、別のレベルの注釈が関数式(2)に加算される。
(3)



式(3)において、Sim(t, s)は、時間tで行われる注釈と時間sで行われる注釈との間の類似度を表す関数である。
重み付け関数Wi(s)のように、比較関数Sim(t,s)は、時間tで行われる注釈と時間sで行われる注釈とを比較する際に、任意の特別なヒューリスティックを考慮することができる。例えば、注釈は、時間に応じて、比較され得る。様々な実施の形態において、任意の所望される測定基準に基づいて、注釈間の距離を計算することによって、注釈が評価されてもよい。いくつかのこのような実施の形態において、注釈の作成時間tと作成時間sが接近していればいるほど、これらの注釈間がますます類似してくる。様々な実施の形態において、時間差などの線形関数を使用する代わりに、非線型関数、例えば、時間tへの近接度に基づいてブックマークを異なるように重み付けする上述されたハミング関数、が用いられてもよい。
様々な実施の形態において、注釈は、テキスト上の類似度に基づいて、他の注釈と比較され得る。注釈が、マルチメディア又はビデオストリームに関してユーザが取ったノートなどのテキストを含むところでは、二つ以上の注釈間の類似度を決定するために、注釈のテキストストリング間の比較が、実行され得る。
様々な実施の形態において、注釈は、マルチメディア又はビデオストリームの一つ以上の枠に直接作成されたノートやマークを含むことができる。これらのマークは、他のユーザによって作成されるマークと比較され得る。ユーザがマルチメディア又はビデオストリームの枠の上に描画したり書き込んだりすることができるとき、枠上でその外観や位置が類似しているマークが識別され得る。
様々な実施の形態において、注釈は、これらの注釈が対応付けされる枠に相対して、比較され得る。例えば、マルチメディア又はビデオストリームの中の枠に対して行われる注釈は、これらの注釈が行われた枠の類似度に関して比較され得る。同一のクラスタに対応付けされる注釈は、異なるクラスタに対応付けされる注釈よりも類似度が高い。
様々な実施の形態において、高価値注釈は、二人のユーザのインデックスを比較することによって決定される。例えば、マルチメディア又はビデオストリームの集合に関して作成される注釈の集合に基づいたプロフィールが形成されてもよい。上記された個別の注釈の比較に関しては、二人以上のユーザの注釈のインデックス間の類似度は、時間的類似度、テキスト類似度、マーク類似度、及びビデオ特性、又は、重要と考えられる注釈の他の属性、を考慮に入れて演算されてもよい。
様々な実施の形態において、二人のユーザ間の類似度は、これらのユーザが似たようなマークを生成するときに高くなり得る。式(4)では、単一のマルチメディア又はビデオストリームの注釈に基づいて、二つのユーザ間の類似度をアセスするための関数が提供されている。第1のユーザB1と第2のユーザB2との間の類似度は、以下のようになる。
(4)



式(4)において、Sim(B1,B2)は第1のユーザB1と第2のユーザB2との間の類似度を表し、sは特別な注釈がなされた時間であり、tは評価される時間であり、w(t−s)はsで行われた注釈に対する重み付けであり、sim(t,s)は、時間tで行われた注釈と時間sで行われた注釈との類似度であり、b1(t)はユーザB1によって行われる注釈の有無を記述する関数であり、b2(t)はユーザB2によって行われる注釈の有無を記述する関数である。
様々な実施の形態において、式(4)に記述された関数は、式(2)及び式(3)に関して記述されるような一つ以上の重み付け及び/又は比較関数を加算することによって変更され得ることが理解されよう。いくつかのこのような実施の形態において、注釈の有無は、異なる含意を有する。例えば、第2のユーザがマークを付ける時に又はマークを付ける場所に、第1のユーザがマークを付けない時、これら二人のユーザ間の類似度に逆効果を与えないように関数は定義付けられ得る。逆に、ユーザ間の違いを強調することが望まれるアプリケーションにおいては、第2のユーザがマークを付ける時やマークを付ける場所に、第1のユーザがマークを付けない時、関数は、これらの二人のユーザ間の類似度に逆効果を与えるように定義付けられ得る。このような強調を発揮させる方法の一つとしては、特別な時間tで注釈が存在する場合は関数が1になるように、時間tで注釈が存在しない場合は関数が0になるように、b1(t)とb2(t)を、定義付けることである。
様々な実施の形態において、ユーザの対応する注釈に直接基づいて、ユーザ間を比較するのではなく、ユーザ注釈がクラスタされた注釈のグループに基づいて、ユーザ間が比較されてもよい。
グループは、任意の知られている又は今後開発される方法によって、作成され得る。例えば、階層型アグロメラティブクラスタリングアルゴリズム(Hierarchical Agglomerative Clustering algorithm)のような従来のクラスタリングアルゴリズムを適用することによって、作成され得る。このようにグループを作成する方法は、例えば、ウィルコックス(Wilcox)他に与えられ、本明細書にその全体を参照することによって組み込まれる、米国特許第5,889,523号に記載されている。図4は、四人の異なるユーザによって付された注釈のインデックスを示す。これらの注釈は、クラスタアルゴリズムによって作成され得る仮説グループに組み込まれる。様々な実施の形態において、グループは、二つの最も類似した注釈を識別することによって作成される。図4に示す例においては、類似した注釈を識別するために使用される類似関数は、単に、二つの注釈を分ける時間の関数であると仮定される。しかしながら、これらの注釈が、限定はされないが、上述されたヒューリスティックを含む任意の特別なヒューリスティックのための関数を用いて、比較され得ることが理解されよう。図4において、注釈{21,32}と注釈{33,42}のペアがまず作成される。二つの最も近い注釈のグループを再帰的にみつけるために、様々な技術が用いられる。図4に示される例においては、そのような方法を用いると、以下のようなグループ分けとなる。即ち、{21,32,41}、{33,42,13}、及び{11,31}
図4に示される例において、注釈「32」が、注釈「21」と注釈「41」とにより類似していることがわかったので、注釈「31」は、グループ又はクラスタ{32,21,41}に入らない。特に、そして、図4に示されるグループ分けを作成するために使用される例示的な技術においては、同一ユーザによって作成される注釈はグループ分けされない。従って、注釈「31」は、注釈「11」のグループに入る。予め定義付けられた閾値が注釈の二つのグループ間の類似度に達した時、グループ分けを停止する様々なアルゴリズムが用いられ得る。例えば、グループの中にある注釈の数が多いほど、そのグループの価値が高くなるというような、グループ分けに基づいて想定がなされる。次に、各ユーザは、ユーザが属するグループによって表され得る。ユーザ同士は、これらのユーザが属するグループに基づいて互いに比較され得る。
様々な実施の形態において、グループを決定し、恐らく、特別なグループの注釈をユーザへ薦めた後、各ユーザの注釈が属するグループに基づいて、ユーザ同士が比較される。個々のユーザが属するグループを識別するマトリックスが作成され得る。図4に示された例に関しては、図5は、図4のユーザ各自のグループメンバシップを示す。図6において、ユーザが属する共通のグループに基づいてユーザの類似度を説明するために、グループメンバシップに関連するデータが、再構成される。グループメンバシップに基づいたユーザの類似度は、式(5)によって与えられる。
(5)


式(5)において、
類似度(ユーザi,ユーザj)は、グループメンバシップの関数としてのユーザiとユーザjとの類似度であり、グループ分け(ユーザi,n)は、ユーザiがグループnのメンバであるか否かを示す関数であり、この関数はこのユーザがグループnに入るか否かによって1又は0を付与し、Nはユーザの数を示す。
直接、ユーザのブックマークから、又はユーザが属するブックマークのグループから、のいずれかから、ユーザ同士が比較されると、類似性のあるユーザが検出され、推薦が行われ得る。様々な実施の形態において、第1のマルチメディア又はビデオストリームに対する第1のユーザと第2のユーザとの類似度が記憶され、第1のマルチメディア又はビデオストリームに対して行われた注釈の類似度に基づいて、第2のマルチメディア又はビデオストリームに対して、注釈の推薦が行われる。
式(1)乃至(4)に記載される関数は、図示目的のためにのみ、時間の関数として、記載されていることを理解されたい。高価値注釈は、注釈の任意の定量化可能なヒューリスティックの関数として、決定されてもよいし、このような変数が、本発明によるシステム及び方法によって、特別にコンテンプレートされる。同様に、高価値注釈を決定するために、重み付け又は比較関数の任意の組合せが、使用されてもよく、複数の重み付け関数及び/又は比較関数が、式(1)乃至(4)のいずれかに加算されたり、これらの式のいずれかから、除去されたりされ得る。
図7は、上述されるように、マルチメディア又はビデオストリームの共同インデックスをフィルタリングして、ユーザが、マルチメディア又はビデオストリームの高価値部分を識別、選択、及び見ることができるように、表示デバイス116を介して、ユーザインタフェースを制御可能に表示するために使用される、本発明の一つの実施の形態によるフィルタリング及びビューイングシステム100の機能ブロック図である。図7に示されるように、フィルタリング及びビューイングシステム100は、一つ以上のデータ/コントロールバス、アプリケーションプログラミングインタフェース、その他、145によって相互接続される、I/O(入出力)インタフェース110、コントローラ120、メモリ130、インデックス併合回路又はルーチン140、マルチメディア又はビデオストリーム/注釈対応付け回路又はルーチン150、高価値注釈決定回路又はルーチン160、及び表示回路又はルーチン170を有する。一つ以上の入力デバイス112と一つ以上の表示デバイス116は、一つ以上のリンク114と一つ以上のリンク118によって、それぞれ、I/Oインタフェース110に接続される。
図7に示されるメモリ130は、変更できるメモリ又は変更できないメモリのいずれか又はその両方を用いて、実現され得る。メモリ130の変更できる部分は、様々な実施の形態において、スタティック又はダイナミックRAMを用いて実現される。しかしながら、メモリ130の変更できる部分は、フロッピー(登録商標)ディスク及びディスクドライブ、書き込み可能光ディスク及びディスクドライブ、ハードドライブ、フラッシュメモリ等を用いて実現されてもよい。メモリ130の変更できない部分は、様々な実施の形態において、ROMを用いて実行される。しかしながら、変更できない部分は、PROM、EPROM、EEPROMなどの不揮発性メモリ、CD−ROM又はDVD−ROM等の光学ROMディスク、ディスクドライブ、又は他の変更できないメモリ等を用いて実現されてもよい。
一般に、一つ以上の入力デバイス112は、フィルタリング及びビューイングシステム100へコントロール及び/又はデータ信号を提供するために使用される、キーボード、キーパッド、マウス、トラックボール、トラックパッド、タッチスクリーン、マイクロフォン及び対応付けされた音声認識システムソフトウェア、ジョイスティック、ペンベースシステム、又は、任意の他の知られている又は今後開発されるシステムのうちのいずれか一つ以上を有する。一つ以上の入力デバイス112は、ユーザや他のシステムによって使用可能な、フィルタリング及びビューイングシステム100へデータや他の刺激を提供する任意の手動又は自動のデバイスを更に含むことができる。例えば、一つ以上の入力デバイス112は、マルチメディア又はビデオストリームのノートを取ったり、これらに注釈を付けたりするために適切な、遠隔ラップトップコンピュータ、ペンベースノートブックコンピュータ又はパーソナルディジタルアシスタント等の任意の知られている又は今後開発されるデバイス又は技術を有することができる。一つ以上の入力デバイス112は、マルチメディア又はビデオストリームにブックマークを付けたり注釈を付けたりする、キータグ又は携帯電話等の他のデバイスを更に有することができる。
リンク114は、一つ以上の入力デバイス112をフィルタリング及びビューイングシステム100に接続するための任意の知られている又は今後開発されるデバイス又はシステムであってよく、直接ケーブル接続、ワイドエリアネットワーク又はローカルエリアネットワークを介した接続、イントラネットを介した接続、インターネットを介した接続、又は任意の他の知られている又は今後開発される分散型プロセッシングネットワーク又はシステムを有する。一般に、リンク114は、一つ以上の入力デバイス112をフィルタリング及びビューイングシステム100に接続するために使用可能な任意の知られている又は今後開発される接続システム又はストラクチャであってもよい。リンク114は、さらに、遠隔デバイスをワイヤレスに接続するために、任意の知られている又は今後開発されるデバイスを更に含むことができる。
オペレーションにおいて、ユーザは、フィルタリング及びビューイングシステム100をオペレートし、高価値注釈を表示デバイス116に表示し、この高価値注釈が選択されたときに特別な高価値注釈と対応付けされたマルチメディア又はビデオストリームの部分を更に表示する。最初に、一つ以上のマルチメディア又はビデオストリームがフィルタリング及びビューイングシステム100へ提出される。一つ以上のマルチメディア又はビデオストリームは、高価値注釈を表示するためにユーザがフィルタリング及びビューイングシステム100をオペレートすることで得られなくてもよい。一つ以上のマルチメディア又はビデオストリームは、インスタントユーザによる使用に先立って、他のユーザによって作成されたり記録されたりしていたものであってもよい。マルチメディア又はビデオストリームは、マルチメディア又はビデオストリームの主題の発生と同時にマルチメディア又はビデオストリームを提出するために好適である一つ以上の入力デバイス112の一つ以上を用いて、フィルタリング及びビューイングシステム100へ提出されてもよい。或いは、一つ以上の入力デバイス112は、前もって記録されたマルチメディア又はビデオストリームを、フィルタリング及びビューイングシステム100へ、転送又は伝送するために使用可能であるデバイス(又は複数のデバイス)を含んでいてもよい。
上記に示したように、一つ以上の入力デバイス112の一つ以上は、フィルタリング及びビューイングシステム100へ、注釈の一つ以上のインデックスを、提出するためにも使用される。マルチメディア又はビデオストリームを得る場合と同様に、注釈の一つ以上のインデックスは、高価値注釈を表示するためにユーザがフィルタリング及びビューイングシステム100をオペレートすることで得られなくてもよい。注釈の一つ以上のインデックスは、インスタントユーザによる使用に先立って作成されていたものであってもよい。注釈は、限定はされないが、タイムスタンプ、特別なマルチメディア又はビデオストリーム上にノートなどのコンテンツを含む注釈、又はマルチメディア又はビデオストリームの様々な枠に直接付けられたマーク、を含むことができる。注釈の一つ以上のインデックスは、作成されるときにフィルタリング及びビューイングシステム100へ提出されてもよいし、注釈の一つのインデックスが注釈作成に引き続いてフィルタリング及びビューイングシステム100へ提出されてもよい。次に、マルチメディア又はビデオストリーム及び一つ以上の入力デバイスから得られる注釈の様々なインデックスが、コントローラ120によってメモリ130の中に記憶される。
次に、コントローラ120は、メモリ130に記憶された注釈の一つ以上のインデックスの一つ以上をインデックス併合回路又はルーチン140へ提供する。インデックス併合回路又はルーチン140は、コントローラ120の制御下で、メモリ130に記憶された注釈の一つ以上のインデックスを併合して、注釈の今後の解析のために共同インデックスを作成する。インデックス併合回路又はルーチン140によるインデックス併合オペレーションの完了後、コントローラ120は、併合されたインデックスをメモリ130に記憶する。
次に、コントローラ120は、メモリ130に記憶された注釈の併合されたインデックスから、注釈の少なくとも幾つかを、マルチメディア又はビデオストリーム及び/又は注釈対応付け回路又はルーチン150へ、提供する。マルチメディア又はビデオストリーム及び/又は注釈対応付け回路又はルーチン150は、コントローラ120の制御下で、メモリ130からリトリーブされた注釈の一つ以上に、マルチメディア又はビデオストリームの一部を、対応付けする。マルチメディア又はビデオストリーム及び/又は注釈対応付け回路又はルーチン150によるマルチメディア又はビデオストリーム及び/又は注釈対応付けオペレーションの完了後、コントローラ120は、マルチメディア又はビデオストリームの対応付けされた部分を有する注釈を、メモリ130に、記憶させる。マルチメディア又はビデオストリームの一部を注釈に対応付けることには、マルチメディア又はビデオストリームの一部を対応付けすること、即ち、フィルタリング及びビューイングシステム100がユーザが注釈を選択するときにマルチメディア又はビデオストリームの一部を表示することを可能にするキューを単に対応付けすることを含む。
次に、コントローラ120は、注釈の少なくともいくつかに、そして、様々な実施の形態において、メモリ130に記憶された選択されたヒューリスティックに、アクセスして、アクセスされた注釈及び/又はヒューリスティックを、高価値注釈決定回路又はルーチン160へ、送る。高価値注釈決定回路又はルーチン160は、コントローラ120の制御下で、表示用の高価値注釈を選択する。高価値注釈の選択は、上記された注釈を評価する方法の一つ以上を遂行することによって実行されてもよい。高価値注釈決定回路又はルーチン160によって実行される高価値注釈決定オペレーションの完了後、コントローラ120は、高価値注釈決定回路又はルーチン160によって選択された高価値注釈をメモリ130に記憶する。
コントローラ120は、次に、メモリ130に記憶されたマルチメディア又はビデオストリームの対応付けされた部分を有する高価値注釈のうちの少なくともいくつかにアクセスし、アクセスされたデータを、表示回路又はルーチン170へ、送る。表示回路又はルーチン170は、コントローラ120の制御下で、マルチメディア又はビデオストリームの対応付けされた部分を有する高価値注釈を表示するためにユーザインタフェースを作成するか又は変更する。表示回路又はルーチン170による表示オペレーションの完了後、コントローラ120は、表示回路又はルーチン170によって生成されたユーザインタフェースを、メモリ130に、記憶する。
コントローラ120は、次に、メモリ130から、表示回路又はルーチン170によって生成又は変更されたユーザインタフェースにアクセスし、ユーザインタフェースを、表示デバイス116に、表示する。表示デバイス116に表示されたユーザインタフェースの中の高価値注釈から一つをユーザが選択するとき、コントローラ120は、マルチメディア又はビデオストリームの対応付けされた部分を提供して、表示デバイス116に表示する。ユーザは、引き続いて、新しい注釈を提供したり、解析用に新しいマルチメディア又はビデオストリームを識別したり、一つ以上の新しいヒューリスティックを選択したりして、フィルタリング及びビューイングシステム100のオペレーションを反復してもよい。
図8は、本発明の第1の実施の形態によるマルチメディア又はビデオストリームの注釈の共同インデックスを見るために使用可能なユーザインタフェース200を示す。ユーザインタフェース200は、注釈アイコン220が表示される一つ以上の注釈表示ボックス215を有する。各注釈表示ボックス215は、これらの注釈を作成したユーザを識別するユーザ識別タグ250を有する。ユーザインタフェース200は、注釈が作成された時間及び各注釈を作成したユーザのアイデンティティを表示する、タイムスタンプテキストボックス255も有する。
オペレーションにおいて、ユーザは、ユーザインタフェース200上の注釈アイコン220をポイントして、注釈アイコン220を選択することによって、注釈表示ボックス215に表示された、注釈アイコン220を選択する。
レスポンスにおいて、データは、タイムスタンプテキストボックス255及び注釈テキストボックス260に表示される。タイムスタンプテキストボックス255及び注釈テキストボックス260に表示されたデータは、選択された注釈アイコン220に対応付けされた注釈のタイムスタンプシグネチャである。様々な実施の形態において、注釈アイコン220を選択することによって、選択された注釈に対応付けされたマルチメディア又はビデオストリームの一部が表示される。表示は、任意の知られている又は今後開発されるメディアプレーヤを用いて、遂行され得る。
図9は、本発明の第2の実施の形態による、マルチメディア又はビデオストリームの高価値注釈の共同インデックスを見るために使用可能なユーザインタフェース300を示す。ユーザインタフェース300は、注釈アイコン320が表示される注釈表示ボックス315を有する。各注釈アイコン320は、そのユーザに応じて、注釈アイコン320のカラーや形状などの表示の特徴を変更することによって、注釈を作成したユーザを識別する。ユーザインタフェース300は、ビデオ表示ボックス310も有する。ビデオ表示ボックス310には、VCRボタン355、状態ボックス363、及び時相インジケータボックス365が対応付けされている。時相インジケータボックス365は、時相スライダバー367を有する。ユーザインタフェース300は、閾値セレクタボックス335の中に位置する閾値スライダバー340も有する。ユーザインタフェース300は、注釈スキャニングボタン303及び307と、特徴リストドロップボックス375と、を更に有する。
オペレーションにおいて、ユーザは、ユーザが見たいとする、注釈の信頼度のレベルを選択するために、閾値スライダバー340を使用する。レスポンスにおいて、閾値信頼度値に整合する注釈に対しての注釈アイコン320が、注釈表示ボックス315に表示される。ユーザは、所望のアイコンを選択することによって、表示された注釈アイコン320のいずれかを選択することができる。これによって、そのアイコンに対応付けされるマルチメディア又はビデオストリームの一部が、ビデオ表示ボックス310に表示される。ユーザは、特別な注釈に対応付けされたマルチメディア又はビデオストリームが見られる方法を、特徴リストドロップボックス375から特徴を選択することによって、選択することができる。これらの特徴には、マルチメディア又はビデオストリーム或いはマルチメディア又はビデオストリームの部分を示す任意の知られている又は今後開発される方法が含まれる。ユーザは、表示された注釈アイコン320の各々に対応付けされたマルチメディア又はビデオストリームの部分を介して、キューするために、注釈スキャニングボタン303及び307をオペレートすることができる。
マルチメディア又はビデオストリームに対して行われた注釈を強調するように、マルチメディア又はビデオストリームを見ることに加えて、ユーザインタフェース300は、ユーザが、従来、マルチメディア又はビデオストリームを見てきたであろうが如くに、マルチメディア又はビデオストリームを見ることを可能とする特徴を有する。このような特徴は、VCRボタン355、状態ボックス363、及び時相インジケータボックス365を有する。VCRボタン355は、ユーザがVIR(即ち、再生、停止、休止等)をオペレートするようなオペレーションを可能とする。状態ボックス363は、マルチメディア又はビデオストリームの現在状態(即ち、再生中又は休止中など)を識別する。時相インジケータボックス365は、現在、ビデオ表示ボックス310の中にある、マルチメディア又はビデオストリームの開始点及び終了点に相対して、マルチメディア又はビデオストリームの一部の視覚的な識別を提供する。ユーザは、時相インジケータボックス365内のロケーションに、時相スライダバー367を置くことができ、このロケーションに対応付けされたマルチメディア又はビデオストリームの部分がビデオ表示ボックス310に現れる。
図10は、本発明の第3の実施の形態によるマルチメディア又はビデオストリームの注釈の共同インデックスを見るために使用可能なユーザインタフェース400を示す。ユーザインタフェース400は、注釈アイコン420が表示される一つ以上の注釈表示ボックス415を有する。各注釈表示ボックス415は、対応する注釈を作成したユーザを識別するユーザ識別タグ450を有する。ユーザインタフェース400は、ビデオ表示ボックス410とグルーピングブラウザ475も有する。ユーザインタフェース400は、注釈チェックボックス465、注釈テキストボックス460、及びユーザリストドロップボックス470を更に有する。注釈チェックボックス465は、グルーピングブラウザ475によってハイライト(強調)された注釈表示ボックス415の部分に注釈が付けられたかを表示する。ユーザリストドロップボックス470は、グルーピングブラウザ475によってハイライトされた注釈表示ボックス415の部分に注釈を行ったユーザ又は複数のユーザのアイデンティティを表示して、ユーザインタフェース400のユーザが、これらのユーザ間で選択するのを可能とする。注釈テキストボックス460は、あるとすれば、ユーザリストドロップボックス470において識別されるユーザによって行われる一つ以上の注釈に対応付けされるテキストも有する。
オペレーションにおいて、ユーザは、グルーピングブラウザ475を、関心がもたれる注釈表示ボックス415の一部に対応付けする。レスポンスにおいて、注釈表示ボックス415の選択された部分に現れる注釈アイコン420に対応付けされるマルチメディア又はビデオストリームの一部がビデオ表示ボックス410に表示される。また、レスポンスにおいて、注釈アイコン420が注釈表示ボックス415の選択された部分に現れた場合、注釈チェックボックス465がハイライトされる。さらに、レスポンスにおいて、対応付けされたテキストを有する注釈アイコン420が注釈表示ボックス415の選択された部分に現れた場合、及びユーザドロップボックス470において識別されたユーザがこのようなテキスト注釈を行った場合、注釈アイコン420に対応付けされるテキストが、注釈テキストボックス460に表示される。
図11は、本発明の第4の実施の形態による、マルチメディア又はビデオストリームの注釈の共同インデックスを見るために使用可能なユーザインタフェース500を示す。ユーザインタフェース500は、注釈アイコン520が表示される一つ以上の注釈表示ボックス515を有する。ユーザインタフェース500は、信頼度表示ボックス585も有する。信頼度表示ボックス585においては、信頼度アイコン590が表示され、マルチメディア又はビデオストリームにおける任意の所与の瞬間に作成される注釈の信頼度スコアの視覚的表示が提供される。ユーザインタフェース500は、ビデオ表示ボックス510及びグルーピングブラウザ580を有する。ユーザインタフェース500は、注釈チェックボックス565、注釈テキストボックス560、及びユーザリストドロップボックス570を更に有する。注釈チェックボックス565は、注釈がグルーピングブラウザ580によってハイライトされた注釈表示ボックス515の部分に注釈が付けられたかを示す。ユーザリストドロップボックス570は、グルーピングブラウザ580によってハイライトされた注釈表示ボックス515の部分に注釈を行ったユーザ又は複数のユーザのアイデンティティを表示して、ユーザインタフェース500のユーザが、これらのユーザ間で選択することを可能とする。注釈テキストボックス560は、あるとすれば、ユーザリストドロップボックス570において識別されたユーザによって行われた、一つ以上の注釈に対応付けされたテキストも有する。
オペレーションにおいて、ユーザは、グルーピングブラウザ580を、関心の持たれる注釈表示ボックス510の一部と対応付けする。レスポンスにおいて、注釈表示ボックス515の選択された部分内に現れる注釈アイコン520に対応付けされた、マルチメディア又はビデオストリームの一部が、ビデオ表示ボックス510に表示される。また、レスポンスにおいて、注釈アイコン520が注釈表示ボックス515の選択された部分に現れる場合に、注釈チェックボックス565はハイライトされる。更に、レスポンスにおいて、対応付けされたテキストを有する注釈アイコン520が注釈表示ボックス515の選択された部分に現れる場合、及びユーザリストドロップボックス570において識別されたユーザが、このようなテキスト注釈を作成した場合、注釈アイコンに対応付けされたテキストは、注釈テキストボックス560に表示される。
図12、図13、及び図14は、本発明の第5の実施の形態による、マルチメディア又はビデオストリームの高価値注釈の共同インデックスを見るために使用可能なユーザインタフェース600を示す。 ユーザインタフェース600は、信頼度表示ボックス685を有しており、信頼度表示ボックス685において、信頼度アイコン690が表示されて、マルチメディア又はビデオストリームにおける任意の所与の瞬間に作成された注釈の信頼度スコアの視覚的な表示を提供する。信頼度表示ボックス685は、注釈を作成したユーザの人数又はアイデンティティを識別するユーザサマリータグ605を有する。ユーザインタフェース600は、ビデオ表示ボックス610も有する。図13に示されているように、ユーザインタフェース600は、複数の表示ボックス630を有するマルチ注釈表示ボックス625も有する。図14は、マルチ注釈表示ボックス625内の特別な表示ボックス630が選択された時を示すハイライトインジケータ635を図示する。
オペレーションにおいて、ユーザは、信頼度表示ボックス685内の特別な位置を選択する。信頼度表示ボックス685内の各ロケーションは、マルチメディア又はビデオストリームにおける特別な瞬間を表す。ユーザの選択の結果として、ユーザによって選択された瞬間に対応付けされたマルチメディア又はビデオストリームの一部が、ビデオ表示ボックス610に表示される。一人以上のユーザが、選択された瞬間の所定時間内に任意の注釈を行った場合、マルチ注釈表示ボックスが開き、これらの注釈に対応付けされたマルチメディア又はビデオストリームの部分が、マルチ注釈表示ボックス625の一つ以上の表示ボックス630に表示される。次に、ユーザは、マルチ注釈表示ボックス625内の表示ボックス630の一つを選択することができる。これによって、選択された表示ボックス630は、ハイライトインジケータ635によってハイライトされる。様々な実施の形態において、表示ボックス630をハイライトすることによって、結果的に、マルチメディア又はビデオストリームの対応付けされた部分がビデオ表示ボックス610に表示される。様々な他の実施の形態において、表示ボックス630をハイライトすることによって、結果的に、対応付けされたデバイス又はプログラムによってマルチメディア又はビデオストリームの対応付けされた部分が表示される。
以上の説明によって、各グラフィカルユーザインタフェース「スクリーン」がHTML、XML、又は任意の他の知られている又は今後開発されるウェブページ著作言語で書き込まれた識別ウェブページであるところの、スタンダードウィンドウグラフィカルユーザインタフェース及びウェブベース実現を用いたグラフィカルユーザインタフェースに一般的に等価に向けられていることを理解されたい。これによって、様々な実施の形態において、以上の説明の選択可能なアイコンは、関連するウェブページ又は現在のウェブページの個別(distinct)領域へのハイパーリンクとして、実現される。しかしながら、上述されたグラフィカルユーザインタフェーススクリーン及び/又はグラフィカルユーザインタフェースエレメントを実現するために、任意の知られている又は今後開発されるグラフィカルユーザインタフェース実現技術が使用されてもよいことが理解されよう。
従って、本発明によるグラフィカルユーザインタフェースは、ウェブベースシステムとしてよりも、寧ろ、ウィンドウ(Windows(登録商標))ベースシステムとして実現され得ることも理解されよう。この場合、グラフィカルユーザインタフェーススクリーンは、特別な選択可能なアイコン又は他のインタラクティブなエレメント又はウィジェット(widgets)と対応付けされる特定なWindows(登録商標)事象によってアクセスされる、グラフィカルユーザインタフェースの個別部分である。これによって、これらのグラフィカルユーザインタフェーススクリーンの選択可能なアイコン及び他のインタラクティブなエレメントは、Windows(登録商標)ウィジェットその他として実現され得る。本発明によるグラフィカルユーザインタフェース及びスクリーンについての以上の説明において、選択可能なアイコン又は他のインタラクティブなエレメントを選択することは、例えば、ドロップダウンリストボックス、ダイアログボックス、選択ボタン等を使うことによって、新しいスクリーンを生成したり、ユーザがデータを入力することを可能とする、グラフィカルユーザインタフェースの任意の特徴を起動させることが含み得ることが更に理解されよう。グラフィカルユーザインタフェースの特徴を選択するために使用可能なオンスクリーン・インジケータは、例えば、マウス、タッチパッド、タッチスクリーン、ライトペン、ジョイスティック、トラックボール又は任意の他の知られている又は今後開発されるオンスクリーン位置入力デバイスと共に使用される、マウスポインタ、カーソル、或いは、任意の他の知られている又は今後開発されるオンスクリーンインジケータであってもよい。
図7に示されるフィルタリング及びビューイングシステム100は、表示デバイス116のオペレーションをコントロールするために使用されるプログラミングされた汎用コンピュータの部分として実現されてもよいことが理解されよう。或いは、フィルタリング及びビューイングシステム100は、ASIC、ディジタル信号プロセッサ(DSP)、FPGA、PLD、PLA、又は、PALを用いて、或いは、個別論理素子又は個別回路素子などの物理的な個別ハードウェア回路を用いて、実現され得る。図7に示される、コントローラ120がとり得る特別な形態は、設計上の選択であり、当業者にとって明確であり予測可能なものである。或いは、フィルタリング及びビューイングシステム100は、演算デバイスの全体的なコントロールシステムを形成するために使用可能なソフトウェアプログラムの一部として実現されてもよい。この場合、コントローラ120と種々の回路又はルーチン140乃至170の各々は、ソフトウェアルーチン、オブジェクト及び/又はアプリケーションプログラミングインタフェース、その他として実現され得る。
本発明は、上記の特定の実施の形態に関して、説明されてきたが、多くの代替、組合せ、変更、及び変形が可能であることは当業者に明らかである。従って、以上に説明された本発明の好ましい実施の形態は、図示目的のみのために行われたものであり、これらに限定されるものではない。本発明の精神及び範囲を逸脱しない限りにおいて、種々の変更が可能である。
本発明の様々な実施の形態は、同様の参照番号が同様のエレメントを示す以下の図面によってより詳細に説明される。
本発明によるマルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングするとともに見るための方法の一つの実施の形態を概略的に示したフローチャートである。 一般的なハミング関数を示すグラフである。 変更されたハミング関数を示すグラフである。 単一ビデオストリームの四人のユーザによって付けられた注釈をグラフィカル・レンダリングで示した図である。 図4の仮想ユーザに割当てられ得るグルーピングをグラフィカル・レンダリングで示した図である。 図4の仮想ユーザのグループメンバシップを他のグラフィカル・レンダリングで示した図である。 本発明によるマルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングするとともに見るためのシステムの一つの実施の形態を示す機能ブロック図である。 マルチメディア又はビデオストリームの注釈の共同インデックスを見るために使用可能な本発明の第1の実施の形態によるユーザインタフェースを示す図である。 マルチメディア又はビデオストリームの注釈の共同インデックスを見るために使用可能な本発明の第2の実施の形態によるユーザインタフェースを示す図である。 ビデオストリームの高価値注釈の共同インデックスを見るために使用可能な本発明の第3の実施の形態によるユーザインタフェースを示す図である。 マルチメディア又はビデオストリームの高価値注釈の共同インデックスを見る、本発明の第4の実施の形態によるユーザインタフェースを示す図である。 マルチメディア又はビデオストリームの高価値注釈の共同インデックスを見る、本発明の第5の実施の形態によるユーザインタフェースを示す図である。 マルチメディア又はビデオストリームの高価値注釈の共同インデックスを見る、本発明の第5の実施の形態によるユーザインタフェースを示す図である。 マルチメディア又はビデオストリームの高価値注釈の共同インデックスを見る、本発明の第5の実施の形態によるユーザインタフェースを示す図である。

Claims (26)

  1. マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見る方法であって、
    少なくとも一つのマルチメディア又はビデオストリームを得るステップと、
    前記マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得るステップと、
    前記注釈を前記マルチメディア又はビデオストリームの一部と対応付けするステップと、
    特定の時間又はそれに近い時間において行われた前記注釈を評価するために、特定の時間又はそれに近い時間において行われた前記注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定ステップと、
    前記高価値注釈を表示するステップと、
    を有する、方法。
  2. 前記少なくとも一つのマルチメディア又はビデオストリームを得るステップが、少なくとも二つのマルチメディア又はビデオストリームを得るステップを有する、請求項1に記載の方法。
  3. 前記少なくとも二つのインデックスを併合して、注釈から得られた前記少なくとも一つのインデックスとして、共同インデックスを作成するステップを更に有する、請求項2に記載の方法。
  4. 前記少なくとも一つのマルチメディア又はビデオストリームを得るステップが、オーディオビジュアル記録デバイスを用いて事象を記録するステップを有する、請求項1に記載の方法。
  5. 前記少なくとも一つのマルチメディア又はビデオストリームを得るステップが、予め記録された事象のオーディオビジュアルストリームを得るステップを有する、請求項1に記載の方法。
  6. 前記マルチメディア又はビデオストリームの複数の注釈から前記少なくとも一つのインデックスを得るステップが、少なくとも一つの記録デバイスを用いて、マルチメディア又はビデオストリームに関連する注釈を得るステップを有する、請求項1に記載の方法。
  7. 前記少なくとも一つの記録デバイスが、ラップトップコンピュータ、ペンベースノートブックコンピュータ、パーソナルディジタルアシスタント、キータグ、及びワイヤレステレフォンの少なくとも一つを含む、請求項6に記載の方法。
  8. 前記マルチメディア又はビデオストリームの注釈から前記少なくとも一つのインデックスを得るステップと、前記少なくとも一つのマルチメディア又はビデオストリームを得るステップと、が同時に発生する、請求項1に記載の方法。
  9. 前記マルチメディア又はビデオストリームの注釈から前記少なくとも一つのインデックスを得るステップと、前記少なくとも一つのマルチメディア又はビデオストリームを得るステップと、が非同期的に発生する、請求項1に記載の方法。
  10. 前記高価値注釈決定ステップが、前記注釈の各々の前記特定の時間への接近度に基づいて、前記注釈に値を付けるステップを有する、請求項に記載の方法。
  11. 前記高価値注釈決定ステップが、前記注釈の各々のコンテンツに基づいて、前記注釈に値を付けるステップを有する、請求項に記載の方法。
  12. 前記高価値注釈決定ステップが、前記注釈を行ったユーザに対して予め割り当てられている重みに基づいて、前記注釈に値を付けるステップを有する、請求項に記載の方法。
  13. 記注釈に値を付けるステップが、前記ユーザによって付けられた注釈と少なくとも一人の他のユーザによってつけられた注釈の類似度を求めるステップを有する、請求項12に記載の方法。
  14. 前記高価値注釈を表示するステップが、前記高価値注釈を見るために使用可能なユーザインタフェースを提供するステップを有する、請求項1に記載の方法。
  15. マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るシステムであって、
    入力デバイスと、
    表示デバイスと、
    ビデオ又はマルチメディア及び/又は注釈インデックスの対応付け回路又はルーチンと、
    インデックス併合回路又はルーチンと、
    特定の時間又はそれに近い時間において行われた前記注釈を評価するために、前記特定の時間又はそれに近い時間において行われた前記注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定回路又はルーチンと、
    表示回路又はルーチンと、
    を備える、
    システム。
  16. 前記入力デバイスがメモリへ少なくとも一つのマルチメディア又はビデオストリームを提供するために使用され得る、請求項15に記載のシステム。
  17. 前記入力デバイスがメモリへ注釈から少なくとも一つのインデックスを提出するために使用され得る、請求項15に記載のシステム。
  18. 前記入力デバイスが、ラップトップコンピュータ、ペンベースノートブックコンピュータ、パーソナルディジタルアシスタント、キータグ、及びワイヤレステレフォンの少なくとも一つを有する、請求項15に記載のシステム。
  19. 前記インデックス併合回路又はルーチンが、注釈の少なくとも二つのインデックスを共同インデックスへコンパイルするために使用可能である、請求項15に記載のシステム。
  20. 前記ビデオ又はマルチメディア及び/又は注釈インデックスとの対応付け回路又はルーチンが、少なくとも一つのマルチメディア又はビデオストリームに注釈の少なくとも一つのインデックスを対応付けする、請求項15に記載のシステム。
  21. 前記高価値注釈決定回路又はルーチンが、前記注釈の各々の特定の時間への接近度に基づいて、前記注釈を重み付けする、請求項15に記載のシステム。
  22. 前記高価値注釈決定回路又はルーチンが、前記注釈の各コンテンツに基づいて、前記注釈に重み付けする、請求項15に記載のシステム。
  23. 前記高価値注釈決定回路又はルーチンが、前記注釈を行ったユーザに対して予め割り当てられている重みに基づいて、前記複数の注釈に重み付けをする、請求項15に記載のシステム。
  24. 前記ユーザによって行われた注釈と、少なくとも一人の他のユーザによって行われた注釈と、の類似度を求めることによって、前記注釈の重み付けをする、請求項15に記載のシステム。
  25. 前記表示回路又はルーチンが、前記表示デバイスに前記高価値注釈を表示するために使用可能なユーザインタフェースを作成するか又は変更する、請求項15に記載のシステム。
  26. 少なくとも一つのマルチメディア又はビデオストリームを得る手順と、
    前記マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得る手順と、
    前記注釈を前記マルチメディア又はビデオストリームの一部と対応付けする手順と、
    特定の時間又はそれに近い時間において行われた前記注釈を評価するために、前記特定の時間又はそれに近い時間において行われた前記注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈を決定する手順と、
    前記高価値注釈を表示する手順と、
    を含む、
    マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見る方法をコンピュータに実行させるためのプログラム。
JP2003279401A 2002-07-30 2003-07-24 マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、及び実行させるためのプログラム Expired - Fee Related JP4449361B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/207,108 US7257774B2 (en) 2002-07-30 2002-07-30 Systems and methods for filtering and/or viewing collaborative indexes of recorded media

Publications (2)

Publication Number Publication Date
JP2004080769A JP2004080769A (ja) 2004-03-11
JP4449361B2 true JP4449361B2 (ja) 2010-04-14

Family

ID=31186659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003279401A Expired - Fee Related JP4449361B2 (ja) 2002-07-30 2003-07-24 マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、及び実行させるためのプログラム

Country Status (2)

Country Link
US (1) US7257774B2 (ja)
JP (1) JP4449361B2 (ja)

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6233389B1 (en) 1998-07-30 2001-05-15 Tivo, Inc. Multimedia time warping system
US7082572B2 (en) * 2002-12-30 2006-07-25 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive map-based analysis of digital video content
US20040145588A1 (en) * 2003-01-27 2004-07-29 Scimed Life Systems, Inc. System and method for reviewing an image in a video sequence using a localized animation window
JP4250983B2 (ja) * 2003-03-13 2009-04-08 富士ゼロックス株式会社 連続データへのユーザデータ関連付け装置
US7305557B2 (en) * 2003-06-20 2007-12-04 International Business Machines Corporation Management and recovery of data object annotations using digital fingerprinting
US7079142B2 (en) * 2004-01-14 2006-07-18 Fuji Xerox Co., Ltd. Systems and methods for creating and updating an interactive 3D visualization of media indices
US7984089B2 (en) * 2004-02-13 2011-07-19 Microsoft Corporation User-defined indexing of multimedia content
US7847970B1 (en) * 2004-04-16 2010-12-07 Automed Technologies, Inc. System and method for reception, analysis, and annotation of prescription data
JP4547990B2 (ja) * 2004-05-25 2010-09-22 富士ゼロックス株式会社 情報処理装置、及び情報処理プログラム
US7487072B2 (en) * 2004-08-04 2009-02-03 International Business Machines Corporation Method and system for querying multimedia data where adjusting the conversion of the current portion of the multimedia data signal based on the comparing at least one set of confidence values to the threshold
JP4250574B2 (ja) * 2004-08-05 2009-04-08 株式会社東芝 メタデータのデータ構造及びメタデータの再生方法
US7613383B2 (en) 2004-12-02 2009-11-03 Hitachi, Ltd. Editing method and recording and reproducing device
US20080147687A1 (en) * 2005-02-17 2008-06-19 Naohiro Furukawa Information Management System and Document Information Management Method
WO2006095443A1 (ja) * 2005-03-10 2006-09-14 Hitachi, Ltd. 情報管理システム
US10210159B2 (en) * 2005-04-21 2019-02-19 Oath Inc. Media object metadata association and ranking
US9648281B2 (en) 2005-05-23 2017-05-09 Open Text Sa Ulc System and method for movie segment bookmarking and sharing
EP3002724A3 (en) 2005-05-23 2016-07-20 Open Text S.A. Distributed scalable media environment
US8141111B2 (en) 2005-05-23 2012-03-20 Open Text S.A. Movie advertising playback techniques
US8145528B2 (en) 2005-05-23 2012-03-27 Open Text S.A. Movie advertising placement optimization based on behavior and content analysis
US20060282776A1 (en) * 2005-06-10 2006-12-14 Farmer Larry C Multimedia and performance analysis tool
US20070005812A1 (en) * 2005-06-29 2007-01-04 Intel Corporation Asynchronous communicative exchange
KR100703705B1 (ko) * 2005-11-18 2007-04-06 삼성전자주식회사 동영상을 위한 멀티 미디어 코멘트 처리 장치 및 방법
JP4439462B2 (ja) * 2005-11-29 2010-03-24 株式会社東芝 情報提示方法、情報提示装置及び情報提示プログラム
US8239367B1 (en) * 2006-01-09 2012-08-07 Google Inc. Bookmarks
US8073013B2 (en) * 2006-03-01 2011-12-06 Coleman Research, Inc. Method and apparatus for collecting survey data via the internet
US8392821B2 (en) * 2006-03-17 2013-03-05 Viddler, Inc. Methods and systems for displaying videos with overlays and tags
US7735101B2 (en) * 2006-03-28 2010-06-08 Cisco Technology, Inc. System allowing users to embed comments at specific points in time into media presentation
US20070240058A1 (en) * 2006-04-10 2007-10-11 Ming-Jun Chen Method and apparatus for displaying multiple frames on a display screen
US7999415B2 (en) 2007-05-29 2011-08-16 Christopher Vance Beckman Electronic leakage reduction techniques
US20080086680A1 (en) * 2006-05-27 2008-04-10 Beckman Christopher V Techniques of document annotation according to subsequent citation
US8914865B2 (en) * 2006-05-27 2014-12-16 Loughton Technology, L.L.C. Data storage and access facilitating techniques
US7859539B2 (en) * 2006-05-27 2010-12-28 Christopher Vance Beckman Organizational viewing techniques
US20080030575A1 (en) * 2006-08-03 2008-02-07 Davies Paul R System and method including augmentable imagery feature to provide remote support
US20080066001A1 (en) * 2006-09-13 2008-03-13 Majors Kenneth D Conferencing system with linked chat
JP4215792B2 (ja) * 2006-09-22 2009-01-28 株式会社東芝 会議支援装置、会議支援方法および会議支援プログラム
JP2008084110A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 情報表示装置、情報表示方法及び情報表示プログラム
US8176191B2 (en) * 2006-11-30 2012-05-08 Red Hat, Inc. Automated identification of high/low value content based on social feedback
US8082504B1 (en) 2006-12-18 2011-12-20 At&T Intellectual Property I, L.P. Creation of a reference point to mark a media presentation
US8161387B1 (en) 2006-12-18 2012-04-17 At&T Intellectual Property I, L. P. Creation of a marked media module
US7559017B2 (en) 2006-12-22 2009-07-07 Google Inc. Annotation framework for video
US7757163B2 (en) * 2007-01-05 2010-07-13 International Business Machines Corporation Method and system for characterizing unknown annotator and its type system with respect to reference annotation types and associated reference taxonomy nodes
US8166056B2 (en) * 2007-02-16 2012-04-24 Palo Alto Research Center Incorporated System and method for searching annotated document collections
US20080201632A1 (en) * 2007-02-16 2008-08-21 Palo Alto Research Center Incorporated System and method for annotating documents
US20080250323A1 (en) * 2007-04-04 2008-10-09 Huff Gerald B Method and apparatus for recommending an application-feature to a user
US8880529B2 (en) * 2007-05-15 2014-11-04 Tivo Inc. Hierarchical tags with community-based ratings
EP2153356A4 (en) 2007-05-15 2011-03-16 Tivo Inc MEDIA DATA CONTENT SEARCH SYSTEM
US9542394B2 (en) * 2007-06-14 2017-01-10 Excalibur Ip, Llc Method and system for media-based event generation
US8620878B2 (en) * 2007-07-19 2013-12-31 Ustream, Inc. System and method of distributing multimedia content
WO2009018171A1 (en) 2007-07-27 2009-02-05 Synergy Sports Technology, Llc Systems and methods for generating bookmark video fingerprints
EP2043008A1 (en) * 2007-09-26 2009-04-01 Alcatel Lucent System for synchronous delivery of annotated multimedia streams
US8364020B2 (en) * 2007-09-28 2013-01-29 Motorola Mobility Llc Solution for capturing and presenting user-created textual annotations synchronously while playing a video recording
WO2009046324A2 (en) * 2007-10-05 2009-04-09 Flickbitz Corporation Online search, storage, manipulation, and delivery of video content
US20090132924A1 (en) * 2007-11-15 2009-05-21 Yojak Harshad Vasa System and method to create highlight portions of media content
US20090132935A1 (en) * 2007-11-15 2009-05-21 Yahoo! Inc. Video tag game
US8140973B2 (en) * 2008-01-23 2012-03-20 Microsoft Corporation Annotating and sharing content
US11227315B2 (en) 2008-01-30 2022-01-18 Aibuy, Inc. Interactive product placement system and method therefor
US20110191809A1 (en) 2008-01-30 2011-08-04 Cinsay, Llc Viral Syndicated Interactive Product System and Method Therefor
US8312486B1 (en) 2008-01-30 2012-11-13 Cinsay, Inc. Interactive product placement system and method therefor
US8181197B2 (en) 2008-02-06 2012-05-15 Google Inc. System and method for voting on popular video intervals
US8112702B2 (en) * 2008-02-19 2012-02-07 Google Inc. Annotating video intervals
US20090249427A1 (en) * 2008-03-25 2009-10-01 Fuji Xerox Co., Ltd. System, method and computer program product for interacting with unaltered media
US10091460B2 (en) * 2008-03-31 2018-10-02 Disney Enterprises, Inc. Asynchronous online viewing party
US10354689B2 (en) 2008-04-06 2019-07-16 Taser International, Inc. Systems and methods for event recorder logging
US8566353B2 (en) 2008-06-03 2013-10-22 Google Inc. Web-based system for collaborative generation of interactive videos
US8225228B2 (en) 2008-07-10 2012-07-17 Apple Inc. Collaborative media production
US8484297B2 (en) * 2008-07-31 2013-07-09 Palo Alto Research Center Incorporated Method for collaboratively tagging and highlighting electronic documents
JP5051080B2 (ja) * 2008-09-25 2012-10-17 富士通株式会社 情報表示装置、情報表示方法、及びプログラム
JP5011261B2 (ja) * 2008-10-28 2012-08-29 株式会社日立製作所 情報記録再生装置、情報記録再生方法および情報記録再生システム
US8713618B1 (en) 2008-11-06 2014-04-29 Google Inc. Segmenting video based on timestamps in comments
US9141860B2 (en) 2008-11-17 2015-09-22 Liveclips Llc Method and system for segmenting and transmitting on-demand live-action video in real-time
US8296675B2 (en) * 2009-03-09 2012-10-23 Telcordia Technologies, Inc. System and method for capturing, aggregating and presenting attention hotspots in shared media
US8826117B1 (en) 2009-03-25 2014-09-02 Google Inc. Web-based system for video editing
US8973153B2 (en) * 2009-03-30 2015-03-03 International Business Machines Corporation Creating audio-based annotations for audiobooks
US8132200B1 (en) 2009-03-30 2012-03-06 Google Inc. Intra-video ratings
US20100274667A1 (en) * 2009-04-24 2010-10-28 Nexidia Inc. Multimedia access
US20100306232A1 (en) * 2009-05-28 2010-12-02 Harris Corporation Multimedia system providing database of shared text comment data indexed to video source data and related methods
US8887190B2 (en) 2009-05-28 2014-11-11 Harris Corporation Multimedia system generating audio trigger markers synchronized with video source data and related methods
US8126897B2 (en) * 2009-06-10 2012-02-28 International Business Machines Corporation Unified inverted index for video passage retrieval
JP5714812B2 (ja) * 2009-11-20 2015-05-07 ソニー株式会社 情報処理装置、ブックマーク設定方法およびプログラム
US20120066715A1 (en) * 2010-09-10 2012-03-15 Jain Shashi K Remote Control of Television Displays
US8812498B2 (en) * 2010-09-28 2014-08-19 Apple Inc. Methods and systems for providing podcast content
US20120159329A1 (en) * 2010-12-16 2012-06-21 Yahoo! Inc. System for creating anchors for media content
US20120308195A1 (en) * 2011-05-31 2012-12-06 Michael Bannan Feedback system and method
US8458174B1 (en) * 2011-09-02 2013-06-04 Google Inc. Semantic image label synthesis
US9710940B2 (en) * 2011-11-06 2017-07-18 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for summarizing a meeting
US9082108B2 (en) * 2011-11-16 2015-07-14 Microsoft Technology Licensing, Llc Real time collaboration for digital scene creation
JP5144838B1 (ja) * 2011-11-29 2013-02-13 パナソニック株式会社 情報処理装置、情報処理方法、及び、プログラム
JP5880101B2 (ja) * 2012-02-10 2016-03-08 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20130283143A1 (en) * 2012-04-24 2013-10-24 Eric David Petajan System for Annotating Media Content for Automatic Content Understanding
US9367745B2 (en) 2012-04-24 2016-06-14 Liveclips Llc System for annotating media content for automatic content understanding
US9781388B2 (en) * 2012-05-28 2017-10-03 Samsung Electronics Co., Ltd. Method and system for enhancing user experience during an ongoing content viewing activity
US20140015749A1 (en) * 2012-07-10 2014-01-16 University Of Rochester, Office Of Technology Transfer Closed-loop crowd control of existing interface
US9237386B2 (en) 2012-08-31 2016-01-12 Google Inc. Aiding discovery of program content by providing deeplinks into most interesting moments via social media
US20140123014A1 (en) * 2012-11-01 2014-05-01 Inxpo, Inc. Method and system for chat and activity stream capture and playback
US10439969B2 (en) * 2013-01-16 2019-10-08 Google Llc Double filtering of annotations in emails
US9401947B1 (en) * 2013-02-08 2016-07-26 Google Inc. Methods, systems, and media for presenting comments based on correlation with content
US9674260B2 (en) * 2013-07-09 2017-06-06 John Henry Page System and method for exchanging and displaying resource viewing position and related information
US9514101B2 (en) 2014-05-23 2016-12-06 Google Inc. Using content structure to socially connect users
US10649634B2 (en) * 2014-06-06 2020-05-12 International Business Machines Corporation Indexing and annotating a usability test recording
US10140379B2 (en) 2014-10-27 2018-11-27 Chegg, Inc. Automated lecture deconstruction
RU2606309C2 (ru) * 2015-06-09 2017-01-10 Общество С Ограниченной Ответственностью "Яндекс" Способ создания аннотированного поискового индекса и сервер, используемый в нем
US20180188936A1 (en) * 2015-06-29 2018-07-05 Thomson Licensing Multi-user bookmarking of media content
JP6147825B2 (ja) * 2015-09-29 2017-06-14 株式会社東芝 電子機器および方法
US20170129870A1 (en) * 2015-11-11 2017-05-11 Mohan Murali Alapati Compositions and methods for the treatment of neurological diseases
US20180337880A1 (en) * 2015-11-18 2018-11-22 Annoto Ltd. System and method for presentation of content linked comments
US11023663B2 (en) 2016-03-11 2021-06-01 International Business Machines Corporation Persisting annotations applied to an electronic hosted whiteboard
EP3288036B1 (en) 2016-08-22 2021-06-23 Nokia Technologies Oy An apparatus and associated methods
US10051344B2 (en) * 2016-09-27 2018-08-14 Clarifai, Inc. Prediction model training via live stream concept association
US10146758B1 (en) * 2016-09-30 2018-12-04 Amazon Technologies, Inc. Distributed moderation and dynamic display of content annotations
US10303420B2 (en) * 2017-05-02 2019-05-28 Microsoft Technology Licensing, Llc Proactive staged distribution of document activity indicators
KR102429901B1 (ko) 2017-11-17 2022-08-05 삼성전자주식회사 부분 영상을 생성하기 위한 전자 장치 및 그의 동작 방법
CN113010698B (zh) * 2020-11-18 2023-03-10 北京字跳网络技术有限公司 多媒体的交互方法、信息交互方法、装置、设备及介质
US11374986B1 (en) 2021-04-12 2022-06-28 International Business Machines Corporation Collaborative meeting interest analyzer based on capture attempts

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5600775A (en) * 1994-08-26 1997-02-04 Emotion, Inc. Method and apparatus for annotating full motion video and other indexed data structures
IL118580A0 (en) * 1995-06-30 1996-10-16 Massachusetts Inst Technology Method and apparatus for item recommendation using automated collaborative filtering
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US6573907B1 (en) * 1997-07-03 2003-06-03 Obvious Technology Network distribution and management of interactive video and multi-media containers
US6279014B1 (en) * 1997-09-15 2001-08-21 Xerox Corporation Method and system for organizing documents based upon annotations in context
US5889523A (en) * 1997-11-25 1999-03-30 Fuji Xerox Co., Ltd. Method and apparatus for dynamically grouping a plurality of graphic objects
US6173287B1 (en) * 1998-03-11 2001-01-09 Digital Equipment Corporation Technique for ranking multimedia annotations of interest
US6105055A (en) * 1998-03-13 2000-08-15 Siemens Corporate Research, Inc. Method and apparatus for asynchronous multimedia collaboration
JP3736597B2 (ja) * 1998-03-18 2006-01-18 富士ゼロックス株式会社 発言構造情報提示装置および発言構造情報提示方法
JPH11282875A (ja) * 1998-03-27 1999-10-15 Oki Electric Ind Co Ltd 情報フィルタリング装置
US6334127B1 (en) * 1998-07-17 2001-12-25 Net Perceptions, Inc. System, method and article of manufacture for making serendipity-weighted recommendations to a user
US7051275B2 (en) * 1998-09-15 2006-05-23 Microsoft Corporation Annotations for multiple versions of media content
US6956593B1 (en) * 1998-09-15 2005-10-18 Microsoft Corporation User interface for creating, viewing and temporally positioning annotations for media content
JP3601314B2 (ja) * 1998-09-18 2004-12-15 富士ゼロックス株式会社 マルチメディア情報処理装置
JP2000099524A (ja) * 1998-09-18 2000-04-07 Fuji Xerox Co Ltd マルチメディア情報視聴装置
US6452615B1 (en) * 1999-03-24 2002-09-17 Fuji Xerox Co., Ltd. System and apparatus for notetaking with digital video and ink
US6327590B1 (en) * 1999-05-05 2001-12-04 Xerox Corporation System and method for collaborative ranking of search results employing user and group profiles derived from document collection content analysis
US6389372B1 (en) * 1999-06-29 2002-05-14 Xerox Corporation System and method for bootstrapping a collaborative filtering system
US8290809B1 (en) * 2000-02-14 2012-10-16 Ebay Inc. Determining a community rating for a user using feedback ratings of related users in an electronic environment
US7647555B1 (en) * 2000-04-13 2010-01-12 Fuji Xerox Co., Ltd. System and method for video access from notes or summaries
US7259753B2 (en) * 2000-06-21 2007-08-21 Microsoft Corporation Classifying, anchoring, and transforming ink
US6631184B1 (en) * 2000-07-24 2003-10-07 Comverse Ltd. System for community generated feedback and/or rating
US8020183B2 (en) * 2000-09-14 2011-09-13 Sharp Laboratories Of America, Inc. Audiovisual management system
US20020087987A1 (en) * 2000-11-16 2002-07-04 Dudkiewicz Gil Gavriel System and method for creating and editing a viewer profile used in determining the desirability of video programming events
NO20020417L (no) * 2001-01-25 2002-07-26 Ensequence Inc Selektiv visning av video basert på ett eller flere temaer
US6701311B2 (en) * 2001-02-07 2004-03-02 International Business Machines Corporation Customer self service system for resource search and selection
US7260771B2 (en) * 2001-04-26 2007-08-21 Fuji Xerox Co., Ltd. Internet-based system for multimedia meeting minutes
US20050160113A1 (en) * 2001-08-31 2005-07-21 Kent Ridge Digital Labs Time-based media navigation system
US6900819B2 (en) * 2001-09-14 2005-05-31 Fuji Xerox Co., Ltd. Systems and methods for automatic emphasis of freeform annotations
US7035807B1 (en) * 2002-02-19 2006-04-25 Brittain John W Sound on sound-annotations
US7149974B2 (en) * 2002-04-03 2006-12-12 Fuji Xerox Co., Ltd. Reduced representations of video sequences
WO2004057439A2 (en) * 2002-05-31 2004-07-08 University Of Utah Research Foundation System and method for visual annotation and knowledge representation

Also Published As

Publication number Publication date
US7257774B2 (en) 2007-08-14
US20040021685A1 (en) 2004-02-05
JP2004080769A (ja) 2004-03-11

Similar Documents

Publication Publication Date Title
JP4449361B2 (ja) マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、及び実行させるためのプログラム
US10096145B2 (en) Method and system for assembling animated media based on keyword and string input
Choi Effects of contextual factors on image searching on the Web
EP0967557A2 (en) Similarity-based document retrieval
Huber et al. B-script: Transcript-based b-roll video editing with recommendations
Martins et al. MovieClouds: content-based overviews and exploratory browsing of movies
Gil et al. Going through the clouds: search overviews and browsing of movies
Sluÿters et al. Consistent, continuous, and customizable mid-air gesture interaction for browsing multimedia objects on large displays
Haesen et al. Finding a needle in a haystack: an interactive video archive explorer for professional video searchers
Pérez Ortiz et al. Watch less and uncover more: Could navigation tools help users search and explore videos?
WO2013182842A1 (en) A system and method for assembling educational materials
Chambel et al. Content-based search overviews and exploratory browsing of movies with MovieClouds
de Assunção et al. Evaluating user experience in music discovery on deezer and spotify
Urbaneja Online exhibitions and online publications: interrogating the typologies of online resources in art museums
Niu Beyond text queries and ranked lists: Faceted search in library catalogs
Cui et al. Event perception in mobile interaction: Toward better navigation history design on mobile devices
JP2002175290A (ja) ドキュメントデザイン評価システム、ドキュメントデザイン評価方法、記録媒体
Shi et al. Video Preview Generation for Interactive Educational Digital Resources Based on the GUI Traversal.
Adamczyk Seeing sounds: exploring musical social networks
Geisler Agile views: A framework for creating more effective information seeking interfaces
Baur et al. SongWords: Exploring Music Collections Through Lyrics.
Lopez-Gulliver et al. Senseweb: Collaborative image classification in a multi-user interaction environment
Hidalgo Urbaneja Defining online resources typologies in art museums: online exhibitions and publications
Zhang Investigation of a quick tagging mechanism to help enhance the video learning experience
Pham Data in Action Story: Sharing and Exploring Earth Science Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

R150 Certificate of patent or registration of utility model

Ref document number: 4449361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees