JP4449361B2 - マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、及び実行させるためのプログラム - Google Patents
マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、及び実行させるためのプログラム Download PDFInfo
- Publication number
- JP4449361B2 JP4449361B2 JP2003279401A JP2003279401A JP4449361B2 JP 4449361 B2 JP4449361 B2 JP 4449361B2 JP 2003279401 A JP2003279401 A JP 2003279401A JP 2003279401 A JP2003279401 A JP 2003279401A JP 4449361 B2 JP4449361 B2 JP 4449361B2
- Authority
- JP
- Japan
- Prior art keywords
- annotation
- annotations
- multimedia
- video stream
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 76
- 238000001914 filtration Methods 0.000 title claims description 34
- 238000013507 mapping Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 description 54
- 230000004044 response Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 5
- 235000012571 Ficus glomerata Nutrition 0.000 description 4
- 244000153665 Ficus glomerata Species 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 235000010724 Wisteria floribunda Nutrition 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 101100206395 Caenorhabditis elegans tag-250 gene Proteins 0.000 description 1
- 241000949473 Correa Species 0.000 description 1
- 101000744515 Homo sapiens Ras-related protein M-Ras Proteins 0.000 description 1
- 102100039789 Ras-related protein M-Ras Human genes 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
- G11B27/105—Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
Description
本発明によるシステム及び方法は、ユーザによって行われる自然な動作、例えば、注釈を利用して、マルチメディア又はビデオコンテンツのセグメントを識別し、これに続いて、識別されたセグメントを推奨する。マルチメディア又はビデオプレゼンテーションと共に用いられる対話のパターン、例えば、注釈のパターンは、どの事象が質問に結びつくかを理解して、これにより、願わくは、これ以降のユーザがよりよく理解できるように、マルチメディア又はビデオストリームの作成者がこのプレゼンテーションを洗練させて提供できるようにするために有用である。これらのパターンは、プレゼンテーションを非同期的に見たいとする新しいユーザにとっても有利である。これらの新しいユーザは、マルチメディア又はビデオストリームの重要なセグメントに速やかにアクセスするために、以前のビューアによって付された注釈を利用することもできる。注釈とこれらの注釈に対応付けされたマルチメディア又はビデオストリームが十分に視覚化されている場合は特に、以前のユーザによって付された注釈を併合して、集団がマルチメディア又はビデオストリームの周辺で共同作業を行うことを可能にすることは有用である。
本発明は、マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして見る(view)システム及び方法をそれぞれ提供する。
本発明は、マルチメディア又はビデオストリームの高価値注釈を決定するシステム及び方法をそれぞれ提供する。
本発明は、一つ以上のヒューテリスティックに基づいて、マルチメディア又はビデオストリームの高価値注釈を決定するシステム及び方法をそれぞれ提供する。
本発明は、注釈者のアイデンティティと、この注釈者とインスタントユーザとの関連性と、に基づいて、マルチメディア又はビデオストリームの高価値注釈を決定するシステム及び方法をそれぞれ提供する。
様々な実施の形態において、本発明のシステム及び方法は、マルチメディア又はビデオストリームを得るステップと、このマルチメディア又はビデオストリームの注釈のユーザインデックスを得るステップと、これらのインデックスを併合するステップと、このマルチメディア又はビデオストリームの部分と注釈とを対応付けするステップと、特定の時間又はそれに近い時間において行われた注釈を評価するために、特定の時間又はそれに近い時間において行われた注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定ステップ、及びこの高価値注釈を表示するステップと、を有する。
様々な実施の形態において、本発明のシステム及び方法は、注釈のインデックスと高価値注釈との有用な視覚化を提供することを含む。
本発明の第1の態様は、マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見る方法であって、少なくとも一つのマルチメディア又はビデオストリームを得るステップと、マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得るステップと、注釈をマルチメディア又はビデオストリームの一部と対応付けするステップと、注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定ステップと、高価値注釈を表示するステップと、を有する、方法である。
本発明の第2の態様は、上記第1の態様において、少なくとも一つのマルチメディア又はビデオストリームを得るステップが、少なくとも二つのマルチメディア又はビデオストリームを得るステップを有することを特徴とする。
本発明の第3の態様は、上記第2の態様において、少なくとも二つのインデックスを併合して、注釈から得られた少なくとも一つのインデックスとして、共同インデックスを作成するステップを更に有することを特徴とする。
本発明の第4の態様は、上記第1の態様において、少なくとも一つのマルチメディア又はビデオストリームを得るステップが、オーディオビジュアル記録デバイスを用いて事象を記録するステップを有することを特徴とする。
本発明の第5の態様は、上記第1の態様において、少なくとも一つのマルチメディア又はビデオストリームを得るステップが、予め記録された事象のオーディオビジュアルストリームを得るステップを有することを特徴とする。
本発明の第6の態様は、上記第1の態様において、マルチメディア又はビデオストリームの複数の注釈から少なくとも一つのインデックスを得るステップが、少なくとも一つの記録デバイスを用いて、マルチメディア又はビデオストリームに関連する注釈を得るステップを有することを特徴とする。
本発明の第7の態様は、上記第6の態様において、少なくとも一つの記録デバイスが、ラップトップコンピュータ、ペンベースノートブックコンピュータ、パーソナルディジタルアシスタント、キータグ、及びワイヤレステレフォンの少なくとも一つを含むことを特徴とする。
本発明の第8の態様は、上記第1の態様において、マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得るステップと、少なくとも一つのマルチメディア又はビデオストリームを得るステップと、が同時に発生することを特徴とする。
本発明の第9の態様は、上記第1の態様において、マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得るステップと、少なくとも一つのマルチメディア又はビデオストリームを得るステップと、が非同期的に発生することを特徴とする。
本発明の第10の態様は、上記第1の態様において、高価値注釈決定ステップが、注釈の各々の特定の時間への接近度に基づいて、注釈に値を付けるステップを有することを特徴とする。
本発明の第11の態様は、上記第1の態様において、高価値注釈決定ステップが、注釈の各々のコンテンツに基づいて、注釈に値を付けるステップを有することを特徴とする。
本発明の第12の態様は、上記第1の態様において、高価値注釈決定ステップが、注釈を行ったユーザに対して予め割り当てられている重みに基づいて、注釈に値を付けるステップを有することを特徴とする。
本発明の第13の態様は、上記第12の態様において、注釈に値を付けるステップが、ユーザによって付けられた注釈と少なくとも一人の他のユーザによって付けられた注釈の類似度を求めるステップを有することを特徴とする。
本発明の第14の態様は、上記第1の態様において、高価値注釈を表示するステップが、高価値注釈を見るために使用可能なユーザインタフェースを提供するステップを有することを特徴とする。
本発明の第15の態様は、マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るシステムであって、入力デバイスと、表示デバイスと、ビデオ又はマルチメディア及び/又は注釈インデックスの対応付け回路又はルーチンと、インデックス併合回路又はルーチンと、特定の時間又はそれに近い時間において行われた注釈を評価するために、特定の時間又はそれに近い時間において行われた注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定回路又はルーチンと、表示回路又はルーチンと、を備える、システムである。
本発明の第16の態様は、上記第15の態様において、入力デバイスがメモリへ少なくとも一つのマルチメディア又はビデオストリームを提供するために使用され得ることを特徴とする。
本発明の第17の態様は、上記第15の態様において、入力デバイスがメモリへ注釈から少なくとも一つのインデックスを提出するために使用され得ることを特徴とする。
本発明の第18の態様は、上記第15の態様において、入力デバイスが、ラップトップコンピュータ、ペンベースノートブックコンピュータ、パーソナルディジタルアシスタント、キータグ、及びワイヤレステレフォンの少なくとも一つを有することを特徴とする。
本発明の第19の態様は、上記第15の態様において、インデックス併合回路又はルーチンが、注釈の少なくとも二つのインデックスを共同インデックスへコンパイルするために使用可能であることを特徴とする。
本発明の第20の態様は、上記第15の態様において、ビデオ又はマルチメディア及び/又は注釈インデックスとの対応付け回路又はルーチンが、少なくとも一つのマルチメディア又はビデオストリームに注釈の少なくとも一つのインデックスを対応付けすることを特徴とする。
本発明の第21の態様は、上記第15の態様において、高価値注釈決定回路又はルーチンが、注釈の各々の特定の時間への接近度に基づいて、注釈を重み付けすることを特徴とする。
本発明の第22の態様は、上記第15の態様において、高価値注釈決定回路又はルーチンが、注釈の各コンテンツに基づいて、注釈に重み付けすることを特徴とする。
本発明の第23の態様は、上記第15の態様において、高価値注釈決定回路又はルーチンが、注釈を行ったユーザに対して予め割り当てられている重みに基づいて、複数の注釈に重み付けをすることを特徴とする。
本発明の第24の態様は、上記第15の態様において、ユーザによって行われた注釈と、少なくとも一人の他のユーザによって行われた注釈と、の類似度を求めることによって、注釈の重み付けをすることを特徴とする。
本発明の第25の態様は、上記第15の態様において、表示回路又はルーチンが、表示デバイスに高価値注釈を表示するために使用可能なユーザインタフェースを作成するか又は変更することを特徴とする。
本発明の第26の態様は、少なくとも一つのマルチメディア又はビデオストリームを得る手順と、マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得る手順と、注釈をマルチメディア又はビデオストリームの一部と対応付けする手順と、特定の時間又はそれに近い時間において行われた前記注釈を評価するために、前記特定の時間又はそれに近い時間において行われた注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈を決定する手順と、高価値注釈を表示する手順と、を含む、マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見る方法をコンピュータに実行させるためのプログラムである。
本発明の様々な特徴及び利点は、本発明の様々な実施の形態によるシステム及び方法について、以下に詳細に説明されることによって、より明確となるであろう。
次に、ステップ400において、ステップ300で得られた注釈のインデックスは、注釈の共同インデックスを形成するために併合される。これらのインデックスは、インデックスと注釈自体とが相対的に評価され得るように併合される。インデックスは、これらの得られたインデックスの同時解析を可能とする、任意の知られている又は今後開発される方法を用いて、併合され得る。様々な実施の形態において、インデックスを併合することによって、併合されたインデックスを表示することを含むことができ、これによって、ユーザが、全てのユーザによって付された注釈を見て、(注釈が)利用可能な場合は、マルチメディア又はビデオストリームの対応付けされた部分をブラウズすることが可能となる。
ステップ500において、マルチメディア又はビデオストリームの部分が、得られた注釈に対応付けされる。これらの注釈は、マルチメディア又はビデオストリームの一部と対応付けされることによって、注釈が表示される時、注釈を選択することによって、ユーザが、この注釈に対応付けされるマルチメディア又はビデオストリームの一部を見たり、そうでない場合は、この注釈に対応付けされるマルチメディア又はビデオストリームの一部を体験することが可能となる。マルチメディア又はビデオストリームの部分は、例えば、注釈が付された時間と相互に関連するように対応付けされてもよい。マルチメディア又はビデオストリームの部分は、この方法の適用に好適である、任意の継続時間であってもよいし、又は、任意のフォーマットで示されてもよい。マルチメディア又はビデオストリームの部分が、マルチメディア又はビデオストリームと注釈とを得たあとに引き続く任意の時間で、及び、高価値注釈を表示することに先立って、注釈に対応付けされてもよいことを理解されたい。
次に、ステップ600において、高価値注釈が決定される。高価値注釈は、選択された基準に基づいた特別なユーザに役立つように決定される注釈である。どの注釈が高価値注釈であるかを決定するとき、マルチメディア又はビデオストリームの継続時間のどの辺りで注釈が付されたかに基づいてどのブックマークが役立つかを決定するために、注釈の併合されたインデックス全体又は注釈の併合されたインデックス全体の部分が見られ得る。或いは、最初のユーザに類似している特別なユーザが識別され、その特別なユーザによって生成されるブックマークの各々が、高価値を有するものとして識別され得る。
ステップ700において、高価値注釈が表示される。高価値注釈が決定された後に、ユーザが注釈を見て高価値注釈と対応付けされたマルチメディア又はビデオストリームの部分をブラウズすることが可能となるように、これらの注釈が表示される。これらの注釈は、任意の知られている又は今後開発されるユーザインタフェースを用いて、表示されてもよい。高価値注釈を表示する様々な例示的な方法は、本発明によるシステムを説明する下記において説明されている。
次にステップ800において、新たな注釈を得るべきかが決定される。新たな注釈を得るべきであると決定された場合、オペレーションはステップ400へもどる。そうでない場合、オペレーションはステップ900へ進む。ステップ900において、任意の更なるマルチメディア又はビデオストリームを得て解析すべきかが決定される。任意の更なるマルチメディア又はビデオストリームを得て解析すべきであると決定された場合、オペレーションはステップ200へ戻る。そうでない場合、オペレーションは、ステップ1000へ進み、オペレーションは終了される。
様々な実施の形態において、ステップ600において、注釈の併合されたインデックスは、マルチメディア又はビデオストリームの時間継続の任意の特別な時間tにおいて付された注釈の信頼度値を求めるために評価される。時間tで行われるブックマークの信頼度値は、
式(1)において、C(t)は時間tで行われる注釈の信頼度の値、iはユーザ、nはn番目のユーザ、sは特別な注釈が行われた時間、tは評価される時間、w(t−s)は、時間sで行われるブックマークに対して重み付けをするハミング関数、そして、mi(s)は、時間sで行われる注釈の有無を示す関数である。
式(1)において、関数w(t)は、例えば、共通のハミング関数などのタイムウィンドウ(時間窓)に対して定義付けされる。図2は、ハミング関数を示す。ハミング関数は、ウィンドウ(t)の中心より離れた注釈に対してよりも、ウィンドウ(t)の中心により近い注釈に対して、より重く、重み付けをする。ハミング関数において、時間tにおいて、関数w(t−s)は1に等しいが、ある時間t−Δt及びある時点t+Δtに向かって正負両方の方向に移動すると、関数w(t−s)は0に近づく。しかしながら、ハミング関数は使用されなくてもよい。様々な実施の形態においては、注釈の他の特徴をより重く重み付けするような、変更されたハミング関数又は他の関数が使用されてもよい。例えば、このような変更されたハミング関数が、図3に示されている。図3に示された関数w(t−s)において、時間t後に行われた注釈が、時間t前に行われた注釈より、より重く、重み付けされている。ハミング関数又は他の適切な関数に対して、様々な変更を行うことが可能であることが当業者にとって明確であることが理解されよう。
関数mi(s)は、特別なユーザiが時間sにおいて注釈を行ったかどうかを示す。i番目のユーザが時間sで注釈を行った場合、関数の値は1に等しく、i番目のユーザが時間sで注釈を行わなかった場合、関数の値は0に等しい。このように、式(1)は、任意の時間tで行われる注釈に対する信頼度スコアを提供して、他のユーザによって行われる注釈の全てに対する、時間tで行われる特別な注釈の近接度を表示する。
関数C(t)は、いくつかの注釈に対して、他の注釈に対してよりも、多くの重みを付与するように変更され得る。式(2)は、ブックマークが重み付けされる特別な方法を考慮に入れて、関数を等式(1)に加算したものである。
式(2)において、Wi(s)は重み付け関数である。
様々な実施の形態においては、例えば、本発明によるシステム又は方法において、以前に行われた反復によって生成された共同インデックスにおいて、注釈が何回レビューされたかを求めるなどの注釈の用途に基づいて、注釈は、評価され得る。ユーザが注釈に直接ジャンプする時、この注釈はより高い価値を割当てられる。注釈がクラスタされる時、このクラスタの各注釈の価値が大きくなる。このようなヒューリスティックが使用される場合、より多くのユーザが共同インデックスへアクセスし特定の注釈へジャンプするので、各注釈の価値は経時的に進化し得る。
注釈は、特別なユーザの好みによって重み付けされてもよい。或いは、注釈は、他のユーザ(複数のユーザ)の誰が注釈を行ったかに基づいて、重み付けされてもよい。例えば、特別なユーザは、この特別なユーザが信頼している一人以上の他のユーザによって作成又はアクセスされたブックマークのみを選択することができる。これらの重みは、ユーザによって手動的に割り当てられてもよい。
式(3)において、別のレベルの注釈が関数式(2)に加算される。
式(3)において、Sim(t, s)は、時間tで行われる注釈と時間sで行われる注釈との間の類似度を表す関数である。
重み付け関数Wi(s)のように、比較関数Sim(t,s)は、時間tで行われる注釈と時間sで行われる注釈とを比較する際に、任意の特別なヒューリスティックを考慮することができる。例えば、注釈は、時間に応じて、比較され得る。様々な実施の形態において、任意の所望される測定基準に基づいて、注釈間の距離を計算することによって、注釈が評価されてもよい。いくつかのこのような実施の形態において、注釈の作成時間tと作成時間sが接近していればいるほど、これらの注釈間がますます類似してくる。様々な実施の形態において、時間差などの線形関数を使用する代わりに、非線型関数、例えば、時間tへの近接度に基づいてブックマークを異なるように重み付けする上述されたハミング関数、が用いられてもよい。
様々な実施の形態において、注釈は、マルチメディア又はビデオストリームの一つ以上の枠に直接作成されたノートやマークを含むことができる。これらのマークは、他のユーザによって作成されるマークと比較され得る。ユーザがマルチメディア又はビデオストリームの枠の上に描画したり書き込んだりすることができるとき、枠上でその外観や位置が類似しているマークが識別され得る。
様々な実施の形態において、注釈は、これらの注釈が対応付けされる枠に相対して、比較され得る。例えば、マルチメディア又はビデオストリームの中の枠に対して行われる注釈は、これらの注釈が行われた枠の類似度に関して比較され得る。同一のクラスタに対応付けされる注釈は、異なるクラスタに対応付けされる注釈よりも類似度が高い。
様々な実施の形態において、高価値注釈は、二人のユーザのインデックスを比較することによって決定される。例えば、マルチメディア又はビデオストリームの集合に関して作成される注釈の集合に基づいたプロフィールが形成されてもよい。上記された個別の注釈の比較に関しては、二人以上のユーザの注釈のインデックス間の類似度は、時間的類似度、テキスト類似度、マーク類似度、及びビデオ特性、又は、重要と考えられる注釈の他の属性、を考慮に入れて演算されてもよい。
様々な実施の形態において、二人のユーザ間の類似度は、これらのユーザが似たようなマークを生成するときに高くなり得る。式(4)では、単一のマルチメディア又はビデオストリームの注釈に基づいて、二つのユーザ間の類似度をアセスするための関数が提供されている。第1のユーザB1と第2のユーザB2との間の類似度は、以下のようになる。
式(4)において、Sim(B1,B2)は第1のユーザB1と第2のユーザB2との間の類似度を表し、sは特別な注釈がなされた時間であり、tは評価される時間であり、w(t−s)はsで行われた注釈に対する重み付けであり、sim(t,s)は、時間tで行われた注釈と時間sで行われた注釈との類似度であり、b1(t)はユーザB1によって行われる注釈の有無を記述する関数であり、b2(t)はユーザB2によって行われる注釈の有無を記述する関数である。
様々な実施の形態において、ユーザの対応する注釈に直接基づいて、ユーザ間を比較するのではなく、ユーザ注釈がクラスタされた注釈のグループに基づいて、ユーザ間が比較されてもよい。
グループは、任意の知られている又は今後開発される方法によって、作成され得る。例えば、階層型アグロメラティブクラスタリングアルゴリズム(Hierarchical Agglomerative Clustering algorithm)のような従来のクラスタリングアルゴリズムを適用することによって、作成され得る。このようにグループを作成する方法は、例えば、ウィルコックス(Wilcox)他に与えられ、本明細書にその全体を参照することによって組み込まれる、米国特許第5,889,523号に記載されている。図4は、四人の異なるユーザによって付された注釈のインデックスを示す。これらの注釈は、クラスタアルゴリズムによって作成され得る仮説グループに組み込まれる。様々な実施の形態において、グループは、二つの最も類似した注釈を識別することによって作成される。図4に示す例においては、類似した注釈を識別するために使用される類似関数は、単に、二つの注釈を分ける時間の関数であると仮定される。しかしながら、これらの注釈が、限定はされないが、上述されたヒューリスティックを含む任意の特別なヒューリスティックのための関数を用いて、比較され得ることが理解されよう。図4において、注釈{21,32}と注釈{33,42}のペアがまず作成される。二つの最も近い注釈のグループを再帰的にみつけるために、様々な技術が用いられる。図4に示される例においては、そのような方法を用いると、以下のようなグループ分けとなる。即ち、{21,32,41}、{33,42,13}、及び{11,31}
図4に示される例において、注釈「32」が、注釈「21」と注釈「41」とにより類似していることがわかったので、注釈「31」は、グループ又はクラスタ{32,21,41}に入らない。特に、そして、図4に示されるグループ分けを作成するために使用される例示的な技術においては、同一ユーザによって作成される注釈はグループ分けされない。従って、注釈「31」は、注釈「11」のグループに入る。予め定義付けられた閾値が注釈の二つのグループ間の類似度に達した時、グループ分けを停止する様々なアルゴリズムが用いられ得る。例えば、グループの中にある注釈の数が多いほど、そのグループの価値が高くなるというような、グループ分けに基づいて想定がなされる。次に、各ユーザは、ユーザが属するグループによって表され得る。ユーザ同士は、これらのユーザが属するグループに基づいて互いに比較され得る。
式(5)において、
類似度(ユーザi,ユーザj)は、グループメンバシップの関数としてのユーザiとユーザjとの類似度であり、グループ分け(ユーザi,n)は、ユーザiがグループnのメンバであるか否かを示す関数であり、この関数はこのユーザがグループnに入るか否かによって1又は0を付与し、Nはユーザの数を示す。
直接、ユーザのブックマークから、又はユーザが属するブックマークのグループから、のいずれかから、ユーザ同士が比較されると、類似性のあるユーザが検出され、推薦が行われ得る。様々な実施の形態において、第1のマルチメディア又はビデオストリームに対する第1のユーザと第2のユーザとの類似度が記憶され、第1のマルチメディア又はビデオストリームに対して行われた注釈の類似度に基づいて、第2のマルチメディア又はビデオストリームに対して、注釈の推薦が行われる。
オペレーションにおいて、ユーザは、フィルタリング及びビューイングシステム100をオペレートし、高価値注釈を表示デバイス116に表示し、この高価値注釈が選択されたときに特別な高価値注釈と対応付けされたマルチメディア又はビデオストリームの部分を更に表示する。最初に、一つ以上のマルチメディア又はビデオストリームがフィルタリング及びビューイングシステム100へ提出される。一つ以上のマルチメディア又はビデオストリームは、高価値注釈を表示するためにユーザがフィルタリング及びビューイングシステム100をオペレートすることで得られなくてもよい。一つ以上のマルチメディア又はビデオストリームは、インスタントユーザによる使用に先立って、他のユーザによって作成されたり記録されたりしていたものであってもよい。マルチメディア又はビデオストリームは、マルチメディア又はビデオストリームの主題の発生と同時にマルチメディア又はビデオストリームを提出するために好適である一つ以上の入力デバイス112の一つ以上を用いて、フィルタリング及びビューイングシステム100へ提出されてもよい。或いは、一つ以上の入力デバイス112は、前もって記録されたマルチメディア又はビデオストリームを、フィルタリング及びビューイングシステム100へ、転送又は伝送するために使用可能であるデバイス(又は複数のデバイス)を含んでいてもよい。
次に、コントローラ120は、メモリ130に記憶された注釈の一つ以上のインデックスの一つ以上をインデックス併合回路又はルーチン140へ提供する。インデックス併合回路又はルーチン140は、コントローラ120の制御下で、メモリ130に記憶された注釈の一つ以上のインデックスを併合して、注釈の今後の解析のために共同インデックスを作成する。インデックス併合回路又はルーチン140によるインデックス併合オペレーションの完了後、コントローラ120は、併合されたインデックスをメモリ130に記憶する。
次に、コントローラ120は、メモリ130に記憶された注釈の併合されたインデックスから、注釈の少なくとも幾つかを、マルチメディア又はビデオストリーム及び/又は注釈対応付け回路又はルーチン150へ、提供する。マルチメディア又はビデオストリーム及び/又は注釈対応付け回路又はルーチン150は、コントローラ120の制御下で、メモリ130からリトリーブされた注釈の一つ以上に、マルチメディア又はビデオストリームの一部を、対応付けする。マルチメディア又はビデオストリーム及び/又は注釈対応付け回路又はルーチン150によるマルチメディア又はビデオストリーム及び/又は注釈対応付けオペレーションの完了後、コントローラ120は、マルチメディア又はビデオストリームの対応付けされた部分を有する注釈を、メモリ130に、記憶させる。マルチメディア又はビデオストリームの一部を注釈に対応付けることには、マルチメディア又はビデオストリームの一部を対応付けすること、即ち、フィルタリング及びビューイングシステム100がユーザが注釈を選択するときにマルチメディア又はビデオストリームの一部を表示することを可能にするキューを単に対応付けすることを含む。
次に、コントローラ120は、注釈の少なくともいくつかに、そして、様々な実施の形態において、メモリ130に記憶された選択されたヒューリスティックに、アクセスして、アクセスされた注釈及び/又はヒューリスティックを、高価値注釈決定回路又はルーチン160へ、送る。高価値注釈決定回路又はルーチン160は、コントローラ120の制御下で、表示用の高価値注釈を選択する。高価値注釈の選択は、上記された注釈を評価する方法の一つ以上を遂行することによって実行されてもよい。高価値注釈決定回路又はルーチン160によって実行される高価値注釈決定オペレーションの完了後、コントローラ120は、高価値注釈決定回路又はルーチン160によって選択された高価値注釈をメモリ130に記憶する。
コントローラ120は、次に、メモリ130に記憶されたマルチメディア又はビデオストリームの対応付けされた部分を有する高価値注釈のうちの少なくともいくつかにアクセスし、アクセスされたデータを、表示回路又はルーチン170へ、送る。表示回路又はルーチン170は、コントローラ120の制御下で、マルチメディア又はビデオストリームの対応付けされた部分を有する高価値注釈を表示するためにユーザインタフェースを作成するか又は変更する。表示回路又はルーチン170による表示オペレーションの完了後、コントローラ120は、表示回路又はルーチン170によって生成されたユーザインタフェースを、メモリ130に、記憶する。
コントローラ120は、次に、メモリ130から、表示回路又はルーチン170によって生成又は変更されたユーザインタフェースにアクセスし、ユーザインタフェースを、表示デバイス116に、表示する。表示デバイス116に表示されたユーザインタフェースの中の高価値注釈から一つをユーザが選択するとき、コントローラ120は、マルチメディア又はビデオストリームの対応付けされた部分を提供して、表示デバイス116に表示する。ユーザは、引き続いて、新しい注釈を提供したり、解析用に新しいマルチメディア又はビデオストリームを識別したり、一つ以上の新しいヒューリスティックを選択したりして、フィルタリング及びビューイングシステム100のオペレーションを反復してもよい。
図8は、本発明の第1の実施の形態によるマルチメディア又はビデオストリームの注釈の共同インデックスを見るために使用可能なユーザインタフェース200を示す。ユーザインタフェース200は、注釈アイコン220が表示される一つ以上の注釈表示ボックス215を有する。各注釈表示ボックス215は、これらの注釈を作成したユーザを識別するユーザ識別タグ250を有する。ユーザインタフェース200は、注釈が作成された時間及び各注釈を作成したユーザのアイデンティティを表示する、タイムスタンプテキストボックス255も有する。
オペレーションにおいて、ユーザは、ユーザインタフェース200上の注釈アイコン220をポイントして、注釈アイコン220を選択することによって、注釈表示ボックス215に表示された、注釈アイコン220を選択する。
レスポンスにおいて、データは、タイムスタンプテキストボックス255及び注釈テキストボックス260に表示される。タイムスタンプテキストボックス255及び注釈テキストボックス260に表示されたデータは、選択された注釈アイコン220に対応付けされた注釈のタイムスタンプシグネチャである。様々な実施の形態において、注釈アイコン220を選択することによって、選択された注釈に対応付けされたマルチメディア又はビデオストリームの一部が表示される。表示は、任意の知られている又は今後開発されるメディアプレーヤを用いて、遂行され得る。
マルチメディア又はビデオストリームに対して行われた注釈を強調するように、マルチメディア又はビデオストリームを見ることに加えて、ユーザインタフェース300は、ユーザが、従来、マルチメディア又はビデオストリームを見てきたであろうが如くに、マルチメディア又はビデオストリームを見ることを可能とする特徴を有する。このような特徴は、VCRボタン355、状態ボックス363、及び時相インジケータボックス365を有する。VCRボタン355は、ユーザがVIR(即ち、再生、停止、休止等)をオペレートするようなオペレーションを可能とする。状態ボックス363は、マルチメディア又はビデオストリームの現在状態(即ち、再生中又は休止中など)を識別する。時相インジケータボックス365は、現在、ビデオ表示ボックス310の中にある、マルチメディア又はビデオストリームの開始点及び終了点に相対して、マルチメディア又はビデオストリームの一部の視覚的な識別を提供する。ユーザは、時相インジケータボックス365内のロケーションに、時相スライダバー367を置くことができ、このロケーションに対応付けされたマルチメディア又はビデオストリームの部分がビデオ表示ボックス310に現れる。
図10は、本発明の第3の実施の形態によるマルチメディア又はビデオストリームの注釈の共同インデックスを見るために使用可能なユーザインタフェース400を示す。ユーザインタフェース400は、注釈アイコン420が表示される一つ以上の注釈表示ボックス415を有する。各注釈表示ボックス415は、対応する注釈を作成したユーザを識別するユーザ識別タグ450を有する。ユーザインタフェース400は、ビデオ表示ボックス410とグルーピングブラウザ475も有する。ユーザインタフェース400は、注釈チェックボックス465、注釈テキストボックス460、及びユーザリストドロップボックス470を更に有する。注釈チェックボックス465は、グルーピングブラウザ475によってハイライト(強調)された注釈表示ボックス415の部分に注釈が付けられたかを表示する。ユーザリストドロップボックス470は、グルーピングブラウザ475によってハイライトされた注釈表示ボックス415の部分に注釈を行ったユーザ又は複数のユーザのアイデンティティを表示して、ユーザインタフェース400のユーザが、これらのユーザ間で選択するのを可能とする。注釈テキストボックス460は、あるとすれば、ユーザリストドロップボックス470において識別されるユーザによって行われる一つ以上の注釈に対応付けされるテキストも有する。
オペレーションにおいて、ユーザは、グルーピングブラウザ580を、関心の持たれる注釈表示ボックス510の一部と対応付けする。レスポンスにおいて、注釈表示ボックス515の選択された部分内に現れる注釈アイコン520に対応付けされた、マルチメディア又はビデオストリームの一部が、ビデオ表示ボックス510に表示される。また、レスポンスにおいて、注釈アイコン520が注釈表示ボックス515の選択された部分に現れる場合に、注釈チェックボックス565はハイライトされる。更に、レスポンスにおいて、対応付けされたテキストを有する注釈アイコン520が注釈表示ボックス515の選択された部分に現れる場合、及びユーザリストドロップボックス570において識別されたユーザが、このようなテキスト注釈を作成した場合、注釈アイコンに対応付けされたテキストは、注釈テキストボックス560に表示される。
オペレーションにおいて、ユーザは、信頼度表示ボックス685内の特別な位置を選択する。信頼度表示ボックス685内の各ロケーションは、マルチメディア又はビデオストリームにおける特別な瞬間を表す。ユーザの選択の結果として、ユーザによって選択された瞬間に対応付けされたマルチメディア又はビデオストリームの一部が、ビデオ表示ボックス610に表示される。一人以上のユーザが、選択された瞬間の所定時間内に任意の注釈を行った場合、マルチ注釈表示ボックスが開き、これらの注釈に対応付けされたマルチメディア又はビデオストリームの部分が、マルチ注釈表示ボックス625の一つ以上の表示ボックス630に表示される。次に、ユーザは、マルチ注釈表示ボックス625内の表示ボックス630の一つを選択することができる。これによって、選択された表示ボックス630は、ハイライトインジケータ635によってハイライトされる。様々な実施の形態において、表示ボックス630をハイライトすることによって、結果的に、マルチメディア又はビデオストリームの対応付けされた部分がビデオ表示ボックス610に表示される。様々な他の実施の形態において、表示ボックス630をハイライトすることによって、結果的に、対応付けされたデバイス又はプログラムによってマルチメディア又はビデオストリームの対応付けされた部分が表示される。
以上の説明によって、各グラフィカルユーザインタフェース「スクリーン」がHTML、XML、又は任意の他の知られている又は今後開発されるウェブページ著作言語で書き込まれた識別ウェブページであるところの、スタンダードウィンドウグラフィカルユーザインタフェース及びウェブベース実現を用いたグラフィカルユーザインタフェースに一般的に等価に向けられていることを理解されたい。これによって、様々な実施の形態において、以上の説明の選択可能なアイコンは、関連するウェブページ又は現在のウェブページの個別(distinct)領域へのハイパーリンクとして、実現される。しかしながら、上述されたグラフィカルユーザインタフェーススクリーン及び/又はグラフィカルユーザインタフェースエレメントを実現するために、任意の知られている又は今後開発されるグラフィカルユーザインタフェース実現技術が使用されてもよいことが理解されよう。
従って、本発明によるグラフィカルユーザインタフェースは、ウェブベースシステムとしてよりも、寧ろ、ウィンドウ(Windows(登録商標))ベースシステムとして実現され得ることも理解されよう。この場合、グラフィカルユーザインタフェーススクリーンは、特別な選択可能なアイコン又は他のインタラクティブなエレメント又はウィジェット(widgets)と対応付けされる特定なWindows(登録商標)事象によってアクセスされる、グラフィカルユーザインタフェースの個別部分である。これによって、これらのグラフィカルユーザインタフェーススクリーンの選択可能なアイコン及び他のインタラクティブなエレメントは、Windows(登録商標)ウィジェットその他として実現され得る。本発明によるグラフィカルユーザインタフェース及びスクリーンについての以上の説明において、選択可能なアイコン又は他のインタラクティブなエレメントを選択することは、例えば、ドロップダウンリストボックス、ダイアログボックス、選択ボタン等を使うことによって、新しいスクリーンを生成したり、ユーザがデータを入力することを可能とする、グラフィカルユーザインタフェースの任意の特徴を起動させることが含み得ることが更に理解されよう。グラフィカルユーザインタフェースの特徴を選択するために使用可能なオンスクリーン・インジケータは、例えば、マウス、タッチパッド、タッチスクリーン、ライトペン、ジョイスティック、トラックボール又は任意の他の知られている又は今後開発されるオンスクリーン位置入力デバイスと共に使用される、マウスポインタ、カーソル、或いは、任意の他の知られている又は今後開発されるオンスクリーンインジケータであってもよい。
Claims (26)
- マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見る方法であって、
少なくとも一つのマルチメディア又はビデオストリームを得るステップと、
前記マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得るステップと、
前記注釈を前記マルチメディア又はビデオストリームの一部と対応付けするステップと、
特定の時間又はそれに近い時間において行われた前記注釈を評価するために、特定の時間又はそれに近い時間において行われた前記注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定ステップと、
前記高価値注釈を表示するステップと、
を有する、方法。 - 前記少なくとも一つのマルチメディア又はビデオストリームを得るステップが、少なくとも二つのマルチメディア又はビデオストリームを得るステップを有する、請求項1に記載の方法。
- 前記少なくとも二つのインデックスを併合して、注釈から得られた前記少なくとも一つのインデックスとして、共同インデックスを作成するステップを更に有する、請求項2に記載の方法。
- 前記少なくとも一つのマルチメディア又はビデオストリームを得るステップが、オーディオビジュアル記録デバイスを用いて事象を記録するステップを有する、請求項1に記載の方法。
- 前記少なくとも一つのマルチメディア又はビデオストリームを得るステップが、予め記録された事象のオーディオビジュアルストリームを得るステップを有する、請求項1に記載の方法。
- 前記マルチメディア又はビデオストリームの複数の注釈から前記少なくとも一つのインデックスを得るステップが、少なくとも一つの記録デバイスを用いて、マルチメディア又はビデオストリームに関連する注釈を得るステップを有する、請求項1に記載の方法。
- 前記少なくとも一つの記録デバイスが、ラップトップコンピュータ、ペンベースノートブックコンピュータ、パーソナルディジタルアシスタント、キータグ、及びワイヤレステレフォンの少なくとも一つを含む、請求項6に記載の方法。
- 前記マルチメディア又はビデオストリームの注釈から前記少なくとも一つのインデックスを得るステップと、前記少なくとも一つのマルチメディア又はビデオストリームを得るステップと、が同時に発生する、請求項1に記載の方法。
- 前記マルチメディア又はビデオストリームの注釈から前記少なくとも一つのインデックスを得るステップと、前記少なくとも一つのマルチメディア又はビデオストリームを得るステップと、が非同期的に発生する、請求項1に記載の方法。
- 前記高価値注釈決定ステップが、前記注釈の各々の前記特定の時間への接近度に基づいて、前記注釈に値を付けるステップを有する、請求項1に記載の方法。
- 前記高価値注釈決定ステップが、前記注釈の各々のコンテンツに基づいて、前記注釈に値を付けるステップを有する、請求項1に記載の方法。
- 前記高価値注釈決定ステップが、前記注釈を行ったユーザに対して予め割り当てられている重みに基づいて、前記注釈に値を付けるステップを有する、請求項1に記載の方法。
- 前記注釈に値を付けるステップが、前記ユーザによって付けられた注釈と少なくとも一人の他のユーザによってつけられた注釈の類似度を求めるステップを有する、請求項12に記載の方法。
- 前記高価値注釈を表示するステップが、前記高価値注釈を見るために使用可能なユーザインタフェースを提供するステップを有する、請求項1に記載の方法。
- マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るシステムであって、
入力デバイスと、
表示デバイスと、
ビデオ又はマルチメディア及び/又は注釈インデックスの対応付け回路又はルーチンと、
インデックス併合回路又はルーチンと、
特定の時間又はそれに近い時間において行われた前記注釈を評価するために、前記特定の時間又はそれに近い時間において行われた前記注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈決定回路又はルーチンと、
表示回路又はルーチンと、
を備える、
システム。 - 前記入力デバイスがメモリへ少なくとも一つのマルチメディア又はビデオストリームを提供するために使用され得る、請求項15に記載のシステム。
- 前記入力デバイスがメモリへ注釈から少なくとも一つのインデックスを提出するために使用され得る、請求項15に記載のシステム。
- 前記入力デバイスが、ラップトップコンピュータ、ペンベースノートブックコンピュータ、パーソナルディジタルアシスタント、キータグ、及びワイヤレステレフォンの少なくとも一つを有する、請求項15に記載のシステム。
- 前記インデックス併合回路又はルーチンが、注釈の少なくとも二つのインデックスを共同インデックスへコンパイルするために使用可能である、請求項15に記載のシステム。
- 前記ビデオ又はマルチメディア及び/又は注釈インデックスとの対応付け回路又はルーチンが、少なくとも一つのマルチメディア又はビデオストリームに注釈の少なくとも一つのインデックスを対応付けする、請求項15に記載のシステム。
- 前記高価値注釈決定回路又はルーチンが、前記注釈の各々の特定の時間への接近度に基づいて、前記注釈を重み付けする、請求項15に記載のシステム。
- 前記高価値注釈決定回路又はルーチンが、前記注釈の各コンテンツに基づいて、前記注釈に重み付けする、請求項15に記載のシステム。
- 前記高価値注釈決定回路又はルーチンが、前記注釈を行ったユーザに対して予め割り当てられている重みに基づいて、前記複数の注釈に重み付けをする、請求項15に記載のシステム。
- 前記ユーザによって行われた注釈と、少なくとも一人の他のユーザによって行われた注釈と、の類似度を求めることによって、前記注釈の重み付けをする、請求項15に記載のシステム。
- 前記表示回路又はルーチンが、前記表示デバイスに前記高価値注釈を表示するために使用可能なユーザインタフェースを作成するか又は変更する、請求項15に記載のシステム。
- 少なくとも一つのマルチメディア又はビデオストリームを得る手順と、
前記マルチメディア又はビデオストリームの注釈から少なくとも一つのインデックスを得る手順と、
前記注釈を前記マルチメディア又はビデオストリームの一部と対応付けする手順と、
特定の時間又はそれに近い時間において行われた前記注釈を評価するために、前記特定の時間又はそれに近い時間において行われた前記注釈に対して重み付けをし、より重く重み付けされた注釈を高価値注釈として決定する高価値注釈を決定する手順と、
前記高価値注釈を表示する手順と、
を含む、
マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見る方法をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/207,108 US7257774B2 (en) | 2002-07-30 | 2002-07-30 | Systems and methods for filtering and/or viewing collaborative indexes of recorded media |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004080769A JP2004080769A (ja) | 2004-03-11 |
JP4449361B2 true JP4449361B2 (ja) | 2010-04-14 |
Family
ID=31186659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003279401A Expired - Fee Related JP4449361B2 (ja) | 2002-07-30 | 2003-07-24 | マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、及び実行させるためのプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7257774B2 (ja) |
JP (1) | JP4449361B2 (ja) |
Families Citing this family (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6233389B1 (en) | 1998-07-30 | 2001-05-15 | Tivo, Inc. | Multimedia time warping system |
US7082572B2 (en) * | 2002-12-30 | 2006-07-25 | The Board Of Trustees Of The Leland Stanford Junior University | Methods and apparatus for interactive map-based analysis of digital video content |
US20040145588A1 (en) * | 2003-01-27 | 2004-07-29 | Scimed Life Systems, Inc. | System and method for reviewing an image in a video sequence using a localized animation window |
JP4250983B2 (ja) * | 2003-03-13 | 2009-04-08 | 富士ゼロックス株式会社 | 連続データへのユーザデータ関連付け装置 |
US7305557B2 (en) * | 2003-06-20 | 2007-12-04 | International Business Machines Corporation | Management and recovery of data object annotations using digital fingerprinting |
US7079142B2 (en) * | 2004-01-14 | 2006-07-18 | Fuji Xerox Co., Ltd. | Systems and methods for creating and updating an interactive 3D visualization of media indices |
US7984089B2 (en) * | 2004-02-13 | 2011-07-19 | Microsoft Corporation | User-defined indexing of multimedia content |
US7847970B1 (en) * | 2004-04-16 | 2010-12-07 | Automed Technologies, Inc. | System and method for reception, analysis, and annotation of prescription data |
JP4547990B2 (ja) * | 2004-05-25 | 2010-09-22 | 富士ゼロックス株式会社 | 情報処理装置、及び情報処理プログラム |
US7487072B2 (en) * | 2004-08-04 | 2009-02-03 | International Business Machines Corporation | Method and system for querying multimedia data where adjusting the conversion of the current portion of the multimedia data signal based on the comparing at least one set of confidence values to the threshold |
JP4250574B2 (ja) * | 2004-08-05 | 2009-04-08 | 株式会社東芝 | メタデータのデータ構造及びメタデータの再生方法 |
US7613383B2 (en) | 2004-12-02 | 2009-11-03 | Hitachi, Ltd. | Editing method and recording and reproducing device |
US20080147687A1 (en) * | 2005-02-17 | 2008-06-19 | Naohiro Furukawa | Information Management System and Document Information Management Method |
WO2006095443A1 (ja) * | 2005-03-10 | 2006-09-14 | Hitachi, Ltd. | 情報管理システム |
US10210159B2 (en) * | 2005-04-21 | 2019-02-19 | Oath Inc. | Media object metadata association and ranking |
US9648281B2 (en) | 2005-05-23 | 2017-05-09 | Open Text Sa Ulc | System and method for movie segment bookmarking and sharing |
EP3002724A3 (en) | 2005-05-23 | 2016-07-20 | Open Text S.A. | Distributed scalable media environment |
US8141111B2 (en) | 2005-05-23 | 2012-03-20 | Open Text S.A. | Movie advertising playback techniques |
US8145528B2 (en) | 2005-05-23 | 2012-03-27 | Open Text S.A. | Movie advertising placement optimization based on behavior and content analysis |
US20060282776A1 (en) * | 2005-06-10 | 2006-12-14 | Farmer Larry C | Multimedia and performance analysis tool |
US20070005812A1 (en) * | 2005-06-29 | 2007-01-04 | Intel Corporation | Asynchronous communicative exchange |
KR100703705B1 (ko) * | 2005-11-18 | 2007-04-06 | 삼성전자주식회사 | 동영상을 위한 멀티 미디어 코멘트 처리 장치 및 방법 |
JP4439462B2 (ja) * | 2005-11-29 | 2010-03-24 | 株式会社東芝 | 情報提示方法、情報提示装置及び情報提示プログラム |
US8239367B1 (en) * | 2006-01-09 | 2012-08-07 | Google Inc. | Bookmarks |
US8073013B2 (en) * | 2006-03-01 | 2011-12-06 | Coleman Research, Inc. | Method and apparatus for collecting survey data via the internet |
US8392821B2 (en) * | 2006-03-17 | 2013-03-05 | Viddler, Inc. | Methods and systems for displaying videos with overlays and tags |
US7735101B2 (en) * | 2006-03-28 | 2010-06-08 | Cisco Technology, Inc. | System allowing users to embed comments at specific points in time into media presentation |
US20070240058A1 (en) * | 2006-04-10 | 2007-10-11 | Ming-Jun Chen | Method and apparatus for displaying multiple frames on a display screen |
US7999415B2 (en) | 2007-05-29 | 2011-08-16 | Christopher Vance Beckman | Electronic leakage reduction techniques |
US20080086680A1 (en) * | 2006-05-27 | 2008-04-10 | Beckman Christopher V | Techniques of document annotation according to subsequent citation |
US8914865B2 (en) * | 2006-05-27 | 2014-12-16 | Loughton Technology, L.L.C. | Data storage and access facilitating techniques |
US7859539B2 (en) * | 2006-05-27 | 2010-12-28 | Christopher Vance Beckman | Organizational viewing techniques |
US20080030575A1 (en) * | 2006-08-03 | 2008-02-07 | Davies Paul R | System and method including augmentable imagery feature to provide remote support |
US20080066001A1 (en) * | 2006-09-13 | 2008-03-13 | Majors Kenneth D | Conferencing system with linked chat |
JP4215792B2 (ja) * | 2006-09-22 | 2009-01-28 | 株式会社東芝 | 会議支援装置、会議支援方法および会議支援プログラム |
JP2008084110A (ja) * | 2006-09-28 | 2008-04-10 | Toshiba Corp | 情報表示装置、情報表示方法及び情報表示プログラム |
US8176191B2 (en) * | 2006-11-30 | 2012-05-08 | Red Hat, Inc. | Automated identification of high/low value content based on social feedback |
US8082504B1 (en) | 2006-12-18 | 2011-12-20 | At&T Intellectual Property I, L.P. | Creation of a reference point to mark a media presentation |
US8161387B1 (en) | 2006-12-18 | 2012-04-17 | At&T Intellectual Property I, L. P. | Creation of a marked media module |
US7559017B2 (en) | 2006-12-22 | 2009-07-07 | Google Inc. | Annotation framework for video |
US7757163B2 (en) * | 2007-01-05 | 2010-07-13 | International Business Machines Corporation | Method and system for characterizing unknown annotator and its type system with respect to reference annotation types and associated reference taxonomy nodes |
US8166056B2 (en) * | 2007-02-16 | 2012-04-24 | Palo Alto Research Center Incorporated | System and method for searching annotated document collections |
US20080201632A1 (en) * | 2007-02-16 | 2008-08-21 | Palo Alto Research Center Incorporated | System and method for annotating documents |
US20080250323A1 (en) * | 2007-04-04 | 2008-10-09 | Huff Gerald B | Method and apparatus for recommending an application-feature to a user |
US8880529B2 (en) * | 2007-05-15 | 2014-11-04 | Tivo Inc. | Hierarchical tags with community-based ratings |
EP2153356A4 (en) | 2007-05-15 | 2011-03-16 | Tivo Inc | MEDIA DATA CONTENT SEARCH SYSTEM |
US9542394B2 (en) * | 2007-06-14 | 2017-01-10 | Excalibur Ip, Llc | Method and system for media-based event generation |
US8620878B2 (en) * | 2007-07-19 | 2013-12-31 | Ustream, Inc. | System and method of distributing multimedia content |
WO2009018171A1 (en) | 2007-07-27 | 2009-02-05 | Synergy Sports Technology, Llc | Systems and methods for generating bookmark video fingerprints |
EP2043008A1 (en) * | 2007-09-26 | 2009-04-01 | Alcatel Lucent | System for synchronous delivery of annotated multimedia streams |
US8364020B2 (en) * | 2007-09-28 | 2013-01-29 | Motorola Mobility Llc | Solution for capturing and presenting user-created textual annotations synchronously while playing a video recording |
WO2009046324A2 (en) * | 2007-10-05 | 2009-04-09 | Flickbitz Corporation | Online search, storage, manipulation, and delivery of video content |
US20090132924A1 (en) * | 2007-11-15 | 2009-05-21 | Yojak Harshad Vasa | System and method to create highlight portions of media content |
US20090132935A1 (en) * | 2007-11-15 | 2009-05-21 | Yahoo! Inc. | Video tag game |
US8140973B2 (en) * | 2008-01-23 | 2012-03-20 | Microsoft Corporation | Annotating and sharing content |
US11227315B2 (en) | 2008-01-30 | 2022-01-18 | Aibuy, Inc. | Interactive product placement system and method therefor |
US20110191809A1 (en) | 2008-01-30 | 2011-08-04 | Cinsay, Llc | Viral Syndicated Interactive Product System and Method Therefor |
US8312486B1 (en) | 2008-01-30 | 2012-11-13 | Cinsay, Inc. | Interactive product placement system and method therefor |
US8181197B2 (en) | 2008-02-06 | 2012-05-15 | Google Inc. | System and method for voting on popular video intervals |
US8112702B2 (en) * | 2008-02-19 | 2012-02-07 | Google Inc. | Annotating video intervals |
US20090249427A1 (en) * | 2008-03-25 | 2009-10-01 | Fuji Xerox Co., Ltd. | System, method and computer program product for interacting with unaltered media |
US10091460B2 (en) * | 2008-03-31 | 2018-10-02 | Disney Enterprises, Inc. | Asynchronous online viewing party |
US10354689B2 (en) | 2008-04-06 | 2019-07-16 | Taser International, Inc. | Systems and methods for event recorder logging |
US8566353B2 (en) | 2008-06-03 | 2013-10-22 | Google Inc. | Web-based system for collaborative generation of interactive videos |
US8225228B2 (en) | 2008-07-10 | 2012-07-17 | Apple Inc. | Collaborative media production |
US8484297B2 (en) * | 2008-07-31 | 2013-07-09 | Palo Alto Research Center Incorporated | Method for collaboratively tagging and highlighting electronic documents |
JP5051080B2 (ja) * | 2008-09-25 | 2012-10-17 | 富士通株式会社 | 情報表示装置、情報表示方法、及びプログラム |
JP5011261B2 (ja) * | 2008-10-28 | 2012-08-29 | 株式会社日立製作所 | 情報記録再生装置、情報記録再生方法および情報記録再生システム |
US8713618B1 (en) | 2008-11-06 | 2014-04-29 | Google Inc. | Segmenting video based on timestamps in comments |
US9141860B2 (en) | 2008-11-17 | 2015-09-22 | Liveclips Llc | Method and system for segmenting and transmitting on-demand live-action video in real-time |
US8296675B2 (en) * | 2009-03-09 | 2012-10-23 | Telcordia Technologies, Inc. | System and method for capturing, aggregating and presenting attention hotspots in shared media |
US8826117B1 (en) | 2009-03-25 | 2014-09-02 | Google Inc. | Web-based system for video editing |
US8973153B2 (en) * | 2009-03-30 | 2015-03-03 | International Business Machines Corporation | Creating audio-based annotations for audiobooks |
US8132200B1 (en) | 2009-03-30 | 2012-03-06 | Google Inc. | Intra-video ratings |
US20100274667A1 (en) * | 2009-04-24 | 2010-10-28 | Nexidia Inc. | Multimedia access |
US20100306232A1 (en) * | 2009-05-28 | 2010-12-02 | Harris Corporation | Multimedia system providing database of shared text comment data indexed to video source data and related methods |
US8887190B2 (en) | 2009-05-28 | 2014-11-11 | Harris Corporation | Multimedia system generating audio trigger markers synchronized with video source data and related methods |
US8126897B2 (en) * | 2009-06-10 | 2012-02-28 | International Business Machines Corporation | Unified inverted index for video passage retrieval |
JP5714812B2 (ja) * | 2009-11-20 | 2015-05-07 | ソニー株式会社 | 情報処理装置、ブックマーク設定方法およびプログラム |
US20120066715A1 (en) * | 2010-09-10 | 2012-03-15 | Jain Shashi K | Remote Control of Television Displays |
US8812498B2 (en) * | 2010-09-28 | 2014-08-19 | Apple Inc. | Methods and systems for providing podcast content |
US20120159329A1 (en) * | 2010-12-16 | 2012-06-21 | Yahoo! Inc. | System for creating anchors for media content |
US20120308195A1 (en) * | 2011-05-31 | 2012-12-06 | Michael Bannan | Feedback system and method |
US8458174B1 (en) * | 2011-09-02 | 2013-06-04 | Google Inc. | Semantic image label synthesis |
US9710940B2 (en) * | 2011-11-06 | 2017-07-18 | Sharp Laboratories Of America, Inc. | Methods, systems and apparatus for summarizing a meeting |
US9082108B2 (en) * | 2011-11-16 | 2015-07-14 | Microsoft Technology Licensing, Llc | Real time collaboration for digital scene creation |
JP5144838B1 (ja) * | 2011-11-29 | 2013-02-13 | パナソニック株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
JP5880101B2 (ja) * | 2012-02-10 | 2016-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20130283143A1 (en) * | 2012-04-24 | 2013-10-24 | Eric David Petajan | System for Annotating Media Content for Automatic Content Understanding |
US9367745B2 (en) | 2012-04-24 | 2016-06-14 | Liveclips Llc | System for annotating media content for automatic content understanding |
US9781388B2 (en) * | 2012-05-28 | 2017-10-03 | Samsung Electronics Co., Ltd. | Method and system for enhancing user experience during an ongoing content viewing activity |
US20140015749A1 (en) * | 2012-07-10 | 2014-01-16 | University Of Rochester, Office Of Technology Transfer | Closed-loop crowd control of existing interface |
US9237386B2 (en) | 2012-08-31 | 2016-01-12 | Google Inc. | Aiding discovery of program content by providing deeplinks into most interesting moments via social media |
US20140123014A1 (en) * | 2012-11-01 | 2014-05-01 | Inxpo, Inc. | Method and system for chat and activity stream capture and playback |
US10439969B2 (en) * | 2013-01-16 | 2019-10-08 | Google Llc | Double filtering of annotations in emails |
US9401947B1 (en) * | 2013-02-08 | 2016-07-26 | Google Inc. | Methods, systems, and media for presenting comments based on correlation with content |
US9674260B2 (en) * | 2013-07-09 | 2017-06-06 | John Henry Page | System and method for exchanging and displaying resource viewing position and related information |
US9514101B2 (en) | 2014-05-23 | 2016-12-06 | Google Inc. | Using content structure to socially connect users |
US10649634B2 (en) * | 2014-06-06 | 2020-05-12 | International Business Machines Corporation | Indexing and annotating a usability test recording |
US10140379B2 (en) | 2014-10-27 | 2018-11-27 | Chegg, Inc. | Automated lecture deconstruction |
RU2606309C2 (ru) * | 2015-06-09 | 2017-01-10 | Общество С Ограниченной Ответственностью "Яндекс" | Способ создания аннотированного поискового индекса и сервер, используемый в нем |
US20180188936A1 (en) * | 2015-06-29 | 2018-07-05 | Thomson Licensing | Multi-user bookmarking of media content |
JP6147825B2 (ja) * | 2015-09-29 | 2017-06-14 | 株式会社東芝 | 電子機器および方法 |
US20170129870A1 (en) * | 2015-11-11 | 2017-05-11 | Mohan Murali Alapati | Compositions and methods for the treatment of neurological diseases |
US20180337880A1 (en) * | 2015-11-18 | 2018-11-22 | Annoto Ltd. | System and method for presentation of content linked comments |
US11023663B2 (en) | 2016-03-11 | 2021-06-01 | International Business Machines Corporation | Persisting annotations applied to an electronic hosted whiteboard |
EP3288036B1 (en) | 2016-08-22 | 2021-06-23 | Nokia Technologies Oy | An apparatus and associated methods |
US10051344B2 (en) * | 2016-09-27 | 2018-08-14 | Clarifai, Inc. | Prediction model training via live stream concept association |
US10146758B1 (en) * | 2016-09-30 | 2018-12-04 | Amazon Technologies, Inc. | Distributed moderation and dynamic display of content annotations |
US10303420B2 (en) * | 2017-05-02 | 2019-05-28 | Microsoft Technology Licensing, Llc | Proactive staged distribution of document activity indicators |
KR102429901B1 (ko) | 2017-11-17 | 2022-08-05 | 삼성전자주식회사 | 부분 영상을 생성하기 위한 전자 장치 및 그의 동작 방법 |
CN113010698B (zh) * | 2020-11-18 | 2023-03-10 | 北京字跳网络技术有限公司 | 多媒体的交互方法、信息交互方法、装置、设备及介质 |
US11374986B1 (en) | 2021-04-12 | 2022-06-28 | International Business Machines Corporation | Collaborative meeting interest analyzer based on capture attempts |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5600775A (en) * | 1994-08-26 | 1997-02-04 | Emotion, Inc. | Method and apparatus for annotating full motion video and other indexed data structures |
IL118580A0 (en) * | 1995-06-30 | 1996-10-16 | Massachusetts Inst Technology | Method and apparatus for item recommendation using automated collaborative filtering |
US20020120925A1 (en) * | 2000-03-28 | 2002-08-29 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
US6573907B1 (en) * | 1997-07-03 | 2003-06-03 | Obvious Technology | Network distribution and management of interactive video and multi-media containers |
US6279014B1 (en) * | 1997-09-15 | 2001-08-21 | Xerox Corporation | Method and system for organizing documents based upon annotations in context |
US5889523A (en) * | 1997-11-25 | 1999-03-30 | Fuji Xerox Co., Ltd. | Method and apparatus for dynamically grouping a plurality of graphic objects |
US6173287B1 (en) * | 1998-03-11 | 2001-01-09 | Digital Equipment Corporation | Technique for ranking multimedia annotations of interest |
US6105055A (en) * | 1998-03-13 | 2000-08-15 | Siemens Corporate Research, Inc. | Method and apparatus for asynchronous multimedia collaboration |
JP3736597B2 (ja) * | 1998-03-18 | 2006-01-18 | 富士ゼロックス株式会社 | 発言構造情報提示装置および発言構造情報提示方法 |
JPH11282875A (ja) * | 1998-03-27 | 1999-10-15 | Oki Electric Ind Co Ltd | 情報フィルタリング装置 |
US6334127B1 (en) * | 1998-07-17 | 2001-12-25 | Net Perceptions, Inc. | System, method and article of manufacture for making serendipity-weighted recommendations to a user |
US7051275B2 (en) * | 1998-09-15 | 2006-05-23 | Microsoft Corporation | Annotations for multiple versions of media content |
US6956593B1 (en) * | 1998-09-15 | 2005-10-18 | Microsoft Corporation | User interface for creating, viewing and temporally positioning annotations for media content |
JP3601314B2 (ja) * | 1998-09-18 | 2004-12-15 | 富士ゼロックス株式会社 | マルチメディア情報処理装置 |
JP2000099524A (ja) * | 1998-09-18 | 2000-04-07 | Fuji Xerox Co Ltd | マルチメディア情報視聴装置 |
US6452615B1 (en) * | 1999-03-24 | 2002-09-17 | Fuji Xerox Co., Ltd. | System and apparatus for notetaking with digital video and ink |
US6327590B1 (en) * | 1999-05-05 | 2001-12-04 | Xerox Corporation | System and method for collaborative ranking of search results employing user and group profiles derived from document collection content analysis |
US6389372B1 (en) * | 1999-06-29 | 2002-05-14 | Xerox Corporation | System and method for bootstrapping a collaborative filtering system |
US8290809B1 (en) * | 2000-02-14 | 2012-10-16 | Ebay Inc. | Determining a community rating for a user using feedback ratings of related users in an electronic environment |
US7647555B1 (en) * | 2000-04-13 | 2010-01-12 | Fuji Xerox Co., Ltd. | System and method for video access from notes or summaries |
US7259753B2 (en) * | 2000-06-21 | 2007-08-21 | Microsoft Corporation | Classifying, anchoring, and transforming ink |
US6631184B1 (en) * | 2000-07-24 | 2003-10-07 | Comverse Ltd. | System for community generated feedback and/or rating |
US8020183B2 (en) * | 2000-09-14 | 2011-09-13 | Sharp Laboratories Of America, Inc. | Audiovisual management system |
US20020087987A1 (en) * | 2000-11-16 | 2002-07-04 | Dudkiewicz Gil Gavriel | System and method for creating and editing a viewer profile used in determining the desirability of video programming events |
NO20020417L (no) * | 2001-01-25 | 2002-07-26 | Ensequence Inc | Selektiv visning av video basert på ett eller flere temaer |
US6701311B2 (en) * | 2001-02-07 | 2004-03-02 | International Business Machines Corporation | Customer self service system for resource search and selection |
US7260771B2 (en) * | 2001-04-26 | 2007-08-21 | Fuji Xerox Co., Ltd. | Internet-based system for multimedia meeting minutes |
US20050160113A1 (en) * | 2001-08-31 | 2005-07-21 | Kent Ridge Digital Labs | Time-based media navigation system |
US6900819B2 (en) * | 2001-09-14 | 2005-05-31 | Fuji Xerox Co., Ltd. | Systems and methods for automatic emphasis of freeform annotations |
US7035807B1 (en) * | 2002-02-19 | 2006-04-25 | Brittain John W | Sound on sound-annotations |
US7149974B2 (en) * | 2002-04-03 | 2006-12-12 | Fuji Xerox Co., Ltd. | Reduced representations of video sequences |
WO2004057439A2 (en) * | 2002-05-31 | 2004-07-08 | University Of Utah Research Foundation | System and method for visual annotation and knowledge representation |
-
2002
- 2002-07-30 US US10/207,108 patent/US7257774B2/en active Active
-
2003
- 2003-07-24 JP JP2003279401A patent/JP4449361B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US7257774B2 (en) | 2007-08-14 |
US20040021685A1 (en) | 2004-02-05 |
JP2004080769A (ja) | 2004-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4449361B2 (ja) | マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、及び実行させるためのプログラム | |
US10096145B2 (en) | Method and system for assembling animated media based on keyword and string input | |
Choi | Effects of contextual factors on image searching on the Web | |
EP0967557A2 (en) | Similarity-based document retrieval | |
Huber et al. | B-script: Transcript-based b-roll video editing with recommendations | |
Martins et al. | MovieClouds: content-based overviews and exploratory browsing of movies | |
Gil et al. | Going through the clouds: search overviews and browsing of movies | |
Sluÿters et al. | Consistent, continuous, and customizable mid-air gesture interaction for browsing multimedia objects on large displays | |
Haesen et al. | Finding a needle in a haystack: an interactive video archive explorer for professional video searchers | |
Pérez Ortiz et al. | Watch less and uncover more: Could navigation tools help users search and explore videos? | |
WO2013182842A1 (en) | A system and method for assembling educational materials | |
Chambel et al. | Content-based search overviews and exploratory browsing of movies with MovieClouds | |
de Assunção et al. | Evaluating user experience in music discovery on deezer and spotify | |
Urbaneja | Online exhibitions and online publications: interrogating the typologies of online resources in art museums | |
Niu | Beyond text queries and ranked lists: Faceted search in library catalogs | |
Cui et al. | Event perception in mobile interaction: Toward better navigation history design on mobile devices | |
JP2002175290A (ja) | ドキュメントデザイン評価システム、ドキュメントデザイン評価方法、記録媒体 | |
Shi et al. | Video Preview Generation for Interactive Educational Digital Resources Based on the GUI Traversal. | |
Adamczyk | Seeing sounds: exploring musical social networks | |
Geisler | Agile views: A framework for creating more effective information seeking interfaces | |
Baur et al. | SongWords: Exploring Music Collections Through Lyrics. | |
Lopez-Gulliver et al. | Senseweb: Collaborative image classification in a multi-user interaction environment | |
Hidalgo Urbaneja | Defining online resources typologies in art museums: online exhibitions and publications | |
Zhang | Investigation of a quick tagging mechanism to help enhance the video learning experience | |
Pham | Data in Action Story: Sharing and Exploring Earth Science Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100105 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4449361 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130205 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130205 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140205 Year of fee payment: 4 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |