JP2003504952A - ビデオセグメントを別のビデオセグメント又は情報源にリンキングさせる方法及び装置 - Google Patents
ビデオセグメントを別のビデオセグメント又は情報源にリンキングさせる方法及び装置Info
- Publication number
- JP2003504952A JP2003504952A JP2001510127A JP2001510127A JP2003504952A JP 2003504952 A JP2003504952 A JP 2003504952A JP 2001510127 A JP2001510127 A JP 2001510127A JP 2001510127 A JP2001510127 A JP 2001510127A JP 2003504952 A JP2003504952 A JP 2003504952A
- Authority
- JP
- Japan
- Prior art keywords
- video segment
- video
- characteristic
- information
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/08—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/24—Systems for the transmission of television signals using pulse code modulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
- G06F16/748—Hypervideo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7834—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7844—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/86—Arrangements characterised by the broadcast information itself
- H04H20/93—Arrangements characterised by the broadcast information itself which locates resources of other pieces of information, e.g. URL [Uniform Resource Locator]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
ム又は他のタイプのビデオセグメントを処理する技法に関する。
る従来の技法は、非常に制限されたレベルのビデオベースの双方向性(interacti
vity)を提供する。ウェブページのようなハイパーメディア文書は、様々なビデ
オセグメントへのリンクをしばしば含むが、このような文書は主にテキストベー
スであり、典型的に画像及びビデオを例示的なエンティティとしてだけ利用する
。
号に開示されるビデオモザイク(Video Mosaic)(ボザイク(Vosaic))シス
テムである。ボザイクシステムは、リアルタイムビデオを規格化されたハイパー
テキストページの中に組込み、インターネット又は他のタイプのネットワーク上
でのリアルタイムビデオの送信を取扱うためにビデオ・データグラム・プロトコ
ル(VDP)を利用する。VDPは、インターフレームジッタを最少化するため
に設計され、クライアントCPUロード及びネットワーク輻輳を動的に適合され
る。ボザイクでは、ビデオ情報は、埋め込まれたビデオを含むウェブページに対
するクライアントの要求に応答してサーバからクライアントへネットワーク上を
流れる。ボザイクシステムは、階層型情報、意味論上の説明、並びに、ビデオ情
報の階層型アクセス、ブラウジング、検索、及び、動的な構成に対する支持を提
供する注釈を含むいわゆるメタ情報の幾つかのクラスを提供する。
される双方向性は、過度に制限されたままである。より特定的には、これらのシ
ステムはビデオセグメントに関連する情報への同時アクセスを提供することが一
般にできない。別の欠点は、ビデオが進行すると共にリンクが現われ消えること
をこのようなシステムが可能にさせない点である。更に、従来のシステムにおけ
るリンクは、ファイル又は他の文書のアドレス又は物理的な場所を含むユニフォ
ーム・リソース・ロケータ(URL)を提供するが、リンク自体に関する顕著な
追加的情報を一般に提供しない。更に、従来のシステムのリンクは、リンクとフ
ァイル又は他の文書の間が一般に1:1マッピングである。
改善されたビデオベースの双方向性をユーザに提供し得るビデオ処理技法が必要
である。
情報源に対してリンクを含むよう構成される。ビデオセグメントは、セグメント
のオブジェクト、エンティティ、特徴、又は、他の特性と同じ特性を含む少なく
とも一つの追加的な情報源の間で関連付けを決定するためにビデオ処理システム
において処理される。関連付けは、追加的な情報源からの情報にアクセスするた
めに利用され、アクセスされた情報は元のビデオセグメントと共に或いはその代
わりに表示され得る。ビデオセグメントに対する一組の関連付けは、データベー
ス或いは処理システムの他のメモリに記憶され得、又は、ビデオセグメントのト
ランスポートストリームのようなビデオセグメント自体の中に組込まれ得る。追
加的な情報源は、例えば、指定された特性、指定された特性を含む可聴、テキス
ト或いは他の情報の源を含むビデオセグメントでもよい。特性は、特定の顔、シ
ーン、フレーム中のイベント或いはオブジェクトのようなビデオセグメントフレ
ームから抽出されるビデオ特性、テーマ音楽(music signature)の抽出、話者
識別或いは編曲(transcript)の抽出のような聴覚特性、又は、テキスト特性で
もよい。
ト又は他の特性をクリッキング又はその他選択することで追加の関連する情報に
アクセスする。別の可能な実施例では、ビデオセグメント自体の情報はビデオセ
グメントコンテンツ、確立されたユーザの好み、時間等のような要素に従って関
連する情報を自動的に引き出すために使用されてもよい。
、本発明は、オブジェクト、エンティティ、特徴、又は、所与のビデオセグメン
ト中の他の特性に関連する数多くの情報への同時アクセスを提供し得る。追加的
に、リンクはダイナミック、例えば、リンクは所与のビデオセグメント内で現わ
れ、消え、又は、さもなければ変化されてもよい。例えば、タイトル、監督、ス
タイル、ジャンル等のようなテキストリンクのように他のリンクがセグメント全
体にわたって利用できるようにされ得る。別の利点は、所与のリンクがファイル
又は文書のアドレス又は物理的な場所を含む単なるURLよりもリンク自体の性
質に関する情報を含み得る点である。更なる利点は、異なるリンクがコンテキス
ト、ユーザ、時間、場所等のような要素に基づいて発生され得る点である。更に
、mのオブジェクト、エンティティ、特徴、又は、所与のビデオセグメント中の
他の特性と、nのビデオセグメント又はmの特性からアクセスされ得る他の情報
源の間でm:nマッピングを実行するために使用され得る。これは、従来のハイ
パーメディア文書の典型的な1:1マッピングに対して著しい改善である。本発
明の上記及び他の特性は、添付の図面及び以下の詳細な説明からより明らかにな
る。
10は、デスクトップ、ラップトップ或いはパームトップコンピュータ、パーソ
ナル・ディジタル・アシスタント(PDA)、テレビジョン或いはセットトップ
ボックス、及び、これら並びに他の装置の一部分又は組み合わせを表わしてもよ
い。システム10は、一つ以上のビデオ源12、一つ以上の入力/出力装置14
、プロセッサ15、及び、メモリ16を含む。入力/出力装置14、プロセッサ
15、及び、メモリ16は、通信媒体17上で通信される。通信媒体17は、例
えば、バス、通信エンットワーク、回路、回路カード或いは他の装置の一つ以上
の内部接続、及び、これら並びに他の通信媒体の一部分及び組み合わせを表わし
てもよい。
プログラムに従って処理され、例えば、テレビジョンディスプレイ、コンピュー
タモニタ等のディスプレイ装置18に供給される出力ビデオを生成するためにプ
ロセッサ15によって実行される。ビデオ源12は、インターネット、広域ネッ
トワーク、メトロポリタン・エリア・ネットワーク、ローカル・エリア・ネット
ワーク、地上放送システム、ケーブルネットワーク、衛星ネットワーク又は電話
ネットワーク、並びに、これら及び他のタイプのネットワーク又はシステムの一
部分又は組み合わせのようなグローバル・コンピュータ通信ネットワーク上でサ
ーバ又は複数のサーバからビデオを受信する一つ以上のネットワーク接続を表わ
してもよい。
解されるべきである。本発明の他の実施例では、本願で詳細に説明されるべき一
つ以上のビデオ処理動作は分配された方法、例えば、ネットワーク又は幅広い他
の選択的な構造における多数のコンピュータ又は他の装置上で分配され実行され
てもよい。
も称されるビデオ処理フレームワークを提供する。このビデオ処理フレームワー
クは、ユーザが現在観ているオブジェクト、可聴、又は、ビデオセグメント中の
他の特性に対して確立される一組の関連付けに基づいてビデオセグメント、テキ
スト、又は、他のマルチメディア文書にアクセスすることをこの所与のシステム
ユーザに可能にさせる。従って、本発明は、例えば、ユーザが既に観た或いは聞
いたことのあるものとの類似性を見出すことで他のビデオセグメント中の新しい
コンテンツを双方向に探ることを可能にさせる。更に、本発明は、例えば、グラ
フィックスオーバーレイモード又は他のタイプのディスプレイモードにテキスト
又は他の情報を組込むことにより、現在観ているビデオセグメント中のオブジェ
クトについての追加的な情報を提供し得る。ビデオセグメント中の1シーンから
別ビデオセグメント中の別のシーンへの滑らかな移動は、画像モーフィングのよ
うな周知の従来の視覚効果を通じて実施され得る。本発明の好ましい実施例は、
以下の4つの主な要素を含む。
定義する。例えば、ビデオセグメントnews1.mpg中のフレーム1237
3における幅=50、高さ=60の境界箱を含み座標x=150、y=20に重
心が位置決めされる対象物O1は、ビデオセグメント143.mpg中のフレー
ム1045とリンクされる。
対応する物理的リンクを説明する情報を一般に含む。例えば、所与の俳優の顔の
特性及び俳優の名前が挙げられるビデオクリップのような2つのエンティティ間
で意味論上の関系があってもよい。この場合、関連付けは、リンクがどのように
して且つ何故形成されたかを説明する情報を含んでもよい。別の例として、リン
クが2つの異なる映画からの2つのビデオセグメントの間の視覚的な類似性に基
づく場合、対応する関連付けは類似性、持続時間等の率を定義してもよい。
所与の特性と別のセグメント又は他の情報源中の関連する特性との間のリンク又
は他の関系を識別又はその他特徴付ける全てのタイプの情報に一般的に指すこと
を意図する。例えば、本願で広義に定義されるように「関連付け」といった用語
は、適用法により、前述の物理的リンク自体以外の追加的な情報を含まなくても
よい。
換及び対話モード。例えば、ビデオAからビデオBのフレーム、リンクされたテ
キストのオーバーレイ、URL、現在のビデオに対する画像又は物語情報、別の
ウィンドウ中のディスプレイ、後で観るために店に関連する情報等の間をモーフ
ィングすることである。
ち、その番組のコンテンツのカテゴリーに基づき他のコンテンツに対してアクテ
ィブな異なるリンクがあり得る。例えば、ドキュメンタリー番組の放送中に、百
科事典へのリンクがアクティブでもよい。コマーシャル中、関連する製品又は最
も近い店へのリンクがアクティブとされ得る。ユーザに関する予備知識、例えば
、年齢、性別、関心等に基づき、異なるリンクがアクティブにされ得る。更に、
一日のある時間において対話及び変換の好ましいモードが記憶されたユーザの好
みに基づいて変化され得る。
施例は、これら要素全て又はそのサブセットに基づいてもよい。
のリンクを説明するために使用される上述の関連付けは、以下を含み様々な異な
る方法で形成され得る。
づいて確立され得る。この視覚的類似性は、例えば、色、形状、特定の対象物へ
の類似性、又は、概念的なタイプのオブジェクトの類似性に基づき得、及び、例
えば、二次元、2.5次元即ちコンピュータビジョン、又は、三次元でもよい。
関連付けは、この場合、図4と共に以下に詳細に説明されるようなコンテンツベ
ースの特徴抽出を使用して決定され得る。ビデオシーケンス間の視覚的類似性を
抽出する技法に関する追加的な詳細は、例えば、発明者Nevenka Dimitrova及び
Mohamed Abdel−Mottalebの名において1999年2月9日に発行された“Vide
o Retrieval of MPEG Compressed Sequences Using DC and Motion S
ignatures”なる名称の米国特許第5,870,754号においてみつけられ得
る。
メントに対してリンクを設けるために使用され得る。この場合、関連付けは、例
えば、キーワードが特定のビデオシーンに含まれるシソーラスに基づいてもよい
。
ントは結婚式のビデオセグメントへのアクセスをリンクし得る。イベントの関連
付けは、速い動作、アクション、又は、一組のキーワドのような同様の特性を使
用して決定され得る。イベントの関連付けは、例えば、ローレベル特性及び概念
によって表わされる意味論上の特性の組み合わせを使用して確立され得る。
の編曲又は認識された特徴を通じて確立されてもよい。この場合の関連付けは、
例えば、統計的なテキストインデクシング方法を使用して得られてもよい。別の
例として、関連付けは簡単なキーワード又はキーワードがその最も近いコンセプ
トと関連付けられるコンセプトシソーラスを使用して得られ得る。
トは、同様の言葉又は音を有する別のビデオセグメントに対してリンクを設け得
る。この場合、実際のリンクが話し言葉自体に基づいてもよいが音声−テキスト
変換が関連付けを確立するための基盤として使用されてもよい。
む他のビデオセグメントとリンクされるために使用され得る。別の例として、特
定のエネルギー、帯域幅、ピッチ、又は、他の特徴で特徴付けられる可聴イベン
トが他の同様の可聴イベントに対してリンクを設けるために使用され得る。
、自然界映画のビデオセグメントにおいて赤色、及び、単語「キャニオン」と組
み合わされる水の流れる音は、ハイキングの旅のビデオセグメント、又は、ハイ
キング道具のウェブページにリンクを設け得る。別の例として、所与のビデオセ
グメント中の特定の俳優の顔にクリックする又はその他選択するユーザは、俳優
の名前が提供されてもよく、俳優個人のウェブページにリンクされてもよい。
けを有する場合、ビデオA及びビデオBは夫々ビデオA及びBからの全ての関連
付け(又は、これら関連付けの適切な組み合わせ又はサブセット)を受け継いで
もよい。
特性のベクトルを計算するために使用されてもよい。例えば、本発明は、ビデオ
特性間の関連付けを決定するために、特性の分類及びクラスタリングの従来の方
法、並びに、類似性計算(又は距離計算、距離=1−類似性)方法を利用し得る
。ビデオ及び可聴類似性の場合、本発明は特性ベクトルを抽出し得、L1、L2
、カイ二乗等のような規格距離測定を使用して類似性を計算し得る。フレーム類
似性は、例えば、N.Dimitrova,J.Martino,L.Agnihotri,及び,H.Elenbaas,
“Color Super−histograms for Video Representaion”,IEEE Internatio
nal Conference on Image Processing, Kobe, Japan 1999中に記載され
る技法を使用してフレームヒストグラムに基づいて計算され得る。離散コサイン
変換係数を使用する、フレーム類似性を決定する別の既知の方法は、N.Dimitrov
a,T.McGee,及び,H.Elenbaas, “Video Keyframe Extraction and Filt
ering:A Keyframe is not a Keyframe to Everyone”,Proceedings o
f ACM Conference on Information and Knowledge Management,Nov.19
97に記載される。
ンクは、例えば、ディジタルビデオストリームの一部又は別のデータベース或い
は他のタイプのシステムメモリに記憶されて実行され得る。
れてもよい。例えば、画像中に現われるテキストは百科事典に対するリンク、又
は、オンライン新聞又は他の情報源に対するクエリーとして扱われ得る。所与の
ビデオセグメント内の全ての静的又は動的オブジェクトは、別のビデオセグメン
ト又は情報源にリンクされ得る。例えば、ユーザは特定の俳優の画像を含む現在
観ているビデオセグメントから、その俳優と関連する別のビデオセグメントにア
クセスし得る。同様にして、全ての他のエンティティ、イベント、現在の話、又
は、現在観ているビデオセグメントの他の特性は、関連する特性を含む他のビデ
オセグメント又は情報源へのリンクとなってもよい。これらのリンクは、例えば
、映画中の特定のキャラクタを他の映画、文書等に蓄積されるそのキャラクタの
全ての他の経験又は「メモリ」と関連付けることを可能にさせる。
示す。図2の例は、4つの相互に関係付けられるビデオセグメント、ビデオA、
ビデオB、ビデオC、及び、ビデオDを含む。各ビデオセグメントは、幾つかの
フレーム20を有する。本発明によると、所与のビデオセグメント中のあるフレ
ームと他のビデオセグメント中の他の同様のフレームとの間でリンクが確立され
る。より特定的には、ビデオBのフレーム20−1は、例えば、各フレーム中に
家があるといったフレーム間の視覚的類似性に基づいてビデオAの同様のフレー
ム20−2、ビデオCの20−3、及び、ビデオDの20−4にリンクされる。
同様の方法で、ビデオBのフレーム20−5は、各フレーム中に同じ俳優又は他
の個人が存在するといったフレーム間の視覚的類似性に基づいてビデオCのフレ
ーム20−6にリンクされる。
ームの組、又は、所与のビデオ信号の可聴部分を含むビデオ信号の全ての他の部
分を含むことを意図する。異なるビデオセグメントは、異なるビデオ信号の一部
分でもよいが必要ではない。例えば、図2に示される2つ以上のビデオ信号は同
じビデオ信号の別個の部分を表わしてもよい。
されてもよいユーザインタフェースの例を示す。本例では、ビデオフレーム30
はメインウィンドウ32とメインウィンドウ32の周りに配置されるウィンドウ
34のような幾つかの二次ウィンドウとを有する。本発明によると、フレーム2
0の各二次ウィンドウはメインウィンドウ32中のディスプレイに対して何らか
の関係を有する。これらの関係は、フレーム30中小さい矢印によって示される
。例えば、ウィンドウ34は、メインウィンドウ32中に現われるアンカーパー
ソンと同じアンカーパーソンの画像を含む。この画像は、同じアンカーパーソン
による異なるニュース放送の別のビデオセグメントのフレームでもよい。
4に対応するビデオセグメントにリンクし得、現在表示されているビデオセグメ
ントがフレーム30の二次ウィンドウ34中に前に表示されたフレーム36を含
むセグメントとなる。本発明による所与のビデオセグメントと他のビデオセグメ
ント又は情報源の間でリンクを提供するために多数の他のタイプのユーザインタ
フェース配置が使用されてもよいことに注意するべきである。例えば、リンクが
視覚的、聴覚の、又は、概念上の関連付けに基づき得るため、インタフェースは
、例えば、リモート・コントロール、マウス、又は、他のポイントーアンドーク
リック装置によって制御されるオンスクリーン矢印、のような様々なポインティ
ング装置を適合させるために様々な方法で表示され得る。
の技法を使用して他のビデオセグメントとの関連付けが所与のビデオセグメント
から抽出され得る方法を示す。入力ビデオは従来のビデオカット検出モジュール
40において最初に処理され、このビデオカット検出モジュールの動作は技術に
おいて周知である。ビデオカット検出モジュール40の結果として生じられる出
力は、関連付けを形成するために使用される意味論的に意味のある特性を抽出す
るために更に処理される。所与のビデオセグメント中の各フレームは、色、テク
スチャ、形状等に基づく一組のビデオ特性によって一般に特徴付けられる。ビデ
オセグメントのフレームの領域は、これらの特性を検出するために処理される。
及び、オブジェクトの識別43に基づく。検出された特性は、規則データベース
45に記憶される意味論上の関連する規則を使用して関連付けエンジン44にお
いて処理される。例えば、データベース45中の関連付け規則の所与の一つは顔
A、例えば、特定の俳優又は有名人の顔がビデオX中のフレームVと関連付けら
れるべきことを示す。一つ以上の他のビデオセグメントが同じ特性を検出するた
めに同様の方法で処理される。関連付けエンジン44の出力は、関連付け索引4
8に記憶され特定のビデオ特性が現される多数のビデオセグメント中のフレーム
を示す一つ以上の関連付けである。
のいわゆる固有の顔ベクトルを特定の人の名前とどのようにして関連付けるかを
説明する情報を含んでもよい。これらの規則は、例えば、ニューラルネットワー
クのような学習アルゴリズムの使用を通じて時間を経て発展及び変化され得る。
この場合、最初の組の規則は、システムがセットアップされるときにシステム設
計士によって確立されてもよく、システムは一旦顔及び名前情報の十分なデータ
ベースが蓄積されると追加の新しい顔−名前関連付けを自分で追加し得る。
関連付けのような聴覚特性に基づいて関連付けを抽出するために使用され得る。
この場合、入力ビデオは、その可聴部分を単一の音声、複数の音声、音楽、サイ
レンス、及び、ノイズのようなカテゴリにセグメント化させるために可聴特徴付
けモジュール50で処理される。所与のビデオセグメント中の各フレームは、メ
ル周波数ケプストラム係数(MFCC)、フーリエ係数、基本周波数、帯域幅等
のような一組の聴覚特性によって一般に特徴付けられる。ビデオセグメントのフ
レームは、これら聴覚特性を検出するために処理される。
、及び、編曲の抽出53に基づく。検出される聴覚特性は、意味論上の関連する
規則データベース45からの規則と検出される聴覚特性を照合させることを試み
る照合動作54において処理される。例えば、データベース45中の意味論上の
関連する規則の所与の一つは、声A、例えば、特定の俳優又は有名人の声、がビ
デオY中のフレームCと関連付けられるべきであることを示す。一つ以上の他の
ビデオセグメントは、同じ聴覚特性を検出するために同様の方法で処理される。
照合動作54の出力は、関連付け索引48に記憶され特定の聴覚特性が現される
多数のビデオセグメントのフレームを示す一つ以上の追加の関連付けである。
関連付けに基づく本発明の実施例における実行時リンキング及び切換を示す。ユ
ーザが所与のビデオセグメント、即ち、ビデオXを観ると、実行時グラフィック
ス環境60がユーザの動作をモニタする。ビデオセグメント中のオブジェクトが
「アクティブ」例えば、ユーザによってクリック又はその他選択される場合、こ
の動作は検出動作62において検出される。関連付け索引48は、そのオブジェ
クトに関して検索され、動作の関連付け規則65のデータベースに基づいて適当
なビデオ切換動作64が実施される。例えば、関連付け索引48がビデオX中の
選択されるオブジェクトに類似する別のビデオセグメント例えば、同様のフレー
ムコンテンツを含む同様のビデオセグメントビデオYがあることを示す場合、動
作は現在観ているビデオXをビデオYの中にモーフィングさせることでもよい。
従って、システムは、ビデオXにおいてユーザによって選択されるオブジェクト
に基づいてビデオYに切換えられる。前述の通り、ビデオセグメント中の一シー
ン、即ち、ビデオXから別のシーン、即ち、ビデオYへの移動は画像モーフィン
グのような周知の従来の視覚効果を通じて実施され得る。
シブモードのいずれかにおいて実行されてもよいことに注意するべきである。ア
クティブモードでは、リンキング及び切換は、ユーザ、例えば、ビデオセグメン
ト中の所与の特性をクリッキング又はその他選択するユーザによって活性的にな
される実際の選択に基づく。パッシブモードでは、ビデオセグメント自体に含ま
れる又はシステムの他の場所に記憶されるキュー又は他の適切な情報識別子が例
えば、PIP又はディスプレイの他のウィンドウに表示されるためにリンクされ
た情報の引き出しを自動的に活性化させるために使用されてもよい。
ント又は情報源の間で切換は必要ない。例えば、選択されるリンクがテキスト形
態にある情報に対しての場合、その情報は選択されたオブジェクトの上又は任意
の形状の別のボックス中にオーバーレイモード、例えば、ビデオの上で表示され
得る。このタイプの一つの特定の実施では、選択されるリンクはインターネット
又は他のネットワーク上で利用できる一つ以上のハイパーテキスト文書の引き出
しをトリガしてもよい。別の例として、選択されたリンクが聴覚の情報に対して
である場合、聴覚の情報は現在観ているビデオセグメントの可聴信号と混合、又
は、テキストフォーマットで転記されビデオセグメントと共に表示され得る。追
加的に、リンクが別のビデオセグメントに対してである場合、そのセグメントは
現在観ているビデオセグメントの代わりとしてよりも現在観ているビデオセグメ
ントと同時にディスプレイの別のウィンドウ、例えば、ピクチャ−イン−ピクチ
ャ(PIP)ウィンドウに表示され得る。
MPEGビデオビットストリーム又は他のタイプのビデオセグメントは、ビデオ
セグメントのフレームと他のビデオセグメントのフレーム間で類似性値又は他の
情報を関連付ける関連付けを用いて高められ得る。ユーザデータフィールド又は
トランスポートストリームにMPEGビットストリームにおけるこれら関連付け
を挿入することが可能である。この高められたビットストリームの実行では、ビ
デオエンコーダがユーザデータフィールドにおいて指定されたコードを見つける
度に例えば、適当に構成されたDeja Video実行エンジンにコールを実施する。
このような実行エンジンは、ユーザ入力に従い受け入れるため、ユーザによって
選択されるようにリンクへのアクセスを実行するため、及び、選択されるリンク
における情報の表示を実施するために明白な方法で構成され得る。非MPEGス
トリームに対して、関連付けを含むトランスポート層がビデオセグメントの周り
に形成され得る。
クによって識別されるあて先コンテンツの表示方法を含む別のデータベースを形
成することを伴う。ビデオ再生中、対応するフレーム中にだけあるコマンド又は
リンクを可能にする時間的マスクを提供するために対応するリンクに関して時間
的カウンタレファレンスが維持されてもよい。このような実行において、利用で
きるビデオセグメント又はリンクによって識別される他の情報源は、データベー
スに記憶されてもよく、又は、URL或いは他の適切な識別子によってアクセス
可能な遠隔な機械に記憶されてもよい。
、ポインティング方法即ちビデオセグメント中のオブジェクト又は他の特性を選
択する方法、リンクされた情報の表示方法、リンクされた情報の変換方法即ちオ
ーバーレイ、PIP等、テキスト或いはウェブページのようなライトウェイトタ
ーゲット及び他のビデオセグメントのようなヘビーウェイトターゲットに対する
場所特定子、及び、ユーザプロファイル、場所、時間、好み等のようなユーザに
関する追加的な情報に基づいてリンクを決定する際に関連付けによる使用のため
のコンテクスト機能のような情報を含んでもよい。
ビデオ編集ソフトウェア、ゲーム等におけるコンテンツ作成のような用途に特に
適切である。本発明が利用されてもよい特定のビデオ処理適用の例を以下に示す
。
の映画フィルムが無くても既存の素材からビデオ素材を作成し、異なる環境にお
けるビデオオブジェクトへのアクセスを提供するために使用される。
、他のタイプのビデオアクセス技法に使用され得る。例えば、ユーザは現在観て
いるビデオセグメントに関連する幅広いアレイの情報、例えば、現在観ているビ
デオセグメント中の特定の関心シーンに類似するシーンを含む全ての他の映画又
は番組にアクセスするために確立されたリンクを利用し得る。本発明は、情報へ
のアクセスがかなり簡易化されるようビデオと他の情報コンテンツの間にインタ
ラクティブな関係を設ける。
ーン等のような特性に基づいて、ビデオストア、フィルムアーカイブ、又は、他
のタイプのビデオアーカイブ中のビデオをリンクさせるために使用され得る。リ
ンクは、貸し出しされ得る他のビデオ、又は、特定俳優又は映画のファングルー
プと関連するウェブページのような他の情報チャンネルにユーザを導き得る。
メント中のリンクされたオブジェクトに基づくウェブドキュメントにアクセスす
るために使用され得る。
ックし概念的に関連する情報を含む同様のビデオ又はウェブページを受信し得る
。
、本発明は、所与のビデオセグメント中のオブジェクト、エンティティ、特徴、
又は、他の特性に関連する数多くの情報への同時アクセスを提供し得る。追加的
に、リンクはダイナミック、例えば、リンクは所与のビデオセグメント内で現わ
れ、消え、又は、さもなければ変化されてもよい。例えば、タイトル、監督、ス
タイル、ジャンル等のようなテキストリンクのように他のリンクがセグメント全
体にわたって利用できるようにされ得る。
含む単なるURLよりもリンク自体の性質に関する情報を含み得る点である。例
えば、特定の地理的な領域に関するドキュメンタリー映画において、ユーザは、
例えば、sひょのフレームのバックグラウンドにおける地図を指すことで人口、
出生率、又は、領域の簡潔な歴史に関する情報を得られる。
要素に基づいて発生され得る点である。例えば、子供及び大人に対するリンクは
完全に異なり得る。
ト中の他の特性と、nのビデオセグメント又はmの特性からアクセスされ得る他
の情報源の間でm:nマッピングを実行するために使用され得る。これは、従来
のハイパーメディア文書の典型的な1:1マッピングに対して著しい改善である
。
望のタイプのビデオ処理システム又は装置、及び、本願で説明した以外の多くの
用途においてたのタイプのビデオリンキングを実行するために使用され得る。本
発明は、その他従来の電子、磁気、或いは、光記憶媒体又は他のタイプのメモリ
に記憶され適切なマイクロプロセッサ、中央処理ユニット、特定用途向け集積回
路(ASIC)又は他のタイプのプロセッサによって実行される一つ以上のソフ
トウェアプログラムの形態に少なくとも部分的には実行され得る。例えば、この
ようなプログラムは、図1のシステム10におけるメモリ16に記憶されプロセ
ッサ15によって実行されてもよい。添付の特許請求の範囲内の上記及び多数の
他の実施例は当業者に明らかである。
る。
インタフェースの例を示す図である。
の関連付けの抽出を示す図である。
の関連付けの抽出を示す図である。
Claims (23)
- 【請求項1】 ビデオを処理する方法であって、 特定の特性を含む第1のビデオセグメントと上記特性を含む少なくとも一つの
追加的な情報源との間で関連付けを決定する段階と、 少なくとも部分的にはユーザによる上記第1のビデオセグメントにおける上記
特性の選択に基づく上記追加的な情報源からの情報を表示するために上記関連付
けを利用する段階とを有する方法。 - 【請求項2】 上記決定段階はメモリから上記関連付けを引き出す段階を含
む請求項1記載の方法。 - 【請求項3】 上記決定段階は上記ビデオセグメントの一部分における情報
から上記関連付けを決定することを含む請求項1記載の方法。 - 【請求項4】 上記追加的な情報源は上記特性を含む追加的なビデオセグメ
ントを有する請求項1記載の方法。 - 【請求項5】 上記利用段階は、上記第1のビデオセグメントのディスプレ
イから上記特性を含む上記追加的なビデオセグメントのディスプレイへの切換を
含む請求項4記載の方法。 - 【請求項6】 上記利用段階は、上記第1のビデオセグメントの少なくとも
一部分を含むディスプレイの別の部分に上記追加的なビデオセグメントを少なく
とも部分的に表示することを含む請求項4記載の方法。 - 【請求項7】 上記特性は上記ビデオセグメントの少なくとも一つのフレー
ムから抽出されるビデオ特性である請求項1記載の方法。 - 【請求項8】 上記ビデオ特性はフレームの特徴、顔の識別、シーンの識別
、イベントの識別、及び、オブジェクトの識別の少なくとも一つを有する請求項
7記載の方法。 - 【請求項9】 上記特性は上記ビデオセグメントの少なくとも一つのフレー
ムから抽出される聴覚特性である請求項1記載の方法。 - 【請求項10】 上記利用段階は、上記聴覚特性に対応する可聴信号を上記
第1のビデオセグメントに関連する可聴信号と組み合わす、又は、テキストフォ
ーマットに転記し上記ビデオセグメントと共に表示することを含む請求項9記載
の方法。 - 【請求項11】 上記利用段階は上記聴覚特性に対応する可聴信号を上記第
1のビデオセグメントと表示されるテキストフォーマットに変換することを含む
請求項9記載の方法。 - 【請求項12】 上記ビデオセグメントから聴覚特性を抽出するために一つ
以上の単一の音声、複数の音声、音楽、サイレンス、ノイズを含む可聴カテゴリ
に上記ビデオセグメントの少なくとも一部分を分離することを含む請求項9記載
の方法。 - 【請求項13】 上記聴覚特性はテーマ音楽の抽出、話者識別、及び、編曲
抽出の少なくとも一つを有する請求項9記載の方法。 - 【請求項14】 上記特性は上記ビデオセグメントの少なくとも一つのフレ
ームから抽出されるテキスト特性である請求項1記載の方法。 - 【請求項15】 上記利用段階がテキスト情報に対応する情報をオーバーレ
イとして上記第1のビデオセグメントのディスプレイ上に表示することを含む請
求項14記載の方法。 - 【請求項16】 上記決定段階は、少なくとも部分的には特徴抽出技法を使
用して上記ビデオセグメントの一部分から抽出される少なくとも一つの多次元の
特性ベクトルに基づく上記関連付けを決定することを含む請求項1記載の方法。 - 【請求項17】 上記決定段階は、少なくとも部分的には類似性尺度及びク
ラスタリング技法の少なくとも一つに基づく上記関連付けを決定することを含む
請求項1記載の方法。 - 【請求項18】 ビデオを処理する装置であって、 特定の特性を含む第1のビデオセグメントと上記特性を含む少なくとも一つの
追加的な情報源の間の関連付けを記憶するメモリと、 上記メモリに結合され、少なくとも部分的にはユーザによる上記第1のビデオ
セグメント中の上記特性の選択に基づく上記追加的な情報源からの情報の表示を
命令するよう上記関連付けを利用するために動作されるプロセッサとを有する装
置。 - 【請求項19】 ビデオを処理する装置であって、 (i)特定の特性を含む第1のビデオセグメントと上記特性を含む少なくとも
一つの追加的な情報源の間の関連付けを決定し、 (ii)ユーザによる上記第1のビデオセグメント中の上記特性の選択に少な
くとも部分的には基づく上記追加的な情報源からの情報を表示するために上記関
連付けを利用するために動作されるプロセッサを有する装置。 - 【請求項20】 一つ以上のソフトウェアプログラムを含む機械可読媒体で
あって、 上記ソフトウェアプログラムが実行されると、特定の特性を含む第1のビデオ
セグメントと上記特性を含む少なくとも一つの追加的な情報源の間の関連付けを
決定する段階と、 ユーザによる上記第1のビデオセグメント中の上記特性の選択に少なくとも部
分的には基づく上記追加的な情報源からの情報を表示するために上記関連付けを
利用する段階とを実行する機械可読媒体。 - 【請求項21】 ビデオを処理する方法であって、 第1のビデオセグメントの一部分における情報から上記第1のビデオセグメン
トの特定の特性と上記特性を含む少なくとも一つの追加的な情報源との間の関連
付けを決定する段階と、 上記追加的な情報源からの情報を表示するために上記関連付けを利用する段階
とを有する方法。 - 【請求項22】 ビデオを処理する装置であって、 (i)第1のビデオセグメントの一部分における情報から上記第1のビデオセ
グメントの特定の特性と上記特性を含む少なくとも一つの追加的な情報源との間
の関連付けを決定し、 (ii)上記追加的な情報源からの情報を表示するために上記関連付けを利用
するために動作されるプロセッサを有する装置。 - 【請求項23】 一つ以上のソフトウェアプログラムを含む機械可読媒体で
あって、 上記ソフトウェアプログラムが実行されると、第1のビデオセグメントの一部
分における情報から上記第1のビデオセグメントの特定の特性と上記特性を含む
少なくとも一つの追加的な情報源との間の関連付けを決定する段階と、 上記追加的な情報源からの情報を表示するために上記関連付けを利用する段階
とを実行する機械可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/351,086 | 1999-07-09 | ||
US09/351,086 US7356830B1 (en) | 1999-07-09 | 1999-07-09 | Method and apparatus for linking a video segment to another segment or information source |
PCT/EP2000/006326 WO2001004792A1 (en) | 1999-07-09 | 2000-07-04 | Method and apparatus for linking a video segment to another video segment or information source |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003504952A true JP2003504952A (ja) | 2003-02-04 |
Family
ID=23379509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001510127A Pending JP2003504952A (ja) | 1999-07-09 | 2000-07-04 | ビデオセグメントを別のビデオセグメント又は情報源にリンキングさせる方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US7356830B1 (ja) |
EP (1) | EP1110156A1 (ja) |
JP (1) | JP2003504952A (ja) |
KR (1) | KR100684484B1 (ja) |
WO (1) | WO2001004792A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005029353A1 (ja) * | 2003-09-18 | 2005-03-31 | Fujitsu Limited | 注釈管理システム、注釈管理方法、文書変換サーバ、文書変換プログラム、電子文書付加プログラム |
WO2019031397A1 (ja) * | 2017-08-07 | 2019-02-14 | ナーブ株式会社 | 画像表示装置、画像表示方法及び画像表示プログラム |
Families Citing this family (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2001294655A1 (en) * | 2000-09-25 | 2002-04-08 | Richard Fuisz | System for providing access to product data |
US8711217B2 (en) * | 2000-10-24 | 2014-04-29 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US9892606B2 (en) * | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US8564661B2 (en) | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
US20050146605A1 (en) * | 2000-10-24 | 2005-07-07 | Lipton Alan J. | Video surveillance system employing video primitives |
US7868912B2 (en) * | 2000-10-24 | 2011-01-11 | Objectvideo, Inc. | Video surveillance system employing video primitives |
EP1354318A1 (en) * | 2000-12-22 | 2003-10-22 | Muvee Technologies Pte Ltd | System and method for media production |
GB2375907A (en) * | 2001-05-14 | 2002-11-27 | British Broadcasting Corp | An automated recognition system |
US20040168206A1 (en) * | 2001-05-14 | 2004-08-26 | Stienstra Marcelle Andrea | Device for interacting with real-time streams of content |
JP3772117B2 (ja) * | 2002-01-18 | 2006-05-10 | ソニー株式会社 | 情報信号処理装置および情報信号処理方法 |
US8230476B2 (en) * | 2002-09-17 | 2012-07-24 | Intel Corporation | Real-time interactive personal video recorder interface |
US20040141713A1 (en) * | 2003-01-16 | 2004-07-22 | Daniel Watkins | Method and system for implementing a service provider personal video recorder |
US7814517B2 (en) * | 2004-11-23 | 2010-10-12 | Palo Alto Research Center Incorporated | Method and apparatus for associating commentary audio with a position in an experiential data stream |
US7814518B2 (en) * | 2004-11-23 | 2010-10-12 | Palo Alto Research Center Incorporated | Methods, apparatus, and program products for presenting replacement content instead of a portion of a recorded content |
US7870589B2 (en) * | 2004-11-23 | 2011-01-11 | Palo Alto Research Center Incorporated | Method for providing commentary audio and additional or replacement video content |
US7818770B2 (en) * | 2004-11-23 | 2010-10-19 | Palo Alto Research Center Incorporated | Methods, apparatus, and program products to support a shared viewing experience from remote locations |
US7882530B2 (en) * | 2004-11-23 | 2011-02-01 | Palo Alto Research Center Incorporated | Method, apparatus, and program products for socially synchronizing an experiential data stream |
US7818771B2 (en) * | 2004-11-23 | 2010-10-19 | Palo Alto Research Center Incorporated | Methods, apparatus, and program products for controlling presentation of an experiential data stream responsive to conversations in a shared social space |
WO2006059436A1 (ja) * | 2004-12-03 | 2006-06-08 | Nec Corporation | 映像コンテンツ再生支援方法、映像コンテンツ再生支援システム、及び情報配信プログラム |
JP4678246B2 (ja) * | 2005-06-20 | 2011-04-27 | 船井電機株式会社 | 番組検索支援システム |
KR100703705B1 (ko) * | 2005-11-18 | 2007-04-06 | 삼성전자주식회사 | 동영상을 위한 멀티 미디어 코멘트 처리 장치 및 방법 |
US20070198711A1 (en) * | 2006-02-06 | 2007-08-23 | Tribinium Corporation | Apparatus and method for managing the viewing of images over an on-line computer network |
TW200809764A (en) | 2006-04-24 | 2008-02-16 | Sony Corp | Image processing device, image processing method and program recording medium |
US20070256008A1 (en) * | 2006-04-26 | 2007-11-01 | Bedingfield James C Sr | Methods, systems, and computer program products for managing audio information |
US20070256007A1 (en) * | 2006-04-26 | 2007-11-01 | Bedingfield James C Sr | Methods, systems, and computer program products for managing information by annotating a captured information object |
US8701005B2 (en) | 2006-04-26 | 2014-04-15 | At&T Intellectual Property I, Lp | Methods, systems, and computer program products for managing video information |
US7720281B2 (en) * | 2006-07-31 | 2010-05-18 | Mavs Lab, Inc. | Visual characteristics-based news anchorperson segment detection method |
US9892111B2 (en) * | 2006-10-10 | 2018-02-13 | Abbyy Production Llc | Method and device to estimate similarity between documents having multiple segments |
US8301669B2 (en) * | 2007-01-31 | 2012-10-30 | Hewlett-Packard Development Company, L.P. | Concurrent presentation of video segments enabling rapid video file comprehension |
US8165424B1 (en) * | 2007-07-13 | 2012-04-24 | One True Media, Inc. | Method and device for video transformations |
US20090113475A1 (en) * | 2007-08-21 | 2009-04-30 | Yi Li | Systems and methods for integrating search capability in interactive video |
US8904442B2 (en) * | 2007-09-06 | 2014-12-02 | At&T Intellectual Property I, Lp | Method and system for information querying |
US8352479B2 (en) * | 2007-12-10 | 2013-01-08 | At&T Intellectual Property I, L.P. | Systems,methods and computer products for content-derived metadata |
WO2009116582A1 (ja) * | 2008-03-19 | 2009-09-24 | 国立大学法人 北海道大学 | 動画検索装置および動画検索プログラム |
US20110022589A1 (en) * | 2008-03-31 | 2011-01-27 | Dolby Laboratories Licensing Corporation | Associating information with media content using objects recognized therein |
US8655147B2 (en) * | 2008-06-26 | 2014-02-18 | Nec Corporation | Content reproduction order determination system, and method and program thereof |
US8949718B2 (en) | 2008-09-05 | 2015-02-03 | Lemi Technology, Llc | Visual audio links for digital audio content |
US8200602B2 (en) * | 2009-02-02 | 2012-06-12 | Napo Enterprises, Llc | System and method for creating thematic listening experiences in a networked peer media recommendation environment |
US9183881B2 (en) * | 2009-02-02 | 2015-11-10 | Porto Technology, Llc | System and method for semantic trick play |
EP2234024B1 (en) * | 2009-03-24 | 2012-10-03 | Sony Corporation | Context based video finder |
US9094715B2 (en) | 2009-05-29 | 2015-07-28 | Cognitive Networks, Inc. | Systems and methods for multi-broadcast differentiation |
US10949458B2 (en) | 2009-05-29 | 2021-03-16 | Inscape Data, Inc. | System and method for improving work load management in ACR television monitoring system |
US8595781B2 (en) | 2009-05-29 | 2013-11-26 | Cognitive Media Networks, Inc. | Methods for identifying video segments and displaying contextual targeted content on a connected television |
US9449090B2 (en) | 2009-05-29 | 2016-09-20 | Vizio Inscape Technologies, Llc | Systems and methods for addressing a media database using distance associative hashing |
US10116972B2 (en) * | 2009-05-29 | 2018-10-30 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
US8792773B2 (en) * | 2009-12-18 | 2014-07-29 | Electronics And Telecommunications Research Institute | Digital video managing and searching system |
US9443147B2 (en) * | 2010-04-26 | 2016-09-13 | Microsoft Technology Licensing, Llc | Enriching online videos by content detection, searching, and information aggregation |
US9305603B2 (en) * | 2010-07-07 | 2016-04-05 | Adobe Systems Incorporated | Method and apparatus for indexing a video stream |
KR20120090101A (ko) * | 2010-12-23 | 2012-08-17 | 한국전자통신연구원 | 디지털 비디오 고속 정합 시스템 |
US20120326993A1 (en) * | 2011-01-26 | 2012-12-27 | Weisman Jordan K | Method and apparatus for providing context sensitive interactive overlays for video |
US10134440B2 (en) * | 2011-05-03 | 2018-11-20 | Kodak Alaris Inc. | Video summarization using audio and visual cues |
US20130031589A1 (en) * | 2011-07-27 | 2013-01-31 | Xavier Casanova | Multiple resolution scannable video |
US9565476B2 (en) * | 2011-12-02 | 2017-02-07 | Netzyn, Inc. | Video providing textual content system and method |
US20130257877A1 (en) * | 2012-03-30 | 2013-10-03 | Videx, Inc. | Systems and Methods for Generating an Interactive Avatar Model |
US9244923B2 (en) * | 2012-08-03 | 2016-01-26 | Fuji Xerox Co., Ltd. | Hypervideo browsing using links generated based on user-specified content features |
US9658994B2 (en) * | 2013-05-20 | 2017-05-23 | Google Inc. | Rendering supplemental information concerning a scheduled event based on an identified entity in media content |
EP2869236A1 (en) * | 2013-10-31 | 2015-05-06 | Alcatel Lucent | Process for generating a video tag cloud representing objects appearing in a video content |
CN104683852B (zh) * | 2013-11-29 | 2018-04-06 | 国际商业机器公司 | 处理广播信息的方法和设备 |
US9955192B2 (en) | 2013-12-23 | 2018-04-24 | Inscape Data, Inc. | Monitoring individual viewing of television events using tracking pixels and cookies |
US9426523B2 (en) | 2014-06-25 | 2016-08-23 | International Business Machines Corporation | Video composition by dynamic linking |
US11165596B2 (en) * | 2014-11-04 | 2021-11-02 | Tmrw Foundation Ip S. À R.L. | System and method for inviting users to participate in activities based on interactive recordings |
US9445151B2 (en) * | 2014-11-25 | 2016-09-13 | Echostar Technologies L.L.C. | Systems and methods for video scene processing |
US10521672B2 (en) * | 2014-12-31 | 2019-12-31 | Opentv, Inc. | Identifying and categorizing contextual data for media |
US9858337B2 (en) | 2014-12-31 | 2018-01-02 | Opentv, Inc. | Management, categorization, contextualizing and sharing of metadata-based content for media |
KR102306538B1 (ko) * | 2015-01-20 | 2021-09-29 | 삼성전자주식회사 | 콘텐트 편집 장치 및 방법 |
EP3251370A1 (en) | 2015-01-30 | 2017-12-06 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
MX2017013128A (es) | 2015-04-17 | 2018-01-26 | Inscape Data Inc | Sistemas y metodos para reducir densidad de los datos en grandes conjuntos de datos. |
CA3216076A1 (en) | 2015-07-16 | 2017-01-19 | Inscape Data, Inc. | Detection of common media segments |
US10080062B2 (en) | 2015-07-16 | 2018-09-18 | Inscape Data, Inc. | Optimizing media fingerprint retention to improve system resource utilization |
CN108351879B (zh) | 2015-07-16 | 2022-02-18 | 构造数据有限责任公司 | 用于提高识别媒体段的效率的划分搜索索引的系统和方法 |
EP3151243B1 (en) * | 2015-09-29 | 2021-11-24 | Nokia Technologies Oy | Accessing a video segment |
IL292025B2 (en) | 2016-08-12 | 2023-12-01 | Magic Leap Inc | Parosh is a flurry of words |
US11134316B1 (en) | 2016-12-28 | 2021-09-28 | Shopsee, Inc. | Integrated shopping within long-form entertainment |
US11166079B2 (en) | 2017-12-22 | 2021-11-02 | International Business Machines Corporation | Viewport selection for hypervideo presentation |
US10986422B2 (en) * | 2018-11-20 | 2021-04-20 | International Business Machines Corporation | Hyper video navigation |
US11948276B2 (en) * | 2020-01-16 | 2024-04-02 | Samsung Electronics Co., Ltd. | Apparatus and method for enhancing videos |
CN114329063B (zh) * | 2021-10-29 | 2024-06-11 | 腾讯科技(深圳)有限公司 | 视频片段检测方法、装置以及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6385916A (ja) * | 1986-09-30 | 1988-04-16 | Toshiba Corp | 短縮キ−方式 |
JPH08272946A (ja) * | 1995-01-31 | 1996-10-18 | Omron Corp | 物体説明装置および物体説明方法 |
WO1997040454A1 (en) * | 1996-04-25 | 1997-10-30 | Philips Electronics N.V. | Video retrieval of mpeg compressed sequences using dc and motion signatures |
JPH1196064A (ja) * | 1997-09-22 | 1999-04-09 | Nippon Telegr & Teleph Corp <Ntt> | 連続メディア情報アクセス方法、連続メディア情報アクセス装置及び連続メディア情報アクセスプログラムを記録した記録媒体 |
JP2000308017A (ja) * | 1999-04-20 | 2000-11-02 | Nec Corp | 映像視聴装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5684918A (en) * | 1992-02-07 | 1997-11-04 | Abecassis; Max | System for integrating video and communications |
US6553178B2 (en) * | 1992-02-07 | 2003-04-22 | Max Abecassis | Advertisement subsidized video-on-demand system |
KR19990072122A (ko) | 1995-12-12 | 1999-09-27 | 바자니 크레이그 에스 | 실시간 영상 전송 방법 및 장치 |
IL117133A (en) * | 1996-02-14 | 1999-07-14 | Olivr Corp Ltd | Method and system for providing on-line virtual reality movies |
US5930808A (en) * | 1996-05-30 | 1999-07-27 | Matsushita Electric Industrial Co., Ltd. | Data conversion apparatus for data communication system |
US6570587B1 (en) * | 1996-07-26 | 2003-05-27 | Veon Ltd. | System and method and linking information to a video |
JP3780623B2 (ja) * | 1997-05-16 | 2006-05-31 | 株式会社日立製作所 | 動画像の記述方法 |
US6463444B1 (en) * | 1997-08-14 | 2002-10-08 | Virage, Inc. | Video cataloger system with extensibility |
US6546555B1 (en) * | 1998-07-23 | 2003-04-08 | Siemens Corporate Research, Inc. | System for hypervideo filtering based on end-user payment interest and capability |
-
1999
- 1999-07-09 US US09/351,086 patent/US7356830B1/en not_active Expired - Fee Related
-
2000
- 2000-07-04 JP JP2001510127A patent/JP2003504952A/ja active Pending
- 2000-07-04 WO PCT/EP2000/006326 patent/WO2001004792A1/en active Application Filing
- 2000-07-04 EP EP00951340A patent/EP1110156A1/en not_active Withdrawn
- 2000-07-04 KR KR1020017003052A patent/KR100684484B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6385916A (ja) * | 1986-09-30 | 1988-04-16 | Toshiba Corp | 短縮キ−方式 |
JPH08272946A (ja) * | 1995-01-31 | 1996-10-18 | Omron Corp | 物体説明装置および物体説明方法 |
WO1997040454A1 (en) * | 1996-04-25 | 1997-10-30 | Philips Electronics N.V. | Video retrieval of mpeg compressed sequences using dc and motion signatures |
JPH1196064A (ja) * | 1997-09-22 | 1999-04-09 | Nippon Telegr & Teleph Corp <Ntt> | 連続メディア情報アクセス方法、連続メディア情報アクセス装置及び連続メディア情報アクセスプログラムを記録した記録媒体 |
JP2000308017A (ja) * | 1999-04-20 | 2000-11-02 | Nec Corp | 映像視聴装置 |
Non-Patent Citations (1)
Title |
---|
PAUL H. LEWIS, HUGH C. DAVIS, STEVE R. GRIFFITHS, WENDY HALL, ROB J. WILKINS: "Media-based Navigation with Generic Links", HYPERTEXT96, JPN7011000773, 16 March 1996 (1996-03-16), US, pages 215 - 223, XP058236649, ISSN: 0001865432, DOI: 10.1145/234828.234849 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005029353A1 (ja) * | 2003-09-18 | 2005-03-31 | Fujitsu Limited | 注釈管理システム、注釈管理方法、文書変換サーバ、文書変換プログラム、電子文書付加プログラム |
WO2019031397A1 (ja) * | 2017-08-07 | 2019-02-14 | ナーブ株式会社 | 画像表示装置、画像表示方法及び画像表示プログラム |
JPWO2019031397A1 (ja) * | 2017-08-07 | 2019-11-07 | ナーブ株式会社 | 画像表示装置、画像表示方法及び画像表示プログラム |
Also Published As
Publication number | Publication date |
---|---|
US7356830B1 (en) | 2008-04-08 |
WO2001004792A1 (en) | 2001-01-18 |
KR20010086393A (ko) | 2001-09-10 |
KR100684484B1 (ko) | 2007-02-22 |
EP1110156A1 (en) | 2001-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100684484B1 (ko) | 비디오 세그먼트를 다른 비디오 세그먼트 또는 정보원에링크시키는 방법 및 장치 | |
Tseng et al. | Using MPEG-7 and MPEG-21 for personalizing video | |
US9471936B2 (en) | Web identity to social media identity correlation | |
US9202523B2 (en) | Method and apparatus for providing information related to broadcast programs | |
US20030101104A1 (en) | System and method for retrieving information related to targeted subjects | |
US20160014482A1 (en) | Systems and Methods for Generating Video Summary Sequences From One or More Video Segments | |
US20020163532A1 (en) | Streaming video bookmarks | |
US20050038814A1 (en) | Method, apparatus, and program for cross-linking information sources using multiple modalities | |
JP2005512233A (ja) | 映像プログラムにおいて人物に関する情報を検索するためのシステムおよび方法 | |
US20030093580A1 (en) | Method and system for information alerts | |
JP2005509949A (ja) | 個人情報を検索、更新および提示する方法およびシステム | |
US20020144293A1 (en) | Automatic video retriever genie | |
CN114339360B (zh) | 一种视频处理的方法、相关装置及设备 | |
Lian | Innovative Internet video consuming based on media analysis techniques | |
JP5335500B2 (ja) | コンテンツ検索装置及びコンピュータプログラム | |
Luo et al. | Exploring large-scale video news via interactive visualization | |
Tseng et al. | Hierarchical video summarization based on context clustering | |
Guillemot et al. | A hierarchical keyframe user interface for browsing video over the internet | |
AT&T | ||
Liu et al. | Semantic extraction and semantics-based annotation and retrieval for video databases | |
Klippgen et al. | The Use of Metadata for the Rendering of Personalized Video Delivery. | |
Dimitrova et al. | Visual Associations in DejaVideo | |
Lyu et al. | Digital Video Library Network: System and Approach | |
Nishio et al. | An advanced processing environment for managing the continuous and semistructured features of multimedia content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100420 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100716 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110603 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110610 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110803 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110907 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120313 |