JP2003504952A - ビデオセグメントを別のビデオセグメント又は情報源にリンキングさせる方法及び装置 - Google Patents

ビデオセグメントを別のビデオセグメント又は情報源にリンキングさせる方法及び装置

Info

Publication number
JP2003504952A
JP2003504952A JP2001510127A JP2001510127A JP2003504952A JP 2003504952 A JP2003504952 A JP 2003504952A JP 2001510127 A JP2001510127 A JP 2001510127A JP 2001510127 A JP2001510127 A JP 2001510127A JP 2003504952 A JP2003504952 A JP 2003504952A
Authority
JP
Japan
Prior art keywords
video segment
video
characteristic
information
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001510127A
Other languages
English (en)
Inventor
ディミトロヴァ,ネヴェンカ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Electronics NV filed Critical Philips Electronics NV
Publication of JP2003504952A publication Critical patent/JP2003504952A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/748Hypervideo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/93Arrangements characterised by the broadcast information itself which locates resources of other pieces of information, e.g. URL [Uniform Resource Locator]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 所与のビデオセグメントは、一つ以上の他のビデオセグメント又は情報源を含むように構成される。所与のビデオセグメントは、オブジェクト、エンティティ、特徴、又は、セグメントの他の特性と同じ特性を含む少なくとも一つの追加的な情報源の間で関連付けを決定するために処理される。関連付けは、追加的な情報源からの情報にアクセスし、この情報を元のビデオセグメントと共に或いはその代わりにユーザに表示するために利用される。ビデオセグメントに対する一組の関連付けは、処理システムに記憶され得、又は、ビデオセグメントのトランスポートストリームのようにビデオセグメント自体の中に組込まれ得る。追加的な情報源は、例えば、追加的なビデオセグメント又は、指定された特性を含む聴覚、テキスト、又は、他の情報でもよい。この特性は、例えば、フレーム中の特定の顔、シーン、イベント、或いは、オブジェクトの識別のようなビデオセグメントのフレームから抽出されるビデオ特性、テーマ音楽の抽出、話者識別、又は、編曲抽出のような聴覚特性、又は、テキスト特性でもよい。本発明は、表示されるビデオセグメント中のオブジェクト又は他の特性をクリック又はその他選択することでユーザが情報にアクセスすることを可能にさせ、それによりそのセグメントに関連する情報の引き出しを容易化する。

Description

【発明の詳細な説明】
【0001】 本発明は、一般にビデオ信号処理、より特定的にはディジタルビデオストリー
ム又は他のタイプのビデオセグメントを処理する技法に関する。
【0002】 ハイパーメディア文書及び他の同様の用途においてビデオセグメントを処理す
る従来の技法は、非常に制限されたレベルのビデオベースの双方向性(interacti
vity)を提供する。ウェブページのようなハイパーメディア文書は、様々なビデ
オセグメントへのリンクをしばしば含むが、このような文書は主にテキストベー
スであり、典型的に画像及びビデオを例示的なエンティティとしてだけ利用する
【0003】 このような従来のビデオ処理の一例は、PCT明細書第WO97/22201
号に開示されるビデオモザイク(Video Mosaic)(ボザイク(Vosaic))シス
テムである。ボザイクシステムは、リアルタイムビデオを規格化されたハイパー
テキストページの中に組込み、インターネット又は他のタイプのネットワーク上
でのリアルタイムビデオの送信を取扱うためにビデオ・データグラム・プロトコ
ル(VDP)を利用する。VDPは、インターフレームジッタを最少化するため
に設計され、クライアントCPUロード及びネットワーク輻輳を動的に適合され
る。ボザイクでは、ビデオ情報は、埋め込まれたビデオを含むウェブページに対
するクライアントの要求に応答してサーバからクライアントへネットワーク上を
流れる。ボザイクシステムは、階層型情報、意味論上の説明、並びに、ビデオ情
報の階層型アクセス、ブラウジング、検索、及び、動的な構成に対する支持を提
供する注釈を含むいわゆるメタ情報の幾つかのクラスを提供する。
【0004】 しかしながら、ボザイクシステム及び他の同様の従来のシステムによって提供
される双方向性は、過度に制限されたままである。より特定的には、これらのシ
ステムはビデオセグメントに関連する情報への同時アクセスを提供することが一
般にできない。別の欠点は、ビデオが進行すると共にリンクが現われ消えること
をこのようなシステムが可能にさせない点である。更に、従来のシステムにおけ
るリンクは、ファイル又は他の文書のアドレス又は物理的な場所を含むユニフォ
ーム・リソース・ロケータ(URL)を提供するが、リンク自体に関する顕著な
追加的情報を一般に提供しない。更に、従来のシステムのリンクは、リンクとフ
ァイル又は他の文書の間が一般に1:1マッピングである。
【0005】 上記より明らかなように、上記従来のシステムに関する制限を有すること無く
改善されたビデオベースの双方向性をユーザに提供し得るビデオ処理技法が必要
である。
【0006】 本発明によると、ビデオセグメントは、一つ以上の他のビデオセグメント又は
情報源に対してリンクを含むよう構成される。ビデオセグメントは、セグメント
のオブジェクト、エンティティ、特徴、又は、他の特性と同じ特性を含む少なく
とも一つの追加的な情報源の間で関連付けを決定するためにビデオ処理システム
において処理される。関連付けは、追加的な情報源からの情報にアクセスするた
めに利用され、アクセスされた情報は元のビデオセグメントと共に或いはその代
わりに表示され得る。ビデオセグメントに対する一組の関連付けは、データベー
ス或いは処理システムの他のメモリに記憶され得、又は、ビデオセグメントのト
ランスポートストリームのようなビデオセグメント自体の中に組込まれ得る。追
加的な情報源は、例えば、指定された特性、指定された特性を含む可聴、テキス
ト或いは他の情報の源を含むビデオセグメントでもよい。特性は、特定の顔、シ
ーン、フレーム中のイベント或いはオブジェクトのようなビデオセグメントフレ
ームから抽出されるビデオ特性、テーマ音楽(music signature)の抽出、話者
識別或いは編曲(transcript)の抽出のような聴覚特性、又は、テキスト特性で
もよい。
【0007】 本発明の一実施例では、ユーザは表示されるビデオセグメント中のオブジェク
ト又は他の特性をクリッキング又はその他選択することで追加の関連する情報に
アクセスする。別の可能な実施例では、ビデオセグメント自体の情報はビデオセ
グメントコンテンツ、確立されたユーザの好み、時間等のような要素に従って関
連する情報を自動的に引き出すために使用されてもよい。
【0008】 本発明は、従来のビデオ処理システムに対して幾つかの利点を有する。例えば
、本発明は、オブジェクト、エンティティ、特徴、又は、所与のビデオセグメン
ト中の他の特性に関連する数多くの情報への同時アクセスを提供し得る。追加的
に、リンクはダイナミック、例えば、リンクは所与のビデオセグメント内で現わ
れ、消え、又は、さもなければ変化されてもよい。例えば、タイトル、監督、ス
タイル、ジャンル等のようなテキストリンクのように他のリンクがセグメント全
体にわたって利用できるようにされ得る。別の利点は、所与のリンクがファイル
又は文書のアドレス又は物理的な場所を含む単なるURLよりもリンク自体の性
質に関する情報を含み得る点である。更なる利点は、異なるリンクがコンテキス
ト、ユーザ、時間、場所等のような要素に基づいて発生され得る点である。更に
、mのオブジェクト、エンティティ、特徴、又は、所与のビデオセグメント中の
他の特性と、nのビデオセグメント又はmの特性からアクセスされ得る他の情報
源の間でm:nマッピングを実行するために使用され得る。これは、従来のハイ
パーメディア文書の典型的な1:1マッピングに対して著しい改善である。本発
明の上記及び他の特性は、添付の図面及び以下の詳細な説明からより明らかにな
る。
【0009】 図1は、本発明が実行されてもよいビデオ処理システム10を示す。システム
10は、デスクトップ、ラップトップ或いはパームトップコンピュータ、パーソ
ナル・ディジタル・アシスタント(PDA)、テレビジョン或いはセットトップ
ボックス、及び、これら並びに他の装置の一部分又は組み合わせを表わしてもよ
い。システム10は、一つ以上のビデオ源12、一つ以上の入力/出力装置14
、プロセッサ15、及び、メモリ16を含む。入力/出力装置14、プロセッサ
15、及び、メモリ16は、通信媒体17上で通信される。通信媒体17は、例
えば、バス、通信エンットワーク、回路、回路カード或いは他の装置の一つ以上
の内部接続、及び、これら並びに他の通信媒体の一部分及び組み合わせを表わし
てもよい。
【0010】 源12からの入力ビデオは、メモリ16に記憶される一つ以上のソフトウェア
プログラムに従って処理され、例えば、テレビジョンディスプレイ、コンピュー
タモニタ等のディスプレイ装置18に供給される出力ビデオを生成するためにプ
ロセッサ15によって実行される。ビデオ源12は、インターネット、広域ネッ
トワーク、メトロポリタン・エリア・ネットワーク、ローカル・エリア・ネット
ワーク、地上放送システム、ケーブルネットワーク、衛星ネットワーク又は電話
ネットワーク、並びに、これら及び他のタイプのネットワーク又はシステムの一
部分又は組み合わせのようなグローバル・コンピュータ通信ネットワーク上でサ
ーバ又は複数のサーバからビデオを受信する一つ以上のネットワーク接続を表わ
してもよい。
【0011】 図1に示すようなシステム10の特定の構造は例によってだけであることが理
解されるべきである。本発明の他の実施例では、本願で詳細に説明されるべき一
つ以上のビデオ処理動作は分配された方法、例えば、ネットワーク又は幅広い他
の選択的な構造における多数のコンピュータ又は他の装置上で分配され実行され
てもよい。
【0012】 本発明は、図1のシステム10において実行されてもよい“Deja Video”と
も称されるビデオ処理フレームワークを提供する。このビデオ処理フレームワー
クは、ユーザが現在観ているオブジェクト、可聴、又は、ビデオセグメント中の
他の特性に対して確立される一組の関連付けに基づいてビデオセグメント、テキ
スト、又は、他のマルチメディア文書にアクセスすることをこの所与のシステム
ユーザに可能にさせる。従って、本発明は、例えば、ユーザが既に観た或いは聞
いたことのあるものとの類似性を見出すことで他のビデオセグメント中の新しい
コンテンツを双方向に探ることを可能にさせる。更に、本発明は、例えば、グラ
フィックスオーバーレイモード又は他のタイプのディスプレイモードにテキスト
又は他の情報を組込むことにより、現在観ているビデオセグメント中のオブジェ
クトについての追加的な情報を提供し得る。ビデオセグメント中の1シーンから
別ビデオセグメント中の別のシーンへの滑らかな移動は、画像モーフィングのよ
うな周知の従来の視覚効果を通じて実施され得る。本発明の好ましい実施例は、
以下の4つの主な要素を含む。
【0013】 1.リンク。リンクは、2つのエンティティ又は他の特性間の物理的な関係を
定義する。例えば、ビデオセグメントnews1.mpg中のフレーム1237
3における幅=50、高さ=60の境界箱を含み座標x=150、y=20に重
心が位置決めされる対象物O1は、ビデオセグメント143.mpg中のフレー
ム1045とリンクされる。
【0014】 2.関連付け。関連付けは、2つのエンティティ又は他の特性間で形成される
対応する物理的リンクを説明する情報を一般に含む。例えば、所与の俳優の顔の
特性及び俳優の名前が挙げられるビデオクリップのような2つのエンティティ間
で意味論上の関系があってもよい。この場合、関連付けは、リンクがどのように
して且つ何故形成されたかを説明する情報を含んでもよい。別の例として、リン
クが2つの異なる映画からの2つのビデオセグメントの間の視覚的な類似性に基
づく場合、対応する関連付けは類似性、持続時間等の率を定義してもよい。
【0015】 本願で使用されるように「関連付け」といった用語は、ビデオセグメント中の
所与の特性と別のセグメント又は他の情報源中の関連する特性との間のリンク又
は他の関系を識別又はその他特徴付ける全てのタイプの情報に一般的に指すこと
を意図する。例えば、本願で広義に定義されるように「関連付け」といった用語
は、適用法により、前述の物理的リンク自体以外の追加的な情報を含まなくても
よい。
【0016】 3.2つの関連するエンティティ又は他の特性を関係付けるための表示中の変
換及び対話モード。例えば、ビデオAからビデオBのフレーム、リンクされたテ
キストのオーバーレイ、URL、現在のビデオに対する画像又は物語情報、別の
ウィンドウ中のディスプレイ、後で観るために店に関連する情報等の間をモーフ
ィングすることである。
【0017】 4.コンテキスト、ユーザ、時間等の追加的な要素。現在表示される番組、即
ち、その番組のコンテンツのカテゴリーに基づき他のコンテンツに対してアクテ
ィブな異なるリンクがあり得る。例えば、ドキュメンタリー番組の放送中に、百
科事典へのリンクがアクティブでもよい。コマーシャル中、関連する製品又は最
も近い店へのリンクがアクティブとされ得る。ユーザに関する予備知識、例えば
、年齢、性別、関心等に基づき、異なるリンクがアクティブにされ得る。更に、
一日のある時間において対話及び変換の好ましいモードが記憶されたユーザの好
みに基づいて変化され得る。
【0018】 本発明の好ましい実施例は上述の基本的な要素を夫々含むが、本発明の他の実
施例は、これら要素全て又はそのサブセットに基づいてもよい。
【0019】 所与のビデオセグメントと一つ以上の他のビデオセグメント又は情報源との間
のリンクを説明するために使用される上述の関連付けは、以下を含み様々な異な
る方法で形成され得る。
【0020】 1.視覚的類似性。関連付けは、フレームの視覚的な様子における類似性に基
づいて確立され得る。この視覚的類似性は、例えば、色、形状、特定の対象物へ
の類似性、又は、概念的なタイプのオブジェクトの類似性に基づき得、及び、例
えば、二次元、2.5次元即ちコンピュータビジョン、又は、三次元でもよい。
関連付けは、この場合、図4と共に以下に詳細に説明されるようなコンテンツベ
ースの特徴抽出を使用して決定され得る。ビデオシーケンス間の視覚的類似性を
抽出する技法に関する追加的な詳細は、例えば、発明者Nevenka Dimitrova及び
Mohamed Abdel−Mottalebの名において1999年2月9日に発行された“Vide
o Retrieval of MPEG Compressed Sequences Using DC and Motion S
ignatures”なる名称の米国特許第5,870,754号においてみつけられ得
る。
【0021】 2.シーン類似性。例えば、海のシーンが同様の海のシーンを含むビデオセグ
メントに対してリンクを設けるために使用され得る。この場合、関連付けは、例
えば、キーワードが特定のビデオシーンに含まれるシソーラスに基づいてもよい
【0022】 3.イベント類似性。例えば、所与のビデオセグメントにおける結婚式のイベ
ントは結婚式のビデオセグメントへのアクセスをリンクし得る。イベントの関連
付けは、速い動作、アクション、又は、一組のキーワドのような同様の特性を使
用して決定され得る。イベントの関連付けは、例えば、ローレベル特性及び概念
によって表わされる意味論上の特性の組み合わせを使用して確立され得る。
【0023】 4.テキスト類似性。関連付けは、例えば、タイトルクレジット中のテキスト
の編曲又は認識された特徴を通じて確立されてもよい。この場合の関連付けは、
例えば、統計的なテキストインデクシング方法を使用して得られてもよい。別の
例として、関連付けは簡単なキーワード又はキーワードがその最も近いコンセプ
トと関連付けられるコンセプトシソーラスを使用して得られ得る。
【0024】 5.話し言葉類似性。話し言葉又は特定の種類の音と関連する特定のコンセプ
トは、同様の言葉又は音を有する別のビデオセグメントに対してリンクを設け得
る。この場合、実際のリンクが話し言葉自体に基づいてもよいが音声−テキスト
変換が関連付けを確立するための基盤として使用されてもよい。
【0025】 6.声類似性。特定の俳優又は有名人の声のある特徴が同じ又は同様の声を含
む他のビデオセグメントとリンクされるために使用され得る。別の例として、特
定のエネルギー、帯域幅、ピッチ、又は、他の特徴で特徴付けられる可聴イベン
トが他の同様の可聴イベントに対してリンクを設けるために使用され得る。
【0026】 7.多数のタイプ。上述の関連付けの組み合わせが使用されてもよい。例えば
、自然界映画のビデオセグメントにおいて赤色、及び、単語「キャニオン」と組
み合わされる水の流れる音は、ハイキングの旅のビデオセグメント、又は、ハイ
キング道具のウェブページにリンクを設け得る。別の例として、所与のビデオセ
グメント中の特定の俳優の顔にクリックする又はその他選択するユーザは、俳優
の名前が提供されてもよく、俳優個人のウェブページにリンクされてもよい。
【0027】 8.関連付け類似性。ビデオA及びビデオBがビデオCに対して同様の関連付
けを有する場合、ビデオA及びビデオBは夫々ビデオA及びBからの全ての関連
付け(又は、これら関連付けの適切な組み合わせ又はサブセット)を受け継いで
もよい。
【0028】 周知の抽出方法は、上述の関連付けを実行することに関して一次元又は多次元
特性のベクトルを計算するために使用されてもよい。例えば、本発明は、ビデオ
特性間の関連付けを決定するために、特性の分類及びクラスタリングの従来の方
法、並びに、類似性計算(又は距離計算、距離=1−類似性)方法を利用し得る
。ビデオ及び可聴類似性の場合、本発明は特性ベクトルを抽出し得、L1、L2
、カイ二乗等のような規格距離測定を使用して類似性を計算し得る。フレーム類
似性は、例えば、N.Dimitrova,J.Martino,L.Agnihotri,及び,H.Elenbaas,
“Color Super−histograms for Video Representaion”,IEEE Internatio
nal Conference on Image Processing, Kobe, Japan 1999中に記載され
る技法を使用してフレームヒストグラムに基づいて計算され得る。離散コサイン
変換係数を使用する、フレーム類似性を決定する別の既知の方法は、N.Dimitrov
a,T.McGee,及び,H.Elenbaas, “Video Keyframe Extraction and Filt
ering:A Keyframe is not a Keyframe to Everyone”,Proceedings o
f ACM Conference on Information and Knowledge Management,Nov.19
97に記載される。
【0029】 以下に詳細に説明するように、これら関連付けに関係する情報及び対応するリ
ンクは、例えば、ディジタルビデオストリームの一部又は別のデータベース或い
は他のタイプのシステムメモリに記憶されて実行され得る。
【0030】 本発明によると、各ビデオセグメントは、ハイパードキュメントとして考えら
れてもよい。例えば、画像中に現われるテキストは百科事典に対するリンク、又
は、オンライン新聞又は他の情報源に対するクエリーとして扱われ得る。所与の
ビデオセグメント内の全ての静的又は動的オブジェクトは、別のビデオセグメン
ト又は情報源にリンクされ得る。例えば、ユーザは特定の俳優の画像を含む現在
観ているビデオセグメントから、その俳優と関連する別のビデオセグメントにア
クセスし得る。同様にして、全ての他のエンティティ、イベント、現在の話、又
は、現在観ているビデオセグメントの他の特性は、関連する特性を含む他のビデ
オセグメント又は情報源へのリンクとなってもよい。これらのリンクは、例えば
、映画中の特定のキャラクタを他の映画、文書等に蓄積されるそのキャラクタの
全ての他の経験又は「メモリ」と関連付けることを可能にさせる。
【0031】 図2は、本発明の示す実施例におけるビデオセグメント間のリンキングの例を
示す。図2の例は、4つの相互に関係付けられるビデオセグメント、ビデオA、
ビデオB、ビデオC、及び、ビデオDを含む。各ビデオセグメントは、幾つかの
フレーム20を有する。本発明によると、所与のビデオセグメント中のあるフレ
ームと他のビデオセグメント中の他の同様のフレームとの間でリンクが確立され
る。より特定的には、ビデオBのフレーム20−1は、例えば、各フレーム中に
家があるといったフレーム間の視覚的類似性に基づいてビデオAの同様のフレー
ム20−2、ビデオCの20−3、及び、ビデオDの20−4にリンクされる。
同様の方法で、ビデオBのフレーム20−5は、各フレーム中に同じ俳優又は他
の個人が存在するといったフレーム間の視覚的類似性に基づいてビデオCのフレ
ーム20−6にリンクされる。
【0032】 本願で使用されるように「ビデオセグメント」といった用語はフレーム、フレ
ームの組、又は、所与のビデオ信号の可聴部分を含むビデオ信号の全ての他の部
分を含むことを意図する。異なるビデオセグメントは、異なるビデオ信号の一部
分でもよいが必要ではない。例えば、図2に示される2つ以上のビデオ信号は同
じビデオ信号の別個の部分を表わしてもよい。
【0033】 図3は、本発明によるビデオセグメント間のリンキングを実行するために利用
されてもよいユーザインタフェースの例を示す。本例では、ビデオフレーム30
はメインウィンドウ32とメインウィンドウ32の周りに配置されるウィンドウ
34のような幾つかの二次ウィンドウとを有する。本発明によると、フレーム2
0の各二次ウィンドウはメインウィンドウ32中のディスプレイに対して何らか
の関係を有する。これらの関係は、フレーム30中小さい矢印によって示される
。例えば、ウィンドウ34は、メインウィンドウ32中に現われるアンカーパー
ソンと同じアンカーパーソンの画像を含む。この画像は、同じアンカーパーソン
による異なるニュース放送の別のビデオセグメントのフレームでもよい。
【0034】 ユーザは、適当な選択コマンドをシステム10に入力することでウィンドウ3
4に対応するビデオセグメントにリンクし得、現在表示されているビデオセグメ
ントがフレーム30の二次ウィンドウ34中に前に表示されたフレーム36を含
むセグメントとなる。本発明による所与のビデオセグメントと他のビデオセグメ
ント又は情報源の間でリンクを提供するために多数の他のタイプのユーザインタ
フェース配置が使用されてもよいことに注意するべきである。例えば、リンクが
視覚的、聴覚の、又は、概念上の関連付けに基づき得るため、インタフェースは
、例えば、リモート・コントロール、マウス、又は、他のポイントーアンドーク
リック装置によって制御されるオンスクリーン矢印、のような様々なポインティ
ング装置を適合させるために様々な方法で表示され得る。
【0035】 図4は、視覚的類似性に基づく関連付けと共に上述したように例えば、本発明
の技法を使用して他のビデオセグメントとの関連付けが所与のビデオセグメント
から抽出され得る方法を示す。入力ビデオは従来のビデオカット検出モジュール
40において最初に処理され、このビデオカット検出モジュールの動作は技術に
おいて周知である。ビデオカット検出モジュール40の結果として生じられる出
力は、関連付けを形成するために使用される意味論的に意味のある特性を抽出す
るために更に処理される。所与のビデオセグメント中の各フレームは、色、テク
スチャ、形状等に基づく一組のビデオ特性によって一般に特徴付けられる。ビデ
オセグメントのフレームの領域は、これらの特性を検出するために処理される。
【0036】 本例におけるビデオ特性の検出は、フレームの特徴付け41、顔の識別42、
及び、オブジェクトの識別43に基づく。検出された特性は、規則データベース
45に記憶される意味論上の関連する規則を使用して関連付けエンジン44にお
いて処理される。例えば、データベース45中の関連付け規則の所与の一つは顔
A、例えば、特定の俳優又は有名人の顔がビデオX中のフレームVと関連付けら
れるべきことを示す。一つ以上の他のビデオセグメントが同じ特性を検出するた
めに同様の方法で処理される。関連付けエンジン44の出力は、関連付け索引4
8に記憶され特定のビデオ特性が現される多数のビデオセグメント中のフレーム
を示す一つ以上の関連付けである。
【0037】 規則データベース45中の意味論上の関連付け規則は顔の特性、例えば、所与
のいわゆる固有の顔ベクトルを特定の人の名前とどのようにして関連付けるかを
説明する情報を含んでもよい。これらの規則は、例えば、ニューラルネットワー
クのような学習アルゴリズムの使用を通じて時間を経て発展及び変化され得る。
この場合、最初の組の規則は、システムがセットアップされるときにシステム設
計士によって確立されてもよく、システムは一旦顔及び名前情報の十分なデータ
ベースが蓄積されると追加の新しい顔−名前関連付けを自分で追加し得る。
【0038】 図5に示される同様のアプローチ法は、音楽、なじみのある声、及び、言葉の
関連付けのような聴覚特性に基づいて関連付けを抽出するために使用され得る。
この場合、入力ビデオは、その可聴部分を単一の音声、複数の音声、音楽、サイ
レンス、及び、ノイズのようなカテゴリにセグメント化させるために可聴特徴付
けモジュール50で処理される。所与のビデオセグメント中の各フレームは、メ
ル周波数ケプストラム係数(MFCC)、フーリエ係数、基本周波数、帯域幅等
のような一組の聴覚特性によって一般に特徴付けられる。ビデオセグメントのフ
レームは、これら聴覚特性を検出するために処理される。
【0039】 本例における聴覚特性の検出は、音楽セグメント署名抽出51、話者識別52
、及び、編曲の抽出53に基づく。検出される聴覚特性は、意味論上の関連する
規則データベース45からの規則と検出される聴覚特性を照合させることを試み
る照合動作54において処理される。例えば、データベース45中の意味論上の
関連する規則の所与の一つは、声A、例えば、特定の俳優又は有名人の声、がビ
デオY中のフレームCと関連付けられるべきであることを示す。一つ以上の他の
ビデオセグメントは、同じ聴覚特性を検出するために同様の方法で処理される。
照合動作54の出力は、関連付け索引48に記憶され特定の聴覚特性が現される
多数のビデオセグメントのフレームを示す一つ以上の追加の関連付けである。
【0040】 図6は、例えば、図4及び図5において説明される方法に基づいて決定される
関連付けに基づく本発明の実施例における実行時リンキング及び切換を示す。ユ
ーザが所与のビデオセグメント、即ち、ビデオXを観ると、実行時グラフィック
ス環境60がユーザの動作をモニタする。ビデオセグメント中のオブジェクトが
「アクティブ」例えば、ユーザによってクリック又はその他選択される場合、こ
の動作は検出動作62において検出される。関連付け索引48は、そのオブジェ
クトに関して検索され、動作の関連付け規則65のデータベースに基づいて適当
なビデオ切換動作64が実施される。例えば、関連付け索引48がビデオX中の
選択されるオブジェクトに類似する別のビデオセグメント例えば、同様のフレー
ムコンテンツを含む同様のビデオセグメントビデオYがあることを示す場合、動
作は現在観ているビデオXをビデオYの中にモーフィングさせることでもよい。
従って、システムは、ビデオXにおいてユーザによって選択されるオブジェクト
に基づいてビデオYに切換えられる。前述の通り、ビデオセグメント中の一シー
ン、即ち、ビデオXから別のシーン、即ち、ビデオYへの移動は画像モーフィン
グのような周知の従来の視覚効果を通じて実施され得る。
【0041】 図6に示されるような実行時リンキング及び切換はアクティブモード又はパッ
シブモードのいずれかにおいて実行されてもよいことに注意するべきである。ア
クティブモードでは、リンキング及び切換は、ユーザ、例えば、ビデオセグメン
ト中の所与の特性をクリッキング又はその他選択するユーザによって活性的にな
される実際の選択に基づく。パッシブモードでは、ビデオセグメント自体に含ま
れる又はシステムの他の場所に記憶されるキュー又は他の適切な情報識別子が例
えば、PIP又はディスプレイの他のウィンドウに表示されるためにリンクされ
た情報の引き出しを自動的に活性化させるために使用されてもよい。
【0042】 本発明の他の実施例では、現在観ているビデオセグメントと別のビデオセグメ
ント又は情報源の間で切換は必要ない。例えば、選択されるリンクがテキスト形
態にある情報に対しての場合、その情報は選択されたオブジェクトの上又は任意
の形状の別のボックス中にオーバーレイモード、例えば、ビデオの上で表示され
得る。このタイプの一つの特定の実施では、選択されるリンクはインターネット
又は他のネットワーク上で利用できる一つ以上のハイパーテキスト文書の引き出
しをトリガしてもよい。別の例として、選択されたリンクが聴覚の情報に対して
である場合、聴覚の情報は現在観ているビデオセグメントの可聴信号と混合、又
は、テキストフォーマットで転記されビデオセグメントと共に表示され得る。追
加的に、リンクが別のビデオセグメントに対してである場合、そのセグメントは
現在観ているビデオセグメントの代わりとしてよりも現在観ているビデオセグメ
ントと同時にディスプレイの別のウィンドウ、例えば、ピクチャ−イン−ピクチ
ャ(PIP)ウィンドウに表示され得る。
【0043】 本発明の特定の実行に関する追加の詳細をここで説明する。本発明によると、
MPEGビデオビットストリーム又は他のタイプのビデオセグメントは、ビデオ
セグメントのフレームと他のビデオセグメントのフレーム間で類似性値又は他の
情報を関連付ける関連付けを用いて高められ得る。ユーザデータフィールド又は
トランスポートストリームにMPEGビットストリームにおけるこれら関連付け
を挿入することが可能である。この高められたビットストリームの実行では、ビ
デオエンコーダがユーザデータフィールドにおいて指定されたコードを見つける
度に例えば、適当に構成されたDeja Video実行エンジンにコールを実施する。
このような実行エンジンは、ユーザ入力に従い受け入れるため、ユーザによって
選択されるようにリンクへのアクセスを実行するため、及び、選択されるリンク
における情報の表示を実施するために明白な方法で構成され得る。非MPEGス
トリームに対して、関連付けを含むトランスポート層がビデオセグメントの周り
に形成され得る。
【0044】 別の可能な実行は、関連付け、対話方法、新しいコンテンツ即ち、特定のリン
クによって識別されるあて先コンテンツの表示方法を含む別のデータベースを形
成することを伴う。ビデオ再生中、対応するフレーム中にだけあるコマンド又は
リンクを可能にする時間的マスクを提供するために対応するリンクに関して時間
的カウンタレファレンスが維持されてもよい。このような実行において、利用で
きるビデオセグメント又はリンクによって識別される他の情報源は、データベー
スに記憶されてもよく、又は、URL或いは他の適切な識別子によってアクセス
可能な遠隔な機械に記憶されてもよい。
【0045】 本発明に従って構成される所与のビデオセグメントは、従って、上記関連付け
、ポインティング方法即ちビデオセグメント中のオブジェクト又は他の特性を選
択する方法、リンクされた情報の表示方法、リンクされた情報の変換方法即ちオ
ーバーレイ、PIP等、テキスト或いはウェブページのようなライトウェイトタ
ーゲット及び他のビデオセグメントのようなヘビーウェイトターゲットに対する
場所特定子、及び、ユーザプロファイル、場所、時間、好み等のようなユーザに
関する追加的な情報に基づいてリンクを決定する際に関連付けによる使用のため
のコンテクスト機能のような情報を含んでもよい。
【0046】 本発明のリンキング技法は、ビデオ検索及びブラウジング、並びに、例えば、
ビデオ編集ソフトウェア、ゲーム等におけるコンテンツ作成のような用途に特に
適切である。本発明が利用されてもよい特定のビデオ処理適用の例を以下に示す
【0047】 1.コンテンツ・オーサリング・ツール。このようなツールは、充分な未処理
の映画フィルムが無くても既存の素材からビデオ素材を作成し、異なる環境にお
けるビデオオブジェクトへのアクセスを提供するために使用される。
【0048】 ビデオアクセス。本発明は、テレビジョンブラウジング、サーフィング、及び
、他のタイプのビデオアクセス技法に使用され得る。例えば、ユーザは現在観て
いるビデオセグメントに関連する幅広いアレイの情報、例えば、現在観ているビ
デオセグメント中の特定の関心シーンに類似するシーンを含む全ての他の映画又
は番組にアクセスするために確立されたリンクを利用し得る。本発明は、情報へ
のアクセスがかなり簡易化されるようビデオと他の情報コンテンツの間にインタ
ラクティブな関係を設ける。
【0049】 3.ビデオアーカイブ探索。本発明は、ジャンル、監督、俳優、イベント、シ
ーン等のような特性に基づいて、ビデオストア、フィルムアーカイブ、又は、他
のタイプのビデオアーカイブ中のビデオをリンクさせるために使用され得る。リ
ンクは、貸し出しされ得る他のビデオ、又は、特定俳優又は映画のファングルー
プと関連するウェブページのような他の情報チャンネルにユーザを導き得る。
【0050】 4.ウェブベースのビデオブラウジング。本発明は、現在観ているビデオセグ
メント中のリンクされたオブジェクトに基づくウェブドキュメントにアクセスす
るために使用され得る。
【0051】 5.教育ツール。子供達は、教育ビデオを見る間、特定のオブジェクトをクリ
ックし概念的に関連する情報を含む同様のビデオ又はウェブページを受信し得る
【0052】 本発明は、従来のビデオ処理システムに対して幾つかの利点を有する。例えば
、本発明は、所与のビデオセグメント中のオブジェクト、エンティティ、特徴、
又は、他の特性に関連する数多くの情報への同時アクセスを提供し得る。追加的
に、リンクはダイナミック、例えば、リンクは所与のビデオセグメント内で現わ
れ、消え、又は、さもなければ変化されてもよい。例えば、タイトル、監督、ス
タイル、ジャンル等のようなテキストリンクのように他のリンクがセグメント全
体にわたって利用できるようにされ得る。
【0053】 別の利点は、所与のリンクがファイル又は文書のアドレス又は物理的な場所を
含む単なるURLよりもリンク自体の性質に関する情報を含み得る点である。例
えば、特定の地理的な領域に関するドキュメンタリー映画において、ユーザは、
例えば、sひょのフレームのバックグラウンドにおける地図を指すことで人口、
出生率、又は、領域の簡潔な歴史に関する情報を得られる。
【0054】 更なる利点は、異なるリンクがコンテキスト、ユーザ、時間、場所等のような
要素に基づいて発生され得る点である。例えば、子供及び大人に対するリンクは
完全に異なり得る。
【0055】 更に、mのオブジェクト、エンティティ、特徴、又は、所与のビデオセグメン
ト中の他の特性と、nのビデオセグメント又はmの特性からアクセスされ得る他
の情報源の間でm:nマッピングを実行するために使用され得る。これは、従来
のハイパーメディア文書の典型的な1:1マッピングに対して著しい改善である
【0056】 本発明の上述の実施例は、例示目的だけである。例えば、本発明は、全ての所
望のタイプのビデオ処理システム又は装置、及び、本願で説明した以外の多くの
用途においてたのタイプのビデオリンキングを実行するために使用され得る。本
発明は、その他従来の電子、磁気、或いは、光記憶媒体又は他のタイプのメモリ
に記憶され適切なマイクロプロセッサ、中央処理ユニット、特定用途向け集積回
路(ASIC)又は他のタイプのプロセッサによって実行される一つ以上のソフ
トウェアプログラムの形態に少なくとも部分的には実行され得る。例えば、この
ようなプログラムは、図1のシステム10におけるメモリ16に記憶されプロセ
ッサ15によって実行されてもよい。添付の特許請求の範囲内の上記及び多数の
他の実施例は当業者に明らかである。
【図面の簡単な説明】
【図1】 本発明が実行されてもよいビデオ処理システムのブロック図である。
【図2】 本発明の実施例における多数のビデオセグメント間のリンキングを示す図であ
る。
【図3】 実際のビデオセグメントの本発明によるリンキングを含む部分を有するユーザ
インタフェースの例を示す図である。
【図4】 本発明の実施例における一つのビデオセグメントから他のビデオセグメントと
の関連付けの抽出を示す図である。
【図5】 本発明の実施例における一つのビデオセグメントから他のビデオセグメントと
の関連付けの抽出を示す図である。
【図6】 本発明の実施例における実行時リンキング及び切換を示す図である。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/45 H04N 5/45 Fターム(参考) 5B075 KK07 ND12 NK44 PP03 PP13 PQ02 PQ32 UU34 5C025 BA25 BA27 BA28 BA30 CA06 CA09 CB10 DA01 DA05 DA10 【要約の続き】 メント中のオブジェクト又は他の特性をクリック又はそ の他選択することでユーザが情報にアクセスすることを 可能にさせ、それによりそのセグメントに関連する情報 の引き出しを容易化する。

Claims (23)

    【特許請求の範囲】
  1. 【請求項1】 ビデオを処理する方法であって、 特定の特性を含む第1のビデオセグメントと上記特性を含む少なくとも一つの
    追加的な情報源との間で関連付けを決定する段階と、 少なくとも部分的にはユーザによる上記第1のビデオセグメントにおける上記
    特性の選択に基づく上記追加的な情報源からの情報を表示するために上記関連付
    けを利用する段階とを有する方法。
  2. 【請求項2】 上記決定段階はメモリから上記関連付けを引き出す段階を含
    む請求項1記載の方法。
  3. 【請求項3】 上記決定段階は上記ビデオセグメントの一部分における情報
    から上記関連付けを決定することを含む請求項1記載の方法。
  4. 【請求項4】 上記追加的な情報源は上記特性を含む追加的なビデオセグメ
    ントを有する請求項1記載の方法。
  5. 【請求項5】 上記利用段階は、上記第1のビデオセグメントのディスプレ
    イから上記特性を含む上記追加的なビデオセグメントのディスプレイへの切換を
    含む請求項4記載の方法。
  6. 【請求項6】 上記利用段階は、上記第1のビデオセグメントの少なくとも
    一部分を含むディスプレイの別の部分に上記追加的なビデオセグメントを少なく
    とも部分的に表示することを含む請求項4記載の方法。
  7. 【請求項7】 上記特性は上記ビデオセグメントの少なくとも一つのフレー
    ムから抽出されるビデオ特性である請求項1記載の方法。
  8. 【請求項8】 上記ビデオ特性はフレームの特徴、顔の識別、シーンの識別
    、イベントの識別、及び、オブジェクトの識別の少なくとも一つを有する請求項
    7記載の方法。
  9. 【請求項9】 上記特性は上記ビデオセグメントの少なくとも一つのフレー
    ムから抽出される聴覚特性である請求項1記載の方法。
  10. 【請求項10】 上記利用段階は、上記聴覚特性に対応する可聴信号を上記
    第1のビデオセグメントに関連する可聴信号と組み合わす、又は、テキストフォ
    ーマットに転記し上記ビデオセグメントと共に表示することを含む請求項9記載
    の方法。
  11. 【請求項11】 上記利用段階は上記聴覚特性に対応する可聴信号を上記第
    1のビデオセグメントと表示されるテキストフォーマットに変換することを含む
    請求項9記載の方法。
  12. 【請求項12】 上記ビデオセグメントから聴覚特性を抽出するために一つ
    以上の単一の音声、複数の音声、音楽、サイレンス、ノイズを含む可聴カテゴリ
    に上記ビデオセグメントの少なくとも一部分を分離することを含む請求項9記載
    の方法。
  13. 【請求項13】 上記聴覚特性はテーマ音楽の抽出、話者識別、及び、編曲
    抽出の少なくとも一つを有する請求項9記載の方法。
  14. 【請求項14】 上記特性は上記ビデオセグメントの少なくとも一つのフレ
    ームから抽出されるテキスト特性である請求項1記載の方法。
  15. 【請求項15】 上記利用段階がテキスト情報に対応する情報をオーバーレ
    イとして上記第1のビデオセグメントのディスプレイ上に表示することを含む請
    求項14記載の方法。
  16. 【請求項16】 上記決定段階は、少なくとも部分的には特徴抽出技法を使
    用して上記ビデオセグメントの一部分から抽出される少なくとも一つの多次元の
    特性ベクトルに基づく上記関連付けを決定することを含む請求項1記載の方法。
  17. 【請求項17】 上記決定段階は、少なくとも部分的には類似性尺度及びク
    ラスタリング技法の少なくとも一つに基づく上記関連付けを決定することを含む
    請求項1記載の方法。
  18. 【請求項18】 ビデオを処理する装置であって、 特定の特性を含む第1のビデオセグメントと上記特性を含む少なくとも一つの
    追加的な情報源の間の関連付けを記憶するメモリと、 上記メモリに結合され、少なくとも部分的にはユーザによる上記第1のビデオ
    セグメント中の上記特性の選択に基づく上記追加的な情報源からの情報の表示を
    命令するよう上記関連付けを利用するために動作されるプロセッサとを有する装
    置。
  19. 【請求項19】 ビデオを処理する装置であって、 (i)特定の特性を含む第1のビデオセグメントと上記特性を含む少なくとも
    一つの追加的な情報源の間の関連付けを決定し、 (ii)ユーザによる上記第1のビデオセグメント中の上記特性の選択に少な
    くとも部分的には基づく上記追加的な情報源からの情報を表示するために上記関
    連付けを利用するために動作されるプロセッサを有する装置。
  20. 【請求項20】 一つ以上のソフトウェアプログラムを含む機械可読媒体で
    あって、 上記ソフトウェアプログラムが実行されると、特定の特性を含む第1のビデオ
    セグメントと上記特性を含む少なくとも一つの追加的な情報源の間の関連付けを
    決定する段階と、 ユーザによる上記第1のビデオセグメント中の上記特性の選択に少なくとも部
    分的には基づく上記追加的な情報源からの情報を表示するために上記関連付けを
    利用する段階とを実行する機械可読媒体。
  21. 【請求項21】 ビデオを処理する方法であって、 第1のビデオセグメントの一部分における情報から上記第1のビデオセグメン
    トの特定の特性と上記特性を含む少なくとも一つの追加的な情報源との間の関連
    付けを決定する段階と、 上記追加的な情報源からの情報を表示するために上記関連付けを利用する段階
    とを有する方法。
  22. 【請求項22】 ビデオを処理する装置であって、 (i)第1のビデオセグメントの一部分における情報から上記第1のビデオセ
    グメントの特定の特性と上記特性を含む少なくとも一つの追加的な情報源との間
    の関連付けを決定し、 (ii)上記追加的な情報源からの情報を表示するために上記関連付けを利用
    するために動作されるプロセッサを有する装置。
  23. 【請求項23】 一つ以上のソフトウェアプログラムを含む機械可読媒体で
    あって、 上記ソフトウェアプログラムが実行されると、第1のビデオセグメントの一部
    分における情報から上記第1のビデオセグメントの特定の特性と上記特性を含む
    少なくとも一つの追加的な情報源との間の関連付けを決定する段階と、 上記追加的な情報源からの情報を表示するために上記関連付けを利用する段階
    とを実行する機械可読媒体。
JP2001510127A 1999-07-09 2000-07-04 ビデオセグメントを別のビデオセグメント又は情報源にリンキングさせる方法及び装置 Pending JP2003504952A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/351,086 1999-07-09
US09/351,086 US7356830B1 (en) 1999-07-09 1999-07-09 Method and apparatus for linking a video segment to another segment or information source
PCT/EP2000/006326 WO2001004792A1 (en) 1999-07-09 2000-07-04 Method and apparatus for linking a video segment to another video segment or information source

Publications (1)

Publication Number Publication Date
JP2003504952A true JP2003504952A (ja) 2003-02-04

Family

ID=23379509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001510127A Pending JP2003504952A (ja) 1999-07-09 2000-07-04 ビデオセグメントを別のビデオセグメント又は情報源にリンキングさせる方法及び装置

Country Status (5)

Country Link
US (1) US7356830B1 (ja)
EP (1) EP1110156A1 (ja)
JP (1) JP2003504952A (ja)
KR (1) KR100684484B1 (ja)
WO (1) WO2001004792A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005029353A1 (ja) * 2003-09-18 2005-03-31 Fujitsu Limited 注釈管理システム、注釈管理方法、文書変換サーバ、文書変換プログラム、電子文書付加プログラム
WO2019031397A1 (ja) * 2017-08-07 2019-02-14 ナーブ株式会社 画像表示装置、画像表示方法及び画像表示プログラム

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001294655A1 (en) * 2000-09-25 2002-04-08 Richard Fuisz System for providing access to product data
US8711217B2 (en) * 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US9892606B2 (en) * 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
US7868912B2 (en) * 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
EP1354318A1 (en) * 2000-12-22 2003-10-22 Muvee Technologies Pte Ltd System and method for media production
GB2375907A (en) * 2001-05-14 2002-11-27 British Broadcasting Corp An automated recognition system
US20040168206A1 (en) * 2001-05-14 2004-08-26 Stienstra Marcelle Andrea Device for interacting with real-time streams of content
JP3772117B2 (ja) * 2002-01-18 2006-05-10 ソニー株式会社 情報信号処理装置および情報信号処理方法
US8230476B2 (en) * 2002-09-17 2012-07-24 Intel Corporation Real-time interactive personal video recorder interface
US20040141713A1 (en) * 2003-01-16 2004-07-22 Daniel Watkins Method and system for implementing a service provider personal video recorder
US7814517B2 (en) * 2004-11-23 2010-10-12 Palo Alto Research Center Incorporated Method and apparatus for associating commentary audio with a position in an experiential data stream
US7814518B2 (en) * 2004-11-23 2010-10-12 Palo Alto Research Center Incorporated Methods, apparatus, and program products for presenting replacement content instead of a portion of a recorded content
US7870589B2 (en) * 2004-11-23 2011-01-11 Palo Alto Research Center Incorporated Method for providing commentary audio and additional or replacement video content
US7818770B2 (en) * 2004-11-23 2010-10-19 Palo Alto Research Center Incorporated Methods, apparatus, and program products to support a shared viewing experience from remote locations
US7882530B2 (en) * 2004-11-23 2011-02-01 Palo Alto Research Center Incorporated Method, apparatus, and program products for socially synchronizing an experiential data stream
US7818771B2 (en) * 2004-11-23 2010-10-19 Palo Alto Research Center Incorporated Methods, apparatus, and program products for controlling presentation of an experiential data stream responsive to conversations in a shared social space
WO2006059436A1 (ja) * 2004-12-03 2006-06-08 Nec Corporation 映像コンテンツ再生支援方法、映像コンテンツ再生支援システム、及び情報配信プログラム
JP4678246B2 (ja) * 2005-06-20 2011-04-27 船井電機株式会社 番組検索支援システム
KR100703705B1 (ko) * 2005-11-18 2007-04-06 삼성전자주식회사 동영상을 위한 멀티 미디어 코멘트 처리 장치 및 방법
US20070198711A1 (en) * 2006-02-06 2007-08-23 Tribinium Corporation Apparatus and method for managing the viewing of images over an on-line computer network
TW200809764A (en) 2006-04-24 2008-02-16 Sony Corp Image processing device, image processing method and program recording medium
US20070256008A1 (en) * 2006-04-26 2007-11-01 Bedingfield James C Sr Methods, systems, and computer program products for managing audio information
US20070256007A1 (en) * 2006-04-26 2007-11-01 Bedingfield James C Sr Methods, systems, and computer program products for managing information by annotating a captured information object
US8701005B2 (en) 2006-04-26 2014-04-15 At&T Intellectual Property I, Lp Methods, systems, and computer program products for managing video information
US7720281B2 (en) * 2006-07-31 2010-05-18 Mavs Lab, Inc. Visual characteristics-based news anchorperson segment detection method
US9892111B2 (en) * 2006-10-10 2018-02-13 Abbyy Production Llc Method and device to estimate similarity between documents having multiple segments
US8301669B2 (en) * 2007-01-31 2012-10-30 Hewlett-Packard Development Company, L.P. Concurrent presentation of video segments enabling rapid video file comprehension
US8165424B1 (en) * 2007-07-13 2012-04-24 One True Media, Inc. Method and device for video transformations
US20090113475A1 (en) * 2007-08-21 2009-04-30 Yi Li Systems and methods for integrating search capability in interactive video
US8904442B2 (en) * 2007-09-06 2014-12-02 At&T Intellectual Property I, Lp Method and system for information querying
US8352479B2 (en) * 2007-12-10 2013-01-08 At&T Intellectual Property I, L.P. Systems,methods and computer products for content-derived metadata
WO2009116582A1 (ja) * 2008-03-19 2009-09-24 国立大学法人 北海道大学 動画検索装置および動画検索プログラム
US20110022589A1 (en) * 2008-03-31 2011-01-27 Dolby Laboratories Licensing Corporation Associating information with media content using objects recognized therein
US8655147B2 (en) * 2008-06-26 2014-02-18 Nec Corporation Content reproduction order determination system, and method and program thereof
US8949718B2 (en) 2008-09-05 2015-02-03 Lemi Technology, Llc Visual audio links for digital audio content
US8200602B2 (en) * 2009-02-02 2012-06-12 Napo Enterprises, Llc System and method for creating thematic listening experiences in a networked peer media recommendation environment
US9183881B2 (en) * 2009-02-02 2015-11-10 Porto Technology, Llc System and method for semantic trick play
EP2234024B1 (en) * 2009-03-24 2012-10-03 Sony Corporation Context based video finder
US9094715B2 (en) 2009-05-29 2015-07-28 Cognitive Networks, Inc. Systems and methods for multi-broadcast differentiation
US10949458B2 (en) 2009-05-29 2021-03-16 Inscape Data, Inc. System and method for improving work load management in ACR television monitoring system
US8595781B2 (en) 2009-05-29 2013-11-26 Cognitive Media Networks, Inc. Methods for identifying video segments and displaying contextual targeted content on a connected television
US9449090B2 (en) 2009-05-29 2016-09-20 Vizio Inscape Technologies, Llc Systems and methods for addressing a media database using distance associative hashing
US10116972B2 (en) * 2009-05-29 2018-10-30 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US8792773B2 (en) * 2009-12-18 2014-07-29 Electronics And Telecommunications Research Institute Digital video managing and searching system
US9443147B2 (en) * 2010-04-26 2016-09-13 Microsoft Technology Licensing, Llc Enriching online videos by content detection, searching, and information aggregation
US9305603B2 (en) * 2010-07-07 2016-04-05 Adobe Systems Incorporated Method and apparatus for indexing a video stream
KR20120090101A (ko) * 2010-12-23 2012-08-17 한국전자통신연구원 디지털 비디오 고속 정합 시스템
US20120326993A1 (en) * 2011-01-26 2012-12-27 Weisman Jordan K Method and apparatus for providing context sensitive interactive overlays for video
US10134440B2 (en) * 2011-05-03 2018-11-20 Kodak Alaris Inc. Video summarization using audio and visual cues
US20130031589A1 (en) * 2011-07-27 2013-01-31 Xavier Casanova Multiple resolution scannable video
US9565476B2 (en) * 2011-12-02 2017-02-07 Netzyn, Inc. Video providing textual content system and method
US20130257877A1 (en) * 2012-03-30 2013-10-03 Videx, Inc. Systems and Methods for Generating an Interactive Avatar Model
US9244923B2 (en) * 2012-08-03 2016-01-26 Fuji Xerox Co., Ltd. Hypervideo browsing using links generated based on user-specified content features
US9658994B2 (en) * 2013-05-20 2017-05-23 Google Inc. Rendering supplemental information concerning a scheduled event based on an identified entity in media content
EP2869236A1 (en) * 2013-10-31 2015-05-06 Alcatel Lucent Process for generating a video tag cloud representing objects appearing in a video content
CN104683852B (zh) * 2013-11-29 2018-04-06 国际商业机器公司 处理广播信息的方法和设备
US9955192B2 (en) 2013-12-23 2018-04-24 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US9426523B2 (en) 2014-06-25 2016-08-23 International Business Machines Corporation Video composition by dynamic linking
US11165596B2 (en) * 2014-11-04 2021-11-02 Tmrw Foundation Ip S. À R.L. System and method for inviting users to participate in activities based on interactive recordings
US9445151B2 (en) * 2014-11-25 2016-09-13 Echostar Technologies L.L.C. Systems and methods for video scene processing
US10521672B2 (en) * 2014-12-31 2019-12-31 Opentv, Inc. Identifying and categorizing contextual data for media
US9858337B2 (en) 2014-12-31 2018-01-02 Opentv, Inc. Management, categorization, contextualizing and sharing of metadata-based content for media
KR102306538B1 (ko) * 2015-01-20 2021-09-29 삼성전자주식회사 콘텐트 편집 장치 및 방법
EP3251370A1 (en) 2015-01-30 2017-12-06 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
MX2017013128A (es) 2015-04-17 2018-01-26 Inscape Data Inc Sistemas y metodos para reducir densidad de los datos en grandes conjuntos de datos.
CA3216076A1 (en) 2015-07-16 2017-01-19 Inscape Data, Inc. Detection of common media segments
US10080062B2 (en) 2015-07-16 2018-09-18 Inscape Data, Inc. Optimizing media fingerprint retention to improve system resource utilization
CN108351879B (zh) 2015-07-16 2022-02-18 构造数据有限责任公司 用于提高识别媒体段的效率的划分搜索索引的系统和方法
EP3151243B1 (en) * 2015-09-29 2021-11-24 Nokia Technologies Oy Accessing a video segment
IL292025B2 (en) 2016-08-12 2023-12-01 Magic Leap Inc Parosh is a flurry of words
US11134316B1 (en) 2016-12-28 2021-09-28 Shopsee, Inc. Integrated shopping within long-form entertainment
US11166079B2 (en) 2017-12-22 2021-11-02 International Business Machines Corporation Viewport selection for hypervideo presentation
US10986422B2 (en) * 2018-11-20 2021-04-20 International Business Machines Corporation Hyper video navigation
US11948276B2 (en) * 2020-01-16 2024-04-02 Samsung Electronics Co., Ltd. Apparatus and method for enhancing videos
CN114329063B (zh) * 2021-10-29 2024-06-11 腾讯科技(深圳)有限公司 视频片段检测方法、装置以及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6385916A (ja) * 1986-09-30 1988-04-16 Toshiba Corp 短縮キ−方式
JPH08272946A (ja) * 1995-01-31 1996-10-18 Omron Corp 物体説明装置および物体説明方法
WO1997040454A1 (en) * 1996-04-25 1997-10-30 Philips Electronics N.V. Video retrieval of mpeg compressed sequences using dc and motion signatures
JPH1196064A (ja) * 1997-09-22 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> 連続メディア情報アクセス方法、連続メディア情報アクセス装置及び連続メディア情報アクセスプログラムを記録した記録媒体
JP2000308017A (ja) * 1999-04-20 2000-11-02 Nec Corp 映像視聴装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5684918A (en) * 1992-02-07 1997-11-04 Abecassis; Max System for integrating video and communications
US6553178B2 (en) * 1992-02-07 2003-04-22 Max Abecassis Advertisement subsidized video-on-demand system
KR19990072122A (ko) 1995-12-12 1999-09-27 바자니 크레이그 에스 실시간 영상 전송 방법 및 장치
IL117133A (en) * 1996-02-14 1999-07-14 Olivr Corp Ltd Method and system for providing on-line virtual reality movies
US5930808A (en) * 1996-05-30 1999-07-27 Matsushita Electric Industrial Co., Ltd. Data conversion apparatus for data communication system
US6570587B1 (en) * 1996-07-26 2003-05-27 Veon Ltd. System and method and linking information to a video
JP3780623B2 (ja) * 1997-05-16 2006-05-31 株式会社日立製作所 動画像の記述方法
US6463444B1 (en) * 1997-08-14 2002-10-08 Virage, Inc. Video cataloger system with extensibility
US6546555B1 (en) * 1998-07-23 2003-04-08 Siemens Corporate Research, Inc. System for hypervideo filtering based on end-user payment interest and capability

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6385916A (ja) * 1986-09-30 1988-04-16 Toshiba Corp 短縮キ−方式
JPH08272946A (ja) * 1995-01-31 1996-10-18 Omron Corp 物体説明装置および物体説明方法
WO1997040454A1 (en) * 1996-04-25 1997-10-30 Philips Electronics N.V. Video retrieval of mpeg compressed sequences using dc and motion signatures
JPH1196064A (ja) * 1997-09-22 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> 連続メディア情報アクセス方法、連続メディア情報アクセス装置及び連続メディア情報アクセスプログラムを記録した記録媒体
JP2000308017A (ja) * 1999-04-20 2000-11-02 Nec Corp 映像視聴装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PAUL H. LEWIS, HUGH C. DAVIS, STEVE R. GRIFFITHS, WENDY HALL, ROB J. WILKINS: "Media-based Navigation with Generic Links", HYPERTEXT96, JPN7011000773, 16 March 1996 (1996-03-16), US, pages 215 - 223, XP058236649, ISSN: 0001865432, DOI: 10.1145/234828.234849 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005029353A1 (ja) * 2003-09-18 2005-03-31 Fujitsu Limited 注釈管理システム、注釈管理方法、文書変換サーバ、文書変換プログラム、電子文書付加プログラム
WO2019031397A1 (ja) * 2017-08-07 2019-02-14 ナーブ株式会社 画像表示装置、画像表示方法及び画像表示プログラム
JPWO2019031397A1 (ja) * 2017-08-07 2019-11-07 ナーブ株式会社 画像表示装置、画像表示方法及び画像表示プログラム

Also Published As

Publication number Publication date
US7356830B1 (en) 2008-04-08
WO2001004792A1 (en) 2001-01-18
KR20010086393A (ko) 2001-09-10
KR100684484B1 (ko) 2007-02-22
EP1110156A1 (en) 2001-06-27

Similar Documents

Publication Publication Date Title
KR100684484B1 (ko) 비디오 세그먼트를 다른 비디오 세그먼트 또는 정보원에링크시키는 방법 및 장치
Tseng et al. Using MPEG-7 and MPEG-21 for personalizing video
US9471936B2 (en) Web identity to social media identity correlation
US9202523B2 (en) Method and apparatus for providing information related to broadcast programs
US20030101104A1 (en) System and method for retrieving information related to targeted subjects
US20160014482A1 (en) Systems and Methods for Generating Video Summary Sequences From One or More Video Segments
US20020163532A1 (en) Streaming video bookmarks
US20050038814A1 (en) Method, apparatus, and program for cross-linking information sources using multiple modalities
JP2005512233A (ja) 映像プログラムにおいて人物に関する情報を検索するためのシステムおよび方法
US20030093580A1 (en) Method and system for information alerts
JP2005509949A (ja) 個人情報を検索、更新および提示する方法およびシステム
US20020144293A1 (en) Automatic video retriever genie
CN114339360B (zh) 一种视频处理的方法、相关装置及设备
Lian Innovative Internet video consuming based on media analysis techniques
JP5335500B2 (ja) コンテンツ検索装置及びコンピュータプログラム
Luo et al. Exploring large-scale video news via interactive visualization
Tseng et al. Hierarchical video summarization based on context clustering
Guillemot et al. A hierarchical keyframe user interface for browsing video over the internet
AT&T
Liu et al. Semantic extraction and semantics-based annotation and retrieval for video databases
Klippgen et al. The Use of Metadata for the Rendering of Personalized Video Delivery.
Dimitrova et al. Visual Associations in DejaVideo
Lyu et al. Digital Video Library Network: System and Approach
Nishio et al. An advanced processing environment for managing the continuous and semistructured features of multimedia content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100716

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110603

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110610

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110803

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120313