JP2013536491A - ビデオコンテンツを管理するための方法および装置 - Google Patents

ビデオコンテンツを管理するための方法および装置 Download PDF

Info

Publication number
JP2013536491A
JP2013536491A JP2013517567A JP2013517567A JP2013536491A JP 2013536491 A JP2013536491 A JP 2013536491A JP 2013517567 A JP2013517567 A JP 2013517567A JP 2013517567 A JP2013517567 A JP 2013517567A JP 2013536491 A JP2013536491 A JP 2013536491A
Authority
JP
Japan
Prior art keywords
video
content
tag
given
video file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013517567A
Other languages
English (en)
Other versions
JP5491678B2 (ja
Inventor
レン,イエンソン
チヤン,フアンジヨー
ウツド,トーマス
エンサー,ロバート
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2013536491A publication Critical patent/JP2013536491A/ja
Application granted granted Critical
Publication of JP5491678B2 publication Critical patent/JP5491678B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

データストアの中に格納されたビデオファイルが、データストアの中のビデオファイルに関連付けられたタグに対する所与のビデオファイルの少なくとも1つの関連記述タグの意味関係を解析することによって管理される。この解析の結果が、データストアの中に格納されたビデオファイルからビデオファイルの或るセットを選択するのに使用される。その所与のビデオファイルのコンテンツが、選択されたセットのコンテンツと比較されて、コンテンツの類似度が算出される。この算出の結果が、例えば、検索クエリに応答して結果を提供する際に使用されるべき、データストアの中のビデオファイルの類似度に関する情報を更新するのに使用され得る。

Description

本発明は、ビデオコンテンツを管理するための方法および装置に関し、より詳細には、ただし、限定することなく、ユーザが、他のユーザによるアクセスのためにビデオホスティングサイトにビデオコンテンツをアップロードする状況に関する。
例えば、Youtube、Google Video、およびYahoo! Videoなどのビデオホスティングウェブサイトにおいて、ビデオコンテンツがユーザによってそのサイトにアップロードされて、検索エンジンを介して他のユーザが利用できるようにされることが可能である。現行のウェブビデオ検索エンジンは、ユーザによって入力された特定のテキストクエリに基づく関連度スコアに応じて並べられた検索結果のリストを提供するものと考えられている。その後、ユーザは、関心対象のビデオまたは複数のビデオを見つけるのにそれらの結果を考慮しなければならない。
ユーザがビデオをホストにアップロードすること、ビデオを獲得すること、およびいくつかの変更を加えてそれらのビデオを再び配布することは容易であるので、ビデオ検索結果の中には潜在的に多数の複製の、またはほぼ複製のコンテンツが存在する。例えば、複製のビデオコンテンツは、様々なフォーマット、符号化パラメータ、色や明るさなどの光度変化、ユーザ編集、およびコンテンツ変更などを有するビデオを含み得る。このことは、ユーザによって実際に所望されるコンテンツを見つけることを困難または不便にする可能性がある。例えば、Youtube、Google Video、およびYahoo! Videoからのクエリのサンプルに基づいて、平均で、検索結果にリストアップされる27%を超えるほぼ複製のビデオが存在し、人気のあるビデオがそれらの結果の中で最も多く複製されていることが判明している。検索結果において複製のビデオのパーセンテージが高いことから、ユーザは、それらの複製のビデオをふるい分けて、ユーザが必要とするビデオを見つけるのに多大な時間を費やさなければならず、さらに既に閲覧したビデオの類似したコピーを繰り返し観なければならない。
ユーザがウェブサイトからビデオを検索する際、ユーザは、通常、最初のスクリーン上で示される結果に関心がある。複製の結果は、ビデオ検索、ビデオ取り出し、およびビデオブラウジングのユーザによる体験の価値を下げる。さらに、そのような複製されたビデオコンテンツは、ネットワーク全体にわたって複製されたビデオデータを格納すること、および転送することによってネットワークオーバーヘッドを増加させる。
本発明の第1の態様によれば、ビデオコンテンツを管理する方法が、所与のビデオファイルのコンテンツを記述する少なくとも1つの関連タグを有する所与のビデオファイルを取り上げることを含む。データストアの中の複数のビデオファイルに関連付けられたタグに対する、その少なくとも1つの関連タグの意味関係が解析される。この解析の結果が、複数のビデオファイルのなかからビデオファイルの或るセットを選択するのに使用される。その所与のビデオファイルのコンテンツが、選択されたセットのコンテンツと比較されて、コンテンツの類似度が算出される。この算出の結果が、データストアの中のビデオファイルの類似度に関する情報を更新するのに使用される。
タグからの意味情報を使用して、類似したコンテンツを有する可能性が高いビデオファイルを識別することによって、この方法は、その所与のビデオをセットの中に含まれるビデオと比較することによる複製検出に先立って、利用可能な総数のなかからビデオファイルの或るセットがさらなる処理のために選択されることを許す。考慮されなければならないコンテンツの量を縮小することによって、この方法は、ビデオ複製検出技術を適用することをより効率的にし、それほどリソースを多用しないようにする。
ビデオ検索結果を向上させるためにデータストアの中にビデオファイルの類似度に関する情報を保持することが特に役立つが、そうすることは、他の目的でも、例えば、アーカイブされたコンテンツを編成するためにも有利であり得る。ビデオ複製−類似度検出は、検索、トピック追跡、および著作権保護におけるそのような検出の可能性のために有用である。
これらのタグは、ユーザによって生成されることが可能である。例えば、ユーザがビデオファイルをホスティングウェブサイトにアップロードする際、ユーザは、キーワード、または他の記述子を追加するように勧められることが可能である。コンテンツが、そのコンテンツを閲覧することを所望する可能性がある他のユーザによって容易に見つけられるように、正確で、参考になるタグを使用する誘因がユーザに存在する。このタグまたは複数のタグを追加するユーザは、それでも、データストアにビデオファイルを追加した個人でなくてもよい。例えば、或る個人が、既にアーカイブされたコンテンツに索引を付けることを担当させられることが可能である。一方法において、ユーザによってタグが割り当てられる代わりに、タグを与えることに何らかの度合いの自動化が関与することが可能であるが、このことは、それほど価値のない意味情報をもたらす傾向がある可能性がある。
この方法は、所与のビデオファイルがデータストアに追加される際に適用され得る。しかし、この方法は、例えば、データストアによって保持されるビデオコンテンツの類似度に関する情報を向上させるように、データストアにそれまでに追加されたビデオコンテンツを管理するのに使用されてもよい。
一実施形態において、データストアの中に含まれるビデオファイルのいずれか1つが、所与のビデオファイルとして取り上げられて、さらにデータストアの中の類似するビデオファイルを見つけるクエリの役割をすることが可能である。
本発明の別の態様によれば、デバイスが、第1の態様による方法を実行するようにプログラミングされる、または構成される。
次に、本発明のいくつかの実施形態を、単に例として、添付の図面を参照して説明する。
本発明による実施形態を概略で示す図である。 図1の実施形態のビデオ複製検出ステップの一部を概略で示す図である。
図1を参照すると、ビデオホスティングウェブサイトが、ビデオコンテンツと、このビデオコンテンツに関連付けられたタグと、コンテンツの関係に関する情報とを保持するビデオデータベース1を含む。ユーザが新たなビデオ2をアップロードする際、ユーザは、そのビデオコンテンツにタグを割り当てることもする。タグは、ビデオファイルのコンテンツを何らかの仕方で記述するキーワードまたは用語である。タグは、ビデオコンテンツの個人的なビューを与え、さらに、このため、ビデオ意味情報の一部を与える。
第1のステップは、これらのタグを使用して、新たにアップロードされたビデオ1と意味的に互いに関係する可能性があるビデオデータベース1の中に既に含まれるビデオを選択することである。このことは、新たなビデオ2に関連付けられたタグ、ならびにデータベース1からのそれまでにアップロードされているビデオに関連付けられたタグを受け付けるタグ関係プロセッサ3によって実行される。
ユーザは、通常、複数のタグをビデオコンテンツに割り当てるので、タグの間の関係を決定する必要性が存在する。一般に、2つのタイプの関係:論理積または論理和が存在する。タグに異なる関係を適用することは、異なる結果を与える。
タグの間で論理積関係だけを適用することは、それらのタグの各タグに関連付けられたビデオが選択されることをもたらす。このことは、新たにアップロードされたビデオと実際に意味的に互いに関係するいくつかのビデオが除外されることをもたらし得る。例えば、新たにアップロードされたビデオに「スーザンボイル」および「スコットランドから」というタグが付けられており、さらに論理積関係が適用された場合、選択されたビデオは、関連タグとして「スーザンボイル」と「スコットランドから」をともに有するはずである。「スコットランドから」というタグと「スーザンボイル」というタグが一緒に出現する頻度は非常に低いので、選択されたビデオセットは、「スーザンボイル」というタグだけが付けられた多くのビデオを含まない。しかし、これらのビデオは、大抵、その新たにアップロードされたビデオと意味的に関係する。
タグの間で論理和関係だけを適用することは、必要とされるより多くのビデオが選択されることをもたらし得る。例えば、新たにアップロードされたビデオに「アップル」および「ipod」というタグが付けられている場合、選択されたセットは、「iphone」についてのビデオと「アップル−果物」についてのビデオをともに含み得るが、「アップル−果物」についてのビデオがその新たにアップロードされたビデオと意味的に関係する可能性は低い。
3におけるタグ関係解析において、意味情報が、複製またはほぼ複製を検出するさらなる処理のためにビデオファイルのセットの役立つ選択をもたらすのに使用される。複数のタグの間で適切な関係を導き出すのに、タグ共起情報が、データベース1にそれまでに追加されている既存のビデオファイルに関連付けられた大量のタグからの集合知に基づいて測定される。タグ共起は、意味領域におけるタグの類似度を捕捉する有用な情報を含む。複数のタグが一緒に出現する確率が高い、例えば、所与の値を超えている場合、論理積関係が、複数のタグによって取り出されたビデオを選択するのに使用される。タグ共起の確率が低く、その所与の値を下回っている場合、それらのタグに関連付けられたビデオは、タグ出現の頻度、タグの人気度、または他の適切なパラメータなどの、いくつかの基準に基づいて選択される。この選択は、考慮されるべきビデオファイルの総数を減らすことが可能である。
このため、特定の新たにアップロードされたビデオに関して、ユーザによって割り当てられた複数のタグが存在する場合、それらのタグの間の関係が、プロセッサ3によって導き出される。ビデオホスティングウェブサイトにおいてタグが付けられた大量のビデオが存在するので、既存のビデオからのそれらのタグは、タグ関係を算出するための集合知ベースを与える。
タグ共起頻度は、タグ関係の測定として計算される。タグ共起を計算するためのいくつかの方法が存在する。例えば、以下の式を使用する:
Figure 2013536491
この式は、tagがtagと一緒に出現し、さらにtagの総頻度によって正規化された頻度を示す。同様に、tagを所与として、tagとtagの共起の頻度が計算され得る。前述の式は、tagとtagの間の非対称の関連度測定を与える。
タグの間の対称の関連度もまた、以下に示されるとおり、ジャカード係数を使用して測定され得る:
Figure 2013536491
この係数は、2つのタグの論理和で割った、2つのタグの間の論理積の数をとる。
ビデオデータベース1に、タグ関係に基づいてクエリが行われる。例えば、新たにアップロードされたビデオに「アップル」および「ipod」というタグが付けられている場合、「アップル」というタグと「ipod」というタグが高い頻度で一緒に出現することは、その新たなビデオが、「果物」ではなく「電話機」と意味的に関係する可能性があることを示唆する。別の例において、新たにアップロードされたビデオに「スーザンボイル」および「スコットランドから」というタグが付けられている。両方のタグの共起の確率は極めて低い一方で、「スーザンボイル」というタグが出現する頻度は、「スコットランドから」というタグの頻度よりはるかに高いので、第1のタグが、第2のタグより重要であると考えられ、さらに第1のタグが、データベースからビデオを取り出すのに使用される。このため、タグ関係解析は、その新たなビデオと意味的に関係するビデオを選択することによって検索空間を縮小することができる。
次のステップは、ビデオ冗長性検出プロセッサ4において、その新たにアップロードされたビデオ2を選択されたビデオのセットと比較して、複製を検出することである。
この実施形態のためのビデオ複製検出手順において、プロセスは、1)ビデオをショットのセットに分割すること、2)各ショットに関して代表的なキーフレームを抽出すること、および3)ビデオ間でキーフレームの間の色特性、テクスチャ特性、および形状特性を比較することを含む。
複製検出を実行する前に、5において、3において選択されたセットに含まれるビデオの間の関係を表すビデオ関係グラフが構築される。2つのビデオがほぼ複製のシーケンスを含む場合、このグラフは、図2に示されるとおり、両方の重なり合うシーケンスを示すとともに、重なり合わないシーケンスも示す。この例には3つのビデオが存在する。ビデオ1がビデオ2と完全に重なり合い、さらにビデオ3の一部がビデオ1とビデオ2の両方と重なり合う。新たにアップロードされたビデオを同一の重なり合うビデオシーケンスと複数回、比較することを回避するのに、重なり合わないビデオシーケンスのリストが、図2に示されるグラフにおける3つのビデオから選択される。この例において、選択されたビデオシーケンスは、ビデオ1からのビデオシーケンス全体を含むとともに、ビデオ3における時刻tからtまでのビデオシーケンスも含む。この選択は、時刻tからtまでの重なり合うビデオシーケンスが、新たにアップロードされたビデオと、複数回ではなく、単一回、照合されるだけでよいことを確実にする。このステップは、複製検出のための照合空間をさらに縮小する。
これらの照合結果を使用して、新たにアップロードされたビデオ2が、ビデオ関係グラフに追加され、さらにビデオデータベースの中に含められる。その後、この新たに更新された、構築されたビデオ関係グラフが、全体的な照合空間を縮小するように将来の複製検出において使用される。
図1に示される様々な要素の機能は、「プロセッサ」というラベルの付けられた機能ブロックを含め、専用のハードウェア、ならびに適切なソフトウェアに関連してソフトウェアを実行することができるハードウェアを使用することを介して提供されてもよい。プロセッサによって提供される場合、これらの機能は、単一の専用プロセッサによって提供されても、共有される単一のプロセッサによって提供されても、またはいくつかが共有され得る複数の個別のプロセッサによって提供されてもよい。さらに、「プロセッサ」という用語の明示的な使用は、ソフトウェアを実行することができるハードウェアを限定的に指すものと解釈されるべきではなく、限定なしに、デジタルシグナルプロセッサ(DSP)ハードウェア、ネットワークプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ソフトウェアを格納するための読取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、および不揮発性ストレージを暗黙に含み得る。また、従来型、および/またはカスタムの他のハードウェアもやはり含まれ得る。
本発明は、本発明の趣旨または基本的な特徴から逸脱することなく、他の特定の形態で実施されてもよい。説明された実施形態は、すべての点で単に例示的であり、限定的ではないものと見なされるべきである。したがって、本発明の範囲は、以上の説明によってではなく、添付の特許請求の範囲によって示される。特許請求の範囲の意図、および均等性の範囲に含まれるすべての変更は、特許請求の範囲に包含されるものとする。

Claims (25)

  1. ビデオコンテンツを管理する方法であって、
    所与のビデオファイルのコンテンツを説明する少なくとも1つの関連タグを有する所与のビデオファイルを取り上げること、
    データストアの中の複数のビデオファイルに関連付けられたタグに対する少なくとも1つの関連タグの意味関係を解析すること、
    解析の結果を使用して、複数のビデオファイルのなかからビデオファイルの或るセットを選択すること、
    所与のビデオファイルのコンテンツを、選択されたセットのコンテンツと比較して、コンテンツの類似度を算出すること、および
    算出の結果を使用して、データストアの中のビデオファイルの類似度に関する情報を更新することを含む、方法。
  2. 意味関係が、タグ共起の確率を使用して導き出される、請求項1に記載の方法。
  3. 確率が所与の値より大きい場合、セット選択を行う際に少なくとも2つのタグに論理積演算子を適用し、さらに確率が所与の値より小さい場合、他の1つまたは複数の基準を使用してセット選択を行う、請求項2に記載の方法。
  4. 他の基準が、タグが出現する頻度とタグの人気度のうち少なくともいずれかを含む、請求項3に記載の方法。
  5. 所与のビデオファイルが、ユーザによってデータストアに追加される、請求項1から4のいずれかに記載の方法。
  6. ユーザが、所与のビデオファイルに関連付けるために少なくとも1つのタグを割り当てる、請求項5に記載の方法。
  7. 検索クエリに応答して結果を提供する際にデータストアの中のビデオファイルの類似度に関する情報を使用することを含む、請求項1から6のいずれかに記載の方法。
  8. 選択されたセットに含まれるビデオファイルを、選択されたセットの中のビデオファイルの重なり合うコンテンツを示すようにビデオ関係グラフにおいて並べること、およびビデオ関係グラフを使用して、所与のビデオファイルのコンテンツと選択されたセットのコンテンツの類似度を算出することを含む、請求項1から7のいずれかに記載の方法。
  9. 選択されたセットに含まれるビデオファイルをビデオ関係グラフにおいて並べることに続いて、所与のビデオファイルのコンテンツが、選択されたセットの重なり合わないコンテンツと比較される、請求項8に記載の方法。
  10. 所与のビデオファイルからの情報を含むようにビデオ関係グラフを更新することを含む、請求項8または9に記載の方法。

  11. Figure 2013536491
    を使用してタグ共起の確率を計算することを含む、請求項2に記載の方法。
  12. ジャカード係数
    Figure 2013536491
    を使用してタグ共起の確率を計算することを含む、請求項2に記載の方法。
  13. 所与のビデオファイルのコンテンツを説明する少なくとも1つの関連タグを有する所与のビデオファイルを取り上げるステップと、
    データストアの中の複数のビデオファイルに関連付けられたタグに対する少なくとも1つの関連タグの意味関係を解析するステップと、
    解析の結果を使用して、複数のビデオファイルのなかからビデオファイルの或るセットを選択するステップと、
    所与のビデオファイルのコンテンツを、選択されたセットのコンテンツと比較して、コンテンツの類似度を算出するステップと、
    算出の結果を使用して、データストアの中のビデオファイルの類似度に関する情報を更新するステップとを含む方法を実行するようにプログラミングされた、または構成された、デバイス。
  14. タグ共起の確率を使用して意味関係を導き出すようにプログラミングされた、または構成された、請求項13に記載のデバイス。
  15. 確率が所与の値より大きい場合、セット選択を行う際に少なくとも2つのタグに論理積演算子を適用し、さらに確率が所与の値より小さい場合、他の1つまたは複数の基準を使用してセット選択を行うようにプログラミングされた、または構成された、請求項14に記載のデバイス。
  16. 他の基準が、タグが出現する頻度とタグの人気度のうち少なくともいずれかを含む、請求項15に記載のデバイス。
  17. 所与のビデオファイルが、ユーザによってデータストアに追加される、請求項13から16のいずれかに記載のデバイス。
  18. ユーザが、所与のビデオファイルに関連付けるために少なくとも1つのタグを割り当てる、請求項17に記載のデバイス。
  19. 検索クエリに応答して結果を提供する際にデータストアの中のビデオファイルの類似度に関する情報を使用するようにプログラミングされた、または構成された、請求項13から18のいずれかに記載のデバイス。
  20. 選択されたセットに含まれるビデオファイルを、選択されたセットの中のビデオファイルの重なり合うコンテンツを示すようにビデオ関係グラフにおいて並べるステップと、ビデオ関係グラフを使用して、所与のビデオファイルのコンテンツと選択されたセットのコンテンツの類似度を算出するステップとを含むようにプログラミングされた、または構成された、請求項13から19のいずれかに記載のデバイス。
  21. 選択されたセットに含まれるビデオファイルをビデオ関係グラフにおいて並べることに続いて、所与のビデオファイルのコンテンツを、選択されたセットの重なり合わないコンテンツと比較するステップを含むようにプログラミングされた、または構成された、請求項20に記載のデバイス。
  22. 所与のビデオファイルからの情報を含むようにビデオ関係グラフを更新するステップを含むようにプログラミングされた、または構成された、請求項20または21に記載のデバイス。

  23. Figure 2013536491
    を使用してタグ共起の確率を計算するようにプログラミングされた、または構成された、請求項13に記載のデバイス。
  24. ジャカード係数
    Figure 2013536491
    を使用してタグ共起の確率を計算するようにプログラミングされた、または構成された、請求項13に記載のデバイス。
  25. 所与のビデオファイルのコンテンツを説明する少なくとも1つの関連タグを有する所与のビデオファイルを取り上げるステップと、
    データストアの中の複数のビデオファイルに関連付けられたタグに対する少なくとも1つの関連タグの意味関係を解析するステップと、
    解析の結果を使用して、複数のビデオファイルのなかからビデオファイルの或るセットを選択するステップと、
    所与のビデオファイルのコンテンツを、選択されたセットのコンテンツと比較して、コンテンツの類似度を算出するステップと、
    算出の結果を使用して、データストアの中のビデオファイルの類似度に関する情報を更新するステップとを含むビデオコンテンツを管理する方法を実行するためのマシン実行可能プログラムを格納する、データ記憶媒体。
JP2013517567A 2010-06-30 2011-06-24 ビデオコンテンツを管理するための方法および装置 Expired - Fee Related JP5491678B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/827,714 2010-06-30
US12/827,714 US20120002884A1 (en) 2010-06-30 2010-06-30 Method and apparatus for managing video content
PCT/IB2011/001494 WO2012001485A1 (en) 2010-06-30 2011-06-24 Method and apparatus for managing video content

Publications (2)

Publication Number Publication Date
JP2013536491A true JP2013536491A (ja) 2013-09-19
JP5491678B2 JP5491678B2 (ja) 2014-05-14

Family

ID=44675613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013517567A Expired - Fee Related JP5491678B2 (ja) 2010-06-30 2011-06-24 ビデオコンテンツを管理するための方法および装置

Country Status (6)

Country Link
US (1) US20120002884A1 (ja)
EP (1) EP2588976A1 (ja)
JP (1) JP5491678B2 (ja)
KR (1) KR101435738B1 (ja)
CN (1) CN102959542B (ja)
WO (1) WO2012001485A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191348A (ja) * 2014-03-27 2015-11-02 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation アノテーションの相関を計算する装置及び方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102027467A (zh) * 2008-05-27 2011-04-20 多基有限公司 视频数据的非线性表征
WO2012108090A1 (ja) * 2011-02-10 2012-08-16 日本電気株式会社 映像間対応関係表示システム及び映像間対応関係表示方法
US8639040B2 (en) 2011-08-10 2014-01-28 Alcatel Lucent Method and apparatus for comparing videos
US8620951B1 (en) * 2012-01-28 2013-12-31 Google Inc. Search query results based upon topic
US20130232412A1 (en) * 2012-03-02 2013-09-05 Nokia Corporation Method and apparatus for providing media event suggestions
US8989376B2 (en) 2012-03-29 2015-03-24 Alcatel Lucent Method and apparatus for authenticating video content
US9495397B2 (en) * 2013-03-12 2016-11-15 Intel Corporation Sensor associated data of multiple devices based computing
CN105120297A (zh) * 2015-08-25 2015-12-02 成都秋雷科技有限责任公司 一种视频存储方法
CN105163058A (zh) * 2015-08-25 2015-12-16 成都秋雷科技有限责任公司 一种新式视频存储方法
CN105163145A (zh) * 2015-08-25 2015-12-16 成都秋雷科技有限责任公司 一种高效视频数据存储方法
CN105120296A (zh) * 2015-08-25 2015-12-02 成都秋雷科技有限责任公司 一种高效视频存储方法
CN105120298A (zh) * 2015-08-25 2015-12-02 成都秋雷科技有限责任公司 一种改进式视频存储方法
CN105072370A (zh) * 2015-08-25 2015-11-18 成都秋雷科技有限责任公司 一种高稳定性视频存储方法
US20170357654A1 (en) * 2016-06-10 2017-12-14 Google Inc. Using audio and video matching to determine age of content
CN106131613B (zh) * 2016-07-26 2019-10-01 深圳Tcl新技术有限公司 智能电视视频分享方法及视频分享系统
CN106454042A (zh) * 2016-10-24 2017-02-22 广州纤维产品检测研究院 一种样品视频信息采集和上传的系统及方法
CN107135401B (zh) * 2017-03-31 2020-03-27 北京奇艺世纪科技有限公司 关键帧选取方法及系统
CN109040775A (zh) * 2018-08-24 2018-12-18 深圳创维-Rgb电子有限公司 视频关联方法、装置及计算机可读存储介质
CN112235599B (zh) * 2020-10-14 2022-05-27 广州欢网科技有限责任公司 一种视频处理方法及系统
CN112528856B (zh) * 2020-12-10 2022-04-15 天津大学 一种基于特征帧的重复视频检测方法
CN115080547A (zh) * 2021-03-15 2022-09-20 伊姆西Ip控股有限责任公司 用于数据处理的方法、电子设备和计算机程序产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070005592A1 (en) * 2005-06-21 2007-01-04 International Business Machines Corporation Computer-implemented method, system, and program product for evaluating annotations to content
US20070217676A1 (en) * 2006-03-15 2007-09-20 Kristen Grauman Pyramid match kernel and related techniques
US20090028517A1 (en) * 2007-07-27 2009-01-29 The University Of Queensland Real-time near duplicate video clip detection method
US20090265631A1 (en) * 2008-04-18 2009-10-22 Yahoo! Inc. System and method for a user interface to navigate a collection of tags labeling content
JP2009295054A (ja) * 2008-06-06 2009-12-17 Nippon Hoso Kyokai <Nhk> 映像コンテンツ検索装置及びコンピュータプログラム
WO2010064263A1 (en) * 2008-12-02 2010-06-10 Haskolinn I Reykjavik Multimedia identifier

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101283353B (zh) * 2005-08-03 2015-11-25 搜索引擎科技有限责任公司 通过分析标签找到相关文档的系统和方法
US20070078832A1 (en) * 2005-09-30 2007-04-05 Yahoo! Inc. Method and system for using smart tags and a recommendation engine using smart tags
US7617195B2 (en) * 2007-03-28 2009-11-10 Xerox Corporation Optimizing the performance of duplicate identification by content
US7904462B1 (en) * 2007-11-07 2011-03-08 Amazon Technologies, Inc. Comparison engine for identifying documents describing similar subject matter
US9177209B2 (en) * 2007-12-17 2015-11-03 Sinoeast Concept Limited Temporal segment based extraction and robust matching of video fingerprints
US8429176B2 (en) * 2008-03-28 2013-04-23 Yahoo! Inc. Extending media annotations using collective knowledge
US8587668B2 (en) * 2008-07-25 2013-11-19 Anvato, Inc. Method and apparatus for detecting near duplicate videos using perceptual video signatures

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070005592A1 (en) * 2005-06-21 2007-01-04 International Business Machines Corporation Computer-implemented method, system, and program product for evaluating annotations to content
US20070217676A1 (en) * 2006-03-15 2007-09-20 Kristen Grauman Pyramid match kernel and related techniques
US20090028517A1 (en) * 2007-07-27 2009-01-29 The University Of Queensland Real-time near duplicate video clip detection method
US20090265631A1 (en) * 2008-04-18 2009-10-22 Yahoo! Inc. System and method for a user interface to navigate a collection of tags labeling content
JP2009295054A (ja) * 2008-06-06 2009-12-17 Nippon Hoso Kyokai <Nhk> 映像コンテンツ検索装置及びコンピュータプログラム
WO2010064263A1 (en) * 2008-12-02 2010-06-10 Haskolinn I Reykjavik Multimedia identifier

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHANGBO YANG: "S-IRAS: AN INTERACTIVE SEMANTIC IMAGE RETRIEVAL AND ANNOTATION SYSTEM", INTERNATIONAL JOURNAL ON SEMANTIC WEB AND INFORMATION SYSTEMS [ONLINE], vol. V2 I3, JPN5013008172, 30 September 2006 (2006-09-30), pages 37 - 54, ISSN: 0002661259 *
XIAOYAN LI: "A LATENT IMAGE SEMANTIC INDEXING SCHEME FOR IMAGE RETRIEVAL ON THE WEB", WEB INFORMATION SYSTEMS - WISE 2006 LECTURE NOTES IN COMPUTER SCIENCE (LNCS 4255), JPN5013008171, 1 January 2006 (2006-01-01), DE, pages 315 - 326, XP019047531, ISSN: 0002661258, DOI: 10.1007/11912873_33 *
加藤誠、外3名: "Web画像の「らしさ」検索:語の典型的特徴を表す語集合のソーシャルタギング情報からの取得によるWeb", 電子情報通信学会 第19回データ工学ワークショップ論文集 [ONLINE], JPN6013052438, 7 April 2008 (2008-04-07), JP, pages 1 - 8, ISSN: 0002747357 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191348A (ja) * 2014-03-27 2015-11-02 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation アノテーションの相関を計算する装置及び方法
US9858267B2 (en) 2014-03-27 2018-01-02 International Business Machines Corporation Calculating correlations between annotations
US9858266B2 (en) 2014-03-27 2018-01-02 International Business Machines Corporation Calculating correlations between annotations

Also Published As

Publication number Publication date
KR20130045282A (ko) 2013-05-03
US20120002884A1 (en) 2012-01-05
KR101435738B1 (ko) 2014-09-01
WO2012001485A1 (en) 2012-01-05
EP2588976A1 (en) 2013-05-08
JP5491678B2 (ja) 2014-05-14
CN102959542A (zh) 2013-03-06
CN102959542B (zh) 2016-02-03

Similar Documents

Publication Publication Date Title
JP5491678B2 (ja) ビデオコンテンツを管理するための方法および装置
US20220035827A1 (en) Tag selection and recommendation to a user of a content hosting service
US9727618B2 (en) Interest graph-powered feed
Bergman White paper: the deep web: surfacing hidden value
TWI482037B (zh) 搜尋建議叢集與呈現
US9497277B2 (en) Interest graph-powered search
US20100153371A1 (en) Method and apparatus for blending search results
US20210326367A1 (en) Systems and methods for facilitating searching, labeling, and/or filtering of digital media items
US8095540B2 (en) Identifying superphrases of text strings
US20150317323A1 (en) Indexing and searching heterogenous data entities
WO2008106667A1 (en) Searching heterogeneous interrelated entities
US20110252018A1 (en) System and method for creating search index on cloud database
WO2009003124A1 (en) Media discovery and playlist generation
CN111008321A (zh) 基于逻辑回归推荐方法、装置、计算设备、可读存储介质
CN108717407A (zh) 实体向量确定方法及装置,信息检索方法及装置
US9141629B2 (en) Identifying video files of a video file storage system having relevance to a first file
US8843576B2 (en) Identifying audio files of an audio file storage system having relevance to a first file
Deng et al. Information re-finding by context: A brain memory inspired approach
Vergoulis et al. Bip! finder: Facilitating scientific literature search by exploiting impact-based ranking
Tao Visual reranking: From objectives to strategies
CA2703132A1 (en) Methods and system for information storage enabling fast information retrieval
Rats et al. Using of cloud computing, clustering and document-oriented database for enterprise content management
Jiang et al. Gvos: a general system for near-duplicate video-related applications on storm
Vergoulis et al. Pub Finder: Assisting the discovery of qualitative research
Greenwood et al. Keeping Information in Context

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140227

R150 Certificate of patent or registration of utility model

Ref document number: 5491678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees