JP5980311B2 - ビデオ・シグネチャ - Google Patents

ビデオ・シグネチャ Download PDF

Info

Publication number
JP5980311B2
JP5980311B2 JP2014503677A JP2014503677A JP5980311B2 JP 5980311 B2 JP5980311 B2 JP 5980311B2 JP 2014503677 A JP2014503677 A JP 2014503677A JP 2014503677 A JP2014503677 A JP 2014503677A JP 5980311 B2 JP5980311 B2 JP 5980311B2
Authority
JP
Japan
Prior art keywords
frame
video
dimensional vector
cells
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014503677A
Other languages
English (en)
Other versions
JP2014513468A (ja
JP2014513468A5 (ja
Inventor
ヘンドリックソン,セス
ドン,ジョージ・ランデル
マンダル,サスワタ
ジトニック・ザ・サード,チャールズ・ローレンス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014513468A publication Critical patent/JP2014513468A/ja
Publication of JP2014513468A5 publication Critical patent/JP2014513468A5/ja
Application granted granted Critical
Publication of JP5980311B2 publication Critical patent/JP5980311B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8352Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4405Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

従来技術
[0001] メタデーターのような識別情報は、ディジタル・ビデオ・コンテンツには含まれないことが多い。その結果、視聴者が名称、製作年、コンテンツのジャンル、あるいは彼または彼女が満足のいく視聴体験のために望むかもしれない他の情報を特定できないことが多い。
[0002] この摘要は、詳細な説明の章において以下で更に説明する概念から選択したものを簡略化された形式で紹介するために、設けられている。この摘要は、特許請求する主題の主要な特徴や必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を限定するために使用されることを意図するのでもない。更に、特許請求する主題は、本開示のいずれの部分に記されるいずれの欠点を解決する実施態様にも、そして全ての欠点を解決する実施態様にも限定されない。
ビデオ・シグネチャを発見する方法を提供する。
この方法は、ビデオのフレームN、フレームN+1、およびN−1の各々を複数のセルに分割し、各フレームのセル毎にビデオ属性を計算するステップを備えている。フレームNおよびN+1、ならびにNおよびN−1の間で、各フレームのビデオ属性に基づいて差分メトリック(difference metric)を計算し、この差分メトリックを閾値と比較する。フレームNおよびN+1の差分メトリックが第1閾値を超過し、フレームNおよびN−1の差分メトリックが第2閾値を超過しない場合、フレームNおよびフレームN+1からの情報をビデオ・シグネチャとして用いる。
図1は、本発明の一実施形態にしたがって、ビデオ・ストリームのシグネチャを発見する方法を示す流れ図である。 図2は、本明細書において開示する一実施形態による、ビデオおよび付随する輝度値からのフレームを模式的に示す。 図3は、基準シグネチャを検索インデックス・データーベースに入力する実施形態例を示す流れ図である。 図4は、クライアント・シグネチャを検索インデックスに入力する実施形態例を示す流れ図である。 図5は、本明細書において開示する一実施形態を実行するための非限定的な計算デバイスを模式的に示す。
[0008] ディジタル・ビデオのような、外部識別情報を欠くメディア・コンテンツの再生では、満足のいく視聴体験のためには、視聴者がそのビデオの名称、それが製作された日付、および他の情報を必要とする場合があるので、問題を生ずることがある。未知のビデオについての識別情報を突き止めるために、ビデオ内における場面変化(shot change)を特定することによってビデオ・シグネチャを生成することができる。場面変化は、ビデオの2つの連続するフレームNおよびN+1間における画像情報の大きな変化、それに加えてフレームNと直前のフレームN−1との間における画像情報の小さな変化によって、定めることができる。次いで、場面変化からの情報を用いて、ビデオ・シグネチャを生成することができる。ビデオ・シグネチャは、同じビデオの異なるバージョンにおいて容易に再生可能であるとよい。
[0009] このようなビデオ・シグネチャは、基準ビデオのライブラリに対するビデオ・シグネチャ、およびこのような基準ビデオ毎に識別情報(例えば、メタデーター)を含むビデオ・シグネチャ・データーベースと比較することができる。一致が見いだされた場合、一致した基準ビデオからの外部識別情報を未知のビデオに適用することができる。実施形態の中には、検査されるシグネチャと基準シグネチャとの間におけるユークリッド距離を用いて、一致が存在するか否か判断するとよい場合がある。実施形態の中には、このようなユークリッド距離がゼロでなければいけない場合があり、更に他の実施形態では、小さな差が許容される場合もある。
[0010] 図1は、本開示の一実施形態にしたがって、ビデオ・シグネチャを発見する方法100を表す流れ図を示す。方法100は、ビデオ再生および/またはビデオ・ストリーミングが可能な計算デバイスによって実行することができる。計算デバイスの例には、デスクトップ・コンピューター、ラップトップ・コンピューター、移動体計算デバイス、およびTVセット・トップ・ボックスが含まれるが、これらに限定されるのではない。計算デバイスは、更に、ビデオ・ストリームを受信するためおよび/またはビデオ・シグネチャ・データーベースにアクセスするために、ネットワークを通じて他の計算デバイスに接続することもできる。これについては以下で更に詳しく説明する。計算デバイスについてのこれ以上の詳細は、図5を参照して説明する。
[0011] 102において、方法100は、ビデオ内部にあるフレームを複数のセルに分割するステップを含む。一連のフレームN、フレームN+1、およびフレームN−1の各フレームをM個のセルに分割する。一例では、M個のセルは、4対4(4×4)の格子に配列された、16個の等しいサイズのセルを含むことができる。他の例では、M個のセルは、5×5の格子に配列された25個の等しいサイズのセルを含むことができる。いずれの数のセルをいずれの配列にしても、本開示の範囲内に該当するものとする。
[0012] 104においてセル毎のビデオ属性を計算する。実施形態の中には、ビデオ属性が、そのセル内における画素毎の輝度値の平均をとることによって計算した、そのセルについての平均輝度(average luminance)である場合がある。実施形態の中には、ビデオ属性が、そのフレームの全てのセルについての平均輝度に対して正規化した、そのセルについての平均輝度であるとよい場合がある。各セルの輝度の格付け順序(rank order)、平均カラー値等というような、他の適した属性を用いることもできる。
[0013] 106において、フレームNとフレームN+1との間における第1差分メトリックを計算する。一例として、差分メトリックは、フレームNについて計算したベクトルとフレームN+1について計算したベクトルとの間のユークリッド距離とすることができる。この差分メトリックを計算するために、108においてフレームNおよびフレームN+1の各々について、M次元ベクトルを決定する。フレーム毎のM次元ベクトルは、異なる次元毎に、そのフレームからの異なるセルのビデオ属性を含む。
[0014] 例えば、図2は、16個のセル(即ち、セルN1、N2、...、N16)を含む4×4格子に分割されたビデオのフレームNを示す。更に、図2の表204は、フレームNのセル毎に輝度値を示す。セル毎に、そのセルの各画素についての輝度値から、平均輝度を計算する。この例では、輝度は、0から1までの目盛りによって表され、0は輝度がなく(即ち、セルは真っ黒であり、光が放出されない)、1は最大輝度である(即ち、セルは真っ白であり、画素が放出できる最大量の光が放出されている)。例えば、セルN1は0.2の輝度値を有する。M次元ベクトルは、分割したフレームの16個のセルの各々についての輝度に基づく16次元ベクトルを含むことができる。例えば、フレームNは、以下からなる16次元ベクトルを有する。
Figure 0005980311
一方、フレームN+1は、輝度値の表206に基づき、以下からなる16次元ベクトルを有する。
Figure 0005980311
図1に戻って、110において、方法100は、これらのベクトル間におけるユークリッド距離を計算するステップを含む。例えば、図2において、図2のフレームNとフレームN+1との間のユークリッド距離は、以下の式を用いて計算することができる。
Figure 0005980311
ここで、pは、フレームNのベクトル、qはフレームN+1のベクトル、そして、ベクトルは16次元からなるので、n=16となる。したがって、図2のフレームNとフレームN+1との間のユークリッド距離は、約1.21となる。
[0015] 再び図1を参照すると、112において、フレームNとフレームN−1との間で第2の差分メトリックを計算する。106において計算した差分メトリックと同様に、114において、フレームNおよびフレームN−1の各々について、M次元ベクトルを決定し、これらのベクトルは、116において第2のユークリッド距離を決定するときに用いられる。
[0016] 118において、フレームNおよびN+1の間で計算した第1差分メトリックを、第1閾値と比較する。第1差分メトリックが第1閾値よりも大きい場合、本方法は120に進む。閾値よりも大きくない場合、本方法は128に進む。120において、第2差分メトリックを第2閾値と比較する。第2差分メトリックが第2閾値よりも小さい場合、本方法は122に進み、閾値よりも小さくない場合、本方法は128に進む。第1および第2差分メトリックを比較するための第1および第2閾値は同様でもよい。あるいは、2つの閾値は異なってもよい。これらの閾値は、経験的に、またはいずれかの適したメカニズムによって決定すればよい。
[0017] フレームN−1について図2に示すフレーム例を参照すると、表202における輝度値に基づく16次元ベクトルは、フレームNのベクトルと同じとなる。これは、これらのフレームが同じ画像を表すからである。したがって、前述した同じ式を用いてユークリッド距離を計算すると、フレームNおよびN−1の間では、距離が0となる。
[0018] これらのフレームが場面変化を構成するか否か判断するために、計算したユークリッド距離を、各々、閾値と比較することができる。この例では、第1および第2閾値は等しく、経験的に1に等しく決められている。つまり、フレームNからフレームN+1までの距離は、ΔN→N+1=1.21であり、これは第1閾値の1よりも大きい。フレームNからフレームN−1までの距離は、ΔN→N−1=0であり、この場合同じく1である第2閾値よりも小さい。第1距離は閾値よりも大きく、第2距離は閾値よりも大きくないので、場面変化が特定される。
[0019] 図1の122において、フレームNおよびフレームN+1の一方または両方からの情報を、ビデオ・シグネチャとして含める。124において、フレームNのベクトルをフレームN+1のベクトルと連結して、シグネチャを生成する。この実施形態では、フレームNおよびフレームN+1の輝度値に基づく、32次元ベクトルである。126において、場面変化が起こるビデオの始点に対する時間を示すタイムスタンプと、シグネチャを関連付ける。次いで、シグネチャを所定のシグネチャのデーターベースに入力する(submit)ことができ、および/またはシグネチャを検索インデックスに入力して検索し、一致する基準シグネチャを求める。例えば、ビデオが識別情報を含む既知のビデオである場合、データーベースを検索して未知のビデオとの一致を求めるときというような、後の時点において用いるために、シグネチャをその識別情報と共に基準ビデオ・シグネチャ・データーベースに出力することができる。あるいは、ビデオが、識別情報を含まない未知のビデオである場合、生成したシグネチャを検索インデックスに入力し、既知の基準ビデオ内に含まれる一致するシグネチャを基準ビデオ・シグネチャ・データーベースから検索することができる。
[0020] 128において、ビデオ内で他のシグネチャを特定するために検査を続けなければならないと判断した場合、方法100は続いて繰り返し後続のフレームを検査することができる。追加の検査を継続すべきか判断するためには、事実上あらゆる判断基準を用いることができる。例えば、このような検査は、ビデオの終端に達していなければ、またはユーザーが検査を終了することを示さなければ、継続することができる。検査を継続する場合、本方法は130において1フレーム進め、方法100の先頭に戻る。加えて、第1または第2差分メトリックのいずれかが、118および120において、閾値に対するそのそれぞれの条件を満たさない場合、1フレーム進めることができ、本方法は繰り返し後続のフレームを検査することができる。尚、後続の検査に対するステップの一部は、以前の検査から繰り返さなくてもよい場合もあることは理解されてしかるべきである。例えば、検査したフレームの1つが既に分割されていて、そのフレームに対してM次元マトリクスが求められている場合、このような分割および計算を繰り返す必要はない。
[0021] 一方、検査を継続すべきでないと判断した場合(例えば、ビデオにおける全てのシグネチャを識別し終えている場合)、本方法は終了する。
[0022] 尚、方法100は、記載した順序で実行する必要はないことは理解されてしかるべきである。例えば、フレームNとフレームN−1との間の差分メトリックは、フレームNとフレームN+1との間の差分メトリックの計算の前に、後に、または同時に計算してもよい。同様に、第1差分メトリックを閾値と比較するのは、第2差分メトリックの閾値との比較の前、後、または同時でもよい。
[0023] 等しいサイズのセルの格子の平均輝度値を用いることによって、場面変化は、ビデオに操作が行われた後でも、特定することができる。例えば、インターネットを通じて配信されるビデオでは、コントラスト、明るさ等を元のビデオ・ソースから変更するのは極普通である。フレーム全体についての平均輝度に正規化されたセル毎の平均輝度を利用することによって、相対的輝度の差を考慮に入れることができる。更に、場面変化の識別は、ビデオのタイミングには関係ないので、速度を上げたりまたは下げたりしたビデオでも特定することができる。最後に、ビデオのクリップが少なくとも1つの場面変化を含む限り、このクリップも識別することができる。
[0024] 場面変化を特定しシグネチャを作成するプロセスは、識別情報を含むビデオ・コンテンツ、および識別情報を含まないビデオ・コンテンツに対しても実行することができる。既知のビデオからのビデオ・シグネチャは、基準データーベースにおけるそのビデオと関連付けることができる。このようなデーターベースを検索する一方法例は、ローカル鋭敏型ハッシュ(locality sensitive hashing)を含む。この方法では、各基準シグネチャに、ハッシュ・コードと称するコードを付与し、各ハッシュ・コードをハッシュ表のバケット(bucket)に分与する。未知のビデオ・シグネチャ、またはクライアント・シグネチャにもハッシュ・コードを付与する。クライアント・シグネチャが分与されるバケットは、クライアント・シグネチャと同様の参照シグネチャのみを相応に含む。これらから、ユークリッド距離のような差分メトリックを、クライアント・シグネチャと基準シグネチャとの間で計算することができる。
[0025] 基準ビデオ・シグネチャにハッシュ・コードを生成する方法例300について、図3を参照しながら説明する。302において、方法300は、n個で1組のランダム・ベクトル(v,v,...v)を生成するステップを含む。これらの成分は、独立であり、同一の分布に従う正規ランダム変数(identically distributed normal random variable)である。n個のランダム・ベクトルを1回生成することができ、304において、前述の1組を用いて、生成したシグネチャ毎にハッシュ・コードを決定することができる。以下の非限定的な例について、4×4格子に分割したフレームに対応する32次元ベクトルを参照しながら説明する。
[0026] 306において、ハッシュHをランダム・ベクトル毎に決定する。各Hは、以下の式を用いて計算することができる。
Figure 0005980311
ここで、Sは32次元基準シグネチャであり、vは32次元ランダム・ベクトルであり、Bはバケット・サイズであり、これらは経験的に決定することもできる。Bが大きい程信頼性が高い検索結果を得ることができるが、ハッシュ・バケットのサイズが増大し、したがって、そのバケット内にあるシグネチャの数が増大することのために、そのバケット内において検索を行うのに必要な時間長が長くなる。308において、次に、ハッシュを二進に変換しハッシュ・コードを得る。Hをi=1,2,...nについて決定し、次いで310において、全ての二進に変換し、連結してスーパー・ハッシュ・コードHを得る。方法300は、312において、各スーパー・ハッシュ・コードにインデックスを付けて、シグネチャが発生するビデオからのタイムスタップ、ビデオの名称等のようなタグと共に、基準ハッシュ表のバケットに入れるステップを含む。314において、ハッシュすべき基準シグネチャが未だ他にもある場合、本プロセス自体を繰り返す。
[0027] 図4は、未知のシグネチャ、またはクライアント・シグネチャを検索インデックスに入力して、一致する基準シグネチャを発見する方法400の一実施形態を表す流れ図を示す。方法400は、402において、クライアント・シグネチャに対してクエリー・ハッシュ・コードを決定するステップを含む。図3を参照して説明した方法と同様に、406において、クライアント・シグネチャ、ランダム・ベクトル(404において、302で生成した1組から引き出す)、およびバケット・サイズに基づいて、その組のランダム・ベクトル毎に、ハッシュを決定する。408において各ハッシュ・コードを二進に変換し、410において全ての二進ハッシュ・コードを連結して、クライアント・シグネチャに対するクエリー・スーパー・ハッシュ・コードH’を生成する。クエリー・スーパー・ハッシュ・コードH’を、基準ハッシュ表のバケットに割り当て、412において、そのバケットに格納されている全ての基準ハッシュを戻す。414において、クライアント・シグネチャとバケットにおける各基準シグネチャとの間のユークリッド距離のような差分メトリックを計算することができる。416において、閾値よりも小さいユークリッド距離を有する全ての基準シグネチャを、一致として戻す。418において一致が存在しない場合、本方法は424に進む。1つよりも多い一致が420において存在する場合、そのシグネチャは、コマーシャルのような共通コンテンツから派生したと見なすことができ、または低品質のシグネチャであると見なすことができ、したがって、本方法は424に進む。418および420において、1つの一致のみが存在すると判断された場合、クライアント・シグネチャおよび基準シグネチャが同じビデオからである確率が高い。この場合、422においてクライアント・ビデオを基準ビデオとして特定することができ、名称、日付け等のような、この基準ビデオに随伴する情報をクライアント・ビデオに追加することができる。424において、方法400は、ビデオ内でシグネチャを検索して他の一致を求め続けることが必要であるか否か判断する。例えば、最初に一致を発見することができなかった場合、または多数の一致が発見された場合、ビデオ内で追加のクライアント・シグネチャに対する一致を求め続けることが必要なこともある。検索を継続すべきであると判断した場合、方法400は426においてビデオにおける次のシグネチャに進み、方法400の開始に戻る。
[0028] 加えて、クライアント・シグネチャと基準シグネチャとの間の差分メトリックを超える一致の精度を高めることができる。これは、ビデオ内における1つよりも多いクライアント・シグネチャが、そのビデオからの基準シグネチャと一致することを検証することによって、遂行することができる。更に、既知のビデオと未知のビデオとの間に、多数の一致するシグネチャが発見された場合、基準ビデオにおける2つのシグネチャからのタイムスタンプ間の差と、クライアント・ビデオの同じ2つのシグネチャのタイムスタップ間の差との相関を取ることによって、精度を更に検証することができる。図1に関して先に説明したように、タイムスタンプをビデオ・シグネチャと関連付けることができる。クライアント・ビデオ・コンテンツは、基準ビデオと比較して、変更されていることもあるので、絶対時間相関付け(absolute time correlation)を用いるのは精度が高い検証方法ではない場合もある。何故なら、クライアント・ビデオを短縮することや、または余分なビデオ情報を含むことがあるからである。しかしながら、2つのタイムスタンプ間の差を用いると、精度高い相関付けを行うことができる。例えば、基準ビデオの第1ビデオ・シグネチャをタイムスタンプ1:35と関連付けることができ、そのビデオの第2シグネチャを1:50と関連付けることができる。この例では、2つの間の差は0:15である。クライアント・ビデオが、2:15のタイムスタンプを有する基準シグネチャと一致するシグネチャと、2:30のタイムスタンプを有する第2基準シグネチャと一致する第2シグネチャとを有する場合、一致が正確である可能性は高い。何故なら、2つの一致するシグネチャがあり、これらのシグネチャのタイムスタップ間の差が同じであるからである。
[0029] 実施形態の中には、以上で説明した方法およびプロセスを、1つ以上のコンピューターを含む計算システムに繋げることができる場合がある。具体的には、本明細書において説明した方法およびプロセスは、コンピューター・アプリケーション、コンピューター・サービス、コンピューターAPI、コンピューター・ライブラリー、および/または他のコンピューター・プログラム生産物として実現することができる。
[0030] 図5は、以上で説明した方法およびプロセスの1つ以上を実行することができる、非限定的な計算システム502を模式的に示す。計算システム502は、簡素化された形態で示されている。尚、本開示の範囲から逸脱することなく、事実上あらゆるコンピューター・アーキテクチャーを使用できることは言うまでもない。異なる実施形態では、計算システム502は、メインフレーム・コンピューター、サーバー・コンピューター、デスクトップ・コンピューター、ラップトップ・コンピューター、タブレット・コンピューター、家庭用娯楽コンピューター、ネットワーク計算デバイス、移動体計算デバイス、移動体通信デバイス、ゲーミング・デバイス等の形態をなすこともできる。
[0031] 計算システム502は、ロジック・サブシステム504とデーター保持サブシステム506とを含む。計算システム502は、任意に、ディスプレイ・サブシステム508、通信サブシステム510、および/または図5には示されていない他のコンポーネントも含むことができる。また、任意に、計算システム502は、例えば、キーボード、マウス、ゲーム・コントローラー、カメラ、マイクロフォン、および/またはタッチ・スクリーンのような、ユーザー入力デバイス512も含むことができる。
[0032] 計算システム502は、サーバー514のような遠隔計算デバイスと、ネットワーク516を通じて通信するように構成することができる。計算システム502と同様、サーバー514も論理サブシステム518とデーター保持サブシステム520とを含む。サーバー514は、ユーザーが視聴するために、ビデオ・ストリームを計算システム502に送ることができる。ビデオ・ストリームに識別情報が欠けている場合、図1および図2を参照して説明したように、ビデオ・ストリームを検索してビデオ・シグネチャを求めることができる。更に、サーバー514または他のサーバーは、基準ビデオを検索してビデオ・シグネチャを求めることができ、タグ付けされた基準シグネチャを格納するために、基準シグネチャ・データーベース522を利用することもできる。あるいは、基準シグネチャ・データーベース524を、サーバーから離れて格納することもでき、サーバーはネットワークを通じてこのデーターベースにアクセスすることができる。
[0033] ハッシュ表の分散型の性質のために、サーバー514の役割を分散型サーバー・ネットワークに分担させるとよい。この場合、負荷均衡部がある。負荷均衡部は、計算システム502と通信し、着信するシグネチャ照合要求に対するハッシュ値に応じて、数個のサーバーの内1つにシグネチャ照合を委任する。各サーバーは、データーベースの内、ハッシュ表からの一定のハッシュ・バケットに対応する部分集合をホストする。任意に、重複がある可能性もある。その場合、各サーバーがハッシュ・バケットを保持するが、ハッシュ表全体が分散システム全域にわたって示されるように、各バケットはあるサーバーによって保持される。
[0034] 論理サブシステム504は、1つ以上の命令を実行するように構成されている1つ以上の物理デバイスを含むことができる。例えば、論理サブシステムは、1つ以上のアプリケーション、サービス、プログラム、ルーチン、ライブラリー、オブジェクト、コンポーネント、データー構造、または他の論理的構造体の一部である1つ以上の命令を実行するように構成することができる。このような命令は、タスクを実行するため、データー型を実装するため、1つ以上のデバイスの状態を変換するため、またはそれ以外で所望の結果に到達するために実現することができる。
[0035] 論理サブシステムは、ソフトウェア命令を実行するように構成されている1つ以上のプロセッサーを含むことができる。加えてまたは代わりに、論理サブシステムは、ハードウェアまたはファームウェア命令を実行するように構成されている1つ以上のハードウェアまたはファームウェア論理機械を含むこともできる。論理サブシステムのプロセッサーは1つのコアまたはマルチコアであってもよく、そこで実行されるプログラムは、並列処理または分散処理に合わせて構成することができる。論理サブシステムは、任意に、2つ以上のデバイスにわたって分散されている個別のコンポーネントを含むこともあり、これらのデバイスは、離れて配置されること、および/または協調処理(coordinated processing)を可能にするように構成することができる。論理サブシステムの1つ以上の態様は、クラウド計算構成に構成され、離れてアクセス可能なネットワーク接続計算デバイスによって、仮想化および実行することができる。
[0036] データー保持サブシステム506は、1つ以上の物理的、非一時的デバイスを含むことができる。これらのデバイスは、本明細書において説明した方法およびプロセスを実現するために、データーおよび/または論理サブシステムによって実行可能な命令を保持するように構成されている。このような方法およびプロセスを実現するとき、データー保持サブシステム506の状態を転換することができる(例えば、異なるデーターを保持するため)。
[0037] データー保持サブシステム506は、リムーバブル媒体および/または内蔵媒体を含むことができる。データー保持サブシステム506は、とりわけ、光メモリー・デバイス(例えば、CD、DVD、HD−DVD、ブルー・レイ・ディスク等)、半導体メモリー・デバイス(例えば、RAM、EPROM、EEPROM等)、および/または磁気メモリー・デバイス(例えば、ハード・ディスク・ドライブ、フロッピー(登録商標)・ディスク・ドライブ、テープ・ドライブ、MRAM等)を含むことができる。データー保持サブシステム506は、以下の特性の内1つ以上を有するデバイスを含むことができる。揮発性、不揮発性、ダイナミック、スタティック、リード/ライト、リード専用、ランダム・アクセス、順次アクセス、位置アドレス可能、ファイル・アドレス可能、およびコンテンツ・アドレス可能。実施態様の中には、論理サブシステム504およびデーター保持サブシステム506を、特定用途集積回路またはチップ上システムのような、1つ以上の共通デバイスに統合できる場合もある。
[0038] また、図5は、リムーバブル・コンピューター読み取り可能記憶媒体526の形態としたデーター保持サブシステムの態様も示す。これは、データーおよび/または本明細書において説明した方法およびプロセスを実現するために実行可能な命令を格納および/または転送するために用いることができる。リムーバブル・コンピューター読み取り可能記憶媒体526は、とりわけ、CD、DVD、HD−DVD、ブルー・レイ・ディスク、EEPROM、および/またはフロッピー(登録商標)・ディスクの形態をなすことができる。
[0039] 尚、データー保持サブシステム506は、1つ以上の物理的、非一時的デバイスを含むことは認められてしかるべきである。対照的に、実施形態の中には、本明細書において説明した命令の態様を、一時的に、純粋な信号(例えば、電磁信号、光信号等)によって伝搬させることができる場合もある。この信号は、物理デバイスによって少なくとも有限の期間保持されることはない。更に、本開示に関するデーターおよび/または他の形態の情報を、純粋な信号によって伝搬させることもできる。
[0040] 「モジュール」、「プログラム」、および「エンジン」という用語は、1つ以上の特定の機能を実行するために実現される計算システム502の態様を記述するために用いることができる。場合によっては、このようなモジュール、プログラム、またはエンジンは、データー保持サブシステム506によって保持されている命令を実行する論理サブシステム504によってインスタンス化することもできる。尚、異なるモジュール、プログラム、および/またはエンジンを異なるアプリケーション、サービス、コード・ブロック、オブジェクト、ルーチン、API、関数等からインスタンス化してもよいことは言うまでもない。同様に、同じモジュール、プログラム、および/またはエンジンを、異なるアプリケーション、サービス、コード・ブロック、オブジェクト、ルーチン、API、関数等によってインスタンス化してもよい。「モジュール」、「プログラム」、および「エンジン」という用語は、個々の実行可能ファイル、データー・ファイル、ライブラリー、スクリプト、データーベース・レコード等またはその集合を含むことを意図している。
[0041] 尚、本明細書において用いる場合、「サービス」は、多数のユーザー・セッションに跨がって実行可能であり、1つ以上のシステム・コンポーネント、プログラム、および/またはその他のサービスに利用可能なアプリケーション・プログラムであってもよいことは認められてしかるべきである。実施態様の中には、クライアントからの要求に応答して、サービスがサーバー上で実行できる場合もある。
[0042] ディスプレイ・サブシステム508は、含まれる場合、データー保持サブシステム506によって保持されているデーターの視覚的表現を提示するために用いることができる。本明細書において説明した方法およびプロセスが、データー保持サブシステムによって保持されているデーターを変化させると、つまりデーター保持サブシステムの状態を転換させると、ディスプレイ・サブシステム508の状態も同様に転換して、基礎となるデーターの変化を視覚的に表すことができる。ディスプレイ・サブシステム508は、事実上あらゆるタイプの技術を利用する1つ以上のディスプレイ・デバイスを含むことができる。このようなディスプレイ・デバイスは、共有筐体内において論理サブシステム504および/またはデーター保持サブシステム506と組み合わせることもでき、あるいはこのようなディスプレイ・デバイスは、周辺ディスプレイ・デバイスであってもよい。
[0043] 通信サブシステム510は、含まれる場合、計算システム502をサーバー514のような1つ以上の他の計算デバイスと通信状態で結合するように構成することができる。通信サブシステム510は、1つ以上の異なる通信プロトコルと互換性のある有線通信デバイスおよび/またはワイヤレス通信デバイスを含むことができる。非限定的な例として、通信サブシステムは、ワイヤレス電話ネットワーク、ワイヤレス・ローカル・エリア・ネットワーク、有線ローカル・エリア・ネットワーク、ワイヤレス・ワイド・エリア・ネットワーク、有線ワイド・エリア・ネットワーク等を通じた通信に合わせて構成することができる。実施形態の中には、通信サブシステムによって、インターネットのようなネットワークを通じて、計算システム502がメッセージを他のデバイスに送ること、および/または計算システム502がメッセージを他のデバイスから受信するが可能になる場合もある。
[0044] 本明細書において説明した構成および/または手法は性質上例示であること、そしてこれらの具体的な実施形態や例を限定的な意味で捕らえてはならないことは言うまでもない。何故なら、多数の変形が可能であるからである。本明細書において説明した具体的なルーチンまたは方法は、あらゆる数の処理方策の内1つ以上を表すことができる。したがって、例示した種々の動作は、例示したシーケンスで、他のシーケンスで、並列で実行してもよく、場合によっては省略してもよい。同様に、以上で説明したプロセスの順序も変更してもよい。
[0045] 本開示の主題は、種々のプロセス、システムおよび構成、ならびにその他の特徴、機能、および/または本明細書において開示した固有性(properties)、更にはそのいずれかおよび全ての均等物の、全ての新規で非自明のコンビネーションおよびサブコンビネーションを含むこととする。

Claims (19)

  1. ビデオのシグネチャを発見する方法であって、
    前記ビデオのフレームNを複数のセルに分割するステップと、
    フレームNの各セルのビデオ属性を計算するステップと、
    前記ビデオのフレームN+1を前記複数のセルに分割するステップと、
    フレームN+1の各セルのビデオ属性を計算するステップと、
    前記ビデオのフレームN−1を複数のセルに分割するステップと、
    フレームN−1の各セルのビデオ属性を計算するステップと、
    前記複数のセルの内各セルについて、前記フレームNのビデオ属性と前記フレームN+1のビデオ属性との間の差を含む、フレームNとフレームN+1間の差分メトリックを計算するステップと、
    前記複数のセルの内各セルについて、前記フレームNのビデオ属性と前記フレームN−1のビデオ属性との間の差を含む、フレームNとフレームN−1間の差分メトリックを計算するステップと、
    フレームNとフレームN+1間の前記差分メトリックが第1閾値を超過し、フレームNとフレームN−1間の前記差分メトリックが第2閾値を超過しないのに応じて、フレームNおよびフレームN+1の一方または双方からの情報を含むビデオ・シグネチャを生成するステップと、
    を含
    前記複数のセルがM個のセルを含み、フレーム毎のM次元ベクトルが、前記複数のM個のセルの各々について前記ビデオ属性を含み、
    前記ビデオ・シグネチャの生成が、フレームNの前記M次元ベクトルをフレームN+1の前記M次元ベクトルと連結することを含む、方法。
  2. 請求項記載の方法において、フレームNとフレームN+1間の前記差分メトリックを計算するステップが、フレームNの前記M次元ベクトルとフレームN+1の前記M次元ベクトル間のユークリッド距離を計算するステップを含む、方法。
  3. 請求項1記載の方法において、前記ビデオ属性が当該セルの平均輝度である、方法。
  4. 請求項1記載の方法において、前記ビデオ属性が、当該フレームの全てのセルの平均輝度に対して正規化した当該セルの平均輝度である、方法。
  5. 請求項1記載の方法において、前記ビデオ・シグネチャが、フレームN+1の前記ビデオ属性の各々と連結されたフレームNの前記ビデオ属性の各々を含む、方法。
  6. 請求項1記載の方法において、前記ビデオのフレームNを前記複数のセルに分割するステップが、前記フレームNを4×4格子のセルに分割するステップを含む、方法。
  7. 請求項1記載の方法において、フレームN+1はフレームNの直後であり、フレームN−1はフレームNの直前である、方法。
  8. 請求項1記載の方法において、フレームN−1をM個のセルに分割し、フレームN−1のM次元ベクトルが、各セルについての前記ビデオ属性を含み、フレームNとフレームN−1間の前記差分メトリックを計算するステップが、フレームNの前記M次元ベクトルとフレームN−1の前記M次元ベクトル間のユークリッド距離を計算するステップを含む、方法。
  9. 請求項1記載の方法であって、タイムスタンプを前記ビデオ・シグネチャに関連付けるステップを含む、方法。
  10. 請求項1記載の方法であって、前記第1閾値および前記第2閾値が等しい、方法。
  11. ビデオのシグネチャを生成する方法であって、
    前記ビデオのフレームNをM個のセルの格子に分割するステップであって、フレームNの各セルについての平均輝度値を含む、ステップと、
    前記ビデオのフレームN+1をM個のセルのグリッドに分割するステップであって、フレームN+1の各セルについての平均輝度値を含む、ステップと、
    前記ビデオのフレームN−1をM個のセルのグリッドに分割するステップであって、フレームN−1の各セルについての平均輝度値を含む、ステップと、
    フレームN、フレームN+1およびフレームN−1の各々のM次元ベクトルを計算するステップであって、前記M次元ベクトルが、その異なる次元毎に、当該フレームとは異なるセルの平均輝度値を含む、ステップと、
    前記フレームNのM次元ベクトルと前記フレームN+1のM次元ベクトル間のユークリッド距離を計算するステップと、
    前記フレームNのM次元ベクトルと前記フレームN−1のM次元ベクトル間のユークリッド距離を計算するステップと、
    フレームNとフレームN+1間の前記ユークリッド距離が第1閾値を超過し、且つ、フレームNとフレームN−1間の前記ユークリッド距離が第2閾値を超過しないことに応じて、フレームN+1の前記M次元ベクトルと連結されたフレームNの前記M次元ベクトルを含むビデオ・シグネチャを生成するステップと
    を含む、方法。
  12. 請求項11記載の方法において、1つのフレームの各セルについての前記平均輝度値が、当該フレームの全てのセルについての平均輝度に対して正規化される、方法。
  13. 請求項11記載の方法において、前記M個のセルの格子が4×4格子である、方法。
  14. 請求項11記載の方法において、更に、繰り返し後続のフレームに進み、前記ビデオ内の追加のシグネチャを検索するステップを含む、方法。
  15. 請求項11記載の方法において、タイムスタンプを前記ビデオ・シグネチャに関連付けるステップを含む、方法。
  16. 論理サブシステムによって実行可能な命令を保持するデータ保持サブシステムであって、
    ビデオ内にある一連の3つの連続フレームを繰り返し検査して、場面変化を求め、各前記検査が、
    前記ビデオのフレームNをM個のセルを含む格子に分割し、
    フレームNのM次元ベクトルを計算し、前記M次元ベクトルが、該M次元ベクトルの異なる次元毎に、フレームNとは異なるセルの平均輝度値を含み、
    前記ビデオのフレームN+1を、M個のセルを含む格子に分割し、
    フレームN+1のM次元ベクトルを計算し、前記M次元ベクトルが、該M次元ベクトルの異なる次元毎に、フレームN+1とは異なるセルの平均輝度値を含み、
    前記ビデオのフレームN−1を、M個のセルを含む格子に分割し、
    フレームN−1のM次元ベクトルを計算し、前記M次元ベクトルが、該M次元ベクトルの異なる次元毎に、フレームN−1とは異なるセルの平均輝度値を含み、
    フレームNの前記M次元ベクトルとフレームN+1の前記M次元ベクトル間のユークリッド距離を計算し、
    フレームNとフレームN+1間の前記ユークリッド距離が第1閾値を超過する場合に、前記フレームNの前記M次元ベクトルとフレームN−1の前記M次元ベクトル間のユークリッド距離を計算し、
    フレームNとフレームN−1間の前記ユークリッド距離が第2閾値を超過しないことに応じて、フレームN+1の前記M次元ベクトルと連結されたフレームNの前記M次元ベクトルを含むビデオ・シグネチャを生成する
    ことを含む、データ保持サブシステム。
  17. 請求項16記載のデータ保持サブシステムにおいて、1つのフレームの各セルについての前記平均輝度値が、当該フレームの全てのセルについての平均輝度に対して正規化される、データ保持サブシステム。
  18. 請求項16記載のデータ保持サブシステムにおいて、タイムスタンプを前記ビデオ・シグネチャに関連付けることを含む、データ保持サブシステム。
  19. 請求項16記載のデータ保持サブシステムにおいて、前記格子が4×4格子である、データ保持サブシステム。
JP2014503677A 2011-04-05 2012-03-23 ビデオ・シグネチャ Expired - Fee Related JP5980311B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/080,494 2011-04-05
US13/080,494 US8786785B2 (en) 2011-04-05 2011-04-05 Video signature
PCT/US2012/030396 WO2012138491A2 (en) 2011-04-05 2012-03-23 Video signature

Publications (3)

Publication Number Publication Date
JP2014513468A JP2014513468A (ja) 2014-05-29
JP2014513468A5 JP2014513468A5 (ja) 2015-05-14
JP5980311B2 true JP5980311B2 (ja) 2016-08-31

Family

ID=46965845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014503677A Expired - Fee Related JP5980311B2 (ja) 2011-04-05 2012-03-23 ビデオ・シグネチャ

Country Status (6)

Country Link
US (1) US8786785B2 (ja)
EP (1) EP2695378B1 (ja)
JP (1) JP5980311B2 (ja)
KR (1) KR101921354B1 (ja)
CN (1) CN103460711B (ja)
WO (1) WO2012138491A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7415242B2 (ja) 2018-03-09 2024-01-17 国立研究開発法人物質・材料研究機構 磁気分離装置

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130020050A (ko) * 2011-08-18 2013-02-27 삼성전자주식회사 로컬리티 센서티브 해시의 버킷 구간 관리 장치 및 그 방법
TWI538492B (zh) * 2012-10-05 2016-06-11 Video clip search method
MY168873A (en) * 2012-12-07 2018-12-04 Mimos Berhad System and method for verifying authenticity of a media content
US9668020B2 (en) * 2014-04-07 2017-05-30 The Nielsen Company (Us), Llc Signature retrieval and matching for media monitoring
US10015541B2 (en) * 2015-03-25 2018-07-03 Cisco Technology, Inc. Storing and retrieval heuristics
CN107431831B (zh) * 2015-03-25 2020-08-11 思科技术公司 使用视频帧来标识视频序列的装置和方法
US9578394B2 (en) 2015-03-25 2017-02-21 Cisco Technology, Inc. Video signature creation and matching
KR102560635B1 (ko) * 2015-12-28 2023-07-28 삼성전자주식회사 컨텐트 인식 장치 및 그 동작 방법
US10338916B2 (en) * 2016-12-07 2019-07-02 Sap Se Software version fingerprint generation and identification
CN107071577A (zh) * 2017-04-24 2017-08-18 安徽森度科技有限公司 一种视频传送签名方法
US20190042853A1 (en) * 2017-08-04 2019-02-07 Facebook, Inc. System and Method of Determining Video Content
US10306333B2 (en) 2017-09-13 2019-05-28 The Nielsen Company (Us), Llc Flagging advertisement frames for automatic content recognition
US10803038B2 (en) * 2017-09-13 2020-10-13 The Nielsen Company (Us), Llc Cold matching by automatic content recognition
US10911824B2 (en) * 2018-11-05 2021-02-02 The Nielsen Company (Us), Llc Methods and apparatus to generate reference signatures
US20220092186A1 (en) * 2019-01-25 2022-03-24 Nec Corporation Security information analysis device, system, method and program
CN112099725A (zh) * 2019-06-17 2020-12-18 华为技术有限公司 一种数据处理方法、装置及计算机可读存储介质
US20210005192A1 (en) 2019-07-05 2021-01-07 Talkdesk, Inc. System and method for text-enabled automated agent assistance within a cloud-based contact center
US11328205B2 (en) 2019-08-23 2022-05-10 Talkdesk, Inc. Generating featureless service provider matches
US20210117882A1 (en) 2019-10-16 2021-04-22 Talkdesk, Inc Systems and methods for workforce management system deployment
US20210136220A1 (en) 2019-10-31 2021-05-06 Talkdesk, Inc. Monitoring and listening tools across omni-channel inputs in a graphically interactive voice response system
US11736615B2 (en) 2020-01-16 2023-08-22 Talkdesk, Inc. Method, apparatus, and computer-readable medium for managing concurrent communications in a networked call center
CN112507959A (zh) * 2020-12-21 2021-03-16 中国科学院心理研究所 一种基于视频中个体面部分析的情绪感知模型的建立方法
US11677875B2 (en) 2021-07-02 2023-06-13 Talkdesk Inc. Method and apparatus for automated quality management of communication records
US11856140B2 (en) 2022-03-07 2023-12-26 Talkdesk, Inc. Predictive communications system
US11736616B1 (en) 2022-05-27 2023-08-22 Talkdesk, Inc. Method and apparatus for automatically taking action based on the content of call center communications
US11971908B2 (en) 2022-06-17 2024-04-30 Talkdesk, Inc. Method and apparatus for detecting anomalies in communication data
US11943391B1 (en) 2022-12-13 2024-03-26 Talkdesk, Inc. Method and apparatus for routing communications within a contact center

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4353088A (en) * 1980-05-14 1982-10-05 Oak Industries, Inc. Coding and decoding system for video and audio signals
US4739398A (en) * 1986-05-02 1988-04-19 Control Data Corporation Method, apparatus and system for recognizing broadcast segments
JP3823333B2 (ja) * 1995-02-21 2006-09-20 株式会社日立製作所 動画像の変化点検出方法、動画像の変化点検出装置、動画像の変化点検出システム
US5870754A (en) * 1996-04-25 1999-02-09 Philips Electronics North America Corporation Video retrieval of MPEG compressed sequences using DC and motion signatures
US5767923A (en) * 1996-06-07 1998-06-16 Electronic Data Systems Corporation Method and system for detecting cuts in a video signal
KR20050061594A (ko) 2002-11-01 2005-06-22 코닌클리케 필립스 일렉트로닉스 엔.브이. 개선된 오디오 데이터 지문 검색
US20040240562A1 (en) 2003-05-28 2004-12-02 Microsoft Corporation Process and system for identifying a position in video using content-based video timelines
AU2003272483A1 (en) 2003-09-12 2005-04-27 Nielsen Media Research, Inc. Digital video signature apparatus and methods for use with video program identification systems
US7336841B2 (en) * 2004-03-25 2008-02-26 Intel Corporation Fingerprinting digital video for rights management in networks
CN101548294B (zh) * 2006-11-30 2012-06-27 杜比实验室特许公司 提取视频和音频信号内容的特征以提供信号的可靠识别
US8655031B2 (en) 2007-03-27 2014-02-18 Sony Corporation Video content identification using scene change signatures from downscaled images
US8488061B2 (en) 2007-05-17 2013-07-16 Dolby Laboratories Licensing Corporation Deriving video signatures that are insensitive to picture modification and frame-rate conversion
WO2009035764A2 (en) 2007-07-16 2009-03-19 Novafora, Inc. Method and apparatus for video digest generation
US9177209B2 (en) * 2007-12-17 2015-11-03 Sinoeast Concept Limited Temporal segment based extraction and robust matching of video fingerprints
JP4924447B2 (ja) * 2008-01-25 2012-04-25 ソニー株式会社 シーン切り替わり点検出器、シーン切り替わり点検出方法、記録装置、イベント生成器、イベント生成方法および再生装置
US20110032984A1 (en) 2008-07-17 2011-02-10 Guy Dorman Methods circuits and systems for transmission of video
US8498487B2 (en) 2008-08-20 2013-07-30 Sri International Content-based matching of videos using local spatio-temporal fingerprints
EP2208153B1 (en) 2008-10-29 2013-12-11 NDS Limited Video signature
EP2383697A4 (en) * 2009-01-23 2012-09-05 Nec Corp APPARATUS FOR EXTRACTING IDENTIFIERS FROM IMAGES

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7415242B2 (ja) 2018-03-09 2024-01-17 国立研究開発法人物質・材料研究機構 磁気分離装置

Also Published As

Publication number Publication date
JP2014513468A (ja) 2014-05-29
KR101921354B1 (ko) 2018-11-22
EP2695378A2 (en) 2014-02-12
US20120257116A1 (en) 2012-10-11
EP2695378A4 (en) 2014-09-24
US8786785B2 (en) 2014-07-22
WO2012138491A3 (en) 2013-01-10
CN103460711A (zh) 2013-12-18
EP2695378B1 (en) 2015-08-05
WO2012138491A2 (en) 2012-10-11
CN103460711B (zh) 2017-03-22
KR20140015430A (ko) 2014-02-06

Similar Documents

Publication Publication Date Title
JP5980311B2 (ja) ビデオ・シグネチャ
US11080331B2 (en) Systems and methods for addressing a media database using distance associative hashing
JP6891170B2 (ja) ステムリソース利用を最適化するための映像セグメントの将来の視聴予測
US11949964B2 (en) Generating action tags for digital videos
US9055335B2 (en) Systems and methods for addressing a media database using distance associative hashing
CA2906199C (en) Systems and methods for addressing a media database using distance associative hashing
TWI551134B (zh) 在至少一個計算設備中執行視頻指紋生成及識別的方法及系統
US8468146B2 (en) System and method for creating search index on cloud database
US9412035B2 (en) Place-based image organization
EP3001871B1 (en) Systems and methods for addressing a media database using distance associative hashing
US20180276286A1 (en) Metadata Extraction and Management
US20190311746A1 (en) Indexing media content library using audio track fingerprinting
US8588534B2 (en) Staged element classification
CN115118616B (zh) 展示结果测试方法、装置、计算机设备和存储介质
US20170357654A1 (en) Using audio and video matching to determine age of content
CN116170640A (zh) 一种异常行为确定方法、装置、计算机设备以及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150323

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160229

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160726

R150 Certificate of patent or registration of utility model

Ref document number: 5980311

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees