JP2010519832A - 放送データを監視および認識するためのシステムおよび方法 - Google Patents

放送データを監視および認識するためのシステムおよび方法 Download PDF

Info

Publication number
JP2010519832A
JP2010519832A JP2009550635A JP2009550635A JP2010519832A JP 2010519832 A JP2010519832 A JP 2010519832A JP 2009550635 A JP2009550635 A JP 2009550635A JP 2009550635 A JP2009550635 A JP 2009550635A JP 2010519832 A JP2010519832 A JP 2010519832A
Authority
JP
Japan
Prior art keywords
broadcast
recognition
data
audio
signature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009550635A
Other languages
English (en)
Other versions
JP5368319B2 (ja
JP2010519832A5 (ja
Inventor
ブリグス,ダレン,ピー
ウォアドウエル,リチァド
Original Assignee
ランドマーク、ディジタル、サーヴィセズ、エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ランドマーク、ディジタル、サーヴィセズ、エルエルシー filed Critical ランドマーク、ディジタル、サーヴィセズ、エルエルシー
Publication of JP2010519832A publication Critical patent/JP2010519832A/ja
Publication of JP2010519832A5 publication Critical patent/JP2010519832A5/ja
Application granted granted Critical
Publication of JP5368319B2 publication Critical patent/JP5368319B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/12Arrangements for observation, testing or troubleshooting
    • H04H20/14Arrangements for observation, testing or troubleshooting for monitoring programmes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/372Programme
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/90Aspects of broadcast communication characterised by the use of signatures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

オーディオ放送を監視および認識するためのシステムが説明される。このシステムは、それぞれが複数のオーディオ放送から未知のオーディオ・データを受信する、複数の地理的に分散した監視局を備えている。認識システムは、複数の監視局から未知のオーディオ・データを受信し、その未知のオーディオ・データを署名ファイルのデータベースと比較する。署名ファイル、すなわち、インデックス・セットのデータベースは、既知のオーディオ・ファイルのライブラリに相当し、そのため、認識システムは、比較の結果として、未知のオーディオ・ストリーム内の既知のオーディオ・ファイルを識別することができる。このシステムは、複数の監視局および認識システムを監視および構成することができるナーバス・システム、および認識システムによって実行される比較の結果を分析し、既知のオーディオ・ファイルのそれぞれに関連付けられたメタデータを使用して複数のオーディオ放送のコンテンツの報告書を生成することができるヒューリスティックおよび報告システムをさらに含んでいる。

Description

様々なソース(source)から生成されるビデオ、音楽、または他のオーディオまたはビデオ信号などの放送信号の自動的な認識に対するするニーズが高まりつつある。放送信号のソースとしては、それだけには限らないが、地上ラジオ、衛星ラジオ、インターネット・オーディオおよびビデオ、ケーブル・テレビ、地上テレビ放送、および衛星テレビなどがある。放送メディアの数が増えつつあるので、著作物の所有者または広告主は、自分の材料(material)の放送の頻度に関するデータを取得することに関心がある。音楽追跡サービス(music tracking services)が、大きい市場の主要ラジオ局の放送録音テープリスト(playlist)を提供している。人間によって行われる場合、どのような継続的、リアルタイム、または準リアルタイム(near real−time)の認識も非効率的であり、大きい労力を要する。したがって、ラジオ局およびテレビ局など、多数の放送ソース(broadcast source)を監視し、それらの放送のコンテンツを認識する自動化された方法があれば、著作権所有者、広告主、芸術家、および様々な産業に相当な利益をもたらすであろう。
伝統的に、ラジオで放送される楽曲などのオーディオ放送の認識は、楽曲(song)が放送されたラジオ局および時刻を、ラジオ局によって、または第3者のソースから提供された放送録音テープリストと照合することにより行われている。この方法は、本質的に、情報が提供されるラジオ局に限定される。他の方法は、放送の統計的なサンプリングを利用することができ、その結果は、全放送局の実際の放送録音テープリストを評価するために使用される。さらに他の方法は、放送信号の中に聞き取り不能なコードの埋め込みを行う。埋め込まれた信号は、その放送信号に関する識別情報を抽出するために受信側で復号化される。この方法の欠点は、信号を識別するために特殊な復号化デバイスが必要であり、かつ埋め込みコードを有する楽曲しか識別できないことである。
音楽コンテンツまたはビデオ・コンテンツなどの著作権所有者は、一般的に、自分の楽曲またはビデオが放送または放映された事例ごとに報酬を受ける権利がある。特に音楽の著作権所有者の場合、自分の楽曲が何千ものラジオ局のいずれかで、いつ、無線、および今日ではインターネットの両方で放送されるかを判定するのは、気が遠くなるような作業である。伝統的には、著作権所有者は、このような事情の使用権を包括して第3者の会社に委譲し、その会社が、目録上の著作権所有者に対して報酬を払うために、音楽を営利目的で放送するエンティティに予約料を請求する。これらの料金は、どの楽曲が最も多く放送されるかに応じて著作権所有者に報酬を支払うように設計された統計モデルに基づいて著作権所有者に分配される。これらの統計による方法は、小さいサンプル規模に基づいた、実際の放送事例の非常に大ざっぱな概算でしかなかった。
どの大規模認識システムもコンテンツに基づく検索を必要とし、類似または同一のデータベース信号を識別するために、未識別の放送信号が既知の信号のデータベースと比較される。コンテンツに基づく検索は、オーディオ・ファイルを囲む、またはオーディオ・ファイルに関連付けられたメタデータ・テキストのみがサーチされる、ウェブ検索エンジンによる既存のオーディオ検索とは異なっている。音声信号を、よく知られた手法を用いてインデックスを付けて、サーチできるテキストに変換するために音声認識が有用であるが、音声認識は、音楽およびサウンドを含む大多数のオーディオ信号には適用できない。オーディオ信号は、サーチおよびインデックス付けのための識別子を提供する語など、容易に識別可能なエンティティが欠落している。そのため、現在のオーディオ検索方式は、信号の様々な品質または特徴を表す、算出された知覚特性によってオーディオ信号にインデックスを付けている。
さらに、既存の大規模認識システムは、一般的に、特性付けられており、かつ着信する放送ストリームと照合できる要素、例えば、楽曲のデータベースのサイズを目安として、大規模と見なされる。これらのシステムは、継続して監視できる放送ストリームの数、または発生し得る同時認識の数の観点から大規模なのではない。
必要とされているのは、多数の放送メデイア・ストリームにわたって同時に、要素を、それがビデオであってもオーディオであっても、認識するためのシステムおよび方法である。
したがって、本明細書で説明される概念に従って、放送監視および認識システムの実施形態が説明される。このシステムは、少なくとも1つの放送メディア・ストリームから放送データを受信する少なくとも1つの監視局を備えている。このシステムは、少なくとも1つの監視局から放送データを受信する認識システムをさらに備え、その認識システムは署名ファイルのデータベースを有し、各署名ファイルは既知のメディア・ファイルに相当する。認識システムは、放送データ内のメディア要素の識別情報を判定するために、放送データを署名ファイルと比較するように動作可能である。分析および報告システムが認識システムに接続され、その分析および報告システムは、既知のメディア・ファイルに相当する、放送データ内の中間要素(medial element)を識別する報告書を生成するように動作可能である。
別の実施形態において、放送データを監視および認識する方法が説明される。この方法は、複数の放送ソースから放送データを受信および集計するステップと、その放送データを署名ファイルのデータベースからの、それぞれが既知のメデイア・ファイルに相当する署名ファイルと比較するステップと、放送データのコンテンツを判定するために比較の結果を分析するステップとを含む。
別の実施形態において、オーディオ放送を監視および認識するためのシステムが説明される。このシステムは、それぞれが複数のオーディオ放送から未知のオーディオ・データを受信する、複数の地理的に分散した監視局を備えている。認識システムは、複数の監視局から未知のオーディオ・データを受信し、その未知のオーディオに対して署名を生成し、未知のオーディオ・データに対する署名を、既知のオーディオ・ファイルのライブラリに相当する、署名ファイルのデータベースと比較する。認識システムは、その比較の結果として、未知のオーディオ・ストリーム内のオーディオ・ファイルを識別することができる。ナーバス・システムが、複数の監視局および認識システムを監視および構成することができ、ヒューリスティックおよび報告システムが、認識システムによって実行された比較の結果を分析し、既知のオーディオ・ファイルのそれぞれに関連付けられたメタデータを使用して複数のオーディオ放送のコンテンツの報告書を生成することができる。
上記説明は、これ以降の発明の詳細な説明がよりよく理解できるように本発明の特徴および技術的利点をやや大ざっぱに概説したものである。以下で、本発明の付随的な特徴および利点を述べるが、それらは本発明の特許請求の範囲の主題となるものである。当業者は、開示される概念および特定の実施形態は、本発明と同じ目的を達成するために変形するか、または他の構成を設計する基礎として容易に利用できることを理解されたい。また、当業者は、そのような均等な構成は添付の特許請求の範囲で記載された本発明の精神および範囲から逸脱しないことも理解されたい。本発明の特徴と考えられる新規の特徴は、その編成および動作方法の両方について、添付の図面と関連付けて考察すれば、さらなる目的および利点と共に以下の説明からよりよく理解されるであろう。しかし、図面のそれぞれは例示および説明の目的で記載されるに過ぎず、本発明の限定の定義として意図されたものでないことを明確に理解すべきである。
本発明およびその利点をより完全に理解するために、添付の図面に関連付けて記載される以下の説明を参照されたい。
本明細書で説明される概念による、監視および認識システムの実施形態のブロック図である。 図1に示された監視システムの実施形態をさらに示したブロック図である。 図1に示された認識システムの実施形態をさらに示したブロック図である。 図1に示されたヒューリスティックおよび報告システムの実施形態をさらに示したブロック図である。 図1に示されたナーバス・システムの実施形態をさらに示したブロック図である。 図1に示されたオーディオ・ソーシング・システムの実施形態をさらに示したブロック図である。 メディア・サンプルを認識するプロセスの実施形態のフローチャートである。 本発明による、ランドマークおよびフィンガープリンティング・プロセスの実施形態を示した図である。 本発明による、ランドマークとフィンガープリント照合のための照合プロセスの実施形態を示した図である。 本明細書で説明される概念による、自動認識システムおよび方法の実施形態のプロセス・フローとエンティティの図である。 本明細書で説明される概念による、参照ライブラリおよび構成要素の実施形態を示したブロック図である。 本明細書で説明される概念による、参照ライブラリ作成システムおよび方法の実施形態のプロセス・フローとエンティティの図である。
図1を参照すると、複数の放送ソースのコンテンツを監視および識別するためのシステム100の実施形態が示されている。システム100は、ゲートウェイ104に、監視局103によって示されているように直接、またはトランスポート・ネットワーク102を介して接続されている複数の監視局101、103を備えている。トランスポート・ネットワーク102は、インターネットを含めて、任意のタイプの無線、有線、または衛星ネットワーク、またはそれらの任意の組合せであってよい。
監視局101、103は地理的に分散していることが可能であり、1つまたは複数のタイプの放送メデイアによる1つまたは複数の放送を監視するために必要なハードウェアを備えることができる。放送は、オーディオおよび/またはビデオ放送であってよく、それらには、それだけには限らないが、無線放送、ケーブル放送、インターネット放送、衛星放送、または放送信号の直接的な供給などが含まれる。監視局101は、放送データをトランスポート・ネットワーク102を介してゲートウェイ104に直接送信できる、または監視局101は、放送信号をパッケージ化するために、アナログ信号をデジタル・フォーマットに変換する、その信号を圧縮する、またはその信号を認識システムによって好まれるフォーマットにする他の処理を行うなど、ストリームに何らかの初期処理を行うことができる。
図2を参照してより詳しく説明されるように、監視局101、103は、キャプチャされた放送信号を保存するために使用できる、ハード・ディスク、フラッシュまたはランダム・アクセス・メモリなどのローカル・メモリも備えることができる。放送信号を保存またはキャッシュする機能により、ネットワーク中断中のデータの維持が可能になる、または監視局がデータを保存して、そのデータを、システム100によって指定された所定の時刻または間隔でバッチ送信することができる。
ナーバス・システム105は、各監視局101、103と通信して、各監視局に関する情報を、構成情報を含めて維持する。ナーバス・システム105は、システム101またはユーザ入力から受信された変更に基づいて、監視システム101、103のどれにでも構成情報を送信することができる。ナーバス・システム105については、図2を参照して、より詳しく説明される。
ゲートウェイ104で受信された放送データは、コンピューティング・クラスタ108の一部である認識システム106に送信される。コンピューティング・クラスタは、多数の構成可能なサーバおよびストレージ・デバイスを含み、それらは、システム100の要件を満たすように動的に再構成および再配置できる。認識システム106は、放送信号のコンテンツを判定するために放送信号を処理するために使用される一連のサーバを含んでいる。認識システム106は、監視局101、103によって認識システム106に渡された各放送信号内のオーディオまたはビデオ要素などのコンテンツを識別するように動作する。認識システム106の動作については、図3を参照して、より詳しく説明される。オーディオ処理システム107は、認識システム内で使用するための署名ファイルを生成するために使用される。署名ファイルの生成については、図7〜9を参照して、より詳しく説明される。
認識システム106は、ストレージ・エリア・ネットワーク(SAN)およびデータベース109、ならびにヒューリスティック報告システム110およびクライアント・アプリケーション111と通信することができる。SAN 109は、監視されたコンテンツの全部、および認識システム106によって識別された放送信号のコンテンツに関するデータを保持する。加えて、SAN 109は、システム100をサポートするために使用されるアセット・データベースおよび分析データベースを保存している。ヒューリスティックおよび報告システム110は、認識システム106によってデータを供給され、そのデータを分析して、認識プロセスの結果を相互に関連付けて放送信号内で何が発生しているかの分析結果を提供する。SAN 109ならびにヒューリスティックおよび報告システム110の動作については、図4を参照して、より詳しく説明される。メタデータ・システム111は、システムのメディア・ライブラリに保存されているコンテンツ・ファイルのそれぞれに関連付けられたメタデータにアクセスするために使用される。オーディオ・ソーシング・システムは、システムのメディア・ライブラリに新規コンテンツを追加する依頼を受信し、その新規コンテンツを、システムのメディア・ライブラリに組み込むためにオーディオ処理システム107に送信する。
監視システム100の好ましい実施形態は、非常に拡張性が高く、どの放送ソースからの放送データでも監視および分析することができる。監視局が放送信号を受信できる限り、その信号のコンテンツは、任意の使用可能なトランスポート・ネットワークを介して認識システムに送信できる。監視局101、103は、エア放送、ケーブル放送、インターネット放送、または衛星放送を介して特定の地理的市場から受信できる場所に設置できるように設計されている。例えば、ロサンジェルス・エリアの全放送信号を受信および保存するために、1つまたは複数の監視局をロサンジェルス・エリアに設置することができる。必要な監視局の数は、各監視局が受信および保存できる個別の信号の数によって決まるであろう。ロサンジェルス・エリアに100個の放送信号があり、1つの監視局の実施形態が30個の放送信号を受信および保存できる場合、4つの個別の監視局で、ロサンジェルス都市エリアの全放送信号を収集、保存、および送信できるであろう。
同様に、テネシー州ナッシュビルが20個の放送信号を有している場合、上述の実施形態による単一の監視局で、ナッシュビル・エリアの全放送信号を収集、保存および送信できるであろう。監視局は米国内のありとあらゆる放送信号を受信するために米国全土に配備することができ、それにより、米国内のすべてのビデオおよびオーディオ要素の使用および放送の基本的に正確な実態を把握することができる。特定の地域または国のすべての放送信号のコンテンツを収集および分析することが望ましいであろうが、監視システムのより費用効果の高い実施形態は、選択された数の放送信号、または選択されたパーセントの放送ビデオおよび/またはオーディオ要素に関して放送信号を収集し、次いで統計モデルを用いて合計の放送市場の概算を推測する監視局を採用するであろう。
例えば、監視局を、米国内の放送信号の推定80パーセントを表すトップ200の放送市場をカバーするように配置することもできる。これらの市場に関するデータはその後、分析されて、合計の放送市場の概算を算出するために使用することができる。米国および特定の都市が例として使用されているが、本明細書で説明される概念による監視システムは、どの都市、どの地域、どの国、またはどの地理的エリアでも使用することができ、その場合でも、その監視システムは、本明細書で説明される概念の範囲内である。
図2を参照すると、監視局101、103を利用する監視システム200の実施形態が、より詳しく説明されている。説明されているように、監視局101、103の実施形態は、様々なソースからの放送信号を受信、保存および送信するように構成される。監視局101、103の実施形態は、放送信号をキャプチャするように、かつその信号をハード・ディスクなどのローカル・ストレージに一定の期間、保存するように構成される。各監視局上で利用可能なストレージの量は、監視される放送信号の数とタイプ、およびネットワークの停止または遅延があっても監視局がデータを認識システムに確実に伝送できるように、監視局がデータを確実に保存しておくことができるために必要な期間に基づいて選択することができる。また、データは所定の期間保存しておいて、トランスポート・ネットワークの使用率が低くなることが分かっている期間、例えば、早朝の時間帯などにバッチ送信することもできる。
データは、監視局101から、トランスポート・ネットワーク102を介して、または監視局103とゲートウェイ104の間の直接接続を介して送信される。トランスポート・ネットワーク102は、インターネットを含めて、任意のタイプのデータ・ネットワークであってよい。データは、従来のネットワーク・プロトコルを使用して送信できるが、その目的のために設計された専用のネットワーク・プロトコルを使用して送信してもよい。
始動時、各監視局は、ナーバス・システム105のサーバに連絡するようにプログラムされ、その監視局用に提供されている構成情報をダウンロードする。構成情報は、それだけには限らないが、その監視局が監視する特定の放送信号、収集されたデータを保存および送信するための要件、および認識システム106内の、その監視局を担当し、かつ、その監視局が、収集されたデータを送信すべき特定の集計機能のアドレスを含む可能性がある。ナーバス・システム105は、各監視局101、103用の状況情報を維持し、また、そのシステムまたはユーザが監視局のいずれかの構成情報を作成、更新、または変更するときに使用できるインターフェースを提供する。新しい、更新された、または変更された構成情報はその後、プログラムされた指針に従って、ナーバス・システムのサーバから適切な監視局に送信される。
図3を参照すると、認識システムの実施形態が示されている。システム300は、監視局101によって監視された放送信号から収集されたデータを受信するが、監視局101は、そのデータを送信するためにトランスポート・ネットワーク102を使用する。図2を参照して説明されているように、各監視局は、認識システム内で1つまたは複数の集計機能301を割り当てられている。集計機能301は、放送データおよびソース情報を含むデータ、または他のデータを監視局から収集し、放送データを認識プロセッサ302に配信する。認識プロセッサ302は、フロントエンド認識303またはバックエンド認識304を実行するように割り当てられているクラスタに関連付けられている。フロントエンド303内の各クラスタは、オーディオなどの既知の放送要素の予備データベースを保存するために十分な関連付けられたサーバを有する。各クラスタによって保存される予備データベースは、放送信号の中で最も頻繁に発生する放送要素の認識セットを識別するために必要な特性で構成される。メディア・サンプルがフロントエンド・クラスタ303によって認識されない場合、その未知のメディア・サンプルはバックエンド・クラスタ304に送信される。バックエンド・クラスタ304は、システムのメディア・ライブラリの、より大きいサンプル、またはメディア・ライブラリ全体を保存しており、そのため、予備データベース内にない既知のメディア・セグメントを認識することができる。認識クラスタの大きさと早さは両方とも、クラスタを追加するか、または各クラスタにサーバを追加することにより調整できる。バックエンド・クラスタにサーバを追加すると、認識されるメディア・サンプルの大きさを大きくすることができる。フロントエンド・クラスタにサーバを追加すると、システムのパフォーマンスが、認識されるサンプルと認識されないサンプルの比率に基づいたしきい値まで上がる。クラスタを追加すると、認識のための合計容量が拡張される。
このタイプのクラスタ処理を使用することにより、認識システム106は拡張性が非常に高く、識別される必要がある放送信号の様々なレベルへの適用性も非常に高い。クラスタの数を増やすためにサーバを追加することができ、それにより、効率よく監視できる放送信号の数が増える。加えて、認識時間を長くするためにクラスタごとのサーバの数を増やし、認識セットのサイズを大きくすることにより、認識システム106のスループットを上げることができる。
監視された放送信号内の、認識クラスタが利用できるメディア・ライブラリの外にあるために認識システム・クラスタによって認識できない放送要素は、さらなる処理のためにSAN 109に保存されるときに未知とマークされる。さらなる処理は、同一の未知の要素の集計、および/または未知の要素の手動による認識を含んでよい。未認識のサンプルが手動のプロセスまたは他の自動プロセスによって識別できる場合、新しく識別された要素は、既知の放送要素の全データベース、すなわち、ライブラリに追加される。
オーディオ処理システム107も、認識システム106のクラスタによって使用される認識セットを作成、変更および管理するように動作可能である。認識セットに組み込まれる既知の放送要素は手動で識別できる、または着信する放送ストリームの分析に基づいてシステムによって識別できる。入力または分析に基づいて、オーディオ処理システム107は、認識セットに組み込まれる各既知の放送要素の特性を単一のユニット、すなわち、「スライス」にまとめ、次に、それが、その役割に基づいて、認識システム106内の、それが割り当てられているクラスタ内の各サーバに送信される。
認識システムの認識クラスタによる認識の試みの結果は、保存および分析のために、図1のヒューリスティックおよび報告システム110に送信される。
図4を参照すると、ヒューリスティックおよび報告システム110の実施形態が、より詳しく説明されている。説明されているように、ヒューリスティックおよび報告システム110は、認識システム106から集計済みデータを受信し、分析および保存用に処理している。実際の放送データ自体は、認識システムによって生成された情報、および放送データに関連付けられた他の情報、例えば、監視局によって関連付けられたソース情報と両方一緒に渡される。
提出されたデータおよび結果は、ヒューリスティック・システム405によって取得され、時間をかけてヒューリスティックな分析を経て相互に関連付けられ、放送データの信号、すなわち、ストリームのコンテンツの査定が時間をかけて行われる。分析は、複数の放送信号に対しても行うことができる。放送信号は、それだけには限らないが、地理的、放送タイプ別(エア、衛星、ケーブル、インターネットなど)、信号タイプ別(すなわち、オーディオ、ビデオなど)、ジャンル別、または関心がある可能性がある他のタイプのグループ化など、任意の考えられる方法でグループ化できる。報告システム406によって生成される報告書および分析は、生のデータおよび生の認識データと共に、SAN 109上の、認識データベース401、メタデータ・データベース403、オーディオ・アセット・データベース402、監査オーディオ・リポジトリ404の中、またはSAN 109の別の部分、またはSAN 109に保存されたデータベースに保存することができる。
ヒューリスティックおよび報告システム110の出力は、生のデータ、生の認識データ、監査ファイル、およびヒューリスティックに分析された認識結果を含むことができる。ユーザおよび顧客によるヒューリスティックおよび報告システムからの情報へのアクセスは、ウェブ・ベースのアプリケーションを使用してインターネット・ポータルを介して使用可能なウェブ・サービスの選択、または他のタイプのネットワーク・アクセスを含めて、任意の形で行うことができる。
図5を参照すると、図1のナーバス・システム105によって制御されるナーバス・システム・ネットワーク500の実施形態が、より詳しく説明されている。図2を参照して説明されているように、ナーバス・システム105は、監視局101、103に構成情報を提供するために使用される。ナーバス・システム105は、監視局101、103を監視および制御することに加えて、認識システム105およびオーディオ処理システム106内のサーバの構成および動作の制御も担当する。
ナーバス・システム105は、ナーバス・システム・ネットワーク500内のマシンのそれぞれに関する構成情報を監視、制御および保存するCortexサーバ501を備えている。ナーバス・システム105は、状況情報を提供するために使用されるウェブ・サーバ502、およびナーバス・システム・ネットワーク500内の任意のマシンに関する構成情報を監視、制御および変更するための機能も備えている。
始動時、ナーバス・システム・ネットワーク内の各マシンが、ナーバス・システム105内のCortexサーバ501に、そのマシンが存在すること、およびそのマシンが提供するサービスのタイプを通知する。マシンの存在およびサービスの通知を受け取ると、ナーバス・システム105は、そのマシンにその構成を提供する。認識システム106内のサーバについては、ナーバス・システム105は、特定のタスクに各サーバを、例えば、集計機能または認識サーバとして割り当て、適宜、そのサーバを特定のクラスタに割り当てる。ナーバス・システム・ネットワーク500内の各マシンから出される適時状況メッセージは、ナーバス・システム105がナーバス・システム・ネットワーク500および使用可能なサービスの最新で、正確なトポロジを有していることを保証する。認識システム105内のサーバは、サービスに対する要求が変動すると、または認識システム105内の他のサーバの障害を明らかにするために、ナーバス・システム105によってリアルタイムで目的および割り当てを変更することができる。
ナーバス・システム105用のアプリケーション504は、Cortexクライアント505を使用して構築することができ、Cortexクライアント505は、管理機能、監視機能および測定機能をメッセージングおよびネットワーク接続と一緒にカプセル化する。Cortexクライアント505は、ナーバス・システム105から遠隔であってよく、ネットワーク503を使用してシステムにアクセスする。光アプリケーション506もナーバス・システム105にアクセスして、Cortexサーバおよびナーバス・システムの機能にアクセスするためのグラフィカル・フロントエンドを提供することができる。
図6を参照すると、オーディオ・ソーシングを実行するためのシステム112の実施形態のブロック図が説明されている。オーディオ・ソーシング・システム112は、既知のメディア・サンプルが、SAN 109に保存されているメディア・ライブラリに追加されることを許容する。既知のメディア・サンプルは、例えば、CDまたはDVDリッパー602、ソーシング・ウェブ・サーバ604、または第三者の依頼603など、任意のタイプのソースから取得される。第3者の依頼は、芸術家、メディア発行者、コンテンツ所有者、またはコンテンツがメデイア・ライブラリに追加されることを所望する他のソースを含むことができる。
ライブラリに追加すべき新しいメディア・サンプルは、次にオーディオ処理システム107に送信され、それらサンプルの関連メタデータがメタデータ・システム601から取り出される。オーディオ処理システム107は、オーディオ・データなど、生のデータを取得し、署名、ランドマーク/フィンガープリント、保存用の無損失圧縮ファイルを作成する。
図7〜9を参照すると、メディア・サンプルを識別するためのランドマークおよびフィンガープリント・プロセスの実施形態が説明されている。認識システム105およびオーディオ処理システム106の実施形態は、好ましくは、キャプチャされたサンプル内の高いノイズおよび歪みを許容するように設計された認識システムおよびアルゴリズムを使用する。放送信号はアナログ信号でも、デジタル信号でもよく、ノイズおよび歪みにより影響を受けてもよい。アナログ信号は、アナログからデジタルへの変換手法によってデジタル信号に変換される必要がある。
認識システムおよびオーディオ処理システムは、好ましい実施形態では、多数の既知のメディア・ファイルを収納したデータベースが与えられれば、外部のメディア・サンプルを認識するためのシステムおよび方法を使用する。主としてオーディオ・データが参照されているが、本発明の方法は、それだけには限らないが、テキスト、オーディオ、ビデオ、画像、および個別のメディア・タイプの任意のマルチメディア組合せなど、任意のタイプのメディア・サンプルおよびメディア・ファイルに適用できることを理解されたい。オーディオの場合には、本発明は、例えば、背景ノイズ、伝送エラーおよびドロップアウト、干渉、帯域制限されたフィルタリング、量子化、タイムワープ、ならびに音声品質デジタル圧縮によって引き起こされる、高レベルの線形および非線形歪みを含むサンプルを認識するのに特に有用である。明らかであろうが、認識システムは、ごく少量の算出された特性しか歪みを生き延びていなくても、歪んだ信号を正しく認識できるので、そのような条件で機能する。サウンド、音声、音楽、またはタイプを組み合わせたものを含めて、任意のタイプのオーディオが本発明によって認識できる。オーディオ・サンプルの例としては、録音された音楽、ラジオ放送番組および広告などがある。
本明細書で言及されているように、外部発生のメディア・サンプルは、以下で説明されるように、様々なソースから取得される任意のサイズのメディア・データの1つのセグメントである。認識が行われるためには、サンプルは、本発明で使用されるデータベース内のインデックス付きメディア・ファイルの一部分のレンディションでなければならない。インデックス付きメディア・ファイルはオリジナルの録音と考えることができ、サンプルは、オリジナルの録音の歪んだおよび/または短縮されたバージョン、またはオリジナルの録音のレンディションと考えることができる。一般的には、サンプルは、インデックス付きファイルの小さい一部分に相当する。例えば、認識は、データベース内のインデックス付きの5分の楽曲の10秒のセグメントに対して実行することができる。インデックス付きエンティティを表すために用語「ファイル」が使用されているが、そのエンティティは、必要な値(以下で説明)が取得できるフォーマットであれば、任意のフォーマットでよい。さらに、値の取得後、そのファイルを保存またはそのファイルにアクセスする必要はない。
本発明の方法700の全体のプロセスを概念的に示したブロック図が図7に示されている。個々のプロセスを、以下で、より詳しく説明する。この方法は、ウィニング・メディア・ファイル、すなわち、特性フィンガープリントの相対的位置が、外部発生のサンプルの同じフィンガープリントの相対的位置と最もぴったりマッチするメディア・ファイルを識別する。外部発生のサンプルがプロセス701でキャプチャされた後、ランドマークおよびフィンガープリントがプロセス702で算出される。ランドマークは、サンプル内の特定の位置、例えば、特定の時点で発生する。サンプル内のランドマークの位置は、好ましくは、サンプル自体によって決まり、すなわち、サンプルの品質に依存し、再現可能である。すなわち、プロセスが繰り返されるたびに、同じ信号に対しては同じランドマークが算出される。ランドマークごとに、サンプルの1つ以上の特徴を表すフィンガープリントがランドマークで、またはランドマークの近傍で取得される。ランドマークとの特徴の近接度は、使用されるフィンガープリンティング方式によって定義される。場合によっては、ある特徴があるランドマークと明らかに一致し、前または後のランドマークと一致しない場合、その特徴は、そのランドマークに近接していると考えられる。他の場合には、特徴は、複数の隣接するランドマークと一致する。例えば、テキスト・フィンガープリントはワード・ストリングであってよいし、オーディオ・フィンガープリントはスペクトル・コンポーネントであってよいし、画像フィンガープリントはピクセルRGB値であってよい。以下で、プロセス702の、一方では、ランドマークおよびフィンガープリントが順次に算出され、他方では、ランドマークおよびフィンガープリントが同時に算出される、2つの一般的な実施形態を説明する。
プロセス703において、サンプルのフィンガープリントを使用して、データベース・インデックス704に保存されている、マッチするフィンガープリントのセットが検索される。データベース・インデックス704では、マッチするフィンガープリントは、メディア・ファイルのセットのランドマークおよび識別子に関連付けられている。次に、検索されたファイル識別子およびランドマーク値のセットを使用して、サンプル・ランドマーク(プロセス702で算出される)と、同じフィンガープリントが算出された、検索されたファイル・ランドマークとを含む対応ペア(プロセス705)が生成される。次に、結果の対応ペアが楽曲識別子でソートされて、各該当ファイルに関してサンプル・ランドマークとファイル・ランドマーク間の対応のセットが生成される。各セットは、ファイル・ランドマークとサンプル・ランドマークのアラインメントについてスキャンされる。すなわち、ペアのランドマーク内の線形の対応が識別され、そのセットは、線形の関係があるペアの数に応じて採点される。線形の対応は、多数の対応するサンプル位置とファイル位置が、許容される範囲内で、実質的に同じ線形等式で表すことができる場合に発生する。例えば、セットの対応ペアを表す複数の等式の傾斜が5%ずつ異なる場合、対応のセット全体が線形の関係があると見なされる。当然であるが、任意の適切な許容値を選択できる。最高の得点を得たセット、すなわち、最多の線形の関係がある対応を有するセットの識別子がウィニング・ファイルの識別子であり、プロセス706で、それが突き止められて、返される。
認識は、時間コンポーネントがデータベース内の項目数の対数に比例する形で実行できる。認識は、非常に大きいデータベースに関しても、基本的にリアルタイムで実行できる。すなわち、サンプルは、小さいタイムラグがあるが、サンプルが取得されるときに認識できる。この方法は、5〜10秒、さらには1〜3秒の小さいセグメントに基づいてサウンドを識別できる。好ましい実施形態では、ランドマークおよびフィンガープリントの分析、すなわち、プロセス702は、プロセス701でサンプルがキャプチャされるときにリアルタイムで実行される。データベース・クエリ(プロセス703)は、サンプル・フィンガープリントが使用可能になるときに実行され、一致する結果が累積され、定期的に線形の一致がスキャンされる。このように、この方法のプロセスはすべて同時に行われ、図7で示唆されているような順次の線形方式で行われるのではない。この方法は、部分的には、テキスト・サーチ・エンジンと類似していることに留意されたい。すなわち、ユーザがクエリのサンプルを提供し、サウンド・データベース内のインデックス付きのマッチするファイルが返される。
この方法は、一般的には、図3の認識サーバ302のような、コンピュータ・システム上で稼働するソフトウェアとして実施され、個々のプロセスは、独立したソフトウェア・モジュールとして実施されるのが最も効率がよい。このように、本発明を実施するシステムは、ランドマーキングおよびフィンガープリンティング・オブジェクト、インデックス付きデータベース、およびデータベース・インデックスをサーチし、対応ペアを算出し、ウィニング・ファイルを識別するための分析オブジェクトから構成されると考えることができる。順次ランドマーキングおよびフィンガープリンティングの場合、ランドマーキングおよびフィンガープリンティング・オブジェクトは、別個のランドマーキング・オブジェクトおよびフィンガープリンティング・オブジェクトと考えることができる。異なるオブジェクトに対するコンピュータ命令コードは、1つまたは複数のコンピュータのメモリに保存され、1つまたは複数のコンピュータ・プロセッサによって実行される。一実施形態では、コード・オブジェクトは、インテル・ベースのパーソナル・コンピュータまたは他のワークステーションなどの単一のコンピュータ・システム内でまとめられてクラスタ化される。好ましい実施形態では、この方法は、中央処理装置(CPU)のネットワーク化されたクラスタによって実施され、その場合、ソフトウェア・オブジェクトは、計算の負荷を分散するために、異なるプロセッサによって実行される。別法として、各CPUがすべてのソフトウェア・オブジェクトのコピーを有することができ、その結果、同一に構成された要素の均一なネットワークが構築される。この後者の構成では、各CPUは、データベース・インデックスのサブセットを有し、そのCPU独自のサブセットのメディア・ファイルのサーチを担当する。
図8を参照すると、識別のためのランドマーク/フィンガープリントを作成するプロセス800の実施形態を示す図が示されている。プロセス800は、メディア・コンテンツが入っている放送信号801が受信されたときに開始される。図8の例では、コンテンツはオーディオであり、オーディオ波802によって表されている。本明細書で説明される概念による、ランドマーク/フィンガープリンティング・プロセスの実施形態はオーディオ波802に適用される。ランドマーク803は、オーディオ波801上の典型的な地点で識別される。
次に、ランドマークは、あるランドマークを他の近傍のランドマークに関連付けることにより、コンステレーション804にグループ化される。フィンガープリント805は、コンステレーション内にあるランドマークと他のランドマークとの間に作成されるベクトルによって形成される。放送ソースからのフィンガープリントは、次に、署名リポジトリ内のフィンガープリントと比較される。
リポシトリ内の署名は、導出されて保存されている既知のメディア・サンプルからのフィンガープリントの集合である。フィンガープリント・マッチ806は、未知のメディア・サンプルからのフィンガープリントが、署名リポジトリ内のフィンガープリントとマッチした場合に発生する。
図9を参照すると、個別のフィンガープリント・マッチ901を既知のメディア・ファイルのマッチと相互に関連付けるためのプロセス900の実施形態を示す図が示されている。未知のメディア・サンプルがメディア・ライブラリ内の既知のファイルとマッチする場合、マッチ903および904などの個別のマッチが発生する。個別のマッチがアラインメント902のように整列し始めると、マッチが発生している。
本明細書で説明される概念に関連付けて使用できる認識システムの実施形態のさらなる説明が、米国特許出願公開第2002/0083060号、公開日2002年6月27日、名称「System and Methods for Recognizing Sound or Music Signals in High Noise and Distortion」および米国特許出願公開第2005/0177372号、公開日2005年8月11日、名称「Robust and Invariant Audio Pattern Matching」に記載されており、これら両出願の開示内容は、参照により本明細書に援用されるものとする。
図10を参照すると、本明細書で説明される概念による放送監視システムの実施形態に関するプロセスおよびエンティティのフローの実施形態が示されている。プロセスおよびエンティティのフローは、システム・リポジトリ、およびこれらのリポジトリと対話する関連プロセスを含む。リポジトリとしては、生および処理済み放送データおよび報告書、メタデータ、ならびにマスタ・オーディオ・データおよび署名ファイル用のリポジトリがある。図10の中、および図10の説明の中でオーディオ・データおよび放送用のアプリケーションが参照されているが、前に説明したように、このアプリケーションは、本明細書で説明される概念の範囲から逸脱することなく、ビデオ、テキスト、または他のデータを含むことができる。
生および処理済み放送データおよび報告書リポジトリとしては、生データ・リポジトリ1001、前処理済みログ・データ1002、処理済みログ・データ1003、ログ・データ・アーカイブ1004、およびデータ・マイニングおよび報告書リポジトリ1005などがある。放送データ・リポジトリに加えて、キャプチャされた放送データをアーカイブするキャプチャ・ログ・アーカイブ1014がある。メタデータ・リポジトリとしては、実働前メタデータ・データベース1006および実働メタデータ・データベース1007がある。マスタ・オーディオおよび署名リポジトリとしては、マスタ・オーディオ・データベース1008および署名ファイル・リポジトリ1009がある。マスタ・オーディオ・ファイル・データベースおよび署名データベースの両方ならびに関連のメタデータ・データベースで使用されるデータをインポートおよびエクスポートするために使用される追加リポジトリがある。追加リポジトリとしては、電子データ交換インターフェース(EDI)エクスポートおよびインポートそれぞれのデータベース1010および1012、ならびにオーディオ・ファイルおよびメタデータ・ファイルそれぞれの要請プロセス・リポジトリ1011および1013がある。
メタデータ・データベース1006および1007は、署名ファイル・リポジトリ1009内の署名ファイルのそれぞれ、およびマスタ・オーディオ・ファイル・アーカイブ1008内のリンク・オーディオ・ファイルに関するテキスト情報を収納している。外部ソースから受信されたメタデータはすべて、最初は、実働前メタデータ・データベース1006に保存される。外部ソースからのデータは、実働前メタデータが実働前データベース1006から実働データベース1007へ移動される前に品質保証プロセス1015で診断されるべきである。
署名ファイル・リポジトリ1009は、認識クラスタ1016によって使用されるすべての署名ファイルを保存する。署名ファイルは署名作成プロセス1018によって作成され、署名ファイル・リポジトリに保存される。署名ファイルは、スライス作成プロセス1017によって作成されたスライスにデータ設定するランドマーク/フィンガープリント(LMFP)を作成するために、リポジトリから取り出されて、認識クラスタに送信される。マスタ・オーディオ・ファイル・データベース1008は、すべてのフォーマットで受信されたすべてのオーディオ・ファイルを保存する。マスタ・オーディオ・ファイルは、通常、認識プロセスでは使用されず、例えば、署名ファイルが失われた、または破壊された場合に、マスタ・オーディオ・ファイル・データベース1008の対応するオーディオ・ファイルにアクセスして、新しい署名ファイルを作成するために使用できる、などのアーカイブの目的で保持される。
生データ・リポジトリ1001からのデータが認識プロセス1019に供給されて、そこで、そのデータは認識クラスタ1016によって分析される。分析されたデータは、次に、前処理済みログ・データベース1002に入れられる。ヒューリスティック機能1020は処理済みデータを分析し、処理済みログ・データベース1003に保存されたデータを生成する。そのデータをさらに処理するために手動のログ分析および更新プロセスが使用でき、そのデータは、ログ・データ・アーカイブ1004およびデータ・マイニングおよび報告書レポジトリ1005に保存される。エクスポートおよび報告プロセス1022は、処理済みデータおよび報告書へのユーザ・アクセスを可能にするためにデータ・マイニングおよび報告書レポジトリ1005にアクセスする。
実働メタデータ・データベース1007は、図11に示されているように、署名ファイル・リポジトリ1009およびオーディオ・ファイル・リポジトリ1008と共に完全な参照ファイル・ライブラリを形成する。参照ファイル・ライブラリ1100は、そのライブラリに保存されている各オーディオ・ファイル1101について完全な情報セットを収納している。ライブラリ内の各オーディオ・ファイル1101は、それに完全なメタデータ・ファイル1102を関連付けており、そのメタデータ・ファイルは、オーディオ・ファイルに関する、芸術家、題名、トラック長、および放送データを処理および分析するときにシステムによって使用される可能性のある任意の他のデータなどの情報を組み込んでいる。各オーディオ・ファイル1101は、それに署名ファイル1103を関連付けており、その署名ファイルは、未知の放送データを参照ライブラリ1100内の既知のオーディオ・ファイルと照合するために使用される。新しい材料は、新しいオーディオ・ファイル、メタデータ・ファイルおよび署名ファイルを適切なデータベースに供給することにより、参照ライブラリに追加できる。
参照ライブラリデータ設定プロセスの実施形態が図12に示されている。参照ライブラリ1100は、複数のソースから新しいオーディオ情報を受信することができる。例えば、新しいオーディオ・ファイル1201は、コンパクト・ディスクなどの物理的オーディオ製品1202から取り出すか、または、ITunesなどのオンライン音楽リポジトリからMP3ダウンロードなどの電子オーディオ・ファイル形式1203で受信することができる。新しいオーディオ・ファイルの他の外部ソース1204もあり得、例えば、オーディオ・ファイル、および参照ライブラリ1100に組み込むためのそれらのオーディオ・ファイルに関連付けられたメタデータを供給するように契約している第3者の会社などがある。電子オーディオ・ファイル1203はオーディオEDIリポジトリ1205に保存され、外部ソース・オーディオ・ファイル1204は外部署名交換リポジトリ1206に保存される。
新しいオーディオ・ファイル・フォーマットはすべて、オーディオ製品処理機能1207に送信される。オーディオ製品処理機能1207は、オーディオ・ファイルに関連付けられたメタデータを抽出して、それを、図10で説明されているように前処理済みメタデータ・データベース1006に送信する。オリジナルのオーディオ・ファイル1210は、マスタ・オーディオ・ファイル・データベース1008に保存される。そのオーディオ・ファイル用の署名ファイル1209が、例えば、外部ソース・オーディオ・ファイル1204用などにすでに作成されている場合、その署名ファイルは、署名ファイル・リポジトリ1009に直接保存される。オーディオ・ファイル用の署名ファイルがない場合、圧縮されたWAVファイル1211が署名ファイル作成プロセス1018に送信され、そこで、署名ファイル1209が作成され、署名ファイル・リポジトリ1009に保存される。
関連付けられたメタデータがないオーディオ・ファイルの場合、メタデータは、そのオーディオ・ファイル用に別途供給される。メタデータは電子的に取得することもできるし1212、または手動で入力することもできる1213。電子的に取得されたメタデータは、メタデータEDIリポジトリ1214に保存される。両方のタイプのメタデータ、すなわち、電子タイプ1212および手動タイプ1213は、実働前メタデータ・データベース1006に保存される前に手動メタデータ・プロセス1215によって処理される。
いずれの大規模監視および認識システムにおいても、難題は、強力なデータ管理システムの開発である。監視および認識システムの生の出力は大量であり、相当な前処理をしなければ、たいして役に立たない可能性がある。作成される生データの量は、参照ライブラリのデータ設定、システム・デユーティ・サイクル、オーディオ・サンプルの長さ設定値、および識別解決設定値の関数である。加えて、生データの結果は、識別されたセグメントと未識別セグメントを区別するだけである。そのため、非常に大量の集計された未識別セグメントが生ずることになり、その大量の未識別セグメントは、音楽、トーク、放送中断(dead air)、コマーシャルなどを含む、参照データベースに組み込まれないコンテンツからなる。この生データを処理および前処理するためのプロセスが開発されなければならない。
放送データの要素が、それが参照データベース内に存在しないためにシステムによって自動的に識別されない場合には、システムは、その作品を「未知」とフラグを立てるようにプログラムできる。その未知のセグメントは、未知の参照ライブラリ内に未知の参照オーディオ・セグメントとして保存することができる。そのオーディオ・トラックが後でシステムによってログされる場合、そのトラックは、手動識別用にフラグが立てられるべきである。手動識別用のマークが付けられたオーディオ・トラックはすべて、オンスクリーン・ユーザ・インターフェースを介してアクセス可能なはずである。このユーザ・インターフェースは、許可ユーザが手動でオーディオ・トラックを識別できるようになっている。ユーザがトラックを識別して、関連のメタデータを入力すると、このトラックが過去または将来の監視活動ログ上に現れるときは、必ず、関連付けられたメタデータと共に「識別済み」として現れる。これらの楽曲に対して入力されたメタデータは、実働メタデータ・データベースに伝播される前に適切な品質保証プロセスを通過しなければならない。
すでに説明されているように、ヒューリスティック・アルゴリズムによってフラグが立てられた「未知」のオーディオ・セグメントは、手動または自動プロセスによって識別されなければならない。識別されたら、フラグが立てられているセグメントのすべてのインスタンスが、それらのセグメントを識別する、関連付けられたメタデータを反映するように更新されるべきである。加えて、すべてのフラグが、「未知」から「識別済み」への状況の変化を反映するように更新されるべきである。そのための手動および自動プロセスを以下で説明する。
繰り返される未識別の作品としてフラグが立てられているすべての項目が、許可ユーザによって手動で容易にアクセスされて、変更されなければならない。ユーザは、手動の識別およびメタデータ更新のために、オリジナルのオーディオ・トラックを再生できるべきである。識別されたら、システムは、その更新を以前の未識別トラックのすべての出現箇所に伝播すべきである。加えて、手動で識別されたトラックに付加されるメタデータは、フラグが立てられて、診断および実働メタデータ・データベースへの組み込みのためにメタデータ・インポートおよびQAシステムに提出されなければならない。
システムは、手動で識別されるまで、または手動でこのサイクルから除去されるまでの、オーディオ識別システムによって繰り返される未識別の作品としてフラグが立てられた項目の自動再提出を、提供するべきである。その結果、システムは、項目の対応する参照が参照ライブラリ内にないために最初は識別されなかった可能性のある項目を、その参照項目が参照ライブラリに追加されるとすぐに識別することができる。
本発明とその利点が詳細に説明されているが、添付の特許請求の範囲で定義された発明から逸脱することなく、本明細書に様々な変更、置換、改変を行うことができることを理解されたい。さらに、本出願の範囲は、明細書で説明されているプロセス、機械、製造物、物質組成、手段、方法およびステップの特定の実施形態に限定されることは意図されていない。本開示から容易に理解できるであろうが、本明細書で説明される、対応する実施形態と実質的に同じ機能を実行する、または実質的に同じ結果を達成する、現存の、または将来開発されるプロセス、機械、製造物、物質組成、手段、方法またはステップが利用されてよい。したがって、添付の特許請求の範囲は、その範囲に、そのようなプロセス、機械、製造物、物質組成、手段、方法またはステップを含むように意図されている。

Claims (28)

  1. 少なくとも1つの放送メディア・ストリームから放送データを受信する少なくとも1つの監視局と、
    前記少なくとも1つの監視局から前記放送データを受信し、それぞれが既知のメディア・ファイルに相当する署名ファイルのデータベースを有し、前記放送データ内のメディア要素の識別情報を判定するために、前記放送データを前記署名ファイルと比較するように動作可能な認識システムと、
    前記認識システムに接続され、既知のメディア・ファイルに相当する、前記放送データ内の中間要素(medial element)を識別する報告書を生成するように動作可能な分析および報告システムと
    を備える放送監視および認識システム。
  2. 前記認識システムが、前記放送データ用の署名を生成し、前記放送データ用の前記署名を前記署名ファイルと比較することにより、前記放送データを前記署名ファイルと比較する、請求項1に記載のシステム。
  3. 前記認識システムが複数のサーバを含み、前記複数のサーバが集計サーバおよび認識サーバを備え、前記集計サーバが前記放送データを受信し、前記放送データを、識別のために前記認識サーバに送信する、請求項1に記載のシステム。
  4. 前記認識サーバがクラスタ状態に編成され、各クラスタが複数の認識サーバを備え、各クラスタが前記署名ファイルの少なくともサブセットを署名ファイルのデータベース内に含む、請求項3に記載のシステム。
  5. 前記監視局および前記認識システムを監視および制御するように動作可能なナーバス・システムをさらに備える、請求項3に記載のシステム。
  6. 前記ナーバス・システムが構成情報を前記少なくとも1つの監視局のそれぞれならびに集計サーバおよび認識サーバのそれぞれに送信する、請求項5に記載のシステム。
  7. 前記ナーバス・システムが前記サーバの機能を前記認識システム内で再割り当てするように動作可能である、請求項6に記載のシステム。
  8. 前記分析および報告システムが前記認識システムからの前記データを分析するためにヒューリスティック分析を使用する、請求項1に記載のシステム。
  9. 前記分析および報告システムが前記ヒューリスティック分析に基づいて報告書を生成するように動作可能である、請求項8に記載のシステム。
  10. 前記監視および認識システムによって受信および生成されたデータを保存するように動作可能なストレージ・エリア・ネットワークをさらに備える、請求項1に記載のシステム。
  11. 前記既知のメデイア・ファイルおよび前記署名のデータベースが参照ライブラリを有する、請求項1に記載のシステム。
  12. 前記参照ライブラリが各既知のメデイア・ファイル用のメタデータをさらに有する、請求項11に記載のシステム。
  13. 前記放送データがオーディオ・データである、請求項1に記載のシステム。
  14. 前記放送データがビデオ・データである、請求項1に記載のシステム。
  15. 放送データを監視および認識する方法であって、
    複数の放送ソースから放送データを受信および集計するステップと、
    前記放送データの署名を生成するステップと、
    前記放送データ用の署名を、署名ファイルのデータベースからの、それぞれが既知のメデイア・ファイルに相当する署名ファイルと比較するステップと、
    前記放送データのコンテンツを判定するために前記比較の結果を分析するステップと
    を含む方法。
  16. 前記比較の前記分析に基づいて報告書を生成するステップをさらに含む、請求項15に記載の方法。
  17. 前記報告書の前記生成において、各署名ファイルに関連付けられたメタデータを使用するステップをさらに含む、請求項16に記載の方法。
  18. 前記放送データがオーディオ・データである、請求項15に記載のシステム。
  19. 前記放送データがビデオ・データである、請求項15に記載のシステム。
  20. オーディオ放送を監視および認識するためのシステムであって、
    それぞれが複数のオーディオ放送から未知のオーディオ・データを受信する複数の地理的に分散した監視局と、
    前記複数の監視局から前記未知のオーディオ・データを受信し、前記未知のオーディオ・データを、既知のオーディオ・ファイルのライブラリに相当する署名ファイルのデータベースと比較し、前記比較の結果として前記未知のオーディオ・ストリーム内のオーディオ・ファイルを識別できる認識システムと、
    前記複数の監視局および前記認識システムを監視および構成することができるナーバス・システムと、
    前記認識システムによって実行された前記比較の結果を分析し、前記既知のオーディオ・ファイルのそれぞれに関連付けられたメタデータを使用して複数のオーディオ放送のコンテンツの報告書を生成することができるヒューリスティックおよび報告システムと
    を備えるシステム。
  21. 前記認識システムが複数のサーバからなり、前記複数のサーバが集計サーバおよび認識サーバを備え、前記集計サーバが前記放送データを受信し、前記放送データを識別のために前記認識サーバに送信する、請求項20に記載のシステム。
  22. 前記認識サーバがクラスタ状態に編成され、各クラスタが複数の認識サーバを含む、請求項21に記載のシステム。
  23. 各クラスタが前記署名ファイルの少なくともサブセットを前記署名ファイルのデータベース内に含む、請求項22に記載のシステム。
  24. 前記放送データがオーディオ・データである、請求項20に記載のシステム。
  25. 前記放送データがビデオ・データである、請求項20に記載のシステム。
  26. 前記放送が無線ラジオ放送である、請求項20に記載のシステム。
  27. 前記放送が衛星ラジオ放送である、請求項20に記載のシステム。
  28. 前記放送がインターネット放送である、請求項20に記載のシステム。
JP2009550635A 2007-02-27 2008-02-26 放送データを監視および認識するためのシステムおよび方法 Active JP5368319B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/679,291 2007-02-27
US11/679,291 US8453170B2 (en) 2007-02-27 2007-02-27 System and method for monitoring and recognizing broadcast data
PCT/US2008/055001 WO2008106441A1 (en) 2007-02-27 2008-02-26 System and method for monitoring and recognizing broadcast data

Publications (3)

Publication Number Publication Date
JP2010519832A true JP2010519832A (ja) 2010-06-03
JP2010519832A5 JP2010519832A5 (ja) 2011-11-17
JP5368319B2 JP5368319B2 (ja) 2013-12-18

Family

ID=39717089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009550635A Active JP5368319B2 (ja) 2007-02-27 2008-02-26 放送データを監視および認識するためのシステムおよび方法

Country Status (6)

Country Link
US (1) US8453170B2 (ja)
EP (1) EP2127400A4 (ja)
JP (1) JP5368319B2 (ja)
CN (1) CN101663900B (ja)
CA (1) CA2678021A1 (ja)
WO (1) WO2008106441A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9075808B2 (en) * 2007-03-29 2015-07-07 Sony Corporation Digital photograph content information service
US20100057758A1 (en) * 2008-09-02 2010-03-04 Susan Kirkpatrick Alpha numeric media program stream selection
US8312061B2 (en) * 2009-02-10 2012-11-13 Harman International Industries, Incorporated System for broadcast information database
US8428955B2 (en) * 2009-10-13 2013-04-23 Rovi Technologies Corporation Adjusting recorder timing
US8682145B2 (en) 2009-12-04 2014-03-25 Tivo Inc. Recording system based on multimedia content fingerprints
US20110167016A1 (en) * 2010-01-06 2011-07-07 Marwan Shaban Map-assisted radio ratings analysis
GB2483370B (en) 2010-09-05 2015-03-25 Mobile Res Labs Ltd A system and method for engaging a person in the presence of ambient audio
US9197945B2 (en) * 2011-07-12 2015-11-24 Nate D'Amico Interacting with time-based content
ITMI20111443A1 (it) * 2011-07-29 2013-01-30 Francesca Manno Apparato e metodo di acquisizione, monitoraggio e/o diffusione di brani
US9049496B2 (en) * 2011-09-01 2015-06-02 Gracenote, Inc. Media source identification
US9384734B1 (en) * 2012-02-24 2016-07-05 Google Inc. Real-time audio recognition using multiple recognizers
US9418669B2 (en) * 2012-05-13 2016-08-16 Harry E. Emerson, III Discovery of music artist and title for syndicated content played by radio stations
BR102012019954A2 (pt) * 2012-08-09 2013-08-13 Connectmix Elaboracao De Programas Eireli monitoramento em tempo real de audio de emissoras de rÁdio e tv
US9286912B2 (en) * 2012-09-26 2016-03-15 The Nielsen Company (Us), Llc Methods and apparatus for identifying media
GB2506897A (en) * 2012-10-11 2014-04-16 Imagination Tech Ltd Obtaining stored music track information for a music track playing on a radio broadcast signal
US20150019585A1 (en) * 2013-03-15 2015-01-15 Optinera Inc. Collaborative social system for building and sharing a vast robust database of interactive media content
US20140336797A1 (en) * 2013-05-12 2014-11-13 Harry E. Emerson, III Audio content monitoring and identification of broadcast radio stations
EP3079283A1 (en) * 2014-01-22 2016-10-12 Radioscreen GmbH Audio broadcasting content synchronization system
US9583121B2 (en) * 2014-05-16 2017-02-28 Alphonso Inc. Apparatus and method for determining co-location of services
US10521672B2 (en) * 2014-12-31 2019-12-31 Opentv, Inc. Identifying and categorizing contextual data for media
US9858337B2 (en) * 2014-12-31 2018-01-02 Opentv, Inc. Management, categorization, contextualizing and sharing of metadata-based content for media
US10074364B1 (en) * 2016-02-02 2018-09-11 Amazon Technologies, Inc. Sound profile generation based on speech recognition results exceeding a threshold
US10339933B2 (en) * 2016-05-11 2019-07-02 International Business Machines Corporation Visualization of audio announcements using augmented reality
US9728188B1 (en) * 2016-06-28 2017-08-08 Amazon Technologies, Inc. Methods and devices for ignoring similar audio being received by a system
US20180322901A1 (en) * 2017-05-03 2018-11-08 Hey Platforms DMCC Copyright checking for uploaded media
CN107017957A (zh) * 2017-05-15 2017-08-04 北京欣易晨通信信息技术有限公司 一种组网式无线电广播监测装置、系统和方法
US10536757B2 (en) 2017-08-17 2020-01-14 The Nielsen Company (Us), Llc Methods and apparatus to synthesize reference media signatures
US11037258B2 (en) * 2018-03-02 2021-06-15 Dubset Media Holdings, Inc. Media content processing techniques using fingerprinting and heuristics
US10694248B2 (en) * 2018-06-12 2020-06-23 The Nielsen Company (Us), Llc Methods and apparatus to increase a match rate for media identification
US11334537B1 (en) * 2019-04-04 2022-05-17 Intrado Corporation Database metadata transfer system and methods thereof
US11501786B2 (en) 2020-04-30 2022-11-15 The Nielsen Company (Us), Llc Methods and apparatus for supplementing partially readable and/or inaccurate codes in media
CN112383770A (zh) * 2020-11-02 2021-02-19 杭州当虹科技股份有限公司 一种通过语音识别技术的影视版权监测比对方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6324786A (ja) * 1986-05-02 1988-02-02 コントロール データ コーポレーション 放送セグメントの認識方法および装置
JPH0779206A (ja) * 1993-06-18 1995-03-20 Video Res:Kk Cm自動識別システム
JPH08500471A (ja) * 1992-04-30 1996-01-16 セリディアン コーポレイション 放送セグメントを認識するための方法とシステム
JPH09503636A (ja) * 1993-10-27 1997-04-08 エー.シー.ニールセン カンパニー 視聴者測定システム
US20030086341A1 (en) * 2001-07-20 2003-05-08 Gracenote, Inc. Automatic identification of sound recordings
JP2004505328A (ja) * 2000-07-31 2004-02-19 シャザム エンターテインメント リミテッド 高い雑音、歪み環境下でサウンド・楽音信号を認識するシステムおよび方法
JP2005518594A (ja) * 2002-02-21 2005-06-23 インターナショナル・ビジネス・マシーンズ・コーポレーション オーディオ・コンテンツの識別を使用して製品を販売するシステム
JP2007529029A (ja) * 2004-02-19 2007-10-18 ランドマーク、ディジタル、サーヴィセズ、エルエルシー 放送源の識別のための方法および装置
JP2007533274A (ja) * 2004-04-19 2007-11-15 ランドマーク、ディジタル、サーヴィセズ、エルエルシー コンテントのサンプリングおよび識別のための方法およびシステム
JP2008504741A (ja) * 2004-06-24 2008-02-14 ランドマーク、ディジタル、サーヴィセズ、エルエルシー 2つのメディア・セグメントの重なりを特徴付ける方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4415767A (en) * 1981-10-19 1983-11-15 Votan Method and apparatus for speech recognition and reproduction
US4450531A (en) * 1982-09-10 1984-05-22 Ensco, Inc. Broadcast signal recognition system and method
US4852181A (en) * 1985-09-26 1989-07-25 Oki Electric Industry Co., Ltd. Speech recognition for recognizing the catagory of an input speech pattern
US4843562A (en) * 1987-06-24 1989-06-27 Broadcast Data Systems Limited Partnership Broadcast information classification system and method
US5210820A (en) * 1990-05-02 1993-05-11 Broadcast Data Systems Limited Partnership Signal recognition system and method
JPH05509409A (ja) * 1990-06-21 1993-12-22 レイノルズ ソフトウエア,インコーポレイティド 波動分析・事象認識方法およびその装置
US5918223A (en) * 1996-07-22 1999-06-29 Muscle Fish Method and article of manufacture for content-based analysis, storage, retrieval, and segmentation of audio information
US6088455A (en) * 1997-01-07 2000-07-11 Logan; James D. Methods and apparatus for selectively reproducing segments of broadcast programming
US6021491A (en) * 1996-11-27 2000-02-01 Sun Microsystems, Inc. Digital signatures for data streams and data archives
EP0896712A4 (en) * 1997-01-31 2000-01-26 T Netix Inc SYSTEM AND METHOD FOR DISCOVERING RECORDED LANGUAGE
CN1219810A (zh) 1997-12-12 1999-06-16 上海金陵股份有限公司 远程公共电脑系统
US6434520B1 (en) * 1999-04-16 2002-08-13 International Business Machines Corporation System and method for indexing and querying audio archives
JP2001042866A (ja) * 1999-05-21 2001-02-16 Yamaha Corp ネットワークを介したコンテンツ提供方法及びシステム
US20010044719A1 (en) * 1999-07-02 2001-11-22 Mitsubishi Electric Research Laboratories, Inc. Method and system for recognizing, indexing, and searching acoustic signals
GR1003625B (el) 1999-07-08 2001-08-31 Μεθοδος χημικης αποθεσης συνθετων επικαλυψεων αγωγιμων πολυμερων σε επιφανειες κραματων αλουμινιου
US7194752B1 (en) * 1999-10-19 2007-03-20 Iceberg Industries, Llc Method and apparatus for automatically recognizing input audio and/or video streams
US7174293B2 (en) * 1999-09-21 2007-02-06 Iceberg Industries Llc Audio identification system and method
US6834308B1 (en) * 2000-02-17 2004-12-21 Audible Magic Corporation Method and apparatus for identifying media content presented on a media playing device
US6453252B1 (en) 2000-05-15 2002-09-17 Creative Technology Ltd. Process for identifying audio content
US7853664B1 (en) * 2000-07-31 2010-12-14 Landmark Digital Services Llc Method and system for purchasing pre-recorded music
US6574594B2 (en) * 2000-11-03 2003-06-03 International Business Machines Corporation System for monitoring broadcast audio content
US20020072982A1 (en) * 2000-12-12 2002-06-13 Shazam Entertainment Ltd. Method and system for interacting with a user in an experiential environment
US6483927B2 (en) * 2000-12-18 2002-11-19 Digimarc Corporation Synchronizing readers of hidden auxiliary data in quantization-based data hiding schemes
US7359889B2 (en) * 2001-03-02 2008-04-15 Landmark Digital Services Llc Method and apparatus for automatically creating database for use in automated media recognition system
WO2003019325A2 (en) * 2001-08-31 2003-03-06 Kent Ridge Digital Labs Time-based media navigation system
US7082394B2 (en) * 2002-06-25 2006-07-25 Microsoft Corporation Noise-robust feature extraction using multi-layer principal component analysis
US7222071B2 (en) * 2002-09-27 2007-05-22 Arbitron Inc. Audio data receipt/exposure measurement with code monitoring and signature extraction
US7623823B2 (en) * 2004-08-31 2009-11-24 Integrated Media Measurement, Inc. Detecting and measuring exposure to media content items
EP1864243A4 (en) * 2005-02-08 2009-08-05 Landmark Digital Services Llc AUTOMATIC IDENTIFICATION OF REPEATED MATERIAL IN AUDIO SIGNALS

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6324786A (ja) * 1986-05-02 1988-02-02 コントロール データ コーポレーション 放送セグメントの認識方法および装置
JPH08500471A (ja) * 1992-04-30 1996-01-16 セリディアン コーポレイション 放送セグメントを認識するための方法とシステム
JPH0779206A (ja) * 1993-06-18 1995-03-20 Video Res:Kk Cm自動識別システム
JPH09503636A (ja) * 1993-10-27 1997-04-08 エー.シー.ニールセン カンパニー 視聴者測定システム
JP2004505328A (ja) * 2000-07-31 2004-02-19 シャザム エンターテインメント リミテッド 高い雑音、歪み環境下でサウンド・楽音信号を認識するシステムおよび方法
US20030086341A1 (en) * 2001-07-20 2003-05-08 Gracenote, Inc. Automatic identification of sound recordings
JP2005518594A (ja) * 2002-02-21 2005-06-23 インターナショナル・ビジネス・マシーンズ・コーポレーション オーディオ・コンテンツの識別を使用して製品を販売するシステム
JP2007529029A (ja) * 2004-02-19 2007-10-18 ランドマーク、ディジタル、サーヴィセズ、エルエルシー 放送源の識別のための方法および装置
JP2007533274A (ja) * 2004-04-19 2007-11-15 ランドマーク、ディジタル、サーヴィセズ、エルエルシー コンテントのサンプリングおよび識別のための方法およびシステム
JP2008504741A (ja) * 2004-06-24 2008-02-14 ランドマーク、ディジタル、サーヴィセズ、エルエルシー 2つのメディア・セグメントの重なりを特徴付ける方法

Also Published As

Publication number Publication date
US20080208851A1 (en) 2008-08-28
CN101663900A (zh) 2010-03-03
JP5368319B2 (ja) 2013-12-18
CN101663900B (zh) 2012-05-30
US8453170B2 (en) 2013-05-28
WO2008106441A1 (en) 2008-09-04
EP2127400A1 (en) 2009-12-02
CA2678021A1 (en) 2008-09-04
EP2127400A4 (en) 2011-05-25

Similar Documents

Publication Publication Date Title
JP5368319B2 (ja) 放送データを監視および認識するためのシステムおよび方法
JP5150266B2 (ja) オーディオ信号において繰り返されるマテリアルの自動識別
US10497378B2 (en) Systems and methods for recognizing sound and music signals in high noise and distortion
JP4298513B2 (ja) 高速ハッシュに基づくマルチメディアオブジェクトのメタデータ検索
US8725829B2 (en) Method and system for identifying sound signals
US7031921B2 (en) System for monitoring audio content available over a network
JP5791730B2 (ja) メロディ認識およびオプトアウトを含むシンジケーション
CN105190618B (zh) 用于自动文件检测的对来自基于文件的媒体的特有信息的获取、恢复和匹配
US20110015968A1 (en) Automated media and content reporting system for broadcast media
CN1636240A (zh) 利用音频内容标识来销售产品的系统
CN108492132B (zh) 一种利用音频特征识别的广告监播投放系统及方法
US20240015342A1 (en) Selective automatic production and distribution of secondary creative content
Blum et al. Audio Fingerprints: Technology and Applications
KR20050025850A (ko) 클라이언트 응용프로그램에 내장된 기업/광고정보를이용한 고객관계관리 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120903

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130411

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130912

R150 Certificate of patent or registration of utility model

Ref document number: 5368319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250