JP2010509669A - コンテンツアイテムを分類するための方法及び装置 - Google Patents

コンテンツアイテムを分類するための方法及び装置 Download PDF

Info

Publication number
JP2010509669A
JP2010509669A JP2009535871A JP2009535871A JP2010509669A JP 2010509669 A JP2010509669 A JP 2010509669A JP 2009535871 A JP2009535871 A JP 2009535871A JP 2009535871 A JP2009535871 A JP 2009535871A JP 2010509669 A JP2010509669 A JP 2010509669A
Authority
JP
Japan
Prior art keywords
class
personal
classes
content items
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009535871A
Other languages
English (en)
Inventor
デ パル ステフェン エル ジェイ ディー イー ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2010509669A publication Critical patent/JP2010509669A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

新たに生成されるパーソナルなクラスが、コンテンツアイテムの分類に組み込まれる(ステップ201)。コンテンツアイテムの第1のセットは手動で分類され(ステップ203)、新たに生成されるパーソナルクラスを、更なるコンテンツアイテムを自動的に分類するため該パーソナルなクラスが組み込まれることができるように、定義する。

Description

本発明はコンテンツアイテムを分類するための方法及び装置に関する。
オーディオ情報のようなコンテンツアイテムを配布及び保存するための新たな手法は、ユーザが非常に大規模な音楽のコレクションを収集することを可能とする。斯かる大規模な音楽のコレクションをその利点が十分に享受されるように利用することは、ユーザにとって困難であり、ユーザが音楽コレクションにアクセスすることを支援するための手法が開発される必要がある。音楽の分類は、例えば音楽のジャンル又は音楽に付随する雰囲気のような幾つかの所定のカテゴリに従ってユーザが音楽のコレクションを組織化することを可能とする一手法である。自動的な音楽分類システムは、分類モデルに基づいて、音楽を1つ以上のカテゴリへと分類する。既知のシステムの欠点は、予め定義されたカテゴリが、ユーザによって認められるカテゴリとしばしば合致しない点である。ユーザは時折該ユーザの音楽をパーソナルなカテゴリに手動で分類しても良いが、このことを該ユーザの音楽コレクション全体に対してしなくてはならず、著しい量の仕事量を必要とする。
本発明は、新たなパーソナルクラスを含むようなコンテンツアイテムの分類を提供しつつ、ユーザが斯かる分類を実行する際に必要とされる労力の量を限定することを目的とする。
このことは、本発明の一態様によれば、コンテンツアイテムを複数のクラスのうちの少なくとも1つに分類する方法であって、前記複数のクラスは、少なくとも1つの予め定義されたクラスと、少なくとも1つのパーソナルなクラスとを有し、前記方法は、コンテンツアイテムの第1のセットを前記少なくとも1つのパーソナルなクラスに手動で分類するステップと、前記コンテンツアイテムの第1のセットの手動分類に基づいて、前記パーソナルなクラスを定義するステップと、更なるコンテンツアイテムを前記複数のクラスのうち少なくとも1つに自動的に分類するステップと、を有し、前記複数のクラスは、前記定義されたパーソナルなクラスを含む方法により達成される。
このことはまた、本発明の他の態様によれば、コンテンツアイテムを複数のクラスのうちの少なくとも1つに分類するための装置であって、前記複数のクラスは、少なくとも1つの予め定義されたクラスと、少なくとも1つのパーソナルなクラスとを有し、前記装置は、コンテンツアイテムの第1のセットを前記少なくとも1つのパーソナルなクラスに手動で分類するための手段と、前記コンテンツアイテムの第1のセットの手動分類に基づいて、前記パーソナルなクラスを定義するための手段と、更なるコンテンツアイテムを前記複数のクラスのうち少なくとも1つに自動的に分類するための手段と、を有し、前記複数のクラスは、前記定義されたパーソナルなクラスを含む装置により達成される。
このようにして、ユーザは、該ユーザのコンテンツアイテムの第1のセットを手動で分類することにより、パーソナルなカテゴリを定義することができる。ユーザの更なるコンテンツアイテムは、該手動の分類に基づいて、自動的に分類される。パーソナルなカテゴリを作成することを望むユーザは、該ユーザのコンテンツアイテムの第1のセットを、いずれかの方法で分類する必要がある。本発明者は、該手動の分類が、パーソナルクラスのためのモデルを学習させるために付加的に利用され得、それにより自動的な分類を可能とすることを認識した。
好適な実施例においては、前記更なるコンテンツアイテムを前記複数のクラスのうち少なくとも1つに自動的に分類するステップは、コンテンツアイテムの少なくとも1つの特徴を抽出するステップと、前記抽出された少なくとも1つの特徴の値に基づいて、前記コンテンツアイテムを分類するステップと、を有する。パーソナルなクラスは、最初は、所定のクラスの少なくとも1つの抽出された特徴と該パーソナルなクラスの少なくとも1つの抽出された特徴との間の関係を確立し、該所定のクラスの少なくとも1つの抽出された特徴と該パーソナルなクラスの少なくとも1つの抽出された特徴との間の最良の一致をもたらすように該関係に重み付けすることにより、該少なくとも1つの所定のクラスに基づいて定義されても良い。更に、パーソナルなクラスは、ユーザのフィードバックに基づいて再定義されても良い。
本質的に、予め定義されるクラスは、新たなパーソナルなクラスに対する関係によりリンク付けされ、分類は最初にこれらのリンクを通して実行される。なぜなら、予め定義されたクラスの幾つかの特徴は、或る程度は、パーソナルなクラスの特徴に類似する又は該特徴に相関付けられたものであり得るからである。結果として、分類データがあまり必要とされず、パーソナルなクラスがより迅速に利用されることができる。同時に、ユーザは、パーソナルなクラスを再定義するフィードバックを提供することによって、システムを利用しながら、新たなパーソナルなクラスによりモデルを学習させることを継続しても良い。次第に、新たに学習させられたモデルは信頼性の高いものとなっていき、予め定義されたクラスによる分類より優れたものとなる。
例えばジャンル(クラシック、ポップス、ロック等)若しくは雰囲気(悲しい、幸せな、リラックスした)又はトラックを再生するための適切な機会(帰宅時、パーティ、注意深い鑑賞、休憩時、読書時)によってのように、幾つかの予め定義されたクラスのセットが、利用時に利用可能であっても良い。各セットは、自身の分類モデルを持っていても良い。本発明によれば、クラスを定義する予め定義されたクラスのセットの組み合わせのリンクが容易に確立され、新たなパーソナルなクラスがより容易に分類において利用されることを可能にする。
本発明のより完全な理解のため、添付図面と共に為される以下の説明への参照が為される。
本発明の実施例による装置の簡略化された模式的な図である。 本発明の実施例による新たに生成されるパーソナルなクラスを定義する方法ステップのフロー図である。
ここで、本発明の実施例が図1及び2を参照しながら説明される。
図1を参照すると、装置100は、第1及び第2の入力端子101、103及び出力端子105を有する。第1の入力端子101は、複数の分類器107a、107b、107cの入力部に接続される。3つの分類器がここで示されているが、いかなる数の分類器が利用されても良いことは、理解されよう。各分類器107a、107b、107cは、複数のクラスを有する。示される特定の例においては、第1及び第2の分類器107a、107bが予め定義された分類器であり、第3の分類器107cが新しく生成されるパーソナル分類器であると仮定される。第3の分類器107cは、第2の入力端子103にも接続される。各分類器107a、107b、107cの出力部は、回帰モデル器109に接続される。回帰モデル器109は、第2の入力端子103にも接続される。回帰モデル器109の出力部は、メタ分類器111に接続される。メタ分類器111は、第2の入力端子103にも接続される。メタ分類器111の出力部は、装置100の出力端子105に接続される。該メタ分類器の出力部はまた、フィードバック線を介して、メタ分類器111、回帰モデル器109及び第3の分類器107cに接続される。
装置100の動作は、図2を参照しながら以下により詳細に説明される。
図1の装置は、オーディオトラックの大規模なコレクションを含むマルチメディアPC上で動作するオーディオプレイヤの一部であっても良い。該装置はまた、ビデオファイル又はマルチメディアファイルのような他のコンテンツアイテムを分類するために利用されても良い。装置100の第1及び第2の分類器107a、107bは、第1の入力端子101において入力されたオーディオトラックを、クラスの2つのセット、即ち第1の分類器107aのセットAと第2の分類器107bのセットBとのうちの一方に分類する。例えば、クラスの2つのセットは、以下のようなものである:
セットA:
クラシック
ポップス
ジャズ
ロック
その他
セットB:
幸せな音楽
憂鬱な音楽
リラックスした音楽
精神的な音楽
その他
両セットに対して、オーディオプレイヤと共に配布された学習させられたモデルが利用可能である。第1及び第2の分類器107a、107bの数学的記述は、以下の2つの式により与えられる。
Figure 2010509669
ここで、xは或る特定のオーディオトラックから抽出された特徴ベクトルであり、Aは分類ベクトルaに帰着する第1の分類器107aの分類関数であり、ここでベクトルaの要素のそれぞれは該モデルに存在する種々のクラスの優位性を示す。例えば、aが最も大きい場合には、分類器107aによって該オーディオトラックが「ポップス」と分類され、斯くして最も大きい値を持つaの要素が、セットAの最も可能性の高いクラスを示す。
同様に、及び、セットAについての式とは独立して、分類ベクトルbに帰着する第2の予め定義された分類器107bの分類セットBについての式がある。
ここで、オーディオプレイヤのユーザが、例えば:
聴くための音楽
パーティ用音楽
読書用音楽
その他の音楽
のような、新たな分類器107cのための分類セットCに、幾つかのパーソナルなクラスを生成することを欲していると仮定する。
最初には、分類モデルは何らの正当な予測を与えないが、他の2つのセットと同様な数学的な方法で記述されることができる:
Figure 2010509669
ステップ205において、分類ベクトルa、b及びcが組み合わせられ、新たな「特徴」ベクトルを形成する。即ち、
Figure 2010509669
ベクトルdの長さは、ベクトルa、b及びcの長さの合計に等しく、Mにより示される。
次いでステップ207において、回帰モデル器109により、新たな特徴ベクトルdに対して線形回帰モデルが構築され、背後にある特徴ベクトルxを分類する。ここでは線形回帰モデルが実装されるが、分類結果を再利用するためのいずれの手法も実装され得ることは、理解されよう。ステップ203において、新たなクラスセットCに従って、対応する特徴ベクトルxを持つ第1のセットのN個のオーディオトラックが、ユーザにより手動で分類されることが仮定される。該ベクトルは、
Figure 2010509669
として示され、ここでnは全体として利用可能なN個のベクトルのうちn番目のベクトルを示す。それぞれのモデルA、B及びCにおける特徴ベクトルの各々を利用することにより、
Figure 2010509669
として示されるN個のベクトルが得られる。ここでnは、n番目のベクトルを取り扱っていることを示す。N個のオーディオトラックのそれぞれについて、km,nにより示される分類が利用可能である。km,nが1に等しい場合、このことはオーディオトラックnがクラスmに分類されることを意味する。km,nが0に等しい場合、このことはオーディオトラックnがクラスmに分類されないことを意味する。これらの定義により、以下の行列乗算に対して、線形回帰モデルが適用されることができる:
Figure 2010509669
ここで、ベクトル
Figure 2010509669
は、新たな特徴ベクトルdの要素のそれぞれについての重み係数を示す。従って、Tm,pは、クラスm及び新たな特徴ベクトル成分pについての重み係数である。線形回帰モデルを用いて、N>Mを仮定して、最も良く合致するモデルベクトル
Figure 2010509669
が見出される。換言すれば、行列乗算の後に最小二乗法的にベクトルkに対する最も良い合致に帰着する、最も良く合致するモデルベクトル
Figure 2010509669
が見出される。ステップ209において、各クラスmについて、最も良く合致するモデルベクトルTを導出するため、当該線形回帰法が適用されても良い。
全てのベクトルTが導出されると、ステップ211において第3の分類器107cのクラスが定義されることができ、第3の分類器107cは次いで更なる特徴ベクトルxの分類に含められる。このことは、新たな特徴ベクトル
Figure 2010509669
に帰着することとなる。以下の行列乗算を適用することにより、分類変数kが得られ、回帰モデル器109により出力される。
Figure 2010509669
がゼロに近い場合には、このことは特徴ベクトルx(及び対応するオーディオトラック)がクラスmに属さないことの示唆であり、kが1に近い場合には、このことは特徴ベクトルxがクラスmに属することの示唆である。同様に、他の全てのクラスについて分類変数kが導出されても良く、該情報はメタ分類器111において、最も見込みの高いクラスを決定するために(例えば二次判別解析を用いることにより)利用される。
示されたように、新たなパーソナルなクラスセットCは、十分に学習させられていないため、分類ベクトルcは、新たなパーソナルなクラスが利用される初期のフェーズにおいては、一貫性のあるデータを含まない。回帰モデル器109がこのことを検知し、分類ベクトルcに対応する重み係数が低い値のものとなる。該新たなパーソナルなクラスセットを用いる代わりに、予め定義されたクラスに対する最良の合致が作成される。当該ユーザにとっては、新たなクラスのラベル「パーティ用音楽」はクラスセットBのラベル「幸せな音楽」に略1対1で対応し、ベクトルTにおける対応する重み値が高くなるかも知れない。
オーディオプレイヤの更なる利用時に、ユーザが、分類についてのフィードバックを与え、新たなパーソナルなクラスセットCがより適切に学習されたものとなることが仮定される。幾分かの時間の後、新たなパーソナルなクラスのセットC及び対応するモデルが、予め定義されたクラスのセットA及びBよりも、適切な情報を提供するようになることが期待される。この場合、線形回帰モデルは、分類ベクトルcのみが利用され、セットA及びBについての予め定義された分類器が新たなパーソナルなクラスの決定に殆ど又は全く寄与しないこととなるように、該モデルの重みを適応させる。
図1における点線は、第3の分類器107cを学習させるため及び該学習を改善するために利用される情報を示す。ユーザは、第2の入力端子103を介して、オーディオトラックがどのクラスに属するものと考えられるかについてのフィードバックを与えることができる。2つのフィードバックの状況が想定される。
第1の状況は、分類結果が正しくないときにのみ、ユーザがフィードバックを与えるものである。この場合には、暗黙的に、フィードバックが無い場合には、メタ分類器111の分類が正しかったものと仮定される。第3の分類器107cはこのことを通知され、それに従って内部の分類モデルを更新する。過去の特徴ベクトル及び現在の特徴ベクトルに基づき更新された分類ベクトルcが線形回帰モデル109へと送信されることとなり、線形回帰モデル109が内部モデルを更新する。次いで、入力分類ベクトルcに起因する種々の分類変数kが、メタ分類器111によって、内部モデルを更新するために利用されることとなる。更に、フィードバックがある場合、即ち分類が正しくなかった場合には、同様の更新が実行される。
第2の状況は、分類の正しさ又は誤りについての明示的なフィードバックを、ユーザが常に与える場合である(好適な選択肢ではない)。この場合には、内部分類モデルの全ての更新が、ユーザフィードバックに基づくものとなる。
図1の予め定義された分類器107a、107bの数は少なくとも1つであるべきであり、1以上のいずれの数であっても良い。また、本発明は回帰モデル器109及びメタ分類器111のみを学習させるために利用されても良い。この場合、ユーザのフィードバックも、回帰モデル器109及びメタ分類器111の学習のために利用される。
本発明は、マルチメディアPC上のソフトウェア、固体オーディオプレイヤ(MP3プレイヤ)、家庭用ネットワークサーバ等のような、パーソナルに定義されたクラスの存在により利益を得ることのできる、オーディオ分類を用いるいずれの用途においても利用されることができる。
本発明はオーディオ分類の状況で示されたが、本発明はより一般的なものであり、予め定義されたクラスが利用可能であり、パーソナルなカテゴリの必要性もある、即ちビデオコンテンツ分類のような、いずれのタイプの分類に対しても適用されることができる。
本発明の実施例が添付図面において示され以上の記載において説明されたが、本発明は開示された実施例に限定されるものではなく、以下の請求項に示された本発明の範囲から逸脱することなく、多くの変更が可能であることは、理解されるであろう。本発明は、それぞれの及び全ての新規な特徴及び特徴のそれぞれの及び全ての組み合わせに存する。請求項における参照番号は、請求の範囲を限定するものではない。
当業者には明らかであるように、「手段(means)」は、単独の又は他の要素と協働する、いずれのハードウェア(別個の又は集積された回路又は電子素子のような)又は、特定の機能を動作時に実行する若しくは実行するように構成されたソフトウェアをも含むことを意図している。本発明は、幾つかの別個の要素を有するハードウェアによって、及び適切にプログラムされたコンピュータによって実装されても良い。幾つかの手段を列記した装置請求項において、これら手段の幾つかは同一のハードウェアのアイテムによって実施化されても良い。「コンピュータプログラム」は、フロッピー(登録商標)ディスクのようなコンピュータ読み取り可能な媒体に保存されたもの、インターネットのようなネットワークを介してダウンロード可能なもの、又は他のいずれかの態様で入手可能な、いずれのソフトウェアをも意味するものと理解されるべきである。

Claims (7)

  1. コンテンツアイテムを複数のクラスのうちの少なくとも1つに分類する方法であって、前記複数のクラスは、少なくとも1つの予め定義されたクラスと、少なくとも1つのパーソナルなクラスとを有し、前記方法は、
    コンテンツアイテムの第1のセットを前記少なくとも1つのパーソナルなクラスに手動で分類するステップと、
    前記コンテンツアイテムの第1のセットの手動分類に基づいて、前記パーソナルなクラスを定義するステップと、
    更なるコンテンツアイテムを前記複数のクラスのうち少なくとも1つに自動的に分類するステップと、
    を有し、前記複数のクラスは、前記定義されたパーソナルなクラスを含む方法。
  2. 前記更なるコンテンツアイテムを前記複数のクラスのうち少なくとも1つに自動的に分類するステップは、
    コンテンツアイテムの少なくとも1つの特徴を抽出するステップと、
    前記抽出された少なくとも1つの特徴の値に基づいて、前記コンテンツアイテムを分類するステップと、
    を有する、請求項1に記載の方法。
  3. 前記パーソナルなクラスを定義するステップは、前記少なくとも1つの予め定義されたクラスに基づいて、前記パーソナルなクラスを最初に定義するステップを有する、請求項2に記載の方法。
  4. 前記パーソナルなクラスを最初に定義するステップは更に、
    前記予め定義されたクラスの少なくとも1つの抽出された特徴と、前記パーソナルなクラスの少なくとも1つの抽出された特徴と、の間の関係を確立するステップと、
    前記予め定義されたクラスの少なくとも1つの抽出された特徴と、前記パーソナルなクラスの少なくとも1つの抽出された特徴と、の間で最良の合致を提供するように前記関係を重み付けするステップと、
    を有する、請求項3に記載の方法。
  5. 前記パーソナルなクラスを定義するステップは、ユーザのフィードバックに基づいて前記パーソナルなクラスを再定義するステップを有する、請求項1乃至4のいずれか一項に記載の方法。
  6. 請求項1乃至5のいずれか一項に記載の方法を実行するための複数のプログラムコード部分を有する、コンピュータプログラム。
  7. コンテンツアイテムを複数のクラスのうちの少なくとも1つに分類するための装置であって、前記複数のクラスは、少なくとも1つの予め定義されたクラスと、少なくとも1つのパーソナルなクラスとを有し、前記装置は、
    コンテンツアイテムの第1のセットを前記少なくとも1つのパーソナルなクラスに手動で分類するための手段と、
    前記コンテンツアイテムの第1のセットの手動分類に基づいて、前記パーソナルなクラスを定義するための手段と、
    更なるコンテンツアイテムを前記複数のクラスのうち少なくとも1つに自動的に分類するための手段と、
    を有し、前記複数のクラスは、前記定義されたパーソナルなクラスを含む装置。
JP2009535871A 2006-11-14 2007-11-12 コンテンツアイテムを分類するための方法及び装置 Pending JP2010509669A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP06124026 2006-11-14
PCT/IB2007/054586 WO2008059430A1 (en) 2006-11-14 2007-11-12 Method and apparatus for classifying a content item

Publications (1)

Publication Number Publication Date
JP2010509669A true JP2010509669A (ja) 2010-03-25

Family

ID=39206690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009535871A Pending JP2010509669A (ja) 2006-11-14 2007-11-12 コンテンツアイテムを分類するための方法及び装置

Country Status (5)

Country Link
US (1) US20100250537A1 (ja)
EP (1) EP2089815A1 (ja)
JP (1) JP2010509669A (ja)
CN (1) CN101553815A (ja)
WO (1) WO2008059430A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100082684A1 (en) * 2008-10-01 2010-04-01 Yahoo! Inc. Method and system for providing personalized web experience
US8175377B2 (en) * 2009-06-30 2012-05-08 Xerox Corporation Method and system for training classification and extraction engine in an imaging solution
US8428345B2 (en) * 2010-03-03 2013-04-23 Honeywell International Inc. Meta-classifier system for video analytics
US9348902B2 (en) 2013-01-30 2016-05-24 Wal-Mart Stores, Inc. Automated attribute disambiguation with human input
US10380486B2 (en) 2015-01-20 2019-08-13 International Business Machines Corporation Classifying entities by behavior
US10990643B2 (en) * 2018-03-30 2021-04-27 Microsoft Technology Licensing, Llc Automatically linking pages in a website

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10228486A (ja) * 1997-02-14 1998-08-25 Nec Corp 分散ドキュメント分類システム及びプログラムを記録した機械読み取り可能な記録媒体
JP2003162285A (ja) * 2001-11-27 2003-06-06 Sony Corp 情報処理装置および情報処理方法、情報処理システム、並びにプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1049030A1 (en) * 1999-04-28 2000-11-02 SER Systeme AG Produkte und Anwendungen der Datenverarbeitung Classification method and apparatus
AU2001252947A1 (en) * 2000-03-22 2001-10-03 Virtual Gold, Inc. Data-driven self-training system and technique
US6446083B1 (en) * 2000-05-12 2002-09-03 Vastvideo, Inc. System and method for classifying media items
US6910035B2 (en) * 2000-07-06 2005-06-21 Microsoft Corporation System and methods for providing automatic classification of media entities according to consonance properties
US7035873B2 (en) * 2001-08-20 2006-04-25 Microsoft Corporation System and methods for providing adaptive media property classification
US7065416B2 (en) * 2001-08-29 2006-06-20 Microsoft Corporation System and methods for providing automatic classification of media entities according to melodic movement properties
US6913466B2 (en) * 2001-08-21 2005-07-05 Microsoft Corporation System and methods for training a trainee to classify fundamental properties of media entities
EP1457889A1 (en) * 2003-03-13 2004-09-15 Koninklijke Philips Electronics N.V. Improved fingerprint matching method and system
US7232948B2 (en) * 2003-07-24 2007-06-19 Hewlett-Packard Development Company, L.P. System and method for automatic classification of music
KR100715949B1 (ko) * 2005-11-11 2007-05-08 삼성전자주식회사 고속 음악 무드 분류 방법 및 그 장치
US7396990B2 (en) * 2005-12-09 2008-07-08 Microsoft Corporation Automatic music mood detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10228486A (ja) * 1997-02-14 1998-08-25 Nec Corp 分散ドキュメント分類システム及びプログラムを記録した機械読み取り可能な記録媒体
JP2003162285A (ja) * 2001-11-27 2003-06-06 Sony Corp 情報処理装置および情報処理方法、情報処理システム、並びにプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CSNG200600962013; 佐藤 真一: 'コーパスベース映像解析' 電子情報通信学会技術研究報告 Vol.106 No.229, 20060901, p.111-120, 社団法人電子情報通信学会 *
JPN6012024041; 佐藤 真一: 'コーパスベース映像解析' 電子情報通信学会技術研究報告 Vol.106 No.229, 20060901, p.111-120, 社団法人電子情報通信学会 *
JPN6012024042; R.Yan, M.Chen, A.Hauptmann: 'Mining Relationship Between Video Concepts using Probabilistic Graphical Models' 2006 IEEE International Conference on Multimedia and Expo , 20060712, p.301-304 *

Also Published As

Publication number Publication date
WO2008059430A1 (en) 2008-05-22
US20100250537A1 (en) 2010-09-30
EP2089815A1 (en) 2009-08-19
CN101553815A (zh) 2009-10-07

Similar Documents

Publication Publication Date Title
Kaminskas et al. Location-aware music recommendation using auto-tagging and hybrid matching
US9715902B2 (en) Audio-based annotation of video
US9335818B2 (en) System and method of personalizing playlists using memory-based collaborative filtering
WO2019233360A1 (zh) 一种基于深度学习的音域平衡方法、装置及系统
US20140058735A1 (en) Artificial Neural Network Based System for Classification of the Emotional Content of Digital Music
US8611676B2 (en) Information processing apparatus, feature extraction method, recording media, and program
US20090138457A1 (en) Grouping and weighting media categories with time periods
JP2010509669A (ja) コンテンツアイテムを分類するための方法及び装置
WO2007013390A1 (ja) 情報処理装置、特徴抽出方法、記録媒体、および、プログラム
KR101942459B1 (ko) 음원 컨텐츠 및 메타 정보를 이용한 플레이리스트 자동 생성 방법 및 시스템
CN111368141B (zh) 视频标签的扩展方法、装置、计算机设备和存储介质
CN113813609B (zh) 游戏音乐风格分类方法、装置、可读介质及电子设备
CN104951484A (zh) 搜索结果的处理方法和装置
Pichl et al. User models for multi-context-aware music recommendation
US7849155B2 (en) Apparatus and method of providing multimedia content
CN115618024A (zh) 多媒体推荐方法、装置及电子设备
CN111159464A (zh) 一种音频片段的检测方法及相关设备
US20200104321A1 (en) Unified Pipeline for Media Metadata Convergence
EP2035967A2 (en) System and method for associating a category label of one user with a category label defined by another user
WO2014002064A1 (en) System and method for media library navigation and recommendation
KR102224089B1 (ko) 음악 연령에 기초하여 음악 컨텐츠를 추천하는 방법 및 장치
Kaneria et al. Prediction of song popularity using machine learning concepts
Yepes et al. Listen to this: Music recommendation based on one-class support vector machine
Geroulanos et al. Emotion recognition in music using deep neural networks
Zhou et al. From popularity to personality—a heuristic music recommendation method for niche market

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121218