JP5112300B2 - コンテンツ項目の特性を決定する方法および電子装置 - Google Patents
コンテンツ項目の特性を決定する方法および電子装置 Download PDFInfo
- Publication number
- JP5112300B2 JP5112300B2 JP2008514282A JP2008514282A JP5112300B2 JP 5112300 B2 JP5112300 B2 JP 5112300B2 JP 2008514282 A JP2008514282 A JP 2008514282A JP 2008514282 A JP2008514282 A JP 2008514282A JP 5112300 B2 JP5112300 B2 JP 5112300B2
- Authority
- JP
- Japan
- Prior art keywords
- content item
- determining
- percussiveness
- characteristic
- sounds
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/036—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal of musical genre, i.e. analysing the style of musical pieces, usually for selection, filtering or classification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/081—Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
Description
−前記コンテンツ項目から複数の音を表すデータを選択し、
−前記データを分析することによって前記複数の音のそれぞれの特性を決定し、ここで、各特性が、前記複数の音のうちの一つの振幅の時間的観点を表し、
−前記コンテンツ項目の前記特性を、前記複数の決定された特性に基づき決定する、
ように動作可能である電子回路を備えることにおいて実現され得る。
1.音色の知覚:知覚的実験を用いて、多数の研究により、音色の知覚に寄与する信号特性が識別されている。スペクトル成分の数及び体系のようないくつかのスペクトル特性だけでなく、アタック時間などの時間的なパラメータも、最も重要なものである。
2.音モデリング:上述される研究において特定されるパラメータは、音声信号から抽出され、その後、モデリング目的に関して使用される。これらのモデルは、音を(再)合成するのに又は音の分類化及び識別化のためのいずれかのために共通して使用される。
ということを確認する。
1.フルート音:この音は、一般的な非パーカッシブ音として分類され得る。
2.スネアドラム:この音は、一般的なパーカッシブ音として分類され得る。
3.持続して演奏するチェロ(弦が弓と励起されている):この音は、一般的な非パーカッシブ音として分類され得る。
4.同一のチェロであるが、ピチカートで演奏するチェロ(弦は指で引っ張られる):この音が前のものよりもパーカッシブであると同意され得る。この理由は、音が、この場合、スペクトル構造が基本的に同一を維持する一方、異なる時間的特性を有するということである。信号理論は、時間ドメイン変調は、静的トーンのスペクトルに影響を及ぼすと明示している。したがって、この文は、ある意味において、両方の信号(維持される及び引っ張られる弦)が、スペクトル成分の同一の基礎を成す組織(例えば、規則)を有するということを意味する。
1.A区間の時間インスタンスを検索する:
(a)「アタックの中間」(moa)を検索する:
「アタックの中間」は、エンベロープenv(t)がスティープレベルを増加させる点であり、1次導関数d/dt env(t)が局所的最大値を有することを意味し、エンベロープが合理的な値を有する点である。合理的なエンベロープ値は、エンベロープの局所的最大値が初めて特定のしきい値を上回る前の最後の候補:local_max(env(t))≧env critmoa=0.25*max(env(t))によって規定される。
(b)アタックの開始(soa)を検索する:
moaから開始して、導関数及びエンベロープ規準が満たされるまで、後方へ進む。導関数条件:d/dt env(t)≦d_critsoa=0.1*max(d/dt env(t))。エンベロープ条件:env(t)≦env_critsoa=0.25*max(env(t))。
(c)アタックの終了(eoa)を検索する:
moaから開始して、導関数及びエンベロープ規準が満たされるまで、前方へ進む。導関数条件:d/dt env(t)≦d_criteoa=0.1*max(d/dt env(t))。エンベロープ条件:env(t)≧env_criteoa=0.75*max(env(t))。
2.R区間の時間インスタンスを検索する:
(a)「リリースの中間」(mor)を検索する:
「リリースの中間」は、エンベロープenv(t)がスティープレベルを減少させる点であり、1次導関数d/dt env(t)が0より下の局所的最小値を有することを意味し、エンベロープが合理的な値を有する点である。合理的なエンベロープ値は、エンベロープの局所的最大値が最後に特定のしきい値を上回った後の最初の候補:local_max(env(t))≧env_critmor=0.3*max(env(t))によって規定される。
(b)リリースの開始(sor)を検索する:
morから開始して、導関数及びエンベロープ規準が満たされるまで、後方へ進む。導関数条件:d/dt env(t)≧d_critsor=0.2*min(d/dt env(t))。エンベロープ条件:env(t)≧env_critsor=0.25*max(env(t))。
(c)リリースの終了(eor)を検索する:
moaから開始して、導関数及びエンベロープ規準が満たされるまで、前方へ進む。導関数条件:d/dt env(t)≧d_criteor=0.1*max(d/dt env(t))。エンベロープ条件:env(t)≦env_criteor=0.1*min(env(t))。
3.D&S区間の時間インスタンスを規定する
・時間インスタンス:soa、eoa、sor、eor
・レベル値:env(soa)、env(eoa)、env(sor)、env(eor)
・各区間に関する選択的な曲線形状パラメータ:nA、nD&S、nR
を含む、エンベロープの3区間パラメータ的記述である。
1.連続的な音楽又は音声ストリームを、発生するオンセットにて開始し後続のオンセットにて終了する部分にスライスするステップ、及び、
2.A-D&S-R近似を適用し、各音声部分に関するパーカッシブネスを推定するための特徴を計算するステップ、
が実行される必要がある。
・グループ1:A-D&S-R区間毎の低レベル特徴(単一帯域計算):
−区間の持続時間(「t」)
−区間の開始及び終了点間のレベル差(「d」)
−区間のスティープネス(「d/t」)
・グループ2:A-D&S-R区間毎の曲線形状記述(単一帯域計算):
−区間の曲線形状パラメータn
−近似曲線と実信号エンベロープとの間におけるエラーを記述する追加的なパラメータ:これは、図5の式2.3におけるエラー関数の自動補正関数(ACF)に基づくパラメータである。前記パラメータは、ACFの0ラグ点以外の第1のピークの高さである。前記パラメータは、エラー関数の周期性の「強さ」を記述し、したがって、「エラー規則性」と呼ばれる。
・グループ3:帯域毎の区間の開始及び終了点の非同期性を記述する特徴(多重帯域計算):非同期性は、全ての帯域における平均値から1つの帯域における時間インスタンスsoa、eoa、sor及びeorの偏差(deviation)として規定されている(フィルタバンクの全てのフィルタは、同一のオーダーを有する線形区間FIRフィルタであり、これら全てが同一の一定遅延を生じさせることを意味する)。このように計算された帯域毎の非同期性値において、2つのスカラー特徴:
○帯域毎の非同期性の平均
○帯域毎の非同期性の分散
が計算される。
・グループ4:事前に帯域毎に計算されていた、グループ1の特徴の帯域における平均値(多重帯域計算)
・グループ5:事前に帯域毎に計算されていた、グループ2の特徴の帯域における平均値(多重帯域計算)
・グループ6:事前に帯域毎に計算されていた、グループ1の特徴の帯域における分散値(多重帯域計算)
・グループ7:事前に帯域毎に計算されていた、グループ2の特徴の帯域における分散値(多重帯域計算)
・グループ8:全ての帯域におけるグループ1特徴値の「形状(shape)」を記述する特徴:形状とは、音響帯域の関数としてプロットされる場合に、帯域毎の特徴値の配分を意味する。前記形状は、上述の曲線形状パラメータ及びエラー規則性パラメータに類似する2つのパラメータによって記述される。
○線形曲線を用いて形状の近似を記述する1つのパラメータ。このパラメータは、線形近似の傾きmである。
○形状及び線形近似の間におけるエラーの規則性を記述する1つのパラメータ。このパラメータの計算は、エラー規則性パラメータに類似し、また線形近似及び実形状間におけるACFに基づく。
・グループ9:グループ2特徴に関する形状パラメータ。
1.音声ストリームから音イベントを抽出し(図2のステップ21)、これらのパーカッシブネスを、適切に調整された(trained)分類子を用いて推定する(図2のステップ23及び25)。
2.第2の特徴(例えば、統計)を、考慮される音声ファイルにおける前記パーカッシブネス推定において計算し(図2のステップ27)、これらの第2の特徴を音声ファイルの最終的な分類化のために使用する(図2のステップ29)。
1.音声ファイルの約6秒長から音イベントを抽出する。
2.上述の予測子を用いて、各抽出された音のパーカッシブネスを予測する。
3.音声ファイル毎の百分率を、例えば、音がどれだけ頻繁に異なる分類のパーカッシブネスに割り当てられるか、例えば、50%のパーカッシブ及び非ハーモニック、30%のパーカッシブ及びハーモニック、及び20%の非パーカッシブなど、を計算する。
4.3つの百分率のうちの2つを第2の特徴として使用する。その理由は、第3のものが、選択される2つの線形合成から得られるからである(特徴1+特徴2+特徴3=1が常に維持される)。
1.ある音楽ジャンルを他のジャンルから検出する。
このことが意味するのは、ある音楽ジャンルの音声ファイルが分類1に割り当てられる一方で、残りの13個のジャンルの音声ファイルが分類2に割り当てられることを意味する。このことは、これらの実験において考慮される全ての14個のジャンルに関して繰り返され得る。
2.2つの音楽ジャンル間を区別する。
このことが意味するのは、2つの音楽ジャンルが分類化される一方で、他の音楽ファイルは除外されることである。このことは、全ての音楽ジャンル組み合わせに関して組み合わされ得る。
Claims (9)
- 楽曲を表すコンテンツ項目の音楽ジャンル及び/又は雰囲気を決定する方法であって、
−前記コンテンツ項目から複数の音を表すデータを選択するステップと、
−前記データを分析することによって前記複数の音のそれぞれの特性を決定するステップであって、各特性が、前記複数の音のうちの一つの振幅の時間的観点を表す、ステップと、
−前記コンテンツ項目のパーカッシブネスの尺度を、前記複数の決定された特性に基づき決定するステップと、
−前記コンテンツ項目の前記パーカッシブネスの尺度に基づき、前記コンテンツ項目の前記音楽ジャンル及び/又は雰囲気を決定するステップと
を含み、
前記コンテンツ項目の前記パーカッシブネスの尺度を決定するステップが、前記コンテンツ項目の第1のパーカッシブネス特徴及び第2のパーカッシブネス特徴を決定するステップを含み、前記コンテンツ項目の前記音楽ジャンル及び/又は雰囲気を決定するステップが、前記第1のパーカッシブネス特徴を第1ジャンル又は雰囲気の特性と比較するステップ、及び前記第2のパーカッシブネス特徴を第2ジャンル又は雰囲気の特性と比較するステップを含む方法。 - 楽曲を表すコンテンツ項目の音楽ジャンル及び/又は雰囲気を決定する方法であって、
−前記コンテンツ項目から複数の音を表すデータを選択するステップと、
−前記データを分析することによって前記複数の音のそれぞれの特性を決定するステップであって、各特性が、前記複数の音のうちの一つの振幅の時間的観点を表す、ステップと、
−前記コンテンツ項目のパーカッシブネスの尺度を、前記複数の決定された特性に基づき決定するステップと、
−前記コンテンツ項目の前記パーカッシブネスの尺度に基づき、前記コンテンツ項目の前記音楽ジャンル及び/又は雰囲気を決定するステップと
を含み、
前記複数の音のそれぞれの特性を決定するステップが、前記複数の音のそれぞれの第1区間の特性及び前記複数の音のそれぞれの第2区間の特性を決定するステップを含む方法。 - 前記コンテンツ項目を表す信号を、線形区間FIRフィルタのフィルタバンクを用いてフィルタ処理し、各フィルタ出力に関して個別に前記特性を特定することを特徴とする請求項1に記載の方法。
- 前記コンテンツ項目から複数の音を表すデータを選択するステップが、前記コンテンツ項目のストリームを、発生するオンセットにて開始し後続のオンセットにて終了する音声部分にスライスする処理を含み、
複数の音のそれぞれの特性を決定するステップが、前記音声部分のそれぞれについて、前記特性を決定する処理を含むことを特徴とする請求項1に記載の方法。 - 楽曲を表す複数のコンテンツ項目におけるあるコンテンツ項目を検索する検索方法であって、前記複数のコンテンツ項目における各コンテンツ項目が、属性値と関連付けられており、発見されるコンテンツ項目が、所望の属性値に類似する属性値と関連付けられており、前記各コンテンツ項目の前記属性値が、前記各コンテンツ項目の音楽ジャンル及び/又は雰囲気である、又は前記各コンテンツ項目の音楽ジャンル及び/又は雰囲気に基づいており、前記各コンテンツ項目の前記音楽ジャンル及び/又は雰囲気が、請求項1から4いずれか1項記載の方法により決定されたものであることを特徴とする検索方法。
- プログラム可能な装置を請求項1から5いずれか1項記載の方法を実行するように動作可能にさせるソフトウェア。
- 電子装置であって、
−楽曲を表すコンテンツ項目から複数の音を表すデータを選択し、
−前記データを分析することによって前記複数の音のそれぞれの特性を決定し、ここで、各特性は、前記複数の音のうちの一つの振幅の時間的観点を表し、
−前記複数の決定された特性に基づき、前記コンテンツ項目のパーカッシブネスの尺度を決定する処理であって、前記コンテンツ項目の第1のパーカッシブネス特徴及び第2のパーカッシブネス特徴を決定するステップを含む処理を行い、
−前記コンテンツ項目の前記パーカッシブネスの尺度に基づき、前記コンテンツ項目の音楽ジャンル及び/又は雰囲気を決定する処理であって、前記第1のパーカッシブネス特徴を第1ジャンル又は雰囲気の特性と比較するステップ、及び前記第2のパーカッシブネス特徴を第2ジャンル又は雰囲気の特性と比較するステップを含む処理を行う
ように動作可能である電子回路を備える電子装置。 - 前記電子回路がさらに、楽曲を表す複数のコンテンツ項目におけるあるコンテンツ項目を検索するように動作可能であり、前記複数のコンテンツ項目における各コンテンツ項目が、属性値と関連付けられており、発見されるコンテンツ項目が、所望の属性値に類似する属性値と関連付けられており、前記各コンテンツ項目の前記属性値が、前記各コンテンツ項目の前記音楽ジャンル及び/又は雰囲気である、又は前記各コンテンツ項目の前記音楽ジャンル及び/又は雰囲気に基づいている、請求項7記載の電子装置。
- 請求項7または8に記載の電子回路。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05104740.5 | 2005-06-01 | ||
EP05104740 | 2005-06-01 | ||
PCT/IB2006/051719 WO2006129274A1 (en) | 2005-06-01 | 2006-05-30 | Method and electronic device for determining a characteristic of a content item |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008542835A JP2008542835A (ja) | 2008-11-27 |
JP5112300B2 true JP5112300B2 (ja) | 2013-01-09 |
Family
ID=36930199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008514282A Active JP5112300B2 (ja) | 2005-06-01 | 2006-05-30 | コンテンツ項目の特性を決定する方法および電子装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US7718881B2 (ja) |
EP (1) | EP1891548B1 (ja) |
JP (1) | JP5112300B2 (ja) |
KR (1) | KR101249024B1 (ja) |
CN (1) | CN101189610B (ja) |
RU (1) | RU2419859C2 (ja) |
WO (1) | WO2006129274A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4665836B2 (ja) * | 2006-05-31 | 2011-04-06 | 日本ビクター株式会社 | 楽曲分類装置、楽曲分類方法、及び楽曲分類プログラム |
EP2031581A1 (de) * | 2007-08-31 | 2009-03-04 | Deutsche Thomson OHG | Verfahren zum Erkennen eines akustischen Ereignisses in einem Audio-Signal |
US20120294457A1 (en) * | 2011-05-17 | 2012-11-22 | Fender Musical Instruments Corporation | Audio System and Method of Using Adaptive Intelligence to Distinguish Information Content of Audio Signals and Control Signal Processing Function |
MX2014000042A (es) * | 2011-06-24 | 2014-02-17 | Lg Electronics Inc | Metodo de codificacion y decodificacion de informacion de imagenes. |
GB201119206D0 (en) | 2011-11-07 | 2011-12-21 | Canon Kk | Method and device for providing compensation offsets for a set of reconstructed samples of an image |
CN102930865B (zh) * | 2012-09-21 | 2014-04-09 | 重庆大学 | 一种波形音乐粗情感软切割分类方法 |
US9123353B2 (en) * | 2012-12-21 | 2015-09-01 | Harman International Industries, Inc. | Dynamically adapted pitch correction based on audio input |
TWI527025B (zh) * | 2013-11-11 | 2016-03-21 | 財團法人資訊工業策進會 | 電腦系統、音訊比對方法及其電腦可讀取記錄媒體 |
US9671862B2 (en) * | 2014-10-15 | 2017-06-06 | Wipro Limited | System and method for recommending content to a user based on user's interest |
WO2016102737A1 (en) * | 2014-12-22 | 2016-06-30 | Nokia Technologies Oy | Tagging audio data |
CN108648767B (zh) * | 2018-04-08 | 2021-11-05 | 中国传媒大学 | 一种流行歌曲情感综合与分类方法 |
CN109841223B (zh) * | 2019-03-06 | 2020-11-24 | 深圳大学 | 一种音频信号处理方法、智能终端及存储介质 |
JP7275711B2 (ja) * | 2019-03-20 | 2023-05-18 | ヤマハ株式会社 | オーディオ信号の処理方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5918223A (en) * | 1996-07-22 | 1999-06-29 | Muscle Fish | Method and article of manufacture for content-based analysis, storage, retrieval, and segmentation of audio information |
US6201176B1 (en) * | 1998-05-07 | 2001-03-13 | Canon Kabushiki Kaisha | System and method for querying a music database |
US20050120870A1 (en) * | 1998-05-15 | 2005-06-09 | Ludwig Lester F. | Envelope-controlled dynamic layering of audio signal processing and synthesis for music applications |
US7022905B1 (en) * | 1999-10-18 | 2006-04-04 | Microsoft Corporation | Classification of information and use of classifications in searching and retrieval of information |
DE60041118D1 (de) * | 2000-04-06 | 2009-01-29 | Sony France Sa | Extraktor von Rythmuseigenschaften |
US7075000B2 (en) * | 2000-06-29 | 2006-07-11 | Musicgenome.Com Inc. | System and method for prediction of musical preferences |
US6545209B1 (en) * | 2000-07-05 | 2003-04-08 | Microsoft Corporation | Music content characteristic identification and matching |
US7035873B2 (en) * | 2001-08-20 | 2006-04-25 | Microsoft Corporation | System and methods for providing adaptive media property classification |
US6657117B2 (en) * | 2000-07-14 | 2003-12-02 | Microsoft Corporation | System and methods for providing automatic classification of media entities according to tempo properties |
US7065416B2 (en) * | 2001-08-29 | 2006-06-20 | Microsoft Corporation | System and methods for providing automatic classification of media entities according to melodic movement properties |
EP1244033A3 (en) * | 2001-03-21 | 2004-09-01 | Matsushita Electric Industrial Co., Ltd. | Play list generation device, audio information provision device, system, method, program and recording medium |
US6993532B1 (en) * | 2001-05-30 | 2006-01-31 | Microsoft Corporation | Auto playlist generator |
US6476308B1 (en) * | 2001-08-17 | 2002-11-05 | Hewlett-Packard Company | Method and apparatus for classifying a musical piece containing plural notes |
US7295977B2 (en) * | 2001-08-27 | 2007-11-13 | Nec Laboratories America, Inc. | Extracting classifying data in music from an audio bitstream |
US6426456B1 (en) * | 2001-10-26 | 2002-07-30 | Motorola, Inc. | Method and apparatus for generating percussive sounds in embedded devices |
US6987221B2 (en) * | 2002-05-30 | 2006-01-17 | Microsoft Corporation | Auto playlist generation with multiple seed songs |
EP1378912A3 (en) * | 2002-07-02 | 2005-10-05 | Matsushita Electric Industrial Co., Ltd. | Music search system |
GB0229940D0 (en) * | 2002-12-20 | 2003-01-29 | Koninkl Philips Electronics Nv | Audio signal analysing method and apparatus |
DE10313875B3 (de) * | 2003-03-21 | 2004-10-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Analysieren eines Informationssignals |
US7227072B1 (en) * | 2003-05-16 | 2007-06-05 | Microsoft Corporation | System and method for determining the similarity of musical recordings |
US7022907B2 (en) * | 2004-03-25 | 2006-04-04 | Microsoft Corporation | Automatic music mood detection |
US7193148B2 (en) * | 2004-10-08 | 2007-03-20 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for generating an encoded rhythmic pattern |
US20060254409A1 (en) * | 2005-05-11 | 2006-11-16 | Withop Ryan L | Sorting media files using dynamic passive recognition techniques |
US7672916B2 (en) * | 2005-08-16 | 2010-03-02 | The Trustees Of Columbia University In The City Of New York | Methods, systems, and media for music classification |
US7396990B2 (en) * | 2005-12-09 | 2008-07-08 | Microsoft Corporation | Automatic music mood detection |
US7888582B2 (en) * | 2007-02-08 | 2011-02-15 | Kaleidescape, Inc. | Sound sequences with transitions and playlists |
-
2006
- 2006-05-30 RU RU2007144711/08A patent/RU2419859C2/ru active
- 2006-05-30 CN CN2006800195982A patent/CN101189610B/zh active Active
- 2006-05-30 US US11/916,305 patent/US7718881B2/en active Active
- 2006-05-30 KR KR1020077030947A patent/KR101249024B1/ko active IP Right Grant
- 2006-05-30 JP JP2008514282A patent/JP5112300B2/ja active Active
- 2006-05-30 EP EP06745040.3A patent/EP1891548B1/en active Active
- 2006-05-30 WO PCT/IB2006/051719 patent/WO2006129274A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20080202320A1 (en) | 2008-08-28 |
RU2007144711A (ru) | 2009-06-10 |
US7718881B2 (en) | 2010-05-18 |
EP1891548B1 (en) | 2017-04-26 |
KR101249024B1 (ko) | 2013-03-29 |
EP1891548A1 (en) | 2008-02-27 |
CN101189610A (zh) | 2008-05-28 |
CN101189610B (zh) | 2011-12-14 |
WO2006129274A1 (en) | 2006-12-07 |
RU2419859C2 (ru) | 2011-05-27 |
JP2008542835A (ja) | 2008-11-27 |
KR20080019031A (ko) | 2008-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5112300B2 (ja) | コンテンツ項目の特性を決定する方法および電子装置 | |
JP4438144B2 (ja) | 信号分類方法及び装置、記述子生成方法及び装置、信号検索方法及び装置 | |
JP4795934B2 (ja) | パラメータで表示された時間特性の分析 | |
US8073684B2 (en) | Apparatus and method for automatic classification/identification of similar compressed audio files | |
US8158871B2 (en) | Audio recording analysis and rating | |
US8865993B2 (en) | Musical composition processing system for processing musical composition for energy level and related methods | |
TW201142818A (en) | Complexity scalable perceptual tempo estimation | |
JP2010134231A (ja) | 情報処理装置、音素材の切り出し方法、及びプログラム | |
WO2009104269A1 (ja) | 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体 | |
US20040068401A1 (en) | Device and method for analysing an audio signal in view of obtaining rhythm information | |
WO2015092492A1 (en) | Audio information processing | |
Rajan et al. | Music genre classification by fusion of modified group delay and melodic features | |
Niyazov et al. | Content-based music recommendation system | |
Ziemer et al. | Using psychoacoustic models for sound analysis in music | |
Marolt | On finding melodic lines in audio recordings | |
JP2008216486A (ja) | 音楽再生システム | |
Peiris et al. | Musical genre classification of recorded songs based on music structure similarity | |
Dressler | Towards computational auditory scene analysis: Melody extraction from polyphonic music | |
Peiris et al. | Supervised learning approach for classification of Sri Lankan music based on music structure similarity | |
Jensen et al. | Hybrid perception | |
Skowronek et al. | Features for audio classification: Percussiveness of sounds | |
Proscia et al. | A timbral and a musical performance analysis of saxophone multiphonic morphings | |
Yoshii et al. | Drum sound identification for polyphonic music using template adaptation and matching methods | |
Wegener et al. | On the robustness of audio features for musical instrument classification | |
Ramesh | Singing Voice Nasality Detection in Polyphonic Audio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110809 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20111104 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20111111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120815 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120913 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121010 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5112300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |