JP2008506141A - 楽曲分類方法 - Google Patents
楽曲分類方法 Download PDFInfo
- Publication number
- JP2008506141A JP2008506141A JP2007519733A JP2007519733A JP2008506141A JP 2008506141 A JP2008506141 A JP 2008506141A JP 2007519733 A JP2007519733 A JP 2007519733A JP 2007519733 A JP2007519733 A JP 2007519733A JP 2008506141 A JP2008506141 A JP 2008506141A
- Authority
- JP
- Japan
- Prior art keywords
- music
- classification method
- music classification
- mood
- classified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000036651 mood Effects 0.000 claims abstract description 92
- 230000003595 spectral effect Effects 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 12
- 238000001228 spectrum Methods 0.000 claims description 9
- 230000004907 flux Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 230000014509 gene expression Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical group N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/64—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Acoustics & Sound (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
Description
各楽曲について、特定の無制限な無符号実数個、少なくとも3個の提供された楽曲のムードデータを線形の視覚的インタフェースに変換する。
「ライブラリ」(曲のコレクション)から、各曲について、3つの「ムード」値を導出する。これらの値を内部的に「楽しい」ムード、「悲しい」ムード、「元気な」ムードと呼ぶ。ライブラリ内の最大値及び最小値に基づいて、それぞれが[0.0〜1.0]の範囲内の値となるようにこれらの値を正規化し、データベースに保存する。
楽曲の3つの「ムード」値を2次元にマッピングし、次に色空間にマッピングすることによって、色相(すなわち、楽曲の「ムード」)及び飽和度(すなわち、楽曲の「ムード」の強さ)によって、楽曲ライブラリのムードを数値的に表現することができる。飽和度が高い色は、特定の「ムード」が強い楽曲を示す。これにより、ユーザは、2つの入力値のみに基づくインタフェースを用いて、単純な手法でライブラリを探索することができる。
Claims (43)
- (a)有限個(n)の音楽クラス(c1,…,cn)の離散的な有限集合(Γ)を記述する音楽分類データ(MCD)を提供するステップと、
(b)分類される未分類の楽曲(s)を提供するステップと、
(c)上記音楽クラスの集合(Γ)の上記音楽クラス(c1,…,cn)のそれぞれについて、上記分類される未分類の楽曲(s)に関してそれぞれのギッシュ距離値(D1,…,Dn)を導出し、有限個(n)のギッシュ距離値(D1,…,Dn)の離散的な有限集合(Δ)を得るステップとを有し、
上記有限個(n)のギッシュ距離値(D1,…,Dn)の有限集合(Δ)は、上記分類される未分類の楽曲(s)と、上記有限個(n)の音楽クラス(c1,…,cn)の離散的な有限集合(Γ)との関係を記述することを特徴とする楽曲分類方法。 - (d)上記ギッシュ距離値(D1,…,Dn)の集合(Γ)内で、少なくとも1つの最小ギッシュ距離値(Djmin)を検出し、上記音楽クラス(c1,…,cn)の集合(Γ)内で上記最小ギッシュ距離値(Djmin)に対応する別個の最小音楽クラス(cjmin)を判定するステップを更に有する請求項1記載の楽曲分類方法。
- (e)上記分類される未分類の楽曲について、上記最小音楽クラス(cjmin)を特徴クラス(cs)として選択するステップを更に有する請求項2記載の楽曲分類方法。
- 上記モデルm(・)としてガウス分布密度モデルを用いることを特徴とする請求項4記載の楽曲分類方法。
- 単一の全共分散ガウス分布密度のみを採用することを特徴とする請求項4又は5記載の楽曲分類方法。
- 上記モデルm(・)として、多変数モデルを用いることを特徴とする請求項4乃至6いずれか1項記載の楽曲分類方法。
- 上記音楽分類データ(MCD)を提供するステップ(a)は、該音楽分類データ(MCD)を受信及び/又は生成する処理又は該処理の一部であり、又は該処理又は該処理の一部を含むことを特徴とする請求項1乃至7いずれか1項記載の楽曲分類方法。
- 上記分類される未分類の楽曲(s)を提供するステップ(b)は、外部ソースから上記分類される未分類の楽曲(s)又はその一部を受信する処理又は該処理の一部を含むことを特徴とする請求項1乃至8いずれか1項記載の楽曲分類方法。
- 上記音楽分類データ(MCD)及び/又はモデルm(・)は、完全な曲又は楽曲、若しくはその特徴的部分に基づいていることを特徴とする請求項1乃至9いずれか1項記載の楽曲分類方法。
- 上記ギッシュ距離値(D1,…,Dn)を導出するステップ(c)及び/又は上記最小ギッシュ距離値(Djmin)を検出するステップ(d)は、上記分類される未分類の楽曲(s)又はその各部分を、複数の音楽クラス(c1,…,cn)又はその全体に関して比較し、上記音楽クラス(c1,…,cn)を含む上記音楽分類データ(MCD)によって定義されるムード空間内で該未分類の楽曲(s)又はその各部分の位置を特定する処理を構成し又は含むことを特徴とする請求項1乃至10いずれか1項記載の楽曲分類方法。
- 上記分類される未分類の楽曲(s)と、上記音楽クラス(c1,…,cn)又はその各部分との関係を記述し、該未分類の楽曲又はその各部分を該音楽クラス(c1,…,cn)に分類する曲分類データ(SCD)を提供するステップ(f)を更に有する請求項1乃至11いずれか1項記載の楽曲分類方法。
- 上記楽曲及び/又はその一部は、サンプリングされることを特徴とする請求項1乃至12いずれか1項記載の楽曲分類方法。
- 約22kHzのサンプリング周波数を用いることを特徴とする請求項13記載の楽曲分類方法。
- 上記楽曲及び/又はその一部は、フレームに分割されることを特徴とする請求項13又は14記載の楽曲分類方法。
- 上記フレームのフレーム長は、約32ミリ秒であることを特徴とする請求項15記載の楽曲分類方法。
- 上記フレームのフレームレートは、約50ミリ秒であることを特徴とする請求項15又は16記載の楽曲分類方法。
- 上記各フレームは、それぞれの高速フーリエ変換の前にハミング窓化されることを特徴とする請求項15乃至17いずれか1項記載の楽曲分類方法。
- 各高速フーリエ変換から、それぞれのパワースペクトルが導出され、
上記各パワースペクトルベクトルに基づき、特徴ベクトルを算出することを特徴とする請求項1乃至18いずれか1項記載の楽曲分類方法。 - 上記特徴ベクトルは、メルスケール変換されることを特徴とする請求項19記載の楽曲分類方法。
- 30個のメルスケール係数を使用することを特徴とする請求項20記載の楽曲分類方法。
- 上記メルスケール係数は、対数換算されることを特徴とする請求項21記載の楽曲分類方法。
- 上記対数換算されたメルスケール係数は、逆離散フーリエ変換されることを特徴とする請求項22記載の楽曲分類方法。
- 上記対数換算されたメルスケール係数に対する上記逆離散フーリエ変換から、1フレームあたり13個を含む1フレームあたり一組のケプストラム係数が導出されることを特徴とする請求項23記載の楽曲分類方法。
- 上記1フレームあたり一組のケプストラム係数から、スペクトル面積中心、スペクトルフラックス、スペクトルロールオフのうちの1つ又は任意の複数が算出されることを特徴とする請求項24記載の楽曲分類方法。
- 上記スペクトル面積中心、上記スペクトルフラックス及び/又は上記スペクトルロールオフの分散を算出することを特徴とする請求項25記載の楽曲分類方法。
- 上記スペクトル面積中心、上記スペクトルフラックス及び/又は上記スペクトルロールオフの分散は、Qを5〜20として、Q個の隣接するフレームの窓に亘って、算出されることを特徴とする請求項26記載の楽曲分類方法。
- 上記分散は、パラメータとしてみなされることを特徴とする請求項26又は27記載の楽曲分類方法。
- 上記ギッシュ距離値(D1,…,Dn)の集合(Δ)に基づいて、上記分類される楽曲(s)又はその一部のための音楽分類データ(MCD)が、少なくとも3つの数値からなるn−タプルの形式で導出されることを特徴とする請求項1乃至28いずれか1項記載の楽曲分類方法。
- (f)分類される所定の楽曲(s)について、該楽曲又はその一部のムードを表す少なくとも3つの数値からなるn−タプルの形式で音楽分類データ(MCD)を導出/提供するステップと、
(g)上記音楽分類データ(MCD)のn−タプルの数値から、上記楽曲又はその一部のムードを表す一対の2次元座標値(x,y;r,φ)を判定するステップとを有する請求項29記載の楽曲分類方法。 - (f)分類される所定の楽曲(s)について、該楽曲又はその一部のムードを表す少なくとも3つの数値からなるn−タプルの形式で音楽分類データ(MCD)を導出/提供するステップと、
(g)上記音楽分類データ(MCD)のn−タプルの数値から、上記楽曲又はその一部のムードを表す一対の2次元座標値(x,y;r,φ)を判定するステップとを有する楽曲分類方法。 - 2次元座標値(x,y;r,φ)として、デカルト座標(x,y)及び/又は極座標(r,f)を用いることを特徴とする請求項30又は31記載の楽曲分類方法。
- 上記n−タプルの数値として,3個の数値(j,s,a)を用いることを特徴とする請求項30乃至32いずれか1項記載の楽曲分類方法。
- 上記3個の数値(j,s,a)は、上記楽曲又はその一部の3個のムード値(j,s,a)によって構成されていることを特徴とする請求項33記載の楽曲分類方法。
- 上記ムード値(j,s,a)は、上記楽曲又はその一部に関して、それぞれ、「楽しい」ムード、「悲しい」ムード、「元気な」ムードを分類することを特徴とする請求項34記載の楽曲分類方法。
- 上記2次元座標値(x,y;r,φ)から上記楽曲又はその一部のムードを記述する色を記述する色及び/又は色値(h,s,v)を正規化された形式で生成することを特徴とする請求項31乃至37いずれか1項記載の楽曲分類方法。
- 上記色及び/又は色値(h,s,v)は、HSV色空間に基づいて判定されることを特徴とする請求項38記載の楽曲分類方法。
- 請求項1乃至40いずれか1項記載の楽曲分類方法及びそのステップを実現する手段を備え、該楽曲分類方法及びそのステップを実行するように適応化及び/又は構成された楽曲分類装置。
- デジタル信号処理手段又はコンピュータ上で実行されて、請求項1乃至40記載の楽曲分類方法又は請求項41記載の楽曲分類装置を実現するコンピュータプログラムを含むコンピュータプログラム製品。
- 請求項42記載のコンピュータプログラム製品を提供するコンピュータにより読取可能な媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP04016229.9 | 2004-07-09 | ||
EP04016229A EP1615204B1 (en) | 2004-07-09 | 2004-07-09 | Method for classifying music |
PCT/EP2005/007403 WO2006005533A2 (en) | 2004-07-09 | 2005-07-08 | Method for classifying music |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008506141A true JP2008506141A (ja) | 2008-02-28 |
JP4825800B2 JP4825800B2 (ja) | 2011-11-30 |
Family
ID=34925687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007519733A Expired - Fee Related JP4825800B2 (ja) | 2004-07-09 | 2005-07-08 | 楽曲分類方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7858868B2 (ja) |
EP (1) | EP1615204B1 (ja) |
JP (1) | JP4825800B2 (ja) |
CN (1) | CN1985302B (ja) |
DE (1) | DE602004009676T2 (ja) |
WO (1) | WO2006005533A2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010054758A (ja) * | 2008-08-28 | 2010-03-11 | Sony Corp | 再生装置および再生方法 |
WO2022265132A1 (ko) * | 2021-06-17 | 2022-12-22 | 견두헌 | 색혼합 방식으로 장르를 표현하는 음악장르 분류 장치 및 그 방법 |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE60319710T2 (de) | 2003-11-12 | 2009-03-12 | Sony Deutschland Gmbh | Verfahren und Vorrichtung zur automatischen Dissektion segmentierte Audiosignale |
EP1816639B1 (en) * | 2004-12-10 | 2013-09-25 | Panasonic Corporation | Musical composition processing device |
US20070061309A1 (en) * | 2005-08-05 | 2007-03-15 | Realnetworks, Inc. | System and method for color-based searching of media content |
KR100822376B1 (ko) * | 2006-02-23 | 2008-04-17 | 삼성전자주식회사 | 곡명을 이용한 음악 주제 분류 방법 및 시스템 |
EP1975866A1 (en) | 2007-03-31 | 2008-10-01 | Sony Deutschland Gmbh | Method and system for recommending content items |
KR101540598B1 (ko) | 2007-10-02 | 2015-07-30 | 코닌클리케 필립스 엔.브이. | 콘텐트 아이템들의 컬렉션 중 적어도 하나의 아이템을 선택하는 방법 |
EP2083416A1 (en) * | 2008-01-23 | 2009-07-29 | Sony Corporation | Method for deriving animation parameters and animation display device |
EP2101501A1 (en) * | 2008-03-10 | 2009-09-16 | Sony Corporation | Method for recommendation of audio |
DE102008022125A1 (de) * | 2008-05-05 | 2009-11-19 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur Klassifikation von schallerzeugenden Prozessen |
EP2159719B1 (en) | 2008-08-27 | 2013-01-09 | Sony Corporation | Method for graphically displaying pieces of music |
WO2010027509A1 (en) * | 2008-09-05 | 2010-03-11 | Sourcetone, Llc | Music classification system and method |
US20100132122A1 (en) * | 2008-12-02 | 2010-06-03 | Dan Hollingshead | Bed-Mounted Computer Terminal |
US9390167B2 (en) | 2010-07-29 | 2016-07-12 | Soundhound, Inc. | System and methods for continuous audio matching |
CN102044244B (zh) * | 2009-10-15 | 2011-11-16 | 华为技术有限公司 | 信号分类方法和装置 |
US8606733B2 (en) * | 2009-12-07 | 2013-12-10 | Xerox Corporation | System and method for classification and selection of color palettes |
US9047371B2 (en) | 2010-07-29 | 2015-06-02 | Soundhound, Inc. | System and method for matching a query against a broadcast stream |
CN102129456B (zh) * | 2011-03-09 | 2012-07-04 | 天津大学 | 去相关稀疏映射音乐流派有监督自动分类方法 |
US9035163B1 (en) | 2011-05-10 | 2015-05-19 | Soundbound, Inc. | System and method for targeting content based on identified audio and multimedia |
WO2013019997A1 (en) * | 2011-08-02 | 2013-02-07 | Emotiv Lifesciences Inc. | Methods for modeling neurological development and diagnosing a neurological impairment of a patient |
US10957310B1 (en) | 2012-07-23 | 2021-03-23 | Soundhound, Inc. | Integrated programming framework for speech and text understanding with meaning parsing |
US10242097B2 (en) | 2013-03-14 | 2019-03-26 | Aperture Investments, Llc | Music selection and organization using rhythm, texture and pitch |
US11271993B2 (en) | 2013-03-14 | 2022-03-08 | Aperture Investments, Llc | Streaming music categorization using rhythm, texture and pitch |
US9639871B2 (en) | 2013-03-14 | 2017-05-02 | Apperture Investments, Llc | Methods and apparatuses for assigning moods to content and searching for moods to select content |
US10623480B2 (en) | 2013-03-14 | 2020-04-14 | Aperture Investments, Llc | Music categorization using rhythm, texture and pitch |
US10225328B2 (en) | 2013-03-14 | 2019-03-05 | Aperture Investments, Llc | Music selection and organization using audio fingerprints |
US9875304B2 (en) | 2013-03-14 | 2018-01-23 | Aperture Investments, Llc | Music selection and organization using audio fingerprints |
US10061476B2 (en) | 2013-03-14 | 2018-08-28 | Aperture Investments, Llc | Systems and methods for identifying, searching, organizing, selecting and distributing content based on mood |
US9383965B1 (en) * | 2013-08-16 | 2016-07-05 | Amazon Technologies, Inc. | Media library analyzer |
US9507849B2 (en) | 2013-11-28 | 2016-11-29 | Soundhound, Inc. | Method for combining a query and a communication command in a natural language computer system |
US9292488B2 (en) | 2014-02-01 | 2016-03-22 | Soundhound, Inc. | Method for embedding voice mail in a spoken utterance using a natural language processing computer system |
US11295730B1 (en) | 2014-02-27 | 2022-04-05 | Soundhound, Inc. | Using phonetic variants in a local context to improve natural language understanding |
US20220147562A1 (en) | 2014-03-27 | 2022-05-12 | Aperture Investments, Llc | Music streaming, playlist creation and streaming architecture |
US9564123B1 (en) | 2014-05-12 | 2017-02-07 | Soundhound, Inc. | Method and system for building an integrated user profile |
CN104778216B (zh) * | 2015-03-20 | 2017-05-17 | 广东欧珀移动通信有限公司 | 一种预设风格歌曲处理的方法及装置 |
US9880723B2 (en) | 2015-03-27 | 2018-01-30 | Spkdrm Llc | Graphical user interface using color spectrum to map sentiments |
CN110155075A (zh) * | 2018-06-01 | 2019-08-23 | 腾讯大地通途(北京)科技有限公司 | 氛围设备控制方法及相关装置 |
US11615772B2 (en) * | 2020-01-31 | 2023-03-28 | Obeebo Labs Ltd. | Systems, devices, and methods for musical catalog amplification services |
CN111462762B (zh) * | 2020-03-25 | 2023-02-24 | 清华大学 | 一种说话人向量正则化方法、装置、电子设备和存储介质 |
US11900914B2 (en) * | 2021-06-07 | 2024-02-13 | Meta Platforms, Inc. | User self-personalized text-to-speech voice generation |
CN116304721A (zh) * | 2023-05-24 | 2023-06-23 | 北京希嘉创智数据技术有限公司 | 基于数据类别的大数据治理中数据标准制定方法及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5510572A (en) * | 1992-01-12 | 1996-04-23 | Casio Computer Co., Ltd. | Apparatus for analyzing and harmonizing melody using results of melody analysis |
JP3964979B2 (ja) * | 1998-03-18 | 2007-08-22 | 株式会社ビデオリサーチ | 楽曲識別方法及び楽曲識別システム |
US6201176B1 (en) * | 1998-05-07 | 2001-03-13 | Canon Kabushiki Kaisha | System and method for querying a music database |
JP2001297093A (ja) * | 2000-04-14 | 2001-10-26 | Alpine Electronics Inc | 音楽配給システムおよびサーバ装置 |
US7065416B2 (en) * | 2001-08-29 | 2006-06-20 | Microsoft Corporation | System and methods for providing automatic classification of media entities according to melodic movement properties |
JP2003058147A (ja) * | 2001-08-10 | 2003-02-28 | Sony Corp | 音楽コンテンツ自動分類装置及び自動分類方法 |
DE60319710T2 (de) * | 2003-11-12 | 2009-03-12 | Sony Deutschland Gmbh | Verfahren und Vorrichtung zur automatischen Dissektion segmentierte Audiosignale |
-
2004
- 2004-07-09 EP EP04016229A patent/EP1615204B1/en not_active Expired - Lifetime
- 2004-07-09 DE DE602004009676T patent/DE602004009676T2/de not_active Expired - Lifetime
-
2005
- 2005-07-08 WO PCT/EP2005/007403 patent/WO2006005533A2/en active Application Filing
- 2005-07-08 JP JP2007519733A patent/JP4825800B2/ja not_active Expired - Fee Related
- 2005-07-08 CN CN2005800232281A patent/CN1985302B/zh not_active Expired - Fee Related
- 2005-07-08 US US11/631,944 patent/US7858868B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010054758A (ja) * | 2008-08-28 | 2010-03-11 | Sony Corp | 再生装置および再生方法 |
WO2022265132A1 (ko) * | 2021-06-17 | 2022-12-22 | 견두헌 | 색혼합 방식으로 장르를 표현하는 음악장르 분류 장치 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
EP1615204B1 (en) | 2007-10-24 |
CN1985302B (zh) | 2010-12-22 |
CN1985302A (zh) | 2007-06-20 |
WO2006005533A2 (en) | 2006-01-19 |
JP4825800B2 (ja) | 2011-11-30 |
US20090031882A1 (en) | 2009-02-05 |
DE602004009676T2 (de) | 2008-08-07 |
DE602004009676D1 (de) | 2007-12-06 |
EP1615204A1 (en) | 2006-01-11 |
WO2006005533A3 (en) | 2006-04-06 |
US7858868B2 (en) | 2010-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4825800B2 (ja) | 楽曲分類方法 | |
US8170702B2 (en) | Method for classifying audio data | |
JP5344715B2 (ja) | コンテンツ検索装置およびコンテンツ検索プログラム | |
Tzanetakis et al. | Marsyas: A framework for audio analysis | |
JP4274221B2 (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
US10129314B2 (en) | Media feature determination for internet-based media streaming | |
CN104050974A (zh) | 声音信号分析设备以及声音信号分析方法和程序 | |
US11271993B2 (en) | Streaming music categorization using rhythm, texture and pitch | |
Mokhsin et al. | Automatic music emotion classification using artificial neural network based on vocal and instrumental sound timbres | |
Elowsson et al. | Predicting the perception of performed dynamics in music audio with ensemble learning | |
JPWO2019171457A1 (ja) | 音源分離装置、音源分離方法およびプログラム | |
JP7537175B2 (ja) | 楽曲構造解析装置、楽曲構造解析方法および楽曲構造解析プログラム | |
JP2008216486A (ja) | 音楽再生システム | |
Hockman et al. | Computational strategies for breakbeat classification and resequencing in hardcore, jungle and drum and bass | |
Jitendra et al. | An ensemble model of CNN with Bi-LSTM for automatic singer identification | |
KR101398059B1 (ko) | 표준편차 기반의 음원의 특징 축소 방법을 이용하는 음악 분위기 자동 판별 시스템 및 방법 | |
Chhabra et al. | Drum Instrument Classification Using Machine Learning | |
Pawar et al. | Automatic tonic (shruti) identification system for indian classical music | |
CN112687280B (zh) | 一种具有频谱-时间空间界面的生物多样性监测系统 | |
Mirza et al. | Residual LSTM neural network for time dependent consecutive pitch string recognition from spectrograms: a study on Turkish classical music makams | |
KR101520572B1 (ko) | 음악에 대한 복합 의미 인식 방법 및 그 장치 | |
Senan et al. | Feature extraction for traditional malay musical instruments classification system | |
Ishwar | Pitch estimation of the predominant vocal melody from heterophonic music audio recordings | |
Pei et al. | Instrumentation analysis and identification of polyphonic music using beat-synchronous feature integration and fuzzy clustering | |
Scott et al. | Predicting time-varying musical emotion distributions from multi-track audio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080317 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20081002 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20081110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110816 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110912 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140916 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |