JP2009123124A - 楽曲検索システム及び方法並びにそのプログラム - Google Patents
楽曲検索システム及び方法並びにそのプログラム Download PDFInfo
- Publication number
- JP2009123124A JP2009123124A JP2007298695A JP2007298695A JP2009123124A JP 2009123124 A JP2009123124 A JP 2009123124A JP 2007298695 A JP2007298695 A JP 2007298695A JP 2007298695 A JP2007298695 A JP 2007298695A JP 2009123124 A JP2009123124 A JP 2009123124A
- Authority
- JP
- Japan
- Prior art keywords
- music
- pieces
- piece
- voice quality
- identification information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 46
- 239000000203 mixture Substances 0.000 title abstract description 17
- 238000009825 accumulation Methods 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims description 49
- 238000013500 data storage Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 description 18
- 238000000605 extraction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 230000001629 suppression Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000011524 similarity measure Methods 0.000 description 6
- WWYNJERNGUHSAO-XUDSTZEESA-N (+)-Norgestrel Chemical compound O=C1CC[C@@H]2[C@H]3CC[C@](CC)([C@](CC4)(O)C#C)[C@@H]4[C@@H]3CCC2=C1 WWYNJERNGUHSAO-XUDSTZEESA-N 0.000 description 5
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical group N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 230000004907 flux Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 241001342895 Chorus Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/638—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
【解決手段】 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量と各楽曲の識別情報とを声質特徴量蓄積手段2に蓄積する。類似度計算手段3は、複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の声質特徴量とその他の前記複数の楽曲のそれぞれの声質特徴量とに基づいて、該一つの楽曲とその他の複数の楽曲の声質類似度を計算する。類似楽曲検索表示手段5は、類似度計算手段3により計算された声質類似度に基づいて、一つの楽曲中の歌声の声質に類似する歌声を含む複数の楽曲の複数の識別情報をディスプレイ10上に表示する。楽曲データ再生手段6は、ディスプレイ10上に表示された複数の識別情報の表示から選択された識別情報に対応する楽曲データを再生する。
【選択図】図2
Description
Aucouturier,J.−J.and Pachet,F.:Music Similarity Measures:What’s the Use?,Proceedings of the 3rd International Conference on Music Information Retrieval(IS−MIR2002),pp.157−163(2002). Logan,B.:Content−BasedPlaylistGeneration:Ex−ploratoryExperiments,Proceedings of the 3rd International Conference on Music Information Retrieval(ISMIR2002),pp.295−296(2003). Allamanche,E.,Herre,J.,Hellmuth,O.,Kastner,T.and Ertel,C.:A Multiple Feature Model for Musical Similarity Retrieval,Proceedings of the 4th International Conference on Music Information Retrieval(ISMIR2003),pp.217−218(2003). Berenzweig,A.,Logan,B.,Ellis,D.P.W.and Whit−man,B.:A Large−Scale Evaluation of Acoustic and Subjective Music SimilarityMeasures,Computer Music Journal,Vol.28,No.2,pp.63−76(2004). McKinney,M.F.and Breebaart,J.:Features for audio and music classification,Proceedings of the 4th International Conference on Music Information Retrieval(ISMIR2003),pp.151−158(2003). Tzanetakis,G.,Gao,J.and Steenkiste,P.:AScalable Peer−to−Peer System for Music Content and Information Retrieval,Proceedings of the 4th International Conference on Music Information Retrieval(ISMIR2003),pp.209−214(2003). Pampalk,E.,Flexer,A.and Widmer,G.:Improvements of Audio−based Music Similarity and Genre Classification,Proceedings of the 6th International Conference on Music Information Retrieval(ISMIR2005),pp.628−633(2005). Flexer,A.,Gouyou,F.,Dixon,S.and Widmer,G.:Probabilistic combination of features for music classification,Proceedings of the 7th International Conference on Music Information Retrieval(ISMIR2006),pp.628−633(2006). Pohle,T.,Knees,P.,Schedl,M.and Widmer,G.:Independent Component Analysis for Music Similarity Computation,Proceedings of the 7th International Conference on Music Information Retrieval(ISMIR2006),pp.228−233(2006).
音響信号の個人性を表す特徴量は、スペクトル包絡に含まれていることが知られている。そこで本実施の形態では、そのような包絡を表現するスペクトル特徴量としてLPMCCを使用する。LPMCCが、音楽のモデリングによく使われるメル周波数ケプストラム係数(MFCC)などと比較して、歌手の個人性をよく表現することは、発明者等が以前行った歌手名同定の実験で確認されている(藤原弘将,北原鉄朗,後藤真孝,駒谷和範,尾形哲也,奥乃博:伴奏音抑制と高信頼度フレーム選択に基づく楽曲の歌手名同定手法,情報処理学会論文誌,Vol.47,No.6,pp.1831−1843(2006))。
歌手の歌い方を表現する特徴量として基本周波数F0の軌跡の時間変化係数であるΔF0を使用する。ΔF0については、 発明者等が発表した論文に記載されているので説明は省略する[Ohishi, Y., Goto, M., Itou, K. and Takeda, K.: Discrimination between Singing and Speaking Voices, Proceedings of 9th European Conference on Speech Communication and Technology (Eurospeech 2005), pp. 1141.1144 (2005).]。
本実施の形態の検索システムと従来の検索システム(MFCC) による最上位の検索結果が同じ行に記されている。また表中の「日」は日本語の歌詞であることを表しており,「英」は英語の歌詞であることを表している。
質問2:曲全体の音質に関して、曲A、曲Bのどちらがより曲Xに似ていると思いますか?
実験結果を図7と図8に示す。図7は、質問1(ボーカールの声質)に対する回答結果を示しており、図8は質問2(楽曲全体の音質)に対する回答結果を示している。即ち図7は、それぞれの楽曲について、被験者が本実施の形態の検索システムと従来の検索システムの検索結果のどちらの声質のほうがクエリの楽曲と類似していると回答したかの割合を表す。6人の被験者の10曲に対する回答のうち80%が、本実施の形態の検索システムの検索結果の歌声の声質のほうがよりクエリの楽曲と類似していると答えた。一方図8に示すように、曲全体の音質の類似度に関しては、70%の回答が従来の検索システムの検索結果がよりクエリに似ていると答えた。これらの実験結果から、本実施の検索システムによれば、伴奏音の影響が低減されて、歌声の声質の類似度に基づいて楽曲が検索できていることが確認された。実際、図6の表を見ると、従来の検索システムのように特徴量としてMFCCを用いた場合は、10曲中4曲でクエリと異なる性別の楽曲を出力しているが、本実施の形態の検索システムではそのような問題は発生していない。
なお上記第3の実施の形態と同様に、声質と曲調のクエリ楽曲をそれぞれ異なる楽曲とする場合にも、図15に示した実施の形態と同様に、事前にすべての類似度を計算して類似度蓄積手段313に蓄積しておき、図15の実施の形態と同様に、検索を行ってもよいのは勿論である。
2 声質特徴量蓄積手段
3 声質類似度計算手段
4 楽曲データ蓄積手段
5 類似楽曲検索表示手段
6 楽曲データ再生手段
7 制御手段
8 楽曲選択手段
9 ディスプレイドライバ
10 ディスプレイ
Claims (17)
- 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量と各楽曲の識別情報とを蓄積する声質特徴量蓄積手段と、
複数の前記識別情報と対応させて前記複数の楽曲データを蓄積する楽曲データ蓄積手段と、
前記複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の前記声質特徴量とその他の前記複数の楽曲のそれぞれの前記声質特徴量とに基づいて、該一つの楽曲と前記その他の複数の楽曲の声質類似度を計算する類似度計算手段と、
前記類似度計算手段により計算された前記声質類似度に基づいて、前記一つの楽曲中の歌声の声質に類似する歌声を含む複数の楽曲の前記複数の識別情報をディスプレイ上に表示する類似楽曲検索表示手段と、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して再生する楽曲データ再生手段とを備えていることを特徴とする楽曲検索システム。 - 前記類似楽曲検索表示手段は、前記類似度の大小関係が判る表示様式により、前記複数の楽曲の前記識別情報を前記ディスプレイ上に表示することを特徴とする請求項1に記載の楽曲検索システム。
- 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量及び曲調特徴量と各楽曲の識別情報とを蓄積する声質及び曲調特徴量蓄積手段と、
前記識別情報と対応させて前記複数の楽曲データを蓄積する楽曲データ蓄積手段と、
前記複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の前記声質特徴量とその他の前記複数の楽曲のそれぞれの前記声質特徴量とに基づいて、前記一つの楽曲と前記その他の複数の楽曲の声質類似度を計算する声質類似度計算手段と、
前記複数の楽曲の中から一つの楽曲が選択されると、前記一つの楽曲の前記曲調特徴量とその他の前記複数の楽曲のそれぞれの前記曲調特徴量とに基づいて、前記一つの楽曲と前記その他の複数の楽曲の曲調類似度を計算する曲調類似度計算手段と、
前記声質類似度計算手段により計算された前記声質類似度と、前記曲調類似度計算手段により計算された前記曲調類似度とに基づいて、前記声質が類似する歌声を含み且つ前記曲調が類似する複数の楽曲の前記複数の識別情報をディスプレイ上に表示する類似楽曲検索表示手段と、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して再生する楽曲データ再生手段とを備えていることを特徴とする楽曲検索システム。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量及び曲調特徴量と各楽曲の識別情報とを蓄積する声質及び曲調特徴量蓄積手段と、
前記識別情報と対応させて前記複数の楽曲データを蓄積する楽曲データ蓄積手段と、
前記複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の前記声質特徴量とその他の前記複数の楽曲のそれぞれの前記声質特徴量とに基づいて、前記一つの楽曲と前記その他の複数の楽曲の声質類似度を計算する声質類似度計算手段と、
前記複数の楽曲の中から他の一つの楽曲が選択されると、前記他の一つの楽曲の前記曲調特徴量とその他の前記複数の楽曲のそれぞれの前記曲調特徴量とに基づいて、前記他の一つの楽曲と前記その他の複数の楽曲の曲調類似度を計算する曲調類似度計算手段と、
前記声質類似度計算手段により計算された前記声質類似度と、前記曲調類似度計算手段により計算された前記曲調類似度とに基づいて、前記一つの楽曲中の前記歌声と前記声質が類似する歌声を含み且つ前記他の一つの楽曲中の前記楽曲と曲調が類似する複数の楽曲についての複数の前記識別情報をディスプレイ上に表示する類似楽曲検索表示手段と、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して再生する楽曲データ再生手段とを備えていることを特徴とする楽曲検索システム。 - 前記類似楽曲検索表示手段は、前記類似度の大小関係が判る表示様式により、前記複数の楽曲の前記識別情報を前記ディスプレイ上に表示するように構成され、
前記表示様式は、縦軸及び横軸の一方が前記声質類似度を示し、他方が前記曲調類似度を示し、一つの前記楽曲の前記識別情報を、該一つの楽曲の前記声質類似度の位置で軸と直交する第1の仮想線と該一つの楽曲の前記曲調類似度の位置で軸と直交する第2の仮想線の交差点またはその近傍に表示するように定められている請求項3または4に記載の楽曲検索システム。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量とその他の前記複数の楽曲の前記声質特徴量とに基づいて算出された各楽曲と前記その他の複数の楽曲との間の複数の声質類似度と、各楽曲の識別情報とを蓄積する類似度蓄積手段と、
複数の前記識別情報と対応させて前記複数の楽曲データを蓄積する楽曲データ蓄積手段と、
前記複数の楽曲の中から一つの楽曲が選択されると、前記類似度蓄積手段から、該一つの楽曲と前記その他の複数の楽曲との間の前記複数の声質類似度を読み出し、前記複数の声質類似度に基づいて前記一つの楽曲中の前記歌声の声質と類似する歌声を含む複数の楽曲の前記複数の識別情報をディスプレイ上に表示する類似楽曲検索表示手段と、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して再生する楽曲データ再生手段とを備えていることを特徴とする楽曲検索システム。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量とその他の前記複数の楽曲の前記声質特徴量とに基づいて算出された各楽曲と前記その他の複数の楽曲との間の複数の声質類似度と、前記複数の楽曲について、それぞれの楽曲の曲調特徴量とその他の前記複数の楽曲の前記曲調特徴量とに基づいて算出された各楽曲と前記その他の複数の楽曲との間の複数の曲調類似度と、各楽曲の識別情報とを蓄積する類似度蓄積手段と、
前記識別情報と対応させて前記複数の楽曲データを蓄積する楽曲データ蓄積手段と、
前記複数の楽曲の中から一つの楽曲が選択されると、前記類似度蓄積手段から、該一つの楽曲と前記その他の複数の楽曲との間の前記複数の声質類似度及び前記複数の曲調類似度を読み出し、前記複数の声質類似度及び前記複数の曲調類似度に基づいて前記一つの楽曲中の前記歌声の声質と類似する歌声を含み及び該一つの楽曲の曲調と類似する複数の楽曲の前記複数の識別情報をディスプレイ上に表示する類似楽曲検索表示手段と、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して再生する楽曲データ再生手段とを備えていることを特徴とする楽曲検索システム。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量と各楽曲の識別情報とを声質特徴量蓄積手段に記憶するステップと、
複数の前記識別情報と対応させて前記複数の楽曲データを楽曲データ蓄積手段に蓄積するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の前記声質特徴量とその他の前記複数の楽曲のそれぞれの前記声質特徴量とに基づいて、該一つの楽曲と前記その他の複数の楽曲の声質類似度を計算するステップと、
計算された前記声質類似度に基づいて、前記一つの楽曲中の歌声の声質に類似する歌声を含む複数の楽曲の前記複数の識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲再生手段により再生するステップとをコンピュータが実行することを特徴とする楽曲検索方法。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量及び曲調特徴量と各楽曲の識別情報とを声質及び曲調特徴量蓄積手段に蓄積するステップと、
前記識別情報と対応させて前記複数の楽曲データを蓄積する楽曲データ蓄積手段と、
前記複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の前記声質特徴量とその他の前記複数の楽曲のそれぞれの前記声質特徴量とに基づいて、前記一つの楽曲と前記その他の複数の楽曲の声質類似度を計算するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、前記一つの楽曲の前記曲調特徴量とその他の前記複数の楽曲のそれぞれの前記曲調特徴量とに基づいて、前記一つの楽曲と前記その他の複数の楽曲の曲調類似度を計算するステップと、
前記声質類似度と前記曲調類似度とに基づいて、前記声質が類似する歌声を含み且つ前記曲調が類似する複数の楽曲の前記複数の識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲データ再生手段により再生するステップとコンピュータを用いて実行することを特徴とする楽曲検索方法。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量及び曲調特徴量と各楽曲の識別情報とを声質及び曲調特徴量蓄積手段に蓄積するステップと、
前記識別情報と対応させて前記複数の楽曲データを楽曲データ蓄積手段に蓄積するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の前記声質特徴量とその他の前記複数の楽曲のそれぞれの前記声質特徴量とに基づいて、前記一つの楽曲と前記その他の複数の楽曲の声質類似度を計算するステップと、
前記複数の楽曲の中から他の一つの楽曲が選択されると、前記他の一つの楽曲の前記曲調特徴量とその他の前記複数の楽曲のそれぞれの前記曲調特徴量とに基づいて、前記他の一つの楽曲と前記その他の複数の楽曲の曲調類似度を計算するステップと、
前記声質類似度と前記曲調類似度とに基づいて、前記一つの楽曲中の前記歌声と前記声質が類似する歌声を含み且つ前記他の一つの楽曲中の前記楽曲と曲調が類似する複数の楽曲についての複数の前記識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲データ再生手段により再生するステップとをコンピュータを用いて実行することを特徴とする楽曲検索方法。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量とその他の前記複数の楽曲の前記声質特徴量とに基づいて算出された各楽曲と前記その他の複数の楽曲との間の複数の声質類似度と、各楽曲の識別情報とを類似度蓄積手段に蓄積するステップと、
複数の前記識別情報と対応させて前記複数の楽曲データを楽曲データ蓄積手段に蓄積するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、前記類似度蓄積手段から、該一つの楽曲と前記その他の複数の楽曲との間の前記複数の声質類似度を読み出し、前記複数の声質類似度に基づいて前記一つの楽曲中の前記歌声の声質と類似する歌声を含む複数の楽曲の前記複数の識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲データ再生手段により再生するステップとをコンピュータを用いて実行することを特徴とする楽曲検索方法。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量とその他の前記複数の楽曲の前記声質特徴量とに基づいて算出された各楽曲と前記その他の複数の楽曲との間の複数の声質類似度と、前記複数の楽曲について、それぞれの楽曲の曲調特徴量とその他の前記複数の楽曲の前記曲調特徴量とに基づいて算出された各楽曲と前記その他の複数の楽曲との間の複数の曲調類似度と、各楽曲の識別情報とを類似度蓄積手段に蓄積するステップと、
前記識別情報と対応させて前記複数の楽曲データを楽曲データ蓄積手段に蓄積するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、前記類似度蓄積手段から、該一つの楽曲と前記その他の複数の楽曲との間の前記複数の声質類似度及び前記複数の曲調類似度を読み出し、前記複数の声質類似度及び前記複数の曲調類似度に基づいて前記一つの楽曲中の前記歌声の声質と類似する歌声を含み及び該一つの楽曲の曲調と類似する複数の楽曲の前記複数の識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲データ再生手段で再生するステップとをコンピュータを用いて実行することを特徴とする楽曲検索方法。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量と各楽曲の識別情報とを声質特徴量蓄積手段に記憶するステップと、
複数の前記識別情報と対応させて前記複数の楽曲データを楽曲データ蓄積手段に蓄積するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の前記声質特徴量とその他の前記複数の楽曲のそれぞれの前記声質特徴量とに基づいて、該一つの楽曲と前記その他の複数の楽曲の声質類似度を計算するステップと、
前記類似度計算手段により計算された前記声質類似度に基づいて、前記一つの楽曲中の歌声の声質に類似する歌声を含む複数の楽曲の前記複数の識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲再生手段により再生するステップとをコンピュータに実行させるように構成された楽曲検索用プログラム。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量及び曲調特徴量と各楽曲の識別情報とを声質及び曲調特徴量蓄積手段に蓄積するステップと、
前記識別情報と対応させて前記複数の楽曲データを蓄積する楽曲データ蓄積手段と、
前記複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の前記声質特徴量とその他の前記複数の楽曲のそれぞれの前記声質特徴量とに基づいて、前記一つの楽曲と前記その他の複数の楽曲の声質類似度を計算するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、前記一つの楽曲の前記曲調特徴量とその他の前記複数の楽曲のそれぞれの前記曲調特徴量とに基づいて、前記一つの楽曲と前記その他の複数の楽曲の曲調類似度を計算するステップと、
前記声質類似度と前記曲調類似度とに基づいて、前記声質が類似する歌声を含み且つ前記曲調が類似する複数の楽曲の前記複数の識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲データ再生手段により再生するステップとをコンピュータに実行させるように構成された楽曲検索用プログラム。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量及び曲調特徴量と各楽曲の識別情報とを声質及び曲調特徴量蓄積手段に蓄積するステップと、
前記識別情報と対応させて前記複数の楽曲データを楽曲データ蓄積手段に蓄積するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、該一つの楽曲の前記声質特徴量とその他の前記複数の楽曲のそれぞれの前記声質特徴量とに基づいて、前記一つの楽曲と前記その他の複数の楽曲の声質類似度を計算するステップと、
前記複数の楽曲の中から他の一つの楽曲が選択されると、前記他の一つの楽曲の前記曲調特徴量とその他の前記複数の楽曲のそれぞれの前記曲調特徴量とに基づいて、前記他の一つの楽曲と前記その他の複数の楽曲の曲調類似度を計算するステップと、
前記声質類似度と前記曲調類似度とに基づいて、前記一つの楽曲中の前記歌声と前記声質が類似する歌声を含み且つ前記他の一つの楽曲中の前記楽曲と曲調が類似する複数の楽曲についての複数の前記識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲データ再生手段により再生するステップとをコンピュータに実行させるように構成された楽曲検索用プログラム。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量とその他の前記複数の楽曲の前記声質特徴量とに基づいて算出された各楽曲と前記その他の複数の楽曲との間の複数の声質類似度と、各楽曲の識別情報とを類似度蓄積手段に蓄積するステップと、
複数の前記識別情報と対応させて前記複数の楽曲データを楽曲データ蓄積手段に蓄積するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、前記類似度蓄積手段から、該一つの楽曲と前記その他の複数の楽曲との間の前記複数の声質類似度を読み出し、前記複数の声質類似度に基づいて前記一つの楽曲中の前記歌声の声質と類似する歌声を含む複数の楽曲の前記複数の識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲データ再生手段により再生するステップとをコンピュータに実行させるように構成された楽曲検索用プログラム。 - 複数の楽曲について、それぞれの楽曲の歌声の声質特徴量とその他の前記複数の楽曲の前記声質特徴量とに基づいて算出された各楽曲と前記その他の複数の楽曲との間の複数の声質類似度と、前記複数の楽曲について、それぞれの楽曲の曲調特徴量とその他の前記複数の楽曲の前記曲調特徴量とに基づいて算出された各楽曲と前記その他の複数の楽曲との間の複数の曲調類似度と、各楽曲の識別情報とを類似度蓄積手段に蓄積するステップと、
前記識別情報と対応させて前記複数の楽曲データを楽曲データ蓄積手段に蓄積するステップと、
前記複数の楽曲の中から一つの楽曲が選択されると、前記類似度蓄積手段から、該一つの楽曲と前記その他の複数の楽曲との間の前記複数の声質類似度及び前記複数の曲調類似度を読み出し、前記複数の声質類似度及び前記複数の曲調類似度に基づいて前記一つの楽曲中の前記歌声の声質と類似する歌声を含み及び該一つの楽曲の曲調と類似する複数の楽曲の前記複数の識別情報をディスプレイ上に表示するステップと、
前記ディスプレイ上に表示された前記複数の識別情報の表示から、1以上の前記識別情報が選択されると、前記選択された前記識別情報の表示に対応する前記楽曲データを前記楽曲データ蓄積手段に蓄積された複数の前記楽曲データから抽出して楽曲データ再生手段で再生するステップとをコンピュータに実行させるように構成された楽曲検索用プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007298695A JP5115966B2 (ja) | 2007-11-16 | 2007-11-16 | 楽曲検索システム及び方法並びにそのプログラム |
US12/183,432 US8271112B2 (en) | 2007-11-16 | 2008-07-31 | Music information retrieval system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007298695A JP5115966B2 (ja) | 2007-11-16 | 2007-11-16 | 楽曲検索システム及び方法並びにそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009123124A true JP2009123124A (ja) | 2009-06-04 |
JP5115966B2 JP5115966B2 (ja) | 2013-01-09 |
Family
ID=40642809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007298695A Expired - Fee Related JP5115966B2 (ja) | 2007-11-16 | 2007-11-16 | 楽曲検索システム及び方法並びにそのプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US8271112B2 (ja) |
JP (1) | JP5115966B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011059504A (ja) * | 2009-09-11 | 2011-03-24 | Victor Co Of Japan Ltd | コンテンツ同定方法、コンテンツ同定システム、コンテンツ検索装置及びコンテンツ利用装置 |
JP2012247956A (ja) * | 2011-05-26 | 2012-12-13 | Yamaha Corp | データ検索装置およびプログラム |
JP2015129868A (ja) * | 2014-01-08 | 2015-07-16 | Psソリューションズ株式会社 | 音響信号検出システム、音響信号検出方法、音響信号検出サーバー、音響信号検出装置、及び音響信号検出プログラム |
JP2015176221A (ja) * | 2014-03-13 | 2015-10-05 | カシオ計算機株式会社 | 登山情報検索装置、登山情報検索方法、およびプログラム |
US9747927B2 (en) | 2014-02-21 | 2017-08-29 | National Institute Of Advanced Industrial Science And Technology | System and method for multifaceted singing analysis |
WO2023120737A1 (ja) * | 2021-12-24 | 2023-06-29 | ダイキン工業株式会社 | コンテンツ提案装置 |
JP2023095780A (ja) * | 2021-12-24 | 2023-07-06 | ダイキン工業株式会社 | コンテンツ提案装置 |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8732221B2 (en) * | 2003-12-10 | 2014-05-20 | Magix Software Gmbh | System and method of multimedia content editing |
JP4622808B2 (ja) * | 2005-10-28 | 2011-02-02 | 日本ビクター株式会社 | 楽曲分類装置、楽曲分類方法、楽曲分類プログラム |
EP1826716A1 (en) * | 2006-02-22 | 2007-08-29 | Sony Deutschland Gmbh | Method for updating a user profile |
EP2261896B1 (en) | 2008-07-29 | 2017-12-06 | Yamaha Corporation | Performance-related information output device, system provided with performance-related information output device, and electronic musical instrument |
US8954175B2 (en) * | 2009-03-31 | 2015-02-10 | Adobe Systems Incorporated | User-guided audio selection from complex sound mixtures |
US20100306657A1 (en) * | 2009-06-01 | 2010-12-02 | 3Dlabs Inc., Ltd. | Audio-Enhanced User Interface for Browsing |
US20110029928A1 (en) * | 2009-07-31 | 2011-02-03 | Apple Inc. | System and method for displaying interactive cluster-based media playlists |
US8233999B2 (en) * | 2009-08-28 | 2012-07-31 | Magix Ag | System and method for interactive visualization of music properties |
US8327268B2 (en) * | 2009-11-10 | 2012-12-04 | Magix Ag | System and method for dynamic visual presentation of digital audio content |
JP5782677B2 (ja) | 2010-03-31 | 2015-09-24 | ヤマハ株式会社 | コンテンツ再生装置および音声処理システム |
US9189887B2 (en) * | 2010-09-09 | 2015-11-17 | Sony Corporation | Information processing apparatus and information processing method |
US9317561B2 (en) * | 2010-12-30 | 2016-04-19 | Dolby Laboratories Licensing Corporation | Scene change detection around a set of seed points in media data |
JP5333517B2 (ja) * | 2011-05-26 | 2013-11-06 | ヤマハ株式会社 | データ処理装置およびプログラム |
EP2573761B1 (en) | 2011-09-25 | 2018-02-14 | Yamaha Corporation | Displaying content in relation to music reproduction by means of information processing apparatus independent of music reproduction apparatus |
US10496250B2 (en) | 2011-12-19 | 2019-12-03 | Bellevue Investments Gmbh & Co, Kgaa | System and method for implementing an intelligent automatic music jam session |
JP5494677B2 (ja) | 2012-01-06 | 2014-05-21 | ヤマハ株式会社 | 演奏装置及び演奏プログラム |
US9141186B2 (en) * | 2012-03-22 | 2015-09-22 | Htc Corporation | Systems and methods for providing access to media content |
US20130254661A1 (en) * | 2012-03-22 | 2013-09-26 | Htc Corporation | Systems and methods for providing access to media content |
US9305570B2 (en) * | 2012-06-13 | 2016-04-05 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for pitch trajectory analysis |
US20140032537A1 (en) * | 2012-07-30 | 2014-01-30 | Ajay Shekhawat | Apparatus, system, and method for music identification |
US20140086419A1 (en) * | 2012-09-27 | 2014-03-27 | Manjit Rana | Method for capturing and using audio or sound signatures to analyse vehicle accidents and driver behaviours |
US9215539B2 (en) * | 2012-11-19 | 2015-12-15 | Adobe Systems Incorporated | Sound data identification |
CN104006961A (zh) * | 2014-04-29 | 2014-08-27 | 北京工业大学 | 基于经验模态分解与倒频谱的摆线锥齿轮故障诊断方法 |
US20160092159A1 (en) * | 2014-09-30 | 2016-03-31 | Google Inc. | Conversational music agent |
US9390695B2 (en) * | 2014-10-27 | 2016-07-12 | Northwestern University | Systems, methods, and apparatus to search audio synthesizers using vocal imitation |
US10082939B2 (en) | 2015-05-15 | 2018-09-25 | Spotify Ab | Playback of media streams at social gatherings |
US10719290B2 (en) | 2015-05-15 | 2020-07-21 | Spotify Ab | Methods and devices for adjustment of the energy level of a played audio stream |
US20160335046A1 (en) | 2015-05-15 | 2016-11-17 | Spotify Ab | Methods and electronic devices for dynamic control of playlists |
US10452710B2 (en) | 2015-09-30 | 2019-10-22 | Microsoft Technology Licensing, Llc | Selecting content items based on received term using topic model |
CN106250400B (zh) * | 2016-07-19 | 2021-03-26 | 腾讯科技(深圳)有限公司 | 一种音频数据处理方法、装置以及系统 |
US10891872B1 (en) * | 2019-06-18 | 2021-01-12 | School of Rock, LLC | Method and apparatus of music education |
CN110399522B (zh) * | 2019-07-03 | 2020-05-15 | 中国传媒大学 | 一种基于lstm与分层匹配的音乐哼唱检索方法及装置 |
US11158297B2 (en) * | 2020-01-13 | 2021-10-26 | International Business Machines Corporation | Timbre creation system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000285141A (ja) * | 1999-01-27 | 2000-10-13 | Ricoh Co Ltd | 画像検索装置,画像分類装置およびそれらの装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2002014974A (ja) * | 2000-06-30 | 2002-01-18 | Fuji Photo Film Co Ltd | 検索装置及び検索システム |
JP2004152110A (ja) * | 2002-10-31 | 2004-05-27 | Olympus Corp | 検索条件設定方法及び検索条件設定装置 |
WO2006075432A1 (ja) * | 2005-01-17 | 2006-07-20 | Matsushita Electric Industrial Co., Ltd. | 音楽再生装置、方法、記録媒体、および集積回路 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5812688A (en) * | 1992-04-27 | 1998-09-22 | Gibson; David A. | Method and apparatus for using visual images to mix sound |
EP1246164A1 (en) * | 2001-03-30 | 2002-10-02 | Sony France S.A. | Sound characterisation and/or identification based on prosodic listening |
US20060212442A1 (en) * | 2001-05-16 | 2006-09-21 | Pandora Media, Inc. | Methods of Presenting and Providing Content to a User |
CN1842856B (zh) * | 2003-09-01 | 2010-06-16 | 皇家飞利浦电子股份有限公司 | 媒体项的选择 |
EP1904816A4 (en) * | 2005-07-18 | 2014-12-24 | Diego Giuseppe Tognola | METHOD AND SYSTEM FOR PROCESSING SIGNALS |
-
2007
- 2007-11-16 JP JP2007298695A patent/JP5115966B2/ja not_active Expired - Fee Related
-
2008
- 2008-07-31 US US12/183,432 patent/US8271112B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000285141A (ja) * | 1999-01-27 | 2000-10-13 | Ricoh Co Ltd | 画像検索装置,画像分類装置およびそれらの装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2002014974A (ja) * | 2000-06-30 | 2002-01-18 | Fuji Photo Film Co Ltd | 検索装置及び検索システム |
JP2004152110A (ja) * | 2002-10-31 | 2004-05-27 | Olympus Corp | 検索条件設定方法及び検索条件設定装置 |
WO2006075432A1 (ja) * | 2005-01-17 | 2006-07-20 | Matsushita Electric Industrial Co., Ltd. | 音楽再生装置、方法、記録媒体、および集積回路 |
Non-Patent Citations (2)
Title |
---|
CSNJ200710002087; 宮沢 祐光: '好みの楽曲を選定するための楽曲類似度測定方法' 第68回(平成18年)全国大会講演論文集(2) 人工知能と認知科学 , 20060307, 2-181〜2-182ページ, 社団法人情報処理学会 * |
JPN6012009557; 宮沢 祐光: '好みの楽曲を選定するための楽曲類似度測定方法' 第68回(平成18年)全国大会講演論文集(2) 人工知能と認知科学 , 20060307, 2-181〜2-182ページ, 社団法人情報処理学会 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011059504A (ja) * | 2009-09-11 | 2011-03-24 | Victor Co Of Japan Ltd | コンテンツ同定方法、コンテンツ同定システム、コンテンツ検索装置及びコンテンツ利用装置 |
JP2012247956A (ja) * | 2011-05-26 | 2012-12-13 | Yamaha Corp | データ検索装置およびプログラム |
JP2015129868A (ja) * | 2014-01-08 | 2015-07-16 | Psソリューションズ株式会社 | 音響信号検出システム、音響信号検出方法、音響信号検出サーバー、音響信号検出装置、及び音響信号検出プログラム |
US9747927B2 (en) | 2014-02-21 | 2017-08-29 | National Institute Of Advanced Industrial Science And Technology | System and method for multifaceted singing analysis |
JP2015176221A (ja) * | 2014-03-13 | 2015-10-05 | カシオ計算機株式会社 | 登山情報検索装置、登山情報検索方法、およびプログラム |
WO2023120737A1 (ja) * | 2021-12-24 | 2023-06-29 | ダイキン工業株式会社 | コンテンツ提案装置 |
JP2023095780A (ja) * | 2021-12-24 | 2023-07-06 | ダイキン工業株式会社 | コンテンツ提案装置 |
Also Published As
Publication number | Publication date |
---|---|
US8271112B2 (en) | 2012-09-18 |
US20090132077A1 (en) | 2009-05-21 |
JP5115966B2 (ja) | 2013-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5115966B2 (ja) | 楽曲検索システム及び方法並びにそのプログラム | |
Tzanetakis et al. | Marsyas: A framework for audio analysis | |
Zhang | Automatic singer identification | |
Goto | A chorus section detection method for musical audio signals and its application to a music listening station | |
JP5329968B2 (ja) | 非テキストベースの情報を記憶し、検索する方法 | |
KR100895009B1 (ko) | 음악추천 시스템 및 그 방법 | |
US20060224260A1 (en) | Scan shuffle for building playlists | |
Goto | SmartMusicKIOSK: Music listening station with chorus-search function | |
Chai | Semantic segmentation and summarization of music: methods based on tonality and recurrent structure | |
Logan et al. | A content-based music similarity function | |
CN110010159B (zh) | 声音相似度确定方法及装置 | |
Tzanetakis et al. | A framework for audio analysis based on classification and temporal segmentation | |
Niyazov et al. | Content-based music recommendation system | |
Zhang et al. | System and method for automatic singer identification | |
Dannenberg et al. | Panel: new directions in music information retrieval | |
KR20160116356A (ko) | 신호 성분 분석을 이용한 음악 인기도 예측 시스템 및 방법 | |
Fujihara et al. | Hyperlinking Lyrics: A Method for Creating Hyperlinks Between Phrases in Song Lyrics. | |
JP4916945B2 (ja) | 楽曲情報付与サーバ、端末、及び楽曲情報付与システム | |
Van Balen | Automatic recognition of samples in musical audio | |
KR100702059B1 (ko) | 고객 특성이 피드백 반영되는 질의 풀 기반의 유비쿼터스음악 정보 검색 시스템 및 방법 | |
JP2003131674A (ja) | 楽曲検索システム | |
JP3934556B2 (ja) | 信号識別子の抽出方法及びその装置、信号識別子からデータベースを作成する方法及びその装置、及び、検索時間領域信号を参照する方法及びその装置 | |
Dupont et al. | Audiocycle: Browsing musical loop libraries | |
Somerville et al. | Multitimbral musical instrument classification | |
JP4447540B2 (ja) | カラオケ唱歌録音作品の鑑賞システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121002 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121010 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5115966 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151026 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |