JP2000347659A - Music retrieving device and method, and storage medium recorded with music retrieving program - Google Patents
Music retrieving device and method, and storage medium recorded with music retrieving programInfo
- Publication number
- JP2000347659A JP2000347659A JP2000008458A JP2000008458A JP2000347659A JP 2000347659 A JP2000347659 A JP 2000347659A JP 2000008458 A JP2000008458 A JP 2000008458A JP 2000008458 A JP2000008458 A JP 2000008458A JP 2000347659 A JP2000347659 A JP 2000347659A
- Authority
- JP
- Japan
- Prior art keywords
- music
- search
- tempo
- input
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は,音楽検索に係わ
り,特に,楽曲入力手段によって入力もしくは指定され
た楽曲の一部もしくは全体を検索キーとして,データベ
ースに蓄積された楽曲の中から,検索キーと類似する楽
曲の一部もしくは全体を検索する装置およびその方法に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to music search, and more particularly, to a search key from music stored in a database, using a part or the whole of a music input or specified by a music input means as a search key. The present invention relates to an apparatus and a method for searching for a part or the whole of a musical piece similar to.
【0002】[0002]
【従来の技術】音楽の類似検索を行う場合,従来方法に
おいては音符がマッチングの処理単位として用いられて
いた。この場合,音符とは,音の高さの変動もしくは変
動率がある一定の閾値内に納まっている音の連続のこと
を言う。また,各音符は,音符情報として音の高さ(音
高),音の長さ(音長),時間的に前後する音符との音
高の差(相対音高),時間的に前後する音符との音長の
比(相対音長)などを保有している。2. Description of the Related Art When performing a similarity search for music, a note has been used as a matching processing unit in the conventional method. In this case, a note refers to a sequence of sounds in which the fluctuation or rate of fluctuation of the pitch falls within a certain threshold. In addition, each note has pitch information (note pitch), note length (note length), difference in pitch from a note that is temporally preceding and succeeding (relative pitch), and note information that is temporally changing as note information. It has the ratio of the note length to the note (relative note length).
【0003】図9は,従来方法による音楽検索のうち,
音符を単位としたDPマッチングを使用するものの原理
を説明する図である。まず,データベース構築のフェー
ズでは,検索対象とする楽曲を入力し(ステップS10
1),音符情報に変換する(ステップS102)。それ
をデータベースへ格納する(ステップS103)。デー
タベースへ格納した楽曲の検索は,検索キーとなる楽曲
を入力し(ステップS111),それを音符情報に変換
する(ステップS112)。次に,データベース中の全
楽曲の音符情報と検索キーから得られた音符情報につい
て,データベース中の曲数分,DP(Dynamic Programm
ing )マッチングを実施し(ステップS113),もっ
とも類似した楽曲の候補を検索結果として出力する(ス
テップS114)。FIG. 9 shows a conventional music search method.
FIG. 3 is a diagram for explaining the principle of a device using DP matching in units of musical notes. First, in the database construction phase, music to be searched is input (step S10).
1), it is converted to note information (step S102). It is stored in the database (step S103). To search for songs stored in the database, a song serving as a search key is input (step S111), and converted to musical note information (step S112). Next, the DP (Dynamic Programmable Data) for the note information of all the songs in the database and the note information obtained from the search key for the number of songs in the database.
ing) Matching is performed (step S113), and the most similar song candidates are output as search results (step S114).
【0004】以上のように,音楽の類似検索を行う場
合,従来方法においてはDPマッチングが使われていた
(参考文献1,2)。 〔参考文献1〕園田智也,後藤真孝,村岡洋一:「WW
W上での歌声による曲検索システム」,電子情報通信学
会技術報告,SP97-103, 1998. 〔参考文献2〕蔭山哲也,高島羊典:「ハミング歌唱を
手掛りとするメロディ検索」,電子情報通信学会論文
誌,Vol.J77-D-II No.8 pp.1543-1551, 1994. DPマッチングにおいては,検索キーと,データベース
中の楽曲の一部または全体(候補部分曲)の対応関係が
求められ,対応関係にある検索キーの音符と,候補部分
曲の音符との間での,音符情報の差異の累計によって類
似度が計算される。この検索キーとの間の類似度が最大
になるような候補部分曲を,動的計画法によって探し出
すのがDPマッチングである。As described above, when performing music similarity search, DP matching has been used in the conventional method (references 1 and 2). [Reference 1] Tomoya Sonoda, Masataka Goto, Yoichi Muraoka: "WW
Song Searching System by Singing Voice on W ", IEICE Technical Report, SP97-103, 1998. [Reference 2] Tetsuya Kageyama and Younori Takashima: “Melody Search Based on Humming Singing”, Transactions of the Institute of Electronics, Information and Communication Engineers, Vol.J77-D-II No.8 pp.1543-1551, 1994. In DP matching, a correspondence between a search key and a part or the whole of a song in the database (candidate partial tune) is determined, and a note between a search key having a correspondence and a note of a candidate partial tune is found. , The similarity is calculated by the total of the differences of the note information. DP matching searches for a candidate partial tune that maximizes the similarity with the search key by dynamic programming.
【0005】[0005]
【発明が解決しようとする課題】従来方法の音符をマッ
チングの単位とした検索方法では,一般に,許容できる
音符数誤りの量を制限している。In the conventional search method using musical notes as a unit of matching, the amount of allowable note number errors is generally limited.
【0006】また,従来方法のDPマッチングでは,計
算量を抑制するために,検索キーの音符列と,類似度計
算対象となるデータベース中の楽曲の音符列との間の音
符数の差異に制限を設ける。In the DP matching of the conventional method, in order to suppress the amount of calculation, the difference in the number of notes between the note string of the search key and the note string of the music in the database for which the similarity is to be calculated is limited. Is provided.
【0007】したがって,音楽検索をする場合に,検索
キー入力の際に,検索目標とするデータベース中の楽曲
に対して一定量以上に音符の挿入・削除を行ってしまう
と極端に検索精度が悪くなるという問題があった。[0007] Therefore, when performing music search, if a note is inserted or deleted more than a predetermined amount from a music in the database as a search target when a search key is input, search accuracy is extremely poor. There was a problem of becoming.
【0008】たとえ検索キー入力の際に,音符の挿入・
削除が行われなかったとしても,検索キーから音符情報
を抽出する際に,音符の挿入・削除が生じる可能性も大
きく,そのために検索精度が悪いという問題があった。[0008] Even if a search key is entered,
Even if the deletion is not performed, there is a high possibility that a note is inserted or deleted when extracting the note information from the search key, and therefore, there is a problem that the search accuracy is poor.
【0009】また,DPマッチングにおいては,インデ
クスを利用することができず,データベース中の全曲に
対して全検索を施す必要があるために,たとえ計算量を
抑制するために許容できる音符数誤りの量を制限したと
しても,やはり検索に時間がかかるという問題があっ
た。Also, in DP matching, indexes cannot be used, and it is necessary to perform full search on all songs in the database. Even if the amount is limited, there is still a problem that search takes time.
【0010】一方,音楽片を使用した検索の場合,イン
デクスを利用できるために検索時間を大幅に短縮するこ
とが可能であった。On the other hand, in the case of a search using a music piece, the search time can be greatly reduced because the index can be used.
【0011】図10は,音楽片を使用する音楽検索の原
理を説明する図である。この手法は,特願平10−34
1754号(音楽検索装置,音楽検索方法および音楽検
索プログラムを記録した記録媒体)で,本発明者等が提
案しているものである。FIG. 10 is a diagram for explaining the principle of music search using music pieces. This method is disclosed in Japanese Patent Application No. Hei 10-34.
No. 1754 (music search device, music search method, and recording medium storing a music search program), which has been proposed by the present inventors.
【0012】まず,データベースの構築では,検索対象
とする楽曲を入力し(ステップS201),入力した楽
曲を音符情報に変換し(ステップS202),その音符
情報を複数の音楽片に分割し(ステップS203),高
速検索が可能なように,インデクスを生成し(ステップ
S204),音楽片の情報をインデクスとともにデータ
ベースに格納する(ステップS205)。First, in the construction of the database, music to be searched is input (step S201), the input music is converted into note information (step S202), and the note information is divided into a plurality of music pieces (step S201). In step S203, an index is generated so that a high-speed search can be performed (step S204), and information on the music piece is stored in the database together with the index (step S205).
【0013】次に,楽曲の検索では,検索キーとなる楽
曲を入力し(ステップS211),入力した楽曲を音符
情報に変換し(ステップS212),音符情報を複数の
音楽片に分割する(ステップS213)。音楽片の一つ
一つを検索キーとして,インデクスを用いてデータベー
スに蓄積された音楽片から類似するものを検索する(ス
テップS214)。検索結果として検出された音楽片同
士の関係と,検索キーとなった音楽片同士の関係などを
調べることで,検出された音楽片を含むデータベース中
の楽曲の一部または全体との間の類似度を調べて(ステ
ップS215),検索キーとなった楽曲の一部または全
体と類似度の高いデータベース中の楽曲の一部または全
部を検索結果として出力する(ステップS216)。Next, in the music search, a music serving as a search key is input (step S211), the input music is converted into note information (step S212), and the note information is divided into a plurality of music pieces (step S212). S213). Using each of the music pieces as a search key, a similar piece is searched from the music pieces stored in the database using the index (step S214). By examining the relationship between music pieces detected as search results and the relationship between music pieces used as search keys, the similarity between some or all of the songs in the database containing the detected music pieces is examined. The degree is checked (step S215), and part or all of the music in the database having a high degree of similarity to a part or the whole of the music used as the search key is output as a search result (step S216).
【0014】音楽片検索を行う場合には,類似度を計算
する音楽片同士の音符の数が一致しているために,DP
マッチングを用いて音符同士の対応関係を求める必要が
なく,インデクスを利用した高速な検索が可能であっ
た。When performing a music piece search, since the number of notes of the music pieces for which the similarity is calculated matches, the DP
There was no need to find the correspondence between notes using matching, and high-speed retrieval using indexes was possible.
【0015】しかし,音楽片検索をする際は,音符数誤
りが認められないために,音楽片の長さ分だけ,音符の
挿入・削除のない区間が必要であるという制限があっ
た。すなわち,音楽片の長さ分だけ,音符の挿入・削除
のない区間がなければ,検索精度が悪いという問題点が
あった。However, when searching for a music piece, there is a limitation that a section without insertion / deletion of a note is required for the length of the music piece because no error in the number of notes is recognized. That is, there is a problem that the search accuracy is poor unless there is a section in which notes are not inserted or deleted by the length of the music piece.
【0016】また,音符情報を必ずしも必要としない方
法としては,音楽情報への変換を行った後,類似検索を
行うという手法がある。As a method that does not necessarily require note information, there is a method of performing similarity search after conversion into music information.
【0017】図11は,音符情報を使用しない音楽検索
の原理を説明する図である。この手法は,特願平10−
329131号(音楽情報検索装置,音楽情報蓄積装
置,音楽情報検索方法,音楽情報蓄積方法およびそれら
のプログラムを記録した記録媒体)で,本発明等が提案
しているものである。FIG. 11 is a diagram for explaining the principle of music search without using note information. This method is described in Japanese Patent Application
No. 329131 (music information search device, music information storage device, music information search method, music information storage method, and a recording medium recording these programs), which are proposed by the present invention.
【0018】まず,データベースの構築において,楽曲
を入力し(ステップS301),入力した楽曲から音楽
的な特徴(特徴量)を抽出することが可能な音楽情報に
変換し(ステップS302),それをデータベースへ格
納する(ステップS303)。First, in the construction of the database, music is input (step S301), and the input music is converted into music information capable of extracting a musical feature (feature amount) (step S302). It is stored in the database (step S303).
【0019】楽曲の検索において,検索キーとなる楽曲
を入力し(ステップS311),入力した楽曲を同等な
音楽情報への変換を行い(ステップS312),変換し
た音楽情報をもとに,データベース中の楽曲について類
似検索を実施する(ステップS313)。ここで,類似
検索として,検索キーの楽曲の特徴量をデータベースに
蓄積された楽曲の特徴量と比較し検索し,検索は距離関
数を用いて距離の近いものを類似度の高いものとする類
似度計算を行う。類似したものを含む楽曲の候補を検索
結果として出力する(ステップS314)。In search of music, a music serving as a search key is input (step S311), the input music is converted into equivalent music information (step S312), and the converted music information is stored in a database based on the converted music information. A similarity search is performed for the song (step S313). Here, as a similarity search, the feature amount of the music of the search key is compared with the feature amount of the music stored in the database, and the search is performed. Perform a degree calculation. Music candidates including similar ones are output as search results (step S314).
【0020】しかし,このような音楽情報を利用する方
法においては,検索キーと,データベース中の曲とのテ
ンポが異なる場合に,検索精度が悪いという問題点があ
った。However, such a method using music information has a problem that the search accuracy is poor when the tempo between the search key and the music in the database is different.
【0021】本発明は,上記の点に鑑みなされたもの
で,データベース中の楽曲および検索キーのテンポを規
格化することにより,音符を単位とするのではなく,規
格化された時間を単位とした検索を可能とすることによ
って音符数誤りによって影響を受けない楽曲の検索装置
および方法を提供することを目的とする。本発明におい
ては,DPマッチングを使う必要がないため,インデク
スを用いた検索を行うことが可能であり,高速な検索が
可能である。また,検索を行う前にテンポを規格化する
ために,検索キーとデータベース中の曲とのテンポが異
なっていた場合にも,高い検索精度を得ることが可能で
ある。The present invention has been made in view of the above points, and standardizes the tempo of a song and a search key in a database, so that the standardized time is used as a unit instead of a musical note. It is an object of the present invention to provide an apparatus and a method for searching for a music piece that is not affected by an error in the number of notes by enabling a search to be performed. In the present invention, since it is not necessary to use DP matching, a search using an index can be performed, and a high-speed search can be performed. Also, since the tempo is standardized before the search is performed, high search accuracy can be obtained even when the tempo between the search key and the song in the database is different.
【0022】[0022]
【課題を解決するための手段】図1および図2は,本発
明による音楽の類似検索の概要を説明するための図,図
3は,本発明の原理構成図である。FIGS. 1 and 2 are diagrams for explaining the outline of a similarity search for music according to the present invention, and FIG. 3 is a block diagram showing the principle of the present invention.
【0023】本発明は,音楽検索において,データベー
スに入力された楽曲もしくは楽曲から変換された音楽情
報のテンポを規格化した上でデータベースに蓄積し,ま
た,検索キーとして入力された楽曲もしくは楽曲から変
換された音楽情報のテンポを規格化した上で,音楽の類
似検索を行うことを主な特徴とする。According to the present invention, in music search, the tempo of music input to the database or music information converted from the music is normalized and stored in the database, and the music or the music input as a search key is stored in the database. The main feature is to perform a similarity search for music after normalizing the tempo of the converted music information.
【0024】まず,音楽情報への変換を行わない検索に
おけるデータベースの構築では,楽曲入力手段1を用い
て楽曲が入力される(ステップS10)。入力された楽
曲は,テンポ規格化手段2によってテンポ規格化される
(ステップS11)。First, in the construction of a database in a search that does not convert to music information, music is input using the music input means 1 (step S10). The input music is normalized by the tempo normalizing means 2 (step S11).
【0025】また,音楽情報への変換を行う検索の場合
のデータベースの構築では,楽曲入力手段1を用いて楽
曲が入力された後(ステップS30),音楽情報変換手
段31により音楽情報に変換され(ステップS31),
その後,テンポ規格化手段2によってテンポ規格化され
る(ステップS32)。In the construction of a database in the case of a search for conversion into music information, after music is input using the music input means 1 (step S30), the music information is converted into music information by the music information conversion means 31. (Step S31),
Thereafter, the tempo is normalized by the tempo normalizing means 2 (step S32).
【0026】テンポ規格化された楽曲あるいはテンポ規
格化された音楽情報は,楽曲蓄積手段4により,音楽情
報蓄積部42にデータベースとして蓄積される(ステッ
プS12,S33)。The tempo-normalized music or tempo-normalized music information is stored as a database in the music information storage unit 42 by the music storage means 4 (steps S12 and S33).
【0027】テンポ規格化された楽曲あるいはテンポ規
格化された音楽情報は,楽曲蓄積手段4により蓄積され
る前に,音楽情報変換手段31’による音楽情報への変
換,音楽片生成手段32による音楽片への分割の過程を
経てから,蓄積されることもある。さらに,蓄積された
楽曲,音楽情報,音楽片に対して,インデクス生成手段
44により,検索を高速化するためのインデクスが作成
されることもある。The tempo-normalized music or tempo-normalized music information is converted into music information by the music information conversion means 31 'and music by the music piece generation means 32 before being stored by the music storage means 4. It may be accumulated after going through the process of splitting into pieces. Furthermore, an index for accelerating the search may be created by the index generation unit 44 for the stored music, music information, and music pieces.
【0028】楽曲蓄積手段4には,テンポ規格化される
前の楽曲を楽曲蓄積部41に蓄積することも可能であ
り,検索の結果として,テンポ規格化される前の楽曲を
出力することも可能である。The music storage means 4 can store the music before the tempo standardization in the music storage section 41, and can output the music before the tempo standardization as a search result. It is possible.
【0029】楽曲の検索においては,まず,楽曲入力手
段1を用いて楽曲の一部または全体が入力もしくは指定
される(ステップS20,S40)。入力された楽曲
は,テンポ規格化手段2によりテンポ規格化されるか
(ステップS21),音楽情報変換手段31により音楽
情報へ変換された後(ステップS41),テンポ規格化
される(ステップS42)。テンポ規格化された検索キ
ーは,さらに,音楽情報変換手段31’により音楽情報
へ変換され,音楽片生成手段32により音楽片へ分割さ
れることもある。In the search for the music, first, a part or the whole of the music is input or specified using the music input means 1 (steps S20, S40). The input music is normalized by the tempo normalizing means 2 (step S21), or converted into music information by the music information converting means 31 (step S41), and then normalized by the tempo (step S42). . The search key standardized in tempo may be further converted into music information by music information conversion means 31 ′ and divided into music pieces by music piece generation means 32.
【0030】上記処理を経た検索キーは,楽曲検索手段
5へ送られ,楽曲検索手段5では,検索キーに類似する
楽曲の一部もしくは全体を,データベースに蓄積された
楽曲から検索する(ステップS22,S43)。データ
ベースでインデクスが生成されている場合は,インデク
スを用いて検索を行う。The search key having undergone the above processing is sent to the music search means 5, and the music search means 5 searches for a part or all of the music similar to the search key from the music stored in the database (step S22). , S43). If an index has been generated in the database, search is performed using the index.
【0031】音楽片を用いた検索では,音楽片検索手段
51により,検索キーとして送られてきた音楽片の少な
くとも一つを用いて,データベースに蓄積された音楽片
から類似するものを検索し,楽曲出力手段6により,検
索結果の楽曲を出力する(ステップS23,S44)。
検索キーとして送られてきた音楽片の複数を用いて検索
する場合には,検索キーのそれぞれの音楽片に類似する
データベース中の音楽片を検索した後,音楽片整合手段
52により,音楽片同士の整合性を調べ,最終的な検索
結果とすることもある。In the search using music pieces, the music piece search means 51 searches for similar ones from the music pieces stored in the database by using at least one of the music pieces sent as a search key. The music output means 6 outputs the music of the search result (steps S23, S44).
When searching using a plurality of music pieces sent as search keys, music pieces in a database similar to each music piece of the search key are searched, and then the music piece matching unit 52 searches for music pieces. In some cases, the consistency of the search is checked and the final search result is used.
【0032】なお,音楽片の整合については,上記の関
連する特許出願(特願平10−341754号)の明細
書等に記載されている手法を採用する。具体的には,検
索結果として検出された音楽片同士の関係と,検出され
た音楽片のそれぞれの検索キーとなった音楽片同士の関
係を調べ,また,検出された音楽片の前後の音符と,検
出された音楽片の検索キーとなった音楽片の前後の音符
の関係を調べることで,検索キーとなった楽曲の一部ま
たは全部と,検出された音楽片を含むデータベース中の
楽曲の一部または全部との間の類似度を調べる。For the matching of the music pieces, a method described in the specification of the related patent application (Japanese Patent Application No. 10-341754) is adopted. Specifically, the relationship between the music pieces detected as a search result and the relationship between the music pieces serving as the search keys of the detected music pieces are checked, and the notes before and after the detected music piece are checked. By examining the relationship between notes before and after the music piece that was the search key for the detected music piece, a part or all of the music that was the search key and the music in the database containing the detected music piece. Check the similarity between some or all of.
【0033】楽曲入力手段1は,一定の時間間隔もしく
は決められた規則に従った時間間隔で信号を発するリズ
ム信号発信手段11を有することもある。特に,検索キ
ーとして入力される楽曲に関しては,テンポ規格化が十
分な精度で行われない可能性がある。そこで,リズム信
号発信手段11によって一定の時間間隔もしくは決めら
れた規則に従った時間間隔で信号を発信させ,その信号
に合わせて楽曲入力者が楽曲の入力を行い,入力された
楽曲と,リズム信号発信手段11により発信される信号
とを同時にテンポ規格化手段2に入力させることによっ
て,正確なテンポ規格化を行うことを可能とする。The music input means 1 may have a rhythm signal sending means 11 for emitting a signal at a fixed time interval or at a time interval according to a predetermined rule. In particular, for music input as a search key, tempo standardization may not be performed with sufficient accuracy. Therefore, a signal is transmitted at a fixed time interval or at a time interval according to a predetermined rule by the rhythm signal transmitting means 11, and the music inputter inputs music in accordance with the signal, and the input music and the rhythm are output. By inputting the signal transmitted by the signal transmitting means 11 to the tempo normalizing means 2 at the same time, it is possible to perform accurate tempo normalization.
【0034】あるいは,楽曲入力手段1は,リズム信号
受信手段12を有することもある。これは,楽曲入力者
が楽曲の演奏(歌唱)に合わせて発するリズム信号を受
信可能とする手段で,入力された楽曲と,リズム信号受
信手段12により受信される信号を同時にテンポ規格化
手段2に入力させることによって,正確なテンポ規格化
を行うことを可能とする。Alternatively, the music input means 1 may have a rhythm signal receiving means 12. This is a means for enabling a music input user to receive a rhythm signal emitted in accordance with the performance (singing) of the music. The input music and the signal received by the rhythm signal receiving means 12 are simultaneously transmitted to the tempo normalizing means 2. , It is possible to perform accurate tempo normalization.
【0035】テンポ規格化手段2は,楽曲入力手段1に
より入力された楽曲,音楽情報変換手段31により変換
された音楽情報,もしくは,リズム信号発信手段11に
より発信された信号,リズム信号受信手段12により受
信された信号から,テンポを抽出するテンポ抽出手段2
1を有することもある。この場合,テンポ規格化手段2
は,テンポ抽出手段21によって抽出されたテンポを用
いて,テンポ規格化を行う。The tempo normalizing means 2 includes a music input by the music input means 1, music information converted by the music information converting means 31, a signal transmitted by the rhythm signal transmitting means 11, and a rhythm signal receiving means 12. Extracting means 2 for extracting the tempo from the signal received by
May have one. In this case, tempo normalizing means 2
Performs tempo normalization using the tempo extracted by the tempo extraction means 21.
【0036】以下に,本発明の作用を説明する。図4
は,テンポ規格化について説明するための図である。楽
曲においては,テンポによって,音楽的な「拍子」の時
間的な長さが規定される。図4(A)の「元の楽曲」に
示されているように,楽曲はそれぞれテンポを持ってお
り,このテンポは,楽曲同士の間で一致することもあれ
ば,異なることもある。また,同じ楽曲であっても,一
つ一つの演奏によって異なることもある。また,同じ楽
曲であっても,曲の部分によって異なることもある。The operation of the present invention will be described below. FIG.
FIG. 4 is a diagram for explaining tempo normalization. In music, the temporal length of the musical "beat" is defined by the tempo. As shown in “original music” in FIG. 4A, each music has a tempo, and this tempo may be the same or different between the music. Even the same music may be different depending on each performance. Also, the same music may be different depending on the part of the music.
【0037】テンポを規格化するということは,図4
(B)に示すように,すべての楽曲のすべての演奏の,
すべての部分において,拍子の長さが一定の時間的な長
さになるように,楽曲に変換を施すことである。Normalizing the tempo corresponds to FIG.
As shown in (B), for all performances of all songs,
In all parts, the music is converted so that the length of the time signature becomes a fixed time length.
【0038】図5は,マッチングの単位を説明するため
の図である。テンポ規格化を行わない場合,主に音符が
マッチングの単位とされてきた。しかし,図5(A)に
示すように,音符の挿入・削除が生じると,比較する音
符同士の対応関係がずれるという問題があった。DPマ
ッチングは,音符の挿入・削除があった場合の比較する
音符同士の対応関係のずれを修正するための方法であ
る。FIG. 5 is a diagram for explaining the unit of matching. When tempo normalization is not performed, notes have been mainly used as a unit of matching. However, as shown in FIG. 5A, there is a problem that when notes are inserted or deleted, the correspondence between notes to be compared is shifted. DP matching is a method for correcting a shift in correspondence between notes to be compared when notes are inserted or deleted.
【0039】実際にDPマッチングを用いて検索を行う
場合,許容する音符の挿入・削除の量には制限を設ける
必要があるため,音符の挿入・削除が検索精度に大きな
影響を与える。また,DPマッチングを用いた検索で
は,検索を高速に行うためのインデクスの作成などもで
きないため,多くの検索時間を必要とする。When a search is actually performed using DP matching, it is necessary to limit the amount of allowed note insertion / deletion. Therefore, note insertion / deletion greatly affects search accuracy. Further, in the search using DP matching, it is not possible to create an index for performing the search at high speed, so that a large amount of search time is required.
【0040】一方,テンポ規格化を行った場合,図5
(B)のように時間を単位としたマッチングが可能とな
る。この場合,音符の挿入・削除があったとしても,対
応関係にずれが生じることがなく,そのことにより検索
精度が影響されることはない。したがって,精度の高い
検索が可能となる。また,テンポ規格化された楽曲を,
音楽片に分割し,インデクスを作成することにより,検
索を高速に行うようにすることも可能である。On the other hand, when tempo normalization is performed, FIG.
It is possible to perform matching in units of time as shown in FIG. In this case, even if a note is inserted or deleted, there is no deviation in the correspondence, and the search accuracy is not affected by that. Therefore, a highly accurate search can be performed. In addition, music whose tempo has been standardized is
Searching can be performed at high speed by dividing the music piece and creating an index.
【0041】本発明に関連する技術として,特願平10
−329131号,特願平10−341754号に開示
する発明がある。本発明は,データベース構築の際に,
データベースに入力する楽曲のテンポ規格化を行い,検
索キーとなる楽曲の入力の際もテンポ規格化を行う点
が,先の発明と主に異なる。特に,本発明は,特願平1
0−341754号に開示する発明とは,特に音符単位
での検索を行わず,時間を単位とした検索を行う点が主
に異なる。As a technique related to the present invention, Japanese Patent Application No.
There are inventions disclosed in Japanese Patent Application No. -329131 and Japanese Patent Application No. 10-341754. The present invention, when constructing a database,
The main difference from the above-described invention is that the tempo of the music input to the database is normalized and the tempo is also normalized at the time of inputting the music serving as the search key. In particular, the present invention relates to
The main difference from the invention disclosed in Japanese Patent Application No. 0-341754 is that search is not performed in units of notes, but is performed in units of time.
【0042】[0042]
【発明の実施の形態】〔第1の実施の形態〕本発明の第
1の実施の形態について説明する。データベースに入力
するための楽曲として,MIDIデータを用いる。現在
ではカラオケ用のデータを初め,多くの楽曲がMIDI
データとして世の中に出回っている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] A first embodiment of the present invention will be described. MIDI data is used as music to be input to the database. At present, many songs including MIDI for karaoke are MIDI
It is circulating in the world as data.
【0043】MIDIデータでは,音符情報が拍子を基
準として記述されている。そして,拍子の実時間上の長
さが,テンポ情報として,音符情報とは別に記述されて
いる。したがって,規格化された時間として,拍子を基
準とした時間を採用すれば,データベース中の楽曲のテ
ンポ規格化が実現される。In the MIDI data, note information is described on the basis of a time signature. The length of the beat in real time is described as tempo information separately from the note information. Therefore, if the time based on the time signature is adopted as the standardized time, the tempo of the music in the database is standardized.
【0044】データベースに格納するにあたり,元のM
IDIデータは,まず,音楽片に分割される。分割の方
法としては,音楽片の長さが,規格化された時間軸上で
すべて同じになるようにし,図6(A)に示すように,
すべての音符の始まりを先頭とする音楽片が生成される
ようにする方法がある。あるいは,図6(B)に示すよ
うに,音楽片が一定の時間間隔で始まるように分割する
方法もある。When storing in the database, the original M
The IDI data is first divided into music pieces. As a method of division, the length of the music piece is made equal on the standardized time axis, and as shown in FIG.
There is a method of generating a music piece starting from the beginning of every note. Alternatively, as shown in FIG. 6B, there is a method of dividing a music piece so that the music piece starts at a fixed time interval.
【0045】また,音楽片へ分割した後,音楽情報(特
徴量)として,音高推移ベクトルを生成する。これは,
図7に示すように,規格化された時間軸を等間隔の目盛
で刻み,各目盛の位置で演奏されている音の高さを並べ
てできるベクトルである。計算機での処理上,音の高さ
は,例えばMIDIで使われている音高を表す数値や,
周波数などに置き換える。After being divided into music pieces, a pitch transition vector is generated as music information (feature amount). this is,
As shown in FIG. 7, the vector is a vector obtained by engraving a standardized time axis with equally spaced scales and arranging the pitches of the sounds being played at the positions of each scale. Due to the processing by the computer, the pitch of the sound is, for example, a numerical value representing the pitch used in MIDI,
Replace with frequency, etc.
【0046】音楽情報(特徴量)としては,上記のほか
に,例えば,以下のものを生成することができる。As the music information (feature amount), for example, the following can be generated in addition to the above.
【0047】 音高推移ベクトルAi =(ai1,
ai2,…,ain)としたとき,ベクトルの要素の平均値
mi =(ai1+ai2+…+ain)/nを計算し,各要素
からこの平均値を引いた値を要素とするベクトルAi '
=(ai1−mi ,ai2−mi ,…,ain−mi )を特徴
量とする。検索キーの楽曲と,データベース中の楽曲の
調が異なっていても,このベクトルは類似することが期
待される。The pitch transition vector A i = (a i1 ,
a i2 ,..., a in ), the average value m i = (a i1 + a i2 +... + a in ) / n of the vector elements is calculated, and the value obtained by subtracting this average value from each element is taken as the element. Vector A i '
= (A i1 −m i , a i2 −m i ,..., A in −m i ) is defined as the feature value. This vector is expected to be similar even if the key of the music in the search key and the music in the database are different.
【0048】 音高推移ベクトルAi =(ai1,
ai2,…,ain)に対し,最初の要素a i1を基準にし,
各要素からこの基準値を引いた値を要素とするベクトル
Ai ''=(0,ai2−ai1,…,ain−ai1)を特徴量
とする。検索キーの楽曲と,データベース中の楽曲の調
が異なっていても,このベクトルは類似することが期待
される。The pitch transition vector Ai= (Ai1,
ai2, ..., ain), The first element a i1Based on
A vector whose elements are values obtained by subtracting this reference value from each element
Ai'' = (0, ai2-Ai1, ..., ain-Ai1)
And The music of the search key and the music of the music in the database
This vector is expected to be similar even if is different
Is done.
【0049】 音高推移ベクトルAi =(ai1,
ai2,…,ain)に対し,各要素から前の要素の値を引
いた値を要素とするベクトルAi ''' =(ai1,ai2−
ai1,…,ain−ain-1)を特徴量とする。検索キーの
楽曲の調が少しずつ推移してしまう場合でも,データベ
ース中の楽曲と,このベクトルは類似することが期待さ
れる。The pitch transition vector A i = (a i1 ,
a i2 ,..., a in ), a vector A i ′ ″ = (a i1 , a i2 −
a i1 ,..., a in −a in−1 ) are set as feature amounts. Even when the key of the music of the search key changes little by little, it is expected that this vector is similar to the music in the database.
【0050】これらの音楽情報が,データベースに格納
された後,検索を高速化するためのインデクスを生成す
る。インデクスの生成方法としては,R-tree などを用
いる。なお,R-tree に関する参考文献としては以下の
ものがある。 〔参考文献3〕A.Guttman, "R-trees: a dynamic index
structures for spatial searching", Proceedings of
the ACM SIGMOD International Conference onthe Man
agement of Data, pp.47-57, Boston, 1984. 検索キーとなる楽曲の入力については,ハミングによる
入力,楽器の演奏による入力,MIDIキーボードの演
奏による入力などの方法がある。After the music information is stored in the database, an index for speeding up the search is generated. As an index generation method, an R-tree or the like is used. The following are references related to R-tree. [Reference 3] A. Guttman, "R-trees: a dynamic index
structures for spatial searching ", Proceedings of
the ACM SIGMOD International Conference on the Man
agement of Data, pp. 47-57, Boston, 1984. There are methods of inputting a song serving as a search key, such as input by humming, input by playing an instrument, and input by playing a MIDI keyboard.
【0051】楽曲の入力の際には,リズム信号発信装置
として,電子的なメトロノームを用いる。この電子的な
メトロノームは,指定したテンポで音や光,コンピュー
タディスプレイ上の文字・図形などを発することができ
るようになっており,楽曲入力者が,その発する信号に
合わせて楽曲の入力ができるようになっている。この電
子的なメトロノームは,一定の時間間隔で信号を発する
だけでなく,例えば,小節の先頭の拍は音色・音量や,
光の色・光の強さ,ディスプレイ上の文字の種類・図形
の種類を,他の拍とは異なるように発したり,また例え
ば「サンバのリズム」など,入力する曲の種類に合わせ
たリズム信号を発することができる。また,この信号を
発するテンポであるが,楽曲入力者が楽曲の入力をしや
すいように,遅くしたり速くしたりを自由に設定するこ
とが可能である。At the time of inputting music, an electronic metronome is used as a rhythm signal transmitting device. This electronic metronome can emit sound, light, characters and graphics on a computer display at a specified tempo, and the music input user can input music according to the signal emitted. It has become. This electronic metronome not only emits signals at regular time intervals, but also, for example, the tone at the beginning of a bar
Rhythm according to the type of music to be input, such as the color of light, the intensity of light, the type of characters and the type of graphics on the display, which are different from other beats, and the type of song to be input, such as "Samba rhythm" A signal can be emitted. The tempo at which this signal is emitted can be freely set to be slower or faster so that the music inputter can easily input the music.
【0052】あるいは,楽曲入力の際には,リズム信号
受信装置を使うこともある。これは,手拍子,足踏み,
指の上下の動き,体の揺れ,マウスのクリック,キーボ
ードの押下など,楽曲入力者が楽曲入力の際に意識的/
無意識的に発する動き,信号などを検知できるようにし
た装置である。Alternatively, when inputting music, a rhythm signal receiving device may be used. This is clapping, stepping,
The music enthusiast is conscious / unconscious when inputting music, such as finger up / down movements, body shaking, mouse clicks, keyboard presses, etc.
It is a device that can detect unintentional movements, signals, etc.
【0053】入力された楽曲と,上記リズム信号受発信
装置から得られる信号を使って,検索キーとなる楽曲の
テンポ規格化を行う。Using the input music and the signal obtained from the rhythm signal receiving / transmitting device, the tempo of the music serving as a search key is normalized.
【0054】音楽片への分割,音楽情報への変換につい
ては,MIDIキーボードから入力される楽曲について
は,データベースへの楽曲の入力の場合と同じである。The division into music pieces and the conversion to music information are the same as those for music input to the database for music input from the MIDI keyboard.
【0055】ハミングによる入力,楽器の演奏による入
力では,楽曲入力手段1によりPCM形式のデータとし
て楽曲が入力される。そして,このデータから音高情報
が抽出される。音高情報の抽出に関しては,PCM形式
のデータから音符情報を抽出する従来方法に準じる。 〔参考文献4〕新原高水,今井正和,井口征士:「歌唱
の自動採譜」,計測自動制御学会論文集,Vol.20 No.10
pp.940-945, 1984; 〔参考文献5〕水野正典,藤本正
樹,高島羊典,鶴田七郎:「パーソナルコンピュータミ
ュージックシステム −歌声の自動採譜−」,情報処理
学会第35回全国大会,5Ff-5, 1987 . すなわち,まず,FFTや,自己相関処理を用いて周波
数分析を行い,ピーク抽出,各ピークのパワー測定など
を行う。さらに,ノイズの除去,ピッチドリフトの補
正,高調波成分の基本成分への吸収などを行い,時間軸
上の目盛に対して,どの時点でどの音が演奏されている
かを検出する。音高情報が抽出された後の,音楽片への
分割,音楽情報の生成の仕方については,データベース
への楽曲の入力の場合と同じである。In the input by humming and the input by playing a musical instrument, the music input means 1 inputs a music as PCM format data. Then, pitch information is extracted from this data. The pitch information is extracted according to the conventional method of extracting note information from PCM format data. [Reference 4] Takahara Niihara, Masakazu Imai, Seiji Iguchi: "Automatic Transcription of Singing", Transactions of the Society of Instrument and Control Engineers, Vol.20 No.10
pp.940-945, 1984; [Reference 5] Masanori Mizuno, Masaki Fujimoto, Yonori Takashima, Shichiro Tsuruta: "Personal Computer Music System-Automatic Transcription of Singing Voices", Information Processing Society of Japan 35th Annual Convention, 5Ff- 5, 1987. That is, first, frequency analysis is performed using FFT or autocorrelation processing, and peak extraction, power measurement of each peak, and the like are performed. Further, noise is removed, pitch drift is corrected, harmonic components are absorbed into basic components, and the like, and which sound is being played at which point on the time axis is detected. The method of dividing into musical pieces and generating the music information after the pitch information is extracted is the same as the case of inputting music to the database.
【0056】なお,音楽情報生成の過程を二段階に分
け,途中でテンポ規格化を行う場合もある。例えば,ま
ず音高情報を抽出した後,テンポを規格化し,その後,
音高ベクトルなど特徴量の生成を行う場合もある。It should be noted that the music information generation process may be divided into two stages, and the tempo may be normalized during the process. For example, after extracting pitch information, normalizing the tempo,
In some cases, a feature amount such as a pitch vector is generated.
【0057】検索については,まず,検索キーとして入
力された楽曲から生成された音楽片のそれぞれに類似す
る音楽片を,データベース中から検索する(音楽片検
索)。その際には,検索キーの音楽片とデータベース中
の音楽片との距離を,音高ベクトルなどそれぞれの特徴
量に対して求める。なお,この距離は,ユークリッド距
離やマンハッタン距離など適当な距離を特徴量ごとに設
定して求める。また,検索を高速化するため,インデク
スを用いて検索を行う。As for the search, first, a music piece similar to each of the music pieces generated from the music input as the search key is searched from the database (music piece search). At this time, the distance between the music piece of the search key and the music piece in the database is obtained for each feature amount such as a pitch vector. This distance is obtained by setting an appropriate distance such as the Euclidean distance or the Manhattan distance for each feature amount. Also, in order to speed up the search, the search is performed using the index.
【0058】音楽片同士の距離(非類似度)は,各特徴
量の距離に適当な重みを加味して何らかの方法で求めた
ものとして表す。詳しくは,以下のとおりである。用い
ている特徴量の集合をFSPACEとする。音楽片Kと
音楽片Xとの特徴量iについての距離をdi(K,X),
重みをWiとすると,音楽片Kと音楽片Xとの総合的な
距離D(K,X)を何らかの方法で求めるのは,次のよ
うな関数Fを用いて行うことになる。The distance (dissimilarity) between music pieces is expressed as a value obtained by some method by adding an appropriate weight to the distance of each feature value. The details are as follows. A set of used feature amounts is set to FSPACE. The distance of the feature piece i between the music piece K and the music piece X is represented by di (K, X),
Assuming that the weight is Wi, obtaining the total distance D (K, X) between the music piece K and the music piece X by some method is performed using the following function F.
【0059】 D(X,K)=F({Wi},{di(K,X)}) (ただし,i∈FSPACE) この関数Fの具体的な例として,線形和の関数を用いる
とすると, D(X,K)=sum(Wi×di(K,X)) となる(ただし,i∈FSPACEであり,sumはi
∈FSPACEについての総和をとる)。D (X, K) = F ({Wi}, {di (K, X)}) (where i∈FSSPACE) As a specific example of this function F, if a function of linear sum is used , D (X, K) = sum (Wi × di (K, X)) (where i∈FSSPACE, and sum is i
を Sum the total for FSPACE).
【0060】関数Fとして線形和ではなく,例えば次の
ような最小値をとる関数を用いることもできる。As the function F, instead of a linear sum, for example, a function that takes the following minimum value can be used.
【0061】 D(X,K)=min(Wi×di(K,X)) (ただし,i∈FSPACE,minはi∈FSPAC
Eについての最小値をとる) また,上記線形和と最小値との混合を用いることもでき
る。すなわち,特徴量(FSPACE)を2種類(FS
PACE1,FSPACE2)に分けて, FSPACE=FSPACE1∪FSPACE2 であるとすると, D(X,K)=sum(Wi×di(K,X),min
(Wj×dj(K,X)) のような関数を用いて総合距離を求めることもできる。
ここで,i∈FSPACE1,j∈FSPACE2であ
る。D (X, K) = min (Wi × di (K, X)) (where i∈FSPAC, min is i∈FSPAC)
(The minimum value for E is taken.) A mixture of the above linear sum and the minimum value can also be used. That is, two types of feature values (FSSPACE) (FS
PSPACE1, FSPACE2), and if FSPACE = FSSPACE1∪FSSPACE2, then D (X, K) = sum (Wi × di (K, X), min
The total distance can also be obtained using a function such as (Wj × dj (K, X)).
Here, i∈FSSPACE1, j∈FSSPACE2.
【0062】ここでは,音楽片同士の距離(非類似度)
の求め方として,線形和を用いる場合,最小値を用いる
場合,線形和と最小値の混合を用いる場合の例を説明し
たが,もちろんこの他にも総合距離の求め方はいろいろ
あり得る。データベース中の音楽片のうち,検索キーの
音楽片との距離が近いもの,すなわち類似度の高いもの
が音楽片検索の結果となる。Here, the distance between music pieces (dissimilarity)
As an example of the method for obtaining the total distance, a case where a linear sum is used, a case where a minimum value is used, and a case where a mixture of the linear sum and the minimum value are used have been described. Of the music pieces in the database, a music piece whose distance to the music piece of the search key is short, that is, a music piece with a high similarity is a result of the music piece search.
【0063】検索キーから音楽片が複数生成される場
合,検索キーの音楽片のそれぞれに対する音楽片検索の
結果に対して音楽片同士の整合性を調べ,複数の音楽片
を組み合わせた場合の類似度を計算し,最終的な検索結
果とすることができる。When a plurality of music pieces are generated from the search key, the consistency between the music pieces is checked based on the result of the music piece search for each of the music pieces of the search key, and the similarity when a plurality of music pieces are combined is determined. The degree can be calculated and used as the final search result.
【0064】今,検索キーKの音楽片Kp ,Kq (p<
q)に対し,データベース中の音楽片X,Yがそれぞれ
類似していたとする(Kp 〜X,Kq 〜Y)。音楽片
X,Yが,検索キーの音楽片Kp ,Kq に対して整合性
を持つということは,以下の条件を満たすことである。Now, music pieces K p , K q (p <
to q), the music piece X in the database, Y was similar, respectively (K p ~X, K q ~Y ). Music piece X, Y are, that have the consistency the music piece K p, K q of the search key is that the following conditions are satisfied.
【0065】1)音楽片X,Yは同じ曲に属さなければ
ならない。なお,以降ではこの候補曲をAとし,音楽片
X,YをそれぞれAr ,As とおく。1) Music pieces X and Y must belong to the same music. Incidentally, the candidate music and A is later put music piece X, Y, respectively A r, and A s.
【0066】2)音楽片Ar ,As の時間的順序は,対
応する検索キーの音楽片(Kp ,K q )の時間的順序と
同じ(すなわち,r<s)である。2) Music piece Ar, AsThe temporal order of
The music fragment (Kp, K q) And the temporal order
The same (ie, r <s).
【0067】3)音楽片Ar ,As の規格化された時間
における開始時間を,TAr,TAsとし,検索キーの音楽
片Kp ,Kq の規格化された時間における開始時間を,
TKp,TKqとしたとき,開始時間の間隔が一致,すなわ
ち,TAs−TAr=TKq−TKpである。[0067] 3) Music piece A r, the starting time in the time that is normalized A s, T Ar, and T As, music piece K p of the search key, a start time in the normalized time K q ,
When T Kp and T Kq are set, the intervals of the start times match, that is, T As −T Ar = T Kq −T Kp .
【0068】検索結果の出力では,検索キーと,検索結
果の候補となったデータベース中の楽曲の一部もしくは
全体との間の類似度を求めた後,類似度の高い順番に,
楽曲の一部もしくは全体を提示する。データベース中の
情報から楽曲の題名,音楽家名を表示することもできる
し,検索キーと類似する楽曲の一部もしくは全体を演奏
することもできる。In the output of the search result, the similarity between the search key and a part or the whole of the music in the database which is a candidate for the search result is obtained.
Present part or all of the song. The title of the music and the name of the musician can be displayed from the information in the database, and a part or the whole of the music similar to the search key can be played.
【0069】本実施の形態においては,データベースに
入力する楽曲としてMIDIデータを用いることができ
る。MIDIデータは標準化された形式で,非常に多く
の楽曲がMIDIデータとして存在しており,データベ
ースの構築のために楽曲の演奏を行ったりする必要がな
く,データベース構築が容易である。また,MIDIデ
ータは拍子を基準として音符情報が記述されているた
め,テンポ規格化,音高情報の抽出が正確に行えるた
め,音楽検索用のデータベースに利用することに適して
いる。In the present embodiment, MIDI data can be used as music input to the database. MIDI data is in a standardized format, and a large number of music pieces exist as MIDI data, so that it is not necessary to perform music pieces for database construction, and database construction is easy. Since MIDI information describes note information on the basis of a time signature, tempo standardization and pitch information extraction can be accurately performed, so that the MIDI data is suitable for use as a database for music search.
【0070】また,検索キーとなる楽曲の入力の際に,
リズム信号受発信装置を補助的に使うことによって,検
索キーとなる楽曲のテンポ規格化が正確に行えるように
なる。Also, when inputting a music piece serving as a search key,
By using the rhythm signal receiving / sending device as an auxiliary device, the tempo of a music piece serving as a search key can be accurately standardized.
【0071】本実施の形態の格別な効果として,データ
ベースの構築が容易かつ正確に行えること,また,検索
キーとする楽曲のテンポ規格化が正確に行えることが挙
げられる。The special effects of the present embodiment include that the database can be easily and accurately constructed, and that the tempo of the music used as the search key can be accurately standardized.
【0072】〔第2の実施の形態〕本発明の第2の実施
の形態においては,上記の第1の実施の形態でデータベ
ースに入力する楽曲としてMIDIデータを用いるので
はなく,例えば音楽用CD(コンパクト・ディスク)の
データや,WAVE,AIFF,AUなどの形式のよう
にPCM符号化された楽曲,もしくは,他の符号化形式
のものであれば,それを一度PCM符号化形式に変換し
たものを用いる。[Second Embodiment] In the second embodiment of the present invention, MIDI data is not used as music input to the database in the first embodiment. (Compact disc) data, songs that have been PCM-encoded in a format such as WAVE, AIFF, or AU, or if they are in another encoding format, have been once converted to PCM-encoding format Use something.
【0073】一般に楽曲においては,拍子に合わせて音
が演奏される。そして,音は,演奏が開始される瞬間に
大きく音圧が変化するため,楽曲における音圧の変動を
調べれば,テンポ情報を抽出することが可能である。Generally, in music, a sound is played in time with the beat. Since the sound greatly changes in sound pressure at the moment when the performance is started, it is possible to extract tempo information by examining the change in sound pressure in the music.
【0074】より具体的なテンポ情報抽出方法として,
以下のような方法がある。As a more specific method of extracting tempo information,
There are the following methods.
【0075】 100Hzや10Hzといった小さな
サンプリング周波数で音量レベルのピークを探し,ピー
クの間隔からテンポを抽出する方法。元のPCMデータ
のサンプリング周波数が,例えば44100Hzであっ
たとすると,1000サンプルずつ足しあわせたデータ
を作成し,音量レベルのピークを探す,といった方法が
考えられる。A method of searching for a peak of a volume level at a small sampling frequency such as 100 Hz or 10 Hz, and extracting a tempo from the interval between the peaks. Assuming that the sampling frequency of the original PCM data is, for example, 44100 Hz, a method of creating data in which 1000 samples are added together and searching for the peak of the volume level can be considered.
【0076】 上記小さなサンプリング周波数で音量
レベルの変化率の推移を調べ,変化率が急激に増加する
部分を探し,その急激に増加する部分の間隔からテンポ
を抽出する方法。A method of examining the transition of the rate of change of the volume level at the small sampling frequency, searching for a portion where the change rate sharply increases, and extracting the tempo from the interval of the rapidly increasing portion.
【0077】 上記小さなサンプリング周波数のデー
タに対し,例えば,10秒といった長い区間で周波数分
析を行い,ピークを探す方法。例えば,2Hzのところ
にピークが出れば,この楽曲の一拍の長さは0.5秒で
あるということになる。A method of performing frequency analysis on the data of the small sampling frequency in a long section, for example, 10 seconds, and searching for a peak. For example, if a peak appears at 2 Hz, it means that the length of one beat of this music piece is 0.5 seconds.
【0078】 リズムを刻むドラムズなどの楽器の音
を選択的に抽出し,これらの音の音圧の変動を分析する
ことにより,テンポ情報を抽出する方法。A method for extracting tempo information by selectively extracting sounds of musical instruments such as drums that carve a rhythm and analyzing fluctuations in sound pressure of these sounds.
【0079】入力された楽曲から音高情報などの特徴量
を生成する方法としては,上記の第1の実施の形態でハ
ミングや楽器の演奏により入力された楽曲から音高情報
などを抽出する方法に準じる。ただし,ハミングや単一
の楽器の演奏の場合と違い,音楽用CDなどのデータで
は,複数の音符が同時に発せられているため,検索対象
となる音高(旋律に相当する音の音高)のみを抽出する
必要がある。そのために,FFTや自己相関処理をした
のちに,音圧の最も強いピークを抽出する方法や,旋律
やリズムを演奏する楽器,もしくは人の歌声の周波数帯
のピークのみを抽出するような帯域フィルタを使用する
方法がある。As a method of generating a feature amount such as pitch information from an input music, the method of extracting pitch information or the like from a music input by humming or playing a musical instrument in the first embodiment is described. According to. However, unlike humming and the performance of a single instrument, data such as music CDs have multiple notes emitted simultaneously, so the pitch to be searched (the pitch of the sound corresponding to the melody) Only need to extract. For this purpose, after FFT or autocorrelation processing, a method of extracting the peak of the sound pressure, or a bandpass filter that extracts only the peak of the frequency band of a musical instrument playing melody or rhythm or a human singing voice There is a way to use
【0080】本実施の形態の効果は以下のとおりであ
る。データベースに入力する楽曲として,MIDIより
さらに一般的な音楽符号化方式であるPCM方式により
符号化された楽曲を利用することにより,データベース
中に含まれる楽曲の量を,より充実したものにすること
が可能である。また,市販の音楽用CDのみならず,個
人的に楽器によって演奏した楽曲などもデータベース中
に含むことができるようになる。The effects of the present embodiment are as follows. Enhance the amount of songs contained in the database by using songs encoded by the PCM method, which is a more general music encoding method than MIDI, as songs input to the database. Is possible. Further, the database can include not only commercially available music CDs, but also songs played personally by musical instruments.
【0081】〔第3の実施の形態〕本発明の第3の実施
の形態においては,上記の第1,第2の実施の形態でデ
ータベース中の楽曲,検索キーの楽曲を音楽片に分割
し,特徴量を生成する際に,音高推移ベクトルを生成す
るのではなく,対象となる音楽片における音高の分布を
求め,この分布をもとに特徴量ベクトルを生成する。[Third Embodiment] In the third embodiment of the present invention, the music in the database and the music of the search key in the first and second embodiments are divided into music pieces. When generating the feature amount, instead of generating a pitch transition vector, a distribution of a pitch in a target music piece is obtained, and a feature amount vector is generated based on this distribution.
【0082】ある音楽片において,音高が,図8(A)
に示すように推移した場合,規格化された時間の一単位
を一度数に換算して,図8(B)のような音高分布図を
作成し,各音高(もしくは音高の範囲)の度数を並べて
音高分布ベクトルを作成することができる。これを,音
楽情報(特徴量)として検索を行うことができる。In a certain music piece, the pitch is as shown in FIG.
When a transition is made as shown in Fig. 8, one unit of the standardized time is converted into a number once, and a pitch distribution diagram as shown in Fig. 8B is created, and each pitch (or range of pitch) is created. The pitch distribution vector can be created by arranging the frequencies of. This can be searched as music information (feature amount).
【0083】音楽情報(特徴量)としては,上記のほか
に,例えば,以下のものを生成することができる。As the music information (feature amount), for example, the following can be generated in addition to the above.
【0084】 第1の実施の形態で利用した音高推移
ベクトルAi の各要素から,要素の平均値を引いてでき
たベクトルAi ' の要素の値の分布。The distribution of element values of the vector A i ′ obtained by subtracting the average value of the elements from each element of the pitch transition vector A i used in the first embodiment.
【0085】 第1の実施の形態で利用した音高推移
ベクトルAi の各要素から,最初の要素の値を引いてで
きたベクトルAi ''の要素の値の分布。The distribution of element values of the vector A i ″ obtained by subtracting the value of the first element from each element of the pitch transition vector A i used in the first embodiment.
【0086】 第1の実施の形態で利用した音高推移
ベクトルAi の各要素から,前の要素の値を引いてでき
たベクトルAi ''' の要素の値の分布。The distribution of element values of the vector A i ′ ″ obtained by subtracting the value of the previous element from each element of the pitch transition vector A i used in the first embodiment.
【0087】また,上記各分布において,図8(B)の
音高分布図の横軸に相当する値が0に相当する部分の度
数を0とする場合もある。また,上記各分布において,
図8(B)の音高分布図の横軸に相当する値を,定めら
れた範囲内に限定し,範囲を超えたデータを削除する場
合,もしくは,その範囲の境界の値に加える場合もあ
る。In each of the above distributions, the frequency of the portion where the value corresponding to the horizontal axis of the pitch distribution diagram of FIG. 8B is 0 may be set to 0. In each of the above distributions,
When the value corresponding to the horizontal axis of the pitch distribution diagram of FIG. 8B is limited to a predetermined range and data outside the range is deleted, or added to the value at the boundary of the range. is there.
【0088】これらの特徴量ベクトルを利用し,第1の
実施の形態の方法に従い,音楽片検索,音楽片整合を経
た上で類似検索を行う。Using these feature amount vectors, similar search is performed after music piece search and music piece matching according to the method of the first embodiment.
【0089】本実施の形態の効果について,第1の実施
の形態の場合よりも,一般に特徴量ベクトルの次元数を
減らすことができるために,検索速度を向上させること
が可能である。また,音楽片の範囲内では,時間の情報
が失われるために,データベース中の音楽片と,検索キ
ーから生成された音楽片の開始地点に多少の誤差があっ
ても,検索が可能となる。一方,時間の情報が失われる
ために,音高推移ベクトルで見れば類似しないもので
も,音高分布ベクトルでは類似する可能性がある。した
がって,まず本実施の形態による方法で検索を行い,そ
の検索結果の中から,第1の実施の形態による検索を行
う絞り込み検索などを行うことも可能である。Regarding the effect of this embodiment, since the number of dimensions of the feature vector can be generally reduced as compared with the case of the first embodiment, the search speed can be improved. In addition, since the time information is lost within the range of the music piece, even if there is some error between the music piece in the database and the start point of the music piece generated from the search key, the search can be performed. . On the other hand, since the time information is lost, even if they are not similar in the pitch transition vector, they may be similar in the pitch distribution vector. Therefore, it is also possible to first perform a search by the method according to the present embodiment, and then perform a narrowed-down search for performing a search according to the first embodiment from the search results.
【0090】[0090]
【発明の効果】上述のように,本発明によれば,検索者
がハミングや楽器の演奏などにより,自由に楽曲の一部
または全体を入力することにより,検索者が意図した楽
曲をデータベースの中から精度よく高速に検索すること
が可能となる。As described above, according to the present invention, the searcher can freely input a part or the whole of the music by humming or playing a musical instrument, and the music intended by the searcher can be stored in the database. It is possible to search at high speed from within.
【0091】本発明によって,例えば,カラオケや,ミ
ュージック・オン・デマンドシステム(自動ジュークボ
ックス)などのシステムにおいて,利用者が選択したい
楽曲の名前や作曲者名,演奏家名などを思い出せない場
合においても,その楽曲のメロディーさえ覚えていれば
目的の楽曲を選択可能となり,このような分野において
極めて有効である。According to the present invention, for example, in a system such as a karaoke system or a music-on-demand system (automatic jukebox), when the user cannot remember the name of the music to be selected, the name of the composer, the name of the performer, etc. However, if the melody of the music is memorized, the target music can be selected, which is extremely effective in such a field.
【図1】本発明による音楽の類似検索(音楽情報への変
換を行わない場合)の概要を説明する図である。FIG. 1 is a diagram illustrating an outline of a similarity search for music (when conversion to music information is not performed) according to the present invention.
【図2】本発明による音楽の類似検索(音楽情報への変
換を行う場合)の概要を説明する図である。FIG. 2 is a diagram illustrating an outline of a similarity search for music (when conversion to music information is performed) according to the present invention.
【図3】本発明の原理構成図である。FIG. 3 is a diagram illustrating the principle of the present invention;
【図4】テンポ規格化を説明する図である。FIG. 4 is a diagram illustrating tempo normalization.
【図5】マッチングの単位を説明する図である。FIG. 5 is a diagram illustrating a unit of matching.
【図6】音楽片への分割を説明する図である。FIG. 6 is a diagram illustrating division into music pieces.
【図7】音楽情報への変換を説明する図である。FIG. 7 is a diagram illustrating conversion into music information.
【図8】音楽情報への変換(音高分布)を説明する図で
ある。FIG. 8 is a diagram illustrating conversion into music information (pitch distribution).
【図9】従来方法による音楽検索(DPマッチング使
用)の原理説明図である。FIG. 9 is a diagram illustrating the principle of music search (using DP matching) according to a conventional method.
【図10】本発明に関連する音楽片を使用する音楽検索
の原理説明図である。FIG. 10 is a diagram illustrating the principle of music search using a music piece related to the present invention.
【図11】本発明に関連する音符情報を使用しない音楽
検索の原理説明図である。FIG. 11 is a diagram illustrating the principle of music search that does not use note information according to the present invention.
1 楽曲入力手段 11 リズム信号発信手段 12 リズム信号受信手段 2 テンポ規格化手段 21 テンポ抽出手段 31 音楽情報変換手段 31’ 音楽情報変換手段 32 音楽片生成手段 4 楽曲蓄積手段 41 楽曲蓄積部 42 音楽情報蓄積部 43 音楽片蓄積部 44 インデクス生成手段 5 楽曲検索手段 51 音楽片検索手段 52 音楽片整合手段 DESCRIPTION OF SYMBOLS 1 Music input means 11 Rhythm signal transmission means 12 Rhythm signal reception means 2 Tempo normalization means 21 Tempo extraction means 31 Music information conversion means 31 'Music information conversion means 32 Music piece generation means 4 Music storage means 41 Music storage part 42 Music information Storage unit 43 Music piece storage unit 44 Index generation means 5 Music piece search means 51 Music piece search means 52 Music piece matching means
───────────────────────────────────────────────────── フロントページの続き (72)発明者 坂田 哲夫 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 山室 雅司 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 梅田 昌義 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 紺谷 精一 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Tetsuo Sakata 2-3-1 Otemachi, Chiyoda-ku, Tokyo Nippon Telegraph and Telephone Corporation (72) Inventor Masashi Yamamuro 2-3-1, Otemachi, Chiyoda-ku, Tokyo No. 1 Within Nippon Telegraph and Telephone Corporation (72) Masayoshi Umeda 2-3-1 Otemachi, Chiyoda-ku, Tokyo Nippon Telegraph and Telephone Corporation (72) Inventor Seiichi Konya Otemachi, Chiyoda-ku, Tokyo Nippon Telegraph and Telephone Corporation
Claims (14)
を入力する楽曲入力手段と,上記楽曲入力手段により入
力された楽曲のテンポを規格化するテンポ規格化手段
と,少なくとも上記テンポ規格化手段によりテンポ規格
化された楽曲を蓄積する楽曲蓄積手段と,検索キーとし
て入力された楽曲の一部または全体から上記テンポ規格
化手段によりテンポ規格化された楽曲の一部または全体
をもとに,上記楽曲蓄積手段に蓄積された楽曲の一部ま
たは全体の中から類似した楽曲を検索する楽曲検索手段
と,上記楽曲検索手段により検索された楽曲を出力する
楽曲出力手段とを有することを特徴とする音楽検索装
置。In a search device for searching for music, a music input means for inputting music, a tempo normalizing means for normalizing the tempo of the music input by the music input means, and at least the tempo normalizing means. A music storing means for storing music whose tempo has been standardized, and a part or the whole of the music inputted as a search key, based on a part or the whole of the music tempo standardized by the tempo standardizing means, A music search means for searching for a similar music from a part or the whole of the music stored in the music storage means; and a music output means for outputting the music searched by the music search means. Music search device.
上記楽曲入力手段により入力された楽曲を音楽情報に変
換する音楽情報変換手段を有し,上記テンポ規格化手段
は,楽曲を上記音楽情報変換手段により音楽情報に変換
した後でテンポ規格化を行うことを特徴とする音楽検索
装置。2. The music search device according to claim 1, wherein
Music information conversion means for converting the music input by the music input means into music information, wherein the tempo normalization means performs tempo normalization after converting the music into music information by the music information conversion means; A music search device characterized by the above-mentioned.
装置において,上記楽曲入力手段は,一定の時間間隔も
しくは決められた規則に従った時間間隔で信号を発信す
るリズム信号発信手段,または,楽曲入力者が入力中の
楽曲のリズムを合わせて入力できるようなリズム信号受
信手段を有することを特徴とする音楽検索装置。3. The music search device according to claim 1, wherein the music input means transmits a signal at a fixed time interval or at a time interval according to a predetermined rule, or A music search device comprising a rhythm signal receiving means for allowing a music input user to input a rhythm of a music being input.
載の音楽検索装置において,上記テンポ規格化手段は,
上記楽曲入力手段により入力された楽曲,上記音楽情報
変換手段により変換された音楽情報,上記リズム信号発
信手段により発信された信号,上記リズム信号受信手段
により受信された信号の少なくとも一つを用いてテンポ
を抽出するテンポ抽出手段を有し,抽出されたテンポを
用いてテンポ規格化を行うことを特徴とする音楽検索装
置。4. The music search device according to claim 1, wherein said tempo normalizing means comprises:
Using at least one of the music input by the music input means, the music information converted by the music information conversion means, the signal transmitted by the rhythm signal transmission means, and the signal received by the rhythm signal reception means. A music search device comprising tempo extraction means for extracting a tempo, and performing tempo normalization using the extracted tempo.
載の音楽検索装置において,上記楽曲検索手段は,テン
ポ規格化された検索キーの一部または全体をもとに,上
記楽曲蓄積手段に蓄積された,テンポ規格化された楽曲
の一部または全体を検索する際に,テンポ規格化された
検索キーの一部または全体と,テンポ規格化された検索
キーの一部または全体と同じ長さの,検索対象となるテ
ンポ規格化された楽曲の一部または全体との類似度を調
べることを特徴とする音楽検索装置。5. The music search device according to claim 1, wherein the music search means is based on a part or the whole of a search key standardized in tempo. When searching for part or all of the tempo-normalized music stored in the tempo, the same as part or all of the tempo-normalized search key and part or all of the tempo-normalized search key A music search device characterized by examining the degree of similarity with a part or the whole of a tempo standardized music to be searched.
載の音楽検索装置において,上記テンポ規格化された楽
曲もしくはテンポ規格化された音楽情報に対して,音楽
片への分割を行う音楽片生成手段を有することを特徴と
する音楽検索装置。6. The music retrieval device according to claim 1, wherein the music whose tempo is normalized or the music information whose tempo is normalized is divided into music pieces. A music search device comprising a piece generating means.
上記音楽片生成手段は,音楽片を生成する際にすべての
音楽片の長さを一定にすることを特徴とする音楽検索装
置。7. The music search device according to claim 6, wherein
The music piece generating device is characterized in that the music piece generation means makes the length of all music pieces constant when generating music pieces.
装置において,上記音楽片生成手段は,音楽片を生成す
る際に,同じ楽曲に対する音楽片は,一定の時間間隔で
音楽片が開始するように生成する,あるいは音楽片が音
符の始まりから開始する,または音の高さの変動もしく
は変動率がある一定の閾値を超えた点から開始するよう
に生成することを特徴とする音楽検索装置。8. The music search device according to claim 6, wherein the music piece generating means starts the music piece for the same music piece at a constant time interval when generating the music piece. Music search, wherein the music piece is generated from the beginning of a note, or from the point where the fluctuation or rate of the pitch exceeds a certain threshold. apparatus.
載の音楽検索装置において,上記楽曲蓄積手段に蓄積す
る前に音楽情報への変換を行う音楽情報変換手段を有す
ることを特徴とする音楽検索装置。9. The music search device according to claim 1, further comprising music information conversion means for converting the music information into music information before storing the music information in the music storage means. Music search device.
記載の音楽検索装置において,楽曲を蓄積する際に,検
索を高速化するためのインデクスを生成するインデクス
生成手段を有し,上記楽曲検索手段は,検索を行う際に
インデクスを用いることを特徴とする音楽検索装置。10. The music search apparatus according to claim 1, further comprising: an index generation unit configured to generate an index for speeding up a search when storing music. A music search device, wherein the search means uses an index when performing a search.
に記載の音楽検索装置において,上記楽曲検索手段は,
検索を行う際に,音楽片同士の検索を行い,その結果の
音楽片同士の関係から最終的な検索結果を導く音楽片検
索手段を有することを特徴とする音楽検索装置。11. The music search device according to claim 6, wherein said music search means comprises:
A music search device comprising: a music piece search unit that searches for music pieces when performing a search and derives a final search result from a relationship between the resulting music pieces.
て,上記楽曲検索手段は,検索キーの音楽片同士の関係
と,検索結果の音楽片同士の関係の整合性を調べた後,
最終的な検索結果を導く音楽片整合手段を有することを
特徴とする音楽検索装置。12. The music search device according to claim 11, wherein the music search means checks the consistency between the relationship between the music pieces of the search key and the relationship between the music pieces of the search result.
A music search device comprising music piece matching means for leading a final search result.
曲を入力する過程と,入力された楽曲のテンポを規格化
する過程と,少なくとも,テンポ規格化された楽曲を蓄
積する過程と,検索キーとして入力された楽曲の一部ま
たは全体から得られた,テンポ規格化された楽曲の一部
または全体をもとに,蓄積された楽曲の一部または全体
の中から類似した楽曲を検索する過程と,検索された楽
曲を出力する過程とを有することを特徴とする音楽検索
方法。13. A search method for searching for a song, a process of inputting a song, a process of normalizing the tempo of the input song, a process of storing at least the tempo-normalized song, and Searching for similar music from a part or the whole of the stored music based on a part or the whole of the tempo-normalized music obtained from a part or the whole of the input music; And outputting the searched music.
用いるプログラムを記録したプログラム記録媒体であっ
て,楽曲を入力する処理と,入力された楽曲のテンポを
規格化する処理と,検索キーとして入力された楽曲の一
部または全体から得られた,テンポ規格化された楽曲の
一部または全体をもとに,あらかじめテンポ規格化され
て蓄積された検索対象となる楽曲の一部または全体の中
から,類似した楽曲を検索する処理と,検索された楽曲
を出力する処理とを,計算機に実行させるプログラムを
記録したことを特徴とする音楽検索プログラムを記録し
た記録媒体。14. A program recording medium in which a program used for searching for a song by a computer is recorded, wherein the process of inputting the song, the process of normalizing the tempo of the input song, and the process of inputting as a search key are performed. Based on a part or the whole of the tempo-normalized music obtained from a part or the whole of the music that has been set, the tempo-normalized part of the whole or part of the music to be searched is stored. A recording medium on which a music search program is recorded, wherein a program for causing a computer to execute a process of searching for a similar song and a process of outputting the searched song is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000008458A JP3631650B2 (en) | 1999-03-26 | 2000-01-18 | Music search device, music search method, and computer-readable recording medium recording a music search program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8272299 | 1999-03-26 | ||
JP11-82722 | 1999-03-26 | ||
JP2000008458A JP3631650B2 (en) | 1999-03-26 | 2000-01-18 | Music search device, music search method, and computer-readable recording medium recording a music search program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000347659A true JP2000347659A (en) | 2000-12-15 |
JP3631650B2 JP3631650B2 (en) | 2005-03-23 |
Family
ID=26423740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000008458A Expired - Lifetime JP3631650B2 (en) | 1999-03-26 | 2000-01-18 | Music search device, music search method, and computer-readable recording medium recording a music search program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3631650B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002123287A (en) * | 2000-10-13 | 2002-04-26 | Nippon Telegr & Teleph Corp <Ntt> | Method and apparatus for generating music featured value, music information retrieval device, and recording medium for program for generating music featured value |
JP2002215632A (en) * | 2001-01-18 | 2002-08-02 | Nec Corp | Music retrieval system, music retrieval method and purchase method using portable terminal |
JP2003186497A (en) * | 2001-12-14 | 2003-07-04 | National Institute Of Advanced Industrial & Technology | Device and method for retrieving pattern and recording medium |
JP2003308067A (en) * | 2002-04-09 | 2003-10-31 | Internatl Business Mach Corp <Ibm> | Method of generating link between note of digital score and realization of the score |
JP2005274708A (en) * | 2004-03-23 | 2005-10-06 | Sony Corp | Signal processor and signal processing method, program, and recording medium |
JP2007172077A (en) * | 2005-12-19 | 2007-07-05 | Fuji Xerox Co Ltd | Image search system, method thereof, and program thereof |
JP2007519092A (en) * | 2003-12-08 | 2007-07-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Search melody database |
US7277852B2 (en) | 2000-10-23 | 2007-10-02 | Ntt Communications Corporation | Method, system and storage medium for commercial and musical composition recognition and storage |
JP2008170504A (en) * | 2007-01-09 | 2008-07-24 | Yamaha Corp | Tone processing apparatus and program |
JP2009162818A (en) * | 2007-12-28 | 2009-07-23 | Nintendo Co Ltd | Music displaying apparatus and music displaying program |
US8005300B2 (en) | 2005-07-21 | 2011-08-23 | Fuji Xerox Co., Ltd. | Image search system, image search method, and storage medium |
JP2021005470A (en) * | 2019-06-25 | 2021-01-14 | パナソニックIpマネジメント株式会社 | Lighting device and lighting fixture |
JP2021005472A (en) * | 2019-06-25 | 2021-01-14 | パナソニックIpマネジメント株式会社 | Lighting device and lighting fixture |
CN113420178A (en) * | 2021-07-14 | 2021-09-21 | 腾讯音乐娱乐科技(深圳)有限公司 | Data processing method and equipment |
JP2022515173A (en) * | 2019-05-24 | 2022-02-17 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Audio clip matching method and its equipment, computer programs and electronic devices |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06110945A (en) * | 1992-09-29 | 1994-04-22 | Fujitsu Ltd | Music data base preparing device and retrieving device for the same |
JPH0736478A (en) * | 1993-06-28 | 1995-02-07 | Nec Corp | Calculating device for similarity between note sequences |
JPH07287571A (en) * | 1994-04-20 | 1995-10-31 | Yamaha Corp | Sound signal conversion device |
JPH09138691A (en) * | 1995-11-15 | 1997-05-27 | Brother Ind Ltd | Musical piece retrieval device |
JPH09258729A (en) * | 1996-03-26 | 1997-10-03 | Yamaha Corp | Tune selecting device |
JPH10307580A (en) * | 1997-05-06 | 1998-11-17 | Nippon Telegr & Teleph Corp <Ntt> | Music searching method and device |
JPH11120198A (en) * | 1997-10-20 | 1999-04-30 | Sony Corp | Musical piece retrieval device |
JP2000155759A (en) * | 1998-11-19 | 2000-06-06 | Nippon Telegr & Teleph Corp <Ntt> | Retrieval device and storage device, and retrieving method and storing method for music information, and storage medium where programs thereof are recorded |
JP2000172693A (en) * | 1998-12-01 | 2000-06-23 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for retrieving music and recording medium with music retrieval program recorded therein |
-
2000
- 2000-01-18 JP JP2000008458A patent/JP3631650B2/en not_active Expired - Lifetime
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06110945A (en) * | 1992-09-29 | 1994-04-22 | Fujitsu Ltd | Music data base preparing device and retrieving device for the same |
JPH0736478A (en) * | 1993-06-28 | 1995-02-07 | Nec Corp | Calculating device for similarity between note sequences |
JPH07287571A (en) * | 1994-04-20 | 1995-10-31 | Yamaha Corp | Sound signal conversion device |
JPH09138691A (en) * | 1995-11-15 | 1997-05-27 | Brother Ind Ltd | Musical piece retrieval device |
JPH09258729A (en) * | 1996-03-26 | 1997-10-03 | Yamaha Corp | Tune selecting device |
JPH10307580A (en) * | 1997-05-06 | 1998-11-17 | Nippon Telegr & Teleph Corp <Ntt> | Music searching method and device |
JPH11120198A (en) * | 1997-10-20 | 1999-04-30 | Sony Corp | Musical piece retrieval device |
JP2000155759A (en) * | 1998-11-19 | 2000-06-06 | Nippon Telegr & Teleph Corp <Ntt> | Retrieval device and storage device, and retrieving method and storing method for music information, and storage medium where programs thereof are recorded |
JP2000172693A (en) * | 1998-12-01 | 2000-06-23 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for retrieving music and recording medium with music retrieval program recorded therein |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002123287A (en) * | 2000-10-13 | 2002-04-26 | Nippon Telegr & Teleph Corp <Ntt> | Method and apparatus for generating music featured value, music information retrieval device, and recording medium for program for generating music featured value |
US7277852B2 (en) | 2000-10-23 | 2007-10-02 | Ntt Communications Corporation | Method, system and storage medium for commercial and musical composition recognition and storage |
JP2002215632A (en) * | 2001-01-18 | 2002-08-02 | Nec Corp | Music retrieval system, music retrieval method and purchase method using portable terminal |
JP2003186497A (en) * | 2001-12-14 | 2003-07-04 | National Institute Of Advanced Industrial & Technology | Device and method for retrieving pattern and recording medium |
JP2003308067A (en) * | 2002-04-09 | 2003-10-31 | Internatl Business Mach Corp <Ibm> | Method of generating link between note of digital score and realization of the score |
JP2007519092A (en) * | 2003-12-08 | 2007-07-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Search melody database |
US7868240B2 (en) | 2004-03-23 | 2011-01-11 | Sony Corporation | Signal processing apparatus and signal processing method, program, and recording medium |
JP2005274708A (en) * | 2004-03-23 | 2005-10-06 | Sony Corp | Signal processor and signal processing method, program, and recording medium |
JP4650662B2 (en) * | 2004-03-23 | 2011-03-16 | ソニー株式会社 | Signal processing apparatus, signal processing method, program, and recording medium |
US8005300B2 (en) | 2005-07-21 | 2011-08-23 | Fuji Xerox Co., Ltd. | Image search system, image search method, and storage medium |
JP2007172077A (en) * | 2005-12-19 | 2007-07-05 | Fuji Xerox Co Ltd | Image search system, method thereof, and program thereof |
JP4548424B2 (en) * | 2007-01-09 | 2010-09-22 | ヤマハ株式会社 | Musical sound processing apparatus and program |
JP2008170504A (en) * | 2007-01-09 | 2008-07-24 | Yamaha Corp | Tone processing apparatus and program |
JP2009162818A (en) * | 2007-12-28 | 2009-07-23 | Nintendo Co Ltd | Music displaying apparatus and music displaying program |
JP2022515173A (en) * | 2019-05-24 | 2022-02-17 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Audio clip matching method and its equipment, computer programs and electronic devices |
JP7337169B2 (en) | 2019-05-24 | 2023-09-01 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | AUDIO CLIP MATCHING METHOD AND APPARATUS, COMPUTER PROGRAM AND ELECTRONIC DEVICE |
US11929090B2 (en) | 2019-05-24 | 2024-03-12 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for matching audio clips, computer-readable medium, and electronic device |
JP2021005470A (en) * | 2019-06-25 | 2021-01-14 | パナソニックIpマネジメント株式会社 | Lighting device and lighting fixture |
JP2021005472A (en) * | 2019-06-25 | 2021-01-14 | パナソニックIpマネジメント株式会社 | Lighting device and lighting fixture |
JP7394310B2 (en) | 2019-06-25 | 2023-12-08 | パナソニックIpマネジメント株式会社 | Lighting devices and fixtures |
JP7394312B2 (en) | 2019-06-25 | 2023-12-08 | パナソニックIpマネジメント株式会社 | Lighting devices and fixtures |
CN113420178A (en) * | 2021-07-14 | 2021-09-21 | 腾讯音乐娱乐科技(深圳)有限公司 | Data processing method and equipment |
Also Published As
Publication number | Publication date |
---|---|
JP3631650B2 (en) | 2005-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3467415B2 (en) | Music search device, music search method, and recording medium recording music search program | |
US7488886B2 (en) | Music information retrieval using a 3D search algorithm | |
EP1397756B1 (en) | Music database searching | |
US7064262B2 (en) | Method for converting a music signal into a note-based description and for referencing a music signal in a data bank | |
JP3631650B2 (en) | Music search device, music search method, and computer-readable recording medium recording a music search program | |
Chai et al. | Music thumbnailing via structural analysis | |
Casey et al. | The importance of sequences in musical similarity | |
JP2003519845A (en) | Music search engine | |
Rolland et al. | Musical content-based retrieval: an overview of the Melodiscov approach and system | |
Hu et al. | A probabilistic model of melodic similarity | |
JPH09293083A (en) | Music retrieval device and method | |
JPH1115468A (en) | Method, device, and system for music retrieval, and recording medium | |
CN101438342A (en) | Method and electronic device for aligning a song with its lyrics | |
JP2000356996A (en) | Music retrieval system | |
Ramires et al. | The freesound loop dataset and annotation tool | |
JPH09138691A (en) | Musical piece retrieval device | |
JP3597735B2 (en) | Music search device, music search method, and recording medium recording music search program | |
KR20060019096A (en) | Hummed-based audio source query/retrieval system and method | |
CN113689836A (en) | Method and terminal for converting audio frequency into musical notes and displaying same | |
JPH11272274A (en) | Method for retrieving piece of music by use of singing voice | |
KR20090083972A (en) | Method for building music database for music search, method and apparatus for searching music based on humming query | |
JP2003044082A (en) | Device and method for retrieving similar music, similar music retrieval program, and recording medium therefor | |
JP3612272B2 (en) | Music information search device, music information search method, and computer-readable recording medium storing music information search program | |
JPH0561917A (en) | Music data base retrieving method and melody matching system using melody information | |
Rho et al. | FMF (fast melody finder): A web-based music retrieval system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040224 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040629 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040813 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3631650 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071224 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081224 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091224 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101224 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101224 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111224 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111224 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121224 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121224 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131224 Year of fee payment: 9 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |