JP3433818B2 - Music search device - Google Patents

Music search device

Info

Publication number
JP3433818B2
JP3433818B2 JP09665193A JP9665193A JP3433818B2 JP 3433818 B2 JP3433818 B2 JP 3433818B2 JP 09665193 A JP09665193 A JP 09665193A JP 9665193 A JP9665193 A JP 9665193A JP 3433818 B2 JP3433818 B2 JP 3433818B2
Authority
JP
Japan
Prior art keywords
data
index
music
musical
song
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP09665193A
Other languages
Japanese (ja)
Other versions
JPH06290574A (en
Inventor
一郎 宍戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP09665193A priority Critical patent/JP3433818B2/en
Publication of JPH06290574A publication Critical patent/JPH06290574A/en
Application granted granted Critical
Publication of JP3433818B2 publication Critical patent/JP3433818B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音楽的な特徴や楽曲の
イメージを指定して条件に合う楽曲を選び出す装置に係
り、特に検索に必要なインデックス(索引)を自動的に
作成する楽曲検索装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for selecting music that meets conditions by designating music characteristics and music images, and in particular, music retrieval for automatically creating an index required for retrieval. It relates to the device.

【0002】[0002]

【従来の技術】従来より、カラオケ装置などにおいて、
楽曲の曲名・歌手名・歌詞などの情報を楽音情報に加え
て格納しておき、楽曲の検索を行う提案がなされてい
る。(例えば、特開昭 62-291776号公報,特開平3-2735
85号公報記載の装置) 。また、メロディを使った楽曲の
検索として、特開平 2-54300号公報記載の装置がある。
これは、ユーザが検索したい曲のメロディを歌うと、そ
の歌声を分析して音程と音長情報を取り出し、あらかじ
め格納された複数曲のメロディ情報との比較を行って、
入力メロディと似たメロディを持つ曲を出力するように
構成したものである。
2. Description of the Related Art Conventionally, in a karaoke machine or the like,
It has been proposed that information such as the song name, singer name, and lyrics of a song is stored in addition to the musical tone information and the song is searched. (For example, JP-A-62-291776 and JP-A-3-2735.
The device described in Japanese Patent Publication No. 85). Further, as a music retrieval using a melody, there is a device described in Japanese Patent Laid-Open No. 2-54300.
This is because when a user sings a melody of a song that he / she wants to retrieve, his / her singing voice is analyzed to extract pitch and length information, and comparison is made with the melody information of a plurality of songs stored in advance,
It is configured to output a song having a melody similar to the input melody.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、楽曲の
曲名・歌手名・歌詞などの書誌的項目を使った検索で
は、例えば「以前耳にした曲を捜したい」というよう
に、楽曲に関する正確な情報を持っていない場合に対応
しにくい。また、これら書誌的項目は、メロディ・ハー
モニー・リズムといった音楽的な特徴とは直接関係ない
ため、音楽的な特徴を使って検索したいというニーズに
も対応できない。これらに対応する方法として、曲のイ
メージや音楽的特徴をあらかじめ付加しておくことも考
えられるが、このような情報は人が判断して付加する必
要があり、曲数が多い場合など多大な労力が必要とな
る。
However, in a search using a bibliographic item such as the song title, singer name, and lyrics of a song, accurate information about the song, such as "I want to find a song I've heard before", can be obtained. It's difficult to deal with if you don't have one. In addition, these bibliographic items are not directly related to the musical characteristics such as melody, harmony, and rhythm, and therefore cannot meet the needs for searching using the musical characteristics. As a method of dealing with these, it is conceivable to add an image and musical characteristics of the song in advance, but it is necessary for a person to judge and add such information. Labor is required.

【0004】一方、前記した特開平 2-54300公報記載の
メロディによる検索装置では、書誌的項目が不明の場合
や、音楽的な特徴を直接指定したい場合にある程度有効
であるが、次のような問題点〜がある。一般にメ
ロディを伴奏なしで正確に歌うには、かなりの回数その
曲を聴く必要があり、記憶があやふやな曲、または全く
聞いたことのない曲を検索することが難しい。ボーカ
ルの入っていない器楽曲などの場合、人間が正確に歌え
ないような複雑なメロディを持つものが相当あり、検索
が困難である。メロディを正確に歌う必要があるため
精神的な緊張が伴い、人前で検索しにくいなど、検索を
行う場所が制約される。楽曲のメロディをディジタル
データとして格納しておく必要があるが、直接利用でき
る形で多数の楽曲のメロディデータを入手することは困
難で、ほとんどの場合、データベース作成時に人手を介
してデータを作成する必要があり、多大な労力が必要で
ある。
On the other hand, the melody search device described in Japanese Patent Laid-Open No. 2-54300 is effective to some extent when bibliographic items are unknown or when it is desired to directly specify musical characteristics. There is a problem. Generally, in order to sing accurately without accompaniment, it is necessary to listen to the song quite a number of times, and it is difficult to search for a song that is unremembered or never heard. In the case of instrumental music that does not contain vocals, there are many that have complicated melodies that humans cannot sing accurately, and it is difficult to search. Since it is necessary to sing the melody accurately, mental tension is involved, and it is difficult to search in public. It is necessary to store the melody of the music as digital data, but it is difficult to obtain the melody data of many music in a form that can be directly used. In most cases, the data is created manually when creating the database. It is necessary and requires a lot of labor.

【0005】そこで、本発明は、検索に必要なインデッ
クス(索引)を自動的に作成し、作成したインデックス
をもとに音楽的な特徴や曲のイメージを指定して条件に
合う楽曲を選び出す楽曲検索装置を提供するものであ
る。
In view of this, the present invention automatically creates an index (index) required for a search, and based on the created index, specifies musical characteristics and an image of the song and selects a song that meets the conditions. A search device is provided.

【0006】[0006]

【課題を解決するための手段】本発明は上記課題を解決
するために、下記の装置を提供するものである。 (1) 楽曲の曲名などの書誌的項目である1次的イン
デックスを格納する手段と、前記楽曲の楽音データか
ら、拍子分類データ、リズムパターン分類データ、及び
基準音に対して特定の音程差を持つ和音が出現する頻度
データのうち少なくとも1つを生成すると共に、前記楽
曲の楽音データから楽曲のテンポを表すデータを生成
し、この生成した各データを前記楽曲の音楽的特徴を示
す指標である2次的インデックスとする2次的インデッ
クス作成手段と、前記作成した2次的インデックスを格
納する手段と、検索すべき楽曲の条件を外部から入力す
る手段と、前記各インデックスと前記入力された条件を
比較する手段と、前記比較した結果に応じて検索した楽
音データを出力する手段と、を備えたことを特徴とする
楽曲検索装置。 (2) 楽曲の曲名などの書誌的項目である1次的イン
デックスを格納する手段と、前記楽曲の楽音データか
ら、拍子分類データ、リズムパターン分類データ、及び
基準音に対して特定の音程差を持つ和音が出現する頻度
データのうち少なくとも1つを生成すると共に、前記楽
曲の楽音データから楽曲のテンポを表すデータを生成
し、この生成した各データを前記楽曲の音楽的特徴を示
す指標である2次的インデックスとする2次的インデッ
クス作成手段と、前記2次的インデックスから所定の線
形結合式に基づいて前記楽曲の所定のイメージに対する
適合率を示す3次的インデックスを計算する3次的イン
デックス作成手段と、前記作成した2次及び3次的イン
デックスを格納する手段と、検索すべき楽曲の条件を外
部から入力する手段と、前記各インデックスと前記入力
された条件を比較する手段と、前記比較した結果に応じ
て検索した楽音データを出力する手段と、 を備えたこと
を特徴とする楽曲検索装置。
The present invention solves the above problems.
In order to do so, the following apparatus is provided. (1) Primary in which is a bibliographic item such as the song title
Means to store the dex and music data of the music
, Time signature classification data, rhythm pattern classification data, and
Frequency of occurrence of chords with a certain pitch difference from the reference tone
At least one of the data is generated and
Generates tempo of music from music data
The generated data is used to show the musical characteristics of the music.
Secondary index that is a secondary index that is an index
And the secondary index created above.
Enter the method of payment and the conditions of the music to be searched from the outside.
Means, each index and the input condition
The means for comparing and the ease of searching according to the result of the comparison.
Means for outputting sound data, and
Music search device. (2) Primary in which is a bibliographic item such as the song title
Means to store the dex and music data of the music
, Time signature classification data, rhythm pattern classification data, and
Frequency of occurrence of chords with a certain pitch difference from the reference tone
At least one of the data is generated and
Generates tempo of music from music data
The generated data is used to show the musical characteristics of the music.
Secondary index that is a secondary index that is an index
And a predetermined line from the secondary index
For a given image of the song based on the shape combination formula
A third-order in which calculates a third-order index showing precision
Dex creating means and the secondary and tertiary inputs created above
Exclude the method of storing the dex and the condition of the music to be searched.
Means for inputting from the section, each index and the input
Depending on the means for comparing the specified conditions and the result of the comparison
Further comprising a means for outputting a musical tone data search Te
Music retrieval device characterized by.

【0007】[0007]

【作用】CD(コンパクトディスク)など楽音データ
や、曲名などの書誌的項目である1次的インデックスが
予め装置内に格納される。これらの楽音データや1次的
インデックスをもとにして、リズム情報や和音情報など
の音楽的特徴(譜面に表現可能な客観的なデータ)を示
す2次的インデックスを抽出作成される。さらに、この
2次的インデックスをもとにして、楽曲のイメージやそ
の楽曲がふさわしい状況(主観的・感性的な特徴)を示
す3次的インデックスが作成される。1次的インデック
スや、自動的に作成された2次及び3次的インデックス
をもとにして、音楽的特徴や曲のイメージに基づく楽曲
の検索がなされる。
The musical tone data such as a CD (compact disc) and the primary index which is a bibliographic item such as a song title are stored in advance in the device. Based on these musical tone data and primary indexes, secondary indexes indicating musical characteristics (objective data that can be expressed on a musical score) such as rhythm information and chord information are extracted and created. Further, based on this secondary index, a tertiary index indicating the image of the music and the situation (subjective / sensitivity feature) in which the music is appropriate is created. Based on the primary index and the automatically created secondary and tertiary indexes, the music is searched based on the musical characteristics and the image of the music.

【0008】[0008]

【実施例】本発明になる楽曲検索装置の一実施例を以
下、図面と共にに説明する。図1は、楽曲検索装置のブ
ロック図である。 (楽曲検索装置の全体の構成)同図において、1a及び
1bは楽曲の楽音データと、曲名などの書誌的項目であ
る1次的インデックスとを格納する手段である。楽音デ
ータはデジタルまたはアナログ音響信号であり、1次的
インデックスと合わせてCD(コンパクトディスク),
テープ,ハードディスクその他の読み出し可能な記憶媒
体に格納されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a music retrieval apparatus according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a music search device. (Overall Configuration of Music Retrieval Device) In the figure, 1a and 1b are means for storing music tone data of music and a primary index which is a bibliographic item such as a music title. The musical sound data is a digital or analog audio signal, and a CD (compact disc), together with the primary index,
It is stored on tape, hard disk, or other readable storage medium.

【0009】2は前記した格納手段1aの楽音データか
ら、リズム情報や和音情報などの音楽的特徴(譜面に表
現可能な客観的なデータ)を示す2次的インデックスを
抽出作成する手段である。3は前記作成した2次的イン
デックスをもとに楽曲のイメージやその楽曲にふさわし
い状況(主観的・感性的な特徴)を示す3次的インデッ
クスを作成する手段である。これらのインデックス作成
手段2,3により、作成された2次及び3次的インデッ
クスは、格納手段4,5に格納記憶される。2次的イン
デックス及び3次的インデックスの格納手段4,5は、
ハードディスク,光磁気ディスクなど読み書き可能な記
憶媒体で構成されている。
Reference numeral 2 is a means for extracting and creating a secondary index indicating musical characteristics (objective data that can be expressed on a musical score) such as rhythm information and chord information from the musical sound data in the storage means 1a. Reference numeral 3 is a means for creating a tertiary index indicating an image of a music piece and a situation (subjective / sensitive characteristic) suitable for the music piece based on the created secondary index. The secondary and tertiary indexes created by these index creating means 2 and 3 are stored and stored in the storage means 4 and 5. The storage means 4 and 5 for the secondary index and the tertiary index are
It is composed of a readable / writable storage medium such as a hard disk or a magneto-optical disk.

【0010】また、6は希望する楽曲の条件を入力する
条件入力手段である。条件入力手段6は、キーボード、
マウスなどで構成されており、例えば図2に示すよう
に、1次,2次,3次的インデックスに対応したメニュ
ーの中から使用する項目を選択するようになっている。
入力された条件は、前記した格納手段1b,4,5に記
憶格納された各インデックスと、比較手段7で比較され
る。そして、比較した結果に応じて、条件に合致した楽
音データ(楽音データを再生した楽曲)や各インデック
スが、検索結果出力手段8からを出力されるように構成
されている。楽曲検索装置を構成するの各手段につい
て、詳述する。
Further, 6 is a condition input means for inputting a condition of a desired music piece. The condition input means 6 is a keyboard,
For example, as shown in FIG. 2, the mouse is used to select an item to be used from the menu corresponding to the primary, secondary, and tertiary indexes.
The inputted conditions are compared by the comparison means 7 with the respective indexes stored and stored in the storage means 1b, 4 and 5 described above. Then, according to the result of the comparison, the musical tone data (the musical piece for which the musical tone data is reproduced) and the respective indexes that match the conditions are output from the search result output means 8. Each means constituting the music search device will be described in detail.

【0011】(2次的インデックス作成手段2の構成)
図3は、本発明の主要部の1つである2次的インデック
ス作成手段2の具体的な構成である。楽音データの格納
手段1a(図1参照)に格納されている楽音データは、
アナログ信号である場合では、A/D変換器20にてデ
ジタルデータに変換された後、1曲分のデータが解析用
記憶装置21に格納される。そして、テンポ抽出手段
22によるテンポ,拍子の抽出、打楽器パターン検出
手段24によるリズムパターン抽出、特定和音検出手
段28による特定和音抽出がなされて、2次的インデッ
クスが作成される。
(Structure of Secondary Index Creating Means 2)
FIG. 3 shows a specific configuration of the secondary index creating means 2 which is one of the main parts of the present invention. The tone data stored in the tone data storage means 1a (see FIG. 1) is
In the case of an analog signal, after being converted into digital data by the A / D converter 20, the data for one song is stored in the analysis storage device 21. Then, the tempo and time signature are extracted by the tempo extraction unit 22, the rhythm pattern is extracted by the percussion instrument pattern detection unit 24, and the specific chord is extracted by the specific chord detection unit 28 to create a secondary index.

【0012】<テンポ抽出手段22によるテンポ,拍
子の抽出>テンポ抽出手段22では、楽曲のテンポ,拍
子,拍子情報が抽出され、2次的インデックスとして利
用される。楽曲のテンポ,拍子は以下のようにして、抽
出される。解析用記憶装置21に格納されたデータから
音響パワーデータを求め、音響パワーデータの微分値x
(n){n=1〜N}を求める。ただしx(n)がある一定値より小
さい場合はx(n)を0とする処理を行う。x(n)は周期性を
持ち、1拍に相当する時間差で相関が高くなる性質を持
つので、x(n)に対して (1)式の演算を行う。ここで、整
数 MをN1以上、N2以下の範囲で変化させた時に(ただし
N1,N2 は、(0<N1<N2<N) を満たす整数)、B(M)最大とな
る時の M(以下これをMmaxとする)を求める。さらに
(2)式より1拍の長さτを求める。通常テンポは1分間
の拍数で表わすので、 (3)式によりテンポTEを求める。
<Extraction of Tempo and Time Signature by Tempo Extraction Means 22> The tempo extraction means 22 extracts the tempo, time signature, and time signature information of the musical composition and uses it as a secondary index. The music tempo and time signature are extracted as follows. Acoustic power data is obtained from the data stored in the analysis storage device 21, and the differential value x of the acoustic power data is calculated.
(n) {n = 1 to N} is calculated. However, if x (n) is smaller than a certain value, processing for setting x (n) to 0 is performed. Since x (n) has a periodicity and has a property of increasing the correlation with a time difference corresponding to one beat, the calculation of the equation (1) is performed on x (n). Here, when the integer M is changed in the range of N1 or more and N2 or less (however,
N1 and N2 are (integers that satisfy 0 <N1 <N2 <N), and M when B (M) becomes maximum (hereinafter this is referred to as Mmax). further
From equation (2), find the length τ of one beat. Usually, the tempo is expressed by the number of beats per minute, so the tempo TE is calculated using equation (3).

【0013】[0013]

【数1】 [Equation 1]

【数2】 [Equation 2]

【数3】 [Equation 3]

【0014】さらに (1)式において MをMmaxの2倍及び
3倍とした時のB(M)を求め、2倍時のB(M)が3倍の時よ
りも大きければ4拍子系、その逆であれば3拍子系とす
る。なお、1曲全体の拍の位置を検出し後の特定和音検
出処理において利用する。x(n)に対して、Mmax±α( 例
えばαはMmaxの10%) の周期毎にピークをチェックし、
ピークが存在すればそれを拍の位置とし、存在しなけれ
ば、次のピークが見つかるまで同様の処理を繰り返し、
その間は等均間隔で拍があるとみなす。
Further, in the equation (1), B (M) is calculated when M is set to 2 times and 3 times Mmax, and if B (M) at the time of 2 times is larger than that at the time of 3 times, it is a 4-beat system, If it is the other way around, it will be set to 3 beats. The beat positions of the entire song are detected and used in the subsequent specific chord detection processing. For x (n), check the peak every cycle of Mmax ± α (α is 10% of Mmax),
If there is a peak, use it as the beat position. If it does not exist, repeat the same process until the next peak is found.
During that time, it is assumed that there are beats at equal intervals.

【0015】また、時間周波数テーブル作成手段23で
は、解析用記憶手段21に格納されたデータに対し、観
測窓を一定時間(例えば数msec)ずつずらしながら FFT
(離散的フーリエ変換)を行ってパワースペクトルを求
め、図4に示すような時間周波数テーブルを作成する。
以下、時間 t,周波数 fにおける時間周波数テーブルの
値をS(t,f)とあらわす。
Further, in the time-frequency table creating means 23, the FFT is performed while shifting the observation window by a constant time (for example, several msec) with respect to the data stored in the analyzing storage means 21.
(Discrete Fourier transform) is performed to obtain the power spectrum, and a time frequency table as shown in FIG. 4 is created.
Below, the value of the time-frequency table at time t and frequency f is expressed as S (t, f).

【0016】<打楽器パターン検出手段24によるリ
ズムパターン抽出>次に、打楽器パターン検出手段24
によるリズムパターン(ビート)抽出について説明す
る。リズムパターンは打楽器の演奏パターンによりおお
よそ分類できると考えられるので、打楽器演奏情報の抽
出を行う。また打楽器の演奏情報を抽出利用すること
は、他の楽器の演奏情報を抽出利用することに比べ実用
的であると言える。リズムパターンの分類は、例えば
「ドラムなし」,「8ビート」,「16ビート」である
が、これらに限定するものではない。
<Rhythm pattern extraction by percussion instrument pattern detecting means 24> Next, percussion instrument pattern detecting means 24
The rhythm pattern (beat) extraction by will be described. Rhythm patterns are considered to be roughly classified according to performance patterns of percussion instruments, so percussion instrument performance information is extracted. It can be said that extracting and using performance information of percussion instruments is more practical than extracting and using performance information of other musical instruments. The rhythm pattern is classified into, for example, “no drum”, “8 beats”, and “16 beats”, but is not limited to these.

【0017】打楽器スペクトルデータ格納手段25に
は、検出する打楽器の代表的なパワースペクトの時間変
化情報D(t,f)が図5に示すように、打楽器の種類毎に格
納されている。打楽器パターン検出手段24では、S(t,
f), D(t,f)に対し (4)式の演算を行い、時間T における
両者の距離H(T)がある一定の値より小さくなる時間を求
め、これを打楽器が演奏された時間とみなす。
In the percussion instrument spectrum data storage means 25, time variation information D (t, f) of a typical power spectrum of a percussion instrument to be detected is stored for each type of percussion instrument, as shown in FIG. In the percussion instrument pattern detection means 24, S (t,
f) and D (t, f) are calculated by Eq. (4) to find the time when the distance H (T) between them at time T becomes smaller than a certain value, and this is the time when the percussion instrument was played. To consider.

【0018】[0018]

【数4】 [Equation 4]

【0019】さらに図6に示すように、前記打楽器演奏
時間を1拍の長さの整数分の1の単位時間で規格化し音
符化する。例えば、通常の歌謡曲、ポピュラー音楽では
1拍の長さの12分の1程度を単位時間とすれば十分な時
間精度で演奏情報が得られる。 以上の処理を検出する
打楽器の数だけ行う。通常の歌謡曲、ポピュラー音楽で
は、数種類程度の打楽器を検出すれば十分である。
Further, as shown in FIG. 6, the percussion instrument playing time is standardized into a musical note by a unit time which is an integral fraction of the length of one beat. For example, in the case of ordinary song and popular music, performance information can be obtained with sufficient time accuracy if the unit time is about 1/12 of the length of one beat. The above processing is performed for each percussion instrument detected. For ordinary songs and popular music, it is sufficient to detect several kinds of percussion instruments.

【0020】各種リズムパターン格納手段26には、図
7に示すように、前記単位時間で表わした個々の打楽器
の演奏情報と総合的なリズムパターンとの関係が格納さ
れている。抽出された複数の打楽器の演奏情報を格納さ
れた演奏情報と比較し、最も近いリズムパターンをその
楽曲のリズムパターンと判定する。一例として、ハイハ
ットが8分音符を中心に構成されていてスネアが2、4
拍を中心に入っていれば、「8ビート」と判定する。ま
た打楽器が全くなければ、「ドラムなし」と判定する。
As shown in FIG. 7, the various rhythm pattern storage means 26 stores the relation between the performance information of each percussion instrument expressed in the unit time and the overall rhythm pattern. The extracted performance information of a plurality of percussion instruments is compared with the stored performance information, and the closest rhythm pattern is determined to be the rhythm pattern of the music. As an example, the hi-hat is mainly composed of eighth notes and the snare is 2, 4
If it is centered on the beat, it is determined to be "8 beats". If there is no percussion instrument, it is determined that there is no drum.

【0021】<特定和音検出手段28による特定和音
抽出>次に、音程検出手段27、特定和音検出手段28
による特定和音抽出について説明する。和音の中には、
楽曲の性格に大きく影響する特徴的なものがあると考え
られ、このような和音を検出するために、特定和音検出
手段28で、図8に示すような処理を行う。
<Specific Chord Extraction by Specific Chord Detection Unit 28> Next, pitch detection unit 27 and specific chord detection unit 28
The specific chord extraction by will be described. Some chords include
It is considered that there is a characteristic thing that greatly affects the character of the music, and in order to detect such a chord, the specific chord detection means 28 performs the processing shown in FIG.

【0022】最初に、音程検出手段27において、前記
時間周波数テーブルから一定時間以上ほぼ同じ周波数が
続く部分を有音程楽器(歌声も含む)が演奏されたとこ
ろとみなし、この部分の周波数を平均化処理した後、平
均律の音階に対応させる。時間軸は前記求めた拍の位置
に対応させる。この結果、図9に示すような音程マップ
が得られる。ところで、大部分の曲では複数の有音程楽
器が使われているが、今のところ複数の有音程楽器が混
合した音響信号から各々の楽器パートの演奏情報を分離
して検出する技術は実用的ではない。しかし和音の根音
を基準にして特定の度数を持つものを検出することは、
楽器パートの分離をしなくても可能であり、音楽的な特
徴も十分よく表わすため、実用的である。
First, in the pitch detecting means 27, it is considered that a musical interval musical instrument (including a singing voice) is played at a portion where substantially the same frequency continues for a certain time or longer from the time frequency table, and the frequencies of this portion are averaged. After processing, it corresponds to the scale of equal temperament. The time axis corresponds to the obtained beat position. As a result, a pitch map as shown in FIG. 9 is obtained. By the way, most musical pieces use multiple pitched musical instruments, but at the present time, the technique of separating and detecting the performance information of each musical instrument part from the acoustic signal in which multiple pitched musical instruments are mixed is practical. is not. However, to detect something with a certain frequency based on the root of a chord,
It is possible without separating the musical instrument parts, and the musical characteristics are well expressed, which is practical.

【0023】特定和音検出手段28では、4拍子系の場
合は4拍に1回、3拍子系の場合は3拍に1回の割合
で、前記音程マップの1拍の長さに相当する区間の最低
音を検査する。この区間で最低音の音程が変化していな
ければ、有効な区間とみなし以下の処理を行い、変化し
ていれば次の区間を検査する(図8のステップ28a,
28b,28c)。有効な区間であれば、最低音を根音
と見なし、その区間に含まれる音程全てについて最低音
との音程差(度数)を計算し、その度数があらかじめ格
納された度数データと比較し、一致していれば特定和音
とする(ステップ28d,28e,28f)。さらに、
1曲全体を通して特定和音の出現頻度を計算する(ステ
ップ28g)。
In the specific chord detecting means 28, once in 4 beats in the case of 4-beat system, once in 3 beats in the case of 3-beat system, a section corresponding to the length of 1 beat in the pitch map. Inspect the lowest note of. If the pitch of the lowest note has not changed in this section, it is regarded as a valid section and the following processing is performed. If it has changed, the next section is inspected (step 28a in FIG. 8,
28b, 28c). If it is a valid section, the lowest note is regarded as the root note, the pitch difference (frequency) from the lowest pitch is calculated for all the pitches included in that section, and the frequency is compared with prestored frequency data. If so, the chord is specified (steps 28d, 28e, 28f). further,
The appearance frequency of the specific chord is calculated throughout the entire song (step 28g).

【0024】特定和音の一例として、根音に対し9,1
1,13度の度数を持つ「テンションコード」があげられ
るが、検出する和音はこれらに限定しない。テンション
コードは、例えばジャズで多く使われるなど、曲のジャ
ンルや雰囲気に密接に関係すると考えられる。以上の処
理により求まった「テンポ」、「特定和音の頻度」は数
値として、「拍子」、「リズムパターン」は分類コード
の形で格納され、3次的インデックス作成手段3及び比
較手段7(図1参照)で利用される。
As an example of the specific chord, 9,1 for the root note
There are "tension chords" with a frequency of 1, 13 degrees, but the chords to be detected are not limited to these. The tension code is considered to be closely related to the genre and mood of the song, for example, it is often used in jazz. The "tempo" and "specific chord frequency" obtained by the above processing are stored as numerical values, and the "beat" and "rhythm pattern" are stored in the form of a classification code, and the tertiary index creating means 3 and the comparing means 7 (Fig. 1)).

【0025】(3次的インデックス作成手段3の構成)
次に、3次的インデックス作成手段3(図1参照)につ
いて説明する。2次的インデックスの情報は、「1分間
に4分音符 120のテンポ」、「8ビート」といった音楽
的な特徴(譜面に表現可能な客観的なデータ)を表わし
ており、もちろん利用者がこのような特徴を直接指定し
てもよい。しかしこの方法では若干の音楽的な知識が必
要となるので、場合によっては他の指定方法の方が望ま
しいことがある。楽曲のイメージや楽曲を聞くのに適し
た状況と前記作成した2次的インデックスの間にはある
種の相関があると考えられるので、これを利用して3次
的インデックスを作成する。まず3次的インデックスの
項目を決める。例えば、楽曲のイメージとして「明る
さ」や「モダンさ」、楽曲を聞く状況として「BGM 」や
「ドライブ」など、主観的・感性的な特徴が考えられ
る。
(Structure of tertiary index creating means 3)
Next, the tertiary index creating means 3 (see FIG. 1) will be described. The information of the secondary index represents musical characteristics such as "tempo of quarter note 120 per minute" and "8 beats" (objective data that can be expressed in musical score). Such characteristics may be directly specified. However, this method requires some musical knowledge, so other designation methods may be preferable in some cases. It is considered that there is a certain kind of correlation between the image of the song and the situation suitable for listening to the song and the secondary index created above, and this is used to create the tertiary index. First, decide the item of the tertiary index. For example, subjective and emotional characteristics such as "brightness" and "modernity" as the image of the music and "BGM" and "drive" as the situation of listening to the music can be considered.

【0026】次に各々の項目について、それらしさを表
わす適合率Gi{i=1〜K:K は3次的インデックスの数} と
2次的インデックスの各項目の値Ej{j=1〜L:L は2次的
インデックスの数} の関係を例えば (5)式で表わし、重
み係数Wijを求める。
Next, for each item, the precision ratio Gi {i = 1 to K: K is the number of tertiary indexes} and the value Ej {j = 1 to L of each item of the secondary index. : L represents the relationship of the number of secondary indexes} by, for example, equation (5), and obtains the weighting coefficient Wij.

【0027】[0027]

【数5】 [Equation 5]

【0028】ここでWijは、格納されている楽曲の中の
一部に対し人間がGiを与え、それらのEjとの関係を多変
量解析の手法により求める。Wijが求まったら (5)式に
より格納されている全ての楽曲についてGiを算出し、3
次的インデックス格納手段5(図1参照)に格納する。
ここでは線形の関係づけを行ったが、非線形の関係づけ
を行ってもよい。なお、2次的及び3次的インデックス
の作成は、楽音データ及び1次的インデックスの格納と
は独立して行うことができるので、データベース作成後
の検索項目の変更も比較的容易に行える。
In Wij, a human gives Gi to a part of the stored music, and the relationship with Ej is obtained by a multivariate analysis method. When Wij is calculated, Gi is calculated for all the music stored by the formula (5), and 3
It is stored in the secondary index storage means 5 (see FIG. 1).
Although a linear relationship is used here, a non-linear relationship may be used. Since the secondary and tertiary indexes can be created independently of the storage of the musical tone data and the primary index, it is relatively easy to change the search items after creating the database.

【0029】(1次,2次,3次的インデックスを利用
した楽曲検索)前述した図1に示すように、条件入力手
段6は、キーボード、マウスなどで構成されており、例
えば図2に示すように、1次的インデックスI1 ,2次
的インデックスI2 ,3次的インデックスI3 に対応し
た検索メニューMの中から使用する項目を選択するよう
になっている。複数の項目を使用してAND 、OR条件を指
定してもよい。テンポなどに関して、数字を直接入力せ
ずに「はやい」,「おそい」などの大まかな指定をして
もよい。この場合ファジー理論を使った処理をおこなっ
てもよい。
(Music Search Using Primary, Secondary, and Tertiary Indexes) As shown in FIG. 1, the condition input means 6 is composed of a keyboard, a mouse, etc., and is shown in FIG. 2, for example. As described above, the item to be used is selected from the search menu M corresponding to the primary index I 1 , the secondary index I 2 , and the tertiary index I 3 . AND and OR conditions may be specified using multiple items. With regard to the tempo and the like, rough designation such as “fast” or “slow” may be made without directly inputting the numbers. In this case, processing using fuzzy theory may be performed.

【0030】また既知の楽曲をキーとして入力すること
も可能であり、この場合はキーの楽曲の2次,3次イン
デックスを使って比較する。比較手段7は、入力された
条件と1次,2次,3次インデックスデータとの比較を
行う。1次インデックスに対する比較は通常の検索と同
様である。2次インデックスに対しては、それぞれの項
目の数値または分類コードが近いものを候補とする。ま
た3次インデックスに対しては、適合率Giの大きい曲を
候補とする。検索結果は、条件にあった1曲または複数
の楽曲の曲名をはじめ1次,2次,3次インデックス情
報がモニタ画面に表示されると同時に、スピーカを通し
て音声信号として、検索結果出力手段8から再生され
る。
It is also possible to input a known music piece as a key. In this case, the comparison is performed using the secondary and tertiary indexes of the music piece of the key. The comparison means 7 compares the input conditions with the primary, secondary, and tertiary index data. The comparison with the primary index is similar to a normal search. For the secondary index, the ones whose numerical values or classification codes of each item are close to each other are candidates. For the third-order index, a song with a high matching rate Gi is selected as a candidate. As the search result, the primary, secondary, and tertiary index information including the song names of one or a plurality of songs that meet the conditions are displayed on the monitor screen, and at the same time, as a sound signal through the speaker, the search result output means 8 Is played.

【0031】[0031]

【発明の効果】以上詳述したように、本発明になる楽曲
検索装置は以下〜のような特長を有する。音楽的
な特徴(2次的インデックス)や楽曲のイメージ(3次
的インデックス)を使って検索できるので、正確な情報
を持たない場合にも楽曲を検索することができ、利用範
囲が広がる。楽曲のイメージを使って検索する場合に
は、利用者にとっては、イメージを頼りに知らない曲に
も容易にアクセスできるので、従来に比べ実際に活用で
きる楽曲が増える。楽曲データから検索に使うインデ
ックスを自動的に抽出作成できるので、人間が判断して
付加する場合に比べ、データベース構築が大幅に省力化
される。さらに、データベース作成後の検索項目の変更
にも容易に対応できる。また、リズム情報や和音情報な
どの音楽的特徴(譜面に表現可能な客観的なデータ)を
示す2次的インデックスを抽出作成し、この2次的イン
デックスをもとにして、楽曲のイメージ(主観的・感性
的な特徴)を示す3次的インデックスを作成するように
した場合には、簡単に、実用性のあるインデックスが得
られる。メロディを直接条件として入力しないので、
どのような種類の曲にも使え、誰にでも利用でき、検索
場所も選ばずに行える。
As described above in detail, the music retrieval apparatus according to the present invention has the following features. Musical characteristics (secondary index) and music images (third order)
Since the index mechanisms) can search using allows you to find the music even if it does not have accurate information, spread the use range. When searching using the image of a song
Since users can easily access songs that they do not know by relying on the image, more songs can be actually used than before. Since the index used for searching can be automatically extracted and created from the music data , the construction of the database is greatly reduced compared to the case where the index is added by human judgment. Further, it is possible to easily deal with the change of the search item after the database is created. In addition, to create extract the secondary index indicating the musical features such as rhythm information and chord information (objective data that can be represented in music), and the secondary index to the original, the music images ( Create a third-order index that indicates subjective and emotional characteristics)
In that case , a practical index can be easily obtained. Because I don't directly input the melody,
It can be used for any kind of song, can be used by anyone, and can be done anywhere you search.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明になる楽曲検索装置の一実施例を示すブ
ロック図である。
FIG. 1 is a block diagram showing an embodiment of a music search device according to the present invention.

【図2】検索条件入力時のメニュー画面の一例である。FIG. 2 is an example of a menu screen when a search condition is input.

【図3】2次的インデックス作成手段のブロック図であ
る。
FIG. 3 is a block diagram of a secondary index creating means.

【図4】時間周波数テーブルの一例である。FIG. 4 is an example of a time frequency table.

【図5】打楽器のパワースペクトル時間変化情報の一例
である。
FIG. 5 is an example of power spectrum time change information of a percussion instrument.

【図6】打楽器の演奏情報抽出を説明する図である。FIG. 6 is a diagram illustrating extraction of performance information of a percussion instrument.

【図7】各種リズムパターンの一例である。FIG. 7 is an example of various rhythm patterns.

【図8】特定和音抽出のフローチャートである。FIG. 8 is a flowchart of specific chord extraction.

【図9】音程マップの一例である。FIG. 9 is an example of a pitch map.

【符号の説明】[Explanation of symbols]

1a,1b 1次的インデックスを格納する手段、 2 2次的インデックス抽出作成手段、 3 3次的インデックス作成手段、 4 2次的インデックス格納手段、 5 3次的インデックス格納手段、 6 (検索条件)入力手段、 7 比較手段、 8 検索結果出力手段、 22 テンポ抽出手段、 24 打楽器パターン検出手段、 28 特定和音検出手段 M 検索メニュー、 I1 1次的インデックス、 I2 2次的インデックス、 I3 3次的インデックス。1a, 1b means for storing a primary index, 2 secondary index extraction creating means, 3 tertiary index creating means, 4 secondary index storing means, 5 tertiary index storing means, 6 (search condition) input means 7 comparing means 8 search result output means, 22 tempo extraction unit, 24 percussion pattern detecting means, 28 a particular chord detection means M search menu, I 1 1-order index, I 2 2-order index, I 3 3 Secondary index.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G11B 27/10 G10K 15/04 302 G10H 1/38 G10H 1/40 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) G11B 27/10 G10K 15/04 302 G10H 1/38 G10H 1/40

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】楽曲の曲名などの書誌的項目である1次的
インデックスを格納する手段と、 前記楽曲の楽音データから、拍子分類データ、リズムパ
ターン分類データ、及び基準音に対して特定の音程差を
持つ和音が出現する頻度データのうち少なくとも1つを
生成すると共に、前記楽曲の楽音データから楽曲のテン
ポを表すデータを生成し、この生成した各データを前記
楽曲の音楽的特徴を示す指標である2次的インデックス
とする2次的インデックス作成手段と、 前記作成した2次的インデックスを格納する手段と、 検索すべき楽曲の条件を外部から入力する手段と、 前記各インデックスと前記入力された条件を比較する手
段と、 前記比較した結果に応じて検索した楽音データを出力す
る手段と、 を備えたことを特徴とする楽曲検索装置。
1. A primary item that is a bibliographic item such as a song title.
A means for storing an index and a beat classification data, a rhythm pattern
Turn classification data and a specific pitch difference with respect to the reference sound
At least one of the frequency data of the chords
Along with the generation of the music data,
Data representing the po is generated, and each generated data is
A secondary index that is an index that indicates the musical characteristics of a song
A secondary index creating means, a means for storing the created secondary index, a means for externally inputting a condition of a music piece to be searched, and a means for comparing each index with the input condition.
And the musical tone data searched according to the comparison result is output.
Music searching device comprising means that, further comprising: a.
【請求項2】楽曲の曲名などの書誌的項目である1次的
インデックスを格納する手段と、 前記楽曲の楽音データから、拍子分類データ、リズムパ
ターン分類データ、及び基準音に対して特定の音程差を
持つ和音が出現する頻度データのうち少なくとも1つを
生成すると共に、前記楽曲の楽音データから楽曲のテン
ポを表すデータを生成し、この生成した各データを前記
楽曲の音楽的特徴を示す指標である2次的インデックス
とする2次的インデックス作成手段と、 前記2次的インデックスから所定の線形結合式に基づい
て前記楽曲の所定のイメージに対する適合率を示す3次
的インデックスを計算する3次的インデックス作成手段
と、 前記作成した2次及び3次的インデックスを格納する手
段と、 検索すべき楽曲の条件を外部から入力する手段と、 前記各インデックスと前記入力された条件を比較する手
段と、 前記比較した結果に応じて検索した楽音データを出力す
る手段と、 を備えたことを特徴とする楽曲検索装置。
2. A primary item that is a bibliographic item such as a song title.
A means for storing an index and a beat classification data, a rhythm pattern
Turn classification data and a specific pitch difference with respect to the reference sound
At least one of the frequency data of the chords
Along with the generation of the music data,
Data representing the po is generated, and each generated data is
A secondary index that is an index that indicates the musical characteristics of a song
And secondary indexing means to, based from the secondary index to a predetermined linear combination formula
3rd order showing the matching rate of the music to the specified image
Means for creating a tertiary index for calculating a dynamic index
And a procedure for storing the created secondary and tertiary indexes.
Dan, means for inputting the condition of the music piece to be searched from the outside, and a means for comparing each index with the input condition.
And the musical tone data searched according to the comparison result is output.
Music searching device comprising means that, further comprising: a.
【請求項3】前記2次的インデックス作成手段は、 楽音データの時間周波数テーブルを作成する手段と、 楽曲のリズムパターンに密接に関係する種類の打楽器に
ついて代表的スペクトルデータを格納する手段と、 各リズムパターン毎に各打楽器の演奏タイミングを格納
する各種リズムパターン格納手段と、 前記時間周波数テーブルと前記打楽器の代表的スペクト
ルデータと前記各打楽器の演奏タイミングとを用いて楽
曲のリズムパターンを判定し、リズムパターン分類デー
タを得る打楽器パターン検出手段と、 を有することを特徴とする請求項1または請求項2に記
載の楽曲検索装置。
3. The secondary index creating means includes means for creating a time-frequency table of musical sound data and percussion instruments of a type closely related to a rhythm pattern of a musical piece.
About the means to store typical spectrum data, and the performance timing of each percussion instrument for each rhythm pattern
Various rhythm pattern storage means, the time-frequency table, and a representative spectrum of the percussion instrument
Music data and the performance timing of each of the above percussion instruments.
Determine the rhythm pattern of the song and
Serial to claim 1 or claim 2 characterized in that it has a percussion pattern detecting means for obtaining data, the
Music search device listed.
【請求項4】前記2次的インデックス作成手段は、 楽音データの時間周波数テーブルを作成する手段と、 前記時間周波数テーブルから一定時間以上一定範囲の周
波数成分が持続する部分を有意な音程として検出する音
程検出手段と、 前期音程検出手段の出力から基準音となる最低音を検出
し、基準音と特定の音程差をもつ音が存在する区間を特
定和音の存在区間とし、特定和音の出現頻度を計算し、
基準音に対して特定の音程差を持つ和音が出現する頻度
データを得る特定和音検出手段と、 を有することを特徴とする請求項1または請求項2に記
載の楽曲検索装置。
4. The secondary index creating means creates means for creating a time-frequency table of musical sound data, and a frequency range table for a predetermined time or more from the time-frequency table.
Sound that detects a portion where the wave number component lasts as a significant pitch
The lowest note that is the reference sound is detected from the output of the pitch detection means and the previous period pitch detection means.
However, the section in which there is a sound that has a specific pitch difference from the reference sound is specified.
Calculate the frequency of occurrence of specific chords, with the constant chords existing section,
Frequency of occurrence of chords with a certain pitch difference from the reference tone
3. A specific chord detecting means for obtaining data, and claim 2.
Music search device listed.
JP09665193A 1993-03-31 1993-03-31 Music search device Expired - Lifetime JP3433818B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09665193A JP3433818B2 (en) 1993-03-31 1993-03-31 Music search device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09665193A JP3433818B2 (en) 1993-03-31 1993-03-31 Music search device

Publications (2)

Publication Number Publication Date
JPH06290574A JPH06290574A (en) 1994-10-18
JP3433818B2 true JP3433818B2 (en) 2003-08-04

Family

ID=14170738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09665193A Expired - Lifetime JP3433818B2 (en) 1993-03-31 1993-03-31 Music search device

Country Status (1)

Country Link
JP (1) JP3433818B2 (en)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3499324B2 (en) * 1995-02-24 2004-02-23 パイオニア株式会社 Data search output device and karaoke device
JPH08249865A (en) * 1995-03-13 1996-09-27 Hitachi Inf Syst Ltd Music reproduction system
JPH09244690A (en) * 1996-03-07 1997-09-19 Fujitsu Ten Ltd Automatic listening sound selecting device
JP3434223B2 (en) * 1998-11-19 2003-08-04 日本電信電話株式会社 Music information search device, music information storage device, music information search method, music information storage method, and recording medium recording these programs
JP3467415B2 (en) * 1998-12-01 2003-11-17 日本電信電話株式会社 Music search device, music search method, and recording medium recording music search program
US6519564B1 (en) * 1999-07-01 2003-02-11 Koninklijke Philips Electronics N.V. Content-driven speech-or audio-browser
GB9918611D0 (en) * 1999-08-07 1999-10-13 Sibelius Software Ltd Music database searching
JP2001202082A (en) * 2000-01-17 2001-07-27 Matsushita Electric Ind Co Ltd Device and method for editing video signal
EP1143409B1 (en) * 2000-04-06 2008-12-17 Sony France S.A. Rhythm feature extractor
US7490107B2 (en) 2000-05-19 2009-02-10 Nippon Telegraph & Telephone Corporation Information search method and apparatus of time-series data using multi-dimensional time-series feature vector and program storage medium
JP2002183152A (en) * 2000-12-18 2002-06-28 Jinyama Shunichi Device and method for music retrieval and recording medium with recorded software for music retrieval
EP1241588A3 (en) 2001-01-23 2006-01-04 Matsushita Electric Industrial Co., Ltd. Audio information provision system
EP1244093B1 (en) 2001-03-22 2010-10-06 Panasonic Corporation Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus and methods and programs for implementing the same
US20030028796A1 (en) * 2001-07-31 2003-02-06 Gracenote, Inc. Multiple step identification of recordings
JP4622199B2 (en) * 2001-09-21 2011-02-02 日本ビクター株式会社 Music search apparatus and music search method
US6918090B2 (en) 2002-01-23 2005-07-12 International Business Machines Corporation Dynamic setting of navigation order in aggregated content
JP2004090724A (en) 2002-08-30 2004-03-25 Pioneer Electronic Corp Play back control system for moving body, its method, and its program and recording medium recording it
JP3697515B2 (en) * 2002-09-27 2005-09-21 独立行政法人情報通信研究機構 Music impression scale evaluation value automatic assigning device
JP4313563B2 (en) 2002-12-04 2009-08-12 パイオニア株式会社 Music searching apparatus and method
JP4199097B2 (en) * 2003-11-21 2008-12-17 パイオニア株式会社 Automatic music classification apparatus and method
JP2006252051A (en) * 2005-03-09 2006-09-21 Nagase & Co Ltd Musical sound information provision system and portable music reproduction device
WO2006107032A1 (en) * 2005-04-01 2006-10-12 Sony Corporation Information processing system, method, and program
JP2006313313A (en) 2005-04-06 2006-11-16 Sony Corp Reproducing device, setting switching method, and setting switching device
JP4496478B2 (en) * 2005-04-15 2010-07-07 ソニー株式会社 Information processing apparatus and method, and program
JP4940588B2 (en) * 2005-07-27 2012-05-30 ソニー株式会社 Beat extraction apparatus and method, music synchronization image display apparatus and method, tempo value detection apparatus and method, rhythm tracking apparatus and method, music synchronization display apparatus and method
JP4403415B2 (en) * 2005-09-20 2010-01-27 ソニー株式会社 Content reproduction method and content reproduction apparatus
JP4622808B2 (en) 2005-10-28 2011-02-02 日本ビクター株式会社 Music classification device, music classification method, music classification program
JP4622829B2 (en) 2005-11-29 2011-02-02 日本ビクター株式会社 Music search / playback device, music search / playback method, impression word setting program
JP4650270B2 (en) * 2006-01-06 2011-03-16 ソニー株式会社 Information processing apparatus and method, and program
JP2007193903A (en) * 2006-01-20 2007-08-02 Kenwood Corp Sound recording device, sound recording method, and program
JP4949687B2 (en) * 2006-01-25 2012-06-13 ソニー株式会社 Beat extraction apparatus and beat extraction method
JP4595827B2 (en) * 2006-02-14 2010-12-08 ヤマハ株式会社 Music playback device and data file production tool
JP4811046B2 (en) 2006-02-17 2011-11-09 ソニー株式会社 Content playback apparatus, audio playback device, and content playback method
JP4553864B2 (en) * 2006-05-09 2010-09-29 シャープ株式会社 Music analysis system, music analysis apparatus and computer program
JP4903791B2 (en) 2006-05-12 2012-03-28 パイオニア株式会社 Music search device, music search method, music search program, and recording medium storing music search program
JP4665836B2 (en) 2006-05-31 2011-04-06 日本ビクター株式会社 Music classification device, music classification method, and music classification program
JP4961300B2 (en) * 2006-08-14 2012-06-27 三洋電機株式会社 Music match determination device, music recording device, music match determination method, music recording method, music match determination program, and music recording program
JP4981630B2 (en) * 2007-01-05 2012-07-25 ヤフー株式会社 Kansei matching method, apparatus and computer program
JP4467601B2 (en) * 2007-05-08 2010-05-26 ソニー株式会社 Beat enhancement device, audio output device, electronic device, and beat output method
US20090187588A1 (en) * 2008-01-23 2009-07-23 Microsoft Corporation Distributed indexing of file content
EP2159720A1 (en) 2008-08-28 2010-03-03 Bach Technology AS Apparatus and method for generating a collection profile and for communicating based on the collection profile
JP4788810B2 (en) * 2009-08-17 2011-10-05 ソニー株式会社 Music identification apparatus and method, music identification distribution apparatus and method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62291776A (en) * 1986-06-12 1987-12-18 Clarion Co Ltd Recorded orchestral accompaniment play device
JP2689438B2 (en) * 1987-09-03 1997-12-10 ヤマハ株式会社 Musical sound visualization device
JP2624969B2 (en) * 1987-09-16 1997-06-25 マツダ株式会社 Image retrieval device
JPH0254300A (en) * 1988-08-19 1990-02-23 Nec Corp Automatic music selection device
JPH03273585A (en) * 1990-03-23 1991-12-04 Brother Ind Ltd Music retrieving device
JPH0430382A (en) * 1990-05-24 1992-02-03 Mazda Motor Corp Acoustic device for vehicle
JPH06202621A (en) * 1992-12-28 1994-07-22 Victor Co Of Japan Ltd Music retrieval device utilizing music performance information

Also Published As

Publication number Publication date
JPH06290574A (en) 1994-10-18

Similar Documents

Publication Publication Date Title
JP3433818B2 (en) Music search device
Bartsch et al. To catch a chorus: Using chroma-based representations for audio thumbnailing
EP1244093B1 (en) Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus and methods and programs for implementing the same
JP3964792B2 (en) Method and apparatus for converting a music signal into note reference notation, and method and apparatus for querying a music bank for a music signal
Dannenberg et al. A comparative evaluation of search techniques for query‐by‐humming using the MUSART testbed
CN106095925B (en) A kind of personalized song recommendations method based on vocal music feature
US20080300702A1 (en) Music similarity systems and methods using descriptors
McNab et al. Tune retrieval in the multimedia library
Marolt A mid-level representation for melody-based retrieval in audio collections
US20140238220A1 (en) Apparatus and method for detecting chord
EP1579419B1 (en) Audio signal analysing method and apparatus
US9053695B2 (en) Identifying musical elements with similar rhythms
Heydarian Automatic recognition of Persian musical modes in audio musical signals
Lerch Software-based extraction of objective parameters from music performances
JP2002055695A (en) Music search system
JPH06202621A (en) Music retrieval device utilizing music performance information
Pardo Finding structure in audio for music information retrieval
US20040158437A1 (en) Method and device for extracting a signal identifier, method and device for creating a database from signal identifiers and method and device for referencing a search time signal
Ali-MacLachlan Computational analysis of style in Irish traditional flute playing
Cremer A system for harmonic analysis of polyphonic music
JP2004531758A5 (en)
Lindenbaum et al. Musical features extraction for audio-based search
Rodríguez et al. Automatic transcription of Flamenco guitar falsetas
Kumar et al. Melody extraction from polyphonic music using deep neural network: A literature survey
Laia Musical Signals Digital Classification

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090530

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090530

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100530

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130530

Year of fee payment: 10