JPH10134549A - Music program searching-device - Google Patents

Music program searching-device

Info

Publication number
JPH10134549A
JPH10134549A JP8304000A JP30400096A JPH10134549A JP H10134549 A JPH10134549 A JP H10134549A JP 8304000 A JP8304000 A JP 8304000A JP 30400096 A JP30400096 A JP 30400096A JP H10134549 A JPH10134549 A JP H10134549A
Authority
JP
Japan
Prior art keywords
music
data
index information
stored
search device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8304000A
Other languages
Japanese (ja)
Inventor
Toru Yamamoto
徹 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Columbia Co Ltd
Original Assignee
Nippon Columbia Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Columbia Co Ltd filed Critical Nippon Columbia Co Ltd
Priority to JP8304000A priority Critical patent/JPH10134549A/en
Publication of JPH10134549A publication Critical patent/JPH10134549A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve a searching capacity by providing an input means for instructing the features of a music program and a control means for selecting and outputting index information stored in a storage means based on the instruction. SOLUTION: An extraction means 12 extracts index information from power spectrum data that are created by a conversion means 6 for converting a plurality of music program data into power spectrum data to store it in a storage means 8. Then, by referring to index information stored in the input means 12 for instructing the features of a desired music program and the above storage means 8, music program data stored in the storage means 8 are selected and outputted, thus detecting tempo data based on the power spectrum data extracted from the music program and extracting a musical instrument pattern and musical interval data based on the tempo data and hence searching for desired music program data according to, for example, the index information of a plurality of data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は複数の音声情報群か
ら所望の音声情報を検出するに好適な検索装置に係わ
り、特にCD等の楽曲検索等に適用して有効な楽曲検索
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a search device suitable for detecting desired audio information from a plurality of audio information groups, and more particularly to a music search device which is effective when applied to music search of a CD or the like.

【0002】[0002]

【従来の技術】従来からカラオケ装置では、歌本に基づ
いて、操作手段から指示した曲目や、歌手名に対応する
曲番を指示して、所定の曲目の選択を行なっていた。
2. Description of the Related Art Conventionally, in a karaoke apparatus, a predetermined song is selected by designating a song designated by operating means or a song number corresponding to a singer's name based on a songbook.

【0003】又、特開昭61−93712号公報では、
再生される音響信号波形の周期性の有無に応じて音質回
路定数を可変し、例えば、楽音信号と会話信号を認別し
て自動的に音質調整を行なう様に成した音質調整装置が
開示されている。
In Japanese Patent Application Laid-Open No. 61-93712,
There is disclosed a sound quality adjustment device which varies a sound quality circuit constant in accordance with the presence / absence of periodicity of a reproduced audio signal waveform and, for example, discriminates between a tone signal and a conversation signal and automatically adjusts the sound quality. .

【0004】更に、特開平4−30382号公報には、
複数の音楽ソース群の各々の周波数特性の所定時間毎の
相関度を演算する相関度演算手段と、音楽の曲調を選択
指示する曲調選択手段を設け、上記相関度演算手段で演
算された音楽ソースの相関度と、上記曲調選択指令手段
によって選択指示した、曲調とを対応づけて、上記音楽
ソースを選択する様に成した音響装置が開示されてい
る。
Further, JP-A-4-30382 discloses that
Correlation degree calculation means for calculating the degree of correlation of each frequency characteristic of each of a plurality of music source groups at predetermined time intervals, and tune selection means for selecting and instructing the tune of music, the music source calculated by the correlation degree calculation means A sound device is disclosed in which the music source is selected by associating the degree of correlation with the tune designated by the tune selection command means.

【0005】[0005]

【発明が解決しようとする課題】上述の従来構成で説明
した、歌本によって所望の曲目を選択するには少なくと
も歌手名か曲目を知らなくてはならず、特開昭61−9
3712号公報に開示されている様な音質調整装置では
曲目選択時に再生しようとする曲目毎に曲目の波形の周
期性をパラメータとして所定の曲目を検索することが考
えられるが、単に波形の周期性のみをパラメータとして
判断だけでは音楽と会話程度の判別しか出来ない問題が
あった。
In order to select a desired song from a songbook as described in the above-mentioned conventional configuration, it is necessary to know at least the name of the singer or the song.
In the sound quality adjusting device as disclosed in Japanese Patent No. 3712, it is conceivable to search for a predetermined music piece by using the periodicity of the waveform of the music piece as a parameter for each music piece to be reproduced when the music piece is selected. There was a problem that only the judgment of music and conversation could be made only by judgment using only the parameter as a parameter.

【0006】更に特開平4−30382号公報に開示さ
れている様に音楽ソース群の中の各音楽ソースの周波数
特性の所定時間毎の相関度を演算するとともに演算値を
曲調選択指令手段で選択指定された曲調に対応付けて所
望の曲調の他の曲調を選曲する様に成したものでは複数
のジャズとかクラシック等のジャンル(曲調)が解る程
度で、希望するイメージを選曲して再生させて聴く様な
車輌用音響装置でもよいが、更に多くのジャンルの曲調
を含むカラオケ装置から所定の曲調の曲目の特定曲番を
選曲するにはインデックス情報が不足する問題があっ
た。
Further, as disclosed in Japanese Patent Application Laid-Open No. Hei 4-30382, the correlation of the frequency characteristic of each music source in the music source group is calculated at predetermined time intervals, and the calculated value is selected by the tune selection command means. In the case of selecting a different tune other than the desired tune in association with the specified tune, the user can select and reproduce a desired image only to understand a plurality of genres (tunes) such as jazz and classical music. Although it is possible to use a vehicle acoustic device for listening, there is a problem that index information is insufficient to select a specific song number of a song having a predetermined song tone from a karaoke device including songs of more genres.

【0007】本発明は叙上の問題点を解消した楽曲検索
装置を提供しようとするもので、その第1の解決すべき
課題は複数の楽曲情報からパワースペクトルデータを抽
出し、このパワースペクトルデータから複数インデック
ス情報を抽出し、このインデックス情報に基づいて所望
の楽曲を検索する様に成されているので、希望する曲目
を音楽のイメージから選曲して、カラオケ装置で唱うこ
との出来る楽曲検索装置を得ることが出来る。
An object of the present invention is to provide a music retrieval apparatus which solves the above-mentioned problems. The first problem to be solved is to extract power spectrum data from a plurality of pieces of music information, , A plurality of index information is extracted from the song, and a desired song is searched based on the index information. Therefore, a desired song can be selected from the image of the music, and a karaoke device can be used to sing the song. Can be obtained.

【0008】本発明の第2の解決すべき課題はテンポ情
報、楽器パターン情報、音程情報等の複数のインデック
ス情報に基づいて、所望の楽曲データを検索可能な楽曲
検索装置を得るにある。
A second object of the present invention is to provide a music search apparatus capable of searching for desired music data based on a plurality of index information such as tempo information, musical instrument pattern information, and pitch information.

【0009】本発明の第3の解決すべき課題はインデッ
クス情報を記憶手段に格納して置くことで、このインデ
ックス情報を用いることで、新しい曲目のインデックス
作成時間を短縮可能な楽曲検索装置を得るにある。
A third problem to be solved by the present invention is to store a piece of index information in a storage means, and to obtain a song search device capable of shortening the index creation time of a new song by using this index information. It is in.

【0010】本発明の第4の解決すべき課題は記憶手段
に、既に格納されているインデックス情報の楽曲データ
の平均値信号レベルに合せる様に新たに検索する楽曲デ
ータの信号レベルを補正し、信号レベルのばらつきを補
正して、検索時の処理数を減少可能な楽曲検索装置を得
るにある。
A fourth object of the present invention is to correct the signal level of music data to be newly searched so as to match the average signal level of music data of index information already stored in the storage means, It is an object of the present invention to obtain a music search device capable of correcting the variation in signal level and reducing the number of processes at the time of search.

【0011】本発明の第5の解決すべき課題は、既に記
憶回路に格納したインデックスを検索するときに、音程
インデックス情報の音程を半音ずつ上げて繰り返して比
較検索するようにして、確実に所定の楽曲データを検出
することの出来る楽曲検索装置を得るにある。
A fifth problem to be solved by the present invention is that when searching for an index already stored in the storage circuit, the pitch of the pitch index information is increased by a semitone and repeatedly compared and searched, thereby ensuring a predetermined search. The purpose of the present invention is to obtain a music search device capable of detecting the music data of the above.

【0012】[0012]

【課題を解決するための手段】本発明の楽曲検索装置
は、その例が図1に示されている様に、複数の楽曲デー
タから楽曲の特徴を抽出して、所望の楽曲を検索する様
に成された楽曲検索装置1に於いて、楽曲データをパワ
ースペクトルデータに変換する変換手段6と、この変換
手段6で変換されたパワースペクトルデータを検出する
検出手段6,12と、この検出手段6,12で検出され
たパワースペクトルデータを記憶する記憶手段8と、こ
の記憶手段8に記憶されたパワースペクトルデータから
インデックス情報を抽出し、記憶手段8に格納する抽出
手段12と、所望の曲の特徴を指示可能な入力手段15
と、この入力手段15からの指示に基づき記憶手段8に
格納したインデックス情報を参照し、該記憶手段8に格
納した楽曲データを選択出力する制御手段12とを具備
したものである。
As shown in FIG. 1, the music retrieval apparatus of the present invention extracts music features from a plurality of music data and searches for a desired music. In the music search device 1 described above, a conversion means 6 for converting music data into power spectrum data, detection means 6 and 12 for detecting the power spectrum data converted by the conversion means 6, and a detection means A storage unit 8 for storing the power spectrum data detected in the storage units 8 and 12; an extraction unit 12 for extracting index information from the power spectrum data stored in the storage unit 8 and storing the index information in the storage unit 8; Input means 15 capable of designating the characteristics of
And a control unit 12 for referring to the index information stored in the storage unit 8 based on the instruction from the input unit 15 and selectively outputting the music data stored in the storage unit 8.

【0013】本発明の楽曲検索装置によれば楽曲から抽
出したパワースペクトルデータに基づいてテンポデータ
を検出し、テンポデータに基づいて楽器パターンや音程
データを抽出することで、これら複数の各データのイン
デックス情報等によって所望の楽曲データを検索するこ
とが出来るので、多くのジャンルの楽曲から所望の曲目
を確実に選曲可能なものが得られる。
According to the music search apparatus of the present invention, the tempo data is detected based on the power spectrum data extracted from the music, and the musical instrument pattern and the pitch data are extracted based on the tempo data. Since the desired music data can be searched by the index information or the like, it is possible to obtain a desired music piece from many genres of music without fail.

【0014】[0014]

【発明の実施の形態】以下、本発明の楽曲検索装置を図
面によって詳記する。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a music retrieval apparatus according to the present invention.

【0015】図1は本発明の楽曲検索装置1の全体的な
構成を示す系統図を示すものであり、入力端子T1 及び
2 にはアナログ系の楽曲信号及びデジタル系の楽曲デ
ータが入力される。
FIG. 1 is a system diagram showing the overall configuration of a music retrieval apparatus 1 according to the present invention. An analog music signal and digital music data are input to input terminals T 1 and T 2. Is done.

【0016】入力端子T1 に供給されたアナログ信号は
アナログ−デジタル変換回路(以下ADCと記す)2に
供給されデジタルデータに変換されて入力セレクタ3に
供給される。
The analog signal supplied to the input terminal T 1 is supplied to an analog-digital conversion circuit (hereinafter referred to as ADC) 2, converted into digital data, and supplied to an input selector 3.

【0017】同様に入力端子T2 に供給されたCD−R
OMプレーヤ等からのデジタルデータはCD−ROMデ
コーダ4等デコードされて入力セレクタ3に供給され
る。
Similarly, the CD-R supplied to the input terminal T 2
Digital data from an OM player or the like is decoded by a CD-ROM decoder 4 or the like and supplied to the input selector 3.

【0018】入力セレクタ3の出力端子は帯域通過濾波
器(以下PBFと記す)5に接続され、例えば、10H
z乃至20kHzの音声可聴帯域に制限されて、デジタ
ル、シグナル、プロセッサ(以下DSPと記す)6に供
給される。
The output terminal of the input selector 3 is connected to a band-pass filter (hereinafter, referred to as PBF) 5, for example, 10H
The signal is limited to the audio audible band of z to 20 kHz and supplied to a digital, signal, and processor (hereinafter referred to as DSP) 6.

【0019】DSP6は後述するオートパワースペクト
ル密度(パワースペクトル)等を高速に演算し、RAM
7とハードディスク(HD)8aの搭載されたハードデ
ィスク、ドライブ(HDD)8等と接続されるDSP6
はHD8a及びRAM7から成る第1及び第2の記憶手
段との間でデータの授受が行なわれる。
The DSP 6 calculates an auto power spectrum density (power spectrum) described later at a high speed, and
And a hard disk (HD) 8a, and a DSP 6 connected to a drive (HDD) 8 and the like.
Exchanges data with the first and second storage means comprising the HD 8a and the RAM 7.

【0020】DSP6はデジタル−アナログ変換回路
(以下DACと記す)9でデジタルデータをアナログ信
号に変換し、増幅回路10及び出力端子T3 を介してス
ピーカ11から入力端子T1 又はT2 に供給されるアナ
ログ或いはデジタル系の楽曲を放音する。
The DSP 6 converts digital data into an analog signal by a digital-analog conversion circuit (hereinafter, referred to as DAC) 9 and supplies the signal to the input terminal T 1 or T 2 from the speaker 11 via the amplifier circuit 10 and the output terminal T 3. The analog or digital music is played.

【0021】DSP6、HDD8、キー入力等の操作部
15、陰極線管(CRT)等の表示装置14はコンピュ
ータ(CPU)12等の制御手段間で破線で示す制御ラ
インを介して制御され、或は制御する様に成される。C
PU12とHDD8及びワーク用のRAM及びROM1
3からなる第3の記憶手段間にはバスを介してデータ授
受が行なわれる。
The DSP 6, the HDD 8, the operation unit 15 such as a key input, and the display device 14 such as a cathode ray tube (CRT) are controlled between control means such as a computer (CPU) 12 through a control line shown by a broken line. It is made to control. C
PU12, HDD8, RAM and ROM1 for work
Data is exchanged between the third storage means 3 via a bus.

【0022】本発明は上述の構成に於いて、入力端子T
1 又はT2 に入力されるCDプレーヤ等からの楽曲の検
索に必要なインデックス情報を楽曲を基に自動的に作成
いし、このインデックス情報を検索して、イメージ的に
入力装置(操作部)15から指示した複数の楽曲の曲目
(曲番)を確実に検索する様にした楽曲検索装置を得よ
うとするものである。
According to the present invention, the input terminal T
Automatically creates stone index information necessary for the search of music from a CD player or the like that is input based on the music 1 or T 2, by searching the index information, an image to an input device (operating section) 15 It is an object of the present invention to obtain a music search device that can surely search for a plurality of music pieces (song numbers) specified by the user.

【0023】本発明ではADC2でデジタル化された楽
曲データ或はCD−ROMデコーダ4でデコードされた
デジタルデータは入力セレクタ3でセレクトされBPF
5で帯域制限されて、DSP6に供給される。このDS
P6で楽曲データのパワースペクトルを抽出する。パワ
ースペクトルは時間的又は空間的に変動する例えば上述
の楽曲データ量の2乗平均を周波数成分の分布として表
したものである。
In the present invention, the music data digitized by the ADC 2 or the digital data decoded by the CD-ROM decoder 4 is selected by the input selector 3 and the BPF
5 and is supplied to the DSP 6. This DS
At P6, the power spectrum of the music data is extracted. The power spectrum represents, for example, the root mean square of the above-mentioned music data amount which fluctuates temporally or spatially as a distribution of frequency components.

【0024】即ち、BFF6で例えば10Hz乃至20
kHzに帯域制限された、楽音データ16は図2に示す
様に、複数の帯域制限用のBPF17a,17b〜17
nに供給されて、例えば10Hz乃至20kHzの帯域
を30分割し、BPF17a,17b〜17nで選択さ
れた周波数帯域別にサンプリング回路18a,18b〜
18nに供給して特定の時間軸(単位時間)毎にサンプ
リングする。
That is, for example, 10 Hz to 20
As shown in FIG. 2, the musical tone data 16 band-limited to kHz has a plurality of band-limiting BPFs 17a, 17b to 17b.
n, and divides a band of, for example, 10 Hz to 20 kHz into 30 and sampling circuits 18 a, 18 b to 18 b for each frequency band selected by the BPFs 17 a, 17 b to 17 n.
18n and sampled for each specific time axis (unit time).

【0025】サンプリング時の単位時間は図4に示す様
に例えばBPF17aで選択された所定帯域幅19内で
0.1〜0.5秒でサンプリングし、レベル(振幅)は
1/256〜1/4096の分解能に選択する。このレ
ベルをテーブルデータとして1〜nのテーブル20a,
20b〜20nとして例えば表1に示す様に作成するこ
とで楽曲データは周波数及び時間をパラメータとし、そ
のレベルを数値化したパワースペクトルデータを作表す
る。
As shown in FIG. 4, the unit time at the time of sampling is, for example, 0.1 to 0.5 seconds within a predetermined bandwidth 19 selected by the BPF 17a, and the level (amplitude) is 1/256 to 1 /. Select a resolution of 4096. Using this level as table data, the tables 20a of 1 to n,
For example, the music data is created as shown in Table 1 as 20b to 20n, and the frequency and time are used as parameters, and power spectrum data in which the levels are quantified is created.

【0026】[0026]

【表1】[Table 1]

【0027】上述のBPF17a,17b〜17nはD
SP6内で周波数分析され、高速演算処理し、サンプリ
ングを施した例を説明したが複数のBPF17a,17
b〜17nを図2の様にハードウェア的に構成させる様
にしてもよい。
The above BPFs 17a, 17b to 17n have D
An example in which frequency analysis is performed in SP6, high-speed operation processing is performed, and sampling is performed has been described.
b to 17n may be configured by hardware as shown in FIG.

【0028】表1に示す様なパワースペクトルのテーブ
ルデータはRAM7等からHDD8内のHD8aにCP
U12の制御に基づいて格納される。
The power spectrum table data as shown in Table 1 is transferred from the RAM 7 or the like to the HD 8a in the HDD 8 by the CP.
It is stored based on the control of U12.

【0029】上述の様に求められたパワースペクトルデ
ータは単位時間当りの平均エネルギーの分布を表し、楽
曲信号x(t)を−T≦tTの区間だけ取り出した信号
をxr(l)とするとこの時の信号(x)tのパワース
ペクトルφxx(ω)は1式で表される。
The power spectrum data obtained as described above represents the distribution of the average energy per unit time, and a signal obtained by extracting the music signal x (t) only in a section of −T ≦ tT is defined as xr (l). The power spectrum φ xx (ω) of the signal (x) t at the time is expressed by Equation 1.

【0030】[0030]

【数1】ここでxr(ω)はxr(t)のフェーリエ変
換、E・〔・〕は初期値、又、信号x(t)の自己相関
関数をφxx(2)とすれば
Where xr (ω) is the Fourier transform of xr (t), E · [•] is the initial value, and the autocorrelation function of signal x (t) is φ xx (2).

【数2】となる。## EQU2 ##

【0031】上述の様にHD8aに格納した楽曲データ
を周波数分析したパワースペクトルデータに基づいて、
図5に示す様なインデックス情報の抽出フローチャート
に沿って各種のパラメータとなる各種データを抽出す
る。
As described above, based on the power spectrum data obtained by frequency-analyzing the music data stored in the HD 8a,
Various data serving as various parameters are extracted according to an index information extraction flowchart as shown in FIG.

【0032】以下、この様な各種パラメータとなるイン
デックス情報を個々に抽出するための動作を説明する。
上述では可聴帯域周波数の10Hz〜20kHzをBP
F17a,17b〜17nによって30分割したが実際
には15帯域に分割し、サンプリングの単位時間を0.
1秒、レベル方向の分解能(量子化量)を256分割す
る程度で充分である。
The operation for individually extracting such index information serving as various parameters will be described below.
In the above description, the audible band frequency of 10 Hz to 20 kHz is BP
F17a, 17b to 17n divided into 30 bands, but actually divided into 15 bands, and the sampling unit time was set to 0.1.
It is enough to divide the resolution (quantization amount) in the level direction by 256 for 1 second.

【0033】先ず、図5に基づいて、各種パラメータの
検出方法の全体的構成を説明する。
First, an overall configuration of a method for detecting various parameters will be described with reference to FIG.

【0034】図5の第1ステップS1 では楽曲で16か
らCPU12の制御に基づくDSP6の演算或はハード
ウェア構成のBPF17a,17b〜17nに基づいて
表1に示した様なパワースペクトルデータが周波数分析
ささる。
The operation of the DSP6 based on the control from the first step S 1 16 in the music in the FIG. 5 CPU 12 or BPF17a hardware configuration, the power spectrum data, such as shown in Table 1 based on 17b~17n frequency Analyze.

【0035】一般に楽曲データ等のプログラム等の長時
間平均パワースペクトルは洋楽、軽音楽等で特有の周波
数特性を示す。従って、曲毎に特有のパワースペクトル
を有するものと考えてよい。
In general, a long-term average power spectrum of a program such as music data shows a specific frequency characteristic in Western music, light music and the like. Therefore, each music piece may be considered to have a unique power spectrum.

【0036】この様なDSPで分析したパワースペクト
ルデータはHDD8内のHD8a内に格納される。
The power spectrum data analyzed by such a DSP is stored in the HD 8a of the HDD 8.

【0037】このHD8aに格納したパワースペクトル
データを表1のテーブル20a〜20nから呼び出し、
第2ステップS2 ではテーブル20a〜20nに格納し
たパワースペクトルデータを基にテンポを検出する。
The power spectrum data stored in the HD 8a is called from the tables 20a to 20n of Table 1, and
Detecting the tempo based on the power spectrum data stored in the second step S 2 in the table 20 a to 20 n.

【0038】即ち、後述するもパワースペクトルより、
特定BPF(楽器特有の周波数)に対して特定レベル以
上の時間をサンプリングして複数の楽器のテンポを検出
する。楽器の特定方法はパワースペクトルの最大レベル
値を示したBPFを中心にサンプリングして予め格納さ
れたテンポパターンと比較し、テンポ及び拍子をインデ
ックスとしてHD8aに格納する(第7ステップS7
び第12ステップS12)。
That is, from the power spectrum, which will be described later,
The tempo of a plurality of musical instruments is detected by sampling a time equal to or more than a specific level with respect to a specific BPF (frequency unique to an instrument). How to identify instruments compared to pre-stored tempo patterns are sampled around the BPF with the maximum level value of the power spectrum, are stored in HD8a tempo and time signature as an index (seventh step S 7 and 12 step S 12).

【0039】次の第3ステップS3 では特定楽器に対す
るBPFに対応したデータから楽器パターンを抽出す
る。これは予めHD8aに格納されている楽器パターン
データと第2ステップS2 で得られたテンポデータを比
較することで楽器インデックスとしてHD8aに格納す
る(第8ステップS8 及び第13ステップS13)。
The extracts a musical instrument pattern from the data corresponding to the BPF for the next third step S specific instrument in 3. This stored as instrument index HD8a by comparing the tempo data obtained by instruments pattern data and the second step S 2 that is stored in advance in HD8a (eighth step S 8 and 13 step S 13).

【0040】第4ステップS4 では音程抽出が行なわれ
る。音程の抽出は第2ステップS2で得た、テンポ抽出
データと第3ステップS3 で得た、楽器パターンデータ
を基に後述するグラフを作成し、拍子時間に対応したB
PFが密な帯域を音程として抽出し、予め格納されてい
る音程パターンと比較して音程インデックスとしてHD
8aに格納する(第9ステップS9 及び第14ステップ
14)。
The fourth step S 4 the pitch extraction is performed. Pitch extraction were obtained in the second step S 2, it was obtained in the tempo extraction data and the third step S 3, create a chart to be described later based on instrument pattern data, corresponding to beat time B
The PF extracts a dense band as a pitch, compares it with a pre-stored pitch pattern, and uses the HD as a pitch index.
Stored in the 8a (ninth step S 9 and 14 step S 14).

【0041】第5ステップS5 では和音抽出が行なわれ
る。この和音は拍子時間に対応するデータを抽出するこ
とで和音抽出し、予め格納されている和音パターンと比
較され、D8aに和音インデックスとして格納される
(第10ステップS10及び第15ステップS15)更に第
6ステップS6 ではテンポに対応した和音のBPFの有
無をみて無ければ、予め格納されているリズムパターン
と比較してHD8aにリズムインデックスを格納する
(第11ステップS11及び第16ステップS16)。
[0041] The fifth step S 5 the chords extraction is performed. The chord is the chord extracted by extracting data corresponding to the meter time is compared with the chord patterns stored in advance, are stored as chord index D8a (10th step S 10 and the fifteenth step S 15) without seeing the further presence of the BPF chords corresponding to the tempo at the sixth step S 6, and stores the rhythm index HD8a compared with rhythm pattern stored in advance (11 steps S 11 and 16 step S 16 ).

【0042】上述の5種類のインデックスは楽曲毎にグ
ループ化することで楽曲固有のインデックスと成り、グ
ループ毎に番号を割当ることにより楽曲検索を可能とす
る。
The above-mentioned five types of indexes are grouped for each song to become a song-specific index, and a song search is enabled by assigning a number to each group.

【0043】上述の各種インデックスのCPU12によ
る抽出方法を図6乃至図11によって詳記する。
The method of extracting the above-mentioned various indexes by the CPU 12 will be described in detail with reference to FIGS.

【0044】図6は楽曲のパワーステップからテンポイ
ンデックスを検出するためのフローチャートを示すもの
である。
FIG. 6 shows a flowchart for detecting a tempo index from a power step of a music piece.

【0045】図6の第1ステップS2aでは前記した、H
D8aに格納したテーブル20a〜20n中のパワース
ペクトル(時間軸(周波数)をパラメータとしたデータ
をレベルとして作表した表1)のテーブルデータのサン
プリング時刻t1 に於いて最大値を示すBPFを捜す。
即ち、最初サンプリング時刻t1 (図4参照)の中で最
大値を示すBPFはどれかをCPU12が判断する。
In the first step S 2a of FIG.
Looking for BPF indicating a maximum value at the sampling time t 1 of the table data of the power spectrum in the table 20a~20n stored in D8a (time axis (Table 1 were tabulated data in which the frequency) as a parameter as a level) .
That is, the CPU 12 determines which BPF has the maximum value at the first sampling time t 1 (see FIG. 4).

【0046】次の第2ステップS2bではサンプリング時
刻tn (図4参照)まで同種の処理を繰り返すことでn
個のBPFが選択される。
In the next second step S 2b , the same kind of processing is repeated until the sampling time t n (see FIG. 4), whereby n
BPFs are selected.

【0047】次の第3ステップS2cでは選択されたn個
のBPF値の中での最大値を抽出することで中心周波数
を抽出する。
In the next third step S 2c , the center frequency is extracted by extracting the maximum value among the selected n BPF values.

【0048】第4ステップS2dではBPFのグループ化
を行なう。即ち、最大値を持つBPFをグループ化し
て、特定のBPFを選択する。
In the fourth step S 2d , BPFs are grouped. That is, the BPF having the maximum value is grouped and a specific BPF is selected.

【0049】第5ステップS2eでは特定した上位3個程
度のBPFを特定する。
In the fifth step S 2 e , the upper three BPFs are specified.

【0050】第6ステップS2fでは特定されたBPFに
対し、特定レベル以上の時間を抽出する。即ち、図8に
示す様に複数のBPF1 ,BPF2 ‥‥毎にサンプリン
グ時間が各々に抽出される。この場合の特定レベルは閾
値で、この閾値の初期値は最大値×0.9の値とされ
る。
In the sixth step S 2f , a time equal to or longer than a specified level is extracted from the specified BPF. That is, as shown in FIG. 8, the sampling time is extracted for each of a plurality of BPF 1 , BPF 2 . In this case, the specific level is a threshold value, and the initial value of the threshold value is the maximum value × 0.9.

【0051】第7ステップS2gではサンプリング時間に
規則性が有るか否かを判断する。NOであれば第8ステ
ップS2hで特定レベルを10%ダウンした後に第6ステ
ップS2fの頭に戻す。
In the seventh step S2g , it is determined whether or not the sampling time has regularity. If NO is returned to the head of the sixth step S 2f certain level after 10% down in the eighth step S 2h.

【0052】第7ステップS2gでYESの場合は第9ス
テップS2iに進められ、規則性のある時間間隔を算出す
る。
If YES in the seventh step S 2g , the process proceeds to a ninth step S 2i to calculate a regular time interval.

【0053】第10ステップS2jでは第9ステップS2i
で算出した規則性のある時間間隔の算出値をテンポデー
タとしてHDD8のHD8aに格納してエンドに至る。
In the tenth step S 2j , the ninth step S 2i
Is stored in the HD 8a of the HDD 8 as tempo data, and the process reaches the end.

【0054】この様にして得られたテンポデータに基づ
いて図5に示す様に楽器パターンを抽出して楽器インデ
ックスを作成する。このフローチャートを図7に示す。
Based on the tempo data obtained in this manner, a musical instrument pattern is extracted as shown in FIG. 5 to create a musical instrument index. This flowchart is shown in FIG.

【0055】図7に於いて、第1ステップS3aではテン
ポインデックスからt1 〜tn の特定時間を特定する。
例えばt1 ,t3 ,t5 の様にテンポデータから特定時
間が設定出来る。
[0055] In FIG 7, identifies a particular time t 1 ~t n from Tempo index In the first step S 3a.
For example, t 1, t 3, t can be set a specific time from the tempo data as of 5.

【0056】第2ステップS3bでは特定レベルを設定す
る。この特定レベル初期値は最大値0.5とされる。
In the second step S 3b , a specific level is set. This specific level initial value is set to the maximum value 0.5.

【0057】第3ステップS3cではサンプリング時刻t
1 〜tn で特定レベル以上のBPFを選択する。
In the third step S 3c , the sampling time t
Selecting a more specific level of the BPF at 1 ~t n.

【0058】第4ステップS3dでは蓄積データのBPF
との比較が行なわれ、一致していれば第5ステップS3e
に進み楽器を特定し、楽器インデックスをHDD8のH
D8aに格納する。この場合蓄積データはシステムの大
小によって異なることになる。
In the fourth step S3d , the BPF of the stored data is
Is performed, and if they match, the fifth step S 3e
To specify the instrument, and set the instrument index to H in HDD8.
D8a. In this case, the stored data differs depending on the size of the system.

【0059】第4ステップS3dが不一致の場合は、第6
ステップS3fに進めて特定レベルを変更して、レベルア
ップさせる。
If the fourth step S3d does not match, the sixth
Proceeding to step S3f , the specific level is changed and the level is raised.

【0060】第7ステップS3gではレベルが最大か否か
を判断し、YESならエンドに、NOなら第4ステップ
3dの頭に戻されることに成る。
In the seventh step S3g , it is determined whether or not the level is the maximum. If YES, the process returns to the end, and if NO, the process returns to the head of the fourth step S3d .

【0061】次に図5で説明した様にテンポインデック
スと楽器パターンインデックスとを用いて図10に示す
グラフを作表して音程抽出を行なう。この音程抽出のフ
ローチャートを図9により説明する。
Next, as shown in FIG. 5, pitches are extracted by creating a graph shown in FIG. 10 using the tempo index and the musical instrument pattern index. A flowchart of this pitch extraction will be described with reference to FIG.

【0062】図9の第1ステップS4aではテンポインデ
ックスをHD8aからCPU12のRAM/ROM13
にロードする。
In the first step S4a of FIG. 9, the tempo index is transferred from the HD 8a to the RAM / ROM 13 of the CPU 12.
To load.

【0063】第2ステップS4bでは楽器インデックスを
同じくHD8aからCPU12のRAM/ROM13に
ロードする。
In the second step S 4 b , the musical instrument index is loaded from the HD 8 a into the RAM / ROM 13 of the CPU 12.

【0064】第3ステップS4cではRAM/ROM13
上に図10で示すグラフを作表する。図10のグラフで
縦軸は楽器パターンに対応する各BPF1 〜BPFn
横軸はテンポ抽出データ{拍子(時間)}である。
In the third step S4c , the RAM / ROM 13
The graph shown in FIG. 10 is tabulated above. In the graph of FIG. 10, the vertical axis represents each BPF 1 to BPF n corresponding to the musical instrument pattern,
The horizontal axis is the tempo extraction data {beat (time)}.

【0065】第4ステップS4dでは図10のグラフから
テンポデータに対しBPFが密な帯域を選択してそのB
PFの帯域を音程とし、第5ステップS4eに進めて音程
インデックスとしてHDD8のHDに音程インデックス
として格納する。
In the fourth step S 4d , a band with a high BPF for the tempo data is selected from the graph of FIG.
The band of the PF is set as a pitch, and the process proceeds to a fifth step S4e to store the pitch index in the HD of the HDD 8 as a pitch index.

【0066】次に和音インデックスを抽出するために第
4ステップS4dから第6ステップS5aの作業を行なう。
第6ステップS5aでは和音に対応するBPFと図10の
グラフを比較し、特定のBPFに対して、図10のグラ
フの横軸の拍子時間に対応するデータを抽出する。
Next, the operations from the fourth step S 4d to the sixth step S 5a are performed to extract a chord index.
In the sixth step S5a , the BPF corresponding to the chord is compared with the graph of FIG. 10, and for a specific BPF, data corresponding to the beat time on the horizontal axis of the graph of FIG. 10 is extracted.

【0067】即ち、第7ステップS5bでテンポに対する
和音のBPFがあるか否かを判断し、“YES”であれ
ば第8ステップS5cに進めて和音インデックスとしてH
DD8のHD8aに格納する。
[0067] That is, the seventh step S determines whether there is BPF chord for tempo 5b, "YES" is long if H 8 proceed to step S 5c as chord index
It is stored in the HD 8a of the DD 8.

【0068】第7ステップS5bが“NO”であれば第9
ステップS6aに進みリズムパターンと比較して、一致し
ていればリズムインデックスとしてHDD8のHD8a
に格納し、不一致であればエンドに至る。
If the seventh step S 5 b is “NO”, the ninth step S 5 b
Compared to the rhythm pattern proceeds to step S 6a, HD8a matched HDD8 as Rhythm Index if
And if they do not match, it reaches the end.

【0069】上述の様に図5の第1乃至第5ステップS
2 〜S6 で検出されたテンポ、楽器パターン、音程、和
音、リズムはHDD8のHD8aに予め格納されている
パターンと第6乃至第10ステップS7 〜S10の様に比
較され、第11乃至第15ステップS12〜S16の様にH
DD8のHD8aに格納される。
As described above, the first to fifth steps S in FIG.
The detected tempo 2 to S 6, instrument pattern, pitch, chord, rhythm is compared as a HD8a prestored in which patterns and sixth to tenth step S 7 to S 10 in the HDD 8, or 11 the 15 H as step S 12 to S 16
It is stored in the HD 8a of the DD 8.

【0070】各インデックスには下表2に示す様にラベ
ル(ファイル名)が付加されてHD8内に格納される。
A label (file name) is added to each index as shown in Table 2 below and stored in the HD 8.

【0071】[0071]

【表2】[Table 2]

【0072】図11は予めHDD8のHD8aに格納さ
れている各種インデックスと比較してHD8aに格納す
る時のフローチャートを示す。
FIG. 11 is a flowchart showing a process in which various indexes stored in the HD 8a of the HDD 8 are compared with those stored in the HD 8a in advance.

【0073】図11で第1ステップST1 ではテンポ、
楽器パターン、音程、和音、リズム等の楽音からの抽出
インデックスとHDD8のHD8aに予め格納されてい
る各種のテンポ、楽器パターン、音程、和音、リズムに
対応するインデックスとが比較される。この場合、先の
すべてのラベルについて、ラベルA,ラベルB‥‥ラベ
ルnの順に比較して行くが単純に比較すれば当然一致す
ることはあり得ないので下記に示す各処理を施した後に
パターン比較(特徴比較)を行なう様にする。
[0073] The first step ST 1 tempo 11,
An index extracted from musical tones such as musical instrument patterns, pitches, chords, rhythms, and the like is compared with indexes corresponding to various tempos, musical instrument patterns, pitches, chords, and rhythms stored in the HD 8a of the HDD 8 in advance. In this case, the label A, the label B, and the label n are compared in this order for all the labels, but if they are simply compared, they cannot be naturally matched. Compare (feature comparison).

【0074】(1)比較対象の音楽ソースと蓄積データ
を得た時の信号レベルが異なっている事を前提に、比較
ソースの信号レベルデータの平均値と蓄積データの平均
値を合せる様に比較ソースのレベルを演算し、補正後比
較処理に入る。 (2)蓄積データの信号レベルのバラツキは、あらかじ
めシステムとして想定された平均レベルに演算され格納
される。想定平均レベルとしては例えば図12で示す様
に、歌謡曲の10試料程度の実線21で示す様な平均値
をとる。 (3)同じ音楽ソースを男性が歌った場合と女性が歌っ
た場合では主たるBPF帯域が異なる為、比較処理で不
一致となった場合、音声フォルマントを変更し、再度比
較処理を行ない、それでも不一致の場合は新曲として登
録する。 (4)音程インデックスの比較においては、不一致の場
合、半音階の上げ下げをデータ上で実施し、再比較を行
ない精度上げる。
(1) Assuming that the music source to be compared and the signal level at the time of obtaining the stored data are different, the comparison is performed so that the average value of the signal level data of the comparison source and the average value of the stored data are matched. The level of the source is calculated, and the correction processing is started. (2) The variation in the signal level of the stored data is calculated and stored in advance at an average level assumed for the system. As the assumed average level, for example, as shown in FIG. 12, an average value as shown by a solid line 21 of about 10 samples of a song is taken. (3) Since the main BPF band differs between a case where a man sings and a case where a woman sings the same music source, if there is a mismatch in the comparison process, the voice formant is changed and the comparison process is performed again. If it is, register it as a new song. (4) In the pitch index comparison, if they do not match, the chromatic scale is raised or lowered on the data, and the comparison is performed again to increase the accuracy.

【0075】この様な比較処理の後に第2ステップST
2 の様にCPU12は、当該ソースが有るかを判断し、
“YES”であれば第3ステップST3 の様に音楽ソー
スと判定する。この場合の判定は多数決理論で決定さ
れ、1パターンのみの一致は新曲とみなす。
After such comparison processing, the second step ST
As shown in 2 , the CPU 12 determines whether the source exists.
If "YES" is determined that the third music source like a step ST 3. The determination in this case is determined by majority rule, and a match of only one pattern is regarded as a new song.

【0076】第4ステップST4 では該当する各情報を
表示する。この場合、付加したラベル(ファイル名)に
対応して入力又は表示することが出来る。
In the fourth step ST 4 , each corresponding information is displayed. In this case, input or display can be performed in accordance with the added label (file name).

【0077】第2ステップST2 が“NO”であれば第
5ステップST5 に進んで新曲として登録する様に成さ
れ、エンドに至る。
[0077] The second step ST 2 is made so as to be registered as a new song proceeds to the fifth step ST 5 If "NO", leading to the end.

【0078】本発明は上述の様に構成したので楽曲から
特徴を抽出して複数の各種インデックスを自動的に作成
することで記憶手段内に自動的に格納し、専用の教本等
が無くても、音楽的特徴や曲のイメージを指示するだけ
で所定の曲目を検索することが出来る。
Since the present invention is constructed as described above, the features are extracted from the music and a plurality of various indexes are automatically created and automatically stored in the storage means. It is possible to search for a predetermined music piece only by designating a musical feature or an image of the music piece.

【0079】又、新しいインデックスを新たに作成する
ときは、記憶手段に格納したインデックス情報を優先
し、新たな楽曲データと比較し、作成したインデックス
を記憶手段に格納する様にしたのでインデックス情報を
迅速に作成可能となる。周波数又、インデックスを新た
に作成する時は記憶手段に記憶されたインデックス情報
の楽曲データの信号の平均値レベルに合せる様に新たに
比較する楽曲データの信号レベルを補正し、比較処理を
行なう様にしたので信号レベルのバラツキが補正され
て、検索時の処理数を減らすことが出来る。
When a new index is newly created, the index information stored in the storage means is prioritized, compared with new music data, and the created index is stored in the storage means. It can be created quickly. When a new frequency or index is created, the signal level of the music data to be newly compared is adjusted to match the average value level of the music data signal of the index information stored in the storage means, and the comparison process is performed. Therefore, variations in signal level are corrected, and the number of processes at the time of retrieval can be reduced.

【0080】更に記憶手段に記憶した音程インデックス
を検索するとき、音程のインデックスを半音階ずつ上げ
て、繰り返し検索する様にしたので確実に所定音程の楽
曲データを検出することが出来て、特にカラオケ装置等
の曲目選曲にイメージ検索するに適した楽曲検索装置が
得られる。
Further, when searching the pitch index stored in the storage means, the pitch index is raised by a chromatic scale and the search is repeated, so that the music data of the predetermined pitch can be detected with certainty. A music search device suitable for performing image search for music selection of a device or the like can be obtained.

【0081】[0081]

【発明の効果】本発明の楽曲検索装置によれば、希望す
る曲目を音楽のイメージから素早く、選曲してカラオケ
装置で唱うことが出来る。
According to the music search apparatus of the present invention, a desired music can be quickly selected from a music image and sung by a karaoke apparatus.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の楽曲検索装置の系統図である。FIG. 1 is a system diagram of a music search device of the present invention.

【図2】本発明の楽曲検索装置に用いるパワースペクト
ル抽出用系統図である。
FIG. 2 is a system diagram for power spectrum extraction used in the music search device of the present invention.

【図3】本発明のパワースペクトル抽出軸の帯域分割説
明図である。
FIG. 3 is an explanatory diagram of band division of a power spectrum extraction axis according to the present invention.

【図4】本発明のパワースペクトル抽出時のサンプリン
グ説明図である。
FIG. 4 is an explanatory diagram of sampling when extracting a power spectrum according to the present invention.

【図5】本発明の楽曲検索装置の各種インデックス抽出
のフローチャートである。
FIG. 5 is a flowchart of extracting various indexes of the music search device of the present invention.

【図6】本発明の楽曲検索装置のテンポインデックス検
出のフローチャートである。
FIG. 6 is a flowchart of tempo index detection of the music search device of the present invention.

【図7】本発明の楽曲検索装置の楽器インデックス検出
のフローチャートである。
FIG. 7 is a flowchart of musical instrument index detection of the music search device of the present invention.

【図8】楽器パターン抽出時の説明図である。FIG. 8 is an explanatory diagram at the time of extracting a musical instrument pattern.

【図9】本発明の楽曲検索装置の音程及び和音並びにリ
ズムインデックス抽出のフローチャートである。
FIG. 9 is a flowchart of extracting a pitch, a chord, and a rhythm index of the music search device of the present invention.

【図10】音程抽出時の説明図である。FIG. 10 is an explanatory diagram at the time of pitch extraction.

【図11】抽出インデックスの格納と比較のフローチャ
ートである。
FIG. 11 is a flowchart of storing and comparing an extraction index.

【図12】平均値説明波形図である。FIG. 12 is an average value explanatory waveform diagram.

【符号の説明】[Explanation of symbols]

5,17a,17b〜17n BPF 6 DSP 8 HDD 8a HD 12 CPU 13 RAM/ROM 18a,18b〜18n サンプリング回路 5, 17a, 17b to 17n BPF 6 DSP 8 HDD 8a HD 12 CPU 13 RAM / ROM 18a, 18b to 18n Sampling circuit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 複数の楽曲データから楽曲の特徴を抽出
して所望の楽曲を検索する様に成された楽曲検索装置に
於いて、 上記楽曲データをパワースペクトルデータに変換する変
換手段と、 上記変換手段で変換したパワースペクトルデータを検出
する検出手段と、 上記検出手段で検出されたパワースペクトルデータを記
憶する記憶手段と、 上記記憶手段に記憶されたパワースペクトルデータから
インデックス情報を抽出し、該記憶手段に格納する抽出
手段と、 所望の楽曲の特徴を指示可能な入力手段と、 上記入力手段からの指示に基づき上記記憶手段に格納し
た上記インデックス情報を参照し、該記憶手段に格納し
た上記楽曲データを選択して出力する制御手段とを具備
して成る楽曲検索装置。
1. A music search device configured to extract a feature of a music piece from a plurality of music data pieces and search for a desired music piece, wherein said conversion means converts said music piece data into power spectrum data. Detecting means for detecting the power spectrum data converted by the converting means; storing means for storing the power spectrum data detected by the detecting means; extracting index information from the power spectrum data stored in the storing means; Extraction means to be stored in the storage means; input means capable of instructing the characteristics of the desired music; and reference to the index information stored in the storage means based on an instruction from the input means; A music search device comprising: control means for selecting and outputting music data.
【請求項2】 前記インデックス情報は、テンポ情報、
楽器パターン情報、音程情報、和音情報、リズムパター
ン情報の少なくとも1つであることを特徴とする請求項
1記載の楽曲検索装置。
2. The index information includes tempo information,
The music search device according to claim 1, wherein the music search device is at least one of musical instrument pattern information, pitch information, chord information, and rhythm pattern information.
【請求項3】 前記制御手段は、前記インデックス情報
を新たに作成するときに、前記記憶手段に格納された前
記インデックス情報を優先し、新たな楽曲データと比較
して作成された新たなインデックス情報を該記憶手段に
格納することを特徴とする請求項1又は請求項2記載の
楽曲検索装置。
3. The control means, when newly creating the index information, gives priority to the index information stored in the storage means and compares the index information with new music data to create new index information. The music search device according to claim 1 or 2, wherein the music piece is stored in the storage means.
【請求項4】 前記制御手段は、前記インデックス情報
を新たに作成するとき、前記記憶手段に格納した該イン
デックス情報の楽曲データの信号の平均値レベルに合せ
る様に新たに比較する楽曲データの信号のレベルを補正
し、該記憶手段に格納して成ることを特徴とする請求項
1乃至請求項3記載のいずれか1項記載の楽曲検索装
置。
4. The control means, when newly creating the index information, a signal of music data to be newly compared so as to match an average value level of a signal of music data of the index information stored in the storage means. 4. The music search device according to claim 1, wherein the music search device corrects the level of the music and stores the corrected music in the storage means.
【請求項5】 前記制御手段は、前記記憶手段に格納さ
れた前記インデックス情報を検索するとき、音程インデ
ックス情報の音程を半音階ずつ上げて繰り返し比較し、
検索して所望の楽曲データを出力することを特徴とする
請求項1乃至請求項4記載のいずれか1項記載の楽曲検
索装置。
5. The control means, when retrieving the index information stored in the storage means, raises the pitch of the pitch index information by a chromatic scale and repeatedly compares the pitches.
The music search device according to any one of claims 1 to 4, wherein the music search device outputs desired music data by searching.
JP8304000A 1996-10-30 1996-10-30 Music program searching-device Withdrawn JPH10134549A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8304000A JPH10134549A (en) 1996-10-30 1996-10-30 Music program searching-device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8304000A JPH10134549A (en) 1996-10-30 1996-10-30 Music program searching-device

Publications (1)

Publication Number Publication Date
JPH10134549A true JPH10134549A (en) 1998-05-22

Family

ID=17927856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8304000A Withdrawn JPH10134549A (en) 1996-10-30 1996-10-30 Music program searching-device

Country Status (1)

Country Link
JP (1) JPH10134549A (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307580A (en) * 1997-05-06 1998-11-17 Nippon Telegr & Teleph Corp <Ntt> Music searching method and device
JP2000155759A (en) * 1998-11-19 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> Retrieval device and storage device, and retrieving method and storing method for music information, and storage medium where programs thereof are recorded
JP2001155031A (en) * 1999-11-30 2001-06-08 Alpine Electronics Inc Input data processing method and data input device for music retrieval system
WO2002047066A1 (en) * 2000-12-07 2002-06-13 Sony Corporation Contrent searching device and method, and communication system and method
JP2003099462A (en) * 2001-09-21 2003-04-04 Victor Co Of Japan Ltd Musical composition retrieving device
KR100484902B1 (en) * 2002-01-17 2005-04-25 주식회사 옵투스 Method for accumulation and search of contour by arithmatization
US6918090B2 (en) 2002-01-23 2005-07-12 International Business Machines Corporation Dynamic setting of navigation order in aggregated content
US6938209B2 (en) 2001-01-23 2005-08-30 Matsushita Electric Industrial Co., Ltd. Audio information provision system
JP2005274708A (en) * 2004-03-23 2005-10-06 Sony Corp Signal processor and signal processing method, program, and recording medium
JP2006331554A (en) * 2005-05-26 2006-12-07 Sharp Corp Sound recorder
WO2007010637A1 (en) * 2005-07-19 2007-01-25 Kabushiki Kaisha Kawai Gakki Seisakusho Tempo detector, chord name detector and program
US7247786B2 (en) 2004-01-22 2007-07-24 Pioneer Corporation Song selection apparatus and method
JP2007193903A (en) * 2006-01-20 2007-08-02 Kenwood Corp Sound recording device, sound recording method, and program
US7288710B2 (en) 2002-12-04 2007-10-30 Pioneer Corporation Music searching apparatus and method
WO2007132627A1 (en) * 2006-05-12 2007-11-22 Pioneer Corporation Musical composition searching device, musical composition searching method, musical composition searching program, and recording medium where musical composition searching program is recorded
US7373209B2 (en) 2001-03-22 2008-05-13 Matsushita Electric Industrial Co., Ltd. Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus, and methods and programs for implementing the same
US7385130B2 (en) 2003-10-09 2008-06-10 Pioneer Corporation Music selecting apparatus and method
JP2008164932A (en) * 2006-12-28 2008-07-17 Sony Corp Music editing device and method, and program
CN100421112C (en) * 2000-12-07 2008-09-24 索尼公司 Communication apparatus and communication method
JP2008251093A (en) * 2007-03-30 2008-10-16 Clarion Co Ltd Music playback controller and playback list generation method
JP2008251109A (en) * 2007-03-30 2008-10-16 Clarion Co Ltd Music playback controller and music playback method
JP2008250020A (en) * 2007-03-30 2008-10-16 Yamaha Corp Musical sound generating device and program
JP2009510509A (en) * 2005-09-29 2009-03-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for automatically generating a playlist by segmental feature comparison
JP2009186944A (en) * 2008-02-11 2009-08-20 Ixicom Ltd Similar music search system and similar music search method
JP2010517060A (en) * 2007-01-17 2010-05-20 上海▲イ▼得▲網▼▲絡▼有限公司 Music search method to search based on music segment information
US7818167B2 (en) 2006-02-10 2010-10-19 Samsung Electronics Co., Ltd. Method, medium, and system for music retrieval using modulation spectrum
USRE43379E1 (en) 2003-10-09 2012-05-15 Pioneer Corporation Music selecting apparatus and method
WO2020059008A1 (en) 2018-09-18 2020-03-26 Pioneer DJ株式会社 Musical piece data comparison device, musical piece analysis data distribution server, musical piece data comparison program, and musical piece analysis data distribution program

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307580A (en) * 1997-05-06 1998-11-17 Nippon Telegr & Teleph Corp <Ntt> Music searching method and device
JP2000155759A (en) * 1998-11-19 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> Retrieval device and storage device, and retrieving method and storing method for music information, and storage medium where programs thereof are recorded
JP2001155031A (en) * 1999-11-30 2001-06-08 Alpine Electronics Inc Input data processing method and data input device for music retrieval system
WO2002047066A1 (en) * 2000-12-07 2002-06-13 Sony Corporation Contrent searching device and method, and communication system and method
CN100421112C (en) * 2000-12-07 2008-09-24 索尼公司 Communication apparatus and communication method
US7908338B2 (en) 2000-12-07 2011-03-15 Sony Corporation Content retrieval method and apparatus, communication system and communication method
US6938209B2 (en) 2001-01-23 2005-08-30 Matsushita Electric Industrial Co., Ltd. Audio information provision system
US7373209B2 (en) 2001-03-22 2008-05-13 Matsushita Electric Industrial Co., Ltd. Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus, and methods and programs for implementing the same
JP2003099462A (en) * 2001-09-21 2003-04-04 Victor Co Of Japan Ltd Musical composition retrieving device
JP4622199B2 (en) * 2001-09-21 2011-02-02 日本ビクター株式会社 Music search apparatus and music search method
KR100484902B1 (en) * 2002-01-17 2005-04-25 주식회사 옵투스 Method for accumulation and search of contour by arithmatization
US6918090B2 (en) 2002-01-23 2005-07-12 International Business Machines Corporation Dynamic setting of navigation order in aggregated content
US7288710B2 (en) 2002-12-04 2007-10-30 Pioneer Corporation Music searching apparatus and method
USRE43379E1 (en) 2003-10-09 2012-05-15 Pioneer Corporation Music selecting apparatus and method
US7385130B2 (en) 2003-10-09 2008-06-10 Pioneer Corporation Music selecting apparatus and method
US7247786B2 (en) 2004-01-22 2007-07-24 Pioneer Corporation Song selection apparatus and method
JP2005274708A (en) * 2004-03-23 2005-10-06 Sony Corp Signal processor and signal processing method, program, and recording medium
JP4650662B2 (en) * 2004-03-23 2011-03-16 ソニー株式会社 Signal processing apparatus, signal processing method, program, and recording medium
US7868240B2 (en) 2004-03-23 2011-01-11 Sony Corporation Signal processing apparatus and signal processing method, program, and recording medium
JP2006331554A (en) * 2005-05-26 2006-12-07 Sharp Corp Sound recorder
WO2007010637A1 (en) * 2005-07-19 2007-01-25 Kabushiki Kaisha Kawai Gakki Seisakusho Tempo detector, chord name detector and program
US7582824B2 (en) 2005-07-19 2009-09-01 Kabushiki Kaisha Kawai Gakki Seisakusho Tempo detection apparatus, chord-name detection apparatus, and programs therefor
JP2009510509A (en) * 2005-09-29 2009-03-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for automatically generating a playlist by segmental feature comparison
JP2007193903A (en) * 2006-01-20 2007-08-02 Kenwood Corp Sound recording device, sound recording method, and program
USRE46037E1 (en) 2006-02-10 2016-06-21 Samsung Electronics Co., Ltd. Method, medium, and system for music retrieval using modulation spectrum
US7818167B2 (en) 2006-02-10 2010-10-19 Samsung Electronics Co., Ltd. Method, medium, and system for music retrieval using modulation spectrum
WO2007132627A1 (en) * 2006-05-12 2007-11-22 Pioneer Corporation Musical composition searching device, musical composition searching method, musical composition searching program, and recording medium where musical composition searching program is recorded
US8370356B2 (en) 2006-05-12 2013-02-05 Pioneer Corporation Music search system, music search method, music search program and recording medium recording music search program
JP2008164932A (en) * 2006-12-28 2008-07-17 Sony Corp Music editing device and method, and program
JP2010517060A (en) * 2007-01-17 2010-05-20 上海▲イ▼得▲網▼▲絡▼有限公司 Music search method to search based on music segment information
JP2008250020A (en) * 2007-03-30 2008-10-16 Yamaha Corp Musical sound generating device and program
JP2008251109A (en) * 2007-03-30 2008-10-16 Clarion Co Ltd Music playback controller and music playback method
JP2008251093A (en) * 2007-03-30 2008-10-16 Clarion Co Ltd Music playback controller and playback list generation method
JP2009186944A (en) * 2008-02-11 2009-08-20 Ixicom Ltd Similar music search system and similar music search method
WO2020059008A1 (en) 2018-09-18 2020-03-26 Pioneer DJ株式会社 Musical piece data comparison device, musical piece analysis data distribution server, musical piece data comparison program, and musical piece analysis data distribution program

Similar Documents

Publication Publication Date Title
JPH10134549A (en) Music program searching-device
JP3964792B2 (en) Method and apparatus for converting a music signal into note reference notation, and method and apparatus for querying a music bank for a music signal
US7288710B2 (en) Music searching apparatus and method
US20080300702A1 (en) Music similarity systems and methods using descriptors
US5986199A (en) Device for acoustic entry of musical data
US9852721B2 (en) Musical analysis platform
US6740804B2 (en) Waveform generating method, performance data processing method, waveform selection apparatus, waveform data recording apparatus, and waveform data recording and reproducing apparatus
US20060173676A1 (en) Voice synthesizer of multi sounds
CN112382257B (en) Audio processing method, device, equipment and medium
WO2009001202A1 (en) Music similarity systems and methods using descriptors
CN108766407B (en) Audio connection method and device
US20120300950A1 (en) Management of a sound material to be stored into a database
WO2004057569A1 (en) Audio signal analysing method and apparatus
JP2002215195A (en) Music signal processor
US6629067B1 (en) Range control system
JPH07295560A (en) Midi data editing device
CN108369800B (en) Sound processing device
JP2002055695A (en) Music search system
JP6024130B2 (en) Voice evaluation device
WO2019180830A1 (en) Singing evaluating method, singing evaluating device, and program
JP4581699B2 (en) Pitch recognition device and voice conversion device using the same
JP6056799B2 (en) Program, information processing apparatus, and data generation method
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP5413380B2 (en) Music data correction device
JP5418525B2 (en) Karaoke equipment

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20040106