JP2012194653A - Data processing device, data processing system, data processing method, and program - Google Patents
Data processing device, data processing system, data processing method, and program Download PDFInfo
- Publication number
- JP2012194653A JP2012194653A JP2011056655A JP2011056655A JP2012194653A JP 2012194653 A JP2012194653 A JP 2012194653A JP 2011056655 A JP2011056655 A JP 2011056655A JP 2011056655 A JP2011056655 A JP 2011056655A JP 2012194653 A JP2012194653 A JP 2012194653A
- Authority
- JP
- Japan
- Prior art keywords
- music
- metadata
- fundamental frequency
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、データ処理装置、データ処理システム、データ処理方法およびプログラムに関する。 The present invention relates to a data processing device, a data processing system, a data processing method, and a program.
近年、パーソナルコンピュータ(以下「PC」という)や多機能携帯電話機などの普及により、楽曲の多くがデジタルデータ化されている。その際には、楽曲の探索や管理を容易にするため、楽曲名や作曲家名といったオーディオデータの属性が記述されたメタデータが生成されることが多い。 In recent years, with the widespread use of personal computers (hereinafter referred to as “PCs”), multi-function mobile phones, and the like, most of music is converted into digital data. In that case, in order to facilitate the search and management of music, metadata describing the attributes of audio data such as music name and composer name is often generated.
また、ネットワークを利用した電子商取引の普及により、膨大な数の楽曲がコンテンツ提供者によって提供されている。例えば、個人ユーザがその中から所望する楽曲をPCを用いて探索する場合、楽曲名や作曲家名など、何らかのキーワードが必要である。こうしたキーワードが分からない場合、所望する楽曲を見つけ出すことが困難となる。 In addition, with the spread of electronic commerce using a network, a huge number of music pieces are provided by content providers. For example, when a personal user searches for a desired piece of music using a PC, some keyword such as a song name or a composer name is required. If these keywords are not known, it is difficult to find a desired music piece.
この課題を解決すべく、特許文献1には、オーディオデータに高速フーリエ変換などの信号処理を所定時間ごとに施し、音程の特徴量をメタデータとして抽出することで、音(メロディ)をキーワードとして楽曲の探索を行うことができる技術が開示されている。この信号処理方法については、引用文献2に開示されている。
In order to solve this problem,
音をキーワードに、数ある同一異録音の楽曲の中から所望する一曲を探索する場合、探索に用いられるメタデータのデータ量が増大する。必然的に、探索対象および被探索対象のメタデータ同士を照合する際の演算量が増え、楽曲の探索に要する時間も増大する。 When searching for a desired piece of music from among the same and different recordings using sound as a keyword, the amount of metadata used for the search increases. Inevitably, the amount of calculation when matching the metadata of the search target and the search target increases, and the time required for searching for the music also increases.
本発明の目的は、探索に用いられるメタデータのデータ量を低減させ、楽曲を素早く探索することができる、データ処理装置、データ処理システム、データ処理方法およびプログラムを提供することである。 An object of the present invention is to provide a data processing device, a data processing system, a data processing method, and a program capable of reducing the amount of metadata used for searching and quickly searching for music.
本発明のデータ処理装置は、楽曲のオーディオデータの基本周波数を予め指定された時間間隔ごとに測定する測定部と、前記測定部の測定ごとに得られた基本周波数を用いて、基準となる音の基準周波数に対する前記基本周波数の偏差を前記基本周波数に対応した音として各々算出する算出部と、前記算出部によって各々算出された偏差を用いて、前記楽曲の特徴に関するメタデータを生成するメタデータ生成部と、を有する。 The data processing apparatus of the present invention uses a measurement unit that measures a fundamental frequency of audio data of a music for each predetermined time interval, and a reference frequency using the fundamental frequency obtained for each measurement by the measurement unit. A calculation unit that calculates a deviation of the fundamental frequency with respect to a reference frequency as a sound corresponding to the fundamental frequency, and metadata that generates metadata about the characteristics of the music using the deviation calculated by the calculation unit, respectively. And a generation unit.
本発明のデータ処理方法は、楽曲のオーディオデータの基本周波数を予め指定された時間間隔ごとに測定する測定ステップと、前記測定ステップでの測定ごとに得られた基本周波数を用いて、基準となる音の基準周波数に対する前記基本周波数の偏差を前記基本周波数に対応した音として各々算出する算出ステップと、前記算出ステップで各々算出された偏差を用いて、前記楽曲の特徴に関するメタデータを生成するメタデータ生成ステップと、を有する。 The data processing method of the present invention serves as a reference by using a measurement step for measuring the fundamental frequency of audio data of music at every predetermined time interval and the fundamental frequency obtained for each measurement in the measurement step. A calculation step for calculating a deviation of the fundamental frequency with respect to a reference frequency of the sound as a sound corresponding to the fundamental frequency, and a meta for generating metadata relating to the feature of the music using the deviation calculated in the calculation step. And a data generation step.
本発明のプログラムは、楽曲のオーディオデータの基本周波数を予め指定された時間間隔ごとに測定する測定手順と、前記測定手順での測定ごとに得られた基本周波数を用いて、基準となる音の基準周波数に対する前記基本周波数の偏差を前記基本周波数に対応した音として各々算出する算出手順と、前記算出手順で各々算出された偏差を用いて、前記楽曲の特徴に関するメタデータを生成するメタデータ生成手順と、をコンピュータに実行させる。 The program of the present invention uses a measurement procedure for measuring a fundamental frequency of audio data of a music for each predetermined time interval, and a fundamental frequency obtained for each measurement in the measurement procedure. A calculation procedure for calculating a deviation of the fundamental frequency with respect to a reference frequency as a sound corresponding to the fundamental frequency, and a metadata generation for generating metadata relating to the feature of the music using the deviation calculated in the calculation procedure. And causing the computer to execute the procedure.
本発明によれば、探索に用いられるメタデータのデータ量を低減させ、楽曲を素早く探索することができる。 ADVANTAGE OF THE INVENTION According to this invention, the data amount of the metadata used for a search can be reduced, and a music can be searched quickly.
以下、本発明の実施の形態を図面に関連づけて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[データ処理システムAの構成例]
図1は、本発明の実施の形態に係るデータ処理システムAの構成例を示す概略ブロック図である。図1に示すように、データ処理システムAは、データ処理装置としてのサーバ装置1、楽曲サーバ装置2、クライアント端末装置3およびネットワーク4を有する。
[Configuration example of data processing system A]
FIG. 1 is a schematic block diagram showing a configuration example of a data processing system A according to an embodiment of the present invention. As shown in FIG. 1, the data processing system A includes a
データ処理システムAは、サーバ装置1および楽曲サーバ装置2を所有するコンテンツ提供者が、ネットワーク4を介してクライアント端末装置3の所有者(以下「個人ユーザ」という)に対して個人ユーザが所望する楽曲を提供するシステムである。
In the data processing system A, the content provider who owns the
楽曲の提供に際して、データ処理システムAは、楽曲サーバ装置2に格納されている何千、何万という数の楽曲の中から個人ユーザが所望する楽曲(楽曲データM1)を探索する。その際に、楽曲名など、言葉のキーワードが分からなければ、探索が困難となる。そこで、データ処理システムAは、クライアント端末装置3に格納されているオーディオデータM2をサーバ装置1にアップロードすることで、言葉だけはではなく、音をキーワードとして探索することができる。本実施の形態では、音をキーワードとして探索する場合を例に挙げる。
When providing the music, the data processing system A searches for the music (music data M1) desired by the individual user from the thousands and tens of thousands of music stored in the
楽曲の探索の便宜を図るため、データ処理システムAには、楽曲探索モードおよび類似探索モードがある。ここで、これら2つのモードについて説明する。 In order to facilitate the search for music, the data processing system A has a music search mode and a similar search mode. Here, these two modes will be described.
(楽曲探索モード)
楽曲探索モードは、個人ユーザのオーディオデータM2を用いて、楽曲サーバ装置2に格納されている数ある楽曲の中から個人ユーザが所望する楽曲を探索するためのモードである。
(Music search mode)
The music search mode is a mode for searching for music desired by the individual user from among a number of music stored in the
(類似探索モード)
類似探索モードは、オーディオデータM2のメロディに類似した楽曲を探索するためのモードである。
(Similar search mode)
The similar search mode is a mode for searching for music similar to the melody of the audio data M2.
例えば、クラシック音楽は、世界各国の演奏者により演奏され、録音されている。クラシック音楽のように、楽曲名は同一であるが、演奏者や録音の環境が異なるという、同一異録音の楽曲は無数に存在する。類似探索モードは、このような同一異録音の楽曲を探索する場合に好適である。 For example, classical music is played and recorded by performers around the world. Like classical music, there are innumerable songs with the same music title but different performances and different recording environments. The similarity search mode is suitable for searching for music of the same recording.
サーバ装置1は、プログラムに従って演算処理を行うコンピュータを備えている。サーバ装置1は、ネットワーク4に接続され、楽曲サーバ装置2およびクライアント端末装置3と通信する。サーバ装置1は、クライアント端末装置3からの要求に従って、サーバ装置1の内部にて、以下の処理を行う。
The
(楽曲探索処理)
サーバ装置1は、楽曲探索モードの実行を促す要求がクライアント端末装置3からあった場合、楽曲データM1をネットワーク4上の楽曲サーバ装置2の中から探索し、探索結果をクライアント端末装置3に送信する。
(Music search process)
When the request for prompting the execution of the music search mode is received from the
(類似探索処理)
サーバ装置1は、類似探索モードの実行を促す要求がクライアント端末装置3からあった場合、オーディオデータM2に類似した楽曲データ(楽曲データM1とする)を探索し、探索結果をクライアント端末装置3に送信する。
(Similarity search process)
When the request for prompting the execution of the similar search mode is received from the
楽曲サーバ装置2は、探索対象の楽曲データM1を始め、種々の属性の楽曲データを複数格納している。楽曲サーバ装置2は、ネットワーク4に接続され、サーバ装置1およびクライアント端末装置3と通信する。
The
クライアント端末装置3は、PC、デジタルオーディオ機器、PDA(Personal Data Assistance)、多機能/高機能携帯電話機などの電子機器である。クライアント端末装置3は、基本的に、以下の機能を持つ。
The
第1に、クライアント端末装置3は、オーディオデータの取り扱いが可能である。第2に、クライアント端末装置3は、有線、無線を問わず、ネットワーク4に接続し、サーバ装置1および楽曲サーバ装置2と通信する。第3に、クライアント端末装置3は、表示画面に文字や画像を表示する。
First, the
本実施の形態では、特に断りがない限り、PCをクライアント端末装置3の一例に挙げる。オーディオデータの取り扱い、ネットワーク4への接続、文字や画像の表示が可能な電子機器であれば、クライアント端末装置3の構成は、特に限定されるものではない。
In the present embodiment, a PC is taken as an example of the
以下、楽曲データM1およびオーディオデータM2は、デジタルオーディオデータであるとする。 Hereinafter, it is assumed that the music data M1 and the audio data M2 are digital audio data.
ネットワーク4は、例えば、通信プロトコルとしてのTCP/IP(Transmission Control Protocol/Internet Protocol)を利用可能なインターネットである。
The
[サーバ装置1のハードウェアの構成例]
図2は、本発明の実施の形態に係るサーバ装置1のハードウェアの構成例を示すブロック図である。図2に示すように、サーバ装置1は、CPU10、第1HDD11、第2HDD12、ROM13、RAM14、I/O(Input/Output)ポート15および内部バス16を有する。サーバ装置1の各構成部は、内部バス16に各々接続されている。
[Hardware configuration example of server device 1]
FIG. 2 is a block diagram showing a hardware configuration example of the
CPU10は、例えば、中央演算処理装置である。CPU10は、内部バス16を介して、ROM13に格納されているプログラム131に従って、第1および第2HDD11、12、RAM14との間でデータの授受を行いながら、楽曲探索処理および類似探索処理を行う。
The
第1HDD11は、記憶装置であって、例えば、ハードディスクである。第2HDD12も同様に、記憶装置であって、例えば、ハードディスクである。第1HDD11は、主に、楽曲探索処理および類似探索処理に用いられるメタデータを格納する。
The
第2HDD12は、主に、楽曲探索処理および類似探索処理に用いられるインデックスファイルを格納する。
The
ROM13は、不揮発性の記憶装置である。ROM13は、CPU10が楽曲探索処理および類似探索処理を実行するのに必要なプログラム131を格納している。
The
RAM14は、例えば、DRAM(Dynamic Random Access Memory)ある。RAM14は、CPU10が演算処理のときに使用する一時的なデータを格納する。
The
I/Oポート15は、外部機器を接続するためのポートであって、内部バス16を介して外部機器とCPU10との間のデータの授受を行う。I/Oポート15に接続可能な外部機器には、例えば、ネットワークカードやキーボードがある。本実施の形態では、サーバ装置1は、ネットワークカードが接続されたI/Oポート15を介して、ネットワーク4上の楽曲サーバ装置2およびクライアント端末装置3と通信する。
The I /
CPU10は、ROM13からプログラム131を読み出すと、第1HDD11、第2HDD12およびRAM14にアクセスしながら、プログラム131の処理手順に従って処理を行う。これにより、サーバ装置1が持つ各機能が実現される(図3参照)。
When reading the
なお、図2に示すハードウェアの構成は一例であって、種々の改変が可能である。例えば、プログラム131をROM13、第1HDD11または第2HDD12に格納することができる。この他、例えば、1個のハードディスクに、本実施の形態で用いられる各種データを格納することができる。
The hardware configuration shown in FIG. 2 is an example, and various modifications can be made. For example, the
[サーバ装置1の機能ブロック図]
図3は、図2に示すサーバ装置1の機能を表したブロック図である。図3に示すように、サーバ装置1は、第1処理系10A、第2処理系10Bおよび楽曲データベースDBを有する。第1および第2処理系10A、10Bの各処理は、CPU10(図2参照)によってソフトウェア的に実行される。
[Functional Block Diagram of Server Device 1]
FIG. 3 is a block diagram showing functions of the
先ず、第1および第2処理系10A、10Bの概要について説明する。
First, an outline of the first and
(第1処理系10A)
第1処理系10Aは、第1ファイル形式変換部101A、第1測定部102A、第1算出部103A、第1メタデータ生成部104A、クエリ生成部105A、クエリ実行部106および表示処理部107を有する。なお、クエリ生成部105Aおよびクエリ実行部106は、照合部の一例である。
(
The
第1処理系10Aの目的は、楽曲探索処理および類似探索処理を行うため、個人ユーザのオーディオデータM2を、第2処理系10Bによって作成された楽曲データベースDBと照合することである。第1処理系10Aの基本的な処理は、以下の通りである。
The purpose of the
(測定処理)
第1に、第1処理系10Aは、オーディオデータM2をクライアント端末装置3から入力し、オーディオデータM2の基本周波数f(p)を予め指定された時間間隔ごとに測定する。ここでいう、基本周波数とは、ある音(例えば、音名(以下、米名表記)でいう「A」)の音高(音の高さ)を決定づける物理量であって、その音が持つ周波数成分の内で最も低い周波数である。本実施の形態では、基本周波数f(p)を測定する時間間隔は、およそ100msである。
(Measurement process)
First, the
(算出処理)
第2に、第1処理系10Aは、基準となる音(基準音)の基準周波数f(A)に対する基本周波数f(p)の偏差を半音階単位で算出し、この偏差に対応した音を算出する。換言すれば、第1処理系10Aは、基準周波数f(A)に対する基本周波数f(p)のズレに対応した音を算出する。ここでいう、基準音は、音名(以下、米名)で表すと、「A」に対応する音である。その音の基準周波数f(A)は、望ましくは440Hzである。
(Calculation process)
Second, the
楽曲が基本周波数成分と種々の高調波成分で構成されていることは周知である。測定処理により基本周波数f(p)を測定し、算出処理により基本周波数f(p)が基準周波数f(A)からどの程度ズレているかを算出することで、基本周波数f(p)を測定した時点での音(例えば、音名でいう「B」)が分かる。その詳細については後述する。 It is well known that music is composed of fundamental frequency components and various harmonic components. The fundamental frequency f (p) was measured by measuring the fundamental frequency f (p) and calculating how much the fundamental frequency f (p) is deviated from the reference frequency f (A) by the calculation process. The sound at the time (for example, “B” in the pitch name) is known. Details thereof will be described later.
(メタデータ生成処理)
第3に、第1処理系10Aは、算出処理によって得た音を基に、オーディオデータM2の特徴、具体的には、メロディを表すメタデータを生成する。
(Metadata generation process)
Thirdly, the
(楽曲探索処理/類似探索処理)
第4に、第1処理系10Aは、メタデータを用いて、楽曲データベースDBから楽曲データM1の検索または類似探索をクライアント端末装置3からの処理要求に従って行い、その結果をクライアント端末装置3に送信する。
(Music search process / similarity search process)
Fourth, the
(第2処理系10B)
第2処理系10Bは、第2ファイル形式変換部101B、第2測定部102B、第2算出部103B、第2メタデータ生成部104B、クローラ部108および楽曲データベース生成部109を有する。
(
The
第2処理系10Bの目的は、楽曲データベースDBを作成することである。楽曲データベースDBは、楽曲探索処理および類似探索処理を行うため、楽曲データM1を始めとする、楽曲サーバ装置2内の楽曲データの情報を記録したものである。第2処理系10Bの基本的な処理は、以下の通りである。
The purpose of the
(収集処理)
第1に、第2処理系10Bは、楽曲サーバ装置2のディレクトリを巡回し、楽曲サーバ装置2に格納されている種々の楽曲データを収集する。
(Collection processing)
First, the
(データベース作成処理)
第2に、第2処理系10Bは、測定処理、算出処理およびメタデータ生成処理を行って、楽曲データベースDBを作成する。
(Database creation process)
Second, the
以下、本実施の形態の特徴である、算出処理およびメタデータ生成処理について順を追って説明する。 Hereinafter, the calculation process and the metadata generation process, which are features of the present embodiment, will be described in order.
[算出処理における音の算出方法]
図4は、本発明の実施の形態に係る算出処理を説明するための図である。本実施の形態では、音階の表現方法に半音階を用いる。十二平均律における半音は、1オクターブを12等分したものである。1オクターブは、米名の表記を用いると、音高の低い方から順に、「C」、「D♭(フラット)」、「D」、「E♭(フラット)」、「E」、「F」、「F♯(シャープ)」、「G」、「A♭(フラット)」、「A」、「B♭(フラット)」、「B」の12音からなる。
[Sound calculation method in calculation processing]
FIG. 4 is a diagram for explaining calculation processing according to the embodiment of the present invention. In this embodiment, a chromatic scale is used as a musical scale expression method. The semitone in the twelve equal temperament is equal to one octave divided into 12 equal parts. One octave uses the notation of the American name, in order from the lowest pitch: “C”, “D ♭ (flat)”, “D”, “E ♭ (flat)”, “E”, “F ”,“ F # (sharp) ”,“ G ”,“ A ♭ (flat) ”,“ A ”,“ B ♭ (flat) ”,“ B ”.
互いに隣接する2つの半音の周波数比は、(1)式で表される。 The frequency ratio of two adjacent semitones is expressed by equation (1).
本実施の形態では、上述したように、「A」を基準音とし、その基準周波数は、f(A)=440Hzである。例えば、音高が基準音「A」より半音高い「B♭」音の基本周波数f(B♭)は、(1)式の関係により、(2)式で表される。 In the present embodiment, as described above, “A” is the reference sound, and the reference frequency is f (A) = 440 Hz. For example, the fundamental frequency f (B ♭) of the “B ♭” sound whose pitch is higher than the reference sound “A” by a semitone is expressed by the equation (2) according to the relationship of the equation (1).
(2)式より、周波数f(B♭)は、(3)式で表される。
例えば、音高が「B♭」音より半音高い「B」音の基本周波数f(B)は、基本周波数f(B♭)の算出と同様の議論により、(4)式で表される。 For example, the fundamental frequency f (B) of the “B” sound whose pitch is higher by a semitone than the “B 半” sound is expressed by the equation (4) by the same discussion as the calculation of the fundamental frequency f (B ♭).
すなわち、周波数f(B♭)は、(3)式を用いると、(5)式で表される。 That is, the frequency f (B ♭) is expressed by the expression (5) when the expression (3) is used.
図4には、「C」音からそれよりも1オクターブ高い「C」音までの各音に対応した基本周波数f(p)が示されている。なお、変数pは、「C」から「B」のいずれかの音を表す。音が高くなるほど、基本周波数f(p)も高くなる。 FIG. 4 shows the fundamental frequency f (p) corresponding to each sound from the “C” sound to the “C” sound one octave higher than that. The variable p represents any sound from “C” to “B”. The higher the sound, the higher the fundamental frequency f (p).
基準音「A」の基準周波数f(A)と、基準音「A」より高く、かつ、これから2個の半音だけズレた「B」音の基本周波数f(B)との比(周波数比)は、(6)式で表される。 Ratio (frequency ratio) between the reference frequency f (A) of the reference sound “A” and the basic frequency f (B) of the “B” sound that is higher than the reference sound “A” and is shifted by two semitones from now on Is expressed by equation (6).
図4には、基準音「A」を1としたとき、基準周波数f(A)と各音の基本周波数f(p)との比が示されている。 FIG. 4 shows the ratio between the reference frequency f (A) and the fundamental frequency f (p) of each sound when the reference sound “A” is 1.
(6)式を参照すると、基準音「A」の基準周波数f(A)と、基準音「A」からq個の半音だけズレたp音の基本周波数f(p)との比を、一般化された(7)式で表すことができる。 Referring to the equation (6), the ratio between the reference frequency f (A) of the reference sound “A” and the fundamental frequency f (p) of the p-tone shifted by q semitones from the reference sound “A” is It can be expressed by the formula (7).
(7)式において、変数qは、整数をとる。以下、変数qを「ズレ個数」と呼ぶ。(7)式を変形すると、(8)式の関係式が得られる。 In the equation (7), the variable q takes an integer. Hereinafter, the variable q is referred to as “the number of deviations”. When the equation (7) is modified, the relational equation (8) is obtained.
(8)式において、底を21/12とする対数をとると、ズレ個数qは、(9)式で表される。 In equation (8), when taking the logarithm with the base being 2 1/12 , the deviation number q is expressed by equation (9).
ただし、ズレ個数qは、整数となるように、四捨五入された値である。(9)式において、基準音「A」の基準周波数f(A)が既知であるので、基本周波数f(p)が分かれば、ズレ個数qが求まる。したがって、半音で基準音「A」から何個ズレているかが分かる。 However, the deviation number q is a value rounded off so as to be an integer. In equation (9), since the reference frequency f (A) of the reference sound “A” is known, if the fundamental frequency f (p) is known, the number of deviations q can be obtained. Therefore, it can be understood how many halftones are deviated from the reference sound “A”.
図4には、ズレ個数qと各音との対応関係が示されている。測定処理にて測定された基本周波数がf(p)=466.16Hzであった場合、ズレ個数はq=1となる。この演算結果は、基準音「A」から半音でズレ個数q=1だけズレた「B♭」を表している。なお、音名は、オクターブに左右されずに、一定の表記(「C」、「D♭」、…「B」)がなされるが、本実施の形態では、音高そのものを表すことができる。 FIG. 4 shows the correspondence between the number of deviations q and each sound. When the fundamental frequency measured in the measurement process is f (p) = 466.16 Hz, the number of deviations is q = 1. This calculation result represents “B ♭” that is shifted from the reference sound “A” by the number of shifts q = 1 in semitones. Note that the pitch name is not affected by an octave and is given a certain notation (“C”, “D ♭”,... “B”), but in this embodiment, the pitch itself can be expressed. .
このように、基本周波数f(p)が基準周波数f(A)からどの程度ズレているかを算出することで、測定された基本周波数f(p)がどの音に対応するかということが分かる。 Thus, by calculating how much the fundamental frequency f (p) is deviated from the reference frequency f (A), it can be understood which sound the measured fundamental frequency f (p) corresponds to.
[メタデータの構成例]
図5は、本発明の実施の形態に係るメタデータ生成処理によって得られたメタデータの構成を説明するための図である。第1処理系10Aによる測定処理では、楽曲の開始から、およそ100msごとにオーディオデータM2の基本周波数f(p)が測定される。第2処理系10Bによる測定処理は、第1処理系10Aのものと同様であるので、ここでは、第1処理系10Aの処理を例に挙げて説明する。
[Metadata configuration example]
FIG. 5 is a diagram for explaining a configuration of metadata obtained by the metadata generation processing according to the embodiment of the present invention. In the measurement process by the
楽曲は和音で構成されることが多いため、一度に複数個の基本周波数f(p)が測定されることがある。図5に示す例では、楽曲の開始から100ms経過した時間t1において、2個の基本周波数f(p1)=293.7Hz、f(p2)=349.2Hzが各々測定されている。
Since music is often composed of chords, a plurality of fundamental frequencies f (p) may be measured at one time. In the example shown in FIG. 5, two basic frequencies f (p 1 ) = 293.7 Hz and f (p 2 ) = 349.2 Hz are measured at
算出処理の結果、時間t1において、基本周波数f(p1)におけるズレ個数がq1=−7であったとすると、ズレ個数q1に対応する音は「D」であることが分かる。同様に、基本周波数f(p2)におけるズレ個数q2に対応する音が「F」であることが分かる。 As a result of the calculation processing, if the number of deviations at the fundamental frequency f (p 1 ) is q 1 = −7 at time t 1 , it can be seen that the sound corresponding to the number of deviations q 1 is “D”. Similarly, it can be seen that the sound corresponding to the number of deviations q 2 at the fundamental frequency f (p 2 ) is “F”.
メタデータ生成処理において、第1処理系10Aは、基本周波数f(p)の経過時間tnと共に、ズレ個数qnが時系列順に記述されたメタデータを生成する。メタデータは、経過時間tnおよびズレ個数qnをパラメータとし、下記に示す構文1で記述される。
In the metadata generation process, the
(構文1)
(tn),q1,q2,・・・,qn,,
(Syntax 1)
(T n ), q 1 , q 2 ,..., Q n ,.
変数nは、正の整数(1,2,3,・・・)をとる。経過時間tnは、楽曲開始からの経過時間であって、括弧「( )」内に記述される。経過時間tnの記述の後には、「,(コンマ)」を於いてズレ個数q1が記述される。ズレ個数qn−1の記述の後にズレ個数qnを記述する場合、前者の記述の後に「,」を於いて後者のズレ個数qnが記述される。最後のズレ個数qnの記述の後には、メタデータの終了を表す「,(コンマ)」が記述される。 The variable n takes a positive integer (1, 2, 3,...). The elapsed time t n is an elapsed time from the start of the music and is described in parentheses “()”. After the description of the elapsed time t n, the number of deviations q 1 is described using “, (comma)”. When the number of deviations q n is described after the description of the number of deviations q n−1 , the latter number of deviations q n is described by “,” after the former description. After the last shift number q n description, indicating the end of the metadata ", (comma)" is described.
例えば、経過時間t1=100msにおける測定では、ズレ個数q1=−7,q2=−4であるので、「(100),−7,−4,,」というメタデータが生成される。予めズレ個数qnを音名(具体的には音高)に対応づけておけば、メタデータを参照するだけで、経過時間tn=100msにおける楽曲データが「D」音および「F」音によって構成されていることが分かる。 For example, in the measurement at the elapsed time t 1 = 100 ms, since the number of deviations q 1 = −7, q 2 = −4, metadata “(100), −7, −4,...” Is generated. If the number of deviations q n is associated with the pitch name (specifically, the pitch) in advance, the music data at the elapsed time t n = 100 ms is “D” sound and “F” sound only by referring to the metadata. It can be seen that it is constituted by.
15分程度の楽曲では、経過時間tnごとに得られるメタデータのバイト数は、数バイトから20バイト程度であり、平均すると15バイト程度である。100msごとに15バイトのメタデータが得られると仮定すると、この楽曲から得られるメタデータの総バイト数は、およそ15バイト×(900000ms/100ms)=135KBとなる。 In a music piece of about 15 minutes, the number of bytes of metadata obtained for each elapsed time t n is about several bytes to 20 bytes, and on average about 15 bytes. Assuming that 15 bytes of metadata are obtained every 100 ms, the total number of bytes of metadata obtained from this music is approximately 15 bytes × (900000 ms / 100 ms) = 135 KB.
上述したように、経過時間tnおよびズレ個数qnを用いてオーディオデータM2のメロディを表すので、15分程度の楽曲であっても、メタデータのデータ量は、わずか135KB程度でしかない。サーバ装置1は、楽曲の特徴を的確に表しつつ、軽量なメタデータを生成することを可能にしている。
As described above, since the melody of the audio data M2 is expressed using the elapsed time t n and the number of deviations q n , the metadata data amount is only about 135 KB even for a music piece of about 15 minutes. The
(第1処理系10Aの各構成部)
次に、図3を参照しながら、第1処理系10Aの各構成部について説明する。
(Each component of the
Next, each component of the
第1ファイル形式変換部101Aは、オーディオデータM2をネットワーク4(不図示)を介してクライアント端末装置3から時系列で入力し、これを所定のファイル形式に変換し、変換したオーディオデータM2cを第1測定部102Aに出力する。これは、処理対象のファイル形式を統一するために行われる。本実施の形態では、例えば、オーディオデータM2がMP3(MPEG Audio Layer3)のファイル形式で圧縮されている場合、第1ファイル形式変換部101Aは、このオーディオデータM2をMP4のファイル形式に変換する。
The first file
第1測定部102Aは、オーディオデータM2cを第1ファイル形式変換部101Aから時系列で取り込み、およそ100msごとに測定処理を行い、得られた基本周波数f(p)を第1算出部103Aに出力する。測定処理の際に、第1測定部102Aは、例えば、高速フーリエ変換(FFT)を用いて、オーディオデータM2cを周波数スペクトルデータに変換し、およそ100msごとに基本周波数f(p)を算出する。更に、第1測定部102Aは、基本周波数f(p)を測定したときの測定時間を楽曲開始からの経過時間tnとして第1メタデータ生成部104Aに出力する。なお、基本周波数f(p)の算出には、上述の他、ハーモニッククラスタリング法、くし形フィルタ法などを用いることができる。
The
第1算出部103Aは、基本周波数f(p)を第1測定部102Aから入力し、算出処理を行い、算出したズレ個数qnを第1メタデータ生成部104Aに出力する。算出処理の際に、第1算出部103Aは、基準音「A」の基準周波数f(A)と、第1測定部102Aによって測定された基本周波数f(p)とを(9)式に代入し、整数でズレ個数qnを算出する。
The
第1メタデータ生成部104Aは、経過時間tnを第1測定部102Aから入力すると共に、ズレ個数qnを第1算出部103Aから入力し、およそ100msごとにメタデータ生成処理を行い、生成したメタデータMET2(tn,qn)をクエリ生成部105Aに出力する。メタデータ生成処理の際に、第1メタデータ生成部104Aは、構文1に示すように、「(tn),q1,q2,・・・,qn,,」という記述のメタデータを生成する。
The first
本実施の形態では、データの流れを明確にするため、第1メタデータ生成部104Aに第1測定部102Aから経過時間tnが入力されるものとしているが、第1メタデータ生成部104Aが経過時間tnを直接把握しても差し支えはない。このことは、第2処理系10Bについても同様である。
In the present embodiment, in order to clarify the flow of data, the elapsed time t n is input from the
クエリ生成部105Aは、メタデータMET2(tn,qn)を第1メタデータ生成部104Aから入力し、メタデータMET2(tn,qn)を用いてクエリを生成し、生成したクエリQUEをクエリ実行部106に出力する。その際に、クエリ生成部105Aは、メタデータMET2(tn,qn)もクエリ実行部106に出力する。
The
クエリQUEは、楽曲探索処理または類似探索処理を実行するために必要なデータであって、楽曲データベースDBに対する処理要求が記述されている。処理要求には、サーバ装置1がクライアント端末装置3から受けた、楽曲探索モードまたは類似探索モードの実行がある。
The query QUE is data necessary for executing the music search process or the similar search process, and describes a processing request for the music database DB. The processing request includes execution of the music search mode or the similar search mode received by the
クエリ実行部106は、クエリQUEをクエリ生成部105Aから入力し、クエリQUEに従って楽曲データベースDBにアクセスしながら、以下の処理を行う。
The
(楽曲探索モードの実行時)
楽曲探索モードの実行時には、クエリ実行部106は、メタデータMET2(tn,qn)を第2HDD12に格納されているインデックスファイル121と照合し、照合結果を楽曲探索結果ANSとして表示処理部107に出力する。
(When performing music search mode)
When executing the music search mode, the
インデックスファイル121は、例えば、図5に図示するように、第2処理系10Bによって生成されたメタデータMET1(tn,qn)を時系列順に記録したものである。なお、インデックスファイル121には、楽曲データM1以外のもののメタデータも記録されている。
For example, as illustrated in FIG. 5, the index file 121 records metadata MET1 (t n , q n ) generated by the
照合の際に、クエリ実行部106は、オーディオデータM2のメタデータMET2(tn,qn)をインデックスファイル121に記述されているメタデータMET1(tn,qn)と比較する。
In matching, the
比較の結果、両者が一致する場合、クエリ実行部106は、楽曲データM1が楽曲サーバ装置2にあると判断し、楽曲データM1が見つかった旨を楽曲探索結果ANSとして、第1HDD11に格納されている属性データDと共に表示処理部107に出力する。一方、両者が不一致する場合、クエリ実行部106は、楽曲データM1が楽曲サーバ装置2にないと判断し、楽曲データM1が見つからなかった旨を楽曲探索結果ANSとして表示処理部107に出力する。
If the two match as a result of the comparison, the
(類似探索モードの実行時)
類似探索モードの実行時には、クエリ実行部106は、楽曲探索モードの場合と同様に、メタデータMET2(tn,qn)をインデックスファイル121と照合し、照合結果を探索結果ANSとして表示処理部107に出力する。ただし、以下の点が楽曲探索モードの場合と異なる。
(When similar search mode is executed)
When executing the similar search mode, the
照合の際に、クエリ実行部106は、オーディオデータM2のメタデータMET2(tn,qn)がインデックスファイル121に記述されているメタデータMET1(tn,qn)と類似するか否かを判断する。本実施の形態では、前者のメタデータMET2(tn,qn)が後者のメタデータMET1(tn,qn)と一定の割合(例えば、80パーセント)一致した場合、クエリ実行部106は、両者が類似すると判断する。この類似の度合を表す割合は、サーバ装置1の所有者または個人ユーザが好適に設定すればよい。
In matching, the
比較の結果、両者が類似する場合、クエリ実行部106は、オーディオデータM2が楽曲データM1に類似した楽曲であると推定し、その旨を類似探索結果ANSとして、属性データDと共に表示処理部107に出力する。一方、両者が類似しない場合、クエリ実行部106は、オーディオデータM2に類似する楽曲が楽曲サーバ装置2にはないと判断し、その旨を類似探索結果ANSとして表示処理部107に出力する。
As a result of the comparison, if the two are similar, the
表示処理部107は、楽曲探索結果ANSまたは類似探索結果ANSと共に、属性データDをクエリ実行部106から入力し、両者をクライアント端末装置3に表示するための表示処理を行い、その処理結果Rをクライアント端末装置3にネットワーク4を介して送信する。表示処理は、例えば、表示画面のレイアウトなどを決める処理である。
The
いずれのモードにおいても、探索対象が見つかった場合、クライアント端末装置3は、その旨と共に楽曲データM1の属性データDを表示画面に表示する。
In any mode, when a search target is found, the
(第2処理系10Bの各構成部)
図3を参照しながら、第2処理系10Bの各構成部について説明する。
(Each component of the
Each component of the
クローラ部108は、収集処理として、ネットワーク4上にある楽曲サーバ装置2のディレクトリを巡回し、楽曲サーバ装置2に格納されているコンテンツデータのキャッシュデータを収集する。キャッシュデータには、楽曲データM1を始めとする種々の楽曲データやその属性データがある。属性データは、上述したように、楽曲名などのデータである。クローラ部108は、キャッシュデータの内、楽曲データM1を第2ファイル形式変換部101Bに出力し、属性データDを第1HDD11に出力する。
As a collection process, the
第2ファイル形式変換部101Bは、楽曲データM1をクローラ部108から入力し、第1ファイル形式変換部101Aと同様の処理を行い、所定のファイル形式に変換した楽曲データM1cを第2測定部102Bに出力する。
The second file format conversion unit 101B receives the music data M1 from the
第2測定部102Bは、楽曲データM1cを第2ファイル形式変換部101Bから時系列で取り込み、第1測定部102Aと同様の測定処理を行い、この処理によって得られた基本周波数f(p)を第2算出部103Bに出力し、経過時間tnを第2メタデータ生成部104Bに出力する。
The
第2算出部103Bは、基本周波数f(p)を第2測定部102Bから入力し、第1算出部103Aと同様の算出処理を行い、算出したズレ個数qnを第2メタデータ生成部104Bに出力する。
The
第2メタデータ生成部104Bは、経過時間tnを第2測定部102Bから入力すると共に、ズレ個数qnを第2算出部103Bから入力し、第1メタデータ生成部104Aと同様のメタデータ生成処理を行い、生成したメタデータMET1(tn,qn)を第1HDD11に出力する。
The second
楽曲データベース生成部109は、楽曲データベースDBにアクセスし、第1HDD11に格納されたメタデータMET1(tn,qn)を用いて、インデックスファイル121を作成する。
The music
(楽曲データベースDB)
楽曲データベースDBについて説明する。楽曲データベースDBは、楽曲サーバ装置2にある種々の楽曲データと、これらの楽曲データのメタデータを基に作成されたインデックスファイル121とによって構成されている。
(Music database DB)
The music database DB will be described. The music database DB is composed of various music data in the
第1HDD11は、第2メタデータ生成部104Bから入力されたメタデータMET1(tn,qn)と、クローラ部108から入力された属性データDとを格納している。第2HDD12は、インデックスファイル121を格納している。
The
クローラ部108が収集処理に失敗した場合など、何らかの理由により、第1HDD11にクローラ部108から属性データDが入力されなかった場合、例えば、サーバ装置1の所有者による手動操作で、属性データDを第1HDD11に直接入力することができる。更に、手動操作で、属性データDを変更することができる。
When the attribute data D is not input from the
[データ処理システムAの動作例]
図6は、本発明の実施の形態に係るデータ処理システムAの動作例を示すシーケンス図である。
[Operation example of data processing system A]
FIG. 6 is a sequence diagram showing an operation example of the data processing system A according to the embodiment of the present invention.
ここでは、クライアント端末装置3の所有者である個人ユーザがネットワーク4上の楽曲サーバ装置2の中からオーディオデータM2と同じ楽曲を探索する場合を例に挙げる。なお、類似探索処理であっても、データ処理システムAの動作は同じである。
Here, the case where the individual user who is the owner of the
サーバ装置1は、楽曲探索モードの実行を促す要求がクライアント端末装置3からあった場合、その要求を許可すると、以下の処理を行う。先ず、ステップS1からS5に示す、第1処理系10Aによる処理の流れについて説明する。
When a request for urging execution of the music search mode is received from the
第1ファイル形式変換部101Aは、オーディオデータM2をクライアント端末装置3から時系列で入力すると、これを所定のファイル形式に変換する(ステップS1)。
When the audio data M2 is input from the
ファイル形式の変換後、第1測定部102Aは、オーディオデータM2cにおける楽曲の開始部分を検知する。そして、第1測定部102Aは、およそ100msごとに測定処理を行い、基本周波数f(p)を得る(ステップS2)。
After the conversion of the file format, the
測定処理後、第1算出部103Aは、基本周波数f(p)を用いて算出処理を行い、ズレ個数qnを得る(ステップS3)。
After the measurement process, the
算出処理後、第1メタデータ生成部104Aは、楽曲開始からの経過時間tnと、ズレ個数qnとを用いて、およそ100msごとにメタデータ生成処理を行い、メタデータMET2(tn,qn)を得る(ステップS4)。
After the calculation process, the first
メタデータ生成処理、クエリ生成部105Aは、メタデータMET2(tn,qn)を用いてクエリを生成し、クエリQUEを得る(ステップS5)。
The metadata generation process /
次に、ステップS6からS11に示す、第2処理系10Bの処理の流れについて説明する。
Next, the process flow of the
クローラ部108は、楽曲サーバ装置2に格納されているコンテンツデータのキャッシュデータを収集し、楽曲データM1および属性データDを得る(ステップS6)。
The
収集処理後、第2ファイル形式変換部101Bは、クローラ部108から時系列で入力した楽曲データM1を所定のファイル形式に変換する(ステップS7)。
After the collection process, the second file format conversion unit 101B converts the music data M1 input in time series from the
ファイル形式の変換後、第2測定部102Bは、測定処理を行い、基本周波数f(p)を得る(ステップS8)。
After the file format conversion, the
測定処理後、第2算出部103Bは、基本周波数f(p)を用いて算出処理を行い、ズレ個数qnを得る(ステップS9)。
After the measurement process, the
算出処理後、第2メタデータ生成部104Bは、楽曲開始からの経過時間tnと、ズレ個数qnとを用いて、およそ100msごとにメタデータ生成処理を行い、メタデータMET1(tn,qn)を得る(ステップS10)。
After the calculation process, the second
メタデータMET1(tn,qn)が生成された後、楽曲データベース生成部109は、メタデータMET1(tn,qn)を用いて、インデックスファイル121を作成する(ステップS11)。
Metadata MET1 (t n, q n) after is generated, the music
上述したステップS6からS11の処理によって、楽曲データベースDBが作成される。この一連の処理は、ステップS12の処理が開始される前に完了していることが望ましい。また、この一連の処理は、定期的(例えば、24時間ごと)に実行されればよい。 The music database DB is created by the processing of steps S6 to S11 described above. This series of processes is preferably completed before the process of step S12 is started. Further, this series of processes may be executed periodically (for example, every 24 hours).
次に、ステップS12およびS13に示す、第1処理系10Aによる処理の流れについて説明する。
Next, the flow of processing by the
クエリ実行部106は、オーディオデータM2のメタデータMET2(tn,qn)をインデックスファイル121と照合する(ステップS12)。
The
表示処理部107は、探索結果を得ると、これを基に表示処理を行い、その処理結果Rをクライアント端末装置3に送信する(ステップS13)。
When the
クライアント端末装置3は、処理結果Rをサーバ装置1から受けると、楽曲データM1が見つかったか否かを表す探索結果を表示画面に表示する。
When the
なお、ステップS1からS13の処理は、プログラム131(図2参照)に処理手順として記述されている。 Note that the processing of steps S1 to S13 is described as a processing procedure in the program 131 (see FIG. 2).
以上述べたように、本実施の形態によれば、サーバ装置1は、経過時間tnおよびズレ個数qnを用いてメタデータを生成するので、以下の顕著な効果を得ることができる。
As described above, according to the present embodiment, the
メタデータは、上述したように、15分程度の楽曲であっても、135KB程度であり、非常に軽量である。したがって、クエリ実行部106がメタデータ同士を照合する際の演算量を著しく低減させることができる。このことは、データベースの使用容量の削減や、楽曲探索処理および類似探索処理に要する時間の短縮につながる。
As described above, the metadata is about 135 KB even for a music piece of about 15 minutes and is very lightweight. Therefore, the amount of calculation when the
更に、本実施の形態によれば、以下の顕著な効果を得ることができる。 Furthermore, according to the present embodiment, the following remarkable effects can be obtained.
言語(日本語、英語など)に左右されず、的確に探索することができる。クラシック音楽のように、同一異録音の楽曲は、楽曲名などの属性が楽曲間で同じになることが多い上、多種多様な言語で記述される。そもそも、楽曲名などの属性の記述方式が統一されているわけではなく、第三者の手によって属性を変更することもできる。したがって、楽曲名などの言葉のキーワードを用いて、同一異録音の楽曲の中から一曲を探索することが難しい。しかしながら、本実施の形態では、メタデータに言葉のキーワードを記述しないので、メロディだけで探索を行うことができる。 You can search accurately regardless of language (Japanese, English, etc.). Like classical music, music with the same recordings often have the same attributes, such as music name, and are described in a variety of languages. In the first place, the description method of attributes such as music titles is not unified, and the attributes can be changed by a third party. Therefore, it is difficult to search for a song from songs of the same recording using words such as song names. However, in the present embodiment, since no word keyword is described in the metadata, the search can be performed using only the melody.
探索対象が見つかった場合、探索結果と共に探索対象の属性がクライアント端末装置3に送信される。したがって、個人ユーザは、探索対象の楽曲名などが分からなくても、探索対象が見つかれば、その楽曲名などを直ちに知ることができる。
When the search target is found, the search target attribute is transmitted to the
算出処理において、基本周波数f(p)に着目し、これが基準周波数f(A)からのズレを算出するため、楽曲の演奏時における楽器の構成や、楽曲の音質に左右されにくく、楽曲の特徴を的確に表したメタデータを生成することができる。 In the calculation process, attention is paid to the fundamental frequency f (p), which calculates the deviation from the reference frequency f (A). It is possible to generate metadata that accurately represents.
この他、データ処理システムAを用いれば、属性データが第三者の手によって故意に書き換えられ、他のサーバ等にアップロードされたような違法な楽曲の探索も可能となる。 In addition, if the data processing system A is used, it becomes possible to search for illegal music such that attribute data is intentionally rewritten by a third party and uploaded to another server or the like.
(実施の形態の変形例)
実施の形態の変形例について説明する。本変形例は、音程を「C」音から「E」音に一定にずらすなど、キー変更がある楽曲の探索に関する。以下、実施の形態と異なる点について説明する。
(Modification of the embodiment)
A modification of the embodiment will be described. This modification relates to a search for music with a key change, such as shifting the pitch from “C” sound to “E” sound. Hereinafter, differences from the embodiment will be described.
類似探索モードにおいて、クエリ実行部106は、メタデータMET2(tn,qn)がメタデータMET1(tn,qn)に類似するか否かを判断する際に、以下のキー変更楽曲探索処理を行う。
In a similar search mode, the
具体的には、クエリ実行部106は、すべての経過時間tnにおいて、両者のズレ個数qn同士が一定個数qwずれている場合に、オーディオデータM2と楽曲データM1間でキー変更があると判断する。一定個数qwは、例えば、qw=3など、好適に設定することができる。クエリ実行部106は、キー変更がある旨を類似探索結果ANSとして、属性データDと共に表示処理部107に出力する。なお、両者のズレ個数qn同士が一定個数qwずれていない場合の処理は、実施の形態と同様である。
Specifically, the
以上述べたキー変更楽曲探索処理をキー変更楽曲探索モードとして、楽曲探索モードおよび類似探索モードに加えることができる。 The key change music search process described above can be added to the music search mode and the similar search mode as the key change music search mode.
本変形例により、楽器を変えて演奏した楽曲や原曲の探索を容易に行うことができる。無論、実施の形態における効果を得ることができる。 According to this modification, it is possible to easily search for a musical piece or an original musical piece performed by changing the musical instrument. Of course, the effects of the embodiment can be obtained.
本発明は、その要旨を逸脱しない範囲内で種々の改変が可能である。例えば、サーバ装置1および楽曲サーバ装置2を家庭内LAN(Local Area Network)に接続し、クライアント端末装置3を用いて、家庭内で楽曲探索モード、類似探索モードおよびキー変更楽曲探索モードを実行することができる。
The present invention can be variously modified without departing from the gist thereof. For example, the
例えば、楽曲サーバ装置2が持つ機能をサーバ装置1に組み込み、両者を1つのサーバ装置とすることができる。
For example, the functions of the
1…サーバ装置
2…楽曲サーバ装置
3…クライアント端末装置
4…ネットワーク
10…CPU
10A…第1処理系
10B…第2処理系
11…第1HDD
12…第2HDD
13…ROM
14…RAM
15…I/Oポート
16…内部バス
101A…第1ファイル形式変換部
101B…第2ファイル形式変換部
102A…第1測定部
102B…第2測定部
103A…第1算出部
103B…第2算出部
104A…第1メタデータ生成部
104B…第2メタデータ生成部
105A…クエリ生成部
106…クエリ実行部
107…表示処理部
108…クローラ部
109…楽曲データベース生成部
121…インデックスファイル
131…プログラム
DESCRIPTION OF
10A ...
12 ... Second HDD
13 ... ROM
14 ... RAM
DESCRIPTION OF
Claims (8)
前記測定部の測定ごとに得られた基本周波数を用いて、基準となる音の基準周波数に対する前記基本周波数の偏差を前記基本周波数に対応した音として各々算出する算出部と、
前記算出部によって各々算出された偏差を用いて、前記楽曲の特徴に関するメタデータを生成するメタデータ生成部と、
を有するデータ処理装置。 A measurement unit that measures the fundamental frequency of the audio data of the music at predetermined time intervals;
A calculation unit that calculates a deviation of the fundamental frequency from a reference frequency of a reference sound as a sound corresponding to the fundamental frequency, using the fundamental frequency obtained for each measurement of the measurement unit;
A metadata generation unit that generates metadata related to the characteristics of the music using the deviations calculated by the calculation unit;
A data processing apparatus.
各々の偏差を前記楽曲の開始からの経過時間に対応づけて、前記メタデータを生成する、
請求項1記載のデータ処理装置。 The metadata generation unit
Associating each deviation with the elapsed time from the start of the music, and generating the metadata,
The data processing apparatus according to claim 1.
前記基準周波数をf(A)と表記し、前記基本周波数をf(p)と表記し、前記基準周波数f(A)に対する前記基本周波数(p)の偏差をqと表記するとき、前記偏差qを下記式を用いて算出する、
請求項1または2記載のデータ処理装置。
When the reference frequency is denoted by f (A), the fundamental frequency is denoted by f (p), and the deviation of the fundamental frequency (p) with respect to the reference frequency f (A) is denoted by q, the deviation q Is calculated using the following formula:
The data processing apparatus according to claim 1 or 2.
前記照合部は、
照合結果と共に前記楽曲の属性を出力する、
請求項1から3のいずれか一に記載のデータ処理装置。 A collation unit that collates the metadata generated by the metadata generation unit with a database in which attributes of a plurality of music pieces including the music piece are registered;
The collation unit
Outputting the attribute of the music together with the matching result;
The data processing apparatus according to any one of claims 1 to 3.
前記メタデータが前記データベース内のメタデータと一定の割合で一致した場合、前記メタデータが前記データベース内のメタデータと類似すると判断し、照合結果と共に前記楽曲の属性を出力する、
請求項4記載のデータ処理装置。 The collation unit
If the metadata matches the metadata in the database at a certain rate, it is determined that the metadata is similar to the metadata in the database, and the attribute of the music is output together with a matching result.
The data processing apparatus according to claim 4.
前記データ処理装置にオーディオデータを送信する端末装置と、
を有するデータ処理システム。 A data processing device according to any one of claims 1 to 5;
A terminal device for transmitting audio data to the data processing device;
A data processing system.
前記測定ステップでの測定ごとに得られた基本周波数を用いて、基準となる音の基準周波数に対する前記基本周波数の偏差を前記基本周波数に対応した音として各々算出する算出ステップと、
前記算出ステップで各々算出された偏差を用いて、前記楽曲の特徴に関するメタデータを生成するメタデータ生成ステップと、
を有するデータ処理方法。 A measurement step for measuring the fundamental frequency of the audio data of the music at predetermined time intervals;
Using the fundamental frequency obtained for each measurement in the measurement step, a calculation step for calculating a deviation of the fundamental frequency relative to a reference frequency of a reference sound as a sound corresponding to the fundamental frequency;
A metadata generation step for generating metadata relating to the characteristics of the music using the deviations calculated in the calculation step;
A data processing method.
前記測定手順での測定ごとに得られた基本周波数を用いて、基準となる音の基準周波数に対する前記基本周波数の偏差を前記基本周波数に対応した音として各々算出する算出手順と、
前記算出手順で各々算出された偏差を用いて、前記楽曲の特徴に関するメタデータを生成するメタデータ生成手順と、
をコンピュータに実行させるプログラム。 A measurement procedure for measuring the fundamental frequency of the audio data of a song at predetermined time intervals;
Using the fundamental frequency obtained for each measurement in the measurement procedure, a calculation procedure for calculating a deviation of the fundamental frequency with respect to a reference frequency of a reference sound as a sound corresponding to the fundamental frequency,
A metadata generation procedure for generating metadata related to the characteristics of the music using the deviations calculated in the calculation procedure,
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056655A JP2012194653A (en) | 2011-03-15 | 2011-03-15 | Data processing device, data processing system, data processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056655A JP2012194653A (en) | 2011-03-15 | 2011-03-15 | Data processing device, data processing system, data processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012194653A true JP2012194653A (en) | 2012-10-11 |
Family
ID=47086516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011056655A Pending JP2012194653A (en) | 2011-03-15 | 2011-03-15 | Data processing device, data processing system, data processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012194653A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015060177A (en) * | 2013-09-20 | 2015-03-30 | カシオ計算機株式会社 | Musical performance data file retrieval method, system, program, terminal and server device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03276197A (en) * | 1990-03-27 | 1991-12-06 | Nitsuko Corp | Melody recognizing device and melody information extracting device to be used for the same |
JPH06274157A (en) * | 1993-03-19 | 1994-09-30 | Nec Corp | Calculating device for similarity between note sequences |
JPH07121556A (en) * | 1993-10-21 | 1995-05-12 | Nippon Telegr & Teleph Corp <Ntt> | Musical information retrieving device |
JPH1115468A (en) * | 1997-05-01 | 1999-01-22 | N T T Data:Kk | Method, device, and system for music retrieval, and recording medium |
JP2002091435A (en) * | 2000-09-18 | 2002-03-27 | Dainippon Printing Co Ltd | Method for encoding acoustic signal |
US20040144238A1 (en) * | 2002-12-04 | 2004-07-29 | Pioneer Corporation | Music searching apparatus and method |
JP2008192102A (en) * | 2007-02-08 | 2008-08-21 | Sony Computer Entertainment Inc | Metadata generation device and metadata generation method |
JP2009276776A (en) * | 2009-08-17 | 2009-11-26 | Sony Corp | Music piece identification device and its method, music piece identification and distribution device and its method |
-
2011
- 2011-03-15 JP JP2011056655A patent/JP2012194653A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03276197A (en) * | 1990-03-27 | 1991-12-06 | Nitsuko Corp | Melody recognizing device and melody information extracting device to be used for the same |
JPH06274157A (en) * | 1993-03-19 | 1994-09-30 | Nec Corp | Calculating device for similarity between note sequences |
JPH07121556A (en) * | 1993-10-21 | 1995-05-12 | Nippon Telegr & Teleph Corp <Ntt> | Musical information retrieving device |
JPH1115468A (en) * | 1997-05-01 | 1999-01-22 | N T T Data:Kk | Method, device, and system for music retrieval, and recording medium |
JP2002091435A (en) * | 2000-09-18 | 2002-03-27 | Dainippon Printing Co Ltd | Method for encoding acoustic signal |
US20040144238A1 (en) * | 2002-12-04 | 2004-07-29 | Pioneer Corporation | Music searching apparatus and method |
JP2008192102A (en) * | 2007-02-08 | 2008-08-21 | Sony Computer Entertainment Inc | Metadata generation device and metadata generation method |
JP2009276776A (en) * | 2009-08-17 | 2009-11-26 | Sony Corp | Music piece identification device and its method, music piece identification and distribution device and its method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015060177A (en) * | 2013-09-20 | 2015-03-30 | カシオ計算機株式会社 | Musical performance data file retrieval method, system, program, terminal and server device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Salamon et al. | Tonal representations for music retrieval: from version identification to query-by-humming | |
US6188010B1 (en) | Music search by melody input | |
US8280889B2 (en) | Automatically acquiring acoustic information about music | |
Dannenberg et al. | A comparative evaluation of search techniques for query‐by‐humming using the MUSART testbed | |
US20170300567A1 (en) | Media content items sequencing | |
JP5066963B2 (en) | Database construction device | |
US20100223223A1 (en) | Method of analyzing audio, music or video data | |
JP2000513846A (en) | Recorded music database based on standardized music themes | |
CN101271457A (en) | Music retrieval method and device based on rhythm | |
WO2017056982A1 (en) | Music search method and music search device | |
CN110010159B (en) | Sound similarity determination method and device | |
JP4659755B2 (en) | Content data search device | |
US20060253433A1 (en) | Method and apparatus for knowledge-based music searching and method and apparatus for managing music file | |
Rho et al. | FMF: Query adaptive melody retrieval system | |
Gurjar et al. | Comparative Analysis of Music Similarity Measures in Music Information Retrieval Systems. | |
JP5344756B2 (en) | Information processing apparatus, information processing method, and program | |
JP2012194653A (en) | Data processing device, data processing system, data processing method, and program | |
JPWO2008126262A1 (en) | Content explanation apparatus and method | |
JP2005346347A (en) | Information retrieval apparatus, information retrieval method, information retrieval program and recording medium | |
KR102165940B1 (en) | System and method for providing cbmr based music identifying serivce using note | |
KR20070016750A (en) | Ubiquitous music information retrieval system and method based on query pool with feedback of customer characteristics | |
CN109710797B (en) | Audio file pushing method and device, electronic device and storage medium | |
JP4597714B2 (en) | Information retrieval apparatus and method, and computer program | |
Kelly | Evaluation of melody similarity measures | |
JP5552968B2 (en) | Music search apparatus and music search method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140904 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150106 |