JP2015007735A - Program for actualizing musical performance information analyzing method, the musical performance information analyzing method, and musical performance information analyzing device - Google Patents

Program for actualizing musical performance information analyzing method, the musical performance information analyzing method, and musical performance information analyzing device Download PDF

Info

Publication number
JP2015007735A
JP2015007735A JP2013133610A JP2013133610A JP2015007735A JP 2015007735 A JP2015007735 A JP 2015007735A JP 2013133610 A JP2013133610 A JP 2013133610A JP 2013133610 A JP2013133610 A JP 2013133610A JP 2015007735 A JP2015007735 A JP 2015007735A
Authority
JP
Japan
Prior art keywords
information
performance
performance information
performance data
timbre
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013133610A
Other languages
Japanese (ja)
Other versions
JP6183002B2 (en
Inventor
大地 渡邉
Daichi Watanabe
大地 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013133610A priority Critical patent/JP6183002B2/en
Publication of JP2015007735A publication Critical patent/JP2015007735A/en
Application granted granted Critical
Publication of JP6183002B2 publication Critical patent/JP6183002B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program for actualizing a musical performance information analyzing method that can automatically and properly exclude a sound unneeded for retrieval from any kind of musical performance data, the musical performance information analyzing method, and a musical performance information analyzing device.SOLUTION: Filtering conditions ((a), (b)) for indicating musical performance data to be removed with respect to timbre are prepared corresponding to the timbre, a filtering condition corresponding to timbre allocated to musical performance data of object musical performance information is selected once the musical performance data is determined, and musical performance data to be excluded is determined by applying the filtering condition to the musical performance data, so that the determined musical performance data is excluded from the musical performance data.

Description

本発明は、演奏情報に含まれる演奏データから検索に不必要な音を自動的に除外する演奏情報解析方法を実現するためのプログラム、当該演奏情報解析方法および演奏情報解析装置に関する。   The present invention relates to a program for realizing a performance information analysis method for automatically excluding sounds unnecessary for search from performance data included in performance information, the performance information analysis method, and a performance information analysis apparatus.

ユーザが特定の楽曲を検索する際に、演奏や歌唱を行なうことで、データベースからユーザの演奏や歌唱にマッチした楽曲を選択する技術がある。   When a user searches for a specific piece of music, there is a technique for selecting a piece of music that matches the user's performance or singing from a database by performing or singing.

このような技術を適用した装置として、多数の楽曲について楽曲データを記憶した楽曲データベースと、各楽曲に対応して、楽曲演奏の補助として表示される楽譜、歌詞、コード名などの曲情報を表示するための曲情報表示データを記憶した曲情報データベースとを用意しておき、ユーザがある曲を楽器や歌唱で演奏し始めると、演奏内容がMIDIデータで入力され、MIDIデータの音列パターンに一致する音列パターンを有する楽曲データを抽出して、ユーザが演奏し始めた楽曲を認識するとともに、MIDIデータのテンポや移調量、進行位置などを検出し、認識された楽曲と一致する楽曲を楽曲データベースから検索することで楽曲を特定し、対応する曲情報表示データ(楽譜、歌詞、コード名など)を曲情報データベースから選択して、ユーザの演奏に合わせて表示するようにした曲情報表示装置がある(たとえば、特許文献1参照)。   As a device to which such technology is applied, a music database storing music data for a large number of music, and music information such as sheet music, lyrics, code names, etc. displayed as an auxiliary to music performance are displayed corresponding to each music. And a song information database storing song information display data to be played, and when a user starts playing a song with a musical instrument or singing, the performance content is input as MIDI data, and the MIDI data sound string pattern is recorded. The music data having the matching sound string pattern is extracted to recognize the music that the user has started playing, and the tempo, transposition amount, progress position, etc. of the MIDI data are detected, and the music that matches the recognized music is detected. The music is identified by searching the music database, and the corresponding music information display data (score, lyrics, chord name, etc.) is selected from the music information database. To, songs information display device to display in accordance with the performance of the user (for example, see Patent Document 1).

この従来の曲情報表示装置とは別に、ユーザが鍵盤や入力パッドを用いて入力した、検索用のクエリーパターン(典型的にはリズムパターン)に基づいて、複数セットの演奏データを記憶している記憶装置から、当該クエリーパターンにマッチする楽音発生パターン(たとえば、リズムパターンあるいはメロディパターン)を持つ演奏データ(たとえば、自動伴奏データ)を検索するようにした検索装置もある(たとえば、特許文献2参照)。そして特許文献2の段落[0024],[0025]には、楽音発生パターンの一例である、リズムパターンデータを作成する際に、リズム入力と判断しづらいゴーストノート(たとえば、極端に小さなベロシティデータを持つものなど)を手動または自動で除外することが記載されている。   Apart from this conventional music information display device, a plurality of sets of performance data are stored based on a query pattern (typically a rhythm pattern) for search input by a user using a keyboard or an input pad. There is also a search device that searches performance data (for example, automatic accompaniment data) having a musical tone generation pattern (for example, rhythm pattern or melody pattern) that matches the query pattern from a storage device (for example, see Patent Document 2). ). In paragraphs [0024] and [0025] of Patent Document 2, when creating rhythm pattern data, which is an example of a musical tone generation pattern, a ghost note (for example, extremely small velocity data is difficult to determine as rhythm input). Etc.) are excluded manually or automatically.

検索対象となる演奏データ(上記従来の曲情報表示装置では、楽曲データ)は複数のトラックで構成され、トラック毎に様々な楽器音が割り当てられているのが一般的である。楽器音には、通常音色(ピアノやギターなどの、ピッチを含む音色)やドラム音色(ピッチを含まず、複数の打楽器音が1つの音色における異なるノートナンバに割り当てられているもの)の他、特殊音色(1つの楽器についての複数の奏法音が、異なるベロシティに割り当てられているもの、いわゆるメガボイス(登録商標))もある(たとえば、特許文献3参照)。メガボイスでは、1つの楽器音色の複数の奏法依存音色が、ベロシティの複数範囲にそれぞれ割当てられる。   The performance data to be searched (music data in the conventional music information display device) is generally composed of a plurality of tracks, and various instrument sounds are generally assigned to each track. In addition to normal tones (tones including pitch, such as piano and guitar) and drum sounds (not including pitch, multiple percussion instrument sounds are assigned to different note numbers in one tone) There is also a special tone color (a plurality of performance sounds for one musical instrument assigned to different velocities, so-called Mega Voice (registered trademark)) (see, for example, Patent Document 3). In the mega voice, a plurality of performance style dependent timbres of one musical instrument timbre are respectively assigned to a plurality of velocity ranges.

特開2007− 86571号公報JP 2007-86571 A 特開2012−234167号公報JP 2012-234167 A 特開2003−263159号公報JP 2003-263159 A

ところで、検索対象となる演奏データには、装飾音やゴーストノートなど、聴感上あまり意識されないような音が効果音として入っていることがあるが、検索時の演奏や歌唱では、それらの効果音は無視されることが多い。これにより、ユーザの演奏や歌唱と、実際にデータベースなどに登録されている演奏データとの間に差が生じ、検索されるべき演奏データが検索されず、検索精度が低くなってしまうことがある。   By the way, the performance data to be searched may contain sound effects such as decorative sounds and ghost notes that are not very conscious about the sense of hearing. Is often ignored. As a result, there is a difference between the user's performance or singing and the performance data actually registered in the database or the like, and the performance data to be searched is not searched, and the search accuracy may be lowered. .

上記従来の検索装置では、ゴーストノートを手動または自動で除外して、演奏データ(リズムパターンデータ)を作成することで、検索精度を上げるようにしているが、手動による除外作業では手間がかかり、自動的な除外処理では、特にメガボイスの演奏データに対して適切な除外処理が行えない。   In the above conventional search device, ghost notes are excluded manually or automatically and performance data (rhythm pattern data) is created to improve search accuracy. However, manual exclusion work takes time and effort. In the automatic exclusion process, an appropriate exclusion process cannot be performed particularly for performance data of mega voices.

本発明は、この点に着目してなされたものであり、どのような種類の演奏データに対しても、検索に不必要な音を自動的かつ適切に除外することが可能となる演奏情報解析方法を実現するためのプログラム、当該演奏情報解析方法および演奏情報解析装置を提供することを目的とする。   The present invention has been made paying attention to this point, and performance information analysis that can automatically and appropriately exclude unnecessary sounds for searching for any type of performance data. It is an object of the present invention to provide a program for realizing the method, the performance information analysis method and the performance information analysis apparatus.

上記目的を達成するため、請求項1に記載のプログラムは、演奏情報解析方法をコンピュータに実行させるためのプログラムであって、前記演奏情報解析方法は、音色情報と、音高情報およびベロシティ情報を含む複数の演奏データとからなる演奏情報を取得する取得ステップと、前記取得ステップによって取得された演奏情報から音色情報を検出する検出ステップと、音色情報に対応するフィルタリング条件を複数記憶する記憶手段から、前記検出ステップによって検出された音色情報に対応するフィルタリング条件を選択する選択ステップと、前記選択ステップによって選択されたフィルタリング条件を前記取得された演奏情報に適用することにより、当該演奏情報から前記フィルタリング条件によって除外が指示される演奏データを除外して、新たな演奏情報を生成する生成ステップとを有することを特徴とする。   In order to achieve the above object, a program according to claim 1 is a program for causing a computer to execute a performance information analysis method, wherein the performance information analysis method includes timbre information, pitch information, and velocity information. An acquisition step of acquiring performance information comprising a plurality of performance data, a detection step of detecting timbre information from the performance information acquired by the acquisition step, and a storage means for storing a plurality of filtering conditions corresponding to the timbre information Selecting a filtering condition corresponding to the timbre information detected by the detecting step; and applying the filtering condition selected by the selecting step to the acquired performance information, thereby filtering the filtering information from the performance information. Exclude performance data for which exclusion is instructed by conditions And characterized by having a generation step of generating a new performance information.

請求項2に記載のプログラムは、請求項1のプログラムにおいて、前記フィルタリング条件は、ベロシティ情報が所定のベロシティ区間に属する演奏データの除外を指示するものであることを特徴とする。   The program according to claim 2 is characterized in that, in the program according to claim 1, the filtering condition instructs exclusion of performance data whose velocity information belongs to a predetermined velocity section.

請求項3に記載のプログラムは、請求項1のプログラムにおいて、前記フィルタリング条件は、音高情報が所定値である演奏データの除外を指示するものであることを特徴とする。   The program according to claim 3 is characterized in that, in the program according to claim 1, the filtering condition instructs exclusion of performance data whose pitch information is a predetermined value.

請求項4に記載のプログラムは、請求項1〜3のいずれかのプログラムにおいて、前記演奏情報解析方法はさらに、前記取得ステップによって取得された演奏情報と、前記生成ステップによって新たに生成された演奏情報とを比較再生する再生ステップと、前記取得ステップによって取得された演奏情報と、前記生成ステップによって新たに生成された演奏情報とを表示手段上に比較表示させる表示ステップとを有することを特徴とする。   The program according to claim 4 is the program according to any one of claims 1 to 3, wherein the performance information analysis method further includes the performance information acquired by the acquisition step and the performance newly generated by the generation step. A reproduction step for comparing and reproducing information; and a display step for comparing and displaying on the display means performance information acquired by the acquisition step and performance information newly generated by the generation step. To do.

上記目的を達成するため、請求項5および6にそれぞれ記載の演奏情報解析方法および演奏情報解析装置は、請求項1と同様の技術的思想によって実現できる。   In order to achieve the above object, the performance information analyzing method and the performance information analyzing device described in claims 5 and 6 can be realized by the same technical idea as in claim 1.

請求項1,5または6に記載の発明によれば、取得された演奏情報から音色情報が検出され、音色情報に対応するフィルタリング条件を複数記憶する記憶手段から、前記検出された音色情報に対応するフィルタリング条件が選択され、当該フィルタリング条件を前記取得された演奏情報に適用することにより、当該演奏情報から当該フィルタリング条件によって除外が指示される演奏データを除外して、新たな演奏情報が生成されるので、フィルタリング条件として、そのフィルタリング条件に対応付けられた音色情報が割り当てられた演奏データにおいて、検索に不必要な音を持つ演奏データを削除する条件を予め作成しておけば、その演奏データについて検索に不必要な音を自動的かつ適切に除外することが可能となる。   According to the invention described in claim 1, 5 or 6, the timbre information is detected from the acquired performance information, and the storage means for storing a plurality of filtering conditions corresponding to the timbre information corresponds to the detected timbre information. By selecting the filtering condition to be applied and applying the filtering condition to the acquired performance information, the performance data instructed to be excluded by the filtering condition is excluded from the performance information, and new performance information is generated. Therefore, if a condition for deleting performance data having a sound unnecessary for search is created in advance in the performance data to which the timbre information associated with the filtering condition is assigned as the filtering condition, the performance data It is possible to automatically and appropriately exclude unnecessary sounds for search.

請求項2に記載の発明によれば、前記フィルタリング条件は、ベロシティ情報が所定のベロシティ区間に属する演奏データの除外を指示するものであるので、特にメガボイスが割り当てられた演奏データについて検索に不必要な音を自動的かつさらに適切に除外することが可能となる。   According to the second aspect of the present invention, the filtering condition indicates exclusion of performance data whose velocity information belongs to a predetermined velocity section, so that it is not necessary for searching performance data to which a mega voice is assigned. Noise can be automatically and appropriately excluded.

請求項3に記載の発明によれば、前記フィルタリング条件は、音高情報が所定値である演奏データの除外を指示するものであるので、特にドラム音色が割り当てられた演奏データについて検索に不必要な音を自動的かつさらに適切に除外することが可能となる。   According to the third aspect of the present invention, since the filtering condition instructs exclusion of performance data whose pitch information is a predetermined value, it is not particularly necessary for searching performance data to which a drum tone is assigned. Noise can be automatically and appropriately excluded.

請求項4に記載の発明によれば、前記取得された演奏情報と前記新たに生成された演奏情報とを比較再生あるいは比較表示できるので、ユーザは、新旧両方の演奏情報を聴感上あるいは視覚上、簡単に比較して確認することができる。   According to the fourth aspect of the present invention, since the acquired performance information and the newly generated performance information can be comparatively reproduced or displayed in comparison, the user can view both old and new performance information in terms of audibility or visual. Can be easily compared and confirmed.

本発明の一実施の形態に係る演奏情報解析装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the performance information analyzer which concerns on one embodiment of this invention. あるギター音色のメガボイスが割り当てられた演奏データの一部((a))とその表示例((b))を示す図である。It is a figure which shows a part ((a)) of the performance data to which the mega voice of a certain guitar tone color was allocated, and the example of a display ((b)). 図2(a)の演奏データの一部に対してフィルタリング条件を適用した後の演奏データ((a))とその表示例((b))を示す図である。It is a figure which shows the performance data ((a)) after applying filtering conditions with respect to a part of performance data of Fig.2 (a), and the example of a display ((b)). あるドラム音色が割り当てられた演奏データの一部((a))とその表示例((b))を示す図である。It is a figure which shows a part ((a)) of the performance data to which a certain drum tone color was allocated, and the example of a display ((b)). 図4(a)の演奏データの一部に対してフィルタリング条件を適用した後の演奏データの表示例を示す図である。It is a figure which shows the example of a display of the performance data after applying filtering conditions with respect to a part of performance data of Fig.4 (a). ギター音色のメガボイスまたはドラム音色が割り当てられたことに応じて選択されるフィルタリング条件の一部の一例を示す図である。It is a figure which shows an example of a part of filtering conditions selected according to the mega voice of a guitar tone, or the drum tone being assigned. 図1の演奏情報解析装置、特にCPUが実行する演奏情報解析処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the performance information analysis process which the performance information analysis apparatus of FIG. 1, especially CPU performs.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る演奏情報解析装置100の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of a performance information analyzing apparatus 100 according to an embodiment of the present invention.

同図に示すように、演奏情報解析装置100は、文字入力用キーボードおよびポインティングデバイス(たとえばマウス)からなる操作入力部1と、装置全体の制御を司るCPU2と、該CPU2が実行する基本制御プログラム(BIOS:Basic Input Output System)や各種テーブルデータ等を記憶するROM3と、外部から取得された演奏情報、各種入力情報および演算結果等を一時的に記憶するRAM4と、各種アプリケーションプログラムやOS(Operating System)、各種演奏情報、各種データ等を記憶する記憶装置5と、各種情報等を表示する、たとえばLCD(Liquid Crystal Display)からなるディスプレイ6と、図示しない外部機器を接続し、この外部機器とデータの送受信を行う通信インターフェース(I/F)7と、前記取得された演奏情報や、前記記憶装置5に記憶されたいずれかの演奏情報を再生して得られたイベントデータ等を楽音信号に変換するとともに、その楽音信号に各種効果を付与するための音源・効果回路8と、該音源・効果回路8からの楽音信号を音響に変換する、たとえば、DAC(Digital-to-Analog Converter)やアンプ、スピーカ等のサウンドシステム9とにより構成されている。   As shown in the figure, the performance information analyzing apparatus 100 includes an operation input unit 1 including a character input keyboard and a pointing device (for example, a mouse), a CPU 2 for controlling the entire apparatus, and a basic control program executed by the CPU 2. ROM 3 for storing (BIOS: Basic Input Output System) and various table data, RAM 4 for temporarily storing performance information, various input information, calculation results, etc. acquired from the outside, various application programs and OS (Operating) System), a storage device 5 for storing various performance information, various data, and the like, a display 6 for displaying various information, for example, an LCD (Liquid Crystal Display), and an external device (not shown) are connected to the external device. A communication interface (I / F) 7 for transmitting and receiving data, and the acquired performance information And a sound source / effect circuit 8 for converting event data obtained by reproducing any performance information stored in the storage device 5 into a musical sound signal and for applying various effects to the musical sound signal; The sound signal from the sound source / effect circuit 8 is converted into sound, and is constituted by a sound system 9 such as a DAC (Digital-to-Analog Converter), an amplifier, and a speaker.

上記構成要素1〜8は、バス10を介して相互に接続され、音源・効果回路8にはサウンドシステム9が接続されている。   The above components 1 to 8 are connected to each other via a bus 10, and a sound system 9 is connected to the sound source / effect circuit 8.

記憶装置5は、たとえば、フレキシブルディスク(FD)、ハードディスク(HD)、CD−ROM、DVD(Digital Versatile Disc)、光磁気ディスク(MO)および半導体メモリなどの記憶媒体とその駆動装置である。記憶媒体は駆動装置から着脱可能であってもよいし、記憶装置5自体が演奏情報解析装置100から着脱可能であってもよい。あるいは、記憶媒体も記憶装置5も着脱不可能であってもよい。   The storage device 5 is, for example, a storage medium such as a flexible disk (FD), a hard disk (HD), a CD-ROM, a DVD (Digital Versatile Disc), a magneto-optical disk (MO), and a semiconductor memory, and its driving device. The storage medium may be detachable from the drive device, or the storage device 5 itself may be detachable from the performance information analysis device 100. Alternatively, neither the storage medium nor the storage device 5 may be detachable.

通信I/F7としては、たとえば、MIDI信号などの音楽信号を専用に送受信する音楽専用有線I/F、USB(Universal Serial Bus)やIEEE1394などの汎用近距離有線I/F、Ethernet(登録商標)などの汎用ネットワークI/F、無線LAN(local area network)やBluetooth(登録商標)などの汎用近距離無線I/Fを挙げることができる。本実施の形態では、通信I/F7としてUSBを採用しているが、これに代えて他の種類のI/Fを採用してもよいし、これに他の種類のI/Fを加えるようにしてもよい。   As the communication I / F 7, for example, a music dedicated wired I / F that exclusively transmits / receives music signals such as MIDI signals, general-purpose short-distance wired I / Fs such as USB (Universal Serial Bus) and IEEE 1394, and Ethernet (registered trademark) General-purpose network I / F such as wireless LAN (local area network) and Bluetooth (registered trademark) can be used. In this embodiment, the USB is adopted as the communication I / F 7. However, instead of this, other types of I / F may be adopted, and other types of I / F may be added thereto. It may be.

なお演奏情報解析装置100は、上述のように、外部機器を接続した汎用的なPC上に構築されたが、外部機器を接続しない汎用的なPC上に構築してもよいし、汎用的なPC上ではなく、専用装置上に構築してもよい。   The performance information analyzing apparatus 100 is constructed on a general-purpose PC connected to an external device as described above, but may be constructed on a general-purpose PC not connected to an external device, or a general-purpose PC. You may construct | assemble on a dedicated apparatus instead of on PC.

以上のように構成された演奏情報解析装置100が実行する制御処理を、まず図2〜図6を参照してその概要を説明し、次に図7を参照して詳細に説明する。   The control process executed by the performance information analyzing apparatus 100 configured as described above will be described first with reference to FIGS. 2 to 6 and then in detail with reference to FIG.

制御処理(解析処理)の対象となる演奏情報(以下「対象演奏情報」という)は、本実施の形態では説明の便宜上、そのフォーマットとしてSMF(standard MIDI file)形式のものを採用し、そのフォーマットタイプとしてフォーマット1、つまり、複数のトラックを持つものを想定する。したがって、対象演奏情報は、1つのヘッダチャンクと、そのヘッダチャンク内に設定されたトラック数分のトラックチャンクによって形成されている。ヘッダチャンクは、そのファイル(対象演奏情報ファイル)の基本的な情報を格納するものであり、SMFでは、記載すべき情報(データ長、フォーマットタイプ、トラック数、時間単位など)が決まっている。トラックチャンクは、各トラックの演奏データ(デルタタイムとイベントを1組とした複数組からなる列)を格納するものであるが、本実施の形態では、トラック0のトラックチャンクだけは、演奏データを格納せず、当該演奏情報の書誌情報(曲名、拍子、作成日時、各トラックの書誌情報など)を格納するものとする。各トラックチャンク(トラック0を除く)には、トラック毎に異なった音色を割り当て可能に構成されているので、各トラックの書誌情報には、当該トラックに割り当てられた音色情報が含まれている。そして、対象演奏情報の複数のトラックチャンクに割り当てられた複数の音色の中に、[背景技術]欄で前述した通常音色、ドラム音色および特殊音色(メガボイス)のいずれも含まれているものとする。   In the present embodiment, the performance information (hereinafter referred to as “target performance information”) to be subjected to control processing (analysis processing) adopts an SMF (standard MIDI file) format as a format for convenience of explanation. The format is assumed to be format 1, that is, one having a plurality of tracks. Therefore, the target performance information is formed by one header chunk and track chunks corresponding to the number of tracks set in the header chunk. The header chunk stores basic information of the file (target performance information file). In the SMF, information to be described (data length, format type, number of tracks, time unit, etc.) is determined. The track chunk stores performance data of each track (a sequence consisting of a plurality of sets each including a delta time and an event), but in this embodiment, only the track chunk of track 0 has performance data. The bibliographic information (music title, time signature, creation date and time, bibliographic information of each track, etc.) of the performance information is stored without being stored. Since each track chunk (excluding track 0) can be assigned a different tone color for each track, the bibliographic information of each track includes the tone color information assigned to the track. In addition, it is assumed that the plurality of timbres assigned to the plurality of track chunks of the target performance information include any of the normal timbre, drum timbre, and special timbre (megavoice) described in the [Background Technology] field. .

なお、音色情報とは、音色を特定するための情報である。SMFでは、音色は、バンクセレクトMSB、バンクセレクトLSBおよびプログラムチェンジの各メッセージを電子楽器(音源装置)に送信することで特定されるので、上記音色情報は、当該各メッセージを生成するために必要なパラメータ値である。しかし、これらパラメータ値も、説明を簡単化するために以下、「バンクセレクトMSB」、「バンクセレクトLSB」および「プログラムチェンジ」ということにする。なお音色の特定方法は、これに限られる訳ではなく、電子楽器(音源装置)の機種名と音色番号などによって特定する方法を採用してもよい。   The timbre information is information for specifying a timbre. In SMF, the timbre is specified by transmitting the bank select MSB, bank select LSB, and program change messages to the electronic musical instrument (sound source device), so the timbre information is necessary to generate the messages. Parameter value. However, these parameter values are also referred to as “bank select MSB”, “bank select LSB”, and “program change” for the sake of simplicity. Note that the method of specifying the timbre is not limited to this, and a method of specifying the timbre by the model name and timbre number of the electronic musical instrument (sound source device) may be adopted.

また、本実施の形態では上述のように、対象演奏情報には、演奏データ以外の情報(ヘッダ情報や書誌情報など)も含まれているが、これらの情報は、対象演奏情報と分離して管理するようにしてもよい。   In the present embodiment, as described above, the target performance information includes information (such as header information and bibliographic information) other than the performance data, but these pieces of information are separated from the target performance information. You may make it manage.

図2は、あるギター音色のメガボイスが割り当てられた演奏データの一部((a))とその表示例((b))を示す図である。同図(a)中、欄“L1”,“L2”および“L3”はそれぞれ、「小節」、「拍」および「クロック」を示し、欄“CH”は、「チャンネル」を示し、欄“Type”は、「データの種類」を示し、“Note”は、「ノートデータ」であることを示している。さらに、欄“Value1”は、音名[ノートナンバ]を示し、欄“Value2”は、発音の長さを示し、欄“Value3”は、ベロシティを示している。この種のメガボイスが割り当てられた演奏データでは、各ノートイベントに含まれるベロシティは、通常音色が割り当てられた演奏データにおけるベロシティと異なり、当該ノートイベントの音量を単純に示している訳ではない。   FIG. 2 is a diagram showing a part ((a)) of performance data to which a mega voice of a certain guitar tone is assigned and a display example ((b)). In FIG. 9A, columns “L1”, “L2”, and “L3” indicate “bar”, “beat”, and “clock”, respectively, and column “CH” indicates “channel”. “Type” indicates “data type”, and “Note” indicates “note data”. Further, a column “Value1” indicates a note name [note number], a column “Value2” indicates a pronunciation length, and a column “Value3” indicates a velocity. In performance data to which this type of mega voice is assigned, the velocity included in each note event is different from the velocity in performance data to which a normal tone is assigned, and does not simply indicate the volume of the note event.

図6(a)は、この種のメガボイスが割り当てられたことに応じて選択されるフィルタリング条件の一部の一例を示す図である。同図(a)において、ベロシティが1〜20,21〜40,41〜60,61〜75および76〜87の範囲にはそれぞれ“Open Soft”,“Open Medium”,“Open Hard”,“Dead”および“Mute”と記載されているが、これはギター演奏での奏法を示している。つまり、これらの各範囲には、奏法に依存した音色(奏法依存音色)が割り当てられ、各範囲毎に、当該奏法依存音色の演奏データの音量が最小値から最大値まで取り得るように制御される。   FIG. 6A is a diagram illustrating an example of a part of the filtering condition selected in response to the assignment of this type of mega voice. In FIG. 9A, the velocities in the range of 1 to 20, 21 to 40, 41 to 60, 61 to 75, and 76 to 87 are respectively “Open Soft”, “Open Medium”, “Open Hard”, and “Dead”. "And" Mute ", which indicates how to play the guitar. That is, each of these ranges is assigned a timbre depending on the performance style (performance style timbre), and for each range, the performance data of the performance style-dependent timbre can be controlled from the minimum value to the maximum value. The

このようにベロシティが当該ノートイベントの音量をそのまま表していない演奏データに対して、前記従来の検索装置によって自動で除外処理を行うと、従来の検索装置は、[背景技術]欄で前述したように、ベロシティの極端に小さいものを除外するので、“Open Soft”奏法が割り当てられた演奏データ(の一部)のみが除外され、それ以外の奏法が割り当てられた演奏データでベロシティの小さいものは除外されない。   As described above in the “Background Art” column, when the performance data whose velocity does not directly represent the volume of the note event is automatically excluded by the conventional search device, the conventional search device is described above. The performance data to which the “Open Soft” performance method is assigned is excluded, and the performance data to which other performance methods are assigned is the one with the low velocity. Not excluded.

そこで、本発明では、音色に対応付けて、当該音色で除去すべき演奏データを指示するためのフィルタリング条件を予め用意しておき、対象演奏情報のうち、除外処理を適用する演奏データが決まると、その演奏データに割り当てられた音色に対応するフィルタリング条件を選択し、このフィルタリング条件を当該演奏データに適用することで、除外すべき演奏データを決定し、決定した演奏データを当該演奏データから除外するようにしている。   Therefore, in the present invention, a filtering condition for instructing performance data to be removed with the timbre is prepared in advance in association with the timbre, and the performance data to which the exclusion process is applied is determined from the target performance information. The filtering condition corresponding to the tone assigned to the performance data is selected, the performance data to be excluded is determined by applying the filtering condition to the performance data, and the determined performance data is excluded from the performance data. Like to do.

図2(a)の演奏データには、音色名が「ビンテージ・ピックギター(Vintage Pick Gtr)」であるメガボイスが割り当てられているので、この音色名に対応するフィルタリング条件(この条件は、ベロシティに関するフィルタリング条件(図6(a)の最上段の条件)とノートナンバに関するフィルタリング条件の両方によって構成される)が選択され、このフィルタリング条件が当該演奏データに適用される。図6(a)のベロシティに関するフィルタリング条件では、各ベロシティに“0”または“1”のいずれかが対応付けられているが、“0”が「除外」を示し、“1”が「非除外」、つまり「抽出」を示す。これにより、ベロシティが0〜9と61〜85の各範囲に属する演奏データが除外される。一方、ノートナンバに関するフィルタリング条件は、本実施の形態では「ノートナンバが“88”以上は除外」を採用しているので、これにより、ベロシティに関するフィルタリング条件によって除外されなかった演奏データのうち、ノートナンバが“88”(図2(b)中の表示鍵盤では鍵“E5”の音高に相当する)以上のものが除外される。   Since the performance data in FIG. 2A is assigned with a mega voice whose tone name is “Vintage Pick Gtr”, a filtering condition corresponding to this tone name (this condition is related to velocity). A filtering condition (consisting of both the filtering condition relating to the note number) and the filtering condition regarding the note number is selected, and this filtering condition is applied to the performance data. In the filtering condition related to velocity in FIG. 6A, either “0” or “1” is associated with each velocity, but “0” indicates “exclusion” and “1” indicates “non-exclusion”. ", That is," extract ". As a result, performance data belonging to ranges of velocity 0 to 9 and 61 to 85 are excluded. On the other hand, the filtering condition related to the note number employs “excluded when the note number is“ 88 ”or higher” in this embodiment. Numbers greater than or equal to “88” (corresponding to the pitch of the key “E5” on the display keyboard in FIG. 2B) are excluded.

図2(a)の演奏データに対して、まずベロシティに関するフィルタリング条件が適用されると、ベロシティが“1”,“61”,“71”,“76”および“85”(図中“★”が付与されている)の演奏データが除外される。そして除外後の演奏データに対して、ノートナンバに関するフィルタリング条件が適用されると、ノートナンバが“104”〜“106”の演奏データ、つまり“G#6”,“A6”および“A#6”(図中“●”が付与されている)の演奏データが除外される。図3は、この除外後の演奏データ((a))とその表示例((b))を示している。   When the velocity-related filtering condition is first applied to the performance data of FIG. 2A, the velocities are “1”, “61”, “71”, “76”, and “85” (“★” in the figure). Performance data) is excluded. When filtering conditions relating to the note number are applied to the performance data after the exclusion, the performance data with the note numbers “104” to “106”, that is, “G # 6”, “A6” and “A # 6”. Performance data of “” (indicated by “●” in the figure) is excluded. FIG. 3 shows the performance data after the exclusion ((a)) and a display example ((b)).

図4は、あるドラム音色が割り当てられた演奏データ((a))とその表示例((b))を示す図である。この種の音色では、各ノートイベントに対応するノートナンバは、通常音色におけるノートナンバと異なり、単にピッチ(音高)を示している訳ではない。つまり、各ドラム音のピッチはほぼ一定であるので、各ドラム音に対してピッチの異なる音を数多く対応付けておく必要がないからである。したがって、各ノートナンバには、ドラム(打楽器)の種類や奏法の異なる音が対応付けられている。   FIG. 4 is a diagram showing performance data ((a)) to which a certain drum tone is assigned and a display example ((b)). In this type of timbre, the note number corresponding to each note event does not simply indicate the pitch (pitch) unlike the note number in the normal timbre. That is, since the pitch of each drum sound is substantially constant, it is not necessary to associate many sounds with different pitches with each drum sound. Therefore, each note number is associated with a sound having a different drum type or percussion method.

ドラム音色の割り当てられた演奏データについては、その演奏データを複数のカテゴリ(たとえば「シンバル系」、「スネア系」および「バスドラム系」などのパート)に分離したいことがあるが、本発明では、前記フィルタリング条件とは内容の異なるフィルタリング条件を用いて、この要求に応えるようにしている。   For performance data to which drum sounds are assigned, it may be desired to separate the performance data into a plurality of categories (for example, parts such as “cymbal system”, “snare system” and “bass drum system”). The filtering condition is different from the filtering condition to meet this requirement.

図4(a)の演奏データには、音色名が「ヒップ・ホップ・キット(Hip Hop Kit)」であるドラム音色が割り当てられているので、この音色名に対応するフィルタリング条件、つまり図6(b)の2段目のフィルタリング条件が選択され、このフィルタリング条件が当該演奏データに適用される。図6(b)のフィルタリング条件では、30〜92の各ノートナンバに“0”〜“3”のいずれかが対応付けられているが、“0”が「除外」を示し、“1”が「バスドラム系として抽出」を示し、“2”が「スネア系として抽出」を示し、“3”が「シンバル系として抽出」を示す。これにより、演奏データの除外と各カテゴリへの分離が一度になされる。なお、「バスドラム系」、「スネア系」および「シンバル系」が、それぞれ複数の音高に対応付けられているのは、たとえば「シンバル系」音色の場合、クラッシュシンバル、ライドシンバル、ハイハットクローズなど、複数のシンバル音色があり、それぞれのシンバル音色が異なる音高に割り当てられるからである。その一方で、たとえば「ミュート系」シンバル音色が割り当てられている音高は、たとえシンバル音色であっても抽出しないよう、フィルタリング条件が設定されている。   Since the drum tone whose tone name is “Hip Hop Kit” is assigned to the performance data of FIG. 4A, the filtering condition corresponding to this tone name, that is, FIG. The second filtering condition of b) is selected, and this filtering condition is applied to the performance data. In the filtering condition of FIG. 6B, each of the note numbers 30 to 92 is associated with any of “0” to “3”, but “0” indicates “exclusion” and “1” indicates “Extract as a bass drum system” indicates “2” indicates “Extract as a snare system”, and “3” indicates “Extract as a cymbal system”. Thereby, the performance data is excluded and separated into each category at a time. Note that “bass drum system”, “snare system”, and “cymbal system” are associated with multiple pitches, for example, in the case of a “cymbal system” tone, a crash cymbal, ride cymbal, hi-hat close This is because there are a plurality of cymbal tones, and each cymbal tone is assigned to a different pitch. On the other hand, for example, a filtering condition is set so that a pitch to which a “mute-type” cymbal tone is assigned is not extracted even if it is a cymbal tone.

図4(a)の演奏データに対して、図6(b)の2段目のフィルタリング条件が適用されると、ノートナンバが“59”の演奏データ、つまり“B2”の演奏データが「バスドラム系」に分離され、ノートナンバが“57”と“85”の演奏データ、つまり“A2”と“C#5”の演奏データが「スネア系」に分離され、ノートナンバが“90”の演奏データ、つまり“F#5”の演奏データが「シンバル系」に分離される。図5は、この除外および分離後の演奏データの表示例を示している。   When the second filtering condition of FIG. 6B is applied to the performance data of FIG. 4A, the performance data with a note number of “59”, that is, the performance data of “B2” is “bus”. The performance data of “57” and “85”, that is, the performance data of “A2” and “C # 5” is separated into the “snare system”, and the note number is “90”. Performance data, that is, performance data of “F # 5” is separated into “cymbals”. FIG. 5 shows a display example of performance data after this exclusion and separation.

このように本実施の形態では、どのような種類の演奏データに対しても、検索に不必要な音を自動的かつ適切に除外することができる。さらに、除外に加えて、複数のカテゴリへの演奏データの分離までも行うことができる。   As described above, according to the present embodiment, sounds unnecessary for search can be automatically and appropriately excluded for any type of performance data. Further, in addition to exclusion, performance data can be separated into a plurality of categories.

次に、この制御処理を詳細に説明する。   Next, this control process will be described in detail.

図7は、本実施の形態の演奏情報解析装置100、特にCPU2が実行する演奏情報解析処理の手順を示すフローチャートである。   FIG. 7 is a flowchart showing a procedure of performance information analysis processing executed by the performance information analysis apparatus 100 of the present embodiment, particularly the CPU 2.

本演奏情報解析処理は、ユーザが前記操作入力部1から対象演奏情報を指定した後、本演奏情報解析処理の起動を指示したことに応じて、起動される。   The performance information analysis process is activated in response to the user specifying the target performance information from the operation input unit 1 and then instructing activation of the performance information analysis process.

本演奏情報解析処理が起動されると、CPU2は、指定された対象演奏情報を取得して、前記RAM4上の所定位置に確保された対象演奏情報格納領域(図示せず)に読み込む(ステップS1)。ここで、対象演奏情報の取得元は、前記記憶装置5や前記外部機器、あるいは前記通信I/F7がインターネットに接続されている場合には、インターネット上のサーバなど、各種考えられ、そのいずれから取得するようにしてもよい。   When the performance information analysis process is activated, the CPU 2 acquires the designated target performance information and reads it into a target performance information storage area (not shown) secured at a predetermined position on the RAM 4 (step S1). ). Here, there are various possible sources of the target performance information, such as the storage device 5 or the external device, or a server on the Internet when the communication I / F 7 is connected to the Internet. You may make it acquire.

次にCPU2は、対象演奏情報のトラック番号を指示するためにRAM4上に設けられたポインタN(以下、この内容を「Nトラック」という)を初期化(“1”に設定)する(ステップS2)。   Next, the CPU 2 initializes (sets to “1”) a pointer N (hereinafter referred to as “N track”) provided on the RAM 4 to indicate the track number of the target performance information (step S2). ).

次にCPU2は、Nトラック(現時点では、トラック1)の書誌情報を取得する(ステップS3)。対象演奏情報は、前述のように、トラック0のトラックチャンクに各トラックの書誌情報が記載されているので、CPU2は、その各トラックの書誌情報のうち、トラック1の書誌情報を取得する。   Next, the CPU 2 acquires bibliographic information of N tracks (track 1 at present) (step S3). As described above, since the target performance information describes the bibliographic information of each track in the track chunk of track 0, the CPU 2 acquires the bibliographic information of track 1 among the bibliographic information of each track.

そしてCPU2は、取得したトラック1の書誌情報から、トラック1に割り当てられている音色情報を抽出し(ステップS4)、抽出した音色情報に応じた(対応する)フィルタリング条件を取得する(ステップS5)。音色情報は、本実施の形態では前述のように、「バンクセレクトMSB」、「バンクセレクトLSB」および「プログラムチェンジ」であるので、上記ステップS4では、トラック1に割り当てられている「バンクセレクトMSB」、「バンクセレクトLSB」および「プログラムチェンジ」が抽出される。CPU2は、この抽出された「バンクセレクトMSB」、「バンクセレクトLSB」および「プログラムチェンジ」から、トラック1に割り当てられている音色を特定する。フィルタリング条件は、特定可能な音色の数だけ予め用意され、たとえば記憶装置5に記憶されている。そして、音色が1つ特定されると、取得すべきフィルタリング条件が分かるように、たとえばテーブルデータで管理されている。したがってCPU2は、音色が特定されると、テーブルデータを検索することで、目的のフィルタリング条件を取得することができる。なお、音色とフィルタリング条件とは、常に1:1に対応付けられている必要はなく、ただ、音色が1つ決まれば、選択すべきフィルタリング条件が1つ決まるようになっていればよい。つまり、異なった音色で共通のフィルタリング条件が選択されるようにしてもよい。また、フィルタリング条件の記憶場所は、演奏情報解析装置100の内部ではなく、外部であってもよく、ただ、音色情報に応じてフィルタリング条件が取得できるようになっていればよい。   Then, the CPU 2 extracts timbre information assigned to the track 1 from the obtained bibliographic information of the track 1 (step S4), and obtains a filtering condition corresponding to (corresponding to) the extracted timbre information (step S5). . As described above, since the timbre information is “bank select MSB”, “bank select LSB”, and “program change” in the present embodiment, the “bank select MSB” assigned to the track 1 in step S4. ”,“ Bank Select LSB ”, and“ Program Change ”are extracted. The CPU 2 specifies the timbre assigned to the track 1 from the extracted “bank select MSB”, “bank select LSB”, and “program change”. The filtering conditions are prepared in advance for the number of timbres that can be specified, and are stored in the storage device 5, for example. Then, when one timbre is specified, for example, it is managed by table data so that the filtering condition to be acquired can be understood. Therefore, when the timbre is specified, the CPU 2 can acquire the target filtering condition by searching the table data. Note that the timbre and the filtering condition do not always need to be associated with 1: 1, but it is only necessary that one filtering condition to be selected is determined if one timbre is determined. That is, common filtering conditions may be selected for different timbres. Further, the filtering condition storage location may be not the inside of the performance information analyzing apparatus 100 but the outside, as long as the filtering condition can be acquired according to the timbre information.

次にCPU2は、取得したフィルタリング条件を対象演奏情報のトラック1の演奏データに適用して、削除すべき(一部の)演奏データがあるかどうかを判定する(ステップS6)。この判定の結果、削除すべき演奏データがあれば、CPU2は、当該データをトラック1の演奏データから削除する(ステップS7)一方、削除すべき演奏データがなければ、CPU2は、ステップS7をスキップして処理をステップS8に進める。   Next, the CPU 2 applies the acquired filtering condition to the performance data of the track 1 of the target performance information and determines whether there is (partial) performance data to be deleted (step S6). If there is performance data to be deleted as a result of this determination, the CPU 2 deletes the data from the performance data of the track 1 (step S7). On the other hand, if there is no performance data to be deleted, the CPU 2 skips step S7. Then, the process proceeds to step S8.

ステップS6,S7の処理は、大まかに記載されており、CPU2は厳密には、次のように処理する。すなわち、CPU2は、トラック1の演奏データに含まれるすべてのノートイベントについて1つずつ当該フィルタリング条件と照らし合わせ、そのノートイベントが削除すべきものであるかどうかを判定する。そしてCPU2は、ノートイベント毎の判定結果に基づいて、当該ノートイベントの削除(除外)または非削除(非除外)を決定し、削除決定されたものを削除する。   The processing of steps S6 and S7 is roughly described, and strictly speaking, the CPU 2 performs the following processing. That is, the CPU 2 compares all the note events included in the performance data of the track 1 with the filtering condition one by one, and determines whether the note event should be deleted. Then, the CPU 2 determines deletion (exclusion) or non-deletion (non-exclusion) of the note event based on the determination result for each note event, and deletes the determined deletion.

トラック1の演奏データとして、たとえば前記図2(a)の演奏データが設定され、フィルタリング条件として、前記図6(a)の最上段のベロシティに関するフィルタリング条件と前記ノートナンバに関するフィルタリング条件(「ノートナンバが“88”以上は除外」)とからなるものが選択された場合、まずCPU2は、トラック1の演奏データの先頭のノートイベント、つまりノートナンバが“52”であり、ベロシティが“25”のイベントとフィルタリング条件とを照らし合わせる。ベロシティ“25”には、ノートナンバに関するフィルタリング条件中、“1”が対応付けられているので、非削除、つまり抽出と決定される。さらに、ノートナンバ“52”は“88”より小さいので、ノートナンバに関するフィルタリング条件でも、非削除と決定される。その結果、先頭のノートイベントは非削除となり、削除されない。   For example, the performance data of FIG. 2A is set as the performance data of track 1, and the filtering condition relating to the velocity in the uppermost stage in FIG. 6A and the filtering condition relating to the note number (“note number”) are set as filtering conditions. Is selected, the first note event of the performance data of track 1, that is, the note number is “52” and the velocity is “25”. Check the event against the filtering condition. Since “1” is associated with the velocity “25” in the filtering condition related to the note number, it is determined as non-deletion, that is, extraction. Furthermore, since the note number “52” is smaller than “88”, the filtering condition relating to the note number is also determined not to be deleted. As a result, the first note event is not deleted and is not deleted.

4番目のノートイベントに処理が進むと、CPU2は、ノートナンバが“43”であり、ベロシティが“1”のイベントとフィルタリング条件とを照らし合わせる。ベロシティ“1”には、ノートナンバに関するフィルタリング条件中、“0”が対応付けられているので、削除と決定される。その結果、4番目のノートイベントはトラック1の演奏データから削除される。次の5番目のノートイベントでは、CPU2は、ノートナンバが“106”であり、ベロシティが“86”のイベントとフィルタリング条件とを照らし合わせる。ベロシティ“86”には、ノートナンバに関するフィルタリング条件中、“1”が対応付けられているので、非削除と決定される。ところが、ノートナンバ“106”は“88”以上であるので、ノートナンバに関するフィルタリング条件では、削除と決定される。その結果、5番目のノートイベントはトラック1の演奏データから削除される。   When the process proceeds to the fourth note event, the CPU 2 compares the event having the note number “43” and the velocity “1” with the filtering condition. The velocity “1” is determined to be deleted because “0” is associated with the filtering condition regarding the note number. As a result, the fourth note event is deleted from the performance data of track 1. In the next fifth note event, the CPU 2 compares the event having the note number “106” and the velocity “86” with the filtering condition. Since “1” is associated with the velocity “86” in the filtering condition related to the note number, it is determined not to be deleted. However, since the note number “106” is “88” or more, it is determined to be deleted in the filtering condition regarding the note number. As a result, the fifth note event is deleted from the performance data of track 1.

CPU2は、このような判定とその判定結果に応じた削除/非削除処理をトラック1の演奏データの末尾のノートイベントまで行う。これにより、トラック1の演奏データは、ユーザが除外したいと意図する演奏データを除外したものとなる。このフィルタリング後のトラック1の演奏データ(の一部)が、前記図3(a)の演奏データである。   The CPU 2 performs such determination and deletion / non-deletion processing according to the determination result up to the note event at the end of the performance data of the track 1. Thereby, the performance data of the track 1 excludes the performance data that the user intends to exclude. The performance data (part) of the track 1 after the filtering is the performance data shown in FIG.

以上のトラック1の演奏データについての除外処理と、制御処理の概要での対応する除外処理とでは、その処理内容が若干異なっている(ただし、除外処理後の結果は両者間で変わらない)。つまり、制御処理の概要では、トラック1の演奏データに対して、まずベロシティに関するフィルタリング条件を適用して一部の演奏データを除外した後、残りの演奏データに対して、次にノートナンバに関するフィルタリング条件を適用してさらに一部の演奏データを除外するようにしている。これに対して、上記除外処理では、トラック1の演奏データのノートイベント毎に、ベロシティに関するフィルタリング条件とノートナンバに関するフィルタリング条件の両方を適用して、削除/非削除を決定し、削除決定されたものを削除するようにしているからである。もちろん、いずれを採用してもよく、両者の説明の違いは、単に説明の便宜上のものである。   The processing contents of the above-described exclusion process for the performance data of track 1 and the corresponding exclusion process in the outline of the control process are slightly different (however, the result after the exclusion process does not change between the two). In other words, in the outline of the control processing, the performance-related data for track 1 is first applied with a filtering condition related to velocity to exclude some performance data, and then the remaining performance data is filtered next for note number. A part of performance data is excluded by applying a condition. On the other hand, in the above exclusion process, deletion / non-deletion is determined by applying both the filtering condition related to velocity and the filtering condition related to note number for each note event of the performance data of track 1, and the deletion is determined. This is because things are deleted. Of course, either may be adopted, and the difference between the two descriptions is merely for convenience of description.

図7に戻り、ステップS8では、CPU2は、フィルタリング後のトラック1の演奏データを新たなトラック1の演奏データとして保存する。   Returning to FIG. 7, in step S <b> 8, the CPU 2 stores the filtered performance data of the track 1 as performance data of the new track 1.

次にCPU2は、トラック1が最後のトラックかどうか判定する(ステップS9)。前述のように、対象演奏情報は複数トラックの演奏データによって構成されているので、トラック1は最後のトラックではない。したがって、CPU2は、ポインタNの値を“1”だけインクリメントした(ステップS10)後、処理を前記ステップS3に戻す。   Next, the CPU 2 determines whether or not the track 1 is the last track (step S9). As described above, since the target performance information is composed of performance data of a plurality of tracks, track 1 is not the last track. Therefore, the CPU 2 increments the value of the pointer N by “1” (step S10), and then returns the process to step S3.

ステップS3〜S5の処理は、トラックが“0”から“1”に変わっても、その処理内容はほとんど変わらないので、その説明は省略する。   Since the processing contents of steps S3 to S5 hardly change even when the track is changed from “0” to “1”, the description thereof is omitted.

トラック2の演奏データとして、たとえば前記図4(a)の演奏データが設定され、フィルタリング条件として、前記図6(b)の2段目のフィルタリング条件が選択された場合、まずCPU2は、トラック2の演奏データの先頭のノートイベント、つまりノートナンバが“59”のイベントとフィルタリング条件とを照らし合わせる。ノートナンバ“59”には、フィルタリング条件中、“1”が対応付けられているので、「バスドラム系として分離抽出」と決定される。その結果、先頭のノートイベントはバスドラム系として分離抽出される。   For example, when the performance data of FIG. 4A is set as the performance data of the track 2 and the second filtering condition of FIG. 6B is selected as the filtering condition, the CPU 2 first selects the track 2 The first note event of the performance data, that is, the event having the note number “59” is compared with the filtering condition. Since the note number “59” is associated with “1” in the filtering condition, “separated and extracted as a bass drum system” is determined. As a result, the first note event is separated and extracted as a bass drum system.

次の2番目のノートイベントでは、CPU2は、ノートナンバが“90”のイベントとフィルタリング条件とを照らし合わせる。ノートナンバ“90”には、フィルタリング条件中、“3”が対応付けられているので、「シンバル系として分離抽出」と決定される。その結果、2番目のノートイベントはシンバル系として分離抽出される。   In the next second note event, the CPU 2 compares the event whose note number is “90” with the filtering condition. Since the note number “90” is associated with “3” in the filtering condition, “separate extraction as a cymbal system” is determined. As a result, the second note event is separated and extracted as a cymbal system.

5番目のノートイベントに処理が進むと、CPU2は、ノートナンバが“57”のイベントとフィルタリング条件とを照らし合わせる。ノートナンバ“57”には、フィルタリング条件中、“2”が対応付けられているので、「スネア系として分離抽出」と決定される。その結果、2番目のノートイベントはスネア系として分離抽出される。   When the processing proceeds to the fifth note event, the CPU 2 compares the event having the note number “57” with the filtering condition. Since note number “57” is associated with “2” in the filtering condition, it is determined as “separation extraction as snare system”. As a result, the second note event is separated and extracted as a snare system.

CPU2は、このような判定とその判定結果に応じた削除/分離抽出処理をトラック2の演奏データの末尾のノートイベントまで行う。なお、上記図4(a)の演奏データの例では、削除されるノートイベントはなく、分離抽出しかされないが、判定対象のノートイベントのノートナンバがフィルタリング条件中、“0”が対応付けられているものであれば、そのノートイベントは、トラック1の演奏データと同様に、削除される。   The CPU 2 performs such determination and deletion / separation extraction processing according to the determination result up to the note event at the end of the performance data of the track 2. In the example of the performance data in FIG. 4A, there are no note events to be deleted and only separation and extraction are performed, but “0” is associated with the note number of the determination target note event in the filtering condition. If so, the note event is deleted in the same manner as the performance data of track 1.

このようにトラック2の演奏データは、ユーザが除外を意図する演奏データが除外された上で、複数のカテゴリに分離抽出される。この分離抽出後のトラック2の演奏データ(の一部)を表示したものが、前記図5(a)〜(c)である。   As described above, the performance data of the track 2 is separated and extracted into a plurality of categories after the performance data that the user intends to exclude is excluded. FIGS. 5A to 5C show the performance data (part of) of the track 2 after the separation and extraction.

図7に戻り、ステップS8では、CPU2は、分離抽出後のトラック2の演奏データを新たなトラック2の演奏データとして保存する。なお分離抽出後の演奏データは、それぞれ独立したトラックとして保存するようにしてもよい。   Returning to FIG. 7, in step S <b> 8, the CPU 2 stores the performance data of the track 2 after the separation and extraction as performance data of the new track 2. The performance data after separation and extraction may be stored as independent tracks.

次にCPU2は、トラック2が最後のトラックかどうか判定し(ステップS9)、最後のトラックであれば、本演奏情報解析処理を終了する一方、最後のトラックでなければ、最後のトラックになるまで、ポインタNの値を“1”だけインクリメントしつつ(ステップS10)、前記ステップS3〜S9の処理を繰り返す。   Next, the CPU 2 determines whether or not the track 2 is the last track (step S9). If it is the last track, the performance information analysis process is terminated. The process of steps S3 to S9 is repeated while incrementing the value of the pointer N by “1” (step S10).

次に、演奏情報の再生処理と表示処理について簡単に説明する。   Next, performance information reproduction processing and display processing will be briefly described.

演奏情報解析装置100では、ユーザが操作入力部1から再生対象の演奏情報(その中の任意の1トラックの演奏データでもよい。以下同様)を指定した後、その再生開始を指示すると、CPU2は、当該演奏情報の再生を開始する。演奏情報は、本実施の形態では前述の通り、SMF形式のものであるので、CPU2は、デルタタイムを所定の時間間隔でデクリメントして行き、“0”になると、そのデルタタイムの直後に配置されているイベントを読み出し、そのイベントの内容に応じた処理を行うことで、再生処理を行うようにしている。演奏情報解析装置100では、対象演奏情報も、この対象演奏情報に対して前記演奏情報解析処理を施して生成された新たな演奏データ(図3(a)および図5参照)を含む演奏情報も再生対象とすることができる。これにより、両演奏情報を交互に再生することで、両演奏情報を聞き比べることができる。   In the performance information analyzing apparatus 100, when the user designates performance information to be reproduced (may be performance data of any one of the tracks, the same applies hereinafter) from the operation input unit 1, the CPU 2 instructs the reproduction start. Then, the reproduction of the performance information is started. Since the performance information is in the SMF format in this embodiment as described above, the CPU 2 decrements the delta time at a predetermined time interval, and when it becomes “0”, it is arranged immediately after the delta time. The reproduction process is performed by reading the event being performed and performing the process according to the content of the event. In the performance information analyzing apparatus 100, both target performance information and performance information including new performance data (see FIGS. 3A and 5) generated by performing the performance information analysis process on the target performance information. Can be a playback target. Thereby, both performance information can be heard and compared by reproducing both performance information alternately.

また演奏情報解析装置100では、ユーザが操作入力部1から表示対象の演奏情報を指定した後、その表示を指示すると、CPU2は、当該演奏情報をディスプレイ6上に表示する。この表示でも、対象演奏情報も、当該新たな演奏データを含む演奏情報も表示対象とすることができる。これにより、両演奏情報を交互に表示することで、両演奏情報を見比べることができる。図2(b)、図3(b)、図4(b)および図5は、演奏情報の表示例を示している。なお表示態様は、本実施の形態では、ピアノロールの態様を採用したが、これに限らないことは言うまでもない。   In the performance information analyzing apparatus 100, when the user designates display of performance information to be displayed from the operation input unit 1, the CPU 2 displays the performance information on the display 6. Even in this display, target performance information and performance information including the new performance data can be displayed. Thereby, both performance information can be compared by displaying both performance information alternately. 2 (b), 3 (b), 4 (b) and 5 show display examples of performance information. In this embodiment, the display mode is a piano roll mode. However, it is needless to say that the display mode is not limited to this.

このように、新旧の演奏情報を聞き比べたり、見比べたりした結果、新たな演奏情報の一部の演奏データをさらに除外したいことがある。これに対処するために、編集機能を備えるようにしてもよい。   Thus, as a result of comparing and comparing old and new performance information, it may be desired to further exclude some performance data of the new performance information. In order to cope with this, an editing function may be provided.

なお本実施の形態では、対象演奏情報として、SMF形式でフォーマット1のものとしか限定していない。つまり、その種類はどのようなものでもよいが、たとえば、スタイル(自動伴奏)データ、ソングデータ、アルペジオなどを挙げることができる。また、対象演奏情報は、MIDI形式のものに限らず、オーディオデータが含まれていたり、オーディオデータのみで構成されていてもよい。   In the present embodiment, the target performance information is limited only to the SMF format of format 1. In other words, any type can be used, and examples include style (automatic accompaniment) data, song data, and arpeggio. Further, the target performance information is not limited to the MIDI format, but may include audio data or may be composed of only audio data.

本実施の形態では、音色情報の検出は、トラック0のトラックチャンクに格納された「各トラックの書誌情報」に記載のもの(典型的には、音色番号)を抽出する方法を用いたが、これに限らず、(特に、オーディオデータの場合)音響信号に対して周波数分析などを行って抽出する方法を採用してもよい。   In the present embodiment, the timbre information is detected by using a method of extracting one (typically, timbre number) described in “bibliographic information of each track” stored in the track chunk of track 0. However, the present invention is not limited to this, and in particular (in the case of audio data), a method of extracting the sound signal by performing frequency analysis or the like may be employed.

また本実施の形態では、フィルタリング条件として、ベロシティの小さいものや聞き取りにくいもの(ノートナンバが“88”以上)を削除するようにしたが、これに限らず、逆にベロシティの大きなものや目立つ音を削除するような条件があってもよい。この条件を適用すれば、たとえば細かな表現まで練習するための演奏ガイド用データを作成して、目立つ音を削除して目立たない音のみを聞きたいという場合に役立つ。   In this embodiment, the filtering conditions are those with low velocity and those that are difficult to hear (note number is “88” or more), but this is not restrictive. There may be a condition for deleting. Applying this condition is useful, for example, when creating performance guide data for practicing even fine expressions and deleting only the inconspicuous sounds by deleting the conspicuous sounds.

さらに本実施の形態では、削除/分離抽出処理は、ドラム音色が割り当てられた演奏データに対して行うようにしたが、これに限らず、通常音色が割り当てられた演奏データに対しても行えるようにしてもよい。これにより、複数人で音域を分けて1つの曲を演奏する場合、奏者ごとの演奏データを簡単に作成することができる。   Further, in the present embodiment, the deletion / separation extraction process is performed on performance data to which a drum tone is assigned. However, the present invention is not limited to this, and performance data to which a normal tone is assigned can also be performed. It may be. As a result, when a single piece of music is played by dividing the musical range by a plurality of people, performance data for each player can be easily created.

またフィルタリング条件として、音符長や発音/消音タイミング、ピッチの変化率(ピッチベンド)など、上述したものとは別のパラメータを用いてもよい。さらに、フィルタリングの前に、予め対象演奏情報をクオンタイズ処理するなど、フィルタリング処理と他の処理を組み合わせてもよい。   In addition, as filtering conditions, parameters other than those described above, such as note length, sounding / mute timing, pitch change rate (pitch bend), and the like may be used. Furthermore, filtering processing may be combined with other processing, such as quantizing the target performance information in advance before filtering.

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the program code and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

2…CPU(取得手段、検出手段、選択手段、生成手段),5…記憶装置(記憶手段),7…通信I/F(取得手段) 2 ... CPU (acquisition means, detection means, selection means, generation means), 5 ... storage device (storage means), 7 ... communication I / F (acquisition means)

Claims (6)

演奏情報解析方法をコンピュータに実行させるためのプログラムであって、
前記演奏情報解析方法は、
音色情報と、音高情報およびベロシティ情報を含む複数の演奏データとからなる演奏情報を取得する取得ステップと、
前記取得ステップによって取得された演奏情報から音色情報を検出する検出ステップと、
音色情報に対応するフィルタリング条件を複数記憶する記憶手段から、前記検出ステップによって検出された音色情報に対応するフィルタリング条件を選択する選択ステップと、
前記選択ステップによって選択されたフィルタリング条件を前記取得された演奏情報に適用することにより、当該演奏情報から前記フィルタリング条件によって除外が指示される演奏データを除外して、新たな演奏情報を生成する生成ステップと
を有する
ことを特徴とするプログラム。
A program for causing a computer to execute a performance information analysis method,
The performance information analysis method includes:
An acquisition step of acquiring performance information comprising timbre information and a plurality of performance data including pitch information and velocity information;
A detection step of detecting timbre information from the performance information acquired by the acquisition step;
A selection step of selecting a filtering condition corresponding to the timbre information detected by the detection step from a storage means for storing a plurality of filtering conditions corresponding to the timbre information;
Generation of generating new performance information by applying the filtering condition selected in the selection step to the acquired performance information to exclude performance data instructed to be excluded by the filtering condition from the performance information And a program.
前記フィルタリング条件は、ベロシティ情報が所定のベロシティ区間に属する演奏データの除外を指示するものであることを特徴とする請求項1に記載のプログラム。   2. The program according to claim 1, wherein the filtering condition is for instructing to exclude performance data whose velocity information belongs to a predetermined velocity section. 前記フィルタリング条件は、音高情報が所定値である演奏データの除外を指示するものであることを特徴とする請求項1に記載のプログラム。   The program according to claim 1, wherein the filtering condition instructs exclusion of performance data whose pitch information is a predetermined value. 前記演奏情報解析方法はさらに、
前記取得ステップによって取得された演奏情報と、前記生成ステップによって新たに生成された演奏情報とを比較再生する再生ステップと、
前記取得ステップによって取得された演奏情報と、前記生成ステップによって新たに生成された演奏情報とを表示手段上に比較表示させる表示ステップと
を有する
ことを特徴とする請求項1〜3のいずれか1項に記載のプログラム。
The performance information analysis method further includes:
A reproduction step for comparing and reproducing the performance information acquired by the acquisition step and the performance information newly generated by the generation step;
The display step of comparing and displaying the performance information acquired in the acquisition step and the performance information newly generated in the generation step on a display means. The program described in the section.
音色情報と、音高情報およびベロシティ情報を含む複数の演奏データとからなる演奏情報を取得する取得ステップと、
前記取得ステップによって取得された演奏情報から音色情報を検出する検出ステップと、
音色情報に対応するフィルタリング条件を複数記憶する記憶手段から、前記検出ステップによって検出された音色情報に対応するフィルタリング条件を選択する選択ステップと、
前記選択ステップによって選択されたフィルタリング条件を前記取得された演奏情報に適用することにより、当該演奏情報から前記フィルタリング条件によって除外が指示される演奏データを除外して、新たな演奏情報を生成する生成ステップと
を有することを特徴とする演奏情報解析方法。
An acquisition step of acquiring performance information comprising timbre information and a plurality of performance data including pitch information and velocity information;
A detection step of detecting timbre information from the performance information acquired by the acquisition step;
A selection step of selecting a filtering condition corresponding to the timbre information detected by the detection step from a storage means for storing a plurality of filtering conditions corresponding to the timbre information;
Generation of generating new performance information by applying the filtering condition selected in the selection step to the acquired performance information to exclude performance data instructed to be excluded by the filtering condition from the performance information A performance information analysis method comprising: steps.
音色情報と、音高情報およびベロシティ情報を含む複数の演奏データとからなる演奏情報を取得する取得手段と、
前記取得手段によって取得された演奏情報から音色情報を検出する検出手段と、
音色情報に対応するフィルタリング条件を複数記憶する記憶手段と、
前記記憶手段から、前記検出手段によって検出された音色情報に対応するフィルタリング条件を選択する選択手段と、
前記選択手段によって選択されたフィルタリング条件を前記取得された演奏情報に適用することにより、当該演奏情報から前記フィルタリング条件によって除外が指示される演奏データを除外して、新たな演奏情報を生成する生成手段と
を有することを特徴とする演奏情報解析装置。
Obtaining means for obtaining performance information composed of timbre information and a plurality of performance data including pitch information and velocity information;
Detecting means for detecting timbre information from the performance information acquired by the acquiring means;
Storage means for storing a plurality of filtering conditions corresponding to timbre information;
Selecting means for selecting a filtering condition corresponding to the timbre information detected by the detecting means from the storage means;
Generation of generating new performance information by applying the filtering condition selected by the selection means to the acquired performance information to exclude performance data instructed to be excluded by the filtering condition from the performance information And a performance information analyzing apparatus.
JP2013133610A 2013-06-26 2013-06-26 Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus Expired - Fee Related JP6183002B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013133610A JP6183002B2 (en) 2013-06-26 2013-06-26 Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013133610A JP6183002B2 (en) 2013-06-26 2013-06-26 Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017015746A Division JP6424907B2 (en) 2017-01-31 2017-01-31 Program for realizing performance information search method, performance information search method and performance information search apparatus

Publications (2)

Publication Number Publication Date
JP2015007735A true JP2015007735A (en) 2015-01-15
JP6183002B2 JP6183002B2 (en) 2017-08-23

Family

ID=52338041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013133610A Expired - Fee Related JP6183002B2 (en) 2013-06-26 2013-06-26 Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus

Country Status (1)

Country Link
JP (1) JP6183002B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188536A (en) * 1999-12-28 2001-07-10 Casio Comput Co Ltd Playing practice device and storage medium which stores program for playing practice
JP2002196766A (en) * 2000-12-27 2002-07-12 Yamaha Corp Playing and memory medium
JP2010186073A (en) * 2009-02-12 2010-08-26 Kawai Musical Instr Mfg Co Ltd Scale conversion device, method and program
JP2010197600A (en) * 2009-02-24 2010-09-09 Kawai Musical Instr Mfg Co Ltd Device and program for melody modification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188536A (en) * 1999-12-28 2001-07-10 Casio Comput Co Ltd Playing practice device and storage medium which stores program for playing practice
JP2002196766A (en) * 2000-12-27 2002-07-12 Yamaha Corp Playing and memory medium
JP2010186073A (en) * 2009-02-12 2010-08-26 Kawai Musical Instr Mfg Co Ltd Scale conversion device, method and program
JP2010197600A (en) * 2009-02-24 2010-09-09 Kawai Musical Instr Mfg Co Ltd Device and program for melody modification

Also Published As

Publication number Publication date
JP6183002B2 (en) 2017-08-23

Similar Documents

Publication Publication Date Title
JP4274272B2 (en) Arpeggio performance device
JP2002229561A (en) Automatic arranging system and method
JP3750533B2 (en) Waveform data recording device and recorded waveform data reproducing device
JP6183002B2 (en) Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus
JP6424907B2 (en) Program for realizing performance information search method, performance information search method and performance information search apparatus
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP2005107029A (en) Musical sound generating device, and program for realizing musical sound generating method
JP6056799B2 (en) Program, information processing apparatus, and data generation method
JP5561263B2 (en) Musical sound reproducing apparatus and program
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP2002268637A (en) Meter deciding apparatus and program
JP4967170B2 (en) Accompaniment creation system, accompaniment creation method and program
JP5569307B2 (en) Program and editing device
JP3807333B2 (en) Melody search device and melody search program
JP4186802B2 (en) Automatic accompaniment generator and program
JP3832147B2 (en) Song data processing method
JP5387032B2 (en) Electronic music apparatus and program
JP5387031B2 (en) Electronic music apparatus and program
JP6587396B2 (en) Karaoke device with guitar karaoke scoring function
JP4067007B2 (en) Arpeggio performance device and program
JP2014235328A (en) Code estimation detection device and code estimation detection program
JP5747974B2 (en) Information processing apparatus and program
JP5505012B2 (en) Electronic music apparatus and program
JP2015191170A (en) Program, information processing device, and data generation method
JP3931727B2 (en) Performance information editing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170710

R151 Written notification of patent or utility model registration

Ref document number: 6183002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees