JP6127549B2 - Music data editing method, program for realizing the music data editing method, and music data editing apparatus - Google Patents

Music data editing method, program for realizing the music data editing method, and music data editing apparatus Download PDF

Info

Publication number
JP6127549B2
JP6127549B2 JP2013019358A JP2013019358A JP6127549B2 JP 6127549 B2 JP6127549 B2 JP 6127549B2 JP 2013019358 A JP2013019358 A JP 2013019358A JP 2013019358 A JP2013019358 A JP 2013019358A JP 6127549 B2 JP6127549 B2 JP 6127549B2
Authority
JP
Japan
Prior art keywords
waveform image
image data
data
music data
waveform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013019358A
Other languages
Japanese (ja)
Other versions
JP2014149488A (en
Inventor
柿下 正尋
正尋 柿下
智子 奥村
智子 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013019358A priority Critical patent/JP6127549B2/en
Publication of JP2014149488A publication Critical patent/JP2014149488A/en
Application granted granted Critical
Publication of JP6127549B2 publication Critical patent/JP6127549B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、楽音の発音を制御するイベント列からなる音楽データを波形表示するとともに編集することができる音楽データ編集方法、当該音楽データ編集方法を実現するためのプログラムおよび音楽データ編集装置に関する。   The present invention relates to a music data editing method capable of displaying and editing music data composed of an event sequence for controlling the sound generation of musical sounds, a program for realizing the music data editing method, and a music data editing apparatus.

音楽データ編集装置として、DAW(Digital Audio Workstation)ソフトウェアがインストールされ起動されたPC(パーソナルコンピュータ)がある。   As a music data editing apparatus, there is a PC (personal computer) on which DAW (Digital Audio Workstation) software is installed and started.

そして、MIDI(Musical Instrument Digital Interface)データとオーディオデータの双方を扱うことができるDAWソフトウェアが起動されたPCのディスプレイ上には、MIDIデータについては、ノートイベントが、五線譜上の音符やピアノロール上の円や長方形などで表示されたり、数値でリスト表示されたりする一方、オーディオデータについては、波形で表示される。   On the display of the PC on which DAW software capable of handling both MIDI (Musical Instrument Digital Interface) data and audio data is activated, note events for MIDI data are recorded on notes and piano rolls on the staff. The audio data is displayed as a waveform, while the audio data is displayed as a circle or rectangle, or as a list with numerical values.

このように、上記従来のDAWソフトウェアでは、MIDIデータの表示態様とオーディオデータの表示態様が互いに異なるので、ユーザは、MIDIデータとオーディオデータに同様の効果を付与したい場合でも、それぞれの操作方法が異なり、編集作業がし難い。たとえば、オーディオデータをリバースさせる(データの再生順序を右から左へと逆にして、逆方向に再生されるようにする)には、ユーザは、リバースさせたい範囲を指定し、マウスの右ボタンのクリックでポップアップメニューを開き、そのメニュー内の「リバース」を選択する。他方、MIDIデータをリバースさせるには、ユーザは、そのMIDIデータに元々設定されている音色を、そのMIDIデータをリバース再生したときに発生する楽音の音色へ変更するためのMIDIのプログラムチェンジメッセージを作成して、そのMIDIデータ内に追加する必要がある。   As described above, in the conventional DAW software, the display mode of MIDI data and the display mode of audio data are different from each other. Therefore, even when the user wants to give the same effect to the MIDI data and the audio data, the respective operation methods are different. Unlikely, editing work is difficult. For example, to reverse audio data (reversing the data playback order from right to left so that the data is played in the reverse direction), the user specifies the range to be reversed and the right mouse button Click to open a pop-up menu, and select “Reverse” in the menu. On the other hand, in order to reverse the MIDI data, the user sends a MIDI program change message for changing the tone originally set in the MIDI data to the tone of the musical tone generated when the MIDI data is reversely reproduced. It needs to be created and added into the MIDI data.

そこで、MIDIデータとオーディオデータとで、編集方法を一致させるために、MIDIデータが割り当てられたトラック(以下「MIDIトラック」という)のMIDIデータをオーディオデータに変換して、すべてのトラックをオーディオデータが割り当てられたトラック(以下「オーディオトラック」という)とすることが、一般的に行なわれている。   Therefore, in order to match the editing method between MIDI data and audio data, MIDI data of a track to which MIDI data is assigned (hereinafter referred to as “MIDI track”) is converted into audio data, and all tracks are converted into audio data. Is generally assigned to a track (hereinafter referred to as an “audio track”).

しかし、上記従来の方法、つまり、編集方法を一致させるためにMIDIトラックのMIDIデータをオーディオデータに変換する方法を採った場合、変換後のMIDIトラックは最早、オーディオトラックであり、変換前のMIDIトラックではないので、ユーザは、変換前のMIDIトラックで使用できていた、MIDIトラック(MIDIデータ)ならではの編集機能(具体的には、楽器(音色)の差し替えや音質劣化のないトランスポーズ、テンポ変更など)を使用することができなくなる。   However, when the above-described conventional method, that is, the method of converting the MIDI data of the MIDI track into the audio data in order to match the editing method, the converted MIDI track is no longer an audio track, and the MIDI track before conversion is used. Since it is not a track, the user can use the editing function unique to the MIDI track (MIDI data) that can be used in the MIDI track before conversion (specifically, transposition and tempo without replacement of musical instruments (tones) and sound quality degradation. Change) and so on.

本発明は、この点に着目してなされたものであり、編集方法はオーディオデータについての編集方法に合わせつつ、MIDIデータならではの編集機能も使用することが可能となる音楽データ編集方法、当該音楽データ編集方法を実現するためのプログラムおよび音楽データ編集装置を提供することを目的とする。   The present invention has been made paying attention to this point, and a music data editing method capable of using an editing function unique to MIDI data while the editing method matches the editing method for audio data, and the music It is an object to provide a program and a music data editing apparatus for realizing a data editing method.

上記目的を達成するため、請求項1に記載の音楽データ編集方法は、楽音の発音を制御するイベント列からなる音楽データを表示手段上にイベント表示する第1の表示ステップと、前記音楽データに含まれるノートイベントのそれぞれについて、対応する波形画像データを取得する波形画像取得ステップと、前記波形画像取得ステップによって取得された波形画像データに基づいて、前記音楽データを前記表示手段上に波形表示する第2の表示ステップとを有し、前記波形画像取得ステップでは、前記対応する波形画像データが存在すれば、当該対応する波形画像データを取得し、前記対応する波形画像データが存在しなければ、デフォルトの波形画像データを取得することを特徴とする。 In order to achieve the above object, a music data editing method according to claim 1 includes a first display step of displaying an event on a display means of music data consisting of an event sequence for controlling the sound generation of a musical sound, and the music data For each of the included note events, a waveform image acquisition step for acquiring corresponding waveform image data, and the music data is displayed as a waveform on the display means based on the waveform image data acquired by the waveform image acquisition step. have a second display step, in the waveform image acquisition step, if there the corresponding waveform image data, acquires the corresponding waveform image data, if the corresponding waveform image data is present, Default waveform image data is acquired .

請求項2に記載の音楽データ編集方法は、請求項1の音楽データ編集方法において、前記音楽データに基づいて楽音信号を生成する楽音信号生成手段から音色情報を取得する音色情報取得ステップをさらに有し、前記波形画像取得ステップでは、前記音色情報取得ステップによって取得された音色情報に基づいて、前記対応する波形画像データ又は前記デフォルトの波形画像データを取得することを特徴とする。
請求項3に記載の音楽データ編集方法は、請求項2の音楽データ編集方法において、前記デフォルトの波形画像データは、予め固定的に決定された特定の波形画像データ又は前記取得された音色情報に近い波形画像データであることを特徴とする。
The music data editing method according to claim 2 further comprises a timbre information acquisition step of acquiring timbre information from a musical sound signal generating means for generating a musical sound signal based on the music data in the music data editing method of claim 1. and, in the waveform image acquisition step, on the basis of the tone color information acquired by the tone color information acquiring step, and acquires the corresponding waveform image data or the default waveform image data.
The music data editing method according to claim 3 is the music data editing method according to claim 2, wherein the default waveform image data is specific waveform image data fixedly determined in advance or the acquired timbre information. It is characterized by close waveform image data.

請求項に記載の音楽データ編集方法は、請求項1乃至3のいずれか1項の音楽データ編集方法において、ユーザが、編集指示を入力する入力手段を用いて、前記表示手段上に表示された波形画像に対して編集指示を入力したときに、当該入力された編集指示を前記音楽データの編集指示に変換する変換ステップと、ユーザによる前記編集指示の入力に応じて、前記表示された波形画像内の編集指示された波形画像データを変更して表示するとともに、前記音楽データを前記変換ステップによって変換された編集指示に基づいて変更するように制御する制御ステップとをさらに有することを特徴とする。 A music data editing method according to a fourth aspect of the present invention is the music data editing method according to any one of the first to third aspects, wherein the user displays the data on the display means using an input means for inputting an editing instruction. A conversion step of converting the input editing instruction into the editing instruction of the music data when an editing instruction is input to the waveform image, and the displayed waveform according to the input of the editing instruction by the user And a control step for controlling to change the waveform image data instructed to be edited in the image and to display the music data based on the editing instruction converted by the conversion step. To do.

上記目的を達成するため、請求項およびにそれぞれ記載のプログラムおよび音楽データ編集装置は、請求項1と同様の技術的思想によって実現できる。 In order to achieve the above object, the program and the music data editing apparatus described in claims 5 and 6 can be realized by the same technical idea as in claim 1.

請求項1,またはに記載の発明によれば、楽音の発音を制御するイベント列からなる音楽データのイベント表示が波形表示に切り替わるので、波形表示に切り替わった後は、ユーザは、イベント列からなる音楽データについても、オーディオデータと同じ操作方法で編集作業を行うことができる。 According to the first, fifth, or sixth aspect of the invention, the event display of the music data including the event sequence that controls the sound generation of the musical tone is switched to the waveform display. Therefore, after switching to the waveform display, the user The music data consisting of can be edited by the same operation method as the audio data.

請求項2に記載の発明によれば、楽音信号生成手段から取得された音色情報に基づいて、対応する波形画像データ又はデフォルトの波形画像データが取得され、取得された波形画像データに基づいて、当該音楽データが波形表示されるので、音楽データの音色が同じでも、楽音信号生成手段によって異なった波形表示を得ることができる。 According to the second aspect of the present invention, the corresponding waveform image data or default waveform image data is acquired based on the timbre information acquired from the musical tone signal generating means, and based on the acquired waveform image data, Since the music data is displayed as a waveform, even if the tone color of the music data is the same, a different waveform display can be obtained by the tone signal generating means.

請求項に記載の発明によれば、ユーザによる編集指示の入力に応じて、表示された波形画像内の編集指示された波形画像データが変更されて表示されるとともに、当該音楽データが変換ステップによって変換された編集指示に基づいて変更される。つまり、イベント列からなる音楽データは、その表示がイベント表示から波形表示に切り替わったとしても、イベント列からなる音楽データであることに変わりはなく、オーディオデータではないので、その表示波形に対して編集操作がなされると、音楽データのパラメータが変更される。このように、編集方法はオーディオデータについての編集方法に合わせつつ、イベント列からなる音楽データならではの編集機能も使用することができる。 According to the fourth aspect of the invention, the waveform image data instructed to be edited in the displayed waveform image is changed and displayed in response to the input of the editing instruction by the user, and the music data is converted in the converting step. Is changed based on the editing instruction converted by. In other words, even if the display is switched from the event display to the waveform display, the music data consisting of the event sequence remains the music data consisting of the event sequence and is not audio data. When an editing operation is performed, the music data parameters are changed. As described above, the editing method can be used in accordance with the editing method for audio data, and the editing function unique to music data including event sequences can be used.

本発明の一実施の形態に係る音楽データ編集装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the music data editing apparatus which concerns on one embodiment of this invention. 図1の音楽データ編集装置および外部機器の各機能構成を示すブロック図である。It is a block diagram which shows each function structure of the music data editing apparatus of FIG. 1, and an external apparatus. 波形画像データによって表示される波形の一例を示す図である。It is a figure which shows an example of the waveform displayed by waveform image data. ある1つの音楽データのシーケンスをトラック毎に図1中のディスプレイ上に表示したときの画面の一部を示す図である。It is a figure which shows a part of screen when a sequence of a certain music data is displayed on the display in FIG. 1 for every track. 図1の音楽データ編集装置、特に図2中の制御部が実行するMIDIトラックの波形表示処理の手順を示すフローチャートである。3 is a flowchart showing a procedure of a MIDI track waveform display process executed by the music data editing apparatus of FIG. 1, in particular, a control unit in FIG. 2. 図1の音楽データ編集装置、特に図2中の制御部が実行するMIDIデータの編集処理の手順を示すフローチャート((a))と、図4(b)の領域内の波形画像データを拡大し、そのエンベロープを抽出した図((b))である。A flowchart (a) showing a procedure of MIDI data editing processing executed by the music data editing apparatus of FIG. 1, particularly the control unit in FIG. 2, and the waveform image data in the area of FIG. FIG. 6B is a diagram ((b)) in which the envelope is extracted.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る音楽データ編集装置100の概略構成を示すブロック図である。本実施の形態の音楽データ編集装置100は、DAWソフトウェアがインストールされ起動されたPCである。   FIG. 1 is a block diagram showing a schematic configuration of a music data editing apparatus 100 according to an embodiment of the present invention. The music data editing apparatus 100 of this embodiment is a PC on which DAW software is installed and started.

同図に示すように、音楽データ編集装置100は、文字入力用キーボードおよびポインティングデバイス(たとえばマウス)からなる操作入力部1と、装置全体の制御を司るCPU2と、該CPU2が実行する基本制御プログラム(BIOS:Basic Input Output System)や各種テーブルデータ等を記憶するROM3と、入力された演奏情報(演奏イベント)、各種入力情報および演算結果等を一時的に記憶するRAM4と、前記DAWソフトウェアを含む各種アプリケーションプログラムやOS(Operating System)、各種音楽データ、各種データ等を記憶する記憶装置5と、各種情報等を表示する、たとえば大型のLCD(Liquid Crystal Display)からなるディスプレイ6と、外部MIDI機器である電子鍵盤楽器200を接続し、この電子鍵盤楽器200とデータの送受信を行う通信インターフェース(I/F)7と、前記入力された演奏情報や、前記記憶装置5に記憶されたいずれかの音楽データを再生して得られた演奏情報(演奏イベント)等を楽音信号に変換するとともに、その楽音信号に各種効果を付与するための音源・効果回路8と、該音源・効果回路8からの楽音信号を音響に変換する、たとえば、DAC(Digital-to-Analog Converter)やアンプ、スピーカ等のサウンドシステム9とにより構成されている。   As shown in FIG. 1, a music data editing apparatus 100 includes an operation input unit 1 including a character input keyboard and a pointing device (for example, a mouse), a CPU 2 that controls the entire apparatus, and a basic control program executed by the CPU 2. ROM 3 for storing (BIOS: Basic Input Output System) and various table data, RAM 4 for temporarily storing inputted performance information (performance event), various input information and calculation results, and the DAW software A storage device 5 for storing various application programs, OS (Operating System), various music data, various data, and the like, a display 6 composed of a large LCD (Liquid Crystal Display), for example, and an external MIDI device This electronic keyboard instrument 200 is connected to the electronic keyboard instrument 200. A communication interface (I / F) 7 for transmitting and receiving data, the input performance information, performance information (performance event) obtained by reproducing any music data stored in the storage device 5 and the like Is converted into a musical sound signal, a sound source / effect circuit 8 for imparting various effects to the musical sound signal, and a musical sound signal from the sound source / effect circuit 8 is converted into sound, for example, DAC (Digital-to- Analog Converter), and a sound system 9 such as an amplifier and a speaker.

上記構成要素1〜8は、バス10を介して相互に接続され、通信I/F7には電子鍵盤楽器200が接続され、音源・効果回路8にはサウンドシステム9が接続されている。   The components 1 to 8 are connected to each other via a bus 10, an electronic keyboard instrument 200 is connected to the communication I / F 7, and a sound system 9 is connected to the sound source / effect circuit 8.

記憶装置5は、たとえば、フレキシブルディスク(FD)、ハードディスク(HD)、CD−ROM、DVD(Digital Versatile Disc)、光磁気ディスク(MO)および半導体メモリなどの記憶媒体とその駆動装置である。記憶媒体は駆動装置から着脱可能であってもよいし、記憶装置5自体が音楽データ編集装置100から着脱可能であってもよい。あるいは、記憶媒体も記憶装置5も着脱不可能であってもよい。   The storage device 5 is, for example, a storage medium such as a flexible disk (FD), a hard disk (HD), a CD-ROM, a DVD (Digital Versatile Disc), a magneto-optical disk (MO), and a semiconductor memory, and its driving device. The storage medium may be detachable from the drive device, or the storage device 5 itself may be detachable from the music data editing device 100. Alternatively, neither the storage medium nor the storage device 5 may be detachable.

通信I/F7としては、たとえば、MIDI信号などの音楽信号を専用に送受信する音楽専用有線I/F、USB(Universal Serial Bus)やIEEE1394などの汎用近距離有線I/F、Ethernet(登録商標)などの汎用ネットワークI/F、無線LAN(local area network)やBluetooth(登録商標)などの汎用近距離無線I/Fを挙げることができる。本実施の形態では、通信I/F7としてUSBを採用しているが、これに代えて他の種類のI/Fを採用してもよいし、これに他の種類のI/Fを加えるようにしてもよい。   As the communication I / F 7, for example, a music dedicated wired I / F that exclusively transmits and receives music signals such as MIDI signals, general-purpose short-distance wired I / F such as USB (Universal Serial Bus) and IEEE 1394, Ethernet (registered trademark) General-purpose network I / F such as wireless LAN (local area network) and Bluetooth (registered trademark) can be used. In this embodiment, the USB is adopted as the communication I / F 7. However, instead of this, other types of I / F may be adopted, and other types of I / F may be added thereto. It may be.

なお音楽データ編集装置100は、上述のように、電子鍵盤楽器200を外部接続した汎用的なPC上に構築されたが、鍵盤以外の楽器(弦楽器タイプや打楽器タイプなど)あるいは演奏用の操作子を持たない音源を外部接続した汎用的なPC上に構築してもよいし、汎用的なPC上ではなく、専用装置上に構築してもよい。ただし後述するように、本発明は、音源(その名称は「音源」に限らず、楽音を生成するものであれば「楽音生成装置」等、何でもよい)から、その音源で生成される楽音の「音色情報」を取得し、この「音色情報」に基づいて波形画像データ(群)を選択(取得)するので、本発明の音楽データ編集装置の内部あるいは外部に、少なくとも1つの音源は必要である。   As described above, the music data editing apparatus 100 is constructed on a general-purpose PC to which the electronic keyboard instrument 200 is externally connected. However, a musical instrument other than a keyboard (such as a stringed instrument type or a percussion instrument type) or a performance operator is used. It is possible to construct a general-purpose PC externally connected to a sound source that does not have a sound source, or to construct a dedicated device instead of a general-purpose PC. However, as will be described later, the present invention is not limited to “sound source” as long as the name is “musical sound generation device” as long as it can generate music, Since “timbre information” is acquired and waveform image data (group) is selected (acquired) based on this “timbre information”, at least one sound source is required inside or outside the music data editing apparatus of the present invention. is there.

図2は、音楽データ編集装置100および電子鍵盤楽器200の各機能構成を示すブロック図である。同図に示すように、音楽データ編集装置100は、制御部101、記憶部102、操作入力部1およびディスプレイ6によって構成されている。また電子鍵盤楽器200は、演奏操作部201、楽音生成部202および出力部203によって構成されている。   FIG. 2 is a block diagram showing functional configurations of the music data editing apparatus 100 and the electronic keyboard instrument 200. As shown in the figure, the music data editing apparatus 100 includes a control unit 101, a storage unit 102, an operation input unit 1, and a display 6. The electronic keyboard instrument 200 includes a performance operation unit 201, a musical tone generation unit 202, and an output unit 203.

操作入力部1は、図1の前記操作入力部1と同じものであり、ユーザは、操作入力部1を用いて、MIDIデータ自体を入力したり、入力済みのMIDIデータを含む各種データの編集や削除などの指示を入力したりする。   The operation input unit 1 is the same as the operation input unit 1 in FIG. 1, and the user inputs MIDI data itself or edits various data including already input MIDI data using the operation input unit 1. Or enter instructions such as deletion.

制御部101は、主として図1の前記CPU2、ROM3およびRAM4によって構成され、CPU2が後述する図5および図6の処理を含む制御処理を実行することによって実現される。   The control unit 101 is mainly configured by the CPU 2, the ROM 3, and the RAM 4 of FIG. 1, and is realized by the CPU 2 executing control processes including the processes of FIGS. 5 and 6 described later.

記憶部102は、図1の前記記憶装置5によって構成され、MIDIデータ102aとオーディオデータ102cの2種類の音楽データを記憶する。本発明は、MIDIデータ102aを波形表示させる点に特徴があるので、MIDIデータ102aは、記憶部102に記憶されている必要があるが、オーディオデータ102cは、記憶部102に記憶されている必要はない。しかし、本実施の形態で採用したDAWソフトウェアは、MIDIデータもオーディオデータも取り扱えるため、記憶部102には、MIDIデータ102aだけでなく、オーディオデータ102cも記憶されているとする。なお、MIDIデータ102aもオーディオデータ102cもそれぞれ、複数のMIDIデータおよびオーディオデータからなるものとする。音楽データ編集装置100が編集対象とする音楽データは通常、複数のパート(トラック)からなり、各パートにMIDIデータ102aおよびオーディオデータ102cの中からユーザが任意に選択して割り当てたものである。   The storage unit 102 is configured by the storage device 5 of FIG. 1, and stores two types of music data, MIDI data 102a and audio data 102c. Since the present invention is characterized in that the MIDI data 102a is displayed in a waveform, the MIDI data 102a needs to be stored in the storage unit 102, but the audio data 102c needs to be stored in the storage unit 102. There is no. However, since the DAW software adopted in this embodiment can handle both MIDI data and audio data, it is assumed that the storage unit 102 stores not only the MIDI data 102a but also the audio data 102c. Note that both the MIDI data 102a and the audio data 102c are composed of a plurality of MIDI data and audio data. The music data to be edited by the music data editing apparatus 100 is usually composed of a plurality of parts (tracks), and each part is arbitrarily selected and assigned by the user from the MIDI data 102a and the audio data 102c.

記憶部102はさらに、編集対象の音楽データに含まれるMIDIデータを波形表示する際に使用する波形画像データ102bも記憶する。波形画像データとは、ノートイベントに対応する発音状態を、時間と振幅(たとえば、時間の経過に応じた振幅の推移)によって表示するためのものである。   The storage unit 102 also stores waveform image data 102b used when displaying waveform data of MIDI data included in the music data to be edited. The waveform image data is for displaying the sound generation state corresponding to the note event by time and amplitude (for example, transition of amplitude according to passage of time).

図3は、波形画像データによって表示される波形の一例を示す図である。同図(a)の波形は、本実施の形態で使用する波形画像データ102bに基づいて表示されるものであり、発音される楽音の振幅の推移を忠実に再現したものである。同図(b)の波形は、同図(a)の波形からそのエンベロープを抽出したものである。この(b)の波形では、エンベロープの輪郭のみが表示されるが、エンベロープ内を塗りつぶして表示してもよい。同図(c)の波形は、振幅の推移を大まかに表示したものであり、同図(d)の波形は、(c)の波形と異なる形状、かつ異なる線種で表示したものである。本実施の形態では、波形画像データ102bとして、典型的な(a)の波形を表示するものを採用するが、他の(b)〜(d)の波形、さらにはこれ以外の波形を表示するものを採用してもよい。要するに、異なる発音状態を、時間と振幅に基づいて異なる表示態様で表示できれば、発音状態を忠実に再現するものでなくてもよい。   FIG. 3 is a diagram illustrating an example of a waveform displayed by the waveform image data. The waveform shown in FIG. 6A is displayed based on the waveform image data 102b used in the present embodiment, and faithfully reproduces the transition of the amplitude of the tone to be generated. The waveform in FIG. 5B is obtained by extracting the envelope from the waveform in FIG. In the waveform (b), only the outline of the envelope is displayed, but the inside of the envelope may be filled and displayed. The waveform in FIG. 6C roughly shows the transition of the amplitude, and the waveform in FIG. 4D is displayed with a shape different from that of the waveform in FIG. In the present embodiment, as the waveform image data 102b, one that displays a typical waveform (a) is adopted, but other waveforms (b) to (d) and other waveforms are displayed. A thing may be adopted. In short, as long as different sound generation states can be displayed in different display modes based on time and amplitude, the sound generation state may not be faithfully reproduced.

発音状態は、たとえば「ピアノ音色のC3(ド)」の音であっても、8分音符と全音符、フォルテとピアノでは、全く鳴り方が異なるため、発音状態によって波形の形状は異なる。しかし、音高(ノート番号)、音符長、ベロシティなどの、波形の形状を異ならせるあらゆる要素に対応して波形画像データを用意した場合、波形画像データの数が膨大になる結果、その記憶容量が膨大になりすぎて現実的ではない。したがって、記憶部102には、所定のいくつかの条件(あるいは要素)に対応する波形画像データ102bを記憶しておき、発音状態が上記条件と異なるノートイベントについては、波形画像データ102b(のうち対応するもの)を縦方向(振幅方向)や横方向(時間方向)に拡大または縮小して使用するようにしている。拡大/縮小は、たとえば記憶部102に対応テーブル(図示せず)を記憶しておき、それを参照して行うようにすればよい。または、記憶部102に記憶されていない波形画像データは、音楽データ編集装置100の外部(たとえば、インターネット経由で接続されたサーバ等)から取得して使用するようにしてもよい。あるいは、波形画像データ102bは、記憶部102には記憶せず、すべて外部から取得するようにしてもよい。   For example, even in the case of the sound of “piano tone C3 (do)”, the sound generation state is completely different between the eighth note and the whole note, and between the forte and the piano, so the waveform shape differs depending on the sound generation state. However, if waveform image data is prepared corresponding to every element that makes the waveform shape different, such as pitch (note number), note length, velocity, etc., the number of waveform image data increases, resulting in its storage capacity. Is too large to be realistic. Therefore, the storage unit 102 stores waveform image data 102b corresponding to some predetermined conditions (or elements), and for note events whose sounding state is different from the above conditions, the waveform image data 102b ( (Corresponding) is expanded or reduced in the vertical direction (amplitude direction) or horizontal direction (time direction). Enlargement / reduction may be performed, for example, by storing a correspondence table (not shown) in the storage unit 102 and referring to it. Alternatively, the waveform image data not stored in the storage unit 102 may be acquired from the outside of the music data editing apparatus 100 (for example, a server connected via the Internet) and used. Alternatively, the waveform image data 102b may be acquired from the outside without being stored in the storage unit 102.

波形画像データ102bは、複数の音色のそれぞれについて、ノート番号の個数分の波形画像データを含んでいる。つまり、音色毎に複数の波形画像データからなる波形画像データ群を含んでいる。そして、音色名が同じMIDIデータであっても、そのMIDIデータを再生して得られたノートイベントが供給される音源によって発音される音は異なるため、波形画像データ群も音源によって異なるものが用いられる方が好ましい。したがって、同じ音色名でも、複数の波形画像データ群が含まれることもある。この場合の各波形画像データ群は、各音源が自身の楽音生成に用いている音色情報によって区別される。なお「音色情報」の具体的な内容については、図5に基づいて後述する。   The waveform image data 102b includes waveform image data corresponding to the number of note numbers for each of a plurality of timbres. That is, a waveform image data group composed of a plurality of waveform image data is included for each tone color. Even if the timbre name is the same MIDI data, the sound generated by the sound source to which the note event obtained by reproducing the MIDI data is supplied is different, so that the waveform image data group is different depending on the sound source. Is preferred. Therefore, a plurality of waveform image data groups may be included even with the same timbre name. Each waveform image data group in this case is distinguished by tone color information that each sound source uses for generating its own tone. The specific contents of the “tone color information” will be described later with reference to FIG.

ディスプレイ6は、図1の前記ディスプレイ6と同じものであり、編集対象の音楽データを表示する。その表示態様は、図4に基づいて後述する。   The display 6 is the same as the display 6 in FIG. 1 and displays music data to be edited. The display mode will be described later with reference to FIG.

演奏操作部201は、鍵盤、スライダ、ジョイスティック、ホイールおよびダイヤルなどによって構成され、ユーザが演奏に用いることで、演奏情報を入力する。   The performance operation unit 201 includes a keyboard, a slider, a joystick, a wheel, a dial, and the like, and inputs performance information when used by a user.

楽音生成部202は、演奏操作部201から供給される演奏情報を楽音信号に変換し、その楽音信号に適宜各種効果を付与した後、出力部203に出力する。この処理は、音楽データ編集装置100の前記音源・効果回路8が実行する処理と同じである。また楽音生成部202は、制御部101とMIDIメッセージを送受信できるように構成されている。制御部101は、音楽データを再生して、楽音を発生させるときには、自身の音源・効果回路8から発生させるのではなく、楽音生成部202から発生させる。つまり、本実施の形態の音楽データ編集装置100は、電子鍵盤楽器200を外部音源としても使用している。このため、制御部101は、音楽データを再生して得られたデータをMIDIメッセージの形式で楽音生成部202に送信する。再生対象の音楽データが、MIDIデータとオーディオデータの双方からなるものとすると、制御部101は、MIDIデータを再生したときには、その再生によって得られたMIDIメッセージをそのまま楽音生成部202に送信する一方、オーディオデータを再生したときには、その再生によって得られたオーディオデータを、たとえばシステム・エクスクルーシブ・メッセージ(以下“SysEx”と略す)内に埋め込んで、楽音生成部202に送信する。楽音生成部202は、制御部101からMIDIメッセージを受信すると、そのMIDIメッセージを解析し、解析結果に応じた楽音信号を生成して、出力部203に出力する。さらに楽音生成部202は、制御部101からの、たとえばプログラムチェンジメッセージ(以下“PrgCh”と略す)を用いた問い合わせに応じて、楽音生成部202が楽音生成に用いている音色情報を、たとえばSysEx内に埋め込んで、制御部101に送信する。なお、制御部101が受信した「音色情報」をどのように用いるかについては、「音色情報」の具体的な内容とともに、図5に基づいて後述する。   The musical sound generation unit 202 converts the performance information supplied from the performance operation unit 201 into a musical sound signal, gives various effects to the musical sound signal as appropriate, and outputs the result to the output unit 203. This process is the same as the process executed by the sound source / effect circuit 8 of the music data editing apparatus 100. The musical sound generation unit 202 is configured to be able to transmit and receive MIDI messages with the control unit 101. When the controller 101 reproduces music data and generates a musical sound, the controller 101 does not generate it from its own sound source / effect circuit 8 but generates it from the musical sound generator 202. That is, the music data editing apparatus 100 of the present embodiment uses the electronic keyboard instrument 200 as an external sound source. Therefore, the control unit 101 transmits data obtained by reproducing the music data to the tone generation unit 202 in the form of a MIDI message. Assuming that the music data to be played back consists of both MIDI data and audio data, when playing back the MIDI data, the control unit 101 transmits the MIDI message obtained by the playback to the musical tone generation unit 202 as it is. When the audio data is reproduced, the audio data obtained by the reproduction is embedded in, for example, a system exclusive message (hereinafter abbreviated as “SysEx”) and transmitted to the musical sound generation unit 202. When receiving the MIDI message from the control unit 101, the tone generation unit 202 analyzes the MIDI message, generates a tone signal according to the analysis result, and outputs it to the output unit 203. Further, the musical tone generation unit 202 responds to an inquiry from the control unit 101 using, for example, a program change message (hereinafter abbreviated as “PrgCh”), for example, the tone color information used by the musical tone generation unit 202 for musical tone generation, for example, SysEx. It is embedded in and transmitted to the control unit 101. Note that how to use the “tone color information” received by the control unit 101 will be described later with reference to FIG. 5 together with specific contents of the “tone color information”.

出力部203は、楽音生成部202から供給された楽音信号を音響に変換する。この処理は、音楽データ編集装置100の前記サウンドシステム9が実行する処理と同じである。本実施の形態では、音響はスピーカから発生するようにしたが、これに限らず、ヘッドフォン(のスピーカ)から発生するようにしてもよい。この事情は、サウンドシステム9についても同様である。   The output unit 203 converts the tone signal supplied from the tone generation unit 202 into sound. This process is the same as the process executed by the sound system 9 of the music data editing apparatus 100. In the present embodiment, the sound is generated from the speaker. However, the present invention is not limited to this, and the sound may be generated from the headphone (speaker). The same applies to the sound system 9.

音源は、本実施の形態では前述のように、電子鍵盤楽器200内の楽音生成部202を使用するようにしたが、もちろん、音楽データ編集装置100内の音源・効果回路8を使用してもよいし、再生対象の音楽データやパートによって、発音させる音源を変えてもよい。音源は、演奏情報(具体的には、ノートイベントなどの演奏イベント)を入力し、これに応じた楽音信号を生成して出力するものであれば、楽音生成方法は問わない。また、音源をハードウェアのみで構成しても、ソフトウェアのみで構成しても、あるいはハードウェアとソフトウェアの両方で構成しても構わない。   As described above, in this embodiment, the tone generator uses the tone generator 202 in the electronic keyboard instrument 200, but of course, the tone generator / effect circuit 8 in the music data editing apparatus 100 may be used. Alternatively, the sound source to be sounded may be changed depending on the music data or part to be played. As long as the sound source inputs performance information (specifically, a performance event such as a note event), and generates and outputs a musical sound signal corresponding to the performance information, any musical sound generation method may be used. Further, the sound source may be configured only by hardware, may be configured only by software, or may be configured by both hardware and software.

以上のように構成された音楽データ編集装置が実行する制御処理を、まず図2および図4を参照してその概要を説明し、次に図5および図6を参照して詳細に説明する。   The control process executed by the music data editing apparatus configured as described above will be described first with reference to FIG. 2 and FIG. 4 and then described in detail with reference to FIG. 5 and FIG.

音楽データ編集装置100は、主として、
(1)少なくとも1つのパート(トラック)にMIDIデータを含む音楽データのシーケンスを表示する場合に、MIDIデータを構成する各ノートイベントの音高および音長などを通常の表示態様で行う表示(以下「イベント表示」という)を、オーディオデータを表示する際の通常の表示である波形表示に切り替えて表示するMIDIトラックの波形表示処理;
(2)上記(1)の波形表示処理によって表示された波形に対してユーザが編集操作を施したときに、その編集操作に応じて、編集対象のMIDIデータのパラメータを変更するMIDIデータの編集処理;
を実行する。
The music data editing apparatus 100 is mainly composed of
(1) When displaying a sequence of music data including MIDI data on at least one part (track), a display (hereinafter referred to as a pitch) and a tone length of each note event constituting the MIDI data in a normal display mode Waveform display processing of a MIDI track that switches from “event display” to the waveform display that is the normal display when displaying audio data;
(2) When the user performs an editing operation on the waveform displayed by the waveform display processing of (1) above, editing MIDI data that changes the parameters of the MIDI data to be edited according to the editing operation processing;
Execute.

図4は、ある1つの音楽データのシーケンスをトラック毎にディスプレイ6上に表示したときの画面の一部を示す図である。同図(a)は、オーディオトラックは波形表示し、MIDIトラックはイベント表示した画面61を示し、同図(b)は、MIDIトラックも波形表示した画面62を示している。   FIG. 4 is a diagram showing a part of a screen when a certain music data sequence is displayed on the display 6 for each track. FIG. 6A shows a screen 61 in which audio tracks are displayed in waveforms, MIDI tracks are displayed in events, and FIG. 5B shows a screen 62 in which MIDI tracks are also displayed in waveforms.

上記(1)の波形表示処理が実行される前は、ディスプレイ6上の一部には、図4(a)の画面61が表示される。図4(a)では、オーディオトラック(トラック1)は、波形表示であり、発音状態を時間軸(横方向)と振幅(縦方向)により表す波形で表示されている。ステレオデータであるので、左右それぞれの波形が表示されている。MIDIトラック(トラック2,3)は、イベント表示であり、MIDIデータを構成する各ノートイベントが、音高および音長などを表す点や線で表示されている。点や線以外にも、各イベントの意味を表す他の記号(丸や長方形、音符など)や色などが含まれていてもよい。   Before the waveform display process (1) is executed, a screen 61 shown in FIG. 4A is displayed on a part of the display 6. In FIG. 4A, the audio track (track 1) is a waveform display, and the sound generation state is displayed with a waveform representing the time axis (horizontal direction) and the amplitude (vertical direction). Since it is stereo data, the left and right waveforms are displayed. The MIDI track (tracks 2 and 3) is an event display, and each note event constituting the MIDI data is displayed by a dot or a line representing a pitch or a tone length. In addition to dots and lines, other symbols (circles, rectangles, notes, etc.) and colors representing the meaning of each event may be included.

この表示状態で、たとえば、ユーザがマウスの右ボタンをクリックすると、図示しないカーソルの位置にポップアップメニューが表示される。そしてユーザが、そのメニュー内に記載されている「波形表示」を選択すると、上記(1)の波形表示処理が実行される。その結果、画面61が図4(b)の画面62に切り替わる。つまり、トラック2,3のMIDIトラックがイベント表示から波形表示に切り替わり、さらに、新トラック4が、トラック2,3の波形画像を合わせたバウンス波形画像データを表示するバウンス(Bounce)トラックとして出現する。ただしこのとき、画面62内にはまだ、領域63は表示されていない。   In this display state, for example, when the user clicks the right mouse button, a pop-up menu is displayed at the position of a cursor (not shown). When the user selects “waveform display” described in the menu, the waveform display process (1) is executed. As a result, the screen 61 is switched to the screen 62 in FIG. That is, the MIDI tracks of tracks 2 and 3 are switched from the event display to the waveform display, and the new track 4 appears as a bounce track that displays the bounce waveform image data in which the waveform images of tracks 2 and 3 are combined. . However, at this time, the area 63 is not yet displayed in the screen 62.

このように、MIDIトラックのイベント表示が波形表示に切り替わるので、波形表示に切り替わった後は、ユーザは、MIDIトラックのMIDIデータについても、オーディオトラックのオーディオデータと同じ操作方法で編集作業を行うことができる。その結果、ユーザの編集作業の効率が向上する。   Thus, since the event display of the MIDI track is switched to the waveform display, after switching to the waveform display, the user can also edit the MIDI data of the MIDI track by the same operation method as the audio data of the audio track. Can do. As a result, the efficiency of the user's editing work is improved.

次にユーザが、図4(b)の画面62上の一部領域、たとえば領域63を前記カーソルで指定した後、その領域63内の波形画像データに対して何らかの編集操作、たとえば当該波形画像の形状を変形する操作を行うと、前記(2)のMIDIデータの編集処理が実行される。この(2)MIDIデータの編集処理では、操作位置と操作量を検出し、検出した操作位置と操作量に応じて、当該波形画像データを編集(ここでは、変形)し、編集結果を逐次表示する。さらに、当該波形画像データの所定位置に設けた座標の、編集前後の変化量を算出し、算出された変化量に応じて、当該波形画像データに対応するMIDIパラメータを変更する。つまり、MIDIトラックのMIDIデータは、その表示がイベント表示から波形表示に切り替わったとしても、MIDIデータであることに変わりはなく、オーディオデータではないので、その表示波形に対して編集操作がなされると、MIDIパラメータが変更される。このように、編集方法はオーディオデータについての編集方法に合わせつつ、MIDIデータならではの編集機能も使用することができる。   Next, after the user designates a partial area on the screen 62 in FIG. 4B, for example, the area 63 with the cursor, the user performs some editing operation on the waveform image data in the area 63, for example, the waveform image. When an operation for deforming the shape is performed, the MIDI data editing process (2) is executed. In this (2) MIDI data editing process, the operation position and operation amount are detected, the waveform image data is edited (in this case, deformed) according to the detected operation position and operation amount, and the editing results are sequentially displayed. To do. Furthermore, the amount of change before and after editing the coordinates provided at a predetermined position of the waveform image data is calculated, and the MIDI parameter corresponding to the waveform image data is changed according to the calculated amount of change. That is, even if the MIDI data of the MIDI track is switched from the event display to the waveform display, the MIDI data remains the MIDI data and is not the audio data, so that the display waveform is edited. Then, the MIDI parameter is changed. As described above, the editing method can be adapted to the editing method for audio data, and the editing function unique to MIDI data can be used.

次に、この制御処理を詳細に説明する。   Next, this control process will be described in detail.

図5は、本実施の形態の音楽データ編集装置、特に制御部101が実行するMIDIトラックの波形表示処理の手順を示すフローチャートである。本波形表示処理は、前記(1)の波形表示処理に相当するので、前述のように、図4(a)の画面61が表示されている状態で、ユーザがマウスの右ボタンをクリックすることによって表示されたポップアップメニューに記載されている「波形表示」を選択したときに、起動される。   FIG. 5 is a flowchart showing the procedure of the MIDI track waveform display process executed by the music data editing apparatus of this embodiment, particularly the control unit 101. Since this waveform display process corresponds to the waveform display process of (1), as described above, the user clicks the right button of the mouse while the screen 61 of FIG. 4A is displayed. It is activated when “Waveform display” described in the pop-up menu displayed by is selected.

本波形表示処理が起動されると、まず制御部101は、カウンタnを初期値“1”にリセットする(ステップS1)。カウンタnは、たとえば、前記RAM4の所定位置に設けられたソフトウェアカウンタである。   When the waveform display process is activated, the control unit 101 first resets the counter n to the initial value “1” (step S1). The counter n is, for example, a software counter provided at a predetermined position in the RAM 4.

次に制御部101は、編集対象(本波形表示処理の対象)の音楽データ中、カウンタnによって示されるトラック(以下「トラックn」という)がMIDIトラックであるかどうかを判定する(ステップS2)。この判定の結果、トラックnがMIDIトラックであるときには、制御部101は、ステップS3〜S8の処理を実行した後、処理をステップS9に進める一方、トラックnがMIDIトラックでないときには、制御部101は、ステップS3〜S8をスキップして、処理をステップS9に進める。   Next, the control unit 101 determines whether or not the track (hereinafter referred to as “track n”) indicated by the counter n in the music data to be edited (the target of this waveform display process) is a MIDI track (step S2). . As a result of the determination, when the track n is a MIDI track, the control unit 101 executes the processing of steps S3 to S8 and then proceeds to step S9. On the other hand, when the track n is not a MIDI track, the control unit 101 , Steps S3 to S8 are skipped, and the process proceeds to Step S9.

ステップS9では、制御部101は、トラックnが当該音楽データの最後のトラックかどうかを判定する。その判定の結果、最後のトラックではないときには、制御部101は、カウンタnを“1”だけインクリメントして(ステップS10)、次のトラックに進めた後、処理をステップS2に戻す。一方、最後のトラックのときには、制御部101は、処理をステップS11に進める。   In step S9, the control unit 101 determines whether or not the track n is the last track of the music data. As a result of the determination, if it is not the last track, the control unit 101 increments the counter n by “1” (step S10), advances to the next track, and then returns the process to step S2. On the other hand, at the last track, the control unit 101 advances the process to step S11.

今、編集対象の音楽データが、図4(a)に表示された音楽データ、つまり、トラック1にギター音色(Guitar)のオーディオデータ、トラック2にピアノ音色(Piano)のMIDIデータ、トラック3にドラムス音色(Drums)のMIDIデータがそれぞれ割り当てられた音楽データであるとする。この音楽データの場合、制御部101は、オーディオトラックであるトラック1についてはカウンタnのインクリメントだけ行い(ステップS2→S9→S10)、次のトラック2に進める。   Now, the music data to be edited is the music data displayed in FIG. 4A, that is, the guitar 1 (guitar) audio data on track 1, the piano 2 (Piano) MIDI data on track 2, and the track 3 Assume that drum data (Drums) MIDI data is music data assigned thereto. In the case of this music data, the control unit 101 increments the counter n for the audio track 1 (step S2 → S9 → S10), and proceeds to the next track 2.

トラック2はMIDIトラックであるので、制御部101は、トラック2に割り当てられているMIDIデータの音色番号を音源に送信する(ステップS3)。トラック2には、上述のようにピアノ音色のMIDIデータが割り当てられているが、ピアノ音色は通常、ピアノの種類に応じて複数あるので、制御部101は、トラック2に現に割り当てられている音色の番号を送信する。音色番号は、本実施の形態では前述のように、PrgChによって送信されるが、これに限らず、SysExなどの他のメッセージによって送信するようにしてもよい。PrgChの送信先の「音源」は、本実施の形態では前述のように、電子鍵盤楽器200の楽音生成部202である。   Since track 2 is a MIDI track, the control unit 101 transmits the timbre number of the MIDI data assigned to track 2 to the sound source (step S3). As described above, MIDI data of piano timbre is assigned to track 2. However, since there are usually a plurality of piano timbres depending on the type of piano, the control unit 101 uses the timbre currently assigned to track 2. Send the number. In the present embodiment, the timbre number is transmitted by PrgCh as described above, but is not limited thereto, and may be transmitted by another message such as SysEx. In the present embodiment, the “sound source” of the transmission destination of PrgCh is the tone generation unit 202 of the electronic keyboard instrument 200 as described above.

楽音生成部202は、このPrgChを受信すると、前述のように、自身が楽音生成に用いている音色情報をSysEx内に埋め込んで、制御部101に送信する。制御部101は、このSysExを受信し、受信したSysEx内に埋め込まれている音色情報を取得する(ステップS4)。音色情報は、本実施の形態では、当該音色番号の楽音波形の特徴を示すパラメータ、具体的には“ADSR”とする。なお“ADSR”とは、楽音波形のAttack(立ち上がり)、Decay(減衰)、Sustain(減衰後の保持)およびRelease(余韻)のそれぞれの頭文字を取ったものであり、ADSRに関する時間方向および振幅方向のパラメータ値が与えられると、波形の形状が特定できる。   When receiving the PrgCh, the tone generation unit 202 embeds the timbre information used for generating the tone in the SysEx and transmits it to the control unit 101 as described above. The control unit 101 receives this SysEx, and acquires timbre information embedded in the received SysEx (step S4). In this embodiment, the timbre information is a parameter indicating the characteristics of the tone waveform of the timbre number, specifically, “ADSR”. “ADSR” is an acronym for the musical sound waveform Attack (rise), Decay (attenuation), Sustain (retention after attenuation), and Release (resonance). Given a directional parameter value, the shape of the waveform can be identified.

次に制御部101は、取得したADSRに合致する波形画像データ(群)が記憶部102の波形画像データ102b内にあるかどうかを判定する(ステップS5)。その判定の結果、当該波形画像データ(群)が波形画像データ102b内にあれば、制御部101は、当該波形画像データ(群)を選択する(ステップS6)一方、当該波形画像データ(群)が波形画像データ102b内になければ、制御部101は、波形画像データ102b内にあるデフォルト波形画像データ(群)を選択する(ステップS7)。   Next, the control unit 101 determines whether or not the waveform image data (group) that matches the acquired ADSR exists in the waveform image data 102b of the storage unit 102 (step S5). As a result of the determination, if the waveform image data (group) is in the waveform image data 102b, the control unit 101 selects the waveform image data (group) (step S6), while the waveform image data (group). Is not in the waveform image data 102b, the control unit 101 selects default waveform image data (group) in the waveform image data 102b (step S7).

本実施の形態では、波形画像データ102bに含まれる各波形画像データ(群)は、当該楽音波形の特徴を示すADSRと対応付けられている。したがって、音色名が同じであっても、ADSRが異なれば、波形画像データ(群)は異なるものとして取り扱われる。ADSRが異なるものすべてについて波形画像データ(群)を記憶することは、記憶部102の容量や波形画像データ(群)を収集あるいは作成する手間などの理由により、現実的ではないので、主要な一部のADSRの波形画像データ(群)を記憶することになる。このため、音源から送信されて来たADSRに合致する波形画像データ(群)が記憶部102に記憶されていないことが起こり得るので、前記ステップS5の判定が必要になる。波形画像データ(群)が記憶部102に記憶されていない場合に選択されるデフォルト波形画像データは、予め固定的に決定された特定の波形画像データ(群)であってもよいし、ステップS5の判定時に取得されているADSRに近い波形画像データ(群)であって、制御部101によってダイナミックに決定されたものであってもよい。   In the present embodiment, each waveform image data (group) included in the waveform image data 102b is associated with an ADSR indicating the characteristics of the musical sound waveform. Therefore, even if the timbre names are the same, if the ADSR is different, the waveform image data (group) is treated as different. It is not practical to store waveform image data (group) for all of the different ADSRs because of the capacity of the storage unit 102 and the trouble of collecting or creating waveform image data (group). ADSR waveform image data (group) is stored. For this reason, it may happen that the waveform image data (group) matching the ADSR transmitted from the sound source is not stored in the storage unit 102, so the determination in step S5 is necessary. The default waveform image data selected when the waveform image data (group) is not stored in the storage unit 102 may be specific waveform image data (group) fixedly determined in advance, or step S5. The waveform image data (group) close to the ADSR acquired at the time of the determination may be determined dynamically by the control unit 101.

次に制御部101は、選択された波形画像データ(群)から、トラック2に割り当てられているMIDIデータに含まれる各ノートイベントに応じた波形画像データを取得して表示する(ステップS8)。これにより、トラック2は、図4(a)のイベント表示から図4(b)の波形表示に切り替わる。トラック2は、当該音楽データの最後のトラックではないので、制御部101は、次のトラック3に進めた(ステップS10)後、処理を前記ステップS2に戻す。   Next, the control unit 101 acquires and displays the waveform image data corresponding to each note event included in the MIDI data assigned to the track 2 from the selected waveform image data (group) (step S8). Thereby, the track 2 is switched from the event display of FIG. 4A to the waveform display of FIG. Since the track 2 is not the last track of the music data, the control unit 101 advances to the next track 3 (step S10), and then returns the process to the step S2.

トラック3は、トラック2と同様にMIDIトラックであるので、制御部101は、トラック2のMIDIデータに行った処理と同様の処理をトラック3のMIDIデータについても行う(ステップS3〜S8)。これにより、トラック3も、図4(a)のイベント表示から図4(b)の波形表示に切り替わる。トラック3は、当該音楽データの最後のトラックであるので、制御部101は、処理をステップS11に進める。   Since the track 3 is a MIDI track like the track 2, the control unit 101 performs the same process as the process performed on the MIDI data of the track 2 also on the MIDI data of the track 3 (steps S3 to S8). Thereby, the track 3 is also switched from the event display of FIG. 4A to the waveform display of FIG. Since the track 3 is the last track of the music data, the control unit 101 advances the process to step S11.

ステップS11では、制御部101は、全MIDIトラック、つまりトラック2,3の波形画像を合わせたバウンス波形画像データを生成する。そしてステップS12では、制御部101は、生成したバウンス波形画像データを新トラックに表示する。これにより、図4(b)に示すように、新トラック4にバウンス波形が表示される。その後、制御部101は、本波形表示処理を終了する。   In step S11, the control unit 101 generates bounce waveform image data combining the waveform images of all MIDI tracks, that is, tracks 2 and 3. In step S12, the control unit 101 displays the generated bounce waveform image data on a new track. As a result, a bounce waveform is displayed on the new track 4 as shown in FIG. Thereafter, the control unit 101 ends the waveform display process.

トラック4のバウンス波形は、図4(b)では、トラック2,3の波形画像を単純に合成したものが図示されているが、これに限らず、時間軸(図4中、整数値(1,3,…)が付与されている横軸)を拡大または縮小したものを表示するようにしてもよいし、一部分を切り出したものや、その切り出した一部分の時間軸を拡大または縮小したものなどを表示するようにしてもよい。そして、時間軸の変更や一部分の範囲などは、ユーザが任意に設定できるようにしてもよい。   In FIG. 4B, the bounce waveform of the track 4 is obtained by simply synthesizing the waveform images of the tracks 2 and 3, but this is not restrictive, and the time axis (integer value (1 in FIG. 4) , 3, ...) may be displayed as an enlarged or reduced horizontal axis), a part cut out, a part of the cut out time axis enlarged or reduced, etc. May be displayed. Then, the change of the time axis or a partial range may be arbitrarily set by the user.

なお本実施の形態では、楽音生成部202が送信する音色情報は、当該音色番号の楽音波形の特徴を示すパラメータとしたが、これに限られる訳ではない。他の例としては、
(21)波形画像データそのもの;
(22)音源の種類または型番を示す情報(たとえば、ID);
などを挙げることができる。
In the present embodiment, the tone color information transmitted by the tone generator 202 is a parameter indicating the characteristics of the tone waveform of the tone number, but is not limited thereto. As another example,
(21) Waveform image data itself;
(22) Information indicating the type or model number of the sound source (for example, ID);
And so on.

上記(21)の場合、楽音生成部202は、受信した音色番号に対応する波形画像データ(群)をSysEx内に埋め込んで送信する。あるいは、制御部101から音色番号に加えて、ノート番号(当該MIDIデータに含まれる各ノートイベントのノート番号)も送信してもらい、楽音生成部202は、受信した音色番号に対応する波形画像データ(群)のうち、受信したノート番号の波形画像データをSysEx内に埋め込んで送信するようにしてもよい。このようにすれば、楽音生成部202は、受信した音色番号に対応する波形画像データ(群)をすべて送信しなくてもよいので、波形画像データの送信時間を短縮することができる。楽音生成部202から波形画像データ(群)の埋め込まれたSysExが送信されると、制御部101は、これを受信し、受信したSysExから波形画像データ(群)を取り出して、記憶部102に記憶する。つまり、取り出された波形画像データ(群)は、波形画像データ102bの一部になる。なお、楽音生成部202は、受信した音色番号に対応する波形画像データ(群)を持っていない場合も考えられる。この場合には、楽音生成部202は、自身が持っているデフォルト波形画像データ(群)を送信するようにしてもよいし、エラーなどの持っていないことを示す情報を送信するようにしてもよい。   In the case of the above (21), the tone generation unit 202 embeds the waveform image data (group) corresponding to the received tone number in the SysEx and transmits it. Alternatively, in addition to the timbre number, the control unit 101 also transmits a note number (note number of each note event included in the MIDI data), and the tone generation unit 202 receives the waveform image data corresponding to the received timbre number. Of the (group), the waveform image data of the received note number may be embedded in the SysEx and transmitted. In this way, the tone generation unit 202 does not have to transmit all the waveform image data (group) corresponding to the received timbre number, so the transmission time of the waveform image data can be shortened. When the SysEx in which the waveform image data (group) is embedded is transmitted from the musical sound generation unit 202, the control unit 101 receives this, extracts the waveform image data (group) from the received SysEx, and stores it in the storage unit 102. Remember. That is, the extracted waveform image data (group) becomes a part of the waveform image data 102b. Note that the tone generator 202 may not have waveform image data (group) corresponding to the received tone number. In this case, the tone generation unit 202 may transmit default waveform image data (group) possessed by itself, or may transmit information indicating that there is no error or the like. Good.

上記(22)の場合、制御部101は、受信したIDと、MIDIトラックに割り当てられているMIDIデータの音色番号の両方に合致する波形画像データ(群)を波形画像データ102bから検索することになる。この場合には、波形画像データ102bに含まれる各波形画像データ(群)は、ADSRではなく、IDと音色番号に対応付ける必要がある。もちろん、各波形画像データ(群)がADSRと対応付けられていたとしても、たとえばテーブルデータによって、IDと音色番号からADSRが分かるように構成すれば、各波形画像データ(群)の対応付けを、ADSRからIDと音色番号に変更しなくてもよい。上記(22)の場合についてのそれ以外の処理は、本実施の形態で前述した処理とほとんど変わらないので、その説明は省略する。   In the case of (22) above, the control unit 101 searches the waveform image data 102b for waveform image data (group) that matches both the received ID and the tone number of the MIDI data assigned to the MIDI track. Become. In this case, each waveform image data (group) included in the waveform image data 102b needs to be associated with an ID and a timbre number instead of ADSR. Of course, even if each waveform image data (group) is associated with ADSR, for example, if the table is configured so that the ADSR can be identified from the ID and timbre number, the association between each waveform image data (group) is possible. , ADSR need not be changed to ID and tone number. Since the other processes in the case of (22) are almost the same as the processes described above in the present embodiment, the description thereof is omitted.

図5の波形表示処理により、MIDIトラックがイベント表示から波形表示に切り替わった状態で、ユーザが、その波形表示に対して何らかの操作、たとえば、カーソルによって一部領域を指定する操作を行うと、制御部101は、前記(2)のMIDIデータの編集処理を起動する。図6(a)は、このMIDIデータの編集処理の手順を示すフローチャートである。   When the MIDI track is switched from the event display to the waveform display by the waveform display processing of FIG. 5, the user performs any operation on the waveform display, for example, an operation for designating a partial area with the cursor. The unit 101 activates the MIDI data editing process (2). FIG. 6A is a flowchart showing the procedure of the MIDI data editing process.

今ユーザが、図4(b)の画面62中の領域63を指定し、領域63内の波形画像データに対して何らかの編集操作を行ったとすると、制御部101は、その操作位置を特定し、操作量を検出する(ステップS21)。図6(b)は、領域63内の波形画像データを拡大し、そのエンベロープ64を抽出した図を示している。領域63内の抽出されたエンベロープ64の片方(上側)には、その特徴点を示す位置に4つの座標点p1〜p4が表示される。座標点p1は、ADSRにおけるアタック(Attack)の終点を示し、座標点p2は、ディケイ(Decay)の終点を示し、座標点p3は、サスティン(Sustain)の終点を示し、座標点p4は、リリース(Release)の終点を示している。ユーザの上記編集操作が、領域63内のエンベロープ64の形状を変形するものであったとすると、上記ステップS21では、制御部101は、領域63内のどの位置からどのような変形が指示されたかを検出する。   If the user now designates the area 63 in the screen 62 of FIG. 4B and performs some editing operation on the waveform image data in the area 63, the control unit 101 specifies the operation position, An operation amount is detected (step S21). FIG. 6B shows a diagram in which the waveform image data in the region 63 is enlarged and the envelope 64 is extracted. On one side (upper side) of the extracted envelope 64 in the region 63, four coordinate points p1 to p4 are displayed at positions indicating the feature points. The coordinate point p1 indicates the end point of the attack in ADSR, the coordinate point p2 indicates the end point of Decay, the coordinate point p3 indicates the end point of Sustain, and the coordinate point p4 is the release point. The end point of (Release) is shown. If the user's editing operation is to change the shape of the envelope 64 in the region 63, the control unit 101 determines from which position in the region 63 what deformation is instructed in step S21. To detect.

次に制御部101は、検出された操作位置および操作量に応じて波形画像データを編集する(ステップS22)。この編集後の波形画像データは、逐次表示される。その結果、領域63内のエンベロープ64は、ユーザの指示通りに変形され、座標点p1〜p4も、変形後のエンベロープ上の対応する位置に移動する。   Next, the control unit 101 edits the waveform image data according to the detected operation position and operation amount (step S22). The edited waveform image data is sequentially displayed. As a result, the envelope 64 in the region 63 is deformed as instructed by the user, and the coordinate points p1 to p4 are also moved to corresponding positions on the deformed envelope.

次に制御部101は、編集前後の座標の変化量を算出する(ステップS23)。つまり、座標点p1〜p4のそれぞれについて、編集前の座標から編集後の座標までの変化量が算出される。   Next, the control unit 101 calculates the amount of change in coordinates before and after editing (step S23). That is, for each of the coordinate points p1 to p4, the amount of change from the coordinates before editing to the coordinates after editing is calculated.

そして制御部101は、算出された座標の変化量に応じて、対応するMIDIパラメータを変更した(ステップS24)後、本MIDIデータの編集処理を終了する。座標点p1〜p4の移動と、それによって変更すべきMIDIパラメータの種類とは、たとえば
(31)座標点p1の上/下移動 :ベロシティ;
(32)座標点p1の左/右移動 :アタックタイム、ディケイタイム;
(33)座標点p2,p3の上/下移動:サスティンレベル;
(34)座標点p2,p3の左/右移動:ディケイタイム、リリースタイム;
(35)座標点p4の左/右移動 :リリースタイム、ノートオフタイミング;
のように対応付けられる。前記記憶部102には、座標の変化量に対するMIDIパラメータの変化量を示すテーブル(図示せず)が予め記憶されているので、制御部101は、算出された各座標点p1〜p4の変化量に基づいてテーブルを検索することで、MIDIパラメータの変化量を決定し、決定した変化量だけ、目的のMIDIパラメータの値を変更する。
Then, the control unit 101 changes the corresponding MIDI parameter in accordance with the calculated coordinate change amount (step S24), and then ends the editing process of the MIDI data. The movement of the coordinate points p1 to p4 and the type of the MIDI parameter to be changed thereby are, for example, (31) Up / down movement of the coordinate point p1: velocity;
(32) Left / right movement of coordinate point p1: Attack time, decay time;
(33) Up / down movement of coordinate points p2, p3: sustain level;
(34) Left / right movement of coordinate points p2, p3: decay time, release time;
(35) Left / right movement of coordinate point p4: release time, note-off timing;
Are associated with each other. Since the storage unit 102 stores in advance a table (not shown) indicating the change amount of the MIDI parameter with respect to the change amount of the coordinate, the control unit 101 calculates the change amount of each of the calculated coordinate points p1 to p4. By searching the table based on the above, the change amount of the MIDI parameter is determined, and the value of the target MIDI parameter is changed by the determined change amount.

領域63内のエンベロープ64を変形した場合、座標点p1〜p4のうちのある1つの座標点だけが移動し、他の3つの座標点は移動しないという状態は、ほとんど起こらないので、座標点p1〜p4のうちの、少なくとも一部の複数の座標点が同時に移動することになる。たとえば、座標点p1が移動したとすると、座標点p1だけではなく、座標点p2,p3も移動することになるので、ベロシティ、アタック、ディケイ、サスティンおよびリリースなどの複数の種類のパラメータの値が同時に変更される。   When the envelope 64 in the region 63 is deformed, a state in which only one coordinate point of the coordinate points p1 to p4 moves and the other three coordinate points do not move hardly occurs. Therefore, the coordinate point p1 ~ P4, at least some of the plurality of coordinate points move simultaneously. For example, if the coordinate point p1 is moved, not only the coordinate point p1 but also the coordinate points p2 and p3 are moved. Therefore, the values of a plurality of types of parameters such as velocity, attack, decay, sustain and release are set. It is changed at the same time.

領域63内のエンベロープ64の形状の変更は、上述のように直接指示する方法に限らず、たとえば、ユーザが領域63内あるいはその近傍をカーソルで指示し、マウスの右ボタンをクリックすると、編集メニューがポップアップ表示される。そしてユーザが、そのメニューに記載されている「エフェクト」、「リバース」および「ピッチシフト」などの編集項目のいずれかを選択すると、選択された編集項目に応じた形状の変更が指示されて実行されるようにしてもよい。各編集項目と、それによって変更すべきMIDIパラメータの種類とは、たとえば
(41)エフェクト :リバーブ、コーラスなど;
(42)リバース :プログラムチェンジ;
(43)ピッチシフト:ピッチ、ピッチベンド、ノートナンバ(ノーマル音色のみ)など;
のように対応付けられる。
The change of the shape of the envelope 64 in the area 63 is not limited to the direct instruction method as described above. For example, when the user designates the area 63 or its vicinity with the cursor and clicks the right button of the mouse, the edit menu is displayed. Will pop up. When the user selects one of the edit items such as “effect”, “reverse”, and “pitch shift” described in the menu, the change of the shape according to the selected edit item is instructed and executed. You may be made to do. For example, (41) effects: reverb, chorus, etc .;
(42) Reverse: Program change;
(43) Pitch shift: pitch, pitch bend, note number (normal tone only), etc .;
Are associated with each other.

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the program code and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

1…操作入力部(入力手段),6…ディスプレイ(表示手段、第1の表示手段、第2の表示手段),101…制御部(第1の表示手段、第2の表示手段、波形画像取得手段) DESCRIPTION OF SYMBOLS 1 ... Operation input part (input means), 6 ... Display (display means, 1st display means, 2nd display means), 101 ... Control part (1st display means, 2nd display means, waveform image acquisition) means)

Claims (6)

楽音の発音を制御するイベント列からなる音楽データを表示手段上にイベント表示する第1の表示ステップと、
前記音楽データに含まれるノートイベントのそれぞれについて、対応する波形画像データを取得する波形画像取得ステップと、
前記波形画像取得ステップによって取得された波形画像データに基づいて、前記音楽データを前記表示手段上に波形表示する第2の表示ステップと
を有し、
前記波形画像取得ステップでは、前記対応する波形画像データが存在すれば、当該対応する波形画像データを取得し、前記対応する波形画像データが存在しなければ、デフォルトの波形画像データを取得することを特徴とする音楽データ編集方法。
A first display step for displaying an event on the display means of music data consisting of an event sequence for controlling the sound generation;
For each of the note events included in the music data, a waveform image acquisition step for acquiring corresponding waveform image data;
Based on the acquired waveform image data by the waveform image acquisition step, the music data have a second display step of waveform displayed on said display means,
In the waveform image acquisition step, if the corresponding waveform image data exists, the corresponding waveform image data is acquired, and if the corresponding waveform image data does not exist, default waveform image data is acquired. Characteristic music data editing method.
前記音楽データに基づいて楽音信号を生成する楽音信号生成手段から音色情報を取得する音色情報取得ステップをさらに有し、
前記波形画像取得ステップでは、前記音色情報取得ステップによって取得された音色情報に基づいて、前記対応する波形画像データ又は前記デフォルトの波形画像データを取得することを特徴とする請求項1に記載の音楽データ編集方法。
A timbre information acquisition step of acquiring timbre information from a musical tone signal generating means for generating a musical tone signal based on the music data;
In the waveform image acquisition step, based on the obtained tone color information by the tone color information acquiring step, music according to claim 1, characterized in that to obtain the corresponding waveform image data or the default waveform image data Data editing method.
前記デフォルトの波形画像データは、予め固定的に決定された特定の波形画像データ又は前記取得された音色情報に近い波形画像データであることを特徴とする請求項2に記載の音楽データ編集方法。3. The music data editing method according to claim 2, wherein the default waveform image data is specific waveform image data fixedly determined in advance or waveform image data close to the acquired timbre information. ユーザが、編集指示を入力する入力手段を用いて、前記表示手段上に表示された波形画像に対して編集指示を入力したときに、当該入力された編集指示を前記音楽データの編集指示に変換する変換ステップと、
ユーザによる前記編集指示の入力に応じて、前記表示された波形画像内の編集指示された波形画像データを変更して表示するとともに、前記音楽データを前記変換ステップによって変換された編集指示に基づいて変更するように制御する制御ステップと
をさらに有することを特徴とする請求項1乃至3のいずれか1項に記載の音楽データ編集方法。
When the user inputs an edit instruction to the waveform image displayed on the display means using an input means for inputting an edit instruction, the input edit instruction is converted into an edit instruction for the music data. A conversion step to
In response to an input of the editing instruction by the user, the waveform image data instructed to edit in the displayed waveform image is changed and displayed, and the music data is converted based on the editing instruction converted by the converting step. The music data editing method according to any one of claims 1 to 3, further comprising a control step of controlling to change.
音楽データ編集方法をコンピュータに実行させるためのプログラムであって、
前記音楽データ編集方法は、
楽音の発音を制御するイベント列からなる音楽データを表示手段上にイベント表示する第1の表示ステップと、
前記音楽データに含まれるノートイベントのそれぞれについて、対応する波形画像データを取得する波形画像取得ステップと、
前記波形画像取得ステップによって取得された波形画像データに基づいて、前記音楽データを前記表示手段上に波形表示する第2の表示ステップと
を有し、
前記波形画像取得ステップでは、前記対応する波形画像データが存在すれば、当該対応する波形画像データを取得し、前記対応する波形画像データが存在しなければ、デフォルトの波形画像データを取得することを特徴とするプログラム。
A program for causing a computer to execute a music data editing method,
The music data editing method is:
A first display step for displaying an event on the display means of music data consisting of an event sequence for controlling the sound generation;
For each of the note events included in the music data, a waveform image acquisition step for acquiring corresponding waveform image data;
Based on the acquired waveform image data by the waveform image acquisition step, the music data have a second display step of waveform displayed on said display means,
In the waveform image acquisition step, if the corresponding waveform image data exists, the corresponding waveform image data is acquired, and if the corresponding waveform image data does not exist, default waveform image data is acquired. A featured program.
楽音の発音を制御するイベント列からなる音楽データをイベント表示する第1の表示手段と、
前記音楽データに含まれるノートイベントのそれぞれについて、対応する波形画像データを取得する波形画像取得手段と、
前記波形画像取得手段によって取得された波形画像データに基づいて、前記音楽データを前記表示手段上に波形表示する第2の表示手段とを有し、
前記波形画像取得手段は、前記対応する波形画像データが存在すれば、当該対応する波形画像データを取得し、前記対応する波形画像データが存在しなければ、デフォルトの波形画像データを取得することを特徴とする音楽データ編集装置。
A first display means for displaying an event of music data comprising an event sequence for controlling the sound generation;
Waveform image acquisition means for acquiring corresponding waveform image data for each of the note events included in the music data;
Based on the acquired waveform image data by the waveform image acquiring means, the music data have a second display means for the waveform displayed on said display means,
The waveform image acquisition means acquires the corresponding waveform image data if the corresponding waveform image data exists, and acquires the default waveform image data if the corresponding waveform image data does not exist. A music data editing device.
JP2013019358A 2013-02-04 2013-02-04 Music data editing method, program for realizing the music data editing method, and music data editing apparatus Expired - Fee Related JP6127549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013019358A JP6127549B2 (en) 2013-02-04 2013-02-04 Music data editing method, program for realizing the music data editing method, and music data editing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013019358A JP6127549B2 (en) 2013-02-04 2013-02-04 Music data editing method, program for realizing the music data editing method, and music data editing apparatus

Publications (2)

Publication Number Publication Date
JP2014149488A JP2014149488A (en) 2014-08-21
JP6127549B2 true JP6127549B2 (en) 2017-05-17

Family

ID=51572491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013019358A Expired - Fee Related JP6127549B2 (en) 2013-02-04 2013-02-04 Music data editing method, program for realizing the music data editing method, and music data editing apparatus

Country Status (1)

Country Link
JP (1) JP6127549B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112700758A (en) * 2021-01-08 2021-04-23 吟飞科技(江苏)有限公司 Percussion pad controller editing method based on light display

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3538242B2 (en) * 1994-10-14 2004-06-14 ヤマハ株式会社 Score display device

Also Published As

Publication number Publication date
JP2014149488A (en) 2014-08-21

Similar Documents

Publication Publication Date Title
US9536508B2 (en) Accompaniment data generating apparatus
JP4265551B2 (en) Performance assist device and performance assist program
JP2009156914A (en) Automatic accompaniment device and program
JP6127549B2 (en) Music data editing method, program for realizing the music data editing method, and music data editing apparatus
JP5061926B2 (en) Electronic music apparatus and performance data editing display program
JP2005107029A (en) Musical sound generating device, and program for realizing musical sound generating method
JP4614307B2 (en) Performance data processing apparatus and program
JP3656507B2 (en) Performance information editing device
JP4853054B2 (en) Performance data editing apparatus and program
JP4270102B2 (en) Automatic performance device and program
JP3972899B2 (en) Music score display device
JP3487176B2 (en) Performance information creation display device and recording medium therefor
JP3700442B2 (en) Performance system compatible input system and recording medium
JP3379414B2 (en) Punch-in device, punch-in method, and medium recording program
JP3843688B2 (en) Music data editing device
JP3654227B2 (en) Music data editing apparatus and program
JP4305315B2 (en) Automatic performance data characteristic changing device and program thereof
JP3823951B2 (en) Performance information creation and display device and recording medium therefor
JP3956961B2 (en) Performance data processing apparatus and method
JP2011197664A (en) Music file reproduction device and system
JP4059155B2 (en) Program for realizing automatic performance apparatus and automatic performance method
JP2011099895A (en) Electronic keyboard musical instrument
JP2016057389A (en) Chord determination device and chord determination program
JP4186802B2 (en) Automatic accompaniment generator and program
JP4835433B2 (en) Performance pattern playback device and computer program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170327

R151 Written notification of patent or utility model registration

Ref document number: 6127549

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees