JP2011203583A - Musical sound generator and program - Google Patents

Musical sound generator and program Download PDF

Info

Publication number
JP2011203583A
JP2011203583A JP2010071899A JP2010071899A JP2011203583A JP 2011203583 A JP2011203583 A JP 2011203583A JP 2010071899 A JP2010071899 A JP 2010071899A JP 2010071899 A JP2010071899 A JP 2010071899A JP 2011203583 A JP2011203583 A JP 2011203583A
Authority
JP
Japan
Prior art keywords
note
sequence list
element data
sound generation
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010071899A
Other languages
Japanese (ja)
Other versions
JP5691214B2 (en
Inventor
Toshiaki Sato
利明 佐藤
Masahiko Hasebe
長谷部  雅彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2010071899A priority Critical patent/JP5691214B2/en
Publication of JP2011203583A publication Critical patent/JP2011203583A/en
Application granted granted Critical
Publication of JP5691214B2 publication Critical patent/JP5691214B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a musical sound generator enabling natural performance by switching over a plurality of elements.SOLUTION: The musical sound generator includes: a storage unit for storing element data for generating musical sound, and a sequence list for recording a sounding order of the plurality of element data; a detector for detecting a sounding start instruction and a reset instruction; a selector for sequentially selecting one of the element data in the sounding order recorded in the sequence list according to the detected sounding start instruction; a resetting unit for resetting an object to be selected by the selector in a predetermined element data when the detector detects the reset instruction; and a musical sound-generating unit for generating musical sound by reading the selected element data from the storage unit.

Description

本発明は、楽音生成装置に関し、特に複数のエレメントを切り換えて発音する楽音生成装置に関する。   The present invention relates to a musical sound generating device, and more particularly to a musical sound generating device that generates a sound by switching a plurality of elements.

従来、それぞれが波形データ等である複数のエレメントデータをエレメントセットとして記憶し、当該エレメントセットに含まれるエレメントに基づき順次楽音を生成可能な装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there has been known an apparatus capable of storing a plurality of element data each of which is waveform data or the like as an element set and sequentially generating musical sounds based on the elements included in the element set (see, for example, Patent Document 1).

このような装置では、例えば、「カウントボイス」や「スキャット」と呼ばれるエレメントセットが記憶されている。「カウントボイス」は、これを指定して、ユーザが演奏操作子を連続操作することにより、「イチ、ニ、サン、シ、イチ、ニ、サン、シ…」と発音させることが出来る。また、「スキャット」は、これを指定して、ユーザが演奏操作子を連続操作することにより、「Shu、Bee、Doo、Bah…」と発音させることが出来るものである。   In such a device, for example, an element set called “count voice” or “scat” is stored. The “count voice” can be designated and sounded as “ichi, ni, san, ichi, ichi, ni, san, sh ...” by the user operating the performance operator continuously. Also, “Scat” is designated and can be pronounced as “Shu, Bee, Doo, Bah...” When the user operates the performance operator continuously.

特開2008−191657号公報JP 2008-191657 A

上述の「カウントボイス」については「イチ」が一連のカウントの始まりであり、また、「スキャット」については、「Shu」が一連のスキャットの始まりであることから、ユーザの意図する時点で、これらのエレメントの発音が開始されることが好ましい。しかしながら、従来の楽音生成装置では、エレメントセット中のエレメントをシーケンスリストで規定されるとおりに順次切り換えて発音するのみであるので、ユーザがシーケンスの途中で発音されるエレメントを先頭の「イチ」や「Shu」に戻すことは困難であった。   For the above-mentioned “count voice”, “1” is the start of a series of counts, and for “Scat”, “Shu” is the start of a series of skats. It is preferable that the pronunciation of the element is started. However, in the conventional musical sound generation device, the elements in the element set are only switched and sounded in sequence as defined in the sequence list, so that the user can change the element that is sounded in the middle of the sequence to “ It was difficult to return to “Shu”.

本発明の目的は、複数のエレメントを切り換えてユーザの意図に沿った自然な演奏を可能とする楽音生成装置を提供することである。   An object of the present invention is to provide a musical sound generating apparatus that enables a natural performance according to a user's intention by switching a plurality of elements.

本発明の一観点によれば、楽音生成装置は、楽音を生成するためのエレメントデータと、複数のエレメントデータの発音順を記録するシーケンスリストとを記憶する記憶手段と、発音開始指示とリセット指示とを検出する検出手段と、前記検出した発音開始指示に応じて、前記シーケンスリストに記録された発音順に前記エレメントデータの1つを順次選択する選択手段と、前記検出手段が前記リセット指示を検出した場合に、前記選択手段による選択対象を所定のエレメントデータにリセットするリセット手段と、前記選択されたエレメントデータを前記記憶手段から読み出して楽音を生成する楽音生成手段とを有する。   According to one aspect of the present invention, a musical sound generating device includes storage means for storing element data for generating musical sounds, a sequence list for recording the order of sound generation of a plurality of element data, a sound generation start instruction, and a reset instruction. Detecting means for detecting the element data, selecting means for sequentially selecting one of the element data in the order of pronunciation recorded in the sequence list in accordance with the detected sounding start instruction, and the detecting means for detecting the reset instruction In this case, there is provided reset means for resetting a selection target by the selection means to predetermined element data, and a tone generation means for reading the selected element data from the storage means and generating a tone.

本発明によれば、複数のエレメントを切り換えて自然な演奏を可能とする楽音生成装置を提供することができる。   According to the present invention, it is possible to provide a musical sound generating apparatus that enables a natural performance by switching a plurality of elements.

本発明の実施例による楽音生成装置100のハードウェア構成の一例を表すブロック図である。It is a block diagram showing an example of the hardware constitutions of the musical sound production | generation apparatus 100 by the Example of this invention. 本発明の実施例による波形メモリ音源18のハードウェア構成の一例を表すブロック図である。It is a block diagram showing an example of the hardware constitutions of the waveform memory sound source 18 by the Example of this invention. 本発明の第1の実施例による楽音生成の例を表すタイムチャートである。It is a time chart showing the example of the musical tone production | generation by the 1st Example of this invention. 本発明の第1の実施例による発音管理データ及びボイスデータの構成の一例を表す概念図である。It is a conceptual diagram showing an example of a structure of the pronunciation management data by the 1st Example of this invention, and voice data. 本発明の第1の実施例によるメイン処理を表すフローチャートである。It is a flowchart showing the main process by 1st Example of this invention. 本発明の第1の実施例によるノートオン処理を表すフローチャートである。It is a flowchart showing the note-on process by 1st Example of this invention. 本発明の第1の実施例によるノートオフ処理を表すフローチャートである。It is a flowchart showing the note-off process by 1st Example of this invention. 本発明の第2の実施例による楽音生成の例を表すタイムチャートである。It is a time chart showing the example of the musical tone production | generation by the 2nd Example of this invention. 本発明の第2の実施例による発音管理データ及びボイスデータの構成の一例を表す概念図である。It is a conceptual diagram showing an example of a structure of the pronunciation management data by the 2nd Example of this invention, and voice data. 本発明の第2の実施例によるノートオン処理を表すフローチャートである。It is a flowchart showing the note-on process by 2nd Example of this invention. 本発明の第3の実施例による楽音生成の例を表すタイムチャートである。It is a time chart showing the example of the musical tone production | generation by the 3rd Example of this invention. 本発明の第3の実施例による発音管理データ及びボイスデータの構成の一例を表す概念図である。It is a conceptual diagram showing an example of the structure of the pronunciation management data by the 3rd Example of this invention, and voice data. 本発明の第3の実施例による楽音生成の例を表すタイムチャートである。It is a time chart showing the example of the musical tone production | generation by the 3rd Example of this invention. 本発明の第4の実施例による楽音生成の例を表すタイムチャートである。It is a time chart showing the example of the musical tone production | generation by the 4th Example of this invention. 本発明の第4の実施例による発音管理データ及びボイスデータの構成の一例を表す概念図である。It is a conceptual diagram showing an example of a structure of the pronunciation management data by the 4th Example of this invention, and voice data. 本発明の第4の実施例による楽音生成の例を表すタイムチャートである。It is a time chart showing the example of the musical tone production | generation by the 4th Example of this invention.

図1は、本発明の実施例共通の楽音生成装置100のハードウェア構成の一例を表すブロック図である。   FIG. 1 is a block diagram illustrating an example of a hardware configuration of a musical tone generation apparatus 100 common to embodiments of the present invention.

楽音生成装置100のバス6には、RAM7、ROM8、CPU9、検出回路11、表示回路13、記憶装置15、波形メモリ音源18、通信インターフェイス(I/F)21が接続される。   A RAM 7, ROM 8, CPU 9, detection circuit 11, display circuit 13, storage device 15, waveform memory sound source 18, and communication interface (I / F) 21 are connected to the bus 6 of the musical sound generation device 100.

RAM7は、再生バッファ等のバッファ領域、フラグ、レジスタ、各種パラメータ等を記憶するCPU9のワーキングエリアを有する。例えば、後述する発音管理データは、このRAM7内の所定領域に記憶される。   The RAM 7 has a buffer area such as a reproduction buffer, a working area of the CPU 9 that stores flags, registers, various parameters, and the like. For example, pronunciation management data, which will be described later, is stored in a predetermined area in the RAM 7.

ROM8には、各種データファイル(例えば、後述するボイスデータVD)、各種パラメータ及び制御プログラム、又は本実施例を実現するためのプログラム等を記憶することができる。この場合、プログラム等を重ねて、記憶装置15に記憶する必要は無い。   The ROM 8 can store various data files (for example, voice data VD described later), various parameters and a control program, or a program for realizing the present embodiment. In this case, it is not necessary to store programs or the like in the storage device 15 in an overlapping manner.

CPU9は、ROM8又は、記憶装置15に記憶されている制御プログラム又は本実施例を実現するためのプログラム等に従い、演算又は装置の制御を行う。タイマ10が、CPU9に接続されており、基本クロック信号、割り込み処理タイミング等がCPU9に供給される。また、タイマ10は、フリーランタイマを含み、楽音生成装置100の各構成は、これを現在時刻として参照する。   The CPU 9 performs calculation or device control according to a control program stored in the ROM 8 or the storage device 15 or a program for realizing the present embodiment. A timer 10 is connected to the CPU 9, and a basic clock signal, interrupt processing timing, and the like are supplied to the CPU 9. The timer 10 includes a free-run timer, and each component of the tone generation device 100 refers to this as the current time.

ユーザは、検出回路11に接続される設定操作子12を用いて、各種入力及び設定、選択をすることができる。設定操作子12は、例えば、スイッチ、パッド、フェーダ、スライダ、ロータリーエンコーダ、ジョイスティック、ジョグシャトル、文字入力用キーボード、マウス等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。また、設定操作子12は、カーソルスイッチ等の他の操作子を用いて操作する表示装置14上に表示されるソフトスイッチ等でもよい。本実施例では、ユーザは、設定操作子12を操作することにより、記憶装置15又はROM8等に記録された又は通信I/F21を介して外部機器から取得(ダウンロード)するボイスデータVDの選択、及びその他の設定操作を行う。また、後述するように、奏法スイッチとして設けられる設定操作子12を操作することにより、ユーザは、例えば、所望のタイミングでエレメントを切り換えたり、エレメントのシーケンスをリセットしたりすることができる。   The user can perform various inputs, settings, and selections using the setting operator 12 connected to the detection circuit 11. For example, the setting operator 12 may be any switch, pad, fader, slider, rotary encoder, joystick, jog shuttle, character input keyboard, mouse, or the like that can output a signal in accordance with the user input. . The setting operator 12 may be a soft switch or the like displayed on the display device 14 that is operated using another operator such as a cursor switch. In this embodiment, the user selects the voice data VD recorded (stored) in the storage device 15 or the ROM 8 or acquired from an external device via the communication I / F 21 by operating the setting operator 12. And other setting operations. As will be described later, by operating the setting operation element 12 provided as a performance switch, the user can switch elements at a desired timing or reset the sequence of elements, for example.

表示回路13は、ディスプレイ14に接続され、各種情報をディスプレイ14に表示することができる。ディスプレイ14は、楽音生成装置100の設定のための各種情報等を表示することができる。   The display circuit 13 is connected to the display 14 and can display various information on the display 14. The display 14 can display various information for setting the musical sound generating device 100.

記憶装置15は、ハードディスク、FD(フレキシブルディスク又はフロッピーディスク(登録商標))、CD(コンパクトディスク)、DVD(デジタル多目的ディスク)、フラッシュメモリ等の半導体メモリ等の記憶媒体とその駆動装置の組み合わせの少なくとも1つで構成される。記憶媒体は、着脱可能であってもよいし、内蔵されていてもよい。記憶装置15及び(または)ROM8には、複数のボイスデータVD、MIDIデータ等の自動演奏データ等の各種曲データMD、オーディオデータ等、及び、本発明の各実施例を実現するためのプログラムや、その他の制御プログラムを記憶することができる。なお、本発明の各実施例を実現するためのプログラムや、その他の制御プログラムを記憶装置15に記憶する場合は、これらをROM8に合わせて記憶する必要はない。また、一部のプログラムのみを記憶装置15に記憶し、その他のプログラムをROM8に記憶するようにしてもよい。   The storage device 15 is a combination of a storage medium such as a hard disk, an FD (flexible disk or floppy disk (registered trademark)), a CD (compact disk), a DVD (digital multipurpose disk), or a semiconductor memory such as a flash memory, and a driving device thereof. It is composed of at least one. The storage medium may be detachable or built in. The storage device 15 and / or the ROM 8 include a plurality of pieces of music data MD such as automatic performance data such as voice data VD and MIDI data, audio data, etc., and a program for realizing each embodiment of the present invention. Other control programs can be stored. In addition, when storing the program for implement | achieving each Example of this invention, and another control program in the memory | storage device 15, it is not necessary to memorize | store these according to ROM8. Alternatively, only some programs may be stored in the storage device 15 and other programs may be stored in the ROM 8.

波形メモリ音源18は、記憶装置15、ROM8又はRAM7等に記録された自動演奏データ又は演奏操作子(鍵盤)22あるいは通信インターフェイス21に接続された外部機器等から供給される演奏信号、MIDI信号等に応じて楽音信号を生成し、各種音楽的効果を付与して、DAC20を介して、サウンドシステム19に供給する。DAC20は、供給されるデジタル形式の楽音信号をアナログ形式に変換し、サウンドシステム19は、アンプ、スピーカを含み、DA変換された楽音信号を発音する。なお、波形メモリ音源18の詳細については、図2を参照して後述する。   The waveform memory sound source 18 is an automatic performance data recorded in the storage device 15, ROM 8 or RAM 7, or a performance signal supplied from an operation device (keyboard) 22 or an external device connected to the communication interface 21, a MIDI signal, etc. In response to this, a tone signal is generated, various musical effects are applied, and supplied to the sound system 19 via the DAC 20. The DAC 20 converts the supplied digital musical tone signal into an analog format, and the sound system 19 includes an amplifier and a speaker, and generates a DA converted musical tone signal. Details of the waveform memory sound source 18 will be described later with reference to FIG.

通信インターフェイス21は、USBやIEEE1394等の汎用近距離有線I/F、Ethernet(登録商標)等の汎用ネットワークI/F等の通信インターフェイス、MIDI I/Fなどの汎用I/F、無線LANやBluetooth(登録商標)等の汎用近距離無線I/F等の通信インターフェイス及び音楽専用無線通信インターフェイスのうち少なくとも1つで構成され、外部機器、サーバ等との通信が可能である。   The communication interface 21 is a general-purpose short-distance wired I / F such as USB or IEEE 1394, a general-purpose network I / F such as Ethernet (registered trademark), a general-purpose I / F such as MIDI I / F, a wireless LAN, or Bluetooth. It is composed of at least one of a communication interface such as a general-purpose short-range wireless I / F such as (registered trademark) and a music dedicated wireless communication interface, and can communicate with an external device, a server, and the like.

演奏操作子(鍵盤等)22は、検出回路11に接続され、ユーザの演奏動作に従い、演奏情報(演奏データ)を供給する。演奏操作子22は、ユーザの演奏を入力するための操作子であり、ユーザが操作した操作子に対応する音高で、該ユーザの操作子に対する操作開始タイミング及び終了タイミングをそれぞれキーオン及びキーオフ信号として入力する。また、ユーザの演奏操作に応じてベロシティ値等の各種パラメータを入力することが可能である。   A performance operator (keyboard or the like) 22 is connected to the detection circuit 11 and supplies performance information (performance data) according to the performance operation of the user. The performance operator 22 is an operator for inputting a user's performance, and has a pitch corresponding to the operator operated by the user, and a key-on and key-off signal indicating an operation start timing and an end timing for the user's operator, respectively. Enter as. In addition, various parameters such as velocity values can be input in accordance with a user's performance operation.

図2は、本発明の実施例による波形メモリ音源18のハードウェア構成の一例を表すブロック図である。   FIG. 2 is a block diagram showing an example of a hardware configuration of the waveform memory sound source 18 according to the embodiment of the present invention.

波形メモリ音源18は、複数のエレメント(ボイスに対応する波形データ)を1周期以上記憶する波形メモリ81、複数の発音チャンネル82、混合エフェクト処理部83及び音源レジスタ84を含んで構成される。   The waveform memory sound source 18 includes a waveform memory 81 that stores a plurality of elements (waveform data corresponding to a voice) for one period or more, a plurality of sound generation channels 82, a mixed effect processing unit 83, and a sound source register 84.

それぞれの発音チャンネル82は、波形読出部181、音色フィルタ部182、音量制御部183、LFO部184及びEG部185を含んで構成される。   Each tone generation channel 82 includes a waveform reading unit 181, a timbre filter unit 182, a volume control unit 183, an LFO unit 184, and an EG unit 185.

波形読出部181は、LFO部184からの振幅値及びEG部185からのエンベロープデータに従い、後述するノートオン処理(図5等)で選択されるエレメント(波形データ)を波形メモリ81から読み出す。   The waveform reading unit 181 reads from the waveform memory 81 an element (waveform data) selected by note-on processing (FIG. 5 and the like) described later according to the amplitude value from the LFO unit 184 and the envelope data from the EG unit 185.

音色フィルタ部182は、LFO部184からの振幅値及びEG部185からのエンベロープデータに従い、波形メモリ音源18の出力楽音信号の周波数特性を変化させるDCF(デジタルコントロールドフィルタ)である。   The timbre filter unit 182 is a DCF (digitally controlled filter) that changes the frequency characteristics of the output tone signal of the waveform memory sound source 18 in accordance with the amplitude value from the LFO unit 184 and the envelope data from the EG unit 185.

音量制御部183は、LFO部184からの振幅値及びEG部185からのエンベロープデータに従い、波形メモリ音源18の出力楽音信号の音量を制御するDCA(デジタルコントロールドアンプ)である。例えば、音色フィルタ部182の出力とEG部185からのエンベロープデータとを乗算することにより出力レベルを制御する。   The volume control unit 183 is a DCA (digital controlled amplifier) that controls the volume of the output tone signal of the waveform memory sound source 18 according to the amplitude value from the LFO unit 184 and the envelope data from the EG unit 185. For example, the output level is controlled by multiplying the output of the timbre filter unit 182 and the envelope data from the EG unit 185.

混合エフェクト処理部83は、複数の発音チャンネル82の出力を混合(ミキシング)すると共に、混合信号に対して各種効果を付与して、DAC20に出力する。   The mixed effect processing unit 83 mixes (mixes) the outputs of the plurality of sound generation channels 82, adds various effects to the mixed signal, and outputs the mixed signal to the DAC 20.

音源レジスタ84は、発音チャンネル82の各部181〜185及び混合エフェクト処理部83を制御するためのレジスタである。   The tone generator register 84 is a register for controlling the units 181 to 185 and the mixed effect processing unit 83 of the sound generation channel 82.

なお、音源部としては、ここで説明した波形メモリ音源18に限らず、所望のエレメントを発音可能なものであればどのようなタイプの音源でも使用可能である。   The sound source unit is not limited to the waveform memory sound source 18 described here, and any type of sound source can be used as long as a desired element can be generated.

図3(A)〜(C)は、本発明の第1の実施例による楽音生成の例を表すタイムチャートである。なお、本発明の第1の実施例では、「Shu、Bee、Doo、Bah…」という一連の複数エレメント(波形データ)を順次発音するためのシーケンスリストを少なくとも1つ記憶するボイスデータVDが選択されている。   3A to 3C are time charts showing an example of tone generation according to the first embodiment of the present invention. In the first embodiment of the present invention, the voice data VD that stores at least one sequence list for sequentially generating a series of multiple elements (waveform data) “Shu, Bee, Doo, Bah...” Is selected. Has been.

図3(A)は、キーオンから次のキーオンまでの時間間隔が短い場合の動作例を説明するための図である。この例では、キーオンから次のキーオンまでの時間間隔が所定時間(30msec、50msec、70msec等)未満の場合に、シーケンスリストのインデックスIX(図4)を先に進めないようにしている。   FIG. 3A is a diagram for explaining an operation example when the time interval from key-on to next key-on is short. In this example, when the time interval from key-on to the next key-on is less than a predetermined time (30 msec, 50 msec, 70 msec, etc.), the sequence list index IX (FIG. 4) is not advanced.

まずタイミングt1において最初のキーオンイベントが発生し、それに伴いエレメント「Shu」が発音される。その後、タイミングt1から30msec未満経過後のタイミングt2において第2のキーオンイベントが発生する。この時、従来例では、シーケンスリストのインデックスIXが先に進み、「Bee」が発音されるが、このように30msec未満の時間間隔で異なるエレメントを発音させると音楽的に不自然な印象を与えるので、本実施例では、2つのキーオンイベント間の時間間隔が所定値未満(本実施例では、30msec)の場合には、シーケンスリストのインデックスIXを先に進めずに、当該2つのキーオンイベントに対して、同じエレメントを発音させるようにした。   First, at the timing t1, the first key-on event occurs, and the element “Shu” is pronounced accordingly. Thereafter, a second key-on event occurs at timing t2 after less than 30 msec from timing t1. At this time, in the conventional example, the index IX of the sequence list is advanced, and “Bee” is pronounced. However, if different elements are pronounced at a time interval of less than 30 msec, an unnatural impression is given musically. Therefore, in this embodiment, when the time interval between two key-on events is less than a predetermined value (30 msec in this embodiment), the index IX of the sequence list is not advanced, and the two key-on events are changed. On the other hand, the same element is pronounced.

よって、図3(A)に示すように、タイミングt1及びt2ともに、エレメント「Shu」が発音される。なお、タイミングt3は、タイミングt2から30msec以上経過しているので、シーケンスリストのインデックスIXを先に進め、エレメント「Bee」が発音される。また、タイミングt4では、タイミングt2から30msec以上経過しており、また、同時に二つのキーオンイベントが発生しているので、当該2つのキーオンイベントに対して、同じエレメント「Doo」を発音させる。   Therefore, as shown in FIG. 3A, the element “Shu” is sounded at both timings t1 and t2. At timing t3, since 30 msec or more has elapsed from timing t2, the index IX of the sequence list is advanced first, and the element “Bee” is sounded. Further, at timing t4, 30 msec or more has elapsed from timing t2, and since two key-on events have occurred at the same time, the same element “Doo” is sounded for the two key-on events.

図3(B)は、キーオフから次のキーオンまでの時間間隔が長い場合の動作例を説明するための図である。この例では、キーオンから次のキーオンまでの時間間隔が所定時間(300msec、350msec、400msec等)以上の場合に、シーケンスリストのインデックスIX(図4)をリセット(リスト先頭に戻す)するようにしている。   FIG. 3B is a diagram for explaining an operation example when the time interval from key-off to next key-on is long. In this example, when the time interval from key-on to the next key-on is a predetermined time (300 msec, 350 msec, 400 msec, etc.) or more, the sequence list index IX (FIG. 4) is reset (returned to the top of the list). Yes.

タイミングt5に、エレメント「Shu」及び「Bee」に対応するキーオフイベントが発生し、所定時間(本実施例では、350msec)以上経過後のタイミングt6において、キーオンイベントが発生する。この場合、従来例では、シーケンスリストのインデックスIXは先に進められ、エレメント「Doo」が発音されることとなるが、一定時間以上間隔があいた場合に、シーケンスの続きから発音すると、音楽的に不自然となってしまう。そこで、本実施例では、直前のエレメントに対応するキーオフイベントから次のキーオンイベントまでの時間間隔が所定時間(例えば、350msec)以上の場合は、シーケンスリストのインデックスIXを一旦リセットして、リストの先頭に戻すようにした。   A key-off event corresponding to the elements “Shu” and “Bee” occurs at timing t5, and a key-on event occurs at timing t6 after elapse of a predetermined time (350 msec in this embodiment). In this case, in the conventional example, the index IX of the sequence list is advanced, and the element “Doo” is pronounced. However, if there is an interval of a certain time or more, if it is pronounced from the continuation of the sequence, it is musically It becomes unnatural. Therefore, in this embodiment, when the time interval from the key-off event corresponding to the immediately preceding element to the next key-on event is equal to or longer than a predetermined time (for example, 350 msec), the index IX of the sequence list is temporarily reset, Return to the beginning.

よって、この例では、タイミングt6のキーオンイベントに対応してシーケンスリストの先頭であるエレメント「Shu」が発音され、以降、シーケンスリストのエレメントが順次発音される。   Therefore, in this example, the element “Shu” which is the head of the sequence list is sounded in response to the key-on event at timing t6, and thereafter, the elements of the sequence list are sounded sequentially.

図3(C)は、奏法スイッチ等の所定の設定操作子12を操作することにより発音するエレメントを切り替える場合の動作例を説明するための図である。この例では、奏法スイッチON状態(発音条件1)において、特定のエレメント(図4の特殊発音エレメント1)に発音(選択)エレメントを切り換えると共に、当該奏法スイッチON状態において特定のノート番号又はベロシティ値(発音条件2)を有するノートオンイベントが発生した場合に特定のエレメント(図4の特殊発音エレメント2)に発音(選択)エレメントを切り換える。   FIG. 3C is a diagram for explaining an operation example in the case of switching an element to be sounded by operating a predetermined setting operator 12 such as a rendition style switch. In this example, in the rendition style switch ON state (sound generation condition 1), the sound generation (selection) element is switched to a specific element (special sound generation element 1 in FIG. 4), and a specific note number or velocity value is selected in the rendition style switch ON state. When a note-on event having (sounding condition 2) occurs, the sounding (selection) element is switched to a specific element (special sounding element 2 in FIG. 4).

まず、「Shu、Bee、Doo」と順次エレメントが発音された後に、タイミングt7において奏法スイッチ(設定操作子)12が操作され、奏法スイッチON状態(図4の奏法スイッチ状態変数が「TRUE」に設定されている状態)となる。その後、任意のタイミングで特定のノート番号又はベロシティ値(発音条件2)ではないノートオンイベントが発生すると、特殊発音エレメント1として規定されているエレメント「Daa」が発音される。タイミングt8においては、特定のノート番号又はベロシティ値(発音条件2)を有するノートオンイベントが発生し、特殊発音エレメント2として規定されているエレメント「Hey!」が発音される。その後、タイミングt9で、奏法スイッチ(設定操作子)12が操作されると奏法スイッチOFF状態(図4の奏法スイッチ状態変数が「FALSE」に設定されている状態)となる。その後、ノーオンイベントの発生に対しては、通常のシーケンスリストの先頭から発音される。この場合は、まず先頭エレメントの「Shu」が発音される。   First, after the elements “Shu, Bee, Doo” are sequentially sounded, the rendition style switch (setting operator) 12 is operated at timing t7, and the rendition style switch ON state (the rendition style switch state variable in FIG. 4 is changed to “TRUE”). Is set). Thereafter, when a note-on event that is not a specific note number or velocity value (sounding condition 2) occurs at an arbitrary timing, the element “Daa” defined as the special sounding element 1 is sounded. At timing t8, a note-on event having a specific note number or velocity value (sounding condition 2) occurs, and the element “Hey!” Defined as the special sounding element 2 is sounded. Thereafter, when the rendition style switch (setting operator) 12 is operated at timing t9, the rendition style switch is turned off (the rendition style switch state variable in FIG. 4 is set to “FALSE”). Thereafter, when a no-on event occurs, the normal sequence list is sounded. In this case, the first element “Shu” is first pronounced.

すなわち、発音条件1(奏法スイッチON状態)及び発音条件2(特定のノート番号又はベロシティ値を有するノートオンイベントの発生)がいずれも満たされない状態でのノーオンイベントの発生に対しては、通常のシーケンスリストにしたがい発音がなされ、発音条件1のみを満たす状態でのノーオンイベントの発生に対しては、特殊発音エレメント1が発音され、発音条件1及び発音条件2の双方を満たす状態でのノーオンイベントの発生に対しては、特殊発音エレメント2が発音される。また、発音条件1を満たす状態から満たさない状態に遷移した場合は、通常のシーケンスリストのインデックスIXはリセットされる。   That is, for the occurrence of a no-on event in a state where neither the sounding condition 1 (the rendition style switch is on) or the sounding condition 2 (the occurrence of a note-on event having a specific note number or velocity value) is satisfied, In response to the occurrence of a no-on event in the state where only the sounding condition 1 is satisfied, the special sounding element 1 is sounded and both the sounding condition 1 and the sounding condition 2 are satisfied. In response to the occurrence of a no-on event, the special sounding element 2 is sounded. In addition, when a transition is made from a state satisfying the sound generation condition 1 to a state not satisfying, the normal sequence list index IX is reset.

図4は、本発明の第1の実施例による発音管理データ及びボイスデータの構成の一例を表す概念図である。   FIG. 4 is a conceptual diagram showing an example of the configuration of pronunciation management data and voice data according to the first embodiment of the present invention.

発音管理データMDは、例えば、図1のRAM7内の所定領域に記憶されており、ボイスデータへの参照情報VL、最後のノートオン時刻OT、最後のノートオフ時刻FT、奏法スイッチ状態変数SV、シーケンスリストのインデックスIX、発音中ノートリストNLを含む。   The pronunciation management data MD is stored, for example, in a predetermined area in the RAM 7 of FIG. 1, and reference information VL to the voice data, the last note-on time OT, the last note-off time FT, the rendition style switch state variable SV, It includes an index IX of the sequence list and a note list NL during pronunciation.

発音管理データMDのボイスデータへの参照情報VLは、ROM8等に記憶されているボイスデータ群のうち、選択されたボイスデータ(選択ボイスデータ)VDへの参照情報を保持する。ユーザによりボイスが選択しなおされるたびに、このボイスデータへの参照情報VLが更新される。ノートオンイベントの処理を行う際は、このボイスデータへの参照情報VLからボイスデータVDをたどり、発音すべきエレメントの情報を取得し、音源18を設定する。   The reference information VL to the voice data of the pronunciation management data MD holds reference information to the selected voice data (selected voice data) VD among the voice data group stored in the ROM 8 or the like. Each time the user reselects a voice, the reference information VL to this voice data is updated. When processing the note-on event, the voice data VD is traced from the reference information VL to the voice data, information on the element to be sounded is obtained, and the sound source 18 is set.

最後のノートオン時刻OTは、ノートオンイベントを処理した際の時刻を保持する。最後のノートオン時刻OTは、ノートオンイベントを処理する度に更新する。このデータは後続のノートオンイベントを処理する際にエレメントを選択するために使用される。   The last note-on time OT holds the time when the note-on event is processed. The last note-on time OT is updated every time a note-on event is processed. This data is used to select an element when processing subsequent note-on events.

最後のノートオフ時刻FTは、ノートオフイベントを処理した際の時刻を保持する。最後のノートオフ時刻FTは、ノートオフイベントを処理する度に更新する。このデータは後続のノートオンイベントを処理する際にエレメントを選択するために使用される。   The last note-off time FT holds the time when the note-off event is processed. The last note-off time FT is updated every time a note-off event is processed. This data is used to select an element when processing subsequent note-on events.

奏法スイッチ状態変数SVは、奏法スイッチ(設定操作子)12のON/OFF状態を保持する。奏法スイッチオンイベントの処理により状態を「TRUE」に切り換え、奏法スイッチオフイベントの処理により状態を「FALSE」に切り換える。   The rendition style switch state variable SV holds the ON / OFF state of the rendition style switch (setting operation element) 12. The state is switched to “TRUE” by processing the rendition style switch-on event, and the state is switched to “FALSE” by processing the rendition style switch-off event.

シーケンスリストのインデックスIXは、ボイスデータVD内のシーケンスリストSLに記憶されたエレメント情報を記録順に1つずつ順次選択するためのインデックスであり、原則としてノートンイベントが発生するたびに1つずつ進められる。   The index IX of the sequence list is an index for sequentially selecting the element information stored in the sequence list SL in the voice data VD one by one in the recording order, and is advanced by one every time a Norton event occurs in principle. .

発音中ノートリストNLは、音源18にて現在発音中のノート(楽音)に対応するノート情報NIをリストにより管理する。発音中ノートリストNLの各エントリーであるノート情報NIは、発音中のノート(楽音)を表し、ノート番号NN、リリース状態フラグRF及び発音チャンネル管理情報CMを含む。   The sounding note list NL manages note information NI corresponding to the note (musical sound) currently being sounded by the sound source 18 as a list. The note information NI which is each entry in the sounding note list NL represents a note (musical tone) being sounded, and includes a note number NN, a release state flag RF, and sounding channel management information CM.

ノートオンイベントの処理では、発音チャンネル82(1つの波形データを再生して発音するのに必要な音源リソースの単位)を確保し、ノートオンイベントのノート番号NNと確保した発音チャンネル82の管理情報CMと「FALSE」の値のリリース状態フラグRFをまとめて1つのエントリーとして発音中ノートリストNLに追加する。   In the processing of the note-on event, a sound generation channel 82 (a sound source resource unit necessary for reproducing and generating one waveform data) is secured, and the note number NN of the note-on event and the management information of the secured sound generation channel 82 are secured. The release status flag RF having the value of CM and “FALSE” is added to the sounding note list NL as one entry.

ノートオフイベントの処理では、ノートオフイベントのノート番号から対応するエントリーを発音中ノートリストNLから検索し、当該エントリーのリリース状態フラグRFを「TRUE」にすると共に、発音チャンネル82がノートオフ後のリリース中の発音をするように指示する。この時点では、当該エントリーはまだ発音中ノートリストNLから削除されない。エントリーの削除は、例えば、周期的処理でリリース中のエントリー(リリース状態フラグRFが「TRUE」のエントリー)を監視し、各リリース中の発音チャンネル82の音量レベルを音源から取得し、音量が一定値以下になったら対応するエントリーを削除する。   In the processing of the note-off event, a corresponding entry is searched from the sounding note list NL based on the note number of the note-off event, the release state flag RF of the entry is set to “TRUE”, and the sounding channel 82 is changed to the sound channel after the note-off. Instruct them to pronounce during the release. At this time, the entry is not yet deleted from the sounding note list NL. The entry is deleted by, for example, monitoring an entry being released in a periodic process (an entry whose release state flag RF is “TRUE”), obtaining the volume level of the sound channel 82 being released from the sound source, and keeping the volume constant. When the value falls below the value, the corresponding entry is deleted.

ボイスデータ群は、複数のボイスデータVDを含み、例えば、図1のROM8又は記憶装置15に記憶されている。それぞれのボイスデータVDは、ボイスの名称VN、モード情報MI、シーケンスリストSL、特殊発音用エレメントSEを含む。なお、図では、1つのボイスデータが選択されている状態を示す。ボイスデータVDは、楽音生成装置100が発音可能な各ボイスについてのパラメータの一式である。ボイスデータVDは、プリセットとして多数がROM8に記録されている。または、ユーザが作成したり各種メディアから取得したりして不揮発メモリ等の記憶装置15にボイスデータVDを多数記録している。   The voice data group includes a plurality of voice data VD and is stored in, for example, the ROM 8 or the storage device 15 in FIG. Each voice data VD includes a voice name VN, mode information MI, a sequence list SL, and a special tone generation element SE. In the figure, one voice data is selected. The voice data VD is a set of parameters for each voice that can be generated by the musical tone generation apparatus 100. Many voice data VD are recorded in the ROM 8 as presets. Alternatively, a large number of voice data VD is recorded in the storage device 15 such as a non-volatile memory, which is created by a user or acquired from various media.

ボイスの名称VNは、例えば、「ScatVoice」や「AcousticPiano1」というような、各ボイスをユーザが識別するための文字列である。また、ボイス名称VNと合わせて、プログラムチェンジ番号等の当該ボイスデータを識別するための識別子(識別番号等)を記録するようにしてもよい。   The voice name VN is a character string for the user to identify each voice such as “ScatVoice” and “AcousticPiano1”. In addition to the voice name VN, an identifier (identification number or the like) for identifying the voice data such as a program change number may be recorded.

モード情報MIは、発音モード記録する。発音モードは従来からの通常の波形読み出しをするボイスであるか、又は、本実施例による「サイクル発音(WaveCycle)」をするためのボイスであるかを表す。   The mode information MI is recorded in the sound generation mode. The sound generation mode indicates whether it is a voice for reading a normal waveform from the past, or a voice for “cycle sound generation” according to the present embodiment.

シーケンスリストSLは、「サイクル発音」で用いる複数エレメントを発音させたい順に記録するリストであり、各エレメントに対応するエレメント情報ELが発音順にリストされている。原則として、ノートオンのたびにサイクリックにエレメントが切り替えられて、記録順に発音される。すなわち、リストの先頭からノートオンのたびに1つのエレメントが発音され、順次、次に記録されたエレメントが発音される。例えば、エレメント1「Shu」、エレメント2「Bee」、エレメント3「Doo」、エレメント4「Bah」と、4つのエレメントが記録されている場合、「Shu、Bee、Doo、Bah、Shu、Bee…」と発音させることができる。   The sequence list SL is a list in which a plurality of elements used in “cycle pronunciation” are recorded in the order in which they are to be generated, and element information EL corresponding to each element is listed in the order of pronunciation. As a general rule, each time a note is turned on, the elements are cyclically switched and sounded in the order of recording. That is, each time a note is turned on from the top of the list, one element is sounded, and the next recorded element is sounded sequentially. For example, when four elements are recorded: element 1 “Shu”, element 2 “Bee”, element 3 “Doo”, element 4 “Bah”, “Shu, Bee, Doo, Bah, Shu, Bee... Can be pronounced.

各エレメント情報ELは、例えば、波形データへの参照情報と、ボイスパラメータからなる。波形データへの参照情報は、図2の波形メモリ81に記録されている波形データを波形読出部181が読み出すための情報であり、例えば、波形読出部181から見た波形メモリ81のアドレスである。ボイスパラメータは、音色フィルタ部182や、LFO部184、EG部185に設定するパラメータ値である。   Each element information EL includes, for example, reference information to waveform data and a voice parameter. The reference information to the waveform data is information for the waveform reading unit 181 to read the waveform data recorded in the waveform memory 81 of FIG. 2, for example, the address of the waveform memory 81 viewed from the waveform reading unit 181. . The voice parameter is a parameter value set in the timbre filter unit 182, the LFO unit 184, or the EG unit 185.

特殊発音用エレメントSEは、特定の発音条件に合致した場合に、シーケンスリストSLに記録されたエレメントとは異なるエレメントを発音させるための情報である。図に示す例では、特殊発音用エレメントSEに、シーケンスリストSLから特殊発音用エレメント(エレメント1)に切り換えるための条件となる発音条件PN1と、当該発音条件PN1を満たす場合に発音されるエレメント1のエレメント情報EL1と、エレメント1からエレメント2に切り換えるための追加条件となる発音条件PN2と、当該発音条件PN2を満たす場合に発音されるエレメント2のエレメント情報EL2の2つが特殊発音用エレメントSEに記録されている。なお、発音条件PN1及びPN2は、特殊発音用エレメントSEにではなく、シーケンスリストSL内や、ボイスデータVDのその他の場所に記録されていてもよい。   The special sounding element SE is information for sounding an element different from the element recorded in the sequence list SL when a specific sounding condition is met. In the example shown in the figure, the sound generation condition PN1 as a condition for switching from the sequence list SL to the special sound generation element (element 1) to the special sound generation element SE, and the element 1 sounded when the sound generation condition PN1 is satisfied. Element information EL1, the sound generation condition PN2 as an additional condition for switching from element 1 to element 2, and the element information EL2 of element 2 sounded when the sound generation condition PN2 is satisfied are used as the special sound generation element SE. It is recorded. Note that the sound generation conditions PN1 and PN2 may be recorded not in the special sound generation element SE but in the sequence list SL or other places of the voice data VD.

本実施例では、発音条件PN1として、「奏法スイッチがON(図4の奏法スイッチ状態変数が「TRUE」に設定されている状態)」が記録されており、当該発音条件PN1を満たす時に発音されるエレメント情報EL1が対応付けられて記録されている。また、発音条件2として、「特定のノート番号(例えば、ノート番号「127」)及び/又は特定のベロシティ値」が記録されており、発音条件PN1及び発音条件PN2を満たす時に発音されるエレメント情報EL2が発音条件PN2に対応付けられて記録されている。   In the present embodiment, “the rendition style switch is ON (state where the rendition style switch state variable in FIG. 4 is set to“ TRUE ”)” is recorded as the sound generation condition PN1, and the sound is generated when the sound generation condition PN1 is satisfied. Element information EL1 associated therewith is recorded. In addition, “specific note number (for example, note number“ 127 ”) and / or specific velocity value” is recorded as sounding condition 2, and element information that is sounded when sounding condition PN1 and sounding condition PN2 are satisfied. EL2 is recorded in association with the sound generation condition PN2.

図5は、本発明の第1の実施例によるメイン処理を表すフローチャートである。このメイン処理は、楽音生成装置100の電源投入直後から実行される。なお、ステップSA6のノートオン処理以外は、後述の第2〜4の実施例においても同様である。   FIG. 5 is a flowchart showing main processing according to the first embodiment of the present invention. This main process is executed immediately after the tone generator 100 is turned on. The same applies to the second to fourth embodiments described later except for the note-on process in step SA6.

ステップSA1でメイン処理を開始し、ステップSA2では、初期設定を行う。ここでは、RAM7(図1)上の各種パラメータの状態を初期値に設定する。   In step SA1, main processing is started, and in step SA2, initial setting is performed. Here, the states of various parameters on the RAM 7 (FIG. 1) are set to initial values.

ステップSA3では、ユーザの操作に応じてボイスを切り換える(選択する)。ユーザの設定操作子12(図1)を用いたボイス選択操作を検出し、当該ボイス選択操作に応じてボイスデータVDをボイスデータ群(図4)から選択する。   In step SA3, the voice is switched (selected) according to the user's operation. A voice selection operation using the setting operator 12 (FIG. 1) of the user is detected, and voice data VD is selected from the voice data group (FIG. 4) according to the voice selection operation.

このボイスデータVDの選択処理により、発音を管理するRAM7上の発音管理データMD(図4)は初期設定される。すなわち、発音中ノートリストNLを参照し、発音中のノートがあれば消音処理をする(例えば、リリース状態フラグRFを「TRUE」にする)。その後、当該ノートを発音中の発音チャンネル82の音量レベルが一定値以下になったら当該ノートに対応する情報を発音中ノートリストNLから削除し、発音中のノートが無い状態とする。次に、ボイスデータへの参照情報VLをステップSA3で選択されたボイスデータVDの参照情報へと書き換える。その後、最後のノートオン時刻OTと最後のノートオフ時刻FTをクリアし、シーケンスリストのインデックスIXをシーケンスリストSLの先頭のエレメント情報ELに設定する。   By the selection process of the voice data VD, the sound generation management data MD (FIG. 4) on the RAM 7 for managing sound generation is initialized. That is, referring to the sounding note list NL, if there is a sounding note, the sound is muted (for example, the release state flag RF is set to “TRUE”). Thereafter, when the volume level of the sound generation channel 82 that is sounding the note becomes a certain value or less, the information corresponding to the note is deleted from the sounding note list NL so that there is no sound that is being sounded. Next, the reference information VL to the voice data is rewritten to the reference information of the voice data VD selected in step SA3. Thereafter, the last note-on time OT and the last note-off time FT are cleared, and the index IX of the sequence list is set to the first element information EL of the sequence list SL.

ステップSA4では、ユーザの演奏操作子22(図1)を用いた演奏操作等(通信I/F21を介してMIDIインベントを受信した場合を含む)によるイベントの発生を検出する。その後、ステップSA5では、ステップSA4で検出したイベントに従い振分処理を行う。ステップSA4で検出したイベントがノートオンイベントである場合は、Aの矢印で示すステップSA6に進み、ノートオフイベントである場合は、Bの矢印で示すステップSA7に進み、奏法スイッチオンである場合は、Cの矢印で示すステップSA8に進み、奏法スイッチオフである場合は、Dの矢印で示すステップSA9に進み、上記イベントを検出しなかった場合(その他のイベントを検出した場合又はイベントを何も検出しなかった場合)は、Eの矢印で示すステップSA10に進む。   In step SA4, the occurrence of an event due to a performance operation using the performance operator 22 (FIG. 1) of the user (including a case where a MIDI event is received via the communication I / F 21) is detected. Thereafter, in step SA5, distribution processing is performed according to the event detected in step SA4. If the event detected in step SA4 is a note-on event, the process proceeds to step SA6 indicated by an arrow A. If the event is a note-off event, the process proceeds to step SA7 indicated by an arrow B, and if the rendition style switch is on. The process proceeds to step SA8 indicated by the arrow C, and if the rendition style switch is OFF, the process proceeds to step SA9 indicated by the arrow D and if the above event is not detected (if any other event is detected or no event is detected) If not detected), the process proceeds to step SA10 indicated by an arrow E.

ステップSA6では、図6に示すノートオンイベント処理を行う。例えば、ユーザが鍵盤(演奏操作子22)を押鍵操作すると検出回路11(図1)がそれを検出し、ノートオンイベントをCPU9に導入する。CPU9は、それに応じて図6に示すノートオンイベント処理を実行する。なお、ノートオンイベントには、ノート番号とベロシティが含まれる。その後、ステップSA3に戻る。   In step SA6, note-on event processing shown in FIG. 6 is performed. For example, when the user presses a key on the keyboard (performance operator 22), the detection circuit 11 (FIG. 1) detects it and introduces a note-on event to the CPU 9. The CPU 9 executes the note-on event process shown in FIG. 6 accordingly. Note that the note-on event includes a note number and velocity. Thereafter, the process returns to step SA3.

ステップSA7では、図7に示すノートオフイベント処理を行う。例えば、ユーザが鍵盤(演奏操作子22)を離鍵操作すると検出回路11(図1)がそれを検出し、ノートオフイベントをCPU9に導入する。CPU9は、それに応じて図7に示すノートオフイベント処理を実行する。なお、ノートオンイベントは、少なくともノート番号を含む。その後、ステップSA3に戻る。   In step SA7, note-off event processing shown in FIG. 7 is performed. For example, when the user performs a key release operation on the keyboard (the performance operator 22), the detection circuit 11 (FIG. 1) detects it and introduces a note-off event into the CPU 9. The CPU 9 executes the note-off event process shown in FIG. 7 accordingly. Note that the note-on event includes at least a note number. Thereafter, the process returns to step SA3.

ステップSA8では、図4に示すRAM7内の発音管理データMDの奏法スイッチ状態変数SVを「TRUE」にする。例えば、ユーザが奏法スイッチ(設定操作子12)をオン操作すると、奏法スイッチオンイベントがCPU9に導入され、CPU9がRAM7内の発音管理データMDの奏法スイッチ状態変数SVを「TRUE」にする。その後、ステップSA3に戻る。   In step SA8, the rendition style switch state variable SV of the pronunciation management data MD in the RAM 7 shown in FIG. 4 is set to “TRUE”. For example, when the user turns on a performance style switch (setting operation element 12), a performance style switch-on event is introduced to the CPU 9, and the CPU 9 sets the performance style switch state variable SV of the pronunciation management data MD in the RAM 7 to “TRUE”. Thereafter, the process returns to step SA3.

ステップSA9では、図4に示すRAM7内の発音管理データMDの奏法スイッチ状態変数SVを「FALSE」にする。例えば、ユーザが奏法スイッチ(設定操作子12)をオフ操作すると、奏法スイッチオフイベントがCPU9に導入され、CPU9がRAM7内の発音管理データMDの奏法スイッチ状態変数SVを「FALSE」にする。その後、ステップSA3に戻る。   In step SA9, the rendition style switch state variable SV of the pronunciation management data MD in the RAM 7 shown in FIG. 4 is set to “FALSE”. For example, when the user turns off the rendition style switch (setting operation element 12), a rendition style switch off event is introduced to the CPU 9, and the CPU 9 sets the rendition style switch state variable SV of the pronunciation management data MD in the RAM 7 to "FALSE". Thereafter, the process returns to step SA3.

ステップSA10では、発音チャンネル監視処理を実行する。発音チャンネル監視処理では、図4を参照して上述したように、発音中ノートリストNLからのエントリーの削除を行う。例えば、リリース状態フラグRFが「TRUE」のエントリーを発音中ノートリストNLから検索し、検出したエントリーの発音チャンネル管理情報CMを参照して発音チャンネル82を特定し、該特定した発音チャンネル82の音量値(もしくは、音量を制御するEG値)を取得する。取得した音量値等が所定値より小さい(ほぼ聞き取れない程度の音量)場合、当該エントリーを発音中ノートリストNLから削除する。その後、上記特定した発音チャンネルは他の楽音の発音に用いることができるようになる。   In step SA10, sound channel monitoring processing is executed. In the sound channel monitoring process, as described above with reference to FIG. 4, the entry is deleted from the sounding note list NL. For example, an entry whose release state flag RF is “TRUE” is searched from the sounding note list NL, the sounding channel management information CM of the detected entry is referred to, the sounding channel 82 is specified, and the volume of the specified sounding channel 82 is determined. A value (or an EG value that controls the volume) is acquired. When the acquired volume value or the like is smaller than a predetermined value (a volume that is almost inaudible), the entry is deleted from the sounding note list NL. Thereafter, the specified sound generation channel can be used for sound generation of other musical sounds.

ステップSA11では、その他の処理を行う。ここでは、ユーザの操作に応じて様々な処理を実行する。例えば、生成中の楽音のリアルタイムモジュレーション処理、自動演奏の設定処理やその実行処理などである。その後、ステップSA3に戻る。   In step SA11, other processing is performed. Here, various processes are executed according to the user's operation. For example, real-time modulation processing of a musical tone being generated, automatic performance setting processing, and execution processing thereof. Thereafter, the process returns to step SA3.

なお、ステップSA6〜ステップSA9及びステップSA11の処理の後にステップSA3に戻る際は、タイマ10を使って所定の時間間隔をあけることが好ましい。   In addition, when returning to step SA3 after the process of step SA6-step SA9 and step SA11, it is preferable to leave a predetermined time interval using the timer 10.

図6は、本発明の第1の実施例において、図5のステップSA6で実行されるノートオン処理を表すフローチャートである。   FIG. 6 is a flowchart showing the note-on process executed in step SA6 of FIG. 5 in the first embodiment of the present invention.

ステップSB1でノートオン処理を開始し、ステップSB2では、タイマ10(図1)から現在時刻を取得し、図1のRAM7内に記録されている図4の発音管理データMD内の最後のノートオン時刻OTを当該取得した現在時刻で更新する。   In step SB1, note-on processing is started. In step SB2, the current time is acquired from the timer 10 (FIG. 1), and the last note-on in the pronunciation management data MD in FIG. 4 recorded in the RAM 7 in FIG. The time OT is updated with the acquired current time.

ステップSB2では、図5のステップSA4で検出したノートオンイベントからノート番号及びベロシティ値を抽出する。   In step SB2, a note number and a velocity value are extracted from the note-on event detected in step SA4 in FIG.

ステップSB4では、図5のステップSA3で選択したボイスデータVDのモード情報MIを参照して、サイクル発音「WaveCycle」をすべきボイスか否かを判断する。サイクル発音するべきボイスである場合は、YESの矢印で示すステップSB6に進み、サイクル発音するべきボイスでない場合は、NOの矢印で示すステップSB5に進む。   In step SB4, the mode information MI of the voice data VD selected in step SA3 in FIG. 5 is referred to, and it is determined whether or not the voice should be the cycle sound “WaveCycle”. If it is a voice to be cycled, the process proceeds to step SB6 indicated by an arrow of YES, and if it is not a voice to be cycled, the process proceeds to step SB5 indicated by an arrow of NO.

ステップSB5では、その他の発音モード(サイクル発音ではない通常の発音等)に応じたエレメントを選択して、ステップSB18に進む。   In step SB5, an element corresponding to another sound generation mode (normal sound generation other than cycle sound generation) is selected, and the process proceeds to step SB18.

ステップSB6では、発音条件1を満たすか否かを判断する。なお、発音条件1とは、例えば、図4の特殊発音用エレメントSEで規定されている発音条件PN1であり、第1の実施例では、「奏法スイッチがON(図4の奏法スイッチ状態変数SVが「TRUE」に設定されている状態)」が発音条件1として設定されているものとする。発音条件1が満たされている場合、すなわち、奏法スイッチがON状態である場合は、YESの矢印で示すステップSB7に進む。発音条件1が満たされていない場合、すなわち、奏法スイッチがOFF状態である場合は、NOの矢印で示すステップSB10に進む。   In step SB6, it is determined whether or not the sound generation condition 1 is satisfied. Note that the sounding condition 1 is, for example, the sounding condition PN1 defined by the special sounding element SE of FIG. 4, and in the first embodiment, “the rendition style switch is ON (the rendition style switch state variable SV of FIG. 4). "Is set to" TRUE ")" is set as the sound generation condition 1. When the sound generation condition 1 is satisfied, that is, when the rendition style switch is in the ON state, the process proceeds to step SB7 indicated by a YES arrow. When the sound generation condition 1 is not satisfied, that is, when the rendition style switch is in the OFF state, the process proceeds to Step SB10 indicated by a NO arrow.

ステップSB7では、発音条件2を満たすか否かを判断する。なお、発音条件2とは、例えば、図4の特殊発音用エレメントSEで規定されている発音条件PN2であり、第1の実施例では、「特定のノート番号(例えば、ノート番号「127」)及び/又は特定のベロシティ値」が発音条件2として設定されているものとする。発音条件2が満たされている場合、すなわち、発音条件1及び2の双方を満たす場合は、YESの矢印で示すステップSB8に進む。発音条件2が満たされていない場合、すなわち、発音条件1のみが満たされている場合は、NOの矢印で示すステップSB9に進む。   In step SB7, it is determined whether or not the sound generation condition 2 is satisfied. The sounding condition 2 is, for example, the sounding condition PN2 defined by the special sounding element SE of FIG. 4, and in the first embodiment, “specific note number (for example, note number“ 127 ”)”. It is assumed that “and / or a specific velocity value” is set as the sound generation condition 2. When the sound generation condition 2 is satisfied, that is, when both the sound generation conditions 1 and 2 are satisfied, the process proceeds to step SB8 indicated by a YES arrow. If the sound generation condition 2 is not satisfied, that is, if only the sound generation condition 1 is satisfied, the process proceeds to step SB9 indicated by a NO arrow.

ステップSB8では、特殊発音エレメント2を選択する。具体的には、図4の特殊発音用エレメントSE内の特殊エレメント情報EL2で参照されている波形データを選択する。その後、ステップSB18に進む。   In step SB8, the special tone generation element 2 is selected. Specifically, the waveform data referred to by the special element information EL2 in the special sounding element SE of FIG. 4 is selected. Thereafter, the process proceeds to step SB18.

ステップSB9では、特殊発音エレメント1を選択する。具体的には、図4の特殊発音用エレメントSE内の特殊エレメント情報EL1で参照されている波形データを選択する。その後、ステップSB18に進む。   In step SB9, the special tone generation element 1 is selected. Specifically, the waveform data referred to by the special element information EL1 in the special sounding element SE of FIG. 4 is selected. Thereafter, the process proceeds to step SB18.

以上のステップSB6〜ステップSB9の処理により、奏法スイッチがONの時(発音条件1が満たされる時)に、特定のベロシティ値もしくは音量値を有するノートオンイベントが発生する(発音条件2が満たされる)と特殊発音エレメント2を選択し、発音条件1のみを満たす場合には、特殊発音エレメント1を選択することができる。   As a result of the processing from step SB6 to step SB9 described above, a note-on event having a specific velocity value or volume value is generated when the rendition style switch is ON (sounding condition 1 is satisfied) (sounding condition 2 is satisfied). ) And the special sounding element 2 are selected, and only the sounding condition 1 is satisfied, the special sounding element 1 can be selected.

ステップSB10では、奏法スイッチ状態変数が「TRUE」から「FALSE」に遷移したか否かを判断する。奏法スイッチ状態変数が「TRUE」から「FALSE」に遷移した場合は、YESの矢印で示すステップSB11に進み、図4の発音管理データMDのシーケンスリストのインデックスIXをリセットし(インデックスを先頭に戻し)、ステップSB12に進む。その他の場合は、NOの矢印で示すように、ステップSB11を飛ばしてステップSB12に進む。奏法スイッチON状態から奏法スイッチがOFF状態になり、一時的に選択されていた特殊発音エレメントから通常のシーケンスリストに戻る場合に、この処理によりインデックスがリセットされ、通常のシーケンスのエレメントを先頭から発音再開することが可能となる。なお、このステップSB10での処理を後述する第4の実施例におけるステップSB401(図16)と同様のものとして、リセット条件RCを満たすか否かを判断するものとしてもよい。その場合には、図4のボイスデータVD中にリセット条件RCを記録するようにする。   In step SB10, it is determined whether or not the performance style switch state variable has transitioned from “TRUE” to “FALSE”. If the rendition style switch state variable transitions from “TRUE” to “FALSE”, the process proceeds to step SB11 indicated by an arrow “YES” to reset the index IX of the sequence list of the pronunciation management data MD in FIG. 4 (return the index to the top). ), Go to Step SB12. In other cases, as indicated by the NO arrow, step SB11 is skipped and the process proceeds to step SB12. When the rendition style switch is turned off from the rendition style switch ON state and the special sounding element temporarily selected returns to the normal sequence list, the index is reset by this processing, and the normal sequence element is played from the beginning. It is possible to resume. Note that the processing in step SB10 may be the same as step SB401 (FIG. 16) in the fourth embodiment described later, and it may be determined whether or not the reset condition RC is satisfied. In that case, the reset condition RC is recorded in the voice data VD of FIG.

ステップSB12では、図1のRAM7内に記録されている図4の発音管理データMD内の最後のノートオフ時刻FTからステップSB2で取得した現在時刻までが所定時間(例えば、350msec)以上か否かを判断する。所定時間以上である場合は、YESの矢印で示すステップSB13に進み、所定時間未満である場合は、NOの矢印で示すステップSB15に進む。   In step SB12, whether or not the time from the last note-off time FT in the pronunciation management data MD in FIG. 4 recorded in the RAM 7 in FIG. 1 to the current time acquired in step SB2 is a predetermined time (for example, 350 msec) or more. Judging. When the time is equal to or longer than the predetermined time, the process proceeds to Step SB13 indicated by a YES arrow, and when the time is less than the predetermined time, the process proceeds to Step SB15 indicated by a NO arrow.

ステップSB13では、図4の発音管理データMD中の発音中ノートリストNL内に記録されているノート情報NIのリリース状態フラグRFが全て「TRUE」か否かを判断する。全て「TRUE」である場合には、YESの矢印で示すステップSB14に進む。1つでも「FALSE」がある場合には、発音中の楽音があるものと判断して、NOの矢印で示すステップSB15に進む。なお、発音中ノートリストNL内にノート情報NIが記録されていない場合は、発音中の楽音が無いので、YESの矢印で示すステップSB14に進む。   In step SB13, it is determined whether or not all the release state flags RF of the note information NI recorded in the sounding note list NL in the sound management data MD of FIG. 4 are “TRUE”. When all are “TRUE”, the process proceeds to Step SB14 indicated by an arrow of YES. If there is even one “FALSE”, it is determined that there is a musical tone being generated, and the process proceeds to step SB15 indicated by a NO arrow. If the note information NI is not recorded in the sounding note list NL, there is no musical sound being sounded, so the process proceeds to step SB14 indicated by the YES arrow.

ステップSB14では、図4の発音管理データMDのシーケンスリストのインデックスIXをリセットし(インデックスを先頭に戻し)、その後、ステップSB17に進む。   In step SB14, the index IX of the sequence list of the pronunciation management data MD in FIG. 4 is reset (the index is returned to the top), and then the process proceeds to step SB17.

以上のステップSB12〜SB14の処理により、最後のノートオフ時刻から一定時間が経過した後にノートンイベントがあった場合に、シーケンスのインデックスをリセットして、複数エレメントを先頭から発音再開することができる。   Through the processes in steps SB12 to SB14 described above, when a Norton event occurs after a predetermined time has elapsed since the last note-off time, the sequence index can be reset and a plurality of elements can be sounded again from the beginning.

ステップSB15では、図1のRAM7内に記録されている図4の発音管理データMD内の最後のノートオン時刻OTからステップSB2で取得した現在時刻までが所定時間(例えば、30msec又は70msec)未満か否かを判断する。所定時間未満である場合は、YESの矢印で示すステップSB17に進み、所定時間以上である場合は、NOの矢印で示すステップSB16に進む。   In step SB15, is the time from the last note-on time OT in the pronunciation management data MD of FIG. 4 recorded in the RAM 7 of FIG. 1 to the current time acquired in step SB2 less than a predetermined time (for example, 30 msec or 70 msec)? Judge whether or not. If it is less than the predetermined time, the process proceeds to step SB17 indicated by an arrow of YES, and if it is longer than the predetermined time, the process proceeds to step SB16 indicated by an arrow of NO.

ステップSB16では、図4の発音管理データMDのシーケンスリストのインデックスIXを1つ進め、その後、ステップSB17に進む。なお、インデックスIXがシーケンスリストSLの最後尾のエレメント情報ELを指し示している場合には、インデックスを先頭に戻す。   In step SB16, the index IX of the sequence list of the pronunciation management data MD in FIG. 4 is advanced by one, and thereafter, the process proceeds to step SB17. When the index IX indicates the last element information EL of the sequence list SL, the index is returned to the top.

以上のステップSB15〜SB16の処理により、最後のノートオン時刻から一定時間が経過していないうちにノートオンイベントがあった場合に、シーケンスのインデックスを進めずに、同一エレメントを再度発音させることができる。   By the above steps SB15 to SB16, when a note-on event occurs before a certain time has elapsed since the last note-on time, the same element can be re-sound without proceeding with the sequence index. it can.

ステップSB17では、図4の発音管理データMDのシーケンスリストのインデックスIXが指し示すエレメント(エレメント情報EL)を選択する。その後、ステップSB18に進む。   In step SB17, the element (element information EL) indicated by the index IX of the sequence list of the pronunciation management data MD in FIG. 4 is selected. Thereafter, the process proceeds to step SB18.

ステップSB18では、使用可能な発音チャンネル82を確保し、ステップSB8、SB9又はステップSB17で選択したエレメントを確保した発音チャンネル82で発音させるように音源18に指示する。具体的には、音源18で現在使用していない発音チャンネル82を選択し、発音すべき波形データへの参照情報をボイスデータVDから読み出し、音源レジスタ84に書き込むことにより、発音を指示する。   In step SB18, a usable sound generation channel 82 is secured, and the sound source 18 is instructed to cause the sound generation channel 82 to sound the element selected in step SB8, SB9 or step SB17. Specifically, the sound generation channel 82 that is not currently used in the sound source 18 is selected, the reference information to the waveform data to be sounded is read from the voice data VD, and written into the sound source register 84 to instruct sound generation.

ステップSB19では、ステップSB18で発音指示を行った楽音(ノート)の情報(エントリー)を図4の発音管理データMD中の発音中ノートリストNLの最後尾に追加する。具体的には、図5のステップSA4で検出したノートオンイベントのノート番号NNとステップSB18で確保した発音チャンネル82の管理情報CM(発音チャンネル82を特定する情報を含む)と「FALSE」の値のリリース状態フラグRFをまとめて1つのエントリーとして発音中ノートリストNLに追加する。   In step SB19, the information (entry) of the tone (note) for which the sound generation instruction is given in step SB18 is added to the tail of the sounding note list NL in the sound management data MD of FIG. Specifically, the note number NN of the note-on event detected in step SA4 in FIG. 5, the management information CM of the sound channel 82 secured in step SB18 (including information specifying the sound channel 82), and the value of “FALSE” The release state flags RF are collectively added as one entry to the sounding note list NL.

ステップSB20では、図1のRAM7内に記録されている図4の発音管理データMD内の最後のノートオン時刻OTをステップSB2で取得した現在時刻で更新する。その後、ステップSB21に進み、ノートオン処理を終了して図5のステップSA3に戻る。   In step SB20, the last note-on time OT in the pronunciation management data MD of FIG. 4 recorded in the RAM 7 of FIG. 1 is updated with the current time acquired in step SB2. Thereafter, the process proceeds to step SB21, where the note-on process is terminated and the process returns to step SA3 in FIG.

図7は、図5のステップSA7で実行されるノートオフ処理を表すフローチャートである。なお、このノートオフ処理本発明の各実施例において共通の処理である。   FIG. 7 is a flowchart showing the note-off process executed in step SA7 of FIG. This note-off process is a process common to the embodiments of the present invention.

ステップSC1で、ノートオフ処理を開始し、ステップSC2では、タイマ10(図1)から現在時刻を取得し、図1のRAM7内に記録されている図4の発音管理データMD内の最後のノートオフ時刻FTを当該取得した現在時刻で更新する。   In step SC1, note-off processing is started. In step SC2, the current time is acquired from the timer 10 (FIG. 1), and the last note in the pronunciation management data MD in FIG. 4 recorded in the RAM 7 in FIG. The off time FT is updated with the acquired current time.

ステップSC3では、図5のステップSA4で検出したノートオフイベントからノート番号を抽出する。   In step SC3, a note number is extracted from the note-off event detected in step SA4 in FIG.

ステップSC4では、図1のRAM7内に記録されている図4の発音管理データMD内の発音中ノートリストNIから、ステップSC3で抽出したノート番号と同一のノート番号NNを含むエントリー(ノート情報NI)を検索する。   In step SC4, an entry (note information NI) containing the same note number NN as the note number extracted in step SC3 from the sounding note list NI in the sound management data MD of FIG. 4 recorded in the RAM 7 of FIG. )

ステップSC5では、ステップSC4で検出された全エントリー(ノート情報NI)のリリース状態フラグRFを「TRUE」に設定する。   In step SC5, the release state flag RF of all entries (note information NI) detected in step SC4 is set to “TRUE”.

ステップSC6では、ステップSC4で検出された全エントリー(ノート情報NI)の発音中ノート(楽音)について音源18にリリースを指示する。その後、ステップSC7に進みノートオフ処理を終了して図5のステップSA3に戻る。ここでの音源18へのリリースの指示は、例えば、検出されたノート情報NIの発音チャンネル管理情報CMから当該ノート情報NIに対応する楽音を発音中の音源18の発音チャンネル82を特定し、以降、その発音チャンネル82がリリースしながら楽音生成するように、音源レジスタ84に設定を書き込むことにより行う。リリース中は、徐々に減衰するようにEG部185からエンベロープデータが音量制御部183に供給される。   In step SC6, the sound source 18 is instructed to release the sounding notes (musical sounds) of all the entries (note information NI) detected in step SC4. Thereafter, the process proceeds to step SC7, the note-off process is terminated, and the process returns to step SA3 in FIG. The release instruction to the sound source 18 here specifies, for example, the sound generation channel 82 of the sound source 18 that is sounding the musical sound corresponding to the note information NI from the sound generation channel management information CM of the detected note information NI. The setting is written in the tone generator register 84 so that the tone generation channel 82 generates a musical tone while releasing it. During the release, envelope data is supplied from the EG unit 185 to the volume control unit 183 so as to gradually attenuate.

以上、本発明の第1の実施例によれば、キーオンイベントから次のキーオンイベントまでの間隔が一定時間未満の場合に、双方のキーオンイベントに対して同一のエレメント(波形データ)を用いて発音を行い、エレメントのシーケンスを進めないことができる。   As described above, according to the first embodiment of the present invention, when the interval from a key-on event to the next key-on event is less than a predetermined time, sound generation is performed using the same element (waveform data) for both key-on events. And the sequence of elements cannot be advanced.

また、キーオフイベントから次のキーオフイベントまでの間隔が一定時間以上である場合に、エレメントのシーケンスをリセットして先頭のエレメントから発音を再開することができる。   Further, when the interval from the key-off event to the next key-off event is equal to or longer than a certain time, the element sequence can be reset and the sound generation can be resumed from the first element.

さらに、一定の発音条件を満たす状態でのキーオンイベントに対して、通常のシーケンスで用いられるエレメントとは異なるエレメントを用いて発音を行うことができる。これにより、ユーザは所望のタイミングで所望のエレメントの一時的に切り替えることができる。   Furthermore, for a key-on event in a state where a certain sound generation condition is satisfied, sound generation can be performed using an element different from an element used in a normal sequence. Thereby, the user can temporarily switch a desired element at a desired timing.

なお、本発明の第1の実施例では、図6に示すノートオン処理において、ノートオンイベントのたびにステップSB20にて最後のノートオン時刻OTを更新するようにしたが、それに替えて、ステップSB15にて所定時間未満であると判断された時には、ステップSB20にて最後のノートオン時刻OTを更新せず、所定時間以上であると判断された場合のみにステップSB20にて最後のノートオン時刻OTを更新するようにしてもよい。この場合、図3(A)に示す例では、時刻t1で「Shu」を発音する際に最後のノートオン時刻OTは時刻t1となるが、時刻t2で「Shu」を発音する際には、最後のノートオン時刻OTは時刻t2に更新されず時刻t1のままとなる。そして、時刻t3で発音するエレメントは、時刻t2からの経過時間が所定時間以上である場合に「Shu」の次の「Bee」が発音されるのではなく、時刻t1からの経過時間が所定時間以上である場合に、「Shu」の次の「Bee」が発音されることとなる。   In the first embodiment of the present invention, in the note-on process shown in FIG. 6, the last note-on time OT is updated at step SB20 every time a note-on event occurs. When it is determined at SB15 that the time is less than the predetermined time, the last note-on time OT is not updated at step SB20, and only when it is determined that the time is longer than the predetermined time, the last note-on time at step SB20. The OT may be updated. In this case, in the example shown in FIG. 3A, when “Shu” is pronounced at time t1, the last note-on time OT is time t1, but when “Shu” is pronounced at time t2, The last note-on time OT is not updated at time t2 and remains at time t1. Then, the element that sounds at time t3 does not sound “Bee” next to “Shu” when the elapsed time from time t2 is equal to or longer than the predetermined time, but the elapsed time from time t1 is the predetermined time. In this case, “Bee” next to “Shu” is pronounced.

次に、本発明の第2の実施例について説明する。第2の実施例は、複数のシーケンスリストを含むボイスデータを選択して、発音条件によりシーケンスリストを切り換えるものである。第2の実施例では、図1及び図2に示すハードウェア構成は第1の実施例と同様であり、また、図5に示すメイン処理及び図7に示すノートオフ処理も第1の実施例と同様である。以下、第1の実施例と異なる部分についてのみ説明する。   Next, a second embodiment of the present invention will be described. In the second embodiment, voice data including a plurality of sequence lists is selected, and the sequence lists are switched according to sound generation conditions. In the second embodiment, the hardware configuration shown in FIGS. 1 and 2 is the same as that in the first embodiment, and the main processing shown in FIG. 5 and the note-off processing shown in FIG. 7 are also in the first embodiment. It is the same. Only the parts different from the first embodiment will be described below.

図8(A)及び(B)は、本発明の第2の実施例による楽音生成の例を表すタイムチャートである。なお、本発明の第2の実施例では、「Doo、Bee、Doo…」という一連の発音を行うためのシーケンスリストと、「Shu、Bee、Dah、Bah…」という一連の発音を行うためのシーケンスリストとを有するボイスデータVDが選択されている。   FIGS. 8A and 8B are time charts showing an example of tone generation according to the second embodiment of the present invention. In the second embodiment of the present invention, a sequence list for performing a series of pronunciations “Doo, Bee, Doo...” And a series of pronunciations “Shu, Bee, Dah, Bah. Voice data VD having a sequence list is selected.

図8(A)は、奏法スイッチON操作(発音条件)により、第1のシーケンスの途中で、第2のシーケンスに切り換える例を表している。   FIG. 8A shows an example of switching to the second sequence in the middle of the first sequence by the rendition style switch ON operation (sounding condition).

第1のシーケンスである「Doo、Bee、Doo…」を「Doo」、「Bee」、「Doo」と発音した後に、タイミングt10にて奏法スイッチON操作がなされる。その後、シーケンスが第2のシーケンスに切り替わり、「Shu」、「Bee」、「Dah」、「Bah」と発音がなされる。なお、図示は省略するが、奏法スイッチOFF操作がなされるとシーケンスは第1のシーケンスに戻る。すなわち、この例では、奏法スイッチOFF状態では、第1のシーケンスのエレメントが選択され、奏法スイッチON状態では、第2のシーケンスのエレメントが選択される。   After the first sequence “Doo, Bee, Doo...” Is pronounced “Doo”, “Bee”, “Doo”, the rendition style switch is turned on at timing t10. Thereafter, the sequence is switched to the second sequence, and “Shu”, “Bee”, “Dah”, and “Bah” are pronounced. Although illustration is omitted, the sequence returns to the first sequence when the rendition style switch OFF operation is performed. That is, in this example, the element of the first sequence is selected in the rendition style switch OFF state, and the element of the second sequence is selected in the rendition style switch ON state.

図8(B)は、ノートオンイベントの音域(発音条件)により、第1のシーケンスと第2のシーケンスとを切り換える例を表している。   FIG. 8B shows an example of switching between the first sequence and the second sequence according to the note-on event range (sound generation condition).

この例では、ノートオンイベントのノート番号が所定値以上(高音域)であれば、第1のシーケンスのエレメントが選択され、所定値未満(低音域)であれば、第2のシーケンスのエレメントが選択される。   In this example, if the note number of the note-on event is greater than or equal to a predetermined value (high range), the first sequence element is selected, and if it is less than the predetermined value (low range), the second sequence element is selected. Selected.

図9は、本発明の第2の実施例による発音管理データ及びボイスデータの構成の一例を表す概念図である。   FIG. 9 is a conceptual diagram showing an example of the configuration of pronunciation management data and voice data according to the second embodiment of the present invention.

第1の実施例における発音管理データMDのシーケンスリストのインデックスIXが、第2の実施例では、シーケンスリストのインデックスIX1と、IX2の独立した2系統になっている。その他の構成は、第1の実施例と同様である。また、シーケンスリストのインデックスIX1と、IX2もそれぞれ第1の実施例におけるシーケンスリストのインデックスIXと同様の構成である。   In the second embodiment, the index IX of the sequence list of the pronunciation management data MD in the first embodiment is two independent systems of the index IX1 and IX2 of the sequence list. Other configurations are the same as those of the first embodiment. Also, the index IX1 and IX2 of the sequence list have the same configuration as the index IX of the sequence list in the first embodiment.

また、ボイスデータVDには、シーケンスリストのインデックスIX1と、IX2にそれぞれ対応してシーケンスリストSL1とSL2が用意されており、特殊発音用エレメントSEが省略されている。その他の構成は、第1の実施例と同様である。また、シーケンスリストSL1の構成も、第1の実施例によるシーケンスリストSLと同様である。なお、シーケンスリストSL2には、シーケンスリストSL1からSL2に切り換えるための条件となる発音条件PNが記録されている。奏法スイッチON状態で切り替えを行う場合は、この発音条件にその旨が記録され、音域で切り替えを行う場合は、切り換えるポイントとなるノート番号が記録される。なお、発音条件PNは、シーケンスリストSL2ではなくSL1に記録するようにしてもよい。また、第2の実施例における発音条件PNは、「奏法スイッチON」や「所定値以上のノート番号」に限らず、「所定値以上のベロシティ」等でもよい。また、ノート番号やベロシティ値の場合は、「所定範囲内のノート番号」や「所定範囲内のベロシティ値」を発音条件PNとしてもよい。   In the voice data VD, sequence lists SL1 and SL2 are prepared corresponding to the index IX1 and IX2 of the sequence list, respectively, and the special tone generation element SE is omitted. Other configurations are the same as those of the first embodiment. The configuration of the sequence list SL1 is the same as that of the sequence list SL according to the first embodiment. In the sequence list SL2, a sound generation condition PN that is a condition for switching from the sequence list SL1 to SL2 is recorded. When switching in the rendition style switch ON state, that effect is recorded in this tone generation condition, and when switching in the tone range, a note number serving as a switching point is recorded. The sound generation condition PN may be recorded in SL1 instead of the sequence list SL2. Also, the tone generation condition PN in the second embodiment is not limited to “playing style switch ON” or “note number greater than a predetermined value”, but may be “velocity greater than a predetermined value” or the like. In the case of a note number or a velocity value, “note number within a predetermined range” or “velocity value within a predetermined range” may be used as the sound generation condition PN.

第2の実施例においては、ボイスデータVDは、独立した2つのシーケンスリストSL1とSL2を記録しており、発音管理データMDもそれに対応して2つのインデックスIX1とIX2とを保持している。これにより、発音条件に従い2つのシーケンスを切り換えることができる。   In the second embodiment, the voice data VD records two independent sequence lists SL1 and SL2, and the pronunciation management data MD also holds two indexes IX1 and IX2 corresponding thereto. Thus, the two sequences can be switched according to the sound generation conditions.

図10は、本発明の第2の実施例において、図5のステップSA6で実行されるノートオン処理を表すフローチャートである。   FIG. 10 is a flowchart showing the note-on process executed in step SA6 of FIG. 5 in the second embodiment of the present invention.

第2の実施例は、第1の実施例の図6に示すノートオン処理のうち、ステップSB6〜SB17を後述のステップSB201〜SB208に差し替えることにより実現可能である。なお、ステップSB1〜SB3及びSB18〜SB21の処理は、第1の実施例と同様であるので、図示及びその説明を省略する。   The second embodiment can be realized by replacing steps SB6 to SB17 with steps SB201 to SB208 described later in the note-on processing shown in FIG. 6 of the first embodiment. In addition, since the process of step SB1-SB3 and SB18-SB21 is the same as that of a 1st Example, illustration and its description are abbreviate | omitted.

ステップSB4では、図5のステップSA3で選択したボイスデータVDのモード情報MIを参照して、サイクル発音「WaveCycle」をすべきボイスか否かを判断する。サイクル発音するべきボイスである場合は、YESの矢印で示すステップSB201に進み、サイクル発音するべきボイスでない場合は、NOの矢印で示すステップSB5に進む。なお、ステップSB5では、その他の発音モード(サイクル発音ではない通常の発音等)に応じたエレメントを選択して、ステップSB18に進む。   In step SB4, the mode information MI of the voice data VD selected in step SA3 in FIG. 5 is referred to, and it is determined whether or not the voice should be the cycle sound “WaveCycle”. If it is a voice to be cycled, the process proceeds to step SB201 indicated by a YES arrow, and if it is not a voice to be cycled, the process proceeds to step SB5 indicated by a NO arrow. In step SB5, an element corresponding to another sound generation mode (such as normal sound generation other than cycle sound generation) is selected, and the process proceeds to step SB18.

ステップSB201では、図9の発音条件PNを満たす状態から発音条件PNを満たさない状態に遷移したか、もしくは、図9の発音条件PNを満たさない状態から発音条件PNを満たす状態に遷移したかを判断する。発音条件PNを満たす状態から満たさない状態に遷移した場合は、Aの矢印で示すステップSB202に進み、逆に満たさない状態から満たす状態に遷移した場合は、Bの矢印で示すステップSB203に進む。図9の発音条件PNが「奏法スイッチON」である場合は、「奏法スイッチがON(図9の奏法スイッチ状態変数SVが「TRUE」に設定されている状態)」から「奏法スイッチがOFF(図9の奏法スイッチ状態変数SVが「FALSE」に設定されている状態)」に遷移したかもしくはその逆に遷移したかを判断する。これは、例えば、奏法スイッチON操作又はOFF操作を検出して判断する。図9の発音条件PNが「所定値以上のノート番号」である場合は、図6のステップSB2で抽出したノート番号が所定値未満から所定値以上に遷移したかもしくは所定値以上から所定値未満に遷移したかを判断する。また、図9の発音条件PNが「所定値以上のベロシティ」である場合も「所定値以上のノート番号」である場合と同様である。   In step SB201, it is determined whether the state where the sounding condition PN in FIG. 9 is satisfied is changed to a state where the sounding condition PN is not satisfied, or the state where the sounding condition PN is not satisfied in FIG. to decide. When the state transitions from the state satisfying the sound generation condition PN to the state not satisfied, the process proceeds to step SB202 indicated by the arrow A, and conversely, when the state transitions from the state not satisfied to the state satisfied, the process proceeds to step SB203 indicated by the arrow B. When the tone generation condition PN in FIG. 9 is “performance style switch ON”, “from the performance style switch is ON (the performance style switch state variable SV in FIG. 9 is set to“ TRUE ”)” to “the performance style switch is OFF ( It is determined whether or not the performance style switch state variable SV in FIG. 9 has transitioned to “a state in which the performance style switch SV is set to“ FALSE ”” or vice versa. This is determined, for example, by detecting a rendition style switch ON or OFF operation. When the sound generation condition PN in FIG. 9 is “note number greater than or equal to a predetermined value”, the note number extracted in step SB2 in FIG. 6 has transitioned from less than a predetermined value to a predetermined value or more, or from a predetermined value to less than a predetermined value. It is determined whether or not Also, the case where the sound generation condition PN in FIG. 9 is “velocity greater than or equal to a predetermined value” is the same as the case where the note number is greater than or equal to “predetermined value”.

ステップSB202では、図9の発音管理データMDのシーケンスリストのインデックスIX1をリセットする(インデックスを先頭に戻す)。その後、ステップSB204に進む。   In step SB202, the index IX1 of the sequence list of the pronunciation management data MD in FIG. 9 is reset (the index is returned to the top). Thereafter, the process proceeds to step SB204.

ステップSB203では、図9の発音管理データMDのシーケンスリストのインデックスIX2をリセットする(インデックスを先頭に戻す)。その後、ステップSB204に進む。   In step SB203, the index IX2 of the sequence list of the pronunciation management data MD in FIG. 9 is reset (the index is returned to the top). Thereafter, the process proceeds to step SB204.

なお、ステップSB201〜SB203は、必須の処理ではなく、省略してもよい。その場合は、シーケンスリストを切り換えた後に、再度もとのシーケンスリストに復帰した場合に、従前のシーケンスの続きから発音がなされる。図8(B)に示す例では、このステップSB201〜SB203の処理が省略されており、高音域の演奏後に低音域の演奏を行い、再度高音域の演奏を行っても、シーケンスリストのインデックスはリセットされない。なお、ステップSB201〜SB203の処理を省略する場合は、図9の発音管理データMDのシーケンスリストのインデックスは、IX1とIX2の二つが必要となるが、省略しない場合は、シーケンスリストを切り換えるたびにリセットするので、第1の実施例と同様に1つのインデックスのみを用いてもよい。   Note that steps SB201 to SB203 are not essential processing and may be omitted. In that case, when the sequence list is switched and then returned to the original sequence list, the sound is generated from the continuation of the previous sequence. In the example shown in FIG. 8B, the processing of steps SB201 to SB203 is omitted, and even if a low frequency performance is performed after a high frequency performance and a high frequency performance is performed again, the index of the sequence list is not changed. Not reset. If the processing of steps SB201 to SB203 is omitted, the index of the sequence list of the pronunciation management data MD in FIG. 9 is required to be two of IX1 and IX2, but if not omitted, every time the sequence list is switched. Since it is reset, only one index may be used as in the first embodiment.

ステップSB204は、図9の発音条件PNを満たすか否かを判断する。発音条件PNを満たす場合は、YESの矢印で示すステップSB205に進み、図9の発音管理データMDのシーケンスリストのインデックスIX1を1つ進め、その後、ステップSB206に進む。なお、インデックスIX1がシーケンスリストSL1の最後尾のエレメント情報ELを指し示している場合には、インデックスを先頭に戻す。発音条件PNを満たさない場合は、NOの矢印で示すステップSB207に進み、図9の発音管理データMDのシーケンスリストのインデックスIX2を1つ進め、その後、ステップSB208に進む。なお、インデックスIX2がシーケンスリストSL1の最後尾のエレメント情報ELを指し示している場合には、インデックスを先頭に戻す。   Step SB204 determines whether or not the sound generation condition PN of FIG. 9 is satisfied. If the sound generation condition PN is satisfied, the process proceeds to step SB205 indicated by an arrow of YES, and the index IX1 of the sequence list of the sound generation management data MD in FIG. 9 is advanced by 1, and then the process proceeds to step SB206. When the index IX1 indicates the last element information EL of the sequence list SL1, the index is returned to the top. If the sound generation condition PN is not satisfied, the process proceeds to step SB207 indicated by an arrow of NO, the index IX2 of the sequence list of the sound generation management data MD in FIG. 9 is advanced by 1, and then the process proceeds to step SB208. When the index IX2 indicates the last element information EL of the sequence list SL1, the index is returned to the top.

ステップSB204の処理において、図9の発音条件PNが「奏法スイッチON」である場合は、「奏法スイッチがON(図9の奏法スイッチ状態変数SVが「TRUE」に設定されている状態)」か否かを判断する。図9の発音条件PNが「所定値以上のノート番号」である場合は、図6のステップSB2で抽出したノート番号が所定値以上か否かを判断する。また、図9の発音条件PNが「所定値以上のベロシティ」である場合も「所定値以上のノート番号」である場合と同様に、図6のステップSB2で抽出したベロシティ値が所定値以上か否かを判断する。   In the process of step SB204, if the tone generation condition PN in FIG. 9 is “performance style switch ON”, is the “performance style switch ON (state in which the performance style switch state variable SV in FIG. 9 is set to“ TRUE ”)”? Judge whether or not. If the sound generation condition PN in FIG. 9 is “note number greater than or equal to a predetermined value”, it is determined whether or not the note number extracted in step SB2 in FIG. 6 is greater than or equal to a predetermined value. In addition, when the sound generation condition PN in FIG. 9 is “velocity greater than or equal to a predetermined value”, whether the velocity value extracted in step SB2 in FIG. Judge whether or not.

ステップSB206では、図9の発音管理データMDのシーケンスリストのインデックスIX1が指し示すエレメント(エレメント情報EL)を選択する。その後、図6のステップSB18に進む。   In step SB206, the element (element information EL) indicated by the index IX1 in the sequence list of the pronunciation management data MD in FIG. 9 is selected. Thereafter, the process proceeds to step SB18 in FIG.

ステップSB208では、図9の発音管理データMDのシーケンスリストのインデックスIX2が指し示すエレメント(エレメント情報EL)を選択する。その後、図6のステップSB18に進む。   In step SB208, the element (element information EL) indicated by the index IX2 of the sequence list of the pronunciation management data MD in FIG. 9 is selected. Thereafter, the process proceeds to step SB18 in FIG.

以上、本発明の第2の実施例によれば、発音条件に従い2つのシーケンスを切り換えることができる。   As described above, according to the second embodiment of the present invention, two sequences can be switched in accordance with the sound generation conditions.

次に、本発明の第3の実施例について説明する。第3の実施例は、発音条件により通常のシーケンスリストに従った発音と単一エレメントによる発音とを切り換えるものである。第3の実施例では、図1及び図2に示すハードウェア構成は第1の実施例と同様であり、また、図5に示すメイン処理及び図7に示すノートオフ処理も第1の実施例と同様である。以下、第1の実施例と異なる部分についてのみ説明する。   Next, a third embodiment of the present invention will be described. In the third embodiment, sound generation according to a normal sequence list and sound generation by a single element are switched according to sound generation conditions. In the third embodiment, the hardware configuration shown in FIGS. 1 and 2 is the same as that in the first embodiment, and the main process shown in FIG. 5 and the note-off process shown in FIG. 7 are also in the first embodiment. It is the same. Only the parts different from the first embodiment will be described below.

図11は、本発明の第3の実施例による楽音生成の例を表すタイムチャートである。ノートオンイベントの音域(発音条件)により、通常のシーケンスリストに従った発音と単一エレメントによる発音とを切り換える例を表している。   FIG. 11 is a time chart showing an example of tone generation according to the third embodiment of the present invention. This shows an example of switching between sound generation according to a normal sequence list and sound generation by a single element, depending on the note-on event sound range (sound generation condition).

この例では、ノートオンイベントのノート番号が所定値以上(高音域)であれば、通常のシーケンスのエレメント「Shu」、「Bee」、「Doo」、「Bah」が順次選択され、所定値未満(低音域)であれば、単一エレメント「Boom」が常に選択される。   In this example, if the note number of the note-on event is greater than or equal to a predetermined value (high range), the normal sequence elements “Shu”, “Bee”, “Doo”, and “Bah” are sequentially selected and less than the predetermined value. If it is (low range), the single element “Boom” is always selected.

図12は、本発明の第3の実施例による発音管理データ及びボイスデータの構成の一例を表す概念図である。   FIG. 12 is a conceptual diagram showing an example of the configuration of pronunciation management data and voice data according to the third embodiment of the present invention.

発音管理データMDは、第1の実施例と同様である。ボイスデータVDは、特殊発音用エレメントSEに代えて、発音条件PNを満たす場合に選択される単一エレメントを指定するエレメント指定情報EAが記録されている。また、シーケンスリストSLには、シーケンスリストSLから単一エレメントに切り換えるための条件となる発音条件PNが記録されている。本実施例では、音域により切り替えを行うので、発音条件PNには、切り換えるポイントとなるノート番号が記録される(本実施例の場合は、発音条件は「所定値未満のノート番号」となる)。なお、発音条件PNは、シーケンスリストSLではなくエレメント指定情報EAに記録するようにしてもよい。その他の構成は、第1の実施例と同様である。なお、第2の実施例における発音条件PNは、「所定値未満のノート番号」に限らず、「所定値以上のノート番号」、「奏法スイッチON」や「所定値以上(又は未満)のベロシティ」等でもよい。また、「所定範囲内のノート番号」や「所定範囲内のベロシティ値」を発音条件PNとしてもよい。   The pronunciation management data MD is the same as in the first embodiment. In the voice data VD, element designation information EA that designates a single element selected when the tone generation condition PN is satisfied is recorded instead of the special tone generation element SE. The sequence list SL records a sound generation condition PN that is a condition for switching from the sequence list SL to a single element. In the present embodiment, since switching is performed according to the sound range, a note number serving as a switching point is recorded in the sound generation condition PN (in this embodiment, the sound generation condition is “note number less than a predetermined value”). . The sound generation condition PN may be recorded not in the sequence list SL but in the element designation information EA. Other configurations are the same as those of the first embodiment. Note that the tone generation condition PN in the second embodiment is not limited to “note numbers less than a predetermined value”, but “note numbers greater than a predetermined value”, “playing style switch ON”, and “velocities greater than (or less than) a predetermined value”. Or the like. Further, “note number within a predetermined range” and “velocity value within a predetermined range” may be used as the sound generation condition PN.

第3の実施例においては、ボイスデータVDは、シーケンスリストSLと単一エレメントを指定するエレメント指定情報EAを記録している。これにより、発音条件に従い通常のシーケンスによる発音と、単一のエレメントのみを用いた発音とを切り換えることができる。   In the third embodiment, the voice data VD records a sequence list SL and element designation information EA that designates a single element. This makes it possible to switch between normal sequence sound generation and sound generation using only a single element according to the sound generation conditions.

図13は、本発明の第3の実施例において、図5のステップSA6で実行されるノートオン処理を表すフローチャートである。   FIG. 13 is a flowchart showing the note-on process executed in step SA6 of FIG. 5 in the third embodiment of the present invention.

第3の実施例は、第1の実施例の図6に示すノートオン処理のうち、ステップSB6〜SB17を後述のステップSB301〜SB306に差し替えることにより実現可能である。なお、ステップSB1〜SB3及びSB18〜SB21の処理は、第1の実施例と同様であるので、図示及びその説明を省略する。   The third embodiment can be realized by replacing steps SB6 to SB17 with steps SB301 to SB306 described later in the note-on processing shown in FIG. 6 of the first embodiment. In addition, since the process of step SB1-SB3 and SB18-SB21 is the same as that of a 1st Example, illustration and its description are abbreviate | omitted.

ステップSB4では、図5のステップSA3で選択したボイスデータVDのモード情報MIを参照して、サイクル発音「WaveCycle」をすべきボイスか否かを判断する。サイクル発音するべきボイスである場合は、YESの矢印で示すステップSB301に進み、サイクル発音するべきボイスでない場合は、NOの矢印で示すステップSB5に進む。なお、ステップSB5では、その他の発音モード(サイクル発音ではない通常の発音等)に応じたエレメントを選択して、ステップSB18に進む。   In step SB4, the mode information MI of the voice data VD selected in step SA3 in FIG. 5 is referred to, and it is determined whether or not the voice should be the cycle sound “WaveCycle”. If it is a voice to be sounded in a cycle, the process proceeds to step SB301 indicated by an arrow of YES, and if it is not a voice to be sounded in a cycle, the process proceeds to step SB5 indicated by an arrow of NO. In step SB5, an element corresponding to another sound generation mode (such as normal sound generation other than cycle sound generation) is selected, and the process proceeds to step SB18.

ステップSB301では、リセット条件を満たすか否かを判断する。リセット条件を満たす場合は、YESの矢印で示すステップSB302に進み、図12の発音管理データMDのシーケンスリストのインデックスIXをリセットし(インデックスを先頭に戻し)、ステップSB303に進む。リセット条件を満たさない場合は、NOの矢印で示すように、ステップSB302を飛ばしてステップSB303に進む。なお、本実施例におけるリセット条件は、「発音条件PNを満たさない状態から満たす状態に遷移すること」である。もしくは「奏法スイッチON」をリセット条件とすることもできる。なお、このステップSB301及びSB302の処理は省略することができる。図11に示した例では、ステップSB301及びSB302の処理は省略されている。   In step SB301, it is determined whether a reset condition is satisfied. If the reset condition is satisfied, the process proceeds to step SB302 indicated by a YES arrow, the index IX of the sequence list of the pronunciation management data MD in FIG. 12 is reset (the index is returned to the top), and the process proceeds to step SB303. When the reset condition is not satisfied, step SB302 is skipped and the process proceeds to step SB303 as indicated by an arrow “NO”. The reset condition in the present embodiment is “transition from a state not satisfying the sound generation condition PN to a state satisfying”. Alternatively, the “performance switch ON” can be set as a reset condition. Note that the processing in steps SB301 and SB302 can be omitted. In the example shown in FIG. 11, the processes of steps SB301 and SB302 are omitted.

ステップSB303では、図12の発音条件PNを満たすか否かを判断する。発音条件PNを満たす場合は、YESの矢印で示すステップSB304に進む。発音条件PNを満たさない場合は、NOの矢印で示すステップSB305に進み、図12の発音管理データMDのシーケンスリストのインデックスIXを1つ進め、その後、ステップSB306に進む。なお、インデックスIXがシーケンスリストSLの最後尾のエレメント情報ELを指し示している場合には、インデックスを先頭に戻す。   In step SB303, it is determined whether or not the sound generation condition PN in FIG. 12 is satisfied. If the sound generation condition PN is satisfied, the process proceeds to step SB304 indicated by the YES arrow. When the sound generation condition PN is not satisfied, the process proceeds to step SB305 indicated by an arrow of NO, the index IX of the sequence list of the sound generation management data MD in FIG. 12 is advanced by 1, and then the process proceeds to step SB306. When the index IX indicates the last element information EL of the sequence list SL, the index is returned to the top.

ステップSB303の処理において、図9の発音条件PNが「所定値未満(又は以上)のノート番号」である場合は、図6のステップSB2で抽出したノート番号が所定値未満(又は以上)か否かを判断する。また、図9の発音条件PNが「所定値以上(又は未満)のベロシティ」である場合も「所定値以上のノート番号」である場合と同様に、図6のステップSB2で抽出したベロシティ値が所定値以上(又は未満)か否かを判断する。また、図9の発音条件PNが「奏法スイッチON」である場合は、「奏法スイッチがON(図9の奏法スイッチ状態変数SVが「TRUE」に設定されている状態)」か否かを判断する。   In the process of step SB303, if the sound generation condition PN in FIG. 9 is “note number less than (or greater than) a predetermined value”, whether or not the note number extracted in step SB2 in FIG. 6 is less than (or greater than) the predetermined value. Determine whether. In addition, when the sound generation condition PN in FIG. 9 is “velocity greater than (or less than) a predetermined value”, the velocity value extracted in step SB2 in FIG. It is determined whether or not it is greater than (or less than) a predetermined value. Further, when the sound generation condition PN in FIG. 9 is “performance style switch ON”, it is determined whether or not “the performance style switch is ON (state in which the performance style switch state variable SV in FIG. 9 is set to“ TRUE ”)”. To do.

ステップSB304では、図12のエレメント指定情報EA中の単一エレメント(エレメント情報EL)を選択する。その後、図6のステップSB18に進む。   In step SB304, a single element (element information EL) in the element designation information EA in FIG. 12 is selected. Thereafter, the process proceeds to step SB18 in FIG.

ステップSB306では、図12の発音管理データMDのシーケンスリストのインデックスIXが指し示すエレメント(エレメント情報EL)を選択する。その後、図6のステップSB18に進む。   In step SB306, the element (element information EL) indicated by the index IX of the sequence list of the pronunciation management data MD in FIG. 12 is selected. Thereafter, the process proceeds to step SB18 in FIG.

以上、本発明の第3の実施例によれば、発音条件に従い通常のシーケンスによる発音と、単一のエレメントのみを用いた発音とを切り換えることができる。   As described above, according to the third embodiment of the present invention, it is possible to switch between sound generation by a normal sequence and sound generation using only a single element according to sound generation conditions.

次に、本発明の第4の実施例について説明する。第4の実施例は、リセット条件を満たす場合にシーケンスリストのインデックスをリセット(先頭に戻す)ものである。第4の実施例では、図1及び図2に示すハードウェア構成は第1の実施例と同様であり、また、図5に示すメイン処理及び図7に示すノートオフ処理も第1の実施例と同様である。以下、第1の実施例と異なる部分についてのみ説明する。   Next, a fourth embodiment of the present invention will be described. In the fourth embodiment, the sequence list index is reset (returned to the top) when the reset condition is satisfied. In the fourth embodiment, the hardware configuration shown in FIGS. 1 and 2 is the same as that in the first embodiment, and the main process shown in FIG. 5 and the note-off process shown in FIG. 7 are also in the first embodiment. It is the same. Only the parts different from the first embodiment will be described below.

図14は、本発明の第4の実施例による楽音生成の例を表すタイムチャートである。リセット条件(この例では、奏法スイッチ操作(ON又はOFF操作)の検出)を満たした場合に、シーケンスのインデックスを、ノートオン時刻及びノートオフ時刻等に関わらずリセットする。   FIG. 14 is a time chart showing an example of tone generation according to the fourth embodiment of the present invention. When the reset condition (in this example, detection of a rendition style switch operation (ON or OFF operation)) is satisfied, the sequence index is reset regardless of the note-on time and the note-off time.

図15は、本発明の第4の実施例による発音管理データ及びボイスデータの構成の一例を表す概念図である。   FIG. 15 is a conceptual diagram showing an example of the configuration of pronunciation management data and voice data according to the fourth embodiment of the present invention.

発音管理データMDは、第1の実施例と同様である。ボイスデータVDは、特殊発音用エレメントSEを省略し、シーケンスリストSLにリセット条件RCを追加している。リセット条件RCは、奏法スイッチのON状態からOFF状態への遷移(OFF操作の検出)、及びその逆の遷移(ON操作の検出)、その他の特定操作子の操作の検出等である。その他の構成は、第1の実施例と同様である。   The pronunciation management data MD is the same as in the first embodiment. In the voice data VD, the special sound generation element SE is omitted, and a reset condition RC is added to the sequence list SL. The reset condition RC includes a transition from the ON state to the OFF state of the rendition style switch (detection of the OFF operation), and the reverse transition (detection of the ON operation), detection of the operation of other specific operation elements, and the like. Other configurations are the same as those of the first embodiment.

なお、本実施例では、「奏法スイッチ操作」をリセット条件RCとしているが、リセット条件RCは、これに限らず、例えば、「奏法スイッチON操作」のみ、又は「奏法スイッチOFF操作」のみ、「所定値以上(又は未満、もしくは所定範囲内)のノート番号(又はベロシティ値)」、所定操作子(設定操作子12又は演奏操作子22)の操作等とすることができる。すなわち、第4の実施例ではユーザの指示により所望のタイミングでシーケンスのリセットを可能とするものなので、リセット条件RCは、ユーザがシーケンスのリセットタイミングを指示できるものであればよい。   In the present embodiment, the “playing style switch operation” is set as the reset condition RC. However, the reset condition RC is not limited to this. For example, only the “playing style switch ON operation” or only the “playing style switch OFF operation” Note number (or velocity value) greater than or equal to a predetermined value (or less than or within a predetermined range) ”, operation of a predetermined operator (setting operator 12 or performance operator 22), and the like. That is, in the fourth embodiment, the sequence can be reset at a desired timing according to the user's instruction. Therefore, the reset condition RC may be any as long as the user can instruct the sequence reset timing.

第4の実施例においては、ボイスデータVDは、シーケンスリストSLにリセット条件RCを記録している。これにより、ユーザは所望のタイミングでリセット条件を満たす操作を行うことにより、シーケンスリストのインデックスをリセット(先頭に戻す)ことが可能となる。   In the fourth embodiment, the voice data VD has a reset condition RC recorded in the sequence list SL. As a result, the user can reset (return to the top of) the index of the sequence list by performing an operation that satisfies the reset condition at a desired timing.

図16は、本発明の第4の実施例において、図5のステップSA6で実行されるノートオン処理を表すフローチャートである。   FIG. 16 is a flowchart showing the note-on process executed in step SA6 of FIG. 5 in the fourth embodiment of the present invention.

第4の実施例は、第1の実施例の図6に示すノートオン処理のうち、ステップSB6〜SB17を後述のステップSB401〜SB404に差し替えることにより実現可能である。なお、ステップSB1〜SB3及びSB18〜SB21の処理は、第1の実施例と同様であるので、図示及びその説明を省略する。   The fourth embodiment can be realized by replacing steps SB6 to SB17 with steps SB401 to SB404 described later in the note-on process shown in FIG. 6 of the first embodiment. In addition, since the process of step SB1-SB3 and SB18-SB21 is the same as that of a 1st Example, illustration and its description are abbreviate | omitted.

ステップSB4では、図5のステップSA3で選択したボイスデータVDのモード情報MIを参照して、サイクル発音「WaveCycle」をすべきボイスか否かを判断する。サイクル発音するべきボイスである場合は、YESの矢印で示すステップSB401に進み、サイクル発音するべきボイスでない場合は、NOの矢印で示すステップSB5に進む。なお、ステップSB5では、その他の発音モード(サイクル発音ではない通常の発音等)に応じたエレメントを選択して、ステップSB18に進む。   In step SB4, the mode information MI of the voice data VD selected in step SA3 in FIG. 5 is referred to, and it is determined whether or not the voice should be the cycle sound “WaveCycle”. If it is a voice to be sounded in a cycle, the process proceeds to step SB401 indicated by an arrow of YES, and if it is not a voice to be sounded in a cycle, the process proceeds to step SB5 indicated by an arrow of NO. In step SB5, an element corresponding to another sound generation mode (such as normal sound generation other than cycle sound generation) is selected, and the process proceeds to step SB18.

ステップSB401では、リセット条件を満たすか否かを判断する。リセット条件を満たす場合は、YESの矢印で示すステップSB402に進み、図15の発音管理データMDのシーケンスリストのインデックスIXをリセットし(インデックスを先頭に戻し)、ステップSB403に進む。リセット条件を満たさない場合は、NOの矢印で示すように、ステップSB402を飛ばしてステップSB403に進む。なお、本実施例におけるリセット条件は、「奏法スイッチ状態変数が変化すること」、すなわち、奏法スイッチのON操作又はOFF操作の検出である。この処理により、所望のタイミングで、奏法スイッチを操作してインデックスをリセットし、シーケンスのエレメントを先頭から発音させることが可能となる。   In step SB401, it is determined whether or not a reset condition is satisfied. If the reset condition is satisfied, the process proceeds to step SB402 indicated by a YES arrow, the index IX of the sequence list of the pronunciation management data MD in FIG. 15 is reset (the index is returned to the top), and the process proceeds to step SB403. If the reset condition is not satisfied, step SB402 is skipped and the process proceeds to step SB403, as indicated by the NO arrow. The reset condition in the present embodiment is “the performance style switch state variable changes”, that is, the detection of the ON / OFF operation of the performance style switch. By this processing, it is possible to operate the performance style switch at a desired timing to reset the index and to sound the elements of the sequence from the beginning.

ステップSB403では、図15の発音管理データMDのシーケンスリストのインデックスIXを1つ進め、その後、ステップSB404に進む。なお、インデックスIXがシーケンスリストSLの最後尾のエレメント情報ELを指し示している場合には、インデックスを先頭に戻す。   In step SB403, the index IX of the sequence list of the pronunciation management data MD in FIG. 15 is advanced by 1, and then the process proceeds to step SB404. When the index IX indicates the last element information EL of the sequence list SL, the index is returned to the top.

ステップSB404では、図15の発音管理データMDのシーケンスリストのインデックスIXが指し示すエレメント(エレメント情報EL)を選択する。その後、図6のステップSB18に進む。   In step SB404, the element (element information EL) indicated by the index IX of the sequence list of the pronunciation management data MD in FIG. 15 is selected. Thereafter, the process proceeds to step SB18 in FIG.

以上、本発明の第4の実施例によれば、ユーザは所望のタイミングでリセット条件を満たす操作を行うことにより、シーケンスリストのインデックスをリセット(先頭に戻す)ことが可能となる。   As described above, according to the fourth embodiment of the present invention, the user can reset (return to the top) the index of the sequence list by performing an operation that satisfies the reset condition at a desired timing.

なお、本発明の各実施例は、適宜組み合わせることが可能である。例えば、第1の実施例と第2の実施例とを組み合わせて、音域によりシーケンスリストを切り替えると共に、奏法スイッチON状態又は特定のベロシティでは、特殊発音用エレメントを選択するようにしてもよい。また、例えば、第1〜第3の実施例に対して、第4の実施例によるリセット条件を設定することも可能である。   The embodiments of the present invention can be combined as appropriate. For example, the first embodiment and the second embodiment may be combined to switch the sequence list according to the sound range, and the special tone generation element may be selected when the rendition style switch is ON or at a specific velocity. Further, for example, the reset condition according to the fourth embodiment can be set for the first to third embodiments.

なお、本発明の各実施例は、電子楽器の形態に限らず実施例に対応するコンピュータプログラム等をインストールした市販のコンピュータ等によって、実施させるようにしてもよい。   Each embodiment of the present invention is not limited to the form of an electronic musical instrument, and may be implemented by a commercially available computer or the like in which a computer program or the like corresponding to the embodiment is installed.

その場合には、各実施例に対応するコンピュータプログラム等を、CD−ROM等のコンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。また、そのコンピュータ等が、LAN、インターネット、電話回線等の通信ネットワークに接続されている場合には、通信ネットワークを介して、コンピュータプログラムや各種データ等をユーザに提供してもよい。   In that case, a computer program or the like corresponding to each embodiment may be provided to the user while being stored in a storage medium that can be read by a computer such as a CD-ROM. In addition, when the computer is connected to a communication network such as a LAN, the Internet, or a telephone line, a computer program, various data, and the like may be provided to the user via the communication network.

以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。以下に、本発明の実施例に変形例を示す。   Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made. Below, a modification is shown in the Example of this invention.

6…バス、7…RAM、8…ROM、9…CPU、10…タイマ、11…検出回路、12…設定操作子、13…表示回路、14…ディスプレイ、15…外部記憶装置、18…波形メモリ音源、19…サウンドシステム、20…DAC、21…通信I/F、22…演奏操作子、81…波形メモリ、82…発音チャンネル、83…混合エフェクト処理部、84…音源レジスタ、181…波形読出部、182…音色フィルタ部、183…音量制御部、184…LFO部、185…EG部、100…楽音生成装置 DESCRIPTION OF SYMBOLS 6 ... Bus, 7 ... RAM, 8 ... ROM, 9 ... CPU, 10 ... Timer, 11 ... Detection circuit, 12 ... Setting operation element, 13 ... Display circuit, 14 ... Display, 15 ... External storage device, 18 ... Waveform memory Sound source, 19 ... Sound system, 20 ... DAC, 21 ... Communication I / F, 22 ... Performance operator, 81 ... Waveform memory, 82 ... Sound generation channel, 83 ... Mixed effect processing unit, 84 ... Sound source register, 181 ... Waveform readout , 182 ... timbre filter section, 183 ... volume control section, 184 ... LFO section, 185 ... EG section, 100 ... musical tone generator

Claims (3)

楽音を生成するためのエレメントデータと、複数のエレメントデータの発音順を記録するシーケンスリストとを記憶する記憶手段と、
発音開始指示とリセット指示とを検出する検出手段と、
前記検出した発音開始指示に応じて、前記シーケンスリストに記録された発音順に前記エレメントデータの1つを順次選択する選択手段と、
前記検出手段が前記リセット指示を検出した場合に、前記選択手段による選択対象を所定のエレメントデータにリセットするリセット手段と、
前記選択されたエレメントデータを前記記憶手段から読み出して楽音を生成する楽音生成手段と
を有する楽音生成装置。
Storage means for storing element data for generating musical sounds and a sequence list for recording the order of sound generation of the plurality of element data;
Detection means for detecting a pronunciation start instruction and a reset instruction;
Selection means for sequentially selecting one of the element data in the order of pronunciation recorded in the sequence list in accordance with the detected pronunciation start instruction;
A reset unit that resets a selection target by the selection unit to predetermined element data when the detection unit detects the reset instruction;
A musical sound generating device comprising a musical sound generating means for reading out the selected element data from the storage means and generating a musical sound.
前記記憶手段は、さらに、少なくとも1つのエレメントデータを指定するエレメント指定情報を記憶し、
さらに、前記シーケンスリストと前記エレメント指定情報とのいずれか一方を交互に切り換えるとともに、当該切り換えごとにリセット指示を前記検出手段に入力する切り換え手段を有し、
前記選択手段は、前記切り換え手段により、前記シーケンスリストに切り換えられた場合には、前記検出した発音開始指示に応じて、前記シーケンスリストに記録された発音順に前記エレメントデータの1つを順次選択し、前記切り換え手段により、前記エレメント指定情報に切り換えられた場合には、前記検出した発音開始指示に応じて、前記少なくとも1つのエレメントデータを選択する請求項1記載の楽音生成装置。
The storage means further stores element designation information for designating at least one element data,
Furthermore, it has switching means for alternately switching either one of the sequence list and the element designation information, and inputting a reset instruction to the detection means for each switching,
The selection means, when switched to the sequence list by the switching means, sequentially selects one of the element data in the order of pronunciation recorded in the sequence list in accordance with the detected pronunciation start instruction. 2. The musical tone generating apparatus according to claim 1, wherein when the switching means switches to the element designation information, the at least one element data is selected in accordance with the detected sounding start instruction.
楽音を生成するためのエレメントデータと、複数のエレメントデータの発音順を記録するシーケンスリストとを記憶する記憶手段からデータを読み出し可能なコンピュータに、
発音開始指示とリセット指示とを検出する検出手順と、
前記検出した発音開始指示に応じて、前記シーケンスリストに記録された発音順に前記エレメントデータの1つを順次選択する選択手順と、
前記検出手順が前記リセット指示を検出した場合に、前記選択手順による選択対象を所定のエレメントデータにリセットするリセット手順と、
前記選択されたエレメントデータを前記記憶手段から読み出して楽音を生成する楽音生成手順と
を実行させるためのプログラム。
To a computer that can read data from storage means for storing element data for generating musical sounds and a sequence list that records the order of sound generation of a plurality of element data,
A detection procedure for detecting a pronunciation start instruction and a reset instruction;
A selection procedure for sequentially selecting one of the element data in the order of pronunciation recorded in the sequence list in accordance with the detected pronunciation start instruction;
A reset procedure for resetting a selection target by the selection procedure to predetermined element data when the detection procedure detects the reset instruction;
A program for executing a musical sound generation procedure for reading out the selected element data from the storage means and generating a musical sound.
JP2010071899A 2010-03-26 2010-03-26 Musical sound generating apparatus and program Active JP5691214B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010071899A JP5691214B2 (en) 2010-03-26 2010-03-26 Musical sound generating apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010071899A JP5691214B2 (en) 2010-03-26 2010-03-26 Musical sound generating apparatus and program

Publications (2)

Publication Number Publication Date
JP2011203583A true JP2011203583A (en) 2011-10-13
JP5691214B2 JP5691214B2 (en) 2015-04-01

Family

ID=44880264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010071899A Active JP5691214B2 (en) 2010-03-26 2010-03-26 Musical sound generating apparatus and program

Country Status (1)

Country Link
JP (1) JP5691214B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018101A (en) * 2014-07-09 2016-02-01 株式会社コルグ Sound source device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0416500U (en) * 1990-05-29 1992-02-10
JPH06332458A (en) * 1993-05-24 1994-12-02 Casio Comput Co Ltd Musical sound generator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0416500U (en) * 1990-05-29 1992-02-10
JPH06332458A (en) * 1993-05-24 1994-12-02 Casio Comput Co Ltd Musical sound generator

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018101A (en) * 2014-07-09 2016-02-01 株式会社コルグ Sound source device

Also Published As

Publication number Publication date
JP5691214B2 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
JP5083225B2 (en) Performance practice device and program
JP5891656B2 (en) Accompaniment data generation apparatus and program
JP3823705B2 (en) Audio data mixing device including pad, control method thereof, and storage medium
CN107799105B (en) Musical performance apparatus, musical performance method, recording medium, and electronic musical instrument
US20080060501A1 (en) Music data processing apparatus and method
JP5691214B2 (en) Musical sound generating apparatus and program
JP3821103B2 (en) INFORMATION DISPLAY METHOD, INFORMATION DISPLAY DEVICE, AND RECORDING MEDIUM CONTAINING INFORMATION DISPLAY PROGRAM
US20130125734A1 (en) Musical sound generator and method for generating musical sound based on element data
JP3747758B2 (en) Automatic performance device
JP5509983B2 (en) Musical sound generating apparatus and program
CN107799104B (en) Musical performance apparatus, musical performance method, recording medium, and electronic musical instrument
JP2011203582A (en) Musical sound generator and program
JP5707691B2 (en) Electronic keyboard instrument
JP5304219B2 (en) Automatic performance device and program
JP2012203217A (en) Accompaniment data generation device and program
JP4803043B2 (en) Musical sound generating apparatus and program
JP5509982B2 (en) Music generator
JP3757664B2 (en) Performance information reproducing apparatus and computer-readable recording medium recording performance information reproducing program
JP5548975B2 (en) Performance data generating apparatus and program
JP5626062B2 (en) Accompaniment data generation apparatus and program
JP5070842B2 (en) Musical sound generating apparatus and program
JP5303959B2 (en) Program for realizing electronic music apparatus and control method thereof
JP2009216902A (en) Electronic information processor and program
JP2008170560A (en) Musical sound generating device and program
JP2008233811A (en) Electronic music device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R151 Written notification of patent or utility model registration

Ref document number: 5691214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151