JPH10105173A - Performance data converter - Google Patents

Performance data converter

Info

Publication number
JPH10105173A
JPH10105173A JP8276928A JP27692896A JPH10105173A JP H10105173 A JPH10105173 A JP H10105173A JP 8276928 A JP8276928 A JP 8276928A JP 27692896 A JP27692896 A JP 27692896A JP H10105173 A JPH10105173 A JP H10105173A
Authority
JP
Japan
Prior art keywords
note
performance data
notes
timing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8276928A
Other languages
Japanese (ja)
Other versions
JP3704842B2 (en
Inventor
Yoshimasa Isozaki
善政 磯崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP27692896A priority Critical patent/JP3704842B2/en
Publication of JPH10105173A publication Critical patent/JPH10105173A/en
Application granted granted Critical
Publication of JP3704842B2 publication Critical patent/JP3704842B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To appropriately adds a characteristic expression of a musical instrument to performance data by shifting the sound generation starting timing of plural notes employing the sound generation continuation time of a prescribed note as a reference. SOLUTION: An effect circuit 16 adds various effects to the musical sound signals from a sound source circuit 15. When the expression adding conversion switch of a panel switch 2 is pushed, an expression adding conversion process subroutine is called out and executed. If a code quantize process is set, for example, as an expression conversion process, a CPU 5 searches for plural notes, which note-on at a same timing, if an objective phrase is a chord phrase. Then, a shortest gate time among the gate time data, which indicate the sound generation continuation time of the objective notes, is obtained, a note-on shift width parameter value is multiplied by the shortest gate time and the amount of shift is computed. Based on the computed amount of the shifting, the note-on timing of the objective note is shifted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、演奏データに楽
器、特に弦楽器特有の表情付けを行う演奏データ変換装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a performance data conversion apparatus for giving an expression specific to a musical instrument, particularly a stringed instrument, to performance data.

【0002】[0002]

【従来の技術】従来、演奏データに楽器、特に弦楽器特
有の演奏表情を付与する技術として、和音(コード)に
おいて当該和音の各構成音の発音タイミングをずらした
り(たとえば、特開昭64−4795参照)、フレット
ノイズを付与したりする技術は知られている。
2. Description of the Related Art Conventionally, as a technique for giving a musical expression, particularly a stringed musical instrument, a performance expression to performance data, a chord (chord) is shifted in sounding timing of each constituent sound of the chord (for example, Japanese Patent Application Laid-Open No. 64-4795) ), And a technique for adding fret noise are known.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来の技術のうち前者では、すべての和音に対して、当該
各構成音の発音タイミングを一律に所定時間(ΔTIM
E)だけずらしていたので、たとえば和音全体としての
発音時間に長短があったとしても各構成音の発音タイミ
ングは常に一様にずれ、味気のない表情付けになった
り、違和感のある表情付けになったりすることがあっ
た。
However, in the former of the above-mentioned prior arts, the sounding timing of each of the constituent tones is uniformly set for a predetermined time (ΔTIM
E), the sounding timing of each of the constituent tones always shifts evenly even if the sounding time of the entire chord varies, resulting in a dull expression or an uncomfortable expression. Sometimes it was.

【0004】一方、上記従来技術のうち後者では、フレ
ットノイズは、発音に係るフレットから次の発音に係る
フレットへの移行に要した時間が所定時間より短い場合
に挿入されるので、次の音が発音されない限りフレット
ノイズが挿入されず、すなわち指の動きが完了した時点
でフレットノイズが発音されたので、非常に不自然であ
った。
On the other hand, in the latter of the above prior arts, the fret noise is inserted when the time required for transition from the fret for sounding to the fret for the next sounding is shorter than a predetermined time. No fret noise was inserted unless was pronounced, that is, fret noise was emitted when the finger movement was completed, which was very unnatural.

【0005】本発明は、上記問題に鑑みてなされたもの
で、演奏データに楽器特有の表情付けをより適切に行う
ことが可能な演奏データ変換装置を提供することを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide a performance data conversion device capable of appropriately giving a musical instrument-specific expression to performance data.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するた
め、請求項1記載の本発明は、入力された演奏データの
うち略同一タイミングで発音する複数個のノートをサー
チする同一タイミングノートサーチ手段と、該同一タイ
ミングノートサーチ手段により複数個のノートがサーチ
されたときに、当該複数個のノートのうち所定のノート
の発音継続時間を基準にして当該各ノートの発音開始タ
イミングをシフトするためのタイミングシフト量を決定
する発音開始タイミングシフト量決定手段と、該決定さ
れたタイミングシフト量に従って前記複数個のノートの
各発音開始タイミングをシフトすることにより当該演奏
データを変換する演奏データ変換手段とを有することを
特徴とする。
In order to achieve the above object, according to the present invention, the same timing note searching means for searching a plurality of notes which sound at substantially the same timing in input performance data. And when the plurality of notes are searched by the same timing note search means, the sounding start timing of each note is shifted with reference to the sounding continuation time of a predetermined note among the plurality of notes. Sounding start timing shift amount determining means for determining the timing shift amount; and performance data converting means for converting the performance data by shifting each sounding start timing of the plurality of notes according to the determined timing shift amount. It is characterized by having.

【0007】これにより、前記複数個のノートの各発音
開始タイミングは、それぞれ、当該複数個のノートのう
ち、所定のノートの発音継続時間を基準にしてシフトさ
れるので、変換すべき演奏データに設定された音色が、
たとえばギターの音色である場合に、すばやいカッティ
ング(当該各ノートの発音継続時間が短いことが多い)
に対しては当該複数個のノートの各発音開始タイミング
のずれは少なくなる一方、ゆっくりとしたストローク
(当該各ノートの発音継続時間が長いことが多い)に対
しては当該複数個のノートの各発音開始タイミングのず
れは多くなるという制御を行うことができ、演奏データ
をよりギター演奏らしく変換することができる。
Accordingly, the sound generation start timing of each of the plurality of notes is shifted with reference to the sound continuation time of a predetermined note among the plurality of notes. The set tone is
For example, in the case of a guitar tone, quick cutting (often the duration of each note is short)
, The difference between the sound generation start timings of the plurality of notes is reduced, while the slow stroke (often the sound continuation time of each note is long) reduces It is possible to perform control such that the deviation of the sound generation start timing is increased, and it is possible to convert the performance data into a more guitar-like performance.

【0008】ここで、タイミングシフト量は、たとえ
ば、前記基準となる発音継続時間に対する割合を示すパ
ラメータ(このパラメータ値は予め設定されており、前
記請求項11の表情付けパラメータの1つ)に基づいて
決定される。
Here, the timing shift amount is based on, for example, a parameter indicating a ratio to the reference sounding continuation time (this parameter value is set in advance, and is one of the expression expression parameters of claim 11). Is determined.

【0009】請求項2記載の発明は、前記発音開始タイ
ミングシフト量決定手段により決定された発音タイミン
グシフト量に従ってシフトされた前記各ノートの発音タ
イミングがそれぞれ略第1のタイミングのときには、当
該複数個のノートに対応する演奏データはアップストロ
ークによるものと判定する一方、前記シフトされた前記
各ノートの発音タイミングがそれぞれ略第2のタイミン
グのときには、当該複数個のノートに対応する演奏デー
タはダウンストロークによるものと判定するアップ/ダ
ウンストローク判定手段を有することを特徴とする。
According to a second aspect of the present invention, when the sounding timing of each of the notes shifted in accordance with the sounding timing shift amount determined by the sounding start timing shift amount determining means is substantially the first timing, the plurality of notes are generated. While the performance data corresponding to the note is determined to be based on the upstroke, when the shifted sounding timing of each of the notes is substantially the second timing, the performance data corresponding to the plurality of notes is determined by the downstroke. Up / down stroke determining means for determining that the stroke is caused by

【0010】これにより、ストロークの方向を適切に判
定することができる。
Thus, the direction of the stroke can be properly determined.

【0011】請求項3記載の発明は、前記アップ/ダウ
ンストローク判定手段により判定されたストロークの方
向に応じてベロシティスロープを選択するベロシティス
ロープ選択手段と、該選択されたベロシティスロープに
応じて、前記同一タイミングノートサーチ手段によりサ
ーチされた複数個のノートの各ベロシティをシフトする
ためのベロシティシフト量を決定するベロシティシフト
量決定手段と、該決定されたベロシティシフト量に従っ
て前記複数個のノートの各ベロシティをシフトすること
により当該演奏データを変換する演奏データ変換手段と
を有することを特徴とする。
According to a third aspect of the present invention, there is provided a velocity slope selecting means for selecting a velocity slope according to the direction of the stroke determined by the up / down stroke determining means, and the velocity slope selecting means for selecting the velocity slope according to the selected velocity slope. Velocity shift amount determining means for determining a velocity shift amount for shifting each velocity of the plurality of notes searched by the same timing note search means; and each velocity of the plurality of notes according to the determined velocity shift amount. And performance data conversion means for converting the performance data by shifting the performance data.

【0012】これにより、アップ方向のストロークとダ
ウン方向のストロークとに応じて異なったベロシティス
ロープが選択され、この選択されたベロシティスロープ
に応じて前記複数個のノートの各ベロシティをシフトす
ることができるので、演奏データにより弦楽器らしい演
奏表情を付与することができる。
Thus, different velocity slopes are selected according to the up-stroke and the down-stroke, and the velocities of the plurality of notes can be shifted according to the selected velocity slope. Therefore, a performance expression like a stringed instrument can be given by the performance data.

【0013】請求項4記載の発明は、入力された演奏デ
ータのうち略同一タイミングで発音する複数個のノート
をサーチする同一タイミングノートサーチ手段と、該同
一タイミングノートサーチ手段によりサーチされた複数
個のノートが所定の条件を満足するときに、当該複数個
のノートの各発音継続時間をシフトするためのシフト量
を決定するシフト量決定手段と、該決定されたシフト量
に従って前記複数個のノートの各発音継続時間をシフト
することにより当該演奏データを変換する演奏データ変
換手段とを有することを特徴とする。
According to a fourth aspect of the present invention, there is provided the same timing note searching means for searching a plurality of notes generated at substantially the same timing in the inputted performance data, and the plurality of notes searched by the same timing note searching means. Shift amount determining means for determining a shift amount for shifting each sound continuation time of the plurality of notes when the note satisfies a predetermined condition, and the plurality of notes according to the determined shift amount. And performance data conversion means for converting the performance data by shifting each sound generation duration.

【0014】これにより、サーチされた略同一タイミン
グで発音する複数個のノートが所定の条件を満足すると
きに、当該複数個のノートの各発音継続時間をシフトす
るシフト量が決定され、このシフト量に応じて当該各発
音継続時間がシフトされるので、演奏データに、特にミ
ュート奏法による演奏表情を付与することができる。
Thus, when a plurality of notes that are searched at substantially the same timing and satisfy predetermined conditions, a shift amount for shifting each sound generation duration of the plurality of notes is determined. Since the respective sound continuation times are shifted according to the amount, it is possible to give the performance data, in particular, a performance expression by a mute performance technique.

【0015】請求項5記載の発明は、入力された演奏デ
ータのうち隣接する複数個のかつ音高が異なるノートを
1つのノートにまとめて新たな演奏データとし、該新演
奏データの音高を当該複数個のノートのうちのいずれか
1つのノートの音高にするとともに、その発音継続時間
を当該複数個のノートの最初の発音開始タイミングから
最後の発音終了タイミングまでにする複数ノートまとめ
手段と、該新演奏データの音高が当該複数個のノートの
最低音高から最大音高まで変化するように、前記演奏デ
ータの所定の位置にピッチベンドデータを挿入すること
により演奏データを変換する演奏データ変換手段とを有
することを特徴とする。
According to a fifth aspect of the present invention, a plurality of adjacent notes having different pitches among the input performance data are combined into one note to form new performance data, and the pitch of the new performance data is determined. A plurality of note summarizing means for setting the pitch of any one of the plurality of notes and making the sound generation duration from the first sounding start timing to the last sounding end timing of the plurality of notes; Performance data for converting performance data by inserting pitch bend data at a predetermined position in the performance data so that the pitch of the new performance data changes from the lowest pitch to the highest pitch of the plurality of notes. Conversion means.

【0016】これにより、単音かつ複数のノートの演奏
データから新演奏データが生成され、該新演奏データの
音高は、ピッチベンドによりその元のノートの最低音高
から最大音高まで変化するので、当該演奏データに各種
態様の演奏表情を付与することができる。
As a result, new performance data is generated from the performance data of a single note and a plurality of notes, and the pitch of the new performance data changes from the lowest pitch to the maximum pitch of the original note due to pitch bend. Various types of performance expressions can be added to the performance data.

【0017】請求項6記載の発明は、前記演奏データ変
換手段は、前記新演奏データの元の複数個のノートの音
程に応じてピッチベンドの態様の異なるピッチベンドデ
ータを挿入することを特徴とする。
According to a sixth aspect of the present invention, the performance data conversion means inserts pitch bend data having different types of pitch bend in accordance with the pitch of a plurality of original notes of the new performance data.

【0018】これにより、隣接する複数のノートの音程
に応じてピッチベンドの態様を決定するので、簡単なア
ルゴリズムによりその制御位置を決定することができ
る。
Thus, since the mode of the pitch bend is determined according to the pitch of a plurality of adjacent notes, the control position can be determined by a simple algorithm.

【0019】請求項7記載の発明は、前記演奏データ変
換手段は、前記新演奏データに付随するピッチベンドデ
ータのうち最初のピッチベンドデータによるピッチベン
ド開始タイミングが、当該新演奏データの発音開始タイ
ミングから所定ディレイ時間経過後となるような位置
に、該最初のピッチベンドデータを挿入することを特徴
とする。
According to a seventh aspect of the present invention, the performance data conversion means sets the pitch bend start timing based on the first pitch bend data among the pitch bend data accompanying the new performance data to a predetermined delay from the sound generation start timing of the new performance data. The first pitch bend data is inserted at a position after a lapse of time.

【0020】これより、前記新演奏データの発音開始タ
イミングからピッチベンド開始タイミングまで所定のデ
ィレイ時間が設けられるので、当該新演奏データに、い
わゆる「ため」という演奏表情を付与することができ
る。
Thus, since a predetermined delay time is provided from the tone generation start timing to the pitch bend start timing of the new performance data, a so-called "me" performance expression can be given to the new performance data.

【0021】請求項8記載の発明は、入力された演奏デ
ータのうち隣接する2個のかつ音程が異なるノートをサ
ーチする隣接ノートサーチ手段と、該サーチされたノー
トの音程に応じて、所定の効果音を発生させる効果音デ
ータを、前記演奏データの所定の位置に挿入することに
より演奏データを変換する演奏データ変換手段とを有す
ることを特徴とする。
According to an eighth aspect of the present invention, there is provided an adjacent note search means for searching two adjacent notes having different pitches in input performance data, and a predetermined note corresponding to the pitch of the searched notes. A performance data conversion unit for converting performance data by inserting effect sound data for generating a sound effect into a predetermined position of the performance data;

【0022】これにより、前記サーチされた2個のノー
トの音程に応じて、所定の効果音を発生させる効果音デ
ータを所定の位置に挿入するか否かが決定されるので、
効果音データをその効果音が最適に発生される位置に適
切に配置させることができる。
Thus, whether to insert sound effect data for generating a predetermined sound effect at a predetermined position is determined according to the pitch of the two searched notes.
The sound effect data can be appropriately arranged at a position where the sound effect is optimally generated.

【0023】ここで、効果音とは、たとえばフレットノ
イズであり、効果音データとは、フレットノイズを発生
させるためのデータである。
Here, the sound effect is, for example, fret noise, and the sound effect data is data for generating fret noise.

【0024】請求項9記載の発明は、前記所定の位置
は、前記サーチされた2個のノートの各発音開始タイミ
ングの間であることを特徴とする。
According to a ninth aspect of the present invention, the predetermined position is between the sound generation start timings of the two searched notes.

【0025】これにより、自然な位置(時間)で効果音
を発生させることができる。たとえば、効果音がフレッ
トノイズである場合には、前記従来の問題点である不自
然なフレットノイズの発生を、より自然な位置での発生
にすることができる。
As a result, a sound effect can be generated at a natural position (time). For example, when the sound effect is fret noise, the generation of the unnatural fret noise, which is a conventional problem, can be changed to a more natural position.

【0026】請求項10記載の発明は、入力された演奏
データをフレーズに分割するフレーズ分割手段と、該分
割されたフレーズに含まれるノートのうち、所定の条件
に該当するノートを検出するノート検出手段と、該検出
されたノートの発音継続時間をシフトするための発音継
続時間シフト量を決定する発音継続時間シフト量決定手
段と、前記検出されたノートのベロシティをシフトする
ためのベロシティシフト量を決定するベロシティシフト
量決定手段と、前記決定された発音継続時間シフト量お
よびベロシティシフト量に従って、当該ノートの発音継
続時間をシフトするとともにそのベロシティをシフトす
ることにより当該演奏データを変換する演奏データ変換
手段とを有することを特徴とする。
According to a tenth aspect of the present invention, there is provided a phrase dividing means for dividing inputted performance data into phrases, and a note detecting means for detecting a note which satisfies a predetermined condition among notes included in the divided phrase. Means, sounding duration shift amount determining means for determining a sounding duration shift amount for shifting the sounding duration of the detected note, and a velocity shift amount for shifting the velocity of the detected note. Means for determining a velocity shift amount to be determined, and performance data conversion for converting the performance data by shifting the note duration and shifting the velocity according to the determined sound duration shift amount and the velocity shift amount. Means.

【0027】これにより、前記所定の条件に合致するノ
ートのみ、その発音継続時間およびベロシティがそれぞ
れ決定されたシフト量だけシフトされるので、演奏デー
タに、特にアルペジオ奏法による演奏表情を付与するこ
とができる。
As a result, only the note that meets the predetermined condition is shifted by the determined shift amount for the duration of sound and the velocity thereof, so that the performance data can be given a performance expression, especially by the arpeggio playing method. it can.

【0028】請求項11記載の発明は、前記演奏データ
変換手段が前記入力された演奏データを変換するとき
に、その基礎となる各種の表情付けパラメータを当該演
奏データ曲に対応させて記憶媒体に記憶する記憶手段を
有することを特徴とする。
According to an eleventh aspect of the present invention, when the performance data conversion means converts the input performance data, various expression parameters which are the basis of the conversion are stored in a storage medium in association with the performance data music. It is characterized by having storage means for storing.

【0029】これにより、ユーザは各種の表情付けパラ
メータを設定する必要がなくなり、操作性を向上させる
ことができる。
This eliminates the need for the user to set various facial expression parameters, thereby improving operability.

【0030】請求項12記載の発明は、前記記憶手段
は、前記各種の表情付けパラメータから成る複数個の表
情付けパラメータ群をシーケンスデータとして記憶し、
前記演奏データ変換手段は、前記入力された演奏データ
に基づいて当該演奏データの変換を行うときに、その変
換の進行に従って前記パラメータ群を切り換え、該切り
換え後のパラメータ群に含まれる表情付けパラメータに
基づいて当該演奏データを変換することを特徴とする。
In a twelfth aspect of the present invention, the storage means stores a plurality of facial expression parameter groups including the various facial expression parameters as sequence data,
When performing the conversion of the performance data based on the input performance data, the performance data conversion means switches the parameter group in accordance with the progress of the conversion, and converts the parameter group included in the switched parameter group to the expression parameter. The performance data is converted based on the performance data.

【0031】これにより、演奏データ中のある部分を指
定して、その位置に所望のパラメータ群の表情付けパラ
メータを設定することができるので、演奏データに、よ
り細かな演奏表情を付与することができる。
Thus, it is possible to designate a certain part in the performance data and set a desired expression parameter of a parameter group at that position, so that a more detailed performance expression can be given to the performance data. it can.

【0032】請求項13記載の発明は、前記記憶手段
は、演奏データに設定可能な音色に対応する楽器毎に最
適な前記表情付けパラメータを前記記憶媒体に記憶し、
前記演奏データ変換手段は、前記入力された演奏データ
に設定された楽器の種類に応じて前記記憶された表情付
けパラメータをロードし、該ロード後の表情付けパラメ
ータに基づいて当該演奏データを変換することを特徴と
する。
According to a thirteenth aspect of the present invention, the storage means stores in the storage medium the optimum expression expression parameters for each musical instrument corresponding to a tone color that can be set in performance data.
The performance data conversion means loads the stored expression parameters in accordance with the type of musical instrument set in the input performance data, and converts the performance data based on the loaded expression parameters. It is characterized by the following.

【0033】これにより、選択された楽器の種類に応じ
て最適な表情付けパラメータで演奏データを変換するこ
とができる。
Thus, the performance data can be converted with the most suitable expression parameters according to the type of the selected musical instrument.

【0034】[0034]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0035】図1は、本発明の実施の一形態に係る演奏
データ変換装置の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a performance data conversion device according to an embodiment of the present invention.

【0036】同図に示すように、本実施の形態の演奏デ
ータ変換装置は、音高情報を入力するための鍵盤1と、
各種情報を入力するための複数のスイッチを備えたパネ
ルスイッチ2と、鍵盤1の各鍵の押鍵状態を検出する押
鍵検出回路3と、パネルスイッチ2の各スイッチの押下
状態を検出するスイッチ検出回路4と、装置全体の制御
を司るCPU5と、該CPU5が実行する制御プログラ
ムやテーブルデータ等を記憶するROM6と、演奏デー
タ、各種入力情報および演算結果等を一時的に記憶する
RAM7と、タイマ割り込み処理における割り込み時間
や各種時間を計時するタイマ8と、各種情報等を表示す
る、たとえば大型液晶ディスプレイ(LCD)若しくは
CRT(Cathode Ray Tube)ディスプレイおよび発光ダ
イオード(LED)等を備えた表示装置9と、記憶媒体
であるフロッピディスク(FD)をドライブするフロッ
ピディスクドライブ(FDD)10と、前記制御プログ
ラムを含む各種アプリケーションプログラムや各種デー
タ等を記憶するハードディスクをドライブするハードデ
ィスクドライブ(HDD)11と、前記制御プログラム
を含む各種アプリケーションプログラムや各種データ等
を記憶するコンパクトディスク−リード・オンリ・メモ
リ(CD−ROM)をドライブするCD−ROMドライ
ブ12と、外部からのMIDI(Musical Instrument D
igital Interface)信号を入力したり、MIDI信号と
して外部に出力したりするMIDIインターフェース
(I/F)13と、通信ネットワーク101を介して、
たとえばサーバコンピュータ102とデータの送受信を
行う通信インターフェース(I/F)14と、鍵盤1か
ら入力された演奏データや予め設定された演奏データ等
を楽音信号に変換する音源回路15と、該音源回路15
からの楽音信号に各種効果を付与するための効果回路1
6と、該効果回路16からの楽音信号を音響に変換す
る、たとえばスピーカ等のサウンドシステム17とによ
り構成されている。
As shown in the figure, the performance data converter of the present embodiment includes a keyboard 1 for inputting pitch information,
A panel switch 2 including a plurality of switches for inputting various information; a key press detection circuit 3 for detecting a key press state of each key of the keyboard 1; and a switch for detecting a press state of each switch of the panel switch 2 A detection circuit 4, a CPU 5 for controlling the entire apparatus, a ROM 6 for storing a control program executed by the CPU 5, table data, and the like, and a RAM 7 for temporarily storing performance data, various input information, calculation results, and the like. A timer 8 for measuring an interrupt time and various times in a timer interrupt process, and a display device for displaying various information, for example, a large liquid crystal display (LCD) or a CRT (Cathode Ray Tube) display and a light emitting diode (LED) 9 and a floppy disk drive (F) for driving a floppy disk (FD) as a storage medium. DD) 10, a hard disk drive (HDD) 11 for driving a hard disk for storing various application programs and various data including the control program, and a compact disk for storing various application programs and various data and the like including the control program. A CD-ROM drive 12 for driving a read-only memory (CD-ROM) and an external MIDI (Musical Instrument D)
and a MIDI interface (I / F) 13 for inputting a digital interface (IG) signal and outputting the signal to the outside as a MIDI signal, and a communication network 101.
For example, a communication interface (I / F) 14 for transmitting and receiving data to and from the server computer 102, a tone generator circuit 15 for converting performance data input from the keyboard 1 or preset performance data and the like into musical tone signals, and a tone generator circuit Fifteen
Circuit 1 for adding various effects to the tone signal from
6 and a sound system 17 such as a speaker for converting a tone signal from the effect circuit 16 into sound.

【0037】上記構成要素3〜16は、バス18を介し
て相互に接続され、CPU5にはタイマ8が接続され、
MIDII/F13には他のMIDI機器100が接続
され、通信I/F14には通信ネットワーク101が接
続され、音源回路15には効果回路16が接続され、効
果回路16にはサウンドシステム17が接続されてい
る。
The above components 3 to 16 are interconnected via a bus 18, a timer 8 is connected to the CPU 5,
Another MIDI device 100 is connected to the MID II / F 13, a communication network 101 is connected to the communication I / F 14, an effect circuit 16 is connected to the sound source circuit 15, and a sound system 17 is connected to the effect circuit 16. ing.

【0038】HDD11のハードディスクには、前述の
ように、CPU5が実行する制御プログラムも記憶で
き、ROM6に制御プログラムが記憶されていない場合
には、このハードディスクに制御プログラムを記憶させ
ておき、それをRAM7に読み込むことにより、ROM
6に制御プログラムを記憶している場合と同様の動作を
CPU5にさせることができる。このようにすると、制
御プログラムの追加やバージョンアップ等が容易に行え
る。
As described above, the control program executed by the CPU 5 can be stored in the hard disk of the HDD 11, and if the control program is not stored in the ROM 6, the control program is stored in the hard disk. By reading into RAM7, ROM
6 can cause the CPU 5 to perform the same operation as when the control program is stored. This makes it easy to add a control program, upgrade a version, and the like.

【0039】CD−ROMドライブ12のCD−ROM
から読み出された制御プログラムや各種データは、HD
D11内のハードディスクにストアされる。これによ
り、制御プログラムの新規インストールやバージョンア
ップ等が容易に行える。なお、このCD−ROMドライ
ブ12以外にも、外部記憶装置として、光磁気ディスク
(MO)装置等、様々な形態のメディアを利用するため
の装置を設けるようにしてもよい。
CD-ROM of CD-ROM drive 12
The control program and various data read from the
It is stored on the hard disk in D11. This makes it possible to easily perform new installation, version upgrade, and the like of the control program. In addition to the CD-ROM drive 12, a device for utilizing various forms of media, such as a magneto-optical disk (MO) device, may be provided as an external storage device.

【0040】通信I/F14は、上述のように、たとえ
ばLAN(Local Area Network)やインターネット、電
話回線等の通信ネットワーク101に接続されており、
該通信ネットワーク101を介して、サーバコンピュー
タ102に接続される。HDD11内のハードディスク
に上記各プログラムや各種パラメータが記憶されていな
い場合には、通信I/F14は、サーバコンピュータ1
02からプログラムやパラメータをダウンロードするた
めに用いられる。クライアントとなるコンピュータ(本
実施の形態では、演奏データ変換装置)は、通信I/F
14および通信ネットワーク101を介してサーバコン
ピュータ102へとプログラムやパラメータのダウンロ
ードを要求するコマンドを送信する。サーバコンピュー
タ102は、このコマンドを受け、要求されたプログラ
ムやパラメータを、通信ネットワーク101を介してコ
ンピュータへと配信し、コンピュータが通信I/F10
1を介して、これらプログラムやパラメータを受信して
HDD11内のハードディスクに蓄積することにより、
ダウンロードが完了する。
As described above, the communication I / F 14 is connected to a communication network 101 such as a LAN (Local Area Network), the Internet, or a telephone line.
It is connected to the server computer 102 via the communication network 101. If the above-mentioned programs and various parameters are not stored in the hard disk in the HDD 11, the communication I / F 14
02 to download programs and parameters. A computer (a performance data conversion device in the present embodiment) serving as a client is provided with a communication I / F.
14 and a command for requesting download of a program or parameter to the server computer 102 via the communication network 101. Upon receiving this command, the server computer 102 distributes the requested program and parameters to the computer via the communication network 101, and the computer
1 to receive these programs and parameters and store them in the hard disk in the HDD 11,
Download is completed.

【0041】この他、外部コンピュータ等との間で直接
データのやりとりを行うためのインターフェースを備え
てもよい。
In addition, an interface for directly exchanging data with an external computer or the like may be provided.

【0042】図2は、演奏データのデータフォーマット
の一例を示す図であり、(a)は、タブ譜変換を行う前
の通常の演奏データファイル(ソングファイル)のデー
タフォーマットを示し、(b)は、(a)の演奏データ
をタブ譜変換した後のタブ譜形式のデータファイルのフ
ォーマットを示している。
FIG. 2 is a diagram showing an example of a data format of performance data. FIG. 2 (a) shows a data format of a normal performance data file (song file) before tab music conversion, and FIG. Shows the format of the tablature data file after the performance data of (a) is converted to the tablature.

【0043】(a)に示すように、演奏データファイル
は、ヘッダデータ21、タイミングデータ22、イベン
トデータ23およびファイルエンドデータ24により、
主として構成されている。
As shown in (a), the performance data file is composed of header data 21, timing data 22, event data 23 and file end data 24.
It is mainly composed.

【0044】ヘッダデータ21とは、演奏データの先頭
に記憶されるデータをいい、ヘッダデータ21として、
たとえば曲名や初期テンポ等のデータが記憶されてい
る。
The header data 21 refers to data stored at the beginning of the performance data.
For example, data such as a song title and an initial tempo are stored.

【0045】タイミングデータ22とは、イベントデー
タ23間の相対的な時間間隔、すなわちイベントデータ
23を音源回路15に出力するタイミングを示す時間デ
ータをいう。なお、タイミングデータは通常数値データ
であり、この数値データは、タイマ8が所定時間毎に発
生するタイマ割込に応じて実行されるタイマ割込処理中
でデクリメントされ、“0”になるまで次のイベントデ
ータの読み出しが待機される。したがって、タイミング
データとしては、タイマ割込処理においてデクリメント
(ダウンカウント)されるカウント値が設定される。こ
こで、テンポデータ(たとえば、前記初期テンポデータ
や曲の途中でテンポの変更を指示するテンポデータ)に
より、自動演奏のテンポを変更する必要があるが、その
方法としては、上記タイマ割込が発生する時間間隔(上
記所定時間)をテンポデータに応じて変更する方法や、
この時間間隔はそのままでタイミングデータの値をテン
ポデータに応じて変更する方法、または、この時間間隔
はそのままで上記タイマ割込処理中で1回にデクリメン
トされる値の幅をテンポデータに応じて変更する方法等
があり、そのうちいずれかの方法を用いてもよい。
The timing data 22 is a relative time interval between the event data 23, that is, time data indicating the timing at which the event data 23 is output to the tone generator 15. Note that the timing data is usually numerical data, and this numerical data is decremented during the timer interrupt processing executed in response to the timer interrupt generated by the timer 8 at predetermined time intervals. Of the event data is waited for. Therefore, a count value that is decremented (down counted) in the timer interrupt processing is set as the timing data. Here, it is necessary to change the tempo of the automatic performance based on the tempo data (for example, the initial tempo data or tempo data instructing the tempo to be changed in the middle of the song). A method of changing a time interval (the predetermined time) according to tempo data,
A method of changing the value of the timing data according to the tempo data without changing the time interval, or changing the width of the value decremented at one time during the timer interrupt processing according to the tempo data without changing the time interval. There is a method of changing, and any one of them may be used.

【0046】イベントデータ23とは、ノートオンイベ
ントデータ、ノートオフイベントデータ、テンポデータ
およびピッチベンドイベントデータ等のデータをいう。
ノートオンイベントデータは、ノートオン、MIDIチ
ャンネル(CH)、ノートナンバおよびベロシティの各
データにより構成され、ノートオフイベントデータも、
同様に、ノートオフ、MIDIチャンネル、ノートナン
バおよびベロシティの各データにより構成されている。
このように、各ノートイベントデータ毎にMIDIチャ
ンネルを記憶するようにしたのは、本実施の形態では、
ノートイベントデータを各イベントの種類に拘わらず出
力順に1列に並べて記憶し、実際に読み出して処理する
段階で、当該MIDIチャンネルに基づいてイベントの
種類を判別し、その判別結果に応じてノートイベントの
処理を行うようにしたからである。なお、ノートオフイ
ベントデータは、ベロシティを含まないような構成にし
てもよい。
The event data 23 refers to data such as note-on event data, note-off event data, tempo data, pitch bend event data, and the like.
The note-on event data is composed of note-on, MIDI channel (CH), note number, and velocity data.
Similarly, it is composed of note-off, MIDI channel, note number and velocity data.
As described above, the MIDI channel is stored for each note event data in the present embodiment.
Note event data is arranged in a row in the output order regardless of the type of each event and stored, and at the stage of actually reading and processing, the type of the event is determined based on the MIDI channel, and the note event is determined according to the determination result. Is performed. Note that the note-off event data may be configured not to include velocity.

【0047】なお、本実施の形態では、音源回路15に
おけるMIDIチャンネル(以下、混同のおそれがない
場合には「チャンネル」と略す)は16チャンネルで構
成され、そのうち0〜8チャンネルは、ユーザが自由に
音色を割り当てることができ、9〜15チャンネルは、
後述するように、本システムがそれぞれ所定の目的のた
めに使用する。
In the present embodiment, the MIDI channel (hereinafter, abbreviated as “channel” when there is no risk of confusion) in the tone generator circuit 15 is composed of 16 channels, of which 0 to 8 channels are provided by the user. You can freely assign tones, and 9 to 15 channels
As will be described later, the present system uses each for a predetermined purpose.

【0048】また、本実施の形態では、タブ譜変換は、
0〜8チャンネルのうちいずれか1つのチャンネルのみ
の演奏データを対象にして行われる。このチャンネルを
ソーストラックといい、後述するように、ソーストラッ
クは、ユーザが任意に設定することができる。このよう
に、本実施の形態では、ソーストラックとして1チャン
ネルのみ指定できるように構成したが、これに限らず、
複数のチャンネルを指定できるように構成してもよい。
In this embodiment, the tablature conversion is
This is performed for performance data of only one of the 0 to 8 channels. This channel is called a source track, and the user can arbitrarily set the source track as described later. As described above, in the present embodiment, the configuration is such that only one channel can be designated as the source track. However, the present invention is not limited to this.
The configuration may be such that a plurality of channels can be specified.

【0049】実際には、演奏データには、上述のデータ
以外のデータも含まれているが、本発明を説明する上で
必須のものではないため、その説明を省略する。
Actually, the performance data includes data other than the above-mentioned data. However, the data is not essential for explaining the present invention, so that the description thereof will be omitted.

【0050】また、本実施の形態では、イベントデータ
を、その割り当てられたMIDIチャンネルに拘わら
ず、出力順に1列に並べて記憶するようにしたが、これ
に限らず、MIDIチャンネルに対応したトラックを設
け、このトラック毎にイベントデータを割り当てるよう
にしてもよい。このようにすれば、上述のように、ノー
トイベントデータ毎にMIDIチャンネルを記憶する必
要はないが、メモリ容量は増大する。
Further, in the present embodiment, the event data is arranged and stored in a line in the output order regardless of the assigned MIDI channel. However, the present invention is not limited to this. And event data may be assigned to each track. By doing so, it is not necessary to store the MIDI channel for each note event data as described above, but the memory capacity increases.

【0051】また、本実施の形態では、演奏データのデ
ータフォーマットを上述のように「イベントデータ+タ
イミング(相対時間)データ」という構成にしたが、こ
れに限る必要はなく、たとえば「イベントデータ+絶対
時間データ」、「音高データ+符長データ」等どのよう
なフォーマットでもよい。
Further, in the present embodiment, the data format of the performance data is configured as "event data + timing (relative time) data" as described above. However, the present invention is not limited to this. Any format such as "absolute time data" and "pitch data + note length data" may be used.

【0052】このようなフォーマットを有する演奏デー
タは、本発明の方法により、図2(b)に示すタブ譜形
式のデータに変換される。以下、本発明のタブ譜変換の
概要を説明し、その後、詳細に説明する。
Performance data having such a format is converted into tablature format data shown in FIG. 2B by the method of the present invention. Hereinafter, an outline of the tablature conversion according to the present invention will be described, and then a detailed description will be given.

【0053】(a)の演奏データを、まず、2種類のフ
レーズに分割する。この2種類のフレーズとは、「単音
フレーズ」および「和音フレーズ」であり、ノートオン
イベント同士が時間的にオーバーラップしないフレーズ
を単音フレーズと判別し、オーバーラップするフレーズ
を和音フレーズと判別する。なお、この単音フレーズお
よび和音フレーズの判別方法の詳細は、それぞれ図9お
よび10を用いて後述する。
First, the performance data of (a) is divided into two types of phrases. The two types of phrases are a “single phrase” and a “chord phrase”. A phrase in which note-on events do not temporally overlap is determined as a single tone phrase, and a phrase that overlaps is determined as a chord phrase. The details of the method of discriminating a single-tone phrase and a chord phrase will be described later with reference to FIGS.

【0054】フレーズ分割処理が進むに従って、分割さ
れたフレーズの始めを示す「フレーズ始」データおよび
その終わりを示す「フレーズ終」データが演奏データ中
に挿入される。これにより、1つのフレーズを構成する
タイミングデータ22およびイベントデータ23を判別
することができる。ここで、「フレーズ始」データに
は、単音フレーズと和音フレーズとをそれぞれ区別する
ための「単音フレーズ始」データおよび「和音フレーズ
始」データがあり、「フレーズ終」データには、同様
に、単音フレーズと和音フレーズとをそれぞれ区別する
ための「単音フレーズ終」データおよび「和音フレーズ
終」データがある。
As the phrase division process proceeds, "phrase start" data indicating the beginning of the divided phrase and "phrase end" data indicating the end thereof are inserted into the performance data. As a result, the timing data 22 and the event data 23 constituting one phrase can be determined. Here, the "phrase start" data includes "single phrase start" data and "chord phrase start" data for distinguishing between a single-tone phrase and a chord phrase, respectively. There is "single phrase end" data and "chord phrase end" data for distinguishing a single tone phrase from a chord phrase, respectively.

【0055】このようにして分割された各フレーズ毎
に、当該フレーズを構成する各イベントデータ(ノート
オン/オフイベントデータ)を、それぞれタブ譜形式の
データに変換する。本実施の形態では、タブ譜形式のデ
ータへの変換とは、ソーストラック(チャンネル0〜8
のうちのいずれか指定されたチャンネル)のノートオン
/オフイベントデータをチャンネル10〜15のうちい
ずれかのチャンネル(各チャンネルは、それぞれタブ譜
における6線譜の1弦〜6弦に対応し、音源回路15に
おいては、MIDIチャンネル10〜15にそれぞれギ
ターの1弦〜6弦に相当する若干異なる音色が割当てら
れる)に割り当てることを云う。すなわち、タブ譜形式
のデータへの変換とは、本実施の形態では、演奏者が押
さえるべき弦を決定することである。この変換されたタ
ブ譜形式のデータを用いて、実際にタブ譜表示する場合
には、タブ譜は演奏者が押さえるべき弦とフレット番号
により表現される一方、本実施の形態では、各ノートイ
ベントのノートナンバをフレット番号に変換しないよう
に構成したため、ノートナンバからフレット番号を算出
する必要がある。このように、ノートナンバをそのまま
にしたのは、ノートナンバからフレット番号の算出を容
易に行うことができるのに反して、変換後のデータはタ
ブ譜表示に使用されるのみではないため、ノートナンバ
をそのまま保持しておく方が汎用性が高いからである。
しかし、ノートナンバに代えて、対応するフレット番号
に変換して記憶するようにしてもよいことは云うまでも
ない。
For each phrase thus divided, each event data (note on / off event data) constituting the phrase is converted into tablature format data. In the present embodiment, conversion to tablature format data refers to source track (channels 0 to 8).
The note-on / off event data of any one of the channels is assigned to any of the channels 10 to 15 (each channel corresponds to the first to sixth strings of the 6-line score in the tablature, respectively) In the tone generator circuit 15, the MIDI channels 10 to 15 are assigned to slightly different timbres corresponding to the first to sixth strings of the guitar, respectively. That is, conversion to tablature format data in the present embodiment is to determine a string to be pressed by the player. When the tablature is actually displayed using the converted tablature format data, the tablature is represented by a string and a fret number to be pressed by the player. The fret number must be calculated from the note number because the note number is not converted to the fret number. In this way, the note number is left as it is, while the fret number can be easily calculated from the note number, but the converted data is not only used for tablature display. This is because holding the number as it is is more versatile.
However, it is needless to say that the note number may be converted to a corresponding fret number and stored.

【0056】このように各ノートイベントをギターの1
弦〜6弦に対応した6つのMIDIチャンネルに振り分
け、該振り分けた各ノートイベントを、音源回路15の
それぞれギターの1弦〜6弦に対応した若干異なる音色
が設定された6つのMIDIチャンネルへと供給する
と、実際のギター演奏に近い自然な演奏となる。
As described above, each note event is assigned to one of the guitars.
The notes are distributed to six MIDI channels corresponding to strings 6 to 6, and each of the distributed note events is assigned to six MIDI channels in the tone generator circuit 15 which have slightly different timbres corresponding to guitars 1 to 6 respectively. When supplied, it becomes a natural performance close to actual guitar performance.

【0057】図3は、本実施の形態の演奏データ変換装
置で用いられるパラメータの一例を示す図である。
FIG. 3 is a diagram showing an example of parameters used in the performance data converter of the present embodiment.

【0058】本実施の形態の演奏データ変換装置は、主
として、通常の演奏データ(図2(a))をタブ譜形式
の演奏データ(図2(b))に変換するタブ譜変換処理
とこの変換後の演奏データに表情付けを行う表情付け変
換処理の2種類の異なった処理を独立して行うように構
成されているので、パラメータも、図3に示すように、
「タブ譜変換用パラメータ」と「表情付けパラメータ」
の2種類のパラメータにより構成されている。
The performance data conversion apparatus according to the present embodiment mainly performs a tablature conversion process for converting normal performance data (FIG. 2A) to performance data in a tablature format (FIG. 2B). Since two different types of expression conversion processing for applying an expression to the converted performance data are performed independently, parameters are also set as shown in FIG.
"Tab staff conversion parameters" and "Expression parameters"
And two types of parameters.

【0059】タブ譜変換用パラメータは、前記ソースト
ラックの番号を指定するソーストラックパラメータST
N、フレーズ区切りを判別するためのクロック数(時間
間隔)を指定するフレーズ区切り時間間隔パラメータP
IC、フレット番号の上限値を指定する最高フレット番
号パラメータUFN、現在処理の対象となっているフレ
ーズ(以下、「対象フレーズ」という)に対する候補ポ
ジション(この詳細は、図8〜12で後述する)をサー
チしたときに、複数の候補ポジションがサーチされ、そ
のうち1つを決定する場合に、直前のフレーズにおいて
決定されたポジションを参照して対象フレーズのポジシ
ョンを決定するか否かを指定する前ポジション参照パラ
メータRTPP、タブ譜変換すべき演奏データ(ソース
トラックのノートオン/オフイベントデータ)がフレッ
トボード上に乗らない(収まらない)データであって
も、そのすべてをフレットボード上に強制的に配置する
か否かを指定する強制配置パラメータFANOF等によ
り構成されている。
The tablature conversion parameter is a source track parameter ST for designating the source track number.
N, a phrase separation time interval parameter P for specifying the number of clocks (time interval) for determining the phrase separation
IC, the highest fret number parameter UFN that specifies the upper limit of the fret number, and candidate positions for the phrase currently being processed (hereinafter referred to as “target phrase”) (the details will be described later with reference to FIGS. 8 to 12). When searching for, a plurality of candidate positions are searched, and when one of them is determined, the previous position that specifies whether to determine the position of the target phrase with reference to the position determined in the previous phrase Even if reference parameter RTPP and performance data to be converted to tablature (note on / off event data of source track) are data that does not fit on the fretboard (cannot fit), all of them are forcibly placed on the fretboard. It is constituted by a forced arrangement parameter FANOF or the like for designating whether or not to perform.

【0060】表情付けパラメータは、和音フレーズのよ
うに、複数のノートイベントデータの発音開始時刻が略
同一の場合に、その各発音開始時点を所定時間だけずら
せるコードクオンタイズ処理を行うか否かを指定するコ
ードクオンタイズパラメータCQ、この所定時間を決定
するためのノートオンシフト幅を指定するノートオンシ
フト幅パラメータOSW、3種類のコードストローク、
すなわちアップストローク、ダウンストロークおよびオ
ルタネートのうちいずれのストロークが選択されている
かをモードで示すパラメータ(以下、「ストロークモー
ド」という)S-MODE等により構成されている。な
お、上述したパラメータ以外にも、表情付けパラメータ
として使用するパラメータはあるが、そのパラメータに
ついては、実際に使用する時点で説明し、ここでの説明
は省略する。
The expression expression parameter determines whether or not to perform a chord quantization process that shifts each sound generation start time by a predetermined time when a plurality of note event data have substantially the same sound generation start time such as a chord phrase. A code quantization parameter CQ to be specified, a note-on shift width parameter OSW to specify a note-on shift width for determining the predetermined time, three types of code strokes,
That is, it is configured by a parameter (hereinafter, referred to as “stroke mode”) S-MODE indicating which of the upstroke, downstroke, and alternate strokes is selected in the mode. It should be noted that there are other parameters used as expression expression parameters other than the above-mentioned parameters, but these parameters will be described when actually used, and the description thereof will be omitted.

【0061】以上のように構成された演奏データ変換装
置が実行する制御処理を、以下、図4〜31を参照して
説明する。
The control processing executed by the performance data converter configured as described above will be described below with reference to FIGS.

【0062】前述したように、本実施の形態の演奏デー
タ変換装置は、主として「タブ譜変換処理機能」と「表
情付け変換処理機能」の2種類の機能を備えているの
で、各機能をそれぞれ個別に説明する。
As described above, the performance data conversion device of the present embodiment mainly has two types of functions, namely, a "tablature conversion processing function" and a "expression conversion processing function". It will be described individually.

【0063】まず、図4〜12を参照して、「タブ譜変
換処理機能」を実現する制御処理を説明する。
First, a control process for realizing the "tab notation conversion function" will be described with reference to FIGS.

【0064】図4は、タブ譜変換処理サブルーチンの手
順を示すフローチャートであり、本タブ変換処理は、前
記CPU5が実行するメインルーチン(図示せず)を構
成する一部の処理である。
FIG. 4 is a flowchart showing the procedure of the tablature conversion processing subroutine. This tab conversion processing is a part of the processing constituting a main routine (not shown) executed by the CPU 5.

【0065】ユーザが、たとえば前記パネルスイッチ2
のタブ譜変換スイッチ(図示せず)を押下すると、本タ
ブ譜変換処理サブルーチンが呼び出され、実行される。
なお、本タブ譜変換処理サブルーチンにCPU5の制御
が移行する前に、ユーザの指示に応じてタブ譜変換の対
象となる演奏データファイルが前記HDD11のハード
ディスクから読み出され、前記RAM7の所定位置に確
保された演奏データ格納領域にロードされているものと
する。
When the user operates the panel switch 2
When a tablature conversion switch (not shown) is pressed, the tablature conversion processing subroutine is called and executed.
Before the control of the CPU 5 shifts to the tablature conversion processing subroutine, the performance data file to be converted to the tablature is read from the hard disk of the HDD 11 in accordance with a user's instruction, and is stored in a predetermined position of the RAM 7. It is assumed that the music data has been loaded into the secured performance data storage area.

【0066】図4において、まず、ユーザが前記タブ譜
変換用パラメータから所望のパラメータを選択し、その
値を変更指示すると、当該パラメータはその指示された
値に設定される(ステップS1)。ここで、タブ譜変換
用パラメータを含む前記図3のパラメータ群は、その初
期値が前記ROM6またはHDD11のハードディスク
に予め格納されており、ユーザが、たとえば前記パネル
スイッチ2の電源スイッチ(図示せず)を押下すると、
この初期値が読み出され、RAM7の所定位置に確保さ
れたパラメータ格納領域にロードされる。したがって、
このステップS1のパラメータ設定処理では、ユーザが
初期設定されたパラメータ値を変更したい場合にのみ、
その設定を行うようにする。
In FIG. 4, first, when the user selects a desired parameter from the tablature conversion parameters and instructs to change its value, the parameter is set to the instructed value (step S1). Here, the initial values of the parameter group of FIG. 3 including the tablature conversion parameters are stored in the ROM 6 or the hard disk of the HDD 11 in advance, and the user can use, for example, a power switch (not shown) of the panel switch 2. ) Is pressed,
This initial value is read out and loaded into the parameter storage area secured at a predetermined position in the RAM 7. Therefore,
In the parameter setting process of step S1, only when the user wants to change the parameter value which is initially set,
Make that setting.

【0067】次に、前記演奏データ格納領域にロードさ
れた元演奏データをフレーズ分割するために、当該元演
奏データ中の各フレーズをサーチするフレーズサーチ処
理サブルーチン(その詳細は、図5を用いて後述する)
を実行する(ステップS2)。
Next, in order to divide the original performance data loaded in the performance data storage area into phrases, a phrase search processing subroutine for searching each phrase in the original performance data (the details thereof will be described with reference to FIG. 5). (Described later)
Is executed (step S2).

【0068】さらに、ステップS2でサーチされ、分割
された各フレーズ毎に、その中に含まれるノートオン/
オフイベントデータが入る前記ポジション(前述のよう
に、候補ポジションが複数個ある場合にはそのうちの1
つ)を決定するとともに、該各ノートオン/オフイベン
トデータをそれぞれ前記チャンネル10〜15のうちい
ずれかのチャンネルに振り分ける(割り当てる)ポジシ
ョン決定、振り分け処理サブルーチン(その詳細は、図
8を用いて後述する)を実行した(ステップS3)後
に、本タブ譜変換処理サブルーチンを終了する。
Further, for each phrase searched and divided in step S2, the note-on /
The position where the off-event data is entered (as described above, if there are a plurality of candidate positions, one of
8), and assigns (assigns) the note on / off event data to any one of the channels 10 to 15, respectively. A position determination and assignment processing subroutine (the details will be described later with reference to FIG. 8) Is performed (step S3), and the main tablature conversion processing subroutine ends.

【0069】図5は、上記フレーズサーチ処理サブルー
チンの詳細な手順を示すフローチャートである。
FIG. 5 is a flowchart showing a detailed procedure of the phrase search processing subroutine.

【0070】同図において、まず、ソーストラックを選
択する(ステップS11)。この処理は、前記ソースト
ラックパラメータSTNの値に応じて行われる。すなわ
ち、前記ロードされた演奏データが複数のチャンネル分
のデータである場合には、その中から、ソーストラック
パラメータSTNにより指定されたトラック(チャンネ
ル)が選択され、この選択されたチャンネルの演奏デー
タ(ノートオン/オフイベントデータ)に対して、以下
の処理が実行される。
In the figure, first, a source track is selected (step S11). This process is performed according to the value of the source track parameter STN. That is, if the loaded performance data is data for a plurality of channels, a track (channel) specified by the source track parameter STN is selected from the data, and the performance data ( The following processing is executed for the note-on / off event data).

【0071】次に、演奏データを1つ読み出し(ステッ
プS12)、該読み出された演奏データがノートオンイ
ベントデータであるか否かを判別する(ステップS1
3)。
Next, one piece of performance data is read (step S12), and it is determined whether or not the read performance data is note-on event data (step S1).
3).

【0072】ステップS13で、読み出された演奏デー
タがノートオンイベントデータのときには、図6を用い
て後述するノートンオン処理サブルーチンを実行した
(ステップS14)後に、前記ステップS12に戻る一
方、読み出された演奏データがノートオンイベントデー
タでないときにはステップS15に進む。
In step S13, if the read performance data is note-on event data, a note-on processing subroutine described later with reference to FIG. 6 is executed (step S14), and then the process returns to step S12 while reading. If the performed performance data is not note-on event data, the process proceeds to step S15.

【0073】ステップS15では、読み出された演奏デ
ータがノートオフイベントデータであるか否かを判別
し、ノートオフイベントデータのときには、図7を用い
て後述するノートオフ処理サブルーチンを実行した(ス
テップS16)後に、前記ステップS12に戻る一方、
ノートオフイベントデータでないときにはステップS1
7に進む。
In step S15, it is determined whether or not the read performance data is note-off event data. If the data is note-off event data, a note-off processing subroutine described later with reference to FIG. 7 is executed (step S15). After step S16), the process returns to step S12.
If it is not note-off event data, step S1
Go to 7.

【0074】ステップS17では、読み出された演奏デ
ータが前記ファイルエンドデータであるか否かを判別
し、ファイルエンドデータでないとき、すなわち前記タ
イミングデータまたはノートオン/オフイベント以外の
イベントデータ(たとえばピッチベンドイベントデータ
等)であるときには何もせずに前記ステップS12に戻
る一方、ファイルエンドデータのときには本フレーズサ
ーチ処理サブルーチンを終了する。
In step S17, it is determined whether or not the read performance data is the file end data. If the read performance data is not the file end data, that is, event data other than the timing data or the note on / off event (for example, pitch bend) If the data is event data, the process returns to step S12 without doing anything, while if the data is file end data, the present phrase search processing subroutine ends.

【0075】図6は、前記ステップS14のノートオン
処理サブルーチンの詳細な手順を示すフローチャートで
ある。
FIG. 6 is a flowchart showing a detailed procedure of the note-on processing subroutine of step S14.

【0076】本ノートオン処理および次に説明するノー
トオフ処理は、下記のフレーズ区切り条件に基づいて、
対象となる演奏データ(前記演奏データ格納領域にロー
ドされた演奏データ)を「単音フレーズ」または「和音
フレーズ」に分割する処理を行っている。
The note-on process and the note-off process described next are based on the following phrase delimiter conditions.
The target performance data (the performance data loaded in the performance data storage area) is divided into "single phrase" or "chord phrase".

【0077】1)単音フレーズの始まりと判別する条件 単音フレーズにおいて無音区間が所定時間(たとえ
ば、前記フレーズ区切り時間間隔パラメータPICで指
定された時間)以上経過した後に最初にノートオンがあ
ったとき 和音フレーズが終了した後に最初にノートオンがあっ
たとき 2)単音フレーズの終わりと判別する条件 単音フレーズにおいて無音区間が所定時間(たとえ
ば、前記フレーズ区切り時間間隔パラメータPICで指
定された時間)以上経過したとき 単音フレーズにおいて複音になったとき 3)和音フレーズの始まりと判別する条件 単音フレーズにおいて複音になったとき 4)和音フレーズの終わりと判別する条件 和音フレーズにおいてすべてのノートがオフになった
とき 図6において、まず、他のノートが継続中か否か、すな
わち本処理の対象ノートオンイベントデータが読み出さ
れる前に、他のノートオンイベントデータが読み出さ
れ、そのノートオンイベントデータに対応するノートオ
フイベントデータが読み出されていないか否かを判別し
(ステップS21)、他のノートが継続中でないときに
はステップS22に進む一方、他のノートが継続中のと
きにはステップS27に進む。
1) Conditions for judging the beginning of a single-tone phrase When a note-on occurs for the first time after a silent period of a single-tone phrase has elapsed for a predetermined time (for example, the time specified by the phrase delimiter time interval parameter PIC). When there is a note-on for the first time after the end of the phrase 2) Conditions for determining the end of the single-tone phrase The silent interval of the single-tone phrase has elapsed for a predetermined time (for example, the time specified by the phrase separation time interval parameter PIC). When a single-tone phrase becomes double-tone 3) Conditions for judging the beginning of a chord phrase Four-tone for a single-tone phrase 4) Conditions for judging the end of a chord phrase When all notes in a chord phrase are turned off Figure In 6, first, other notes are ongoing Whether or not another note-on event data is read before the target note-on event data of this processing is read, and whether or not note-off event data corresponding to the note-on event data is read It is determined whether or not another note is being continued (step S21). If another note is not ongoing, the process proceeds to step S22. If another note is ongoing, the process proceeds to step S27.

【0078】ステップS22では、直前に読み出された
ノートのノートオフタイミングから、前記図3のフレー
ズ区切り時間間隔パラメータPICによって示されるク
ロック数(以下、「時間PIC」という)経過したか否
かを判別する。なお、本タブ譜変換処理は、演奏データ
の再生処理と異なり、演奏データを実時間で1つずつ読
み出して行うのではなく、CPU5の能力に応じた速度
で行うため、時間PIC経過したか否かの判別は、実際
の経過時間に基づいて行っているわけではない。したが
って、経過時間は、タイミングデータを読み出す毎に、
その直前に読み出されたノートオン/オフイベントデー
タに応じて、当該タイミングデータの値を加算または減
算して算出する。
In step S22, it is determined whether or not the number of clocks (hereinafter referred to as "time PIC") indicated by the phrase delimiter time interval parameter PIC in FIG. 3 has elapsed from the note-off timing of the note read immediately before. Determine. Unlike the performance data reproduction process, the tablature conversion process is not performed by reading performance data one by one in real time, but is performed at a speed corresponding to the capability of the CPU 5. This determination is not made based on the actual elapsed time. Therefore, the elapsed time is calculated every time the timing data is read.
The value of the timing data is calculated by adding or subtracting the value in accordance with the note-on / off event data read immediately before.

【0079】前記ステップS22の判別で、直前に読み
出されたノートのノートオフタイミングから時間PIC
経過したときには、読み出されたノートオンイベントデ
ータが単音フレーズ中のものであるか否か、すなわち前
記「単音フレーズ始」データが挿入されたフレーズ中の
ものであるか否かを判別する(ステップS23)。
In the discrimination in step S22, the time PIC from the note-off timing of the note read immediately before is set.
When the time has elapsed, it is determined whether or not the read note-on event data is in a single tone phrase, that is, whether or not the “single phrase start” data is in the inserted phrase (step S23).

【0080】ステップS23で、読み出されたノートオ
ンイベントデータが単音フレーズ中のものであるときに
は、このノートオンイベントデータのノートオンタイミ
ング、すなわちこのノートオンイベントデータの直前に
前記「単音フレーズ終」データを挿入する(ステップS
24)一方、単音フレーズ中のものでないときには、ス
テップS24をスキップしてステップS25に進む。す
なわち、ステップS24に処理が移行するときには、前
記フレーズ区切り条件が満たされているため、当該ノ
ートオンの直前は「単音フレーズの終わり」と判別され
る。
In step S23, if the read note-on event data is in a single-tone phrase, the note-on timing of the note-on event data, that is, the "single-tone phrase end" immediately before the note-on event data is set. Insert data (Step S
24) On the other hand, if it is not in the single tone phrase, step S24 is skipped and the process proceeds to step S25. That is, when the process proceeds to step S24, the phrase delimiter condition is satisfied, so that immediately before the note-on, it is determined that "the end of a single sound phrase".

【0081】ステップS25では、このノートオンイベ
ントデータのノートオンタイミングに「単音フレーズ
始」データを挿入した後に、本ノートオン処理サブルー
チンを終了する。すなわち、ステップS22からステッ
プS23を経てステップS25に処理が移行するときに
は、前記フレーズ区切り条件が満たされているため、
当該ノートオンは「単音フレーズの始まり」と判別され
る。
In step S25, after the "single-tone phrase start" data is inserted at the note-on timing of the note-on event data, the present note-on processing subroutine ends. That is, when the process proceeds from step S22 to step S25 via step S23, since the phrase delimiting condition is satisfied,
The note-on is determined to be "the beginning of a single-sound phrase".

【0082】一方、ステップS22の判別で、直前に読
み出されたノートのノートオフタイミングから時間PI
C経過していないときには、前回判別されたフレーズは
和音フレーズか否かを判別する(ステップS26)。
On the other hand, in the determination of step S22, the time PI from the note-off timing of the note read immediately before is determined.
If C has not elapsed, it is determined whether the previously determined phrase is a chord phrase (step S26).

【0083】ステップS26で、前回判別されたフレー
ズが和音フレーズのときには前記ステップS25に進む
一方、前回判別されたフレーズが和音フレーズでないと
きには本ノートオン処理サブルーチンを終了する。すな
わち、ステップS22からステップS26を経てステッ
プS25に処理が移行するときには、前記フレーズ区切
り条件が満されているため、当該ノートオンは「単音
フレーズの始まり」と判別される。
At step S26, if the previously determined phrase is a chord phrase, the process proceeds to step S25, while if the previously determined phrase is not a chord phrase, the note-on processing subroutine is terminated. That is, when the process proceeds from step S22 to step S25 via step S26, the note-on is determined to be "beginning of a monophonic phrase" because the phrase delimiting condition is satisfied.

【0084】ステップS27では、読み出されたノート
オンイベントデータが和音フレーズ中のものであるか否
か、すなわち前記「和音フレーズ始」データが挿入され
たフレーズ中のものであるか否かを判別し、和音フレー
ズ中のものであるときには直ちに本ノートオン処理サブ
ルーチンを終了する一方、和音フレーズ中のものでない
ときにはステップS28に進む。
In step S27, it is determined whether or not the read note-on event data is in a chord phrase, that is, whether or not the "chord phrase start" data is in the inserted phrase. If it is within a chord phrase, the note-on processing subroutine is immediately terminated. If it is not within a chord phrase, the process proceeds to step S28.

【0085】ステップS28では、直前に読み出された
ノートのノートオンタイミングに「単音フレーズ始」デ
ータが挿入されているか否かを判別し、「単音フレーズ
始」データが挿入されているときには、該「単音フレー
ズ始」データを「和音フレーズ始」データに書き換えた
(ステップS29)後に、本ノートオン処理サブルーチ
ンを終了する一方、「単音フレーズ始」データが挿入さ
れていないときには、当該ノートオンイベントデータの
ノートオンタイミングに「単音フレーズ終」データおよ
び「和音フレーズ始」データをこの順序で挿入した(ス
テップS30)後に、本ノートオン処理サブルーチンを
終了する。
In step S28, it is determined whether or not the "single phrase start" data is inserted at the note-on timing of the note read immediately before. After rewriting the "single phrase start" data to the "chord phrase start" data (step S29), the note-on processing subroutine is terminated. On the other hand, if the "single phrase start" data is not inserted, the note-on event data After the "single phrase end" data and the "chord phrase start" data are inserted in this order at the note-on timing (step S30), the note-on processing subroutine ends.

【0086】ここで、ステップS28で、「単音フレー
ズ始」データが挿入されているか否かを判別するのは、
本実施の形態では、フレーズの先頭には、当該フレーズ
の種類に拘わらず、最初は「単音フレーズ始」データが
常に挿入され(前記ステップS25参照)、その後、当
該フレーズが和音フレーズの条件を満たすことが分かっ
た時点で、この「単音フレーズ始」データを「和音フレ
ーズ始」データに書き換えるように構成したからであ
る。
Here, in step S28, it is determined whether or not the "single phrase start" data is inserted.
In the present embodiment, at the beginning of a phrase, "single-tone phrase start" data is always inserted at first regardless of the type of the phrase (see step S25), and then the phrase satisfies the condition of a chord phrase. This is because, at the time when it is understood, this "single phrase start" data is rewritten to "chord phrase start" data.

【0087】このように、ステップS29に処理が移行
するときには、前記フレーズ区切り条件が満たされて
いるため、当該ノートオンは「和音フレーズの始まり」
と判別される。また、ステップS30に処理が移行する
ときには、前記フレーズ区切り条件、が満たされて
いるため、当該ノートオンの直前は「単音フレーズの終
わり」と判別されるとともに、当該ノートオンは「和音
フレーズの始まり」と判別される。
As described above, when the processing shifts to step S29, the note-on is "the beginning of a chord phrase" because the phrase delimiter condition is satisfied.
Is determined. When the process proceeds to step S30, the phrase separation condition is satisfied, so that immediately before the note-on is determined to be “end of a single-tone phrase”, and the note-on is determined as “the beginning of a chord phrase”. Is determined.

【0088】図7は、前記ステップS16のノートオフ
処理サブルーチンの詳細な手順を示すフローチャートで
ある。
FIG. 7 is a flowchart showing a detailed procedure of the note-off processing subroutine of the step S16.

【0089】同図において、まず、読み出されたノート
オフイベントデータが和音フレーズ中のものであるか否
かを判別し(ステップS41)、和音フレーズ中のもの
でないときには、直ちに本ノートオフ処理サブルーチン
を終了する一方、和音フレーズ中のものであるときに
は、前記21と同様にして、他のノートが継続中か否か
を判別する(ステップS42)。
In the figure, first, it is determined whether or not the read out note-off event data is for a chord phrase (step S41). On the other hand, if it is within the chord phrase, it is determined whether another note is continuing or not in the same manner as in 21 (step S42).

【0090】ステップS42で、他のノートが継続中の
ときには、直ちに本ノートオフ処理サブルーチンを終了
する一方、他のノートが継続中でないときには、前記読
み出されたノートオフイベントデータのノートオフタイ
ミングに「和音フレーズ終」データを挿入した(ステッ
プS43)後に、本ノートオフ処理サブルーチンを終了
する。すなわち、ステップS43に処理が移行するとき
には、前記フレーズ区切り条件が満たされているた
め、当該ノートオンは「和音フレーズの終わり」と判別
される。
In step S42, when another note is continuing, the present note-off processing subroutine is immediately terminated. On the other hand, when another note is not continuing, the note-off timing of the read out note-off event data is set. After inserting the "chord phrase end" data (step S43), the present note-off processing subroutine ends. That is, when the process proceeds to step S43, the note-on is determined to be "end of the chord phrase" because the phrase delimiter condition is satisfied.

【0091】図8は、前記図4のステップS3のポジシ
ョン決定、振り分け処理サブルーチンの詳細な手順を示
すフローチャートである。
FIG. 8 is a flowchart showing a detailed procedure of the position determination and distribution processing subroutine in step S3 of FIG.

【0092】図8において、まず、1フレーズ分の演奏
データを読み出す(ステップS51)。上述したよう
に、演奏データは単音フレーズおよび和音フレーズの2
種類のフレーズに分割され、各フレーズは「フレーズ
始」データおよび「フレーズ終」データにより区切られ
ているため、このステップS51の処理は、「フレーズ
始」データおよびその直後の「フレーズ終」データをサ
ーチし、この両データ間のすべてのノートオン/オフイ
ベントデータを読み出すことによってなされる。
In FIG. 8, first, performance data for one phrase is read (step S51). As described above, the performance data is composed of a monotone phrase and a chord phrase.
Since each phrase is divided into “phrase start” data and “phrase end” data, the processing in step S51 is performed by dividing “phrase start” data and “phrase end” data immediately thereafter. This is done by searching and reading out all the note-on / off event data between these data.

【0093】次に、対象フレーズが和音フレーズである
か否かを判別し(ステップS52)、和音フレーズでな
いとき、すなわち単音フレーズのときには、図9を用い
て後述する単音フレーズ処理サブルーチンを実行する
(ステップS53)一方、和音フレーズのときには、図
10を用いて後述する和音フレーズ処理サブルーチンを
実行する(ステップS54)。
Next, it is determined whether or not the target phrase is a chord phrase (step S52). If it is not a chord phrase, that is, if it is a single tone phrase, a single tone phrase processing subroutine described later with reference to FIG. 9 is executed (FIG. 9). (Step S53) On the other hand, if it is a chord phrase, a chord phrase processing subroutine described later with reference to FIG. 10 is executed (step S54).

【0094】続くステップS55では、最後のフレーズ
まで上記処理を行ったか否かを判別し、まだ処理すべき
フレーズが残っているときには前記ステップS51に戻
って前述の処理を実行する一方、処理すべきフレーズが
残っていないときには、本ポジション決定、振り分け処
理サブルーチンを終了する。
In a succeeding step S55, it is determined whether or not the above-described processing has been performed up to the last phrase. If there is a phrase to be processed still, the flow returns to the step S51 to execute the above-mentioned processing, while performing the processing. If no phrase remains, the present position determination and distribution processing subroutine ends.

【0095】このように、本実施の形態では、分割され
たフレーズを1単位として、候補ポジションの決定およ
びチャンネルの振り分け行われる。
As described above, in the present embodiment, candidate positions are determined and channels are allocated with the divided phrases as one unit.

【0096】図9は、上記ステップS53の単音フレー
ズ処理サブルーチンの詳細な手順を示すフローチャート
である。
FIG. 9 is a flowchart showing a detailed procedure of the single tone phrase processing subroutine in step S53.

【0097】同図において、まず、読み出されたフレー
ズ中のすべてのノートが入る候補ポジションをポジショ
ン1〜UFN−3の間で1個または複数個サーチする
(ステップS61)。
In the figure, first, one or a plurality of candidate positions including all the notes in the read phrase are searched from positions 1 to UFN-3 (step S61).

【0098】図12は、フレットボードの一例を示す図
であり、候補ポジションを説明するためのものである。
FIG. 12 is a diagram showing an example of a fretboard, for explaining candidate positions.

【0099】同図中、垂直方向の線分f0〜fUFNはフ
レットを示し(ただし、f0については開放を意味す
る)、水平方向の線分g1〜g6は弦を示している。フ
レットは、前記図3の最高フレット番号パラメータUF
Nで示される個数あり、前述したように、最高フレット
番号パラメータUFNの値は、ユーザが任意に設定でき
る。
In the figure, vertical line segments f0 to fUFN indicate frets (however, f0 means open), and horizontal line segments g1 to g6 indicate chords. The fret is the highest fret number parameter UF in FIG.
N, and as described above, the value of the highest fret number parameter UFN can be arbitrarily set by the user.

【0100】フレットは、最大4本の指で押さえるた
め、各指がそれぞれ別のフレットを押さえる場合があ
り、したがって、候補ポジションは、6弦かつ4フレッ
トを1単位として構成される(ただし、候補ポジション
1のみ開放位置を含めて5フレットを1単位とする)。
このため、候補ポジションの個数は、UFN−3個とな
る。
Since the fret is pressed with a maximum of four fingers, each finger may press a different fret. Therefore, the candidate position is configured with 6 strings and 4 frets as one unit. (Only position 1 includes the open position and the 5th fret is one unit.)
Therefore, the number of candidate positions is UFN-3.

【0101】なお、1つの単音フレーズを演奏する際
に、手の位置を多少フレット方向にスライドさせて演奏
することもできるため、候補ポジションを5フレット以
上を1単位として構成するようにしてもよい。
When one single-sound phrase is played, the position of the hand can be slid slightly in the direction of the fret, so that the candidate position may be constituted by five or more fret units. .

【0102】また、すべての弦について同一フレット番
号からなるものに限らず、各弦毎に多少フレット番号が
異なるようなポジションを設定してもよい。
Further, the position is not limited to the one having the same fret number for all the strings, and a position where the fret number is slightly different for each string may be set.

【0103】図9に戻り、候補ポジションがサーチされ
たか否かを判別し(ステップS62)、候補ポジション
がサーチされなかったときには、前記読み出された全ノ
ートから最高音および最低音を除外し、残りのノートに
対して再度候補ポジションをサーチし(ステップS6
3)、前記ステップS62に戻る。なお、最高音または
最低音のどちらか一方のみを除外するようにしてもよ
い。
Returning to FIG. 9, it is determined whether or not the candidate position has been searched (step S62). If the candidate position has not been searched, the highest note and the lowest note are excluded from all the read notes. The candidate position is searched again for the remaining notes (step S6).
3) Return to step S62. Note that only one of the highest sound and the lowest sound may be excluded.

【0104】一方、ステップS62で、候補ポジション
がサーチされたときにはステップS64に進み、前記前
ポジション参照パラメータRTPPの値が“1”である
か否かを判別する。ここで、前ポジション参照パラメー
タRTPPは、フラグと同様に、“0”または“1”の
いずれかの値を採り、“1”が設定されている場合に
は、直前のフレーズにおいて決定されたポジションを参
照して対象フレーズのポジションが決定される。
On the other hand, if a candidate position has been searched in step S62, the flow advances to step S64 to determine whether or not the value of the previous position reference parameter RTPP is "1". Here, similarly to the flag, the previous position reference parameter RTPP takes a value of either “0” or “1”, and when “1” is set, the position determined in the immediately preceding phrase is set. , The position of the target phrase is determined.

【0105】ステップS64で、RTPP=1のときに
は、前回ポジション、すなわち直前のフレーズにおいて
決定されたポジションに最も近いポジションを選択する
(ステップS65)。ただし、対象フレーズが曲の先頭
に位置する場合には、最も音高が低いポジションを選択
する。
If it is determined in step S64 that RTPP = 1, the previous position, that is, the position closest to the position determined in the immediately preceding phrase is selected (step S65). However, if the target phrase is located at the beginning of the song, the position with the lowest pitch is selected.

【0106】一方、ステップS64で、RTPP=0の
ときには、最も音高が低いポジションを選択する(ステ
ップS66)。
On the other hand, if RTPP = 0 in step S64, the position with the lowest pitch is selected (step S66).

【0107】なお、ステップS65およびS66の処理
は、候補ポジションが複数個サーチされたときにのみ意
味を持つことは云うまでもない。
It goes without saying that the processing in steps S65 and S66 is meaningful only when a plurality of candidate positions have been searched.

【0108】続くステップS67では、対象フレーズに
含まれる全ノートオン/オフイベントデータを前記選択
された候補ポジション中の弦およびフレットに振り分け
るノート振り分け処理サブルーチンを実行した(ステッ
プS67)後に、本単音フレーズ処理サブルーチンを終
了する。
In the following step S67, a note distribution processing subroutine for distributing all the note on / off event data included in the target phrase to the strings and frets in the selected candidate positions is executed (step S67), and thereafter, the monophonic phrase is executed. The processing subroutine ends.

【0109】なお、本単音フレーズ処理サブルーチンで
は、ステップS62およびS63で、1フレーズ内のノ
ートが1つの候補ポジション内に入りきらなかった場合
には、その最高音および最低音をそれぞれ除外し、残り
のノートに対して再度候補ポジションをサーチするよう
にしたが、これに限らず、このフレーズをさらに分割し
て、別々に候補ポジションをサーチするようにしてもよ
い。
In the present single-tone phrase processing subroutine, if the notes in one phrase do not fit in one candidate position in steps S62 and S63, the highest and lowest notes are excluded, and the remaining notes are removed. Although the candidate position is searched again for the note No., the present invention is not limited to this, and the phrase may be further divided and the candidate position may be searched separately.

【0110】図10は、前記ステップS54の和音フレ
ーズ処理サブルーチンの詳細な手順を示すフローチャー
トである。
FIG. 10 is a flowchart showing a detailed procedure of the chord phrase processing subroutine of step S54.

【0111】同図において、まず、読み出されたすべて
のノート、すなわちノートオン/オフイベントデータを
音高順(たとえば低い順)に並び替え、前記ステップS
61と同様にして、そのすべての音高が入る候補ポジシ
ョンをポジション1〜UFN−3の間で1個または複数
個サーチする。
In the figure, first, all the read notes, that is, note on / off event data, are rearranged in the order of pitch (for example, in the order of lowest).
In the same manner as in step 61, one or more candidate positions including all the pitches are searched among the positions 1 to UFN-3.

【0112】続くステップS72〜S75の処理は、そ
れぞれ前記ステップS64〜67の処理と同様であるの
で、その説明を省略する。
The subsequent steps S72 to S75 are the same as steps S64 to S67, respectively, and will not be described.

【0113】なお、本和音フレーズ処理サブルーチン
は、前記単音フレーズ処理サブルーチンに比較して、候
補ポジションが見つからなかった場合の処理を省略して
いるが、これは、和音フレーズを構成するノートをすべ
て含む候補ポジションは必ず存在するという前提に立っ
ているからであり、この前提が常に成り立つとは限らな
いときには、単音フレーズ処理サブルーチンと同じよう
に、候補ポジションが見つからなかった場合の処理を追
加すればよい。
The chord phrase processing subroutine omits the processing when no candidate position is found, as compared with the single-tone phrase processing subroutine, but includes all notes constituting the chord phrase. This is because it is based on the assumption that there is always a candidate position, and if this assumption is not always true, it is sufficient to add processing when no candidate position is found, as in the monophone phrase processing subroutine. .

【0114】図11は、前記ステップS67およびS7
5のノート振り分け処理サブルーチンの詳細な手順を示
すフローチャートである。
FIG. 11 shows steps S67 and S7.
15 is a flowchart illustrating a detailed procedure of a note distribution processing subroutine of No. 5;

【0115】同図において、まず、対象フレーズ内のノ
ートデータ、すなわちノートオン/オフイベントデータ
を1つ読み出す(ステップS81)。
In the figure, first, one note data in the target phrase, that is, one note on / off event data is read (step S81).

【0116】次に、該ノート、すなわち該読み出された
ノートオン/オフイベントデータの音高は前記選択され
た候補ポジション内に入るか否かを判別する(ステップ
S82)。ここで、候補ポジション内に入るか否かの判
別を行うのは、前記図9の単音フレーズ処理サブルーチ
ンのステップS63で、最高音および最低音を除外して
候補ポジションがサーチされた場合があるからである。
Next, it is determined whether or not the note, that is, the pitch of the read note on / off event data falls within the selected candidate position (step S82). Here, it is determined whether or not the candidate position is included in the candidate position because the candidate position is searched in step S63 of the single-tone phrase processing subroutine of FIG. 9 excluding the highest sound and the lowest sound. It is.

【0117】ステップS82で、対象ノートが前記選択
された候補ポジションに入るときには、その候補ポジシ
ョンに基づいて、該ノートが位置する弦およびフレット
位置を決定し、該決定された弦に基づいて各チャンネル
に振り分ける、すなわち候補ポジションの中において、
対象ノートが何弦の何フレットに対応するかをテーブル
参照や演奏等により求め、該決定された弦に対応するチ
ャンネルを決定する(ステップS83)。なお、ポジシ
ョン1のみ2弦の最低フレット(f0)と3弦の最高フ
レット(f4)の音は同一であるので、このノートにつ
いては弦およびフレットが一義的には決まらないが、そ
のフレーズ内の他の音の弦およびフレットとの関係か
ら、より自然に演奏できる方を選択すればよい。他のノ
ートについては弦とフレットは一義的に決まる。このよ
うにして決定された弦が、たとえば、前記図12の弦g
1である場合にはチャンネル10に振り分けられ、弦g
3である場合にはチャンネル12に振り分けられる。
In step S82, when the target note enters the selected candidate position, the string and fret position where the note is located are determined based on the candidate position, and each channel is determined based on the determined string. , That is, among the candidate positions,
The target note corresponds to which string of which string and which fret is determined by referring to a table, playing, or the like, and a channel corresponding to the determined string is determined (step S83). Since only the sound of the lowest fret (f0) of the second string and the highest fret (f4) of the third string are the same in only the position 1, the strings and frets are not uniquely determined for this note. From the relationship between the strings and frets of other sounds, a person who can play more naturally may be selected. For other notes, the strings and frets are uniquely determined. The string determined in this way is, for example, the string g in FIG.
If it is 1, it is assigned to channel 10 and the string g
If it is 3, it is assigned to channel 12.

【0118】一方、ステップS82で、対象ノートが前
記選択された候補ポジション内に入らないときには、該
ノートの音高は6弦(図12の弦g6)を開放した状態
で発音される楽音の音高より低いか、または、1弦(図
12の弦g1)の最高フレット(本実施の形態では、図
12のフレットfUFN)が押さえられた状態で発音され
る楽音の音高より高いか否かを判別する(ステップS8
4)。
On the other hand, when the target note does not fall within the selected candidate position in step S82, the pitch of the note is set to the tone of the musical tone generated with the sixth string (string g6 in FIG. 12) opened. Whether the pitch is lower than the pitch, or higher than the pitch of the musical tone generated when the highest fret of the first string (string g1 in FIG. 12, in this embodiment, fret fUFN in FIG. 12) is pressed. Is determined (step S8).
4).

【0119】ステップS84で、その答えが否定(“N
O”)のときには、候補ポジションに入らない低い音に
ついては弦を6弦(弦g6)とし、高い音については1
弦(弦g1)として、フレット位置を決定し、該決定さ
れた弦に基づいて、前記ステップS83と同様に各チャ
ンネルに振り分けた(ステップS85)後に、ステップ
S89に進む。
In the step S84, the answer is negative (“N
O "), the string is set to the sixth string (string g6) for a low sound that does not enter the candidate position, and 1 for the high sound.
The fret position is determined as the string (string g1), and based on the determined string, it is allocated to each channel in the same manner as in step S83 (step S85), and then the process proceeds to step S89.

【0120】一方、ステップS84で、その答えが肯定
(“YES”)のときには、前記強制配置パラメータF
ANOFの値を判別する(ステップS86)。ここで、
強制配置パラメータFANOFは、前記前ポジション参
照パラメータRTPPと同様に、“0”または“1”の
いずれかの値を採り、“1”が設定されている場合に
は、対象ノートがフレットボード上に乗らないものであ
ったとしても、フレットボード上に強制的に配置され
る。
On the other hand, if the answer is affirmative ("YES") in step S84, the forced placement parameter F
The value of ANOF is determined (step S86). here,
Similar to the previous position reference parameter RTPP, the forced placement parameter FANOF takes either a value of “0” or “1”. If “1” is set, the target note is placed on the fretboard. Even if you do not ride, it will be forcibly placed on the fretboard.

【0121】ステップS86で、強制配置パラメータF
ANOFが“1”のとき、すなわち、たとえば演奏デー
タが弦楽器用に作成されたものではなく、対象ノートを
割り当てる弦およびフレットがない場合であっても、す
べてのノートをフレットボード上に強制的に割り当てる
ように設定されているときには、対象ノートの音高を、
低い音については1オクターブだけ上に、高い音につい
ては下にシフトした(ステップS87)後に、前記ステ
ップS82に戻り、上記候補ポジションに基づいた弦お
よびフレット位置の再サーチを実行する。
In step S86, forced placement parameter F
When ANOF is "1", that is, for example, even if the performance data is not created for a stringed instrument and there is no string and fret to which the target note is assigned, all notes are forcibly placed on the fretboard. When set to assign, the pitch of the target note is
After shifting the low note up by one octave and the high note down (step S87), the process returns to the step S82, and the string and fret positions are searched again based on the candidate positions.

【0122】一方、ステップS86で、強制配置パラメ
ータFANOFが“0”のときには、該ノートに対応す
るノートオン/オフイベントデータを削除した(ステッ
プS88)後に、ステップS89に進む。
On the other hand, if the forced placement parameter FANOF is "0" in step S86, note on / off event data corresponding to the note is deleted (step S88), and the flow advances to step S89.

【0123】ステップS89では、対象フレーズのすべ
てのノートに対して上記ステップS81〜S88の処理
を終了したか否かを判別し、まだ処理すべきノートが残
っているときには前記ステップS81に戻って、前述の
処理を繰り返す一方、すべてのノートに対して処理を終
了したときには、本ノート振り分け処理サブルーチンを
終了する。
In step S89, it is determined whether or not the processing in steps S81 to S88 has been completed for all notes of the target phrase. If there are still notes to be processed, the flow returns to step S81. When the above processing is repeated and the processing is completed for all the notes, the present note distribution processing subroutine ends.

【0124】このようにして、本実施の形態では、演奏
データを単音フレーズおよび和音フレーズの2種類のフ
レーズに分割し、該分割されたフレーズ毎に候補ポジシ
ョンをサーチするように構成したので、演奏内容に応じ
て適切な候補ポジションを検出することができ、これに
より、タブ譜変換を行う際に、1つのフレーズは1つの
ポジションで演奏できるように対象ノートを最適な弦に
振り分けることができる。
As described above, in the present embodiment, the performance data is divided into two types of phrases, a monotone phrase and a chord phrase, and the candidate position is searched for each of the divided phrases. Appropriate candidate positions can be detected in accordance with the content, so that when performing tablature conversion, the target note can be distributed to the optimal string so that one phrase can be played at one position.

【0125】また、候補ポジションが複数個サーチさ
れ、その中からポジションを1つ決定する場合に、ユー
ザの設定に応じて、「最も音高が低いポジション」また
は「前回ポジション参照」のいずれか一方の条件を満た
すポジションを決定するようにしたので、ユーザのポジ
ション選択の自由度を増加させ、これにより操作性を向
上させることができる。このとき、「最も音高が低いポ
ジション」を選択した場合には、和音演奏の際に開放弦
を利用した押さえやすいポジションを決定することがで
きる一方、「前回ポジション参照」を選択した場合に
は、ポジションチェンジの少ない、スムーズな演奏ポジ
ションを決定することができる。
When a plurality of candidate positions are searched and one of the positions is determined, one of the “lowest pitch position” or the “previous position reference” is selected according to the user setting. Since the position that satisfies the above condition is determined, the degree of freedom of the position selection by the user can be increased, and the operability can be improved. At this time, if the “lowest pitch position” is selected, it is possible to determine an easy-to-press position using the open string when playing the chord, while if “reference last position” is selected, It is possible to determine a smooth playing position with few position changes.

【0126】なお、本実施の形態では、「最も音高が低
いポジション」または「前回ポジション参照」のうちい
ずれか一方の選択を、ユーザが自由に設定するように構
成したが、これに限らず、対象フレーズが「和音フレー
ズ」である場合または「単音フレーズ」である場合に応
じて、自動的に選択条件を変更するようにしてもよい。
たとえば、和音演奏時は、最も低いポジションを優先す
る一方、単音演奏時は、前回のポジションを参照する。
これにより、よりスムーズな演奏を行うことができ、和
音演奏と単音演奏が混在していない曲の場合には、特に
有効である。
In the present embodiment, the user is free to set any one of the "position with the lowest pitch" and the "reference to previous position". However, the present invention is not limited to this. Alternatively, the selection condition may be automatically changed depending on whether the target phrase is a "chord phrase" or a "single phrase".
For example, when playing a chord, the lowest position is prioritized, while when playing a single note, the previous position is referred to.
As a result, a smoother performance can be performed, and this is particularly effective for a song in which chord performance and single-tone performance are not mixed.

【0127】また、本実施の形態では、演奏データを単
音フレーズと和音フレーズの2種類のフレーズに分割
し、各フレーズの区切りを示すデータを演奏データ中に
記憶させるようにしたが、これに限らず、他の方法によ
り区切るようにしてもよい。たとえば、演奏データとは
別のトラックに時間データと区切りデータを記憶させる
ようにしてもよい。
Further, in the present embodiment, the performance data is divided into two types of phrases, a single tone phrase and a chord phrase, and data indicating the delimitation of each phrase is stored in the performance data. However, the present invention is not limited to this. Instead, they may be separated by another method. For example, time data and delimiter data may be stored in a track different from the performance data.

【0128】次に、図13〜31を参照して、「表情付
け変換処理機能」を実現する制御処理を説明する。
Next, with reference to FIGS. 13 to 31, control processing for realizing the "expression conversion processing function" will be described.

【0129】図13は、表情付け変換処理サブルーチン
の手順を示すフローチャートであり、本表情付け変換処
理は、前記タブ譜変換処理と同様に、前記CPU5が実
行するメインルーチンを構成する一部の処理である。
FIG. 13 is a flowchart showing the procedure of the expression conversion processing subroutine. This expression conversion processing is a partial processing constituting a main routine executed by the CPU 5 in the same manner as the tablature conversion processing. It is.

【0130】ユーザが、たとえば前記パネルスイッチ2
の表情付け変換スイッチ(図示せず)を押下すると、本
表情付け変換処理サブルーチンが呼び出され、実行され
る。
The user operates the panel switch 2
When the expression conversion switch (not shown) is pressed, the expression conversion processing subroutine is called and executed.

【0131】図13において、まず、前記ステップS1
と同様にして、ユーザが前記図2の表情付けパラメータ
から所望のパラメータを選択し、その値を変更指示する
と、当該パラメータはその指示された値に設定される
(ステップS91)。
In FIG. 13, first, in step S1
Similarly, when the user selects a desired parameter from the expression parameters in FIG. 2 and instructs to change its value, the parameter is set to the instructed value (step S91).

【0132】次に、表情付け変換処理として前記コード
クオンタイズ処理が設定されている場合に、演奏データ
にコードクオンタイズ処理を施すコードクオンタイズ処
理サブルーチンを実行し(ステップS92)、表情付け
変換処理としてポルタメント変換処理が設定されている
場合に、演奏データにポルタメントを施すポルタメント
変換処理サブルーチンを実行する(ステップS93)。
Next, when the code quantization processing is set as the expression conversion processing, a code quantization processing subroutine for applying the code quantization processing to the performance data is executed (step S92), and the portamento conversion is performed as the expression conversion processing. If the processing is set, a portamento conversion processing subroutine for applying portamento to the performance data is executed (step S93).

【0133】次いで、表情付け変換処理として、効果音
(本実施の形態では、フレットノイズ)を挿入する効果
音挿入処理が設定されている場合に、演奏データに当該
効果音を挿入する効果音挿入処理サブルーチンを実行し
(ステップS94)、表情付け変換処理としてアルペジ
オ強調処理が設定されている場合に、演奏データにアル
ペジオ強調を施すアルペジオ強調処理サブルーチンを実
行し(ステップS95)、表情付け変換処理としてベロ
シティランダマイズ処理が設定されている場合に、演奏
データのベロシティをランダムに変更するベロシティラ
ンダマイズ処理サブルーチンを実行した(ステップS9
6)後に、最終フレーズまで処理が進んだか否かを判別
する(ステップS97)。
Next, when a sound effect insertion process for inserting a sound effect (in this embodiment, fret noise) is set as the expression conversion process, the sound effect insertion process for inserting the sound effect into the performance data is performed. A processing subroutine is executed (step S94), and when an arpeggio emphasis processing is set as the expression conversion processing, an arpeggio emphasis processing subroutine for applying the arpeggio emphasis to the performance data is executed (step S95). When the velocity randomizing process is set, a velocity randomizing process subroutine for randomly changing the velocity of the performance data is executed (step S9).
6) Thereafter, it is determined whether or not the processing has proceeded to the final phrase (step S97).

【0134】ステップS97で、最終フレーズまで進ん
でいれば、本表情付け変換処理サブルーチンを終了する
一方、最終フレーズまで進んでいなければ、次のフレー
ズを対象フレーズとし(ステップS98)、ステップS
92へと戻る。
If it is determined in step S97 that the process has proceeded to the last phrase, the expression conversion processing subroutine is terminated. On the other hand, if the process has not progressed to the final phrase, the next phrase is set as the target phrase (step S98).
Return to 92.

【0135】図14は、前記ステップS92のコードク
オンタイズ処理サブルーチンの詳細な手順を示すフロー
チャートである。
FIG. 14 is a flowchart showing a detailed procedure of the code quantization processing subroutine of the step S92.

【0136】同図において、まず、コードクオンタイズ
の設定はオンであるか否かを、前記コードクオンタイズ
パラメータCQの値をチェックすることにより判別する
(ステップS101)。ここで、コードクオンタイズパ
ラメータCQは、前記前ポジション参照パラメータRT
PPと同様にして、“0”または“1”のいずれかの値
を採り、“1”が設定されている場合には、表情付け変
換処理としてコードクオンタイズ処理が設定(オン)さ
れていることを示す。
In the figure, first, it is determined whether or not the setting of the code quantization is ON by checking the value of the code quantization parameter CQ (step S101). Here, the code quantization parameter CQ is equal to the previous position reference parameter RT.
As in the case of the PP, a value of either “0” or “1” is taken, and when “1” is set, code quantization processing is set (turned on) as the facial expression conversion processing. Is shown.

【0137】ステップS101で、コードクオンタイズ
の設定がオン(CQ=1)のときには、対象フレーズが
和音フレーズであるか否かを判別する(ステップS10
2)。
If the chord quantization setting is ON (CQ = 1) in step S101, it is determined whether or not the target phrase is a chord phrase (step S10).
2).

【0138】ステップS102の判別で、対象フレーズ
が和音フレーズでないとき、または、前記ステップS1
01の判別で、コードクオンタイズの設定がオフ(CQ
=0)のときには、直ちに本コードクオンタイズ処理サ
ブルーチンを終了する一方、ステップS102の判別
で、対象フレーズが和音フレーズのときにはステップS
103に進む。
If it is determined in step S102 that the target phrase is not a chord phrase, or if step S1
01, the code quantization setting is off (CQ
= 0), the chord quantization processing subroutine is immediately terminated. On the other hand, if the target phrase is a chord phrase in the determination of step S102, the process proceeds to step S102.
Go to 103.

【0139】このように、ステップS102で、対象フ
レーズが和音フレーズか否かの判別を行うようにしたの
は、コードクオンタイズの設定がフレーズの種類に依存
せずになされるからである。したがって、コードクオン
タイズの設定がフレーズの種類に依存する場合、たとえ
ば曲の進行に従ってパラメータシーケンス、すなわち前
記図2のパラメータ群の各パラメータ値(各表情付け処
理のオン/オフ設定を含む)が演奏データ中の適切な位
置に配置されたシーケンスが与えられるように構成され
た場合(後述する図33を参照)には、このステップS
102の処理を省略することができる。他の表情付け処
理においても、上記シーケンスが与えられている場合に
は、この判別は、同様に省略することができる。
As described above, in step S102, whether or not the target phrase is a chord phrase is determined because chord quantization is set without depending on the type of phrase. Therefore, when the chord quantization setting depends on the type of phrase, for example, the parameter sequence according to the progress of the music, that is, each parameter value of the parameter group of FIG. 2 (including the on / off setting of each expression processing) is included in the performance data. If a sequence arranged at an appropriate position in the middle is configured to be given (see FIG. 33 described later), this step S
The processing of 102 can be omitted. In the other expression processing, if the above sequence is given, this determination can be omitted in the same manner.

【0140】ステップS103では、全チャンネル、す
なわちチャンネル10〜15のノートデータ、すなわち
ノートオン/オフイベントデータを見て、同一タイミン
グでノートオンする複数ノートをサーチする。ここで、
同一タイミングであるか否かは、対象ノートデータ間の
ノートオンタイミングの差が“0”である場合に限ら
ず、その差が、予め設定された幅の範囲内に入っている
場合にも、同一タイミングと判定するようにしてもよ
い。
In step S103, note data of all channels, ie, channels 10 to 15, ie, note-on / off event data, is searched, and a plurality of notes that are turned on at the same timing are searched. here,
Whether or not the timings are the same is not limited to the case where the difference between the note-on timings between the target note data is “0”, and the case where the difference is within the range of the preset width. The same timing may be determined.

【0141】続くステップS104では、対象ノートが
あるか否か、すなわちステップS103で複数のノート
がサーチされたか否かを判別し、対象ノートがあると
き、すなわち複数のノートがサーチされたときには、そ
の対象ノートに対応するノートオンタイミングをシフト
するタイミングシフト処理サブルーチン(その詳細は、
図15を用いて後述する)を実行する(ステップS10
5)。
In the following step S104, it is determined whether or not there is a target note, that is, whether or not a plurality of notes have been searched in step S103. A timing shift processing subroutine for shifting the note-on timing corresponding to the target note (for details,
(To be described later with reference to FIG. 15) (step S10).
5).

【0142】次いで、ステップS106では、予め設定
されたレシオに応じて対象ノートのベロシティ値をシフ
ト(変更)するベロシティシフト処理サブルーチン(そ
の詳細は、図16を用いて後述する)を実行し、ステッ
プS107では、対象ノートの発音時間を短縮する、い
わゆるミュートカッティング奏法をシミュレートするミ
ュートカッティング処理サブルーチン(その詳細は、図
17を用いて後述する)を実行した(ステップS10
7)後に、前記ステップS103に戻って、前述の処理
を繰り返す。
Next, in step S106, a velocity shift processing subroutine for shifting (changing) the velocity value of the target note according to a preset ratio is executed (the details will be described later with reference to FIG. 16). In S107, a mute cutting processing subroutine (the details of which will be described later with reference to FIG. 17) for simulating a so-called mute cutting playing technique for shortening the sounding time of the target note is executed (step S10).
7) Thereafter, the process returns to step S103, and the above-described processing is repeated.

【0143】一方、ステップS104の判別で、対象ノ
ートがないとき、すなわちステップS103で複数のノ
ートがサーチされなかったときには、本コードクオンタ
イズ処理サブルーチンを終了する。
On the other hand, if it is determined in step S104 that there is no target note, that is, if a plurality of notes have not been searched in step S103, the present code quantization processing subroutine ends.

【0144】図15は、前記ステップS105のタイミ
ングシフト処理サブルーチンの詳細な手順を示すフロー
チャートである。
FIG. 15 is a flowchart showing a detailed procedure of the timing shift processing subroutine of step S105.

【0145】同図において、まず、対象ノートの発音継
続時間を示すゲートタイムデータのうち、最短ゲートタ
イムを求め、該最短ゲートタイムに前記ノートオンシフ
ト幅パラメータOSW値を乗算してシフト量を算出する
(ステップS111)。本実施の形態では、ノートオン
シフト幅パラメータOSWは%値で設定されているの
で、シフト量、すなわちシフトクロック数(時間)は、
次式により算出される。
In the figure, first, of the gate time data indicating the sound continuation time of the target note, the shortest gate time is obtained, and the shortest gate time is multiplied by the value of the note-on shift width parameter OSW to calculate the shift amount. (Step S111). In the present embodiment, since the note-on shift width parameter OSW is set as a% value, the shift amount, that is, the number of shift clocks (time) is
It is calculated by the following equation.

【0146】 シフト量 = 最短ゲートタイム×OSW/100 なお、ノートオンシフト幅パラメータOSWは、%値に
限らず、たとえばレシオで設定してもよい。
Shift amount = shortest gate time × OSW / 100 Note that the note-on shift width parameter OSW is not limited to the% value and may be set, for example, in a ratio.

【0147】次に、現在のストロークモードパラメータ
S-MODEを判別し(ステップS112)、ストロー
クモードパラメータS-MODEが「オルタネートモー
ド」、すなわち弦をカッティングする方向がアップ方向
とダウン方向とに交互に切り替わるモードのときには、
ストロークがアップ方向のストロークであるか、または
ダウン方向のストロークであるかを判定する(ステップ
S113)。以下、このアップ/ダウン判定の方法を説
明する。
Next, the current stroke mode parameter S-MODE is determined (step S112), and the stroke mode parameter S-MODE is set to "alternate mode", that is, the direction in which the strings are cut alternately in the up direction and the down direction. In the switching mode,
It is determined whether the stroke is a stroke in the up direction or a stroke in the down direction (step S113). Hereinafter, a method of this up / down determination will be described.

【0148】本実施の形態では、アップ/ダウン判定
は、対象和音フレーズ内のコード(和音)のノートオン
タイミングが8分音符上タイミングのとき行われ、8分
音符(8ビートのコードストローク)単位でダウンとア
ップが繰り返すように、具体的には、ノートオンタイミ
ングが8分音符の奇数拍、すなわち4分音符上にあると
きにはダウンストロークと判定され、ノートオンタイミ
ングが8分音符の偶数拍上にあるときにはアップストロ
ークと判定される。
In the present embodiment, the up / down determination is made when the note-on timing of the chord (chord) in the target chord phrase is an eighth note above timing, and is determined in eighth note (eight beat chord stroke) units. Specifically, when the note-on timing is on an odd beat of an eighth note, that is, on a quarter note, it is determined to be a down stroke, and the note-on timing is on an even beat of an eighth note. Is determined to be an upstroke.

【0149】なお、ノートオンタイミングが8分音符の
タイミングからわずかにずれているときも8分音符とみ
なす。また、8分音符上にはのらない16分音符の偶数
拍はすべてアップストロークとしている。
When the note-on timing slightly deviates from the timing of the eighth note, it is regarded as an eighth note. Also, all even-numbered beats of the sixteenth note that do not fall on the eighth note are upstrokes.

【0150】図19は、このアップ/ダウン判定の方法
を説明するための図であり、(a)は、アップストロー
クとダウンストロークとをどのようなタイミングで判定
するかを示す図であり、(b)は、(a)の方法により
8ビートのコードストロークのアップ/ダウン判定を行
った判定結果を示す図である。図中、横軸はクロック数
を示し、記号vは、対象コードのノートオンタイミング
を示し、記号dは、該記号dに対応するノートオンタイ
ミングvのコードがダウンストロークと判定されたこと
を示し、記号uは、該記号uに対応するノートオンタイ
ミングvのコードがアップストロークと判定されたこと
を示している。なお、本実施の形態では、1クロックの
周期は1536分長、すなわち4分音符を384等分し
た時間に相当する。
FIGS. 19A and 19B are diagrams for explaining the up / down determination method. FIG. 19A is a diagram showing at what timing the up stroke and the down stroke are determined. FIG. 6B is a diagram illustrating a determination result obtained by performing up / down determination of an 8-beat chord stroke by the method of FIG. In the figure, the horizontal axis indicates the number of clocks, the symbol v indicates the note-on timing of the target code, and the symbol d indicates that the code of the note-on timing v corresponding to the symbol d is determined to be a down stroke. , Symbol u indicates that the code of the note-on timing v corresponding to the symbol u is determined to be an upstroke. In the present embodiment, the period of one clock is 1536 minutes, that is, a time obtained by equally dividing a quarter note by 384.

【0151】同図(a)に示すように、コード1のノー
トオンタイミングは384番目のクロック上、すなわち
4分音符上にあるため、コード1はダウンストロークと
判定され、コード2のノートオンタイミングは960番
目のクロック上、すなわち8分音符の裏拍上にあるた
め、コード2はアップストロークと判定される。
Since the note-on timing of chord 1 is on the 384th clock, that is, on a quarter note, as shown in FIG. Is on the 960th clock, that is, on the back beat of an eighth note, so chord 2 is determined to be an upstroke.

【0152】このような方法により、8ビートのコード
ストロークのアップ/ダウン判定を行うと、(b)に示
すように、8分音符毎にアップストロークとダウンスト
ロークとが繰り返すことになる。
When the up / down determination of the 8-beat chord stroke is performed by such a method, the up-stroke and the down-stroke are repeated every eighth note, as shown in FIG.

【0153】なお、16ビートの3,7,11,15拍
は8分音符の偶数拍となるためアップストロークとなっ
てしまう。この不都合を解消するため、コード演奏が8
ビートなのか16ビートなのかを判定し、アップストロ
ークとダウンストロークの判定アルゴリズムを変えるよ
うにしてもよい。
Note that the 3, 7, 11, and 15 beats of 16 beats are even-numbered eighth-note beats, and thus are upstrokes. To solve this inconvenience, the chord performance must be 8
It is also possible to determine whether the beat is a beat or 16 beats and change the algorithm for determining the upstroke and the downstroke.

【0154】図15に戻り、ステップS114では、上
述のようにしてアップ/ダウン判定されたコードストロ
ークがダウンストロークであるか否かを判別し、ダウン
ストロークのときには、6弦(前記図12では弦g6)
から1弦(図12では弦g1)の方向にノートオンタイ
ミングがずれるように、前記ステップS111で算出し
たシフト量に基づいて対象ノートのノートオンタイミン
グをシフトした(ステップS115)後に、本タイミン
グシフト処理サブルーチンを終了する。
Returning to FIG. 15, in step S114, it is determined whether or not the chord stroke determined to be up / down as described above is a downstroke. g6)
After shifting the note-on timing of the target note based on the shift amount calculated in step S111 so that the note-on timing is shifted in the direction of the first string (string g1 in FIG. 12) from step (step S115), this timing shift is performed. The processing subroutine ends.

【0155】一方、ステップS114で、判定されたコ
ードストロークがアップストロークのときには、ステッ
プS115の処理と逆に、1弦から6弦の方向にノート
オンタイミングがずれるように、前記算出されたシフト
量に基づいて対象ノートのノートオンタイミングをシフ
トした(ステップS116)後に、本タイミングシフト
処理サブルーチンを終了する。
On the other hand, when the chord stroke determined in step S114 is an upstroke, the calculated shift amount is shifted so that the note-on timing is shifted from the first string to the sixth string, contrary to the processing in step S115. After shifting the note-on timing of the target note on the basis of (step S116), the present timing shift processing subroutine ends.

【0156】一方、前記ステップS112の判別で、ス
トロークモードパラメータS-MODEが「ダウンモー
ド」のときには前記ステップS115に進む一方、スト
ロークモードパラメータS-MODEが「アップモー
ド」のときには前記ステップS116に進む。
On the other hand, when it is determined in step S112 that the stroke mode parameter S-MODE is "down mode", the process proceeds to step S115, whereas when the stroke mode parameter S-MODE is "up mode", the process proceeds to step S116. .

【0157】図18は、このタイミングシフト処理サブ
ルーチンによりタイミングシフトされる前および後のコ
ードのノートオンタイミングを示す図であり、図中、縦
軸は音高を示し、横軸は時刻を示している。そして、
(a)は、タイミングシフトされる前の対象コードのノ
ートオンタイミングの一例を示し、(b)は、(a)の
ノートオンタイミングをタイミングシフトした結果を示
し、(c)は、対象コードのゲートタイム時間が(a)
より短い場合のノートオンタイミングの一例を示し、
(d)は、(c)のノートオンタイミングをタイミング
シフトした結果を示している。なお、(b)および
(d)はアップストロークのときのタイミングシフト例
である。
FIG. 18 is a diagram showing the note-on timing of the chord before and after the timing is shifted by the timing shift processing subroutine. In FIG. 18, the vertical axis indicates the pitch and the horizontal axis indicates the time. I have. And
(A) shows an example of the note-on timing of the target code before the timing shift, (b) shows the result of the timing shift of the note-on timing of (a), and (c) shows the result of the target code. Gate time time (a)
Here is an example of the note-on timing for a shorter time,
(D) shows the result of the timing shift of the note-on timing of (c). (B) and (d) are timing shift examples during an upstroke.

【0158】同図の例では、ノートオンシフト幅パラメ
ータOSWは20%に設定されているので、(b)に示
すように、対象コードの各隣接するノートのノートオン
タイミングは、(a)の最短ゲートタイム(時間t0〜
t1)の20%だけシフト(時間t0〜t01,t01
〜t02)している。同様にして、(d)に示すよう
に、対象コードの各隣接するノートのノートオンタイミ
ングは、(c)の最短ゲートタイム(時間t0〜t2)
の20%だけシフト(時間t0〜t03,t03〜t0
4)している。
[0158] In the example shown in the figure, since the note-on shift width parameter OSW is set to 20%, as shown in (b), the note-on timing of each adjacent note of the target code is as shown in (a). Shortest gate time (time t0
t1) by 20% (time t0 to t01, t01)
To t02). Similarly, as shown in (d), the note-on timing of each adjacent note of the target code is the shortest gate time of (c) (time t0 to t2).
(Time t0 to t03, t03 to t0)
4) Yes.

【0159】このように、本実施の形態では、対象コー
ド中、最短ゲートタイムに応じてシフト量が決定される
ので、最初にノートオンしたノートのノートオフタイミ
ングが、該対象コード中の他のノートオンタイミングよ
り遅れることがなくなり、違和感のないタイミングシフ
トがなされる。また、対象コードの各ノートのノートオ
ンタイミングのずれ量を、当該コード中所定の(本実施
例では最短の)ノートのゲートタイムを基準にして制御
するので、すばやいカッティング(当該各ノートのゲー
トタイムが短いことが多い)に対しては当該ノートの各
ノートオンタイミングのずれは少なくなる一方、ゆっく
りとしたストローク(当該各ノートのゲートタイムが長
いことが多い)に対しては当該ノートの各ノートオンタ
イミングのずれは多くなるという制御を行うことがで
き、これにより、当該コードをよりギター演奏らしく変
換することができる。
As described above, in the present embodiment, the shift amount is determined according to the shortest gate time in the target code, so that the note-off timing of the first note-on note is different from that of the other notes in the target code. There is no delay from the note-on timing, and a timing shift without a sense of incongruity is performed. Further, since the amount of shift of the note-on timing of each note of the target chord is controlled with reference to the gate time of a predetermined (shortest in this embodiment) note in the chord, quick cutting (gate time of each note) Is often short), the difference between the note-on timings of the note is reduced, while the slow stroke (the gate time of the note is often long) is reduced. It is possible to perform control such that the deviation of the on-timing is increased, and thereby, it is possible to convert the chord more like a guitar performance.

【0160】図16は、前記ステップS106のベロシ
ティシフト処理サブルーチンの詳細な手順を示すフロー
チャートである。
FIG. 16 is a flowchart showing a detailed procedure of the velocity shift processing subroutine of step S106.

【0161】同図において、まず、スロープトップ、す
なわちベロシティスロープの最初(ベロシティのシフト
量が最小)となる弦を判別する(ステップS121)。
ここで、スロープトップの判別は、図示しないスロープ
トップパラメータに設定されたパラメータ値に応じて行
われる。スロープトップパラメータには、アップストロ
ークとダウンストロークとに応じて、それぞれ1弦側と
6弦側とを交互に切り換えてスロープトップに割り当て
る「オルタネートモード」、スロープトップを常に1弦
側に割り当てる「オールウェーズボトムゲージモー
ド」、スロープトップを常に6弦側に割り当てる「オー
ルウェーズトップゲージモード」の3種類のモードの内
いずれかのモードパラメータが、ユーザにより設定され
る。
In the figure, first, the slope top, that is, the string at the beginning of the velocity slope (the amount of velocity shift is minimum) is determined (step S121).
Here, the determination of the slope top is performed according to a parameter value set to a slope top parameter (not shown). The slope top parameter includes an "alternate mode" in which the first string side and the sixth string side are alternately switched and assigned to the slope top in accordance with the up stroke and the down stroke, and an "all mode" in which the slope top is always assigned to the first string side. The user sets any one of three types of modes, a "weave bottom gauge mode" and a "all-weather top gauge mode" in which a slope top is always assigned to the sixth string side.

【0162】ステップS121で、スロープトップがオ
ルタネートに切り替わるとき、すなわち「オルタネート
モード」が設定されているときにはステップS122に
進み、前記ステップS113と同様にして、アップ/ダ
ウン判定を行う。
In step S121, when the slope top is switched to alternate, that is, when the "alternate mode" is set, the process proceeds to step S122, and up / down determination is performed in the same manner as in step S113.

【0163】続くステップS123では、この判定され
たコードストロークがダウンストロークか否かを判別
し、ダウンストロークのときには、図20に示すベロシ
ティスロープにおいて、スロープトップを1弦に設定す
るとともにスロープボトムを6弦に設定し、このように
設定されたベロシティスロープに基づいて各弦に対応す
るスロープレシオを決定し、該決定されたスロープレシ
オに従って各対象ノートのベロシティをシフトした(ス
テップS124)後に、本ベロシティシフト処理を終了
する。
In a succeeding step S123, it is determined whether or not the determined chord stroke is a down stroke. When the determined stroke is a down stroke, the slope top is set to one string and the slope bottom is set to 6 in the velocity slope shown in FIG. The string is set, the slow ratio corresponding to each string is determined based on the velocity slope thus set, and the velocity of each target note is shifted according to the determined slow ratio (step S124). The shift processing ends.

【0164】ここで、図20に示すベロシティスロープ
のレシオ値は、スロープトップおよびスロープボトムに
おける各レシオ値のみ、ユーザが任意に設定できるよう
に構成され、他のレシオ値は、この設定された両レシオ
値に基づいて、たとえば線形補間により算出する。な
お、これに限らず、すべての弦に対応するレシオ値を、
ユーザが任意に設定できるようにしてもよいことは云う
までもない。
Here, the ratio value of the velocity slope shown in FIG. 20 is configured such that the user can arbitrarily set only the respective ratio values at the slope top and the slope bottom, and the other ratio values are the same as those of the set values. Based on the ratio value, for example, it is calculated by linear interpolation. The ratio values for all strings are not limited to this,
It goes without saying that the user may arbitrarily set it.

【0165】一方、ステップS123の判別で、前記判
定されたコードストロークがアップストロークのときに
は、上記ステップS124の処理と逆に、図20のベロ
シティスロープにおいて、スロープトップを6弦に設定
するとともにスロープボトムを1弦に設定し、このよう
に設定されたベロシティスロープに基づいて各弦に対応
するスロープレシオを決定し、該決定されたスロープレ
シオに従って各対象ノートのベロシティをシフトした
(ステップS125)後に、本ベロシティシフト処理を
終了する。
On the other hand, if it is determined in step S123 that the determined chord stroke is an upstroke, the slope top is set to 6 strings and the slope bottom is set in the velocity slope of FIG. Is set to one string, the slow ratio corresponding to each string is determined based on the velocity slope thus set, and the velocity of each target note is shifted according to the determined slow ratio (step S125). This velocity shift processing ends.

【0166】一方、ステップS121の判別で、スロー
プトップが1弦のときにはステップS124に進む一
方、スロープトップが6弦のときにはステップS125
に進む。
On the other hand, if it is determined in step S121 that the slope top has the first string, the process proceeds to step S124, while if the slope top has the sixth string, the process proceeds to step S125.
Proceed to.

【0167】図17は、前記ステップS107のミュー
トカッティング処理サブルーチンの詳細な手順を示すフ
ローチャートである。
FIG. 17 is a flowchart showing a detailed procedure of the mute cutting processing subroutine in step S107.

【0168】同図において、まず、各対象ノートのゲー
トタイムはミュート対象であるか否かを判別し(ステッ
プS131)、ミュート対象であるときには、ストロー
クモードS-MODEはミュート対象であるか否かを判
別する(ステップS132)。
In the figure, first, it is determined whether or not the gate time of each target note is to be muted (step S131). If so, whether the stroke mode S-MODE is to be muted or not is determined. Is determined (step S132).

【0169】ここで、各対象ノートのゲートタイムおよ
びストロークモードS-MODEがそれぞれミュート対
象であるか否かは、各パラメータの状態に応じて判別す
る。すなわち、この各パラメータには、ミュート対象と
なるゲートタイムの上限値およびコードストロークの方
向を設定でき、ステップS131では、対象ゲートタイ
ムがこの設定されたゲートタイムの上限値より短かいと
きに、当該ゲートタイムはミュート対象と判別され、ス
テップS132では、ストロークモードS-MODEが
この設定されたコードストロークの方向に一致するとき
に、当該ストロークモードS-MODEはミュート対象
と判別される。
Here, whether the gate time and the stroke mode S-MODE of each target note are to be muted is determined according to the state of each parameter. That is, the upper limit value of the gate time to be muted and the direction of the chord stroke can be set in these parameters. In step S131, when the target gate time is shorter than the set upper limit value of the gate time, The gate time is determined to be a mute target, and in step S132, when the stroke mode S-MODE matches the direction of the set code stroke, the stroke mode S-MODE is determined to be a mute target.

【0170】ステップS132の判別で、ストロークモ
ードS-MODEがミュート対象のときには、図示しな
い設定パラメータに従ってゲートタイムを変更した(ス
テップS133)後に、本ミュートカッティング処理を
終了する。ここで、設定パラメータとは、前記ノートオ
ンシフト幅パラメータOSWと同様に、ゲートタイムを
変更するレシオ値を設定するパラメータであって、その
レシオ値は、前記ステップS91のパラメータ設定にお
いてユーザが決定する。なお、「ミュート」感を出すた
めに設定パラメータには、通常ゲートタイムを短くする
ような値が設定されるが、これに限らず、ゲートタイム
を長くするような値を設定するようにしてもよい。
If it is determined in step S132 that the stroke mode S-MODE is to be muted, the gate time is changed according to a setting parameter (not shown) (step S133), and then the mute cutting process ends. Here, similarly to the note-on shift width parameter OSW, the setting parameter is a parameter for setting a ratio value for changing the gate time, and the ratio value is determined by the user in the parameter setting in step S91. . In addition, in order to give a feeling of “mute”, the setting parameter is usually set to a value that shortens the gate time, but is not limited thereto, and a value that increases the gate time may be set. Good.

【0171】一方、ステップS131の判別で、各対象
ノートのゲートタイムがミュート対象でないとき、また
はステップS132で、ストロークモードS-MODE
がミュート対象でないときには、直ちに本ミュートカッ
ティング処理を終了する。
On the other hand, if it is determined in step S131 that the gate time of each target note is not a mute target, or in step S132, the stroke mode S-MODE
If is not a mute target, the mute cutting process is immediately terminated.

【0172】このように、本コードクオンタイズ処理サ
ブルーチンでは、対象ノートのゲートタイムに応じて和
音の発音タイミングのずれ量が制御されるので、たとえ
ばすばやいカッティング(ゲートタイムが短い場合が多
い)のときにはずれが少なく、ゆっくりとしたストロー
ク(ゲートタイムが長い場合が多い)のときにはずれが
多いといった制御を行うことができ、これにより、特に
ギター演奏をシミュレートする場合には、演奏データの
楽音をよりギター演奏らしく発音することができる。
As described above, in the present chord quantization processing subroutine, the shift amount of the chord sounding timing is controlled in accordance with the gate time of the target note. Therefore, for example, in the case of quick cutting (the gate time is often short), the shift is performed. Control can be performed such that there is little shift and there is a lot of deviation when the stroke is slow (the gate time is often long). This makes it possible to reduce the tone of the performance data to the guitar, especially when simulating a guitar performance. You can pronounce like playing.

【0173】図21は、前記図13のステップS93の
ポルタメント変換処理サブルーチンの詳細な手順を示す
フローチャートである。本ポルタメント変換処理サブル
ーチンは、「チョーキング」、「ハンマリングオン/プ
リングオフ」、「グリッサンド(スライド)」の3種類
のギター奏法をシミュレートする。
FIG. 21 is a flowchart showing the detailed procedure of the portamento conversion subroutine of step S93 in FIG. This portamento conversion processing subroutine simulates three types of guitar playing methods of “chalking”, “hammering on / pulling off”, and “glissando (slide)”.

【0174】図21において、まず、ポルタメント変換
の設定はオンになっているか否かを判別する(ステップ
S141)。この判別は、ポルタメント変換を行うか否
か(オン/オフ)をユーザが自由に設定できるポルタメ
ント変換パラメータ(図示せず)の値をチェックするこ
とにより行う。
In FIG. 21, first, it is determined whether or not the portamento conversion setting is turned on (step S141). This determination is made by checking the value of a portamento conversion parameter (not shown) which allows the user to freely set whether to perform portamento conversion (on / off).

【0175】ステップS141で、ポルタメント変換の
設定がオンのときには、対象フレーズが単音フレーズで
あるか否かを判別する(ステップS142)。
If the portamento conversion setting is ON in step S141, it is determined whether or not the target phrase is a single-tone phrase (step S142).

【0176】ステップS142で、対象フレーズが単音
フレーズのときにはステップS143に進む一方、対象
フレーズが単音フレーズではないとき、すなわち和音フ
レーズのとき、または、ステップS141で、ポルタメ
ント変換の設定がオフのときには、直ちに本ポルタメン
ト変換処理サブルーチンを終了する。
In step S142, when the target phrase is a monotone phrase, the process proceeds to step S143. On the other hand, when the target phrase is not a monotone phrase, that is, in a chord phrase, or when the portamento conversion setting is off in step S141, The portamento conversion processing subroutine is immediately terminated.

【0177】ステップS143では、全チャンネル、す
なわちチャンネル10〜15のノートデータ、すなわち
ノートオン/オフイベントデータを見て、時間的に隣接
する2つのノートを決定し、ステップS144では、該
2つのノートは同じ弦上にあるか否か、すなわち該2つ
のノートに割り当てられた各チャンネル番号は同一であ
るか否かを判別する。
In step S143, two notes that are temporally adjacent to each other are determined by looking at the note data of all channels, that is, the note on / off event data of channels 10 to 15. In step S144, the two notes are determined. Determines whether or not they are on the same string, that is, whether or not the channel numbers assigned to the two notes are the same.

【0178】ステップS144で、該2つのノートが同
じ弦上にあるときには、該2つのノートの音程はハンマ
リングオン/プリングオフ処理を施すべき指定値(以
下、「ハンマリングオン/プリングオフ用指定値」とい
う)以内に入っているか否かを判別する(ステップS1
45)。なお、このハンマリングオン/プリングオフ用
指定値も、ユーザが任意に設定することができるが、好
ましくは、後述するグリッサンド用指定値よりも小さい
値を設定するとよく、半音1〜2程度がよい。
In step S144, when the two notes are on the same string, the pitch of the two notes is a designated value to be subjected to the hammering on / pulling off process (hereinafter, "hammering on / pulling off designation"). Value) is determined (step S1).
45). The user can arbitrarily set the hammering-on / pulling-off designated value, but preferably, the hammering-on / pulling-off designated value is set to a value smaller than a glissando designated value, which will be described later. .

【0179】ステップS145で、該2つのノートの音
程がハンマリングオン/プリングオフ用指定値よりも大
きいときには、該2つのノートの音程はグリッサンド処
理を施すべき指定値(以下、「グリッサンド用指定値」
という)以上であるか否かを判別する(ステップS14
6)。なお、このグリッサンド用指定値も、ユーザが任
意に設定することができるが、好ましくは、ハンマリン
グオン/プリングオフ用指定値よりも大きく設定すると
よく、3半音程度がよい。
In step S145, when the pitch of the two notes is larger than the specified value for hammering on / pulling off, the pitch of the two notes is the specified value to be subjected to glissando processing (hereinafter, “specified value for glissando”). "
Is determined (step S14).
6). The glissando specified value can also be arbitrarily set by the user, but is preferably set larger than the hammering on / pulling off specified value, and is preferably about three semitones.

【0180】ステップS146で、該2つのノートの音
程がグリッサンド用指定値以上であるときには、グリッ
サンドの設定はオンであるか否かを判別する(ステップ
S147)。この判別は、グリッサンド処理を行うか否
か(オン/オフ)をユーザが自由に設定できるグリッサ
ンド処理パラメータ(図示せず)の値をチェックするこ
とにより行う。
In step S146, when the pitch of the two notes is equal to or greater than the glissando specified value, it is determined whether or not the glissando setting is on (step S147). This determination is made by checking the value of a glissando processing parameter (not shown) in which the user can freely set whether to perform glissando processing (on / off).

【0181】ステップS147で、グリッサンドの設定
がオンのときには、図26を用いて後述するグリッサン
ド処理サブルーチンを実行する。
If the glissando setting is ON in step S147, a glissando processing subroutine described later with reference to FIG. 26 is executed.

【0182】一方、ステップS146の判別で、前記2
つのノートの音程がグリッサンド用指定値未満のとき、
または、ステップS147の判別で、グリッサンドの設
定がオフのときには、ステップS154に進む。
On the other hand, in the determination in step S146,
When the pitch of one note is less than the specified value for glissando,
Alternatively, when the setting of the glissando is off in the determination of step S147, the process proceeds to step S154.

【0183】一方、前記ステップS145の判別で、前
記2つのノートの音程がハンマリング/プリングオフ用
指定値以内のときには、ハンマリングオン/プリングオ
フの設定はオンであるか否かを判別する(ステップS1
49)。この判別も、前記ステップS147の判別と同
様に、ハンマリングオン/プリングオフ処理を行うか否
か(オン/オフ)をユーザが自由に設定できるハンマリ
ングオン/プリングオフ処理パラメータ(図示せず)の
値をチェックすることにより行う。
On the other hand, if it is determined in step S145 that the pitch of the two notes is within the specified value for hammering / pulling-off, it is determined whether the setting of hammering on / pulling-off is on (step S145). Step S1
49). In this determination, similarly to the determination in step S147, a hammering on / pulling-off processing parameter (not shown) that allows the user to freely set whether to perform the hammering on / pulling-off processing (on / off). By checking the value of

【0184】ステップS149の判別で、ハンマリング
オン/プリングオフの設定がオンのときには、図22を
用いて後述するハンマリングオン/プリングオフ処理サ
ブルーチンを実行する(ステップS150)一方、ハン
マリングオン/プリングオフの設定がオフのときには、
ステップS150をスキップしてステップS154に進
む。
If it is determined in step S149 that the setting of hammering on / pulling off is on, a hammering on / pulling off processing subroutine described later with reference to FIG. 22 is executed (step S150). When the pull-off setting is off,
The process skips step S150 and proceeds to step S154.

【0185】一方、前記ステップS144の判別で、前
記2つのノートが同じ弦上にないときには、該2つのノ
ートの音程はチョーキング処理を施すべき指定値(以
下、「チョーキング用指定値」という)以内であるか否
かを判別する(ステップS151)。なお、このチョー
キング用指定値もユーザが任意に設定することができ、
好ましくは、半音2つ程度がよい。
On the other hand, if it is determined in step S144 that the two notes are not on the same string, the pitch of the two notes is within a specified value to be subjected to the choking process (hereinafter, referred to as a "designated value for choking"). Is determined (step S151). In addition, the user can also arbitrarily set the specified value for choking.
Preferably, about two semitones are good.

【0186】ステップS151で、該2つのノートの音
程がチョーキング用指定値以内であるときには、チョー
キングの設定はオンであるか否かを判別する(ステップ
S152)。この判別も、前記ステップS147の判別
と同様に、チョーキング処理を行うか否か(オン/オ
フ)をユーザが自由に設定できるチョーキング処理パラ
メータ(図示せず)の値をチェックすることにより行
う。
In step S151, when the pitch of the two notes is within the designated value for choking, it is determined whether or not the setting of choking is on (step S152). This determination is also made by checking the value of a choking process parameter (not shown) that allows the user to freely set whether or not to perform the choking process (on / off), similarly to the determination in step S147.

【0187】ステップS152で、チョーキングの設定
がオンのときには、図24を用いて後述するチョーキン
グ処理サブルーチンを実行した(ステップS153)後
に、ステップS154に進む一方、チョーキングの設定
がオフのとき、または、前記ステップS151の判別
で、前記2つのノートの音程がチョーキング用指定値よ
り大きいときには、ステップS153をスキップしてス
テップS154に進む。
In step S152, when the setting of choking is on, after executing a choking process subroutine described later with reference to FIG. 24 (step S153), the process proceeds to step S154, while when the setting of choking is off, or If it is determined in step S151 that the pitch of the two notes is larger than the designated value for choking, step S153 is skipped and the process proceeds to step S154.

【0188】ステップS154では、対象フレーズの全
ノートに対して、上述の処理を終了したか否かを判別
し、まだ処理すべきノートが残っているときには、前記
ステップS143に戻って前述の処理を繰り返す一方、
処理すべきノートが残っていないときには、本ポルタメ
ント変換処理サブルーチンを終了する。
In step S154, it is determined whether or not the above-described processing has been completed for all notes of the target phrase. If there are still notes to be processed, the flow returns to step S143 to execute the above-described processing. While repeating
If there are no notes to be processed, the portamento conversion processing subroutine ends.

【0189】図22は、前記ステップS150のハンマ
リングオン/プリングオフ処理サブルーチンの詳細な手
順を示すフローチャートである。
FIG. 22 is a flowchart showing a detailed procedure of the hammering on / pulling off processing subroutine in step S150.

【0190】同図において、まず、対象となる2つのノ
ートのうち、後ろのノートを削除し、該後ろのノートの
ノートオフタイミングに前のノートのノートオフタイミ
ングを延ばす(ステップS161)。
In the figure, first, of the two notes to be processed, the last note is deleted, and the note-off timing of the preceding note is extended to the note-off timing of the second note (step S161).

【0191】次に、前記後ろのノートのノートオンタイ
ミングの位置にピッチベンドを挿入する(ステップS1
62)。但し、ピッチベンドのベンド量は、該後ろのノ
ートのピッチになるように設定する。
Next, a pitch bend is inserted at the note-on timing position of the subsequent note (step S1).
62). However, the bend amount of the pitch bend is set so as to be the pitch of the subsequent note.

【0192】さらに、図示しない設定パラメータに従っ
てベロシティを変更した(ステップS163)後に、本
ハンマリングオン/プリングオフ処理サブルーチンを終
了する。ここで、設定パラメータとは、前記前のノート
のベロシティを変更するためのレシオ値を設定するパラ
メータであって、そのレシオ値は、ユーザが任意に設定
できる。
Further, after the velocity is changed according to a setting parameter not shown (step S163), the present hammering on / pulling off processing subroutine is terminated. Here, the setting parameter is a parameter for setting a ratio value for changing the velocity of the previous note, and the ratio value can be arbitrarily set by the user.

【0193】図23は、このハンマリングオン/プリン
グオフ処理サブルーチンにより表情付け変換を行う前お
よび後のノートイベントの構造を示す図であり、(a)
は、変換前の対象となる2つのノートイベントの一例を
示し、(b)は、(a)のノートイベントの変換後の状
態を示し、(c)は、変換後に挿入されたピッチベンド
イベントデータのピッチベンド量の推移を示している。
図23中、横軸は時刻を示し、縦軸は、(a),(b)
においては音高を示し、(c)においてはピッチベンド
量を示している。
FIGS. 23A and 23B are diagrams showing the structure of a note event before and after performing expression conversion by the hammering on / pulling off processing subroutine.
Shows an example of two target note events before conversion, (b) shows a state after conversion of the note event of (a), and (c) shows an example of pitch bend event data inserted after conversion. The transition of the pitch bend amount is shown.
In FIG. 23, the horizontal axis indicates time, and the vertical axes indicate (a) and (b).
Indicates a pitch, and (c) indicates a pitch bend amount.

【0194】前記対象となる2つのノートイベントの音
高が、(a)に示すように、それぞれ「ノート1」およ
び「ノート2」である場合に、ハンマリングオン/プリ
ングオフ処理サブルーチンが実行されると、(b)に示
すように、後ろのノートイベントである「ノート2」は
削除され、前のノートイベントである「ノート1」のノ
ートオフタイミングtf1が「ノート2」のノートオフ
タイミングtf2まで延ばされ、「ノート1」の発音継
続時間(ゲートタイム)は時間T1となる。そして、
(c)に示すように、「ノート2」が存在した位置(t
o2〜tf2)に、「ノート1」の音高が「ノート2」
の音高になるようなピッチベンド量、すなわち「ノート
1」と「ノート2」との音高差に相当するピッチベンド
量を有するピッチベンドイベントデータが挿入される。
When the pitches of the two target note events are "note 1" and "note 2", respectively, as shown in (a), a hammering on / pulling off processing subroutine is executed. Then, as shown in (b), the subsequent note event “Note 2” is deleted, and the note-off timing tf1 of the previous note event “Note 1” is changed to the note-off timing tf2 of “Note 2”. And the sounding continuation time (gate time) of “Note 1” becomes time T1. And
As shown in (c), the position (t) where “Note 2” was present
o2-tf2), the pitch of “Note 1” is “Note 2”
Is inserted, that is, pitch bend event data having a pitch bend amount corresponding to the pitch difference between “Note 1” and “Note 2”.

【0195】このようにして、変換前は「ノート1」の
発音を終了し、所定時間(tf1〜to2)無音状態を
継続した後に、「ノート2」の発音を開始するという構
造であったノートイベントデータが、「ノート1」の音
高の楽音を発音している状態から急に「ノート2」の音
高に変化する構造のノートイベントデータに変換される
ので、奏法ハンマリングオン/プリングオフを適切にシ
ミュレートすることができる。
In this manner, before conversion, the sound generation of "Note 1" is ended, the sound generation of "Note 2" is started after the silence state is continued for a predetermined time (tf1 to to2). Since the event data is converted to note event data having a structure that suddenly changes to a pitch of "note 2" from a state in which a musical tone having a pitch of "note 1" is generated, a playing style hammering on / pulling off is performed. Can be appropriately simulated.

【0196】図24は、前記ステップS153のチョー
キング処理サブルーチンの詳細な手順を示すフローチャ
ートである。
FIG. 24 is a flow chart showing a detailed procedure of the choking process subroutine of step S153.

【0197】同図において、まず、前記ステップS16
1と同様にして、対象となる2つのノートのうち、後ろ
のノートを削除し、該後ろのノートのノートオフタイミ
ングに前のノートのノートオフタイミングを延ばす(ス
テップS171)。
In the figure, first, at step S16
In the same manner as in step 1, the last note of the two notes to be deleted is deleted, and the note-off timing of the preceding note is extended to the note-off timing of the subsequent note (step S171).

【0198】次に、図示しない設定パラメータに従って
ピッチベンドを挿入する(ステップS172)。ここ
で、設定パラメータとは、ディレイパラメータおよびレ
ゾリューションパラメータをいう。ディレイパラメータ
とは、前記前のノートのノートオンタイミングからピッ
チベンドを開始するタイミングまでのディレイ時間を設
定するパラメータであり、その設定値はクロック数で表
され、ユーザが任意に設定できる。レゾリューションパ
ラメータとは、ピッチベンドを開始してから終了するま
で挿入されるピッチイベントデータの個数を示すパラメ
ータであり、その設定値はピッチベンドのオンタイミン
グをクロック数で表し、ユーザが任意に設定できる。そ
して、ピッチベンド量は、たとえば前記ROM6にテー
ブルデータとして設定されるピッチベンドカーブ(図示
せず)に従って決定され、このようにして決定されたピ
ッチベンド量を用いて、ピッチベンドイベントデータ
は、前記前のノートのノートオンタイミングよりディレ
イパラメータで示されるディレイ時間後から前記後ろの
ノートのノートオンタイミングまで、値(前記ピッチベ
ンド量)が該後ろのノートイベントのピッチまで前記ピ
ッチベンドカーブに従って徐々に変化するとともに、前
記レゾリューションパラメータで指定された間隔でベン
ド量が変化するように挿入される。なお、ピッチベンド
カーブを複数種類用意しておき、任意に選択できるよう
にしてもよい。
Next, a pitch bend is inserted according to a setting parameter (not shown) (step S172). Here, the setting parameters refer to delay parameters and resolution parameters. The delay parameter is a parameter for setting a delay time from the note-on timing of the previous note to the timing of starting pitch bend, and the set value is represented by the number of clocks, and can be arbitrarily set by the user. The resolution parameter is a parameter indicating the number of pitch event data inserted from the start to the end of pitch bend, and the set value indicates the pitch bend on timing by the number of clocks, and can be arbitrarily set by the user. . The pitch bend amount is determined, for example, according to a pitch bend curve (not shown) set as table data in the ROM 6, and using the pitch bend amount determined in this way, the pitch bend event data is used to determine the pitch bend event data of the previous note. From the delay time indicated by the delay parameter after the note-on timing to the note-on timing of the subsequent note, the value (the pitch bend amount) gradually changes according to the pitch bend curve up to the pitch of the subsequent note event, and It is inserted so that the bend amount changes at intervals specified by the solution parameter. Note that a plurality of types of pitch bend curves may be prepared so that they can be arbitrarily selected.

【0199】次いで、ステップS173では、前記ステ
ップS163と同様にして、設定パラメータに従ってベ
ロシティを変更した後に、本チョーキング処理サブルー
チンを終了する。
Next, in step S173, as in step S163, the velocity is changed in accordance with the set parameters, and then the choking process subroutine ends.

【0200】図25は、このチョーキング処理サブルー
チンにより表情付け変換を行う前および後のノートイベ
ントの構造を示す図であり、(a)は、変換前の対象と
なる2つのノートイベントの一例を示し、(b)は、
(a)のノートイベントの変換後の状態を示し、(c)
は、変換後に挿入されたピッチベンドイベントデータの
ピッチベンド量の推移を示している。なお、(a)およ
び(b)は、それぞれ前記図23(a)および(b)と
同様であるため、その説明を省略する。
FIGS. 25A and 25B are diagrams showing the structure of note events before and after expression conversion by this choking processing subroutine. FIG. 25A shows an example of two note events to be converted before the conversion. , (B)
The state after conversion of the note event of (a) is shown, and (c)
Shows the transition of the pitch bend amount of the pitch bend event data inserted after the conversion. Since FIGS. 23A and 23B are the same as FIGS. 23A and 23B, respectively, description thereof will be omitted.

【0201】(c)に示すように、「ノート1」のノー
トオンタイミング(時刻to1)よりディレイパラメー
タで示されるディレイ時間T2後、すなわち「ノート
1」の発音途中のある時点(時刻to1+T2)から、
徐々に、すなわちレゾリューションパラメータで示され
る時間間隔かつ前記ピッチベンドカーブで示されるベン
ド量の幅で、「ノート1」の音高が変更され、「ノート
2」のノートオンタイミング(時刻to2)で、「ノー
ト2」の音高となるようにピッチベンドが挿入される。
As shown in (c), after the delay time T2 indicated by the delay parameter from the note-on timing (time to1) of "note 1", that is, from a certain point in time during the sound generation of "note 1" (time to1 + T2). ,
The pitch of "Note 1" is gradually changed, that is, at the time interval indicated by the resolution parameter and the width of the bend amount indicated by the pitch bend curve, and at the note-on timing (time to2) of "Note 2". , A pitch bend is inserted so as to have the pitch of “Note 2”.

【0202】このようにして、変換前は「ノート1」の
発音を終了し、所定時間(tf1〜to2)無音状態を
継続した後に、「ノート2」の発音を開始するという構
造であったイベントデータが、「ノート1」の音高の楽
音を発音している状態から徐々に「ノート2」の音高に
変化する構造のイベントデータに変換されるので、奏法
チョーキングを適切にシミュレートすることができる。
As described above, the sounding of "Note 1" is ended before the conversion, the sounding of "Note 2" is started after the silent state is continued for a predetermined time (tf1 to to2). Since the data is converted to event data having a structure in which the tone of the pitch of "Note 1" is gradually changed to the pitch of "Note 2", appropriately simulating the playing style choking Can be.

【0203】また、ディレイ時間T2によりディレイチ
ョーキングまでもシュミレートすることができる。な
お、このディレイ時間T2は、ディレイパラメータによ
り絶対時間が設定されるものに限らず、ノート1のゲー
トタイムに対する割合や、ノート1のノートオンからノ
ート2のノートオンまでの時間に対する割合で設定する
ようにしてもよい。
[0203] The delay choking can be simulated by the delay time T2. Note that the delay time T2 is not limited to the absolute time set by the delay parameter, but is set by a ratio with respect to the gate time of note 1 or a ratio with respect to the time from note-on of note 1 to note-on of note 2. You may do so.

【0204】図26は、前記ステップS148のグリッ
サンド処理サブルーチンの詳細な手順を示すフローチャ
ートである。
FIG. 26 is a flowchart showing a detailed procedure of the glissando processing subroutine of step S148.

【0205】同図において、まず、前記ステップS16
1と同様にして、対象となる2つのノートのうち、後ろ
のノートを削除し、該後ろのノートのノートオフタイミ
ングに前のノートのノートオフタイミングを延ばす(ス
テップS181)。
In the figure, first, at step S16
In the same manner as in step 1, the last note of the two notes to be deleted is deleted, and the note-off timing of the preceding note is extended to the note-off timing of the subsequent note (step S181).

【0206】次に、図示しない設定パラメータに従って
ピッチベンドを挿入する(ステップS182)。ここ
で、設定パラメータとは、ディレイパラメータを云い、
このディレイパラメータは、前記図24で説明したディ
レイパラメータと同様に、前記前のノートのノートオン
タイミングからピッチベンドを開始するタイミングまで
のディレイ時間を設定するパラメータである。このステ
ップS182の処理が前記ステップS172の処理に対
して異なる点は、変更するピッチベンド量が半音単位で
変化するのみであるので、その説明を省略する。
Next, a pitch bend is inserted according to a setting parameter (not shown) (step S182). Here, the setting parameter refers to a delay parameter,
This delay parameter is a parameter for setting a delay time from the note-on timing of the previous note to the timing of starting pitch bend, similarly to the delay parameter described in FIG. The difference of the process of step S182 from the process of step S172 is that the pitch bend amount to be changed only changes in semitone units, and a description thereof will be omitted.

【0207】次いで、前記ステップS163と同様にし
て、設定パラメータに従ってベロシティを変更した(ス
テップS183)後に、本グリッサンド処理サブルーチ
ンを終了する。
Next, in the same manner as in step S163, the velocity is changed according to the set parameters (step S183), and the glissando processing subroutine ends.

【0208】図27は、このグリッサンド処理サブルー
チンにより表情付け変換を行う前および後のノートイベ
ントの構造を示す図であり、図25に対して、ピッチベ
ンド量の推移が、(c)に示すように、半音単位で変更
されている点が異なるのみであるので、その説明を省略
する。
FIG. 27 is a diagram showing the structure of a note event before and after expression conversion is performed by this glissando processing subroutine. In FIG. 25, the transition of the pitch bend amount is as shown in FIG. The only difference is that it is changed in semitone units, and a description thereof will be omitted.

【0209】このようにして、変換前は「ノート1」の
発音を終了し、所定時間(tf1〜to2)無音状態を
継続した後に、「ノート2」の発音を開始するという構
造のイベントデータが、「ノート1」の音高を発音して
いる状態から半音単位で「ノート2」の音高に変化する
構造のイベントデータに変換されるので、奏法グリッサ
ンドを適切にシミュレートすることができる。
[0209] In this way, before conversion, the sound data of "Note 1" is ended, the silence state is continued for a predetermined time (tf1 to to2), and then the sound data of "Note 2" is started. Is converted into event data having a structure in which the pitch of “Note 1” is changed from the state of sounding the pitch of “Note 1” to the pitch of “Note 2” in semitone units, so that the playing style glissando can be appropriately simulated.

【0210】以上説明したように、ポルタメント変換処
理では、「グリッサンド処理」、「ハンマリングオン/
プリングオフ処理」、「チョーキング処理」の3種類の
変換処理から、対象となる2つのノートの音程に応じて
1つの処理が選択され、この処理に従って当該2つのノ
ートのノートイベントの構造が変更される。
As described above, in the portamento conversion processing, the “glissando processing” and the “hammering on /
From the three types of conversion processing of "pulling-off processing" and "chalking processing", one processing is selected according to the pitch of two target notes, and the note event structure of the two notes is changed according to this processing. You.

【0211】なお、本実施の形態では、ポルタメント変
換処理が呼び出され、上記条件を満足する場合には、必
ず上記3種類の変換処理から1つの変換処理が選択され
て実行されるが、このように、該1つの変換処理をポル
タメント変換処理毎に毎回実行せずに、所定回数毎に1
回実行するようにしてもよい。さらに、この所定回数
は、ランダムに変更するようにしてもよい。
In the present embodiment, the portamento conversion process is called, and if the above condition is satisfied, one conversion process is always selected from the three types of conversion processes and executed. Instead of executing the one conversion process every time the portamento conversion process is performed, one conversion process is performed every predetermined number of times.
It may be executed twice. Further, the predetermined number may be changed at random.

【0212】図28は、前記図13のステップS94の
効果音挿入処理サブルーチンの詳細な手順を示すフロー
チャートである。
FIG. 28 is a flowchart showing the detailed procedure of the sound effect insertion processing subroutine of step S94 in FIG.

【0213】図28において、まず、ステップS141
と同様にして、効果音挿入の設定はオンであるか否かを
判別する(ステップS191)。この判別は、効果音
(本実施の形態では、フレットノイズ)を挿入するか否
か(オン/オフ)をユーザが自由に設定できる効果音パ
ラメータ(図示せず)の値をチェックすることにより行
う。
In FIG. 28, first, at step S141
It is determined whether or not the effect sound insertion setting is turned on in the same manner as (1) (step S191). This determination is made by checking the value of a sound effect parameter (not shown) that allows the user to freely set (on / off) whether to insert a sound effect (in this embodiment, fret noise). .

【0214】ステップS191で、効果音挿入の設定が
オンのときには、対象フレーズは単音フレーズであるか
否かを判別する(ステップS192)。
If the setting of sound effect insertion is on in step S191, it is determined whether or not the target phrase is a single tone phrase (step S192).

【0215】ステップS192で、対象フレーズが単音
フレーズのときにはステップS193に進む一方、対象
フレーズが単音フレーズでないとき、すなわち和音フレ
ーズのとき、または、ステップS191で、効果音挿入
の設定がオフのときには、直ちに本効果音挿入処理サブ
ルーチンを終了する。
At step S192, if the target phrase is a monophonic phrase, the process proceeds to step S193. On the other hand, if the target phrase is not a monophonic phrase, that is, a chord phrase, or if the effect sound insertion setting is off at step S191, The sound effect insertion processing subroutine is immediately terminated.

【0216】ステップS193では、前記ステップS1
43と同様にして、全チャンネル、すなわちチャンネル
10〜15のノートデータ、すなわちノートオン/オフ
イベントデータを見て、時間的に隣接する2つのノート
を決定し、ステップS194では、前記ステップS14
5と同様にして、該2つのノートの音程は効果音を挿入
すべき指定値(以下、「効果音挿入指定値」という)以
上か否かを判別する(ステップS194)。なお、この
効果音挿入指定値も、ユーザが任意に設定することがで
きる。
In step S193, step S1 is executed.
In the same manner as in step 43, two notes that are temporally adjacent to each other are determined by looking at the note data of all channels, that is, the note on / off event data of channels 10 to 15, and in step S194, in step S14,
Similarly to 5, it is determined whether or not the pitch of the two notes is equal to or greater than a specified value at which a sound effect is to be inserted (hereinafter, referred to as “sound effect insertion specified value”) (step S194). The sound effect insertion designation value can also be arbitrarily set by the user.

【0217】ステップS194で、該2つのノートの音
程が効果音挿入指定値以上であるときには、フレットノ
イズを発音するノートイベントを所定チャンネル(本実
施の形態では、チャンネル9)に挿入する(ステップS
195)。具体的には、フレットノイズのノートイベン
トは、そのノートナンバは上記2つのノートイベントの
うち前のノートと同じノートナンバで、そのベロシティ
は所定値を採り、そのノートオンタイミングは前のノー
トのノートオフタイミングであり、そのノートオフタイ
ミングは後ろのノートのノートオンタイミングであるよ
うに決定される。
In step S194, when the pitch of the two notes is equal to or greater than the specified sound effect insertion value, a note event for generating fret noise is inserted into a predetermined channel (in this embodiment, channel 9) (step S194).
195). Specifically, the note event of the fret noise has the same note number as the previous note of the above two note events, its velocity takes a predetermined value, and its note-on timing is the note of the previous note. This is the off timing, and the note off timing is determined to be the note on timing of the following note.

【0218】一方、ステップS194で、前記2つのノ
ートの音程が前記効果音挿入指定値未満のときには、ス
テップS195をスキップしてステップS196に進
む。
On the other hand, if the pitch of the two notes is less than the specified sound effect insertion value in step S194, step S195 is skipped and the flow advances to step S196.

【0219】ステップS196では、対象フレーズのす
べてのノートに対して上記処理を終了したか否かを判別
し、まだ処理すべきノートが残っているときには、前記
ステップS193に戻って前記処理を繰り返す一方、す
べてのノートに対して処理を終了したときには、本効果
音挿入処理サブルーチンを終了する。
In step S196, it is determined whether or not the above processing has been completed for all notes of the target phrase. If there are notes to be processed, the flow returns to step S193 to repeat the above processing. When the processing has been completed for all notes, the sound effect insertion processing subroutine ends.

【0220】図29は、この効果音挿入処理サブルーチ
ンにより表情付け変換を行う前および後のノートイベン
トの構造を示す図であり、(a)は、変換前の対象とな
る2つのノートイベントの一例を示し、(b)は、
(a)のノートイベントの変換後の状態を示している。
FIGS. 29A and 29B are diagrams showing the structure of note events before and after expression conversion by this sound effect insertion processing subroutine. FIG. 29A shows an example of two target note events before conversion. And (b) shows
The state after conversion of the note event of (a) is shown.

【0221】(b)中、「FXノート」は、挿入された
フレットノイズのノートイベントを示し、前述のよう
に、「FXノート」は、「ノート1」と同じノートナン
バを有し、そのノートオンタイミングは、「ノート1」
のノートオフタイミング(時刻tf1)となり、そのノ
ートオフタイミングは、「ノート2」のノートオンタイ
ミング(時刻to2)となっている。
In (b), “FX note” indicates a note event of the inserted fret noise, and as described above, “FX note” has the same note number as “note 1”, and On timing is "Note 1"
Note-off timing (time tf1), and the note-off timing is the note-on timing (time to2) of “Note 2”.

【0222】このようにして、隣接する2音において、
前の音と次の音の間でフレットノイズを発音するように
構成したので、自然な位置(時間)でフレットノイズを
発生させることができる。
Thus, in two adjacent sounds,
Since the fret noise is generated between the previous sound and the next sound, the fret noise can be generated at a natural position (time).

【0223】なお、上述したポルタメント変換処理と効
果音挿入処理は、1つのフレーズ内における2つのノー
トの間にピッチベンドや効果音を挿入するようにした
が、連続する2つのフレーズのうちの、前フレーズの最
終ノートと、次フレーズの先頭ノートの間に挿入するよ
うにしてもよい。
In the portamento conversion processing and the sound effect insertion processing described above, pitch bends and sound effects are inserted between two notes in one phrase. It may be inserted between the last note of the phrase and the first note of the next phrase.

【0224】図30は、前記図13のステップS95の
アルペジオ強調処理サブルーチンの詳細な手順を示すフ
ローチャートである。
FIG. 30 is a flowchart showing a detailed procedure of the arpeggio emphasis processing subroutine of step S95 in FIG.

【0225】図30において、まず、前記ステップS1
41と同様にして、アルペジオ強調の設定はオンである
か否かを判別する(ステップS201)。この判別も、
アルペジオ強調を行うか否か(オン/オフ)をユーザが
自由に設定できるアルペジオ強調パラメータ(図示せ
ず)の値をチェックすることにより行う。
Referring to FIG. 30, first, in step S1
Similarly to 41, it is determined whether or not the setting of the arpeggio enhancement is ON (step S201). This determination also
Whether or not to perform arpeggio enhancement (on / off) is checked by checking the value of an arpeggio enhancement parameter (not shown) that can be freely set by the user.

【0226】ステップS201で、アルペジオ強調の設
定がオンであるときには、対象フレーズが単音フレーズ
であるか否かを判別する(ステップS202)。
If the setting of arpeggio emphasis is on in step S201, it is determined whether or not the target phrase is a single-tone phrase (step S202).

【0227】ステップS202で、対象フレーズが単音
フレーズのときには、図示しない設定パラメータに従っ
て、対象フレーズ内の指定された弦に対応するチャンネ
ルの全ノートのゲートタイムおよびベロシティを変更し
た(ステップS203)後に、本アルペジオ強調処理サ
ブルーチンを終了する。ここで、設定パラメータとは、
ベースノートとして取り扱う弦を、その対応するチャン
ネル番号で決定するためのストリングパラメータ、ゲー
トタイムを変更するレシオを決定するためのゲートタイ
ムレシオパラメータ、前記ベースノートのベロシティを
変更するレシオを決定するためのベロシティレシオパラ
メータの3種類のパラメータをいう。これらすべてのパ
ラメータの値は、ユーザが任意に設定できる。
If the target phrase is a monophonic phrase in step S202, the gate times and velocities of all notes of the channel corresponding to the specified string in the target phrase are changed in accordance with a setting parameter not shown (step S203). This arpeggio emphasis processing subroutine ends. Here, the setting parameter is
A string parameter for determining a string to be treated as a base note by its corresponding channel number, a gate time ratio parameter for determining a ratio for changing a gate time, and a ratio for changing a velocity of the base note It refers to three types of parameters: velocity ratio parameters. The values of all these parameters can be arbitrarily set by the user.

【0228】一方、ステップS201の判別で、アルペ
ジオ強調の設定がオフのとき、または、ステップS20
2の判別で、対象フレーズが単音フレーズでないときに
は、直ちに本アルペジオ強調処理サブルーチンを終了す
る。
On the other hand, if it is determined in step S201 that the arpeggio emphasis setting is off, or if step S20
If it is determined in step 2 that the target phrase is not a single tone phrase, the arpeggio emphasis processing subroutine is immediately terminated.

【0229】このようにして、親指で演奏するノートに
ついては、音を強く、そして長く演奏することにより、
ギターのアルペジオ奏法をより効果的にシミュレートす
ることができる。なお、本アルペジオ強調サブルーチン
は、アルペジオ奏法をシミュレートする目的のみの使用
に限らず、指弾きのバッキング、たとえばボサノバのバ
ッキングやジャズのハーモナイズソロ等のシミュレート
に使用すれば、コードのベースラインの動きが強調され
て、さらに効果的な表現を演奏データに付与することが
できる。
[0229] In this way, for a note to be played with the thumb, by playing the sound strongly and for a long time,
It is possible to simulate the arpeggio playing method of the guitar more effectively. The arpeggio emphasis subroutine is not limited to the purpose of simulating the arpeggio playing method. The movement is emphasized, and a more effective expression can be given to the performance data.

【0230】図31は、前記図13のステップS96の
ベロシティランダマイズ処理サブルーチンの詳細な手順
を示すフローチャートである。
FIG. 31 is a flowchart showing a detailed procedure of the velocity randomizing processing subroutine of step S96 in FIG.

【0231】図31において、まず、前記ステップS1
41と同様にして、ベロシティランダマイズの設定はオ
ンであるか否かを判別する(ステップS211)。この
判別も、ベロシティランダマイズを行うか否か(オン/
オフ)をユーザが自由に設定できるベロシティランダマ
イズパラメータ(図示せず)の値をチェックすることに
より行う。
In FIG. 31, first, in step S1
Similarly to 41, it is determined whether or not the velocity randomization setting is on (step S211). This determination also determines whether or not to perform velocity randomization (on /
Off) is checked by checking the value of a velocity randomization parameter (not shown) that can be freely set by the user.

【0232】ステップS211で、ベロシティランダマ
イズの設定がオフのときには、直ちに本ベロシティラン
ダマイズ処理サブルーチンを終了する一方、ベロシティ
ランダマイズの設定がオンのときにはステップS212
に進む。
If the velocity randomization setting is off in step S211, the velocity randomization processing subroutine is immediately terminated, while if the velocity randomization setting is on, step S212 is executed.
Proceed to.

【0233】ステップS212では、図示しない設定パ
ラメータに従って、対象フレーズ内の全ノートのベロシ
ティをランダムに変更した後に、本ベロシティランダマ
イズ処理サブルーチンを終了する。ここで、設定パラメ
ータとは、元のベロシティを変更するレシオの範囲を設
定するためのベロシティレシオレンジパラメータをい
い、このパラメータ値も、ユーザが任意に設定できる。
そして、このようにして設定された範囲内のレンジ値が
ランダムに選択され、この選択されたレンジ値が、対象
フレーズ内のすべてのノートのベロシティに乗算され
る。
In step S212, the velocities of all notes in the target phrase are randomly changed according to a setting parameter (not shown), and then the velocity randomizing subroutine is terminated. Here, the setting parameter refers to a velocity ratio orange parameter for setting a range of the ratio for changing the original velocity, and the parameter value can be arbitrarily set by the user.
Then, a range value within the range set in this way is randomly selected, and the selected range value is multiplied by the velocities of all the notes in the target phrase.

【0234】このようにして、対象フレーズ内の各ノー
ト間のフラットなベロシティがランダムに変更されるの
で、演奏データに、より音楽的な味付けをすることがで
きる。
As described above, since the flat velocity between each note in the target phrase is randomly changed, more musical flavor can be added to the performance data.

【0235】なお、本実施の形態では、各種パラメータ
は、前記ステップS1およびS91のパラメータ設定処
理において、ユーザが1つずつ設定するようにしたが、
これに限らず、図32に示すように、演奏データに最適
な(標準的な)パラメータ群を予め設定し、当該演奏デ
ータファイル(ソングファイル)に対応させて、パラメ
ータファイルとして、たとえば前記HDD11のハード
ディスク等に記憶し、ユーザがある1つのソングファイ
ルを選択したときには、そのソングファイルに対応する
パラメータファイルを自動的に前記パラメータ格納領域
にロードするようにしてもよい。これにより、ユーザは
演奏データ毎に各パラメータを設定する必要がなくな
り、目的の演奏データに標準的なパラメータのみを選択
するユーザにとっては、パラメータ設定を行う手間が省
け、操作性が向上する。
In this embodiment, the various parameters are set by the user one by one in the parameter setting processing in steps S1 and S91.
However, the present invention is not limited to this. As shown in FIG. 32, an optimal (standard) parameter group for performance data is set in advance, and is associated with the performance data file (song file). When stored in a hard disk or the like and a user selects one song file, a parameter file corresponding to the song file may be automatically loaded into the parameter storage area. This eliminates the need for the user to set each parameter for each piece of performance data. For a user who selects only standard parameters for the target performance data, the trouble of setting parameters is eliminated, and operability is improved.

【0236】さらに、曲の進行に従って使用するパラメ
ータを変更したいユーザには、図33に示すように、ソ
ングファイルに対応してパラメータシーケンスファイル
を予め記憶し、ユーザがある1つのソングファイルを選
択したときに、該ソングファイルに対応するパラメータ
シーケンスファイルおよびこのパラメータシーケンスフ
ァイルで使用しているパラメータファイルもソングファ
イルとともに前記所定領域にロードするようにすればよ
い。これにより、曲中のある部分を指定して、その位置
に、たとえば「チョーキング」をかける等のより細かな
設定を行うことができ、熟練者にとっても、満足できる
パラメータ設定ができ、操作性をより向上させることが
できる。
Further, as shown in FIG. 33, for a user who wants to change parameters to be used in accordance with the progress of a song, a parameter sequence file corresponding to a song file is stored in advance, and the user selects one song file. At this time, the parameter sequence file corresponding to the song file and the parameter file used in the parameter sequence file may be loaded into the predetermined area together with the song file. As a result, it is possible to specify a certain part in the music and make finer settings such as applying "chalking" to that position, and also to make parameter settings that are satisfactory even for a skilled person, thereby improving operability. It can be further improved.

【0237】また、パラメータファイルは、図34に示
すように、弦楽器の種類に応じて、個別に用意するよう
にしてもよい。たとえば、弦楽器がエレキギターの場合
にはチョーキングを多用する反面、アコースティックギ
ターの場合にはフレットノイズが出やすいというよう
に、弦楽器の種類に応じて効果音が変わるため、表情付
けパラメータも変更する必要があるからである。これに
より、選択した楽器の種類に応じて最適なパラメータを
設定することができる。
As shown in FIG. 34, the parameter files may be individually prepared according to the types of stringed instruments. For example, if the stringed instrument is an electric guitar, choking is often used, but if the acoustic guitar is an acoustic guitar, fret noise is likely to appear. Because there is. As a result, optimal parameters can be set according to the type of the selected musical instrument.

【0238】図35は、前記図32または33で説明し
たように、ソングファイルに対応してパラメータファイ
ルまたはパラメータシーケンスファイルが記憶されてい
る場合に、前記演奏データ記憶領域にソングファイルを
ロードするソングファイルロード処理サブルーチンの手
順を示すフローチャートである。図35中、かっこ内
は、ソングファイルに対応してパラメータシーケンスフ
ァイルが記憶されている場合のソングファイルロード処
理を示している。このように、ソングファイルに対応し
てパラメータファイルが記憶されている場合とパラメー
タシーケンスファイルが記憶されている場合の両方の処
理手順を1つのフローチャートで示したのは、両処理手
順に共通する処理が多いからである。したがって、以
下、ソングファイルに対応してパラメータファイルが記
憶されている場合についてのみ、ソングファイルロード
処理手順を説明する。
FIG. 35 shows a case where a song file is loaded into the performance data storage area when a parameter file or a parameter sequence file is stored corresponding to the song file as described with reference to FIG. 32 or 33. It is a flowchart which shows the procedure of a file load processing subroutine. In FIG. 35, the contents in parentheses indicate a song file loading process when a parameter sequence file is stored corresponding to the song file. As described above, the processing procedure for both the case where the parameter file is stored corresponding to the song file and the case where the parameter sequence file is stored are shown in one flowchart. Because there are many. Therefore, only when the parameter file is stored corresponding to the song file, the procedure for loading the song file will be described.

【0239】図35において、まず、ユーザの指示に応
じてソングファイルが選択され(ステップS221)、
該選択されたファイルが前記演奏データ格納領域にロー
ドされる(ステップS222)。
In FIG. 35, first, a song file is selected according to a user's instruction (step S221).
The selected file is loaded into the performance data storage area (step S222).

【0240】次に、該ソングファイルと同一ファイル名
のパラメータファイルがあるか否かを判別し(ステップ
S223)、同一ファイル名のパラメータファイルがあ
るときには、該パラメータファイルを前記パラメータ格
納領域にロードした(ステップS224)後に、本ソン
グファイルロード処理サブルーチンを終了する。ここ
で、ソングファイルに対応するパラメータファイルは、
図32に示すように、そのファイル名は同一であり、そ
のセカンダリネーム、すなわちコンマ以下の名称(“P
RM”)を異ならせることにより、ソングファイルであ
るのか、またはパラメータファイルであるのかを区別し
ている。したがって、ソングファイルに対応して記憶し
たパラメータファイルを検索するためには、ステップS
223の判別のように、対象ソングファイルと同一ファ
イル名のパラメータファイルを検索するようにすればよ
い。これは、パラメータシーケンスファイルを検索する
場合でも同様である。
Next, it is determined whether there is a parameter file having the same file name as the song file (step S223). If there is a parameter file having the same file name, the parameter file is loaded into the parameter storage area. (Step S224) After that, the present song file load processing subroutine ends. Here, the parameter file corresponding to the song file is
As shown in FIG. 32, the file names are the same, and the secondary name, that is, the name below the comma (“P
RM ") to distinguish between a song file and a parameter file. Therefore, in order to search for a parameter file stored corresponding to a song file, step S
As in the determination at 223, a parameter file having the same file name as the target song file may be searched. This is the same when searching for a parameter sequence file.

【0241】一方、ステップS223で、対象ソングフ
ァイルと同一ファイル名のパラメータファイルがないと
きには、ユーザが指示したパラメータファイルを選択し
(ステップS225)、該選択されたパラメータファイ
ルを前記パラメータ格納領域にロードした(ステップS
226)後に、本ソングファイルロード処理を終了す
る。
On the other hand, if there is no parameter file having the same file name as the target song file in step S223, the parameter file designated by the user is selected (step S225), and the selected parameter file is loaded into the parameter storage area. (Step S
226) After that, the song file loading process ends.

【0242】このようにして、ユーザが所望のソングフ
ァイルを指定すると、該ソングファイルに対応するパラ
メータファイル(またはパラメータシーケンスファイ
ル)が自動的にロードされる。したがって、ユーザはパ
ラメータを1つずつ設定する手間を省くことができ、こ
れにより、操作性がさらに向上する。
In this way, when the user specifies a desired song file, the parameter file (or parameter sequence file) corresponding to the song file is automatically loaded. Therefore, the user can save the trouble of setting parameters one by one, thereby further improving operability.

【0243】また、演奏データと楽器とを対応させ、ユ
ーザが演奏データを選択すると、自動的に対応する楽器
が選択されるようにしてもよい。そして、この楽器の選
択により、たとえば、前記表示装置9にその楽器の絵を
表示させ、タブ譜形式データに基づいてユーザの指使い
を表示したり、さらに、その楽器の音色を音源回路15
に自動的に設定する等を行うようにしてもよい。
Also, the performance data may be associated with the musical instrument, and when the user selects the performance data, the corresponding musical instrument may be automatically selected. By selecting the musical instrument, for example, a picture of the musical instrument is displayed on the display device 9, the fingering of the user is displayed based on the tablature format data, and further, the timbre of the musical instrument is displayed on the sound source circuit 15.
May be set automatically.

【0244】なお、本実施の形態では、弦楽器としてギ
ターを例に挙げて説明したが、これに限らず、ベース等
の他の弦楽器特有の表情付けを行う演奏データを生成す
るようにしてもよい。また、表情付けパラメータの種類
も、本実施の形態で説明したものに限らないことは云う
までもない。
In the present embodiment, a guitar has been described as an example of a stringed instrument. However, the present invention is not limited to this, and performance data for giving an expression specific to another stringed instrument such as a bass may be generated. . Also, it goes without saying that the type of the facial expression parameter is not limited to that described in the present embodiment.

【0245】なお、本実施の形態では、本発明を演奏デ
ータ変換装置の形態で構成したが、これに限らず、パー
ソナルコンピュータとアプリケーションプログラムの形
態で構成することもできる。このアプリケーションプロ
グラムは、磁気ディスク、光ディスク、半導体メモリ等
の記憶媒体に記憶させ、パーソナルコンピュータに供給
するようにしてもよいし、ネットワークを介して供給す
るようにしてもよい。
In the present embodiment, the present invention is configured in the form of a performance data converter, but is not limited to this, and may be configured in the form of a personal computer and an application program. This application program may be stored in a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory and supplied to a personal computer, or may be supplied via a network.

【0246】また、本実施の形態では、図1に示すよう
に、本発明を音源装置(音源回路12、効果回路13お
よびサウンドシステム14)および自動演奏装置(CP
U5)を内蔵した演奏データ変換装置で実現したが、こ
れに限らず、それぞれ別体の装置で構成し、MIDIイ
ンタフェースや各種ネットワーク等の通信手段を用いて
各装置を接続して本発明を実現するようにしてもよい。
Further, in the present embodiment, as shown in FIG. 1, the present invention relates to a sound source device (sound source circuit 12, effect circuit 13 and sound system 14) and an automatic performance device (CP).
The present invention is realized by a performance data conversion device incorporating U5), but the present invention is not limited to this, but is configured by separate devices and connected to each device using communication means such as a MIDI interface and various networks. You may make it.

【0247】さらに、本実施の形態では、本発明を鍵盤
1を備えた電子楽器に適用した例を説明したが、これに
限らず、カラオケ装置が再生する伴奏データ等を作成す
る機器等に適用することもできる。
Further, in the present embodiment, an example has been described in which the present invention is applied to an electronic musical instrument having a keyboard 1, but the present invention is not limited to this, and is applied to a device for creating accompaniment data and the like reproduced by a karaoke apparatus. You can also.

【0248】[0248]

【発明の効果】以上説明したように、請求項1記載の発
明に依れば、同一タイミングノートサーチ手段により複
数個のノートがサーチされたときに、当該複数個のノー
トのうち所定のノートの発音継続時間を基準にして当該
各ノートの発音開始タイミングをシフトするためのタイ
ミングシフト量が決定され、該決定されたタイミングシ
フト量に従って前記複数個のノートの各発音開始タイミ
ングをシフトすることにより当該演奏データが変換され
るので、変換すべき演奏データに設定された音色が、た
とえばギターの音色である場合に、すばやいカッティン
グ(当該各ノートの発音継続時間が短いことが多い)に
対しては当該複数個のノートの各発音開始タイミングの
ずれは少なくなる一方、ゆっくりとしたストローク(当
該各ノートの発音継続時間が長いことが多い)に対して
は当該複数個のノートの各発音開始タイミングのずれは
多くなるという制御を行うことができ、演奏データをよ
りギター演奏らしく変換することが可能となる効果を奏
する。
As described above, according to the first aspect of the present invention, when a plurality of notes are searched by the same timing note search means, a predetermined one of the plurality of notes is searched. A timing shift amount for shifting the sounding start timing of each note is determined based on the sounding continuation time, and by shifting each sounding start timing of the plurality of notes according to the determined timing shift amount. Since the performance data is converted, if the tone set for the performance data to be converted is, for example, the tone of a guitar, quick cutting (often the duration of sound of each note is short) is not necessary. The difference between the sounding start timings of a plurality of notes is reduced, while the slow stroke (the sounding of each note (The duration is often long), it is possible to perform control such that the difference between the sounding start timings of the plurality of notes is increased, and the performance data can be converted more like a guitar performance. To play.

【0249】請求項2記載の発明に依れば、発音開始タ
イミングシフト量決定手段により決定された発音タイミ
ングシフト量に従ってシフトされた前記各ノートの発音
タイミングがそれぞれ略第1のタイミングのときには、
当該複数個のノートに対応する演奏データはアップスト
ロークによるものと判定される一方、前記シフトされた
前記各ノートの発音タイミングがそれぞれ略第2のタイ
ミングのときには、当該複数個のノートに対応する演奏
データはダウンストロークによるものと判定されるの
で、ストロークの方向を適切に判定することができる。
According to the second aspect of the present invention, when the sounding timing of each note shifted in accordance with the sounding timing shift amount determined by the sounding start timing shift amount determining means is substantially the first timing,
While the performance data corresponding to the plurality of notes is determined to be based on the upstroke, when the sounding timing of each shifted note is substantially the second timing, the performance data corresponding to the plurality of notes is performed. Since the data is determined to be based on the downstroke, the direction of the stroke can be appropriately determined.

【0250】請求項3記載の発明に依れば、前記判定さ
れたストロークの方向に応じてベロシティスロープが選
択され、該選択されたベロシティスロープに応じて、前
記同一タイミングノートサーチ手段によりサーチされた
複数個のノートの各ベロシティをシフトするためのベロ
シティシフト量が決定され、該決定されたベロシティシ
フト量に従って前記複数個のノートの各ベロシティをシ
フトすることにより当該演奏データが変換されるので、
演奏データにより弦楽器らしい演奏表情を付与すること
ができる。
According to the third aspect of the present invention, a velocity slope is selected according to the determined stroke direction, and a search is made by the same timing note search means according to the selected velocity slope. A velocity shift amount for shifting each velocity of the plurality of notes is determined, and the performance data is converted by shifting each velocity of the plurality of notes according to the determined velocity shift amount.
A performance expression like a stringed instrument can be given by the performance data.

【0251】請求項4記載の発明に依れば、同一タイミ
ングノートサーチ手段によりサーチされた複数個のノー
トが所定の条件を満足するときに、当該複数個のノート
の各発音継続時間をシフトするためのシフト量が決定さ
れ、該決定されたシフト量に従って前記複数個のノート
の各発音継続時間をシフトすることにより当該演奏デー
タが変換されるので、演奏データに、特にミュート奏法
による演奏表情を付与することができる。
According to the fourth aspect of the present invention, when a plurality of notes searched by the same timing note search means satisfy a predetermined condition, each sound generation duration of the plurality of notes is shifted. Is determined, and the performance data is converted by shifting each sound duration of the plurality of notes according to the determined shift amount. Can be granted.

【0252】請求項5記載の発明に依れば、入力された
演奏データのうち隣接する複数個のかつ音高が異なるノ
ートを1つのノートにまとめて新たな演奏データとし、
該新演奏データの音高を当該複数個のノートのうちのい
ずれか1つのノートの音高にするとともに、その発音継
続時間を当該複数個のノートの最初の発音開始タイミン
グから最後の発音終了タイミングまでにし、該新演奏デ
ータの音高が当該複数個のノートの最低音高から最大音
高まで変化するように、前記演奏データの所定の位置に
ピッチベンドデータを挿入することにより演奏データが
変換されるので、当該演奏データに各種態様の演奏表情
を付与することができる。
According to the fifth aspect of the present invention, a plurality of adjacent notes having different pitches among the input performance data are combined into one note to form new performance data.
The pitch of the new performance data is set to the pitch of any one of the plurality of notes, and the sounding continuation time is changed from the first sounding start timing to the last sounding end timing of the plurality of notes. The performance data is converted by inserting pitch bend data at a predetermined position in the performance data so that the pitch of the new performance data changes from the lowest pitch to the highest pitch of the plurality of notes. Therefore, it is possible to provide various types of performance expressions to the performance data.

【0253】請求項6記載の発明に依れば、前記新演奏
データの元の複数個のノートの音程に応じてピッチベン
ドの態様の異なるピッチベンドデータが挿入されるの
で、簡単なアルゴリズムによりその制御位置を決定する
ことができる。
According to the sixth aspect of the present invention, pitch bend data having different pitch bend modes are inserted in accordance with the pitches of a plurality of original notes of the new performance data. Can be determined.

【0254】請求項7記載の発明に依れば、前記新演奏
データに付随するピッチベンドデータのうち最初のピッ
チベンドデータによるピッチベンド開始タイミングが、
当該新演奏データの発音開始タイミングから所定ディレ
イ時間経過後となるような位置に、該最初のピッチベン
ドデータが挿入されるので、当該新演奏データに、いわ
ゆる「ため」という演奏表情を付与することができる。
According to the seventh aspect of the present invention, the pitch bend start timing based on the first pitch bend data among the pitch bend data accompanying the new performance data is:
Since the first pitch bend data is inserted at a position where a predetermined delay time has elapsed after the sound generation start timing of the new performance data, it is possible to add a so-called “me” to the new performance data. it can.

【0255】請求項8記載の発明に依れば、隣接ノート
サーチ手段によりサーチされたノートの音程に応じて、
所定の効果音を発生させる効果音データを前記演奏デー
タの所定の位置に挿入することにより演奏データが変換
されるので、効果音データをその効果音が最適に発生さ
れる位置に適切に配置させることができる。
According to the eighth aspect of the present invention, according to the pitch of the note searched by the adjacent note search means,
Since the performance data is converted by inserting sound effect data for generating a predetermined sound effect at a predetermined position in the performance data, the sound effect data is appropriately arranged at a position where the sound effect is optimally generated. be able to.

【0256】請求項9記載の発明に依れば、前記所定の
位置は、前記サーチされた2個のノートの各発音開始タ
イミングの間であるので、自然な位置(時間)で効果音
を発生させることができる。
According to the ninth aspect of the present invention, since the predetermined position is between the sounding start timings of the two searched notes, a sound effect is generated at a natural position (time). Can be done.

【0257】請求項10記載の発明に依れば、入力され
た演奏データがフレーズに分割され、該分割されたフレ
ーズに含まれるノートのうち、所定の条件に該当するノ
ートが検出され、該検出されたノートの発音継続時間を
シフトするための発音継続時間シフト量が決定され、前
記検出されたノートのベロシティをシフトするためのベ
ロシティシフト量が決定され、前記決定された発音継続
時間シフト量およびベロシティシフト量に従って、当該
ノートの発音継続時間をシフトするとともにそのベロシ
ティをシフトすることにより当該演奏データが変換され
るので、演奏データに、特にアルペジオ奏法による演奏
表情を付与することができる。
According to the tenth aspect of the present invention, the input performance data is divided into phrases, and among the notes included in the divided phrases, notes that meet predetermined conditions are detected. The sounding duration shift amount for shifting the sounding duration of the detected note is determined, the velocity shifting amount for shifting the velocity of the detected note is determined, and the determined sounding duration shift amount and The performance data is converted by shifting the note duration and the velocity of the note in accordance with the velocity shift amount, so that the performance data can be given a performance expression, particularly by an arpeggio playing method.

【0258】請求項11記載の発明に依れば、前記入力
された演奏データが変換されるときに、その基礎となる
各種の表情付けパラメータが当該演奏データ曲に対応さ
せて記憶媒体に記憶されるので、ユーザは各種の表情付
けパラメータを設定する必要がなくなり、操作性を向上
させることができる。
According to the eleventh aspect of the present invention, when the input performance data is converted, various expression parameters which are the basis of the conversion are stored in the storage medium in association with the performance data music. Therefore, the user does not need to set various expression parameters, and operability can be improved.

【0259】請求項12記載の発明に依れば、前記各種
の表情付けパラメータから成る複数個の表情付けパラメ
ータ群がシーケンスデータとして記憶され、前記入力さ
れた演奏データに基づいて当該演奏データの変換が行わ
れるときに、その変換の進行に従って前記パラメータ群
が切り換えられ、該切り換え後のパラメータ群に含まれ
る表情付けパラメータに基づいて当該演奏データが変換
されるので、演奏データ中のある部分を指定して、その
位置に所望のパラメータ群の表情付けパラメータを設定
することができ、これにより、演奏データに、より細か
な演奏表情を付与することができる。
According to the twelfth aspect of the present invention, a plurality of facial expression parameter groups including the various facial expression parameters are stored as sequence data, and conversion of the performance data is performed based on the input performance data. Is performed, the parameter group is switched in accordance with the progress of the conversion, and the performance data is converted based on the expression parameters included in the switched parameter group, so that a certain portion in the performance data is designated. Then, it is possible to set the expression parameter of a desired parameter group at that position, whereby a more detailed performance expression can be given to the performance data.

【0260】請求項13記載の発明に依れば、演奏デー
タに設定可能な音色に対応する楽器毎に最適な前記表情
付けパラメータが前記記憶媒体に記憶され、前記入力さ
れた演奏データに設定された楽器の種類に応じて前記記
憶された表情付けパラメータがロードされ、該ロード後
の表情付けパラメータに基づいて当該演奏データが変換
されるので、選択された楽器の種類に応じて最適な表情
付けパラメータで演奏データを変換することができる。
[0260] According to the thirteenth aspect of the present invention, the optimal expression expression parameters are stored in the storage medium for each musical instrument corresponding to the timbre that can be set in the performance data, and are set in the input performance data. The stored facial expression parameters are loaded according to the type of the musical instrument, and the performance data is converted based on the loaded facial expression parameters. Therefore, the optimal facial expression is selected according to the type of the selected musical instrument. Performance data can be converted with parameters.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態に係る演奏データ変換装
置の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a performance data conversion device according to an embodiment of the present invention.

【図2】演奏データのデータフォーマットの一例を示す
図である。
FIG. 2 is a diagram showing an example of a data format of performance data.

【図3】図1の演奏データ変換装置で用いられるパラメ
ータの一例を示す図である。
FIG. 3 is a diagram showing an example of parameters used in the performance data converter of FIG. 1;

【図4】タブ譜変換処理サブルーチンの手順を示すフロ
ーチャートである。
FIG. 4 is a flowchart illustrating a procedure of a tablature conversion processing subroutine.

【図5】図4のフレーズサーチ処理サブルーチンの詳細
な手順を示すフローチャートである。
FIG. 5 is a flowchart showing a detailed procedure of a phrase search processing subroutine of FIG. 4;

【図6】図5のノートオン処理サブルーチンの詳細な手
順を示すフローチャートである。
FIG. 6 is a flowchart showing a detailed procedure of a note-on processing subroutine of FIG. 5;

【図7】図5のノートオフ処理サブルーチンの詳細な手
順を示すフローチャートである。
FIG. 7 is a flowchart showing a detailed procedure of a note-off processing subroutine of FIG. 5;

【図8】図4のポジション決定、振り分け処理サブルー
チンの詳細な手順を示すフローチャートである。
8 is a flowchart showing a detailed procedure of a position determination and distribution processing subroutine in FIG.

【図9】図8の単音フレーズ処理サブルーチンの詳細な
手順を示すフローチャートである。
FIG. 9 is a flowchart showing a detailed procedure of a single sound phrase processing subroutine of FIG. 8;

【図10】図8の和音フレーズ処理サブルーチンの詳細
な手順を示すフローチャートである。
FIG. 10 is a flowchart showing a detailed procedure of a chord phrase processing subroutine of FIG. 8;

【図11】図9および10のノート振り分け処理サブル
ーチンの詳細な手順を示すフローチャートである。
FIG. 11 is a flowchart showing a detailed procedure of a note assignment processing subroutine of FIGS. 9 and 10;

【図12】フレットボードの一例を示す図であり、候補
ポジションの選択方法を説明するための図である。
FIG. 12 is a diagram illustrating an example of a fretboard and illustrating a method for selecting a candidate position.

【図13】表情付け変換処理サブルーチンの手順を示す
フローチャートである。
FIG. 13 is a flowchart showing a procedure of a facial expression conversion subroutine.

【図14】図13のコードクオンタイズ処理サブルーチ
ンの詳細な手順を示すフローチャートである。
14 is a flowchart showing a detailed procedure of a code quantization processing subroutine of FIG.

【図15】図14のタイミングシフト処理サブルーチン
の詳細な手順を示すフローチャートである。
FIG. 15 is a flowchart showing a detailed procedure of a timing shift processing subroutine of FIG. 14;

【図16】図14のベロシティシフト処理サブルーチン
の詳細な手順を示すフローチャートである。
16 is a flowchart showing a detailed procedure of a velocity shift processing subroutine of FIG.

【図17】図14のミュートカッティング処理サブルー
チンの詳細な手順を示すフローチャートである。
FIG. 17 is a flowchart showing a detailed procedure of a mute cutting processing subroutine of FIG. 14;

【図18】図15のタイミングシフト処理サブルーチン
によりタイミングシフトされる前および後のコードのノ
ートオンタイミングを示す図である。
18 is a diagram showing note-on timings of chords before and after the timing is shifted by the timing shift processing subroutine of FIG.

【図19】図15および16中のアップ/ダウン判定の
方法を説明するための図である。
FIG. 19 is a diagram for explaining a method of up / down determination in FIGS. 15 and 16;

【図20】ベロシティスロープの一例を示す図である。FIG. 20 is a diagram illustrating an example of a velocity slope.

【図21】図13のポルタメント変換処理サブルーチン
の詳細な手順を示すフローチャートである。
FIG. 21 is a flowchart showing a detailed procedure of a portamento conversion processing subroutine of FIG. 13;

【図22】図21のハンマリングオン/プリングオフ処
理サブルーチンの詳細な手順を示すフローチャートを示
す図である。
22 is a flowchart showing a detailed procedure of a hammering on / pulling off processing subroutine in FIG. 21.

【図23】図22のハンマリングオン/プリングオフ処
理サブルーチンにより表情付け変換を行う前および後の
ノートイベントの構造を示す図である。
23 is a diagram showing the structure of a note event before and after performing expression conversion by the hammering-on / pull-off processing subroutine of FIG. 22.

【図24】図21のチョーキング処理サブルーチンの詳
細な手順を示すフローチャートである。
24 is a flowchart showing a detailed procedure of a choking process subroutine in FIG. 21.

【図25】図24のチョーキング処理サブルーチンによ
り表情付け変換を行う前および後のノートイベントの構
造を示す図である。
25 is a diagram showing the structure of a note event before and after performing expression conversion by the choking processing subroutine of FIG. 24.

【図26】図21のグリッサンド処理サブルーチンの詳
細な手順を示すフローチャートである。
26 is a flowchart showing a detailed procedure of a glissando processing subroutine of FIG. 21.

【図27】図26のグリッサンド処理サブルーチンによ
り表情付け変換を行う前および後のノートイベントの構
造を示す図である。
27 is a diagram showing the structure of a note event before and after performing expression conversion by the glissando processing subroutine of FIG. 26;

【図28】図13の効果音挿入処理サブルーチンの詳細
な手順を示すフローチャートである。
FIG. 28 is a flowchart showing a detailed procedure of a sound effect insertion processing subroutine of FIG. 13;

【図29】図28の効果音挿入処理サブルーチンにより
表情付け変換を行う前および後のノートイベントの構造
を示す図である。
29 is a diagram showing the structure of a note event before and after performing expression conversion by the sound effect insertion processing subroutine of FIG. 28. FIG.

【図30】図13のアルペジオ強調処理サブルーチンの
詳細な手順を示すフローチャートである。
FIG. 30 is a flowchart showing a detailed procedure of an arpeggio emphasis processing subroutine of FIG. 13;

【図31】図13のベロシティランダマイズ処理サブル
ーチンの詳細な手順を示すフローチャートである。
FIG. 31 is a flowchart showing a detailed procedure of a velocity randomizing processing subroutine in FIG. 13;

【図32】パラメータファイルをソングファイルに対応
付けるようにした場合の一例を示す図である。
FIG. 32 is a diagram showing an example of a case where a parameter file is associated with a song file.

【図33】パラメータシーケンスファイルをソングファ
イルに対応付けるようにした場合の一例を示す図であ
る。
FIG. 33 is a diagram showing an example of a case where a parameter sequence file is associated with a song file.

【図34】楽器の種類に応じてパラメータファイルを用
意した場合のパラメータファイルの一例を示す図であ
る。
FIG. 34 is a diagram showing an example of a parameter file when a parameter file is prepared according to the type of musical instrument.

【図35】ソングファイルに対応するパラメータファイ
ルまたはパラメータシーケンスファイルがある場合に、
ソングファイルをロードするソングファイルロード処理
サブルーチンの手順を示すフローチャートである。
FIG. 35: When there is a parameter file or parameter sequence file corresponding to a song file,
It is a flowchart which shows the procedure of the song file loading processing subroutine which loads a song file.

【符号の説明】[Explanation of symbols]

5 CPU 6 ROM 7 RAM 11 ハードディスクドライブ 13 MIDIインターフェース 5 CPU 6 ROM 7 RAM 11 Hard disk drive 13 MIDI interface

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 入力された演奏データのうち略同一タイ
ミングで発音する複数個のノートをサーチする同一タイ
ミングノートサーチ手段と、 該同一タイミングノートサーチ手段により複数個のノー
トがサーチされたときに、当該複数個のノートのうち所
定のノートの発音継続時間を基準にして当該各ノートの
発音開始タイミングをシフトするためのタイミングシフ
ト量を決定する発音開始タイミングシフト量決定手段
と、 該決定されたタイミングシフト量に従って前記複数個の
ノートの各発音開始タイミングをシフトすることにより
当該演奏データを変換する演奏データ変換手段とを有す
ることを特徴とする演奏データ変換装置。
1. An identical-timing note searching means for searching for a plurality of notes sounding at substantially the same timing in input performance data, and when a plurality of notes are searched by the same-timing note searching means, Sounding start timing shift amount determining means for determining a timing shift amount for shifting the sounding start timing of each of the plurality of notes based on the sounding duration of the predetermined note; and the determined timing. Performance data conversion means for converting the performance data by shifting each sound generation start timing of the plurality of notes according to the shift amount.
【請求項2】 前記発音開始タイミングシフト量決定手
段により決定された発音タイミングシフト量に従ってシ
フトされた前記各ノートの発音タイミングがそれぞれ略
第1のタイミングのときには、当該複数個のノートに対
応する演奏データはアップストロークによるものと判定
する一方、前記シフトされた前記各ノートの発音タイミ
ングがそれぞれ略第2のタイミングのときには、当該複
数個のノートに対応する演奏データはダウンストローク
によるものと判定するアップ/ダウンストローク判定手
段を有することを特徴とする請求項1記載の演奏データ
変換装置。
2. The musical performance corresponding to the plurality of notes when the sounding timing of each of the notes shifted according to the sounding timing shift amount determined by the sounding start timing shift amount determining means is substantially the first timing. While the data is determined to be based on an upstroke, when the shifted sounding timing of each note is substantially the second timing, the performance data corresponding to the plurality of notes is determined to be based on a downstroke. 2. The performance data conversion device according to claim 1, further comprising: a downstroke determination unit.
【請求項3】 前記アップ/ダウンストローク判定手段
により判定されたストロークの方向に応じてベロシティ
スロープを選択するベロシティスロープ選択手段と、 該選択されたベロシティスロープに応じて、前記同一タ
イミングノートサーチ手段によりサーチされた複数個の
ノートの各ベロシティをシフトするためのベロシティシ
フト量を決定するベロシティシフト量決定手段と、 該決定されたベロシティシフト量に従って前記複数個の
ノートの各ベロシティをシフトすることにより当該演奏
データを変換する演奏データ変換手段とを有することを
特徴とする請求項2記載の演奏データ変換装置。
3. A velocity slope selecting means for selecting a velocity slope according to the direction of the stroke determined by the up / down stroke determining means, and the same timing note searching means according to the selected velocity slope. Velocity shift amount determining means for determining a velocity shift amount for shifting each velocity of the searched plurality of notes; and shifting the respective velocities of the plurality of notes according to the determined velocity shift amount. 3. The performance data conversion device according to claim 2, further comprising performance data conversion means for converting performance data.
【請求項4】 入力された演奏データのうち略同一タイ
ミングで発音する複数個のノートをサーチする同一タイ
ミングノートサーチ手段と、 該同一タイミングノートサーチ手段によりサーチされた
複数個のノートが所定の条件を満足するときに、当該複
数個のノートの各発音継続時間をシフトするためのシフ
ト量を決定するシフト量決定手段と、 該決定されたシフト量に従って前記複数個のノートの各
発音継続時間をシフトすることにより当該演奏データを
変換する演奏データ変換手段とを有することを特徴とす
る演奏データ変換装置。
4. The same timing note searching means for searching a plurality of notes which sound at substantially the same timing in the input performance data, and the plurality of notes searched by the same timing note searching means are provided under a predetermined condition. The shift amount determining means for determining a shift amount for shifting each sounding duration of the plurality of notes, and calculating the sounding duration of each of the plurality of notes according to the determined shift amount. Performance data conversion means for converting the performance data by shifting the performance data.
【請求項5】 入力された演奏データのうち隣接する複
数個のかつ音高が異なるノートを1つのノートにまとめ
て新たな演奏データとし、該新演奏データの音高を当該
複数個のノートのうちのいずれか1つのノートの音高に
するとともに、その発音継続時間を当該複数個のノート
の最初の発音開始タイミングから最後の発音終了タイミ
ングまでにする複数ノートまとめ手段と、 該新演奏データの音高が当該複数個のノートの最低音高
から最大音高まで変化するように、前記演奏データの所
定の位置にピッチベンドデータを挿入することにより演
奏データを変換する演奏データ変換手段とを有すること
を特徴とする演奏データ変換装置。
5. A plurality of adjacent notes having different pitches among input performance data are collected into one note to form new performance data, and the pitch of the new performance data is stored in the plurality of notes. A plurality of note summarizing means for setting the pitch of any one of the notes, and setting the sounding continuation time from the first sounding start timing to the last sounding end timing of the plurality of notes; Performance data conversion means for converting performance data by inserting pitch bend data at a predetermined position of the performance data so that the pitch changes from the lowest pitch to the highest pitch of the plurality of notes; A performance data converter characterized by the following.
【請求項6】 前記演奏データ変換手段は、前記新演奏
データの元の複数個のノートの音程に応じてピッチベン
ドの態様の異なるピッチベンドデータを挿入することを
特徴とする請求項5記載の演奏データ変換装置。
6. The performance data according to claim 5, wherein said performance data conversion means inserts pitch bend data having different types of pitch bend in accordance with the intervals of a plurality of original notes of said new performance data. Conversion device.
【請求項7】 前記演奏データ変換手段は、前記新演奏
データに付随するピッチベンドデータのうち最初のピッ
チベンドデータによるピッチベンド開始タイミングが、
当該新演奏データの発音開始タイミングから所定ディレ
イ時間経過後となるような位置に、該最初のピッチベン
ドデータを挿入することを特徴とする請求項5または6
のいずれかに記載の演奏データ変換装置。
7. The performance data conversion means, wherein the pitch bend start timing based on the first pitch bend data among the pitch bend data accompanying the new performance data,
7. The first pitch bend data is inserted at a position such that a predetermined delay time has elapsed from the tone generation start timing of the new performance data.
The performance data conversion device according to any one of the above.
【請求項8】 入力された演奏データのうち隣接する2
個のかつ音程が異なるノートをサーチする隣接ノートサ
ーチ手段と、 該サーチされたノートの音程に応じて、所定の効果音を
発生させる効果音データを、前記演奏データの所定の位
置に挿入することにより演奏データを変換する演奏デー
タ変換手段とを有することを特徴とする演奏データ変換
装置。
8. An adjacent 2 of the input performance data
Adjacent note searching means for searching for notes having different pitches, and inserting sound effect data for generating a predetermined sound effect at a predetermined position in the performance data in accordance with the pitch of the searched note. And a performance data conversion means for converting performance data according to the performance data.
【請求項9】 前記所定の位置は、前記サーチされた2
個のノートの各発音開始タイミングの間であることを特
徴とする請求項8記載の演奏データ変換装置。
9. The method according to claim 1, wherein the predetermined position is the searched 2
9. The performance data converter according to claim 8, wherein the timing is between the sound generation start timings of the notes.
【請求項10】 入力された演奏データをフレーズに分
割するフレーズ分割手段と、 該分割されたフレーズに含まれるノートのうち、所定の
条件に該当するノートを検出するノート検出手段と、 該検出されたノートの発音継続時間をシフトするための
発音継続時間シフト量を決定する発音継続時間シフト量
決定手段と、 前記検出されたノートのベロシティをシフトするための
ベロシティシフト量を決定するベロシティシフト量決定
手段と、 前記決定された発音継続時間シフト量およびベロシティ
シフト量に従って、当該ノートの発音継続時間をシフト
するとともにそのベロシティをシフトすることにより当
該演奏データを変換する演奏データ変換手段とを有する
ことを特徴とする演奏データ変換装置。
10. Phrase dividing means for dividing inputted performance data into phrases, note detecting means for detecting notes corresponding to a predetermined condition among notes included in the divided phrases, Sounding duration shift amount determining means for determining the sounding duration shift amount for shifting the sounding duration time of the selected note; and a velocity shift amount determining means for determining the velocity shift amount for shifting the velocity of the detected note. Means, and performance data conversion means for converting the performance data by shifting the sounding duration of the note and shifting the velocity in accordance with the determined sounding duration shift amount and velocity shift amount. Characteristic performance data converter.
【請求項11】 前記演奏データ変換手段が前記入力さ
れた演奏データを変換するときに、その基礎となる各種
の表情付けパラメータを当該演奏データ曲に対応させて
記憶媒体に記憶する記憶手段を有することを特徴とする
請求項1乃至10のいずれかに記載の演奏データ変換装
置。
11. When the performance data conversion means converts the input performance data, the performance data conversion means has a storage means for storing, on a storage medium, various expression expression parameters which are the basis of the conversion in correspondence with the performance data music. The performance data conversion device according to any one of claims 1 to 10, wherein:
【請求項12】 前記記憶手段は、前記各種の表情付け
パラメータから成る複数個の表情付けパラメータ群をシ
ーケンスデータとして記憶し、 前記演奏データ変換手段は、前記入力された演奏データ
に基づいて当該演奏データの変換を行うときに、その変
換の進行に従って前記パラメータ群を切り換え、該切り
換え後のパラメータ群に含まれる表情付けパラメータに
基づいて当該演奏データを変換することを特徴とする請
求項11記載の演奏データ変換装置。
12. The storage means stores a plurality of facial expression parameter groups including the various facial expression parameters as sequence data, and the performance data conversion means performs the performance based on the input performance data. 12. The data conversion according to claim 11, wherein the parameter group is switched according to the progress of the conversion, and the performance data is converted based on an expression parameter included in the switched parameter group. Performance data converter.
【請求項13】 前記記憶手段は、演奏データに設定可
能な音色に対応する楽器毎に最適な前記表情付けパラメ
ータを前記記憶媒体に記憶し、 前記演奏データ変換手段は、前記入力された演奏データ
に設定された楽器の種類に応じて前記記憶された表情付
けパラメータをロードし、該ロード後の表情付けパラメ
ータに基づいて当該演奏データを変換することを特徴と
する請求項12記載の演奏データ変換装置。
13. The performance data conversion means stores the optimum expression expression parameter for each musical instrument corresponding to a tone color that can be set in performance data in the storage medium. 13. The performance data conversion according to claim 12, wherein the stored expression parameters are loaded in accordance with the type of musical instrument set in the step (a), and the performance data is converted based on the loaded expression parameters. apparatus.
JP27692896A 1996-09-30 1996-09-30 Performance data converter Expired - Fee Related JP3704842B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27692896A JP3704842B2 (en) 1996-09-30 1996-09-30 Performance data converter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27692896A JP3704842B2 (en) 1996-09-30 1996-09-30 Performance data converter

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005165982A Division JP4120662B2 (en) 2005-06-06 2005-06-06 Performance data converter

Publications (2)

Publication Number Publication Date
JPH10105173A true JPH10105173A (en) 1998-04-24
JP3704842B2 JP3704842B2 (en) 2005-10-12

Family

ID=17576364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27692896A Expired - Fee Related JP3704842B2 (en) 1996-09-30 1996-09-30 Performance data converter

Country Status (1)

Country Link
JP (1) JP3704842B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6046396A (en) * 1998-08-25 2000-04-04 Yamaha Corporation Stringed musical instrument performance information composing apparatus and method
JP2000099018A (en) * 1998-09-24 2000-04-07 Yamaha Corp Playing data edition apparatus and recording medium
US6150597A (en) * 1998-09-22 2000-11-21 Yamaha Corporation Method of arranging music with selectable templates of music notation
JP2003084769A (en) * 2001-09-13 2003-03-19 Yamaha Corp Method, device and program for processing performance information
JP2013029742A (en) * 2011-07-29 2013-02-07 Brother Ind Ltd Musical piece performing device, and musical piece performing program
JP2013222120A (en) * 2012-04-18 2013-10-28 Brother Ind Ltd Music reproduction device, music reproduction method, and music reproduction program
JP2015031711A (en) * 2013-07-31 2015-02-16 ブラザー工業株式会社 Musical sound playing device and musical sound playing process program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6046396A (en) * 1998-08-25 2000-04-04 Yamaha Corporation Stringed musical instrument performance information composing apparatus and method
US6150597A (en) * 1998-09-22 2000-11-21 Yamaha Corporation Method of arranging music with selectable templates of music notation
JP2000099018A (en) * 1998-09-24 2000-04-07 Yamaha Corp Playing data edition apparatus and recording medium
JP2003084769A (en) * 2001-09-13 2003-03-19 Yamaha Corp Method, device and program for processing performance information
JP2013029742A (en) * 2011-07-29 2013-02-07 Brother Ind Ltd Musical piece performing device, and musical piece performing program
JP2013222120A (en) * 2012-04-18 2013-10-28 Brother Ind Ltd Music reproduction device, music reproduction method, and music reproduction program
JP2015031711A (en) * 2013-07-31 2015-02-16 ブラザー工業株式会社 Musical sound playing device and musical sound playing process program

Also Published As

Publication number Publication date
JP3704842B2 (en) 2005-10-12

Similar Documents

Publication Publication Date Title
JP3675287B2 (en) Performance data creation device
US6576828B2 (en) Automatic composition apparatus and method using rhythm pattern characteristics database and setting composition conditions section by section
US6872877B2 (en) Musical tone-generating method
US6287124B1 (en) Musical performance practicing device and method
US8314320B2 (en) Automatic accompanying apparatus and computer readable storing medium
JP3900188B2 (en) Performance data creation device
JP3266149B2 (en) Performance guide device
JP3704842B2 (en) Performance data converter
JPH10214083A (en) Musical sound generating method and storage medium
JP3266007B2 (en) Performance data converter
JP4120662B2 (en) Performance data converter
JP3623557B2 (en) Automatic composition system and automatic composition method
JP3900187B2 (en) Performance data creation device
JP3613062B2 (en) Musical sound data creation method and storage medium
JP2002304175A (en) Waveform-generating method, performance data processing method and waveform-selecting device
JP2002297139A (en) Playing data modification processor
JP3807333B2 (en) Melody search device and melody search program
JP3800947B2 (en) Performance data processing apparatus and method, and storage medium
JP3413842B2 (en) Automatic accompaniment device
JP4221659B2 (en) Performance support device
CN112634847A (en) Electronic musical instrument, control method, and storage medium
JP3861886B2 (en) Musical sound waveform data creation method and storage medium
JP3870948B2 (en) Facial expression processing device and computer program for facial expression
JP2003099041A (en) Device and program for automatic music composition
JP2000163055A (en) Automatic fingering directing device and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050407

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050718

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110805

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130805

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees