JP3948464B2 - Performance data generating apparatus and recording medium - Google Patents

Performance data generating apparatus and recording medium Download PDF

Info

Publication number
JP3948464B2
JP3948464B2 JP2004137612A JP2004137612A JP3948464B2 JP 3948464 B2 JP3948464 B2 JP 3948464B2 JP 2004137612 A JP2004137612 A JP 2004137612A JP 2004137612 A JP2004137612 A JP 2004137612A JP 3948464 B2 JP3948464 B2 JP 3948464B2
Authority
JP
Japan
Prior art keywords
data
note
performance data
pitch
instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004137612A
Other languages
Japanese (ja)
Other versions
JP2004258680A (en
Inventor
栄一郎 青木
敏夫 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004137612A priority Critical patent/JP3948464B2/en
Publication of JP2004258680A publication Critical patent/JP2004258680A/en
Application granted granted Critical
Publication of JP3948464B2 publication Critical patent/JP3948464B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

この発明は、演奏データを生成するための装置及び記録媒体に関する。   The present invention relates to an apparatus and a recording medium for generating performance data.

従来、自動作曲装置等の自動演奏データ作成装置において、表情が付与された演奏データを作成する際には、先ず、打点位置(発音タイミング)と音長を決定し、その後、スタッカート/テヌート等の音長の長短や、スラーやしゃくり等のピッチ変化により、表情を付与していた。   2. Description of the Related Art Conventionally, when creating performance data with a facial expression in an automatic performance data creation device such as an automatic music composition device, first, the striking point position (pronunciation timing) and the sound length are determined, and then the staccato / tenuto etc. Facial expressions were given by the length of the sound and pitch changes such as slur and shackle.

また、演奏データに対して付与する表情として、2つのノート間のピッチを滑らかにつなぐ「スラー」や、本来のピッチよりも若干低いピッチで発音を始め、徐々に本来のピッチに推移させる「しゃくり」等の、ピッチ変化を伴うものがある。   In addition, as a facial expression to be added to the performance data, “slur” that smoothly connects the pitch between two notes, and “sharsh” that begins to pronounce at a slightly lower pitch than the original pitch and gradually changes to the original pitch ”And the like are accompanied by a pitch change.

しかしながら、従来の技術では、打点や音長の決定と表情の付与とが別の処理であり、処理効率が悪いという欠点がある。また、基本演奏データを構成する打点の位置や基本ピッチなどはそのままにし、表情のみを付与し直すことができないという不都合もあった。   However, the conventional technique has a drawback that the determination of the hit point and the sound length is different from the application of the facial expression, and the processing efficiency is poor. In addition, there is a disadvantage that it is not possible to reapply only the facial expression while keeping the positions of the hit points and the basic pitch constituting the basic performance data.

さらに、従来の技術においては、ピッチ変化の速さが遅いと、音符の長さによっては(短い音符の場合は)、ピッチ変化終了後のピッチ安定状態になった部分の時間が極端に短くなったり、或いはなくなってしまうことがあり、演奏音が不自然になるおそれがある。また、単純にピッチ変化の速さを速くすると、今度は長い音符においても速くピッチが変化してしまい、ゆったりとしたピッチ変化が得られないということもある。   Furthermore, in the conventional technology, if the speed of the pitch change is slow, depending on the length of the note (in the case of a short note), the time when the pitch is stable after the end of the pitch change becomes extremely short. Or the sound of the performance may become unnatural. In addition, if the speed of the pitch change is simply increased, the pitch changes quickly even for a long note, and a slow pitch change may not be obtained.

従来のメロディ生成は、生成のための音楽条件として、音域、調、拍子、などを決めて生成し、色々な楽器(音色)を指定してならしていた。ところが、実際の楽器では、その楽器によって、発音可能な音域や、音の跳躍ピッチ幅、跳躍頻度、表現奏法など演奏しやすさが異なる。   Conventional melody generation is performed by determining a musical range, key, time signature, etc. as music conditions for generation, and specifying various musical instruments (timbres). However, in an actual musical instrument, the range of sound that can be generated, the jumping pitch width of the sound, the jumping frequency, and the expression method differ depending on the musical instrument.

例えば、ピアノの場合には、音域が広く(A1〜C7)88ピッチにも及び、演奏表現として、レガート(次の音符を弾くときに、前の音符を少し重ねる)やスタッカート(音を短く切る)などの表現ができる。一方、人声の場合は、音域が一般的に狭く、大体、1オクターブ半であり、演奏表現として、スラー(次の音に移るときに発音は前のまま連続させ、ピッチだけかえる)やスタッカートなどの表現ができる。反対に、ピアノではスラーの表現はできない、人声ではあまり激しい音の跳躍の繰り返しはしにくい、などの特性がある。   For example, in the case of a piano, the sound range is wide (A1 to C7) and the pitch is 88 pitches, and as a performance expression, legato (a little bit overlaps the previous note when playing the next note) or staccato (cuts the sound short) ) Etc. On the other hand, in the case of a human voice, the range is generally narrow, roughly one octave and a half, and as a performance expression, slurs (sounds are continued as they are when moving to the next sound, and only the pitch is changed) or staccato Can be expressed. On the other hand, there is a characteristic that the slur cannot be expressed with the piano, and it is difficult to repeat the jump of a very intense sound with the human voice.

従来のメロディ生成技術では、このような楽器の特性(或いは、制約ともいえる)を生かしたメロディを生成することができなかった。例えば、ピアノで演奏するように広い音域でメロディを生成した場合には、このメロディを歌うことができなかった。また、歌うために狭い音域でメロディを生成すると、このメロディをピアノで演奏した場合、音域が狭く面白味に欠けるものであった。   In the conventional melody generation technology, it has been impossible to generate a melody that takes advantage of the characteristics (or restrictions) of such an instrument. For example, when a melody is generated in a wide range such as playing on a piano, the melody could not be sung. In addition, when a melody is generated in a narrow range for singing, when the melody is played on a piano, the range is narrow and lacking in interest.

この発明の目的は、このような事情に鑑み、特に、発音(演奏)する楽器にふさわしいメロディをもつ演奏データを生成することができる演奏データ生成装置及びそのための記録媒体を提供することにある。   In view of such circumstances, an object of the present invention is to provide a performance data generating apparatus capable of generating performance data having a melody suitable for a musical instrument to be sounded (played), and a recording medium therefor.

この発明の主たる特徴に従うと、生成する演奏データについて、少なくとも調、音符分解能、拍子、曲風を含む、楽器に依存しない音楽条件を指定する音楽条件指定手段と、該演奏データで演奏する楽器を指定する楽器指定手段と、楽器指定手段により指定された楽器に依存する演奏データ生成用パラメータであって、少なくとも音域、跳躍距離、跳躍頻度、表現奏法を含むものを取得するパラメータ取得手段と、音楽条件指定手段により指定された音楽条件に含まれる曲風に基づいて、パラメータ取得手段により取得された演奏データ生成用パラメータに含まれる少なくとも跳躍距離、跳躍頻度、表現奏法を変更するパラメータ変更手段と、音楽条件指定手段により指定された音楽条件及びパラメータ変更手段により変更された演奏データ生成用パラメータに基づいて、演奏データを生成する演奏データ生成手段とを具備する演奏データ生成装置〔請求項1〕、並びに、生成する演奏データについて、少なくとも調、音符分解能、拍子、曲風を含む、楽器に依存しない音楽条件を指定する音楽条件指定ステップと、該演奏データで演奏する楽器を指定する楽器指定ステップと、楽器指定ステップで指定された楽器に依存する演奏データ生成用パラメータであって、少なくとも音域、跳躍距離、跳躍頻度、表現奏法を含むものを取得するパラメータ取得ステップと、音楽条件指定ステップで指定された音楽条件に含まれる曲風に基づいて、パラメータ取得ステップで取得された演奏データ生成用パラメータに含まれる少なくとも跳躍距離、跳躍頻度、表現奏法を変更するパラメータ変更ステップと、音楽条件指定ステップで指定された音楽条件及びパラメータ変更ステップで変更された演奏データ生成用パラメータに基づいて、演奏データを生成する演奏データ生成ステップとから成る手順をコンピュータに実行させるプログラムを記録している演奏データ生成のためのコンピュータ読み取り可能な記録媒体〔請求項2〕が提供される。   According to the main feature of the present invention, music condition designating means for designating musical conditions independent of instruments, including at least key, note resolution, time signature, and song style, for the performance data to be generated, and an instrument to be played with the performance data Musical instrument designating means, parameter obtaining means for obtaining performance data generation parameters depending on the musical instrument designated by the musical instrument designating means, including at least a range, a jump distance, a jump frequency, and an expression method; music Parameter changing means for changing at least the jump distance, jump frequency, and expression method included in the performance data generation parameters acquired by the parameter acquiring means based on the musical composition included in the music conditions specified by the condition specifying means; Music conditions specified by the music condition specifying means and performance data changed by the parameter changing means A performance data generation device comprising performance data generation means for generating performance data based on the composition parameters, and the performance data to be generated includes at least key, note resolution, time signature and musical style. A music condition designating step for designating music conditions independent of an instrument, an instrument designating step for designating an instrument to be played with the performance data, and a performance data generating parameter depending on the instrument designated in the instrument designating step. A parameter acquisition step that acquires at least a range, a jump distance, a jump frequency, and an expression method, and a performance acquired in the parameter acquisition step based on the music style included in the music conditions specified in the music condition specification step Parameters that change at least the jump distance, jump frequency, and expression method included in the data generation parameters A program for causing a computer to execute a procedure comprising a further step and a performance data generation step for generating performance data based on the music condition specified in the music condition specification step and the performance data generation parameter changed in the parameter change step A computer-readable recording medium (claim 2) is provided for generating performance data in which the program is recorded.

この発明では、音域、跳躍距離(跳躍ピッチ幅)、跳躍頻度、表現奏法などのパラメータは、楽器に対する依存性が高いので、当該楽器で演奏可能な或いは演奏し易い演奏データ生成用パラメータとして、予め、楽器の種類別に用意されている。演奏データの生成にあたっては、調、音符分解能、拍子などの楽器に依存しない音楽条件を指定すると共に、演奏する楽器の種類を指定すると、指定された楽器に対応して演奏データ生成用パラメータが取り出され、取り出された当該楽器の演奏データ生成用パラメータ含まれる少なくとも跳躍距離、跳躍頻度、表現奏法が、指定された音楽条件に適したデータに変更される。そして、指定された音楽条件及び変更された演奏データ生成用パラメータに基づいて演奏データが生成される。従って、この発明によれば、指定された楽器に相応しいメロディをもつ演奏データを生成することができる。
In the present invention, the parameters such as the pitch, jump distance (jump pitch width), jump frequency, and expression method are highly dependent on the musical instrument. , Prepared for each type of instrument. When generating performance data, specify musical conditions that do not depend on the instrument, such as key, note resolution, and time signature, and specify the type of musical instrument to be played, and parameters for generating performance data will be extracted for the specified instrument. Then, at least the jump distance, the jump frequency, and the expression method included in the performance data generation parameters of the musical instrument thus taken out are changed to data suitable for the designated music condition. Then, performance data is generated based on the designated music condition and the changed performance data generation parameter. Therefore, according to the present invention, performance data having a melody suitable for the designated musical instrument can be generated.

〔種々の特徴〕
なお、「従来の技術」の項の前段で説明した欠点や不都合に対処すべく、以下の(1)〜(3)のように構成することにより、基本演奏データはそのままにして異なる表情を付与可能とすることができ、また、効率よく演奏データの音長を決定するとともに表情も付与することができ、さらに、基本演奏データに対して、「スラー」や「しゃくり」等、自然なピッチ変化の表情を付与することができる。
[Various features]
In order to deal with the drawbacks and inconveniences described in the previous section of the “Prior Art” section, the following (1) to (3) are configured, so that the basic performance data remains unchanged and different expressions are given. In addition, it is possible to efficiently determine the length of the performance data and to add facial expressions. Furthermore, natural pitch changes such as “slur” and “shrimp” can be applied to the basic performance data. Can be added.

(1)基本演奏データを取得する手段と、取得された基本演奏データに対応して、表情を付与するための表情データを再設定可能に設定する手段と、取得された基本演奏データ及び設定された表情データを対応して記憶する手段と、記憶された基本演奏データ及び表情データ(表情付与情報)に基づいて、表情が付与された演奏データを作成する手段とを具備する表情が付与された演奏データの作成装置、或いは、基本演奏データを取得するステップと、取得された基本演奏データに対応して、表情を付与するための表情データを再設定可能に設定するステップと、取得された基本演奏データ及び設定された表情データを対応して記憶するステップと、記憶された基本演奏データ及び表情データ(表情付与情報)に基づいて、表情が付与された演奏データを作成するステップとから成る手順をコンピュータに実行させるプログラムを記録している表情が付与された演奏データを作成するためのコンピュータ読み取り可能な記録媒体。ここで、表情データは、音長変化を伴う表情或いはピッチ変化を伴う表情を付与するためのものである。 (1) Means for acquiring basic performance data, means for setting facial expression data for adding a facial expression corresponding to the acquired basic performance data so as to be resettable, acquired basic performance data and set A facial expression comprising means for storing the corresponding facial expression data and means for creating performance data with a facial expression based on the stored basic performance data and facial expression data (facial expression information) is provided. A device for creating performance data or a step of acquiring basic performance data, a step of setting facial expression data for imparting a facial expression corresponding to the acquired basic performance data to be resettable, and an acquired basic A step of storing the performance data and the set facial expression data correspondingly, and a facial expression is assigned based on the stored basic performance data and facial expression data (facial expression information). Computer readable recording medium for creating performance data expression that records a program to execute a procedure comprising a step of creating a performance data to the computer is granted. Here, the expression data is for giving an expression accompanied by a change in sound length or an expression accompanied by a pitch change.

(2)少なくとも打点情報を有する基本演奏データについて、該打点情報により表わされる複数の打点のうち、音長変化を伴う表情が付与される打点を設定する手段と、表情付与が設定された打点については当該打点と次の打点の間隔の所定割合をその音長として決定し、表情付与が設定されない打点については当該打点と次の打点の間隔を音長として決定する手段と、決定された音長に基づいて、音長変化を伴う表情が付与された演奏データを作成する手段とを具備する表情が付与された演奏データの作成装置、或いは、少なくとも打点情報を有する基本演奏データについて、該打点情報により表わされる複数の打点のうち、音長変化を伴う表情が付与される打点を設定するステップと、表情付与が設定された打点については当該打点と次の打点の間隔の所定割合をその音長として決定し、表情付与が設定されない打点については当該打点と次の打点の間隔を音長として決定するステップと、決定された音長に基づいて、音長変化を伴う表情が付与された演奏データを作成するステップとから成る手順をコンピュータに実行させるプログラムを記録している表情が付与された演奏データを作成するためのコンピュータ読み取り可能な記録媒体。 (2) Regarding basic performance data having at least hit point information, means for setting a hit point to which a facial expression accompanied by a change in sound length is set out of a plurality of hit points represented by the hit point information, and a hit point for which facial expression is set Determines a predetermined ratio of the interval between the hit point and the next hit point as the sound length, and for a hit point for which no facial expression is set, means for determining the interval between the hit point and the next hit point as the sound length, and the determined sound length A performance data creation device with a facial expression provided with a means for creating performance data with a facial expression accompanied by a change in pitch, or at least basic performance data having spot information. Among the plurality of hit points represented by the step of setting a hit point to which a facial expression accompanied by a change in sound length is set, and for the hit point for which a facial expression is set, A predetermined ratio of the interval between the hit points is determined as the sound length, and for a hit point for which no facial expression is set, the step of determining the interval between the hit point and the next hit point as the sound length, and the sound length based on the determined sound length A computer-readable recording medium for creating performance data with a facial expression recording a program for causing a computer to execute a procedure comprising creating performance data with a facial expression accompanied by a change.

(3)基本演奏データを取得する手段と、取得された基本演奏データに対応して、ピッチ変化を伴う表情を付与するためのピッチ変化表情データを設定する手段と、設定されたピッチ変化表情データに対応する表情を基本演奏データに付与したとき、予め定められた遷移時間に基づいて所定のピッチ安定区間が確保可能か否かを判断する手段と、所定のピッチ安定区間が確保不可能と判断された場合は予め定められた遷移時間を短縮する手段、予め定められた遷移時間或いは短縮された遷移時間に基づいて、基本演奏データに対してピッチ変化を伴う表情が付与された演奏データを作成する手段とを具備する表情が付与された演奏データの作成装置、或いは、基本演奏データを取得するステップと、取得された基本演奏データに対応して、ピッチ変化を伴う表情を付与するためのピッチ変化表情データを設定するステップと、設定されたピッチ変化表情データに対応する表情を基本演奏データに付与したとき、予め定められた遷移時間に基づいて所定のピッチ安定区間が確保可能か否かを判断するステップと、所定のピッチ安定区間が確保不可能と判断された場合は予め定められた遷移時間を短縮するステップと、予め定められた遷移時間或いは短縮された遷移時間に基づいて、基本演奏データに対してピッチ変化を伴う表情が付与された演奏データを作成するステップとから成る手順をコンピュータに実行させるプログラムを記録している表情が付与された演奏データを作成するためのコンピュータ読み取り可能な記録媒体。 (3) Means for acquiring basic performance data, means for setting pitch change facial expression data for giving a facial expression accompanied by pitch change corresponding to the acquired basic performance data, and set pitch change facial expression data Means for determining whether or not a predetermined pitch stable section can be secured based on a predetermined transition time, and determining that a predetermined pitch stable section cannot be secured. If it is, the performance data with the expression that accompanies the pitch change to the basic performance data is created based on the means for shortening the predetermined transition time, the predetermined transition time or the shortened transition time. A performance data creation device to which a facial expression is given, or a step of acquiring basic performance data, and corresponding to the acquired basic performance data A step of setting pitch change facial expression data for giving a facial expression accompanied by a change in pitch, and a predetermined expression based on a predetermined transition time when a facial expression corresponding to the set pitch change facial expression data is given to the basic performance data A step of determining whether or not a predetermined pitch stable section can be secured, a step of shortening a predetermined transition time when it is determined that a predetermined pitch stable section cannot be secured, and a predetermined transition time or Based on the shortened transition time, a facial expression recording a program for causing the computer to execute a procedure including the step of creating performance data in which a facial expression accompanied by a pitch change is added to the basic performance data is provided. A computer-readable recording medium for creating performance data.

すなわち、上記(1)の演奏データ作成装置或いは記憶媒体によると、基本ノートを表わす基本演奏データに対応して、音長変化を伴う表情或いはピッチ変化を伴う表情を付与するための表情データを再設定可能に設定し、基本演奏データ及び表情データ(表情付与情報)に基づいて、表情が付与された演奏データを作成する構成を備えているので、打点の位置(打点タイミング)や基本ピッチ等の基本演奏データはそのままで、音長変化を伴う表情或いはピッチ変化を伴う表情のみを付与し直すことができる。従って、多数の基本ノートのうち、所定のノートに対して「表情データ」を効果的に付加し、例えば、スタッカートによる音長変化や、スラー、しゃくり等によるピッチ変化による種々の異なる表情を与えることができる。また、具体例によれば、先ず打点タイミングを決定し、次にピッチ(ノートナンバ)を生成した後、表情付与を伴う音長決定を行った上、ピッチ変化を伴う表情付与の設定を行うようにしており、このような演奏データ生成手順は、ユーザの自然な感覚にマッチしたものとなる。   That is, according to the performance data creation device or the storage medium of (1) above, the facial expression data for giving a facial expression accompanied by a change in pitch or a facial expression accompanied by a pitch change is reproduced corresponding to the basic performance data representing the basic note. Since it is configured to create performance data with facial expressions on the basis of basic performance data and facial expression data (facial expression information), it is possible to set the hit point position (spot timing), basic pitch, etc. It is possible to reapply only the facial expression accompanied by the change in pitch or the facial expression accompanied by the pitch change, with the basic performance data as it is. Therefore, "facial expression data" can be effectively added to a given note among a number of basic notes, giving various different facial expressions due to, for example, sound length changes due to staccato, pitch changes due to slurs, shackles, etc. Can do. Further, according to a specific example, after the hitting point timing is first determined, and then the pitch (note number) is generated, the sound length determination with facial expression is performed, and the facial expression with pitch change is set. Such a performance data generation procedure matches the natural sense of the user.

上記(2)の演奏データ作成装置或いは記憶媒体によれば、基本演奏データは少なくとも打点情報を含み、基本演奏データの打点情報により表わされる複数の打点のうち、音長変化を伴う表情付与が設定された打点については、当該打点と次の打点の間隔の所定割合をその音長として決定し、表情付与が設定されない打点については、当該打点と次の打点の間隔をその音長として決定して、音長変化を伴う表情が付与された演奏データを作成するようにしているので、この所定割合に応じて、決定される音符と付与される表情を変化させることができ、また、音長決定と音長による表情付与を同時に一回で行うので、効率よく演奏データを作成することができる。具体的には、音長変化を伴う表情付与が設定された場合、例えば、表情付与が設定された打点の音長を決定する所定割合を70%とすると、表情付与設定打点の次打点との間隔が8分音符長であれば、スタッカート気味の8分音符となり、また、この間隔が付点8分音符長であればテヌート気味の8分音符と16分休符とになる。なお、休符は演奏データ中に記憶させなくてもよく、音符のみが記憶されていても音が鳴っていない期間が休符期間分あれば休符とみなすことができる。上述の所定割合が異なれば、決定される音符と付与される表情も変化し、例えば、所定割合が50%なら、間隔が8分音符であればテヌート気味の16分音符と16分休符とになる。また、表情を付与しない打点は、常に、テヌート気味の音符となる。このように、音長決定と表情付与を同時に行うので、効率よく演奏データを作成することができる。   According to the performance data creation device or the storage medium of (2) above, the basic performance data includes at least dot information, and among the plurality of dots represented by the dot information of the basic performance data, facial expression with a change in sound length is set. For a given hit point, a predetermined ratio of the interval between the hit point and the next hit point is determined as the sound length, and for a hit point for which no facial expression is set, the interval between the hit point and the next hit point is determined as the sound length. Since the performance data to which a facial expression accompanied by a change in sound length is added is created, the determined note and the assigned facial expression can be changed according to the predetermined ratio, and the sound length can be determined. Since the facial expression is added at the same time, the performance data can be created efficiently. Specifically, when facial expression with a change in sound length is set, for example, if a predetermined ratio for determining the sound length of a hit point for which facial expression is set is 70%, If the interval is an eighth note length, it becomes a staccato eighth note, and if this interval is a dotted eighth note length, it becomes a tenuto eighth note and a 16th rest. Note that the rest does not have to be stored in the performance data, and can be regarded as a rest if there is a rest period in which no sound is produced even if only the notes are stored. If the above-mentioned predetermined ratio is different, the determined note and the expression to be given also change. For example, if the predetermined ratio is 50%, if the interval is an eighth note, tenuto 16th note and 16th rest become. Also, the hit points that do not give a facial expression are always tenuto-like notes. As described above, since the sound length determination and the facial expression are performed simultaneously, performance data can be created efficiently.

また、上記(3)の演奏データ作成装置或いは記憶媒体によれば、基本演奏データは更にピッチ情報を付加したものとし、基本演奏データに対応して、ピッチ変化を伴う表情を付与するためのピッチ変化表情データを設定したとき、予め定められた遷移時間に基づいて所定のピッチ安定区間が確保可能か否かを判断し、この判断結果に応じて得られる適当な遷移時間に基づいて、基本演奏データに対してピッチ変化を伴う表情が付与した演奏データを作成するようにしている。つまり、ピッチ変化を伴う表情付与が設定された場合、ピッチ安定状態の時間が所定時間以上確保されるか否かに応じて、ピッチ変化の速さを変えるようにしているので、短い音符であってもピッチ安定状態の部分をもった自然な演奏音が得られ、長い音符であってもゆったりとしたピッチ変化が得られる。   According to the performance data creating apparatus or storage medium of (3) above, the basic performance data is further added with pitch information, and a pitch for giving a facial expression accompanied by a pitch change corresponding to the basic performance data. When changing facial expression data is set, it is determined whether a predetermined pitch stable section can be secured based on a predetermined transition time, and the basic performance is determined based on an appropriate transition time obtained according to the determination result. Performance data in which a facial expression with a pitch change is added to the data is created. In other words, when facial expression with a pitch change is set, the speed of the pitch change is changed according to whether or not the time of the stable state of the pitch is secured for a predetermined time or longer. However, a natural performance sound with a stable part of the pitch can be obtained, and even a long note can provide a relaxed pitch change.

以下、図面を参照しつつ、この発明の好適な実施例を詳述する。なお、以下の実施例は単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and various modifications can be made without departing from the spirit of the present invention.

〔ハードウエア構成〕
図1は、この発明の一実施例による演奏データ作成装置のハードウエア構成のブロック図を示す。この例では、システムは、中央処理装置(CPU)1、読出専用メモリ(ROM)2、ランダムアクセスメモリ(RAM)3、第1及び第2の検出回路4,5、表示回路6、音源回路7、効果回路8、外部記憶装置9等を備え、これらの装置1〜9は、バス10を介して互いに接続されており、演奏データ作成処理を行うための演奏データ作成システムを構成している。
[Hardware configuration]
FIG. 1 shows a block diagram of a hardware configuration of a performance data creation apparatus according to an embodiment of the present invention. In this example, the system includes a central processing unit (CPU) 1, a read only memory (ROM) 2, a random access memory (RAM) 3, first and second detection circuits 4 and 5, a display circuit 6, and a sound source circuit 7. , An effect circuit 8, an external storage device 9 and the like. These devices 1 to 9 are connected to each other via a bus 10 and constitute a performance data creation system for performing performance data creation processing.

システム全体を制御するCPU1は、テンポクロックや割込みクロックの発生等に利用されるタイマ11を備え、所定のプログラムに従って種々の制御を行い、特に、後述する演奏データ作成処理を中枢的に遂行する。ROM2には、この演奏データ作成システムを制御するための所定の制御プログラムが記憶されており、これらの制御プログラムには、基本的な演奏情報処理と共に、この発明による自動メロディ生成処理を含む各種処理プログラムや、元メロディデータや再生用メロディデータのフォーマット等の各種テーブル、各種データを含ませることができる。RAM3は、これらの処理に際して必要なデータやパラメータを記憶し、また、各種レジスタやフラグ、元メロディデータや再生用メロディデータ等処理中の各種データを一時記憶するためのワーク領域として用いられる。   The CPU 1 that controls the entire system includes a timer 11 that is used to generate a tempo clock, an interrupt clock, and the like, and performs various controls according to a predetermined program. The ROM 2 stores predetermined control programs for controlling the performance data creation system. These control programs include various processes including the automatic melody generation process according to the present invention as well as basic performance information processing. Various tables such as programs, formats of original melody data and reproduction melody data, and various data can be included. The RAM 3 stores data and parameters necessary for these processes, and is used as a work area for temporarily storing various data being processed such as various registers and flags, original melody data, and reproduction melody data.

第1の検出回路4は鍵盤等の演奏操作子を備えた演奏操作装置12に接続され、第2の検出回路5に接続される操作スイッチ装置13は、自動メロディ生成処理モード等を指定するための各種モード・パラメータ・操作の設定を行うための操作子を備え、これらの操作子には、各種モード設定やデータ入力を行うためのパネル上のスイッチや文字/数字キー等の外、マウス等のポインティングデバイスが含まれる。表示回路6はディスプレイ14や各種インジケータを備えており、これらのディスプレイ14やインジケータは、スイッチ装置13の操作パネル上の各種操作子に並置することができる。また、ディスプレイ14には、各種設定画面や各種操作子ボタンを表示させ、上述のポインティングデバイスや文字/数字キー等を用いることにより、各種モードやデータ値の設定・表示を行うようにすることもできる。   The first detection circuit 4 is connected to a performance operation device 12 having a performance operator such as a keyboard, and the operation switch device 13 connected to the second detection circuit 5 is for specifying an automatic melody generation processing mode or the like. There are controls for setting various modes, parameters, and operations. These controls include switches on the panel and character / number keys for setting various modes and inputting data, as well as a mouse, etc. Includes pointing devices. The display circuit 6 includes a display 14 and various indicators, and these displays 14 and indicators can be juxtaposed on various operators on the operation panel of the switch device 13. In addition, various settings screens and various operation buttons are displayed on the display 14, and various modes and data values can be set and displayed by using the above-described pointing device, character / number keys, and the like. it can.

DSP等で構成される効果回路8に接続されるサウンドシステム15は、音源回路7及び効果回路8と共に楽音出力部を構成し、この発明による自動メロディ生成処理中に作成された再生用メロディデータを含む各種演奏データに基づき、楽音を放音させることができる。   The sound system 15 connected to the effect circuit 8 composed of a DSP or the like constitutes a musical sound output unit together with the sound source circuit 7 and the effect circuit 8, and reproduces the melody data for reproduction created during the automatic melody generation process according to the present invention. Musical sounds can be emitted based on various performance data.

外部記憶装置9は、ハードディスクドライブ(HDD)、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)ドライブ、フロッピィディスクドライブ(FDD)、光磁気(MO)ディスクドライブ、ディジタル多目的ディスク(DVD)ドライブ等の記憶装置から成り、各種制御プログラムや各種データを記憶することができ、メロディ生成用の各種データベースを構成するのにも利用される。従って、演奏データの処理に必要なプログラムや各種データは、ROM2を利用するだけでなく、外部記憶装置9からRAM3内に読み込むことができ、必要に応じて、処理結果をRAM3を介して外部記憶装置9に記録しておくこともできる。   The external storage device 9 includes a hard disk drive (HDD), a compact disk read only memory (CD-ROM) drive, a floppy disk drive (FDD), a magneto-optical (MO) disk drive, a digital multipurpose disk (DVD) drive, etc. It is possible to store various control programs and various data, and is also used to construct various databases for melody generation. Therefore, programs and various data necessary for performance data processing can be read from the external storage device 9 into the RAM 3 as well as using the ROM 2, and the processing results can be externally stored via the RAM 3 as necessary. It can also be recorded in the device 9.

この例では、バス10にMIDIインターフェイス(I/F)16が接続され、システムは他のMIDI機器17と通信することができる。さらに、バス10には通信インターフェイス18も接続され、通信ネットワーク19を介してサーバコンピュータ20から制御プログラムや各種データを外部記憶装置9にストアすることもできる。   In this example, a MIDI interface (I / F) 16 is connected to the bus 10, and the system can communicate with other MIDI devices 17. Further, a communication interface 18 is also connected to the bus 10, and a control program and various data can be stored in the external storage device 9 from the server computer 20 via the communication network 19.

〔メロディデータフォーマット〕
図2及び図3は、この発明の一実施例において使用される元メロディデータ及び再生用メロディデータのデータフォーマットを示す。1曲分の元メロディデータは、図2(1)に示されるように、第1小節のデータMS1から、時系列的に、順次、第2小節、第3小節、第4小節、…と各小節のデータMS2,MS3,MS4,…が続き、エンドデータEDoで終わる。図2(2)は、図2(1)の第1小節分のデータフォーマットを例示しており、他の小節も同様のフォーマットになっている。
[Melody data format]
2 and 3 show data formats of original melody data and reproduction melody data used in one embodiment of the present invention. As shown in FIG. 2 (1), the original melody data for one song is obtained from the first bar data MS1 in time series, in the order of the second bar, the third bar, the fourth bar,. Measure data MS2, MS3, MS4,... Follow and end with end data EDo. FIG. 2 (2) illustrates the data format for the first bar of FIG. 2 (1), and the other bars have the same format.

元メロディデータは、図2(2)に示されるように、所定音符(ノート)分毎の基本ノートデータNT及び表情データEXから成る。さらに、基本ノートデータNTは、音符(ノート)Nの打点の有無を表わす打点データBP及びノートナンバを表わすノートナンバデータNNから成り、表情データEXは、スタッカート、スラー及びしゃくりの有無をそれぞれ表わすスタッカートデータST、スラーデータSL及びしゃくりデータSYから成る。図2(2)は、最小音符が8分音符である場合のデータフォーマット例を示し、各行は8分音符分のデータを表わす。すなわち、元メロディデータは、1小節当り計8行のデータセットで表わされ、RAM3内の所定領域において、各行に対応する記憶エリア毎に記憶される。また、最小音符が16分音符である場合や3連8分音符である場合は、16分音符毎や3連8分音符分のデータとなり、記憶エリアも1小節につき16個或いは12個となる。   As shown in FIG. 2B, the original melody data is composed of basic note data NT and facial expression data EX for each predetermined note (note). Further, the basic note data NT is composed of dot data BP indicating the presence / absence of a note (note) N and note number data NN indicating a note number, and the facial expression data EX is a staccato indicating the presence / absence of staccato, slur, and screaming. It consists of data ST, slur data SL, and shackle data SY. FIG. 2 (2) shows an example of a data format in the case where the minimum note is an eighth note, and each row represents data of an eighth note. That is, the original melody data is represented by a data set of a total of 8 rows per measure, and is stored for each storage area corresponding to each row in a predetermined area in the RAM 3. When the minimum note is a 16th note or a triple eighth note, the data is for every 16th note or triple eighth note, and the storage area is 16 or 12 per measure. .

再生用メロディデータは、上述した元メロディデータを利用して後述する再生用メロディデータ作成処理により作成されRAM3内の所定領域に記憶されるデータであり、例えば、図3に示されるように、タイミングデータTM1,TM2,TM3,…及びイベントデータEV1,EV2,EV3,…が、交互に、時系列的に順次配列され、エンドデータEDpで終わる。   The reproduction melody data is data that is created by a reproduction melody data creation process, which will be described later, using the original melody data described above, and is stored in a predetermined area in the RAM 3. For example, as shown in FIG. Data TM1, TM2, TM3,... And event data EV1, EV2, EV3,... Are alternately and sequentially arranged in time series, and end with end data EDp.

イベントデータEV1,EV2,EV3,…には、ノートオンを表わすノートオンイベントデータNONやノートオフを表わすノートオフイベントデータNOFから成るノートイベントデータの外、ピッチベンドを表わすピッチベンドイベントデータ等がある。タイミングデータTM1,TM2,TM3,…は、前のイベントデータが表わすイベントと次のイベントデータが表わすイベントとの時間間隔を表わし、最初のタイミングデータTM1は曲の開始時点からの経過時間を表わす。図3の例では、第1イベントデータEV1はノートオンイベントデータNONであり、第2及び第3イベントデータEV2,EV3はピッチベンドイベントデータである。   The event data EV1, EV2, EV3,... Includes note bend event data representing pitch bend in addition to note event data composed of note on event data NON representing note on and note off event data NOF representing note off. Timing data TM1, TM2, TM3,... Represents the time interval between the event represented by the previous event data and the event represented by the next event data, and the first timing data TM1 represents the elapsed time from the beginning of the music. In the example of FIG. 3, the first event data EV1 is note-on event data NON, and the second and third event data EV2 and EV3 are pitch bend event data.

〔自動メロディ生成処理〕
図4〜図6は、この発明の一実施例による自動メロディ生成処理を示すフローチャートであり、この処理フローは、自動メロディ生成処理モードを指定するための操作スイッチ装置13の操作子スイッチ或いはディスプレイ14の画面上の操作子ボタンを操作することによりスタートする。この処理フローの最初のステップM1においては各種メロディ生成用データが供給される。このようなメロディ生成用データは、メロディ生成に必要な、拍子、小節数、楽節構成、音域、調、コード進行、テンポ、音色、「フィーリングパラメータ」等のデータであり、フィーリングパラメータは、「のんびり」、「素朴」、「やさしい」、「さわやか」、「うきうき」等に種別される曲趣や、「イキイキ度1」〜「イキイキ度5」に段階化された「イキイキ度」など、各種フィーリングを設定するためのパラメータである。
[Automatic melody generation processing]
4 to 6 are flowcharts showing an automatic melody generation process according to an embodiment of the present invention. This process flow is a switch or display 14 of the operation switch device 13 for designating an automatic melody generation process mode. Start by operating the control buttons on the screen. In the first step M1 of this processing flow, various melody generation data are supplied. Such melody generation data is data necessary for melody generation, such as time signature, number of measures, passage configuration, range, key, chord progression, tempo, timbre, “feeling parameter”, etc. “Cheerful”, “Simple”, “Easy”, “Refreshing”, “Ukiuki” and other types of music, “Ikiiki degree 1” to “Ikiiki degree 5” graded “Ikiiki degree”, etc. It is a parameter for setting various feelings.

これらのメロディ生成用データの供給の仕方としては、操作スイッチ装置13の操作子やディスプレイ14画面上の操作子ボタン等を用いて、データ種類毎にユーザが値を指定する方法があり、楽節構成やコード進行については、典型的な楽節構成、典型的なコード進行を多数記憶しておき、ユーザがいずれかを選択するようにしてもよい。また、他のデータ供給手法としては、複数のデータ種類についての値のセットをテンプレートとして多数記憶しておき、ユーザがいずれかを選択する方法や、外部の機器17,20や外部記憶装置9から各データを供給する方法等が考えられる。   As a method of supplying the data for generating melody, there is a method in which a user designates a value for each data type by using an operation button of the operation switch device 13 or an operation button on the display 14 screen. For the chord progression, a number of typical passage configurations and typical chord progressions may be stored, and the user may select one of them. As another data supply method, a large number of sets of values for a plurality of data types are stored as templates, and the user selects one of them, or from the external devices 17 and 20 and the external storage device 9. A method of supplying each data can be considered.

次のステップM2では、1曲全体の打点データBPを生成する。つまり、拍子、小節数、楽節構成、フィーリングパラメータ等に基づいて、ノート(音符)の存在位置を表わす打点データBPを、1曲分、生成する。このような打点データBPの生成の一例としては、拍子毎、最小音符に多数の1小節打点パターンを記憶しておき、拍子、フィーリングパラメータに基づいて、拍子とフィーリングに合致する打点パターン(最小音符はフィーリングに応じて選択する)を小節毎に選択し、これを小節数分つなぎ合せて1曲分の打点データとする。この時、楽節構成において前方の楽節と同一或いは類似であるとされている楽節については、打点データについても前方の楽節と同一或いは類似とする。そして、各打点データBPをRAM3中の元メロディデータの打点記憶領域へと書き込む。なお、これ以外の方法により打点データBPを生成してもよい。   In the next step M2, the hit point data BP for the entire song is generated. That is, one piece of hit point data BP representing the position of a note (note) is generated based on the time signature, the number of measures, the passage configuration, the feeling parameters, and the like. As an example of the generation of such hit point data BP, a lot of one-measure hit point patterns are stored for each time signature in the minimum note, and the hit point pattern (matching the time signature and feeling based on the time signature and feeling parameters ( The minimum note is selected according to the feeling) is selected for each measure, and this is connected by the number of measures to obtain the hit data for one song. At this time, for a passage that is the same as or similar to the preceding passage in the passage configuration, the dot data is also the same as or similar to the preceding passage. Then, each dot data BP is written into the dot storage area of the original melody data in the RAM 3. The hit point data BP may be generated by a method other than this.

第3のステップM3においては、ノートナンバデータNNを生成し、各打点(BP)に付与し、基本ノートデータNTを作成する。すなわち、音域、調、コード進行に基づいて、各打点に付与すべきノートナンバデータNNを生成し、各打点に付与する。このようなノートナンバデータNNの生成の一例としては、各打点データBPのうちの重要打点(例えば、強拍にある打点や、強拍に打点が無い場合はその近傍の打点など)に対して、これらの打点位置にあるコードの構成音のうちの音域内にある音の中から、いずれかをランダムに選択して当該打点に付与するとともに、残りの打点に対して、音域内にある調の音階音や、コードのアベイラブルノートスケールの音の中から、ランダムに選択して当該打点に付与する。この時、所定の音楽ルールを参照し、音楽ルールを満たす音のみを選択するようにしてもよい。また、フィーリングパラメータに応じて音程の上下動の範囲を規制してもよい。この場合、楽節構成において前方の楽節と同一或いは類似であるとされている楽節に関しては、ノートナンバデータNNについても前方の楽節と同一或いは類似とする。そして、各ノートナンバデータNNを元メロディデータのノートナンバ記憶領域へと書き込む。なお、これ以外の方法によりノートナンバデータNNを生成してもよい。   In the third step M3, note number data NN is generated and assigned to each dot (BP) to create basic note data NT. That is, note number data NN to be given to each hit point is generated based on the tone range, key, and chord progression, and given to each hit point. As an example of generation of such note number data NN, for the important hit points in each hit point data BP (for example, a hit point in a strong beat or a hit point in the vicinity when there is no hit point in a strong beat). , One of the sounds in the range of chords at the location of the hit point is randomly selected and assigned to the hit point, and the tone in the range is adjusted with respect to the remaining hit points. Are randomly selected from the notes of the scale and the notes of the available note scale of the chord and given to the hit points. At this time, only a sound satisfying the music rule may be selected with reference to a predetermined music rule. Further, the range of the vertical movement of the pitch may be regulated according to the feeling parameter. In this case, regarding the passage that is the same or similar to the preceding passage in the passage configuration, the note number data NN is also the same or similar to the preceding passage. Then, each note number data NN is written into the note number storage area of the original melody data. Note number data NN may be generated by other methods.

以上のようにして、打点データBP及びノートナンバNNから成る基本ノートデータNTが作成されると、次の第4〜第6ステップM4〜M6では、この基本ノートデータNTで表わされる基本ノートに対して、表情データEXを付与して行く。先ず、第4のステップM4においては、表情データEXとしてスタツカートデータSTを生成し、各打点即ち各基本ノートに付与する。つまり、楽節構成、フィーリングパラメータ等に基づいて、各ノートにスタッカートを付与するか否かを示すスタッカートデータST(スタッカートの有無を「1」、「0」で表わす)を生成し、各打点つまり各ノートに付与する。   When the basic note data NT composed of the dot data BP and the note number NN is created as described above, in the next fourth to sixth steps M4 to M6, the basic note represented by the basic note data NT is generated. Then, facial expression data EX is given. First, in the fourth step M4, the stat cart data ST is generated as the facial expression data EX and given to each hit point, that is, each basic note. That is, staccato data ST (whether or not staccato is indicated by “1” or “0”) indicating whether or not to add staccato to each note is generated based on the passage structure, feeling parameters, and the like. Give to each note.

ステップM4でのスタッカートデータSTの生成の一例として、「イキイキ度」の段階「イキイキ度1」〜「イキイキ度5」に応じてスタッカート音符の頻度(出現の割合)を決定し、この頻度に応じて、スタッカートを各ノート毎にランダムに付与する/付与しないを決定する方法を採ることができる(詳しくは後述)。この時、楽節構成において前方の楽節と同一或いは類似であるとされている楽節に関しては、スタッカートデータSTについても前方の楽節と同一或いは類似とする。そして、各スタッカートデータSTを元メロディデータのスタッカート記憶領域へと書き込む。なお、これ以外の方法によりスタッカートデータSTを生成してもよい。   As an example of the generation of the staccato data ST in step M4, the frequency of staccato notes (appearance rate) is determined according to the stages “liveness degree 1” to “liveness degree 5” of the “liveness degree”, and according to this frequency Thus, it is possible to adopt a method of determining whether or not the staccato is randomly applied to each note (details will be described later). At this time, regarding the passage that is the same or similar to the preceding passage in the passage configuration, the staccato data ST is also the same or similar to the preceding passage. Then, each staccato data ST is written to the staccato storage area of the original melody data. Note that the staccato data ST may be generated by other methods.

第5のステップM5においては、表情データEXとしてスラーデータSLを生成し、各打点即ち各基本ノートに付与する。つまり、楽節構成、音色、スタッカートデータST等に基づいて、各ノートにスラーを付与するか否かを示すスラーデータSL(スラーの有無を「1」、「0」で表わす)を生成し、各ノートに付与する。このようなスラーデータSLの生成の一例として、音色に応じてスラー音符の頻度(出現の割合)を決定し、スタッカートデータSTが「0」である各ノート毎に、決定された頻度に応じてランダムに付与する/付与しないを決定する方法をとることができる(詳しくは後述)。この時、楽節構成において前方の楽節と同一或いは類似であるとされている楽節に関しては、スラーデータSLについても前方の楽節と同一或いは類似とする。そして、各スラーデータSLを元メロディデータのスタッカート記憶領域へと書き込む。なお、これ以外の方法によりスラーデータSLを生成してもよい。   In the fifth step M5, slur data SL is generated as the facial expression data EX and given to each hit point, that is, each basic note. That is, based on the passage structure, timbre, staccato data ST, etc., the slur data SL (whether or not slur is indicated by “1” or “0”) indicating whether or not to add slur to each note is generated. Give to notes. As an example of the generation of such slur data SL, the frequency (appearance rate) of slur notes is determined according to the tone color, and for each note whose stacking data ST is “0”, according to the determined frequency. A method of determining whether to give randomly or not can be taken (details will be described later). At this time, regarding the passage that is the same or similar to the preceding passage in the passage configuration, the slur data SL is also the same or similar to the preceding passage. Then, each slur data SL is written into the original melody data staccato storage area. Note that the slur data SL may be generated by other methods.

第6のステップM6においては、表情データEXとしてしゃくりデータSYを生成し、各打点即ち各基本ノートに付与する。つまり、楽節構成、音色、スタッカートデータST等に基づいて各ノートにしゃくりを付与するか否かを示すしゃくりデータSY(しゃくりの有無を「1」、「0」で表わす)を生成し、各ノートに付与する。このようなしゃくりデータSYの生成の一例として、音色に応じてしゃくり音符の頻度(出現の割合)を決定し、スタッカートデータSTが「1」である各ノート毎に、決定された頻度に応じてランタムに付与する/付与しないを決定する方法をとることができる(詳しくは後述)。この時、楽節構成において前方の楽節と同一或いは類似であるとされている楽節に関しては、しゃくりデータSYについても前方の楽節と同一或いは類似とする。そして、各しゃくりデータSYを元メロティデークのしゃくり記憶領域へと書き込む。なお、これ以外の方法によりしゃくりデータSYを生成してもよい。   In the sixth step M6, the scooping data SY is generated as the facial expression data EX and given to each dot, that is, each basic note. In other words, based on the passage structure, tone color, staccato data ST, etc., the screaming data SY (whether or not screaming is indicated by “1” or “0”) indicating whether or not to squeal each note is generated. To grant. As an example of the generation of such scramble data SY, the frequency (frequency of appearance) of squeak notes is determined according to the tone color, and for each note whose staccato data ST is “1”, according to the determined frequency. A method of determining whether or not to give to the rantam can be taken (details will be described later). At this time, for a passage that is the same as or similar to the preceding passage in the passage configuration, the shackle data SY is also the same as or similar to the preceding passage. Then, each of the scouring data SY is written into the squeezing storage area of the original merotidake. Note that the scooping data SY may be generated by other methods.

次のステップM7においては、ステップM2〜M6の処理により得られた各データBP,NN,ST,SL,SYから成る元メロディデータに基づいて再生用メロディデータを作成する。このステップM7においては、まず、スタッカートデータSTに基づいて、各再生用ノートのゲートタイムGT即ちノートオンからノートオフまでの期間を表わすデータを作成する。次に、スラーデータSLに基づいてスラーをかける2つのノートを結合し、両ノート間を滑らかなピッチ変化で結ぶためのピッチベンドイベントデータPBLを作成する。そして、しゃくリデータSYに基づいてしゃくりをかけるノートNの若干下のピッチから徐々にそのノートのピッチに変化するピッテベンドデータPBYを作成する。なお、これらのゲートタイムGT及びピッチベンドイベントデータPBL,PBYの詳しい作成手順については後述する。   In the next step M7, reproduction melody data is created based on the original melody data composed of the data BP, NN, ST, SL, and SY obtained by the processing in steps M2 to M6. In this step M7, first, data representing the gate time GT of each reproduction note, that is, the period from note-on to note-off, is created based on the staccato data ST. Next, two notes to be slurred are combined based on the slur data SL, and pitch bend event data PBL for connecting the two notes with a smooth pitch change is created. Then, pitte bend data PBY that gradually changes from the pitch slightly below the note N to be squeezed to the pitch of the note based on the squeeze data SY is created. A detailed procedure for creating the gate time GT and the pitch bend event data PBL and PBY will be described later.

このステップM7においては、必要に応じて、ボリュームデータを作成してもよく、例えば、楽節やフレーズ等の所定区間の最後の長い音符の最後はデクレッシェンドさせる等の処理を行うようにしてもよい。なお、各ノートデータNTに対するベロシティは、一定でもよいし、ランダム或いは所定のルールにしたがって変動させてもよい。例えば、各打点(ノートN)のノートナンバ(NN)に応じてベロシティを決定する(音高が高いほど大きくする)方法、楽節やフレーズ等の所定区間の平均ノートナンバに応じてベロシティを決定する(音高が高いほど大きくする)方法、小節内の打点位置に応じてベロシティを決定する(強拍は大きく、弱拍は小さい)方法などをとることができる。   In step M7, volume data may be created as necessary. For example, the end of the last long note of a predetermined section such as a passage or a phrase may be decremented. . The velocity for each note data NT may be constant, or may be varied randomly or according to a predetermined rule. For example, the velocity is determined according to the note number (NN) of each hit point (note N) (the higher the pitch, the higher the pitch), and the velocity is determined according to the average note number of a predetermined section such as a passage or phrase. A method of determining the velocity according to the hit point position in the measure (the strong beat is large and the weak beat is small) can be used.

続くステップM8においては、作成された再生用メロディデータを評価する。この評価を行うには、例えば、操作スイッチ装置13の操作子やディスプレイ14画面上の操作子ボタン等を操作して、音源回路7及び効果回路8を介してサウンドシステム12から放音される再生用メロディデータに基づく楽音を試聴したり、ディスプレイ14画面上に再生用メロディデータを楽譜等の形式で楽譜データを表示させる。ステップM8では、作成された再生用メロディデータをこのように試聴したり表示するなどして、メロディデータの良否をユーザが評価し、ステップM9に進む。   In the subsequent step M8, the created reproduction melody data is evaluated. In order to perform this evaluation, for example, an operation element of the operation switch device 13 or an operation element button on the screen of the display 14 is operated to reproduce the sound emitted from the sound system 12 via the sound source circuit 7 and the effect circuit 8. A musical tone based on the melody data for the player is auditioned, and the musical score data is displayed on the display 14 screen in the form of a musical score or the like for the melody data for reproduction. In step M8, the user evaluates the quality of the melody data by, for example, listening to or displaying the created reproduction melody data in this way, and the process proceeds to step M9.

ステップM9では、前ステップM8での評価の結果、作成された再生用メロディデータが「OK」(良好)か「NG」(不良)かを判断し、「OK」(=YES)の場合はステップM10に進み、「NG」(=NO)の場合には、ステップM11に進み、ステップM11〜M18からなる表情データ再生成処理ルーチンの処理が実行される。なお、この良否判断のためには、一例として、操作スイッチ装置13又はディスプレイ14画面上の操作子として、「OK」/「NG」スイッチ又はボタンを設け、ユーザにいずれかを選択させるようにしてもよいし、「生成し直し」スイッチ又はボタンを設け、これを操作したときは「NG」と判断するようにしてもよい。或いは、「出力(再生、記録、外部へ出力等)」スイッチ又はボタンを設け、これを操作したときは「OK」と判断するようにしてもよい。   In step M9, as a result of the evaluation in the previous step M8, it is determined whether the created reproduction melody data is “OK” (good) or “NG” (bad), and if “OK” (= YES), step Proceeding to M10, in the case of “NG” (= NO), proceeding to Step M11, the processing of the facial expression data regeneration processing routine consisting of Steps M11 to M18 is executed. In order to determine the quality, for example, an “OK” / “NG” switch or button is provided as an operation element on the screen of the operation switch device 13 or the display 14 so that the user can select one. Alternatively, a “regenerate” switch or button may be provided, and “NG” may be determined when this switch is operated. Alternatively, an “output (playback, recording, output to outside, etc.)” switch or button may be provided, and when this is operated, “OK” may be determined.

ステップM10に進んだ場合は、「OK」と判断された生成用メロディデータをサウンドシステム15から再生したり、外部記憶装置9に記録したり、或いは、外部装置17,19へと出力する等、出力動作を行った後、この自動メロディ生成処理をエンドとする。   When the process proceeds to step M10, the melody data for generation determined as “OK” is reproduced from the sound system 15, recorded in the external storage device 9, or output to the external devices 17 and 19, etc. After performing the output operation, this automatic melody generation process is ended.

一方、作成された再生用メロディデータがステップM9で「NG」と判断されステップM11に進んだ場合は、再生用メロディデータを作成し直すが、この時、各種メロディ生成用データをも新しく供給し直すか、以前の各種メロディ生成用データをそのまま使用するかを判断する。これは、各種メロディ生成用データが以前のままでも、再度メロディを作成したときに若干の変化はあるが、各種メロディ生成用データを新しくしてメロディを作成すれば、より変化が大きくなるからである。なお、この判断のためには、ステップM9での操作例と同様の操作により実施することができる。   On the other hand, if the created reproduction melody data is determined as “NG” in step M9 and the process proceeds to step M11, the reproduction melody data is recreated. At this time, various melody generation data are newly supplied. It is determined whether to correct or use the previous melody generation data as it is. This is because there are some changes when creating a melody again even if the data for generating various melody is the same as before, but if you create a new melody with various data for generating melody, the change will be larger. is there. This determination can be performed by the same operation as the operation example in step M9.

ステップM11で各種メロディ生成用データを供給し直すと判断した場合は、ステップM12で新たな各種メロディ生成用データを供給した上、ステップM13に進むが、そうでない場合には直ちにステップM13に進む。なお、ステップM12で新たに供給する各種メロディ生成用は、ステップM1の説明で述べた全ての種類のデータでもよいし、そのうちの一部のみのデータであってもよい。   If it is determined in step M11 that the various melody generation data is supplied again, new various melody generation data is supplied in step M12, and the process proceeds to step M13. If not, the process immediately proceeds to step M13. Note that the various melody generation newly supplied in step M12 may be all types of data described in the description of step M1 or only a part of the data.

ステップM13以下の各ステップM13〜M18は、表情データEXとして既に生成されたスタッカートデータST、スラーデータSL及びしゃくりデータSYを生成し直すか否かを判断する判断ステップM13,M15,M17と、各表情データST,SL,SYを生成し直す場合に各データを所要値に生成し直す処理を実行する表情データ再生成ステップM14,M16,M18とから成る。   Steps M13 to M18 after step M13 include determination steps M13, M15, and M17 for determining whether or not to regenerate staccato data ST, slur data SL, and scoop data SY that have already been generated as facial expression data EX. When the facial expression data ST, SL, and SY are regenerated, the facial expression data regeneration steps M14, M16, and M18 are executed to regenerate each data to a required value.

各判断ステップM13,M15,M17において各データST,SL,SYを生成し直すか否かは、ユーザがどのデータを生成し直すかを指定してもよいし、新たに供給したメロディ生成用データの種類に応じて自動的に指定してもよい。例えば、ステップM12にて音色データを供給し直したときは、スラーデータSLやしゃくりデータSYを生成し直し、スタッカートデータSTは生成し直さない、また、「イキイキ度」データを供給し直したときは、スタッカートデータSTを生成し直し、スラーデータSLやしゃくりデータSYは生成し直さない、などの方法を採ることができる。   Whether or not to regenerate each data ST, SL, and SY in each of the determination steps M13, M15, and M17 may specify which data the user regenerates, or newly supplied melody generation data. It may be automatically specified according to the type. For example, when the timbre data is supplied again in step M12, the slur data SL and the scooping data SY are generated again, the staccato data ST is not generated again, and the “liveness” data is supplied again. Can adopt a method of regenerating the staccato data ST and not regenerating the slur data SL or the squeak data SY.

各表情データ再生成ステップM14,M16,M18においては、スタッカートデータST、スラーデータSL及びしゃくりデータSYを生成し直して各打点即ち各基本ノートに付与し、元メロディデータのそれぞれ対応する記憶領域に書き込む。このように、基本ノートデータNTは、そのままで、表情データEXのみを生成し直すことができる。   In each facial expression data regeneration step M14, M16, M18, staccato data ST, slur data SL, and squeak data SY are regenerated and given to each dot, that is, each basic note, and stored in the corresponding storage area of the original melody data. Write. In this way, it is possible to regenerate only the facial expression data EX without changing the basic note data NT.

これらのステップM13〜18を介して表情データEXの再生成処理を経た後は、ステップM7に戻って、生成し直した表情データEXに基づいて再生用メロディデータを作成し直す。作成し直した再生用メロディデータはステップM8で評価されステップM9で「OK」とするか否か判断される。「OK」の場合はステップM10に進んで出力処理を行いこの自動メロディ生成処理を終了するが、そうでない場合には、再度ステップM11〜18の表情データ再生成処理ルーチンの処理を行い、ステップM9で「OK」と判断される迄この再生成処理を繰り返す。   After regenerating the facial expression data EX through these steps M13 to M18, the process returns to step M7 to regenerate reproduction melody data based on the regenerated facial expression data EX. The regenerated melody data for reproduction is evaluated in step M8, and it is determined whether or not “OK” is set in step M9. In the case of “OK”, the process proceeds to step M10 and the output process is performed to end the automatic melody generation process. Otherwise, the facial expression data regeneration process routine in steps M11 to 18 is performed again, and step M9 is performed. This regeneration process is repeated until “OK” is determined.

〔スタッカートデータの生成〕
自動メロディ生成処理(図4〜図6)のステップM4,M14においては、各打点(ノート)毎のスタッカート付与/非付与を決定するために、「イキイキ度」等のメロディ生成用データに応じてスタッカート音符の頻度が決定される。この決定に「イキイキ度」を利用する場合、例えば、図7に示されるように、生成するメロディ全体におけるスタッカートの頻度が「イキイキ度」データ値に応じて予め設定された「スタッカート頻度テーブル」をROM2又は外部記憶装置9内に用意しておく。そして、ステップM1,M12で供給された「イキイキ度1」〜「イキイキ度5」に応じて、このスタッカート頻度テーブルを参照することにより、メロディ全体におけるスタッカート頻度を得るようにすることができる。
[Generation of staccato data]
In steps M4 and M14 of the automatic melody generation process (FIGS. 4 to 6), in order to determine whether or not to add staccato for each striking point (note), according to the data for generating melody such as “liveness”. The frequency of staccato notes is determined. In the case of using the “ikiki degree” for this determination, for example, as shown in FIG. 7, a “staccato frequency table” in which the staccato frequency in the entire melody to be generated is set in advance according to the “ikiki degree” data value. It is prepared in the ROM 2 or the external storage device 9. Then, the staccato frequency in the entire melody can be obtained by referring to this staccato frequency table in accordance with “live degree 1” to “live degree 5” supplied in steps M1 and M12.

すなわち、各ノートにおいて、スタッカート頻度テーブルの「イキイキ度」に対応したスタッカート頻度が示す割合でスタッカートを付与し、スタッカートを付与したノートのスタッカートデータSTを「1」とする。スタッカート付与の一例をあげると、先ず、ノート毎に値“0”〜“9”の乱数を発生させる。スタッカート頻度が40%の場合、乱数値が値“0”〜“3”の範囲ならスタッカートを付与し、値“4”〜“9”なら付与しないようにする。一方、スタッカート頻度が60%の場合、乱数が値“0”〜“5”ならスタッカートを付与し、値“6”〜“9”なら付与しない。また、スタッカート頻度が0%の場合、全てのノートについてスタッカートを付与しない。なお、これ以外の方法によってスタッカートデータSTを生成してもよい。   That is, in each note, staccato is given at a rate indicated by the staccato frequency corresponding to the “liveness degree” of the staccato frequency table, and the staccato data ST of the note to which the staccato is given is set to “1”. As an example of staccato assignment, first, random numbers of values “0” to “9” are generated for each note. When the staccato frequency is 40%, staccato is assigned if the random number value is in the range of “0” to “3”, and not assigned if the random number is in the range of “4” to “9”. On the other hand, when the staccato frequency is 60%, staccato is assigned if the random number is a value “0” to “5”, and is not assigned if the random number is a value “6” to “9”. When the staccato frequency is 0%, no staccato is given to all notes. Note that the staccato data ST may be generated by other methods.

〔スラーデータの生成〕
ステップM5,M16においては、各打点(ノート)毎のスラー付与/非付与を決定するために音色等のメロディ生成用データに応じてスラーの頻度が決定される。この決定に音色を利用する場合には、例えば、図8に示されるように、生成するメロディ全体のうち、スタッカートでない全部の音符におけるスラーの頻度が、音色に応じて予め設定された「スラー頻度テーブル」を、ROM2又は外部記憶装置9内に用意しておく。そして、ステップM1,M12で供給された音色に応じて、このスラー頻度テーブルを参照することにより、メロディ中の非スタッカート音におけるスラー頻度を得るようにすることができる。
[Generation of slur data]
In steps M5 and M16, the slur frequency is determined according to melody generation data such as timbre in order to determine whether to add or not add slur for each hit point (note). When a timbre is used for this determination, for example, as shown in FIG. 8, the slur frequency of all notes that are not staccato in the entire melody to be generated is set to a “slur frequency preset according to the timbre. A “table” is prepared in the ROM 2 or the external storage device 9. Then, by referring to this slur frequency table according to the tone color supplied in steps M1 and M12, the slur frequency in the non-staccato sound in the melody can be obtained.

すなわち、スタッカートでない各ノートにおいて、スラー頻度テーブルの音色種類に対応したスラー頻度が示す割合でスラーを付与し、スラーを付与したノートのスラーデータSLを「1」とする。スラー付与の一例をあげると、先ず、スタッカートでないノート毎に値“0”〜“9”の乱数を発生させる。スラー頻度が20%の場合、乱数値が値“0”〜“1”の範囲ならスラーを付与し、値“2”〜“9”なら付与しないようにする。一方、スラー頻度が40%の場合、乱数が値“0”〜“3”ならスラーを付与し、値“4”〜“9”なら付与しない。また、スラー頻度が0%の場合、全てのスタッカートでないノートについてスラーを付与せず、スタッカートであるノートについてもスラーを付与しない。なお、これ以外の方法によってスラーデータSLを生成してもよい。   That is, in each note that is not a staccato, slur is given at a rate indicated by the slur frequency corresponding to the tone color type of the slur frequency table, and the slur data SL of the note with the slur is set to “1”. As an example of adding slur, first, random numbers of values “0” to “9” are generated for each note that is not a staccato. When the slur frequency is 20%, a slur is assigned if the random value is in the range of values “0” to “1”, and is not assigned if the value is “2” to “9”. On the other hand, when the slur frequency is 40%, a slur is assigned if the random number is a value “0” to “3”, and is not assigned if the random number is a value “4” to “9”. When the slur frequency is 0%, no slur is given to all non-staccato notes and no slur is given to notes that are staccato. Note that the slur data SL may be generated by other methods.

〔しゃくりデータの生成〕
ステップM6,M18においては、各打点(ノート)毎のしゃくり付与/非付与を決定するために音色等のメロディ生成用データに応じてしゃくりの頻度が決定される。この決定に音色を利用する場合には、例えば、図9に示されるように、生成するメロディ全体のうち、スタッカートである全部の音におけるしゃくりの頻度が、音色に対応して予め設定された「しゃくり頻度テーブル」を、ROM2又は外部記憶装置9内に用意しておく。そして、ステップM1,M12で供給された音色に応じて、このしゃくり頻度テーブルを参照することにより、メロディ中のスタッカート音におけるしゃくり頻度を得るようにすることができる。
[Generation of scouring data]
In steps M6 and M18, in order to determine whether to give or not to squeak each note (note), the frequency of squealing is determined according to melody generation data such as timbre. When a timbre is used for this determination, for example, as shown in FIG. 9, the frequency of squealing in all the sounds that are staccato among the generated melody is set in advance corresponding to the timbre. The “scrubbing frequency table” is prepared in the ROM 2 or the external storage device 9. Then, by referring to this squeezing frequency table according to the tone color supplied in steps M1 and M12, the squeezing frequency in the staccato sound in the melody can be obtained.

すなわち、スタッカートである各ノートにおいて、しゃくり頻度テーブルの音色種類に対応したしゃくり頻度が示す割合でしゃくりを付与し、しゃくりを付与したノートのしゃくりデータSYを「1」とする。しゃくり付与の一例をあげると、先ず、スタッカートであるノート毎に値“0”〜“9”の乱数を発生させる。しゃくり頻度が30%の場合、乱数値が値“0”〜“2”の範囲ならしゃくりを付与し、値“3”〜“9”なら付与しないようにする。一方、しゃくり頻度が50%の場合、乱数が値“0”〜“4”ならしゃくりを付与し、値“5”〜“9”なら付与しない。また、しゃくり頻度が0%の場合、全てのスタッカートであるノートについてしゃくりを付与せず、スタッカートでないノートについてもしゃくりを付与しない。なお、これ以外の方法によってしゃくりデータSYを生成してもよい。   That is, in each note that is a staccato, squealing is given at a rate indicated by the squealing frequency corresponding to the tone type in the screaming frequency table, and the screaming data SY of the note to which screaming is given is “1”. As an example of scrambling, first, random numbers of values “0” to “9” are generated for each note that is a staccato. When the scrambling frequency is 30%, scrambling is assigned if the random value is in the range of values “0” to “2”, and not given if the random number is in the range of “3” to “9”. On the other hand, if the scrambling frequency is 50%, scrambling is assigned if the random number is a value “0” to “4”, and not given if the random number is a value “5” to “9”. In addition, when the squealing frequency is 0%, squealing is not given to all notes that are staccato and screaming is not given to notes that are not staccato. Note that the scooping data SY may be generated by other methods.

〔表情データによる効果〕
次に、複数の基本ノートN1,N2,N3の“ピッチ−時間”特性を示す図10により、スタッカート、スラー及びしゃくり等の表情データEXによる効果について説明する。図10において、各ノートN1,N2,N3のノートオンタイミングt1,t2,t3,…は、基本ノートデータNTの対応する各打点データBPにより示される打点開始タイミングを表わし、ピッチの値P1,P2,P3は、基本ノートデータNTの対応する各ノートナンバNNにより表わされるピッチを表わす。また、網目模様の各小円は、基本ノートデータNTにより表わされる各ノートN1,N2,N3のノートオン時のピッチ位置を表わし、各帯は、表情データEXにより各ノートの“ピッチ−時間特性”が変化させられる様子を表わしている。
[Effects of facial expression data]
Next, with reference to FIG. 10 showing the “pitch-time” characteristics of a plurality of basic notes N1, N2, and N3, effects of facial expression data EX such as staccato, slur, and sneeze will be described. In FIG. 10, note-on timings t1, t2, t3,... Of each note N1, N2, N3 represent the hit point start timing indicated by the corresponding hit point data BP of the basic note data NT, and the pitch values P1, P2 , P3 represents a pitch represented by each corresponding note number NN of the basic note data NT. Each small circle of the mesh pattern represents the pitch position at the time of note-on of each of the notes N1, N2, and N3 represented by the basic note data NT, and each band represents the “pitch-time characteristic of each note by the expression data EX. "" Represents how it is changed.

図10(1)は、表情データEXのスタッカートデータSTによる効果を示しており、スタッカートデータSTが「1」でスタッカートがかかると、次の打点のタイミングまでの全基本ノート区間の所定割合分がゲートタイムGTとなる。ここでは、第1及び第3ノートN1,N3は、スタッカートデータSTが「1」で、スタッカート割合が夫々50%及び75%であり、一方、第2ノートN2のスタッカートデータSTは「0」である。従って、図10(1)に示すように、第1及び第3ノートN1,N3のゲートタイムGT1,GT3は、打点タイミングt1,t3から次の打点タイミングt2,t4までの全基本ノート区間t1〜t2,t3〜t4の夫々50%及び75%となる。一方、第2ノートN2にはスタッカートがかからない。   FIG. 10 (1) shows the effect of the expression data EX by the staccato data ST. When the staccato data ST is “1” and the staccato is applied, a predetermined proportion of all the basic note intervals until the timing of the next hitting point is obtained. It becomes gate time GT. Here, the first and third notes N1 and N3 have the staccato data ST of “1” and the staccato ratios of 50% and 75%, respectively, while the staccato data ST of the second note N2 is “0”. is there. Accordingly, as shown in FIG. 10 (1), the gate times GT1 and GT3 of the first and third notes N1 and N3 are all basic note intervals t1 to t1 from the hit point timings t1 and t3 to the next hit point timings t2 and t4. It becomes 50% and 75% of t2, t3 to t4, respectively. On the other hand, the second notebook N2 is not staccato.

図10(2)は、表情データEXのスラーデータSLによる効果を示しており、スラーデータSLが「1」でスラーがかかると、次のノートと結合され、両ノートのピッチ間が滑らかに結ばれる。ここでは、第2ノートN2はスラーデータSLが「1」でありスラーがかかり、図10(2)に示すように、次の第3ノートN3と結合され、両ノートN2,N3のピッチP2,P3間が滑らかに結ばれる。   FIG. 10B shows the effect of the facial expression data EX by the slur data SL. When the slur data SL is “1” and a slur is applied, it is combined with the next note, and the pitch between both notes is smoothly connected. It is. Here, the slur data SL is “1” and the slur is applied to the second note N2, and as shown in FIG. 10 (2), the second note N2 is combined with the next third note N3, and the pitch P2, P2 between both notes N2, N3. P3 is smoothly connected.

また、図10(3)は、表情データEXのしゃくりデータSYによる効果を示しており、しゃくりデータSYが「1」でしゃくりがかかると、予め設定されている「しゃくり深さ」に対応する所定ピッチ分Pyだけ下のピッチから発音を開始し、当該ノートのピッチP1へと徐々にピッチ変化する。ここでは、第1ノートN1はしゃくりデータSYが「1」でしゃくりがかかり、図10(3)に示すように、しゃくり深さPy分だけ下のピッチから発音を開始し、徐々に第1ノートN1のピッチP1へと変化する。   FIG. 10 (3) shows the effect of the facial expression data EX by the squealing data SY. When the squealing data SY is “1” and the squealing is applied, a predetermined value corresponding to a preset “shearing depth” is shown. Sound generation starts from a pitch lower by the pitch Py, and the pitch gradually changes to the pitch P1 of the note. Here, the first note N1 is screamed when the squealing data SY is “1”, and as shown in FIG. 10 (3), the first note N1 begins to sound from a pitch lower by the squealing depth Py, and gradually becomes the first note. It changes to the pitch P1 of N1.

〔スタッカートに基づくゲートタイム処理〕
図11〜図12は、図4〜図6の自動メロディ生成処理のステップM7(図4)における再生用メロディデータ作成処理のうち、スタッカートデータSTに基づくゲートタイム作成処理のフローチャートを示す。最初のステップT1で新たな打点即ち基本ノートNiが選択されると〔以下、“i”(i=1,2,…)は、曲の始まりからの当該ノート番号を表わす添字記号として用られる。〕、ステップT2で当該打点(ノートNi)のスタッカートデータSTiが「1」であるか否かが調べられ、「1」の場合はステップT3に進み、そうでない場合にはステップT4に進む。ステップT3では、当該打点(ノートNi)がフレーズ或いは楽節の最後の打点(最終ノート)であるかが調べられ、最後の打点であればステップT4に進み、そうでないとステップT5に進む。そして、ステップT4に進んだ場合は、当該打点(ノートNi)の開始タイミングtiと次の打点(ノートNi+1)の開始タイミングti+1の間隔を当該ノートNiのゲートタイムGTiとする。
[Gate time processing based on staccato]
FIGS. 11 to 12 show flowcharts of the gate time generation process based on the staccato data ST in the reproduction melody data generation process in step M7 (FIG. 4) of the automatic melody generation process of FIGS. When a new dot, that is, a basic note Ni is selected in the first step T1, [hereinafter, “i” (i = 1, 2,...) Is used as a subscript symbol indicating the note number from the beginning of the song. In step T2, whether or not the staccato data STi of the hit point (note Ni) is “1” is checked. If “1”, the process proceeds to step T3, and if not, the process proceeds to step T4. In step T3, it is checked whether the hit point (note Ni) is the last hit point (final note) of the phrase or the passage. If it is the last hit point, the process proceeds to step T4. Otherwise, the process proceeds to step T5. When the process proceeds to step T4, the interval between the start timing ti of the hit point (note Ni) and the start timing ti + 1 of the next hit point (note Ni + 1) is set as the gate time GTi of the note Ni.

一方、ステップT5に進んだ場合は、順次、ステップT6〜T9を経てスタッカートをかけるための処理が行われる。先ず、ステップT5では、「のんびり」/「素朴」/…/「うきうき」等の曲趣を表わすデータに基づいて、スタッカート割合テーブルを参照し、第1スタッカート割合を得る。次のステップT6では、「イキイキ度」を表わすデータに基づいてスタッカート割合テーブルを参照し、第2スタッカート割合を得る。さらに、ステップT7でこれら第1及び第2スタッカート割合を合成する。   On the other hand, when the process proceeds to step T5, processing for applying staccato is sequentially performed through steps T6 to T9. First, in step T5, the first staccato ratio is obtained by referring to the staccato ratio table based on the data representing the musical taste such as “slowly” / “simple” /... In the next step T6, the second staccato ratio is obtained by referring to the staccato ratio table based on the data representing the “degree of excitement”. Further, in step T7, the first and second staccato ratios are synthesized.

図13には、ステップT5,T6で利用されるスタッカート割合テーブルの例が示されている。図13(1)の第1のスタッカート割合テーブルは、例えば、「のんびり」、「素朴」、「やさしい」、「さわやか」及び「うきうき」といった各曲趣に対応して第1スタッカート割合を設定したものであり、図13(2)の第2のスタッカート割合テーブルは、例えば、「イキイキ度1」〜「イキイキ度5」と5段階に分けられた各「イキイキ度」に対応して第2スタッカート割合を設定したものである。なお、スタッカート割合テーブルは、このようにスタッカート割合を固定的に対応させたものに限らず、「のんびり」/「素朴」/…/「うきうき」や「イキイキ度」に応じてスタッカート割合の範囲を決定するようなもの(例えば、「イキイキ度」=3のとき「40〜60%」)とし、この範図内でランダムに決定するようにしてもよい。   FIG. 13 shows an example of a staccato ratio table used in steps T5 and T6. In the first staccato ratio table of FIG. 13 (1), for example, the first staccato ratio is set corresponding to each musical taste such as “Carefully”, “Simple”, “Easy”, “Sawayaka”, and “Ukiuki”. The second staccato ratio table of FIG. 13 (2) corresponds to, for example, the second staccato corresponding to each “liveness degree” divided into “liveness degree 1” to “liveness degree 5”. The ratio is set. In addition, the staccato ratio table is not limited to the fixed correspondence of the staccato ratio in this way, but the range of staccato ratio is determined according to “loosely” / “simple” /.../ “sparkling” or “degree of excitement”. It may be determined (for example, “40 to 60%” when “liveness” = 3), and may be determined randomly within this model.

また、ステップT7での第1及び第2スタッカート割合の合成については、例えば、ステップT5,T6で得られた第1及び第2スタッカート割合の平均値を取る(単純平均でもよいし、曲趣と「イキイキ度」の重視度に応じた重み付け平均でもよい)方法や、両スタッカート割合を掛け合わせる方法など、任意の方法を採用することができる。   For the synthesis of the first and second staccato ratios in step T7, for example, an average value of the first and second staccato ratios obtained in steps T5 and T6 is taken (a simple average may be used, Any method may be employed, such as a weighted average according to the degree of importance of “liveness” or a method of multiplying both staccato ratios.

このようにして合成されたスタッカート割合は、ステップT8で曲のテンポ(ステップM1:図4)に応じて修正される。例えば、所定のテンポ(例えば90)を基準(=修正なし)とし、これよりもテンポが早けれはスタッカート割合を大きくし、テンポが遅ければ小さくすることにより、このようなテンポに応じた修正を行うことができる。また、修正手法としては、計算式に基づいて修正する方法、テンポに応じた修正値テーブルを用意しておきこのテーブルを利用して修正する方法などが考えられる。   The staccato ratio synthesized in this way is corrected in step T8 according to the tempo of the song (step M1: FIG. 4). For example, a predetermined tempo (for example, 90) is used as a reference (= no correction), and if the tempo is earlier than this, the staccato ratio is increased, and if the tempo is slower, the correction is performed according to such a tempo. be able to. Further, as a correction method, a correction method based on a calculation formula, a correction value table corresponding to the tempo, and a correction method using this table can be considered.

ステップT9においては、修正されたスタッカート割合を当該打点(ノートNi)及び次打点(ノートNi+1)の開始タイミングti,ti+1の間隔に乗算し、乗算結果を当該ノートNiのゲートタイムGTiとする。ステップT4或いはステップT9のゲートタイム取得処理後はステップT10に進む。なお、ステップT4及びステップT9で得られたゲートタイムGTは、所定の音符(例えば、16分音符や32分音符等)でクオンタイズ(量子化)して表わすようにしておいてもよい。   In step T9, the corrected staccato ratio is multiplied by the interval between the start timings ti and ti + 1 of the corresponding hit point (note Ni) and the next hit point (note Ni + 1), and the multiplication result is used as the gate time GTi of the note Ni. After the gate time acquisition process at step T4 or step T9, the process proceeds to step T10. Note that the gate time GT obtained in steps T4 and T9 may be quantized with a predetermined note (for example, a 16th note or a 32nd note).

ステップT10では、打点開始タイミングtiを当該打点(ノートNi)に対応するノートオンイベントデータNONiのタイミングデータ(TM)とし、ノートオンイベントデータNONiとタイミングデータ(TM)をRAM3中の再生用メロディデータメモリに書込み、次のステップT11では、ゲートタイムGTiに基づいて当該打点(ノートNi)に対応するノートオフイベントデータNOFiのタイミングデータ(TM)を決定し、ノートオフデータNOFiとタイミングデータを同再生用メロディデータメモリに書込んだ上、ステップT12に進む。   In step T10, the hit point start timing ti is set as the timing data (TM) of the note-on event data NONi corresponding to the hit point (note Ni), and the note-on event data NONi and the timing data (TM) are reproduced in the melody data for reproduction in the RAM 3. In the next step T11, the timing data (TM) of the note-off event data NOFi corresponding to the hit point (note Ni) is determined based on the gate time GTi, and the note-off data NOFi and the timing data are reproduced. Then, the process proceeds to step T12.

ステップT12では、当該打点(ノートNi)が最終打点(最終ノート)であるかが判断され、最終打点の場合はこのゲートタイム作成処理を終了するが、そうでない場合には、再度ステップT1に戻りステップT1〜T11のゲートタイム取得のための処理を行い、ステップT12で最終打点まで処理が行われたと判断される迄このゲートタイム取得処理を繰り返す。   In step T12, it is determined whether the hit point (note Ni) is the final hit point (final note). If the hit point is the final hit point, the gate time generation process is terminated. If not, the process returns to step T1 again. Processing for acquiring the gate time in steps T1 to T11 is performed, and this gate time acquisition processing is repeated until it is determined in step T12 that the processing has been performed up to the final hit point.

〔スラーに基づくピッチベンドイベントデータ作成及びノート結合処理〕
図14は、図4〜図6の自動メロディ生成処理のステップM7(図4)における再生用メロディデータ作成処理のうち、スラーに基づくピッチベンドイベントデータ作成及びノート結合処理のフローチャートを示す。最初のステップL1で新たな打点即ちノートNiが選択されると、ステップL2で当該打点(ノートNi)のスラーデータSLiが「1」であるか否かが調べられ、「1」の場合は、順次、ステップL3〜L5に進んで行き、そうでない場合にはステップL6に進む。
[Pitch bend event data creation based on slur and note combination processing]
FIG. 14 shows a flowchart of pitch bend event data creation and note combination processing based on slur in the reproduction melody data creation processing in step M7 (FIG. 4) of the automatic melody generation processing of FIGS. When a new hit point, that is, a note Ni is selected in the first step L1, it is checked in step L2 whether the slur data SLi of the hit point (note Ni) is “1”. Sequentially proceed to steps L3 to L5, otherwise proceed to step L6.

ステップL3では、RAM3中の再生用メロディデータメモリに記憶された当該打点(ノートNi)に対応するノートオフイベントデータNOFiのタイミング近傍から、次ノートNi+1のピッチPi+1に向かって徐々に変化するピッチベンドイベントデータPBLiを作成して挿入する。このようなスラーデータSLに基づき徐々に変化するピッチベンドイベントデータPBLの作成の詳細については後述する。   In step L3, the pitch bend event gradually changes from the vicinity of the timing of the note-off event data NOFi corresponding to the hit point (note Ni) stored in the reproduction melody data memory in the RAM 3 toward the pitch Pi + 1 of the next note Ni + 1. Data PBLi is created and inserted. Details of creation of pitch bend event data PBL that gradually changes based on such slur data SL will be described later.

次のステップL4,L5は、2つのノートNi,Ni+1を結合するステップである。先ず、ステップL4では、当該打点(ノートNi)に対応するノートオフイベントデータNOFiのタイミングを次打点(ノートNi+1)に対応するノートオフイベントデ−タNOF+1のタイミングに修正し、次に、ステップL5にて、次打点(ノートNi+1)に対応するノートオンイベントデータNONi+1及びノートオフイベントデータNOFi+1並びにこれらのタイミングデータを消去し、ステップL6に進む。   The next steps L4 and L5 are steps for joining two notes Ni and Ni + 1. First, in step L4, the timing of note-off event data NOFi corresponding to the hit point (note Ni) is corrected to the timing of note-off event data NOF + 1 corresponding to the next hit point (note Ni + 1), and then step L5. The note-on event data NONi + 1 and note-off event data NOFi + 1 corresponding to the next hit point (note Ni + 1) and their timing data are erased, and the process proceeds to step L6.

ステップL6では、当該打点(ノートNi)が最終打点(最終ノート)であるかが判断され、最終打点の場合はこのピッチベンドイベントデータ作成及びノート結合処理を終了するが、そうでない場合には、再度ステップL1に戻りステップL1〜L5の処理を行い、ステップL6で最終打点まで処理が完了したと判断される迄これらの処理を繰り返す。   In step L6, it is determined whether the hit point (note Ni) is the final hit point (final note). If the hit point is the final hit point, the pitch bend event data creation and note combination processing is terminated. Returning to step L1, the processes of steps L1 to L5 are performed, and these processes are repeated until it is determined in step L6 that the process has been completed up to the final hit point.

〔スラーにおけるピッチベンドイベントデータの作成手順〕
図15は、上述のステップL3においてスラーデータSLiにより徐々に変化するピッチベンドイベントデータPBLiを作成する手法を説明するための図であり、図16〜図17は、同ステップL3においてこのような手法に基づきスラーにおけるピッチベンドイベントデータPBLiを作成する処理を表わすフローチャートである。
[Procedure for creating pitch bend event data in slurs]
FIG. 15 is a diagram for explaining a method of creating pitch bend event data PBLi that gradually changes in accordance with the slur data SLi in step L3 described above, and FIGS. 16 to 17 show such a method in step L3. It is a flowchart showing the process which produces the pitch bend event data PBLi in a slur based.

スラーにおけるピッチベンドイベントデータ作成処理がスタートすると、先ず、最初のステップLB1において、当該ノートNiのピッチPi及び次ノートNi+1のピッチPi+1から、両ノートNi,Ni+1間のピッチ差Pdi〔単位:例えば:セント(cent)〕を算出し、次に、ステップLB2にて、ピッチ差に応じた標準遷移時間〔単位:例えば:ミリ秒(m.sec)〕を算出する。このようにピッチ数に応じて遷移時間を変えるには、例えば、ピッチ差が100セントの場合の遷移時間及びピッチ差が1200セントの場合の遷移時間を予め設定してROM2等に記憶しておき、両遷移時間の間を当該ピッチ差Pdiのセント値で直線補間することにより、当該ピッチ差Pdiに対応する標準遷移時間を算出するというような手法を採用することができる。   When the pitch bend event data creation process in the slur starts, first, in the first step LB1, the pitch difference Pdi between the notes Ni and Ni + 1 from the pitch Pi of the note Ni and the pitch Pi + 1 of the next note Ni + 1 [unit: eg: cents] (Cent)] is calculated, and then in step LB2, a standard transition time [unit: for example: millisecond (m.sec)] corresponding to the pitch difference is calculated. In order to change the transition time according to the number of pitches in this way, for example, the transition time when the pitch difference is 100 cents and the transition time when the pitch difference is 1200 cents are preset and stored in the ROM 2 or the like. A method of calculating the standard transition time corresponding to the pitch difference Pdi by linearly interpolating between the transition times with the cent value of the pitch difference Pdi can be employed.

次のステップLB3では、ステップLB2で算出された標準遷移時間を曲のテンポ(ステップM1:図4)に応じて補正した上、ステップLB4に進む。テンポに応じて遷移時間を補正するには、例えば、テンポの値が「60」の場合のスラー遷移時間補正値(例えば、100〜150%)、及び、テンポの値が「120」の場合のスラー遷移時間補正値(例えば、66〜100%)を予め設定してROM2等に記憶しておき、ステップLB2で算出された標準遷移時間で、両スラー遷移時間補正値の間を直線補間することにより、算出された標準遷移時間に対応する補正後標準遷移時間を算出するというような手法を採用することができる。なお、このステップLB3でテンポに応じて補正した遷移時間値も、そのテンポにおける標準遷移時間を表わしているといえる   In the next step LB3, the standard transition time calculated in step LB2 is corrected according to the tempo of the music (step M1: FIG. 4), and the process proceeds to step LB4. In order to correct the transition time according to the tempo, for example, the slur transition time correction value (for example, 100 to 150%) when the tempo value is “60” and the tempo value is “120”. A slur transition time correction value (for example, 66 to 100%) is preset and stored in the ROM 2 or the like, and linear interpolation is performed between both slur transition time correction values with the standard transition time calculated in step LB2. Thus, it is possible to employ a method of calculating a corrected standard transition time corresponding to the calculated standard transition time. It should be noted that the transition time value corrected in accordance with the tempo in step LB3 also represents the standard transition time at the tempo.

ステップLB4では、ステップLB3で補正された標準遷移時間に対応する遷移クロック数を算出し、ステップLB5に進み、ステップLB5〜LB9で遷移クロック数の修正処理等を行う。この遷移クロック数は、1クロックは4分音符の1/48であるという関係(本実施形態の場合)から、次式(1)により算出することができる。なお、この遷移クロック数にみられるように、以下、時間推移を表わすのにミリ秒等の時間単位に替えてクロック数を用いているが、クロック数も実質的に「時間」を表わしているということができる:

Figure 0003948464
In step LB4, the number of transition clocks corresponding to the standard transition time corrected in step LB3 is calculated, the process proceeds to step LB5, and the number of transition clocks is corrected in steps LB5 to LB9. The number of transition clocks can be calculated by the following equation (1) from the relationship (in this embodiment) that one clock is 1/48 of a quarter note. As seen from the number of transition clocks, the number of clocks is used instead of time units such as milliseconds to represent the time transition, but the number of clocks also substantially represents “time”. You can say:
Figure 0003948464

ステップLB5〜LB9のうち、ステップLB5,LB8は、標準遷移時間に基づいて、図15の階段状の破線で示されるようなピッチ遷移をさせた際に(図15では、説明の便のためにピッチ遷移が極めて粗く描かれている)、所定のピッチ安定期間を確保することができるか否かを判断する処理ブロックであり、ステップLB6,LB9は、ピッチ遷移の前後に所定のピッチ安定区間を確保することができない場合に遷移クロック数を短縮する処理ブロックである。   Of steps LB5 to LB9, steps LB5 and LB8 are based on the standard transition time when the pitch transition as shown by the stepped broken line in FIG. 15 is performed (in FIG. 15, for convenience of explanation). This is a processing block for determining whether or not a predetermined pitch stable period can be ensured. Steps LB6 and LB9 are steps for determining a predetermined pitch stable section before and after the pitch transition. This is a processing block for shortening the number of transition clocks when it cannot be secured.

先ず、ステップLB5では、遷移クロック数が次ノートNi+1の発音長の1/2以上であるか否かを判断する。ここで、次ノート音長(ti+1〜ti+2)の1/2以上(YES)の場合は、ステップLB6に進み、次ノートNi+1の後半において、次ノートNi+1のピッチ安定区間即ち次ノートピッチPi+1が変化しない水平区間として、短音符でスラーが連続してもよいように、少なくとも次ノート音長の1/2を確保するために、
遷移クロック数 = 次ノートの音長の1/2 …(2)
として、遷移クロック数を短縮した上、ステップLB7に進む。一方、ステップLB5で「否」(NO)と判断された場合は、既に次ノートNi+1のピッチ安定区間が確保されているとして、直ちにステップLB7に進む。
First, in step LB5, it is determined whether or not the number of transition clocks is ½ or more of the pronunciation length of the next note Ni + 1. If the next note sound length (ti + 1 to ti + 2) is ½ or more (YES), the process proceeds to step LB6, and in the second half of the next note Ni + 1, the pitch stable interval of the next note Ni + 1, that is, the next note pitch Pi + 1 changes. In order to ensure at least half of the next note length so that the slur may be continuous with short notes as a horizontal interval that does not,
Number of transition clocks = 1/2 of the note length of the next note (2)
As described above, after the number of transition clocks is shortened, the process proceeds to step LB7. On the other hand, if “NO” (NO) is determined in step LB5, it is determined that the pitch stable section of the next note Ni + 1 has already been secured, and the process immediately proceeds to step LB7.

ステップLB7では、次式(3)により、図15の時間ti〜tidに相当する遅延クロック数を算出し(ノートの音長はクロック数で表わし、これは以下においても同様である。)、ステップLB8に進む:

Figure 0003948464
In step LB7, the number of delayed clocks corresponding to the times ti to tid in FIG. 15 is calculated by the following equation (3) (note sound length is represented by the number of clocks, which is the same in the following). Proceed to LB8:
Figure 0003948464

ステップLB8においては、遅延クロック数が当該ノートNiの発音長の1/2未満であるか否かを判断する。ここで、当該ノート音長(ti〜ti+1)の1/2未満(YES)の場合は、ステップLB9に進み遷移クロック数を短縮する。この短縮処理に当っては、当該ノートNiについては前半部のピッチが変化せず水平を保つようにし、次ノートNi+1については後半部のピッチが変化せず水平を保つようにするために、遅延クロック数を
遅延クロック数 = 当該ノートの音長の1/2 …(4)
と修正すると共に、次式(5)により遷移クロック数を算出する:

Figure 0003948464
In step LB8, it is determined whether or not the number of delayed clocks is less than ½ of the note length of the note Ni. If the note sound length (ti to ti + 1) is less than ½ (YES), the process proceeds to step LB9 to shorten the number of transition clocks. In this shortening process, the note Ni is delayed so that the pitch of the first half does not change, and the second note Ni + 1 is kept horizontal without changing the pitch of the second half. The number of clocks is the number of delayed clocks = 1/2 of the note length of the note (4)
And the number of transition clocks is calculated by the following equation (5):
Figure 0003948464

ステップLB8において遅延クロック数が当該ノート音長の1/2以上である(NO)場合、或いは、ステップLB9の処理を終えた後は、ステップLB10に進んで、1クロック当りの遷移ピッチを次式(6)により算出する:

Figure 0003948464
In step LB8, when the number of delayed clocks is ½ or more of the note sound length (NO), or after finishing the process of step LB9, the process proceeds to step LB10, and the transition pitch per clock is expressed by the following equation. Calculate by (6):
Figure 0003948464

そして、最終ステップLB11に進み、以上のようにして作成された遅延クロック数、遷移クロック数及び1クロック当りの遷移ピッチに基づいて、当ノートのノートオンタイミングtiから遅延クロック数だけ経過した時点tidから始まり、1クロック毎に、1クロック当りの遷移ピッチだけピッチ変化するピッチベンドイベントデータPBLiを作成し、このピッチベンドイベントデータを遷移クロック数分だけ挿入していく。   Then, the process proceeds to the final step LB11. Based on the delay clock number, the transition clock number, and the transition pitch per clock generated as described above, the time point tid when the delay clock number has elapsed from the note-on timing ti of this note. Starting from, pitch bend event data PBLi that changes by a transition pitch per clock is generated for each clock, and this pitch bend event data is inserted by the number of transition clocks.

このようにして作成されるピッチベンドイベントデータPBLiによると、先ず、当該ノートNiのノートオンタイミングデータ(TM)により与えられるノートオンタイミングtiから遅延クロック数分が経過する時点tidまでは、当該ノートNiのノートオンイベントデータNONiにより与えられる当該ノートピッチpiが変化しないピッチ安定区間として、少なくとも当該ノートNiの音長の1/2の時間が確保される。   According to the pitch bend event data PBLi created in this way, first, the note Ni until the time tid at which the number of delay clocks has elapsed from the note on timing ti given by the note on timing data (TM) of the note Ni. As a pitch stable section in which the note pitch pi given by the note-on event data NONi does not change, at least a half of the note length of the note Ni is secured.

次に、時点tidから遷移クロック数分経過する時点tisまでの遷移区間の間は、当該ノートNiのピッチpiから次ノートNi+1のピッチpi+1に向かって、次ノートNi+1の1クロック毎に遷移ピッチだけ徐々にピッチ変化させることができる。なお、次ノートNi+1のノートオンイベントデータNONi+1のタイミングデータ(TM)により与えられるノートオンタイミングti+1は、図15に示すように、この遷移区間のほぼ中央のタイミングになる。   Next, during the transition period from the time point tid to the time point tis where the number of transition clocks elapses, only the transition pitch is generated for each clock of the next note Ni + 1 from the pitch pi of the note Ni toward the pitch pi + 1 of the next note Ni + 1. The pitch can be gradually changed. Note that the note-on timing ti + 1 given by the timing data (TM) of the note-on event data NONi + 1 of the next note Ni + 1 is almost the center timing of this transition section as shown in FIG.

その後、次ノートNi+1のノートオンタイミングti+1より遅らされた時点tisで次ノートNi+1のノートオンイベントデータNONi+1により与えられる次ノートピッチpi+1に到達する。これにより、スラーに対応した自然な効果が得られる。そして、時点tisからノートオフタイミング(次々ノートのノートオンタイミング)ti+2までは、次ノートピッチpi+1が変化しないピッチ安定区間として、短音符でスラーが連続してもよいように、少なくとも次ノートNi+1の音長の1/2の時間が確保されている。従って、短音符でスラーが連続する場合は、基本ノートデータNTi(ノートオンタイミングti+1,ピッチpi+1)で表わされる次ノートNi+1に対して、前ノートNiと同様の処理を順次施すことにより、次ノートピッチpi+1に到達した後すぐに、次のピッチ遷移を開始させることができる。   Thereafter, at the time tis delayed from the note-on timing ti + 1 of the next note Ni + 1, the next note pitch pi + 1 given by the note-on event data NONi + 1 of the next note Ni + 1 is reached. Thereby, a natural effect corresponding to the slur is obtained. From the time tis to the note-off timing (note-on timing of the next note) ti + 2, at least the next note Ni + 1 as a pitch stable section where the next note pitch pi + 1 does not change so that slurs may continue in short notes. The time of 1/2 of the sound length is secured. Therefore, when a slur is continued with short notes, the next note Ni + 1 represented by the basic note data NTi (note on timing ti + 1, pitch pi + 1) is sequentially subjected to the same processing as the previous note Ni to thereby obtain the next note. As soon as the pitch pi + 1 is reached, the next pitch transition can be started.

〔しゃくりに基づくピッチベンドイベントデータ作成処理〕
図18は、図4〜図6の自動メロディ生成処理のステップM7(図4)における再生用メロディデータ作成処理のうち、しゃくりデータに基づくピッチベンドイベントデータ作成処理のフローチャートを示す。ステップY1で新たな打点即ちノートNiが選択されると、ステップT2で当該打点(ノートNi)のしゃくりデータSYiが「1」であるか否かが調べられ、「1」の場合はステップY3を経てステップY4に進み、そうでない場合には直接ステップY4に進む。
[Pitch bend event data creation process based on scouring]
FIG. 18 shows a flowchart of the pitch bend event data creation process based on the scream data in the reproduction melody data creation process in step M7 (FIG. 4) of the automatic melody generation process of FIGS. When a new hit point, i.e., note Ni is selected in step Y1, it is checked in step T2 whether or not the scoring data SYi of the hit point (note Ni) is "1". Then, the process proceeds to step Y4, and if not, the process proceeds directly to step Y4.

ステップY3においては、RAM3中の再生用メロディデータメモリに記憶された当該打点(ノート)Niに対応するノートオンイベントデータNONiのタイミング近傍から、しゃくり深さデータPyが示すしゃくり深さで始まり当該ノートNi+1のピッチPi+1に向かって徐々に変化するピッチベンドイベントデータPBYiを作成して挿入する。   In step Y3, the note starts from the vicinity of the timing of the note-on event data NONi corresponding to the hit point (note) Ni stored in the reproduction melody data memory in the RAM 3 and starts with the squeezing depth indicated by the screaming depth data Py. Pitch bend event data PBYi that gradually changes toward the pitch Pi + 1 of Ni + 1 is created and inserted.

ステップY4では、当該打点(ノートNi)が最終打点(最終ノート)であるかが判断され、最終打点の場合はこのピッチベンドイベントデータ1作成処理を終了するが、そうでない場合には、再度ステップY1に戻りステップY1〜Y3の処理を行い、ステップY4で最終打点まで処理が完了したと判断される迄これらの処理を繰り返す。   In step Y4, it is determined whether the hit point (note Ni) is the final hit point (final note). If the hit point is the final hit point, the pitch bend event data 1 creation process is terminated. If not, step Y1 is performed again. Returning to Steps Y1 to Y3, the process is repeated until it is determined in Step Y4 that the process has been completed up to the final hit point.

ここで、上述のステップY3においてしゃくりデータSYiにより徐々に変化するピッチベンドイベントデータPBYiを作成する手順について説明する。なお、このステップY3での処理は、図14のスラーに基づくデータ処理のステップL3においてスラーデータSLiによりピッチベンドイベントデータPBLiを作成する処理に類似しているので、図19を用いて手順の要点を列挙するにとどめ、図16及び図17のような具体的フローチャートは省略するが当業者にとって極く容易に実現することができるであろう。   Here, the procedure for creating the pitch bend event data PBYi that gradually changes according to the scooping data SYi in step Y3 will be described. The process in step Y3 is similar to the process of creating pitch bend event data PBLi using slur data SLi in step L3 of the slur-based data process in FIG. Although only specific enumerations are omitted and specific flowcharts such as FIGS. 16 and 17 are omitted, those skilled in the art will be able to realize them very easily.

〔1〕しゃくりにおいては、図19に示すように、当該ノートNiの本来のピッチPiより若干のしゃくり深さPyだけ低いピッチPi−Pyから発音を始め、徐々にピッチを上昇させてピッチ遷移を行い、所定のしゃくり遷移時間が経過した時点tisにて本来のピッチPiに到達させる。そこで、予め、しゃくり深さPy(セント)及びしゃくり遷移時間〔単位:例えば:ミリ秒(m.sec)〕を設定し、ROM2等に記憶しておき、ステップY2においてしゃくりデータSYi=「1」を検出すると、これに応じてこれらのデータを読み出す。 [1] In scribing, as shown in FIG. 19, sound generation starts from a pitch Pi-Py that is slightly lower than the original pitch Pi of the note Ni, and the pitch is gradually increased to cause pitch transition. And the original pitch Pi is reached at the time point tis when the predetermined transition time has elapsed. Therefore, the scribing depth Py (cent) and the scribing transition time [unit: for example: millisecond (m.sec)] are set in advance and stored in the ROM 2 or the like, and the scribbling data SYi = "1" in step Y2. Is detected, these data are read out accordingly.

〔2〕次に、読み出されたしゃくり遷移時間をテンポで補正する。この補正には、スラーにおける場合と同様に、例えば、テンポの値が「60」の場合のしゃくり遷移時間補正値(例えば、100〜150%)、及び、テンポの値が「120」の場合のしゃくり遷移時間補正値(例えば、66〜100%)を予め設定してROM2等に記憶しておき、〔1〕で読み出したしゃくり遷移時間で、しゃくり遷移時間補正値の間を直線補間することにより、算出されたしゃくり遷移時間に対応する補正後しゃくり遷移時間を算出するというような手法を採用することができる。 [2] Next, the read transition time is corrected with the tempo. As in the case of the slur, this correction is performed, for example, when the tempo value is “60” and the jerky transition time correction value (for example, 100 to 150%) and the tempo value is “120”. By presetting a scouring transition time correction value (for example, 66 to 100%) and storing it in the ROM 2 or the like, and linearly interpolating between the shacking transition time correction values with the shave transition time read in [1]. It is possible to employ a method of calculating a corrected squeezing transition time corresponding to the calculated sneezing transition time.

〔3〕次式(7)により、〔2〕で補正されたしゃくり遷移時間に応じた遷移クロック数を算出する:

Figure 0003948464
[3] Using the following equation (7), calculate the number of transition clocks corresponding to the crushed transition time corrected in [2]:
Figure 0003948464

〔4〕算出された遷移クロック数が当該ノートNiの音長の1/2以上の場合は、遷移クロック数を短縮し、
遷移クロック数 = 当該ノートの音長の1/2 …(8)
とする。
[4] If the calculated transition clock number is 1/2 or more of the note length of the note Ni, the transition clock number is shortened,
Number of transition clocks = 1/2 of the note length of the note (8)
And

〔5〕当該ノートNiが、図10(3)のように、スタッカートデータSTiにより実際の発音長が短縮されている等、当該ノートNiに対応する実際の発音長が短い場合は、しゃくりを止めたり、しゃくり遷移時間を短縮したりする。例えば、実際の発音長クロック数が“12”未満の場合はしゃくりを止め、また、実際の発音長クロック数が“12”以上であり、
遷移クロック数 > 発音長クロック数 − 6クロック …(9)
の場合は、次式(10)により遷移クロック数を短縮する:
遷移クロック数 = 実際の発音長クロック数 − 6クロック …(10)
[5] If the actual pronunciation length corresponding to the note Ni is short, such as the actual pronunciation length is shortened by the staccato data STi as shown in FIG. Or shorten the transition time. For example, if the actual sounding length clock number is less than “12”, squealing is stopped, and the actual sounding length clock number is “12” or more,
Number of transition clocks> Number of pronunciation length clocks-6 clocks (9)
In this case, the number of transition clocks is shortened by the following equation (10):
Number of transition clocks = Actual number of sound generation clocks-6 clocks (10)

〔6〕さらに、〔1〕で読み出されたしゃくり深さPy、及び、〔3〕〜〔5〕を経て決定された遷移クロック数から、次式(11)を用いて、1クロック当りの遷移ピッチを算出する:
遷移ピッチ = (しゃくり深さ)/(遷移クロック数) …(11)
[6] Further, based on the scooping depth Py read out in [1] and the number of transition clocks determined through [3] to [5], the following equation (11) Calculate the transition pitch:
Transition pitch = (shear depth) / (number of transition clocks) (11)

〔7〕以上のようにして得られた遷移クロック数及び1クロック当りの遷移ピッチに基づいて、当該ノートNiのノートオンタイミングtiから始まり、1クロック毎に、1クロック当りの遷移ピッチだけ変化するピッチベンドデータPBYiを作成し、遷移クロック数分だけ挿入していく。 [7] Based on the number of transition clocks obtained as described above and the transition pitch per clock, it starts from the note-on timing ti of the note Ni and changes by the transition pitch per clock every clock. Pitch bend data PBYi is created and inserted by the number of transition clocks.

〔楽器条件を考慮したメロディ生成処理〕
この発明の一実施例によれば、楽器の演奏可能な条件を考慮したメロディ生成パラメータを設定することにより、発音する(演奏する)楽器にふさわしいメロディを生成することができる。図20は、この発明の一実施例による楽器演奏可能条件を考慮したメロディ生成システムの機能ブロック図である。このシステムでは、外部記憶装置9を利用して、楽器非依存性メロディ生成用データベースB1、楽器演奏可能条件データベースB2及び演奏可能条件変更用データベースB3が設けられる。そして、音楽条件を設定するために曲風等指定ブロックB4で曲風を指定し、楽器種類指定ブロックB5で楽器種類を指定すると、指定した曲風の音楽条件を備え、指定した種類の楽器にふさわしい所望のメロディが生成されるようになっている。
[Melody generation processing considering instrument conditions]
According to one embodiment of the present invention, a melody suitable for a musical instrument to be sounded (played) can be generated by setting a melody generation parameter in consideration of conditions under which the musical instrument can be played. FIG. 20 is a functional block diagram of a melody generation system that takes into account the musical instrument playable conditions according to one embodiment of the present invention. In this system, an external storage device 9 is used to provide a musical instrument independent melody generation database B1, a musical instrument performance condition database B2, and a performance condition change database B3. Then, in order to set the music conditions, the music style is designated in the music style designation block B4, and the instrument type is designated in the instrument type designation block B5. An appropriate desired melody is generated.

ここで、楽器非依存性メロディ生成用データベースB1は、曲風毎に、調、8分系/16分系/3連符系(音符分解能パラメータ)、拍子などの各種パラメータを楽器非依存性のメロディ生成用データとしてもっている。これに対して、楽器演奏可能条件データベースB2には、楽器種類毎に、生成音域、跳躍ピッチ幅(なお、「跳躍」とは、短3度以上隔てて演奏することをいう。)、跳躍頻度、表現奏法情報、調(管楽器のみ)などの、当該楽器で演奏可能、表現可能或いは演奏し易い各種条件パラメータ情報が、演奏可能条件データとして予め用意されている。なお、「生成音域」パラメータは楽器に依存するデータとするが「跳躍ピッチ幅」パラメータは楽器非依存性データにするという組み合わせにしてもよい。   Here, the instrument-independent melody generation database B1 stores various parameters such as key, oct / 16/16 triplet (note resolution parameter), time signature, etc. for each musical style. It has data for melody generation. On the other hand, in the musical instrument playable condition database B2, for each musical instrument type, a generated sound range, a jump pitch width (“jump” refers to performing at a short interval of 3 degrees or more), and a jump frequency. Various condition parameter information that can be played, expressed, or easily played by the musical instrument, such as expression performance information and key (wind instrument only), is prepared in advance as playable condition data. The “generated sound range” parameter is data dependent on the instrument, but the “jumping pitch width” parameter may be a combination of instrument independent data.

また、演奏可能条件変更用データベースB3は、曲風毎に、この楽器演奏可能条件データを変更するための演奏可能条件変更用データをもっている。この演奏可能条件変更用データは、元データを基に変更するためのデータでもよいし、演奏に制約がない電子音源で演奏することを前提とした場合のために、絶対データとして与えてもよい。さらには、元データを拡大するデータであってもよい。   Further, the playable condition changing database B3 has playable condition changing data for changing the musical instrument playable condition data for each musical style. The playable condition change data may be data for changing based on the original data, or may be given as absolute data in the case where it is assumed that the performance is performed with an electronic sound source with no restrictions on performance. . Further, it may be data that expands the original data.

曲風等指定ブロックB4で曲風を指定し、楽器種類指定ブロックB5で楽器種類を指定して音楽条件を設定すると、第1抽出ブロックB6にて、指定された曲風に応じた楽器非依存性メロディ生成用データが抽出され、第2抽出ブロックB7にて、指定された楽器に応じた楽器演奏可能条件データが抽出される。また、曲風等指定ブロックB4での曲風指定に伴い、演奏可能条件変更用データベースB3から、指定された曲風に応じた演奏可能条件変更用データが取り出され、データ変更ブロックB8にて、第2抽出ブロックB7で抽出された楽器演奏可能条件データを演奏可能条件変更用データに応じて変更する。このデータ変更は、第2抽出ブロックB7からの元データを加工する場合には演算を行い、絶対データに変更する場合には単なる置き換えでよい。   When the music style is designated by the music style designation block B4, the musical instrument type is designated by the musical instrument type designation block B5, and the music condition is set, the first extraction block B6 is independent of the musical instrument according to the designated musical style. Sex melody generation data is extracted, and in the second extraction block B7, instrument performance enabling condition data corresponding to the specified instrument is extracted. In accordance with the song style designation in the song style designation block B4, the performance condition change data corresponding to the designated song style is extracted from the performance condition change database B3, and in the data change block B8, The musical instrument performance condition data extracted in the second extraction block B7 is changed according to the performance condition change data. This data change may be performed when the original data from the second extraction block B7 is processed, and may be simply replaced when changed to absolute data.

そして、メロディ生成ブロックB9において、第1抽出ブロックB6で抽出された楽器非依存性メロディ生成用データとデータ変更ブロックB8で変更されたの楽器演奏可能条件データに基づいて、指定された曲風の音楽条件を備え指定された楽器に相応しい条件パラメータを満足する所定のリズムデータ、ピッチデータ、表情データなどで構成される所望のメロディが生成される。表情データを含むメロディの生成については、既に図2〜図19で詳述した具体的手法が用いられる。   Then, in the melody generation block B9, based on the instrument-independent melody generation data extracted in the first extraction block B6 and the instrument performance condition data changed in the data change block B8, A desired melody composed of predetermined rhythm data, pitch data, facial expression data and the like satisfying the condition parameters suitable for the designated musical instrument with music conditions is generated. For the generation of a melody including facial expression data, the specific methods already described in detail with reference to FIGS.

メロディー生成用データには、演奏する楽器に依存するパラメータ群と楽器に依存しないパラメータ群がある。楽器に依存しないメロディー生成用データには、上述したように、「8分系」、「16分系」、「3連符系」というような、生成するメロディー音の分解能を表わすパラメータ、「3拍子」、「4拍子」などの拍子を表わすパラメータ、或いは、調などのパラメータがあり、楽器非依存性メロディ生成用データベースB1に予め用意される。このような楽器に依存しないメロディー生成用データは、曲風等指定ブロックB4で曲風を指定することにより設定することができるが、或いは、曲風の指定によらずブロックB4で直接設定してもよい。ただし、調については、楽器によって演奏し易い調と演奏しにくい調があるので、楽器種類によっては、楽器に依存するデータとして扱うこともできる。   The melody generation data includes a parameter group that depends on the musical instrument to be played and a parameter group that does not depend on the musical instrument. As described above, the melody generation data that does not depend on the musical instrument includes a parameter indicating the resolution of the melody sound to be generated, such as “eighth system”, “16th system”, and “triplet system”, “3 There are parameters representing time signatures such as “time signature” and “four time signatures”, or parameters such as keys, which are prepared in advance in the instrument-independent melody generation database B1. Such melody generation data that does not depend on an instrument can be set by designating the song style in the song style designation block B4, or directly set in the block B4 regardless of the song style designation. Also good. However, since there are keys that are easy to play and keys that are difficult to play, the key can be handled as data depending on the instrument depending on the instrument type.

図21は、この発明の一実施例による楽器演奏可能条件を考慮したメロディ生成システムにおいて用意されるメロディ生成用各種データの具体例を示す。図21(1)は、楽器非依存性データ(B1)の具体的な指定例である。「曲風指定」によると、図21(1)の上2段に示されるように、欄(A)〜(C)の各条件パラメータのセットが指定されるが、最下段の「直接指定」では、各欄(A)〜(C)の条件パラメータが個別的に指定される。   FIG. 21 shows specific examples of various data for melody generation prepared in the melody generation system in consideration of the musical instrument playable condition according to one embodiment of the present invention. FIG. 21 (1) is a specific designation example of the instrument-independent data (B1). According to “Curve Style Designation”, as shown in the upper two rows of FIG. 21 (1), each condition parameter set in the columns (A) to (C) is designated. Then, the condition parameters in each column (A) to (C) are individually specified.

図21(2)は、楽器依存性データ即ち楽器演奏可能条件データ(B2)の具体例である。ここで、「レガート」とは、なめらかな演奏であり、音符から音符へ移るときに、一瞬、音を重ねる演奏をいい、「スタッカート」とは音を短く切る演奏をいう。また、「スラー」とは、ある音から次の音へ移るときに、発音は前のまま連続させピッチだけ変化させる演奏をいう。   FIG. 21 (2) is a specific example of instrument dependency data, that is, instrument performance condition data (B2). Here, “legato” is a smooth performance and refers to a performance in which sound is superimposed for a moment when moving from note to note, and “staccato” is a performance in which the sound is cut short. “Slur” is a performance in which, when moving from one sound to the next, the sound is continuously continued as before and the pitch is changed.

図21(3)は、演奏可能条件変更用データ(B3)の具体例である。なお、「静かな」などの曲風指定に対応する演奏可能条件変更用データは楽器非依存としているが、「圧縮」率などは楽器に依存させてもよい。例えば、ピアノの場合、音域が広いので、「静かな」雰囲気にするために圧縮率を1/4にする。すなわち、同じ「静かな」曲風でも、楽器に応じて圧縮率の値を異ならせてもよい。   FIG. 21 (3) is a specific example of the performance condition change data (B3). Although the performance condition change data corresponding to the song style designation such as “quiet” is instrument-independent, the “compression” rate may be dependent on the instrument. For example, in the case of a piano, since the sound range is wide, the compression ratio is set to ¼ in order to create a “quiet” atmosphere. That is, even in the same “quiet” style, the compression rate value may be varied depending on the musical instrument.

次に、演奏する楽器に依存するメロディ生成用データの処理について、楽器種類指定ブロックB5で「人声(ソプラノ)」を指定した場合を例にして具体的に説明する。生成音域については、第2抽出ブロックB7により、楽器演奏可能条件データベースB2から、例えば、「C4〜E5」の範囲に設定された音域条件パラメータが取り出される。ここで、曲風等指定ブロックB4で曲風を指定し、例えば、「静かな」というメロディー生成条件を与えたときには、演奏可能条件変更用データベースB3を介し、データ変更ブロックB8にて、この音域パラメータ「C4〜E5」を変更し、「E4〜C5」(=「C4〜E5」の中心を保持し範囲を1/2に圧縮)というように狭くして生成する。ここで、具体的な変更処理方法としては、絶対範囲で決めると元の範囲を逸脱する可能性があるので、「元の範囲の中心を保持して範囲を1/2に圧縮する」という処理方法などを採用するのがよい。この場合、完全に“1/2”とするのではなく、およそ“1/2”とするものでもよい。   Next, the processing of the melody generation data depending on the musical instrument to be played will be specifically described with reference to an example in which “human voice (soprano)” is designated in the musical instrument type designation block B5. For the generated sound range, the second extraction block B7 extracts, for example, a sound range condition parameter set in the range of “C4 to E5” from the musical instrument playable condition database B2. Here, when a song style is designated in the song style designation block B4 and, for example, a melody generation condition of “quiet” is given, this range is played in the data change block B8 via the performance condition change database B3. The parameter “C4 to E5” is changed, and “E4 to C5” (= the center of “C4 to E5” is maintained and the range is compressed to ½) is generated narrowly. Here, as a specific change processing method, there is a possibility of deviating from the original range when determined by the absolute range, so the process of “holding the center of the original range and compressing the range to ½” It is better to adopt a method. In this case, it may be about “1/2” instead of being completely set to “1/2”.

また、跳躍距離(跳躍ピッチ幅)については、第2抽出ブロックB7により、楽器演奏可能条件データベースB2から、例えば、「1オクターブまで」に設定された跳躍距離条件データが取り出される。ここで、曲風等指定ブロックB4で曲風を指定し、例えば、「静かな」というメロディー生成条件を与えたときには、演奏可能条件変更用データベースB3を介し、データ変更ブロックB8にて、この跳躍距離「1オクターブまで」を変更し、「完全5度まで」というように狭くして生成する。ここで、具体的な変更処理方法としては、「元の距離を1/2に圧縮する」という処理方法などを採る。この場合、完全に“1/2”とするのではなく、およそ“1/2”とするものでもよい。   For the jump distance (jump pitch width), for example, jump distance condition data set to “up to one octave” is extracted from the musical instrument playable condition database B2 by the second extraction block B7. Here, when a song style is designated in the song style designation block B4 and a melody generation condition of “quiet” is given, for example, this jump is made in the data change block B8 via the performance condition change database B3. Change the distance “up to 1 octave” and make it narrower, such as “up to 5 degrees”. Here, as a specific change processing method, a processing method of “compressing the original distance to ½” or the like is adopted. In this case, it may be about “1/2” instead of being completely set to “1/2”.

さらに、跳躍頻度については、第2抽出ブロックB7により、楽器演奏可能条件データベースB2から、例えば、全音符数の「30%」に設定された跳躍頻度条件データが取り出される。ここで、曲風等指定ブロックB4で曲風を指定し、例えば、「静かな」というメロディー生成条件を与えたときには、演奏可能条件変更用データベースB3を介し、データ変更ブロックB8にて、この跳躍頻度「30%」を変更し、全音符数の「15%」までというように狭くして生成する。ここで、具体的な変更処理方法としては、「元の数値を1/2に圧縮する」という処理方法などを採る。この場合、完全に“1/2”とするのではなく、およそ“1/2”とするものでもよい。   Further, for the jump frequency, the second extraction block B7 extracts jump frequency condition data set to, for example, “30%” of the total number of notes from the musical instrument performance condition database B2. Here, when a song style is designated in the song style designation block B4 and a melody generation condition of “quiet” is given, for example, this jump is made in the data change block B8 via the performance condition change database B3. The frequency “30%” is changed, and the frequency is reduced to “15%” of the total number of notes. Here, as a specific change processing method, a processing method of “compressing the original numerical value to ½” or the like is adopted. In this case, it may be about “1/2” instead of being completely set to “1/2”.

なお、生成されるメロディを電子音源で発音させるという前提では、楽器演奏可能条件データベースB2で設定される演奏可能条件データについて、本来、対応する自然楽器では演奏することができないような発音領域や跳躍状態に設定しても良い。   Assuming that the generated melody is sounded by an electronic sound source, the playable condition data set in the musical instrument playable condition database B2 is not able to be played by the corresponding natural musical instrument. The state may be set.

〔種々の実施態様〕
以上、この発明の演奏データ生成処理を実施例に従って説明してきたが、この発明は、自動作曲に限らず、通常の自動演奏装置に適用可能である。例えば、ステップ記録方式により記録された表情の無い演奏データ、或いは、楽譜認識や音声認識等により認識された表情の無い演奏データに対して、表情を付与する場合に適用することができる。
[Various Embodiments]
As described above, the performance data generation process of the present invention has been described according to the embodiment. For example, the present invention can be applied to the case where a facial expression is given to performance data having no facial expression recorded by the step recording method or performance data having no facial expression recognized by music score recognition or voice recognition.

実施例においては、図2に示されるように、元メロディデータ中のスタッカートデータの有無を「1」/「0」で表わしたスタッカートデータSTを記憶しておき、ST=「1」(スタッカート有)のノートデータについてスタッカート割合テーブルを参照してスタッカート割合(%)を決定するようにしたが、全ノートデータに対してスタッカート割合〔スタッカート無しの場合は「100%」〕を直接記憶するようにしてもよい。   In the embodiment, as shown in FIG. 2, staccato data ST in which the presence / absence of staccato data in the original melody data is expressed by “1” / “0” is stored, and ST = “1” (with staccato) ), The staccato ratio (%) is determined with reference to the staccato ratio table, but the staccato ratio (“100%” when there is no staccato) is directly stored for all the note data. May be.

スタッカート頻度テーブルやスタッカート割合テーブルの内容(引数や数値)は、例示したものに限らない。スラー頻度テーブルについても同様である。   The contents (arguments and numerical values) of the staccato frequency table and the staccato ratio table are not limited to those illustrated. The same applies to the slur frequency table.

ピッチ変化を伴う表情は、一定タイミング毎にピッチベンドイベントデータを挿入することで実現したが、これに限らない。例えば、ピッチベンドイベントデータの挿入タイミングは一定でなくてもよい。具体的には、ピッチ変化カーブのテンプレートを用意しておき、これを指定するデータを挿入するようにしてもよい。この場合、異なる遷移時間への対応については、遷移時間の異なる複数のテンプレートを用意しておき遷移時間に応じてテンプレートを選択するようにしてもよいし、遷移時間に応じてテンプレートを変形させるようにしてもよい。或いは、ポルタメントコントロール等のピッチ変化を指定するコマンドを挿入するようにしてもよい。   The facial expression accompanied by the pitch change is realized by inserting pitch bend event data at fixed timings, but is not limited thereto. For example, the pitch bend event data insertion timing may not be constant. Specifically, a template for a pitch change curve may be prepared, and data specifying this may be inserted. In this case, regarding correspondence to different transition times, a plurality of templates having different transition times may be prepared and a template may be selected according to the transition time, or the template may be deformed according to the transition time. It may be. Or you may make it insert the command which designates pitch changes, such as portamento control.

なお、システムの形態については、電子楽器の形態に限らず、パソコン+アプリケーションソフトウェアの形態でもよい。電子楽器の形態を取った場合、その形態は、鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。   The form of the system is not limited to the form of the electronic musical instrument, but may be the form of a personal computer + application software. When taking the form of an electronic musical instrument, the form is not limited to a keyboard musical instrument, and may be a stringed musical instrument type, a wind instrument type, a percussion instrument type, or the like. In addition, the sound source device, the automatic performance device, etc. are not limited to those built in one electronic musical instrument body, but each is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be.

また、処理プログラムや処理に利用する各種データについては、外部記憶媒体から、或いは、通信インターフェースを介して外部装置から、電子楽器やパソコンに供給するようにしてもよい。   Further, the processing program and various data used for the processing may be supplied to an electronic musical instrument or a personal computer from an external storage medium or from an external device via a communication interface.

次に、自動演奏に関連していうと、作成された演奏データのフォーマットとしては、演奏イベントの発生時刻を1つ前のイベントからの時間で表した「イベント+相対時間」、演奏イベントの発生時刻を曲や小節内における絶対時間で表した「イベント+絶対時間」、音符の音高と符長あるいは休符と休符長で演奏データを表した「音高(休符)+符長」、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域に演奏イベントを記憶した「ベタ方式」等、どのような形式でもよい。   Next, in relation to automatic performance, the format of the created performance data includes “event + relative time” indicating the time of occurrence of the performance event as the time from the previous event, and the time of occurrence of the performance event. "Event + absolute time" expressed in absolute time within a song or measure, "pitch (rest) + note length" in which performance data is expressed in pitch and note length or rest and rest length, Any format may be used, such as a “solid method” in which a memory area is secured for each minimum performance resolution and the performance event is stored in the memory area corresponding to the time at which the performance event occurs.

また、メモリ上において、時系列の演奏データが連続する領域に記憶されていてもよいし、飛び飛びの領域に散在して記憶されているデータを、連続するデータとして別途管理するようにしてもよい(すなわち、時系列的に連続するデータとして管理することができればよく、メモリ上で連続して記憶されているか否かは問題ではない)。   Also, on the memory, time-series performance data may be stored in a continuous area, or data stored in a scattered area may be separately managed as continuous data. (That is, it only needs to be managed as time-sequential data, and it does not matter whether the data is continuously stored in the memory).

最後に、MIDIインターフェースに関連していうと、専用のMIDIインターフェースに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェースを用いてMIDIインターフェースを構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。   Finally, in relation to the MIDI interface, not only a dedicated MIDI interface but also a MIDI interface using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (I Triple 1394), etc. It may be configured. In this case, data other than MIDI messages may be transmitted and received simultaneously.

図1は、この発明の一実施例による演奏データ作成装置のハードウエア構成を示すブロック図である。FIG. 1 is a block diagram showing a hardware configuration of a performance data creation apparatus according to an embodiment of the present invention. 図2は、この発明の一実施例において使用される元メロディデータのデータフォーマットを示す図である。FIG. 2 is a diagram showing the data format of the original melody data used in one embodiment of the present invention. 図3は、この発明の一実施例において使用される再生用メロディデータのデータフォーマットを示す図である。FIG. 3 is a diagram showing a data format of reproduction melody data used in one embodiment of the present invention. 図4は、この発明の一実施例による自動メロディ生成処理を示すフローチャートの第1部(1/3)である。FIG. 4 is a first part (1/3) of the flowchart showing the automatic melody generation process according to one embodiment of the present invention. 図5は、この発明の一実施例による自動メロディ生成処理を示すフローチャートの第2部(2/3)である。FIG. 5 is a second part (2/3) of the flowchart showing the automatic melody generation process according to the embodiment of the present invention. 図6は、この発明の一実施例による自動メロディ生成処理を示すフローチャートの第3部(3/3)である。FIG. 6 is a third part (3/3) of the flowchart showing the automatic melody generation process according to the embodiment of the present invention. 図7は、この発明の一実施例において使用されるスタッカート頻度テーブルの例を示す図である。FIG. 7 is a diagram showing an example of a staccato frequency table used in one embodiment of the present invention. 図8は、この発明の一実施例において使用されるスラー頻度テーブルの例を示す図である。FIG. 8 is a diagram showing an example of a slur frequency table used in one embodiment of the present invention. 図9は、この発明の一実施例において使用されるしゃくり頻度テーブルの例を示す図である。FIG. 9 is a diagram showing an example of a scooping frequency table used in one embodiment of the present invention. 図10は、この発明の一実施例による表情データ付与による効果を説明するた“ピッチ−時間”特性図である。FIG. 10 is a “pitch-time” characteristic diagram for explaining the effect of applying facial expression data according to an embodiment of the present invention. 図11は、この発明の一実施例による再生用メロディデータ作成処理のうち、スタッカートデータに基づくゲートタイム作成処理を示すフローチャートの一部(1/2)である。FIG. 11 is a part (1/2) of a flowchart showing the gate time creation process based on the staccato data in the reproduction melody data creation process according to the embodiment of the present invention. 図12は、この発明の一実施例による再生用メロディデータ作成処理のうち、スタッカートデータに基づくゲートタイム作成処理を示すフローチャートの他部(2/2)である。FIG. 12 is another part (2/2) of the flowchart showing the gate time creation processing based on the staccato data in the reproduction melody data creation processing according to the embodiment of the present invention. 図13は、この発明の一実施例において使用されるスタッカート割合テーブルの例を示す図である。FIG. 13 is a diagram showing an example of a staccato ratio table used in one embodiment of the present invention. 図14は、この発明の一実施例による再生用メロディデータ作成処理のうち、スラーデータに基づくピッチベンドイベントデータ作成及びノート結合処理を示すフローチャートである。FIG. 14 is a flowchart showing pitch bend event data creation and note combination processing based on slur data in the reproduction melody data creation processing according to one embodiment of the present invention. 図15は、この発明の一実施例によるスラーデータにおいて徐々に変化するピッチベンドイベントデータの作成態様を説明するための“ピッチ(セント)−時間(クロック数)”特性図である。FIG. 15 is a “pitch (cent) -time (number of clocks)” characteristic diagram for explaining a mode of creating pitch bend event data that gradually changes in slur data according to one embodiment of the present invention. 図16は、この発明の一実施例によるスラーデータに基づくデータ処理中のスラーデータにおけるピッチベンドイベントデータ作成処理を示すフローチャートの一部(1/2)である。FIG. 16 is a part (1/2) of a flowchart showing a pitch bend event data creation process in slur data during data processing based on slur data according to one embodiment of the present invention. 図17は、この発明の一実施例によるスラーデータに基づくデータ処理中のスラーデータにおけるピッチベンドイベントデータ作成処理を示すフローチャートの他部(2/2)である。FIG. 17 is another part (2/2) of the flowchart showing the pitch bend event data creation processing in the slur data during the data processing based on the slur data according to one embodiment of the present invention. 図18は、この発明の一実施例による再生用メロディデータ作成処理のうち、しゃくりデータに基づくピッチベンドイベントデータ作成処理を示すフローチャートである。FIG. 18 is a flowchart showing pitch bend event data creation processing based on squeaky data in the reproduction melody data creation processing according to one embodiment of the present invention. 図19は、この発明の一実施例によるしゃくりにおいて徐々に変化するピッチベンドイベントデータ作成の態様を説明するための“ピッチ(セント)−時間(クロック数)”特性図である。FIG. 19 is a “pitch (cent) -time (number of clocks)” characteristic diagram for describing a mode of creating pitch bend event data that gradually changes during scrambling according to one embodiment of the present invention. 図20は、この発明の一実施例による楽器演奏可能条件を考慮したメロディ生成システムの機能ブロック図である。FIG. 20 is a functional block diagram of a melody generation system that takes into account the musical instrument playable conditions according to one embodiment of the present invention. 図21は、この発明の一実施例による楽器演奏可能条件を考慮したメロディ生成システムにおいて取り扱われるメロディ生成用各種データの具体例を示す。FIG. 21 shows specific examples of various data for melody generation handled in the melody generation system in consideration of the musical instrument playable condition according to one embodiment of the present invention.

符号の説明Explanation of symbols

N1,N2,…;Ni,Ni+1,Ni+2,… 基本ノート(音符)、
P1,P2,…;Pi,Pi+1 基本ノート(音符)のピッチ、
t1,t2,…;ti,ti+1,ti+2 基本ノート(音符)のノートオンタイミング、
Py しゃくり深さ、
Pis 基本ノートNi,Ni+1間のピッチ差、
tid 基本ノートNiのノートオンタイミングtiから所定遅延クロック数の水平安定期間が経過した時点、
tis スラーにおいて、当該ノートNiの水平安定期間経過時点tid(ピッチPi)からピッチ遷移を経て次ノートNi+1のピッチPi+1に到達する時点、或いは、しゃくりにおいて、基本ノートNiのノートオンタイミングti(ピッチPi−Py)からピッチ遷移を経て本来のピッチPiに到達する時点。
N1, N2, ...; Ni, Ni + 1, Ni + 2, ... Basic notes (notes),
P1, P2, ...; Pi, Pi + 1 Basic note (note) pitch,
t1, t2, ...; ti, ti + 1, ti + 2 Note-on timing of basic notes (notes),
Py scooping depth,
Pis pitch difference between the basic notes Ni and Ni + 1,
tid When a horizontal stable period of a predetermined number of delay clocks has elapsed from the note on timing ti of the basic note Ni
In the tis slur, the note-on timing ti (pitch Pi) of the basic note Ni at the time of reaching the pitch Pi + 1 of the next note Ni + 1 through the pitch transition from the time point tid (pitch Pi) after the horizontal stabilization period of the note Ni. A point in time when the original pitch Pi is reached via a pitch transition from -Py).

Claims (2)

生成する演奏データについて、少なくとも調、音符分解能、拍子、曲風を含む、楽器に依存しない音楽条件を指定する音楽条件指定手段と、
該演奏データで演奏する楽器を指定する楽器指定手段と、
楽器指定手段により指定された楽器に依存する演奏データ生成用パラメータであって、少なくとも音域、跳躍距離、跳躍頻度、表現奏法を含むものを取得するパラメータ取得手段と、
音楽条件指定手段により指定された音楽条件に含まれる曲風に基づいて、パラメータ取得手段により取得された演奏データ生成用パラメータに含まれる少なくとも跳躍距離、跳躍頻度、表現奏法を変更するパラメータ変更手段と、
音楽条件指定手段により指定された音楽条件及びパラメータ変更手段により変更された演奏データ生成用パラメータに基づいて、演奏データを生成する演奏データ生成手段と
を具備することを特徴とする演奏データ生成装置。
Music condition designating means for designating musical conditions that do not depend on an instrument, including at least key, note resolution, time signature, and song style for the performance data to be generated;
Instrument designating means for designating an instrument to be played with the performance data;
Parameter acquisition means for acquiring performance data generation parameters depending on the musical instrument designated by the musical instrument designation means, including at least a range, a jump distance, a jump frequency, and an expression method;
Parameter changing means for changing at least the jump distance, the jump frequency, and the expression method included in the performance data generation parameter acquired by the parameter acquisition means based on the musical composition included in the music condition specified by the music condition specifying means; ,
A performance data generating apparatus comprising: performance data generating means for generating performance data based on the music conditions specified by the music condition specifying means and the performance data generating parameters changed by the parameter changing means.
生成する演奏データについて、少なくとも調、音符分解能、拍子、曲風を含む、楽器に依存しない音楽条件を指定する音楽条件指定ステップと、
該演奏データで演奏する楽器を指定する楽器指定ステップと、
楽器指定ステップで指定された楽器に依存する演奏データ生成用パラメータであって、少なくとも音域、跳躍距離、跳躍頻度、表現奏法を含むものを取得するパラメータ取得ステップと、
音楽条件指定ステップで指定された音楽条件に含まれる曲風に基づいて、パラメータ取得ステップで取得された演奏データ生成用パラメータに含まれる少なくとも跳躍距離、跳躍頻度、表現奏法を変更するパラメータ変更ステップと、
音楽条件指定ステップで指定された音楽条件及びパラメータ変更ステップで変更された演奏データ生成用パラメータに基づいて、演奏データを生成する演奏データ生成ステップと
から成る手順をコンピュータに実行させるプログラムを記録している演奏データ生成のためのコンピュータ読み取り可能な記録媒体。
A music condition specifying step for specifying music conditions that do not depend on an instrument, including at least key, note resolution, time signature, and song style for the performance data to be generated;
An instrument designating step for designating an instrument to be played with the performance data;
A parameter acquisition step for acquiring performance data generation parameters depending on the instrument specified in the instrument specifying step, including at least a range, a jump distance, a jump frequency, and an expression method;
A parameter changing step for changing at least the jumping distance, the jumping frequency, and the expression method included in the performance data generation parameters acquired in the parameter acquiring step based on the music style included in the music conditions specified in the music condition specifying step; ,
A program for causing a computer to execute a procedure comprising a performance data generation step for generating performance data based on the music conditions specified in the music condition specification step and the performance data generation parameters changed in the parameter change step is recorded. A computer-readable recording medium for generating performance data.
JP2004137612A 1999-05-26 2004-05-06 Performance data generating apparatus and recording medium Expired - Fee Related JP3948464B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004137612A JP3948464B2 (en) 1999-05-26 2004-05-06 Performance data generating apparatus and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP14716299 1999-05-26
JP2004137612A JP3948464B2 (en) 1999-05-26 2004-05-06 Performance data generating apparatus and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000155164A Division JP3656519B2 (en) 1999-05-26 2000-05-25 Performance data creation apparatus and recording medium with facial expressions

Publications (2)

Publication Number Publication Date
JP2004258680A JP2004258680A (en) 2004-09-16
JP3948464B2 true JP3948464B2 (en) 2007-07-25

Family

ID=33133277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004137612A Expired - Fee Related JP3948464B2 (en) 1999-05-26 2004-05-06 Performance data generating apparatus and recording medium

Country Status (1)

Country Link
JP (1) JP3948464B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178104A (en) * 2004-12-21 2006-07-06 Yoshihiko Sano Method, apparatus and system for musical piece generation
SE0600243L (en) * 2006-02-06 2007-02-27 Mats Hillborg melody Generator

Also Published As

Publication number Publication date
JP2004258680A (en) 2004-09-16

Similar Documents

Publication Publication Date Title
US6703549B1 (en) Performance data generating apparatus and method and storage medium
JP3718919B2 (en) Karaoke equipment
JP3975772B2 (en) Waveform generating apparatus and method
JPH08234771A (en) Karaoke device
JPH08194495A (en) Karaoke device
JPH11339060A (en) Musical sound and image generating device
JP3915807B2 (en) Automatic performance determination device and program
JP2000315081A (en) Device and method for automatically composing music and storage medium therefor
JP2023100776A (en) Electronic musical instrument, control method of electronic musical instrument, and program
JP3656519B2 (en) Performance data creation apparatus and recording medium with facial expressions
JP3948464B2 (en) Performance data generating apparatus and recording medium
JP4407473B2 (en) Performance method determining device and program
JP3901008B2 (en) Karaoke device with voice conversion function
JPH11282483A (en) Karaoke device
JP3806196B2 (en) Music data creation device and karaoke system
JPH1078750A (en) Karaoke sing-along machine
JP3641955B2 (en) Music data generator and recording medium therefor
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP3552675B2 (en) Waveform generation method and apparatus
JP3873914B2 (en) Performance practice device and program
JP3613191B2 (en) Waveform generation method and apparatus
JP3752956B2 (en) PERFORMANCE GUIDE DEVICE, PERFORMANCE GUIDE METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PERFORMANCE GUIDE PROGRAM
JP4186802B2 (en) Automatic accompaniment generator and program
JP3709820B2 (en) Music information editing apparatus and music information editing program
JPH08234772A (en) Karaoke device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070409

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees