JP2005173632A - Performance data generating apparatus - Google Patents

Performance data generating apparatus Download PDF

Info

Publication number
JP2005173632A
JP2005173632A JP2005038700A JP2005038700A JP2005173632A JP 2005173632 A JP2005173632 A JP 2005173632A JP 2005038700 A JP2005038700 A JP 2005038700A JP 2005038700 A JP2005038700 A JP 2005038700A JP 2005173632 A JP2005173632 A JP 2005173632A
Authority
JP
Japan
Prior art keywords
tempo
performance data
change
volume
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005038700A
Other languages
Japanese (ja)
Other versions
JP3900188B2 (en
Inventor
Tetsuo Nishimoto
哲夫 西元
Masahiro Kakishita
正尋 柿下
Atsushi Tougi
温 東儀
Toru Kitayama
徹 北山
Toshiyuki Iwamoto
俊幸 岩本
Norio Suzuki
則夫 鈴木
Akane Yatomi
あかね 彌富
Akira Yamauchi
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005038700A priority Critical patent/JP3900188B2/en
Publication of JP2005173632A publication Critical patent/JP2005173632A/en
Application granted granted Critical
Publication of JP3900188B2 publication Critical patent/JP3900188B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a performance data generating apparatus capable of automatically editing performance parameters by modularizing expression adding rules and procedures and more particularly capable of adding expressions to the same timbre parts by control of volume parameters for the same timbre parts of the performance data. <P>SOLUTION: When the performance data (the former performance data) is supplied, the same timbre parts and the number of the parts are detected (S 141). Next, the volume values of the respective parts are calculated so as to reduce the volume of the parts of the same timbre (S 142) based on the detected number of the parts and the calculated musical tone control information representing the calculated volume value is imparted to the part of the former performance data (S 143). As a result, such an expression addition as to lower the volume of the respective parts can be performed at the time of a part division (to simulate the performance method of performing the parts of the same timbre by dividing the part of the same timbre to the plurality of parts and performing the respective parts with a plurality of persons). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、表情が付与された演奏データを作成するための演奏データ作成装置、換言すれば、供給された演奏データ中の特徴に基づいて、演奏データに各種表情を付加するためのパラメータの値を自動的に編集するパラメータ自動編集システムに関する。   The present invention relates to a performance data creation device for creating performance data to which facial expressions are given, in other words, parameter values for adding various facial expressions to performance data based on characteristics in the supplied performance data. The present invention relates to an automatic parameter editing system that automatically edits a parameter.

MIDIデータを音符の情報のみで構成すると、機械的で無表情な演奏になってしまう。より自然な演奏、美しい演奏、生々しい演奏、癖のある個性的な演奏等、表情のある多彩な演奏出力を得るためには、様々な音楽的表現や、楽器らしさを制御データとして加える必要がある。様々な表現を加えるシステムとしては、楽譜を通して表現を加えるという方法などが考えられる。しかし、表情には上述のように様々なものがある。様々な表情を扱うことができるようになってこそ有意義なシステムと言える。   If MIDI data is composed only of note information, the performance becomes mechanical and expressionless. In order to obtain various performance outputs with expressions such as more natural performances, beautiful performances, lively performances, hazy individual performances, etc., it is necessary to add various musical expressions and instrumentality as control data is there. As a system for adding various expressions, a method of adding expressions through musical scores can be considered. However, there are various facial expressions as described above. It can be said that it is a meaningful system if it can handle various facial expressions.

また、表情の種類が多くなると自動的に付加するシステムを案出しないと、どのような表情を付けたら良いのか戸惑うばかりになってしまうため、自動的なシステムの実現のためにも、表情付けをモジュール化して扱うことが好ましい。従って、音楽的なMIDIデータを作成するためには、様々な音楽表現の特徴をルール化したモジュールを用意すると良いことが分かる。   Also, if you don't devise a system that automatically adds the number of facial expressions, you will be confused about what facial expressions to add. Is preferably modularized. Therefore, it can be seen that it is preferable to prepare a module in which various features of music expression are ruled in order to create musical MIDI data.

従来、供給された演奏データから再生される演奏に各種表情を付加するためのパラメータの値を編集する演奏データ作成装置又はパラメータ編集装置として、次のものが知られている。   Conventionally, the following are known as performance data creation apparatuses or parameter editing apparatuses for editing parameter values for adding various expressions to performances reproduced from supplied performance data.

すなわち、
(1)供給された演奏データに対して、マニュアル入力により、既に設定されているパラメータの値を修正したり、新たなパラメータを追加したりして、当該演奏データから再生される、機械的で無表情な演奏に表情(自然な演奏、美しい演奏、生々しい演奏等の音楽的表現)を付加できるようにしたもの
(2)供給された演奏データ中、ユーザが指定した範囲の演奏データに対して演奏表情(たとえば、クレッシェンドやデクレッシェンド効果)を自動的に付加できるようにしたもの
が知られている。
That is,
(1) A mechanical input that is reproduced from the performance data by manually changing the value of a parameter already set or adding a new parameter to the supplied performance data. An expression that can add facial expressions (musical expressions such as natural performances, beautiful performances, live performances, etc.) to an expressionless performance (2) The performance data within the range specified by the user in the supplied performance data It is known that a performance expression (for example, crescendo or decrescendo effect) can be automatically added.

しかし、上記した従来の演奏データ作成装置又はパラメータ編集装置のうち(1)のものでは、修正したり追加したりすべきパラメータをユーザが自ら選択し、その値を決定しなければならず、特にユーザが初心者である場合には、好みの表情を付加するためのパラメータを選択し、その表情に最適なパラメータ値を決定することは困難であり、また、一々マニュアルで入力すること自体が煩わしい作業となる。   However, in the above-described conventional performance data creation device or parameter editing device (1), the user has to select the parameter to be corrected or added and determine its value, and in particular the user If you are a beginner, it is difficult to select the parameters to add your favorite facial expression and determine the optimal parameter value for that facial expression. Become.

また、上記した従来の演奏データ作成装置又はパラメータ編集装置のうち(2)のものでは、ユーザが指定可能な範囲は曲データ全体に対して局所的な一部範囲であるため、その一部範囲に属する演奏データに基づいて付加される演奏表情は簡単なもの(たとえば、当該部分の音量を線形的に増加または減少させるだけの演奏表情)とならざるを得ず、したがって、ユーザが望む多様な演奏表情を付加するには、演奏表情を付加すべき範囲を順次変更しながら同様の操作を何度も行わなければならず、簡単な操作で多様な演奏表情を付加することはできなかった。さらに、演奏表情を付加すべき範囲はユーザが自ら指定しなければならないため、ユーザは、どのような演奏個所にどのような表情を付加すれば、その曲にとって最適な表情付けとなるのかを知っている必要があり、初心者ユーザにとっては、困難な作業となる。   Further, in the above-described conventional performance data creation apparatus or parameter editing apparatus (2), the range that can be specified by the user is a partial range that is local to the entire song data. The performance expression added based on the performance data belonging to the group must be simple (for example, a performance expression that linearly increases or decreases the volume of the part), and therefore, various expressions desired by the user can be obtained. In order to add a performance expression, the same operation had to be repeated many times while sequentially changing the range to which the performance expression should be added, and various performance expressions could not be added with simple operations. In addition, since the user must specify the range to which the performance expression should be added, the user knows what kind of expression should be added to what kind of performance point to obtain the optimal expression for the song. This is a difficult task for a novice user.

この発明は、このような事情に鑑み、テンポやタイミング等の時間的変化により表情付けを行う場合の種々のルールや手順に着目し、これをモジュール化した新規な表情付け変換器を提供し、元の無表情な楽音データから音楽性のある多彩な演奏を可能とする演奏データに自動的に変換することができる演奏データ作成システム(パラメータ自動編集システム)を提供することを目的とする。   In view of such circumstances, this invention pays attention to various rules and procedures when performing facial expression by temporal changes such as tempo and timing, and provides a novel facial expression converter in which this is modularized. It is an object of the present invention to provide a performance data creation system (parameter automatic editing system) capable of automatically converting original expressionless musical sound data into performance data that enables various musical performances.

この発明は、また、上述の各点に着目してなされたものであり、ユーザが初心者であっても簡単な操作で曲に多様な表情付けを行うことが可能な演奏データ作成システム(パラメータ自動編集システム)を提供することを目的とする。   In addition, the present invention has been made paying attention to the above-mentioned points, and even if the user is a beginner, a performance data creation system (automatic parameter automatization) that can give various expressions to a song with a simple operation. The purpose is to provide an editing system.

この発明は、さらに、テンポやタイミング等の時間的変化パラメータ、音量パラメータの外、ピッチ等の音程パラメータなどの演奏に関する種々の制御パラメータを自動的に編集して、ユーザが初心者であっても、簡単な操作で曲に多種多様の表情付けを行うことが可能な演奏データ作成システム(パラメータ自動編集システム)を提供することを目的とする。   The present invention further automatically edits various control parameters related to performance such as time change parameters such as tempo and timing, volume parameters, pitch parameters such as pitch, etc. An object of the present invention is to provide a performance data creation system (parameter automatic editing system) capable of adding various expressions to a song with a simple operation.

この発明は、特に、演奏データの同音色パートに対する音量パラメータ制御によって簡単に同音色パートに効果的な表情付けを行うことができる演奏データ作成装置を提供するものであり、この発明の主たる特徴に従うと、音符情報及び音量を表わす楽音制御情報をそれぞれ含む複数のパートから成る演奏データを供給する演奏データ供給手段〔AB:図2〕と、演奏データから同音色のパート及びそのパート数を検出するパート検出手段〔S141〕と、パート数に基づいて、上記同音色のパートの音量が減少するように当該各パートの音量値を算出する音量値算出手段〔S142〕と、音量値を表わす楽音制御情報を該当パートに付与する音量値付与手段〔S143〕とを具備する演奏データ作成装置が提供される〔実施例(N):図75に対応〕。なお、括弧書きは、理解の便のために付記した実施例の対応記号・用語乃至参照箇所を示し、以下においても同様である。   In particular, the present invention provides a performance data creation device that can easily perform effective expression on the same tone color part by volume parameter control for the same tone color part of the performance data, and according to the main features of the present invention. And performance data supply means (AB: FIG. 2) for supplying performance data composed of a plurality of parts each including note information and musical tone control information representing the volume, and detecting the parts of the same tone color and the number of parts from the performance data. Part detection means [S141], volume value calculation means [S142] for calculating the volume value of each part so that the volume of the part of the same tone color is reduced based on the number of parts, and tone control representing the volume value There is provided a performance data creation device comprising volume value giving means [S143] for giving information to a corresponding part [Embodiment (N): FIG. Corresponding] to. Note that the parentheses indicate the corresponding symbols, terms, and reference parts of the examples added for convenience of understanding, and the same applies to the following.

この発明の主たる特徴によると、音符情報及び音量を表わす楽音制御情報をそれぞれ含む複数のパートから成る演奏データ(元演奏データ)が供給されると〔AB:図2〕、演奏データから同音色のパート及びそのパート数が検出される〔S141〕。そして、検出されたパート数に基づいて、検出された同音色パートの音量が減少するように当該各パートの音量値が算出され〔S142〕、算出された音量値を表わす新たな楽音制御情報が該当パートに付与されて〔S143〕、新たな楽音制御情報により表情付けされた演奏データが再生に利用される〔SB:図2〕。   According to the main feature of the present invention, when performance data (original performance data) consisting of a plurality of parts each including note information and musical tone control information indicating volume is supplied [AB: FIG. 2], the performance data has the same tone color. The part and the number of parts are detected [S141]. Then, based on the number of detected parts, the volume value of each part is calculated so that the volume of the detected same tone color part is reduced [S142], and new musical tone control information representing the calculated volume value is obtained. The performance data assigned to the corresponding part [S143] and expressed with new musical tone control information is used for reproduction [SB: FIG. 2].

従って、この発明によると、供給された演奏データから、同音色のパート及びそのパート数を抽出し、抽出されたパートの音量を、抽出されたパート数に応じた値に減少させるような音量値の楽音制御情報を生成し、演奏データに付与するようにしているので、パートディビジヨン(同音色のパートを複数のパートに分けて各パートを複数人数で演奏する演奏方法を模擬する)の際に、各パートの音量を下げるような表情付けを行うことができる。   Therefore, according to the present invention, a volume value that extracts the same tone color part and the number of parts from the supplied performance data and reduces the volume of the extracted part to a value corresponding to the number of extracted parts. Since the musical tone control information is generated and added to the performance data, part division (simulating a performance method in which parts of the same tone color are divided into multiple parts and each part is played by multiple players) In addition, it is possible to add expressions to lower the volume of each part.

なお、この明細書において、「楽音制御量」とは、時間的楽音制御量や、音楽的楽音制御量、音量的制御量等、演奏上楽音を制御するための変量をいう。また、「楽音制御情報」とは、テンポやゲートタイム、発音開始タイミング等の時間的楽音制御情報(時間パラメータ)や、音程的楽音制御情報(音程パラメータ等)、音量的制御情報(音量パラメータ)など、演奏上楽音を制御するための変量情報をいい、「演奏パラメータ」或いは単に「パラメータ」ということがある。また、この発明による「演奏データ作成装置」は、演奏パラメータの編集という観点からいえば、「パラメータ自動編集装置」ということができる。   In this specification, the “musical sound control amount” refers to a variable for controlling a musical tone in performance, such as a temporal musical sound control amount, a musical musical sound control amount, and a volume control amount. “Musical sound control information” refers to temporal musical sound control information (temporal parameters) such as tempo, gate time, and sounding start timing, musical musical tone control information (pitch parameters, etc.), and volumetric control information (volume parameter). The variable information for controlling the musical tone of the performance, such as “performance parameter” or simply “parameter”. The “performance data creation device” according to the present invention can be called a “parameter automatic editing device” from the viewpoint of editing performance parameters.

〔別の特徴〕
また、この明細書に記載された種々の発明の実施に関する別の特徴により次のように構成することができる。
〔1〕演奏データを供給する供給手段と、供給された演奏データの特徴情報を取得する取得手段と、所定の特徴情報に対応する情報であって、楽音制御情報を生成するための生成方法を表わす生成方法情報を、記憶する記憶手段と、取得された特徴情報、及び、この特徴情報に対応する生成方法情報から、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例では、図2及び図52,53が対応〕:ここで、
〔1a〕この演奏データ作成装置は、さらに、付加手段により楽音制御情報が付加された演奏データを出力する出力手段と、出力された演奏データを評価し、評価結果に応じて、生成された楽音制御情報を調節する調節手段とを具備する〔実施例(1)〜(24),(27)〜(30)が対応〕。
[Other features]
Moreover, it can comprise as follows by another characteristic regarding implementation of the various invention described in this specification.
[1] Supply means for supplying performance data, acquisition means for acquiring characteristic information of the supplied performance data, and a generation method for generating musical tone control information, which is information corresponding to predetermined characteristic information From the storage means for storing the generation method information to be represented, the acquired feature information, and the generation method information corresponding to the feature information, the generation means for generating musical sound control information, and the generated musical sound control information are supplied. A performance data creation device comprising an adding means for adding to the performance data (in the embodiment, FIG. 2 and FIGS. 52 and 53 correspond):
[1a] The performance data creating apparatus further includes an output means for outputting the performance data to which the musical tone control information is added by the adding means, and the output performance data is evaluated, and the musical tone generated according to the evaluation result Adjusting means for adjusting control information (corresponding to the embodiments (1) to (24) and (27) to (30)).

別の特徴〔1〕では、予め生成方法情報を記憶しておき、演奏データから得た特徴情報に対応する生成方法情報に基づいて、楽音制御情報を生成し、これを演奏データに付加する。つまり、所定の特徴情報と表情付けのための楽音制御情報との対応関係を表情付けモジュール(表情付けアルゴリズム)におけるルールとして設定され、この表情付けルールを表わす生成方法情報が記憶手段に予め記憶されており、供給された演奏データの特徴情報を取得すると、取得された特徴情報に対応する生成方法情報に基づき、表情付けモジュール(表情付けアルゴリズム)に従って、楽音制御情報(時間パラメータ、音程パラメータ、音量パラメータ等の各種演奏パラメータ)が生成され、演奏データに付加されるので、取得された特徴情報に応じて、ユーザが初心者であっても簡単な操作で曲に多様な表情付けを行うことができ、より音楽的な演奏データを自動的に作成することができる。また、別の特徴〔1a〕により、さらに、楽音制御情報が付加されて出力される演奏データを評価し、評価結果に応じて楽音制御情報を調節することにより、最適の楽音制御情報による表情付けを行うことができる。   In another feature [1], generation method information is stored in advance, musical tone control information is generated based on the generation method information corresponding to the characteristic information obtained from the performance data, and this is added to the performance data. That is, the correspondence between the predetermined feature information and the musical tone control information for facial expression is set as a rule in the facial expression module (facial expression algorithm), and generation method information representing the facial expression rule is stored in the storage means in advance. When the feature information of the supplied performance data is acquired, the musical tone control information (time parameter, pitch parameter, volume) is obtained according to the expression module (expression algorithm) based on the generation method information corresponding to the acquired feature information. Various performance parameters such as parameters) are generated and added to the performance data, so that various expressions can be added to the song with simple operations even if the user is a beginner according to the acquired feature information. More musical performance data can be automatically created. Further, according to another feature [1a], the performance data output by adding the musical tone control information is evaluated, and the musical tone control information is adjusted according to the evaluation result. It can be performed.

〔2〕演奏データを供給する供給手段と、供給された演奏データから、音符の発生時間間隔に相当する特徴情報を抽出する抽出手段と、音符の発生時間間隔に相当する特徴情報に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された特徴情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(1),(3),(C)が対応〕:ここで、
〔2a〕特徴情報は、所定単位時間あたりの音符数を表わす情報であり、生成方法情報は、所定単位時間あたりの音符数が所定数を越えている場合に、演奏データの再生テンポの値を速くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(1)に対応〕、
〔2b〕特徴情報は、音符の発音時間間隔を表わす情報であり、生成方法情報は、音符の発音時間間隔がせまい場合に、演奏データの再生テンポの値を遅くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(3)に対応〕、或いは、
〔2c〕特徴情報は、所定単位時間あたりの音符数を表わす情報であり、生成方法情報は、所定単位時間あたりの音符数が所定数を越えている場合に、演奏データの音量を徐々に減少するような楽音制御情報を生成する生成方法を表わす情報である〔実施例(C)に対応〕。
[2] Supply means for supplying performance data, extraction means for extracting feature information corresponding to a note generation time interval from the supplied performance data, and musical sound corresponding to feature information corresponding to a note generation time interval Storage means for storing generation method information representing a generation method for generating control information, generation means for generating musical sound control information based on the extracted feature information and generation method information, and generated musical sound control information A performance data creating device comprising an adding means for adding to the supplied performance data (corresponding to the embodiments (1), (3), (C)):
[2a] The characteristic information is information representing the number of notes per predetermined unit time, and the generation method information indicates the value of the reproduction tempo of the performance data when the number of notes per predetermined unit time exceeds the predetermined number. This is information representing a generation method for generating musical tone control information to be made faster [corresponding to the embodiment (1)],
[2b] The characteristic information is information representing the sound generation time interval of the notes, and the generation method information is generated as tone control information that slows down the playback tempo value of the performance data when the sound generation time interval of the notes is narrow. Information indicating the generation method to be performed (corresponding to the embodiment (3)), or
[2c] The characteristic information is information representing the number of notes per predetermined unit time, and the generation method information gradually decreases the volume of performance data when the number of notes per predetermined unit time exceeds the predetermined number. This is information representing a generation method for generating such tone control information (corresponding to the embodiment (C)).

別の特徴〔2〕では、供給された演奏データから、音符の発生時間間隔に相当する特徴情報(音符時間情報)を抽出し、この特徴情報に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、音符時間情報(音符密度、2音間隔等)に基づいて多彩な表情のある演奏出力を得ることができる。   In another feature [2], feature information (note time information) corresponding to the note generation time interval is extracted from the supplied performance data, and the musical tone control information is based on the generation method information corresponding to the feature information. Is generated and added to the performance data, so that it is possible to obtain a performance output with various expressions based on the note time information (note density, note interval, etc.).

ここで、別の特徴〔2a〕により、所定単位時間あたりの音符数を表わす音符密度情報(例えば、“1小節中の音符数÷1小節の拍数”)を特徴情報として抽出し、所定単位時間あたりの音符数が所定数を越えている場合には、演奏データの再生テンポの値を速くするように構成すると、音符密度に応じてテンポを変更する表情付け(音数増加によるテンポ加速)を行うことができる。なお、この場合、設定されたテンポ強弱値α、音符密度とテーブルから求められるテンポ係数K及び現在の設定テンポ値に基づき算出した区間毎のテンポチェンジ量(現在の設定テンポ値×α×K)をMIDIデータに付与する構成をとることができる。また、元演奏データをディスプレイ上に表示させ、表示された元演奏データ上に付与されたパラメータ値やその位置を重ねて表示することで、付与結果を確認することもできる。さらに、複数パートから成る演奏データが供給される場合は、選択された所定パートの演奏データから抽出された音符密度情報に基づいて再生テンポを変更するようにしても、或いは、複数パートを総合的に評価した音符密度情報により再生テンポを変更するようにしてもよい。   Here, note density information (for example, “number of notes in one measure / number of beats in one measure”) representing the number of notes per predetermined unit time is extracted as feature information by another feature [2a] If the number of notes per hour exceeds the specified number, the performance data playback tempo value can be increased to add a facial expression that changes the tempo according to the note density (tempo acceleration by increasing the number of notes). It can be performed. In this case, the tempo change amount calculated for each section based on the set tempo strength value α, the note density and the tempo coefficient K obtained from the table, and the current set tempo value (current set tempo value × α × K) To MIDI data can be taken. Also, the original performance data is displayed on the display, and the assigned result can be confirmed by displaying the parameter value and the position provided on the displayed original performance data in an overlapping manner. Further, when performance data composed of a plurality of parts is supplied, the playback tempo may be changed based on the note density information extracted from the performance data of the selected predetermined part, or the plurality of parts The playback tempo may be changed according to the note density information evaluated as described above.

また、別の特徴〔2b〕により、音符の発音時間間隔を表わす情報を特徴情報として抽出し、音符の発音時間間隔がせまい場合に、演奏データの再生テンポの値を遅くするように構成すると、音符が細かいときにテンポを低速にする表情付けを行うことができる。   In addition, if another feature [2b] is used to extract information representing the sound generation time interval of the notes as feature information, and when the sound generation time interval of the notes is narrow, the playback tempo value of the performance data is slowed down. When the notes are fine, you can add a facial expression that will slow down the tempo.

さらに、別の特徴〔2c〕により、所定単位時間あたりの音符数を表わす情報を特徴情報として抽出し、所定単位時間あたりの音符数が所定数を越えている場合に、演奏データの音量を徐々に減少するように構成すると、演奏音の細かさに応じて音量を変化する表情付けを行うことができる。例えば、音符密度が所定値以上である部分を難関部分として検出し、その部分に音量変化を付与する。さらに、難関部分の音程最大値と音程最小値の変化幅に応じて音量を変化させることもできる。この手法は、音程の不安定さを付与する表現付与にも適用可能であり、また、音符密度の高い部分におけるハンマリングオンの頻度を算出し、これに応じて演奏データにハンマリングオンを自動付加することで、音符が細かいとハンマリングオンするような表情を付与するのにも適用することができる。   Furthermore, information representing the number of notes per predetermined unit time is extracted as feature information by another feature [2c], and the volume of the performance data is gradually increased when the number of notes per predetermined unit time exceeds the predetermined number. If it is configured so as to decrease, it is possible to perform facial expression that changes the volume according to the fineness of the performance sound. For example, a part where the note density is equal to or higher than a predetermined value is detected as a difficult part, and a volume change is given to the part. Furthermore, the volume can be changed according to the change range of the maximum pitch value and the minimum pitch value of the difficult part. This method can also be applied to expressions that add instability to the pitch. In addition, it calculates the frequency of hammering-on in parts where the note density is high, and automatically performs hammering-on on performance data accordingly. By adding, it can also be applied to give a facial expression that hammers on when the notes are fine.

〔3〕演奏データを供給する供給手段と、演奏データの進行状態に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、供給された演奏データの進行状態及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(2),(B)が対応〕:ここで、
〔3a〕生成情報情報は、演奏データの進行に従って、演奏データの再生テンポを徐々に速くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(2)に対応〕、或いは、
〔3b〕生成情報情報は、演奏データの進行に従って、音量を徐々に大きくするような楽音制御情報を生成する生成方法を表わす情報である〔実施例(B)に対応〕。
[3] Supply means for supplying performance data, storage means for storing generation method information representing a generation method for generating musical tone control information corresponding to the progress state of the performance data, and the progress state of the supplied performance data And a performance data creation device comprising a generation means for generating musical tone control information based on the generation method information and an adding means for adding the generated musical tone control information to the supplied performance data [Embodiment (2), (B) corresponds]: where
[3a] The generation information information is information indicating a generation method for generating musical tone control information that gradually increases the reproduction tempo of the performance data as the performance data progresses (corresponding to the embodiment (2)), or ,
[3b] The generation information information is information representing a generation method for generating musical tone control information that gradually increases the volume as the performance data progresses (corresponding to the embodiment (B)).

別の特徴〔3〕では、供給された演奏データの進行状態に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、演奏データの演奏進行状態の評価に基づいて多彩な表情のある演奏出力を得ることができる。   In another feature [3], the musical tone control information is generated and added to the performance data based on the generation method information corresponding to the progress state of the supplied performance data. Based on the evaluation, performance output with various expressions can be obtained.

ここで、別の特徴〔3a〕により、演奏データの演奏進行に従って演奏データの再生テンポを徐々に速くするように構成すると、例えば、曲の進行につれて1小節毎に所定倍率でテンポをだんだん早くする等により、曲を通して徐々にテンポを加速する表情付けを行うことができる。この場合、具体的には、区間毎に、テンポ強弱値αとテンポ係数Kと現在テンポ値とから区間毎のテンポチェンジ量を算出するのが有効である(テンポ係数Kは、テーブルから区間毎に求められ、曲の進行に従い徐々にテンポが増大する)。また、テンポ強弱値αを興奮度と名付けて、「強い」、「中程度」、「弱い」、「変化なし」のような言葉で選択可能として更に有用性を高めることができる。   Here, according to another feature [3a], if the playback tempo of the performance data is gradually increased according to the progress of the performance data, for example, the tempo is gradually increased at a predetermined magnification for each measure as the music progresses. For example, it is possible to add a facial expression that gradually accelerates the tempo throughout the song. In this case, specifically, it is effective to calculate the tempo change amount for each section from the tempo strength value α, the tempo coefficient K, and the current tempo value for each section (the tempo coefficient K is calculated from the table for each section). The tempo gradually increases as the song progresses). Further, the tempo strength value α is named as the degree of excitement and can be selected with words such as “strong”, “medium”, “weak”, “no change”, and the usefulness can be further enhanced.

また、別の特徴〔3b〕により、こ演奏データの進行に従って音量パラメータの値を徐々に大きくするように構成すると、曲進行に伴い興奮度を高め盛上り具合を演出する表情付けを行うことができる。この場合、具体的には、例えば、曲全体の音量変化傾向を表わすパターンデータに基づいて、音量変化区間毎の変化値を算出し、演奏データの各対応位置に挿入する。この場合、複数トラック構成のシステムでは、各トラックで使用する変化付与パターンは、同一のものであってもよいし、異なるものであってもよい。なお、この手法は、音程パラメータに変化を付与する際にも適用可能であり、例えば、曲の進行に従い、音程パラメータの値を徐々に増大させて興奮度を高めることができる。   Further, if another volume [3b] is used to gradually increase the value of the volume parameter as the performance data progresses, it is possible to add a facial expression that enhances the excitement level and produces a climax as the music progresses. it can. In this case, specifically, for example, a change value for each volume change section is calculated on the basis of pattern data representing the volume change tendency of the entire song, and is inserted into each corresponding position of the performance data. In this case, in a system having a plurality of tracks, the change imparting pattern used in each track may be the same or different. Note that this method can also be applied when changing a pitch parameter. For example, as the music progresses, the value of the pitch parameter can be gradually increased to increase the degree of excitement.

〔4〕演奏データを供給する供給手段と、供給された演奏データから、音長が所定長以上であり且つトリル又はビブラートが付与されている部分を抽出する抽出手段と、音長が所定長以上であり且つトリル又はビブラートが付与されている部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(4),(G)が対応〕:ここで、
〔4a〕生成方法情報は、トリル又はビブラートの経過時間に応じて、演奏データの再生テンポの値を最初はゆっくりで徐々に速くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(4)に対応〕、或いは、
〔4b〕生成方法情報は、音量を最初は大きく途中は小さく最後は大きくするような楽音制御情報を生成する生成方法を表わす情報である〔実施例(G)に対応〕。
[4] Supply means for supplying performance data, extraction means for extracting from the supplied performance data portions where the sound length is greater than or equal to a predetermined length and to which trill or vibrato is applied, and the sound length is greater than or equal to a predetermined length And storage means for storing generation method information representing a generation method for generating musical tone control information corresponding to a portion to which trill or vibrato is given, and musical tone control based on the extracted portion and the generation method information A performance data creation device comprising generation means for generating information and addition means for adding the generated musical tone control information to the supplied performance data (corresponding to the embodiments (4) and (G)): ,
[4a] The generation method information is information representing a generation method for generating musical tone control information that gradually and gradually increases the reproduction tempo value of the performance data according to the elapsed time of the trill or vibrato [ Corresponding to Example (4)], or
[4b] The generation method information is information representing a generation method for generating musical tone control information in which the volume is initially large, midway small, and finally large (corresponding to Example (G)).

別の特徴〔4〕では、供給された演奏データから、音長が所定長以上であり且つトリル又はビブラートが付与されている部分(微小震動音情報)を特徴情報として抽出し、この特徴情報に対応する生成方法情報に基いて、楽音制御情報を生成し、演奏データに付加するようにしているので、微小震動音情報(ロングトーンのトリル、ビブラート等)に基づいて多彩な表情のある演奏出力を得ることができる。   In another feature [4], from the supplied performance data, a portion (microvibration sound information) to which the sound length is equal to or longer than a predetermined length and to which trill or vibrato is attached is extracted as feature information, Based on the corresponding generation method information, musical tone control information is generated and added to performance data, so performance output with various expressions based on minute vibration sound information (long tone trill, vibrato, etc.) Can be obtained.

ここで、別の特徴〔4a〕により、トリル又はビブラートの経過時間に応じて、演奏データの再生テンポの値を最初はゆっくりで徐々に速くするように構成すると、ロングトーンのトリル/ビブラート部分については最初はゆっくりのテンポとする表情付けを行うことができる。この場合、予め用意されたテーブルからトリル又はビブラートの時間経過に応じたテンポ係数Kを求め、その値とテンポ強弱値αおよび現在テンポ値とに基づいて区間毎のピッチベンド列を生成させるのが有効である。   Here, according to another feature [4a], if the playback tempo value of the performance data is initially slow and gradually increased according to the elapsed time of the trill or vibrato, the trill / vibrato portion of the long tone Can do facial expressions with a slow tempo at first. In this case, it is effective to obtain a tempo coefficient K corresponding to the time lapse of the trill or vibrato from a table prepared in advance and generate a pitch bend sequence for each section based on the value, the tempo strength value α, and the current tempo value. It is.

また、別の特徴〔4b〕により、音量を、最初は大きく、途中は小さく、最後は大きくするように構成すると、ロングトーンにトリルまたはビブラートが付与されているときにの音量を大→小→大きくとなる変化させる表情付けを行うことができる。なお、この手法は、音程変化の速さを変化させることにも適用可能である。   Further, when another volume [4b] is configured such that the volume is initially large, small in the middle, and large in the end, the volume when trill or vibrato is added to the long tone is increased from small to large. It is possible to add facial expressions that change. This method can also be applied to changing the speed of pitch change.

〔5〕演奏データを供給する供給手段と、供給された演奏データから、ピッチベンドが付与されている部分を抽出する抽出手段と、ピッチベンドが付与されている部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(20),(23),(Q)が対応〕:ここで、
〔5a〕生成方法情報は、ピッチベンドの変化に基づいて、演奏データの再生テンポの値を徐々に遅くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(20)に対応〕、
〔5b〕生成方法情報は、ピッチベンドが深く或いは速くかかっている場合に、演奏データの再生テンポの値を徐々に遅くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(23)に対応〕、或いは、
〔5c〕生成方法情報は、ピッチベンドの変化率が大きいほど、音量を小さくするような楽音制御情報を生成する生成方法を表わす情報である〔実施例(Q)に対応〕。
[5] Supply means for supplying performance data, extraction means for extracting a portion to which pitch bend is applied from the supplied performance data, and generating tone control information corresponding to the portion to which pitch bend is applied Storage means for storing the generation method information representing the generation method, generation means for generating musical tone control information based on the extracted portion and the generation method information, and the generated musical tone control information in the supplied performance data An apparatus for creating performance data comprising additional means for adding [corresponding to the embodiments (20), (23), (Q)]:
[5a] The generation method information is information representing a generation method for generating musical tone control information that gradually decreases the value of the playback tempo of performance data based on a change in pitch bend [corresponding to Example (20). ],
[5b] The generation method information is information representing a generation method for generating musical tone control information that gradually decreases the value of the playback tempo of the performance data when the pitch bend is deep or fast [Example ( 23)] or
[5c] The generation method information is information representing a generation method for generating musical tone control information that reduces the volume as the rate of change in pitch bend increases (corresponding to Example (Q)).

別の特徴〔5〕では、供給された演奏データから、ピッチベンドの付与されている部分を特徴情報として抽出し、この特徴情報に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、微小震動音情報(ピッチベンド等)に基づいて多彩な表情のある演奏出力を得ることができる。   In another feature [5], a portion to which pitch bend is applied is extracted as feature information from the supplied performance data, and tone control information is generated based on the generation method information corresponding to the feature information. Since it is added to the data, it is possible to obtain a performance output with various expressions based on minute vibration sound information (pitch bend, etc.).

ここで、別の特徴〔5a〕により、ピッチベンドの変化に基づいて、演奏データの再生テンポの値を徐々に遅くするように構成すると、例えば、検出されたピッチベンドに基づいたテンポチェンジを付与することにより、ピッチベンドをかけるときにテンポを触る表情付けを行うことができる。   Here, according to another feature [5a], if the playback tempo value of the performance data is gradually decreased based on the change in pitch bend, for example, a tempo change based on the detected pitch bend is given. Thus, it is possible to add a facial expression that touches the tempo when pitch bend is applied.

また、別の特徴〔5b〕により、ピッチベンドが深く或いは速くかかっている場合に、演奏データの再生テンポの値を徐々に遅くするように構成すると、ビブラートを深くかけたり、速くかけたりしたときにテンポを遅くするというように、ビブラートの深さや速さに応じてテンポを設定する表情付けを行うことができる。この場合、例えば、ビブラートを検出してその深さと速さからテーブルを引き、テンポ係数Kを算出し、この算出値に基づいたテンポチェンジを元の演奏データに付与するのが有効である。   Another feature [5b] is that when the pitch bend is deep or fast, if the playback tempo value of the performance data is gradually slowed down, the vibrato is deeply applied or fast applied. It is possible to add a facial expression that sets the tempo according to the depth and speed of the vibrato, such as slowing down the tempo. In this case, for example, it is effective to detect a vibrato, draw a table from the depth and speed, calculate a tempo coefficient K, and add a tempo change based on the calculated value to the original performance data.

さらに、別の特徴〔5c〕により、ピッチベンドの変化率が大きいほど音量を小さくする(例えば、大きく下げる)ように構成すると、ピッチベンド変化時に音量を変化させる表情付けを行うことができる。   Further, according to another feature [5c], when the pitch bend change rate is increased, the volume is decreased (for example, greatly decreased), and the expression for changing the volume when the pitch bend is changed can be performed.

〔6〕演奏データを供給する供給手段と、供給された演奏データからフレーズの区切り部分を抽出する抽出手段と、フレーズの区切り部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(5),(F),(f)が対応〕:ここで、
〔6a〕生成方法情報は、フレーズの区切り部分において、演奏データの再生テンポの値を遅くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(5)に対応〕、
〔6b〕フレーズの区切り部分において、音量を徐々に小さくするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(F)に対応〕、或いは、
〔6c〕生成方法情報は、フレーズの区切り部分において、フレーズの開始位置にはダンパオンに関する情報を、フレーズの終端位置にはダンパオフに関する情報を挿入するような楽音制御情報を生成する生成方法を表わす情報である〔実施例(f)に対応〕。
[6] Supplying means for supplying performance data, extraction means for extracting a phrase delimiter from the supplied performance data, and a generation method representing a generation method for generating musical tone control information corresponding to the phrase delimiter Storage means for storing information, generation means for generating musical tone control information based on the extracted part and generation method information, and addition means for adding the generated musical tone control information to supplied performance data Performance data creation device (corresponding to the embodiments (5), (F), (f)):
[6a] The generation method information is information representing a generation method for generating musical tone control information that slows the value of the playback tempo of the performance data at the phrase delimiter part (corresponding to the embodiment (5)).
[6b] Information indicating a generation method for generating musical tone control information for gradually decreasing the volume at the phrase delimiter [corresponding to the embodiment (F)], or
[6c] The generation method information is information representing a generation method for generating musical tone control information in which information on a damper on is inserted at a phrase start position and information on a damper off is inserted at a phrase end position in a phrase delimiter. [Corresponding to Example (f)].

別の特徴〔6〕では、供給された演奏データから抽出したフレーズの区切り部分に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、フレーズの区切り(フレーズ終端部等)において多彩な表情のある演奏出力を得ることができる。   In another feature [6], the musical tone control information is generated based on the generation method information corresponding to the phrase delimiter extracted from the supplied performance data, and is added to the performance data. Performance output with various expressions can be obtained at the breaks (phrase end portion, etc.).

ここで、別の特徴〔6a〕により、フレーズの区切り部分において演奏データの再生テンポの値を遅くする(例えば、元の演奏データからフレーズの切れ目位置を検出して、テンポが遅くなるテンポチェンジを元の演奏データに付与する)ように構成すると、フレーズ区間の終わり部分でテンポを遅くしフレーズ経過部でゆっくりとした表情付けを行うことができる。   Here, due to another feature [6a], the playback tempo value of the performance data is slowed down at the phrase delimiter (for example, a tempo change that slows down the tempo by detecting the break position of the phrase from the original performance data). (Append to the original performance data), the tempo can be slowed down at the end of the phrase section, and a slow expression can be applied at the phrase passage part.

また、別の特徴〔6b〕により、フレーズの区切り部分において音量を徐々に小さくするように構成すると、フレーズの終止では音量を抑え、フレーズの終了位置で音量を徐々に小さくしていき、フレーズの終止感を与える表情付けを行うことができる。この場合、終止位置の音量は、フレーズに設定されたテンポに基づいて算出するのが好ましい。なお、フレーズの先頭位置の音符の音量を大きくするようにしてもよい。   Another feature [6b] is that if the volume is gradually reduced at the phrase delimiter, the volume is reduced at the end of the phrase, and the volume is gradually reduced at the end of the phrase. Facial expression that gives a feeling of termination can be performed. In this case, the volume at the end position is preferably calculated based on the tempo set for the phrase. Note that the volume of the note at the beginning of the phrase may be increased.

さらに、別の特徴〔6c〕により、フレーズの区切り部分において、フレーズの開始位置にはダンパオンに関する情報を挿入し、フレーズの終端位置にはダンパオフに関する情報を挿入する(例えば、フレーズを解釈してフレーズの区切りを検出し、フレーズの開始位置ではダンパーオン、フレーズの終端位置でダンパーオフとする)ように構成すると、ピアノのサスティンベダルによる演奏の幅を広げる表情付けを行うことができる。   Further, according to another feature [6c], information on the damper on is inserted at the start position of the phrase, and information on the damper off is inserted at the end position of the phrase (for example, by interpreting the phrase, If the break is detected, the damper is turned on at the start position of the phrase and the damper is turned off at the end position of the phrase), it is possible to add a facial expression with the sustain pedal of the piano.

〔7〕演奏データを供給する供給手段と、供給された演奏データから、所定区間毎の平均音高情報又は平滑化された音高情報を算出する算出手段と、平均音高情報又は平滑化された音高情報に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、算出された平均音高情報又は平滑化された音高情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(6),(M)が対応〕:ここで、
〔7a〕生成方法情報は、平均音高情報又は平滑化された音高情報の音高が高いほど、演奏データの再生テンポの値を速くするような楽音制御情報を生成する生成方法を表わす情報である〔実施例(6)に対応〕。
[7] Supply means for supplying performance data, calculation means for calculating average pitch information or smoothed pitch information for each predetermined section from the supplied performance data, average pitch information or smoothed Storage means for storing generation method information representing a generation method for generating musical tone control information corresponding to the pitch information, and based on the calculated average pitch information or smoothed pitch information and generation method information A performance data creation device comprising generation means for generating musical sound control information and addition means for adding the generated musical sound control information to the supplied performance data (corresponding to the embodiments (6) and (M)). :here,
[7a] The generation method information is information representing a generation method for generating musical tone control information that increases the reproduction tempo value of the performance data as the pitch of the average pitch information or the smoothed pitch information is higher. [Corresponding to Example (6)].

別の特徴〔7〕では、供給された演奏データから、所定区間毎の平均音高情報又は平滑化された音高情報を算出し、この音高情報に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、所定の音高情報に対応して多彩な表情のある演奏出力を得ることができる。この手法により、例えば、区間毎の音程平均値に基づいた音量変化を付与することができ〔実施例(M)を参照〕、また、この手法は音程についても適用可能である。   In another feature [7], average pitch information for each predetermined section or smoothed pitch information is calculated from the supplied performance data, and a musical tone is calculated based on generation method information corresponding to the pitch information. Since the control information is generated and added to the performance data, it is possible to obtain a performance output with various expressions corresponding to predetermined pitch information. By this method, for example, it is possible to give a change in volume based on a pitch average value for each section [see the embodiment (M)], and this method can also be applied to a pitch.

ここで、別の特徴〔7a〕により、平均音高情報又は平滑化された音高情報の音高が高いほど、演奏データの再生テンポの値を速くするように構成すると、例えば、高音ほどテンポを速くするルールを採用し、音域によってテンポを変更する表情付けを行うことができる。具体的には、例えば、平均音高からテーブルを引いてテンポ係数Kを求め、その値とテンポ強弱値α及び現在テンポ値とに基づいて区間毎のテンポチェンジを元の演奏データに付与するようにすればよく、また、音高変化をフィルタリングにより滑らかにし、フィルタリング後の音高変化カーブ上の各音高値及びテーブルからテンポ係数Kを求めてもよい。   Here, according to another feature [7a], the higher the pitch of the average pitch information or the smoothed pitch information, the faster the reproduction tempo value of the performance data becomes. By adopting the rule to speed up the expression, it is possible to add facial expressions that change the tempo according to the sound range. Specifically, for example, a table is subtracted from the average pitch to obtain a tempo coefficient K, and a tempo change for each section is added to the original performance data based on the value, the tempo strength value α, and the current tempo value. The pitch change may be smoothed by filtering, and the tempo coefficient K may be obtained from each pitch value and table on the pitch change curve after filtering.

〔8〕演奏データを供給する供給手段と、供給された演奏データから、音高の変化傾向に相当する特徴情報を抽出する抽出手段と、音高の変化傾向に相当する特徴情報に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された特徴情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(7),(A)が対応〕:ここで、
〔8a〕特徴情報は、音高の上昇傾向と下降傾向との切替り位置を表わす情報であり、生成方法情報は、音高の上昇傾向と下降傾向との切替り位置において、演奏データの再生テンポの値を遅くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(7)に対応〕、
〔8b〕特徴情報は、音高の上昇傾向と下降傾向との切替り位置を表わす情報であり、生成方法情報は、音高の上昇傾向と下降傾向との切替り位置において、切替り位置の音符の音量にアクセントを付与するような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(A)に対応〕、或いは、
〔8c〕特徴情報は、音高の上昇傾向部分を表わす情報であり、生成方法情報は、上昇傾向部分において、音量を徐々に大きくするような楽音制御情報を生成する生成方法を表わす情報である〔実施例(A)に対応〕。
[8] Supply means for supplying performance data, extraction means for extracting feature information corresponding to the change tendency of the pitch from the supplied performance data, and musical sound corresponding to the feature information corresponding to the change tendency of the pitch Storage means for storing generation method information representing a generation method for generating control information, generation means for generating musical sound control information based on the extracted feature information and generation method information, and generated musical sound control information , A performance data creation device comprising an adding means for adding to the supplied performance data (corresponding to the embodiments (7) and (A)):
[8a] The characteristic information is information indicating the switching position between the upward trend and the downward trend of the pitch, and the generation method information is the reproduction of the performance data at the switching position of the upward trend and the downward trend of the pitch. Information indicating a generation method for generating musical tone control information that slows down the tempo value (corresponding to the embodiment (7)),
[8b] The characteristic information is information indicating a switching position between the upward trend and the downward tendency of the pitch, and the generation method information is the position of the switching position at the switching position of the upward trend and the downward trend of the pitch. Information indicating a generation method for generating musical tone control information that gives an accent to the volume of a note (corresponding to the embodiment (A)), or
[8c] The characteristic information is information representing an upward trend portion of the pitch, and the generation method information is information representing a generation method for generating musical tone control information that gradually increases the volume in the upward trend portion. [Corresponding to Example (A)].

別の特徴〔8〕では、供給された演奏データから、音高の変化傾向に相当する音高変化傾向情報を特徴情報として抽出し、この音高変化傾向情報に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、音高変化傾向に応じて多彩な表情のある演奏出力を得ることができる。   In another feature [8], pitch change tendency information corresponding to a pitch change tendency is extracted as feature information from the supplied performance data, and based on generation method information corresponding to the pitch change trend information. Since the musical tone control information is generated and added to the performance data, it is possible to obtain a performance output with various expressions according to the pitch change tendency.

ここで、別の特徴〔8a〕により、音高変化傾向情報は音高の上昇傾向と下降傾向との切替り位置を表わし、音高の上昇傾向と下降傾向との切替り位置において、演奏データの再生テンポの値を遅くするように構成すると、音高の上昇部分から下降部分に切り替わるときに、いったん、テンポが遅くなるようにし、音高の上昇下降切り替わり時点に間をおく表情付けを行うことができる。具体的には、例えば、元の演奏データの音高変化カーブ及びテーブルを用いて、音高上昇部分の絡端近傍でテンポが徐々に遅くなるテンポチェンジを元の演奏データに付与する手法を採ることができる。   Here, according to another feature [8a], the pitch change tendency information represents a switching position between an upward trend and a downward tendency of the pitch, and the performance data at the switching position of the upward trend and the downward trend of the pitch. If the playback tempo value is configured to be slow, the tempo is once slowed when switching from the rising part to the lowering part of the pitch, and a facial expression is added to the point where the pitch rises and falls. be able to. Specifically, for example, a method is used in which a tempo change in which the tempo gradually decreases near the tip of the pitch increasing portion is added to the original performance data using the pitch change curve and table of the original performance data. be able to.

また、別の特徴〔8b〕により、同様に音高の上昇傾向と下降傾向との切替り位置を表わす音高変化傾向情報を用いて、音高の上昇傾向と下降傾向との切替り位置において、切替り位置の音符の音量にアクセントを付与する(例えば、上昇から下降に変化したときには変化点のノートイベントにアクセントを付与する)ように構成すると、音符上昇部分の最後にアクセントをもたせる表情付けを行うことができる。   Further, according to another feature [8b], the pitch change tendency information indicating the switching position between the upward trend and the downward trend of the pitch is similarly used, and the switching position between the upward trend and the downward trend of the pitch is used. , If you add an accent to the volume of the note at the switching position (for example, add an accent to the note event at the change point when changing from ascending to descending) It can be performed.

また、別の特徴〔8c〕により、供給された演奏データから、音高の上昇傾向部分を表わす音高変化傾向情報を特徴情報として用い、上昇傾向部分において、音量を徐々に大きくするように構成すると、ノートイベント列の音高が上昇傾向にあるときには音量を徐々に増大させる表情付けを行うことができる。具体的には、例えば、演奏データ中の解析区間をユーザが設定し、解析区間からノートイベント列の音高が上昇および下降傾向にある部分区間を検索し(この場合、全体として上昇傾向にある部分を上昇傾向部分とする。)、検索された部分区間毎に音高の変化速度を算出し、その結果に応じて、ノートイベントに付与する音量パラメータの変化付与パターンを決定し、決定された変更付与パターンに基づき、部分区間内の音量パラメータ値を変更する手法が採られる。なお、この手法は、音程パラメータに変化を付与する際にも適用可能である。   Further, according to another feature [8c], the pitch change tendency information representing the upward trend portion of the pitch is used as the feature information from the supplied performance data, and the volume is gradually increased in the upward trend portion. Then, when the pitch of the note event sequence tends to increase, facial expression that gradually increases the volume can be performed. Specifically, for example, the user sets an analysis section in the performance data, and searches for a partial section in which the pitch of the note event sequence tends to rise and fall from the analysis section (in this case, the whole trend tends to rise) The part is assumed to be an upward trend part.), The change speed of the pitch is calculated for each searched partial section, and according to the result, the change application pattern of the volume parameter to be given to the note event is determined and determined. A method of changing the volume parameter value in the partial section based on the change giving pattern is adopted. Note that this method can also be applied when changing a pitch parameter.

〔9〕演奏データを供給する供給手段と、供給された演奏データから、同一又は類似するデータ列が連続して存在する部分を抽出する抽出手段と、同一又は類似するデータ列が連続して存在する部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された特徴情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備することを特徴とする演奏データ作成装置〔実施例(8),(D)が対応〕:ここで、
〔9a〕生成方法情報は、連続して存在する同一又は類似するデータ列の後側のデータ列に対して、演奏データの再生テンポの値を変更するような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(8)に対応〕、或いは、
〔9b〕生成方法情報は、連続して存在する同一又は類似するデータ列の後側のデータ列に対して、音量を類似度に応じて変更するような楽音制御情報を生成する生成方法を表わす情報である〔実施例(D)に対応〕。
[9] Supply means for supplying performance data, extraction means for extracting a portion where the same or similar data string is continuously present from the supplied performance data, and the same or similar data string are continuously present Storage means for storing generation method information representing a generation method for generating musical tone control information corresponding to a portion to be generated, generation means for generating musical tone control information based on the extracted feature information and generation method information, and generation A performance data creation device (corresponding to the embodiments (8) and (D)), characterized in that it comprises an adding means for adding the musical tone control information to the supplied performance data:
[9a] The generation method information is a generation method for generating musical tone control information that changes the value of the reproduction tempo of the performance data with respect to the subsequent data sequence of the same or similar data sequence that exists continuously. Information representing [corresponding to Example (8)], or
[9b] The generation method information represents a generation method for generating musical tone control information that changes the sound volume according to the degree of similarity with respect to the data sequence on the back side of the same or similar data sequence that exists continuously. Information [corresponding to Example (D)].

別の特徴〔9〕では、供給された演奏データから、同一又は類似するデータ列が連続して存在する部分をを特徴情報として抽出し、この特徴情報に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、同一又は類似するデータ列が連続して存在する場合に多彩に表情付けされた演奏出力を得ることができる。   In another feature [9], a portion where the same or similar data string is continuously present is extracted as feature information from the supplied performance data, and the musical sound is extracted based on the generation method information corresponding to the feature information. Since the control information is generated and added to the performance data, a performance output with various expressions can be obtained when the same or similar data string exists continuously.

ここで、別の特徴〔9a〕により、連続して存在する同一又は類似するデータ列の後側のデータ列に対して、演奏データの再生テンポの値を変更するように構成すると、同一あるいは類似パターンが連続したときに、2回目のパターンについてはテンポを遅くあるいは速くする表情付けを行うことができる。   Here, by another feature [9a], it is the same or similar if the playback tempo value of the performance data is changed with respect to the subsequent data sequence of the same or similar data sequence that exists continuously When the patterns are continuous, the second pattern can be expressed with a slow or fast tempo.

また、別の特徴〔9b〕により、同様に連続して存在する同一又は類似するデータ列の後側のデータ列に対して、音量を類似度に応じて変更するように構成すると、同一あるいは類似パターンが連続して出現する場合に、パターンの類似性に応じて音量パラメータを変化させる表情付けを行うことができる。例えば、類似フレーズが繰り返し出現する場合に、2番目以降の類似フレーズの音量パラメータを、その類似度および出現態様に応じて変化させる。この場合、類似度が高いフレーズが連続して出現する場合には、2番目以降の類似フレーズの音量パラメータ値を、最初の類似フレーズのそれより小さくする。また、類似フレーズが連続せずに繰り返し出現する場合には、最初に出現する類似フレーズのそれに類似した値であって、その類似度に応じた値に変更する。なお、この手法は、音程パラメータに変化を付与する表情付けに適用可能である。   Further, when another volume [9b] is configured so that the volume is changed in accordance with the degree of similarity with respect to the data sequence on the back side of the same or similar data sequence that is continuously present, the same or similar When the pattern appears continuously, it is possible to perform facial expression that changes the volume parameter according to the similarity of the pattern. For example, when similar phrases repeatedly appear, the volume parameter of the second and subsequent similar phrases is changed according to the similarity and appearance mode. In this case, when phrases with high similarity appear continuously, the volume parameter value of the second and subsequent similar phrases is set to be smaller than that of the first similar phrase. In addition, when similar phrases repeatedly appear without being consecutive, the value is similar to that of the first similar phrase, and is changed to a value corresponding to the degree of similarity. Note that this method can be applied to facial expression that changes a pitch parameter.

〔10〕演奏データを供給する供給手段と、供給された演奏データから、類似するデータ列を抽出する抽出手段と、類似するデータ列の相違点に基づいて、演奏データの再生テンポの値を変更するような楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出されたデータ列及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(9)が対応〕: [10] A reproduction tempo value of performance data is changed based on a difference between the supply means for supplying performance data, the extraction means for extracting a similar data string from the supplied performance data, and the similar data string Storage means for storing generation method information representing a generation method for generating musical tone control information, generation means for generating musical tone control information based on the extracted data string and generation method information, and A performance data creation device comprising an adding means for adding musical tone control information to the supplied performance data (corresponding to the embodiment (9)):

別の特徴〔10〕では、供給された演奏データから、類似するデータ列を抽出し、類似するデータ列の相違点に基づいて、演奏データの再生テンポの値を変更するようにしているので、似たフレーズは同一乃至類似のテンポを与える表現付けを行うことができる。具体的には、例えば、類似フレーズ間の相違点を検出して、その相違点に基づくテンポチェンジを元の演奏データに付与する。   In another feature [10], a similar data string is extracted from the supplied performance data, and the playback tempo value of the performance data is changed based on the difference between the similar data strings. Similar phrases can be expressed with the same or similar tempo. Specifically, for example, a difference between similar phrases is detected, and a tempo change based on the difference is added to the original performance data.

〔11〕演奏データを供給する供給手段と、供給された演奏データから、予め登録されている音形を抽出する抽出手段と、音形に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された音形及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(10)が対応〕: [11] A supply means for supplying performance data, an extraction means for extracting a pre-registered sound form from the supplied performance data, and a generation method for generating musical tone control information corresponding to the sound form Storage means for storing generation method information, generation means for generating musical tone control information based on the extracted sound form and generation method information, and addition means for adding the generated musical tone control information to the supplied performance data The performance data creation device comprising the above [corresponding to the embodiment (10)]:

別の特徴〔11〕では、供給された演奏データから、予め登録されている音形を抽出し、この音形に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、登録音形に対応したテンポを設定する表情付けを行うことができる。具体的には、例えば、予め登録されている音形=リズムパターン(フレーズ)の部分に対して所定のテンポを設定する。登録するフレーズは音形だけでなく、エクスプレッシヨンイベント列などでもよい。なお、テンポ変更だけでなく、音程パラメータの変更についても同様に適用することができる。また、この方法は、実施例で述べるように、楽器の種類に応じたスラー付与を行うこともできる。   In another feature [11], a pre-registered sound form is extracted from the supplied performance data, and tone control information is generated based on the generation method information corresponding to the sound form and added to the performance data. Therefore, it is possible to add a facial expression that sets a tempo corresponding to the registered sound form. Specifically, for example, a predetermined tempo is set for a pre-registered tone form = rhythm pattern (phrase) portion. The phrase to be registered is not limited to the sound form, but may be an expression event sequence. Note that not only the tempo change but also the pitch parameter change can be applied in the same manner. In addition, this method can also add slur according to the type of musical instrument, as described in the embodiments.

〔12〕演奏データを供給する供給手段と、供給された演奏データから、所定区間毎の平均音量情報又は平滑化された音量情報を算出する算出手段と、平均音量情報又は平滑化された音量情報に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、算出された所定区間毎の平均音量情報又は平滑化された音量情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(11)が対応〕: [12] Supply means for supplying performance data, calculation means for calculating average volume information or smoothed volume information for each predetermined section from the supplied performance data, and average volume information or smoothed volume information Based on the storage means for storing the generation method information representing the generation method for generating the musical tone control information corresponding to, and the calculated average volume information or smoothed volume information and generation method information for each predetermined section A performance data creation device comprising generation means for generating control information and addition means for adding the generated musical tone control information to the supplied performance data (corresponding to the embodiment (11)):

別の特徴〔12〕では、供給された演奏データから、所定区間毎の平均音量情報又は平滑化された音量情報を算出し、この音量情報に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、例えば、音量が小さいほどテンポを遅くするといった表情付けを行うことができる。具体的には、例えば、区間毎に平均音量値を求め、予め用意した音量が小さいほどテンポが遅くなるようなテーブルに基づいて、所定のテンポチェンジを元の演奏データに付与する。また、音量変化をフィルタリングした音量変化カーブ上の各音量値を基にしてもよい。   In another feature [12], average sound volume information for each predetermined section or smoothed sound volume information is calculated from the supplied performance data, and the musical tone control information is calculated based on the generation method information corresponding to the volume information. Since it is generated and added to the performance data, for example, it is possible to perform expression such that the tempo is made slower as the volume is lower. Specifically, for example, an average volume value is obtained for each section, and a predetermined tempo change is given to the original performance data based on a table in which the tempo is slower as the previously prepared volume is lower. Alternatively, each volume value on a volume change curve obtained by filtering volume changes may be used as a basis.

〔13〕演奏データを供給するデータ供給手段と、緊張感パラメータを入力するパラメータ入力手段と、緊張感パラメータに対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、供給された演奏データ、入力された緊張感パラメータ及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備することを特徴とする演奏データ作成装置〔実施例(12)が対応〕: [13] Data supply means for supplying performance data, parameter input means for inputting tension parameters, and storage means for storing generation method information representing a generation method for generating musical tone control information corresponding to the tension parameters And generating means for generating musical tone control information based on the supplied performance data, inputted tension parameter and generation method information, and adding means for adding the generated musical tone control information to the supplied performance data A performance data creation device (corresponding to Example (12)):

別の特徴〔13〕では、パラメータ入力手段を用いて緊張感パラメータを入力し、この緊張感パラメータに対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、曲全体の感じ或いはサビなどの特定部の感じに沿って、緊張感というパラメータを入力し、このような緊張感パラメータに従ってテンポを変化する表情付けを行うことができる。このように緊張感でテンポを変化するには、例えば、操作子を用いて緊張感パラメータを設定し、設定された緊張感パラメータ値から対応するテンポ係数Kを生成し、生成されたテンポ係数K及び現在テンポ値に応じたテンポチェンジを元の演奏データに付与する。   In another feature [13], a tension parameter is input using a parameter input unit, and musical tone control information is generated based on the generation method information corresponding to the tension parameter and added to the performance data. Therefore, it is possible to input a parameter called tension according to the feeling of the entire song or the feeling of a specific part such as rust, and perform facial expression that changes the tempo according to the tension parameter. In order to change the tempo with tension, for example, a tension parameter is set using an operator, a corresponding tempo coefficient K is generated from the set tension parameter value, and the generated tempo coefficient K is set. A tempo change corresponding to the current tempo value is added to the original performance data.

〔14〕演奏データを供給する供給手段と、供給された演奏データから所定の音符群列を抽出する抽出手段と、所定の音符群列に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された音符群列及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(13),(14),(E)が対応〕:ここで、
〔14a〕生成方法情報は、音符群列の最初の音符長を長めにし、残りの音符長を音符群列の時間長に収まる長さに修正するような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(13)に対応〕、或いは、
〔14b〕生成方法情報は、音符群列を複数の群列に分割し、各群列の最初の音符長を長めにするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(14)に対応〕、或いは、
〔14c〕生成方法情報は、音符群列の最初のタイミングに出現する音符の音量を強調するような楽音制御情報を生成する生成方法を表わす情報である〔実施例(E)に対応〕。
[14] A supply means for supplying performance data, an extraction means for extracting a predetermined note group sequence from the supplied performance data, and a generation method for generating musical tone control information corresponding to the predetermined note group sequence Storage means for storing generation method information, generation means for generating musical tone control information based on the extracted note group sequence and generation method information, and addition for adding the generated musical tone control information to the supplied performance data A performance data creation device comprising the means [corresponding to the embodiments (13), (14), (E)]:
[14a] The generation method information represents a generation method for generating musical tone control information that lengthens the first note length of the note group sequence and corrects the remaining note length to a length that fits within the time length of the note group sequence. Information [corresponding to Example (13)], or
[14b] The generation method information is information representing a generation method for generating musical tone control information that divides a note group sequence into a plurality of group sequences and makes the first note length of each group sequence longer. Corresponding to (14)], or
[14c] The generation method information is information representing a generation method for generating musical tone control information that emphasizes the volume of the note appearing at the first timing of the note group sequence (corresponding to the embodiment (E)).

別の特徴〔14〕では、供給された演奏データから所定の音符群列を抽出し、この音符群列に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、まとまった音符群に対して多彩な表情のある演奏出力を得ることができる。   In another feature [14], a predetermined note group sequence is extracted from the supplied performance data, and musical tone control information is generated based on the generation method information corresponding to the note group sequence and added to the performance data. Therefore, it is possible to obtain performance output with various expressions for a group of notes.

ここで、別の特徴〔14a〕により、音符群列の最初の音符長を長めにし、残りの音符長を音符群列の時間長に収まる長さに修正するように構成すると、まとまった音符群に対して所定の時間的表現を付与することができる。例えば、3拍子の4分音符の羅列のような、何らかのブロックでまとめられる音符群の最初の音符を長めにし、使った時間を残りの音符で取り戻すような表現を付与する。このためには、例えば、音符群の群感の強さというパラメータを設定し、このパラメータ値に基づいてテンポチェンジを元の演奏データに付与する。なお、ピアノの左手だけ、もしくは、伴奏パートだけに適用するのも有効である。   Here, according to another feature [14a], when the first note length of the note group sequence is lengthened and the remaining note length is modified to be within the time length of the note group sequence, A predetermined temporal expression can be given to. For example, the first note of a group of notes grouped in a certain block, such as an enumeration of quarter notes of three time signatures, is lengthened, and an expression is given to regain the time used by the remaining notes. For this purpose, for example, a parameter called group note strength is set, and a tempo change is given to the original performance data based on the parameter value. It is also effective to apply only to the left hand of the piano or only to the accompaniment part.

また、別の特徴〔14b〕により、音符群列を複数の群列に分割し、各群列の最初の音符長を長めにするように構成すると、蓮符中における所定の音を強調する表情付けを行うことができる。つまり、検出した蓮符を複数の小蓮符に分割し、分割された小蓮符に対応したテンポチェンジを演奏データに付与する。この場合、5蓮符以上の長い連符を、例えば、“2連符+3連符”又は“3連符+2連符”のように、小連符に分割し、小連符の1つ目の音を時間をかけて強調する。さらに、最初の小連符はテンポを遅め、残りの小連符はテンポを早めにするなどの手法も有効である。   In addition, if the note group sequence is divided into a plurality of group sequences and the first note length of each group sequence is made longer by another feature [14b], an expression that emphasizes a predetermined sound in the lotus Can be attached. That is, the detected lotus mark is divided into a plurality of small lotus marks, and a tempo change corresponding to the divided small lotus marks is given to the performance data. In this case, a long tuplet of 5 or more lots is divided into small tuplets, for example, “double tuplet + triplet” or “triplet + double tuplet”. Emphasize the sound over time. Furthermore, a technique such as slowing down the tempo for the first small tuplet and increasing the tempo of the remaining small tuplets is also effective.

さらに、別の特徴〔14c〕により、音符群列の最初のタイミングに出現する音符の音量を強調するように構成すると、音符群列に対して音量強調による表情付けを行うことができる。例えば、3拍子の演奏データの場合、同一音符長の音符が連続して出現するときには1拍目を強調し、この際、先頭拍位置の音符数に応じて音量変化を補正する。さらに、連符を検出して、その最初の音の音量を大きくすることにより蓮符らしさを表現することもできる。また、5拍子の場合には、2拍子と3拍子が交互に並んでいると考えて、それぞれの1拍目の音量を強調する。蓮符についても同様に分解して考えることができる。   Furthermore, if the volume of the note appearing at the first timing of the note group sequence is enhanced by another feature [14c], it is possible to add a facial expression to the note group sequence by enhancing the volume. For example, in the case of performance data of three beats, the first beat is emphasized when notes having the same note length appear continuously, and the volume change is corrected according to the number of notes at the first beat position. Furthermore, it is possible to express the character of a lotus by detecting the tuplet and increasing the volume of the first sound. Further, in the case of 5 beats, it is considered that 2 beats and 3 beats are alternately arranged, and the volume of each first beat is emphasized. The lotus mark can be considered in the same way.

〔15〕演奏データを供給する供給手段と、供給された演奏データから、同時に複数音が発音される部分を抽出する抽出手段と、同時に複数音が発音される部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(15),(J)が対応〕:ここで、
〔15a〕生成方法情報は、同時に発音される音の数に応じて、演奏データの再生テンポの値を変更するような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(15)に対応〕、或いは、
〔15b〕生成方法情報は、同時に発音される音のそれぞれの重要度を規定し、規定された重要度に応じて、各音の音量を変更するような楽音制御情報を生成する生成方法を表わす情報である〔実施例(J)に対応〕。
[15] Supply means for supplying performance data, extraction means for extracting a portion where a plurality of sounds are simultaneously generated from the supplied performance data, and generating musical tone control information corresponding to a portion where a plurality of sounds are simultaneously generated Storage means for storing generation method information representing a generation method for generating, generation means for generating musical tone control information based on the extracted part and generation method information, and the generated performance control information generated by the generated musical tone control information. A performance data creation device comprising an adding means for adding data (corresponding to the embodiments (15) and (J)):
[15a] The generation method information is information representing a generation method for generating musical tone control information that changes the value of the reproduction tempo of the performance data in accordance with the number of sounds that are sounded simultaneously [Embodiment (15) Or)
[15b] The generation method information specifies a generation method for generating musical tone control information that defines the importance levels of sounds that are simultaneously generated and changes the volume of each sound according to the specified importance levels. Information [corresponding to Example (J)].

別の特徴〔15〕では、供給された演奏データから、同時に複数音が発音される部分を抽出し、この部分に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、同時に複数音が発音される部分に対して多彩な表情のある演奏出力を得ることができる。   In another feature [15], a portion where a plurality of sounds are simultaneously generated is extracted from the supplied performance data, and tone control information is generated based on the generation method information corresponding to this portion and added to the performance data. Therefore, it is possible to obtain a performance output with various expressions for a portion where a plurality of sounds are pronounced at the same time.

ここで、別の特徴〔15a〕により、同時に発音される音の数に応じて、演奏データの再生テンポの値を変更する〔例えば、和音における同時発音数(和音の音符密度)に応じてテンポを遅くする〕ように構成すると、和音構成音の数によってテンポを変更する表情付けを行うことができる。   Here, according to another feature [15a], the reproduction tempo value of the performance data is changed according to the number of sounds that are simultaneously generated [for example, the tempo according to the number of simultaneous pronunciations of chords (note density of chords) If it is configured so that the tempo can be changed according to the number of chord constituent sounds, expression can be performed.

また、別の特徴〔15b〕により、同時に発音される音のそれぞれの重要度を規定し、規定された重要度に応じて、各音の音量を変更するように構成すると、複数音同時発音演奏において音量による効果的な表情付けを行うことができる。例えば、重要度について予めテンプレートで用意しておき、和音の構成音の音量を、重要度の高い音の音量を大きくするきいうように、重要度に応じて変更する。この場合、単に、和音の最低音と最高音の音量のみを、他の構成音の音量より大きくしてもよいし、和音の根音の音量のみを大きくしてもよい。さらに、オクターブユニゾンについても同様に適用することができる。なお、この手法を音程について適用し、和音を自動的に純正調に変えることもできる。   In addition, when another feature [15b] is used to define the importance level of sounds that are simultaneously generated, and to change the volume of each sound according to the specified importance level, multiple sound simultaneous sounding performance It is possible to apply an effective expression by volume. For example, the degree of importance is prepared in advance as a template, and the volume of the chord constituent sound is changed according to the degree of importance so as to increase the volume of the high importance sound. In this case, only the volume of the lowest tone and the highest tone of the chord may be set higher than the volume of the other component sounds, or only the volume of the root tone of the chord may be increased. Furthermore, the same applies to octave unison. It is also possible to apply this method to the pitch and automatically change the chord to a genuine tone.

〔16〕演奏データを供給する供給手段と、供給された演奏データから音色情報を抽出する抽出手段と、音色情報に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された音色情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(16),(P)が対応〕:ここで、
〔16a〕生成方法情報は、音色種類又は音色パラメータに応じて、演奏データの再生テンポの値を変更するような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(16)に対応〕、或いは、
〔16b〕生成方法情報は、予め規定されている音色種類毎の音量に基づいて、音色の変更位置で、音量が変更前の音色に対応する音量から、変更後の音色に対応する音量に滑らかに変更するような楽音制御情報を生成する生成方法を表わす情報である〔実施例(P)に対応〕。
[16] Supply means for supplying performance data, extraction means for extracting timbre information from the supplied performance data, and generation method information representing a generation method for generating musical tone control information corresponding to the timbre information are stored. Performance data comprising storage means, generation means for generating musical tone control information based on the extracted tone color information and generation method information, and addition means for adding the generated musical tone control information to the supplied performance data Creation device (corresponding to Examples (16) and (P)):
[16a] The generation method information is information representing a generation method for generating musical tone control information that changes the reproduction tempo value of the performance data in accordance with the timbre type or timbre parameter [corresponding to Example (16). Or
[16b] The generation method information is smooth from the volume corresponding to the timbre before the change to the volume corresponding to the timbre after the change at the timbre change position based on the volume for each timbre type defined in advance. This is information representing a generation method for generating musical tone control information to be changed to [corresponding to Example (P)].

別の特徴〔16〕では、供給された演奏データから音色情報を抽出し、この音色情報に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、演奏データ中の所定音色情報に対して多彩な表情のある演奏出力を得ることができる。   In another feature [16], timbre information is extracted from the supplied performance data, and tone control information is generated and added to the performance data based on the generation method information corresponding to the timbre information. Thus, it is possible to obtain a performance output having various expressions with respect to the predetermined tone color information in the performance data.

ここで、別の特徴〔16a〕により音色種類又は音色パラメータに応じて、演奏データの再生テンポの値を変更するように構成すると、音色が変わる度に自動的にテンポが微妙に変化する表現を得ることができる。   In this case, if another playback tempo value of the performance data is changed according to the timbre type or timbre parameter according to another feature [16a], an expression in which the tempo automatically changes slightly every time the timbre changes is expressed. Can be obtained.

また、別の特徴〔16b〕により、予め規定されている音色種類毎の音量に基づいて、音色の変更位置で、音量が変更前の音色に対応する音量から、変更後の音色に対応する音量に滑らかに変更するように構成すると、音色変化に応じた音量表現による表情付けを行い、特定の音色による演奏を目立たせることができる。。   Further, according to another feature [16b], the volume corresponding to the tone after the change from the volume corresponding to the tone before the change at the position where the tone is changed, based on the volume for each tone type specified in advance. If it is configured to change smoothly, it is possible to make a facial expression with a volume expression corresponding to a timbre change and to make a performance with a specific timbre stand out. .

〔17〕演奏データを供給する供給手段と、供給された演奏データから、フィンガリングに関する情報を抽出する抽出手段と、フィンガリングに関する情報に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出されたフィンガリングに関する情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(17)〜(19),(S)が対応〕:ここで、
〔17a〕生成方法情報は、演奏しにくい部分に相当するフィンガリングに関する情報を規定し、当該演奏しにくい部分において、演奏データの再生テンポの値を遅くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(17)に対応〕、
〔17b〕生成方法情報は、ポジション移動部分に相当するフィンガリングに関する情報を規定し、当該ポジション移動部分において、演奏データの再生テンポの値にゆらぎを与えるような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(18)に対応〕、
〔17c〕生成方法情報は、低いポジションで演奏する部分に相当するフィンガリングに関する情報を規定し、当該低いポジションで演奏する部分において、演奏データの再生テンポの値を遅くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(19)に対応〕、
〔17d〕生成方法情報は、演奏しにくい部分に相当するフィンガリングに関する情報を規定し、当該演奏しにくい部分において、音量を小さくするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(S)に対応〕、或いは、
〔17e〕生成方法情報は、ポジション移動部分に相当するフィンガリングに関する情報を規定し、当該ポジション移動部分において、音程を変更するような楽音制御情報を生成する生成方法を表わす情報である〔実施例(S)に対応〕。
[17] Supply means for supplying performance data, extraction means for extracting information relating to fingering from the supplied performance data, and generation representing a generation method for generating musical tone control information corresponding to information relating to fingering Storage means for storing method information, generation means for generating musical tone control information based on the extracted fingering information and generation method information, and addition for adding the generated musical tone control information to the supplied performance data A performance data creation device comprising the means [corresponding to the embodiments (17) to (19), (S)]:
[17a] The generation method information defines information related to fingering corresponding to a portion that is difficult to perform, and a generation method that generates musical tone control information that slows the value of the playback tempo of the performance data in the portion that is difficult to perform [Corresponding to Example (17)],
[17b] The generation method information defines information related to fingering corresponding to the position movement part, and a generation method for generating musical tone control information that gives fluctuation to the value of the playback tempo of the performance data in the position movement part. Information (corresponding to Example (18)),
[17c] The generation method information defines information related to fingering corresponding to a portion played at a low position, and musical tone control information that slows the reproduction tempo value of the performance data at the portion played at the low position. Information indicating the generation method to be generated (corresponding to Example (19)),
[17d] The generation method information is information indicating a generation method for defining fingering information corresponding to a portion that is difficult to perform and generating musical tone control information that reduces the volume in the portion that is difficult to perform. Corresponds to the embodiment (S)], or
[17e] The generation method information is information representing a generation method that defines information related to fingering corresponding to the position moving portion and generates musical tone control information that changes the pitch in the position moving portion. Corresponding to (S)].

別の特徴〔17〕では、供給された演奏データから、フィンガリングに関する情報を抽出し、フィンガリングに関する情報に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、フィンガリングに関して多彩な表情のある演奏出力を得ることができる。   In another feature [17], information related to fingering is extracted from the supplied performance data, and tone control information is generated based on the generation method information corresponding to the information related to fingering and added to the performance data. Therefore, it is possible to obtain performance output with various expressions related to fingering.

ここで、別の特徴〔17a〕により、演奏しにくい部分に相当するフィンガリングに関する情報を規定し、当該演奏しにくい部分において、演奏データの再生テンポの値を遅くするように構成すると、動きにくい指(演奏しにくい指)での演奏のテンポを遅くするというように、演奏指に応じてテンポを変更する表情付けを行うことができる。このためには、例えば、フィンガリングの指を検出して、予め用意したテーブルを用いてテンポチェンジを算出する。   Here, another feature [17a] defines information related to fingering corresponding to a portion that is difficult to play, and in such a portion that is difficult to play, it is difficult to move if the playback tempo value of performance data is slowed down. It is possible to add a facial expression that changes the tempo according to the performance finger, such as slowing down the tempo of performance with a finger (a finger that is difficult to perform). For this purpose, for example, fingering fingers are detected, and a tempo change is calculated using a table prepared in advance.

また、別の特徴〔17b〕により、ポジション移動部分に相当するフィンガリングに関する情報を用い、当該ポジション移動部分において演奏データの再生テンポの値にゆらぎを与えるように構成すると、低いポジションほど速い演奏に向かない傾向を再現するために、低ポジションでテンポを減速する表情付けを行うことができる。   Another feature [17b] is that if information related to fingering corresponding to the position moving portion is used and fluctuation is given to the value of the playback tempo of the performance data in the position moving portion, the lower the position, the faster the performance. In order to reproduce the tendency to be unsuitable, it is possible to add a facial expression that slows down the tempo at a low position.

また、別の特徴〔17c〕により、低いポジションで演奏する部分に相当するフィンガリングに関する情報を用い、当該低いポジションで演奏する部分において演奏データの再生テンポの値を遅くするように構成すると、フィンガリングのポジションに応じてテンポ係数を設定することによって、人間が演奏した不均一さを表現することができる。   According to another feature [17c], if information related to fingering corresponding to a portion played at a low position is used and the playback tempo value of performance data is slowed down at the portion played at the low position, the finger By setting the tempo coefficient according to the position of the ring, it is possible to express non-uniformity performed by humans.

さらに、別の特徴〔17d〕により、演奏しにくい部分に相当するフィンガリングに関する情報を用い、当該演奏しにくい部分において音量を小さくするように構成すると、フィンガリングに応じて、演奏操作が困難と考えられる音高の音量を、他の音高の音量よりも相対的に小さくするといった表情付けを行うことができる。   Furthermore, if another configuration [17d] is used to reduce the sound volume in the difficult-to-play part using information related to the fingering corresponding to the difficult-to-play part, it is difficult to perform the performance operation according to the fingering. It is possible to perform expression such that the volume of a possible pitch is relatively smaller than the volume of other pitches.

さらに、別の特徴〔17e〕により、ポジション移動部分に相当するフィンガリングに関する情報を用い、当該ポジション移動部分において音程を変更するように構成すると、フィンガリングのポジション移動に応じて音程を自動変化させる表情付けを行うことができる。なお、フィンガリングを考え、低いポジションで大きな音量のときには、ノイズ音を加える手法も適用可能である。   According to another feature [17e], if information about the fingering corresponding to the position moving portion is used and the pitch is changed in the position moving portion, the pitch is automatically changed according to the position movement of the fingering. Facial expression can be performed. In consideration of fingering, a method of adding a noise sound can be applied when the volume is low at a low position.

〔18〕演奏データを供給する供給手段と、供給された演奏データから、特定の楽器奏法に相当する部分を抽出する抽出手段と、特定の楽器奏法に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された特定の楽器奏法に相当する部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(21),(22),(24),(H),(T)が対応〕:ここで、
〔18a〕特定の楽器奏法は、ハンマリングオン奏法又はプリングオフ奏法であり、生成方法情報は、ハンマリングオン奏法又はプリングオフ奏法にあたる部分における、演奏データの再生テンポの値を速くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(21)に対応〕、
〔18b〕特定の楽器奏法は、ピアノのサスティンペダル奏法であり、生成方法情報は、ピアノのサスティンペダル奏法にあたる部分における、演奏データの再生テンポの値を遅くするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(22)に対応〕、
〔18c〕特定の楽器奏法は、ストリングのトリル奏法であり、生成方法情報は、ストリングのトリル奏法にあたる部分における演奏データを複数のパートに分割し、各パート毎に異なる、演奏データの再生テンポの値を設定するような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(24)に対応〕、
〔18d〕特定の楽器奏法は、トリルやドラムのロール奏法であり、生成方法情報は、トリルやドラムのロール奏法にあたる部分の音符の音量を不均一にするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(H)に対応〕、或いは、
〔18e〕特定の楽器奏法は、弦楽器の弓の返し奏法であり、生成方法情報は、弦楽器の弓の返し奏法にあたる部分の近傍音符の音量を変更するような楽音制御情報を生成する生成方法を表わす情報である〔実施例(T)に対応〕。
[18] Supply means for supplying performance data, extraction means for extracting a portion corresponding to a specific musical instrument performance from the supplied performance data, and generation for generating musical tone control information corresponding to the specific musical instrument performance A storage unit that stores generation method information representing a method; a generation unit that generates musical tone control information based on the extracted portion corresponding to the specific musical instrument performance method and the generation method information; and a generated musical tone control information. A performance data creation device comprising an adding means for adding to the performance data [corresponding to the embodiments (21), (22), (24), (H), (T)]:
[18a] The specific musical instrument playing method is a hammering-on playing method or a pulling-off playing method, and the generation method information is a musical tone that speeds up the reproduction tempo value of the performance data in the portion corresponding to the hammering-on playing method or the pulling-off playing method. Information indicating a generation method for generating control information (corresponding to the embodiment (21)),
[18b] The specific musical instrument playing method is a piano sustain pedal playing method, and the generation method information is generated to generate musical tone control information that slows down the playback tempo value of the performance data in the portion corresponding to the piano sustain pedal playing method. Information representing the method (corresponding to Example (22)),
[18c] The specific musical instrument playing method is a string trill playing method, and the generation method information divides the performance data in the portion corresponding to the string trill playing method into a plurality of parts, and the reproduction tempo of the performance data, which is different for each part. Information indicating a generation method for generating musical tone control information for setting a value (corresponding to the embodiment (24)),
[18d] The specific musical instrument playing method is a trill or drum roll playing method, and the generation method information is a generating method for generating musical tone control information that makes the volume of notes in the portion corresponding to the trill or drum roll playing method non-uniform. [Corresponding to Example (H)], or
[18e] The specific musical instrument playing method is a bow playing method of a stringed instrument, and the generation method information is a generating method for generating musical tone control information that changes the volume of a nearby note in the portion corresponding to the bow playing method of the stringed instrument. Information to be represented (corresponding to Example (T)).

別の特徴〔18〕では、供給された演奏データから、特定の楽器奏法に相当する部分を抽出すし、特定の楽器奏法に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、特定の楽器奏法に対応して多彩な表情のある演奏出力を得ることができる。   In another feature [18], a portion corresponding to a specific musical performance method is extracted from the supplied performance data, musical tone control information is generated based on the generation method information corresponding to the specific musical performance method, and the performance data Therefore, it is possible to obtain a performance output with various expressions corresponding to a specific musical instrument playing method.

ここで、別の特徴〔18a〕により、特定の楽器奏法がハンマリングオン奏法又はプリングオフ奏法であり、このハンマリングオン奏法又はプリングオフ奏法にあたる部分において、演奏データの再生テンポの値を速くするように構成すると、ギターのハンマリングオン又はプリングオフなどのときにテンポを速くする表情付けを行うことができる。このようにプリングオフ時にテンポを加速するには、ハンマリングオン、プリングオフを検出し、検出結果に基づいたテンポチェンジを演奏データに付与する。   Here, due to another feature [18a], the specific musical instrument playing method is a hammering-on playing method or a pulling-off playing method, and in the portion corresponding to the hammering-on playing method or the pulling-off playing method, the playback tempo value of the performance data is increased. If comprised in this way, the expression which makes a tempo quick can be performed at the time of guitar hammering-on or pulling-off. In order to accelerate the tempo at the time of pulling off in this manner, hammering on and pulling off are detected, and a tempo change based on the detection result is added to the performance data.

また、別の特徴〔18b〕により、特定の楽器奏法がピアノのサスティンペダル奏法であり、ピアノのサスティンペダル奏法にあたる部分において、演奏データの再生テンポの値を遅くするように構成すると、ピアノのサスティンベダル操作に応じて微妙にテンポを遅くするというように、サスティンベダル操作に応じてテンポを設定する表情付けを行うことができる。これには、例えば、サスティンベダルオンを検出し、この検出結果に基づいたテンポチェンジを演奏データに付与する。   According to another feature [18b], if the specific musical instrument playing method is a piano sustain pedal playing method, and the portion corresponding to the piano sustain pedal playing method is configured to slow down the playback tempo value of the performance data, the piano sustaining method is achieved. It is possible to add a facial expression that sets the tempo according to the sustain pedal operation, such as slightly slowing down the tempo according to the pedal operation. For this, for example, a sustain bedal-on is detected, and a tempo change based on the detection result is added to the performance data.

また、別の特徴〔18c〕により、特定の楽器奏法がストリングのトリル奏法であり、ストリングにおいて微小変動(震動)音を持続するトリル奏法にあたる部分の演奏データを複数のパートに分割し、演奏データの再生テンポを各パート毎に異なる値が設定されるように構成すると、ストリングのトリルについて、複数パートを使いこれらのパートについて微妙にタイミングをずらすようにする表情付けを行うことができる。これには、例えば、トリル部分を検出してその部分を複数パートにコピーし、パート毎にMIDIデータのタイミングが異なるように変更する。この場合、パート毎に異なる音色特性とすることもできる。なお、この手法は、音程パラメータの変化付与にも適用でき、この場合は、分解したそれぞれのパートにおけるトリル音程を微妙にずらすようにすればよい。   Further, according to another feature [18c], the specific musical instrument playing method is a string trill playing method, and the performance data of the portion corresponding to the trill playing method that maintains a minute fluctuation (vibration) sound in the string is divided into a plurality of parts. If a different value is set for each playback tempo, expression of the string trill can be performed by using a plurality of parts and slightly shifting the timing of these parts. To this end, for example, the toll part is detected, the part is copied to a plurality of parts, and the MIDI data timing is changed for each part. In this case, different timbre characteristics can be set for each part. This method can also be applied to change the pitch parameter. In this case, the tolyl pitch in each decomposed part may be slightly shifted.

さらに、別の特徴〔18d〕により、特定の楽器奏法がトリルやドラムのロール奏法であり、トリルやドラムのロール奏法にあたる部分の音符の音量を不均一にするように構成すると、トリルや打楽器のロール演奏部分に、個々の音符の音量を不均一になる値とする表情付けを行うことができる。   Further, according to another feature [18d], when the specific musical instrument playing method is a trill or drum roll playing method and the volume of the notes corresponding to the trill or drum roll playing method is made non-uniform, It is possible to add an expression to the roll performance part so that the volume of each note becomes non-uniform.

さらに、別の特徴〔18e〕により、特定の楽器奏法が弦楽器の弓の返し奏法であり、弦楽器の弓の返し奏法にあたる部分の近傍音符の音量を変更するように構成すると、弦楽器の弓の返し位置近傍に音量変化を付与する表情付けを行うことができる。   Further, according to another feature [18e], if the specific musical instrument playing method is a bowing method of a stringed instrument bow, and the volume of the neighboring notes corresponding to the bowing method of the stringed instrument bow is changed, the bowing of the stringed instrument is returned. It is possible to add a facial expression that gives a change in volume near the position.

〔19〕演奏データを供給する供給手段と、供給された演奏データから歌詞情報を抽出する抽出手段と、歌詞情報に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された歌詞情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備することを特徴とする演奏データ作成装置〔実施例(27),(U)が対応〕:ここで、
〔19a〕生成方法情報は、特定の単語に対するテンポ制御値を規定しており、規定した内容に基づいて、演奏データの再生テンポの値を変更するような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(27)に対応〕、或いは、
〔19b〕生成方法情報は、特定の単語に対する音量変化を規定しており、規定した内容に基づいて、音量を変更するような楽音制御情報を生成する生成方法を表わす情報である〔実施例(U)に対応〕。
[19] Supply means for supplying performance data, extraction means for extracting lyrics information from the supplied performance data, and generation method information representing a generation method for generating musical tone control information corresponding to the lyrics information are stored. Storage means; generation means for generating musical tone control information based on the extracted lyric information and generation method information; and addition means for adding the generated musical tone control information to the supplied performance data. Characteristic performance data creation device (corresponding to the embodiments (27) and (U)):
[19a] The generation method information defines a tempo control value for a specific word, and represents a generation method for generating musical tone control information that changes the reproduction tempo value of performance data based on the specified content. Information [corresponding to Example (27)], or
[19b] The generation method information defines the volume change for a specific word, and is information representing a generation method for generating musical tone control information that changes the volume based on the specified content [Example ( Corresponding to U)].

別の特徴〔19〕では、供給された演奏データから歌詞情報を抽出し、歌詞情報に対応する生成方法に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、歌詞情報がある場合に多彩な表情のある演奏出力を得ることができる。   In another feature [19], the lyrics information is extracted from the supplied performance data, and the musical tone control information is generated and added to the performance data based on the generation method corresponding to the lyrics information. When there is information, performance output with various expressions can be obtained.

ここで、別の特徴〔19a〕により、特定の単語に対するテンポ制御値に基づいて、演奏データの再生テンポの値を変更するように構成すると、歌詞に応じたテンポを設定する表情付けを行うことができる。この表情付けには、例えば、所定の単語をテンポ係数と共に予め登録しておき、元の演奏データの歌詞データ中から所定の単語を検出するようにし、当該単語が出現すると、それに基づいたテンポチェンジを演奏データに付与してテンポを変化させる。この場合、明るい単語には速いテンポを設定し、暗い単語や重要単語には遅いテンポを設定する。   Here, according to another feature [19a], if the playback tempo value of the performance data is changed based on the tempo control value for a specific word, facial expression setting for setting the tempo according to the lyrics is performed. Can do. For this facial expression, for example, a predetermined word is registered in advance together with a tempo coefficient, the predetermined word is detected from the lyrics data of the original performance data, and when the word appears, a tempo change based on the word is performed. Is added to the performance data to change the tempo. In this case, a fast tempo is set for bright words, and a slow tempo is set for dark words and important words.

また、別の特徴〔19b〕により、特定の単語に対する音量変化に基づいて音量を変更するように構成すると、所定の単語に音量変化を付与する表情付けを行うことができる。このような歌詞情報に伴うパラメータの処理手法は、音程変化についても適用することができる。   In addition, when another volume [19b] is used to change the volume based on the volume change for a specific word, it is possible to add a facial expression that gives a volume change to a predetermined word. Such a parameter processing method associated with the lyric information can be applied to a pitch change.

〔20〕演奏データを供給する供給手段と、供給された演奏データから、音源からの出力波形に関する波形情報を取得する取得手段と、音色の種類に応じた音源からの出力波形に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、取得された波形情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(28)に対応〕: [20] Supply means for supplying performance data, acquisition means for acquiring waveform information related to the output waveform from the sound source from the supplied performance data, and tone control corresponding to the output waveform from the sound source according to the type of tone Storage means for storing generation method information representing a generation method for generating information, generation means for generating musical sound control information based on the acquired waveform information and generation method information, and generated musical sound control information, A performance data creation device comprising an adding means for adding to the supplied performance data (corresponding to the embodiment (28)):

別の特徴〔20〕では、供給された演奏データから、音源からの出力波形に関する情報を取得し、音色の種類に応じた音源からの出力波形に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、例えば、実際の出力波形を観測しながら、音色の種類によって音符のオン時刻を異なるように補正するようにして、音源の出力波形に応じてタイミングを補正する表情付けを行うことができる。   In another feature [20], the musical tone control information is obtained based on the generation method information corresponding to the output waveform from the sound source corresponding to the tone type, by acquiring information related to the output waveform from the sound source from the supplied performance data. Is generated and added to the performance data.For example, while observing the actual output waveform, the on-time of the note is corrected so as to differ depending on the type of timbre, and according to the output waveform of the sound source. Expression to correct the timing.

〔21〕演奏データを供給する供給手段と、供給された演奏データから、演奏記号に関する情報を抽出する抽出手段と、演奏記号に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段と、抽出された演奏記号に関する情報及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(29),(30),(K)が対応〕:ここで、
〔21a〕演奏記号に関する情報は、ピアノ記号とフォルテ記号であり、生成方法情報は、ピアノ記号が添付された音符の直前の音符にフォルテ記号が添付されている場合に、当該フォルテ記号が添付されている音符の発音長を短めにするような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(29)に対応〕、
〔21b〕演奏記号に関する情報は、スタッカート記号であり、生成方法情報は、スタッカート記号が添付された音符の直前の音符の発音長を変更するような楽音制御情報を生成する生成方法を表わす情報であり〔実施例(30)に対応〕、或いは、
〔21c〕演奏記号に関する情報は、スタッカート記号であり、生成方法情報は、スタッカート記号が添付された音符の直後の音符の音量を小さくするような楽音制御情報を生成する生成方法を表わす情報である〔実施例(K)に対応〕。
[21] Supply means for supplying performance data, extraction means for extracting information on performance symbols from the supplied performance data, and generation method information representing a generation method for generating musical tone control information corresponding to the performance symbols Storage means for storing, generation means for generating musical tone control information based on information on the extracted performance symbols and generation method information, and addition means for adding the generated musical tone control information to the supplied performance data A performance data creation device (corresponding to the embodiments (29), (30), (K)):
[21a] The information about the performance symbol is a piano symbol and a forte symbol, and the generation method information is attached when the forte symbol is attached to the note immediately before the note with the piano symbol attached. This is information representing a generation method for generating musical tone control information that shortens the pronunciation length of the current note (corresponding to the embodiment (29)),
[21b] The information regarding the performance symbol is a staccato symbol, and the generation method information is information indicating a generation method for generating musical tone control information that changes the pronunciation length of the note immediately before the note to which the staccato symbol is attached. Yes [corresponding to Example (30)], or
[21c] The information regarding the performance symbol is a staccato symbol, and the generation method information is information indicating a generation method for generating musical tone control information that reduces the volume of the note immediately after the note to which the staccato symbol is attached. [Corresponding to Example (K)].

別の特徴〔21〕では、供給された演奏データから、演奏記号に関する情報を抽出し、演奏記号に対応する生成方法情報に基づいて、楽音制御情報を生成し、演奏データに付加するようにしているので、演奏データ中の演奏記号に対応して多彩な表情のある演奏出力を得ることができる。   In another feature [21], information on performance symbols is extracted from the supplied performance data, and musical tone control information is generated based on the generation method information corresponding to the performance symbols and added to the performance data. Therefore, a performance output with various expressions can be obtained corresponding to the performance symbols in the performance data.

ここで、別の特徴〔21a〕により、演奏記号がピアノ記号とフォルテ記号であり、ピアノ記号が添付された音符の直前の音符にフォルテ記号が添付されている場合に、当該フォルテ記号が添付されている音符の発音長を短めにするように構成すると、ピアノ記号直前のフォルテ記号は短めに設定して発音させる表情付けを行うことができる。   Here, according to another feature [21a], when the performance symbol is a piano symbol and a forte symbol, and the forte symbol is attached to the note immediately before the note to which the piano symbol is attached, the forte symbol is attached. If the note length of the note is shortened, the forte symbol immediately before the piano symbol can be set to be shorter and can be expressed.

また、別の特徴〔21b〕により、演奏記号がスタッカート記号であり、スタッカート記号が添付された音符の直前の音符の発音長を変更するように構成すると、スタッカート直前の音の発音時間を長めにする表情付けを行うことができる。これには、例えば、スタッカートを検出し、その直前の音のゲートタイムを強弱値αに応じて伸長し、その結果に基づいたテンポチェンジを演奏データに付与する。   According to another feature [21b], if the performance symbol is a staccato symbol and the pronunciation length of the note immediately before the note to which the staccato symbol is attached is changed, the pronunciation time of the sound immediately before the staccato symbol is lengthened. You can make facial expressions. For this, for example, staccato is detected, the gate time of the sound just before is expanded according to the strength value α, and a tempo change based on the result is given to the performance data.

さらに、別の特徴〔21c〕により、同様に演奏記号がスタッカート記号であり、スタッカート記号が添付された音符の直後の音符の音量を小さくするように構成すると、スタッカート音を強調するために、スタッカート発音の直後の音符の音量を小さくする表情付けを行うことができる。このようなスタッカート演奏においては、音量を変化させる度合いをスタッカート音符の音価やテンポに応じて調整することが好ましい。   Further, according to another feature [21c], if the performance symbol is similarly a staccato symbol and the volume of the note immediately after the note with the staccato symbol attached is reduced, the staccato symbol is emphasized to enhance the staccato tone. It is possible to add a facial expression that reduces the volume of the note immediately after the pronunciation. In such a staccato performance, it is preferable to adjust the degree of change in volume according to the note value and tempo of the staccato note.

〔22〕演奏データを供給する供給手段と、既に供給されている演奏データの所定の特徴情報と楽音制御情報との関係を記憶する記憶手段と、新たに供給された演奏データの特徴情報を抽出する抽出手段と、抽出された特徴情報に基づき、記憶手段に記憶された関係に従って楽音制御情報を生成する生成手段と、生成された楽音制御情報を、新たに供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(25)が対応〕: [22] Supply means for supplying performance data, storage means for storing the relationship between predetermined characteristic information of musical performance data already supplied and musical tone control information, and characteristic information of newly supplied performance data are extracted An extracting means for generating musical tone control information according to the relationship stored in the storage means based on the extracted feature information, and an addition for adding the generated musical tone control information to newly supplied performance data A performance data creation device comprising means (corresponding to the embodiment (25)):

別の特徴〔22〕では、既に供給されている演奏データの所定の特徴情報と楽音制御情報との関係を記憶しておき、新たに供給された演奏データの特徴を抽出すると、記憶手段に記憶された関係に従って、楽音制御情報を生成し、新たに供給された演奏データに付加するようにしているので、学習機能によりテンポを設定する表情付けを行うことができる。この手法では、音高変化とテンポ変化の関係を自動的に予想するシステムを構成し、ある曲の途中までテンポ変化を手入力した後の残りのテンポ変化を学習機能により自動入力させる。例えば、学習ルーチンでテンポ変化を既に付与しているMIDIデータからフレーズとテンポ変化の関係を学習させ、その結果を記憶しておく。そして、未だテンポの付与されていないフレーズのMIDIデータに対し、記憶されている学習結果を基にしたテンポチェンジを演奏データに付与する。   In another feature [22], the relationship between the predetermined feature information of the performance data already supplied and the musical tone control information is stored, and when the feature of the newly supplied performance data is extracted, the relationship is stored in the storage means. According to the relationship, musical tone control information is generated and added to newly supplied performance data, so that a facial expression for setting a tempo can be performed by a learning function. In this method, a system for automatically predicting the relationship between the pitch change and the tempo change is configured, and the remaining tempo change after the tempo change is manually input halfway through a certain song is automatically input by the learning function. For example, the relation between the phrase and the tempo change is learned from the MIDI data to which the tempo change has already been applied in the learning routine, and the result is stored. A tempo change based on the stored learning result is added to the performance data for the MIDI data of the phrase to which the tempo has not yet been assigned.

〔23〕演奏データに関して所定の特徴情報と楽音制御情報との関係を複数記憶したライブラリと、演奏データを供給する供給手段と、供給された演奏データの特徴情報を抽出する抽出手段と、抽出された特徴情報に基づき、ライブラリを参照することによって楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(26)が対応〕: [23] A library storing a plurality of relationships between predetermined feature information and musical tone control information regarding performance data, supply means for supplying performance data, extraction means for extracting feature information of the supplied performance data, and extraction A performance data creation device comprising: generation means for generating musical tone control information by referring to the library based on the feature information, and addition means for adding the generated musical tone control information to the supplied performance data Example (26) corresponds]:

別の特徴〔23〕では、演奏データに関して所定の特徴情報と楽音制御情報との関係をライブラリに記憶しておき、供給された演奏データの特徴情報を抽出すると、ライブラリを参照することによって、楽音制御情報を生成し、演奏データに付加するようにしているので、ライブラリを用いてテンポを設定する表情付けを行うことができる。この手法においては、演奏データの種々の特徴情報に対応して一旦生成したテンポ変化をある時間区間で切り取ってライブラリ化しておき、他の部分にも同様に適応する。例えば、ライブラリ化ルーチンでテンポ変化を既に付与したMIDIデータからテンポチェンジを抽出して相対値に直してライブラリ化しておく。そして、MIDIデータの所定の特徴情報に対応してこのライブラリからテンポチェンジを選択し、選択されたテンポチェンジを時間方向、テンポ値方向に伸縮した上、演奏データに付与する。なお、この手法は、音程パラメータの変化付与にも適用することができる。   In another feature [23], the relationship between predetermined feature information and musical tone control information regarding performance data is stored in the library, and the characteristic information of the supplied performance data is extracted. Since the control information is generated and added to the performance data, it is possible to add a facial expression for setting the tempo using the library. In this method, tempo changes once generated corresponding to various pieces of characteristic information of performance data are cut out in a certain time interval and made into a library, and similarly applied to other portions. For example, a tempo change is extracted from MIDI data to which a tempo change has already been applied in a library creation routine, converted to a relative value, and made into a library. Then, a tempo change is selected from this library corresponding to predetermined feature information of the MIDI data, and the selected tempo change is expanded and contracted in the time direction and the tempo value direction, and given to the performance data. This method can also be applied to change the pitch parameter.

〔24〕演奏データを供給する供給手段と、供給された演奏データの所定の特徴情報に基づき楽音制御情報を生成する生成手段と、生成された楽音制御情報及び供給された演奏データの楽音制御情報を演奏データ全体で対比する対比手段と、この対比結果に基づいて、生成された楽音制御情報を修正する修正手段とを具備する演奏データ作成装置〔実施例(31)、(V)が対応〕: [24] Supply means for supplying performance data, generation means for generating musical tone control information based on predetermined characteristic information of the supplied performance data, generated musical tone control information, and musical tone control information of the supplied performance data A performance data creation device comprising a comparison means for comparing the performance data as a whole and a correction means for correcting the musical tone control information generated based on the comparison result (corresponding to the embodiments (31) and (V)). :

別の特徴〔24〕では、供給された演奏データの所定の特徴情報に基づき楽音制御情報を生成し、生成された楽音制御情報及び供給された演奏データの楽音制御情報を演奏データ全体で対比し、この対比結果に基づいて、生成された楽音制御情報を修正するようにしているので、演奏データ全体を見通して、バランスのとれた最適な表情のある演奏出力を得ることができる。例えば、1曲を通してテンポ変化させた結果を見て、テンポの平均が元々設定されていたテンポ値になるように、全体のテンポを補正する(全体のテンポを均一に補正したり、テンポ変更回数の多い区間のテンポを優先的に補正したりする)ことによって、全体を見通してテンポを決めることができる〔実施例(31)を参照〕。また、演奏ヂータ全体の音量の平均値を算出し、この平均値が所望値になるように、全体の音量にオフセットを加えることもできる〔実施例(V)を参照〕。   In another feature [24], musical tone control information is generated based on predetermined characteristic information of the supplied performance data, and the generated musical tone control information and the musical tone control information of the supplied performance data are compared with the entire performance data. Since the generated tone control information is corrected based on the comparison result, it is possible to obtain a balanced performance output with an optimal expression by looking at the entire performance data. For example, by looking at the result of changing the tempo through one song, correct the overall tempo so that the average tempo is the originally set tempo value (correct the overall tempo uniformly, By preferentially correcting the tempo of a section having a large amount of time, the tempo can be determined with a view to the whole (see the embodiment (31)). It is also possible to calculate an average value of the volume of the entire performance data and add an offset to the overall volume so that the average value becomes a desired value (see the embodiment (V)).

〔25〕演奏データを供給する供給手段と、供給された演奏データから、発音を指示する演奏データであってその発音長が所定長以上の部分を抽出する抽出手段と、発音長が所定長以上の部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段であって、この生成方法情報は、発音長が所定長以上の部分の音量を不均一に変更するような楽音制御情報を生成方法を表わすものである記憶手段と、抽出された部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(L)が対応〕: [25] Supply means for supplying performance data, extraction means for extracting performance data for instructing sound generation from the supplied performance data and having a sound generation length equal to or longer than a predetermined length, and a sound generation length equal to or longer than a predetermined length Storage means for storing generation method information representing a generation method for generating musical tone control information corresponding to the portion of the sound, wherein the generation method information changes the volume of a portion whose pronunciation length is a predetermined length or more in a non-uniform manner Storage means that represents the generation method of the musical sound control information, generation means for generating musical sound control information based on the extracted part and the generation method information, and the generated musical sound control information A performance data creation device comprising an adding means for adding to performance data (corresponding to the embodiment (L)):

別の特徴〔25〕では、供給された演奏データから、発音を指示する演奏データであってその発音長が所定長以上の部分を抽出し、所定長以上の発音指示データ部分に対応する生成方法情報に基づいて、発音長が所定長以上の部分の音量を不均一に変更するような楽音制御情報を生成を生成し、演奏データに付加するようにしているので、ロングトーンの音量にゆらぎ/ランダム性をつける表情付けを行うことができる。この場合、ゆらぎについては、乱数カウンタと所定の変化付与パターンに基づき決定するのが好ましい。なお、この手法は、音程パラメータについても適用可能である。   In another feature [25], from the supplied performance data, a portion of performance data for instructing pronunciation is extracted, and a portion whose pronunciation length is a predetermined length or longer is extracted, and a generation method corresponding to the pronunciation instruction data portion having a predetermined length or longer is extracted. Based on the information, the generation of musical tone control information that changes the volume of the portion where the pronunciation length is longer than the predetermined length is generated and added to the performance data. It is possible to add a random expression. In this case, the fluctuation is preferably determined based on a random number counter and a predetermined change imparting pattern. This method can also be applied to pitch parameters.

〔26〕演奏データを供給する供給手段と、供給された演奏データからメロディパートを抽出する抽出手段と、メロディパートに対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段であって、この生成方法情報は、メロディパートの音量をその他のパートの音量よりも大きくなるように変更するような楽音制御情報を生成する生成方法を表わすものである記憶手段と、抽出されたメロディパート及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備することを特徴とする演奏データ作成装置〔実施例(R)が対応〕: [26] Supply means for supplying performance data, extraction means for extracting a melody part from the supplied performance data, and generation method information representing a generation method for generating musical tone control information corresponding to the melody part is stored. The storage means, the generation method information is a storage means that represents a generation method for generating musical tone control information that changes the volume of the melody part to be larger than the volume of the other parts; Performance data comprising: generation means for generating musical tone control information based on the generated melody part and generation method information; and addition means for adding the generated musical tone control information to the supplied performance data Creation device (corresponding to Example (R)):

別の特徴〔26〕では、供給された演奏データからメロディパートを抽出し、メロディパートに対応する生成方法情報に基づいて、抽出されたメロディパートの音量をその他のパートの音量よりも大きくなるように変更するような楽音制御情報を生成し、演奏データに付加するようにしているので、パートに応じた表情付けを行うことができる。つまり、メロディパートの音量が相対的に他のパートの音量より上がるように変化量を決定し、メロディラインを浮き立たせる。なお、この手法は、音程パラメータについても適用可能であり、メロディパートや伴奏パートに応じて基本ピッチをかえるようにする。さらに、パートに応じて遠近感を変化させたり、リバーブの深さを変化させたりする等に応用することができる。   In another feature [26], a melody part is extracted from the supplied performance data, and the volume of the extracted melody part is made larger than the volume of other parts based on the generation method information corresponding to the melody part. Since the musical tone control information to be changed to is generated and added to the performance data, expression according to the part can be performed. That is, the amount of change is determined so that the volume of the melody part is relatively higher than the volume of the other parts, and the melody line is raised. This technique can also be applied to pitch parameters, and the basic pitch is changed according to the melody part or accompaniment part. Furthermore, the present invention can be applied to changing the perspective according to the part, changing the depth of reverb, and the like.

〔27〕演奏データを供給する供給手段と、供給された演奏データから、音量変化が付与された部分を抽出する抽出手段と、音量変化が付与された部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段であって、この生成方法情報は、付与された音量変化に相当する音程変化を、音量変化が付与された部分に付与するような楽音制御情報を生成する生成方法を表わすものである記憶手段と、抽出された部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(a)が対応〕: [27] Supply means for supplying performance data, extraction means for extracting a portion to which a volume change is given from the supplied performance data, and generating musical tone control information corresponding to the portion to which the volume change is given Storage means for storing the generation method information representing the generation method of the musical sound, and the generation method information includes musical tone control information that applies a pitch change corresponding to the applied volume change to a portion to which the volume change is applied. Storage means representing the generation method for generating sound, generation means for generating musical tone control information based on the extracted part and generation method information, and adding the generated musical tone control information to the supplied performance data A performance data creation device comprising the additional means to be provided (corresponding to the embodiment (a)):

別の特徴〔27〕では、供給された演奏データから、音量変化が付与された部分を抽出し、音量変化付与部分に対応する生成方法情報に基づいて、抽出された音量変化に相当する音程変化を、抽出された部分に付与するような楽音制御情報を生成し、演奏データに付加するようにしているので、音量変化(アクセント)が付与された部分に対して、音量変化に相当する音程変化を決定し、アクセント音を微妙に上ずらせる表情付けを行うことができる。   In another feature [27], a portion with volume change is extracted from the supplied performance data, and a pitch change corresponding to the extracted volume change is based on the generation method information corresponding to the volume change addition portion. Is generated and added to the performance data, so that the pitch change corresponding to the volume change is applied to the part to which the volume change (accent) is added. The facial expression can be made to slightly increase the accent sound.

〔28〕演奏データを供給する供給手段と、供給された演奏データから、ダブルチョーキングが行われている部分を抽出する抽出手段と、ダブルチョーキングが行われている部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段であって、この生成方法情報は、ダブルチョーキングが行われている部分の演奏データを上音と下音とで2つのパートに分割し、それぞれに異なる音量変化を与えるような楽音制御情報を生成する生成方法を表わすものである記憶手段と、抽出されたダブルチョーキングが行われている部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(b)が対応〕: [28] Supply means for supplying performance data, extraction means for extracting a portion where double choking is performed from the supplied performance data, and generating musical tone control information corresponding to the portion where double choking is performed Storage means for storing generation method information representing a generation method for performing, and this generation method information divides the performance data of the portion where double choking is performed into two parts, upper sound and lower sound. Generating musical tone control information based on the storage means representing the generation method for generating musical tone control information that gives different volume changes to each of them, the extracted portion of the double choking, and the generation method information A performance data generating apparatus comprising: generating means for generating and adding means for adding the generated musical tone control information to the supplied performance data; b) the corresponding]:

別の特徴〔28〕では、供給された演奏データから、ダブルチョーキングが行われている部分を抽出し、ダブルチョーキング部分に対応する生成方法情報に基づいて、抽出されたダブルチョーキング部分の演奏データを上音と下音とで2つのパートに分割し、それぞれに異なる音量変化を与えるような楽音制御情報を生成し、演奏データに付加するようにしているので、ダブルチョーキングの際に、ダブルチョーキングの上音と下音とを別々のパートに分離し、わざと、別パートで音量の時間変化タイミングをずらす表情付けを行うことができる。   In another feature [28], the portion where the double choking is performed is extracted from the supplied performance data, and the performance data of the extracted double choking portion is obtained based on the generation method information corresponding to the double choking portion. It is divided into two parts, upper sound and lower sound, and musical tone control information that gives different volume changes to each is generated and added to the performance data. When double choking, double choking The upper sound and the lower sound can be separated into separate parts, and the expression that shifts the time change timing of the sound volume can be intentionally performed in another part.

〔29〕演奏データを供給する供給手段と、供給された演奏データから、連続してチョーキングが行われている部分を抽出する抽出手段と、連続してチョーキングが行われている部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段であって、この生成方法情報は、連続してチョーキングが行われている部分において、毎回のチョーキングに対する演奏データの音程に不均一性を持たせるような楽音制御情報を生成する生成方法を表わすものである記憶手段と、抽出された連続してチョーキングが行われている部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(c)が対応〕: [29] Supply means for supplying performance data, extraction means for extracting a portion where choking is continuously performed from the supplied performance data, and a musical sound corresponding to the portion where choking is continuously performed Storage means for storing generation method information representing a generation method for generating control information, and this generation method information is stored in the pitch of performance data for each choking in a portion where choking is continuously performed. Generation of musical tone control information based on the storage means that represents the generation method for generating musical tone control information that gives non-uniformity, the extracted portion where choking is continuously performed, and the generation method information A performance data generating apparatus comprising: a generating means for generating and an adding means for adding the generated tone control information to the supplied performance data; ) Is a corresponding]:

別の特徴〔29〕では、供給された演奏データから、連続してチョーキングが行われている部分を抽出し、連続チョーキング部分に対応する生成方法情報に基づいて、抽出された連続チョーキング部分において、毎回のチョーキングに対する演奏データの音程に不均一性を持たせるような楽音制御情報を生成し、演奏データに付加するようにしているので、連続チヨーキングの際の微妙な表情付けを行うことができる。つまり、チョーキングが連続して現れる部分において、毎回のチョーキングの音程変化が同じにならないように音程に不均一性を加える。例えば、チョーキングが連続している回数や音程の変化傾向に基づいて、変化付与テンプレートを選択し、付与する音程の変化傾向を決定し、チョーキングのかかった真ん中の音の音程から微妙に高くしたり、低くしたりする。   In another feature [29], a portion where choking is continuously performed is extracted from the supplied performance data. Based on the generation method information corresponding to the continuous choking portion, in the extracted continuous choking portion, Musical tone control information that gives non-uniformity to the pitch of performance data for every choking is generated and added to the performance data, so that it is possible to give a delicate expression during continuous choking. In other words, in a portion where choking appears continuously, non-uniformity is added to the pitch so that the pitch change of every choking does not become the same. For example, based on the number of consecutive chokings and the changing tendency of the pitch, you can select a change-giving template, determine the changing tendency of the pitch to be given, and make it slightly higher than the pitch of the middle sound with choking. Or lower.

〔30〕演奏データを供給する供給手段と、供給された演奏データから、アルペジオ演奏に相当する部分を抽出する抽出手段と、アルペジオ演奏に相当する部分に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段であって、この生成方法情報は、アルペジオ演奏における共通倍音を検出し、検出された倍音を別パートで発音させるようにするような楽音制御情報を生成する生成方法を表わすものである記憶手段と、抽出されたアルペジオ演奏に相当する部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(d)が対応〕: [30] Supply means for supplying performance data, extraction means for extracting a portion corresponding to the arpeggio performance from the supplied performance data, and generation for generating musical tone control information corresponding to the portion corresponding to the arpeggio performance A storage means for storing generation method information representing a method, wherein the generation method information detects common overtones in the arpeggio performance, and generates musical tone control information that causes the detected overtones to be pronounced in another part. A generating means for generating musical tone control information on the basis of the portion corresponding to the extracted arpeggio performance and the generating method information, and the performance supplied with the generated musical tone control information. A performance data creation device comprising an adding means for adding data (corresponding to the embodiment (d)):

別の特徴〔30〕では、供給された演奏データから、アルペジオ演奏に相当する部分を抽出し、アルペジオ演奏相当部分に対応する生成方法情報に基づいて、抽出されたアルペジオ演奏における共通倍音を検出し、検出された倍音を別パートで発音させるようにするような楽音制御情報を生成し、演奏データに付加するようにしているので、アルベジオの共通倍音を検出し、この倍音を別パートで小さい音量でならす表情付けを行うことができる。   In another feature [30], a portion corresponding to the arpeggio performance is extracted from the supplied performance data, and a common overtone in the extracted arpeggio performance is detected based on the generation method information corresponding to the portion corresponding to the arpeggio performance. Since the musical tone control information that causes the detected harmonics to be generated by another part is generated and added to the performance data, the common harmonics of the alveggio are detected and the volume of the harmonics is reduced by another part. You can make facial expressions.

〔31〕演奏データを供給する供給手段と、供給された演奏データから、音色の変更を指示する所定の音楽記号に対応する部分を抽出する抽出手段と、音色の変更を指示する所定の音楽記号に対応する楽音制御情報を生成するための生成方法を表わす生成方法情報を記憶する記憶手段であって、この生成方法情報は、音色の変更を指示する所定の音楽記号に対応する部分で、当該音楽記号に対応する音色に、設定音色を変更するような楽音制御情報を生成する生成方法を表わすものである記憶手段と、抽出された音色の変更を指示する所定の音楽記号に対応する部分及び生成方法情報に基づき、楽音制御情報を生成する生成手段と、生成された楽音制御情報を、供給された演奏データに付加する付加手段とを具備する演奏データ作成装置〔実施例(e)が対応〕: [31] Supply means for supplying performance data, extraction means for extracting a portion corresponding to a predetermined music symbol for instructing change in tone color from the supplied performance data, and predetermined music symbol for instructing change in tone color Is a storage means for storing generation method information representing a generation method for generating musical tone control information corresponding to, wherein the generation method information is a portion corresponding to a predetermined musical symbol instructing a change in timbre. A storage means representing a generation method for generating musical tone control information for changing a set tone color to a tone color corresponding to a music symbol, a portion corresponding to a predetermined music symbol for instructing change of the extracted tone color, and Based on the generation method information, a performance data creation device comprising a generation means for generating musical tone control information, and an adding means for adding the generated musical tone control information to the supplied performance data. Example (e) the corresponding]:

別の特徴〔31〕では、供給された演奏データから、音色の変更を指示する所定の音楽記号に対応する部分を抽出し、音色変更を指示用音楽記号に対応する生成方法情報に基づいて、抽出された音色変更指示用音楽記号に対応する部分で、当該音楽記号に対応する音色に、設定音色を変更するような楽音制御情報を生成し、演奏データに付加するようにしているので、楽譜シンボルにより音色を選択する表情付けを行うことができる。例えば、“pizz.”が表示されていると、自動的に音色をピチカートストリングに変更し、“arco”の表示位置で元の擦弦音色に戻すようにする。   In another feature [31], from the supplied performance data, a portion corresponding to a predetermined music symbol instructing a timbre change is extracted, and the timbre change is based on generation method information corresponding to the instruction music symbol, Musical tone control information that changes the set tone color is generated and added to the performance data in the portion corresponding to the extracted tone color change instruction music symbol. Expression can be performed by selecting a timbre by a symbol. For example, when “pizz.” Is displayed, the timbre is automatically changed to a pizzicato string and returned to the original string timbre at the display position of “arco”.

〔種々の特徴〕
また、この明細書に記載された種々の発明の実施に関する種々の特徴により、以下の(1)〜(23)のように構成することもできる。
(1)演奏データを入力する手段と、入力される演奏データの特徴情報を取得する手段と、演奏データに関して所定の特徴情報と楽音制御情報との対応をルール化した表情付けモジュールを供給する手段と、取得された特徴情報に基づき、供給された表情付けモジュールのルールに従って楽音制御情報を設定する手段と、設定された楽音制御情報を、入力された演奏データに付加する手段と、楽音制御情報が付加された演奏データを出力する手段とを具備する演奏データ作成装置〔図2〕。つまり、(1)の構成によると、楽音制御の因子となる入力演奏データの特徴に対する楽音制御情報の設定手順をルール化した種々の表情付けモジュールを用意しておき、この表情付けモジュールに基づいて楽音制御情報を設定するようにしているので、より音楽的な演奏データを自動的に作成することができる。
[Various features]
Also, the following features (1) to (23) can be configured by various features related to the implementation of various inventions described in this specification.
(1) Means for inputting performance data, means for obtaining characteristic information of the input performance data, and means for supplying a facial expression module in which correspondence between predetermined characteristic information and musical tone control information regarding the performance data is ruled And means for setting the tone control information according to the rules of the supplied facial expression module based on the acquired feature information, a means for adding the set tone control information to the input performance data, and the tone control information A performance data creating apparatus comprising: means for outputting performance data to which [1] is added [FIG. 2]. In other words, according to the configuration of (1), various facial expression modules in which the procedure for setting musical tone control information for the characteristics of the input performance data, which is a factor for musical tone control, are prepared, and based on this facial expression module. Since musical tone control information is set, more musical performance data can be automatically created.

(2)演奏データを入力する手段と、入力される演奏データの特徴情報を取得する手段と、取得された特徴情報に基づき、予め定められたルールに従って楽音制御量を設定する手段と、設定される楽音制御量の制御パラメータを調整する手段と、設定された楽音制御量と調整された制御パラメータに基づいて楽音制御情報を決定する手段と、決定された楽音制御情報を、入力された演奏データに付加する手段と、楽音制御情報が付加された演奏データを出力する手段とを具備する演奏データ作成装置、並びに、この演奏データ作成装置において、パラメータ調整手段が、出力された演奏データを評価し、評価結果に応じて再度制御パラメータを調整するもの〔実施例(1)〜(24),(27)〜(30)〕。つまり、(2)の構成によると、種々の楽音制御情報の設定に際し、特徴情報に基づきルールに従って設定される楽音制御量(時間的、音程的、音量的等の演奏上の各種楽音制御量)の制御パラメータを調整可能とし、楽音制御量と調整された制御パラメータに基づいて楽音制御情報(時間パラメータ、音程パラメータ、音量パラメータ等の各種演奏パラメータ)を決定するようにしているので、最適の楽音制御情報による表情付けを行うことができる。 (2) means for inputting performance data; means for acquiring characteristic information of the input performance data; means for setting a musical sound control amount according to a predetermined rule based on the acquired characteristic information; Means for adjusting the control parameter of the musical sound control amount, means for determining the musical sound control information based on the set musical sound control amount and the adjusted control parameter, and the determined musical sound control information as input performance data And a performance data creating apparatus comprising means for outputting performance data to which musical tone control information is added, and in the performance data creating apparatus, a parameter adjusting means evaluates the output performance data. The control parameters are adjusted again according to the evaluation results [Examples (1) to (24), (27) to (30)]. That is, according to the configuration of (2), when various musical tone control information is set, musical tone control amounts (various musical tone control amounts in performance such as time, pitch, and volume) set according to the rules based on the characteristic information. Control parameters can be adjusted, and musical tone control information (various performance parameters such as time parameters, pitch parameters, volume parameters, etc.) is determined based on the musical tone control amount and the adjusted control parameters. It is possible to perform facial expression using control information.

(3)入力される演奏データから音符時間情報を抽出する方法〔実施例(1),(3)〕、入力される演奏データの演奏の進行状態を評価する方法〔実施例(2)〕、入力される演奏データから微小震動音情報を抽出する方法〔実施例(4),(20),(23)〕、入力される演奏データからフレーズの区切りを認識する方法〔実施例(5)〕、入力される演奏データから所定区間毎の音高情報或いは平滑化した音高情報を算出する方法〔実施例(6)〕、入力される演奏データから音高変化方向転換情報を取得する方法〔実施例(7)〕、入力される演奏データから同一又は類似のパターン等を検出する方法〔実施例(8),(9)〕、入力される演奏データから、予め登録されている音形を検出する方法〔実施例(10)〕、入力される演奏データから所定区間毎の音量情報或いは平滑化した音量情報を算出する方法〔実施例(11)〕、入力される演奏データの雰囲気情報を取得する方法〔実施例(12)〕、入力される演奏データから所定の音符群列情報を抽出する方法〔実施例(13),(14)〕、入力される演奏データの和音音数情報を抽出する方法〔実施例(15)〕、入力される演奏データから音色情報を抽出する方法〔実施例(16)〕、入力される演奏データからフィンガリング情報を抽出する方法〔実施例(17)〜(19)〕、入力される演奏データから特定の楽器奏法に対応する奏法情報を抽出する方法〔実施例(21),(22)〕、入力される演奏データからストリングス等の微小変動音情報を抽出する方法〔実施例(24)〕、入力される演奏データの歌詞情報を取得する方法〔実施例(27)〕、入力演奏データから音源の出力波形情報を取得する方法〔実施例(28)〕、入力された演奏データから所定の演奏記号情報を抽出する方法〔実施例(29),(30)〕などによって取得された特徴情報に基づき、それぞれの特徴と時間的楽音制御内容や音程的楽音制御内容等との対応ルールに従って時間パラメータや音程パラメータ等の楽音制御情報を設定するもの。このように、入力演奏データの特徴として、音符時間情報(音符密度、2音間隔)、演奏の進行状態、微小震動音情報(ロングトーンのトリル/ビブラート、ピッチベンド等)、フレーズの区切り(フレーズ終端部等)、音高情報、音高変化方向転換情報(上下降部等)、同一又は類似のパターン(同パターン連続、類似フレーズ等)、登録音形(フレーズテンプレート等)、音量情報、雰囲気情報(「緊張感」等)、音符群列情報(まとまった音符、長い連符等)、和音音数情報、音色情報、フィンガリング情報(指、ポジション移動、ポジション等)、奏法情報(ギターのプリングオフ、ハンマリングオン、ピアノのサスティンペダル等)、微小変動音情報(複数パートのトリル等)、歌詞情報、所定の演奏記号(強弱記号、スタッカート等)などを取得し、これらの特徴に応じて楽音制御情報を設定することによって、これらの特徴情報に基づく多彩な表情のある演奏出力を得ることができる。 (3) A method of extracting note time information from input performance data [Examples (1) and (3)], a method of evaluating the progress of performance of input performance data [Example (2)], Method of extracting minute vibration sound information from input performance data [Examples (4), (20), (23)], Method of recognizing phrase breaks from input performance data [Example (5)] A method of calculating pitch information for each predetermined section or smoothed pitch information from the input performance data [Example (6)], a method of acquiring pitch change direction change information from the input performance data [ Embodiment (7)], a method of detecting the same or similar pattern from input performance data [Embodiment (8), (9)], a pre-registered tone form from input performance data Detection method [Example (10)], input A method of calculating volume information for each predetermined section or smoothed volume information from performance data [Example (11)], a method of acquiring atmosphere information of input performance data [Example (12)], and input A method of extracting predetermined note group sequence information from performance data [Examples (13) and (14)], a method of extracting chord number information of input performance data [Example (15)], and the like. A method for extracting timbre information from performance data [Embodiment (16)], a method for extracting fingering information from input performance data [Embodiments (17) to (19)], and a specific method from input performance data. A method of extracting rendition style information corresponding to a musical instrument performance method (Examples (21) and (22)), a method of extracting minute fluctuation sound information such as strings from input performance data (Example (24)), and Performance A method of acquiring lyrics information of the data [Example (27)], a method of acquiring output waveform information of the sound source from the input performance data [Example (28)], and extracting predetermined performance symbol information from the input performance data Based on the feature information acquired by the method [Embodiment (29), (30)] etc., the time parameter, the pitch parameter, etc. To set the musical tone control information. As described above, the characteristics of the input performance data include note time information (note density, interval between two notes), performance progress, minute vibration sound information (long tone trill / vibrato, pitch bend, etc.), phrase delimiter (phrase end) Part), pitch information, pitch change direction change information (up / down part, etc.), same or similar pattern (same pattern continuous, similar phrases, etc.), registered sound form (phrase template etc.), volume information, atmosphere information (Such as “tension”), note group information (grouped notes, long tuplets, etc.), chord information, tone information, fingering information (finger, position movement, position, etc.), performance information (guitar pulling) Off, hammering on, piano sustain pedal, etc.), minute fluctuating sound information (multi-part trill, etc.), lyric information, predetermined performance symbols (dynamic symbols, stackers) Etc.) to acquire the, by setting the tone control information in accordance with these features, it is possible to obtain a performance output with versatile expression based on these characteristic information.

(4)演奏データを入力する手段と、既に入力された演奏データの所定の特徴情報と楽音制御情報の関係を記憶する手段と、新たに入力される演奏データの特徴情報を取得する手段と、取得された特徴情報に基づき、記憶された関係に従って楽音制御情報を設定する手段と、設定された楽音制御情報を、新たに入力された演奏データに付加する手段と、楽音制御情報が付加された演奏データを出力する手段とを具備する演奏データ作成装置〔実施例(25)〕、並びに、演奏データに関して所定の特徴情報と楽音制御情報との関係を複数組記録したライブラリと、演奏データを入力する手段と、入力される演奏データの特徴情報を取得する手段と、取得された特徴情報に基づき、ライブラリを参照することによって楽音制御情報を設定する手段と、設定された楽音制御情報を、入力された演奏データに付加する手段と、楽音制御情報が付加された演奏データを出力する手段とを具備する演奏データ作成装置〔実施例(26)〕。このように、既に入力された演奏データの所定の特徴情報と楽音制御情報の関係を記憶しておき、新たに入力される演奏データの特徴情報に基づき、記憶された関係に従う学習結果を利用して楽音制御情報を設定するようにしたり、入力演奏データから取得した特徴情報に基づき、演奏データに関して所定の特徴情報と楽音制御情報との関係を複数組記録したライブラリを参照することによって楽音制御情報を設定するように構成することによって、学習機能やライブラリ化により、表情付与の適応性を向上することができる。 (4) means for inputting performance data, means for storing the relationship between the predetermined characteristic information of the performance data already input and the musical tone control information, means for acquiring characteristic information of the newly input performance data, Based on the acquired feature information, means for setting musical tone control information according to the stored relationship, means for adding the set musical tone control information to newly inputted performance data, and musical tone control information are added A performance data creation device comprising a means for outputting performance data [Example (25)], a library in which a plurality of sets of relations between predetermined feature information and musical tone control information are recorded, and performance data are input. Means for acquiring characteristic information of the input performance data, and means for setting the tone control information by referring to the library based on the acquired characteristic information. When the musical tone control information set, and means for adding to the input performance data, performance data creation and means for outputting the performance data tone control information is added Example (26)]. In this way, the relationship between the predetermined characteristic information of the performance data already input and the musical tone control information is stored, and the learning result according to the stored relationship is used based on the characteristic information of the newly input performance data. The musical tone control information is set by referring to a library in which a plurality of sets of relations between predetermined characteristic information and musical tone control information are recorded with respect to performance data based on characteristic information obtained from input performance data. By setting so that the expression is set, the adaptability of the facial expression can be improved by the learning function and the library.

(5)演奏データを入力する手段と、入力される演奏データの所定の特徴情報に基づき楽音制御情報を設定する手段と、設定された楽音制御情報及び入力された演奏データの楽音制御情報を演奏データ全体で対比する手段と、この対比結果に基づいて、設定された楽音制御情報を修正する手段とを具備する演奏データ作成装置〔実施例(31)〕。つまり、(5)の構成によると、設定された楽音制御情報及び入力された演奏データの楽音制御情報を演奏データ全体で対比した結果に基づいて、設定された楽音制御情報を修正するようにしているので、演奏データを見通して楽音制御情報を最適値に設定することができる。 (5) A means for inputting performance data, a means for setting musical tone control information based on predetermined characteristic information of the inputted performance data, and playing the set musical tone control information and the musical tone control information of the inputted performance data A performance data creating apparatus comprising a means for comparing the entire data and a means for correcting the set tone control information based on the comparison result [Example (31)]. That is, according to the configuration of (5), the set tone control information is corrected based on the result of comparing the set tone control information and the tone control information of the input performance data with the entire performance data. Therefore, the musical tone control information can be set to an optimum value by looking at the performance data.

(6)演奏データを供給する供給手段と、供給された演奏データを解析し、複数種類の表情のうちいずれかの表情を付与可能な、演奏データをすべて含む全体区間内の部分区間を抽出する解析手段と、抽出された部分区間に含まれる演奏データに付与すべき表情を複数種類の表情から選択して決定する決定手段と、抽出された部分区間に含まれる演奏データのパラメータを、決定された表情に対応する表情付けアルゴリズムに従って自動的に編集するパラメータ編集手段とを有するパラメータ自動編集装置、並びに、演奏データを供給手段から供給する供給モジュールと、供給された演奏データを解析し、複数種類の表情のうちいずれかの表情を付与可能な、演奏データをすべて含む全体区間内の部分区間を抽出する解析モジュールと、抽出された部分区間に含まれる演奏データに付与すべき表情を複数種類の表情から選択して決定する決定モジュールと、抽出された部分区間に含まれる演奏データのパラメータを、決定された表情に対応する表情付けアルゴリズムに従って自動的に編集するパラメータ編集モジュールとを含む、コンピュータが実現できまプログラムを格納したパラメータ記憶媒体〔図52及び図53〕。ここで、演奏データは、シーケンスデータを想定している。このため、演奏データは時系列に並べることができ、「区間」という概念を、そこに入れることができる。また、「パラメータ」とは、テンポやタイミング等の時間的楽音制御情報や、音程的楽音制御情報、音量的制御情報など、演奏上楽音を制御するための変量情報であり、「演奏パラメータ」ということもあり、以下においても同様である。 (6) Supply means for supplying performance data, and the supplied performance data are analyzed, and a partial section in the entire section including all the performance data to which any one of a plurality of types of facial expressions can be assigned is extracted. Analyzing means, determining means for selecting and determining facial expressions to be added to performance data included in the extracted partial section, and parameters of performance data included in the extracted partial section are determined. A parameter automatic editing device having parameter editing means for automatically editing according to a facial expression algorithm corresponding to a facial expression, a supply module for supplying performance data from the supply means, and analyzing the supplied performance data, and a plurality of types An analysis module that extracts a partial section of the entire section including all performance data, which can be assigned any of the facial expressions A determination module that selects and determines facial expressions to be added to the performance data included in the selected partial section, and the parameters of the performance data included in the extracted partial sections correspond to the determined facial expressions A parameter storage medium storing a program that can be realized by a computer, including a parameter editing module that automatically edits according to a facial expression algorithm [FIGS. 52 and 53]. Here, the performance data is assumed to be sequence data. For this reason, performance data can be arranged in time series, and the concept of “section” can be entered there. The “parameter” is variable information for controlling the musical tone on performance such as temporal musical tone control information such as tempo and timing, pitch musical tone control information, volume control information, etc., and is referred to as “performance parameter”. The same applies to the following.

(7)演奏データを供給する供給手段と、供給された演奏データから、その音高が上昇傾向にあるデータ領域を抽出する抽出手段と、抽出されたデータ領域に含まれる演奏データの音量又は音程が、当該データ領域の最初に位置する演奏データから最後に位置する演奏データまで、それぞれ、徐々に増大するか又は低くずれるように、当該各演奏データの音量又は音程パラメータ値を編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(A)〕。ここで、上昇傾向とは、単純な上昇音系ではないが、全体を評価した場合には上昇音系と言えるものを含む趣旨であり、以下においても同様である。 (7) Supply means for supplying performance data, extraction means for extracting a data area whose pitch tends to increase from the supplied performance data, and the volume or pitch of the performance data included in the extracted data area Parameter editing means for editing the volume or pitch parameter value of each performance data so that the performance data gradually increases or deviates from the performance data located at the beginning of the data area to the performance data located at the end. A parameter automatic editing apparatus having the following (Example (A)). Here, the rising tendency is not a simple rising sound system, but includes a thing that can be said to be a rising sound system when the whole is evaluated, and the same applies to the following.

(8)演奏データを供給する供給手段と、供給された演奏データから、その音高が上昇傾向にあるデータ領域および下降傾向にあるデータ領域を抽出し、抽出されたデータ領域から、音高が上昇傾向から下降傾向に変化する変化点の演奏データを含むデータ領域をさらに抽出する抽出手段と、抽出されたデータ領域に含まれる演奏データ中、変化点の演奏データの音量にアクセントが付与されるように、当該音量パラメータ値を編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(A)〕。ここで、下降傾向とは、上昇傾向とは逆に、単純な下降音系ではないが、全体を評価した場合には下降音系と言えるものを含む趣旨であり、以下においても同様である。 (8) Supply means for supplying performance data, and from the supplied performance data, a data area in which the pitch tends to increase and a data area in which the pitch tends to decrease are extracted, and the pitch is calculated from the extracted data area. An extracting means for further extracting performance data at the changing point that changes from an upward trend to a downward trend, and an accent is given to the volume of the performance data at the changing point in the performance data included in the extracted data region Thus, the parameter automatic editing apparatus having the parameter editing means for editing the volume parameter value [Embodiment (A)]. Here, contrary to the upward trend, the downward trend is not a simple downward sound system, but includes a thing that can be said to be a downward sound system when the whole is evaluated, and the same applies to the following.

(9)演奏データを供給する供給手段と、供給された演奏データの最初に位置する演奏データから最後に位置する演奏データまでの音量乃至音程パラメータ値の変化傾向を規定する音量乃至音程変化パターンを複数種類記憶する記憶手段と、記憶された複数種類の音量乃至音程変化パターンからいずれかを選択する選択手段と、供給された演奏データの音量乃至音程パラメータ値が選択された音量乃至音程変化パターンによって規定される変化傾向になるように、当該各演奏データの音量乃至音程パラメータ値を編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(B)〕。ここで、変化傾向としては、たとえば、音量乃至音程パラメータ値を曲の進行に従って徐々に増大させるという傾向を挙げることができる。このような変化傾向を用いることにより、曲の進行に従って興奮度を高めて行くことができる。なお、増大特性は、曲の進行に従って、所定の有限値に収束するような特性であることが望ましい。その方が、音源の出力範囲を超えず、また、より自然な表情付けになるからである。これは以下においても同様である。 (9) Supply means for supplying performance data, and a volume or pitch change pattern that defines a change tendency of the volume or pitch parameter value from the performance data located at the beginning to the performance data located at the end of the supplied performance data. A storage means for storing a plurality of types, a selection means for selecting any one of a plurality of stored volume or pitch change patterns, and a volume or a pitch change pattern in which the volume or pitch parameter value of the supplied performance data is selected. A parameter automatic editing apparatus (embodiment (B)) having parameter editing means for editing the volume or pitch parameter value of each performance data so as to have a prescribed change tendency. Here, as the change tendency, for example, there is a tendency to gradually increase the volume or pitch parameter value as the music progresses. By using such a change tendency, the degree of excitement can be increased as the music progresses. The increase characteristic is desirably a characteristic that converges to a predetermined finite value as the music progresses. This is because the output range of the sound source is not exceeded, and more natural expression is achieved. The same applies to the following.

(10)演奏データを供給する供給手段と、供給された演奏データから、発音を指示する演奏データの出現密度が所定値以上のデータ領域を抽出する抽出手段と、抽出されたデータ領域に含まれる演奏データの音量乃至音程不安定度パラメータ値を、出現密度に応じた値に編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(C)〕。ここで、出現密度とは、単位時間当たりの出現頻度を意味する。そして、出現密度が所定値以上とは、演奏が難関であることを意味するため、出現密度に応じた値とは、通常、元の音量パラメータ値より小さい値、すなわち音量が小さくなる方向への変更を意味し、音程不安定度パラメータ値については大きくなる方向への変更を意味する。これは、以下においても同様である。 (10) Supply means for supplying performance data, extraction means for extracting from the supplied performance data a data area in which the appearance density of the performance data instructing pronunciation is a predetermined value or more, and the extracted data area A parameter automatic editing apparatus (example (C)) having parameter editing means for editing the volume or pitch instability parameter value of performance data into a value corresponding to the appearance density. Here, the appearance density means the appearance frequency per unit time. When the appearance density is equal to or higher than the predetermined value, it means that the performance is difficult. Therefore, the value corresponding to the appearance density is usually a value smaller than the original volume parameter value, that is, in a direction in which the volume decreases. This means a change, and the pitch instability parameter value means a change in an increasing direction. The same applies to the following.

(11)抽出されたデータ領域に含まれる演奏データに基づいて音程を算出し、算出された音程の最小値と最大値との音程変化幅を算出する算出手段を有し、パラメータ編集手段は、抽出されたデータ領域に含まれる演奏データの音量乃至音程不安定度パラメータ値を、出現密度および算出された音程変化幅に応じた値に編集するパラメータ自動編集装置〔実施例(C)〕。ここで、音程変化幅も、音量パラメータ値乃至音程不安定度パラメータ値を変更する指標になり得、通常、音程乃至音程不安定度変化幅が大きいほど、音量パラメータ値は減少方向に変更し、音程不安定度パラメータ値は増大方向に変更する。これは、以下においても同様である。 (11) calculating means for calculating a pitch based on performance data included in the extracted data area, and calculating a pitch change width between the minimum value and the maximum value of the calculated pitch; A parameter automatic editing device that edits the volume or pitch instability parameter value of performance data included in the extracted data area into a value corresponding to the appearance density and the calculated pitch change range [Embodiment (C)]. Here, the pitch change range can also be an index for changing the volume parameter value or the pitch instability parameter value. Normally, as the pitch or the pitch instability change range is larger, the volume parameter value is changed in a decreasing direction. The pitch instability parameter value is changed in the increasing direction. The same applies to the following.

(12)演奏データを供給する供給手段と、供給された演奏データから、類似フレーズ領域を抽出する抽出手段と、抽出された類似フレーズ領域に含まれる類似フレーズ間の類似度を算出する算出手段と、類似フレーズ領域が連続して出現するときには、2番目以降に出現する類似フレーズの音量パラメータ値を、最初に出現する類似フレーズの音量パラメータ値より小さい値であって、算出された類似度に応じた値に編集する一方、類似フレーズ領域が離散して出現するときには、2番目以降に出現する類似フレーズの音量パラメータ値を、最初に出現する類似フレーズの音量パラメータ値に類似した値であって、算出された類似度に応じた値に編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(D)〕。ここで、類似度は、たとえば、比較するフレーズ間で、(1)演奏データがすべて同一、(2)演奏データの一部のみが相違、(3)演奏データの一部のみが同一、(4)演奏データがすべて相違、の4段階の値とするのが分かりやすいが、この段階は、これより細かくても粗くてもよい。これは以下においても同様である。 (12) Supply means for supplying performance data, extraction means for extracting a similar phrase area from the supplied performance data, and calculation means for calculating the similarity between similar phrases included in the extracted similar phrase area When the similar phrase region appears continuously, the volume parameter value of the similar phrase appearing after the second is smaller than the volume parameter value of the similar phrase appearing first, and depends on the calculated similarity On the other hand, when the similar phrase region appears discretely, the volume parameter value of the similar phrase appearing after the second is similar to the volume parameter value of the first similar phrase, A parameter automatic editing device having a parameter editing means for editing the value according to the calculated similarity (Example (D)). Here, the similarity is, for example, (1) all the performance data is the same, (2) only a part of the performance data is different, (3) only a part of the performance data is the same, (4 ) Although it is easy to understand that the performance data are all different, it is easy to understand that the value is 4 levels, but this level may be finer or coarser. The same applies to the following.

(13)演奏データを供給する供給手段と、供給された演奏データから、3拍子かつ発音を指示する演奏データの発音長がすべて同一音長である小節長のデータ領域を抽出する抽出手段と、抽出されたデータ領域中、強弱を付与すべき拍位置を決定する決定手段と、抽出されたデータ領域に含まれる演奏データ中、決定手段により強が決定された拍位置の演奏データの音量パラメータ値を増大させ、決定手段により弱が決定された拍位置の演奏データの音量パラメータ値を減少させるように編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(E)〕。ここで、強弱を付与すべき拍位置を決定する基準は、たとえば、演奏データとして選択された曲の作風、時代および作曲家等が挙げられる。これは以下においても同様である。 (13) Supply means for supplying performance data; Extraction means for extracting, from the supplied performance data, a data area having a measure length in which all the pronunciation lengths of the performance data for instructing the pronunciation are three beats and the same tone length; A determining means for determining a beat position to which strength is to be added in the extracted data area, and a volume parameter value of the performance data at the beat position whose strength is determined by the determining means in the performance data included in the extracted data area And parameter editing means for editing so as to decrease the volume parameter value of the performance data at the beat position whose weakness is determined by the determination means (Embodiment (E)). Here, the criteria for determining the beat position to which strength is to be given include, for example, the style, era and composer of the song selected as performance data. The same applies to the following.

(14)演奏データを供給する供給手段と、供給された演奏データから、フレーズ長のデータ領域を抽出する抽出手段と、抽出されたデータ領域に設定されているテンポ値を算出する算出手段と、抽出されたデータ領域に含まれる最後に位置する演奏データであって、発音を指示する演奏データ、およびその発音長を検出する検出手段と、検出された演奏データの音量が、算出されたテンポ値および検出された発音長に応じた持続時間だけ徐々に減衰するように、当該演奏データの音量パラメータ値を編集するパラメータ編集手段とを有するパラメータ自動編集装置。〔実施例(F)〕 (14) Supply means for supplying performance data, extraction means for extracting a phrase length data area from the supplied performance data, calculation means for calculating a tempo value set in the extracted data area, The performance data located at the end included in the extracted data area, the performance data for instructing the sound generation, the detection means for detecting the sound generation length, and the volume of the detected performance data calculated as the tempo value And a parameter automatic editing device having parameter editing means for editing the volume parameter value of the performance data so as to gradually attenuate for a duration corresponding to the detected pronunciation length. [Example (F)]

(15)演奏データを供給する供給手段と、供給された演奏データから、発音を指示する演奏データであって、トリルまたはビブラートが付与されかつその発音長が所定長以上のものを抽出する抽出手段と、発音長が所定長以上の演奏データをトリル演奏するときの音量の変化乃至音程変化の速さを規定する音量変化パターン乃至音程変化速さパターンと、発音長が所定長以上の演奏データをビブラート演奏するときの音量の変化乃至音程変化の速さを規定する音量変化パターン乃至音程変化の速さパターンとを、それぞれ発音長に応じた種類記憶する記憶手段と、抽出された演奏データに応じた音量変化パターン乃至音程変化速さパターンを、記憶手段から読み出す読み出し手段と、抽出された演奏データの音量の変化乃至音程変化の速さが、読み出された音量変化パターン乃至音程変化速さパターンに規定された音量の変化乃至音程変化の速さになるように、当該演奏データの音量パラメータ値乃至音程変化の速さパラメータ値を編集するパラメータ編集手段とを有するパラメータ自動編集装置。〔実施例(G)〕 (15) Supply means for supplying performance data, and extraction means for extracting performance data for instructing pronunciation from the supplied performance data, to which trill or vibrato is given and whose pronunciation length is equal to or greater than a predetermined length A volume change pattern or a pitch change speed pattern that regulates the speed of a change in volume or a change in pitch when playing performance data having a pronunciation length of a predetermined length or more, and performance data having a pronunciation length of a predetermined length or more. A storage means for storing a volume change pattern or a pitch change speed pattern that defines the speed of a change in volume or a pitch change during vibrato performance according to the pronunciation length, respectively, and in accordance with the extracted performance data Reading means for reading the volume change pattern or pitch change speed pattern from the storage means, and the volume change or pitch change speed of the extracted performance data The volume parameter value or the pitch change speed parameter value of the performance data is edited so that the volume change or the pitch change speed specified in the read volume change pattern or the pitch change speed pattern is obtained. A parameter automatic editing apparatus having parameter editing means. [Example (G)]

(16)演奏データを供給する供給手段と、供給された演奏データから、トリル演奏またはロール演奏が行われるデータ領域を抽出する抽出手段と、抽出されたデータ領域に含まれる演奏データの音量パラメータ値を不均一値に編集するパラメータ編集手段とを有するパラメータ自動編集装置。〔実施例(H)〕 (16) Supply means for supplying performance data, extraction means for extracting a data area in which a toll performance or roll performance is performed from the supplied performance data, and a volume parameter value of the performance data included in the extracted data area A parameter automatic editing device having parameter editing means for editing the values into non-uniform values. [Example (H)]

(17)演奏データを供給する供給手段と、供給された演奏データから、同時に発音を指示する複数個の演奏データによって構成されるデータ領域を抽出する抽出手段と、強調すべき演奏データの位置を示すパターンを、同時に発音を指示する演奏データの個数およびその音高に応じた種類記憶する記憶手段と、抽出されたデータ領域に含まれる演奏データの個数およびその音高に応じたパターンを、記憶手段から読み出す読み出し手段と、抽出された演奏データ中、読み出されたパターンにより示される位置の演奏データが強調されるように、当該演奏データの音量乃至音程パラメータ値を編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(J)〕。ここで、同時に発音を指示する複数個の演奏データとしては、典型的には、和音を構成する演奏データであるが、これに限らず、たとえば、オクターブユニゾンがある。これは以下においても同様である。 (17) Supply means for supplying performance data, extraction means for extracting a data area composed of a plurality of performance data for instructing pronunciation from the supplied performance data, and the position of the performance data to be emphasized Storage means for storing the number of performance data for instructing pronunciation simultaneously and the type corresponding to the pitch, and storing the number of performance data included in the extracted data area and the pattern corresponding to the pitch Reading means read from the means, and parameter editing means for editing the volume data or the pitch parameter value of the performance data so that the performance data at the position indicated by the read pattern is emphasized in the extracted performance data. A parameter automatic editing device [Example (J)]. Here, the plurality of performance data for instructing pronunciation simultaneously is typically performance data constituting a chord, but is not limited to this, for example, octave unison. The same applies to the following.

(18)演奏データを供給する供給手段と、供給された演奏データから、発音を指示する演奏データであって、スタッカート発音する演奏データの直後のものを抽出する抽出手段と、抽出された演奏データの音量が小さくなるように、当該演奏データの音量パラメータ値を編集するパラメータ編集手段とを有するパラメータ自動編集装置。〔実施例(K)〕 (18) Supply means for supplying performance data, extraction means for extracting performance data for instructing pronunciation from the supplied performance data and immediately after the performance data for staccato pronunciation, and extracted performance data A parameter automatic editing device comprising parameter editing means for editing the volume parameter value of the performance data so that the volume of the performance data is reduced. [Example (K)]

(19)演奏データを供給する供給手段と、供給された演奏データから、発音を指示する演奏データであって、その発音長が所定長以上のものを抽出する抽出手段と、不均一値を出力する出力手段であって、発音開始からの経過時間に応じて、不均一値の変化幅を変化させるものと、抽出された演奏データの音量乃至音程が不均一かつその変化幅が変化しながら当該発音長持続するように、当該演奏データの音量乃至音程パラメータ値を出力手段によって出力される不均一値に編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(L)〕。ここで、抽出される演奏データは、いわゆるロングトーンの演奏データであり、このロングトーンの発音中に、その音量を、不均一かつ徐々に振幅を変えながら変更しているため、ロングトーンにゆらぎを付与していることになる。これは、以下においても同様である。 (19) Supply means for supplying performance data, extraction means for extracting performance data for instructing pronunciation from the supplied performance data and having a pronunciation length equal to or longer than a predetermined length, and outputting a non-uniform value Output means that changes the variation range of the non-uniform value according to the elapsed time from the start of sound generation, and the volume or pitch of the extracted performance data is non-uniform and the variation range changes A parameter automatic editing apparatus (embodiment (L)) having parameter editing means for editing the volume or pitch parameter value of the performance data into a non-uniform value output by the output means so as to maintain the pronunciation length. Here, the performance data to be extracted is so-called long tone performance data, and the volume is changed while the amplitude of the long tone is being sounded unevenly and gradually changing the amplitude. Will be granted. The same applies to the following.

(20)演奏データを供給する供給手段と、供給された演奏データから、同音色のパートおよびそのパート数を検出する検出手段と、検出されたパート数に応じて、各パートの演奏音量値を算出する算出手段と、算出された各演奏音量値を、当該各パートの音量パラメータ値として設定する設定手段とを有するパラメータ自動編集装置〔実施例(N)〕。ここでは、パートディビジョン指定がされている楽譜の演奏を再現するときに、従来のパラメータ編集装置では、音量パラメータに対して何の変更も加えないために、その指定がされないときに比べて、音量が増大するという問題を解消するために、「検出されたパート数に応じて、各パートの演奏音量値を算出」している。この事情は、以下においても同様である。 (20) Supply means for supplying performance data, detection means for detecting parts of the same tone color and the number of parts from the supplied performance data, and the performance volume value of each part according to the detected number of parts A parameter automatic editing apparatus having a calculating means for calculating and a setting means for setting each calculated performance volume value as a volume parameter value of each part [Embodiment (N)]. Here, when reproducing the performance of a score for which a part division is specified, the conventional parameter editing device does not make any changes to the volume parameter. In order to solve the problem of increasing the performance, “the performance volume value of each part is calculated according to the number of detected parts”. This situation is the same in the following.

(21)演奏データを供給する供給手段と、供給された演奏データから、ピッチベンドによるピッチの変更が指示された演奏データを抽出する抽出手段と、抽出された演奏データでのピッチベンドの変化傾向を算出し、算出結果に応じて、音量の変化量を決定する決定手段と、抽出された演奏データの音量の変化が、決定された音量の変化になるように、当該演奏データの音量パラメータ値を編集するパラメータ編集手段とを有するパラメータ自動編集装置。〔実施例(Q)〕 (21) Supply means for supplying performance data, extraction means for extracting performance data instructed to change the pitch by pitch bend from the supplied performance data, and calculating a change tendency of pitch bend in the extracted performance data The volume parameter value of the performance data is edited so that the volume change of the extracted performance data becomes the determined volume change according to the calculation result. A parameter automatic editing apparatus having parameter editing means for performing [Example (Q)]

(22)演奏データを供給する供給手段と、供給された演奏データから、メロディパートを抽出する抽出手段と、抽出されたメロディパートを他のパートと比較して、メロディパートが相対的に他のパートより浮き立つように、演奏パラメータの変化量を決定する決定手段と、抽出されたメロディパートの演奏パラメータ値を、決定された演奏パラメータの変化量に基づいて編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(R)〕。ここでは、演奏データが複数パートからなるものであることを前提としている。しかし、ピアノのように、1つの音色でメロディから伴奏まで担当するような演奏データに対しては、演奏データに含まれるトップノートを抽出して、メロディパートとすれば、この(22)の構成をそのまま適用することができる。 (22) Supply means for supplying performance data; extraction means for extracting a melody part from the supplied performance data; comparing the extracted melody part with other parts; A parameter automatic unit having a determining unit that determines a change amount of the performance parameter so as to stand out from the part, and a parameter editing unit that edits the performance parameter value of the extracted melody part based on the determined change amount of the performance parameter Editing device [Example (R)]. Here, it is assumed that the performance data consists of a plurality of parts. However, if the top note included in the performance data is extracted and used as the melody part for performance data such as a piano that is assigned from one melody to accompaniment, the structure of (22) Can be applied as is.

(23)演奏データを供給する供給手段と、供給された演奏データから、歌詞情報を抽出する抽出手段と、抽出された歌詞情報に含まれる単語から、音量乃至音程変化を付与すべき単語を検出する検出手段と、単語に付与すべき音量乃至音程変化のパターンを示す音量乃至音程変化パターンを単語毎に記憶する記憶手段と、検出された単語に応じた音量乃至音程変化パターンを、記憶手段から読み出す読み出し手段と、検出された単語の音量乃至音程の変化が、読み出された音量乃至音程変化パターンによって示される音量乃至音程の変化になるように、当該演奏データの音量乃至音程パラメータ値を編集するパラメータ編集手段とを有するパラメータ自動編集装置〔実施例(U)〕。以上の(6)〜(23)の構成をもつパラメータ自動編集装置によれば、供給手段から供給された演奏データが解析され、複数種類の表情のうちいずれかの表情を付与可能な、前記演奏データをすべて含む全体区間内の部分区間が抽出され、該抽出された部分区間に含まれる演奏データに付与すべき表情が前記複数種類の表情から選択されて決定され、前記抽出された部分区間に含まれる演奏データのパラメータが、前記決定された表情に対応する表情付けアルゴリズムに従って自動的に編集されるので、ユーザが初心者であっても簡単な操作で曲に多様な表情付けを行うことが可能となる。 (23) Supply means for supplying performance data, extraction means for extracting lyric information from the supplied performance data, and detecting a word to which volume or pitch change should be given from the words included in the extracted lyric information A storage means for storing a volume or a pitch change pattern indicating a volume or a pitch change pattern to be applied to the word for each word, and a volume or a pitch change pattern corresponding to the detected word from the storage means. Edit the volume or pitch parameter value of the performance data so that the change of the volume or pitch of the read word and the detected word becomes the volume or pitch change indicated by the read volume or pitch change pattern. A parameter automatic editing device having a parameter editing means for performing the embodiment (U). According to the parameter automatic editing apparatus having the above configurations (6) to (23), the performance data supplied from the supply means is analyzed, and any one of a plurality of types of facial expressions can be given. A partial section in the entire section including all data is extracted, and facial expressions to be added to the performance data included in the extracted partial sections are selected and determined from the plurality of types of facial expressions, and the extracted partial sections The parameters of the performance data included are automatically edited according to the expression algorithm corresponding to the determined expression, so that even a user who is a beginner can add various expressions to a song with simple operations. It becomes.

以下、図面を参照しつつ、この発明の好適な実施例を説明する。なお、以下の実施例は単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. The following embodiments are merely examples, and various modifications can be made without departing from the spirit of the present invention.

〔ハードウエア構成〕
図1は、この発明の一実施例による演奏データ作成装置(即ち、パラメータ自動編集装置)のハードウエア構成のブロック図を示す。この例では、システムは、中央処理装置(CPU)1、読出専用メモリ(ROM)2、ランダムアクセスメモリ(RAM)3、第1及び第2の検出回路4,5、表示回路6、音源回路7、効果回路8、外部記憶装置9等を備え、これらの装置1〜9は、バス10を介して互いに接続されており、演奏データ作成処理を行うための演奏データ作成システム、或いは、パラメータ自動編集処理を行うためのパラメータ自動編集システムを構成している。
[Hardware configuration]
FIG. 1 is a block diagram showing a hardware configuration of a performance data creation apparatus (that is, a parameter automatic editing apparatus) according to an embodiment of the present invention. In this example, the system includes a central processing unit (CPU) 1, a read only memory (ROM) 2, a random access memory (RAM) 3, first and second detection circuits 4 and 5, a display circuit 6, and a sound source circuit 7. , An effect circuit 8, an external storage device 9, etc., and these devices 1 to 9 are connected to each other via a bus 10, a performance data creation system for performing performance data creation processing, or automatic parameter editing An automatic parameter editing system for processing is configured.

システム全体を制御する(即ち、装置全体の制御を司る)CPU1は、テンポクロックや割込みクロックの発生等に利用される(即ち、タイマ割込み処理における割込み時間や各種時間を計時する)タイマ11を備え、所定のプログラムに従って種々の制御を行い、特に、後述するテンポ変化、音量変化や音程変化等のための種々の処理を中枢的に遂行する。ROM2には、この演奏データ作成(パラメータ自動編集)システムを制御するための所定の制御プログラムが記憶されており、これらの制御プログラムには、基本的な演奏情報処理と共に、この発明による各種テンポ/タイミング、音量変化や音程変化等の変換処理プログラムや各種テーブル、各種データを含ませる(即ち、CPU1が実行する制御プログラムや、各種テーブルデータ等を記憶する)ことができる。RAM3は、これらの処理に際して必要なデータやパラメータを記憶し、また、各種レジスタやフラグ、処理中の各種データを一時記憶する(即ち、演奏データ、各種入力情報および演算結果等を一時的に記憶する)ためのワーク領域として用いられる。   The CPU 1 that controls the entire system (that is, controls the entire apparatus) includes a timer 11 that is used to generate a tempo clock and an interrupt clock (that is, measures an interrupt time and various times in timer interrupt processing). Various controls are performed in accordance with a predetermined program, and in particular, various processes for tempo change, volume change, pitch change, etc., which will be described later, are centrally performed. The ROM 2 stores predetermined control programs for controlling the performance data creation (parameter automatic editing) system. These control programs include basic performance information processing and various tempo / programs according to the present invention. Conversion processing programs such as timing, volume change and pitch change, various tables, and various data can be included (that is, control programs executed by the CPU 1, various table data, etc. are stored). The RAM 3 stores data and parameters necessary for these processes, and temporarily stores various registers and flags and various data being processed (that is, temporarily stores performance data, various input information, calculation results, and the like). Used as a work area.

第1の検出回路4は鍵盤等の演奏操作子を備えた演奏操作装置12に接続され、第2の検出回路5に接続される操作スイッチ装置13は、各種のモード、パラメータ等の設定を行うために、数字/文字キーやつまみ等の操作子を備える。例えば、演奏操作装置12には主に音声情報や文字情報を入力するためのキーボードがあり、操作スイッチ装置13には、ポインティングデバイスであるマウスがあり、第1及び第2の検出回路4,5には、キーボードの各キーの操作状態を検出するキー操作検出回路や、マウスの操作状態を検出するマウス操作検出回路がこれらに対応して設けられる。   The first detection circuit 4 is connected to a performance operation device 12 having performance operators such as a keyboard, and the operation switch device 13 connected to the second detection circuit 5 sets various modes, parameters, and the like. For this purpose, operators such as numeric / character keys and knobs are provided. For example, the performance operating device 12 has a keyboard for mainly inputting voice information and character information, the operation switch device 13 has a mouse as a pointing device, and the first and second detection circuits 4 and 5. The key operation detection circuit for detecting the operation state of each key of the keyboard and the mouse operation detection circuit for detecting the operation state of the mouse are provided correspondingly.

表示回路6は、各種情報等を表示するディスプレイ14〔例えば、大型液晶ディスプレイ(LCD)若しくはCRT(Cathode Ray Tube)ディスプレイ〕や各種インジケータ〔発光ダイオード(LED)等〕を備えており、これらのディスプレイ14やインジケータは、スイッチ装置13の操作パネル上の各種操作子に並置することができる。また、ディスプレイ14には、各種設定画面や各種操作子ボタンを表示させ、各種モードやパラメータ値の設定・表示を行うようにすることもできる。   The display circuit 6 includes a display 14 [for example, large liquid crystal display (LCD) or CRT (Cathode Ray Tube) display] and various indicators [light emitting diode (LED), etc.] for displaying various information. 14 and the indicator can be juxtaposed on various operators on the operation panel of the switch device 13. The display 14 can also display various setting screens and various operation buttons to set and display various modes and parameter values.

DSP等で構成される効果回路8に接続されるサウンドシステム15は、音源回路7及び効果回路8と共に楽音出力部を構成し、この発明による種々の処理中に作成された各種演奏データに基づいて楽音を放音させ、表情付けされた出力演奏データによる演奏を試聴することができる。例えば、音源回路7は、キーボード(12)から入力された演奏データや予め記録された演奏データ等を楽音信号に変換し、効果回路8は音源回路7からの楽音信号に各種効果を付与し、サウンドシステム15は、DAC(Digital-to-Analog Converter )やアンプ、スピーカ等が含まれ、効果回路8からの楽音信号を音響に変換する。   The sound system 15 connected to the effect circuit 8 composed of a DSP or the like constitutes a musical sound output unit together with the sound source circuit 7 and the effect circuit 8, and based on various performance data created during various processes according to the present invention. It is possible to listen to the performance using the output performance data with a facial expression. For example, the tone generator circuit 7 converts performance data input from the keyboard (12) or pre-recorded performance data into a musical tone signal, and the effect circuit 8 gives various effects to the musical tone signal from the tone generator circuit 7, The sound system 15 includes a DAC (Digital-to-Analog Converter), an amplifier, a speaker, and the like, and converts a musical sound signal from the effect circuit 8 into sound.

外部記憶装置9は、ハードディスクドライブ(HDD)、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)ドライブ、フレキシブルディスクドライブ(FDD)、光磁気(MO)ディスクドライブ、ディジタル多目的ディスク(DVD)ドライブ等の記憶装置から成り、各種制御プログラムや各種データを記憶することができる。従って、演奏データの処理に必要な各種プログラムやデータは、ROM2を利用するだけでなく、外部記憶装置9からRAM3内に読み込むことができ、必要に応じて、処理結果をRAM3を介して外部記憶装置9に記録しておくこともできる。例えば、FDDは、記憶媒体であるフレキシブルディスク(FD)をドライブし、HDDは、制御プログラムを含む各種アプリケーションプログラムや各種データ等を記憶するハードディスクをドライブし、CD−ROMドライブは、制御プログラムを含む各種アプリケーションプログラムや各種データ等を記憶するCD−ROMをドライブする。   The external storage device 9 includes a hard disk drive (HDD), a compact disk read only memory (CD-ROM) drive, a flexible disk drive (FDD), a magneto-optical (MO) disk drive, a digital multipurpose disk (DVD) drive, etc. It is possible to store various control programs and various data. Therefore, various programs and data necessary for performance data processing can be read not only from the ROM 2 but also from the external storage device 9 into the RAM 3, and the processing results can be externally stored via the RAM 3 as necessary. It can also be recorded in the device 9. For example, the FDD drives a flexible disk (FD) that is a storage medium, the HDD drives a hard disk that stores various application programs including control programs and various data, and the CD-ROM drive includes a control program. A CD-ROM for storing various application programs and various data is driven.

HDD(9)のハードディスクには、上述のように、CPU1が実行する制御プログラムも記憶でき、ROM2に制御プログラムが記憶されていない場合には、このハードディスクに制御プログラムを記憶させておき、それをRAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。   As described above, the hard disk of the HDD (9) can also store the control program executed by the CPU 1. If the control program is not stored in the ROM 2, the control program is stored in the hard disk. By reading into the RAM 3, the CPU 1 can be caused to perform the same operation as when the control program is stored in the ROM 2. In this way, control programs can be easily added and upgraded.

CD−ROMドライブ(9)のCD−ROMから読み出された制御プログラムや各種データは、HDD(9)内のハードディスクにストアされる。これにより、制御プログラムの新規インストールやバージョンアップ等が容易に行える。なお、このCD−ROMドライブ以外にも、外部記憶装置9として、光磁気ディスク(MO)装置等、様々な形態のメディアを利用するための装置を設けるようにしてもよい。   The control program and various data read from the CD-ROM of the CD-ROM drive (9) are stored in the hard disk in the HDD (9). As a result, a new installation or version upgrade of the control program can be easily performed. In addition to the CD-ROM drive, an apparatus for using various types of media such as a magneto-optical disk (MO) apparatus may be provided as the external storage device 9.

この例では、バス10にMIDIインターフェイス(I/F)16が接続され、システムは他のMIDI機器17と通信することができ、外部からのMIDI(Musical Instrument Digital Interface)信号を入力したり、MIDI信号を外部に出力したりする。さらに、バス10には通信インターフェイス18も接続され、通信ネットワーク19を介してサーバコンピュータ20とデータの送受信を行い、サーバコンピュータ20から制御プログラムや各種データを外部記憶装置9にストアすることもできる。また、通信ネットワーク19には、サーバコンピュータ20の外、他のクライアントコンピュータを接続することができる。   In this example, a MIDI interface (I / F) 16 is connected to the bus 10, the system can communicate with other MIDI devices 17, an external MIDI (Musical Instrument Digital Interface) signal is input, or MIDI Output the signal to the outside. Further, a communication interface 18 is also connected to the bus 10, and data can be transmitted to and received from the server computer 20 via the communication network 19, and control programs and various data can be stored in the external storage device 9 from the server computer 20. In addition to the server computer 20, other client computers can be connected to the communication network 19.

MIDI I/F16は、専用のものに限らず、RS−232CやUSB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェースより構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信してもよい。   The MIDI I / F 16 is not limited to a dedicated one, and may be constituted by a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (I Triple 1394) or the like. In this case, data other than MIDI messages may be transmitted and received simultaneously.

通信I/F18は、上述のように、たとえばLAN(Local Area Network)やインターネット、電話回線等の通信ネットワーク19に接続されており、該通信ネットワーク19を介して、サーバコンピュータ20に接続される。HDD(9)内のハードディスクに上記各プログラムや各種パラメータが記憶されていない場合には、通信I/F18は、サーバコンピュータ20からプログラムやパラメータをダウンロードするために用いられる。クライアントとなるコンピュータ(本実施の形態では、演奏データ作成装置或いはパラメータ自動編集装置)は、通信I/F18および通信ネットワーク19を介してサーバコンピュータ20へとプログラムやパラメータのダウンロードを要求するコマンドを送信する。サーバコンピュータ20は、このコマンドを受け、要求されたプログラムやパラメータを、通信ネットワーク19を介してコンピュータへと配信し、コンピュータが通信I/F18を介して、これらプログラムやパラメータを受信してHDD(9)内のハードディスクに蓄積することにより、ダウンロードが完了する。   As described above, the communication I / F 18 is connected to a communication network 19 such as a LAN (Local Area Network), the Internet, or a telephone line, and is connected to the server computer 20 via the communication network 19. When the above programs and various parameters are not stored in the hard disk in the HDD (9), the communication I / F 18 is used to download the programs and parameters from the server computer 20. A computer serving as a client (a performance data creation device or parameter automatic editing device in this embodiment) transmits a command for requesting a program or parameter download to the server computer 20 via the communication I / F 18 and the communication network 19. To do. Upon receiving this command, the server computer 20 distributes the requested program and parameters to the computer via the communication network 19. The computer receives these programs and parameters via the communication I / F 18 and receives the HDD ( 9) The download is completed by accumulating in the internal hard disk.

この他、外部コンピュータ等との間で直接データのやりとりを行うためのインターフェースを備えてもよい。   In addition, an interface for directly exchanging data with an external computer or the like may be provided.

なお、本実施の形態の演奏データ作成装置或いはパラメータ自動編集装置は、上述の構成から分かるように、汎用的なパーソナルコンピュータ上に構築されたものであるが、これに限らず、この発明を実施できる最小限要素のみから構成した専用装置上に構築してもよい。   The performance data creation device or parameter automatic editing device of the present embodiment is constructed on a general-purpose personal computer as can be seen from the above-described configuration, but is not limited to this, and the present invention is implemented. You may construct | assemble on the exclusive apparatus comprised only from the minimum possible element.

この発明による演奏データ処理(パラメータ自動編集)システムは、電子楽器の形態で実施することができるが、パーソナルコンピュータ(PC)に楽音処理のアプリケーションプログラムを組み込んだ形態で実施することもできる。また、音源回路7は、ハードウエアで構成する必要はなく、ソフトウエア音源で構成することもでき(本実施の形態では、音源回路7は、その名称の通り、すべてハードウェアで構成したが、これに限らず、一部ソフトウェアで構成し、残りの部分をハードウェアで構成してもよいし、また、すべてソフトウェアで構成するようにしてもよい。)、さらに、音源機能を含む楽音出力部の機能を他のMIDI機器17に委ねることもできる。   The performance data processing (parameter automatic editing) system according to the present invention can be implemented in the form of an electronic musical instrument, but can also be implemented in a form in which a musical sound processing application program is incorporated into a personal computer (PC). Further, the tone generator circuit 7 does not need to be configured by hardware, and can be configured by a software tone generator (in this embodiment, the tone generator circuit 7 is all configured by hardware as the name indicates, However, the present invention is not limited to this, and part of the software may be configured, and the remaining part may be configured of hardware, or all may be configured of software. This function can be entrusted to another MIDI device 17.

〔実施形態1〕
まず、具体的な演奏パラメータとして、主として、テンポ変化やゲートタイム、発音開始タイミング等のタイミングシフトなどの時間的楽音制御情報(具体例中には,音程パラメータや音量パラメータ等、他の演奏パラメータを含むものもある。)を用いて表情付けを行う「実施形態1」について説明する。
Embodiment 1
First, as specific performance parameters, temporal musical tone control information such as timing shift such as tempo change, gate time, sounding start timing, etc. (in the specific example, other performance parameters such as pitch parameter and volume parameter are included. "Embodiment 1" will be described in which a facial expression is added using some of them.

〔システム機能の概要〕
図2は、この発明の演奏データ処理(パラメータ自動編集)システムによる機能の概要を示す。システムの機能は、元演奏データODを取込む元演奏データ取込みブロックAB、ブロックABから供給される元演奏データODに主としてテンポ変換を用いて時間に関連する表情付けを行う表情付けブロックEB、表情付けブロックEBに対して供給される各種表情に対応した表情付けのルールや手法を記憶した表情付けモジュールEM、及び、表情付けされた表情付け後演奏データEDを音源部等に送り出す表情付け後演奏データ送出ブロックSBから成る。ここで、表情付けモジュールEMは、様々な音楽表現における主としてテンポ変化の特徴をルール化したものであり、このルールに従い、元演奏データODに対して、テンポ変化やゲートタイム、発音開始タイミング等のタイミングシフトを主とする時間的な表情付けを行い、元演奏データODを音楽的な表情付け後演奏データEDに変換するものである。この表情付けモジュールEMには、種々の表情付けモジュールEM1,EM2,…,EMnが予め用意されており、その中から任意の1乃至複数の表情付けモジュールがユーザにより選択され、表情付けブロックEBへと供給される。
[Overview of system functions]
FIG. 2 shows an outline of functions by the performance data processing (parameter automatic editing) system of the present invention. The system functions include an original performance data fetch block AB for fetching the original performance data OD, an expression block EB for performing a time-related expression on the original performance data OD supplied from the block AB, mainly using tempo conversion, A facial expression module EM that stores facial expression rules and methods corresponding to various facial expressions supplied to the visual attachment block EB, and a post-expression performance that sends the post-expression facial performance data ED to the sound source unit, etc. It consists of a data transmission block SB. Here, the facial expression module EM is a rule mainly for characteristics of tempo changes in various music expressions, and in accordance with these rules, tempo changes, gate times, pronunciation start timings, etc. are applied to the original performance data OD. The timing expression is mainly used for temporal expression, and the original performance data OD is converted into musical data ED after musical expression. In this expression module EM, various expression modules EM1, EM2,..., EMn are prepared in advance, and any one or a plurality of expression modules are selected by the user, and the expression module EB is displayed. Supplied with.

表情付けモジュールEMの機能は、図1の演奏データ処理(パラメータ自動編集)システムにおいて、ROM2の各種テンポ・タイミング変換処理プログラムを作動させることにより、或いは、外部記憶装置9から所望のテンポ・タイミング変換処理プログラムをロードすることにより、実現することができる。このように外部記憶装置9から表情付けモジュールを供給可能としたので、図1の演奏データ処理(パラメータ自動編集)システムに対して、多数の表情付けモジュールのうちのユーザが所望する表情付けモジュールのみをインストールしたり、メーカー等から新たに供給された表情付けモジュールを新規インストールしたりすることができる。また、元演奏データODは、システム機能の元演奏データ取込みブロックABにより、鍵盤形操作子装置12、外部記憶装置9、他のシーケンサや演奏機器等のMIDI機器17等から任意に入力することができ、表情付け後演奏データEDは、表情付け後演奏データ送出ブロックSBにより、楽音出力部、外部記憶装置9、他のMIDI機器等に任意に出力することができる。なお、演奏データは、典型的にはMIDIデータである。   In the performance data processing (parameter automatic editing) system shown in FIG. 1, the function of the expression module EM is performed by operating various tempo / timing conversion processing programs in the ROM 2 or from the external storage device 9 to a desired tempo / timing conversion. This can be realized by loading a processing program. Since the expression module can be supplied from the external storage device 9 in this way, only the expression module desired by the user from among the many expression modules is provided for the performance data processing (parameter automatic editing) system of FIG. Can be installed, or a new facial expression module supplied from a manufacturer or the like can be installed. The original performance data OD can be arbitrarily input from the keyboard-type controller device 12, the external storage device 9, the MIDI device 17 such as another sequencer or performance device, etc., by the system function original performance data fetch block AB. The post-expression performance data ED can be optionally output to the musical tone output unit, the external storage device 9, other MIDI devices, etc. by the post-expression performance data transmission block SB. The performance data is typically MIDI data.

つまり、この発明による表情付けモジュールEMは、楽音の時間的制御の因子となる演奏データの特徴を予めルールとして用意している。表情付けブロックEBに元演奏データODが入力されると、元演奏データODから取り出された特徴情報に基づき、ルールに従い時間的制御情報(テンポやタイミング)が設定される。この楽音制御情報は元演奏データODに付加され、表情が付加された演奏データEDとして出力される。時間的楽音制御量は、制御パラメータにより調整可
能で、楽音に対して最適の時間的表情付けを行うことができる。さらに、学習機
能やライブラリ化により表情付与の範囲を拡大したり、楽音制御情報は、演奏データ全体で対比して修正し、演奏データを見通した設定が可能である。
In other words, the expression module EM according to the present invention prepares the characteristics of performance data as a rule in advance as a factor for temporal control of musical sounds. When the original performance data OD is input to the expression block EB, temporal control information (tempo and timing) is set according to the rule based on the feature information extracted from the original performance data OD. This musical tone control information is added to the original performance data OD and output as performance data ED with a facial expression added. The temporal musical sound control amount can be adjusted by a control parameter, and an optimal temporal expression can be applied to the musical sound. Furthermore, the range of facial expression addition can be expanded by learning functions and library creation, and the musical tone control information can be corrected in comparison with the entire performance data, so that the performance data can be set as a prospect.

表情付けモジュールEMは、また、楽音の音量や音程等の他の演奏上の制御因子となる演奏データの特徴を予めルールとして用意しておくことができる。従って、表情付けブロックEBに元演奏データODが入力されると、元演奏データODから取り出された特徴情報に基づき、ルールに従って、音量や音程等に変化を与える演奏制御情報(楽音制御情報、演奏パラメータ)を設定する。そして、これらの演奏制御情報は元演奏データODに付加され、表情が付加された演奏データEDとして出力することができる。また、これらの演奏制御情報に基づく楽音制御量も、制御パラメータにより調整可能で、楽音に対して最適の表情付けを行うことができる。さらに、学習機能やライブラリ化により表情付与の範囲を拡大したり、これらの演奏制御情報も、演奏データ全体で対比して修正し、演奏データを見通した設定が可能である。   The facial expression module EM can also prepare in advance the characteristics of performance data that serve as other performance control factors such as the volume and pitch of the musical tone as rules. Accordingly, when the original performance data OD is input to the expression block EB, performance control information (musical control information, performance, etc.) that changes the volume or pitch according to the rules based on the feature information extracted from the original performance data OD. Parameter). The performance control information is added to the original performance data OD and can be output as performance data ED with a facial expression added. Further, the musical tone control amount based on the performance control information can also be adjusted by the control parameter, and an optimal expression can be applied to the musical tone. Furthermore, it is possible to expand the range of facial expression by using a learning function or a library, or to correct the performance control information in comparison with the entire performance data, and to set the performance data in view.

〔表情付けモジュールの種々の例〕
以下、この発明の一実施例による種々の表情付けモジュールEM(EM1,EM2,…,EMn)により実行される種々のテンポ変化等のルールや手法を個々の実施例(1)〜(31)について説明する。これらの実施例では、モジュールEMにより元のMIDI演奏データODを表情付け後MIDI演奏データEDに変換するものとして説明されるが、この発明は、MIDI等のデータ形式には関係なく適用することができる。なお、演奏データに対してテンポ変化を付与する方法としては、テンポチェンジイベントを挿入する方法と、音符の時刻をずらす方法とがある。以下の説明では、主として、テンポチェンジイベントを挿入する方法を用いているが、音符の時刻をずらす方法に置き換えてもよい。また、逆に、音符の時刻をずらす方法のものをテンポチェンジイベントを挿入する方法に置き換えてもよい。
[Various examples of facial expression modules]
Hereinafter, various rules and methods such as various tempo changes executed by various expression modules EM (EM1, EM2,..., EMn) according to an embodiment of the present invention will be described for each of the embodiments (1) to (31). explain. In these embodiments, the module EM is described as converting the original MIDI performance data OD to the MIDI performance data ED after expression, but the present invention can be applied regardless of the data format such as MIDI. it can. Note that there are a method of adding a tempo change to performance data, a method of inserting a tempo change event, and a method of shifting a note time. In the following description, a method of inserting a tempo change event is mainly used, but it may be replaced with a method of shifting the time of a note. Conversely, the method of shifting the time of a note may be replaced with a method of inserting a tempo change event.

(1)「音数が増えるとテンポが速くなる」:
一般に、参照音数が多くなるに従い、演奏が難しくなり、テンポが遅くなると思われ勝ちである。しかしながら、実際の演奏では、このような心理状態からテンポを保とうとする意識が強く表われ、逆に、速くなってしまうという側面がある。また、音数が多い方が、より活発な演奏局面である場合が多いという傾向がみられる。したがって、参照音数の増大に従い、必然的にテンポを速くして演奏することが、人間的でありまた自然でもある。そこで、このテンポ変化ルールでは、このような表情を再現するために、音符の密度に応じて、例えば、演奏データを小節単位で評価し、1拍当りの音符の数に応じて、テンポを変化させるという手法が採用される。
(1) “The tempo increases as the number of sounds increases”:
In general, as the number of reference sounds increases, the performance becomes difficult and the tempo is likely to become slower, so it is easier. However, in actual performance, there is an aspect that the consciousness of maintaining the tempo is strongly expressed from such a psychological state, and conversely, it becomes faster. In addition, there is a tendency that the number of sounds is often a more active performance phase. Therefore, it is both human and natural to play with an increased tempo as the number of reference sounds increases. Therefore, in this tempo change rule, in order to reproduce such an expression, for example, performance data is evaluated in measure units according to the density of notes, and the tempo is changed according to the number of notes per beat. The technique of letting it be adopted is adopted.

例えば、図3に示した譜例において、1小節目では1拍当りの音符数は1つであるが、2小節目では1拍あたりの音符数が2つになっている。それで、この数値〔(1小節中の音符数)/(1小節の拍数)〕を音符密度とし、この音符密度に応じてテンポを変化させる。1小節目は、音符密度が「1」なので、そのままのテンポで4分音符“132”となる。一方、2小節目は、音符密度が「2」となるので、この音符密度からテーブルを通してテンポの値を設定する。このようなテーブルには、例えば、図4に示されるような「音符密度−テンポ係数(倍率)」テーブルを用いることができる。従って、図3の譜例の2小節目については、音符密度「2」に対して、図4のテーブルから、例えばテンポ係数K=1.02(2%増速)という結果を得ることができる。そして、このテンポ係数Kを元演奏データのテンポ値に乗じて所望のテンポ値を決定する。   For example, in the musical score example shown in FIG. 3, the number of notes per beat is one at the first measure, but the number of notes per beat is two at the second measure. Therefore, this numerical value [(number of notes in one bar) / (number of beats in one bar)] is used as a note density, and the tempo is changed according to the note density. In the first measure, the note density is “1”, so the quarter note “132” is obtained at the same tempo. On the other hand, since the note density is “2” in the second measure, the tempo value is set from this note density through a table. As such a table, for example, a “note density-tempo coefficient (magnification)” table as shown in FIG. 4 can be used. Therefore, for the second measure of the musical score example of FIG. 3, for the note density “2”, for example, a result of tempo coefficient K = 1.02 (2% speed increase) can be obtained from the table of FIG. . Then, the tempo coefficient K is multiplied by the tempo value of the original performance data to determine a desired tempo value.

図5は、表情付けモジュールEMによる、音符の密度に応じてテンポを速める音符密度応答処理の一例を示すフローチャートである。この処理フローの最初のステップA1では、元のMIDIデータODからテンポ決定を行うための対象パートを複数の演奏パートの中から選択し、次のステップA2で、テンポについて強弱の値αを設定(ステップA1から最初にステップA2に進んだ当初は、値αの初期値として例えば「1」を設定)してステップA3に進む。   FIG. 5 is a flowchart showing an example of a note density response process for accelerating the tempo according to the note density by the expression module EM. In the first step A1 of this processing flow, a target part for performing tempo determination is selected from a plurality of performance parts from the original MIDI data OD, and in the next step A2, a strength value α is set for the tempo ( At first, when the process first proceeds from step A1 to step A2, for example, “1” is set as the initial value of the value α), and the process proceeds to step A3.

次のステップA3において、選択したパートを指定区間(例えば、1小節毎の区間)に分割し、次のステップA4で各指定区間のテンポ係数Kを求めることにより、各指定区間での音符密度を評価する。ステップA3〜A4での音符数の評価は、指定区間を例えば1小節毎の区間として、小節単位で行う他、拍単位で行っても良いし、テンポの基準となる時間(Tick=最小時間分解能、クロック、ステップタイムともいう)で行っても良い。また、各指定区間のテンポ係数Kは、例えば、上述した図4の「音符密度−テンポ係数」テーブルから求めることができる。   In the next step A3, the selected part is divided into designated sections (for example, sections for each measure), and in the next step A4, the tempo coefficient K of each designated section is obtained, thereby obtaining the note density in each designated section. evaluate. The evaluation of the number of notes in steps A3 to A4 may be performed in units of measures, for example, in units of measures, with the designated section being a section of one measure, and may be performed in units of beats, or a time serving as a tempo reference (Tick = minimum time resolution) , Clock or step time). Further, the tempo coefficient K of each designated section can be obtained from, for example, the “note density-tempo coefficient” table of FIG. 4 described above.

なお、ステップA4でテンポ係数Kを求める場合、区間音符数が「0」のときは、図4に○→●で表わすように、例外的にテンポ係数Kを「1」とする。一般に、MIDIデータにおいては休符は音符として扱わないので、このままでは、休符ばかりで構成される小節はテンポが遅くなるという結果になってしまう。そのため、評価する区間内に音符がない(休符である)ときには、テンポ係数Kは「1」と評価する例外的処理を行う必要がある。   When obtaining the tempo coefficient K in step A4, when the number of interval notes is “0”, the tempo coefficient K is exceptionally set to “1” as indicated by ◯ → ● in FIG. In general, rests are not treated as musical notes in MIDI data, and as a result, a measure composed only of rests results in a slow tempo. For this reason, when there are no notes (rests) in the section to be evaluated, it is necessary to perform an exceptional process in which the tempo coefficient K is evaluated as “1”.

ステップA4からステップA5に進むと、求められた各指定区間のテンポ係数K、強弱の値α及び現在設定されているテンポの値(例えば、図3の譜例では“132”)に基づいてテンポチェンジ量(例えば、“132”×α×K)を算出し、このテンポチェンジを各指定区間のMIDIデータに付与する。次のステップA6では、テンポチェンジを付与したMIDIデータを一曲全部又は必要部分だけ再生し、例えば、楽音出力部を介して放音させてこのMIDIデータによる演奏を試聴する。この後、ステップA7に進み、MIDIデータ再生の結果、テンポチェンジを付与したMIDIデータが良好であると判断した場合は、この音符密度応答処理を終了する。一方、再生MIDIデータにテンポ設定上の不具合があると判断した場合は、ステップA2に戻って強弱値αを設定し直した上、ステップA3〜A7の処理を繰り返す。   Proceeding from step A4 to step A5, the tempo is based on the tempo coefficient K, strength value α, and currently set tempo value (for example, “132” in the example of FIG. 3) for each specified section. A change amount (for example, “132” × α × K) is calculated, and this tempo change is added to the MIDI data of each designated section. In the next step A6, the entire MIDI data to which the tempo change has been applied or only a necessary part is reproduced, and for example, the musical performance is output via the musical sound output unit and the performance based on the MIDI data is auditioned. Thereafter, the process proceeds to step A7, and if it is determined that the MIDI data to which the tempo change is given is good as a result of the MIDI data reproduction, the note density response process is terminated. On the other hand, if it is determined that the playback MIDI data has a defect in tempo setting, the process returns to step A2, the strength value α is reset, and the processing of steps A3 to A7 is repeated.

なお、良否判定ステップA7〜強弱値設定ステップA2は、所定の判断基準により再生MIDIデータを自動判定し、良好な結果を得る方向に所定値だけ強弱値αを自動的に増減する等の方法により、自動化することもできる。また、強弱値αは、区間毎に異なる値を設定することができるようにしてもよい。さらに、強弱値αを各区間に共通的に設定する方法と区間毎に個別に設定する方法を共用してもよい。例えば、強弱値α=1に初期設定した状態で全曲を通してこのテンポ変化ルールを適用してみて、表情を付けたMIDIデータを再生したとき(ステップA6)、これがNGでステップA2に戻ったときに、表情が過剰な各区間については各過剰度に応じて強弱値αを「1」未満に再設定し、逆に、不足の各区間には各不足度に応じて「1」を超える値に設定し直すという具合に編集を行うことができる。これらの態様は、実施例(2)以下のテンポ変化/タイミングシフト等に関する諸ルールを適用して演奏パラメータ値付与を実施する場合にも、同様に実施可能である。   In the pass / fail judgment step A7 to the strength / weakness setting step A2, reproduction MIDI data is automatically judged according to a predetermined judgment criterion, and the strength value α is automatically increased / decreased by a predetermined value in a direction to obtain a good result. It can also be automated. The strength value α may be set to a different value for each section. Further, a method for setting the strength value α in common to each section and a method for setting the strength value α individually for each section may be shared. For example, when this tempo change rule is applied through all songs with the strength value α = 1 initially set, and MIDI data with a facial expression is reproduced (step A6), when this returns NG to step A2. For each section with excessive expression, the strength value α is reset to less than “1” according to each excess degree, and conversely, for each insufficient section, the value exceeds “1” according to each lack degree. Editing can be done such as re-setting. These aspects can also be implemented in the same manner when the performance parameter value assignment is performed by applying the rules regarding the tempo change / timing shift and the like in the embodiment (2).

この場合、元の演奏データ(MIDIデータ)ODをディスプレイ14上に表示させ、表示された演奏データOD上に、付与したパラメータ値(テンポチェンジ量等)やその位置を重ねて表示させることにより、ユーザにパラメータ値設定の結果を確認させることができる。また、この確認時には、パラメータ変化付与処理を施したくない位置をユーザが指定できるようにしてもよい。   In this case, the original performance data (MIDI data) OD is displayed on the display 14, and the assigned parameter value (tempo change amount, etc.) and its position are displayed on the displayed performance data OD in an overlapping manner. The user can check the parameter value setting result. Further, at the time of confirmation, the user may be allowed to specify a position where the parameter change giving process is not desired.

複数の演奏パート(リズム/伴奏、メロディ等)がある場合、一般にはテンポは共通とするので、上述した図5の音符密度応答処理では、テンポを決めるための特定パートをステップA1で選択的に設定しているが、次に説明するように、複数のパートの情報を総合した評価でテンポを決定する方法も採用することができる。なお、テンポイベントを変更するのではなく、音符の時刻をずらすことによって、テンポの変更を再現することにより、複数のパート間で独立なテンポ設定を行うことも可能である。   When there are a plurality of performance parts (rhythm / accompaniment, melody, etc.), the tempo is generally common. Therefore, in the above-described note density response process of FIG. 5, a specific part for determining the tempo is selectively selected in step A1. Although it is set, as will be described next, a method of determining the tempo by evaluating the information of a plurality of parts as a whole can also be adopted. Instead of changing the tempo event, the tempo change is reproduced by shifting the time of the note, so that independent tempo setting can be performed among a plurality of parts.

図6は、表情付けモジュールEMによる、音符の密度に応じてテンポを速める音符密度応答処理の他の例を示すフローチャートであり、この処理は、パートを選択指定せずに全パートの情報を総合した評価でテンポを決定する場合に適用される。この処理フローでは、最初のステップB1でテンポについて強弱の値αを設定してステップB2に進む。ステップB2では、各パートの指定区間(例えば、1小節毎の区間)に分割し、次のステップB3で全パートの各指定区間の平均の音符密度を算出し、ステップB4において、算出した音符密度から各指定区間のテンポ係数Kを求め、各指定区間での音符密度を評価する。なお、ステップB2〜B4での音符数評価は、既述したのと同様に、小節単位で行う他、拍単位で行っても良いし、テンポの基準となる時間(Tick)で行っても良いこと、音符無しの指定区間でテンポ係数Kを「1」とすることは、もちろんである。   FIG. 6 is a flowchart showing another example of a note density response process for accelerating the tempo in accordance with the note density by the expression module EM. Applied when the tempo is determined by the evaluation. In this processing flow, a strong value α is set for the tempo in the first step B1, and the process proceeds to step B2. In step B2, each part is divided into designated sections (for example, sections for each bar). In the next step B3, the average note density of each designated section of all parts is calculated. In step B4, the calculated note density is calculated. The tempo coefficient K of each designated section is obtained from the above, and the note density in each designated section is evaluated. Note that the evaluation of the number of notes in steps B2 to B4 may be performed in units of measures, in units of beats, or may be performed in time (Tick) as a tempo reference, as described above. Of course, the tempo coefficient K is set to “1” in the designated section without notes.

ステップB4からステップB5に進んだ後は、前述したステップA5,A6と同様に、ステップB5において、求められたテンポ係数K、強弱の値α及び現在テンポ値に応じたテンポチェンジを各指定区間のMIDIデータに付与し、次のステップB6でこのMIDIデータを再生する。この後、ステップB7にて再生MIDIデータが良好であるとされれば、この音符密度応答処理を終了し、不具合があれば、ステップB1に戻りステップB1〜B7の処理を繰り返す。   After proceeding from step B4 to step B5, as in steps A5 and A6 described above, in step B5, the tempo change corresponding to the tempo coefficient K, the strength value α and the current tempo value obtained in step B5 is set for each designated section. This is added to the MIDI data, and the MIDI data is reproduced in the next step B6. Thereafter, if the reproduced MIDI data is good in step B7, the note density response process is terminated. If there is a defect, the process returns to step B1 and the processes of steps B1 to B7 are repeated.

(2)「曲を通して、徐々に、じわじわテンポが速くなる」:
ライブ演奏などでは、興奮度が高まることによってどんどんテンポが速くなっていくということは、よく起る現象である。このテンポ変化ルールでは、1曲の演奏が進行して行くと興奮度が高まることに着目し、この現象を逆に曲制作に利用する。つまり、曲の進行につれてだんだんとテンポを速くすることによって、興奮度の高い所謂「走る」感覚の表情を出すようにする。この場合、例えば1小節毎に、予め定められた倍率をもって、テンポを速くしていくようにするのが良い。
(2) “Slowly, the tempo gradually increases throughout the song”:
In live performances, it is a common phenomenon that the tempo increases as the degree of excitement increases. In this tempo change rule, attention is paid to the fact that the degree of excitement increases as the performance of one song progresses, and this phenomenon is used for song production. In other words, by gradually increasing the tempo as the song progresses, a so-called “run” -like expression with a high degree of excitement is produced. In this case, for example, it is preferable to increase the tempo at a predetermined magnification for each measure.

図7は、この発明の一実施例の表情付けモジュールEMによる、曲進行に従いテンポを速める処理のフローチャートである。この処理フローでは、最初のステップC1でテンポについて強弱の値αを設定し、次のステップC2で、元のMIDIデータODを指定区間(例えば、1小節毎の区間)に分割し、ステップC3に進み曲の進行を評価する。ステップC3においては、例えば、図8に示すようなテーブルを用いて、各指定区間のテンポ係数(倍率)Kを求める。このテーブルは、1曲の開始から終了までの間を例えば、小節毎の指定区間に区切り、曲の進行に従い徐々に増大するテンポ係数Kの値を小節毎に予め定めたものである。従って、このようなテーブルを利用することにより、曲の進行に応じて、対応する小節のテンポ係数Kの値を順次取り出すことができる。   FIG. 7 is a flowchart of a process for accelerating the tempo according to the progress of music by the expression module EM according to the embodiment of the present invention. In this processing flow, a strong value α is set for the tempo in the first step C1, and in the next step C2, the original MIDI data OD is divided into designated sections (for example, sections for each measure), and the process goes to step C3. Evaluate the progress of the advance song. In step C3, for example, a tempo coefficient (magnification) K for each designated section is obtained using a table as shown in FIG. In this table, the period from the start to the end of one song is divided into, for example, designated sections for each measure, and the value of the tempo coefficient K that gradually increases as the song progresses is determined in advance for each measure. Therefore, by using such a table, the value of the tempo coefficient K of the corresponding measure can be sequentially extracted as the music progresses.

次のステップC4では、求められたテンポ係数K、強弱の値α及び現在テンポ値に応じたテンポチェンジを各指定区間のMIDIデータに付与し、次のステップC5でこのMIDIデータを再生する。この後、ステップC6にて再生MIDIデータが良好であるとされれば、この進行状態応答処理を終了し、不具合があれば、ステップC1に戻りステップC1〜C6の処理を繰り返す。   In the next step C4, the tempo change corresponding to the obtained tempo coefficient K, the strength value α and the current tempo value is given to the MIDI data of each designated section, and in the next step C5, the MIDI data is reproduced. Thereafter, if it is determined in step C6 that the reproduced MIDI data is good, the progress state response process is terminated. If there is a defect, the process returns to step C1 and the processes of steps C1 to C6 are repeated.

なお、ステップC3で利用するテーブルの要件としては、テンポをむやみに速くすることはかえって自然な表情を損なうことになるので、図8に示すように、テンポがある程度の速さに近づくと、テンポ係数Kを或る値(例えば、K=1.2)以上には高くすることができなくなるように、飽和して行き上に凸な曲線になっている特性であることが好ましい。もちろん、テンポ変化は小節単に行う必要はなく、拍単位でもよいし、テンポを決めるための単位時間(Tick)でも良い。   As a requirement of the table used in step C3, if the tempo is increased unnecessarily, the natural expression is impaired. Therefore, as shown in FIG. Preferably, the coefficient K is saturated and has an upwardly convex curve so that the coefficient K cannot be increased beyond a certain value (for example, K = 1.2). Of course, it is not necessary to change the tempo simply in bars, and it may be in beat units or in unit time (Tick) for determining the tempo.

また、上述の処理フローにおいて、1曲中の各指定区間毎に決められたテンポ係数Kを用いる際、ステップC1で設定する強弱値αとして「興奮度」と名付けた可調整パラメータを用いて、小節毎に速くなるテンポ係数Kを調整可能にすると、テンポ決定手順の操作性を向上することができるようになる。この興奮度パラメータは、計算上は、図8のようなテーブルの縦軸(テンポ係数K)を何倍にするかを表わす数値とするが、設定上は、ディスプレイ14の興奮度設定画面等に、興奮度が「強い」、「中程度」、「弱い」、「変化なし」というような言葉を選択可能に表示しておき、実際の処理において、選択された言葉に対応する数値を用いてテンポチェンジを行うようにする。これにより、ユーザには、言葉で設定を行うというインターフェースを提供するので、ユーザーフレンドリーになる。   Further, in the above processing flow, when using the tempo coefficient K determined for each designated section in one song, using an adjustable parameter named “excitability” as the strength value α set in step C1, If the tempo coefficient K, which becomes faster for each measure, can be adjusted, the operability of the tempo determination procedure can be improved. This excitement level parameter is a numerical value representing how many times the vertical axis (tempo coefficient K) of the table as shown in FIG. 8 is to be calculated. , Words such as “strong”, “medium”, “weak”, “no change” of excitement are displayed in a selectable manner, and in the actual processing, using the numerical value corresponding to the selected word Make tempo changes. As a result, the user is provided with an interface for performing setting by words, so that the user becomes friendly.

(3)「音符が細かいときはテンポを遅くする」:
このテンポ変化ルールは、(1)のテンポ変化ルールと矛盾するようであるが、音符が細かいときは人は弾けないので、このような表情を与えたい場合には有効である。このためには、単純には、(1)のテンポ変化ルールで用いる図4の「音符密度−テンポ係数」テーブルとは逆に、テンポ係数Kが音符密度の増大に応じて減少するテーブルを用い、図5や図6の処理フローと同様の手法で、処理することができる。例えば、図2の2小節めのように、音数が多いときは、音符数/拍=2をこのテーブルに通すと、例えば、「0.98」(2%遅くする)というような結果になるようにすればよい。
(3) “When the notes are fine, slow down the tempo”:
This tempo change rule seems to contradict the tempo change rule of (1), but when a note is fine, a person cannot play it, so it is effective for giving such an expression. For this purpose, simply use a table in which the tempo coefficient K decreases as the note density increases, contrary to the “note density-tempo coefficient” table of FIG. 4 used in the tempo change rule of (1). The processing can be performed by the same method as the processing flow of FIGS. For example, when the number of notes is large as shown in the second measure of FIG. 2, if the number of notes / beat = 2 is passed through this table, for example, the result is “0.98” (2% slower). What should I do.

難しくて弾けないことをシミュレートして、実在感を増すようにしたいという場合等には、図9に示すように、低いテンポの間は、連続する2音間の「音符時間間隔」に対して、テンポTを比例させるが、ある一定テンポTs以上からは、テンポTを遅めに変化させるようなテーブルを用いるのが良い。このテンポ閾値Tsを可調整パラメータとすることによって、下手さのシミュレートを調整することができる。   If you want to simulate the difficulty of playing and increase your sense of reality, as shown in FIG. 9, during a low tempo, the “note time interval” between two consecutive notes Thus, it is preferable to use a table that changes the tempo T later than a certain tempo Ts. By using this tempo threshold value Ts as an adjustable parameter, the poor simulation can be adjusted.

(4)「ロングトーンのトリル/ビブラートは、最初はゆっくりとする」:
異なる音高を微少周期で交互に繰り返し演奏するトリルや、音を微妙に震わせるビブラートは、例えば、1秒以上(テンポ値が“120”での2分音符など)のロングトーンに対しては、最初はゆっくりさせるのが好ましい。そこで、このテンポ変化ルールは、ロングトーンのトリル/ビブラートについて最初はゆっくりとしたテンポを設定するものである。トリルやビブラートは、一般には、ノートイベント(note event)やピッチベンドイベント(pitch bend event)で表現されるが、時間的に均等間隔で生成されるノートイベントやピッチベンドイベントに対して、テンポイベント(tempo event)を変化させることによって、トリルやビブラートの速さを調整することができる。この場合、曲自体のテンポはそのままで、トリルやビブラートのテンポを変化させる。
(4) “Long-tone trill / vibrato is slow at first”:
A trill that repeatedly plays different pitches in a minute cycle, or a vibrato that slightly shakes the sound, for example, for a long tone of 1 second or longer (such as a half note with a tempo value of “120”) It is preferable to slow down at first. Therefore, this tempo change rule is to set a slow tempo at first for the long-tone trill / vibrato. Trills and vibratos are generally expressed as note events and pitch bend events, but tempo events (tempo events) are generated for note events and pitch bend events generated at equal intervals in time. By changing the event, the speed of the trill or vibrato can be adjusted. In this case, the tempo of the song itself and the tempo of the trill or vibrato are changed.

図10は、この発明の一実施例の表情付けモジュールEMによるロングトーンのトリル/ビブラートに対する処理の例を示すフローチャートである。この処理フローでは、最初のステップD1でテンポについて強弱の値αを設定した後、ステップD2において、元のMIDIデータOD中からトリル且つロングトーンの部分或いはビブラート且つロングトーンの部分を検出する。ステップD2でロングトーンに対してトリル又はビブラートがかかっている部分を検出すると、ステップD3に進んで、例えば、予め用意された図11のようなテンポ変化曲線を用いてトリル又はビブラートの時間経過に応じたテンポ係数Kを求める。   FIG. 10 is a flowchart showing an example of processing for a long tone trill / vibrato by the expression module EM of one embodiment of the present invention. In this processing flow, after setting a strong and weak value α for the tempo in the first step D1, in step D2, a trill and long tone portion or a vibrato and long tone portion is detected from the original MIDI data OD. When the portion where the tril or vibrato is applied to the long tone is detected in step D2, the process proceeds to step D3. For example, the tempo change curve as shown in FIG. A corresponding tempo coefficient K is obtained.

次のステップD4では、求められたテンポ係数K、強弱の値α及び現在テンポ値に応じてトリル音符列(トリル音符列をピッチベンド列で表現することもできる)又はビブラートのピッチベンド列を生成し、続くステップD5において、生成したトリル音符列又はビブラートピッチベンド列を元のMIDIデータODに付与し、次のステップD6でこのMIDIデータを再生する。この後、ステップD7にて再生MIDIデータが良好であるとされれば、この長音トリル/ビブラート処理を終了し、不具合があれば、ステップD1に戻りステップD1〜D7の処理を繰り返す。   In the next step D4, a trill note string (the toll note string can also be expressed as a pitch bend string) or a vibrato pitch bend string is generated according to the obtained tempo coefficient K, the strength value α and the current tempo value, In the subsequent step D5, the generated trill note string or vibrato pitch bend string is added to the original MIDI data OD, and in the next step D6, the MIDI data is reproduced. Thereafter, if it is determined in step D7 that the reproduced MIDI data is good, the long sound trill / vibrato process is terminated. If there is a defect, the process returns to step D1 and the processes of steps D1 to D7 are repeated.

ステップD3で用意されるテンポ変化曲線は、図11に示されるようなものである。この曲線では、時間toにテンポ変化処理が開始され、テンポ係数Kは、当初値(Ko=1)から減少し時間taでテンポ変化が最も落ち込んで値Kdとなり、その後は徐々に増大して時間tbでテンポ変化の目標に到達し目標値Ktとなる。ここで、当初値Koから目標値Ktへの変化量ΔKtは、テンポ変化の全体時間to〜tbにおけるテンポ変化の幅ΔKの10〜20%とするのがよく、増大時間ta〜tbは減少時間to〜taの倍以上あることが好ましい。   The tempo change curve prepared in step D3 is as shown in FIG. In this curve, the tempo change process is started at time to, the tempo coefficient K decreases from the initial value (Ko = 1), the tempo change decreases most at time ta to become the value Kd, and then gradually increases to increase the time. At tb, the target of tempo change is reached and the target value Kt is reached. Here, the change amount ΔKt from the initial value Ko to the target value Kt is preferably set to 10 to 20% of the tempo change width ΔK in the entire tempo change time to to tb, and the increase time ta to tb is the decrease time. It is preferably at least twice as large as to-ta.

図11のようなテンポ変化曲線に対しては、単にテンポ係数Kの倍率(強弱値α)だけでなく、時間(横軸)や他の変化量(縦軸)を変更することができる可調整パラメータを用意し、適切なテンポ変化を選択することができるようにするのが良い。この場合、例えば、全体時間to〜tb、減少時間to〜ta、テンポ変化幅ΔK、目標変化量ΔKt等のパラメータを、「強い」、「弱い」、「速い」、「遅い」等の言葉で設定可能とすると好都合である。   For the tempo change curve as shown in FIG. 11, not only the magnification (strong value α) of the tempo coefficient K but also the time (horizontal axis) and other change amounts (vertical axis) can be adjusted. It is better to prepare parameters so that appropriate tempo changes can be selected. In this case, for example, parameters such as the total time to to tb, the decrease time to to ta, the tempo change width ΔK, and the target change amount ΔKt are expressed in terms of “strong”, “weak”, “fast”, “slow”, etc. It is convenient if it can be set.

(5)「フレーズの経過部ではゆっくりめにする」:
このテンポ変化ルールでは、元のMIDIデータODについて、フレーズの区間を解釈し、或いは、ユーザがフレーズの区切りを指定し、そのフレーズ区間の終わりの部分では、当該フレーズが終了し間もなく次フレーズが開始することを表わすために、テンポを遅くするという表情付けを設定によって自動的に行う。図12は、この場合のテンポの変化例を示し、各フレーズ1,2,…は、例えば、8小節程度の区間から成る。具体的には、例えば、遅くする部分は、最後の2拍程度とし、遅くするテンポ変化量は95%程度とすることができる。しかしながら、このようなテンポチェンジの効果は、元のテンポにも依るし拍子設定にも依存するので、相当の自由度が必要である。例えば、拍子設定については、4/4拍子であれば2拍とするが、3/4拍子なら1拍とするのである。
(5) “Slowly at the passage of the phrase”:
According to this tempo change rule, the phrase interval is interpreted with respect to the original MIDI data OD, or the user specifies a phrase break, and at the end of the phrase interval, the phrase ends and the next phrase starts soon. In order to express what is to be done, a facial expression of slowing down the tempo is automatically performed according to the setting. FIG. 12 shows an example of changes in the tempo in this case, and each phrase 1, 2,... Comprises, for example, a section of about 8 bars. Specifically, for example, the late part can be about the last two beats, and the slowing tempo change amount can be about 95%. However, since the effect of such a tempo change depends on the original tempo and the time signature setting, a considerable degree of freedom is required. For example, the time signature setting is 2 beats for 4/4 time, but 1 beat for 3/4 time.

図13は、この発明の一実施例の表情付けモジュールEMによる、フレーズ経過部でテンポをゆっくりめにする処理の例を示すフローチャートである。この処理フローでは、最初のステップE1でテンポについて強弱の値αを設定した後、ステップE2において、元のMIDIデータOD中からフレーズの切れ目位置の部分を検出し、さらに、ステップE3に進む。ステップE3では、切れ目部分に対応するフレーズの終端部に、強弱値αと現在のテンポ値に応じて図12のように徐々に遅くなるテンポチェンジを付与し、次のステップE4で、切れ目部分に対応する次フレーズの始端には、元のテンポに戻るテンポチェンジを付与する。その後、次のステップE5でこのMIDIデータを再生した後、ステップE6にて再生MIDIデータが良好であるとされれば、このフレーズ終端部処理を終了し、不具合があれば、ステップE1に戻りステップE1〜E6の処理を繰り返す。   FIG. 13 is a flowchart showing an example of a process of slowing down the tempo in the phrase passage part by the expression module EM of one embodiment of the present invention. In this processing flow, after setting a strong and weak value α for the tempo in the first step E1, in step E2, the portion of the phrase break position is detected from the original MIDI data OD, and the process proceeds to step E3. In step E3, a tempo change that gradually slows as shown in FIG. 12 is applied to the end of the phrase corresponding to the break portion according to the strength value α and the current tempo value, and in the next step E4, the break portion is applied to the break portion. A tempo change for returning to the original tempo is given to the beginning of the corresponding next phrase. Thereafter, after the MIDI data is reproduced in the next step E5, if the reproduced MIDI data is determined to be good in step E6, the phrase end process is terminated. If there is a defect, the process returns to step E1. The processes E1 to E6 are repeated.

(6)「音域によってテンポを変える」:
例えば、高い音を出す楽器ほど、速い運指に対応できるし、音の立ち上がりも速いので、高音ほどテンポを速くし、低音ほどテンポを遅くするということには妥当性がある。従って、このテンポ変化手法では、音域によってテンポを変え、高音ほどテンポを速くするルールを表情付けに採用する。このために、音高情報によってテンポ係数Kを決定し、このテンポ係数Kで「音高−テンポ係数」テーブルをひくことによって、テンポの変化量を決定する。このテーブルについて、音高とテンポ変化の相関関係を可調整パラメータとすればよい。1つ1つの音でこのような処理を行っても良いが、ある指定した区間毎にその音高の平均から処理を決めるということも有効である。ここで、指定区間は、フレーズを単位としても良いし、小節や拍を単位としても良い。
(6) “Change the tempo according to the range”:
For example, a musical instrument that produces a higher sound can cope with faster fingering, and the sound rises faster, so it is appropriate to make the tempo faster for higher notes and slower for lower notes. Therefore, in this tempo changing method, a rule for changing the tempo according to the sound range and making the tempo faster as the pitch becomes higher is employed for expression. For this purpose, the tempo coefficient K is determined based on the pitch information, and the tempo change amount is determined by drawing the “pitch-tempo coefficient” table with the tempo coefficient K. For this table, the correlation between pitch and tempo change may be used as an adjustable parameter. Such processing may be performed for each sound, but it is also effective to determine the processing from the average of the pitch for each specified section. Here, the designated section may be in units of phrases, or in units of measures or beats.

図14は、この発明の一実施例の表情付けモジュールEMによる、音域によってテンポを変え高音ほどテンポを速くする処理の一例を示すフローチャートである。この処理フローでは、最初のステップF1でテンポについて強弱の値αを設定した後、ステップF2において、元のMIDIデータODを指定区間(例えば、1小節毎の区間)に分割し、さらに、ステップF3では、各指定区間の音符の平均音高を算出した上、ステップF4に進む。   FIG. 14 is a flowchart showing an example of a process of changing the tempo according to the sound range and increasing the tempo as the pitch increases, according to the expression module EM of one embodiment of the present invention. In this processing flow, after setting the strength value α for the tempo in the first step F1, in step F2, the original MIDI data OD is divided into designated sections (for example, sections for each bar), and further, in step F3. Then, after calculating the average pitch of the notes in each designated section, the process proceeds to Step F4.

次のステップF4では、図15に示されるような「音高−テンポ係数」テーブルを用いて、算出された平均音高からテンポ係数Kを求める。この場合、当該区間の音符数が「0」のときはテンポ係数Kの値は「1」とする。更に次のステップF5にて、求められたテンポ係数K、強弱の値α及び現在テンポ値に応じたテンポチェンジを各指定区間のMIDIデータに付与し、次のステップF6でこのMIDIデータを再生する。この後、ステップF7にて再生MIDIデータが良好であるとされれば、この音域対応処理を終了し、不具合があれば、ステップF1に戻りステップF1〜F7の処理を繰り返す。   In the next step F4, a tempo coefficient K is obtained from the calculated average pitch using a “pitch-tempo coefficient” table as shown in FIG. In this case, when the number of notes in the section is “0”, the value of the tempo coefficient K is “1”. Further, in the next step F5, the obtained tempo coefficient K, the strength value α, and the tempo change according to the current tempo value are given to the MIDI data of each designated section, and this MIDI data is reproduced in the next step F6. . Thereafter, if it is determined in step F7 that the reproduced MIDI data is good, the sound range corresponding process is terminated. If there is a problem, the process returns to step F1 and the processes of steps F1 to F7 are repeated.

上述の処理フローにおいては、ステップF4で図15のような「音高−テンポ係数」テーブルを用い、ステップF1で強弱値αなる可調整パラメータを設定してテンポ係数Kを調整可能にし、指定区間毎にその音高の平均から処理を決めている。この場合、設定上のパラメータとして「強い」、「中程度」、「弱い」等の所定の文言を用いることによりテンポ決定手順の操作性を向上することができる。また、ステップF1〜F4での処理を行うのに、指定区間毎にパラメータ値αを個別的に指示することがもできるようにしておくと、効率的な編集を行うことができる。   In the processing flow described above, the “pitch-tempo coefficient” table as shown in FIG. 15 is used in step F4, and an adjustable parameter of strength value α is set in step F1 so that the tempo coefficient K can be adjusted. Processing is decided from the average of the pitch every time. In this case, the operability of the tempo determination procedure can be improved by using predetermined words such as “strong”, “medium”, and “weak” as setting parameters. Further, if the parameter value α can be individually designated for each designated section for performing the processing in steps F1 to F4, efficient editing can be performed.

例えば、起動当初は、パラメータを「中程度」に設定してα=1に設定しておき、全曲を通して、このルールを適応させて、ステップF5で新しい曲データを生成する。そして、ステップF6でこの曲データを再生してみて、ステップF7でこのルールによる表情に不具合があると、ステップF1に戻ったときに、表情が極端な部分についてはパラメータαを「弱い」に設定し直し、逆に、足らない部分については「強い」に設定し直すという具合に編集を行うことができる。このように区間を個別的に指示する場合は、1音毎に「音高−テンポ係数」テーブル(例えば、図15)を参照してテンポを変化させることが好ましい。   For example, at the beginning of startup, the parameter is set to “medium” and α = 1, and this rule is applied to all songs, and new song data is generated in step F5. Then, when the song data is reproduced in step F6 and there is a problem with the expression according to this rule in step F7, when returning to step F1, the parameter α is set to “weak” for the portion where the expression is extreme. On the contrary, it is possible to perform editing in such a manner that the insufficient part is set to “strong”. When the sections are individually indicated in this way, it is preferable to change the tempo with reference to a “pitch-tempo coefficient” table (for example, FIG. 15) for each sound.

また、1音毎にテンポを変化させたのでは、不自然な変換になってしまう、という場合には、音高変化フィルタを用い音高の変化を滑らかにしてから「音高−テンポ係数」テーブルを参照し、テンポを変化させるのが良い手法である。図16は、この発明の一実施例の表情付けモジュールEMによる、音域によってテンポを変え高音ほどテンポを速くする処理の他の例を示すフローチャートである。この処理フローでは、最初のステップG1でテンポについて強弱の値αを設定した後、ステップF2にて音高変化をフィルタリングし音高変化カーブを求める。   Also, if changing the tempo for each note results in an unnatural conversion, the pitch change filter is used to smooth the change in pitch and then the “pitch-tempo coefficient” It is a good technique to refer to the table and change the tempo. FIG. 16 is a flowchart showing another example of the process of changing the tempo according to the sound range and increasing the tempo as the pitch increases, according to the expression module EM of one embodiment of the present invention. In this processing flow, after a strong value α is set for the tempo in the first step G1, the pitch change is filtered in step F2 to obtain a pitch change curve.

次のステップG3では、この音高変化カーブ上の各点の音高値を基にして「音高−テンポ係数」テーブルを参照し、テンポ係数Kを求める。更に次のステップG4にて、求められたテンポ係数K、強弱の値α及び現在テンポ値に応じたテンポチェンジをMIDIデータに付与し、次のステップG5でこのMIDIデータを再生する。この後、ステップG6にて再生MIDIデータが良好であるとされれば、この音域対応処理を終了し、不具合があれば、ステップG1に戻りステップG1〜G6の処理を繰り返す。   In the next step G3, a tempo coefficient K is obtained by referring to the “pitch-tempo coefficient” table on the basis of the pitch value of each point on the pitch change curve. Further, in the next step G4, a tempo change corresponding to the obtained tempo coefficient K, the strength value α and the current tempo value is given to the MIDI data, and in the next step G5, the MIDI data is reproduced. Thereafter, if it is determined in step G6 that the reproduced MIDI data is good, the sound range corresponding process is terminated. If there is a defect, the process returns to step G1 and the processes of steps G1 to G6 are repeated.

(7)「音高が上昇から下降に変わるときに間をおく」:
(6)のテンポ変化ルールによって、上昇音系はだんだん速く、下降音系はだんだん遅く、というテンポ表現が実現することができるが、さらに、上昇音系から、下降音系に転じるときに、一旦テンポ的に間を開けると、自然なつながりが得られる場合がある。そこで、このテンポ変化手法では、音高が上昇から下降に変わるときに間をおくというルールを採用する。例えば、この間の開け方の度合いをパラメータとして全曲を通してこのルールを適用し、新しい曲データを生成する。そして、再生してみて、このルールによる表情が極端な部分に関しては「弱い」に設定し直し、逆に足らない部分については「強い」に設定し直すという具合に編集を行う。
(7) “Pause when the pitch changes from rising to falling”:
According to the tempo change rule of (6), the tempo expression that the rising sound system is gradually faster and the falling sound system is gradually slower can be realized. If there is a tempo gap, a natural connection may be obtained. Therefore, in this tempo changing method, a rule is adopted in which an interval is given when the pitch changes from rising to falling. For example, this rule is applied to all songs using the degree of opening as a parameter, and new song data is generated. Then, when playback is performed, editing is performed such that the portion where the expression according to this rule is extreme is reset to “weak”, and the portion where the expression is not enough is set to “strong”.

図17は、この発明の一実施例の表情付けモジュールEMによる、音高の上下降変化部で間をおく処理の例を示すフローチャートである。この処理フローでは、最初のステップH1でテンポについて強弱の値αを設定した後、ステップH2にて音高変化をフィルタリングし音高変化カーブを求める。ここで、フィルタリングは、例えば、図18の下段に示されるように、総体的に音高上昇傾向にある音群中に、音n1から音n2に向かう微小な音高降下があった場合、この降下現象をノイズとして除去する機能を有する。次のステップH3では、求められた音高変化カーブの極性符号〔上昇時は正(+)の値であり、下降時は負(−)の値である。〕の変化を検知することにより、音高が上昇から下降に変化する時間位置を検出する。   FIG. 17 is a flowchart showing an example of processing to be performed at the up / down change portion of the pitch by the expression module EM of one embodiment of the present invention. In this processing flow, after setting a strong and weak value α for the tempo in the first step H1, the pitch change curve is obtained by filtering the pitch change in step H2. Here, for example, as shown in the lower part of FIG. 18, the filtering is performed when there is a minute pitch drop from the sound n1 to the sound n2 in the tone group that is generally in a pitch increasing trend. It has a function to remove the descent phenomenon as noise. In the next step H3, the polarity sign of the obtained pitch change curve [a positive (+) value when rising and a negative (-) value when falling]. ], The time position at which the pitch changes from rising to falling is detected.

次のステップH5では、例えば、図18の上段に示されるように、MIDIデータの上昇部分の終端近傍の音に強弱値αとテンポの値に応じた徐々に遅くなるテンポチェンジを付与してステップH6に進む。ステップH6でこのMIDIデータを再生する。この後、ステップH7にて再生MIDIデータが良好であるとされれば、この音高上下降変化部処理を終了し、不具合があれば、ステップH1に戻りステップH1〜H7の処理を繰り返す。   In the next step H5, for example, as shown in the upper part of FIG. 18, the sound near the end of the rising portion of the MIDI data is given a tempo change that gradually decreases according to the strength value α and the tempo value. Proceed to H6. In step H6, the MIDI data is reproduced. Thereafter, if it is determined in step H7 that the reproduced MIDI data is good, the pitch up / down changing section process is terminated. If there is a defect, the process returns to step H1 and the processes of steps H1 to H7 are repeated.

(8)「同じパターンが連続したとき、2回目は遅く/速く」:
一般に、同じパターンを同じ表情で演奏することは、音楽的でないとして嫌われる。このような演奏を避けるには種々の方法があるが、1回目と2回目でテンポを変える方法もある。このテンポ変化手法では、同一/類似パターンが連続したとき、2回目は遅く或いは速く演奏するルールを採用する。この手法を実行するには、当初は、例えば「2回目は速く」(2回目の強弱値α=α1>1)と設定して全曲を通してこのルールを適応させて、新しい曲データを生成する。そして、この曲データを再生してみて、このルールによる表情が相応しなくない場合には、「表情をつけない」つまり「1回目と同じ」(α=1)や「2回目は遅く」(α<1)、或いは、「2回目は前回より小さめに速く」(1<α<α1)や「2回目は前回より大きめに速く」(α>α1)に設定し直すというような手法で編集を行う。
(8) “When the same pattern continues, the second time is slow / fast”:
In general, playing the same pattern with the same expression is disliked as not musical. There are various methods for avoiding such performance, but there is also a method for changing the tempo between the first time and the second time. In this tempo changing method, when the same / similar pattern continues, a rule of playing late or fast for the second time is adopted. In order to execute this method, initially, for example, “the second time is fast” (the second strength value α = α1> 1) is set, and this rule is applied through all the music to generate new music data. Then, when the song data is played back and the expression according to this rule is not suitable, “no expression”, that is, “same as the first” (α = 1) or “slow the second” ( α <1), or edit with a method such as “Second time faster than the previous time” (1 <α <α1) or “Second time faster than the previous time” (α> α1) I do.

なお、2回目は複音で演奏するような場合には、複音の方が重量感が出るため、テンポが遅くなる傾向がある。それと同様に、独奏楽器と伴奏楽器で同じフレーズを演奏するときには、独奏楽器の方が速くなる傾向がある。また、類似のフレーズが連続したときも同様の傾向がある。従って、これらの傾向も、このテンポチェンジ手順におけるルールとして採用することができる。   Note that if the second time is played with multiple sounds, the tempo tends to be slow since the multiple sounds are more heavy. Similarly, when playing the same phrase with a solo instrument and an accompaniment instrument, the solo instrument tends to be faster. Moreover, there is a similar tendency when similar phrases are continued. Therefore, these tendencies can also be adopted as rules in this tempo change procedure.

図19は、この発明の一実施例の表情付けモジュールEMによる、同一又は類似パターンが連続する場合の処理例を示すフローチャートである。この処理フローでは、最初のステップJ1でテンポについて強弱の値αを設定した後、ステップJ2にて同一又は類似パターンの繰返しを検出し、次のステップJ3にて、MIDIデータにおける検出パターン毎に強弱値αと現在のテンポ値に応じた異なるテンポチェンジを付与してステップJ4に進み、このMIDIデータを再生する。そして、ステップJ5にて再生MIDIデータが良好であるとされれば、この同一/類似パターン連続時の処理を終了し、不具合があれば、ステップJ1に戻りステップJ1〜J5の処理を繰り返す。   FIG. 19 is a flowchart showing an example of processing when the same or similar pattern is continued by the expression module EM of one embodiment of the present invention. In this processing flow, after setting the strength value α for the tempo in the first step J1, the repetition of the same or similar pattern is detected in step J2, and the strength is detected for each detected pattern in the MIDI data in the next step J3. A different tempo change corresponding to the value α and the current tempo value is applied, and the process proceeds to step J4 to reproduce the MIDI data. If it is determined in step J5 that the reproduced MIDI data is good, the process when the same / similar pattern is continued is terminated. If there is a defect, the process returns to step J1 and the processes of steps J1 to J5 are repeated.

(9)「似たフレーズは同一乃至類似のテンポ表現を設定する」:
或るフレーズに微妙なテンポ変化を与えるテンポ表情を設定した後、同じフレーズ又は類似のフレーズが別の場所で再現されている場合には、このテンポ変化ルールにより、最初のテンポ表情(微妙なテンポ変化)をそのままコピーしたり、或いは、似てはいるが微妙に異なるテンポ表現を設定することにより、良い表情を付与することができる。全く同一のフレーズでなく、似ているという場合であれば、最初のテンポ表情と似た(少し異なる)テンポを設定するのが良い。また、1回目と2回目とは、(8)の例に則してフレーズ全体のテンポを変える。
(9) “Similar phrases set the same or similar tempo expression”:
After setting a tempo expression that gives a subtle tempo change to a phrase, if the same or similar phrase is reproduced in a different location, this tempo change rule will cause the first tempo expression (subtle tempo A good expression can be given by copying (change) as it is or by setting a similar but slightly different tempo expression. If they are not exactly the same phrase but are similar, it is better to set a tempo that is similar (slightly different) to the initial tempo expression. In the first and second times, the tempo of the entire phrase is changed according to the example of (8).

図20は、この発明の一実施例の表情付けモジュールEMによる、類似フレーズに類似のテンポ表現を設定する処理の例を示すフローチャートである。この処理フローでは、最初のステップK1でテンポについて強弱の値αを設定した後、ステップK2にて類似のフレーズを検出し、次のステップK3にて、検出された類似フレーズ間の相違点を検出する。つまり、両ステップK2,K3では、元のMIDIデータODを順次フレーズ解釈し、解釈されたフレーズを順次記憶しておき、新たに解釈されたフレーズと既に記憶されたフレーズとを対比することにより、類似の判断をする。そして、似たフレーズがあると判断したら、何処が違うのか相違点を求めておくのである。   FIG. 20 is a flowchart showing an example of processing for setting similar tempo expressions to similar phrases by the expression module EM of one embodiment of the present invention. In this processing flow, after setting a strong value α for the tempo in the first step K1, similar phrases are detected in step K2, and differences between the detected similar phrases are detected in the next step K3. To do. That is, in both steps K2 and K3, the original MIDI data OD is sequentially interpreted as phrases, the interpreted phrases are sequentially stored, and the newly interpreted phrases are compared with the already stored phrases. Make a similar judgment. And if you find that there is a similar phrase, find out what is different.

次のステップK4では、MIDIデータの検出された各フレーズに、検出された相違点と現在設定されている強弱値αと現在のテンポ値に応じた異なるテンポチェンジを付与してステップK5に進み、このMIDIデータを再生する。そして、ステップK6にて再生MIDIデータが良好であるとされれば、この類似フレーズへの類似テンポ表現設定処理を終了し、不具合があれば、ステップK1に戻りステップK1〜K6の処理を繰り返す。   In the next step K4, a different tempo change corresponding to the detected difference, the currently set strength value α and the current tempo value is given to each detected phrase of the MIDI data, and the process proceeds to step K5. This MIDI data is reproduced. If it is determined in step K6 that the playback MIDI data is good, the similar tempo expression setting process for this similar phrase is terminated. If there is a defect, the process returns to step K1 and the processes of steps K1 to K6 are repeated.

(10)「登録した音形に対してテンポを設定する」:
このテンポ表現手法では、予め登録しておいた音形(例えばリズムパターン)が現われると、この部分に所定のテンポ設定を行う。この手法では、(9)の手法とよく似てはいるが、同じフレーズを特定するためには、フレーズのテンプレートとして音形等を予め登録しておき、MIDIデータの音形をこれと比較することも良い方法なので、この方法を採用する。図21はフレーズテンプレートの例を示す。なお、図21(1),(2)に例示されるように、バイオリン演奏における弓の返しや、管楽器演奏におけるブレス(息つぎ)に相当する位置で区切り(↑)が存在するが、図21(3)に示すように、区切り位置候補(↑)が複数ある場合には、各候補に重みを付けた上これらをランダム選択するようにしてもよい。
(10) “Set tempo for registered sound form”:
In this tempo expression method, when a pre-registered sound form (for example, a rhythm pattern) appears, a predetermined tempo is set in this portion. Although this method is very similar to the method (9), in order to specify the same phrase, a sound form or the like is registered in advance as a phrase template, and the sound form of the MIDI data is compared with this. Since this is also a good method, this method is adopted. FIG. 21 shows an example of a phrase template. As illustrated in FIGS. 21 (1) and 21 (2), there is a break (↑) at a position corresponding to a bow return in a violin performance or a breath (breathing) in a wind instrument performance. As shown in (3), when there are a plurality of delimiter position candidates (↑), these candidates may be randomly selected after weighting each candidate.

図22は、この発明の一実施例の表情付けモジュールEMによる、登録した音形に所定テンポを設定する処理の例を示すフローチャートである。この処理フローでは、最初のステップL1でテンポについて強弱の値αを設定した後、ステップL2にて、登録されている音形と一致するフレーズを検出し、次のステップL3にて、MIDIデータの検出されたフレーズに登録音形と強弱値αと現在のテンポ値に応じた所定のテンポチェンジを付与してステップL4に進み、このMIDIデータを再生する。そして、ステップL5にて再生MIDIデータが良好であるとされれば、この登録音形適用処理を終了し、不具合があれば、ステップL1に戻りステップL1〜L5の処理を繰り返す。   FIG. 22 is a flowchart showing an example of processing for setting a predetermined tempo to a registered sound form by the expression module EM of one embodiment of the present invention. In this processing flow, after setting a strong and weak value α for the tempo in the first step L1, in step L2, a phrase that matches the registered sound form is detected, and in the next step L3, the MIDI data A predetermined tempo change corresponding to the registered tone form, the strength value α, and the current tempo value is given to the detected phrase, and the process proceeds to step L4 to reproduce the MIDI data. If it is determined in step L5 that the reproduced MIDI data is good, the registered sound form application process is terminated. If there is a problem, the process returns to step L1 and the processes of steps L1 to L5 are repeated.

また、フレーズテンプレートとして音形のみを基準にするのでなく、登録したエクスプレッションイベント(expression event)など、他の種類のイベントを参照して、テンポを評価することも良い方法である。例えば、バイオリンでは、弓の返しに応じたエクスプレッションイベントを生成すると、実感的な表情をつくることができるが、弓の返し際では、テンポが遅くなり過ぎて間があくというように、テンポの乱れが生じ易い。このような状況を自動的に付加するために、弓返しを再現するエクスプレッションイベント(例えば、弓が一瞬止まるので音量が低下する)にテンポの変化を連動させると、より実感的な演奏を再現することができる。同様に、管楽器では、ブレス(息つぎ)感を表現するためにエクスプレッションイベント(息つぎのため音量が低下する)を用いる場合があろうが、それも同様で、ブレス前後では、どうしても間があいてしまうため、それを表現するテンポ変化を行えば良い。   It is also a good method to evaluate the tempo by referring to other types of events such as a registered expression event instead of using only the sound form as a phrase template. For example, a violin can produce a realistic expression by generating an expression event that responds to the bow return. However, when the bow is returned, the tempo is disturbed, such as the tempo is too slow. Is likely to occur. In order to automatically add such a situation, if the tempo change is linked to an expression event that reproduces a bow return (for example, the volume decreases because the bow stops for a moment), a more realistic performance is reproduced. be able to. Similarly, in wind instruments, an expression event (the volume decreases due to breathing) may be used to express a feeling of breathing, but the same is true. Therefore, change the tempo to express it.

この発明の一実施例によれば、図21及び図22で説明した登録音形(テンプレート)を用いた処理は、音程パラメータについても同様に適用し、演奏データ(MIDIデータ等)と、登録されたフレーズテンプレートとの比較に基づいて、所定の音程変化を設定することができる。この場合も、同じフレーズを特定するためには、テンポと同様に、テンプレートとして音形を登録しておくのがよく、また、音形を基準にするのではなく、登録しておいたエクスプレッションイベントなどの他のイベントを参照して音程を評価するのも良い方法である。   According to one embodiment of the present invention, the processing using the registered tone form (template) described with reference to FIGS. 21 and 22 is similarly applied to the pitch parameter, and performance data (MIDI data etc.) is registered. Based on the comparison with the phrase template, a predetermined pitch change can be set. In this case as well, in order to identify the same phrase, it is better to register the sound form as a template, as well as the tempo, and instead of using the sound form as a reference, the registered expression event It is also a good method to evaluate the pitch with reference to other events.

例えば、バイオリンなどでは、弓の返しに応じたエクスプレッションイベントを生成すると、実感的な表情を作ることができるが、弓の返し際では弓の圧力の不均一が発生し音程に変化が生じ易い。このような状況を自動的に付加するために、弓返しを再現するエクスプレッションイベントにテンポの変化を運動させると、より実感的な演奏を再現することができる。   For example, when an expression event corresponding to the return of a bow is generated in a violin or the like, a realistic expression can be created. However, when the bow is returned, unevenness in the pressure of the bow occurs and the pitch tends to change. In order to automatically add such a situation, a more realistic performance can be reproduced by exercising a change in tempo in an expression event that reproduces bow return.

管楽器では、ブレス感を表現するためにエクスプレッションイベントで表現する場合があろうが、それも同様で、吹奏圧の変化によって音程が変化する。   In wind instruments, the expression event may be used to express the breath, but the same is true, and the pitch changes as the wind pressure changes.

なお、フレーズやイベント列によって、ポルタメントタイムを登録しておき、自動的に設定するということも効果的である。また、フレーズやイベント列でなく、音色の選択によって、音程変化やポルタメントタイムを自動的に設定することも効果的である。   It is also effective to register portamento times by phrases and event strings and set them automatically. It is also effective to automatically set a pitch change and a portamento time by selecting a tone color instead of a phrase or event sequence.

この発明の一実施例によると、楽器によって音程の表現の方法を変更するもう一つの例として、楽器の種類によってスラーの処理方法を変更するということがある。次に例示するように、同じスラーの記号が指定されたとしても、楽器の種類によってその再現方法を変更することが望ましい。   According to an embodiment of the present invention, another example of changing the pitch expression method depending on the musical instrument is changing the slur processing method depending on the type of musical instrument. As illustrated below, even if the same slur symbol is specified, it is desirable to change the reproduction method depending on the type of musical instrument.

ピアノのような鍵盤楽器においては、図23(上側)に示すように、連続する2音w1,w2に対してスラーをかける場合、連続音に時間的な重なりがあってもよく、とにかく音を長くすることが好ましいので、例えば、図23(下側)に示すようなスラー処理を行う。   In a keyboard musical instrument such as a piano, as shown in FIG. 23 (upper side), when slurring is applied to two consecutive sounds w1 and w2, the continuous sounds may overlap in time. Since it is preferable to make the length longer, for example, slur processing as shown in FIG. 23 (lower side) is performed.

一方、クラリネットやトランペットのような管楽器では、スラーの場合、連続する音に時間的な重なりがあると不自然だし、連続する後ろ側の音はアタック音も小さい方がよい。これを実現するためには、MIDIデータ等の演奏データにおいて、図24(上側)の連続する2音w1,w2に対し、図24(下側)に示すように、1つの長い音符として生成し、その途中で、ピッチベンドイベント(pitch bend event)などのデータによって音程を変化させる処理方法を用いるのが良い。   On the other hand, in the case of a wind instrument such as a clarinet or trumpet, in the case of a slur, it is unnatural if there is a temporal overlap between successive sounds, and it is better that the successive sounds on the back side have a small attack sound. In order to realize this, in performance data such as MIDI data, the two continuous sounds w1 and w2 in FIG. 24 (upper) are generated as one long note as shown in FIG. 24 (lower). In the middle of the process, it is preferable to use a processing method for changing the pitch according to data such as a pitch bend event.

(11)「テンポを音量で変化させる」:
音高で変化させるのと同様に、音量でテンポを変化させることも有効な表情付けの方法であるので、このテンポ変化ルールではテンポを音量で変化させる。音量が小さいほどテンポが遅くなるということは、演奏する側には起りがちであるので、このルールに採用する。もちろん、逆に設定できるようにすることもできる。それ以外の手順進行上の処理についは、(6)のテンポ変化ルールと同様にして実行することができる。
(11) “Change tempo with volume”:
As with changing the pitch, changing the tempo with the volume is also an effective expression method, so in this tempo change rule, the tempo is changed with the volume. The fact that the tempo becomes slower as the volume is lower tends to occur on the performance side, so this rule is adopted. Of course, the setting can be reversed. Other processing in progress of the procedure can be executed in the same manner as the tempo change rule of (6).

図25は、この発明の一実施例の表情付けモジュールEMによる、音量に応じてテンポを変化する処理の一例を示すフローチャートである。この処理フローでは、最初のステップM1でテンポについて強弱の値αを設定した後、ステップM2にて、元のMIDIデータODを指定区間(例えば、1小節毎の区間)に分割し、さらにステップM3で各指定区間の音符の平均音量を算出した上、ステップM4に進む。ステップM4では、例えば、音量が小さいほどテンポが遅くなるように予め設定されている「音量−テンポ係数」テーブルを用いて、算出された平均音量からテンポ係数を求める。この場合、当該区間の音符数が「0」のときはテンポ係数値は「1」とする。次のステップM5にて、求められたテンポ係数、強弱の値α及び現在テンポ値に応じたテンポチェンジを各指定区間のMIDIデータに付与し、次のステップM6でこのMIDIデータを再生する。この後、ステップM7にて再生MIDIデータが良好であるとされれば、この音量応答処理を終了し、不具合があれば、ステップM1に戻りステップM1〜M7の処理を繰り返す。   FIG. 25 is a flowchart showing an example of processing for changing the tempo according to the sound volume by the expression module EM of one embodiment of the present invention. In this processing flow, after setting the strength value α for the tempo in the first step M1, in step M2, the original MIDI data OD is divided into designated sections (for example, sections for each measure), and further in step M3. After calculating the average volume of the notes in each designated section, the process proceeds to step M4. In step M4, for example, a tempo coefficient is obtained from the calculated average volume by using a “volume-tempo coefficient” table set in advance so that the tempo becomes slower as the volume decreases. In this case, when the number of notes in the section is “0”, the tempo coefficient value is “1”. In the next step M5, the tempo change corresponding to the obtained tempo coefficient, the strength value α and the current tempo value is given to the MIDI data of each designated section, and this MIDI data is reproduced in the next step M6. Thereafter, if it is determined in step M7 that the reproduced MIDI data is good, the sound volume response process is terminated. If there is a problem, the process returns to step M1 and the processes of steps M1 to M7 are repeated.

図26は、音量に応じてテンポを変化する処理の他の例を示すフローチャートであり、最初のステップN1でテンポについて強弱の値αを設定した後、ステップN2にて音量変化をフィルタリングし音量変化カーブを求め、次のステップN3にて、この音量変化カーブ上の各点の音量値を基にして「音量−テンポ係数」テーブルを参照し、テンポ係数を求める。更に、ステップN4において、テンポ係数、強弱の値α及び現在テンポ値に応じたテンポチェンジをMIDIデータに付与し、次のステップN5でこのMIDIデータを再生する。この後、ステップN6にて再生MIDIデータが良好であるとされれば、この音量応答処理を終了し、不具合があれば、ステップN1に戻りステップN1〜N6の処理を繰り返す。   FIG. 26 is a flowchart showing another example of processing for changing the tempo according to the volume. After setting the strength value α for the tempo in the first step N1, the volume change is filtered by filtering the volume change in the step N2. A curve is obtained, and in the next step N3, a “tempo coefficient” is obtained by referring to the “volume-tempo coefficient” table based on the volume value of each point on the volume change curve. Further, at step N4, a tempo change according to the tempo coefficient, the strength value α and the current tempo value is given to the MIDI data, and at the next step N5, the MIDI data is reproduced. Thereafter, if it is determined in step N6 that the reproduced MIDI data is good, the sound volume response process is terminated. If there is a problem, the process returns to step N1 and the processes of steps N1 to N6 are repeated.

(12)「緊張感という言葉でテンポを変化させる」:
テンポは演奏の緊張感と関係が深い。例えば、緊張感が高まると、1つ1つの音を大切に演奏するという気持ちから、テンポが遅くなる傾向がある。このことから、「緊張感」というパラメータによって、テンポを変化させることはインターフェースとして有効である。そこで、このテンポ変化ルールでは、曲全体の感じ或いは「サビ」等の特定部の感じに沿って、「緊張感」という言葉で表わされるパラメータに従ってテンポを変化させる。このパラメータは、例えば、図27に示すように、操作スイッチ装置13上に「緊張感」つまみ13kを設け、つまみ13kを移動操作することにより、任意値に設定可能とすることができる。この「緊張感」つまみ13kによるテンポ設定は、緊張感が「高い」及び「低い」位置に夫々対応する上下最大値に対し、テンポ変化を「+10%」及び「−10%」程度とする。
(12) “Change the tempo with the word tension”:
Tempo is closely related to the tension of performance. For example, when the feeling of tension increases, the tempo tends to be slow due to the feeling of playing each sound carefully. For this reason, changing the tempo by the parameter “tension” is effective as an interface. Therefore, in this tempo change rule, the tempo is changed in accordance with the parameter represented by the word “tension” in accordance with the feeling of the entire song or the feeling of a specific part such as “rust”. For example, as shown in FIG. 27, this parameter can be set to an arbitrary value by providing a “tension” knob 13k on the operation switch device 13 and moving the knob 13k. The tempo setting by the “tension” knob 13k sets the tempo change to about “+ 10%” and “−10%” with respect to the upper and lower maximum values corresponding to the positions where the tension is “high” and “low”, respectively.

図28は、この発明の一実施例の表情付けモジュールEMによる、緊張感に応じてテンポを変化する処理の例を示すフローチャートである。この処理フローの最初のステップP1で「緊張感」つまみ13kを操作して緊張感パラメータ値αを設定した後、ステップP2で、つまみ13kの緊張感パラメータ値αから、対応するテンポ係数を生成する。次のステップP3では、生成されたテンポ係数及び現在テンポ値に応じたテンポチェンジをMIDIデータに付与し、次のステップP4でこのMIDIデータを再生する。この後、ステップP5にて再生MIDIデータが良好であるとされれば、この緊張感応答処理を終了し、不具合があれば、ステップP1に戻りステップP1〜P5の処理を繰り返す。   FIG. 28 is a flowchart showing an example of processing for changing the tempo according to the tension by the expression module EM according to one embodiment of the present invention. In the first step P1 of this processing flow, the “tension” knob 13k is operated to set the tension parameter value α, and then in step P2, a corresponding tempo coefficient is generated from the tension parameter value α of the knob 13k. . In the next step P3, a tempo change corresponding to the generated tempo coefficient and the current tempo value is given to the MIDI data, and in the next step P4, the MIDI data is reproduced. Thereafter, if it is determined in step P5 that the reproduced MIDI data is good, the tension response process is terminated. If there is a defect, the process returns to step P1 and the processes of steps P1 to P5 are repeated.

(13)「3拍子の4分音符の羅列では1拍めに長い時間をとる」:
3拍子の4分音符の羅列に限らず、何らかのブロックでまとめられる音符群では、最初の音符を長めにし、使った時間を残りの音符で取り戻すという表現が有効な場合がある。そこで、このテンポ変化ルールでは、まとまった音符群に対して所定の時間的表現を付与する。例えば、「音符群の群感の強さ」というようなパラメータαを用意し、まず、全曲を通してこのルールを適応させて、新しい曲データを生成する。そして、再生してみて、このルールによる表情が極端な部分に関しては「弱い」に設定し直し、逆に足りない部分については、「強い」に設定し直すという具合に編集を行う。
(13) “In a series of three-note quarter notes, take a long time for the first beat”:
In a group of notes that are not limited to a series of quarter-notes of three time signatures but are organized in some blocks, the expression of making the first note longer and recovering the used time with the remaining notes may be effective. Therefore, in this tempo change rule, a predetermined temporal expression is given to a group of notes. For example, a parameter α such as “strength of group of notes” is prepared, and first, this rule is applied through all songs to generate new song data. Then, when playback is performed, editing is performed so that a portion where the expression according to this rule is extreme is reset to “weak”, and a portion where the expression is insufficient is reset to “strong”.

図29は、この発明の一実施例の表情付けモジュールEMによる、3拍子の4分音符の羅列のようなまとまった音符群に対してテンポやタイミングを変化する処理の例を示すフローチャートである。この処理フローでは、最初のステップQ1で音符群の群感の強弱を表わすパラメータ値αを設定した後、ステップQ2で所定の音符群を検出し、次のステップQ3にて、検出した音符群に対応したMIDIデータに、群感パラメータ値αと現在のテンポ値に応じたテンポチェンジを付与するか、或いは、群感パラメータ値αに応じて音符のタイミングを変更する。そして、ステップQ4でこのMIDIデータを再生した後、ステップQ5にて再生MIDIデータが良好であるとされれば、この音符群対応処理を終了し、不具合があれば、ステップQ1に戻りステップQ1〜Q5の処理を繰り返す。   FIG. 29 is a flowchart showing an example of processing for changing the tempo and timing for a group of notes such as a series of quarter notes of three beats by the expression module EM of one embodiment of the present invention. In this processing flow, after setting a parameter value α representing the strength of the group of notes in the first step Q1, a predetermined group of notes is detected in step Q2, and in the next step Q3, the detected group of notes is detected. A tempo change corresponding to the group parameter value α and the current tempo value is given to the corresponding MIDI data, or the timing of the note is changed according to the group parameter value α. Then, after reproducing the MIDI data in step Q4, if the reproduced MIDI data is determined to be good in step Q5, the note group correspondence processing is terminated, and if there is a defect, the process returns to step Q1 and returns to steps Q1 to Q1. Repeat the process of Q5.

ここで、ステップQ2での音符群検出については、音符を群として取り扱う手法は、拍を単位としても良いし、楽譜を用いている場合なら、音符の旗のつながりを利用することも良い方法である。また、当然、連符は強い群感を示すことになる。また、ステップQ3については、前にも述べたことであるが、時間をかける手法としては、テンポを遅くするばかりでなく、音符の時刻(タイミング)をずらすということも有効な方法である。このテンポ変化ルールでは、音符の時刻をずらす方が扱い易いであろう。   Here, for the note group detection in step Q2, the method of handling the notes as a group may be in units of beats, and if a musical score is used, it is also possible to use the linkage of the flag of the notes. is there. Naturally, the tuplet shows a strong group feeling. As for step Q3, as described above, as a method of taking time, not only slowing down the tempo but also shifting the time (timing) of the note is an effective method. In this tempo change rule, it would be easier to handle shifting the time of a note.

なお、ピアノの左手だけ、若しくは、伴奏パートだけに適応するのも有効である。例えば、ピアノでワルツ系の曲を弾く場合には、「ブン」−「チャッ」−「チャ」の「ブン」にたくさん時間をかけて、残りは軽く弾くということをテンポ的に変化させることによって実現できる。   It is also effective to apply only to the left hand of the piano or only the accompaniment part. For example, when playing a waltz-type song on a piano, change the tempo by spending a lot of time on "Bun"-"Chat"-"Cha" "Bun" and playing the rest lightly. realizable.

(14)「5連符以上の連符では、2+3のように簡単な数字の組合せに変換し、その中で1つめの音に時間をかけ強調する」:
(13)のルールでは、連符を音符群として扱うことを述べたが、5連符以上の音符群では、音列をハッキリとさせた演奏とするためには、2連符+3連符のようにもっと小さい数の連符に分解すると良い。このように分解した連符に対しては、(13)のルールによる音符群対応処理を行えば良いが、分解された連符のうち、最初のものを強く設定することが好ましい。そこで、このテンポ変化ルールにおいては、5連符以上の長い連符では、例えば、2連符+3連符又は3連符+2連符のように、小連符に分割して簡単な数字の組合せに変換し、各小連符中で1つ目の音に時間をかけて強調するだけでなく、長い連符を小連符の群とみて、最初の小連符はテンポを遅め、残りの小連符はテンポを速めるようにし、より有効な表現付けを行う。
(14) “For a tuplet of five or more tuplets, it is converted into a simple combination of numbers such as 2 + 3, and the first sound is emphasized over time”:
In the rule (13), it is described that the tuplet is handled as a note group. However, in the case of a note group of five or more tuplets, in order to obtain a performance with a clear string of notes, a tuplet + triplet is used. It is better to break it up into a smaller number of tuplets. For the tuplet decomposed in this way, the note group correspondence processing according to the rule (13) may be performed, but it is preferable to strongly set the first one among the decomposed tuplets. Therefore, in this tempo change rule, a long tuplet of five or more tuplets is divided into small tuplets such as double tuplet + triplet or triplet + double tuplet. Not only to emphasize the first note in each tuplet over time, but also to view long tuplets as a group of tuplets, the first tuplet slows down the tempo and the rest The tuplet of will make the tempo faster and give more effective expression.

図30は、この発明の一実施例の表情付けモジュールEMによる、5連符以上の連符のように長い連符に対してテンポを変化する処理の例を示すフローチャートである。この処理フローの最初のステップR1で強弱の値αを設定した後、ステップR2で所定の連符群を検出し、次のステップR3にて、検出した連符を複数の小連符に分割する。さらに、ステップR4では、分割された小連符に対応したMIDIデータについて、強弱値αと現在のテンポ値に応じたテンポチェンジを付与するか、或いは、強弱値αに応じて音符のタイミングを変更する。そして、ステップR5でこのMIDIデータを再生した後、ステップR6にて再生MIDIデータが良好であるとされれば、この音符群対応処理を終了し、不具合があれば、ステップR1に戻りステップR1〜R6の処理を繰り返す。   FIG. 30 is a flowchart showing an example of processing for changing the tempo for a long tuplet such as a tuplet of five or more tuplets by the expression module EM of one embodiment of the present invention. After setting the strength value α in the first step R1 of this processing flow, a predetermined tuplet group is detected in step R2, and the detected tuplet is divided into a plurality of small tuplets in the next step R3. . Further, in step R4, a tempo change according to the strength value α and the current tempo value is given to the MIDI data corresponding to the divided tuplet, or the timing of the note is changed according to the strength value α. To do. Then, after reproducing the MIDI data in step R5, if it is determined that the reproduced MIDI data is good in step R6, the note group handling process is terminated. If there is a defect, the process returns to step R1 and returns to steps R1 to R1. Repeat the process of R6.

(15)「和音では、その数によってテンポを遅くする」:
和音を演奏する場合は、同時発音数が多くなるほど、それらの音を強調するために、時間をたっぷり使おうとしてテンポを遅くする傾向がある。そこで、このテンポ変化ルールでは、和音における同時発音数(和音の音符密度)に応じてテンポを遅くするというような所定の時間的表現を付与する。例えば、「和音の強調」というようなパラメータαを用意し、全曲を通してこのルールを適応させて、新しい曲データを生成する。そして、再生してみて、このルールによる表情が極端な部分に関しては「弱い」に設定し直し、逆に足らない部分については「強い」に設定し直すという具合に編集を行う。
(15) “For chords, slow down the tempo by the number”:
When playing chords, as the number of simultaneous sounds increases, there is a tendency to slow down the tempo in order to use more time to emphasize those sounds. Therefore, in this tempo change rule, a predetermined temporal expression is given such that the tempo is slowed according to the number of simultaneous pronunciations in the chord (the note density of the chord). For example, a parameter α such as “chord emphasis” is prepared, and this rule is applied to all songs to generate new song data. Then, when playback is performed, editing is performed such that the portion where the expression according to this rule is extreme is reset to “weak”, and the portion where the expression is not enough is set to “strong”.

図31は、この発明の一実施例の表情付けモジュールEMによる、和音の同時発音数に応じてテンポを変化する処理の例を示すフローチャートである。この処理フローの最初のステップS01で強弱の値αを設定した後、ステップS02において、和音を検出し、その和音の音符密度を評価して同時発音数を検出する。次のステップS03では、同時発音数と強弱値α及び現在のテンポ値に応じたテンポチェンジを算出し、算出したテンポチェンジを、検出した和音に対応したMIDIデータに付与する。そして、ステップS04でこのMIDIデータを再生し、次のステップS05にて再生MIDIデータが良好であるとされれば、この和音同時発音数応答処理を終了し、不具合があれば、ステップS01に戻りステップS01〜S05の処理を繰り返す。   FIG. 31 is a flowchart showing an example of processing for changing the tempo according to the number of simultaneous chords generated by the expression module EM according to one embodiment of the present invention. After setting the strength value α in the first step S01 of this processing flow, in step S02, a chord is detected and the note density of the chord is evaluated to detect the number of simultaneous pronunciations. In the next step S03, a tempo change corresponding to the number of simultaneous pronunciations, the strength value α, and the current tempo value is calculated, and the calculated tempo change is added to the MIDI data corresponding to the detected chord. Then, this MIDI data is reproduced in step S04, and if the reproduced MIDI data is determined to be good in the next step S05, the chord simultaneous pronunciation number response process is terminated. If there is a defect, the process returns to step S01. The processes in steps S01 to S05 are repeated.

(16)「音色に連動してテンポ係数を設定する」:
このテンポ変化ルールによると、音色毎に対応するテンポ係数値をもつ「音色−テンポ係数」テーブルを予め用意しておき、音色が変わる度に、このテーブルにより自動的にテンポが微妙に変化する表現を得ることができる。アンサンブルの演奏に対して各パート毎にテンポを変えるとかえって不自然であるので、このルールは、ソロの場合又はアンサンブルのメロディパートに適用可能である。このルールでは、音色そのものを基にしてテンポを変化させるのではなく、例えば、EGアタックタイム(envelope generator attack time)のような音色のパラメータで、テンポを変化させる(例えば、ピアノのようにアタックが速い場合はテンポを速くし、バイオリンのようにアタックが遅い場合にはテンポを遅くする等)方が、むしろ、軽い処理でテンポの微妙な変化を実現することができる。
(16) “Set tempo coefficient in conjunction with tone”:
According to this tempo change rule, a “tone-tempo coefficient” table having a tempo coefficient value corresponding to each timbre is prepared in advance, and each time the timbre changes, this table automatically changes the tempo slightly. Can be obtained. Since it is unnatural to change the tempo for each part for the performance of the ensemble, this rule can be applied to the case of solo or the melody part of the ensemble. In this rule, the tempo is not changed based on the timbre itself, but the tempo is changed by a timbre parameter such as EG attack time (envelope generator attack time). If it is fast, the tempo is made faster, and if the attack is slow like a violin, the tempo is made slower.

また、単純にテンポを変化させるのではなく、テンポの拍よりも前ノリに音符をずらすということも、音色によっては効果的である。つまり、低音を早く発音すると和音が安定すると言われており、同じ楽器であっても、音高によってずらし方を異ならせてもよい。例えば、ベースギターやバスドラムなどの低音楽器系では、このようなずらし処理が有効になる。そこで、このような処理を有効にする音色を予め設定しておくと音色を選択するだけで、自動的にノリまで調整できる仕組みを提供することができる。この場合は、ソロやメロディパートに限定する必要はない。   It is also effective for some timbres not to simply change the tempo, but to shift the note in front of the tempo beat. In other words, it is said that the chords are stabilized if the bass is pronounced quickly, and even the same instrument may be shifted differently depending on the pitch. For example, such a shifting process is effective in a low musical instrument system such as a bass guitar or a bass drum. Therefore, if a timbre for enabling such processing is set in advance, it is possible to provide a mechanism that can automatically adjust the timbre only by selecting a timbre. In this case, it is not necessary to limit to solo or melody part.

図32は、この発明の一実施例の表情付けモジュールEMによる、音色や音色パラメータに連動してテンポ係数を設定する処理の例を示すフローチャートである。この処理フローの最初のステップT1で強弱の値αを設定した後、ステップT2で音色の種類又は所定の音色パラメータを検出し、次のステップT3では、予め用意した「音色種類/音色パラメータ−テンポ係数」テーブルを用いて、検出した音色種類又は所定音色パラメータと強弱値α及び現在のテンポ値に応じたテンポチェンジを求め、求めたテンポチェンジをMIDIデータに付与する。或いは、強弱値αに応じて音符のタイミングを変更する。そして、ステップT4でこのMIDIデータを再生し、次のステップT5にて再生MIDIデータが良好であるとされれば、この和音同時発音数応答処理を終了し、不具合があれば、ステップT1に戻りステップT1〜T5の処理を繰り返す。   FIG. 32 is a flowchart showing an example of processing for setting a tempo coefficient in conjunction with a tone color and tone color parameters by the expression module EM of one embodiment of the present invention. After setting the strength value α in the first step T1 of this processing flow, the timbre type or the predetermined timbre parameter is detected in step T2, and in the next step T3, the previously prepared “tone type / tone parameter-tempo” is prepared. Using the “coefficient” table, a tempo change corresponding to the detected timbre type or predetermined timbre parameter, strength value α, and current tempo value is obtained, and the obtained tempo change is added to the MIDI data. Alternatively, the timing of the note is changed according to the strength value α. Then, this MIDI data is reproduced in step T4, and if the reproduced MIDI data is good in the next step T5, this chord simultaneous sound number response processing is terminated. If there is a defect, the process returns to step T1. The processes in steps T1 to T5 are repeated.

(17)「フィンガリングを考え、指に応じてテンポ係数を変える」:
人間の指は、動き易い指と動き難い指があり、例えば、薬指や小指は、一般的に動きにくいとされている。これは演奏の習熟によって改善される問題ではあるが、動きにくい指ほどテンポが遅くなる。従って、このテンポ変化ルールでは、フィンガリングの指に応じてテンポ係数を設定することによって、人間が演奏した不均一さを表現することができる。
(17) “Considering fingering, change tempo coefficient according to finger”:
Human fingers include easy-to-move fingers and difficult-to-move fingers. For example, ring fingers and little fingers are generally considered to be difficult to move. Although this is a problem that can be improved by learning performance, the tempo is slower for fingers that do not move easily. Therefore, in this tempo change rule, the non-uniformity performed by humans can be expressed by setting the tempo coefficient according to the finger of the fingering.

図33は、この発明の一実施例の表情付けモジュールEMによる、フィンガリングの指に応じてテンポ係数を設定する処理の例を示すフローチャートである。この処理フローの最初のステップU1で強弱の値αを設定した後、ステップU2で、曲データ中の指データからフィンガリングの指を検出し、次のステップU3では、予め用意した「指−テンポ係数」テーブルを用いて、検出したフィンガリング指と強弱値α及び現在のテンポ値に応じたテンポチェンジを算出し、算出したテンポチェンジをMIDIデータに付与する。そして、ステップU4でこのMIDIデータを再生し、次のステップU5にて再生MIDIデータが良好であるとされれば、このフィンガリング指応答処理を終了し、不具合があればステップU1に戻りステップU1〜U5の処理を繰り返す。   FIG. 33 is a flowchart showing an example of processing for setting a tempo coefficient according to a finger of the fingering by the expression module EM according to one embodiment of the present invention. After setting the strength value α in the first step U1 of this processing flow, in step U2, fingering fingers are detected from the finger data in the song data, and in the next step U3, the “finger-tempo” prepared in advance is detected. A tempo change according to the detected fingering finger, the strength value α and the current tempo value is calculated using the “coefficient” table, and the calculated tempo change is added to the MIDI data. Then, this MIDI data is reproduced in step U4, and if the reproduced MIDI data is determined to be good in the next step U5, this fingering finger response process is terminated, and if there is a defect, the process returns to step U1 and returns to step U1. Repeat the process of ~ U5.

(18)「フインガリングを考えポジション移動があればテンポを遅くする」:
フィンガリングにはポジション移動が伴い、ポジション移動があるときとないときでは.当然、演奏のし易さが異なる。特に、音高間隔の広いポジション移動では、さらに演奏の難度が上がる。そこで、このテンポ変化ルールでは、ポジションの有無も含めたポジション移動量に応じてテンポ係数を設定することによって、ポジション移動に伴うテンポのゆらぎを再現し、人間が演奏した不均一さを表現することができる。
(18) “Slow down the tempo if there is position movement for fingering”:
Fingering involves position movement, with and without position movement. Naturally, the ease of playing is different. In particular, if the position moves with a wide pitch interval, the difficulty of playing further increases. Therefore, in this tempo change rule, by setting the tempo coefficient according to the amount of position movement including the presence or absence of position, the fluctuation of the tempo accompanying the movement of position is reproduced and the non-uniformity played by humans is expressed. Can do.

図34は、この発明の一実施例の表情付けモジュールEMによる、フィンガリングのポジション移動に応じてテンポ係数を設定する処理の例を示すフローチャートである。この処理フローの最初のステップV1で強弱の値αを設定した後、ステップV2,V3でフィンガリング及びポジションの移動を順次検出し、次のステップV4において、予め用意した「ポジション移動量−テンポ係数」テーブルを用いて、検出したポジション移動と強弱値α及び現在のテンポ値に応じたテンポチェンジを算出し、算出したテンポチェンジをMIDIデータに付与する。そして、ステップV5でこのMIDIデータを再生し、次のステップV6にて再生MIDIデータが良好であるとされれば、このフィンガリングポジション移動応答処理を終了し、不具合があればステップV1に戻りステップV1〜V6の処理を繰り返す。   FIG. 34 is a flowchart showing an example of processing for setting a tempo coefficient in accordance with finger position movement by the expression module EM of one embodiment of the present invention. After setting the strength value α in the first step V1 of this processing flow, fingering and position movement are sequentially detected in steps V2 and V3. In the next step V4, “position movement amount—tempo coefficient” The table is used to calculate a tempo change corresponding to the detected position movement, the strength value α and the current tempo value, and the calculated tempo change is added to the MIDI data. Then, this MIDI data is reproduced in step V5, and if the reproduced MIDI data is determined to be good in the next step V6, this fingering position movement response process is terminated. If there is a defect, the process returns to step V1. The process of V1 to V6 is repeated.

(19)「フィンガリングを考え、低いポジションならテンポを遅くする」:
鍵盤楽器では低いほど鍵盤が重く感じるかも知れないし、弦楽器だと低いポジションほど指を広く開かなければならないので、低いポジションほど速い演奏には向かない傾向がある。また、太い弦は、強く押さないといけないので、速い演奏にはむかない。そこで、このテンポ変化ルールでは、フィンガリングのポジションに応じてテンポ係数を設定することによって、人間が演奏した不均一さを表現することができる。
(19) “Consider fingering and slow down the tempo at low positions”:
With a keyboard instrument, the lower the keyboard, the heavier the keyboard might feel, and with a string instrument, the lower the position, the wider the fingers must be opened, so the lower the position, the lower the tendency. In addition, thick strings must be pressed hard, making them difficult to play fast. Therefore, in this tempo change rule, non-uniformity performed by humans can be expressed by setting a tempo coefficient in accordance with the fingering position.

図35は、この発明の一実施例の表情付けモジュールEMによる、フィンガリングのポジションに応じてテンポ係数を設定する処理の例を示すフローチャートである。この処理フローの最初のステップW1で強弱の値αを設定した後、ステップW2,W3でフィンガリング及びポジションを順次検出し、次のステップW4において、予め用意した「ポジション−テンポ係数」テーブルを用いて、検出したポジションと強弱値α及び現在のテンポ値に応じたテンポチェンジを算出し、算出したテンポチェンジをMIDIデータに付与する。そして、ステップW5でこのMIDIデータを再生し、次のステップW6にて再生MIDIデータが良好であるとされれば、このフィンガリングポジション応答処理を終了し、不具合があればステップW1に戻りステップW1〜W6の処理を繰り返す。   FIG. 35 is a flowchart showing an example of processing for setting a tempo coefficient in accordance with the fingering position by the expression module EM of one embodiment of the present invention. After setting the strength value α in the first step W1 of this processing flow, fingering and position are sequentially detected in steps W2 and W3, and in the next step W4, a “position-tempo coefficient” table prepared in advance is used. Then, a tempo change corresponding to the detected position, the strength value α and the current tempo value is calculated, and the calculated tempo change is added to the MIDI data. Then, this MIDI data is reproduced in step W5, and if the reproduced MIDI data is determined to be good in the next step W6, this fingering position response process is terminated, and if there is a defect, the process returns to step W1 and returns to step W1. Repeat the process of ~ W6.

(20)「ピッチベンドをかけるときは、自動的にテンポも触る」:
フィンガリング評価の一種でもあるが、ピッチベンドをかけるということは、ポジション移動(スライドやグリッサンド)を伴うことが多いので、ピッチベンド等がかかっているところを目印にしてテンポを遅くするということが有効な場合がある。そこで、このテンポ変化ルールにより、ピッチベンドをかけるときは、ベンドをかけるとテンポが遅くなるようなテンポ変化を自動的に与えるようにする。
(20) “When you apply pitch bend, touch the tempo automatically”:
Although it is a kind of fingering evaluation, applying pitch bend is often accompanied by position movement (slide or glissando), so it is effective to slow down the tempo using the place where pitch bend is applied. There is a case. Therefore, according to this tempo change rule, when pitch bend is applied, a tempo change that automatically slows down the tempo when the bend is applied is automatically applied.

図36は、この発明の一実施例の表情付けモジュールEMによる、ピッチベンドに応じてテンポ設定を行う処理の例を示すフローチャートである。この処理フローの最初のステップX1で強弱の値αを設定した後、ステップX2でピッチベンドを検出し、次のステップX3では、検出したピッチベンドと強弱値α及び現在のテンポ値に応じたテンポチェンジを算出し、算出したテンポチェンジをMIDIデータに付与する。そして、ステップX4でこのMIDIデータを再生し、次のステップX5にて再生MIDIデータが良好であるとされれば、このピッチベンド対応処理を終了し、不具合があればステップX1に戻りステップX1〜X5の処理を繰り返す。   FIG. 36 is a flowchart showing an example of processing for setting the tempo according to the pitch bend by the expression module EM of one embodiment of the present invention. After setting the strength value α in the first step X1 of this processing flow, the pitch bend is detected in step X2, and in the next step X3, the detected pitch bend, the strength value α and the tempo change according to the current tempo value are performed. The calculated tempo change is added to the MIDI data. Then, this MIDI data is reproduced in step X4, and if the reproduced MIDI data is determined to be good in the next step X5, this pitch bend handling process is terminated, and if there is a defect, the process returns to step X1 and returns to steps X1 to X5. Repeat the process.

(21)「ギターのプリングオフ等のときにはテンポを速くする」:
(20)のピッチベンドとは逆に、ギターのハンマリングオン(hammering
on)、プリングオフ(pulling off)等のときには、新たに弦をはじかない分、テンポが速くなる傾向がある。そこで、このテンポ変化ルールでは、プリングオフ等のときにはテンポを速くする。このためには、例えば、ピッチベンド検出部分で、ハンマリングオン、プリングオフ等を検出すれば良く、この検出には、例えば、ピッチベンドで急に半音以上ピッチを変えたとか、楽譜記号でハンマリングオンなどを記入してあるとかを利用する。
(21) “Increase the tempo when the guitar is pulled off”:
Contrary to the pitch bend of (20), the hammering-on of the guitar (hammering)
on), pulling off, etc., there is a tendency that the tempo is faster because the strings are not newly repelled. Therefore, in this tempo change rule, the tempo is increased when pulling off or the like. For this purpose, for example, it is sufficient to detect hammering on, pulling off, etc. at the pitch bend detection part. For this detection, for example, the pitch bend is suddenly changed by more than a semitone or the hammer is turned on with a musical score symbol. Etc. are used.

図37は、この発明の一実施例の表情付けモジュールEMによる、ギターのプリングオフ等のときにはテンポを速くする処理の例を示すフローチャートである。この処理フローの最初のステップY1で強弱の値αを設定した後、ステップY2でハンマリングオン、プリングオフ等を検出し、次のステップY3では、検出したハンマリングオン、プリングオフ等と強弱値α及び現在のテンポ値に応じたテンポチェンジを算出し、算出したテンポチェンジをMIDIデータに付与する。そして、ステップY4でこのMIDIデータを再生し、次のステップY5にて再生MIDIデータが良好であるとされれば、このプリングオフ等応答処理を終了し、不具合があればステップY1に戻りステップY1〜Y5の処理を繰り返す。   FIG. 37 is a flowchart showing an example of processing for speeding up the tempo at the time of guitar pull-off or the like by the expression module EM of one embodiment of the present invention. After setting the strength value α in the first step Y1 of this processing flow, hammering on, pulling off, etc. are detected in step Y2, and in the next step Y3, the detected hammering on, pulling off, etc. are detected. A tempo change corresponding to α and the current tempo value is calculated, and the calculated tempo change is added to the MIDI data. Then, this MIDI data is reproduced in step Y4, and if the reproduced MIDI data is determined to be good in the next step Y5, the response process such as pull-off is terminated. If there is a defect, the process returns to step Y1 and returns to step Y1. Repeat the process of ~ Y5.

(22)「ピアノのサスティンベダル操作に応じてテンポ係数を設定する」:
ピアノでは、サスティーンペダルを踏むと響きを豊かになるが、この場合、速く弾くと音の分離が悪くなるので、微妙にテンポを遅くする傾向がある。そこで、このテンポ変化ルールでは、ピアノのサスティンベダル操作に応じて所定のテンポ係数を設定する。このためには、ピッチベンド検出部分で、サスティンベダルオン等を検出すれば良い。
(22) “Set tempo coefficient according to piano sustain pedal operation”:
In a piano, the sound becomes richer when the sustain pedal is depressed, but in this case, the separation of the sound becomes worse when played fast, so there is a tendency to slightly slow down the tempo. Therefore, in this tempo change rule, a predetermined tempo coefficient is set according to the sustain pedal operation of the piano. For this purpose, it is only necessary to detect sustain bedallon or the like in the pitch bend detection part.

図38は、この発明の一実施例の表情付けモジュールEMによる、ピアノのサスティンベダル操作に応じてテンポ係数を設定する処理の例を示すフローチャートである。この処理フローの最初のステップZ1で強弱の値αを設定した後、ステップZ2でサスティンベダルオンを検出し、次のステップZ3では、検出したサスティンベダルオンと強弱値α及びテンポデータに応じたテンポチェンジを算出し、算出したテンポチェンジをMIDIデータに付与する。そして、ステップZ4でこのMIDIデータを再生し、次のステップZ5にて再生MIDIデータが良好であるとされれば、このサスティンベダル応答処理を終了し、不具合があればステップZ1に戻りステップZ1〜Z5の処理を繰り返す。   FIG. 38 is a flowchart showing an example of processing for setting a tempo coefficient according to the sustain pedal operation of the piano by the expression module EM of one embodiment of the present invention. After setting the strength value α in the first step Z1 of this processing flow, the sustain pedal is detected in step Z2, and in the next step Z3, the detected sustain pedal, the strength value α, and the tempo corresponding to the tempo data are detected. The change is calculated, and the calculated tempo change is added to the MIDI data. Then, this MIDI data is reproduced in step Z4, and if the reproduced MIDI data is determined to be good in the next step Z5, this sustain pedal response process is terminated, and if there is a defect, the process returns to step Z1 and returns to steps Z1 to Z1. Repeat the process of Z5.

(23)「ビブラートの深さや速さに応じてテンポ係数を設定する」:
ビブラートを深くかけるということは、たっぷりとした響きを出したいときであるから、テンポも遅めになる傾向がある。また、ビブラートを速くかけるときには、緊張感のある音を出そうとしているときなので、1つ1つの音を確かめるように演奏するためにテンポも遅めになる。逆に、ビブラートを遅くかけるときには、落ち着いた響きを出そうとしているときなので、これもテンポは遅めになる傾向にある。
(23) “Set tempo coefficient according to vibrato depth and speed”:
Applying vibrato deeply is when you want to produce a lot of reverberation, so the tempo tends to be slow. Also, when applying vibrato quickly, it is when trying to produce a sound with a sense of tension, so the tempo is also slowed to perform so as to confirm each sound. On the other hand, when you slow down the vibrato, you are trying to produce a calm sound, so this also tends to slow down the tempo.

そこで、このテンポ変化ルールでは、図39に示すような「ビブラート深さ−テンポ係数」テーブル及び図40に示すような「ビブラート速さ−テンポ係数」テーブルを用いて、ビブラートの深さや速さに応じてテンポ係数Kを設定する。つまり、上述したことから、ビブラートとテンポ変化の関係は、ビブラートの深さについては、図39のように、深いほどテンポが遅くなるのに対して、ビブラートの速さについては、図40のように、速くても遅くてもテンポが遅めになるという中ぶくらみの曲線になっているのが好ましいのである。なお、図39及び図40の各テーブルにおいて、ビブラートの深さ及び速さの値が「0」の場合は、例外的にテンポ係数Kを「1」とする。   Therefore, in this tempo change rule, the vibrato depth and speed are determined using a “vibrato depth-tempo coefficient” table as shown in FIG. 39 and a “vibrato speed-tempo coefficient” table as shown in FIG. Accordingly, a tempo coefficient K is set. That is, from the above, the relationship between vibrato and tempo change is as follows. As for the depth of vibrato, as shown in FIG. 39, the tempo becomes slower as it is deeper, whereas as for the speed of vibrato, as shown in FIG. In addition, it is preferable that the curve has a moderate blur, in which the tempo is slow regardless of whether it is fast or slow. 39 and 40, the tempo coefficient K is exceptionally set to "1" when the vibrato depth and speed values are "0".

実施に当っては、ベンド検出部分で、ビブラートを検出し、さらに,各テーブルにおけるビブラートの深さや速さのパラメータの設定を検索すれば良い。もし、ビブラートのパラメータがないときには、出力波形からビブラートの深さや速さの情報を得ても良い。   In implementation, it is only necessary to detect vibrato in the bend detection portion and to further search for the setting of the vibrato depth and speed parameters in each table. If there is no vibrato parameter, information on the vibrato depth and speed may be obtained from the output waveform.

図41は、この発明の一実施例の表情付けモジュールEMによる、ビブラートの深さや速さに応じてテンポ係数を設定する処理の例を示すフローチャートである。この処理フローの最初のステップAa1で強弱の値αを設定した後、ステップAa2,Aa3でビブラート及びビブラートの深さ及び速さを順次検出する。次のステップAa4では、図39に示すような「ビブラート深さ−テンポ係数」テーブル及び図40に示すような「ビブラート速さ−テンポ係数」テーブルを用いて、検出したビブラートの深さ及び速さに対応するテンポ係数Kを求め、このテンポ係数Kと強弱値α及び現在のテンポ値に応じたテンポチェンジを算出し、算出したテンポチェンジをMIDIデータに付与する。そして、ステップAa5でこのMIDIデータを再生し、次のステップAa6にて再生MIDIデータが良好であるとされれば、このビブラート速さ/深さ応答処理を終了し、不具合があればステップAa1に戻りステップAa1〜Aa6の処理を繰り返す。   FIG. 41 is a flowchart showing an example of processing for setting a tempo coefficient according to the depth and speed of vibrato by the expression module EM of one embodiment of the present invention. After setting the strength value α in the first step Aa1 of this processing flow, the vibrato and the depth and speed of the vibrato are sequentially detected in steps Aa2 and Aa3. In the next step Aa4, the detected vibrato depth and speed using the “vibrato depth-tempo coefficient” table as shown in FIG. 39 and the “vibrato speed-tempo coefficient” table as shown in FIG. The tempo coefficient K corresponding to is calculated, a tempo change corresponding to the tempo coefficient K, the strength value α, and the current tempo value is calculated, and the calculated tempo change is added to the MIDI data. Then, the MIDI data is reproduced at step Aa5, and if the reproduced MIDI data is satisfactory at the next step Aa6, the vibrato speed / depth response process is terminated. If there is a defect, the process proceeds to step Aa1. The processing of return steps Aa1 to Aa6 is repeated.

(24)「ストリングスのトリルは、複数のパートを使い微妙にタイミングをずらす」:
一般に、ストリングス等のトリルは、図42(1)に示される「楽譜上の音符」に対して、図42(2)に示す「演奏上の楽譜」のように、1つの長い音符を複数の短い音符に分解することで実現する。しかし、実際のストリングスパートでは複数の奏者が演奏するわけであって、ストリングスのトリルに対しぴったり同期をとるとおかしいので、全演奏者が同じタイミングでトリルの細かい音符を演奏するとは考え難い。そこで、このタイミング変更ルールによって、複数のパートを使いこれらのパートについて微妙にタイミングをずらすのである。つまり、このような同期演奏状態を回避し、自然な演奏をMIDI音源のストリングスで再現するのに、複数のパートを使うと共にそれぞれのパートでのトリルのタイミングを微妙にずらせることによって有効な結果を得ることができる。
(24) “Strings' trills use multiple parts to slightly shift timing”:
In general, a trill such as a string has a plurality of long notes as a “musical score on a performance” shown in FIG. 42 (2). This is achieved by breaking it down into short notes. However, in an actual string spurt, a plurality of players perform, and it is strange that it is perfectly synchronized with the string trill, so it is difficult to think that all the players will play the trill fine notes at the same timing. Therefore, by using this timing change rule, a plurality of parts are used and the timings of these parts are slightly shifted. In other words, in order to avoid such a synchronous performance state and reproduce a natural performance with MIDI sound source strings, effective results are obtained by using multiple parts and slightly shifting the timing of the trill in each part. Can be obtained.

なお、複数のパートは微妙に異なる音色(例えば、バイオリンとビオラ等)であることが好ましい。また、トリルのタイミングを微妙にずらす方法としては乱数を用いて、トリルの細かい音符のオン時刻やデュレーション(duration)を変更するのが効果的である。   Note that it is preferable that the plurality of parts have slightly different timbres (for example, violin and viola). Also, as a method of slightly shifting the timing of the trill, it is effective to change the on time and duration of the trill's fine note using random numbers.

図43は、この発明の一実施例の表情付けモジュールEMによる、ストリングスのトリルに応じて複数パートに分け且つ各パートのタイミングをずらす処理の例を示すフローチャートである。この処理フローの最初のステップBb1で強弱の値αを設定した後、ステップBb2でトリル部分を検出し、次のステップBb3でトリル部分を複数パートにコピーする。この場合、パート毎に微妙に音色を変更するのが好ましい。その後、ステップBb4では、トリル部分のMIDIデータのタイミングを、強弱値αに応じてパート毎に異なるように変更する。そして、ステップBb5でこのMIDIデータを再生し、次のステップBb6にて再生MIDIデータが良好であるとされれば、このストリングストリルのタイミング処理を終了し、不具合があればステップBb1に戻りステップBb1〜Bb6の処理を繰り返す。   FIG. 43 is a flowchart showing an example of a process of dividing into a plurality of parts according to the string trill and shifting the timing of each part by the expression module EM of one embodiment of the present invention. After setting the strength value α in the first step Bb1 of this processing flow, the tolyl portion is detected in step Bb2, and the tolyling portion is copied to a plurality of parts in the next step Bb3. In this case, it is preferable to change the tone color slightly for each part. Thereafter, in step Bb4, the timing of the MIDI data of the trill portion is changed so as to differ for each part according to the strength value α. Then, the MIDI data is reproduced in step Bb5. If the reproduced MIDI data is determined to be good in the next step Bb6, the string stroil timing process is terminated. If there is a defect, the process returns to step Bb1 and returns to step Bb1. Repeat the process of ~ Bb6.

この発明の一実施例によれば、図42及び図43で説明したトリルの複数パート処理の手法は、音程パラメータの変化付与に適用することができる。つまり、ストリングスのトリルはぴったりと同期をとるとおかしいので、複数のパートに分割し、微妙に音程をずらす表情付けを行う。これをMIDI音源のストリングスで再現するには、ステップBb1で音程のずらし幅について強弱の値αを設定し、ステップBb2,Bb3で図43と同様の処理をして複数パートに分解(分割)した後、ステップBb4において、分解したそれぞれのパートにおけるトリルの音程を微妙にずらせることによって有効な結果を得ることができる。この場合、ずらせるパラメータには、音程だけでなく、タイミングを含ませるのが好ましい。   According to one embodiment of the present invention, the method of multi-part processing of trill described with reference to FIGS. 42 and 43 can be applied to change in pitch parameters. In other words, it is strange that string trills are perfectly synchronized, so they are divided into multiple parts and given subtle shifts. In order to reproduce this with MIDI sound source strings, in step Bb1, a strong and weak value α is set for the pitch shift, and in steps Bb2 and Bb3, the same processing as in FIG. Later, in Step Bb4, an effective result can be obtained by slightly shifting the pitch of the trill in each decomposed part. In this case, it is preferable that the shifted parameter includes not only the pitch but also the timing.

(25)「学習機能によりテンポを設定する」:
このテンポ付与手法は、テンポ設定に学習機能を持たせ、音高の変化とテンポの変化の関係などを自動的に予想するシステムを構成し、ユーザによるテンポ変化ルールの自動構築を可能にするものである。一例としては、ある曲の途中までテンポ変化を手入力した後は、残りのテンポ変化は、学習機能により自動入力する。この場合、残りの曲データが入力されるとフレーズ解釈を行い、既に処理したフレーズと比較し、同じフレーズには、処理済みフレーズのテンポ変化と同じテンポ変化を与え、新規フレーズについてはテンポ変化をランダムにするなどというにように処理する。また、他の例としては、ある曲のテンポ変化を分析しておき、他の曲を解釈し、分析済の曲との対比結果に応じて、対応する分析済テンポ変化を付与する。
(25) “Set tempo by learning function”:
This tempo assignment method has a learning function for tempo setting, and configures a system that automatically predicts the relationship between pitch change and tempo change, etc., and allows users to automatically build tempo change rules It is. As an example, after manually inputting a tempo change to the middle of a certain song, the remaining tempo change is automatically input by a learning function. In this case, when the remaining song data is input, the phrase is interpreted and compared with the already processed phrase, the same phrase is given the same tempo change as the processed phrase, and the new phrase is changed. Randomize and so on. As another example, a tempo change of a certain song is analyzed, the other song is interpreted, and a corresponding analyzed tempo change is given according to a comparison result with the analyzed song.

図44は、この発明の一実施例による表情付けモジュールEMの学習機能に基づく処理の例を示すフローチャートである。この処理では、学習ルーチンCcSにおいて、テンポ変化を既に付与したMIDIデータからフレーズとテンポ変化の関係を学習し、学習結果をRAM3内の所定エリアに格納しておく。   FIG. 44 is a flowchart showing an example of processing based on the learning function of the expression module EM according to one embodiment of the present invention. In this process, the learning routine CcS learns the relationship between the phrase and the tempo change from the MIDI data to which the tempo change has already been applied, and stores the learning result in a predetermined area in the RAM 3.

次に、テンポ変化を付与するに当っては、ステップCc1で強弱の値αを設定した後、ステップCc2で、未だテンポ変化を付与していないフレーズのMIDIデータに対して、学習結果を基にして強弱値αと現在のテンポ値に応じたテンポチェンジを付与する。そして、ステップCc3でこのMIDIデータを再生し、次のステップCc4にて再生MIDIデータが良好であるとされれば、この学習によるテンポ付与処理を終了し、不具合があればステップCc1に戻りステップCc1〜Cc4の処理を繰り返す。   Next, when assigning the tempo change, after setting the strength value α in step Cc1, in step Cc2, based on the learning result, the MIDI data of the phrase to which no tempo change has been given yet. The tempo change according to the strength value α and the current tempo value is given. Then, the MIDI data is reproduced in step Cc3, and if the reproduced MIDI data is determined to be good in the next step Cc4, the tempo assigning process by this learning is terminated. If there is a defect, the process returns to step Cc1 and returns to step Cc1. Repeat the process of ~ Cc4.

(26)「ライブラリを用いてテンポ変化を設定する」:
演奏データの種々の特徴情報に対応して一旦生成したテンポ変化をある時間区間で切り取ってライブラリ化しておくと、他の部分にも同様に適応できる場合がある。このテンポ付与手法は、特徴情報に対するテンポ変化をライブラリ化することによって、使い易いテンポチェンジ手法を提供するものである。ライブラリ化に際しては、ライブラリに名前を付けて保存すると、尚一層使い易くなる。また、相対テンポ値で記憶したり、時間変化方向又はテンポ値変化方向に伸縮可能とするのがよい。
(26) “Set tempo change using library”:
If a tempo change once generated corresponding to various pieces of characteristic information of performance data is cut out in a certain time section and made into a library, it may be applicable to other parts as well. This tempo assigning method provides an easy-to-use tempo change method by creating a library of tempo changes for feature information. When creating a library, if you name the library and save it, it will be even easier to use. Moreover, it is good to memorize | store with a relative tempo value, and to be able to expand-contract in a time change direction or a tempo value change direction.

図45は、この発明の一実施例による表情付けモジュールEMの、ライブラリを用いてテンポ変化を設定する処理の例を示すローチャートである。この処理では、ライブラリ化ルーチンDdLにおいて、テンポ変化を既に付与したMIDIデータからテンポチェンジを抽出し、抽出したテンポチェンジを相対値に変換してライブラリ化して外部記憶装置9の所定エリアに保存しておく。   FIG. 45 is a flowchart showing an example of processing for setting a tempo change using a library of the expression module EM according to one embodiment of the present invention. In this processing, in the library creation routine DdL, a tempo change is extracted from MIDI data to which a tempo change has already been applied, the extracted tempo change is converted into a relative value, converted into a library, and stored in a predetermined area of the external storage device 9. deep.

次に、テンポ変化を付与するに当っては、ステップDd1において、MIDIデータの所定の特徴情報に対応してライブラリからテンポチェンジを選択し、選択されたテンポチェンジを時間方向及び/又はテンポ値方向に所定倍率αで伸縮する。次のステップDd2では、選択され伸縮されたテンポチェンジを現在のテンポ値に応じて絶対値に変換し、変換されたテンポチェンジをMIDIデータに付与する。そして、ステップDd3でこのMIDIデータを再生し、次のステップDd4にて再生MIDIデータが良好であるとされれば、このライブラリ使用によるテンポ付与処理を終了する。一方、不具合があれば、ステップDd1に戻って倍率αを変更するか、或いは、他のテンポチェンジを選択した上、ステップDd2〜Dd4の処理を繰り返す。   Next, in giving a tempo change, in step Dd1, a tempo change is selected from the library corresponding to predetermined feature information of the MIDI data, and the selected tempo change is changed in the time direction and / or tempo value direction. Is expanded and contracted at a predetermined magnification α. In the next step Dd2, the selected and expanded tempo change is converted into an absolute value according to the current tempo value, and the converted tempo change is added to the MIDI data. Then, this MIDI data is reproduced in step Dd3, and if the reproduced MIDI data is determined to be good in the next step Dd4, the tempo assigning process using this library is terminated. On the other hand, if there is a problem, the process returns to step Dd1 to change the magnification α, or another tempo change is selected and the processes of steps Dd2 to Dd4 are repeated.

この発明の一実施例によれば、図45で説明したライブラリを用いた処理の手法は、音程パラメータの変化付与に適用し音程変化をライブラリ化することができる。つまり、図45と同様の処理によって一旦生成した音程変化を、ある時間区間で切り取りライブラリ化すると、他の部分についても、同様に適応することができる場合がある。この場合も、ライブラリに名前をつけて保存すると、なお一層使い易くなることはいうまでもない。   According to one embodiment of the present invention, the processing method using the library described with reference to FIG. 45 can be applied to change in pitch parameters to create a pitch change library. That is, if a pitch change once generated by the same processing as in FIG. 45 is cut out into a library in a certain time interval, it may be applicable to other portions in the same manner. In this case, it goes without saying that if the library is named and saved, it will become even easier to use.

(27)「歌詞(詩)に応じてテンポ係数を設定する」:
歌を伴う曲の場合は、同じメロディーでも、歌詞の内容によってテンポ感が変わる場合がある。そこで、このテンポ変化手法では、ある単語をテンポ係数とともに予め登録しておき、その単語が出現するとテンポを変化させるというような手順を用いて、歌詞(詩)に応じてテンポ係数を設定する。テンポ係数を予め設定するに当っては、明るい単語についてはテンポが速いとするのに対し、暗い単語についてはテンポが遅いとし、重要単語に対しては遅いテンポとして、進遅の程度に対応する係数値を登録しておけばよい。また、単語の部分のみをテンポ変化させたり、或いは、単語を含む区間全体をテンポ変化させたり、テンポ変化の対象部分を指定可能としてもよい。
(27) “Set tempo coefficient according to lyrics (poem)”:
In the case of a song with a song, the tempo may change depending on the contents of the lyrics even if the melody is the same. Therefore, in this tempo changing method, a tempo coefficient is set according to the lyrics (poetry) using a procedure in which a word is registered in advance together with a tempo coefficient and the tempo is changed when the word appears. When setting the tempo coefficient in advance, the tempo is assumed to be fast for bright words, while the tempo is assumed to be slow for dark words, and the tempo is slow for important words. The coefficient value should be registered. It is also possible to change only the word portion, change the tempo of the entire section including the word, or designate the target portion of the tempo change.

図46は、この発明の一実施例による表情付けモジュールEMの、歌詞(詩)に応じてテンポ係数を設定する処理の例を示すローチャートである。この処理では、最初のステップEe1にて強弱の値αを設定した後、ステップEe2で、元のMIDIデータODの歌詞データ中から所定の単語を検出する。次のステップEe3では、検出された単語に対応して設定されたテンポ係数と設定している強弱値α及び現在のテンポ値に応じたテンポチェンジを、MIDIデータに付与する。そして、ステップEe4でこのMIDIデータを再生し、次のステップEe5にて再生MIDIデータが良好であるとされれば、この歌詞応答処理を終了し、不具合があればステップEe1に戻りステップEe1〜Ee5の処理を繰り返す。   FIG. 46 is a flowchart showing an example of processing for setting a tempo coefficient according to lyrics (poetry) in the expression module EM according to one embodiment of the present invention. In this process, after a strong value α is set in the first step Ee1, a predetermined word is detected from the lyrics data of the original MIDI data OD in step Ee2. In the next step Ee3, a tempo coefficient set corresponding to the detected word, a set strength value α, and a tempo change corresponding to the current tempo value are added to the MIDI data. Then, this MIDI data is reproduced in step Ee4, and if the reproduced MIDI data is determined to be good in the next step Ee5, this lyrics response processing is terminated, and if there is a malfunction, the process returns to step Ee1 and steps Ee1 to Ee5. Repeat the process.

(28)「音源の出力波形に応じてタイミングを補正する」:
同じ音源の音でも、音色の種類によって聴感上の発音タイミングが異なる。そこで、このタイミング変化ルールでは、実際の出力波形を観測しながら音符のオン時刻を補正する仕組みを用いて、音源の出力波形に応じてタイミングを補正する。図47は、音源出力波形と補正タイミングの関係を表わす図である。同図において、或る音色の音源の出力波形TWが、タイミングtsで発音を開始して立ち上がり、タイミングtmで最大音量値(1.00)に到達するものとすると、例えば、音源出力波形TWの音量値が最大値の80%に到達する時点tcを、本来の発音開始タイミングとなるように、前にずらすことによって、聴感上の発音タイミングに合わせることができる。また、この補正タイミングtcは、最大音量値の80%に限らず、音源種類等の事情に応じて妥当な値に選定され、例えば、100%(タイミングtm)でもよい。
(28) “Correction of timing according to output waveform of sound source”:
Even with the same sound source, the audible sounding timing differs depending on the type of timbre. Therefore, in this timing change rule, the timing is corrected according to the output waveform of the sound source using a mechanism for correcting the on time of the note while observing the actual output waveform. FIG. 47 is a diagram illustrating the relationship between the sound source output waveform and the correction timing. In the figure, if the output waveform TW of a sound source of a certain tone color starts to sound at timing ts and rises and reaches the maximum volume value (1.00) at timing tm, for example, the sound source output waveform TW By shifting the time point tc at which the volume value reaches 80% of the maximum value to the original sounding start timing, the time point tc can be adjusted to the sounding timing on hearing. Further, the correction timing tc is not limited to 80% of the maximum volume value, but is selected to be an appropriate value according to circumstances such as the type of sound source, and may be 100% (timing tm), for example.

具体的手順としては、例えば、曲データ制作の場合なら、一度再生しながら、タイミングの補正データを生成していく。以降は、生成した補正データによってタイミング補正したものを再生すれば、音色によるタイミングのずれを補正し、更には、音源によるタイミングのずれまで補正することができることになる。一方、リアルタイム演奏(再生)の場合なら、最初の一音は発音が始まってからしか補正できないが、2音目以降は、補正量を予測しながら、また、予測値を学習によって修正しながら、タイミングの補正を行っていけば良い。さらに、曲データの再生前に、全音色、全音高の出力波形を観測しておけば、再生しなくても最初の一音から補正が可能となる。   As a specific procedure, for example, in the case of music data production, timing correction data is generated while playing once. Thereafter, if the timing corrected by the generated correction data is reproduced, the timing shift due to the timbre can be corrected, and further the timing shift due to the sound source can be corrected. On the other hand, in the case of real-time performance (playback), the first note can be corrected only after the pronunciation begins, but for the second and subsequent notes, the correction amount is predicted and the predicted value is corrected by learning. It is sufficient to correct the timing. Furthermore, if the output waveform of all timbres and all pitches is observed before the music data is reproduced, correction can be made from the first sound without reproduction.

図48は、この発明の一実施例による表情付けモジュールEMの、音源の出力波形に応じてタイミングを補正する処理の例を示すローチャートである。この処理では、最初のステップFf1にて強弱の値αを設定した後、ステップFf2では、音源の出力波形TWを観測する。次のステップFf3では、この観測結果に応じてタイミング補正量(ts−tc)を算出し、さらに、ステップFf4にて、算出された補正量と強弱の値αに応じて、MIDIデータのタイミングを補正する。そして、ステップFf5でこのMIDIデータを再生し、次のステップFf6にて再生MIDIデータが良好であるとされれば、この出力波形対応処理を終了し、不具合があればステップFf1に戻りステップFf1〜Ff6の処理を繰り返す。   FIG. 48 is a flowchart showing an example of processing for correcting the timing according to the output waveform of the sound source in the expression module EM according to one embodiment of the present invention. In this process, after setting the strength value α in the first step Ff1, the output waveform TW of the sound source is observed in step Ff2. In the next step Ff3, a timing correction amount (ts-tc) is calculated according to the observation result. Further, in step Ff4, the timing of the MIDI data is determined according to the calculated correction amount and the strength value α. to correct. Then, this MIDI data is reproduced in step Ff5, and if the reproduced MIDI data is satisfactory in the next step Ff6, this output waveform correspondence processing is terminated, and if there is a defect, the process returns to step Ff1 and returns to steps Ff1 to Ff1. The process of Ff6 is repeated.

(29)「ピアノ(p)の直前のフォルテ(f)は短かめにする」:
強弱記号のフォルテ(f)が続いた後ピアノ(p)が現われる場合、ピアノ(p)の直前のフォルテ(f)の音を短かめにすると、ピアノ(p)の音が聴き取り易くなる。このテンポ変化ルールでは、このような強弱記号を伴う音のテンポ変化を制御する。
(29) “Forte (f) just before piano (p) should be short”:
When the piano (p) appears after the forte (f) of the strength symbol is followed, if the sound of the forte (f) immediately before the piano (p) is shortened, the sound of the piano (p) is easily heard. In this tempo change rule, the tempo change of a sound accompanied by such a dynamic symbol is controlled.

図49は、この発明の一実施例による表情付けモジュールEMの、強弱記号に対する処理の例を示すローチャートである。この処理では、最初のステップGg1にて強弱の値αを設定した後、ステップGg2では、元のMIDIデータOD中からフォルテ(f)が続いた後のピアノ(p)を検出する。次のステップGg3では、検出したピアノ(p)の直前にあるフォルテ(f)音のゲートタイムを強弱値αに応じて短縮する。そして、ステップGg4で、この短縮処理を施したMIDIデータを再生し、次のステップGg5にて再生MIDIデータが良好であるとされれば、この強弱記号対応処理を終了し、不具合があればステップGg1に戻りステップGg1〜Gg5の処理を繰り返す。   FIG. 49 is a flowchart showing an example of processing for dynamic symbols in the expression module EM according to one embodiment of the present invention. In this process, after setting the strength value α in the first step Gg1, in step Gg2, the piano (p) after the forte (f) is detected from the original MIDI data OD is detected. In the next step Gg3, the gate time of the forte (f) sound immediately before the detected piano (p) is shortened according to the strength value α. Then, in step Gg4, the MIDI data subjected to the shortening process is reproduced, and in the next step Gg5, if it is determined that the reproduced MIDI data is good, the dynamic symbol corresponding process is terminated. Returning to Gg1, the processes of steps Gg1 to Gg5 are repeated.

(30)「スタッカートの直前の音は長めにする」:
スタッカート(staccato)の直前の音は長めにすると、スタッカートらしく切れのよい音に聴こえる。このテンポ変化ルールでは、このスタッカートを伴う音のテンポ変化を制御する。
(30) “Longer sound just before staccato”:
If the sound just before the staccato is made longer, it will sound like a staccato and will sound sharp. In this tempo change rule, the tempo change of the sound accompanied by this staccato is controlled.

図50は、この発明の一実施例による表情付けモジュールEMの、スタッカートに対する処理の例を示すローチャートである。この処理では、最初のステップHh1にて強弱の値αを設定した後、ステップHh2では、元のMIDIデータOD中からスタッカートを検出する。次のステップHh3では、検出したスタッカートの直前の音のゲートタイムを強弱値αに応じて伸長する。そして、ステップHh4で、この伸長処理を施したMIDIデータを再生し、次のステップHh5にて再生MIDIデータが良好であるとされれば、このスタッカート対応処理を終了し、不具合があればステップHh1に戻りステップHh1〜Hh5の処理を繰り返す。   FIG. 50 is a flowchart showing an example of processing for staccato in the expression module EM according to one embodiment of the present invention. In this process, after setting the strength value α in the first step Hh1, in step Hh2, staccato is detected from the original MIDI data OD. In the next step Hh3, the gate time of the sound immediately before the detected staccato is extended according to the strength value α. In step Hh4, the decompressed MIDI data is reproduced. If the reproduced MIDI data is determined to be good in the next step Hh5, the staccato handling process is terminated. If there is a defect, step Hh1 is performed. The process of steps Hh1 to Hh5 is repeated.

(31)「テンポは全体を見通してから決める」:
これまで説明してきたように、テンポ変化させる要因は様々である。1曲を通して様々なテンポ変化を加えた結果、変化前のテンポと比較して大きく異なるものになっていることがあるかも知れない。このテンポ決定手法では、そのような事態に備えて、1曲を通してテンポ変化させた結果を見て、その結果の平均が元々設定されていたテンポの値になるように(平均をとる方法は、必要に応じて任意の方法を採用することができる。)、全体的なテンポ補正を行う。この全体的なテンポ補正をするには、例えば、全体のテンポを均一に補正したり、或いは、全般的な均一補正ではなく、テンポ変更回数の多い区間のテンポを優先的に補正したりする。なお、元のテンポと平均テンポとの差が所定の範囲内であればテンポを補正しないというような許容量を、予め選定しておいたり、或いは、ユーザにより選定可能としてもよい。
(31) “Determine the tempo after looking at the whole”:
As explained so far, there are various factors for changing the tempo. As a result of adding various tempo changes throughout a song, it may be very different from the tempo before the change. In this tempo determination method, in preparation for such a situation, look at the result of changing the tempo through one song, so that the average of the result is the tempo value that was originally set (the method of taking the average is Any method can be adopted as necessary.) Performs overall tempo correction. In order to perform this overall tempo correction, for example, the entire tempo is corrected uniformly, or the tempo in the section where the number of tempo changes is high is preferentially corrected instead of the overall uniform correction. Note that an allowable amount that the tempo is not corrected if the difference between the original tempo and the average tempo is within a predetermined range may be selected in advance or may be selectable by the user.

図51は、この発明の一実施例による表情付けモジュールEMの全体的な見直し処理の例を示すフローチャートである。この処理の最初のステップJj1では、これまで説明してきたテンポ変化ルール(1)〜(30)から必要に応じて採用された所定ルールに基づいて、個々のテンポ変化を元のMIDIデータODに付与する。そして、ステップJj2において、個々のテンポ変化が付与されたMIDIデータの全体のテンポが元の平均テンポと一致するか又は近似したものとなるように、或いは、総演奏時間が元の総演奏時間と一致するか又は近傍のものとなるように、テンポを全体的に修正する。   FIG. 51 is a flowchart showing an example of the overall review process of the expression module EM according to one embodiment of the present invention. In the first step Jj1 of this process, each tempo change is given to the original MIDI data OD based on a predetermined rule adopted as necessary from the tempo change rules (1) to (30) described so far. To do. In step Jj2, the entire tempo of the MIDI data to which individual tempo changes are applied is equal to or close to the original average tempo, or the total performance time is the original total performance time. The overall tempo is modified to match or be close.

その後、ステップJj3に進んで、所望のテンポ又は総演奏時間が得られたかを、自動計算やMIDIデータの1曲全部の再生試聴等により、検証して、良好であると判定されればこの全体的見直し処理を終了する。一方、不具合があれば、ステップJj4に進んで個々のテンポ変化処理を行うか否かが打診される。そして、個々のテンポ変化処理を行う必要がある判断した場合(YES)には、ステップJi1に戻ってステップJj1〜Jj2の処理を再度行い、そうでない場合(NO)にはステップJj2の処理を再度行う。   Thereafter, the process proceeds to step Jj3 to verify whether a desired tempo or total performance time has been obtained by automatic calculation or playback trial listening of one piece of MIDI data. The review process is terminated. On the other hand, if there is a problem, the process proceeds to step Jj4 to ask whether or not to perform individual tempo change processing. If it is determined that it is necessary to perform individual tempo change processing (YES), the processing returns to step Ji1 and the processing of steps Jj1 to Jj2 is performed again. Otherwise (NO), the processing of step Jj2 is performed again. Do.

この発明の一実施例によれば、図51で説明した全体的見直し処理の手法は、音程パラメータの変化付与に適用し、全体を見通してから音程を再度調整することができる。様々な音程変化を加えて表情付けを行っていくことにより、最終的に曲全体が或る値の音程でシフトされる結果となる場合がある(例えば、ピッチベンドデータによる)。このような場合には、全体を見通してから、マスターチューニングやピッチシフト、ファインチューニングという別のパラメータにまとめた方が扱いやすいことがある。   According to one embodiment of the present invention, the overall review processing method described with reference to FIG. 51 can be applied to change in pitch parameters, and the pitch can be adjusted again after looking at the whole. Adding facial expressions with various pitch changes may eventually result in the entire song being shifted by a certain pitch (eg, with pitch bend data). In such a case, it may be easier to handle it by looking at the whole and then grouping it into other parameters such as master tuning, pitch shift, and fine tuning.

〔実施形態2〕
次に、具体的な演奏パラメータとして主に音量パラメータを中心にして(具体例中には,音程パラメータ等の他の演奏パラメータを含むものもある)表情付けを行う「実施形態2」について説明する。図52及び図53は、図2に示されるシステムにおける表情付けモジュールの機能の概要について、パラメータ自動編集の観点から、CPU1の実行する処理フローとして説明するフローチャートである。まず、図52及び図53を参照してその概要を説明し、次に、図54〜図84を参照して「実施形態2」の具体例(A)〜(V)につき詳細に説明するものとする。
[Embodiment 2]
Next, “Embodiment 2” will be described in which facial expression is performed mainly on the volume parameter as a specific performance parameter (some specific examples include other performance parameters such as a pitch parameter). . 52 and 53 are flowcharts illustrating an overview of functions of the expression module in the system shown in FIG. 2 as a processing flow executed by the CPU 1 from the viewpoint of automatic parameter editing. First, the outline will be described with reference to FIGS. 52 and 53, and then specific examples (A) to (V) of “Embodiment 2” will be described in detail with reference to FIGS. 54 to 84. And

本実施の形態のパラメータ自動編集装置は、主として、次の制御処理を実行する。すなわち、
〔1〕供給された演奏データを解析し、その解析結果に基づいて変化付与を行うパラメータの選択およびその内容の決定を行い、当該演奏データにパラメータ変化を付与するパラメータ変化付与処理
〔2〕上記〔1〕の処理により表情付けされた演奏データを再生する再生処理
〔3〕上記〔1〕の処理により表情付けされた演奏データを確認する確認処理
である。
The parameter automatic editing apparatus of the present embodiment mainly executes the following control processing. That is,
[1] Analyzing the supplied performance data, selecting a parameter to which a change is to be added and determining its content based on the analysis result, and a parameter change giving process for giving a parameter change to the performance data [2] Reproduction processing for reproducing performance data that has been expressed by the processing of [1] [3] Confirmation processing for confirming performance data that has been expressed by the processing of [1].

ここで、演奏データとしては、本実施の形態では、たとえばSMF(Standard MIDI File)のフォーマットで作成されたものを想定しているが、これと異なったフォーマットのものを採用してもよい。また、〔3〕の確認処理における演奏データの確認とは、具体的には、演奏データを何らかの形態で表示装置(ディスプレイ)14上に表示させ、その表示された演奏データ上に上記〔1〕の処理で付与したパラメータ値やその位置を重ねて表示させることにより、ユーザに〔1〕の処理結果を確認させることをいう。そして、この確認処理中で、〔1〕のパラメータ変化付与処理を施したくない位置をユーザが指定できるようにしてもよい。   In this embodiment, the performance data is assumed to be created in the SMF (Standard MIDI File) format, for example. However, the performance data may be in a different format. The confirmation of the performance data in the confirmation process [3] is specifically to display the performance data in some form on the display device (display) 14 and display the performance data on the displayed performance data [1]. It means that the user confirms the processing result of [1] by displaying the parameter value and the position given in the processing of FIG. Then, during this confirmation process, the user may be allowed to specify a position where the parameter change giving process of [1] is not desired.

なお、上記〔2〕及び〔3〕の再生及び確認処理として、「実施形態1」の各実施例で説明したように、音量や音程等の所定の演奏パラメータの強弱値αを設定し(例えば、ステップA2)、当該演奏パラメータを付与した演奏データ(MIDIデータ等)を再生し、パラメータ付与後演奏データの良否判断(例えば、ステップA7)の結果に応じて強弱値αを設定し直すという手法を採用し得ることは、いうまでもない。   In addition, as described in the examples of “Embodiment 1”, as described in [2] and [3], the strength value α of a predetermined performance parameter such as volume and pitch is set (for example, Step A2), a method of reproducing performance data (MIDI data, etc.) to which the performance parameter is assigned, and resetting the strength value α according to the result of the quality determination of the performance data after the parameter assignment (for example, Step A7). It goes without saying that can be adopted.

図52は、本実施の形態のパラメータ自動編集装置、特にCPU1が実行するメインルーチンの手順を示すフローチャートである。   FIG. 52 is a flowchart showing a procedure of a main routine executed by the parameter automatic editing apparatus of the present embodiment, particularly the CPU 1.

同図において、まず、RAM3のクリアや、最初に処理(上記〔1〕〜〔3〕のいずれかの処理)すべき演奏データの選択等を行う初期化処理を行う(ステップS1)。   In the figure, first, initialization processing for clearing the RAM 3 and selecting performance data to be processed first (any one of the processes [1] to [3]) is performed (step S1).

次に、ユーザの選択した演奏データを、たとえば各種記憶媒体(前記ハードディスク、FD、CD−ROM等)や外部(前記他のMIDI機器17およびサーバコンピュータ20等)から検索して、たとえばRAM3の所定位置に確保された演奏データ記憶領域に格納する(ステップS2)。   Next, the performance data selected by the user is retrieved from, for example, various storage media (the hard disk, FD, CD-ROM, etc.) or from the outside (the other MIDI device 17 and server computer 20, etc.). The performance data storage area secured at the position is stored (step S2).

次に、この演奏データに対して、上記〔1〕のパラメータ変化付与処理(その具体的な処理手順は、図53を用いて後述する)を実行する(ステップS3)。なお、図53のパラメータ変化付与処理は、後述する複数(本実施の形態では、19個)のパラメータ変化付与処理全てに共通した処理を抽出して構成したものである。したがって、ステップS3では、より具体的には、パラメータ変化付与処理1〜19のうち、ユーザが選択した少なくとも1つ以上を実行している。   Next, the parameter change imparting process [1] (the specific process procedure will be described later with reference to FIG. 53) is performed on the performance data (step S3). The parameter change giving process in FIG. 53 is configured by extracting processes common to all of a plurality (19 in this embodiment) of parameter change giving processes to be described later. Therefore, in step S3, more specifically, at least one or more selected by the user among the parameter change assigning processes 1 to 19 is executed.

さらに、このパラメータ変化付与処理以外のその他処理を実行する(ステップS4)。その他処理では、上記〔2〕および〔3〕の処理が行われるが、それに加えて、たとえば演奏データの新規作成処理を行うようにしてもよい。   Further, other processes other than the parameter change giving process are executed (step S4). In the other processes, the processes [2] and [3] are performed. In addition, for example, a new performance data creation process may be performed.

そして、ユーザが本メインルーチンを終了させる操作を行ったか否かを判別し(ステップS5)、その操作を行ったときには、本メインルーチンを終了する一方、その操作を行わないときには、前記ステップS2に戻って、ステップS2〜S5の処理を繰り返し行う。   Then, it is determined whether or not the user has performed an operation for terminating the main routine (step S5). When the operation is performed, the main routine is terminated, and when the operation is not performed, the process proceeds to step S2. Returning, the process of steps S2 to S5 is repeated.

図53は、ステップS3のパラメータ変化付与処理の手順を示すフローチャートである。   FIG. 53 is a flowchart showing the procedure of the parameter change giving process in step S3.

同図において、まず、前記演奏データ記憶領域に格納されている演奏データを解析する(ステップS11)。演奏データの解析とは、具体的には、演奏データ中、パラメータの値を変化させた方がよい個所を抽出することをいう。   In the figure, first, performance data stored in the performance data storage area is analyzed (step S11). Specifically, the performance data analysis refers to extracting a portion of the performance data where the parameter value should be changed.

次に、抽出された個所のそれぞれに対して、その個所に最適なパラメータ値(変化値)を決定する(ステップS12)。   Next, an optimum parameter value (change value) is determined for each extracted location (step S12).

そして、決定された各パラメータ値を、演奏データ中の当該位置に付与した(ステップS13)後に、本パラメータ変化付与処理を終了する。   Then, after each determined parameter value is assigned to the corresponding position in the performance data (step S13), the parameter change giving process is terminated.

なお、図52及び図53により説明した処理は、音量パラメータのほか、先に説明したテンポやタイミング等の時間的制御情報(時間パラメータ)に変化を付与したり、音程等の他のパラメータに変化を付与するのに用いられることは、いうまでもない。   Note that the processing described with reference to FIGS. 52 and 53 gives changes to the time control information (time parameter) such as the tempo and timing described above in addition to the volume parameter, and changes to other parameters such as the pitch. Needless to say, it is used to give

この発明は、このパラメータ変化付与処理に特徴があり、以下、その具体的な処理方法を詳細に説明する。   The present invention is characterized by this parameter change providing process, and the specific processing method will be described in detail below.

(A)音符が上昇している部分での処理
図54は、音量パラメータ変化付与処理1の手順を示すフローチャートであり、本音量パラメータ変化付与処理1では、演奏データの音量パラメータをその音高の変化に応じて変化させるという表情付けを行う。具体的には、次のアルゴリズムに従って、音量パラメータを変化させる。すなわち、
(1)ノートイベント列の音高(ノートナンバ)が上昇傾向にあるときには、音量を徐々に増大させる
(2)ノートイベント列の音高が上昇傾向から下降傾向に変化したときには、その変化点のノートイベントにアクセントを付与する
ここで、ノートイベントは、通常、ノートオンイベントおよびノートオフイベントの両者を含む意味で用いられるが、本実施の形態では、ノートオフイベントを考慮していないので、ノートイベントは、ノートオンイベントのみの意味で用いることにする。
(A) Processing in a portion where a note is rising FIG. 54 is a flowchart showing the procedure of the volume parameter change giving process 1. In the volume parameter change giving process 1, the volume parameter of the performance data is set to the pitch of the performance data. Make a facial expression that changes according to the change. Specifically, the volume parameter is changed according to the following algorithm. That is,
(1) When the pitch (note number) of the note event sequence is increasing, the volume is gradually increased. (2) When the pitch of the note event sequence is changed from increasing to decreasing, the change point Here, note events are generally used to include both note-on events and note-off events. In this embodiment, note-off events are not taken into account. The event is used only for the note-on event.

図54において、まず、前記演奏データ記憶領域に格納されている演奏データ(以下、この演奏データを「選択演奏データ」という)中、音量変化を付与したい区間をユーザが指定すると、その指定区間を、RAM3のワークエリアに格納して、解析区間とする(ステップS21)。なお、区間は指定せずに、演奏データの全区間を解析区間としてもよいことは言うまでもない。ここで、演奏データはシーケンスデータであるため、各演奏データは時間軸に対して広がりを有している。このため、区間という概念を、そこに持ち込むことができる。   In FIG. 54, first, when the user designates a section in the performance data stored in the performance data storage area (hereinafter, this performance data is referred to as “selected performance data”) to which the volume change is to be given, the designated section is designated. The data is stored in the work area of the RAM 3 and is set as an analysis section (step S21). Needless to say, the entire section of the performance data may be set as the analysis section without specifying the section. Here, since the performance data is sequence data, each performance data has a spread with respect to the time axis. For this reason, the concept of a section can be brought there.

次に、解析区間からノートイベント列の音高が上昇傾向および下降傾向にある部分区間を検索して切り出す(ステップS22)。   Next, a partial section in which the pitch of the note event sequence has an upward tendency and a downward tendency is searched and cut out from the analysis section (step S22).

図55は、音高が上昇傾向にあるノートイベント列の一例を示す図であり、(a)は、単純な上昇音系の一例を示し、(b)は、単純な上昇音系ではないが、全体としては上昇音系と言える一例を示している。すなわち、本実施の形態では、図55(a)に示すノートイベント列の区間を、音高が上昇傾向にある部分区間として切り出すだけでなく、図55(b)に示すノートイベント列の区間も、音高が上昇傾向にある部分区間として切り出すようにしている。以下、この部分区間を検索する方法について説明する。   FIG. 55 is a diagram showing an example of a note event sequence in which the pitch tends to rise. FIG. 55A shows an example of a simple rising sound system, and FIG. 55B is not a simple rising sound system. As a whole, an example of a rising sound system is shown. That is, in the present embodiment, not only the section of the note event sequence shown in FIG. 55 (a) is cut out as a partial section in which the pitch tends to rise, but also the section of the note event sequence shown in FIG. 55 (b). Then, the pitch is cut out as a partial section in which the pitch tends to rise. Hereinafter, a method for searching for this partial section will be described.

まず、選択演奏データからノートイベントのみを抽出し、そのノートイベントに含まれるノートナンバを時系列に並べることにより、時系列のノートナンバ列を生成する。このノートナンバ列に対して、ハイパスフィルタ(HPF)処理を施すことにより、音程の変化傾向を算出する。なお、このHPF処理のみでは、その算出値の変化が時間的に細かすぎる場合には、さらに、その算出値(データ列)に対してロウパスフィルタ(LPF)処理を施し、その変化を時間的に滑らかにする。ノートナンバ列に対して、このようなフィルタ処理を施すことにより、図55(b)のような全体としては上昇音系と言える音系を、図55(a)のような単純な上昇音系と同様に検索できるようになる。   First, only note events are extracted from the selected performance data, and note numbers included in the note events are arranged in time series to generate a time series note number string. By applying a high-pass filter (HPF) process to the note number sequence, a pitch change tendency is calculated. If the change in the calculated value is too small in time only by this HPF process, the calculated value (data string) is further subjected to a low-pass filter (LPF) process, and the change is temporally changed. To smooth. By applying such a filtering process to the note number row, a sound system that can be said to be an ascending sound system as a whole as shown in FIG. 55 (b) becomes a simple ascending sound system as shown in FIG. 55 (a). You can search as well.

図56は、このようにして算出された音程の変化傾向を表わす時系列データの一例を示す図であり、縦軸は、その正側が音程上昇傾向を示し、その負側が音程下降傾向を示し、横軸は時刻を示している。すなわち、同図において、解析区間t0−t7のうち、区間t0−t1,t2−t3,t4−t5,t6−t7の各区間を、音高が上昇傾向にある部分区間として切り出す。   FIG. 56 is a diagram showing an example of time-series data representing the change tendency of the pitch calculated in this way, and the vertical axis shows a trend of increasing the pitch on the positive side and a tendency of decreasing the pitch on the negative side. The horizontal axis indicates time. That is, in the figure, among the analysis sections t0 to t7, sections t0 to t1, t2 to t3, t4 to t5, and t6 to t7 are cut out as partial sections in which the pitch tends to increase.

また、音高が下降傾向にある部分区間も、音高が上昇傾向にある部分区間を切り出す過程で、簡単に切り出すことができる。すなわち、図56中、時系列データが負の値を採る区間t1−t2,t3−t4,t5−t6の各区間が、音高が下降傾向にある部分区間に相当するので、この各区間を音高が下降傾向にある部分区間として切り出せばよい。   Moreover, the partial section in which the pitch tends to decrease can be easily cut out in the process of cutting out the partial section in which the pitch tends to increase. That is, in FIG. 56, each of the sections t1-t2, t3-t4, t5-t6 where the time series data takes a negative value corresponds to a partial section where the pitch tends to decrease. What is necessary is just to cut out as a partial area where the pitch tends to fall.

なお、切り出し区間の長さは、小節長や拍長の整数倍であってもよいし、任意の長さであってもよい。そして、図56に示すように、音高が上昇傾向にある部分区間が1解析区間内に複数個あるときには、そのすべての部分区間を切り出すようにする。   Note that the length of the cut-out section may be an integer multiple of the measure length or the beat length, or may be an arbitrary length. Then, as shown in FIG. 56, when there are a plurality of partial sections whose pitches tend to increase in one analysis section, all of the partial sections are cut out.

図54に戻り、切り出された部分区間毎に、当該区間に属するノートナンバ列の音高の変化速度を算出し、この算出結果に応じて、当該区間に属するノートイベント列の各ノートイベントに付与すべき音量パラメータの変化付与パターンを決定する(ステップS23)。ここで、音高の変化速度とは、音高変化の傾き、すなわち、単位時間当たりの音高変化量を意味する。そして、変化付与パターンとは、予め作成されて、たとえばROM2に記憶されている音量パラメータの変化傾向を表わすテンプレートのことをいう。このテンプレートは、具体的には、元の音量パラメータ値を置き換えるデータまたは元の音量パラメータ値を修正するデータのいずれかを時系列データとしたものである。そして、本実施の形態では、音量パラメータの変化傾向とは、音高が上昇傾向にある部分区間では、音量パラメータの値を徐々に増大させて行くという変化傾向をいい、この増大率を各テンプレート毎に変化させ、音高の変化速度が大きい部分区間に対しては、増大率が大きく設定されているテンプレートが選択される。   Returning to FIG. 54, for each segmented segment, the pitch change speed of the note number sequence belonging to the segment is calculated, and given to each note event of the note event sequence belonging to the segment according to the calculation result. A volume parameter change giving pattern to be determined is determined (step S23). Here, the pitch change speed means the slope of the pitch change, that is, the pitch change amount per unit time. The change imparting pattern is a template that is created in advance and represents a change tendency of the volume parameter stored in the ROM 2, for example. Specifically, this template uses time series data of either data that replaces the original volume parameter value or data that corrects the original volume parameter value. In the present embodiment, the change tendency of the volume parameter means a change tendency that the value of the volume parameter is gradually increased in the partial section in which the pitch tends to increase. A template having a large increase rate is selected for a partial section that is changed every time and the pitch change speed is large.

なお、変化付与パターンとして、上記テンプレートを用いる代わりに、所定の演算式により算出するようにしてもよい。   In addition, as a change provision pattern, you may make it calculate with a predetermined | prescribed arithmetic expression instead of using the said template.

次に、切り出された部分区間毎に、当該区間に属するノートイベント列の各ノートイベントに付与すべき音量パラメータ値を、前記決定された変化付与パターンに基づいて変更する(ステップS24)。なお、変更すべき音量パラメータが存在しない場合には、その音量パラメータを追加すればよい。ここで、音量パラメータとして、具体的に、ノートイベントに含まれるベロシティを採るようにすれば、音量パラメータ値の変更とは、ベロシティ値の変更を意味する。この他、エクスプレッションデータを当該区間内の各ノートイベントに付随させて挿入するようにしてもよい。   Next, the volume parameter value to be assigned to each note event of the note event sequence belonging to the section is changed for each of the cut out partial sections based on the determined change imparting pattern (step S24). If there is no volume parameter to be changed, the volume parameter may be added. Here, if the velocity included in the note event is specifically taken as the volume parameter, the change of the volume parameter value means the change of the velocity value. In addition, expression data may be inserted in association with each note event in the section.

次に、ステップS22で切り出された部分区間を時系列に並べて、音高が上昇傾向から下降傾向に変化する時点、すなわち、図56において、フィルタ処理後の時系列データの符号が正から負に変化する時点(時刻t1,t3,t5)を検出し、その時点の音符、すなわち切り出された部分区間の先頭位置または最後尾の音符(ノートイベント)にアクセントを示す音量データを付与する(ステップS25)。   Next, the partial sections cut out in step S22 are arranged in time series, and when the pitch changes from an upward trend to a downward trend, that is, in FIG. 56, the sign of the time-series data after filtering is changed from positive to negative. The changing time point (time t1, t3, t5) is detected, and the volume data indicating the accent is given to the note at that point, that is, the beginning position or the last note (note event) of the cut out segment (step S25). ).

そして、本音量パラメータ変化付与処理1を終了させる操作をユーザが行ったか否かを判別し、行ったときには、本音量パラメータ変化付与処理1を終了する一方、行わないときには、前記ステップS21に戻って、ステップS21〜S26の処理を繰り返し行う。   Then, it is determined whether or not the user has performed an operation for ending the present volume parameter change providing process 1. If the user has performed the operation, the present volume parameter change providing process 1 is ended. If not, the process returns to step S21. The processes of steps S21 to S26 are repeated.

この発明の一実施例によれば、図54〜図56を用いて説明した「音量パラメータ変化付与処理1」の手法は、音程パラメータに変化を付与するのに適用可能である。つまり、音高上昇系ではだんだん音程が低くずれて所謂「上がり切らない」演奏状況が生じるが、これに対応して、演奏データ(MIDIデータ等)から音高が上昇している部分を検索し(ステップS22)、HPF(場合によってはLPFも)を用いて音高上昇の速さを評価し(ステップS23)、所定の音程付与パターン等に基づいて音程変化を算出し(ステップS24)、これを演奏データに付与する(ステップS25)ことにより、音符の音高が上昇している部分では、keyよりも細かい単位で音程を徐々に低くするという表情付けを実現することができる。   According to one embodiment of the present invention, the technique of “volume parameter change applying process 1” described with reference to FIGS. 54 to 56 can be applied to change a pitch parameter. In other words, in the pitch increasing system, the pitch gradually shifts and a so-called “not rising” performance situation arises. Correspondingly, the portion where the pitch is increasing is searched from the performance data (MIDI data, etc.). (Step S22), the speed of pitch increase is evaluated using the HPF (also LPF in some cases) (Step S23), and a change in pitch is calculated based on a predetermined pitch assignment pattern (Step S24). Is added to the performance data (step S25), it is possible to realize the expression that the pitch is gradually lowered in units smaller than the key in the portion where the pitch of the note is increasing.

このように、演奏データからHPF等を用いて音高上昇の速さを検出し、検出された値に従った音程変化を行うと、激しい変化で上昇する場合はより大きく音程が低くずれ、また、逆に、激しい変化で下降する場合には、より大きく音程が高くずれるということが実現できる。しかしながら、場合によっては、下降であろうが、上昇であろうが、変化が大きいほど音程が低くずれるようにしたい場合もある。その場合には、HPFにより検出される絶対値に応じて音程変化を算出する構成にすればよい。   In this way, when the speed of pitch increase is detected from performance data using HPF or the like, and the pitch is changed according to the detected value, the pitch shifts greatly lower when the pitch rises due to a drastic change, and On the contrary, when descending due to a drastic change, it is possible to realize that the pitch is greatly shifted. However, depending on the case, it may be desired to make the pitch shift lower as the change is larger, whether it is a decrease or an increase. In that case, the pitch change may be calculated according to the absolute value detected by the HPF.

なお、このように音高上昇系において音程を低くずらす表情付け処理は、鍵盤楽器など、音程がずれる要素の少ないものでは、この機能を使わない方が自然である。従って、演奏データを解析時(例えば、ステップS22)に音色も判断して楽器種別を確認しておく必要がある。   It should be noted that the expression processing for shifting the pitch lower in the pitch raising system in this way is more natural not to use this function for a keyboard instrument or the like that has few elements whose pitch is shifted. Therefore, it is necessary to check the musical instrument type by determining the timbre when analyzing performance data (for example, step S22).

この表情付け処理のシステムを利用すると、演奏音域の変化を観測することができるので、演奏音域に大きな変化があったときには、ポルタメント(フレットのない弦楽器の場合)やスライド(フレットのある弦楽器の場合)を加えるという自動表現も可能になる。   This expression processing system can be used to observe changes in the performance range, so if there is a significant change in the performance range, portamento (for strings instruments without frets) or slides (for strings instruments with frets) ) Is also possible.

(B)曲の進行に伴う盛上り具合を表わすための処理
図57は、音量パラメータ変化付与処理2の手順を示すフローチャートであり、本音量パラメータ変化付与処理2では、演奏データの音量パラメータの値を徐々に増大させることにより、興奮度を高めるという表情付けを行う。
(B) Process for Representing Excitement Accompanied by Progress of Song FIG. 57 is a flowchart showing the procedure of the volume parameter change giving process 2. In the volume parameter change giving process 2, the value of the volume parameter of the performance data is shown. By gradually increasing the expression, the expression is increased to increase the degree of excitement.

同図において、まず、選択演奏データの全時間長を算出する(ステップS31)。   In the figure, first, the total time length of the selected performance data is calculated (step S31).

次に、変化付与パターンを選択する(ステップS32)。変化付与パターンとは、曲全体の音量変化傾向を表わすパターンデータをいい、たとえば、ROM2にテーブルデータの形式で予め複数種類のパターンデータを用意しておき、その中から、ユーザの選択に応じてまたは自動的に、いずれか1つを選択する。図58は、変化付与パターンの一例を示す図であり、縦軸は音量係数を示し、横軸は曲の進行方向を示している。同図に示すように、音量係数、すなわち音量データ(エクスプレッションデータまたはボリュームデータ)に重み付けを行うための係数は、曲の進行に従って、増大している。しかし、音量データを無限大に増大させることは、音源回路7のハードウェア上の制約と曲への自然な表情付けを損なうため、図58に示すように、音量係数は、曲の進行に従って所定の有限値に収束するような特性を備えることが望ましい。   Next, a change imparting pattern is selected (step S32). The change imparting pattern refers to pattern data representing the volume change tendency of the entire song. For example, a plurality of types of pattern data are prepared in the form of table data in the ROM 2 in accordance with the user's selection. Or one of them is automatically selected. FIG. 58 is a diagram showing an example of a change imparting pattern, in which the vertical axis represents the volume coefficient and the horizontal axis represents the direction of progression of the music. As shown in the figure, the volume coefficient, that is, the coefficient for weighting the volume data (expression data or volume data) increases as the music progresses. However, increasing the volume data infinitely impairs the hardware limitations of the tone generator circuit 7 and natural expression of the music, so the volume coefficient is predetermined as the music progresses as shown in FIG. It is desirable to have characteristics that converge to a finite value of.

次に、ステップS31で算出された全時間長データと、ステップS32で選択された変化付与パターンとに基づいて、音量変化区間毎の変化値を算出する(ステップS33)。これは、曲の長さは、演奏データに応じて任意に異なるのに対して、変化付与パターンは、所定の固定長を基準にしているため、選択演奏データが決まると、それに応じて変化付与パターンの全長を伸縮させ、選択演奏データの全時間長に合わせる(スケーリング)必要があるからである。このようにして、その全長が選択演奏データの全時間長に合わされた変化付与パターンから、各音量変化区間毎(たとえば、小節毎であるが、これに限らず、演奏フレーズ毎でもよい)の変化値を決定する。すなわち本実施の形態では、変化付与パターンはテーブルデータの形式をなしているため、上記スケーリング後のテーブルデータから、各音量変化区間にそれぞれ対応する位置のデータを読み出す。なお、テーブルデータは、上述したように、音量係数値から構成されているので、読み出された各音量係数値を、当該各音量変化区間毎の音量データと乗算すること(重み付けを行うこと)により、変化値に変換する必要がある。   Next, a change value for each volume change section is calculated based on the total time length data calculated in step S31 and the change applying pattern selected in step S32 (step S33). This is because the song length is arbitrarily different depending on the performance data, but the change imparting pattern is based on a predetermined fixed length, so when the selected performance data is determined, the change impart is given accordingly. This is because the entire length of the pattern needs to be expanded and contracted (scaling) to match the total time length of the selected performance data. In this way, from the change imparting pattern in which the total length is matched with the total time length of the selected performance data, the change for each volume change section (for example, for each measure, but for each performance phrase) Determine the value. That is, in the present embodiment, since the change imparting pattern has a table data format, data at positions corresponding to the respective sound volume change sections are read from the scaled table data. Since the table data is composed of volume coefficient values as described above, each read volume coefficient value is multiplied by volume data for each volume change section (weighting is performed). Therefore, it is necessary to convert it into a change value.

最後に、上記算出された音量変化区間毎の変化値のそれぞれを、選択演奏データの対応する位置に挿入する(ステップS34)。具体的には、算出された小節毎の変化値(音量係数値により重み付けされた音量データ)を、選択演奏データ中、当該各小節の先頭位置に記録(挿入)する。   Finally, each of the calculated change values for each volume change section is inserted into the corresponding position of the selected performance data (step S34). Specifically, the calculated change value for each measure (volume data weighted by the volume coefficient value) is recorded (inserted) at the head position of each measure in the selected performance data.

なお、選択演奏データが複数のトラックにより構成されているときには、該各トラックそれぞれに対して、同一の変化付与パターンを使用するようにしてもよいし、または、それぞれ異なった変化付与パターンを使用するようにしてもよい。さらに、変化付与パターンをユーザが作成または編集することができるような機能を設けるようにしてもよい。具体的には、変化付与パターンが図58に示すテーブルデータである場合には、倍率を示す数値をユーザが選択すると、その倍率で各データ値が一律に増減し、テーブルデータの全体的な特性は変化しないようにする。このとき、数値に代えて、「強い」、「中程度」、「弱い」、「変化なし」というような言葉を選択するようにし、ユーザがこのいずれかの言葉を選択すると、CPU1がこの選択された言葉を倍率に換算し、その倍率で各データ値を一律に増減させるようにしてもよい。さらに、所定範囲毎に異なった倍率でデータ値を増加減できるようにしてもよい。   When the selected performance data is composed of a plurality of tracks, the same change imparting pattern may be used for each track, or different change imparting patterns may be used. You may do it. Furthermore, a function that allows the user to create or edit the change imparting pattern may be provided. Specifically, when the change imparting pattern is the table data shown in FIG. 58, when the user selects a numerical value indicating the magnification, each data value is uniformly increased or decreased by the magnification, and the overall characteristics of the table data are determined. Do not change. At this time, instead of the numerical value, words such as “strong”, “medium”, “weak”, “no change” are selected, and when the user selects any of these words, the CPU 1 selects this word. The converted words may be converted into a magnification, and each data value may be uniformly increased or decreased by the magnification. Furthermore, the data value may be increased or decreased at a different magnification for each predetermined range.

この発明の一実施例によれば、図57及び図58を用いて説明した「音量パラメータ変化付与処理2」は、音量パラメータだけでなく、音程パラメータの変化を付与するのに適用可能であり、音程について、相応する効果を得ることができる。つまり、演奏データ(MIDIデータ等)の曲の長さを評価し(ステップS31)、変化付与パターン(音程変化テーブル)のパラメータを決定し(ステップS32)、これに基づいて音程変化を算出し(ステップS33)、表情付けを行う(ステップS34)ことによって、曲の進行に従い、音程パラメータの値を徐々に増大させてだんだん音程を高くし、興奮度を高めるという表情付けを行うことができる。   According to one embodiment of the present invention, the “volume parameter change applying process 2” described with reference to FIGS. 57 and 58 can be applied to assign not only a volume parameter but also a pitch parameter. A corresponding effect can be obtained for the pitch. That is, the length of the musical piece of performance data (MIDI data or the like) is evaluated (step S31), the parameter of the change imparting pattern (pitch change table) is determined (step S32), and the pitch change is calculated based on this (step S32). By performing facial expression (step S33) and performing facial expression (step S34), it is possible to perform facial expression that gradually increases the pitch parameter value to gradually increase the pitch and increase the degree of excitement as the music progresses.

ここで、変化付与パターンとして、図59に示すように、図58のテーブルと同様に係数値が増大する「曲の進行−音程係数」テーブル(縦軸を「音程係数」としたもの)を用いるのが好ましい。この場合、例えば、1小節毎に、図59の「曲の進行−音程係数」テーブルに従った倍率で音程を高くしていくと良い。このような「曲の進行−音程係数」テーブルとしては、音程の目標値を設定してその値を正規化した音程係数変化カーブに乗算して実際の変化カーブを得るように構成するのが望ましい。なお、この音程パラメータ変化付与の効果は、どんな場合にでも有効な機能ではないので、オフにできることが必要である。   Here, as shown in FIG. 59, a “music progression-pitch coefficient” table (the vertical axis is “pitch coefficient”) whose coefficient value increases is used as the change imparting pattern, as in the table of FIG. Is preferred. In this case, for example, the pitch may be increased at a rate according to the “music progression-pitch coefficient” table of FIG. 59 for each measure. Such a “music progression-pitch coefficient” table is preferably configured so that an actual change curve is obtained by setting a target value of a pitch and multiplying that value by a normalized pitch coefficient change curve. . It should be noted that this pitch parameter change providing effect is not an effective function in any case, so it must be turned off.

(C)演奏音の細かさに応じた処理
図60は、音量パラメータ変化付与処理3の手順を示すフローチャートであり、本音量パラメータ変化付与処理3では、連続演奏の細かさに応じて音量を変化させるという表情付けを行う。
(C) Processing according to the fineness of the performance sound FIG. 60 is a flowchart showing the procedure of the volume parameter change giving process 3. In the volume parameter change giving process 3, the volume is changed according to the fineness of the continuous performance. Make a facial expression.

同図において、まず、選択演奏データ中から音符密度が所定値以上の部分領域、すなわち難関部分を検出する(ステップS41)。音符密度とは、単位時間当たりの音符数を意味する。そして、部分領域は、たとえば、1小節単位、半小節単位、所定の音符長以下の音符が存在する場所近傍のいずれかで検出する。   In the figure, first, a partial area having a note density of a predetermined value or more, that is, a difficult part is detected from the selected performance data (step S41). The note density means the number of notes per unit time. The partial area is detected, for example, in one bar unit, half bar unit, or in the vicinity of a place where a note having a predetermined note length or less exists.

例えば、譜面の一例を示す図3において、音符密度を1拍当たりの音符数とし、所定値を8分音符2個以上とし、部分領域を1小節単位とすると、ステップS41では、同図の第2小節が部分領域として検出される。   For example, in FIG. 3 showing an example of a musical score, if the note density is the number of notes per beat, the predetermined value is two or more eighth notes, and the partial area is one bar unit, in step S41, Two bars are detected as partial areas.

次に、難関部分(検出部分)の音程変化幅を算出する(ステップS42)。音程変化幅とは、音程の最大値と最小値との変化幅を意味する。そして、難関部分の音程変化幅を算出するようにしたのは、演奏時の音量は、難関部分であるかどうかに加えて、音程変化幅の大小によっても、変化するのが自然だからである。   Next, the pitch change width of the difficult part (detected part) is calculated (step S42). The pitch change width means a change width between the maximum value and the minimum value of the pitch. The reason why the pitch change range of the difficult part is calculated is that the volume during performance naturally changes depending on the pitch change range in addition to whether it is a difficult part.

次に、難関部分毎に前記音符密度と音程変化幅に応じた変化付与パターンを決定する(ステップS43)。変化付与パターンは、音符密度および音程変化幅の各値に応じた数のパターンがテンプレートとして予め用意されており、ステップS43では、その複数のテンプレートから、前記算出された音符密度および音程変化幅に応じて、1つのテンプレートを選択する。   Next, a change imparting pattern corresponding to the note density and pitch change width is determined for each difficult part (step S43). As the change imparting pattern, a number of patterns corresponding to the respective values of the note density and the pitch change width are prepared in advance as templates. In step S43, the calculated note density and the pitch change width are calculated from the plurality of templates. In response, one template is selected.

なお、これに限らず、たとえば図61に示すように、音符密度と音量(前述した音量係数)との関係を示すテーブルデータを用意し、算出された音量密度に対しては、テーブルデータを検索することにより、対応する音量係数値を求め、この音量係数値を、算出された音程変化幅に応じて修正するようにしてもよい。さらに、テーブルデータも用いずに、所定の演算アルゴリズムによって、演算のみで、音量係数を算出するようにしてもよい。   For example, as shown in FIG. 61, table data indicating the relationship between note density and volume (the volume coefficient described above) is prepared, and table data is searched for the calculated volume density. Thus, the corresponding volume coefficient value may be obtained, and the volume coefficient value may be corrected according to the calculated pitch change range. Furthermore, the volume coefficient may be calculated only by calculation using a predetermined calculation algorithm without using table data.

次に、上記決定された変化付与パターンに基づいて音量パラメータを修正する(ステップS44)。ここで、音量パラメータとして、具体的に、ノートイベントに含まれるベロシティを採るようにすれば、音量パラメータの修正とは、上記難解部分に属する演奏データ中の各ベロシティを変化付与パターンに基づいて修正することを意味する。そして、変化付与パターンを構成するデータとして、音量係数を採れば、元のベロシティ値に音量係数値を乗算することで、音量パラメータを修正する。なお、音符密度と演奏難易度が共に高い部分では、通常は音量が小さくなる傾向があるが、その傾向を心得た奏者なら、その傾向を補正しようとして、逆に音量が大きくなることもあり得ることを考慮した変化付与が行えるようにしてもよい。(難解部分では必ず音量を下げるとは限らない)。   Next, the volume parameter is corrected based on the determined change imparting pattern (step S44). Here, if the velocity included in the note event is specifically taken as the volume parameter, the correction of the volume parameter means that each velocity in the performance data belonging to the difficult part is corrected based on the change imparting pattern. It means to do. If the volume coefficient is used as data constituting the change imparting pattern, the volume parameter is corrected by multiplying the original velocity value by the volume coefficient value. It should be noted that the volume tends to decrease in the part where both the note density and the performance difficulty level are high, but if the player knows the tendency, the volume may increase conversely in order to correct the tendency. You may enable it to give the change which considered this. (In the difficult part, the volume is not always reduced.)

この発明の一実施例によれば、図3、図60及び図61を用いて説明した「音量パラメータ変化付与処理3」の手法は、「音程の不安定さ」を付与する表情付けに適用可能である。すなわち、特に、弦楽器や管楽器などでは、音符が細かいと弾きにくくなるので音程が不安定になるという演奏態様に対応して、音符の密度が細かい部分を検出し(ステップS41)、音程変化の幅を評価し(ステップS42)、この評価から音程の不安定さを算出して(ステップS43)音程パラメータを修正する(ステップS44)により、演奏の細かさに応じて音程の不安定さを増大させるという表情付けを行うことができる。   According to one embodiment of the present invention, the method of “volume parameter change giving process 3” described with reference to FIGS. 3, 60 and 61 can be applied to facial expression that gives “pitch instability”. It is. That is, particularly in a stringed instrument or a wind instrument, in response to a performance aspect in which the pitch becomes unstable because it is difficult to play if the note is fine, a portion where the pitch of the note is fine is detected (step S41), and the range of the pitch change. (Step S42), the pitch instability is calculated from the evaluation (step S43), and the pitch parameter is corrected (step S44), thereby increasing the pitch instability in accordance with the performance details. You can make a facial expression.

例えば、図3に示す譜面例において、1拍当りの音符数は1小節目は1つであり2小節目は2つであるが、この数値を係数として音程の不安定さを変化させるのである。このためには、「音符時間間隔−音程の不安定さ」テーブルを用意しておき、図3の譜面例でいうと、1小節目では音程の不安定係数値「a」が得られ、2小節目では音程の不安定係数値「b」(b>a)が得られるようにする。なお、実際には、小節や拍当りの音符数よりも、時間当りの音符数が重要な情報になるので、テンポを考慮する事が必須である。   For example, in the musical score example shown in FIG. 3, the number of notes per beat is one for the first measure and two for the second measure, but the numerical value is used as a coefficient to change the instability of the pitch. . For this purpose, a “note time interval-pitch instability” table is prepared, and in the musical score example of FIG. 3, a pitch instability coefficient value “a” is obtained at the first measure. At the bar, an instability coefficient value “b” (b> a) of the pitch is obtained. Actually, since the number of notes per time is more important than the number of notes per beat or beat, it is essential to consider the tempo.

つまり、難しくて弾けない結果音程が不安定になることをシミュレートして、実在感を増す表情付けを行うには、図62のように、ある一定の音符密度以上から音程の不安定さが大きくなるように変化するような「音符時間間隔−音程の不安定さ」テーブルを変化付与パターンとして用い、音程の不安定さに関するパラメータについて図60の処理フローを適用すれば良い。また、このテーブルの閾値をパラメータとすることによって、下手さのシミュレートを調整することができる。   In other words, in order to simulate the fact that the pitch becomes unstable as a result of being difficult to play, and to add a facial expression that enhances the sense of reality, as shown in FIG. The “note time interval-pitch instability” table, which changes so as to increase, is used as a change imparting pattern, and the processing flow of FIG. 60 may be applied to parameters relating to pitch instability. Also, the poorness simulation can be adjusted by using the threshold value of this table as a parameter.

図60の処理フローの適用に当り、ステップS41での音符密度の評価は、小節や拍を単位として、音符数を数え、テンポを評価することによって、単位時間あたりの音符数を数えると良い。また、ステップS42での音程変化の幅の評価とは、その単位時間あたりの音符のkey単位での音程の最大値と最小値を調べることである。生演奏では、最大値と最小値の幅が広いほど、激しい運動になるので、keyより細かい単位の音程が不安定気味になる。従って、音符の密度の評価に加えて、音程の幅が広いほど音程が不安定になる度合いを大きくすると自然な表情になる。   In applying the processing flow of FIG. 60, the note density in step S41 may be evaluated by counting the number of notes in units of measures and beats, and by evaluating the tempo, thereby counting the number of notes per unit time. The evaluation of the range of pitch change in step S42 is to check the maximum value and the minimum value of the note in key units per unit time. In live performances, the wider the range between the maximum and minimum values, the more intense the movement, so the pitch in units smaller than the key becomes unstable. Therefore, in addition to the evaluation of the density of notes, a natural expression is obtained by increasing the degree of pitch instability as the pitch range is wider.

なお、鍵盤楽器の場合、ミスタッチはあるものの、基本的に音程が不安定になることはないので、このシステムは、弦楽器(特にフレットのないタイプ)や管楽器に適応するべきである。   In the case of keyboard instruments, although there is a mistouch, the pitch does not basically become unstable, so this system should be applied to stringed instruments (especially those without frets) and wind instruments.

また、音符密度が高くなると、例えば、撥弦楽器の場合、はじき損ないが起こりやすくなる。その場合、プリングオフ奏法やハンマリングオン奏法と同じような効果となってしまう。そのような事例に倣うと、音符密度によって、ある確率で自動的にプリングオフやハンマリングオン奏法を挿入するということが、自然な演奏の再現に寄与することになる。そこで、この発明の一実施例によれば、演奏データ(MIDIデータ等)から音符密度が高い部分を検出し(ステップS41)、この部分におけるハンマリングオン(プリングオフ)の頻度を算出し(ステップS42に対応)、これに応じて演奏データにハンマリングオン(プリングオフ)を自動的に付加する(ステップS43,S44に対応)ことにより、「音符が細かいとハンマリングオン(プリングオフ)する」システムを構成することができる。   Further, when the note density is increased, for example, in the case of a plucked string instrument, the repelling is likely to occur. In this case, the same effect as the pull-off performance method and the hammering-on performance method is obtained. Following such a case, automatically inserting a pull-off or hammering-on performance with a certain probability according to the note density contributes to reproduction of a natural performance. Therefore, according to one embodiment of the present invention, a portion having high note density is detected from performance data (MIDI data or the like) (step S41), and the frequency of hammering on (pulling off) in this portion is calculated (step S41). Corresponding to this, hammering on (pulling off) is automatically added to the performance data in response to this (corresponding to steps S43 and S44), so that “hammering on (pulling off) when the note is fine”. The system can be configured.

(D)同一/類似フレーズの演奏に伴う処理
図63は、音量パラメータ変化付与処理4の手順を示すフローチャートであり、本音量パラメータ変化付与処理4では、類似フレーズが繰り返し出現する選択演奏データの場合に、2番目以降の類似フレーズの音量パラメータを、その類似度および出現態様に応じて変化させるという表情付けを行う。具体的には、次のアルゴリズムに従って、音量パラメータを変化させる。すなわち、
(1)類似度が高いフレーズが連続して出現する場合には、2番目以降の類似フレーズの音量パラメータの値を、最初の類似フレーズのそれより小さくする
(2)類似フレーズが連続せずに繰り返し出現する場合には、2番目以降の類似フレーズの音量パラメータの値を、最初に出現する類似フレーズのそれに類似した値であって、その類似度に応じた値に変更する。
(D) Process associated with performance of same / similar phrases FIG. 63 is a flowchart showing the procedure of the volume parameter change giving process 4. In the volume parameter change giving process 4, the selected performance data in which similar phrases appear repeatedly is shown. In addition, the expression of changing the volume parameter of the second and subsequent similar phrases in accordance with the similarity and appearance mode is performed. Specifically, the volume parameter is changed according to the following algorithm. That is,
(1) When phrases having high similarity appear continuously, the volume parameter value of the second and subsequent similar phrases is made smaller than that of the first similar phrase. (2) Without similar phrases being consecutive. In the case of repeated appearance, the value of the volume parameter of the second and subsequent similar phrases is changed to a value that is similar to that of the first similar phrase and that corresponds to the similarity.

図63において、まず、選択演奏データをフレーズ単位に分割する(ステップS51)。フレーズ単位とは、本実施の形態では、たとえば1小節長であるが、これに限らず、複数小節長であってもよいし、他の単位長であってもよい。また、フレーズとして、イントロ部、フィルイン部およびメイン部等の、いわゆる演奏フレーズを採用してもよい。   In FIG. 63, first, the selected performance data is divided into phrases (step S51). In this embodiment, the phrase unit is, for example, one bar length. However, the phrase unit is not limited to this, and may be a plurality of bar lengths or other unit lengths. Moreover, you may employ | adopt what is called a performance phrase, such as an intro part, a fill-in part, and a main part, as a phrase.

次に、上記分割された各フレーズに含まれる演奏データ(具体的には、ノートイベントおよびデルタタイム等)を、該各フレーズ間で比較することにより、類似フレーズを検出する(ステップS52)。   Next, similar phrases are detected by comparing performance data (specifically, note event, delta time, etc.) included in each of the divided phrases between the phrases (step S52).

そして、このようにして検出された類似フレーズ毎に類似度を算出する(ステップS53)。ここで、類似度は、たとえば、比較するフレーズ間で、(1)演奏データがすべて同一、(2)演奏データの一部のみが相違、(3)演奏データの一部のみが同一、(4)演奏データがすべて相違、の4段階の値とするが、この段階は、これより細かくても粗くてもよい。なお、ステップS53では、その前のステップS52で類似フレーズを検出しているため、類似度が上記(4)ということはあり得ない。   Then, the similarity is calculated for each similar phrase detected in this way (step S53). Here, the similarity is, for example, (1) all the performance data is the same, (2) only a part of the performance data is different, (3) only a part of the performance data is the same, (4 ) Although the performance data are all different, the four-stage value is used, but this stage may be finer or coarser. In step S53, since the similar phrase is detected in the previous step S52, the similarity cannot be (4).

次に、類似フレーズが連続しているか否かを判別し(ステップS54)、類似フレーズが連続して出現しているときには、上記算出された類似度から、変化付与すべきフレーズおよび該フレーズに適用すべき変化付与パターンを決定し(ステップS55)、この決定された変化付与パターンに基づいて、決定されたフレーズに含まれる演奏データの音量パラメータを修正する(ステップS56)。   Next, it is determined whether or not the similar phrases are continuous (step S54). When the similar phrases appear continuously, the similar phrases are applied to the phrase to be given the change and the phrase based on the calculated similarity. A change imparting pattern to be determined is determined (step S55), and the volume parameter of the performance data included in the determined phrase is corrected based on the determined change imparting pattern (step S56).

ステップS55において、変化付与すべきフレーズとは、連続して出現する類似フレーズ中、2番目以降に出現するフレーズをいい、変化付与パターンとは、最初に出現するフレーズに含まれる各演奏データの音量パラメータ(具体的には、ノートイベント中のベロシティ)の値に重み付けするための音量係数値(比率)のパターンをいう。そして、音量係数値は、類似度に応じて変更される。たとえば、類似度が上記(1)の場合には、音量係数値を“0.8”とし、類似度が上記(2)の場合には、音量係数値を“0.9”とし、類似度が上記(3)の場合には、音量係数値を“1.0”とするようにである。なお、類似度に加えて、出現する順位も考慮して、音量係数値を決定するようにしてもよい。たとえば、類似度が上記(1)である場合に、2番目に出現する類似フレーズに対しては、音量係数値を“0.8”とし、3番目に出現する類似フレーズに対しては、音量係数値を“0.7”とするようにである。   In step S55, the phrase that should be given a change refers to the phrase that appears second or later among similar phrases that appear continuously, and the change-given pattern refers to the volume of each piece of performance data included in the phrase that appears first. A volume coefficient value (ratio) pattern for weighting a parameter (specifically, velocity in a note event). The volume coefficient value is changed according to the similarity. For example, when the similarity is (1), the volume coefficient value is “0.8”, and when the similarity is (2), the volume coefficient value is “0.9”. In the case of (3) above, the volume coefficient value is set to “1.0”. The volume coefficient value may be determined in consideration of the appearance order in addition to the similarity. For example, when the similarity is (1) above, the volume coefficient value is set to “0.8” for the second similar phrase that appears, and the volume for the third similar phrase that appears. The coefficient value is set to “0.7”.

ステップS56では、このようにして決定された音量係数を、最初に出現するフレーズ中の各ベロシティ値に乗算し、その各乗算結果で、2番目以降の類似フレーズ中の対応するベロシティ値を置き換えることにより、音量パラメータを修正する。   In step S56, the volume coefficient determined in this way is multiplied by each velocity value in the phrase that appears first, and the corresponding velocity value in the second and subsequent similar phrases is replaced with each multiplication result. To correct the volume parameter.

一方、ステップS54で、類似フレーズが連続して出現していないときには、フレーズ毎の類似度に基づいた割合で、類似フレーズ間での音量変化を一致させる(ステップS57)。具体的には、類似フレーズ間の類似度が上記(1)の場合には、最初に出現するフレーズに含まれる各演奏データの音量パラメータ(具体的には、ノートイベント中のベロシティ)で、2番目以降に出現するフレーズに含まれる各演奏データの音量パラメータを置き換え、類似フレーズ間の類似度が上記(2)の場合には、演奏データが同一部分に対しては、最初に出現するフレーズ内の対応する部分の音量パラメータで、2番目以降に出現するフレーズ内の対応する部分の音量パラメータを置き換えるとともに、演奏データが相違する部分に対しては、置き換えられた部分に適応するように、その音量パラメータを編集(ベロシティ値の比率を調節)する。   On the other hand, when the similar phrases do not appear continuously in step S54, the volume changes between the similar phrases are matched at a rate based on the similarity for each phrase (step S57). Specifically, when the similarity between similar phrases is (1) above, the volume parameter (specifically, the velocity in the note event) of each performance data included in the phrase that appears first is 2 If the volume parameter of each piece of performance data included in the phrase that appears after the first is replaced and the similarity between similar phrases is (2) above, for the same portion of the performance data, Replace the volume parameter of the corresponding part in the phrase appearing after the second with the volume parameter of the corresponding part of, and for the part where the performance data is different, adapt it to the replaced part Edit the volume parameter (adjust the velocity value ratio).

この発明の一実施例によれば、図63で説明した「音量パラメータ変化付与処理4」の手法は、そのまま、演奏データの音程パラメータに変化を付与する表情付けに適用可能である。つまり、似たフレーズは似た音程表現をもつことから、図63の処理フローを音程パラメータの修正に適用することによって、同じフレーズが連続して繰り返されるのであれば、別の場所で再現される場合には、最初の音程の表情をそのままコピーするのが良く、また、全く同じフレーズでなく「似ている」という程度であれば、最初の音程の表情と似た音程変化を設定するのが良い。   According to one embodiment of the present invention, the method of “volume parameter change applying process 4” described with reference to FIG. 63 can be applied as it is to facial expression for changing the pitch parameter of performance data. That is, since similar phrases have similar pitch expressions, if the same phrase is repeated continuously by applying the processing flow of FIG. 63 to correction of pitch parameters, it is reproduced in another place. In this case, it is better to copy the expression of the first pitch as it is, and if the phrase is “similar” rather than the exact same phrase, it is possible to set a pitch change similar to the expression of the first pitch. good.

(E)同音符の連続発音に伴う処理
図64は、音量パラメータ変化付与処理5の手順を示すフローチャートであり、本音量パラメータ変化付与処理5では、3拍子の演奏データの場合に、同一音符長の音符が連続して出現するときには1拍目を強調するという表情付けを行う。
FIG. 64 is a flowchart showing the procedure of the volume parameter change giving process 5. In the volume parameter change giving process 5, in the case of performance data of 3 beats, the same note length is used. When the musical notes appear continuously, a facial expression that emphasizes the first beat is performed.

同図において、まず、3拍子で小節内がすべて同一音符長である小節を検出する(ステップS61)。同一音符長とは、たとえば4分音符をいう。   In the figure, first, a measure having the same note length in all measures in three beats is detected (step S61). The same note length means, for example, a quarter note.

次に、検出された小節毎に先頭位置の音符数を検出する(ステップS62)。先頭位置の音符数とは、先頭の拍に属する音符の数(先頭拍タイミングで同時に発音される音符の数)を意味する。   Next, the number of notes at the head position is detected for each detected bar (step S62). The number of notes at the beginning position means the number of notes belonging to the beginning beat (the number of notes simultaneously generated at the beginning beat timing).

このように同時に発音される音符の数を検出したのは、和音イベントが含まれている演奏データに対して、本音量パラメータ変化付与処理5を単純に適用すると、和音イベントを含む小節は、ステップS61により無条件に検出されるので、1小節中に和音イベントが多く含まれる場合には、単純に音量が大きくなってしまうため、この場合にも単純に音量が大きくならないように、ステップS62でまず、検出された各小節毎に、和音イベントを構成する音符数を検出し、次のステップS63で、音量変化を補正するという処理を追加するようにしている。   In this way, the number of notes that are simultaneously generated is detected by simply applying the volume parameter change giving process 5 to performance data including chord events. Since it is detected unconditionally by S61, if many chord events are included in one measure, the volume simply increases. In this case as well, in order to prevent the volume from increasing simply, in step S62. First, for each detected bar, the number of notes constituting a chord event is detected, and in the next step S63, processing for correcting the volume change is added.

次に、検出された音符数に基づいて、検出された小節毎の変化値を算出する(ステップS63)。変化値とは、本実施の形態では、音量係数値を示し、この音量係数値は、元のベロシティ値に対する変化の割合を示すものである。なお、本実施の形態では、変化値の算出に、先頭の拍に属する音符の数を考慮しているが、その音符数を考慮しないようにしてもよい。   Next, a change value for each detected measure is calculated based on the number of detected notes (step S63). In the present embodiment, the change value indicates a volume coefficient value, and this volume coefficient value indicates a rate of change with respect to the original velocity value. In the present embodiment, the number of notes belonging to the first beat is considered in the calculation of the change value, but the number of notes may not be considered.

そして、算出された変化値に基づいて、検出されたそれぞれの小節における先頭音符の音量パラメータを修正する(ステップS64)。音量パラメータは、本実施の形態では、ノートイベントのベロシティであり、その修正は、元のベロシティ値を増大させる方向への修正である。なお、先頭音符(ノートイベント)は複数個存在する場合もあり、その場合には、各音符のベロシティ値を同様に修正する。もちろん、各ベロシティ値それぞれに異なる比率で重み付けするための重み付け係数を設定し、増大後のベロシティ値を、この重み付け係数で重み付けして各ベロシティ値として設定するようにしてもよい。   Based on the calculated change value, the volume parameter of the first note in each detected measure is corrected (step S64). In the present embodiment, the volume parameter is the velocity of the note event, and the correction is a correction in the direction of increasing the original velocity value. Note that there may be a plurality of leading notes (note events). In this case, the velocity value of each note is similarly corrected. Of course, a weighting coefficient for weighting each velocity value at a different ratio may be set, and the increased velocity value may be weighted with this weighting coefficient and set as each velocity value.

このように、本音量パラメータ変化付与処理5では、先頭拍の音符のみが強調される。しかし、ウィンナワルツでは、1拍目は標準、2拍目を強く、3拍目を弱く、という表情付けが望ましく、このような表情付けも、上記ステップS62〜S64の処理を少し変更するだけで可能になる。また、作風、時代や作曲家に応じて、強弱すべき拍位置を変更するようにしてもよい。   Thus, in the volume parameter change applying process 5, only the note of the first beat is emphasized. However, in Wiener Waltz, it is desirable that the first beat is standard, the second beat is strong, the third beat is weak, and such expression is also made by changing the processing of steps S62 to S64 slightly. It becomes possible. Moreover, you may make it change the beat position which should be strong / weak according to a style, the time, and a composer.

さらに、連符(3連符や5連符等)を検出し、その最初の音の音量を大きくすると、連符らしさが表現できる。これも、本音量パラメータ変化付与処理5を少し変更することにより、実現できる。具体的には、ステップS61の処理は行わず、ステップS62で、連符を検出するようにし、ステップS63で、検出された連符の先頭音の変化量を決定し(たとえば、予め設定されている値としたり、現在の音量を所定割合だけ増加させたりする等)、ステップS64で、決定された変化量に基づいて音量パラメータを変更することで、連符の最初の音の音量を大きくすることができる。   Furthermore, if a tuplet (triplet, quintuplet, etc.) is detected and the volume of the first sound is increased, the tuplet-likeness can be expressed. This can also be realized by slightly changing the volume parameter change applying process 5. Specifically, the process of step S61 is not performed, the tuplet is detected in step S62, and the amount of change in the leading sound of the detected tuplet is determined in step S63 (for example, set in advance). Or the current volume is increased by a predetermined rate), and the volume parameter is changed based on the determined change amount in step S64 to increase the volume of the first sound of the tuplet. be able to.

また、たとえば、5連符は2+3のように、簡単な数字の組み合わせに変換し、アクセントを付けるようにしてもよい。   Further, for example, a quintuplet may be converted into a simple combination of numbers, such as 2 + 3, and an accent may be added.

一般の人に分かりやすい拍子は、「2拍子」、「3拍子」および「4拍子」であり、5拍子以上の拍子では、それよりも細かい単位に分割した方がイメージをつかみやすい。たとえば、5拍子では、「1,2,3,4,5」と数えるのではなく、「1,2,1,2,3」または「1,2,3,1,2」のように、2拍子+3拍子に分解するとイメージし易いし、6拍子では、「1,2,1,2,1,2」または「1,2,3,1,2,3」のように、2拍子+2拍子+2拍子または3拍子+3拍子のように分解することが分かりやすい。   Time signatures that are easy to understand for ordinary people are “2 time signatures”, “3 time signatures”, and “4 time signatures”. With a time signature of 5 time signatures or more, it is easier to grasp the image by dividing it into smaller units. For example, in 5 beats, instead of counting "1, 2, 3, 4, 5", like "1, 2, 1, 2, 3" or "1, 2, 3, 1, 2" It is easy to imagine if it is divided into 2 beats + 3 beats, and at 6 beats, it is 2 beats +2 like “1, 2, 1, 2, 1, 2” or “1, 2, 3, 1, 2, 3”. It is easy to understand that it breaks down like time signature +2 time signature or 3 time signature +3 time signature.

この拍子感を具体的に音に出して表現するために、たとえば、5拍子の場合には、2拍子と3拍子が交互に並んでいるとして、それぞれの1拍目の音量を強調することによって実現することができる。同様に、5連符、6連符、それ以上なども、2連符や3連符に分解して、それぞれの最初の音の音量を強調すると、拍子感が分かりやすくなる。しかし、5拍子はあくまで5拍子であるため、2+3と分解したとしても元々の拍子の先頭の音符と、分割して先頭になった音符とは区別した方がよく、元々の拍の先頭の音符をより強調した方がよい。   In order to express this time sensation in a specific sound, for example, in the case of five time signatures, it is assumed that the two time signatures and the three time signatures are alternately arranged, by emphasizing the volume of each first beat. Can be realized. Similarly, when the quintuplet, hexuplet, and more are decomposed into dyads and triplets, and the volume of the first sound of each is emphasized, the time signature becomes easier to understand. However, since the 5 beats are only 5 beats, it is better to distinguish the first note of the original time signature from the first note of the original beat even if it is decomposed to 2 + 3. Should be more emphasized.

(F)フレーズの終止感に対応する処理
図65は、音量パラメータ変化付与処理6の手順を示すフローチャートであり、本音量パラメータ変化付与処理6では、フレーズの終止では、音量を抑えるという表情付けを行う。
(F) Processing corresponding to phrase end feeling FIG. 65 is a flowchart showing the procedure of the volume parameter change giving process 6. In the volume parameter change giving process 6, the expression of suppressing the volume at the end of the phrase is given. Do.

同図において、まず、前記ステップS51と同様にして、選択演奏データをフレーズ単位に分割する(ステップS71)。   In the figure, first, the selected performance data is divided into phrases as in step S51 (step S71).

次に、分割されたフレーズ毎に、当該フレーズに設定されているテンポに基づいて終止音量を算出する(ステップS72)。ここで、終止音量は、当該フレーズの終了位置の音符の音量を小さくするものではなく、その音符が発音されてからその音量を徐々に小さくするものである。そして、その発音から消音に至るまでの時間を、当該フレーズに設定されているテンポおよびその音符長に応じて決定している。なお、音符の音量を徐々に小さくする制御を行うためには、その音符が持続音を発生させるものである必要があるが、その音符が減衰音を発生させるものである場合には、その音符の音量を単純に小さくしたり、その音符の前のいくつかの音符の音量を徐々に小さくしていくようにしたりするような終止音量を算出する。もちろん、その音符が持続音を発生させるものである場合にも、このような終止音量を算出するようにしてもよい。   Next, for each divided phrase, a stop volume is calculated based on the tempo set for the phrase (step S72). Here, the stop volume does not decrease the volume of the note at the end position of the phrase, but gradually decreases the volume after the note is pronounced. Then, the time from sound generation to mute is determined according to the tempo set for the phrase and the note length. Note that in order to perform control to gradually reduce the volume of a note, the note needs to generate a continuous sound. However, if the note generates a decaying sound, the note needs to be generated. The end volume is calculated such that the volume of the note is simply reduced or the volume of some notes in front of the note is gradually reduced. Of course, such a stop sound volume may be calculated even when the note generates a continuous sound.

そして、前記分割されたフレーズ毎に、当該フレーズの終了位置の音量(具体的には、終了位置のノートイベント中のベロシティ値)を、前記算出された終止音量に基づいて修正する(ステップS73)。   Then, for each of the divided phrases, the volume at the end position of the phrase (specifically, the velocity value in the note event at the end position) is corrected based on the calculated end volume (step S73). .

なお、本音量パラメータ変化付与処理6では、このように、フレーズの終了位置の音量を抑えるようにしたが、逆にフレーズの先頭位置の音符(ノートイベント)を検出して、その音符の音量(ベロシティ値)を大きくするようにしても、効果的な場合がある。選択演奏データが低音リズム楽器用のものである場合には、特にそうである。   In this volume parameter change giving process 6, the volume at the end position of the phrase is suppressed in this way. Conversely, the note (note event) at the beginning position of the phrase is detected and the volume of the note (note event) is detected. Increasing the velocity value may be effective. This is especially true when the selected performance data is for a bass rhythm instrument.

(G)ロングトーンのトリル/ビブラートに対する処理
図66は、音量パラメータ変化付与処理7の手順を示すフローチャートであり、本音量パラメータ変化付与処理7では、ロングトーンに対してトリルまたはビブラートが付与されているときには、その音量を、最初大きく、途中小さく、最後大きくなるような表情付けを行う。
(G) Processing for long tone trill / vibrato FIG. 66 is a flowchart showing the procedure of the volume parameter change giving process 7. In the volume parameter change giving process 7, the trill or vibrato is given to the long tone. When there is a facial expression, the volume is increased initially, decreased midway, and increased at the end.

同図において、まず、トリルまたはビブラート傾向のピッチデータ列が付与されている音符で、音符長が所定長以上のもの(ロングトーン)を検出する(ステップS81)。ここで、所定長とは、たとえば2分音符長をいう。もちろん、これは例示に過ぎず、他の音符長であってもよい。   In the figure, first, a note to which a pitch data string having a trill or vibrato tendency is given and whose note length is longer than a predetermined length (long tone) is detected (step S81). Here, the predetermined length refers to, for example, a half note length. Of course, this is merely an example, and other note lengths may be used.

次に、検出された音符毎に、適応する変化付与パターンを決定する(ステップS82)。図67は、この変化付与パターンの一例を示す図であり、縦軸は音量係数を示し、横軸は時間を示している。同図中、実線で示す曲線は音量変化曲線を示し、矢印Aは音量変化の幅を示し、矢印Bは音量変化の全体時間を示し、矢印Cは音量変化の目標値を示し、矢印Dは音量変化が最も落ち込むまでの時間を示している。これらのパラメータの値を、「強い」、「弱い」、「速い」、「遅い」等の言葉で設定するとよい。このような変化付与パターンが、トリル用およびビブラート用それぞれ複数種類(たとえば、音符長毎に)予め用意され、その中から、検出された音符毎に最適な変化付与パターンが自動的に決定される。   Next, an applicable change imparting pattern is determined for each detected note (step S82). FIG. 67 is a diagram showing an example of this change imparting pattern, in which the vertical axis indicates the volume coefficient and the horizontal axis indicates time. In the figure, a solid line indicates a volume change curve, an arrow A indicates a volume change width, an arrow B indicates an overall time of the volume change, an arrow C indicates a target value of the volume change, and an arrow D indicates It shows the time until the volume change drops most. The values of these parameters may be set using words such as “strong”, “weak”, “fast”, and “slow”. Such a change imparting pattern is prepared in advance for each type of trill and vibrato (for each note length, for example), and an optimum change imparting pattern is automatically determined for each detected note. .

そして、このようにして決定された変化付与パターンに基づいて、トリルまたはビブラート演奏時の音量パラメータ(ベロシティ)を修正する(ステップS83)。   Then, based on the change imparting pattern determined in this way, the volume parameter (velocity) at the time of playing the trill or vibrato is corrected (step S83).

この発明の一実施例によれば、図66及び図67で説明した「音量パラメータ変化付与処理7」の手法は、「音程変化の速さ」を変化させるのに適用可能である。つまり、「音程変化の速さ」の変化付与パターンとして、例えば、図67のパターンに類似した図68に示すような変化曲線パターンを用意しておき、演奏データ(MIDIデータ等)からトリル(ビブラート)且つロングトーンの部分を検出し(ステップS81)、図68のような変化曲線パターンから音程変化を算出する(ステップS82,S83)ことによって、ロングトーンのトリル(ビブラート)について最初はゆっくりした音程変化を与える表情付けを行うことができる。   According to one embodiment of the present invention, the method of the “volume parameter change applying process 7” described with reference to FIGS. 66 and 67 is applicable to change the “pitch change speed”. That is, for example, a change curve pattern similar to the pattern of FIG. 67 as shown in FIG. 68 is prepared as a change imparting pattern of “pitch change speed”, and trill (vibrato) is obtained from performance data (MIDI data, etc.). ) And a long tone portion is detected (step S81), and a change in pitch is calculated from a change curve pattern as shown in FIG. 68 (steps S82 and S83), whereby a slow tone is initially set for a long tone trill (vibrato). It is possible to add facial expressions that give changes.

ここで、図68における記号「A」は速さ変化の幅を表わし、記号「B」はトリル(ビブラート)の全体時間を表わし、記号「C」は速さ変化の変曲点までの時間を表わす。変化付与パターンの決定(ステップS82)に際しては、図68の変化曲線パターンの時間や変化量を変更できるパラメータ(A〜C等)により、適切な変化を選択できるようにすると良い。また、これらのパラメータは、既に説明したものと同様に、「強い」、「弱い」、「速い」、「遅い」等の言葉で設定することができるように構成するのが良い。   Here, the symbol “A” in FIG. 68 represents the width of the speed change, the symbol “B” represents the total time of the trill (vibrato), and the symbol “C” represents the time to the inflection point of the speed change. Represent. In determining the change imparting pattern (step S82), it is preferable that an appropriate change can be selected based on parameters (A to C, etc.) that can change the time and the amount of change of the change curve pattern in FIG. Also, it is preferable that these parameters can be set by words such as “strong”, “weak”, “fast”, “slow”, etc., as already described.

なお、トリルやビブラートでは、音程変化の1サイクル毎の音程が不均一である方がより自然になるので、不均一を生む機能も含めると良い。また、ソリスティック(ソロ演奏的)なトリルを再現するためには、トリルの上側の音程を高めに変化させると良い。そのために「ソリスティック」と設定することによって、音程変化を高めに設定するようなインターフェースが良い。より自然な表情を自動的に再現するためには、ビブラートの深さや速さは、音程相関、音量相関、duration(発音長)相関を与えると良い。   It should be noted that in the case of trill or vibrato, it becomes more natural that the pitch for each cycle of pitch change is non-uniform, so it is preferable to include a function that generates non-uniformity. In addition, in order to reproduce a soristic (solo performance-like) trill, it is preferable to change the pitch above the trill higher. Therefore, an interface that sets the pitch change higher by setting “Solitistic” is preferable. In order to automatically reproduce a more natural expression, the depth and speed of vibrato should be given a pitch correlation, volume correlation, and duration (pronunciation length) correlation.

(H)トリル、打楽器のロール演奏に伴う処理
図69は、音量パラメータ変化付与処理8の手順を示すフローチャートであり、本音量パラメータ変化付与処理8では、トリルや打楽器のロール演奏時に自然な表情付けを行う。
(H) Process associated with roll performance of trill and percussion instrument FIG. 69 is a flowchart showing the procedure of the volume parameter change applying process 8. In the volume parameter change applying process 8, a natural expression is applied during the roll performance of the trill and percussion instrument. I do.

同図において、まず、選択演奏データ中、トリルまたは打楽器のロール演奏に対応する部分区間を検出する(ステップS91)。   In the figure, first, a partial section corresponding to a roll performance of a trill or percussion instrument is detected in the selected performance data (step S91).

次に、検出された区間毎に、当該区間内の個々の音符の音量の変更値を決定する(ステップS92)。ここで、変更値としては、トリルや打楽器のロール演奏時に自然となる値、具体的には、個々の音符の音量(ベロシティ値)が不均一になる値を決定する。このような変更値を決定する方法としては、たとえば、単純にランダム値を発生させて不均一値とする方法、不均一値の流れを記録した変化付与パターン(テンプレート)を予め用意しておき、これに基づいて決定する方法等が挙げられる。   Next, for each detected section, a change value of the volume of each note in the section is determined (step S92). Here, as the change value, a value that is natural during roll performance of a trill or percussion instrument, specifically, a value at which the volume (velocity value) of each note becomes non-uniform is determined. As a method for determining such a change value, for example, a method of simply generating a random value to make a non-uniform value, a change application pattern (template) in which the flow of the non-uniform value is recorded in advance, The method of determining based on this etc. is mentioned.

(J)複数音同時発音演奏に伴う処理
図70は、音量パラメータ変化付与処理9の手順を示すフローチャートであり、本音量パラメータ変化付与処理9では、和音が含まれている演奏データの場合に、和音に対してその発音をすっきりしたものにするという表情付けを行う。
FIG. 70 is a flowchart showing the procedure of the volume parameter change giving process 9. In the volume parameter change giving process 9, in the case of performance data containing chords, The expression of making the pronunciation clear for chords.

同図において、まず、選択演奏データ中、複数音が同時に発音される部分、すなわち和音部分を検出する(ステップS101)。   In the figure, first, a portion where a plurality of sounds are pronounced simultaneously, that is, a chord portion is detected in the selected performance data (step S101).

次に、検出された和音毎に、構成音の重要度に対応させた変化値を決定する(ステップS102)。ここで、変化値は、当該和音の各構成音(ノートイベント)の音量パラメータ(具体的には、各ノートイベント中のベロシティ)の値を変化させる値(たとえば音量係数値)である。そして、本実施の形態では、構成音の重要度に応じて、対応する変化値を異ならせている。これは、和音の各構成音を同じ音量で演奏すると、騒がしいだけになる場合があるので、和音の構成音のうち主要なものだけ、音量を大きめに設定して、すっきりとした和音演奏をしようとしているからである。主要なものであるか否か、すなわち重要度の判断基準は、たとえば、和音の主音を最重要とし、属音を次に重要なものとするという基準を挙げることができる。また、和音毎の重要度の検出は、予め用意された和音重要度テンプレート、具体的には、和音毎に、その和音の各構成音のそれぞれに優先順位(たとえば、優先順位が高いほど重要度が高いとする)を付けた情報を記録したものを用いて行う。変化値の決定方法としては、たとえば、重要度毎に予め決定されている値に決定する方法や、現在の音量値を重要度に応じた割合で増減させる方法が挙げられる。   Next, a change value corresponding to the importance of the constituent sound is determined for each detected chord (step S102). Here, the change value is a value (for example, a volume coefficient value) that changes a value of a volume parameter (specifically, velocity in each note event) of each constituent sound (note event) of the chord. In the present embodiment, the corresponding change values are made different according to the importance of the constituent sounds. This is because it may only be noisy if you play each component of the chord at the same volume, so let's play a clean chord with only the main component of the chord set to a higher volume. It is because. As a criterion for determining whether or not it is a major one, that is, a degree of importance, for example, a chord main tone is most important and a subordinate tone is most important next. In addition, detection of importance for each chord is performed using a chord importance template prepared in advance, specifically, for each chord, each component sound of the chord has a priority (for example, the higher the priority, the more important the importance). This is done using the information recorded with the Examples of the method for determining the change value include a method of determining a value determined in advance for each importance level, and a method of increasing or decreasing the current volume value at a rate corresponding to the importance level.

そして、ステップS102で決定された変化値に基づいて音量パラメータを修正する(ステップS103)。   Then, the volume parameter is corrected based on the change value determined in step S102 (step S103).

なお、本音量パラメータ変化付与処理9では、重要な音符の音量を大きくするようにしたが、逆に、重要でない音符の音量を小さくするようにしてもよい。   In the volume parameter change applying process 9, the volume of important notes is increased. Conversely, the volume of unimportant notes may be decreased.

また、重要度という概念を用いずに、単に、和音の最低音と最高音の音量のみを他の構成音の音量より大きくするようにしてもよいし、和音の根音の音量のみを他の構成音の音量より大きくするようにしてもよい。   Also, without using the concept of importance, only the lowest and highest volume of the chord may be made larger than the volume of the other component sounds, or only the volume of the root of the chord The volume may be higher than the volume of the constituent sound.

なお、和音ではないが、ギターでよく演奏される分散和音というものがあるが、この分散和音の主音を強調すると、調性感が出てくっきりとした演奏になる。この場合の処理も、本音量パラメータ変化付与処理9の一部処理を変更するだけで、簡単に実現できる。   In addition, although it is not a chord, there is a so-called distributed chord that is often played on a guitar. However, emphasizing the main tone of this distributed chord gives a sense of tonality and a clear performance. The process in this case can also be easily realized by changing only a part of the volume parameter change applying process 9.

また、オクターブユニゾンで演奏する場合に、すべてのパートを同じ音量で演奏すると、各音色が混ざってしまい、ユニゾンらしさが表現できない場合がある。そのため、選択演奏データ中に、オクターブユニゾンを検出したときに、上のオクターブから順に音量を大きくする、または、小さくする、という音量変化を与えると効果的なことがあり、この音量変化も、本音量パラメータ変化付与処理9の一部処理を変更するだけで、簡単に実現できる。なお、オクターブユニゾンに限らず、同じオクターブのユニゾンに対しても、音色に依存した音量調整を行うようにしてもよいし、3度や5度、その他のユニゾンでも同様な処理を行うようにしてもよい。   In addition, when playing in octave unison, if all parts are played at the same volume, the timbres may be mixed and unison-likeness may not be expressed. For this reason, when octave unison is detected in the selected performance data, it may be effective to increase or decrease the volume in order from the top octave. This can be realized simply by changing a part of the volume parameter change applying process 9. It should be noted that not only octave unison but also the same octave unison may be adjusted depending on the tone, and the same process may be performed at 3 degrees or 5 degrees or other unison. Also good.

この発明の一実施例によれば、図70により説明した「音量パラメータ変化付与処理9」の手法は、音程についても適用可能であり、和音を自動的に純正調に変えるという表情付けを行うことができる。フレットのない弦楽器や管楽器の音程的な特徴の1つに、純正調の和音を出すことができる点が挙げられるが、これに対応して、先ず、和音で発音されている部分を検索し(ステップS101に相当)、検索した和音の種類を評価し、評価した和音に対応して純正調の場合の音程変化を算出する(ステップS102に相当)。ここで、音程変化算出には、各和音の音程テーブルのようなものを参照することが簡単である。そして、この音程変化に基づいて音程パラメータを修正し音程を変化させて(ステップS103に相当)純正調を発音させる表情付けを行うのである。   According to one embodiment of the present invention, the method of “volume parameter change applying process 9” described with reference to FIG. 70 can be applied to the pitch, and the expression of automatically changing the chord to a genuine tone is performed. Can do. One of the pitch characteristics of string instruments and wind instruments without frets is that they can produce genuine chords. Correspondingly, first, the part that is pronounced with chords is searched ( Corresponding to step S101), the type of searched chord is evaluated, and a pitch change in the case of genuine tone is calculated corresponding to the evaluated chord (corresponding to step S102). Here, for calculating the pitch change, it is easy to refer to a pitch table of each chord. Then, based on this change in pitch, the pitch parameter is modified to change the pitch (corresponding to step S103), and a facial expression that produces a genuine tone is performed.

(K)スタッカート演奏に伴う処理
図71は、音量パラメータ変化付与処理10の手順を示すフローチャートであり、本音量パラメータ変化付与処理10では、スタッカートが含まれている演奏データの場合に、生のスタッカート演奏を模倣した表情付けを行う。
(K) Process Accompanied by Staccato Performance FIG. 71 is a flowchart showing the procedure of the volume parameter change giving process 10. In the volume parameter change giving process 10, a live staccato is shown in the case of performance data including a staccato. Facial expression imitating performance.

同図において、まず、選択演奏データ中、スタッカート発音する音符の直後の音符を検出する(ステップS111)。   In the figure, first, a note immediately after a note that produces staccato is detected in the selected performance data (step S111).

次に、検出された音符毎に、変化量を決定する(ステップS112)。生のスタッカート演奏では、スタッカートは必ずしも音の長さを短くするだけでなく、その音を強調をもしている。スタッカートの音を強調する1つの方法としては、その音符の直後にある音符の音量を小さくすることである。ステップS112では、この音量制御を行っている。したがって、ここでの変化量の決定とは、検出された音符(ノートイベント)の音量パラメータ(具体的には、ノートイベント中のベロシティ)の値を減少方向に変化させる量を決定することを意味している。   Next, the amount of change is determined for each detected note (step S112). In live staccato performance, staccato not only shortens the length of the sound, but also emphasizes the sound. One way to emphasize the staccato sound is to reduce the volume of the note immediately after the note. In step S112, this volume control is performed. Therefore, determining the amount of change here means determining the amount by which the value of the volume parameter (specifically, velocity during the note event) of the detected note (note event) is changed in the decreasing direction. doing.

そして、ステップS111で検出された音符の音量パラメータを、ステップS112で決定された変化量に基づいて修正する(ステップS113)。   Then, the volume parameter of the note detected in step S111 is corrected based on the amount of change determined in step S112 (step S113).

なお、一般にスタッカート表現は、その音符の音価やテンポによって変化の度合いが異なるので、スタッカート発音する音符の直後の音符の音量を変化させる度合いも、スタッカート発音する音符の音価やテンポに応じて調整することが好ましい。また、スタッカート直後の音符を検出する際、間に休符相当の時間があり、これを検出対象から除外する場合には、ステップS111で、「スタッカート発音する音符の所定時間内の直後の音符」を検出するようにすればよい。   In general, the degree of change in the staccato expression varies depending on the note value and tempo of the note, so the degree of change in the volume of the note immediately after the note that produces staccato depends on the note value and tempo of the note that produces staccato. It is preferable to adjust. In addition, when detecting the note immediately after the staccato, there is a time corresponding to a rest, and when this is excluded from the detection target, in step S111, “the note immediately after the predetermined time of the note that generates the staccato” May be detected.

(L)ゆらぎ/ランダム性を伴う処理
図72は、音量パラメータ変化付与処理11の手順を示すフローチャートであり、本音量パラメータ変化付与処理11では、ロングトーンに対して、その音量にゆらぎをつけるという表情付けを行う。
(L) Process with Fluctuation / Randomness FIG. 72 is a flowchart showing the procedure of the volume parameter change giving process 11. In the volume parameter change giving process 11, the volume is fluctuated for a long tone. Perform facial expression.

同図において、まず、前記ステップS81と同様にして、所定発音長以上の音符(ロングトーン)を検出する(ステップS121)。   In the figure, first, in the same manner as in step S81, a note (long tone) having a predetermined pronunciation length or longer is detected (step S121).

次に、検出された音符毎に、乱数カウンタと変化付与パターンを用いて、変化量を決定する(ステップS122)。ロングトーンを生演奏すると、ゆらぎがだんだん増加する傾向がある。ステップS122では、この現象をシミュレートするための変化量を決定する。すなわち、乱数カウンタから出力される乱数の振幅を、予め用意された変化付与パターン、具体的には、図73に示すような、乱数カウンタのカウント値に応じて、乱数カウンタが発生する乱数の振幅を変化させるテーブルデータに基づいて変更し、変更後の乱数カウンタから出力された乱数値を上記変化量に決定する。これにより、ロングトーンが発音を開始してからその時間の経過に従って、出力される乱数の振幅が増大するため、ゆらぎをだんだん増加させるような変化量を決定することができる。なお、乱数の振幅は、カウンタ値が増大するに従って際限なく大きくすると、これに応じて決定された変化量は不自然になるので、図73に示すように、乱数の振幅は、カウンタ値が増大するに従って所定値に収束して行くことが望ましい。   Next, for each detected note, a change amount is determined using a random number counter and a change imparting pattern (step S122). Live performance tends to increase gradually when playing long tones. In step S122, a change amount for simulating this phenomenon is determined. That is, the amplitude of the random number output from the random number counter is the amplitude of the random number generated by the random number counter in accordance with the change imparting pattern prepared in advance, specifically, as shown in FIG. Is changed based on the table data to be changed, and the random number value output from the changed random number counter is determined as the change amount. As a result, the amplitude of the output random number increases with the lapse of time after the long tone starts sounding, so that it is possible to determine the amount of change that gradually increases the fluctuation. If the amplitude of the random number is increased without limit as the counter value increases, the amount of change determined accordingly becomes unnatural. Therefore, as shown in FIG. 73, the amplitude of the random number increases as the counter value increases. It is desirable to converge to a predetermined value as it goes on.

そして、ステップS121で検出された音符(ノートイベント)の音量パラメータ(具体的には、ノートイベント中のベロシティ)の値を、ステップS122で決定された変化量に基づいて修正する(ステップS123)。   Then, the value of the volume parameter (specifically, the velocity during the note event) of the note (note event) detected in step S121 is corrected based on the amount of change determined in step S122 (step S123).

なお、本音量パラメータ変化付与処理11では、乱数カウンタを使用したが、これに代えて、ゆらぎテーブルを使用してもよい。さらに、変化付与パターンとして生楽器の演奏データから採取した不均一なパラメータ変化のデータを使用することも効果的である。   In this volume parameter change giving process 11, a random number counter is used, but a fluctuation table may be used instead. It is also effective to use nonuniform parameter change data collected from live musical instrument performance data as the change imparting pattern.

選択演奏データ中、音量記号としてf(フォルテ)が付加されている区間内に、ロングトーンがある場合に、そのロングトーンを同じ音量で演奏し続けると、だんだん存在感がなくなり、fらしくなくなってくる。したがって、そのような場合には、そのロングトーンの音量を、徐々に大きくすることが効果的である。この音量制御も、本音量パラメータ変化付与処理11の一部を変更することにより、実現できる。具体的には、ステップS121の処理の最初に、f記号の検出処理を追加し、ステップS122の処理では、乱数カウンタに代えて通常のカウンタを用い、ステップS123の処理は、そのまま用いるようにする。なお、管楽器の場合、あまり長いロングトーンのときには、その音量がだんだん落ちてくる。この音量制御は、上記f記号の検出処理を削除するとともに、上記通常カウンタを減算カウンタに変更して、音量が徐々に下降するように変化させればよい。   In the selected performance data, if there is a long tone in a section where f (forte) is added as a volume symbol, if the long tone continues to be played at the same volume, the presence will gradually disappear and it will not become f. come. Therefore, in such a case, it is effective to gradually increase the volume of the long tone. This volume control can also be realized by changing a part of the volume parameter change applying process 11. Specifically, an f-symbol detection process is added at the beginning of the process of step S121. In the process of step S122, a normal counter is used instead of the random number counter, and the process of step S123 is used as it is. . In the case of wind instruments, when the tone is too long, the volume decreases gradually. In this volume control, the detection process of the f symbol may be deleted, and the normal counter may be changed to a subtraction counter so that the volume gradually decreases.

この発明の一実施例によれば、図72及び図73により説明した「音量パラメータ変化付与処理11」の手法は、音程についても適用可能であり、ロングトーン(長い音符)に対して音程にゆらぎという表情付けを行うことができる。フレットのない弦楽器や、管楽器などの人間の演奏では、変化のない音程での演奏は不可能であり、或る程度の音程のゆらぎがあるはずである。そこで、このようなゆらぎを実現するために、楽譜データから強弱記号(f)のあるロングトーンを検出し(ステップS121)、音程変化を算出して(ステップS122)音程パラメータを変化させる(ステップS123)ことにより、音量の場合と同様に、「音程」を乱数で変動させるのである。   According to one embodiment of the present invention, the method of the “volume parameter change applying process 11” described with reference to FIGS. 72 and 73 is also applicable to the pitch, and the pitch varies with respect to the long tone (long note). You can make a facial expression. In human performances such as stringed instruments and wind instruments without frets, it is impossible to perform at a pitch that does not change, and there should be some degree of pitch fluctuation. Therefore, in order to realize such fluctuation, a long tone having a dynamic symbol (f) is detected from the musical score data (step S121), a pitch change is calculated (step S122), and a pitch parameter is changed (step S123). Thus, the “pitch” is changed by a random number as in the case of the volume.

この場合、この乱数には、単純乱数を用いて勝手に音程を変化させるのではなく、乱数をバンドパスフィルタ(BPF)で帯域制限を加えた方が効果が出る場合がある。また、乱数によって、音程を変化させるのではなく、テーブルによって変化させても良い。特に、生楽器の音程変化を記録したテーブルを用いると、その効果は自然なものになる。   In this case, it may be more effective to apply a band limitation to the random number by using a band pass filter (BPF) instead of changing the pitch without using a simple random number. Further, the pitch may be changed by a table instead of by a random number. In particular, the effect becomes natural when a table in which the pitch change of a live musical instrument is recorded is used.

また、生演奏のロングトーンでは、音長の増大に伴ってだんだん音程のゆらぎが増大する傾向があるので、音量ゆらぎの場合と同様に、新しい音符でリセットされるカウンタの出力により、図73のような特性の乱数テーブルを指示することにより、ロングトーンの最中に徐々に音程ゆらぎが大きくなるシステムを構成するのが好ましい。なお、このような音程ゆらぎは、鍵盤楽器などのように、音程がずれる要素の少ないものでは、この機能を使わない方が自然である。従って、演奏データ(MIDIデータ等)の解析時(ステップS121)に音色を判断して楽器種類を確認するように構成する必要がある。   Further, in live performance long tones, there is a tendency for pitch fluctuations to gradually increase with increasing tone length, and as in the case of volume fluctuations, the output of a counter reset with a new note causes the output of FIG. It is preferable to construct a system in which pitch fluctuation gradually increases during a long tone by indicating a random number table having such characteristics. It should be noted that such a pitch fluctuation is more natural not to use this function in a case where there are few elements whose pitches are shifted, such as a keyboard instrument. Therefore, it is necessary to configure the musical instrument type by determining the timbre when analyzing performance data (such as MIDI data) (step S121).

さらに、この発明の一実施例によれば、上述した音程のゆらぎ付け処理とは別に、音程のランダム性を増加する表情付けを行うこともできる。例えば、音量記号がf(フォルテ)などの区間でロングトーンがある場合に、変化のない音程で演奏し続けると、だんだん存在感がなくなり、fらしくなくなってくる。従って、このような場合には、徐々に音程の不安定さを大きくすることが効果的である。つまり、ロングトーンでは、だんだん音程のランダム性を増加させる。また、音程のランダム性は、大きさを音色に連動させたり、メロディと伴奏(バック)で変化させたりすることが好ましい。   Furthermore, according to one embodiment of the present invention, in addition to the above-described pitch fluctuation processing, it is possible to perform facial expression that increases the randomness of the pitch. For example, if there is a long tone in a section where the volume symbol is f (forte), etc., if the performance continues at a pitch that does not change, the presence will gradually disappear, and it will become less like f. Therefore, in such a case, it is effective to gradually increase the instability of the pitch. In other words, the long tone gradually increases the randomness of the pitch. In addition, it is preferable that the randomness of the pitch be changed in accordance with the tone color or by the melody and accompaniment (back).

このような処理を行うには、まず、強弱記号検出ステップで、強弱記号がf(又はf以上)であるかを検出して、その範囲内にあるロングトーンの音符を検出し、次に、その音符の長さを評価して、音程の不安定さを徐々に大きくするような表情を加える。ここで、音符の長さを評価するのは、音符の時間内に有効に音程の不安定さを変化させたいため、つまり、音程の不安定さを無制限に大きくしないためである。従って、音符の長さに応じて、音程の不安定さの変化のカーブも調整する必要がある。   In order to perform such a process, first, in the dynamic symbol detection step, it is detected whether the dynamic symbol is f (or more than f), a long tone note within the range is detected, and then, Evaluate the length of the note and add a facial expression that gradually increases the instability of the pitch. Here, the length of the note is evaluated because it is desired to change the instability of the pitch effectively within the time of the note, that is, the instability of the pitch is not increased without limit. Therefore, it is necessary to adjust the curve of the change in pitch instability according to the length of the note.

なお、逆に、強弱記号がp(ピアノ)の場合でもこのような不安定現象が起こり得るので、上述した強弱記号検出ステップにおいて、強弱記号が中程度でないものを検出する構成としてこれに対応して音程の不安定さを与えるようにも良い。また、強弱記号は一切無視する方法でも良い。   On the contrary, even when the strength symbol is p (piano), such an unstable phenomenon can occur. Therefore, in the above-described strength symbol detection step, a configuration in which the strength symbol is not moderate is detected. It is also good to give pitch instability. In addition, a method of ignoring any strong or weak symbol may be used.

また、音色によっては、ランダム性が大きいと不自然なものもあるので、音色によって、ランダム性の大きさを制御する必要がある。特に、ピアノのような鍵盤楽器ではランダム性があると不自然であり、管楽器においても、クラリネットなどは不自然になる。さらに、伴奏パートまで必要以上にランダム性を持たせると、騒々しい伴奏になってしまうので、メロディパートと伴奏パートではランダム性を加減した方が良い。   Some timbres are unnatural when the randomness is large, so it is necessary to control the degree of randomness according to the timbre. In particular, a keyboard instrument such as a piano is unnatural if there is randomness, and a clarinet or the like is unnatural even in a wind instrument. Furthermore, if the accompaniment part is given randomness more than necessary, it becomes a noisy accompaniment, so it is better to adjust the randomness between the melody part and the accompaniment part.

(M)音域に応じたパラメータ処理
図74は、音量パラメータ変化付与処理12の手順を示すフローチャートであり、本音量パラメータ変化付与処理12では、音程平均に応じた音量表現による表情付けを行う。
(M) Parameter Processing According to Sound Range FIG. 74 is a flowchart showing the procedure of the volume parameter change giving process 12. In the volume parameter change giving process 12, expression is given by volume expression according to the pitch average.

同図において、まず、前記ステップS51と同様にして、選択演奏データをフレーズ単位に分割する(ステップS131)。   In the figure, first, the selected performance data is divided into phrases as in step S51 (step S131).

次に、分割されたフレーズ毎に音程の平均値を算出し、この平均値に基づいて変化付与パターンを決定する(ステップS132)。変化付与パターンは、予め音程の平均値毎にテーブルデータの形式で記憶され、ステップS132では、この中から1つを決定する。   Next, an average value of pitches is calculated for each divided phrase, and a change imparting pattern is determined based on the average value (step S132). The change imparting pattern is stored in advance in the form of table data for each average value of pitches, and one of them is determined in step S132.

そして、分割されたフレーズ毎に、決定された変化付与パターンに基づいて音量パラメータ(具体的には、エクスプレッションデータ)を修正する(ステップS133)。   Then, the volume parameter (specifically, expression data) is corrected for each divided phrase based on the determined change imparting pattern (step S133).

この発明の一実施例によれば、図74により説明した「音量パラメータ変化付与処理12」の手法は、音程についても適用可能であり、音域によって音程表現を変えるという表情付けを行うことができる。音程(key)情報によって、音程(keyよりも細かい単位での)係数を決定し、音程係数によって、あるテーブルをひくことによって、音程の変化量を決定する。しかし、1つ1つの音にこのような表情を加えたのでは、従来のキースケールと同じであるが、ある指定した区間(フレーズ、小節或いは拍等)毎に、その音程の平均から処理を決めるということも有効である。   According to one embodiment of the present invention, the technique of the “volume parameter change applying process 12” described with reference to FIG. 74 can be applied to a pitch, and can be expressed by changing the pitch expression depending on the pitch range. A pitch coefficient (in a unit smaller than the key) is determined based on the pitch information, and a pitch change amount is determined by drawing a certain table based on the pitch coefficient. However, adding such an expression to each sound is the same as the conventional key scale, but for each specified section (phrase, measure, beat, etc.), processing is performed from the average of the pitch. It is also effective to decide.

(N)パート演奏に伴う処理
図75は、音量パラメータ変化付与処理13の手順を示すフローチャートであり、本音量パラメータ変化付与処理13では、パートディビジョン(Part Division)のときには
各パートの音量は下げるという表情付けを行う。
(N) Process Accompanied with Part Performance FIG. 75 is a flowchart showing the procedure of the volume parameter change giving process 13. In the volume parameter change giving process 13, the volume of each part is reduced during part division. Perform facial expression.

この表情付けの処理を説明する前に、この発明の趣旨を説明する。オーケストラスコアにおいて、ストリングスの1つのパートを、さらに2つ以上のパートに分けて演奏する、“Division”という指定がある。第1バイオリンのパートを10人で演奏しているとして、Division記号により、2つのパートに分かれて演奏する場合には、5人ずつに分かれるというのが一般的である。したがって、単純に考えると、Divisionパートの音量は10人分から5人分に半減するはずである。しかし、従来のDTM(desk top music)では、オーケストラスコアでDivision指定があったとしても、同一音源パートで、ポリフォニックに演奏させる程度の曲作りが一般的であった。それでは、各音符の音量は一定で、同時に鳴る音符数が倍増するので、音量が増える結果となってしまう。熟練したユーザは、この点に気づき、Division指定があった場合には、音量を減少させるような設定をマニュアルで行ってきた。本音量パラメータ変化付与処理13は、これを自動的に行おうとするものである。   Prior to explaining the expression processing, the gist of the present invention will be described. In the orchestra score, there is a designation of “Division” in which one string part is further divided into two or more parts. Assuming that the first violin part is played by 10 people, when the performance is divided into two parts according to the division symbol, it is generally divided into 5 parts each. Therefore, simply thinking, the volume of the Division part should be halved from 10 to 5 people. However, in the conventional DTM (desktop music), even if the division is designated by the orchestra score, it is common to make a song that allows polyphonic performance with the same sound source part. Then, the volume of each note is constant, and the number of notes that play simultaneously doubles, resulting in an increase in volume. Skilled users have noticed this point and have manually set the volume to decrease when Division is specified. The volume parameter change giving process 13 is intended to automatically perform this.

図75において、まず、選択演奏データから、同音色のパートおよびそのパート数を検出する(ステップS141)。ここで、同音色には、類似音色を含めるようにしてもよい。なお、同音色という条件のみで検出すると、第1バイオリンと第2バイオリンがDivisionとして扱われてしまう場合がある。このような場合には、自動検出でなく、手動でパートを選択するようにすればよい。   In FIG. 75, first, the parts of the same tone color and the number of parts are detected from the selected performance data (step S141). Here, the same tone color may include a similar tone color. If detection is performed only under the condition of the same tone color, the first violin and the second violin may be handled as divisions. In such a case, the part may be selected manually instead of automatic detection.

次に、検出されたパート数に基づいて、各パートの演奏音量値を算出する(ステップS142)。具体的には、同音色(同Division)で演奏される複数パートのうちの最大音量値を検出し、その最大音量値をパート数で除算して算出された値を各パートの演奏音量値に決定する。そして、演奏音量とは、それぞれのパート演奏の全体音量を調節する値(具体的には、パート毎のボリュームデータまたはエクスプレッションデータ)をいう。   Next, the performance volume value of each part is calculated based on the detected number of parts (step S142). Specifically, the maximum volume value of multiple parts played in the same tone (same division) is detected, and the value calculated by dividing the maximum volume value by the number of parts is used as the performance volume value of each part. decide. The performance volume is a value for adjusting the overall volume of each part performance (specifically, volume data or expression data for each part).

そして、算出された音量値を各パートに記録する(ステップS143)。具体的には、算出された音量値を各パートの初期音量として記録する。   Then, the calculated volume value is recorded in each part (step S143). Specifically, the calculated volume value is recorded as the initial volume of each part.

なお、複数パートが並行して再生されている部分(演奏区間)のそれぞれについて、上記方法で音量制御することが望ましい。その場合には、算出された音量値を対応する演奏区間においてのみ有効にする。   It should be noted that the volume control is preferably performed by the above method for each part (performance section) in which a plurality of parts are reproduced in parallel. In that case, the calculated volume value is validated only in the corresponding performance section.

(P)音色変化に連動した処理
図76は、音量パラメータ変化付与処理14の手順を示すフローチャートであり、本音量パラメータ変化付与処理14では、音色変化に応じた音量表現による表情付けを行う。
(P) Process linked to timbre change FIG. 76 is a flowchart showing the procedure of the volume parameter change applying process 14. In this volume parameter change applying process 14, facial expression is expressed by volume expression corresponding to the timbre change.

同図において、まず、音色の変更位置と変更内容を検出する(ステップS151)。すなわち、選択演奏データ中の解析対象パート内での、音色変更がある位置と、その音色変更の内容(変化前の音色と変化後の音色)を、変更位置毎に検出する。   In the figure, first, a timbre change position and change contents are detected (step S151). That is, the position where the timbre is changed in the analysis target part in the selected performance data and the content of the timbre change (the timbre before the change and the timbre after the change) are detected for each change position.

次に、変化内容に対応した音量の変化量を決定する(ステップS152)。具体的には、音色毎に最適な音量値が、たとえばテーブルデータの形式で予め決定されており、変更前の音色と変更後の音色のそれぞれの音量値をテーブルデータから読み出し、その音量に基づいて、音色変更位置において、音量が滑らかに変更されるような音量パラメータ(エクスプレッションデータ)を算出して決定する。   Next, the amount of change in volume corresponding to the change content is determined (step S152). Specifically, an optimal volume value for each tone is determined in advance in the form of table data, for example, and the respective volume values of the tone before the change and the tone after the change are read from the table data, and based on the volume Thus, the sound volume parameter (expression data) is calculated and determined so that the sound volume is smoothly changed at the timbre change position.

そして、ステップS152で決定された変化量に基づいて、音量パラメータを修正する(ステップS153)。具体的には、上記算出された音量パラメータを変更位置毎に記録する。   Then, the volume parameter is corrected based on the amount of change determined in step S152 (step S153). Specifically, the calculated volume parameter is recorded for each change position.

このようにして、本音量パラメータ変化付与処理14では、特定の音色による演奏を目立たせることができる。   In this way, the volume parameter change applying process 14 can make a performance with a specific tone color stand out.

(Q)ピッチベンド変化に伴う処理
図77は、音量パラメータ変化付与処理15の手順を示すフローチャートであり、本音量パラメータ変化付与処理15では、ピッチベンド時には音量が変化するという表情付けを行う。
(Q) Process Associated with Pitch Bend Change FIG. 77 is a flowchart showing the procedure of the volume parameter change giving process 15. In the volume parameter change giving process 15, an expression is given that the volume changes during pitch bend.

同図において、まず、ピッチベンドによるピッチの変更位置を検出する(ステップS161)。具体的には、選択演奏データ中の解析対象パート内での、ピッチ変更がある位置と、そのピッチ変更の内容(ピッチベンドデータ)を、変更位置毎に検出する。   In the figure, first, a pitch change position by pitch bend is detected (step S161). Specifically, the position where the pitch is changed in the analysis target part in the selected performance data and the content of the pitch change (pitch bend data) are detected for each changed position.

次に、検出されたピッチの変更位置毎に、ピッチベンドの変化傾向を算出し、その算出結果に応じて、音量の変化量を決定する(ステップS162)。ここで、ピッチベンドの変化傾向は、検出されたピッチベンドデータに対して、ハイパスフィルタ(HPF)処理を施すことにより、検出する。必要に応じて、この処理結果にロウパスフィルタ(LPF)処理を施し、その変化を滑らかにする。そして、フィルタ処理が施されたピッチベンドデータの絶対値を用いて、音量パラメータ(ピッチの変更位置におけるノートイベントのベロシティ)の値の変化量(減少率)を算出する。すなわち、ピッチベンドの変化率が大きいほど、音量を大きく下げるような変化量を算出して決定する。これにより、自然なピッチベンド感を表現できる。   Next, the change tendency of the pitch bend is calculated for each detected pitch change position, and the amount of change in volume is determined according to the calculation result (step S162). Here, the change tendency of the pitch bend is detected by performing high-pass filter (HPF) processing on the detected pitch bend data. If necessary, the processing result is subjected to a low-pass filter (LPF) process to smooth the change. Then, by using the absolute value of the pitch bend data subjected to the filtering process, the amount of change (decrease rate) of the volume parameter (the velocity of the note event at the pitch change position) is calculated. That is, as the rate of change in pitch bend is larger, the amount of change that lowers the volume is calculated and determined. Thereby, a natural pitch bend feeling can be expressed.

そして、ステップS162で決定された変化量に応じて音量パラメータを修正する(ステップS163)。なお、修正する音量パラメータは、具体的には上述のように、ピッチの変更位置におけるノートイベントのベロシティであるが、これに限らず、ステップS161で検出対象となる演奏データが、弦楽器における1弦の演奏に対応するものである場合には、音量パラメータとして、エクスプレッションデータを使用してもよい。   Then, the volume parameter is corrected according to the amount of change determined in step S162 (step S163). The volume parameter to be corrected is specifically the velocity of the note event at the pitch change position as described above, but is not limited to this, and the performance data to be detected in step S161 is the first string in the stringed instrument. Expression data may be used as the volume parameter.

(R)パートに応じた処理
図78は、音量パラメータ変化付与処理16の手順を示すフローチャートであり、本音量パラメータ変化付与処理16では、マルチパートからなる演奏データの場合に、そのメロディラインを浮き立たせるという表情付けを行う。
(R) Processing according to part FIG. 78 is a flowchart showing the procedure of the volume parameter change giving process 16. In the volume parameter change giving process 16, the melody line is raised in the case of performance data consisting of multiparts. Make a facial expression.

同図において、まず、メロディパートを検出する(ステップS171)。   In the figure, first, a melody part is detected (step S171).

次に、メロディパートの音量を他のパート(伴奏パート)の音量と比較して、メロディパートの音量が相対的に他のパートの音量より上がるように、変化量を決定する(ステップS172)。   Next, the volume of the melody part is compared with the volume of the other part (accompaniment part), and the amount of change is determined so that the volume of the melody part is relatively higher than the volume of the other part (step S172).

そして、決定された変化量に基づいてメロディパートの音量パラメータ(エクスプレッションデータ)を修正する(ステップS173)。   Then, the volume parameter (expression data) of the melody part is corrected based on the determined change amount (step S173).

なお、メロディパートの音量を上げようとしても、前記音源回路7の出力可能範囲を超えてしまって上げることができない場合には、他のパートの音量を一律に下げることにより、相対的にメロディパートの音量を上げるようにすればよい。   If the volume of the melody part cannot be increased beyond the output range of the tone generator circuit 7 even if it is attempted to increase the volume of the melody part, the volume of the other parts is reduced uniformly to relatively increase the melody part. You can increase the volume.

また、ピアノのように、1つの音色でメロディから伴奏まで担当するような演奏データに対して、そのメロディラインを浮き立たせるためには、演奏データに含まれるトップノートを抽出して、メロディパートとし、残りを伴奏パートとして、メロディラインと伴奏とを分離し、その後に、本音量パラメータ変化付与処理16のステップS172およびS173の処理を行えばよい。   Also, in order to make the melody line stand out for performance data that is in charge of melody to accompaniment with a single tone like a piano, the top note included in the performance data is extracted and used as a melody part. Then, the melody line and the accompaniment are separated by using the rest as the accompaniment part, and thereafter, the processes of steps S172 and S173 of the volume parameter change applying process 16 may be performed.

この発明の一実施例によれば、図78により説明した「音量パラメータ変化付与処理16」の手法は、音程についても適用可能であり、メロディパートや伴奏パートに応じて基本ピッチを変えるという表情付けを行うことができる。つまり、マルチパートの中でメロディを浮き立たせる1つの方法として、メロディーパートの遠近感を近づけ伴奏パートの遠近感を遠ざける方法があるが、演奏データ(MIDIデータ等)からメロディーパートを検出し(ステップS171)ピッチ変化を算出し(ステップS172)てピッチ変化を付与する(ステップS173)ことにより、ピッチの変化でこの方法を実現するのである。   According to one embodiment of the present invention, the technique of “volume parameter change giving process 16” described with reference to FIG. 78 can be applied to the pitch, and the basic pitch is changed according to the melody part or accompaniment part. It can be performed. In other words, one way to make the melody stand out in the multipart is to bring the perspective of the melody part closer and away from the accompaniment part, but detect the melody part from the performance data (MIDI data, etc.) S171) By calculating the pitch change (step S172) and applying the pitch change (step S173), this method is realized by the pitch change.

ここで、ピッチ変化をPitchBendEventで実現する場合には、メロディーパートのピッチを上げようとしても、PitchBendの最大値を超えてしまうと、上げることができない。その場合には、その他全てのパートのPitchBendを一律に下げることによって、相対的にメロディーのピッチを上げるように構成することが好ましい。   Here, when the pitch change is realized by PitchBendEvent, even if it is attempted to increase the pitch of the melody part, it cannot be increased if the maximum value of PitchBend is exceeded. In that case, it is preferable that the pitch of the melody is relatively increased by uniformly decreasing the pitch bend of all other parts.

また、ピアノの楽譜のように、1つの音色でメロディーから伴奏まで担当するような楽譜については、楽譜が入力されると、そのトップノートを抽出してメロディーパートとし、残りを伴奏パートというように分離した後、メロディーパートのピッチをわずかに上げてメロディを強調して演奏させると、メロディーパートが浮き出た自動編曲演奏装置を構成することができる。   Also, for a score that is in charge of melody and accompaniment with a single tone like a piano score, when the score is input, the top note is extracted as a melody part and the rest as an accompaniment part. After separation, when the pitch of the melody part is slightly increased and the melody is emphasized and played, an automatic arrangement performance device in which the melody part is raised can be configured.

さらに、この発明の一実施例によれば、図78により説明した「音量パラメータ変化付与処理16」の手法は、音量や音程だけでなく、他の演奏パラメータについても適用可能であり、一般的に、メロディパートや伴奏パートに応じて演奏パラメータを変えるという表情付けを行うことができる。つまり、マルチパートの中でメロディを浮き立たせる1つの方法として、メロディーパートの遠近感を近づけ伴奏パートの遠近感を遠ざける方法に対して、演奏データ(MIDIデータ等)からメロディーパートを検出し(ステップS171)遠近感を算出し(ステップS172)、これに応じて演奏パラメータの変化を付与する(ステップS173)ことにより、これを実現することができる。   Furthermore, according to one embodiment of the present invention, the method of “volume parameter change applying process 16” described with reference to FIG. 78 can be applied not only to the volume and pitch but also to other performance parameters. It is possible to add a facial expression by changing the performance parameters according to the melody part and the accompaniment part. In other words, as one method of raising the melody in the multipart, the melody part is detected from the performance data (MIDI data, etc.) as compared with the method in which the perspective of the melody part is brought closer and the perspective of the accompaniment part is kept away (step) S171) This can be realized by calculating a sense of perspective (step S172) and assigning a change in performance parameter accordingly (step S173).

ここで、遠近感の設定方法には音量や音程以外にいろいろ考えられるが、例えば、リバーブの深さを変更する方法がある。リバープが深いほど遠くに感じる。また、LPF、HPFが設定できるなら、このようなフィルタを用いて低域を強調したすれば近い感じが得られ、逆に、低域を弱くすると遠い感じになる。これは、LPFやHPFでなく、イコライザ(等価器)を用いても同様に実現することができる。また、リバーブなどと組み合わせて設定すると、より一層効果が大きくなる。   Here, various perspective setting methods other than volume and pitch are conceivable. For example, there is a method of changing the depth of reverb. The deeper the reverb, the farther it feels. Moreover, if LPF and HPF can be set, if such a filter is used to emphasize the low range, a close feeling can be obtained, and conversely, if the low range is weakened, the feeling becomes far. This can be similarly realized by using an equalizer (equalizer) instead of the LPF or HPF. Moreover, the effect becomes even greater when set in combination with reverb or the like.

(S)フィンガリングに応じたパラメータ処理
図79は、音量パラメータ変化付与処理17の手順を示すフローチャートであり、本音量パラメータ変化付与処理17では、フィンガリングに応じた音量変化により生々しい演奏を再現するという表情付けを行う。
(S) Parameter Processing According to Fingering FIG. 79 is a flowchart showing the procedure of the volume parameter change giving process 17. In the volume parameter change giving process 17, a live performance is reproduced by the volume change according to the fingering. Make a facial expression.

同図において、まず、選択演奏データ中、演奏操作が困難と考えられる音高を検出する(ステップS181)。演奏操作が困難と考えられる音高とは、具体的には、たとえばピアノ演奏やギター演奏における小指で演奏する音高や、ピアノ演奏における特に速いアルペジオに相当する音高を言う。もちろん、他の判定基準を用いてもよい。   In the figure, first, in the selected performance data, a pitch that is considered difficult to perform is detected (step S181). Specifically, the pitch that is considered difficult to perform refers to a pitch that is played with a little finger in, for example, piano performance or guitar performance, or a pitch that corresponds to a particularly fast arpeggio in piano performance. Of course, other criteria may be used.

次に、検出された音高の音量が他の音高の音量よりも相対的に小さくなるような変化値を決定する(ステップS182)。   Next, a change value is determined such that the detected volume of the pitch is relatively smaller than the volume of the other pitches (step S182).

そして、決定された変化値に応じて音量パラメータ(具体的には、検出された音高に対応するノートイベント中のベロシティ)を修正する(ステップS183)。   Then, the volume parameter (specifically, the velocity in the note event corresponding to the detected pitch) is corrected according to the determined change value (step S183).

この発明の一実施例においては、この音量パラメータ変化付与処理17に対し、音色について、フィンガリングを考え指に応じて音程のランダム性を変える表情付けを行うことができる。例えば、フレットのない弦楽器の生演奏に倣うと、フィンガリングに応じて、高くなりがちな音と低くなりがちな音があり、特に、速いフィンガリングの時にはこのようなことが起こりやすい。従って、このようにフィンガリングを考えた音程の変化を与えることによって、より生々しい演奏を再現することができる。また、木管楽器でも、押さえる穴の組み合わせによって、高くなりがちな音と低くなりがちな音がある。金管楽器でも管の長さのポジションによって、同様であるので、このような表情付けは、弦楽器に限られたことではない。   In one embodiment of the present invention, the volume parameter change applying process 17 can be given a facial expression that changes the randomness of the pitch according to the finger, considering fingering. For example, when a live performance of a stringed instrument without frets is imitated, there are sounds that tend to be higher and lower depending on the fingering, and this is particularly likely to occur during fast fingering. Therefore, a more vivid performance can be reproduced by giving a change in pitch in consideration of fingering. In addition, even woodwind instruments have sounds that tend to be higher and lower, depending on the combination of holes to be pressed. Since brass instruments are the same depending on the position of the length of the tube, such expression is not limited to stringed instruments.

このようなフィンガリングを考えて音程のランダム性を変えるには、演奏データ(MIDIデータ等)からフィンガリングを判断し(ステップS181に相当)、このフィンガリングに応じた音程変化を算出し(ステップS182に相当)、算出された音程変化に基づいた音程パラメータを付与することによって、フィンガリングに応じて音程を自動変化させる処理を行う。   In order to change the randomness of the pitch in consideration of such fingering, the fingering is judged from the performance data (MIDI data or the like) (corresponding to step S181), and the pitch change corresponding to this fingering is calculated (step (Corresponding to S182), by assigning a pitch parameter based on the calculated pitch change, a process of automatically changing the pitch according to the fingering is performed.

例えば、チェロの場合、図80のような楽譜に対して、第1ポジションといわれるフィンガリングを行うとしたときは、「ミ」→1(人差し指)、「ファ」→2(中指)、「ソ」→4(小指)という具合のフィンガリングになる。この場合、人間の指の構造上、人差し指、中指、薬指及び小指は等間隔に開かず、中指と薬指との間が他より狭くなる。その結果、図80の楽譜では、「ファ」の音程が高めにずれやすい傾向を待つ。熟練した演奏者はこのような現象を知っているので、訓練によって補正することが可能であるが、熟練度によって、この音程のずれが顕著になる。逆に、薬指の場合には、音程が下がる傾向があるので、そのような傾向を登録することによって、奏者の下手さを再現することができる。   For example, in the case of a cello, if fingering called the first position is performed on the score as shown in FIG. 80, “mi” → 1 (index finger), “fa” → 2 (middle finger), “so ”→ 4 (little finger). In this case, due to the structure of the human finger, the index finger, middle finger, ring finger, and little finger do not open at equal intervals, and the space between the middle finger and ring finger is narrower than the others. As a result, the musical score of FIG. 80 waits for a tendency that the pitch of “Fa” tends to shift to a higher level. A skilled performer knows such a phenomenon and can correct it by training. However, this pitch shift becomes significant depending on the skill level. On the contrary, in the case of the ring finger, the pitch tends to decrease. Therefore, by registering such a tendency, it is possible to reproduce the poor performance of the player.

この処理は下手さの再現であるので、あまり度合いが強いと好ましい結果は得られない。しかし、適度な下手さは、自然な演奏形態として表現されるので、この下手さ加減をパラメータによって調整することができるように構成するのが良い。   Since this process is a poor reproduction, if the degree is too strong, a favorable result cannot be obtained. However, since moderate skill is expressed as a natural performance form, it is preferable that this skill can be adjusted by parameters.

また、フィンガリングのポジションが移動する場合には、ポジション移動に応じた音程変化の音が加わることがあるので、フィンガリングを判断した後、このフィンガリングのポジション移動の大きさを評価してポルタメント(又はスライド)を付加し(ステップS182に相当)、これに基づいた音程パラメータを付与することによって、ポジション移動の評価に応じて音程を自動変化させる処理を行うのがよい。このようにポジション移動を評価することによってポジション移動量に応じた音程変化を発生させる際、例えば、フレットのない弦楽器の場合には、ポルタメント的に連続的な音程変化を加えるのが好ましく、また、フレットのある弦楽器の場合には、フレットの音程に対応した階段的変化の音程変化を加えるのが好ましい。   In addition, when the fingering position moves, a sound with a pitch change corresponding to the position movement may be added, so after judging the fingering, evaluate the magnitude of this fingering position movement and portamento (Slide) is added (corresponding to step S182), and a pitch parameter based on this is added, and a process of automatically changing the pitch according to the evaluation of the position movement is preferably performed. When generating a pitch change according to the amount of position movement by evaluating the position movement in this way, for example, in the case of a stringed instrument without frets, it is preferable to add a continuous pitch change in a portamento manner. In the case of a stringed instrument having a fret, it is preferable to add a pitch change in a stepwise manner corresponding to the pitch of the fret.

なお、フィンガリング判断によって開放弦と評価された場合には、ビブラートを禁止すると、より自然な表情を再現することができる。また、管楽器の場合、フィンガリングでレジスターチューブの開閉をまたぐ際には、滑らかなスラー演奏が難しくなる。そこで、滑らかなスラーの許可、不許可も、フィンガリングの評価によって行うと、実感的な演奏を再現することができる。   In addition, when it is evaluated as an open string by fingering judgment, a more natural expression can be reproduced by prohibiting vibrato. In the case of wind instruments, smooth slur performance becomes difficult when the register tube is opened and closed by fingering. Therefore, if the smooth slur is permitted or not permitted by evaluation of fingering, a realistic performance can be reproduced.

さらに、この発明の一実施例によれば、音量パラメータ変化付与処理17の手法を応用して、フィンガリングを考え、低いポジションで大きなベロシティ(Velocity)のときに、「びびり」(ノイズ音)や「チョッパー」を加える表情付けを行うことができる。例えば、第1ステップで演奏データ(MIDIデータ等)からフィンガリングを判断し(ステップS181に相当)、第2ステップでは、低いポジションで大きなベロシティを検出してこれに応じたノイズを算出し(ステップS182に相当)、第3ステップにおいて、これを演奏データに付加する(ステップS183に相当)ことにより、フィンガリングに応じてノイズを自動的に付加するシステムを構成することができる。   Furthermore, according to one embodiment of the present invention, the method of the volume parameter change giving process 17 is applied to consider fingering, and when the velocity is large at a low position (Velocity), You can add a “chopper” expression. For example, fingering is determined from performance data (MIDI data or the like) in the first step (corresponding to step S181), and in the second step, a large velocity is detected at a low position and noise corresponding to this is calculated (step (Corresponding to S182), by adding this to the performance data in the third step (corresponding to step S183), a system for automatically adding noise according to fingering can be configured.

弦楽器の生演奏に倣うと、フレットの有無に関わらず、低いポジションで強くはじくと弦が指板に当たる音が出やすくなる。そのようなフィンガリングを考えたノイズ付加を行うことによって、より生々しい演奏を再現することができる。また、木管楽器でも、押さえる穴の組み合わせによって、高くなりがちな音と低くなりがちな音があり、金管楽器でも、管の長さのポジションによって、同様であって、このような演奏形態は、弦楽器に限られたことではない。   If you follow the live performance of a stringed instrument, regardless of the presence or absence of frets, it will be easier to hear the string hitting the fingerboard if you repel it at a low position. By adding noise in consideration of such fingering, a more vivid performance can be reproduced. Also, even with woodwind instruments, there are sounds that tend to be higher and lower depending on the combination of holes to be pressed, and with brass instruments, the same is true depending on the position of the tube length. It is not limited to stringed instruments.

また、音色がベースギターの場合、ノイズを加える代わりに、音色をチョッパーベースに切り替えるという方法も効果的である。この場合には、第2ステップ(ステップS182に相当)で低いポジション且つ大きなベロシティの検出に応じて音色を一時的に変更するフィンガリング応答自動音色変更システムを構成すればよい。なお、フィンガリング判断で開放弦と評価された場合には、開放弦用の音色に変更することも効果的である。   When the tone is a bass guitar, it is also effective to switch the tone to a chopper bass instead of adding noise. In this case, a fingering response automatic tone color changing system that temporarily changes the tone color in response to detection of a low position and a large velocity in the second step (corresponding to step S182) may be configured. In addition, when it is evaluated as an open string by fingering judgment, it is also effective to change to a tone for an open string.

(T)弓の返しに伴う処理
図81は、音量パラメータ変化付与処理18の手順を示すフローチャートであり、本音量パラメータ変化付与処理18では、弓を用いて演奏する弦楽器の演奏データの場合に、弦楽器の弓の返しに応じた音量変化により運弓感を再現するという表情付けを行う。このように、本音量パラメータ変化付与処理18では、弓の返しに応じた音量変化を付与するため、選択演奏データが弓を用いて演奏する弦楽器用のものでなければならない。したがって、本音量パラメータ変化付与処理に入る前に、選択演奏データがこの種のものであるか否かをチェックし、この種のものであるときにのみ、以下の処理に移行するようにする。
(T) Processing Accompanying Return of Bow FIG. 81 is a flowchart showing the procedure of the volume parameter change giving process 18. In the volume parameter change giving process 18, in the case of performance data of a stringed instrument played using a bow, The expression of the bow is reproduced by changing the volume according to the bow of the stringed instrument. Thus, in the present volume parameter change applying process 18, in order to give a volume change according to the bow return, the selected performance data must be for a stringed instrument played using a bow. Therefore, before entering the volume parameter change giving process, it is checked whether or not the selected performance data is of this type, and only when the selected performance data is of this type, the process proceeds to the following process.

同図において、まず、元の音量値(ベロシティ値)から弓の移動速度を算出し、その値を用いて弓の折り返し位置を検出する(ステップS191)。具体的には、算出した移動速度に基づいて弓の軌跡を算出し、この軌跡と弓の長さを示すパラメータとを比較することにより、弓の折り返し位置を検出し、この時刻を求める。なお、実際には、弓の圧力も考慮する必要があるが、本実施の形態では、単純化のため省略している。もちろん、この弓の圧力を考慮するようにしてもよい。   In the figure, first, the moving speed of the bow is calculated from the original volume value (velocity value), and the return position of the bow is detected using the calculated value (step S191). Specifically, a bow trajectory is calculated based on the calculated moving speed, and the bow return position is detected by comparing the trajectory with a parameter indicating the bow length, and this time is obtained. Actually, it is necessary to consider the pressure of the bow, but in this embodiment, it is omitted for simplification. Of course, this bow pressure may be taken into account.

次に、検出位置毎に、弓の折り返し位置近傍の演奏データを読み出し、変化付与パターンを用いて変化量を決定する(ステップS192)。図82は、この変化付与パターン(テーブルデータ)の一例を示す図であり、縦軸は音量変化値を示し、横軸は時間を示している。同図に示すように、音量変化値を示す曲線は、弓の折り返し位置(図中央位置)でその音量変化値が最小となっている。なお、生演奏の場合には、弓返しを気づかせない方が、よりよい表情付けになる場合もあるので、図82のテーブルデータを用いる際には、その縦軸をスケーリングして、表現の効果を調整することが望ましい。   Next, for each detection position, performance data in the vicinity of the bow folding position is read, and the amount of change is determined using the change imparting pattern (step S192). FIG. 82 is a diagram showing an example of this change imparting pattern (table data), where the vertical axis indicates the volume change value and the horizontal axis indicates time. As shown in the figure, the curve indicating the volume change value has the minimum volume change value at the bow folding position (center position in the figure). In the case of a live performance, there is a case where it is better to make the bow not noticeable. Therefore, when using the table data of FIG. 82, the vertical axis is scaled to express the expression. It is desirable to adjust the effect.

そして、決定された変化量に応じて音量パラメータ(ベロシティ)の値を修正する(ステップS193)。   Then, the value of the volume parameter (velocity) is corrected according to the determined change amount (step S193).

なお、単純に音量から弓の速さを算出したのでは、好ましくない時間に弓の折り返しが発生する場合があるので、弓の速さは音量とは無関係に調整できるようにした方が好ましい。   Note that if the bow speed is simply calculated from the volume, bow folding may occur at an undesirable time. Therefore, it is preferable that the bow speed can be adjusted independently of the volume.

(U)対応歌詞情報に伴うパラメータ処理
図83は、音量パラメータ変化付与処理19の手順を示すフローチャートであり、本音量パラメータ変化付与処理19では、歌詞を伴う演奏データの場合に、歌詞の内容に応じて抑揚を変更するという表情付けを行う。
(U) Parameter Processing Associated with Corresponding Lyric Information FIG. 83 is a flowchart showing the procedure of the volume parameter change giving process 19. In this volume parameter change giving process 19, the contents of the lyrics are changed in the case of performance data with lyrics. Appropriate expression to change the intonation accordingly.

同図において、まず、解析演奏データ(選択演奏データ)内に歌詞情報があるか否かを判別し(ステップS201)、歌詞情報がないときには、本音量パラメータ変化付与処理19を直ちに終了する一方、歌詞情報があるときには次のステップS202に進む。   In the figure, first, it is determined whether or not there is lyric information in the analysis performance data (selected performance data) (step S201). If there is no lyric information, the volume parameter change giving process 19 is immediately terminated. When there is lyric information, the process proceeds to the next step S202.

ステップS202では、歌詞情報内の単語から、音量変化を付与すべき単語を検出する。この検出方法としては、たとえば、音量変化を付与することが好ましい単語のリストが予め作成され、そのリストと歌詞情報内の単語とを照らし合わせることにより、音量変化を付与すべき単語を検出する方法が挙げられる。   In step S202, the word which should give a volume change is detected from the word in lyrics information. As this detection method, for example, a list of words to which volume change is preferably given is created in advance, and a word to which volume change should be given is detected by comparing the list with words in the lyrics information. Is mentioned.

次に、検出された単語毎に使用する音量変化パターンを読み出して、音量の変化値を決定する(ステップS203)。具体的には、上記リスト内の単語毎に、どのような音量変化を付与すべきかを記載した音量変化パターン(テーブル)が用意され、ステップS202では、この音量変化パターンを読み出して、音量の変化値を決定する。音量変化パターンには、たとえば、単語が発音されている間の音量変化曲線が記録され、この曲線の時間軸(縦軸が音量変化値を表わし、横軸が時間を表わすものとする)を伸縮することにより、音量の変化値を決定する。なお、音量の変化値の決定には、単語位置に対応した音符の元の音量も考慮することが望ましい。   Next, a volume change pattern to be used for each detected word is read and a volume change value is determined (step S203). Specifically, a volume change pattern (table) describing what volume change should be applied to each word in the list is prepared, and in step S202, the volume change pattern is read and the volume change is read out. Determine the value. In the volume change pattern, for example, a volume change curve while a word is pronounced is recorded, and the time axis of this curve (the vertical axis represents the volume change value and the horizontal axis represents time) is expanded and contracted. By doing so, the change value of the volume is determined. It should be noted that in determining the volume change value, it is desirable to consider the original volume of the note corresponding to the word position.

そして、決定された変化値に応じて音量パラメータ(エクスプレッションデータ)を修正する(ステップS204)。   Then, the volume parameter (expression data) is corrected according to the determined change value (step S204).

この発明の一実施例によれば、図83で説明した音量パラメータ変化付与処理19の手法は、音程変化の付与するのに適用し、作曲システムにおいて、詩を入力すると、単語の抑揚データ、音節データから、微妙に音程を変化させるように構成することができる。歌を伴う曲の場合、同じメロディーでも、歌詞の内容によって抑揚を変えた方が自然な場合があり、抑揚をピッチの微妙な変化によって実現することも良い方法である。そこで、ある単語を音節単位に音程係数とともに登録しておき、演奏データの中にその単語が出現すると、音程を(微妙に)変化させるように構成するのである。ここで、単語に従った音程変化とは、単語単位で音程を変更するのではなく、単語の音節に対応する音符の時間内での音程変化を意味している。   According to one embodiment of the present invention, the volume parameter change adding process 19 described with reference to FIG. 83 is applied to adding a change in pitch, and when a poem is input in a composition system, word inflection data, syllables are input. From the data, it can be configured to change the pitch slightly. In the case of a song with a song, even if the melody is the same, it may be more natural to change the inflection depending on the contents of the lyrics, and it is also a good method to realize the inflection by a subtle change in pitch. Therefore, a certain word is registered together with the pitch coefficient in syllable units, and the pitch is changed (subtly) when the word appears in the performance data. Here, the pitch change according to the word means a pitch change within the time of the note corresponding to the syllable of the word, instead of changing the pitch in units of words.

(V)種々の実施の形態
なお、上記音量パラメータ変化付与処理1〜19の処理によって、選択演奏データに各種音量変化を伴う表現処理を施すと、選択演奏データ全体に亘って非常に大きな音量が付与されていたり、逆に、非常に小さな音量が付与されていたりする場合があり得る。これを防止するためには、選択演奏データ全体の音量の平均値を算出し、この平均値が所望の値になるように、選択演奏データ全体の音量に対してオフセットを加えるようにすればよい。そのときに、ある一部の音量が音源回路7が出力可能な最大値や最小値を超えることがあり得るので、選択演奏データ全体の音量の平均値を算出するときには、選択演奏データ全体を通しての最大値と最小値を求めておくとよい。そして、オフセットを加える場合には、最大値にオフセットを加えた結果が音源回路7の最大値を超えなければ問題ないし、超えるときには、超えない最大の値をオフセット値として全体に加えるという処理を行えばよい。また、最大値がある一瞬だけしか音源回路7の最大値を超えないときには、その値だけを音源回路7の最大値でクリップする方が好ましい場合もあるので、最大値を超えている時間が、選択演奏データ全体に亘って再生したときの時間の何%まで許すかという許容時間(閾値)を予め決めておくようにしてもよい。最小値についても同様である。
(V) Various Embodiments Note that if the selected performance data is subjected to an expression process accompanied by various volume changes by the above-described volume parameter change applying processes 1 to 19, a very large volume is produced over the entire selected performance data. There may be a case where the sound volume is applied or, on the contrary, a very small sound volume is applied. In order to prevent this, an average value of the volume of the entire selected performance data is calculated, and an offset is added to the volume of the entire selected performance data so that the average value becomes a desired value. . At that time, a certain volume may exceed a maximum value or a minimum value that the sound source circuit 7 can output, so when calculating the average value of the volume of the entire selected performance data, Find the maximum and minimum values. When adding an offset, there is no problem if the result of adding the offset to the maximum value does not exceed the maximum value of the tone generator circuit 7. When exceeding, the maximum value not exceeding is added to the whole as an offset value. Just do it. In addition, when the maximum value exceeds the maximum value of the sound source circuit 7 only for a moment, it may be preferable to clip only that value with the maximum value of the sound source circuit 7, so that the time exceeding the maximum value is An allowable time (threshold value) for what percentage of the time when reproducing the entire selected performance data is allowed may be determined in advance. The same applies to the minimum value.

また、選択演奏データに想定されている楽器の種類応じて、選択演奏データに適用可能な表現付けの種類を規定するようにしてもよい。たとえば、ピアノの音色では、一旦発音した後に、その音符をクレッシェンドすることは非現実的である。もっとも非現実的な効果を狙うのであれば、それでもよいが、ピアノ音をシミュレートする場合には、ある音符に対して、その発音後に音量変化させることは禁止した方が好ましい。そのためには、音色毎に音量制御用のフラグを設けるようにすればよい。このフラグにより、たとえば、上記減衰音の場合には、発音後の音量制御を禁止し、持続音の場合には、発音後の音量制御を許可するというように、音量制御を行うか否かを決定する。図84は、発音後の音量制御を規定するためのテーブルデータの一例を示す図であり、上記音量制御用のフラグには、このテーブルデータから読み出された値が設定される。さらに、このテーブルデータを用いて、発音後に音量制御が不許可とされる音色に対して、そのようなデータが既に設定されている場合には、当該ノートオンからノートオフまでの範囲内に含まれる音量制御データをすべて消去する、という掃除機能を設け、不自然さを自動的に解消するようにしてもよい。   Further, the type of expression applicable to the selected performance data may be defined according to the type of musical instrument assumed for the selected performance data. For example, in a piano tone, it is unrealistic to crescendo the note after it is once pronounced. If you are aiming for the most unrealistic effect, you may do it. However, when simulating a piano sound, it is preferable to prohibit changing the volume of a certain note after its pronunciation. For this purpose, a volume control flag may be provided for each tone color. With this flag, for example, in the case of the above-mentioned decay sound, the volume control after sounding is prohibited, and in the case of a continuous sound, the sound volume control after sounding is permitted. decide. FIG. 84 is a diagram showing an example of table data for defining volume control after sound generation, and a value read from this table data is set in the volume control flag. Furthermore, using this table data, if such data has already been set for a tone whose volume control is not permitted after sound generation, it is included in the range from the note-on to the note-off. It is also possible to provide a cleaning function for erasing all sound volume control data to automatically eliminate unnaturalness.

さらに、本実施の形態(音量パラメータ変化付与処理1〜19)では、この発明を音量パラメータの制御にのみ適用するようにしているが、これに限らず、この発明は、音量パラメータ以外のパラメータ、たとえば、ピッチ、効果(リバーブ、コーラス、パンニング等)、音色等に関するパラメータの制御に対しても有効である。   Further, in the present embodiment (volume parameter change providing processes 1 to 19), the present invention is applied only to the control of the volume parameter. However, the present invention is not limited to this, and the present invention includes parameters other than the volume parameter, For example, it is also effective for controlling parameters relating to pitch, effect (reverb, chorus, panning, etc.), timbre, etc.

また、オーケストラスコアを演奏データにして、音源回路7で再生するような場合に、パート数が多数になると、個々のパートに個別な音量制御を行うことがあまり有効でない場合もある。そのような場合、従来は、1つのパート用に作成した音量制御用データ(特に、エクスプレッションデータやピッチベンドデータ)をコピーして、他のパートに適用させていた。しかし、それでは同じデータが多数複製されるという無駄が生じるので、複数のパートをグループ化して、1つの音量制御用データで複数のパートを制御する仕組みとした方がよい。   Further, when the orchestra score is used as performance data and is reproduced by the tone generator circuit 7, if the number of parts becomes large, it may not be very effective to perform individual volume control for each part. In such a case, conventionally, volume control data (particularly, expression data and pitch bend data) created for one part is copied and applied to other parts. However, this causes a waste of duplicating the same data. Therefore, it is better to group a plurality of parts and control the plurality of parts with a single volume control data.

〔実施態様3〕
この発明による更に別の実施例(a)〜(e)を、「実施態様3」として、以下に説明する。
[Embodiment 3]
Further examples (a) to (e) according to the present invention will be described below as "Embodiment 3".

(a)「アクセントの音は微妙に音をうわずらせる」:
アクセントを表現するためには、一般には、音量を強調することを主体にしているが、生の演奏表現に倣って更に音程の変化を伴うような表情付けを行うと、より自然な表情を実現することができる。また、アクセントに限らず、一般に音量を変化させると言われる演奏表現では、実際には、音程の変化を伴っていることが多い。そのために、演奏記号に音量変化の処理を対応させるとともに、同時に音程変化の処理も対応させることが望ましい。そこで、この発明の一実施例においては、音符データからアクセントを検出すると、音量及び音程の時間変化を算出し、これらの変化に基づいて表情付けを行うようにしている。
(A) “Accent sounds subtly make sounds”:
In order to express an accent, the main focus is on enhancing the volume, but if a facial expression with a change in pitch is made following the live performance expression, a more natural expression is realized. can do. In addition, not only accents but also performance expressions that are generally said to change the volume often actually involve a change in pitch. For this purpose, it is desirable to make the performance symbol correspond to the volume change process and at the same time correspond to the pitch change process. Therefore, in one embodiment of the present invention, when an accent is detected from note data, temporal changes in volume and pitch are calculated, and expression is applied based on these changes.

図85は、この発明の一実施例によるアクセント音について微妙に音をうわずらせる処理の例を示すフローチャートである。まず、ステップKk1において、選択した演奏データ中から音量変化を付与したい区間を指定し、続くステップKk2では、指定された区間から音量変化(アクセント)が付与されている部分を検出し、例えば、図86に示すように、この部分の音量及び音程の時間変化を算出する。なお、このように区間を指定しないで、演奏データ全般を解析区間としてもよい。   FIG. 85 is a flowchart showing an example of processing for slightly swaying an accented sound according to one embodiment of the present invention. First, in step Kk1, a section to which volume change is to be given is specified from the selected performance data, and in step Kk2, a portion to which volume change (accent) is given is detected from the specified section. As shown at 86, the time change of the volume and pitch of this part is calculated. In addition, it is good also considering the performance data whole as an analysis area, without designating an area in this way.

さらに、ステップKk3では、検出した部分毎に、音量変化に相当する音程変化傾向を決定する。この音程変化傾向の決定は、音量変化傾向を用いて演算により決定する方法や、音量変化傾向に相当する予め用意された音程変化の変化付与パターンを読み出して決定する方法などがある。そして、ステップKk4において、決定された内容に基づいて検出部分の音程パラメータを変更し、ステップKk5に進んで、終了操作があったと判断されるとこの処理を終了し、そうでなければ、ステップKk2に戻り、ステップKk2〜Kk5の処理を繰り返す。   Further, in step Kk3, a pitch change tendency corresponding to the volume change is determined for each detected portion. The determination of the pitch change tendency includes a method of determining by calculation using the volume change tendency, and a method of reading and determining a change change pattern of a pitch change prepared in advance corresponding to the volume change tendency. In step Kk4, the pitch parameter of the detected portion is changed based on the determined content, and the process proceeds to step Kk5. When it is determined that an end operation has been performed, the process ends. Otherwise, step Kk2 Returning to step S3, the processes in steps Kk2 to Kk5 are repeated.

なお、このようなアクセント音に対する処理は、鍵盤楽器などのように、音程がずれる要素の少ないものでは、この機能を使わない方が自然である。また、アクセントに限らず、拍子の頭の音符や、連符の頭の音符に対して、自動的にアクセント的な処理を施すことも有効である。さらに、5連符、7連符のように大きな数の連符に対しては、2連符+3連符とか、2連符+2連符+3連符などのように小さい数の連符に分解して、本来の頭の音符には普通のアクセント処理を施し、分解された頭の音符にはやや弱いアクセント処理を施すと、拍感が出やすくなるので有効である。   It should be noted that it is more natural not to use this function for processing such accented sounds for those that have few elements that are out of pitch, such as keyboard instruments. It is also effective to automatically perform an accent-like process on the note at the beginning of the time signature and the note at the beginning of the tuplet, not just the accent. Furthermore, for large numbers such as quintuples and quintuplets, they are broken down into small tuplets such as doublet + triplet or doublet + doublet + triplet. Thus, it is effective to apply normal accent processing to the original head notes and to apply somewhat weak accent processing to the decomposed head notes, since the beat feels easily.

音程を変化させる際に、音量も同時に変化させるということに関して、ビブラートやポルタメントの際、音程に動きがあるときには、音量をやや下げると、より自然な表現が可能になる。これを実現するには、音符データからビブラートなど音程変化を行う表現記号を検索する処理を行い、検索された表現を伴う音符の音程変化の大きさを算出し、これに基づいて音量を下げるようにすればよい。ここで、この音程変化の算出には、HPFによる抽出を用いるのが好ましいが、HPFの出力の変化が激しすぎる場合には、HPFの後段にLPFを配置することが望ましい。   When changing the pitch, the volume is also changed at the same time. In vibrato and portamento, when there is movement in the pitch, lowering the volume slightly allows a more natural expression. In order to achieve this, processing is performed to search for expression symbols that change the pitch, such as vibrato, from the note data, calculate the magnitude of the pitch change of the note with the searched expression, and reduce the volume based on this. You can do it. Here, it is preferable to use extraction by HPF for the calculation of the pitch change. However, when the change of the output of the HPF is too severe, it is desirable to arrange the LPF after the HPF.

(b)「ダブルチョーキングでは、音程変化を平行にしない/勝手にチャンネルを分ける」:
ギターの奏法において、2本の弦を同時に発音し而も同時にチョーキング奏法を行った場合には、2つの音程間隔が平行になるように変化させることは、生楽器では不可能である。この発明の一実施例においては、このような事実に倣って、ダブルチョーキングの際には、わざと音程変化のタイミングをずらすことよって、自然な演奏表現を再現させることができる。例えば、ダブルチョーキングがあった場合、図87に示すように、ダブルチョーキングの上音と下音で、音量の時間変化タイミングをずらすのである。このように「タイミングをずらす方法」は、同じ時間変化ではあるが変化開始の時刻をずらすようにしても良いし、図87のように時間変化の形状そのものが異なっていても良い。
(B) “With double choking, do not make pitch changes in parallel / divide channels arbitrarily”:
When playing two guitar strings at the same time and performing choking at the same time, it is impossible for a live musical instrument to change the interval between two pitches in parallel. In one embodiment of the present invention, in accordance with such a fact, a natural performance expression can be reproduced by intentionally shifting the timing of the pitch change during double choking. For example, when there is double choking, the time change timing of the volume is shifted between the upper and lower sounds of double choking as shown in FIG. As described above, the “method of shifting the timing” may be the same time change but the start time of the change may be shifted, or the shape of the time change itself may be different as shown in FIG.

図88は、この発明の一実施例によるダブルチョーキングでは平行にしない処理の例を示すフローチャートである。この処理がスタートすると、ステップLl1において、選択された演奏データ中からダブルチョーキング部を検出する。ここで、ダブルチョーキング部が複数検出された場合には、検出された各部毎にステップLl2以下の表情付与処理を行う。また、検出された複数部から、表情付与処理行いたい部分を選択できるようにしてもよい。   FIG. 88 is a flowchart showing an example of processing that is not parallel in double choking according to an embodiment of the present invention. When this process starts, a double choking part is detected from the selected performance data in step Ll1. Here, when a plurality of double choking parts are detected, a facial expression imparting process in step L12 and subsequent steps is performed for each detected part. Moreover, you may enable it to select the part which wants to perform a facial expression provision process from the detected several part.

次のステップLl2においては、まず、ダブルチョーキングにおける上下の二音に異なる音程(又は音量)変化を付与するために、上下各音を別々のパートに分離して記憶し、次に、各パートに音程(音量)変化傾向を決定する。この変化傾向については、図87に示すように時間変化タイミングがずらされるが、図87のような変化傾向を、予め変化傾向パターンとして記憶しておいてもよいし、演算で求めるようにしてもよい。このようにして、変化傾向パターンが決定されると、ステップLl3にて、決定された変化傾向に基づいてダブルチョーキング部の音程(音量)パラメータを変更し、この処理を終了する。   In the next step L12, first, in order to give different pitch (or volume) changes to the upper and lower two sounds in double choking, the upper and lower sounds are separated and stored in separate parts, and then each part is stored. Determine the trend of changing the pitch (volume). As for this change tendency, the time change timing is shifted as shown in FIG. 87, but the change tendency as shown in FIG. 87 may be stored in advance as a change tendency pattern, or may be obtained by calculation. Good. When the change tendency pattern is determined in this way, in step Ll3, the pitch (volume) parameter of the double choking part is changed based on the determined change tendency, and this process ends.

なお、「弦の性質」というパラメータを設定し、このパラメータをチョーキングのカーブに対応づけると、実感的になる。また、目標となる音程自体を本来の音程差からずらしておいた方が、より自然な感じになる。つまり、図87の例においては、上音と下音との音程間隔は5度であるが、音程が変化している最中は5度からずれることになるが、音程変化が終了した時点でも5度からずれた状態にしておくと、より自然な感じが得られる。   Note that setting a parameter called “string properties” and associating this parameter with a choking curve makes it practical. In addition, it is more natural to shift the target pitch itself from the original pitch difference. That is, in the example of FIG. 87, the pitch interval between the upper tone and the lower tone is 5 degrees, but will deviate from 5 degrees while the pitch is changing, but even when the pitch change ends. If the state is shifted from 5 degrees, a more natural feeling can be obtained.

また、上述した「タイミングをずらす方法」を自動的に実現するためには、2本の弦に対応する音程変化を独立に行う必要があるので、2つのMIDIトラックに自動的に分離させる必要がある。このため、この発明の一実施例においてはダブルチョーキングに対して、勝手にチャンネルを分けるように構成している。つまり、演奏データ(MIDIデータ等)からダブルチョーキングを検出すると、表情付けがなされた複数パートの演奏データを生成させ、複数ダブルチョーキングを複数パートに自動的に割り振るのである(ステップLl2参照)。   Further, in order to automatically realize the above-described “method for shifting the timing”, it is necessary to independently change the pitch corresponding to the two strings, so it is necessary to automatically separate the two MIDI tracks. is there. For this reason, in one embodiment of the present invention, the channel is divided arbitrarily for double choking. That is, when double choking is detected from performance data (MIDI data or the like), performance data of a plurality of parts with expression is generated, and the plurality of double choking is automatically allocated to the plurality of parts (see step L12).

(c)「連続したチョーキングでは、音程変化を不均一にする」:
例えば、図89に示す連続したチョーキングの譜例では、本来は、チョーキングが4回繰り返しており、全て同じ音程変化を行うべきであるが、実際の演奏に倣うと、必ずしも同じ音程変化になっているわけではなく、むしろ、毎回微妙に音程が異なる場合が多く、その方が自然な演奏に聞こえる。そこで、この発明の一実施例においては、このような事実に倣って、チョーキングの指定が連続して現れる部分を検索し、毎回のチョーキングの音程変化が同じにならないように、音程に不均一性を加えることによって、自然な演奏表現を再現させることができる。このような表現付けは、図89の例では、チョーキングのかかった真ん中の音「レ」の音程から微妙に高くなったり、低くなったり変化を与えることによって実現される。
(C) “Sequential choking makes pitch change non-uniform”:
For example, in the example of continuous choking shown in FIG. 89, choking should have been repeated four times, and the same pitch change should be performed. However, following the actual performance, the pitch change was not necessarily the same. Rather, there are many cases where the pitch is slightly different each time, which sounds more natural. Therefore, in one embodiment of the present invention, in accordance with such a fact, a portion where choking designations appear continuously is searched, and the pitch variation is not uniform so that the pitch variation of each choking does not become the same. By adding, you can reproduce natural performance expression. In the example of FIG. 89, such expression is realized by slightly increasing or decreasing the pitch of the centered chorded sound “Le”.

図90は、この発明の一実施例による連続チョーキングでは音程変化を不均一にする処理の例を示すフローチャートである。この処理では、まず、ステップMm1において、選択された演奏データ中から連続してチョーキングが行われている部分を検出する。ここで、連続チョーキング部が複数検出された場合には、検出された各部毎にステップMm2以下の表情付与処理を行う。また、検出された複数部から、表情付与処理行いたい部分を選択できるようにしてもよい。   FIG. 90 is a flowchart showing an example of processing for making pitch changes non-uniform in continuous choking according to an embodiment of the present invention. In this process, first, in step Mm1, a portion where choking is continuously performed from the selected performance data is detected. Here, when a plurality of continuous choking portions are detected, a facial expression imparting process of step Mm2 or less is performed for each detected portion. Moreover, you may enable it to select the part which wants to perform a facial expression provision process from the detected several part.

次のステップMm2では、チョーキングが連続している回数や音程の変化傾向に基づいて、変化付与テンプレートを選択したり、所定の演算を行ったりすることで、付与する音程の変化傾向を決定する。そして、ステップMm3において、決定された変化傾向に基づいて、検出されたチョーキング連続部の音程パラメータを変更し、この処理を終了する。   In the next step Mm2, the change tendency of the pitch to be applied is determined by selecting a change applying template or performing a predetermined calculation based on the number of times choking is continued and the change tendency of the pitch. In step Mm3, the detected pitch parameter of the choking continuation part is changed based on the determined change tendency, and this process is terminated.

(d)「アルペジオでは、倍音を別チャンネルで鳴らす」:
例えば、図91(1)に示すアルペジオの譜例に示されるような音形のアルペジオを演奏したとすると、生楽器の場合には、各音の共通の倍音である図91(2)の「ソ」の音がずっと響くという現象が起こる。そこで、この発明の一実施例では、演奏データ(MIDIデータ等)からアルペジオの共通倍音を検出し、この倍音の音を別の音源パートに割り振って別パートにて小さな音量で鳴らすことにより、このように倍音が鳴り続いている現象をシミュレートすることができる。
(D) “In Arpeggio, overtones are played in a separate channel”:
For example, if an arpeggio with a sound shape as shown in the example of the arpeggio shown in FIG. 91 (1) is played, in the case of a live musical instrument, “ The phenomenon that the sound of "Seo" resonates all the time. Therefore, in one embodiment of the present invention, a common arpeggio overtone is detected from performance data (MIDI data, etc.), and this overtone is assigned to another sound source part and played at a low volume in another part. Thus, it is possible to simulate a phenomenon in which overtones continue to sound.

図92は、この発明の一実施例によるアルペジオでは倍音を別チャンネルで鳴らす処理の例を示すフローチャートである。この処理では、まず、ステップNn1において、選択された演奏データ中からアルペジオ部を検出する。ここで、アルペジオ部が複数検出された場合には、検出された各部毎にステップNn2以下の表情付与処理を行う。また、検出された複数部から、表情付与処理行いたい部分を選択できるようにしてもよい。ステップNn1に続くステップNn2で各音の共通の倍音を抽出した後、ステップNn3にて、抽出した倍音を選択演奏データの新規パートで発音させるよう記憶し、この処理を終了する。   FIG. 92 is a flowchart showing an example of processing for producing overtones in another channel in the arpeggio according to one embodiment of the present invention. In this process, first, in step Nn1, an arpeggio part is detected from the selected performance data. Here, when a plurality of arpeggio parts are detected, a facial expression imparting process of step Nn2 or less is performed for each detected part. Moreover, you may enable it to select the part which wants to perform a facial expression provision process from the detected several part. After the common overtone of each sound is extracted in step Nn2 following step Nn1, the extracted overtone is stored in step Nn3 so as to be sounded as a new part of the selected performance data, and this process is terminated.

(e)「楽譜のシンボルによって音色を選択する」:
楽譜のシンボルと音色との対応を考察すると、例えば、バイオリン等の擦楽器の楽譜において、図93に示すarco(弓で弦を擦るアルコ奏法)とpizz.(pizzicato:弦をはじくピチカート奏法)の切り替え譜例の場合、第1小節は運弓(擦弦)による演奏が指示され、第2小節は撥弦(弦をはじくこと)による演奏(ピチカートストリング)が指示され、そして、第1小節は再び運弓(擦弦)による演奏が指示されていることになる。ここで、楽譜上に「pizz.」と表示されていると、自動的に音色をピチカートストリングに変更すると便利であり、また、「arco」と表示されておれば、再び、擦弦音色に戻すようにすると便利である。例えば、現状のGMシステム(MIDI音源標準化規格)の音色では、ピチカート音色は1つしかなく、擦弦音色は多くの種類が用意されている。従って、ピチカートストリングに変更したときには、「arco」が表示されると、どの音色に復帰するかを記憶する手段を用意しておくべきである。
(E) “Select a timbre by the symbol of the score”:
Considering the correspondence between the symbols of the musical score and the timbre, for example, in the musical score of a violinstrument such as a violin, arco (alco performance method of rubbing a string with a bow) and pizz. In the case of a switching score example of (pizzicato: playing a pizzicato that repels a string), the first bar is instructed to perform by bowing (stringing), and the second bar is a performance by plucking a string (plucking a string) (pizzicato string) Then, the first measure is again instructed to perform with bowing. Here, when “pizz.” Is displayed on the score, it is convenient to automatically change the tone to the pizzicato string, and when “arco” is displayed, the tone is returned to the string tone again. It is convenient to do so. For example, in the timbre of the current GM system (MIDI sound source standardization standard), there is only one Pizzicato timbre, and many types of bowed timbre are prepared. Therefore, when changing to a pizzicato string, a means for storing which timbre will be restored when “arco” is displayed should be prepared.

そこで、この発明の一実施例によると、演奏データ(MIDIデータ等)から、ピチカート奏法を示すデータ(「pizz.」記号)を検索し、このデータが検出されると現状の音色を保持した上ピチカート用の音色を設定して表情付けを行うことにより、ピチカート記号に応じて自動的に音色を変更するように構成することができる。なお、GMシステムのようにピチカート音色が1に限るということがない場合には、ピチカート記号に対応する音色を別途登録しておくことが好ましい。   Therefore, according to one embodiment of the present invention, data indicating the Pizzicato method ("pizz." Symbol) is searched from performance data (MIDI data or the like), and when this data is detected, the current tone is retained. By setting the timbre for the pizzicato and expressing it, the timbre can be automatically changed according to the pizzicato symbol. When the pizzicato tone is not limited to 1 as in the GM system, it is preferable to register a tone corresponding to the pizzicato symbol separately.

また、このような楽譜シンボルと音色の対応関係は、上述の「pizz.」に限った話ではなく、べース音色を一時的にチョッパーべース音色に変更する場合にも、この仕組みをそのまま使うことができる。その他、ストリングスパートを一時的にソロ音色にする場合もあるし、コルレーニョなど特殊奏法の音色にする場合など、様々の態様がある。さらに、似た機能として、ピアノのペダル記号をコントロールチエンジのダンパオンに対応して自動設定することなども有効である。従って、この発明の一実施例では、楽譜のシンボルによってこれに対応する所定の音色を選択するシステムが提供される。   Also, the correspondence between the score symbol and the tone is not limited to the above-mentioned “pizz.”, And this mechanism is also used when the base tone is temporarily changed to the chopper base tone. Can be used as is. In addition, there are various modes, such as a case where the string spurt is temporarily made a solo tone, and a case where a special performance technique such as Corleño is used. Furthermore, as a similar function, it is also effective to automatically set the piano pedal symbol corresponding to the damper on of the control change. Accordingly, in one embodiment of the present invention, a system for selecting a predetermined tone corresponding to a symbol of a musical score is provided.

図94は、この発明の一実施例による楽譜のシンボルに応答して音色を選択する処理の例を示すフローチャートである。この処理がスタートすると、まず、ステップPp1において、選択された演奏データ中から音色の変更を指示する所定の音楽記号(それに相当するデータ)Aを検出する。ここで、複数部が検出された場合には、検出された各部毎にステップPp2以下の表情付与処理を行う。また、検出された複数部から、表情付与処理を行いたい部分を選択できるようにしてもよい。   FIG. 94 is a flowchart showing an example of processing for selecting a timbre in response to a musical score symbol according to one embodiment of the present invention. When this process starts, first, in step Pp1, a predetermined musical symbol (data corresponding thereto) A instructing a change in tone color is detected from the selected performance data. Here, when a plurality of parts are detected, a facial expression imparting process in step Pp2 and subsequent steps is performed for each detected part. Moreover, you may enable it to select the part which wants to perform a facial expression provision process from the detected several part.

次のステップPp2では、ステップPp1で検出された音色の変更指示を行う音楽記号のそれぞれに対応して、音色を基に戻すための音楽記号Bを検出する。そして、続くステップPp3において、ステップPp1,Pp2で検出された音楽記号A,Bの位置にあわせて、対応する音色の変更データを挿入する。例えば、変更を指示する音楽記号Aの位置から、それに対応して音色を復帰させる音楽記号Bの位置までの間には、変更後の音色を表わす音色変更イベント(プログラムチェンジデータおよびバンクセレクトデータ)を挿入し、音楽記号Bの位置以降は復帰後の音色を挿入する。ここで、変更後の音色は、音楽記号毎に予め決められているものを使用し、復帰後の音色については、変更前の音色を保持しておき、それを挿入する。   In the next step Pp2, the music symbol B for returning the timbre is detected corresponding to each of the music symbols for which the timbre change instruction is detected in step Pp1. Then, in the following step Pp3, corresponding timbre change data is inserted in accordance with the positions of the music symbols A and B detected in steps Pp1 and Pp2. For example, a timbre change event (program change data and bank select data) representing the timbre after the change from the position of the music symbol A instructing the change to the position of the music symbol B to which the timbre is restored correspondingly. Is inserted, and after the position of the music symbol B, the restored tone is inserted. Here, the timbre after the change uses a predetermined timbre for each musical symbol, and the restored timbre retains the timbre before the change and inserts it.

(f)「ピアノではサスティンペダルの場所を勝手に計算する」:
ピアノ楽譜において、ペダル記号が付いているものであれば、その記号の位置にてコントロールチエンジによるダンバー制御を行えばよいが、ペダル記号が省略されている楽譜データもある。そこで、この発明の一実施例によれば、このような楽譜に対応するため、フレーズを解釈して自動的にダンパ制御位置を算出することにより、表現の幅を広げることができる。例えば、演奏データ(MIDIデータ等)からフレーズを解釈してフレーズの区切りを検出し、フレーズの開始位置ではダンパオン(サスティンペダルオン)とし、フレーズ終端位置ではダンパオフ(サスティンペダルオフ)とするように、演奏データに対して自動的にダンパ制御を行う。
(F) “In the piano, the location of the sustain pedal is calculated without permission”:
In a piano score, if a pedal symbol is attached, the dumbbell control by the control changer may be performed at the position of the symbol, but there is also musical score data in which the pedal symbol is omitted. Therefore, according to one embodiment of the present invention, in order to deal with such a score, the range of expression can be expanded by interpreting the phrase and automatically calculating the damper control position. For example, by interpreting a phrase from performance data (MIDI data, etc.) and detecting a phrase break, the damper is turned on (sustain pedal on) at the start position of the phrase, and the damper is turned off (sustain pedal off) at the phrase end position. Damper control is automatically performed on performance data.

(g)「スコア譜を入力すると、自動的に楽器をアサインする」:
この発明の一実施例においては、楽譜編集装置において、スコア譜の段数を設定するだけで、これを典型的なスコア譜と比較し、音源の音色を自動的に設定するように構成される。また、このようにスコア譜入力に応じて自動的に楽器音色をアサインさせた後、さらに、音符を入力すると、その旋律が、設定した音色らしい旋律か否を学習結果と比較しながら、確からしさを評価するように構成される。
(G) “When a score is entered, an instrument is automatically assigned”:
In one embodiment of the present invention, the score editing apparatus is configured to automatically set the tone color of a sound source by only setting the number of score scores and comparing it with a typical score score. In addition, after assigning a musical instrument tone automatically according to score score input in this way, when a note is further input, the melody is surely compared with the learning result whether the melody seems to be the set tone or not. Configured to evaluate

〔種々の実施態様〕
なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPU1やMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、この発明の目的が達成されることは言うまでもない。
[Various Embodiments]
A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU 1 or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体がこの発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体はこの発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、前記フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM2などを用いることができる。また、他のMIDI機器17や通信ネットワーク19を介してサーバコンピュータ20からプログラムコードが供給されるようにしてもよい。   As the storage medium for supplying the program code, for example, the flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM 2 or the like can be used. . Further, the program code may be supplied from the server computer 20 via another MIDI device 17 or the communication network 19.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU1などが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the case where the CPU 1 or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

〔実施例の特徴のまとめ〕
以上、この発明に関して種々の実施例をあげて説明したが、これらの実施例の基本的な特徴をまとめると、以下のとおりである:
所定の特徴情報と表情付けのための楽音制御情報との対応関係を表情付けモジュール(表情付けアルゴリズム)におけるルールとして設定し、この表情付けルールを表わす生成方法情報が記憶手段に予め記憶しておき、供給された演奏データの特徴情報を取得すると、取得された特徴情報に対応する生成方法情報に基づき、表情付けモジュール(表情付けアルゴリズム)に従って、楽音制御情報(時間パラメータ、音程パラメータ、音量パラメータ等の各種演奏パラメータ)を生成して演奏データに付加することにより、取得された特徴情報に応じて、ユーザが初心者であっても簡単な操作で曲に多様な表情付けを行うことができ、より音楽的な演奏データを自動的に作成することができる。さらに、楽音制御情報が付加されて出力される演奏データを評価し、評価結果に応じて、楽音制御情報を調節するようにしているので、最適の楽音制御情報による表情付けを行うことができる。
[Summary of Features of Examples]
The present invention has been described with reference to various embodiments. The basic features of these embodiments are summarized as follows:
A correspondence relationship between predetermined feature information and musical tone control information for facial expression is set as a rule in the facial expression module (facial expression algorithm), and generation method information representing the facial expression rule is stored in the storage means in advance. When the characteristic information of the supplied performance data is acquired, the musical tone control information (time parameter, pitch parameter, volume parameter, etc.) according to the expression module (expression expression algorithm) based on the generation method information corresponding to the acquired characteristic information Various performance parameters) can be added to the performance data, and according to the acquired feature information, various expressions can be added to the song with simple operations even if the user is a beginner. Musical performance data can be created automatically. Furthermore, the performance data output with the musical tone control information added is evaluated, and the musical tone control information is adjusted according to the evaluation result, so that the expression with the optimum musical tone control information can be performed.

また、演奏データの特徴には、音符時間情報としての音符密度や2音間隔、演奏の進行状態、微小震動音情報としてのロングトーンのトリル、ピッチベンド、ビブラート等、フレーズの区切り(フレーズ終端部)、音高情報、音高変化方向転換情報(音高上下降変化部)、同一又は類似のパターンの連続や類似フレーズ、登録音形(フレーズテンプレート)、音量情報、雰囲気情報としての「緊張感」、音符群列情報(まとまった音符、長い連符)、和音音数情報、音色情報、フィンガリング情報としての指、ポジション移動、ポジション等、奏法情報としてのギターのプリングオフ、ハンマリングオン、ピアノのサスティンペダル等、微小変動音情報としてのトリル、歌詞情報、強弱記号やスタッカート等の演奏記号、等々があり、これら種々の特徴に従って、多彩且つ多様な表情のある演奏出力を得ることができる。   Also, the performance data features note density and two-tone intervals as note time information, progress of performance, long tone trill, pitch bend, vibrato, etc. as minute vibration information, phrase delimiters (phrase end) , Pitch information, pitch change direction change information (pitch up / down change part), continuous or similar phrases of the same or similar pattern, registered tone form (phrase template), volume information, “tension” as atmosphere information , Note group sequence information (grouped notes, long tuplet), chord number information, timbre information, finger as fingering information, position movement, position, guitar pulling off, hammering on, piano as performance information There are trills, lyric information, performance symbols such as dynamics and staccato, etc. According to the characteristics of people, it is possible to obtain a performance output with versatile and diverse expressions.

また、既に供給されている演奏データの所定の特徴情報と楽音制御情報との関係を記憶しておき、新たに供給された演奏データの特徴を抽出すると、記憶手段に記憶された関係に従って、楽音制御情報を生成し、新たに供給された演奏データに付加することにより、学習機能によりテンポを設定する表情付けを行うことができる。また、演奏データに関して所定の特徴情報と楽音制御情報との関係をライブラリに記憶しておき、供給された演奏データの特徴情報を抽出すると、ライブラリを参照することによって、楽音制御情報を生成し、演奏データに付加することにより、ライブラリを用いてテンポを設定する表情付けを行うこともできる。   Further, if the relationship between the predetermined characteristic information of the performance data already supplied and the musical tone control information is stored and the characteristics of the newly supplied performance data are extracted, the musical tone is extracted according to the relationship stored in the storage means. By generating control information and adding it to newly supplied performance data, it is possible to add a facial expression for setting the tempo using the learning function. In addition, the relationship between predetermined characteristic information and musical tone control information regarding performance data is stored in a library, and when characteristic information of the supplied performance data is extracted, musical tone control information is generated by referring to the library, By adding it to the performance data, it is possible to add a facial expression for setting the tempo using the library.

また、供給された演奏データの所定の特徴情報に基づき楽音制御情報を生成し、生成された楽音制御情報及び供給された演奏データの楽音制御情報を演奏データ全体で対比し、この対比結果に基づいて、生成された楽音制御情報を修正することにより、演奏データ全体を見直して、演奏データを見通した上、バランスのとれた最適な楽音制御情報を設定することができる。   Further, musical tone control information is generated based on predetermined characteristic information of the supplied performance data, the generated musical tone control information and the musical tone control information of the supplied performance data are compared with the entire performance data, and based on this comparison result Thus, by correcting the generated musical sound control information, it is possible to review the entire performance data, set the optimal musical sound control information in a balanced manner while looking at the performance data.

さらに、供給される演奏データから、発音長、同音色パート、メロディパート、音量変化(アクセント)、ダブルチョーキング、連続して行われるチョーキング、アルペジオ演奏、音色変更/復帰指示用音楽記号情報などの特徴を抽出し、これらの特徴情報に基づいて、音量パラメータ、音程パラメータ、別パートでの倍音発音、音色データなどを編集することにより、さらに、多彩且つ多様な表情のある演奏出力を得ることができる。   Furthermore, features such as pronunciation length, same tone part, melody part, volume change (accent), double choking, consecutive choking, arpeggio performance, tone change / restoration music symbol information from performance data supplied Based on these feature information, volume parameters, pitch parameters, harmonic overtones in different parts, timbre data, etc. can be edited to obtain performance outputs with a wide variety of expressions. .

図1は、この発明の一実施例による演奏データ作成システムのハードウエア構成を示すブロック図である。FIG. 1 is a block diagram showing a hardware configuration of a performance data creation system according to an embodiment of the present invention. 図2は、この発明の演奏データ作成システムによる機能の概要を示す機能的ブロック図である。FIG. 2 is a functional block diagram showing an outline of functions by the performance data creation system of the present invention. 図3は、この発明の実施例(1)において使用される譜例を示す図である。FIG. 3 is a diagram showing a musical score used in the embodiment (1) of the present invention. 図4は、この発明の実施例(1)において使用される「音符密度−テンポ係数」テーブルの例を示す図である。FIG. 4 is a diagram showing an example of a “note density-tempo coefficient” table used in the embodiment (1) of the present invention. 図5は、この発明の実施例(1)による音符密度応答処理の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the note density response process according to the embodiment (1) of the present invention. 図6は、この発明の実施例(1)による音符密度応答処理の他の例を示すフローチャートである。FIG. 6 is a flowchart showing another example of the note density response process according to the embodiment (1) of the present invention. 図7は、この発明の実施例(2)による曲の進行状態に応答する処理を示すフローチャートである。FIG. 7 is a flowchart showing a process for responding to the progress of music according to the embodiment (2) of the present invention. 図8は、この発明の実施例(2)における曲の進行に従ったテンポ変化の例を示す図である。FIG. 8 is a diagram showing an example of tempo change according to the progress of music in the embodiment (2) of the present invention. 図9は、この発明の実施例(3)における音符時間間隔とテンポの関係を示す図である。FIG. 9 is a diagram showing the relationship between the note time interval and the tempo in the embodiment (3) of the present invention. 図10は、この発明の実施例(4)によるロングトーンのトリル/ビブラートに対する処理を示すフローチャートである。FIG. 10 is a flowchart showing processing for a long tone trill / vibrato according to the embodiment (4) of the present invention. 図11は、この発明の実施例(4)におけるロングトーンのトリル/ビブラートに対するテンポ変化曲線を示す図である。FIG. 11 is a diagram showing a tempo change curve for a long tone trill / vibrato in the embodiment (4) of the present invention. 図12は、この発明の実施例(5)におけるフレーズ解釈によるテンポ変化の例を示す図である。FIG. 12 is a diagram showing an example of tempo change by phrase interpretation in the embodiment (5) of the present invention. 図13は、この発明の実施例(5)によるフレーズ終端部への処理を示すフローチャートである。FIG. 13 is a flowchart showing processing to the phrase end portion according to the embodiment (5) of the present invention. 図14は、この発明の実施例(6)による音域に対応した処理の一例を示すフローチャートである。FIG. 14 is a flowchart showing an example of processing corresponding to the sound range according to the embodiment (6) of the present invention. 図15は、この発明の実施例(6)において使用される「音高−テンポ係数」テーブルの例を示す図である。FIG. 15 is a diagram showing an example of a “pitch-tempo coefficient” table used in the embodiment (6) of the present invention. 図16は、この発明の実施例(6)による音域に対応した処理の他の例を示すフローチャートである。FIG. 16 is a flowchart showing another example of processing corresponding to the sound range according to the embodiment (6) of the present invention. 図17は、この発明の実施例(7)による音高が上昇から下降に移行する際の処理を示すフローチャートである。FIG. 17 is a flowchart showing the processing when the pitch shifts from rising to falling according to the embodiment (7) of the present invention. 図18は、この発明の実施例(7)における音高の上下降とテンポ変化の関係を示す図である。FIG. 18 is a diagram showing the relationship between pitch rise and fall and tempo change in the embodiment (7) of the present invention. 図19は、この発明の実施例(8)による同じパターンが連続した際の処理を示すフローチャートである。FIG. 19 is a flowchart showing a process when the same pattern is continued according to the embodiment (8) of the present invention. 図20は、この発明の実施例(9)による同一/類似フレーズへの同一/類似テンポ表現を付与する処理を示すフローチャートである。FIG. 20 is a flowchart showing a process of assigning the same / similar tempo expression to the same / similar phrase according to the embodiment (9) of the present invention. 図21は、この発明の実施例(10)におけるフレーズテンプレートの例を示す図である。FIG. 21 is a diagram showing an example of a phrase template in the embodiment (10) of the present invention. 図22は、この発明の実施例(10)による登録音形を用いた処理を示すフローチャートである。FIG. 22 is a flowchart showing the process using the registered sound shape according to the embodiment (10) of the present invention. 図23は、この発明の一実施例による鍵盤楽器におけるスラーの処理を説明するための図である。FIG. 23 is a diagram for explaining slur processing in a keyboard instrument according to an embodiment of the present invention. 図24は、この発明の一実施例による管楽器におけるスラーの処理を説明するための図である。FIG. 24 is a diagram for explaining slur processing in a wind instrument according to one embodiment of the present invention. 図25は、この発明の実施例(11)によるテンポを音量で変化させる処理の一例を示すフローチャートである。FIG. 25 is a flowchart showing an example of processing for changing the tempo according to the volume according to the embodiment (11) of the present invention. 図26は、この発明の実施例(11)によるテンポを音量で変化させる処理の他の例を示すフローチャートである。FIG. 26 is a flowchart showing another example of the process for changing the tempo according to the volume according to the embodiment (11) of the present invention. 図27は、この発明の実施例(12)において使用される「緊張感」つまみの例を示す図である。FIG. 27 is a diagram showing an example of a “tension” knob used in the embodiment (12) of the present invention. 図28は、この発明の実施例(12)による「緊張感」に基づく処理を示すフローチャートである。FIG. 28 is a flowchart showing processing based on “tension” according to the embodiment (12) of the present invention. 図29は、この発明の実施例(13)によるまとまった音符群に対する処理を示すフローチャートである。FIG. 29 is a flowchart showing processing for a group of musical notes according to the embodiment (13) of the present invention. 図30は、この発明の実施例(14)による長い連符に対する処理を示すフローチャートである。FIG. 30 is a flowchart showing processing for a long tuplet according to the embodiment (14) of the present invention. 図31は、この発明の実施例(15)による和音の音数に応じた処理を示すフローチャートである。FIG. 31 is a flowchart showing processing according to the number of chords according to the embodiment (15) of the present invention. 図32は、この発明の実施例(16)による音色に連動する処理を示すフローチャートである。FIG. 32 is a flow chart showing processing linked to a tone color according to the embodiment (16) of the present invention. 図33は、この発明の実施例(17)によるフィンガリングの指に応じた処理を示すフローチャートである。FIG. 33 is a flowchart showing processing according to fingering fingers according to embodiment (17) of the present invention. 図34は、この発明の実施例(18)によるフィンガリングのポジション移動に応じた処理を示すフローチャートである。FIG. 34 is a flowchart showing processing according to fingering position movement according to the embodiment (18) of the present invention. 図35は、この発明の実施例(19)によるフィンガリングのポジションの高低に応じた処理を示すフローチャートである。FIG. 35 is a flowchart showing processing according to the height of the fingering position according to the embodiment (19) of the present invention. 図36は、この発明の実施例(20)によるピッチベンドをかける際の処理を示すフローチャートである。FIG. 36 is a flow chart showing processing when pitch bend is applied according to the embodiment (20) of the present invention. 図37は、この発明の実施例(21)によるギターのプリングオフに対応する処理を示すフローチャートである。FIG. 37 is a flowchart showing a process corresponding to guitar pull-off according to the embodiment (21) of the present invention. 図38は、この発明の実施例(22)によるピアノのサスティンペダル操作に対応する処理を示すフローチャートである。FIG. 38 is a flowchart showing a process corresponding to the piano sustain pedal operation according to the embodiment (22) of the present invention. 図39は、この発明の実施例(23)における「ビブラート深さ−テンポ係数」テーブルの例を示す図である。FIG. 39 shows an example of a “vibrato depth-tempo coefficient” table in the embodiment (23) of the present invention. 図40は、この発明の実施例(23)における「ビブラート速さ−テンポ係数」テーブルの例を示す図である。FIG. 40 is a diagram showing an example of a “vibrato speed-tempo coefficient” table in the embodiment (23) of the present invention. 図41は、この発明の実施例(23)によるビブラートの深さ及び速さに応じた処理を示すフローチャートである。FIG. 41 is a flowchart showing processing according to the depth and speed of vibrato according to the embodiment (23) of the present invention. 図42は、この発明の実施例(24)におけるストリングスのトリルの再現例を示す図である。FIG. 42 is a view showing a reproduction example of the string trill in the embodiment (24) of the present invention. 図43は、この発明の実施例(24)によるストリングスのトリルに対する複数パートでの処理を示すフローチャートである。FIG. 43 is a flow chart showing processing in a plurality of parts for the string trill according to the embodiment (24) of the present invention. 図44は、この発明の実施例(25)における学習機能に基づく処理を示すフローチャーである。FIG. 44 is a flowchart showing processing based on the learning function in the embodiment (25) of the present invention. 図45は、この発明の実施例(26)によるライブラリ化による処理を示すフローチャートである。FIG. 45 is a flow chart showing processing by creating a library according to the embodiment (26) of the present invention. 図46は、この発明の実施例(27)による歌詞に基づく処理を示すフローチャートである。FIG. 46 is a flowchart showing processing based on lyrics according to the embodiment (27) of the present invention. 図47は、この発明の実施例(28)における音源出力波形と補正タイミングの関係を表わす図である。FIG. 47 shows the relationship between the sound source output waveform and the correction timing in the embodiment (28) of the present invention. 図48は、この発明の実施例(28)による音源出力波形に応じた処理を示すフローチャートである。FIG. 48 is a flowchart showing processing according to the sound source output waveform according to the embodiment (28) of the present invention. 図49は、この発明の実施例(29)による強弱記号列に対応した処理を示すフローチャートである。FIG. 49 is a flowchart showing processing corresponding to the dynamic symbol string according to the embodiment (29) of the present invention. 図50は、この発明の実施例(30)によるスタッカートに対応した処理を示すフローチャートである。FIG. 50 is a flowchart showing processing corresponding to the staccato according to the embodiment (30) of the present invention. 図51は、この発明の実施例(31)による全体的見直し処理を示すフローチャートである。FIG. 51 is a flowchart showing an overall review process according to the embodiment (31) of the present invention. 図52は、図1のパラメータ自動編集装置、特にCPUが実行するメインルーチンの手順を示すフローチャートである。FIG. 52 is a flowchart showing the procedure of the main routine executed by the parameter automatic editing apparatus of FIG. 1, particularly the CPU. 図53は、図2のパラメータ変化付与処理の手順を示すフローチャートである。FIG. 53 is a flowchart showing the procedure of the parameter change giving process of FIG. 図54は、演奏データの音量パラメータをその音高の変化に応じて変化させるという表情付けを行う音量パラメータ変化付与処理1の手順を示すフローチャートである。FIG. 54 is a flowchart showing the procedure of the volume parameter change giving process 1 for performing the expression of changing the volume parameter of the performance data in accordance with the change in the pitch. 図55は、音高が上昇傾向にあるノートイベント列の一例を示す図である。FIG. 55 is a diagram illustrating an example of a note event sequence in which the pitch tends to increase. 図56は、フィルタ処理が施された後の時系列データの一例を示す図である。FIG. 56 is a diagram illustrating an example of time-series data after the filtering process is performed. 図57は、演奏データの音量パラメータの値を徐々に増大させることにより、興奮度を高めるという表情付けを行う音量パラメータ変化付与処理2の手順を示すフローチャートである。FIG. 57 is a flowchart showing the procedure of the volume parameter change applying process 2 for performing facial expression of increasing the degree of excitement by gradually increasing the value of the volume parameter of the performance data. 図58は、変化付与パターンの一例を示す図である。FIG. 58 is a diagram illustrating an example of a change imparting pattern. 図59は、この発明の一実施例における音符密度と音程の不安定さの関係の一例を示す図である。FIG. 59 shows an example of the relationship between note density and pitch instability in one embodiment of the present invention. 図60は、連続演奏の細かさに応じて音量を変化させるという表情付けを行う音量パラメータ変化付与処理3の手順を示すフローチャートである。FIG. 60 is a flowchart showing the procedure of the volume parameter change giving process 3 for performing facial expression of changing the volume according to the fineness of the continuous performance. 図61は、音符密度と音量との関係を示すテーブルデータの一例を示す図である。FIG. 61 is a diagram showing an example of table data indicating the relationship between note density and volume. 図62は、この発明の一実施例において音符密度と音程の不安定さとの関係を示すテーブルデータの一例を示す図である。FIG. 62 is a diagram showing an example of table data indicating the relationship between note density and pitch instability in one embodiment of the present invention. 図63は、類似フレーズが繰り返し出現する選択演奏データの場合に、2番目以降の類似フレーズの音量パラメータを、その類似度および出現態様に応じて変化させるという表情付けを行う音量パラメータ変化付与処理4の手順を示すフローチャートである。FIG. 63 is a volume parameter change giving process 4 for adding a facial expression in which the volume parameters of the second and subsequent similar phrases are changed according to the similarity and appearance mode in the case of selected performance data in which similar phrases repeatedly appear. It is a flowchart which shows the procedure of. 図64は、3拍子の演奏データの場合に、同一音符長の音符が連続して出現するときには1拍目を強調するという表情付けを行う音量パラメータ変化付与処理5の手順を示すフローチャートである。FIG. 64 is a flowchart showing the procedure of the volume parameter change applying process 5 for emphasizing the first beat when notes of the same note length appear continuously in the case of performance data of three beats. 図65は、フレーズの終止では、音量を抑えるという表情付けを行う音量パラメータ変化付与処理6の手順を示すフローチャートである。FIG. 65 is a flowchart showing the procedure of the volume parameter change applying process 6 for giving a facial expression of suppressing the volume at the end of the phrase. 図66は、ロングトーンに対してトリルまたはビブラートが付与されているときには、その音量を、最初大きく、途中小さく、最後大きくなるような表情付けを行う音量パラメータ変化付与処理7の手順を示すフローチャートである。FIG. 66 is a flowchart showing the procedure of the volume parameter change adding process 7 for performing facial expression such that the volume is initially increased, decreased midway, and finally increased when trill or vibrato is applied to the long tone. is there. 図67は、変化付与パターンの一例を示す図である。FIG. 67 is a diagram illustrating an example of a change imparting pattern. 図68は、曲の進行経過に対するトリル/ビブラート速さ変化の関係の一例を示す図である。FIG. 68 is a diagram showing an example of the relationship between the trill / vibrato speed change with respect to the progress of music. 図69は、トリルや打楽器のロール演奏時に自然な表情付けを行う音量パラメータ変化付与処理8の手順を示すフローチャートである。FIG. 69 is a flowchart showing the procedure of the volume parameter change applying process 8 for performing natural expression when performing a roll performance of a trill or percussion instrument. 図70は、和音が含まれている演奏データの場合に、和音に対してその発音をすっきりしたものにするという表情付けを行う音量パラメータ変化付与処理9の手順を示すフローチャートである。FIG. 70 is a flowchart showing the procedure of the volume parameter change applying process 9 for adding expression to a chord that has its pronunciation pronounced in the case of performance data containing chords. 図71は、スタッカートが含まれている演奏データの場合に、生のスタッカート演奏を模倣した表情付けを行う音量パラメータ変化付与処理10の手順を示すフローチャートである。FIG. 71 is a flowchart showing the procedure of the volume parameter change applying process 10 for performing facial expression imitating a raw staccato performance in the case of performance data including a staccato. 図72は、ロングトーンに対して、その音量にゆらぎをつけるという表情付けを行う音量パラメータ変化付与処理11の手順を示すフローチャートである。FIG. 72 is a flowchart showing the procedure of the volume parameter change applying process 11 for giving a facial expression that the volume is fluctuated for a long tone. 図73は、乱数カウンタのカウント値に応じて、乱数カウンタが発生する乱数の振幅を変化させるテーブルデータの一例を示す図である。FIG. 73 is a diagram showing an example of table data for changing the amplitude of the random number generated by the random number counter in accordance with the count value of the random number counter. 図74は、音程平均に応じた音量表現による表情付けを行う音量パラメータ変化付与処理12の手順を示すフローチャートである。FIG. 74 is a flowchart showing the procedure of the volume parameter change applying process 12 for performing facial expression with volume expression according to the pitch average. 図75は、パートディビジョンのときには各パートの音量は下げるという表情付けを行う音量パラメータ変化付与処理13の手順を示すフローチャートである。FIG. 75 is a flowchart showing the procedure of the volume parameter change applying process 13 for performing facial expression such that the volume of each part is lowered during part division. 図76は、音色変化に応じた音量表現による表情付けを行う音量パラメータ変化付与処理14の手順を示すフローチャートである。FIG. 76 is a flowchart showing the procedure of the volume parameter change applying process 14 for performing expression with a volume expression according to a timbre change. 図77は、ピッチベンド時には音量が変化するという表情付けを行う音量パラメータ変化付与処理15の手順を示すフローチャートである。FIG. 77 is a flowchart showing the procedure of the volume parameter change giving process 15 for giving a facial expression that the volume changes during pitch bend. 図78は、マルチパートからなる演奏データの場合に、そのメロディラインを浮き立たせるという表情付けを行う音量パラメータ変化付与処理16の手順を示すフローチャートである。FIG. 78 is a flowchart showing the procedure of the volume parameter change applying process 16 for adding a facial expression to make the melody line stand out in the case of performance data consisting of multiparts. 図79は、フィンガリングに応じた音量変化により生々しい演奏を再現するという表情付けを行う音量パラメータ変化付与処理17の手順を示すフローチャートである。FIG. 79 is a flowchart showing the procedure of the volume parameter change applying process 17 for performing facial expression that reproduces a lively performance by changing the volume according to fingering. 図80は、チェロの運指の例を示す図である。FIG. 80 is a diagram illustrating an example of cello fingering. 図81は、弓を用いて演奏する弦楽器の演奏データの場合に、弦楽器の弓の返しに応じた音量変化により運弓感を再現するという表情付けを行う音量パラメータ変化付与処理18の手順を示すフローチャートである。FIG. 81 shows the procedure of the volume parameter change giving process 18 for performing expression that reproduces a bow feeling by changing the volume according to the return of the bow of the stringed instrument in the case of performance data of the stringed instrument played using the bow. It is a flowchart. 図82は、変化付与パターンの一例を示す図である。FIG. 82 is a diagram illustrating an example of a change imparting pattern. 図83は、歌詞を伴う演奏データの場合に、歌詞の内容に応じて抑揚を変更するという表情付けを行う音量パラメータ変化付与処理19の手順を示すフローチャートである。FIG. 83 is a flowchart showing the procedure of the volume parameter change giving process 19 for performing expression of changing inflection according to the contents of the lyrics in the case of performance data with lyrics. 図84は、発音後の音量制御を規定するためのテーブルデータの一例を示す図である。FIG. 84 is a diagram showing an example of table data for defining volume control after sound generation. 図85は、この発明の実施例(a)によるアクセント音に対する処理を示すフローチャートである。FIG. 85 is a flowchart showing processing for an accent sound according to the embodiment (a) of the present invention. 図86は、この発明の実施例(a)における音量及び音程の時間変化の関係を表わす図である。FIG. 86 is a diagram showing the relationship between the volume and pitch over time in the embodiment (a) of the present invention. 図87は、この発明の実施例(b)におけるダブルチョーキングの音程の時間変化の関係を表わす図である。FIG. 87 is a diagram showing the temporal change relationship of the pitch of double choking in the embodiment (b) of the present invention. 図88は、この発明の実施例(b)によるダブルチョーキングでの処理を示すフローチャートである。FIG. 88 is a flowchart showing processing in double choking according to the embodiment (b) of the present invention. 図89は、この発明の実施例(c)における連続したチョーキングの例を示す図である。FIG. 89 is a diagram showing an example of continuous choking in the embodiment (c) of the present invention. 図90は、この発明の実施例(c)による連続したチョーキングでの処理を示すフローチャートである。FIG. 90 is a flowchart showing processing in continuous choking according to the embodiment (c) of the present invention. 図91は、この発明の実施例(d)におけるアルペジオと共通の倍音の例を示す図である。FIG. 91 is a diagram showing an example of harmonics in common with the arpeggio in the embodiment (d) of the present invention. 図92は、この発明の実施例(d)によるアルペジオでの処理を示すフローチャートである。FIG. 92 is a flowchart showing processing in the arpeggio according to the embodiment (d) of the present invention. 図93は、この発明の実施例(e)における「arco」と「pizz.」の切替えの例を示す図である。FIG. 93 is a diagram showing an example of switching between “arco” and “pizz.” In the embodiment (e) of the present invention. 図94は、この発明の実施例(e)による楽譜のシンボルによるの音色選択処理を示すフローチャートである。FIG. 94 is a flowchart showing the timbre selection process using the symbols of the musical score according to the embodiment (e) of the present invention.

符号の説明Explanation of symbols

1 CPU(解析手段、決定手段、パラメータ編集手段、抽出手段、算出手段、検出手段、設定手段)、
2 ROM(記憶手段)、
9 FD(記憶手段)を駆動するFDD、HDD、CD−ROMD等の外部記憶装置(供給手段、読み出し手段)、
16 MIDIインターフェース(供給手段)、
18 通信インターフェース(供給手段)、
OD 元演奏データ、
ED 表情付け後の演奏データ、
Ko 当初テンポ値、
to テンポ変化開始時点、
ta 最下テンポ値Kdに到達する時点、
tb 目標テンポ値Ktに到達する時点、
ΔK テンポ変化幅、
ΔKt テンポ目標変化量、
n1,n2 ノイズ的音高変化を与える音、
13k 「緊張感」つまみ、
TW 時点tsで立ち上り時点tmで最高音量値に到達する音源出力波形、
tc 補正タイミングを与える80%音量値到達時点。
1 CPU (analysis means, determination means, parameter editing means, extraction means, calculation means, detection means, setting means),
2 ROM (storage means),
9 External storage devices (supplying means, reading means) such as FDD, HDD, CD-ROMD for driving FD (storage means),
16 MIDI interface (supply means),
18 Communication interface (supply means),
OD original performance data,
ED performance data after facial expression,
Ko Initial tempo value,
to tempo change start point,
ta When reaching the lowest tempo value Kd,
tb When the target tempo value Kt is reached,
ΔK Tempo change width,
ΔKt Tempo target change amount,
n1, n2 Sound that gives a noisy pitch change,
13k “Tension” knob,
A sound source output waveform that reaches the maximum volume value at the rising time tm at the time ts ts,
tc The point at which the 80% volume value is reached to give correction timing.

Claims (1)

音符情報及び音量を表わす楽音制御情報をそれぞれ含む複数のパートから成る演奏データを供給する演奏データ供給手段と、
上記演奏データから同音色のパート及びそのパート数を検出するパート検出手段と、
上記パート数に基づいて、上記同音色のパートの音量が減少するように当該各パートの音量値を算出する音量値算出手段と、
上記音量値を表わす楽音制御情報を該当パートに付与する音量値付与手段と
を具備することを特徴とする演奏データ作成装置。
Performance data supply means for supplying performance data composed of a plurality of parts each including note information and musical tone control information representing volume;
Part detection means for detecting the same tone color part and the number of parts from the performance data;
Volume value calculating means for calculating the volume value of each part based on the number of parts, so that the volume of the part of the same tone color decreases.
A performance data creating apparatus comprising: a sound volume value assigning means for assigning the musical tone control information representing the sound volume value to the corresponding part.
JP2005038700A 1999-08-09 2005-02-16 Performance data creation device Expired - Fee Related JP3900188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005038700A JP3900188B2 (en) 1999-08-09 2005-02-16 Performance data creation device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP22478299 1999-08-09
JP27140099 1999-09-24
JP2005038700A JP3900188B2 (en) 1999-08-09 2005-02-16 Performance data creation device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000077340A Division JP3675287B2 (en) 1999-08-09 2000-03-21 Performance data creation device

Publications (2)

Publication Number Publication Date
JP2005173632A true JP2005173632A (en) 2005-06-30
JP3900188B2 JP3900188B2 (en) 2007-04-04

Family

ID=34743317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005038700A Expired - Fee Related JP3900188B2 (en) 1999-08-09 2005-02-16 Performance data creation device

Country Status (1)

Country Link
JP (1) JP3900188B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011136A (en) * 2005-07-01 2007-01-18 Casio Comput Co Ltd Music data editing device and program
JP2007057725A (en) * 2005-08-24 2007-03-08 Casio Comput Co Ltd Musical sound control device and program for processing musical sound control
JP2007240776A (en) * 2006-03-07 2007-09-20 Yamaha Corp Musical performance data editing device and program
JP2012048089A (en) * 2010-08-30 2012-03-08 Jvc Kenwood Corp Overlap recording apparatus, overlap recording method and program
WO2015002238A1 (en) * 2013-07-02 2015-01-08 ヤマハ株式会社 Mixing management device and mixing management method
WO2021192963A1 (en) * 2020-03-25 2021-09-30 ヤマハ株式会社 Audio signal generation method, estimation model training method, audio signal generation system, and program
EP3961617A4 (en) * 2019-04-23 2022-11-16 AlphaTheta Corporation Electronic musical instrument and musical piece phrase generation program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011136A (en) * 2005-07-01 2007-01-18 Casio Comput Co Ltd Music data editing device and program
JP4626851B2 (en) * 2005-07-01 2011-02-09 カシオ計算機株式会社 Song data editing device and song data editing program
JP2007057725A (en) * 2005-08-24 2007-03-08 Casio Comput Co Ltd Musical sound control device and program for processing musical sound control
JP4561531B2 (en) * 2005-08-24 2010-10-13 カシオ計算機株式会社 Musical sound control device and musical sound control processing program
JP2007240776A (en) * 2006-03-07 2007-09-20 Yamaha Corp Musical performance data editing device and program
JP2012048089A (en) * 2010-08-30 2012-03-08 Jvc Kenwood Corp Overlap recording apparatus, overlap recording method and program
WO2015002238A1 (en) * 2013-07-02 2015-01-08 ヤマハ株式会社 Mixing management device and mixing management method
JP2015012592A (en) * 2013-07-02 2015-01-19 ヤマハ株式会社 Mixing management device
EP3961617A4 (en) * 2019-04-23 2022-11-16 AlphaTheta Corporation Electronic musical instrument and musical piece phrase generation program
WO2021192963A1 (en) * 2020-03-25 2021-09-30 ヤマハ株式会社 Audio signal generation method, estimation model training method, audio signal generation system, and program
JP7452162B2 (en) 2020-03-25 2024-03-19 ヤマハ株式会社 Sound signal generation method, estimation model training method, sound signal generation system, and program

Also Published As

Publication number Publication date
JP3900188B2 (en) 2007-04-04

Similar Documents

Publication Publication Date Title
JP3675287B2 (en) Performance data creation device
Levitin et al. Control parameters for musical instruments: a foundation for new mappings of gesture to sound
JP3975772B2 (en) Waveform generating apparatus and method
US8324493B2 (en) Electronic musical instrument and recording medium
JP3900188B2 (en) Performance data creation device
US20220319479A1 (en) System and methods for automatically generating a musical composition having audibly correct form
JP3915807B2 (en) Automatic performance determination device and program
JP2008527463A (en) Complete orchestration system
JP3900187B2 (en) Performance data creation device
JP3266007B2 (en) Performance data converter
Juusela The Berklee Contemporary Dictionary of Music
Müller et al. Music Representations
JP3613062B2 (en) Musical sound data creation method and storage medium
JP2002297139A (en) Playing data modification processor
JP7327434B2 (en) Program, method, information processing device, and performance data display system
JP3760909B2 (en) Musical sound generating apparatus and method
JP4120662B2 (en) Performance data converter
JP3832421B2 (en) Musical sound generating apparatus and method
JP3832420B2 (en) Musical sound generating apparatus and method
JP3870948B2 (en) Facial expression processing device and computer program for facial expression
JP3832422B2 (en) Musical sound generating apparatus and method
JP3832419B2 (en) Musical sound generating apparatus and method
Guechtal Tran (ce) sients for large chamber orchestra and audio track with accompanying document
Hall Folio of compositions
Allen Arranging in the digital world: techniques for arranging popular music using today's electronic and digital instruments

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061218

R150 Certificate of patent or registration of utility model

Ref document number: 3900188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140112

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees