JP2001350471A - Device for processing performance data expression making, and recording medium therefor - Google Patents

Device for processing performance data expression making, and recording medium therefor

Info

Publication number
JP2001350471A
JP2001350471A JP2000166881A JP2000166881A JP2001350471A JP 2001350471 A JP2001350471 A JP 2001350471A JP 2000166881 A JP2000166881 A JP 2000166881A JP 2000166881 A JP2000166881 A JP 2000166881A JP 2001350471 A JP2001350471 A JP 2001350471A
Authority
JP
Japan
Prior art keywords
tone
performance data
predetermined
data
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000166881A
Other languages
Japanese (ja)
Other versions
JP4007418B2 (en
Inventor
Norio Suzuki
則夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000166881A priority Critical patent/JP4007418B2/en
Publication of JP2001350471A publication Critical patent/JP2001350471A/en
Application granted granted Critical
Publication of JP4007418B2 publication Critical patent/JP4007418B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily generate performance data for expressing a good likeness of a natural instrument by giving them a characteristics suitable for a tone color but not plain performance. SOLUTION: The device for processing performance data expression making in accordance with this invention analyzes plural states of musical sound (tempo, music position, tone color, flow of phases, and motif) composing the performance data (S121-S125), and changes a characteristics of specific musical sound in the performance data based on the result of the analysis into a characteristics according to a specified instrument playing method, and generates (S126) performance data of a specified tone color (for example, guitar). Moreover, it is possible for the device to store beforehand musical sound data according to a playing method of an instrument corresponding to a prescribed tone color or a musical sound characteristics changing rule, and change the musical sound characteristics of the specific part in the performance data so as to make them correspond to the musical sound data in accordance with the specified playing method or the musical sound changing rule based on the result of the analysis. Moreover, the characteristics changing processing can be executed at random or with a prescribed probability.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、演奏に人間味の
あるギター奏法などの楽器奏法を演奏データに反映させ
た表情付けを行う演奏データの表情付け処理装置及びそ
の記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a performance data expression processing apparatus and a recording medium for performing an expression on a performance data by reflecting an instrument performance such as a guitar performance having a human touch in the performance.

【0002】[0002]

【従来の技術】従来、演奏データに楽器特有の特徴的な
発音特性を付与するためには、ユーザがその位置を探
し、それ相応の特性がでるようにエディットしていた。
この場合、音質をアコースティックに近づけるために
は、アコースティックの特性を十分に知っていなければ
ならない上、手間をいとわない根気を必要としていた。
2. Description of the Related Art Conventionally, in order to give a musical instrument characteristic sound characteristics to performance data, a user has to search for the position and edit the data so that the characteristic is obtained.
In this case, in order to bring the sound quality closer to the acoustic, it is necessary to sufficiently know the characteristics of the acoustic, and it is necessary to be patient and to take patience.

【0003】例えば、シーケンサなどにおいて、或るパ
ート、主としてギターのメロディパートを、打ち込む場
合、ピッチベンドデータなどを付加してギターのハンマ
リングらしくさせている。例えば、高価なバンドスコア
などでは、ハンマリングオンの場所をスコア上に書き込
み、このスコアを見ながら、ピッチベンドデータを作っ
て貼り付けたり修正したりすることにより、ギターのハ
ンマリングらしくさせている。しかしながら、このよう
な作業は非常に面倒なものである。
For example, in a sequencer or the like, when a certain part, mainly a melody part of a guitar, is hit, pitch bend data and the like are added to make it look like guitar hammering. For example, in an expensive band score or the like, the location of the hammering on is written on the score, and while watching this score, pitch bend data is created and pasted or modified to make it look like a guitar hammering. However, such an operation is very troublesome.

【0004】スライド奏法(ボトルネック奏法)につい
ても、手本になる曲があれば手本曲を聴きながら打込み
を行うことになるが、手間がかかり、事情は同様であ
る。また、手本になる曲がない場合は、さらに、打込み
者自身の判断によりスライド奏法のデータを付加しなけ
ればならない。
[0004] With regard to the slide playing method (bottleneck playing method), if there is a song that is to be modeled, the user must perform the driving while listening to the sample song, but it takes much time and the situation is the same. If there is no song to be modeled, the data of the slide playing style must be added according to the judgment of the player.

【0005】ビブラートについては、何処にどの程度の
ビブラートが必要であるかを考えてビブラートデータを
作成しているので、多大の時間と労力を要する。また、
ボリューム奏法によるギターらしさを表現するために、
ボリュームなどの加工を行っているが、これにも高度な
打込み技術が必要である。
[0005] Vibrato requires a great deal of time and effort since vibrato data is created in consideration of where and how much vibrato is required. Also,
In order to express the character of guitar by volume playing technique,
We are working on volumes and the like, but this also requires advanced driving techniques.

【0006】ギターパートの打込みでは、従来は、必要
と思われる部分に、ミュート音又はEG波形の加工によ
り作成したミュート音を付加しているので、高度な打込
み技術を要している。さらに、ギターのアルペジオにつ
いては、通常、アルペジオを打ち込んで各楽音に対し適
当な音長やベロシティを付けて表情付けを行っており、
この方法も非常にやっかいで手間がかかる。
Conventionally, in the driving of a guitar part, a mute sound or a mute sound created by processing an EG waveform is added to a portion deemed necessary, so that advanced driving technology is required. Furthermore, with regard to the arpeggio of a guitar, an arpeggio is usually entered to give each musical tone an appropriate pitch and velocity to give an expression.
This method is also very cumbersome and time-consuming.

【0007】また、打込み音楽では、ギターパートのア
ドリブ、リフ、エンディング等のソロ部分において、ス
タンダード的なフレーズがあるが、このようなフレーズ
を打ち込むのも、また、非常に面倒である。
[0007] In the driving music, there are standard phrases in the solo part of the guitar part such as ad lib, riff, ending and the like, but it is also very troublesome to input such phrases.

【0008】[0008]

【発明が解決しようとする課題】この発明の目的は、こ
のような事情に鑑み、たんたんとした演奏ではなく、音
色に適した特性を当てがい、自然な楽器らしさを表現す
る演奏データを容易に生成することができる演奏データ
の表情付け処理装置及び記録媒体を提供することにあ
る。
SUMMARY OF THE INVENTION In view of such circumstances, it is an object of the present invention to easily generate performance data that expresses a natural musical instrument by applying characteristics suitable for a tone color, rather than a simple performance. It is an object of the present invention to provide a performance data expression processing device and a recording medium which can perform performance data.

【0009】[0009]

【課題を解決するための手段】この発明の一つの特徴に
従うと、演奏データを取得する手段と、所定音色に対応
する楽器の奏法を指定する手段と、取得された演奏デー
タを構成する複数の楽音の状態を解析する解析手段と、
解析された結果に基づいて、取得された演奏データにお
ける特定の楽音の特性を、指定された奏法に応じた特性
に変更し、所定音色の演奏データを生成する変更処理手
段とを具備する演奏データの表情付け処理装置が提供さ
れる。また、この特徴に従って、演奏データを取得する
ステップと、所定音色に対応する楽器の奏法を指定する
ステップと、取得された演奏データを構成する複数の楽
音の状態を解析するステップと、解析された結果に基づ
いて、取得された演奏データにおける特定の楽音の特性
を、指定された奏法に応じた特性に変更し、所定音色の
演奏データを生成するステップとから成るプログラムを
記録している演奏データの表情付け処理のための記録媒
体が提供される。
According to one aspect of the present invention, a means for acquiring performance data, a means for specifying a playing style of a musical instrument corresponding to a predetermined timbre, and a plurality of pieces of data constituting the acquired performance data are provided. Analysis means for analyzing the state of the musical sound;
Change processing means for changing a characteristic of a specific musical tone in the acquired performance data to a characteristic corresponding to a specified playing style based on the analyzed result, and generating performance data of a predetermined tone color; Is provided. Further, according to this feature, a step of obtaining performance data, a step of specifying a playing style of a musical instrument corresponding to the predetermined tone color, a step of analyzing a state of a plurality of musical tones constituting the obtained performance data, and Changing a characteristic of a specific musical tone in the acquired performance data to a characteristic corresponding to a specified playing style based on the result, and generating a performance data of a predetermined tone color. A recording medium for the facial expression processing.

【0010】この発明の別の特徴に従うと、演奏データ
を取得する手段と、所定音色に対応する楽器の奏法に応
じた楽音データ又は楽音特性変更ルールを記憶する手段
と、所定音色に対応する楽器の奏法を指定する手段と、
取得された演奏データを構成する複数の楽音の状態を解
析する解析手段と、解析された結果に基づいて、取得さ
れた演奏データにおける特定部分の楽音の特性を、指定
された奏法に応じた楽音データ又は楽音特性変更ルール
に対応する楽音特性に変更し、所定音色の演奏データを
生成する変更処理手段とを具備する演奏データの表情付
け処理装置が提供される。また、この特徴に従って、演
奏データを取得するステップと、所定音色に対応する楽
器奏法に応じた楽音データ又は楽音特性変更ルールを記
憶する手段と、所定音色に対応する楽器の奏法を指定す
るステップと、取得された演奏データを構成する複数の
楽音の状態を解析するステップと、所定音色に対応する
楽器の奏法に応じた楽音データ又は楽音特性変更ルール
を記憶する手段から、指定された奏法及び解析された結
果に基づいて、所定の楽音データ又は楽音特性変更ルー
ルを取り出すステップと、解析された結果に基づいて、
取得された演奏データにおける特定部分の楽音の特性
を、取り出された楽音データ又は楽音特性変更ルールに
対応する楽音特性に変更し、所定音色の演奏データを生
成するステップとから成るプログラムを記録している演
奏データの表情付け処理のための記録媒体が提供され
る。
According to another feature of the present invention, a means for acquiring performance data, a means for storing tone data or tone characteristic change rules according to a playing style of an instrument corresponding to a predetermined tone, and an instrument corresponding to a predetermined tone Means for specifying the playing style of
Analyzing means for analyzing a state of a plurality of musical tones constituting the acquired performance data; and, based on the analyzed result, characteristics of the musical tones of a specific portion in the acquired performance data, the musical tones corresponding to the specified playing style. An expression processing device for performance data, comprising: a change processing unit for changing to data or a tone characteristic corresponding to a tone characteristic change rule and generating performance data of a predetermined tone color. Further, according to this feature, a step of acquiring performance data, a unit for storing musical tone data or a tone characteristic change rule corresponding to an instrumental playing style corresponding to a predetermined tone color, and a step of specifying a playing style of a musical instrument corresponding to the predetermined tone color. Analyzing the state of a plurality of musical tones constituting the acquired performance data; and storing the musical tone data or musical tone characteristic changing rule according to the musical instrument playing style corresponding to the predetermined timbre. Extracting predetermined music data or music characteristic change rules based on the result obtained; and
Changing the characteristic of the tone of the specific part in the acquired performance data to the extracted tone data or the tone characteristic corresponding to the tone characteristic changing rule, and generating performance data of a predetermined tone color. A recording medium for expression processing of performance data is provided.

【0011】この発明において、解析手段は、取得され
た演奏データの所定音色のチャンネル及び他の音色のチ
ャンネルにおける楽音の発音状態を解析し、また、変更
処理手段による楽音の特性の変更は、ランダム性乃至所
定の確率をもって実行されるするように構成される。ま
た、所定音色は、好ましくは、ギター音色である。
In the present invention, the analyzing means analyzes the tone generation state of the tone in the predetermined tone channel and the other tone channels of the acquired performance data, and the change of the tone characteristic by the change processing means is random. It is configured to be executed with gender or a predetermined probability. Further, the predetermined timbre is preferably a guitar timbre.

【0012】この発明の他の特徴によれば、解析手段
は、所定区間の所定位置にある楽音を検出し、変更処理
手段は、検出されたる楽音の特性を、所定音色に対応す
る楽器の奏法に応じた特性に変更し、所定音色の演奏デ
ータを生成するように構成される。さらに、解析手段
は、所定区間におけるテンポ及び所定位置を解析し、変
更処理手段は、テンポが低く、所定区間の所定位置にあ
る楽音の特性を、所定音色に対応する楽器の奏法に応じ
た楽音特性に変更し、所定音色の演奏データを生成する
ように構成される。また、解析手段は、取得された演奏
データの楽音に対する奏法指定情報を解析し、変更処理
手段は、所定の奏法指定情報をもつ楽音の特性を、所定
音色に対応する楽器の奏法に応じた楽音特性に変更し、
所定音色の演奏データを生成するように構成される。
According to another feature of the present invention, the analyzing means detects a musical tone at a predetermined position in a predetermined section, and the change processing means changes a characteristic of the detected musical tone to a playing style of a musical instrument corresponding to the predetermined tone color. The performance data is changed to a characteristic corresponding to the predetermined tone color and the performance data of the predetermined tone color is generated. Further, the analyzing means analyzes the tempo and the predetermined position in the predetermined section, and the change processing means changes the characteristic of the musical tone at a low position in the predetermined section in the predetermined section according to the playing style of the musical instrument corresponding to the predetermined tone color. It is configured to change to characteristics and generate performance data of a predetermined tone color. The analyzing means analyzes the playing style designating information for the musical tone of the acquired performance data, and the change processing means makes the characteristic of the musical tone having the predetermined playing style designating information a musical tone corresponding to the playing style of the musical instrument corresponding to the predetermined tone color. Change to characteristics,
It is configured to generate performance data of a predetermined tone color.

【0013】〔発明の作用〕この発明によると、演奏デ
ータを構成する複数の楽音を解析し、テンポ、調、音
色、楽音の位置(イントロ・アドリブ・リフ・エンディ
ング等の区間位置、弾き始め、最初の音等の音符位置な
ど)、音符相互の関係(前後に既に対応する奏法が施さ
れているか・連符・上昇/下降など)、楽音の発音指示
状況(アルペジオ等)、曲想、フレーズの流れなどの、
所定音色(各種ギター、サックス等)に対応する楽器の
奏法(ボトルネック奏法、ボリューム奏法などの奏法)
が適用されるべき条件を求め、その結果に応じて、特定
の楽音それぞれに対し、指定された奏法に対応して発音
の特性を変更したり、或いは、ミュート装飾音・チョー
キング・ハンマリング・プリングオフ・スライド等の予
め記憶しておいた楽音データ、或いは、ハンマリングオ
ン/プリングオフ・アルペジオ等に関する特性変更ルー
ルに対応する特性を付加するようにしている。
According to the present invention, a plurality of musical tones constituting performance data are analyzed, and the tempo, key, tone, and position of musical tones (section positions such as intro, adlib, riff, ending, etc., start of playing, Note position of the first note, etc.), the relationship between notes (whether the corresponding playing style has already been applied before and after, tuplet, ascending / descending, etc.), the pronunciation instruction status of the musical tone (arpeggio, etc.) Such as the flow,
Musical instruments corresponding to the specified tone (various guitars, saxophones, etc.) (bottleneck, volume, etc.)
To determine the conditions that should be applied, and, depending on the result, change the characteristics of the pronunciation for each specific musical tone in accordance with the specified playing style, or mute ornament, choking, hammering, and pulling. A characteristic corresponding to a characteristic change rule relating to previously stored musical sound data such as an off-slide or a hammering-on / pulling-off arpeggio is added.

【0014】つまり、選択された音色で選択された音高
の楽音がただならすものではなく、人が楽器を操作する
ことで入ってしまう楽器操作に特有の音質特性を付与す
べき対象を自動的に判定し、これに適性な特性を付加す
るようにしている。従って、より自然で感情や環境や雰
囲気をも表現し、楽器奏法に応じて十分に表情付けされ
た演奏データを生成することができる。
In other words, the tone of the selected pitch is not a tone of the selected tone, but a target to which a sound quality characteristic peculiar to a musical instrument operation that is entered by a human being operating the instrument is automatically added. And an appropriate characteristic is added to this. Therefore, it is possible to more naturally express emotions, environments, and atmospheres, and to generate performance data sufficiently expressed according to the musical instrument playing style.

【0015】この発明では、変更(変化)する各楽音特
性は、所定音色に対応する楽器の奏法を指定する手段に
より、任意に選択することができる。また、楽音特性変
更の処理は、他のパート(チャンネル)の発音状態を考
慮したり、連続的な処理箇所にはランダム性乃至所定の
確率をもって実行する手法が効果的である。
In the present invention, each tone characteristic to be changed (changed) can be arbitrarily selected by means for designating the playing style of the musical instrument corresponding to the predetermined tone color. In the process of changing the tone characteristics, it is effective to take into account the sounding state of another part (channel) or to execute the process with randomness or a predetermined probability at continuous processing points.

【0016】この発明は、所定音色をギター音色として
実施することにより、特に顕著な表情付け効果が得られ
る。ギターの演奏操作においては、独特の人間味のある
楽音以外の演奏音がなることがあったり、また、楽音の
微妙な変化が発生することがある。これは楽器の演奏上
の特性であり、同じギターでも種類によってその特性は
異なる。従って、以下に詳述する実施例ではギターをと
りあげているが、サックスやその他の楽器又は音色に適
用可能であり、音色に応じて具体的な処理方法を変える
ことができる。
According to the present invention, a particularly remarkable expression effect can be obtained by implementing the predetermined tone color as the guitar tone color. In the performance operation of a guitar, a performance sound other than a unique human-like musical sound may be generated, or a subtle change in the musical sound may occur. This is a performance characteristic of a musical instrument, and the characteristics differ depending on the type of the same guitar. Therefore, in the embodiment described in detail below, a guitar is used, but the present invention can be applied to saxophones and other musical instruments or timbres, and the specific processing method can be changed according to the timbre.

【0017】この発明において、変更(変化)させる特
性には、ボトルネック(スライド)奏法の付加〔模擬/
擬似ボトルネック奏法〕、ボリューム〔模擬/擬似ボリ
ューム奏法〕、別に記憶してある装飾音データ(例え
ば、ミュート音)などの付加や、ハンマリングオン・プ
リングオフの付加、その他のアーキュティレーション
(名プレイヤーの手癖、フィーリングを真似した特性)
の付加〔フレーズの挿入〕、アルベジオの位置に対応し
た特性変化〔アルペジオ特殊奏法〕、ビブラートが集っ
ている場合に微妙に変化するビブラート特性の付与〔ビ
ブラート付加〕などがある。
In the present invention, the characteristics to be changed (changed) include the addition of a bottleneck (slide) playing method [simulation /
Pseudo bottleneck playing method), volume [simulation / pseudo volume playing method], addition of separately stored decorative sound data (for example, mute sound), addition of hammering-on / pulling-off, and other accrual ( Characteristics that imitate the habits and feelings of famous players)
(Insertion of a phrase), a characteristic change corresponding to the position of the arpeggio (arpeggio special playing technique), and the addition of a vibrato characteristic that changes subtly when vibrato is gathered (vibrato addition).

【0018】より、具体的に説明する。楽譜を見て、楽
譜データを、そのまま、シーケンサなどに打ち込んで再
生すると、単なるノートオン/オフのメロディになって
しまう。この発明の一実施例では、元演奏データのフレ
ーズの中でギターのスライド奏法(ボトルネック奏法)
を付加する音を検出する。例えば、アメリカっぽいムー
ドを出したい場合、スライド奏法を付加する音を自動的
に検出する。そして、検出された音に対して、ピッチの
アップ/ダウン両方向から、1音〜1オクターブの間で
スライドさせる。従って、手本となる曲がなくても、ス
ライド奏法を自動的に容易に付加することができる。
This will be described more specifically. If you look at the score and play the score data as it is into a sequencer or the like, the melody will be a mere note-on / off melody. In one embodiment of the present invention, a guitar slide playing method (bottleneck playing method) in a phrase of original performance data.
Detects the sound to which is added. For example, if you want to create an American mood, the sound to which the slide playing technique is added is automatically detected. Then, the detected sound is slid from one sound to one octave from both directions of pitch up / down. Therefore, even if there is no example music, the slide playing technique can be automatically and easily added.

【0019】この場合、オープンチューニング(数種類
ある)を想定して、元の音以外に、その隣の弦の音及び
その他コード構成音なども、自動的にスライド・発音さ
せることができる。また、スライド時のメカ音を必要に
応じて付加することができ、これには、例えば、スライ
ド時に弦を擦ることにより発生する実際の擦り音をサン
プリングしておき、このメカ音を、必要な箇所に付加す
る。
In this case, assuming open tuning (several types), in addition to the original sound, the sound of the adjacent string and other chord constituent sounds can be automatically slid and produced. Also, a mechanical sound at the time of sliding can be added as necessary. For example, an actual rubbing sound generated by rubbing a string at the time of sliding can be sampled, and the mechanical sound can be added to the necessary sound. Add to the location.

【0020】この発明の一実施例では、シーケンサで打
ち込んだギターパートの中で必要と思われる部分、例え
ば、テンポが比較的スローでありイントロ・アドリブ・
エンディング等のギターの弾き始め部分、イントロで、
ドラムパートが動いておらず、ギターのみ又はギター・
キーボード・ストリングス等のパートでスタートする部
分、テンポフリーなどの部分を検出し、検出した部分の
EG、ボリューム、アンプリチュード等に、ボリューム
奏法に相当する音量変化を与えるように構成しているの
で、初心者でもギター表現を楽に行うことができるよう
にしている。なお、ギターパートでないパートでもこの
手法を使うことによりギターらしく表現することができ
る。
In one embodiment of the present invention, a portion deemed necessary in the guitar part struck by the sequencer, for example, the tempo is relatively slow and the intro ad lib.
At the beginning of playing the guitar such as ending, intro,
The drum part is not moving and only the guitar or guitar
Since it is configured to detect parts starting with parts such as keyboard strings, tempo-free parts, etc., and apply EG, volume, amplitude, etc. of the detected parts to volume changes equivalent to volume playing techniques, Even beginners can easily perform guitar expression. It should be noted that a part other than the guitar part can be expressed like a guitar by using this method.

【0021】この発明の一実施例では、予め、ミュート
音をメモリしておき、シーケンサで打ち込んだギターパ
ートの中で必要と思われる部分、例えば、テンポが比較
的スローでありイントロ・アドリブ・エンディング等の
ギターの弾き始め部分や、8・16分音符連符の後など
の部分を検出し、メモリしておいたミュート音をこの部
分に装飾音として付加することにより、音の存在にメリ
ハリを付ける。さらに、付加する度合いを軽減できるよ
うに構成することにより、初心者でもギター表現を楽に
行うことができるようにしている。なお、ギターパート
でないパートでもこの手法を使うことによりギターらし
く表現することができる。
In one embodiment of the present invention, a mute sound is stored in advance, and a portion deemed necessary in a guitar part struck by a sequencer, for example, the tempo is relatively slow and the intro, ad lib, ending , Etc., and the part after the 8th and 16th note tuplets are detected, and the mute sound stored in memory is added to this part as a decorative sound to enhance the existence of the sound. wear. In addition, the configuration is such that the degree of addition can be reduced, so that even a beginner can easily perform guitar expression. It should be noted that a part other than the guitar part can be expressed like a guitar by using this method.

【0022】この発明の一実施例では、シーケンサのア
ーティキュレーションの一つとしてギターのハンマリン
グ奏法の付加を機能させ、この機能を取り込むことによ
り、楽曲のどのようなメロディフレーズにも自動的にギ
ターのハンマリング奏法が付加され、ハンマリングの発
生数も、任意に、増加又は減少させることが可能とな
る。従って、ギターで弾いているようなフレーズを自動
作成することができる。
In one embodiment of the present invention, the addition of a guitar hammering technique is used as one of the articulations of a sequencer, and by incorporating this function, any melody phrase of the music is automatically added. The hammering playing style of the guitar is added, and the number of occurrences of hammering can be arbitrarily increased or decreased. Therefore, a phrase as if playing on a guitar can be automatically created.

【0023】例えば、ギターパートの譜面上にハンマリ
ングオンの場所が明記されていない場合、この機能を使
うことによって、自動的にハンマリングオンの付加され
た演奏データを作成し、ギターらしく聴かせることがで
きる。また、他の楽器パートも、この機能を適用するこ
とによって、ギターフレーズに近い演奏データを得るこ
とができる。
For example, if the location of the hammering-on is not specified on the score of the guitar part, this function is used to automatically create the performance data with the hammering-on added and make the guitar-like sound heard. be able to. Also, by applying this function to other instrument parts, performance data close to a guitar phrase can be obtained.

【0024】この発明の一実施例では、ギターパートの
アドリブ、リフ、エンディング等のソロ部分におけるス
タンダード的なフレーズに対応して、MIDIギター又
は打込みよって、予め、チョーキング、ハンマリング、
プリングオフ、スライド等のアーティキュレーションを
含んだフレーズのデータをMIDIデータとして何種類
か用意しておく。これらのデータは、テンポや調が違っ
ていても、シーケンサ側では、自動的に変換を行い対応
可能にしておく。そして、必要なときに必要なデータを
呼び出しシーケンスに貼り付けていく。これにより、難
しいフレーズパフォーマンスが可能になる。
In one embodiment of the present invention, a chord, a hammering, a chopping, a hammering, etc. are previously performed by a MIDI guitar or striking corresponding to a standard phrase in a solo part such as an ad lib, a riff, an ending of a guitar part.
Several types of phrase data including articulations such as pull-offs and slides are prepared as MIDI data. Even if these data have different tempos and tones, the sequencer automatically converts them and makes them compatible. Then, when necessary, necessary data is pasted into the calling sequence. This allows for difficult phrase performances.

【0025】なお、これらのフレーズには、演奏者(名
プレーヤ)等の手癖やフィーリングが含まれることにな
るので、フレーズのデータを予め用意しておく工程は、
プレーヤを選ぶことにもなる。また、ギターだけでな
く、サックスなど、他の全ての楽器のパフォーマンス的
フレーズ等を用意しておくことによって、当該楽器及び
プレーヤの特徴をシーケンサにて実現することができ
る。
Since these phrases include the habits and feelings of the player (name player), the process of preparing the phrase data in advance is as follows.
You have to choose a player. In addition, by preparing performance phrases of all other musical instruments such as saxophones as well as guitars, the characteristics of the musical instruments and players can be realized by the sequencer.

【0026】この発明の一実施例では、さらに、アルペ
ジオのルール化を行うことによって、ギターのアルペジ
オをより自然に聴かせることができる。つまり、打込み
音楽において、ギターパートにアルペジオがある場合、
ただ、譜面通りに打ち込んでも表情は生まれないので、
この発明では、あたかも人間が弾いているようにルール
化を行う。例えば、所定のルールを用いて、アルペジオ
連符に最適な音長を自動的に与え、また、各楽音のベロ
シティを自動的に与えるようにする。
In the embodiment of the present invention, the arpeggio of the guitar can be heard more naturally by making the arpeggio rules. In other words, if you have an arpeggio in the guitar part of the driving music,
However, even if you type according to the music, no expression is born,
In the present invention, rules are created as if a human were playing. For example, a predetermined rule is used to automatically give an arpeggio tuplet an optimal tone length and automatically give the velocity of each musical tone.

【0027】この発明の一実施例では、近辺でビブラー
トが多い場合はビブラートの特性を一定にせず、微妙に
変化させるビブラート付加処理を行うようにしている。
この処理では、予め、ビブラートデータをMIDIデー
タとしてサンプルしておく。例えば、ギターでいえば、
弦と平行な方向に弦を揺らす(弦の張力を変化させる)
ようなデリケートなビブラートデータや、弦と垂直な方
向に弦を揺らす(特に、エレクトリックギター等で多用
されるチョーキング)ビブラートデータなどをサンプル
しておく。そして、フレーズの流れ、音長、テンポ、曲
想などに応じて、サンプルしておいたビブラートデータ
を自動的に付加する。また、付加されたビブラートデー
タは、ユーザの好みに応じて、その深さや速さ等をエデ
ィットすることができるように構成される。従って、フ
レーズの流れ、音長、テンポ、曲想などに対応した自然
な表現のビブラートを付加することができる。
In one embodiment of the present invention, when there is a lot of vibrato in the vicinity, the vibrato adding process for slightly changing the vibrato is performed without making the vibrato characteristics constant.
In this process, vibrato data is sampled in advance as MIDI data. For example, on a guitar,
Swing the string in a direction parallel to the string (change the tension of the string)
Such delicate vibrato data, vibrato data that shakes a string in a direction perpendicular to the string (particularly choking frequently used in an electric guitar, etc.), and the like are sampled. Then, the sampled vibrato data is automatically added according to the flow of the phrase, the duration, the tempo, the musical composition, and the like. The added vibrato data is configured such that its depth, speed, and the like can be edited according to the user's preference. Therefore, it is possible to add vibrato of a natural expression corresponding to the flow of the phrase, the duration, the tempo, the musical composition, and the like.

【0028】[0028]

【発明の実施の形態】以下、図面を参照しつつ、この発
明の好適な実施例について詳述する。しかしながら、こ
の実施例は、単なる一例であって、この発明の精神を逸
脱しない範囲で種々の変更が可能である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the drawings. However, this embodiment is merely an example, and various modifications can be made without departing from the spirit of the present invention.

【0029】〔ハードウエア構成〕図1には、この発明
の一実施例による演奏データ処理システムのハードウエ
ア構成のブロック図が示されている。この例では、演奏
システムは、中央処理装置(CPU)1、読出専用メモ
リ(ROM)2、ランダムアクセスメモリ(RAM)
3、外部記憶装置4、パネル操作子装置(操作パネル)
5、演奏操作子装置6、表示装置7、音源8、ディジタ
ル信号処理装置(DSP)9、サウンドシステム10、
インターフェイス11等を備え、これらの装置1〜11
は、バス12を介して互いに接続されている。この発明
による演奏データ処理システムは、電子楽器やシーケン
サのような音楽を専用に扱う電子機器の形態で実施する
ことができるが、パーソナルコンピュータ(PC)等の
汎用的なデータ処理装置を用いて実施することもでき
る。また、電子楽器の形態を取った場合、鍵盤楽器タイ
プ、弦楽器タイプ、管楽器タイプ等、種々の形態として
よい。
[Hardware Configuration] FIG. 1 is a block diagram showing a hardware configuration of a performance data processing system according to an embodiment of the present invention. In this example, the performance system includes a central processing unit (CPU) 1, a read-only memory (ROM) 2, a random access memory (RAM)
3, external storage device 4, panel operation device (operation panel)
5, performance operation device 6, display device 7, sound source 8, digital signal processor (DSP) 9, sound system 10,
An interface 11 and the like;
Are connected to each other via a bus 12. The performance data processing system according to the present invention can be implemented in the form of an electronic device dedicated to music such as an electronic musical instrument or a sequencer, but is implemented using a general-purpose data processing device such as a personal computer (PC). You can also. In the case of an electronic musical instrument, various forms such as a keyboard instrument type, a stringed instrument type, and a wind instrument type may be used.

【0030】システム全体を制御するCPU1は、所定
のプログラムに従って種々の制御を行い、特に、この発
明によるパネル設定及び加工処理を実行する。ROM2
には、このシステムを制御するための所定の制御プログ
ラムが記憶されており、これらの制御プログラムには、
基本的な演奏情報処理と共に、この発明によるパネル設
定及び加工処理に関する各種処理プログラムや各種テー
ブル、データが含まれる。RAM3は、これらの処理に
際して必要なデータやパラメータを記憶し、各種レジス
タやフラグ、処理中の各種データ等を一時記憶するため
のワーク領域として用いられる。従って、これらの装置
1〜3により、プログラムや各種設定値などを読み出
し、設定された事項に従い演奏データを処理することが
できる。
The CPU 1 for controlling the entire system performs various controls according to a predetermined program, and particularly executes the panel setting and processing according to the present invention. ROM2
Stores a predetermined control program for controlling this system, and these control programs include:
Along with the basic performance information processing, various processing programs, various tables and data relating to the panel setting and processing according to the present invention are included. The RAM 3 is used as a work area for storing data and parameters necessary for these processes, and for temporarily storing various registers and flags, various data being processed, and the like. Therefore, these devices 1 to 3 can read out programs and various set values and process the performance data according to the set items.

【0031】外部記憶装置4には、予めシステムに内蔵
されているハードディスク(HD)の外に、フロッピー
(登録商標)ディスク(FD)、光磁気(MO)ディス
ク、スマートメディア、コンパクトディスク(CD)な
どの移動可能な記憶媒体を用いた記憶装置が使用され
る。HDドライブ(HDD)は、制御プログラムや各種
データを記憶しておく記憶装置であり、ROM2に制御
プログラムが記憶されていない場合、このHDD内のハ
ードディスクに制御プログラムを記憶させておき、それ
をRAM3に読み込むことにより、ROM2に制御プロ
グラムを記憶している場合と同様の動作をCPU1にさ
せることができる。また、CDドライブ等により、CD
等に記憶されている制御プログラムや各種データを読み
出し、HDD内のハードディスクにストアすることもで
きる。さらに、図示しない通信インターフェイスを通じ
てサーバコンピュータ等から制御プログラムや各種デー
タをHDD内のハードディスクにストアすることもでき
るので、制御プログラムの追加やバージョンアップ等が
容易に行える。
The external storage device 4 includes a floppy (registered trademark) disk (FD), a magneto-optical (MO) disk, a smart media, and a compact disk (CD) in addition to a hard disk (HD) built in the system in advance. For example, a storage device using a movable storage medium such as a storage device is used. The HD drive (HDD) is a storage device for storing a control program and various data. When the control program is not stored in the ROM 2, the control program is stored in a hard disk in the HDD, and is stored in the RAM 3. The CPU 1 can cause the CPU 1 to perform the same operation as when the control program is stored in the ROM 2. In addition, CD drive
It is also possible to read out a control program and various data stored in the HDD or the like and store the data in a hard disk in the HDD. Further, since a control program and various data can be stored in a hard disk in the HDD from a server computer or the like through a communication interface (not shown), addition of a control program and version upgrade can be easily performed.

【0032】パネル操作子装置(操作パネル)5は、演
奏データ処理のための各種設定を行なうための複数の設
定用操作子を備え、これらの設定用操作子は、例えば、
電子楽器の操作パネル等に取り付けられた各種スイッチ
や、PCキーボードの各種キーや、マウス等のポインチ
ングデバイスなどであり、「パネル操作子」と呼ばれ
る。演奏操作子装置6は、楽音データを指定・入力する
演奏用操作子を備え、これらの演奏用操作子は、例え
ば、各種電子楽器における鍵盤等の演奏用操作子や、P
Cキーボードにおいて演奏用に割り当てられる所定のキ
ーなどであり、「演奏操作子」と呼ばれる。また、表示
装置7は、これに接続されるディスプレイや各種インジ
ケータ(図示せず)の表示状態を制御する。なお、ディ
スプレイに表示された設定画面やデータ入力画面の各種
ボタンをポインチングデバイスで指示することにより、
各種設定や楽音データの指定・入力を行うこともでき
る。
The panel operator device (operation panel) 5 includes a plurality of setting operators for performing various settings for performance data processing. These setting operators are, for example,
These are various switches attached to an operation panel of an electronic musical instrument, various keys of a PC keyboard, a pointing device such as a mouse, and the like, and are called “panel operators”. The performance operator device 6 includes performance operators for designating and inputting tone data. These performance operators include, for example, performance operators such as a keyboard of various electronic musical instruments and P
These are predetermined keys or the like assigned for performance on the C keyboard, and are called "performance operators". The display device 7 controls the display state of a display and various indicators (not shown) connected thereto. In addition, by pointing various buttons on the setting screen and data input screen displayed on the display with a pointing device,
Various settings and designation and input of musical sound data can also be performed.

【0033】音源8、DSP9及びサウンドシステム1
0から成る楽音出力部は、演奏データに基づく楽音を出
力させるためのものである。つまり、ソフトウエア又は
ハードウエアで構成される音源8では、このシステムで
処理され生成された演奏データを基にして楽音データを
生成し、生成された楽音データを、更に、DSP9でデ
ィジタル信号処理し、サウンドシステム10にてDA変
換(DAC)及び増幅(アンプ)し放音(スピーカ)を
行なう。
Sound source 8, DSP 9 and sound system 1
The tone output section consisting of 0 is for outputting a tone based on performance data. In other words, the tone generator 8 composed of software or hardware generates tone data based on the performance data processed and generated by this system, and the generated tone data is further subjected to digital signal processing by the DSP 9. The sound system 10 performs DA conversion (DAC), amplification (amplification), and sound emission (speaker).

【0034】この実施例では、演奏データは、CDやF
D等の可搬記録媒体からの曲データだけでなく、外部の
演奏データ生成機器13からもシステムに入力可能であ
る。すなわち、インターフェイス11を介して接続され
る演奏データ生成機器13から、MIDIなどの演奏デ
ータを受信することができる。
In this embodiment, the performance data is a CD or F
In addition to music data from a portable recording medium such as D, the data can be input to the system from an external performance data generation device 13. That is, performance data such as MIDI can be received from the performance data generation device 13 connected via the interface 11.

【0035】〔メイン処理〕図2は、この発明の一実施
例による演奏データ処理全体を表わすメイン処理のフロ
ーチャートである。ステップR1でシステムの初期化を
行い、ステップR2では、操作パネル5のパネル操作子
による操作に応じて、モードやパラメータを設定するパ
ネル設定及び演奏データを加工する加工処理を行う。
[Main Processing] FIG. 2 is a flowchart of the main processing representing the entire performance data processing according to an embodiment of the present invention. In step R1, the system is initialized. In step R2, a panel setting for setting modes and parameters and a processing for processing performance data are performed in accordance with an operation of a panel operator of the operation panel 5.

【0036】次のステップR3では、演奏操作子装置6
の演奏操作子による操作(押鍵等)に応じた楽音データ
を曲データとして入力したり、外部記憶装置4から曲デ
ータを読み出したり、或いは、外部演奏データ生成機器
13からの演奏データをインターフェイス11を介して
曲データとして入力することにより、データ入力がなさ
れる。
In the next step R3, the performance operation device 6
Music data corresponding to an operation (key depression or the like) by the performance operator of the music data input unit, music data is read from the external storage device 4, or the performance data from the external performance data generating device 13 is transmitted to the interface 11 The data is input by inputting the data as music data via the.

【0037】ステップR4においては、ステップR2で
加工処理により生成された曲データ、或いは、ステップ
R3でデータ入力されたそのままの曲データを基にし
て、音源8で楽音データを生成しDSP9で信号処理を
行い、サウンドシステム10にて、デジタルからアナロ
グに信号変換してアンプで増幅しスビーカから楽音とし
て放音し、メイン処理の終了指示があるまで、ステップ
R2〜R4での処理が繰り返し実行される。
In step R4, tone data is generated by the sound source 8 based on the music data generated by the processing in step R2 or the raw music data input in step R3, and the signal is processed by the DSP 9. The sound system 10 converts the signal from digital to analog, amplifies it with an amplifier, emits it as a musical sound from the beeker, and repeats the processing in steps R2 to R4 until there is an instruction to end the main processing. .

【0038】〔パネル設定及び加工処理〕図3には、メ
イン処理(図2)のステップR2におけるパネル設定及
び加工処理ルーチンの一例が示されている。このルーチ
ンの第1ステップS1では、パネル操作子による設定入
力の操作があるかを判断して、操作があったときステッ
プS2に進み、何も操作がなければ、このパネル設定及
び加工処理を終了し(抜け)てステップR3(図2)に
リターンする。ステップS2では、設定入力の内容が
「自動編集処理の設定」が指示されたか否かを判断し、
自動編集処理設定の指示があれば、順次、ステップS
3、ステップS4へと進み、そうでなければステップS
5に進む。
[Panel Setting and Processing] FIG. 3 shows an example of a panel setting and processing routine in step R2 of the main processing (FIG. 2). In the first step S1 of this routine, it is determined whether or not a setting input operation has been performed by a panel operator. If an operation has been performed, the process proceeds to step S2. If no operation has been performed, the panel setting and processing process ends. Then, the process returns to step R3 (FIG. 2). In step S2, it is determined whether or not the content of the setting input indicates "setting of automatic editing processing".
If there is an instruction for automatic editing process setting, step S
3. Proceed to step S4; otherwise, step S4
Go to 5.

【0039】ステップS3においては、エディット対象
を設定する。このエディット対象は、現在実行されてい
る演奏モードがリアルタイム演奏の場合は、自動的に、
演奏データ全体を対象として設定する。また、外部記憶
装置4に記憶されている曲データを読み出してこれを処
理する場合は、“その曲全体を処理の対象とするか”、
“一部の小節を対象とするか”、または、“どのチャン
ネルを対象とするか(チャンネルで指定したり、音色の
種類で指定したりする。)”は、パネル操作子の設定で
決定される。なお、リアルタイム演奏とは、演奏操作子
装置6の演奏操作子の操作による楽音データを処理した
り、外部機器13から送信されてくる演奏データをその
まま処理することを指す。
In step S3, an edit target is set. This edit target is automatically set when the currently executed performance mode is real-time performance.
Set for the entire performance data. When the music data stored in the external storage device 4 is read and processed, "whether the entire music is to be processed"
“Which channel is targeted” or “Which channel is targeted (specified by channel or by tone type)” is determined by the setting of the panel control. You. Note that the real-time performance refers to processing musical tone data by operating the performance operator of the performance operator device 6 or processing performance data transmitted from the external device 13 as it is.

【0040】次のステップS4では、エディット種別を
設定する。このエディット種別の設定は、例えば、指定
したチャンネル又は音色の曲データにどのような処理を
行なうかを設定するものである。例えば、ギター音色に
ついては、「ボルトネック奏法」、「ボリューム奏
法」、「ミュート装飾音付加」などがある。ステップS
4の設定処理の後は、ステップR3(図2)にリターン
する。
In the next step S4, an edit type is set. The setting of the edit type sets, for example, what kind of processing is performed on music data of a specified channel or tone color. For example, the guitar tone includes "bolt neck playing technique", "volume playing technique", and "mute ornamental sound addition". Step S
After the setting process of No. 4, the process returns to step R3 (FIG. 2).

【0041】一方、自動編集処理設定の指示でない場
合、ステップS5において、「自動編集処理の実行」が
指示されたか否かを判定し、自動編集処理設定の指示で
あればステップS6に進み、そうでなければステップS
7に進む。ステップS6では「自動編集処理」が設定さ
れているか否かを確認し、設定されていれば、設定され
たとおりに処理するために、ステップS8以下の処理フ
ローに進む。もし、自動編集処理が設定されていない場
合は、前述したステップS3,S4の設定フローに進
む。
On the other hand, if the instruction is not for automatic editing processing setting, it is determined in step S5 whether or not "execution of automatic editing processing" is instructed. If the instruction is for automatic editing processing setting, the flow proceeds to step S6. If not, step S
Go to 7. In step S6, it is checked whether or not "automatic editing processing" is set, and if it is set, the process proceeds to step S8 and subsequent steps in order to perform processing as set. If the automatic editing process is not set, the process proceeds to the setting flow of steps S3 and S4 described above.

【0042】ステップS8では、指定された曲データが
記録済みのものであるか否かを判定する。すなわち、処
理する演奏データが何であるかを判定し、記録済みの演
奏データの処理が指定されていれば、ステップS9に進
んで記録済み曲データが読み出される。また、外部機器
13から送信されてくるMIDIなどの曲データをその
まま処理したり、演奏操作子6から入力された演奏信号
による曲データを処理する場合のように、リアルタイム
演奏の曲データであれば、ステップS10に進む。ステ
ップS10では、入力されてきているリアルタイム演奏
の当該曲データをそのままRAM3にロードする処理を
行い、次のステップS11において、解析可能なデータ
量を確保できる一定時間分の曲データが蓄積されたとき
に、当該曲データを読み出す。
In step S8, it is determined whether or not the designated music data has been recorded. That is, it is determined what performance data is to be processed, and if the processing of the recorded performance data has been designated, the process proceeds to step S9 to read the recorded music data. In the case of music data of a real-time performance, such as processing music data such as MIDI transmitted from the external device 13 as it is or processing music data based on a performance signal input from the performance operator 6, The process proceeds to step S10. In step S10, a process of directly loading the input music data of the real-time performance into the RAM 3 is performed. In the next step S11, when music data for a certain period of time capable of securing an analyzable data amount is accumulated. Next, the music data is read.

【0043】ステップS9,S11で曲データが読み出
されると、ステップS12に進み、読み出された曲デー
タについて加工処理を行い、この加工処理を終えるとス
テップR3(図2)にリターンする。
When the music data is read out in steps S9 and S11, the process proceeds to step S12, where the read music data is processed, and when the processing is completed, the process returns to step R3 (FIG. 2).

【0044】また、ステップS5からステップS7に進
んだ場合は、ステップS7において、「その他入力」の
あった指示を実行する。この「その他入力」には、例え
ば、「自動演奏データの指定」、演奏データの「読出
し」、「再生開始」、「エディット指示」、「リアルタ
イム演奏」モードなど、その他種々の設定操作による入
力項目がある。そして、これらの入力項目を参照し、対
応する処理を実行した後、ステップR3(図2)にリタ
ーンする。なお、「リアルタイム演奏」モードの設定操
作に対しては、演奏モード情報を「リアルタイム演奏」
にセットし、この情報は、ステップS3の処理などに反
映される。
When the process proceeds from step S5 to step S7, an instruction for "other input" is executed in step S7. The “other inputs” include input items by various other setting operations such as “designation of automatic performance data”, “reading” of performance data, “playback start”, “edit instruction”, and “real-time performance” mode. There is. Then, after referring to these input items and executing corresponding processes, the process returns to step R3 (FIG. 2). For the setting operation of the “real-time performance” mode, the performance mode information is set to “real-time performance”.
And this information is reflected in the processing of step S3 and the like.

【0045】〔加工処理〕図4は、パネル設定及び加工
処理(図3)のステップS12における加工処理サブル
ーチンの一例を示す。このサブルーチンでは、まず、第
1〜第5ステップS121〜S125では、「テンポ情
報」、「処理すべき楽音データの曲中の位置」及び「処
理すべきチャンネルや音色」を検出したり、フレーズの
流れを解析したり、或いは、曲想を検出するなど、種々
の曲情報の検出・解析を行った後、続くステップS12
6の特性変更処理に進む。
[Processing] FIG. 4 shows an example of a processing subroutine in step S12 of the panel setting and processing (FIG. 3). In this subroutine, first, in first to fifth steps S121 to S125, "tempo information", "position in musical piece of musical sound data to be processed" and "channel and tone to be processed" are detected, After detecting and analyzing various pieces of music information, such as analyzing a flow or detecting a music idea, the process proceeds to step S12.
The process proceeds to the characteristic changing process of No. 6.

【0046】ステップS126においては、ステップS
121〜S125で検出・解析した事項を基にして、曲
データ中の処理すべき楽音データの特性を変更する処理
を実行する。この特性変更処理の後は、ステップS12
7にて、特性が変更され小節された曲データを、オリジ
ナルとは別に、新規に外部記憶装置4に記録し(オリジ
ナルの演奏データも必要に応じて記録する)、続くステ
ップS128で、「修正後、即、再生する」同時再生モ
ードが設定されるか否かを調べる。
In step S126, step S
Based on the items detected and analyzed in steps S121 to S125, a process of changing the characteristics of the music data to be processed in the music data is executed. After this characteristic change processing, step S12
At 7, the song data whose characteristics have been changed and the bar are newly recorded separately from the original in the external storage device 4 (original performance data is also recorded as necessary). Then, it is checked whether the simultaneous playback mode is set.

【0047】ここで、「同時再生」モードが設定されて
いれば、ステップS129に進んで、修正された曲デー
タによる演奏処理を行う。すなわち、同時再生が設定さ
れている場合は、加工が済んだ演奏データを音源8に出
力してDSP9で信号処理し、サウンドシステム10で
放音させる。そして、ステップS129で再生処理をし
た後、或いは、ステップS128で同時再生の設定が確
認された場合は、この加工処理を終了してステップR3
(図2)にリターンする。
If the "simultaneous reproduction" mode is set, the flow advances to step S129 to perform a performance process using the corrected music data. That is, when the simultaneous reproduction is set, the processed performance data is output to the sound source 8, subjected to signal processing by the DSP 9, and emitted by the sound system 10. Then, after performing the reproduction process in step S129, or when the setting of the simultaneous reproduction is confirmed in step S128, the processing process is terminated and step R3 is performed.
It returns to (FIG. 2).

【0048】このように、この発明の演奏データの表情
付け処理装置では、演奏データを構成する複数の楽音の
状態(テンポ、曲位置、音色、フレーズの流れや曲想)
を解析し(S121〜S125)、解析結果に基づい
て、演奏データにおける特定楽音の特性を、指定された
楽器奏法に応じた特性に変更し、所定音色(例えば、ギ
ター)の演奏データを生成する(S126)。また、予
め、所定音色に対応する楽器の奏法に応じた楽音データ
又は楽音特性変更ルールを記憶しておき、解析結果に基
づいて、演奏データの特定部分の楽音特性を、指定され
た奏法に応じた楽音データ又は楽音特性変更ルールに対
応するように変更することもできる。なお、特性変更処
理はランダム性乃至所定の確率をもって実行することが
できる。
As described above, in the performance data expression processing apparatus of the present invention, the state of a plurality of musical tones (tempo, music position, tone color, flow of phrases and musical ideas) constituting the music performance data.
Are analyzed (S121 to S125), and based on the analysis result, the characteristic of the specific musical tone in the performance data is changed to a characteristic corresponding to the specified musical instrument playing style, and performance data of a predetermined tone (for example, guitar) is generated. (S126). Also, in advance, tone data or tone characteristic change rules corresponding to the playing style of the musical instrument corresponding to the predetermined tone color are stored, and based on the analysis result, the tone properties of the specific part of the performance data are changed according to the designated playing style. It can also be changed so as to correspond to the music data or music characteristic change rule. Note that the characteristic change processing can be executed with randomness or a predetermined probability.

【0049】〔特性変更処理〕図5〜図7は、加工処理
(図4)のステップS126における特性変更処理の概
略的処理フロー例を示す。この処理フロー例では、ま
ず、ステップT1にて、ステップS123で検出された
音色が所定の「音色A」(例えば、ギター)であるかど
うか判断し、音色AであればステップT2に進み、そう
でなければステップT3(図7)に進む。ステップT2
では、さらに、模擬ボリューム奏法の設定があるか否か
を調べて、模擬ボリューム奏法が設定されていると判断
した場合は、ステップT4に進んで、図8により説明す
る模擬ボリューム奏法処理を実行した後ステップT5に
進み、そうでないときは、直ちに、ステップT5に進
む。
[Characteristic Change Processing] FIGS. 5 to 7 show schematic processing flow examples of the characteristic change processing in step S126 of the processing processing (FIG. 4). In this example of the processing flow, first, in step T1, it is determined whether the tone detected in step S123 is a predetermined "tone A" (for example, a guitar), and if the tone is A, the process proceeds to step T2. If not, the process proceeds to step T3 (FIG. 7). Step T2
Then, it is further checked whether or not the simulated volume playing style is set. If it is determined that the simulated volume playing style is set, the process proceeds to step T4, and the simulated volume playing style processing described with reference to FIG. 8 is executed. Thereafter, the process proceeds to step T5. If not, the process immediately proceeds to step T5.

【0050】ステップT5では、模擬ボトルネック奏法
の設定があるか否かを判定し、模擬ボトルネック奏法が
設定されていると判断した場合は、ステップT6に進ん
で、図9により説明する模擬ボトルネック奏法処理を実
行した後ステップT7に進み、そうでないときは、直ち
に、ステップT7に進む。ステップT7では、フレーズ
の挿入の設定があるか否かを判断する。このフレーズに
はミュート装飾音が含まれる。ミュート装飾音を含むフ
レーズの挿入が設定されていると判断した場合は、ステ
ップT8に進んで、図10及び図11により説明するフ
レーズの挿入処理を実行した後ステップT9(図6)に
進み、そうでないときは、直ちにステップT9に進む。
In step T5, it is determined whether or not a simulated bottleneck playing style has been set. If it is determined that the simulated bottleneck playing style has been set, the process proceeds to step T6, where the simulated bottleneck playing style described with reference to FIG. After executing the neck playing method processing, the process proceeds to step T7, and if not, the process immediately proceeds to step T7. In step T7, it is determined whether or not there is a setting for inserting a phrase. This phrase contains a mute ornament. When it is determined that the insertion of the phrase including the mute ornament is set, the process proceeds to step T8, and after performing the phrase insertion process described with reference to FIGS. 10 and 11, the process proceeds to step T9 (FIG. 6). Otherwise, the process immediately proceeds to step T9.

【0051】ステップT9では、アルペジオ特殊奏法の
設定があるか否かを判断し、アルペジオ特殊奏法が設定
されていると判断した場合は、ステップT10に進ん
で、図12により説明するアルペジオ特殊奏法処理を実
行した後さらにステップT11に進み、そうでないとき
は、直ちにステップT11に進む。ステップT11で
は、ビブラート付加の設定があるか否かを判断し、フレ
ーズの挿入が設定されていると判断した場合は、ステッ
プT12に進んで、図13により説明するビブラート付
加処理を実行した後ステップT13に進み、そうでない
ときは、直ちにステップT13に進む。
In step T9, it is determined whether or not the arpeggio special performance method is set. If it is determined that the arpeggio special performance method has been set, the process proceeds to step T10, in which the arpeggio special performance method processing described with reference to FIG. Is executed, the process further proceeds to step T11. If not, the process immediately proceeds to step T11. In step T11, it is determined whether or not there is a setting for adding vibrato. If it is determined that insertion of a phrase has been set, the process proceeds to step T12, where the vibrato adding process described with reference to FIG. Proceed to T13; otherwise, immediately proceed to Step T13.

【0052】ステップT13では、その他の変更可能な
特性項目について、変更処理されるべきものと設定され
ているかどうかを調べ、変更処理されるべき特性項目が
あれば、当該特性の変更処理を実行する。そして、ステ
ップT13の処理後はこの特性変更処理を終了し、ステ
ップS127(図4)にリターンする。
In step T13, it is checked whether or not other changeable characteristic items are set to be changed. If there are any changeable characteristic items, the characteristic change process is executed. . Then, after the processing in step T13, the characteristic change processing ends, and the flow returns to step S127 (FIG. 4).

【0053】さて、ステップT1(図5)からステップ
T3(図7)に進んだ場合は、ステップS123で検出
された音色が、別の「音色B」、例えば、サックスであ
るかどうか判断し、音色BであればステップT14に進
み、そうでなければステップT15に進む。ステップT
14では、ステップT2〜T13と同様の処理を行い、
当該曲データについて、種々の条件に応じて当該音色B
に相応する特性変更の処理を行い、これらの処理の実行
後、ステップS127(図4)にリターンする。また、
ステップT15では、ステップT2,T3と同様に、更
に別の音色C,D,…であるかどうか判断し、これらの
音色であれば、ステップT2〜T13,T14と同様
に、当該曲データについて、種々の条件に応じて当該音
色C,D,…に相応する特性変更の処理を行った後、ス
テップS127にリターンする。
When the process proceeds from step T1 (FIG. 5) to step T3 (FIG. 7), it is determined whether the tone detected in step S123 is another "tone B", for example, a saxophone. If the tone color is B, the process proceeds to step T14; otherwise, the process proceeds to step T15. Step T
In 14, the same processing as in steps T2 to T13 is performed.
For the music data, the timbre B according to various conditions
Are performed, and after performing these processes, the process returns to step S127 (FIG. 4). Also,
In step T15, similarly to steps T2 and T3, it is determined whether or not there are still other timbres C, D,..., And if these timbres are the same, similar to steps T2 to T13 and T14, After performing processing for changing the characteristics corresponding to the tone colors C, D,... According to various conditions, the process returns to step S127.

【0054】〔模擬ボリューム奏法処理〕図8は、特性
変更処理のステップT4で実行される模擬ボリューム奏
法処理のフローチャート例を示す。この処理フローの第
1ステップVL1では、ステップS121で検出したテ
ンポ情報を或る所定値“X”と比較する。その結果、テ
ンポが所定値“X”よりスロー(遅い)であればステッ
プVL2に進み、スローでない場合は特性変更処理のス
テップT5(図5)にリターンする。
[Simulated Volume Performance Method] FIG. 8 shows an example of a flow chart of the simulated volume performance method executed in step T4 of the characteristic changing process. In the first step VL1 of this processing flow, the tempo information detected in step S121 is compared with a certain predetermined value "X". As a result, if the tempo is slower (slower) than the predetermined value "X", the process proceeds to step VL2. If not, the process returns to step T5 (FIG. 5) of the characteristic changing process.

【0055】ステップVL2では、更に、曲データの当
該箇所がイントロ、アドリブ、エンデイング等の区間で
あるかを判定し、そうである場合にはステップVL3へ
行き、そうでない場合にはテップT5にリターンする。
ステップVL3では、更に、引き始めの部分であるかを
判定し、そうであれば、ステップVL4でボリューム奏
法を付加する処理が実行され、そうでない場合にはテッ
プT5にリターンする。ステップVL4でのボリューム
奏法の処理においては。ボリューム奏法を付加する位置
として決定された当該部分に対して、図14のように、
音量をMINからMAXに変化するように曲データの特
性を変更してやればよい。
In step VL2, it is further determined whether or not the relevant portion of the music data is a section such as intro, ad-lib, ending, and the like. If so, go to step VL3; otherwise, return to step T5. I do.
In step VL3, it is further determined whether or not it is the start of the pulling. If so, the process of adding the volume rendition style is executed in step VL4. If not, the process returns to step T5. In the processing of the volume playing technique in step VL4. As shown in FIG. 14, for the portion determined as the position to which the volume playing technique is added,
What is necessary is just to change the characteristic of the music data so that the volume changes from MIN to MAX.

【0056】ステップVL1〜VL3での模擬ボリュー
ム奏法処理条件には、他のパートの演奏状態を考慮する
ことが好ましい。このような条件としては、例えば、イ
ントロ部分で、図14のように、2分音符が続く部分で
あって、しかも、ギターパート以外(特に、ドラムパー
ト)は演奏を休んでいる部分、或いは、ギターパートと
キーボード・ストリングス等によりスタートする部分
を、検出する。そして、ステップVL4において、E
G、アンプリチュード、ボリューム等により、ギターの
ボリューム奏法〔例えば、図14のように、ギターのボ
リュームつまみのMIN(最小値)の無音状態でピッキ
ングし、このつまみをMAX(最大値)の方向に回すこ
とにより、バイオリン的な音の立上りを得る奏法〕を実
現するのである。このようにしてギターのボリューム奏
法を実現し、メルヘンチックな効果を得ることにより、
ギターらしく表現することができる。
It is preferable that the simulated volume performance method processing conditions in steps VL1 to VL3 take into account the performance state of other parts. Such a condition is, for example, a part where the half note continues, as shown in FIG. 14, and a part other than the guitar part (particularly, the drum part) is resting, as shown in FIG. A part starting with a guitar part and keyboard strings is detected. Then, in step VL4, E
G, amplitude, volume, etc., the volume playing method of the guitar [For example, as shown in FIG. 14, picking is performed with the MIN (minimum value) of the volume knob of the guitar silent, and this knob is moved in the direction of MAX (maximum value). By turning it, a playing method of obtaining a violin-like sound rise] is realized. By realizing the volume playing method of the guitar in this way and obtaining a fairy tale effect,
It can be expressed like a guitar.

【0057】〔模擬ボトルネック奏法処理〕図9は、特
性変更処理のステップT6で実行される模擬ボトルネッ
ク奏法処理のフローチャート例を示す。この処理フロー
の第1ステップBN1では、曲データの楽音を調べ、そ
の前の音にUpスライドを付加するUP処理がなされて
いる(BN6,BN9)か否かを判定し、前の音がUP
処理されている場合は、ステップBN2で、さらに、当
該楽音の音高が前の音よりも低いか否かを判断する。ス
テップBN2で前の音よりも低いと判定されると、続く
ステップBN3において、Downスライドを付加する
処理が実行される。ステップBN3のDOWN処理で
は、ランダム性をもたせ、しかも、付加率を変えてDo
wnスライドが付加される。一方、第1ステップBN1
で前の音がUP処理されていないと判定されたときはス
テップBN4に進み、ステップBN2で前の音よりも低
くはないと判定されたときは特性変更処理のステップT
7(図5)にリターンする。
[Simulated Bottleneck Performance Method] FIG. 9 shows an example of a flow chart of the simulated bottleneck performance process executed in step T6 of the characteristic changing process. In the first step BN1 of this processing flow, the musical sound of the music data is examined, and it is determined whether or not an UP process for adding an Up slide to the preceding sound has been performed (BN6, BN9).
If the tone has been processed, it is determined in step BN2 whether or not the pitch of the musical tone is lower than the preceding tone. If it is determined in step BN2 that the sound is lower than the previous sound, in subsequent step BN3, a process of adding a Down slide is executed. In the DOWN processing of step BN3, randomness is given, and the addition rate is changed to change the Do rate.
wn slide is added. On the other hand, the first step BN1
If it is determined that the previous sound has not been subjected to the UP processing, the process proceeds to step BN4, and if it is determined in step BN2 that it is not lower than the previous sound, the process proceeds to step T of the characteristic changing process.
7 (FIG. 5).

【0058】ステップBN4では、当該楽音の前の音に
Downスライドを付加するDOWN処理がなされてい
る(BN3)か否かを判定し、前の音がDOWN処理さ
れている場合は、ステップBN5で、さらに、当該楽音
の音高が前の音よりも高いか否かを判断する。ステップ
BN5で前の音よりも高いと判定されると、続くステッ
プBN6において、所定条件を考慮してUpスライドを
付加するUP処理が実行される。ステップBN6のUP
処理では、ランダム性をもたせ、しかも、付加率を変え
てUpスライドが付加される。一方、ステップBN4で
前の音がDOWN処理されていないと判定されたときは
ステップBN7に進み、ステップBN5で前の音よりも
高くはないと判定されたときはステップT7にリターン
する。
In step BN4, it is determined whether or not DOWN processing for adding a Down slide to the sound before the musical sound has been performed (BN3). If the previous sound has been DOWN processed, the process proceeds to step BN5. Further, it is determined whether or not the pitch of the musical tone is higher than the preceding tone. If it is determined in step BN5 that it is higher than the previous sound, in step BN6, an UP process for adding an Up slide is performed in consideration of a predetermined condition. Step BN6 UP
In the processing, Up slides are added with randomness and at a different addition rate. On the other hand, if it is determined in step BN4 that the previous sound has not been subjected to DOWN processing, the process proceeds to step BN7, and if it is determined in step BN5 that it is not higher than the previous sound, the process returns to step T7.

【0059】ステップBN7では、更に、当該楽音がイ
ントロ、アドリブ、エンデイングなどの位置であるかを
判定し、そうである場合にはステップBN8に進み、さ
らに、当該楽音がイントロ、アドリブ、エンデイングな
どにおける最初の音であるか否かを判定し、最初の音で
あれば、ステップBN9に進んで当該楽音にUpスライ
ドを付加するUP処理が実行される。ステップBN9の
UP処理では、ランダム性をもたせ、しかも、付加率を
変えてUpスライドが付加される。一方、ステップBN
7でイントロ、アドリブ、エンデイングなどの位置でな
いと判定されたとき、及び、ステップBN8で最初の音
でないと判定されたときは、ステップT7にリターンす
る。
In step BN7, it is further determined whether or not the musical tone is located at an intro, ad-lib, ending, etc., and if so, the process proceeds to step BN8. It is determined whether or not the sound is the first sound. If the sound is the first sound, the process proceeds to step BN9 to perform an UP process for adding an Up slide to the musical sound. In the UP process in step BN9, an Up slide is added with randomness and at a different addition rate. On the other hand, step BN
If it is determined in step 7 that the sound is not a position such as intro, adlib, or ending, and if it is determined in step BN8 that the sound is not the first sound, the process returns to step T7.

【0060】ステップBN3,BN6,BN9において
スライドを発生させる場合、各楽音は、本来の音高より
も数セントの狂いを発生させるように処理し、ランダム
性をもたせ且つ付加率を変えて付加する。また、この場
合、8分音符を含め音長の長い音には、ビブラートを付
加する処理を併用することが好ましい。このビブラート
には、周期及び変調度が共に不安定なものを含む独特の
ビブラートが有効である。これらの処理によって、フレ
ーズの各楽音のピッチの不安定さを演出することができ
る。さらに、スライド演奏する時に弦を擦ることにより
生じる音を「スライド音」として予めメモリしておき、
スライド発生時に、このスライド音を付加する。
When a slide is generated in steps BN3, BN6, and BN9, each musical tone is processed so as to generate a deviation of several cents from the original pitch, and is added with randomness and a different addition rate. . In this case, it is preferable to use a process of adding vibrato to a sound having a long note length including an eighth note. As this vibrato, unique vibratos including those having unstable periods and modulation degrees are effective. By these processes, the instability of the pitch of each musical tone of the phrase can be produced. Furthermore, the sound generated by rubbing the strings when performing a slide performance is stored in advance as a “slide sound”,
This slide sound is added when a slide occurs.

【0061】模擬ボトルネック奏法処理においては、さ
らに、楽譜にない音を付加することができる。ボトルネ
ック奏法は、通常、オープンチューニングされたギター
を使用してスコア上の音符以外の音を発生させることが
多い。そこで、当該曲データの調を検出し、その調にチ
ューニングされたギターを想定して、スライド発生時に
は、当該楽音に隣り合う弦のスライドバーのポジション
の音を付加する。この場合にも、ランダム性をもたせ且
つ付加率を変える。
In the simulated bottleneck playing method processing, it is possible to further add a sound not present in the score. Bottleneck playing often uses open tuned guitars to generate sounds other than notes on the score. Accordingly, the key of the music data is detected, and assuming a guitar tuned to the key, when a slide occurs, the sound of the position of the slide bar of the string adjacent to the musical tone is added. Also in this case, the randomness is given and the addition rate is changed.

【0062】〔フレーズの挿入処理〕図10及び図11
は、特性変更処理のステップT8で実行されるフレーズ
の挿入処理のフローチャート例を示す。この処理フロー
の第1ステップPH1では、ステップS121で検出し
たテンポが所定値“Y”よりスローであるか否かを検出
し、スローであれば、ステップPH2〜PH5のミュー
ト音付加のための処理を実行し、スローでない場合はス
テップPH6(図11)に進んで次のフレーズ挿入処理
へ移る。
[Phrase Insertion Processing] FIGS. 10 and 11
Shows an example of a flowchart of phrase insertion processing executed in step T8 of the characteristic change processing. In a first step PH1 of this processing flow, it is detected whether or not the tempo detected in step S121 is slower than a predetermined value "Y". If the tempo is slow, processing for adding a mute sound in steps PH2 to PH5 is performed. Is executed, and if not slow, the flow advances to step PH6 (FIG. 11) to proceed to the next phrase insertion processing.

【0063】ミュート装飾音を付加するための処理の第
1ステップPH2では、曲データの楽音が、イントロ、
アドリブ、エンディングなどの区間に属しているものな
のかを判定し、これらの区間にあればステップPH3に
進み、そうでなければステップPH6に進む。ステップ
PH3では当該楽音が区間の弾き始めであるか否かを判
定し、弾き始めであればステップPH5に進み、そうで
なければステップPH4で、さらに、当該楽音が所定の
音符状態(8,16分音符の連符等)の後であるか否か
を判定する。ここで、所定の音符状態の後であれば、ス
テップPH5に進み、そうでなければステップPH6に
進む。
In the first step PH2 of the process for adding a mute ornament sound, the music sound of the music data is
It is determined whether it belongs to a section such as ad-lib or ending. If it is in these sections, the process proceeds to step PH3; otherwise, the process proceeds to step PH6. In step PH3, it is determined whether or not the musical tone is the start of playing in the section. If the musical tone has begun to play, the process proceeds to step PH5. Otherwise, in step PH4, the musical tone is further set to a predetermined note state (8, 16). After the note tuplet). Here, if the state is after the predetermined note state, the process proceeds to step PH5; otherwise, the process proceeds to step PH6.

【0064】ステップPH5においては、予め記憶され
ているミュート装飾音を付加する処理が実行される。例
えば、ギターにおいて適当にミュートした音を1音ずつ
4音ほど別々に外部記憶装置4の所定領域にメモリして
おく。上述のステップPH2〜PH4のような自動化判
定基準に従って、例えば、図15(1)のような曲デー
タ部分を検出すると、ステップPH5で、記憶されてい
るミュート音データを読み出し、図15(2)のよう
に、フレーズ、テンポ等に合うように、ミュート装飾音
Mを検出部分に付加する。この場合、付加する度合い
(付加率)を軽減したり、付加する装飾音の数も軽減す
ることができるように構成することが好ましい。
In step PH5, a process of adding a mute ornament sound stored in advance is executed. For example, sounds appropriately muted in a guitar are separately stored in a predetermined area of the external storage device 4 for about four sounds one by one. When a music data portion as shown in FIG. 15 (1) is detected, for example, in accordance with the automation criterion as in steps PH2 to PH4 described above, the stored mute sound data is read out in step PH5, and FIG. As described above, the mute ornament M is added to the detection portion so as to match the phrase, tempo, and the like. In this case, it is preferable to reduce the degree of addition (addition rate) and the number of decorative sounds to be added.

【0065】さて、ステップPH6(図11)に進んだ
場合は、曲データの当該箇所が条件aを満たしているか
否か判断する。この条件aは、例えば、メロディが上昇
或いは下降しているハンマリングオン及びプリングオフ
に適した部分である。ここで該当する部分である判定さ
れると、ステップPH7に進んでアーティキュレーショ
ンAを曲データの当該部分に加える処理を行った後、ス
テップPH8に進み、そうでない場合は、直ちに、ステ
ップPH8に進む。
When the process proceeds to step PH6 (FIG. 11), it is determined whether or not the corresponding portion of the music data satisfies the condition a. The condition a is, for example, a portion suitable for hammering-on and pulling-off where the melody is rising or falling. If it is determined that the part is a relevant part, the process proceeds to step PH7 to perform a process of adding the articulation A to the corresponding portion of the music data, and then proceeds to step PH8. Otherwise, the process immediately proceeds to step PH8. move on.

【0066】ステップPH7では、アーティキュレーシ
ョンAとして、例えば、ハンマリングオン及びプリング
オフを当該部分に付加する。なお、ハンマリングオン及
びプリングオフは、予めルール化されている。すなわ
ち、図16の譜例のように、メロディが上昇するときに
はハンマリングオンHが用いられ、下降するときにはプ
リングオフPが用いられることが多い。そこで、ステッ
プPH6で判定されたメロディ上昇部に、交互にハンマ
リングオンを発生させる。この発生度合いは増減させる
ことができ、メロディ、リズム、スピード等に合うよう
にする。また、図16のように、1つ前と同じ音高に戻
るときに、プリングオフを発生させる。この場合、ハン
マリングオンは音量を小さくし、プリングオフは、ハン
マリングオンよりも音量を大きくするのが好ましい。
In step PH7, for example, hammering on and pulling off are added as articulation A to the relevant portion. The hammering on and the pulling off are set in advance in a rule. That is, as in the example shown in FIG. 16, when the melody rises, the hammering-on H is used, and when the melody falls, the pulling-off P is often used. Therefore, hammering-on is generated alternately in the melody ascending portion determined in step PH6. The degree of occurrence can be increased or decreased to match the melody, rhythm, speed, etc. Also, as shown in FIG. 16, when returning to the same pitch as the immediately preceding pitch, a pull-off is generated. In this case, it is preferable that the volume of the hammering-on is lower and the volume of the pulling-off is higher than that of the hammering-on.

【0067】ここで、ハンマリングオンのルールの一例
を説明する。予め、フレーズに対する分解能を設定して
おき、設定しておいた分解能で抽出されたノートに対し
て処理を行う。例えば、・同じ音程のノートが続く、・
4半音程のノートが続く、・ノートが下降している、と
いう条件のときに対象ノート数のカウントをリセット
し、次の処理を行う: ・対象ノートがカウント“2”のとき、1−2、 ・対象ノートがカウント“3”のとき、1−2(2−
3)、 ・対象ノートがカウント“4”のとき、2−3(1−
2)、 ・対象ノートが奇数なら、1−2(2−3)、 ・対象ノートが偶数なら、2−3(1−2)。 ・対象ノートがカウント“3”のとき、2−3(1−
2)、
Here, an example of the hammering-on rule will be described. The resolution for the phrase is set in advance, and processing is performed on the notes extracted at the set resolution. For example, notes with the same pitch continue,
Resets the count of the number of target notes under the condition that a quarter-tone note continues, the note is falling, and performs the following processing: If the target note has a count of “2”, 1-2 When the target note has a count of “3”, 1-2 (2-
3) When the target note has a count of “4”, 2-3 (1-
2) If the target note is odd, then 1-2 (2-3). If the target note is even, then 2-3 (1-2). When the target note has a count of “3”, 2-3 (1-
2),

【0068】また、ハンマリングオン及びプリングオフ
のルールは、例えば、・同じ音程のノートが続く、・4
半音程以上離れたノートが続く、という条件のときに対
象ノート数のカウントをリセットし、次の処理を行う: ・対象ノートがカウント“2”のとき、1−2、 ・対象ノートがカウント“3”のとき、1−2(2−
3)、 ・対象ノートがカウント“4”のとき、2−3(1−
2)、 ・対象ノートが奇数なら、1−2(2−3)、 ・対象ノートが偶数なら、2−3(1−2)。
The rules for hammering on and pulling off include, for example:
Resets the count of the number of target notes when the condition that notes separated by more than a semitone continues continues and performs the following processing:-When the target note has a count "2", 1-2. In the case of 3 ", 1-2 (2-
3) When the target note has a count of “4”, 2-3 (1-
2) If the target note is odd, then 1-2 (2-3). If the target note is even, then 2-3 (1-2).

【0069】このようなハンマリングオン及びプリング
オフの発生は、楽譜データにハンマリングオンやプリン
グオフが明記されていない場合、他の楽器パートをギタ
ーとして聴かせたい場合、単に、頭に浮かんだメロディ
を打ち込んで、ギターらしくさせたい場合などに有効な
手段である。
The occurrence of such hammering-on and pulling-off simply came to mind when the musical score data did not specify hammering-on or pulling-off, or when the user wanted to hear another instrument part as a guitar. This is an effective way to enter a melody and make it look like a guitar.

【0070】ステップPH8では、曲データの当該箇所
が条件bを満たしているか否か判断する。この条件b
は、例えば、アドリブ、リフ、エンディング等のソロ部
分である。ここで該当する部分である判定されると、ス
テップPH9に進んで、MIDIデータとして予め用意
してある「チョーキング、ハンマリング、プリングオ
フ、スライド等」のアーティキュレーションBを曲デー
タの当該部分に加える処理を行う。
At step PH8, it is determined whether or not the corresponding portion of the music data satisfies the condition b. This condition b
Is a solo part such as ad lib, riff, ending, etc. If it is determined that the part is a relevant part, the process proceeds to step PH9, in which the articulation B of “chalking, hammering, pull-off, slide, etc.” prepared as MIDI data is added to the corresponding part of the music data. Perform addition processing.

【0071】ステップPH9での処理のために、予め、
チョーキング、ハンマリング、プリングオフ、スライド
等のアーティキュレーションを含んだフレーズのデータ
をMIDIデータとして何種類か用意しておく。これら
のデータは、テンポや調が違っていても、システム側で
自動的に変換を行い対応可能にしておく。そして、ステ
ップPH8で対応する該当部分が検出されると、必要な
データを呼び出して当該部分に付加する。付加されるフ
レーズには、所定の楽器、例えば、ギターの演奏者(名
プレーヤ)等の手癖やフィーリングが含まれ、当該プレ
ーヤの特徴的な表示を実現することができる。
For the processing in step PH9,
Several kinds of phrase data including articulations such as chalking, hammering, pull-off, and slide are prepared as MIDI data. These data are automatically converted on the system side even if the tempo and key are different so that they can be handled. Then, when the corresponding portion is detected in step PH8, necessary data is called and added to the portion. The phrase to be added includes a habit and feeling of a predetermined musical instrument, for example, a player (name player) of a guitar, and a characteristic display of the player can be realized.

【0072】そして、ステップPH9におけるアーティ
キュレーションBの付加処理の後、或いは、ステップP
H8で該当する部分でないと判定されたときは、このフ
レーズの挿入処理を終了し、特性変更処理のステップT
9(図6)にリターンする。
Then, after the process of adding the articulation B in step PH9, or
If it is determined in H8 that the part is not the corresponding part, the insertion processing of this phrase is terminated, and step T of the characteristic change processing is performed.
9 (FIG. 6).

【0073】〔アルペジオ特殊奏法処理〕図12は、特
性変更処理のステップT10で実行されるアルペジオ特
殊奏法処理のフローチャート例を示す。この処理フロー
の第1ステップAR1では、曲データの当該箇所がアル
ペジオ奏法の部分であるか否かを検出し、アルペジオで
あれば、ステップAR2,AR3のアルペジオ特殊奏法
のための処理を行い、アルぺジオに係る各楽音の関係を
検出し、この関係に応じて所定の特性を楽音に加える。
この処理の後、及び、アルペジオでない場合は、特性変
更処理のステップT11(図6)にリターンする。
[Arpeggio Special Performance Method Processing] FIG. 12 shows an example of a flowchart of the arpeggio special performance method processing executed in step T10 of the characteristic change processing. In a first step AR1 of this processing flow, it is detected whether or not the relevant portion of the music data is an arpeggio performance part, and if it is an arpeggio, the processing for the arpeggio special performance method in steps AR2 and AR3 is performed.関係 The relationship between the musical tones related to the geo is detected, and predetermined characteristics are added to the musical tones according to the relationship.
After this processing and if it is not an arpeggio, the process returns to step T11 (FIG. 6) of the characteristic change processing.

【0074】ギターのアルベジオ奏法では、アルペジオ
の中の音は次の音がきて弾かれ、ベース音及び最高音
は、次の音がくるのに比較的時間がかかるので、伸びっ
ぱなしになることが多い。そこで、この発明による特殊
奏法処理においては、あたかも人間が弾いているように
アルペジオのルール化を行うことによって、ギターのア
ルペジオをより自然に聴かせる表情付けを行うことがで
きる。このため、先ず、ステップAR2で、最高音及び
ベース音の検出を行い、アルペジオ連符の各楽音に所定
の音量を与える修正を行う。
In the guitar arpeggio playing method, the sound in the arpeggio is played after the next sound is played, and the bass sound and the highest sound take a relatively long time for the next sound to come, so that the sound is kept growing. There are many. Therefore, in the special playing method processing according to the present invention, by giving the rules of the arpeggio as if a human is playing, it is possible to give an expression that makes the arpeggio of the guitar sound more natural. For this reason, first, in step AR2, the highest tone and the bass tone are detected, and correction is performed to give each tone of the arpeggio tuplet a predetermined volume.

【0075】ステップAR2における音長の修正では、
例えば、次のようなルールを用いて、アルペジオ連符に
最適な音長を自動的に与える: 1.各小節においてアルペジオの連符の中で最高の音高
をもつ最高音(第1弦及び第2弦での発音に相当するこ
とが多い。)を検出し、検出した最高音の音長を長くす
る。 2.各小節においてアルペジオの連符の中で最低の音高
をもつベース音第5弦及び第6弦での発音に相当するこ
とが多い。)を検出し、検出したベース音の音長を長く
する。 3.検出されたアルペジオ構成音に対して適当な音長を
与えて更に表情付けを行う。 4.各楽音に対する音長修正は、適当な間引きを行い、
その実行を軽減する。
In the correction of the tone length in step AR2,
For example, the following rules are used to automatically give the optimal duration for arpeggio tuplets: In each measure, the highest note having the highest pitch among the arpeggio tuplets (often corresponding to the first string and the second string) is detected, and the length of the detected highest note is increased. I do. 2. Each bar often corresponds to the sound of the fifth and sixth strings of the bass sound having the lowest pitch among the arpeggio tuplets. ) Is detected, and the length of the detected bass sound is lengthened. 3. Appropriate sound duration is given to the detected arpeggio component sound, and further expression is performed. 4. To correct the length of each musical tone, perform appropriate thinning,
Reduce its execution.

【0076】次に、ステップAR3では、図17に示す
ように、アルペジオにおける音高の昇降パターンに応じ
て、楽音に幾つかの種類のベロシティを自動的に与え
る。例えば、アルペジオ音高の変化パターンには、図1
7(1)のように、単純に上昇するパターンや、単純に
下降するパターンの外に、下降したあと上昇するパター
ンや、上昇したあと下降するパターンがあるが、これら
のパターンに対応して、例えば、図17(2)に示すよ
うなベロシティパターンを何種類か用意しておく。そし
て、検出したアルペジオの昇降パターンに応じて適切な
ベロシティパターンを選択し、対応するベロシティ値を
各楽音に与える。なお、スリーフィンガーピッキングの
ように、隣り合った音に大きい音高差があり、弦が隣り
合わない場合などには、両音のベロシティ差を比較的に
大きい目につけておくように構成することが好ましい。
Next, in step AR3, as shown in FIG. 17, several kinds of velocities are automatically given to the musical tone in accordance with the pitch elevating pattern in the arpeggio. For example, the change pattern of the arpeggio pitch is shown in FIG.
As shown in FIG. 7 (1), in addition to a pattern that simply rises and a pattern that simply falls, there are a pattern that rises after falling and a pattern that rises and then falls. For example, several types of velocity patterns as shown in FIG. 17 (2) are prepared. Then, an appropriate velocity pattern is selected according to the detected elevation pattern of the arpeggio, and a corresponding velocity value is given to each musical tone. If there is a large pitch difference between adjacent sounds, such as in three-finger picking, and the strings are not adjacent, the velocity difference between the two sounds should be set to a relatively large value. Is preferred.

【0077】〔ビブラート付加処理〕図13は、特性変
更処理のステップT12で実行されるビブラート付加処
理のフローチャート例を示す。この処理フローの第1ス
テップVB1では、曲データの当該楽音が8分音符より
長い音符に相当する音長であるか否かを検出する。つま
り、ビブラートを付加する場所を検出するために、8分
音符を含め、それ以上の比較的長く発音する音であるか
を判定する。このように比較的長い音符であった場合
は、ビブラートを付加する対象としてステップVB2に
進み、そうでない場合には、特性変更処理のステップT
13(図6)にリターンする。
[Vibrato Addition Processing] FIG. 13 shows a flowchart example of the vibrato addition processing executed in step T12 of the characteristic change processing. In the first step VB1 of this processing flow, it is detected whether or not the musical tone of the music data has a duration corresponding to a note longer than an eighth note. In other words, in order to detect the place where the vibrato is added, it is determined whether the sound is a relatively long sound including the eighth note. If the note is a comparatively long note, the process proceeds to step VB2 as a vibrato addition target, and if not, step TB of the characteristic changing process.
13 (FIG. 6).

【0078】ステップVB2においては、所定音色、例
えば、ギター音色に対応して標準値が決められているビ
ブラートの深さ値を読み出し、これを当該楽音のビブラ
ート深さ値(ビブラート変調度)に決める。この場合、
エレクトリックギター、特に、ディストーション効果を
施したギターにおいては、ビブラート変調度を深くし、
アコースティックギターでは、これよりも浅くする。ま
た、ナイロン弦のギターの場合は、弦と平行する方向に
揺らして、変調度の浅いデリケートなビブラートを付加
する。さらに、スライドギターでのビブラートは、音程
の中心ピッチを基準にして、高音及び低音の両方向に変
調するビブラートを付加する。
In step VB2, a vibrato depth value whose standard value is determined corresponding to a predetermined tone color, for example, a guitar tone color, is read out, and this is determined as a vibrato depth value (vibrato modulation degree) of the musical tone. . in this case,
For electric guitars, especially guitars with a distortion effect, increase the vibrato modulation depth,
For acoustic guitar, make it shallower. In the case of a nylon string guitar, a delicate vibrato with a small degree of modulation is added by swinging in a direction parallel to the string. Further, vibrato on a slide guitar adds vibrato that modulates in both high and low directions based on the center pitch of the pitch.

【0079】ステップVB2に続くステップVB3で
は、これから付加する対象楽音の近くにビブラートが付
加されているものが複数存在しているかを検出し、検出
された場合には、ステップVB4に進んで、前回(前の
ビブラート付加音)とは異なるビブラート波形を形成
し、その波形を基にして対象の楽音にビブラートを付加
する。一方、特に周辺にビブラートを付加したものがな
ければ、ステップVB5に進んで、読み出した標準値を
基にビブラート波形を形成」楽音に付加する。このよう
にして、ビブラート付加にランダム性をもたせることが
できる。
In step VB3 following step VB2, it is detected whether there is a plurality of vibratos added near the target musical tone to be added. If detected, the flow advances to step VB4 to execute the previous step. A vibrato waveform different from (previously added vibrato sound) is formed, and vibrato is added to the target musical sound based on the waveform. On the other hand, if there is no vibrato added especially in the periphery, the process proceeds to step VB5, and a vibrato waveform is formed based on the read standard value and added to the musical tone. In this way, the vibrato addition can be made random.

【0080】なお、付加するビブラートが多過ぎると判
断されるときは、ビブラートを付加する対象箇所をラン
ダムに選択し、ビブラート付加にランダム性をもたせる
ように構成することもできる。また、ビブラートを付加
した箇所にはディレイをかけるのが好ましい。ステップ
VB4,VB5の処理の後は、ステップT13にリター
ンする。
When it is determined that the vibrato to be added is too much, a target portion to which the vibrato is added may be selected at random, and the vibrato may be added with randomness. In addition, it is preferable to apply a delay to a portion to which vibrato is added. After the processing of steps VB4 and VB5, the process returns to step T13.

【0081】〔種々の実施態様〕最も典型的には、演奏
データ(曲データ)を取得(入力)するのに、システム
の外部記憶装置4に記憶されている楽曲データを読み出
し、これを解析及び加工するという処理を行うが、処理
対象とする楽曲データは、外部機器13からMIDI形
式で送られてくるものであってもよく、この場合、送信
されてくるデータをリアルタイムで処理しても、一旦、
外部記憶装置4(例えば、HDD)に記憶しておいてか
らそれを読み出して処理してもよい。また、システムに
付属している演奏操作子6の操作による発音指示データ
に応じて楽音の特性を変更してもよく、この場合におい
てもリアルタイムで処理してもよいし、一度、外部記憶
装置4に記憶してからそれを読み出して処理してもよ
い。
[Various Embodiments] Most typically, in order to acquire (input) performance data (song data), music data stored in the external storage device 4 of the system is read out, analyzed and analyzed. The music data to be processed may be data transmitted from the external device 13 in the MIDI format. In this case, even if the transmitted data is processed in real time, Once
The information may be stored in the external storage device 4 (for example, an HDD) and then read and processed. In addition, the characteristics of musical tones may be changed in accordance with the tone generation instruction data obtained by operating the performance operator 6 attached to the system. In this case, the tone may be processed in real time. And then read it out for processing.

【0082】[0082]

【発明の効果】以上説明したように、この発明によれ
ば、演奏データを構成する複数の楽音を解析し、テン
ポ、調、音色、楽音の位置、音符相互の関係、楽音の発
音指示状況、曲想、フレーズの流れなどの、所定音色に
対応する楽器の奏法が適用されるべき条件を求め、その
結果に応じて、特定の楽音それぞれに対し、指定された
奏法に対応して発音の特性を変更したり、或いは、予め
記憶しておいた楽音データ又は特性変更ルールに対応す
る特性を付加するようにしており、選択された音色で選
択された音高の楽音がただならすものではなく、人が楽
器を操作することで入ってしまう楽器操作に特有の音質
特性を付与すべき対象を自動的に判定し、これに適性な
特性を付加するようにしている。従って、より自然で感
情や環境や雰囲気をも表現し、楽器奏法に応じて十分に
表情付けされた演奏データを生成することができる。
As described above, according to the present invention, a plurality of musical tones constituting performance data are analyzed, and the tempo, key, tone, position of musical tones, mutual relation of musical notes, tone generation instruction status of musical tones, Determine the conditions for applying the playing style of the musical instrument corresponding to the predetermined tone, such as the musical idea and the flow of the phrase, and then, according to the results, specify the characteristics of the pronunciation for each specific musical tone in accordance with the specified playing style. It changes or adds characteristics corresponding to previously stored musical tone data or characteristic changing rules, so that the tone of the pitch selected by the selected tone is not a sound, but Automatically determines a target to which a sound quality characteristic peculiar to a musical instrument operation that is entered by operating the musical instrument should be given, and adds an appropriate characteristic to the target. Therefore, it is possible to more naturally express emotions, environments, and atmospheres, and to generate performance data sufficiently expressed according to the musical instrument playing style.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、この発明の一実施例による演奏データ
の表情付け処理装置のハードウエア構成を示すブロック
図である。
FIG. 1 is a block diagram showing a hardware configuration of a performance data expression processing apparatus according to an embodiment of the present invention.

【図2】図2は、この発明の一実施例による演奏データ
処理全体を表わすメイン処理のフローチャートである。
FIG. 2 is a flowchart of a main process representing an entire performance data process according to an embodiment of the present invention.

【図3】図3は、この発明の一実施例によるパネル設定
及び加工処理ルーチンを示す図である。
FIG. 3 is a diagram showing a panel setting and processing routine according to an embodiment of the present invention.

【図4】図4は、この発明の一実施例による加工処理を
表わすフローチャートである。
FIG. 4 is a flowchart showing a processing according to an embodiment of the present invention.

【図5】図5は、この発明の一実施例による加工処理中
の特性変更処理を表わすフローチャートの第1部分であ
る。
FIG. 5 is a first part of a flowchart showing a characteristic changing process during the machining process according to the embodiment of the present invention;

【図6】図6は、この発明の一実施例による加工処理中
の特性変更処理を表わすフローチャートの第2部分であ
る。
FIG. 6 is a second part of the flowchart showing the characteristic changing process during the working process according to one embodiment of the present invention.

【図7】図7は、この発明の一実施例による加工処理中
の特性変更処理を表わすフローチャートの第3部分であ
る。
FIG. 7 is a third part of a flowchart showing the characteristic changing process during the working process according to one embodiment of the present invention;

【図8】図8は、この発明の一実施例による特性変更処
理中の模擬ボリューム奏法処理を表わすフローチャート
である。
FIG. 8 is a flowchart illustrating a simulated volume playing method process during a characteristic changing process according to an embodiment of the present invention.

【図9】図9は、この発明の一実施例による特性変更処
理中の模擬ボトルネック奏法処理を表わすフローチャー
トである。
FIG. 9 is a flowchart showing a simulated bottleneck playing method process during a characteristic changing process according to an embodiment of the present invention.

【図10】図10は、この発明の一実施例による特性変
更処理中のフレーズの挿入処理を表わすフローチャート
の第1部分である。
FIG. 10 is a first part of a flowchart showing the phrase insertion processing during the characteristic change processing according to one embodiment of the present invention.

【図11】図11は、この発明の一実施例による特性変
更処理中のフレーズの挿入処理を表わすフローチャート
の第2部分である。
FIG. 11 is a second part of a flowchart showing the phrase insertion processing during the characteristic change processing according to one embodiment of the present invention.

【図12】図12は、この発明の一実施例による特性変
更処理中のアルペジオ特殊処理を表わすフローチャート
である。
FIG. 12 is a flowchart showing arpeggio special processing during characteristic change processing according to an embodiment of the present invention.

【図13】図13は、この発明の一実施例による特性変
更処理中のビブラート付加処理を表わすフローチャート
である。
FIG. 13 is a flowchart illustrating a vibrato adding process during a characteristic changing process according to an embodiment of the present invention.

【図14】図14は、この発明の一実施例による模擬ボ
リューム奏法を説明するための図である。
FIG. 14 is a diagram for explaining a simulated volume playing technique according to an embodiment of the present invention.

【図15】図15は、この発明の一実施例によるフレー
ズの挿入におけるミュート装飾音挿入を説明するための
図である。
FIG. 15 is a diagram for explaining insertion of a mute ornament sound in insertion of a phrase according to one embodiment of the present invention.

【図16】図16は、この発明の一実施例によるフレー
ズの挿入におけるハンマリングオン・プリングオフの適
用を説明するための図である。
FIG. 16 is a diagram for explaining application of hammering-on and pulling-off in phrase insertion according to one embodiment of the present invention.

【図17】図17は、この発明の一実施例によるアルペ
ジオ特殊奏法を説明するための図である。
FIG. 17 is a diagram for explaining an arpeggio special playing method according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 中央処理装置(CPU)、 4 外部記憶装置、 5 演奏操作子装置、 6 パネル操作子装置(操作パネル)、 13 外部の演奏データ生成機器(外部機器)。 1 central processing unit (CPU), 4 external storage device, 5 performance operation device, 6 panel operation device (operation panel), 13 external performance data generation device (external device).

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】演奏データを取得する手段と、 所定音色に対応する楽器の奏法を指定する手段と、 取得された演奏データを構成する複数の楽音の状態を解
析する解析手段と、 解析された結果に基づいて、取得された演奏データにお
ける特定の楽音の特性を、指定された奏法に応じた特性
に変更し、所定音色の演奏データを生成する変更処理手
段とを具備することを特徴とする演奏データの表情付け
処理装置。
A means for acquiring performance data; a means for designating a playing style of a musical instrument corresponding to a predetermined tone color; an analyzing means for analyzing a state of a plurality of musical tones constituting the acquired performance data; And a change processing unit configured to change a characteristic of a specific musical tone in the acquired performance data to a characteristic corresponding to a designated performance style based on the result, and to generate performance data of a predetermined tone color. Expression data processing device for performance data.
【請求項2】演奏データを取得する手段と、 所定音色に対応する楽器の奏法に応じた楽音データ又は
楽音特性変更ルールを記憶する手段と、 所定音色に対応する楽器の奏法を指定する手段と、 取得された演奏データを構成する複数の楽音の状態を解
析する解析手段と、 解析された結果に基づいて、取得された演奏データにお
ける特定部分の楽音の特性を、指定された奏法に応じた
楽音データ又は楽音特性変更ルールに対応する楽音特性
に変更し、所定音色の演奏データを生成する変更処理手
段とを具備することを特徴とする演奏データの表情付け
処理装置。
2. A means for acquiring performance data; a means for storing tone data or a tone characteristic change rule corresponding to a playing style of a musical instrument corresponding to a predetermined tone; and a means for designating a playing style of a musical instrument corresponding to a predetermined tone. An analyzing means for analyzing a state of a plurality of musical tones constituting the acquired performance data; and, based on the analyzed result, a characteristic of a specific portion of the acquired performance data in the musical performance according to a specified playing style. A performance data expression processing apparatus, comprising: a change processing means for changing to tone data or a tone characteristic corresponding to a tone characteristic change rule to generate performance data of a predetermined tone color.
【請求項3】解析手段は、取得された演奏データの所定
音色のチャンネル及び他の音色のチャンネルにおける楽
音の発音状態を解析することを特徴とする請求項1又は
2に記載の演奏データの表情付け処理装置。
3. The expression of the performance data according to claim 1, wherein the analyzing means analyzes the tone generation state of the musical tones in the predetermined tone color channel and the other tone color channels of the acquired performance data. Attachment processing equipment.
【請求項4】変更処理手段による楽音の特性の変更は、
ランダム性乃至所定の確率をもって実行されることを特
徴とする請求項1〜3の何れか1項に記載の演奏データ
の表情付け処理装置。
4. The method according to claim 1, wherein the change of the characteristic of the tone by the change processing means is performed by
4. The performance data expression processing apparatus according to claim 1, wherein the apparatus is executed with randomness or a predetermined probability.
【請求項5】解析手段は、所定区間の所定位置にある楽
音を検出し、 変更処理手段は、検出されたる楽音の特性を、所定音色
に対応する楽器の奏法に応じた特性に変更し、所定音色
の演奏データを生成することを特徴とする請求項1〜4
の何れか1項に記載の演奏データの表情付け処理装置。
5. An analysis means for detecting a tone at a predetermined position in a predetermined section, and a change processing means for changing a characteristic of the detected tone to a characteristic corresponding to a playing style of a musical instrument corresponding to the predetermined tone. 5. The performance data of a predetermined tone color is generated.
An expression processing apparatus for performance data according to any one of the above.
【請求項6】解析手段は、所定区間におけるテンポ及び
所定位置を解析し、 変更処理手段は、テンポが低く、所定区間の所定位置に
ある楽音の特性を、所定音色に対応する楽器の奏法に応
じた楽音特性に変更し、所定音色の演奏データを生成す
ることを特徴とする請求項1〜4の何れか1項に記載の
演奏データの表情付け処理装置。
6. An analysis means analyzes a tempo and a predetermined position in a predetermined section, and a change processing means converts a characteristic of a tone having a low tempo at a predetermined position in the predetermined section into a playing style of a musical instrument corresponding to a predetermined tone color. 5. The performance data expression processing apparatus according to claim 1, wherein the performance data is changed to a corresponding tone characteristic to generate performance data of a predetermined tone color.
【請求項7】解析手段は、取得された演奏データの楽音
に対する奏法指定情報を解析し、 変更処理手段は、所定の奏法指定情報をもつ楽音の特性
を、所定音色に対応する楽器の奏法に応じた楽音特性に
変更し、所定音色の演奏データを生成することを特徴と
する請求項1〜4の何れか1項に記載の演奏データの表
情付け処理装置。
7. An analysis means analyzes performance information designating information for a tone in the acquired performance data, and a change processing means converts a characteristic of the tone having the predetermined performance style specifying information into a performance of a musical instrument corresponding to a predetermined tone color. 5. The performance data expression processing apparatus according to claim 1, wherein the performance data is changed to a corresponding tone characteristic to generate performance data of a predetermined tone color.
【請求項8】所定音色はギター音色であることを特徴と
する請求項1〜7の何れか1項に記載の演奏データの表
情付け処理装置。
8. The apparatus according to claim 1, wherein the predetermined tone is a guitar tone.
【請求項9】演奏データを取得するステップと、 所定音色に対応する楽器の奏法を指定するステップと、 取得された演奏データを構成する複数の楽音の状態を解
析するステップと、 解析された結果に基づいて、取得された演奏データにお
ける特定の楽音の特性を、指定された奏法に応じた特性
に変更し、所定音色の演奏データを生成するステップか
ら成るプログラムを記録していることを特徴とする演奏
データの表情付け処理のための記録媒体。
9. A step of acquiring performance data; a step of designating a playing style of a musical instrument corresponding to a predetermined tone color; a step of analyzing a state of a plurality of musical tones constituting the acquired performance data; A program for changing a characteristic of a specific musical tone in the acquired performance data to a characteristic corresponding to a specified playing style, and generating performance data of a predetermined tone. Recording media for expression processing of performance data.
【請求項10】演奏データを取得するステップと、 所定音色に対応する楽器奏法に応じた楽音データ又は楽
音特性変更ルールを記憶する手段と、 所定音色に対応する楽器の奏法を指定するステップと、 取得された演奏データを構成する複数の楽音の状態を解
析するステップと、 所定音色に対応する楽器の奏法に応じた楽音データ又は
楽音特性変更ルールを記憶する手段から、指定された奏
法及び解析された結果に基づいて、所定の楽音データ又
は楽音特性変更ルールを取り出すステップと、 解析された結果に基づいて、取得された演奏データにお
ける特定部分の楽音の特性を、取り出された楽音データ
又は楽音特性変更ルールに対応する楽音特性に変更し、
所定音色の演奏データを生成するステップとから成るプ
ログラムを記録していることを特徴とする演奏データの
表情付け処理のための記録媒体。
10. A step of obtaining performance data; a step of storing musical tone data or a tone characteristic changing rule corresponding to a musical instrument playing style corresponding to a predetermined tone color; and a step of designating a musical instrument playing style corresponding to the predetermined tone color. Analyzing the state of a plurality of musical tones constituting the acquired performance data; and storing the musical performance data or the musical tone characteristic change rule according to the musical performance corresponding to the predetermined tone color. Extracting a predetermined tone data or tone characteristic change rule based on the obtained result; and analyzing the extracted tone data or tone characteristics based on the analyzed result. Change to the tone characteristics corresponding to the change rule,
A program for generating performance data of a predetermined timbre.
JP2000166881A 2000-06-05 2000-06-05 Performance data expression processing apparatus and recording medium therefor Expired - Fee Related JP4007418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000166881A JP4007418B2 (en) 2000-06-05 2000-06-05 Performance data expression processing apparatus and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000166881A JP4007418B2 (en) 2000-06-05 2000-06-05 Performance data expression processing apparatus and recording medium therefor

Publications (2)

Publication Number Publication Date
JP2001350471A true JP2001350471A (en) 2001-12-21
JP4007418B2 JP4007418B2 (en) 2007-11-14

Family

ID=18670131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000166881A Expired - Fee Related JP4007418B2 (en) 2000-06-05 2000-06-05 Performance data expression processing apparatus and recording medium therefor

Country Status (1)

Country Link
JP (1) JP4007418B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005221633A (en) * 2004-02-04 2005-08-18 Yamaha Corp Expression adding processor and expression adding computer program
JP2006098517A (en) * 2004-09-28 2006-04-13 Yamaha Corp Operation expression device
JP2007249033A (en) * 2006-03-17 2007-09-27 Yamaha Corp Electronic musical instrument and program
JP2007256364A (en) * 2006-03-20 2007-10-04 Yamaha Corp Performance data editing device and program
JP2009058971A (en) * 2008-11-10 2009-03-19 Yamaha Corp Performance data editing program
JP7501560B2 (en) 2022-03-23 2024-06-18 カシオ計算機株式会社 Information processing device, electronic musical instrument, method and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261598A (en) * 1990-12-31 1992-09-17 Casio Comput Co Ltd Musical score interpreting device
JPH10214083A (en) * 1996-11-27 1998-08-11 Yamaha Corp Musical sound generating method and storage medium
JP2000003175A (en) * 1999-03-19 2000-01-07 Yamaha Corp Musical tone forming method, musical tone data forming method, musical tone waveform data forming method, musical tone data forming method and memory medium
JP2000200086A (en) * 1998-11-04 2000-07-18 Atr Ningen Joho Tsushin Kenkyusho:Kk Device for automatically putting expression into music
JP2000221973A (en) * 1999-01-28 2000-08-11 Yamaha Corp Input system corresponding to performance style
JP2001159892A (en) * 1999-08-09 2001-06-12 Yamaha Corp Performance data preparing device and recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261598A (en) * 1990-12-31 1992-09-17 Casio Comput Co Ltd Musical score interpreting device
JPH10214083A (en) * 1996-11-27 1998-08-11 Yamaha Corp Musical sound generating method and storage medium
JP2000200086A (en) * 1998-11-04 2000-07-18 Atr Ningen Joho Tsushin Kenkyusho:Kk Device for automatically putting expression into music
JP2000221973A (en) * 1999-01-28 2000-08-11 Yamaha Corp Input system corresponding to performance style
JP2000003175A (en) * 1999-03-19 2000-01-07 Yamaha Corp Musical tone forming method, musical tone data forming method, musical tone waveform data forming method, musical tone data forming method and memory medium
JP2001159892A (en) * 1999-08-09 2001-06-12 Yamaha Corp Performance data preparing device and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005221633A (en) * 2004-02-04 2005-08-18 Yamaha Corp Expression adding processor and expression adding computer program
JP2006098517A (en) * 2004-09-28 2006-04-13 Yamaha Corp Operation expression device
JP4665473B2 (en) * 2004-09-28 2011-04-06 ヤマハ株式会社 Motion expression device
JP2007249033A (en) * 2006-03-17 2007-09-27 Yamaha Corp Electronic musical instrument and program
JP2007256364A (en) * 2006-03-20 2007-10-04 Yamaha Corp Performance data editing device and program
JP4595851B2 (en) * 2006-03-20 2010-12-08 ヤマハ株式会社 Performance data editing apparatus and program
JP2009058971A (en) * 2008-11-10 2009-03-19 Yamaha Corp Performance data editing program
JP4613996B2 (en) * 2008-11-10 2011-01-19 ヤマハ株式会社 Performance data editing program
JP7501560B2 (en) 2022-03-23 2024-06-18 カシオ計算機株式会社 Information processing device, electronic musical instrument, method and program

Also Published As

Publication number Publication date
JP4007418B2 (en) 2007-11-14

Similar Documents

Publication Publication Date Title
US6703549B1 (en) Performance data generating apparatus and method and storage medium
JP2001175263A (en) Device and method for generating automatic accompaniment pattern
JP2003241757A (en) Device and method for waveform generation
JP3915807B2 (en) Automatic performance determination device and program
JPH08339193A (en) Karaoke machine
JP4007418B2 (en) Performance data expression processing apparatus and recording medium therefor
JP4407473B2 (en) Performance method determining device and program
JP2004078095A (en) Playing style determining device and program
JP3705144B2 (en) Performance data change processing device
JP3812510B2 (en) Performance data processing method and tone signal synthesis method
Juusela The Berklee Contemporary Dictionary of Music
JP4802947B2 (en) Performance method determining device and program
JP7263998B2 (en) Electronic musical instrument, control method and program
JP3627675B2 (en) Performance data editing apparatus and method, and program
JP3812509B2 (en) Performance data processing method and tone signal synthesis method
Ciesla MIDI and Composing in the Digital Age
JP2005173631A (en) Performance data generating apparatus
JP3760909B2 (en) Musical sound generating apparatus and method
Aikin Software synthesizers: the definitive guide to virtual musical instruments
JP3832421B2 (en) Musical sound generating apparatus and method
JP3832422B2 (en) Musical sound generating apparatus and method
JP3832420B2 (en) Musical sound generating apparatus and method
JP3832419B2 (en) Musical sound generating apparatus and method
JPH10171475A (en) Karaoke (accompaniment to recorded music) device
JP4218566B2 (en) Musical sound control device and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070821

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110907

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130907

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees