JP2001272979A - Method and device for creating performance data and recording medium - Google Patents

Method and device for creating performance data and recording medium

Info

Publication number
JP2001272979A
JP2001272979A JP2000085192A JP2000085192A JP2001272979A JP 2001272979 A JP2001272979 A JP 2001272979A JP 2000085192 A JP2000085192 A JP 2000085192A JP 2000085192 A JP2000085192 A JP 2000085192A JP 2001272979 A JP2001272979 A JP 2001272979A
Authority
JP
Japan
Prior art keywords
performance
section
data
performance data
sections
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000085192A
Other languages
Japanese (ja)
Other versions
JP3632551B2 (en
Inventor
Akira Yamauchi
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000085192A priority Critical patent/JP3632551B2/en
Publication of JP2001272979A publication Critical patent/JP2001272979A/en
Application granted granted Critical
Publication of JP3632551B2 publication Critical patent/JP3632551B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to easily create expressive performance data concerning a performance section where performance method such as trill is specified. SOLUTION: When a trill performance section is given with a trill mark Mt affixed to a note Nt as shown in (A), expressive information (performance data based on live trill performance) is prepared with grace-note section (a) and rear-grace-note section c added thereto before and after a main trill section b as shown in (B). As shown in (C), the trill performance section (A) is divided into partial performance sections Sa-Sc corresponding to the sections a-c, and also the performance data for the sections Sa-Sc are created based on each performance data for a-c, respectively. Although each sound length is equally expressed in each section Sa-Sc due to a score display in Fig. (C), the sound lengths are actually not equal as shown in each section of a-c. As expressive information, plural trill performance differing in speed are prepared, and any of them may be used at choice.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、自動演奏等に用
いるに好適な演奏データを作成する方法及び装置に関
し、特にトリル等の奏法が指示された演奏区間の演奏デ
ータを複数の演奏区間分の表情付与情報または所望の演
奏速さに対応した表情付与情報に基づいて作成すること
により表情性豊かな演奏データを簡単に作成可能とした
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for creating performance data suitable for use in automatic performances and the like, and more particularly, to the performance data of a performance section in which a playing technique such as a trill is specified, for a plurality of performance sections. By creating based on the facial expression imparting information or the facial expression imparting information corresponding to a desired performance speed, it is possible to easily create performance data with rich expression.

【0002】[0002]

【従来の技術】従来、所望の楽曲に関するゆらぎ性の演
奏データに基づいて楽譜通りの演奏データを修正してゆ
らぎの程度を変更した自動演奏用の演奏データを作成す
る方法が知られている(例えば、特開平10−2085
6号公報参照)。
2. Description of the Related Art Conventionally, there has been known a method of creating performance data for an automatic performance in which performance data according to a musical score is modified based on performance data of fluctuations related to a desired music piece and the degree of fluctuation is changed (see, for example, Japanese Patent Application Laid-Open No. H10-157,027). For example, JP-A-10-2085
No. 6).

【0003】[0003]

【発明が解決しようとする課題】上記した従来技術によ
ると、ゆらぎ性の演奏データを作成可能であるものの、
例えばトリル等の奏法が指示された演奏区間について前
打音区間や後打音区間を付加したり、演奏テンポとは別
にトリル等の奏法に係る演奏の速さを任意に再現したり
することはできなかった。
According to the above-mentioned prior art, although it is possible to create fluctuation performance data,
For example, it is not possible to add a pre-hit sound section or a post-hit sound section to a performance section in which a playing technique such as a trill is specified, or arbitrarily reproduce the performance speed of a playing technique such as a trill separately from the performance tempo. could not.

【0004】この発明の目的は、前打音区間や後打音区
間の付加を可能としたり、奏法に係る演奏の速さを任意
に再現したりすることができる新規な演奏データ作成方
法及び装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a new performance data creating method and apparatus capable of adding a pre-hitting section and a post-hitting section, and arbitrarily reproducing the performance speed of a playing style. Is to provide.

【0005】[0005]

【課題を解決するための手段】この発明に係る第1の演
奏データ作成方法は、所定の奏法が指示された演奏区間
の演奏に表情を付与するための表情付与情報を連続する
複数の演奏区間分用意するステップと、前記奏法が指示
された演奏区間を前記複数の演奏区間にそれぞれ対応し
て複数の部分演奏区間に分割するステップと、前記複数
の部分演奏区間のうちの各部分演奏区間毎に前記複数の
演奏区間のうちの対応する演奏区間の表情付与情報に基
づいて演奏データを作成するステップと、前記複数の部
分演奏区間の演奏データを前記複数の演奏区間に対応す
る順序で接続して前記奏法が指示された演奏区間の演奏
データを作成するステップとを含むものである。
According to a first performance data creating method according to the present invention, a plurality of performance sections in which expression providing information for adding a facial expression to a performance of a performance section in which a predetermined playing style is instructed are continued. Preparing a performance section, dividing the performance section in which the playing style is instructed into a plurality of partial performance sections corresponding to the plurality of performance sections, respectively, for each of the plurality of partial performance sections. Generating performance data based on the expression providing information of the corresponding performance section of the plurality of performance sections, and connecting the performance data of the plurality of partial performance sections in an order corresponding to the plurality of performance sections. Creating performance data of a performance section in which the playing style is instructed.

【0006】第1の演奏データ作成方法によれば、トリ
ル等の奏法が指示された演奏区間の演奏に表情を付与す
るための表情付与情報が連続する複数の演奏区間分用意
される。奏法が指示された演奏区間は、連続する複数の
演奏区間にそれぞれ対応して複数の部分演奏区間に分割
され、各部分演奏区間毎に対応する演奏区間の表情付与
情報に基づいて演奏データが作成される。複数の部分演
奏区間の演奏データを連続する複数の演奏区間に対応す
る順序で接続することにより奏法が指示された演奏区間
の演奏データが作成される。例えば、連続する複数の演
奏区間を前打音区間、トリル本体区間及び後打音区間と
すれば、トリル演奏区間の演奏データとして、前打音区
間、トリル本体区間及び後打音区間からなる表情性豊か
な演奏データを簡単に得ることができる。
According to the first performance data creation method, a plurality of continuous expression sections are provided with expression imparting information for adding an expression to a performance of a performance section in which a playing technique such as a trill is instructed. The performance section in which the playing style is instructed is divided into a plurality of partial performance sections corresponding to a plurality of continuous performance sections, respectively, and performance data is created based on the expression providing information of the corresponding performance section for each partial performance section. Is done. By connecting the performance data of the plurality of partial performance sections in an order corresponding to the plurality of continuous performance sections, the performance data of the performance section in which the playing style is instructed is created. For example, assuming that a plurality of continuous performance sections are a pre-hitting section, a trill main section, and a rear hitting section, an expression including a front hit section, a trill main section, and a rear hit section as performance data of the trill performance section. Rich performance data can be easily obtained.

【0007】この発明に係る第2の演奏データ作成方法
は、所定の奏法が指示された演奏区間の演奏に表情を付
与するための表情付与情報を複数用意するステップであ
って、前記複数の表情付与情報は前記奏法に係る演奏の
異なる速さにそれぞれ対応しているものと、前記奏法に
係る演奏の異なる速さのうち所望の速さを指示するステ
ップと、このステップで指示された速さに対応する表情
付与情報を前記複数の表情付与情報のうちから選択する
ステップと、このステップで選択された表情付与情報に
基づいて、前記奏法が指示された演奏区間の演奏データ
を作成するステップとを含むものである。
[0007] A second performance data creating method according to the present invention is a step of preparing a plurality of pieces of facial expression giving information for giving a facial expression to a performance in a performance section in which a predetermined playing style is instructed. The added information corresponds to each of the different speeds of the performance according to the rendition style, the step of designating a desired speed among the different speeds of the performance according to the rendition style, and the speed designated in this step. Selecting the expression providing information corresponding to the expression from the plurality of expression providing information; and, based on the expression providing information selected in this step, creating performance data of the performance section in which the playing style is instructed. Is included.

【0008】第2の演奏データ作成方法によれば、表情
付与情報としては、奏法に係る演奏の異なる速さにそれ
ぞれ対応した複数の表情付与情報が用意される。奏法に
係る演奏の異なる速さのうち所望の速さを指示すると、
指示された速さに対応する表情付与情報が複数の表情付
与情報のうちから選択され、選択に係る表情付与情報に
基づいて、奏法が指示された演奏区間の演奏データが作
成される。例えば、トリル奏法に係る演奏の異なる速さ
を高速、中速、低速の3段階とし、そのうちの所望の速
さを指示すれば、トリル演奏区間の演奏データとして、
所望のトリル演奏速さを反映した表情豊かな演奏データ
を簡単に得ることができる。
According to the second performance data creating method, a plurality of pieces of expression providing information respectively corresponding to different speeds of the performance related to the playing style are prepared as the expression providing information. When a desired speed among the different speeds of the performance related to the playing style is indicated,
Expression providing information corresponding to the instructed speed is selected from the plurality of expression providing information, and the performance data of the performance section in which the playing style is instructed is created based on the selected expression providing information. For example, the different speeds of the performance related to the trill playing method are set to three stages of high speed, medium speed, and low speed, and if the desired speed is indicated, the performance data of the trill performance section becomes
Expressive performance data reflecting a desired trill performance speed can be easily obtained.

【0009】[0009]

【発明の実施の形態】以下では、トリル奏法による演奏
を例にとってこの発明を詳細に説明する。図1(A)
は、音高Cの2分音符Nにトリル記号Mを付した楽譜
を示している。図1(A)の楽譜は、図1(B)に示す
ように音高C4、D4、C4…を有する32分音符N1、N
、N…を16個並べた楽譜と等価である。図1
(C)は、演奏者が図1(A)又は(B)の楽譜に従っ
て実際に演奏を行なったときの演奏内容をバーグラフ形
式で示したもので、横軸が拍頭タイミングB、B
…に従って時間を示し、縦軸がC、D等の音高
を示す。黒バーT、T、T…は、音符N
、N…にそれぞれ対応した楽音を表わし、各黒バ
ーの縦方向の位置が音高を表わし、各黒バーの横方向の
長さが音長を表わす。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below in detail by taking a performance by a trill playing technique as an example. FIG. 1 (A)
Shows a musical score given the tolyl symbol M to 2 minutes note N pitch C 4. As shown in FIG. 1B, the musical score of FIG. 1A has 32nd notes N 1 , N 4 having pitches C 4 , D 4 , C 4 .
2 , N 3 ... Are equivalent to a musical score in which 16 pieces are arranged. FIG.
(C) shows, in a bar graph format, the performance contents when the player actually performed according to the score shown in FIG. 1 (A) or (B), and the horizontal axis represents the beat timings B 1 , B 2 ,
The time is shown according to B 3 ..., And the vertical axis shows pitches such as C 4 and D 4 . Black bars T 1, T 2, T 3 ... are notes N 1,
Represent musical tones corresponding to N 2 , N 3, ..., The vertical position of each black bar represents the pitch, and the horizontal length of each black bar represents the tone length.

【0010】図1(C)によれば、実際の演奏(生演
奏)では、図1(B)の楽譜通りに等しい音符長で演奏
されるとは限らず、発音開始タイミングや音長にばらつ
きがあることがわかる。また図1(C)には示されてい
ないが、演奏音の音量にもばらつきがある。このよう
に、生演奏では、演奏者が意識した又しないテンポのゆ
らぎ、音量のゆらぎ等の様々な不均一性や不安定性が生
々しさや自然らしさに寄与している。
According to FIG. 1C, in an actual performance (live performance), the musical note is not always played at the same note length as the musical score shown in FIG. It turns out that there is. Although not shown in FIG. 1C, the volume of the performance sound also varies. As described above, in the live performance, various non-uniformities and instabilities such as fluctuations in tempo and fluctuations in volume that the player does not notice contribute to the freshness and naturalness.

【0011】楽曲の自動演奏において、自然な演奏、美
しい演奏、生々しい演奏を実現するために、生演奏に基
づいて自動演奏用のゆらぎ性の演奏データを作成するこ
とが考えられる。しかし、楽曲毎あるいは演奏区間毎に
生演奏に基づいてゆらぎ性の演奏データを作成するのは
煩雑さを免れない。そこで、この発明では、図1(C)
に示したような生演奏に基づいてゆらぎ性の基準演奏デ
ータを作成すると共にこの基準演奏データを図1(A)
に示したように奏法が指示された音符又は図1(B)に
示したように奏法を表わす音符群に従って音高、演奏タ
イミング、区間長等を修正することにより種々の演奏区
間のゆらぎ性の演奏データを簡単に作成可能としたもの
である。
In the automatic performance of music, it is conceivable to create fluctuation performance data for automatic performance based on the live performance in order to realize natural performance, beautiful performance, and vivid performance. However, it is inevitably complicated to create fluctuation performance data based on live performance for each music piece or each performance section. Therefore, in the present invention, FIG.
The reference performance data of the fluctuation performance is created based on the live performance as shown in FIG.
1B, the pitch, performance timing, section length, etc. are modified in accordance with the notes for which the rendition styles are indicated or the note groups representing the rendition styles as shown in FIG. Performance data can be easily created.

【0012】図2は、この発明の一実施形態に係る表情
付与装置を備えた編集機能付きの自動演奏装置の回路構
成を示すもので、この自動演奏装置は、パーソナルコン
ピュータPCに音楽情報編集・再生用のソフトウェア
(プログラム)をインストールすることにより構成され
るものである。
FIG. 2 shows a circuit configuration of an automatic performance device having an editing function provided with an expression providing device according to an embodiment of the present invention. It is configured by installing reproduction software (program).

【0013】バス10には、CPU(中央処理装置)1
2、ROM(リード・オンリィ・メモリ)14、RAM
(ランダム・アクセス・メモリ)16、検出回路18、
表示回路20、外部記憶装置22、タイマ24、MID
I(Musical Instrument Digital Interface)イン
ターフェイス26、通信インターフェース28等が接続
されている。
A bus (CPU) 1 (central processing unit)
2, ROM (Read Only Memory) 14, RAM
(Random access memory) 16, detection circuit 18,
Display circuit 20, external storage device 22, timer 24, MID
An I (Musical Instrument Digital Interface) interface 26, a communication interface 28, and the like are connected.

【0014】CPU12は、ROM14にストアされた
プログラムに従って音楽情報の編集(表情付与を含む)
や再生(自動演奏)のための各種処理を実行するもの
で、これらの処理に付いては図5〜18を参照して後述
する。
The CPU 12 edits music information (including expression) in accordance with a program stored in the ROM 14.
And various processes for reproduction (automatic performance). These processes will be described later with reference to FIGS.

【0015】ROM14は、プログラムの他に、多数曲
分の楽曲演奏データや複数の基準演奏データ(表情付与
情報)が記憶されているが、これらのデータについては
図3、4を参照して後述する。
The ROM 14 stores music performance data for a large number of music pieces and a plurality of pieces of reference performance data (expression providing information) in addition to the programs. These data will be described later with reference to FIGS. I do.

【0016】RAM16は、CPU12による各種処理
に際して利用される多数の記憶部を含むもので、この発
明の実施に関係する記憶部としては、楽曲演奏データ記
憶部MA、基準演奏データ記憶部RA、ライブラリ記憶
部LM、作成演奏データ記憶部RB等が設けられてい
る。
The RAM 16 includes a large number of storage units used for various processes by the CPU 12. The storage units related to the embodiment of the present invention include a music performance data storage unit MA, a reference performance data storage unit RA, and a library. A storage unit LM, a created performance data storage unit RB, and the like are provided.

【0017】検出回路18は、マウス及びキーボード3
0から操作情報を検出するものである。キーボードは、
文字及び数値を入力可能である。マウスやキーボード
は、楽曲演奏データや基準演奏データの選択操作、奏法
記号の指定操作等に用いられる。
The detection circuit 18 includes the mouse and the keyboard 3
The operation information is detected from 0. The keyboard is
Characters and numerical values can be entered. The mouse and the keyboard are used for selecting music performance data and reference performance data, for designating performance style symbols, and the like.

【0018】表示回路20は、陰極線管又は液晶等から
なるディスプレイ32の表示動作を制御することにより
楽譜表示等の各種の表示を可能にするものである。
The display circuit 20 controls the display operation of a display 32 composed of a cathode ray tube, liquid crystal, or the like, thereby enabling various displays such as a musical score display.

【0019】外部記憶装置22は、HD(ハードディス
ク)、FD(フロッピー(登録商標)ディスク)、CD
(コンパクトディスク)、DVD(ディジタル多目的デ
ィスク)、MO(光磁気ディスク)等のうち1又は複数
種類の記憶媒体を着脱可能なものである。記憶装置22
に所望の記憶媒体を装着した状態では、記憶媒体からR
AM16へデータを転送可能である。また、装着した記
憶媒体がHDやFDのように書込可能なものであれば、
RAM16のデータを記憶媒体に転送可能である。この
実施形態では、ROM14の代りに記憶装置22の記憶
媒体に多数曲分の楽曲演奏データ及び複数の基準演奏デ
ータを記憶させるようにしてもよい。
The external storage device 22 includes HD (hard disk), FD (floppy (registered trademark) disk), and CD.
(Compact disk), DVD (digital versatile disk), MO (magneto-optical disk), etc., one or more types of storage media can be attached and detached. Storage device 22
When the desired storage medium is attached to the
Data can be transferred to AM16. Also, if the attached storage medium is a writable one such as HD or FD,
The data in the RAM 16 can be transferred to a storage medium. In this embodiment, music performance data for a large number of music pieces and a plurality of reference performance data may be stored in the storage medium of the storage device 22 instead of the ROM 14.

【0020】プログラム記憶手段としては、ROM14
の代りに記憶装置22の記憶媒体(前述のHD、CD、
DVD、MO等)を用いることができる。この場合、記
憶媒体に記憶したプログラムは、記憶装置22からRA
M16へ転送する。そしてRAM16に記憶したプログ
ラムに従ってCPU12を動作させる。このようにする
と、プログラムの追加やバージョンアップ等を容易に行
なうことができる、記憶装置22を通信ネットワーク3
8に接続することにより、編集対象とする楽曲演奏デー
タや基準演奏データの取得が可能になると共に、プログ
ラムの更新も容易になる。
The program storage means includes a ROM 14
In place of the storage medium of the storage device 22 (HD, CD,
DVD, MO, etc.). In this case, the program stored in the storage medium is transmitted from the storage device 22 to the RA.
Transfer to M16. Then, the CPU 12 is operated according to the program stored in the RAM 16. In this way, the storage device 22 can easily add or upgrade a program.
The connection to 8 makes it possible to acquire music performance data and reference performance data to be edited, and also facilitates updating of the program.

【0021】タイマ24は、与えられるテンポデータT
Dに対応する周期でテンポクロック信号TCLとしての
クロックパルスを発生するもので、各クロックパルスは
割込命令信号としてCPU12に供給される。テンポク
ロック信号TCLとしてのクロックパルスが発生される
たびに割込処理を実行することにより記憶部MAの楽曲
演奏データに基づいて楽曲の自動演奏を行なうことがで
きる。自動演奏のテンポは、テンポデータTDに応じて
決定される。
The timer 24 receives the tempo data T
A clock pulse as a tempo clock signal TCL is generated at a cycle corresponding to D, and each clock pulse is supplied to the CPU 12 as an interrupt command signal. By executing the interrupt processing each time a clock pulse as the tempo clock signal TCL is generated, the automatic performance of the music can be performed based on the music performance data in the storage unit MA. The tempo of the automatic performance is determined according to the tempo data TD.

【0022】MIDIインターフェース26から音源装
置34には、ノートナンバ(音高情報)、ベロシティ値
(音量情報)、発音命令信号、消音命令信号等が供給さ
れる。音源装置34は、多数(例えば64個)の楽音発
生チャンネルを有するものである。
A note number (pitch information), a velocity value (volume information), a sounding command signal, a mute command signal, and the like are supplied from the MIDI interface 26 to the tone generator 34. The tone generator 34 has a large number (for example, 64) of tone generation channels.

【0023】記憶部MAからのデータ読出しに基づいて
発音要求があると、CPU12は、発音要求に対応する
発音命令信号とノートナンバとベロシティ値とを空き状
態のいずれかの楽音発生チャンネルに割当てる。割当て
に係る楽音発生チャンネルからは、割当てに応じてノー
トナンバに対応した音高を有する楽音信号がベロシティ
値に対応した音量で発生される。また、記憶部MAから
のデータ読出しに基づいて消音要求があると、CPU1
2は、消音要求に係るノートナンバに対応した楽音信号
を発生中である楽音発生チャンネルに消音命令信号を供
給して発生中の楽音信号の減衰を開始させる。音源装置
34から発生される楽音信号は、サウンドシステム36
に供給され、楽音として発音される。
When there is a sound generation request based on the data read from the storage unit MA, the CPU 12 assigns a sound generation command signal, a note number, and a velocity value corresponding to the sound generation request to one of the free tone generation channels. A tone signal having a pitch corresponding to the note number is generated at a volume corresponding to the velocity value from the tone generation channel related to the assignment. When there is a mute request based on the data read from the storage unit MA, the CPU 1
Reference numeral 2 supplies a mute command signal to a tone generation channel which is generating a tone signal corresponding to the note number relating to the mute request, and starts attenuating the tone signal being generated. A tone signal generated from the tone generator 34 is transmitted to a sound system 36.
And is pronounced as a musical tone.

【0024】通信インターフェース28は、通信ネット
ワーク38(例えばLAN(ローカル・エリア・ネット
ワーク)、インターネット、電話回線等)を介してサー
バコンピュータ(図示せず)と情報通信を行なうために
設けられたものである。この発明の実施に必要なプログ
ラムや各種データは、サーバコンピュータから通信ネッ
トワーク38及び通信インターフェース28を介してR
AM16又は外部記憶装置22へダウンロード要求に応
じて取込むようにしてもよい。
The communication interface 28 is provided for performing information communication with a server computer (not shown) via a communication network 38 (for example, a LAN (local area network), the Internet, a telephone line, etc.). is there. Programs and various data necessary for implementing the present invention are transmitted from a server computer through a communication network 38 and a communication interface 28.
It may be loaded into the AM 16 or the external storage device 22 in response to a download request.

【0025】図3は、所定の楽曲に関する楽曲演奏デー
タのフォーマットを示すものである。設定情報SAとし
ては、曲名を表わす曲名データSA1、曲の調(例えば
ハ調長)を表わす調データSA2、曲のテンポを毎分当
りの4分音符数(例えば120)で表わすテンポデータ
SA3、演奏音色(例えばピアノ音色)をあらわす音色
データSA4、トリル演奏区間毎にトリル関連パラメー
タを表わすトリルデータSA5等が記憶される。
FIG. 3 shows the format of music performance data relating to a predetermined music. The setting information SA includes song name data SA1 representing the song title, key data SA2 representing the key of the song (eg, C key length), tempo data SA3 representing the tempo of the song in quarter notes per minute (eg, 120), Tone data SA4 representing a performance tone (for example, a piano tone), and trill data SA5 representing a trill-related parameter for each trill performance section are stored.

【0026】一例として、図5(A)に示すようなトリ
ル演奏区間が楽曲中に存在した場合、トリルデータSA
5としては、全音符Ntに付されたトリル記号Mtを表
わすトリル記号データTR、音符Ntの音高C4を表わ
す音高データTP、音符Ntの長さをテンポクロック信
号TCLのクロックパルス数(カウント値)で表わす音
長データTL、トリル演奏の速さ(例えば高速、中速、
低速のいずれか)を表わす速さデータTS等が記憶され
る。自動演奏の際には、テンポデータSA3がテンポデ
ータTDとしてタイマ24に供給されると共に、音色デ
ータSA4に応じて音源装置34にて自動演奏音の音色
が設定される。
As an example, when a trill performance section as shown in FIG.
The 5, tolyl symbolic data TR representing the tolyl symbol Mt attached to whole note Nt, note pitch C 4 to represent pitch data TP of Nt, the length of the tempo clock signal TCL number of clock pulses of notes Nt ( Length data TL expressed by the count value), and the speed of the trill performance (for example, high speed, medium speed,
Speed data TS indicating any of the low speeds is stored. At the time of the automatic performance, the tempo data SA3 is supplied to the timer 24 as the tempo data TD, and the tone of the automatic performance sound is set by the tone generator 34 according to the tone color data SA4.

【0027】設定情報SAの後には、楽曲の演奏進行に
従ってオンイベントデータ、オフイベントデータ等の演
奏データが記憶される。一例として、図5(A)のトリ
ル演奏区間については、トリル記号Mt付きの音符Nt
を示す楽譜を図1(B)で述べたと同様にして多数の3
2分音符を示す楽譜に変換し、変換後の楽譜に従って演
奏データが記憶される。すなわち、最初の音符に対応す
る楽音TN1については、タイミングデータTM11
ノートオンイベントデータNE11及びベロシティデー
タVL11を含むオンイベントデータと、タイミングデ
ータTM12及びノートオフイベントデータNE12
含むオフイベントデータとが記憶される。2番目以降の
各音符に対応する各楽音についてもTNと同様にして
オンイベントデータ及びオフイベントデータが記憶され
る。トリル演奏区間における最後のイベントデータとし
ては、最後の音符に対応した楽音TNMに関するタイミ
ングデータTMNM及びノートオフイベントデータNE
NMを含むオフイベントデータが記憶され、このオフイ
ベントデータの次には図5(A)に示す音符NNに対応
した楽音TNNに関するタイミングデータTMNN、ノ
ートオンイベントデータNENN及びベロシティデータ
VLNNを含むオンイベントデータが記憶される。
After the setting information SA, performance data such as on-event data and off-event data is stored according to the performance of the music. As an example, a note Nt with a trill symbol Mt is included in the trill performance section shown in FIG.
In the same manner as described with reference to FIG.
The musical score is converted into a musical score indicating a half note, and the performance data is stored according to the musical score after the conversion. That is, for the tone TN 1 corresponding to the first note, the timing data TM 11 ,
On-event data including note-on event data NE 11 and velocity data VL 11 and off-event data including timing data TM 12 and note-off event data NE 12 are stored. On event data and off event data are stored in the same manner as in TN 1 for each tone corresponding to each note after the second. The last event data in the trill performance section includes the timing data TM NM and the note-off event data NE relating to the musical tone T NM corresponding to the last note.
The off-event data including NM is stored. Following this off-event data, timing data TM NN , note-on event data NE NN and velocity data VL NN relating to the musical tone T NN corresponding to the note NN shown in FIG. Is stored.

【0028】TM11、TMNN等の各タイミングデー
タは、対応する楽音の発音タイミングを表わす。NE
11、NENN等の各ノートオンイベントデータは、対
応する楽音の音高をノートナンバで表わす。VL11
VLNN等のベロシティデータは、対応する楽音の音量
をベロシティ値(例えば0〜127のいずれか)で表わ
す。TM12、TMNM等の各タイミングデータは、対
応する楽音の消音タイミングを表わす。NE12、NE
NM等の各ノートオフイベントデータは、対応する楽音
の音高をノートナンバで表わす。TM11、TM12
の各タイミングデータは、前のイベント(前のイベント
がなければ拍頭)からの時間をテンポクロック信号TC
Lのクロックパルス数(カウント値)で表わす。
Each timing data such as TM 11 , TM NN and the like represents the sound generation timing of the corresponding musical tone. NE
11 , NENN, etc., each note-on event data indicates the pitch of the corresponding musical tone by a note number. VL 11 ,
Velocity data such as VL NN represents the volume of the corresponding musical tone with velocity values (such as any of 0 to 127). Each timing data such as TM 12 and TM NM represents a silence timing of a corresponding musical tone. NE 12 , NE
Each note-off event data such as NM indicates the pitch of the corresponding musical tone by note number. Each of the timing data such as TM 11 and TM 12 indicates the time from the previous event (the beat if there is no previous event) as the tempo clock signal TC.
It is represented by the number of L clock pulses (count value).

【0029】図3に関して上記したトリル演奏区間の演
奏データは、楽譜通りのものであるため、このような演
奏データに基づいて楽曲の自動演奏を行なうと、機械的
で無表情な演奏になってしまう。この発明に係る表情付
与処理では、楽音TN1〜T NMを含むトリル演奏区間
の演奏データを新たに作成したゆらぎ性の演奏データに
従って書換えることにより表情豊かな自動演奏を可能と
している。
The performance of the trill performance section described above with reference to FIG.
Since the performance data is as per the score,
Automatic performance of music based on performance data
The result is an expressionless expression. With expression according to the present invention
In the processing, the musical tone TN1~ T NMTrill performance section including
Performance data to newly created performance data
Therefore, expressive automatic performance is possible by rewriting.
are doing.

【0030】図4は、所定のトリル演奏区間に対応する
基準演奏データのフォーマットを示すものである。設定
情報SBとしては、識別データSB1、調データSB
2、テンポデータSB3、区間データSB4、音高デー
タSB5、トリル速さデータSB6等が記憶される。識
別データSB1は、この基準演奏データがトリル演奏に
関するものであることを表わす。調データSB2は、一
例としてハ長調を表わす。テンポデータSB3は、トリ
ル演奏区間のテンポを毎分当りの4分音符数で表わす。
FIG. 4 shows a format of reference performance data corresponding to a predetermined trill performance section. The setting information SB includes identification data SB1, key data SB
2, tempo data SB3, section data SB4, pitch data SB5, toll speed data SB6 and the like are stored. The identification data SB1 indicates that the reference performance data relates to a trill performance. The key data SB2 represents the C major as an example. The tempo data SB3 indicates the tempo of the trill performance section in quarter notes per minute.

【0031】区間データSB4は、トリル演奏区間の区
間構成及び区間長を表わす。トリル演奏区間は、図1
(C)に示したようにトリル本体区間のみからなること
もあれば、図5(B)に示すように前打音区間a、トリ
ル本体区間b、後打音区間c等の複数区間からなること
もある。図5(B)は、図1(C)と同様にして所定の
トリル演奏区間における生演奏状況を示すものである。
図4の基準演奏データを図5(B)の生演奏に基づいて
作成する場合、区間データSB4は、前打音区間a、ト
リル本体区間b及び後打音区間cを表わすと共に各区間
毎に区間長をテンポクロック信号TCLのクロックパル
ス数(カウント値)で表わす。
The section data SB4 indicates a section configuration and a section length of the trill performance section. Figure 1 shows the trill performance section.
As shown in FIG. 5 (C), it may be composed of only a trill body section, or as shown in FIG. Sometimes. FIG. 5B shows a live performance situation in a predetermined trill performance section in the same manner as FIG. 1C.
When the reference performance data of FIG. 4 is created based on the live performance of FIG. 5 (B), the section data SB4 indicates the preceding beat section a, the trill body section b, and the trailing beat section c, and each section has The section length is represented by the number of clock pulses (count value) of the tempo clock signal TCL.

【0032】音高データSB5は、図5(B)に示すよ
うに中心音CT、上音UT及び下音LTに関してそれぞ
れ音高を表わす。図5(B)の例では、ハ長調の音階に
おいて、中心音CTの音高がC3とされており、上音U
Tは、音階上で中心音CTより1つ上の音Dとされ、
下音LTは、音階上で中心音CTより1つ下の音B
される。このように、中心音CTの音高が判明すれば、
上音UT及び下音LTの音高は自動的に決定できるの
で、音高データB5としては、中心音CTの音高のみを
表わすものを用いてもよい。
As shown in FIG. 5B, the pitch data SB5 represents the pitch of each of the central tone CT, the upper tone UT, and the lower tone LT. In the example of FIG. 5B, the pitch of the central tone CT is C 3 in the scale of C major, and the upper tone U
T is a sound D 3 on one of the center sound CT on scale,
Shitaon LT is a sound B 2 below one of the center sound CT on scale. Thus, if the pitch of the central sound CT is determined,
Since the pitches of the upper tone UT and the lower tone LT can be automatically determined, the pitch data B5 that represents only the pitch of the central tone CT may be used.

【0033】トリル速さデータSB6は、トリル演奏区
間におけるトリル演奏の速さ(例えば高速、中速、低速
のいずれか)を表わす。このように基準データにトリル
速さデータを含ませておくのは、楽曲の演奏テンポとは
別にトリル演奏の速さを再現するためである。すなわ
ち、実際のトリル演奏(生演奏)では、トリル演奏の速
さは、曲の演奏テンポにあまり影響されず、同じ曲を異
なるテンポで演奏しても、トリル演奏の速さがある程度
の範囲内であまり変化しないことがわかった。そこで、
この実施形態では、トリル演奏区間毎に高速、中速、低
速の3通りのトリル演奏の速さの基準演奏データを用意
しておき、表情を付与すべき楽曲に適合したトリル演奏
速さを有する基準演奏データを選択し、選択に係る基準
演奏データに基づいて楽曲演奏データのトリル演奏区間
に表情を付与するようにしている。
The torill speed data SB6 indicates the speed of the toll performance (for example, any of high speed, medium speed, and low speed) in the torill performance section. The reason why the reference data includes the trickle speed data is to reproduce the speed of the trill performance separately from the performance tempo of the music. That is, in an actual trill performance (live performance), the speed of the trill performance is not significantly affected by the performance tempo of the song, and even if the same song is played at a different tempo, the speed of the trill performance is within a certain range. It turned out that it did not change much. Therefore,
In this embodiment, three types of reference performance data of the trill performance speed, high speed, medium speed, and low speed, are prepared for each trill performance section, and have a trill performance speed suitable for the music to which the expression is to be added. The reference performance data is selected, and an expression is given to the trill performance section of the music performance data based on the selected reference performance data.

【0034】基準演奏データにおいては、一部の演奏区
間の演奏データのコピーを繰返すことがあるので、設定
情報SBとしては、コピーの繰返区間を表わすデータを
記憶しておいてもよい。
In the reference performance data, copying of the performance data of a part of the performance section may be repeated, so that the setting information SB may store data representing the section where the copy is repeated.

【0035】設定情報SBの後には、トリル演奏区間内
の演奏進行に従ってオンイベントデータ、オフイベント
データ等の演奏データが記憶される。一例として、図5
(B)のトリル演奏に関しては、最初の楽音T11に対
応するオンイベントデータNO11及びオフイベントデ
ータNF11が記憶される。オンイベントデータ及びオ
フイベントデータのフォーマットは、図3で述べたと同
様である。2番目以降の各楽音についてもT11と同様
にしてオンイベントデータ及びオフイベントデータが記
憶される。トリル演奏区間の最後のイベントデータとし
ては、最後の楽音T27に対応するオフイベントデータ
NF27が記憶される。
After the setting information SB, performance data such as on-event data and off-event data is stored according to the progress of the performance in the trill performance section. As an example, FIG.
For the trill playing (B), on event data NO 11 and off event data NF 11 corresponding to the first musical sound T 11 is stored. The format of the on-event data and the off-event data is the same as described in FIG. On event data and off event data in the same manner as in T 11 is also stored for each tone of the second and subsequent. Off event data NF 27 corresponding to the last tone T 27 is stored as the last event data of the trill performance section.

【0036】オフイベントデータNF27の後には、楽
音T27の消音タイミングからの時間(次の楽音の発音
タイミング)を表わすタイミングデータFTを記憶す
ると共にタイミングデータFTの後に終端マークデー
タFMを記憶する。タイミングデータFTを付加す
ることでトリル演奏区間に続く無音時間を再現すること
ができる。終端マークデータFMを付加することでデ
ータ接続時に終端確認が容易となる。
The off event after the data NF 27, end mark data FM C after the timing data FT C stores the timing data FT C representing time from the mute timing of the tone T 27 (the sound generation timing of the next tone) Is stored. It can be reproduced following the trill playing interval silent time by adding the time data FT C. Termination confirmation becomes easy at the time of data connections by adding a termination mark data FM C.

【0037】図5を参照して表情付与処理の概要を説明
する。図3の楽曲演奏データにおいて図5(A)に示す
ようなトリル演奏区間(図3のTN1〜TNMの区間に
対応)に対して表情付与を行なう場合、図5(B)に示
すような生演奏に基づいて図4に示したようなゆらぎ性
の基準演奏データを用意する。図5(B)の生演奏に基
づく基準演奏データは、前打音区間a、トリル本体区間
b、及び後打音区間cの演奏データからなっている。こ
のような基準演奏データについて音符Ntに従って音
高、区間長等を修正することにより図5(A)のトリル
演奏区間に対応したゆらぎ性の演奏データを作成する。
作成した演奏データを図3の楽曲演奏データにおいてT
N1〜TNMの区間の演奏データとして用いることによ
り図5(A)のトリル演奏区間への表情付与が可能とな
る。
The outline of the expression providing process will be described with reference to FIG. When an expression is given to a trill performance section (corresponding to the section from T N1 to T NM in FIG. 3) as shown in FIG. 5A in the music performance data of FIG. 3, as shown in FIG. Reference performance data having fluctuation characteristics as shown in FIG. 4 is prepared based on the live performance. The reference performance data based on the live performance shown in FIG. 5B is composed of performance data of a pre-hitting section a, a trill main section b, and a post-hitting section c. By correcting the pitch, section length, etc. of such reference performance data in accordance with the note Nt, fluctuation performance data corresponding to the trill performance section of FIG. 5A is created.
The created performance data is stored in the music performance data of FIG.
N1 by using the performance data through T NM interval expression applied to tolyl playing section shown in FIG. 5 (A) becomes possible.

【0038】図5(C)は、作成したゆらぎ性の演奏デ
ータを楽譜として表示したものであり、作成した演奏デ
ータが前打音区間Sa、トリル本体区間Sb及び後打音
区間Scの演奏データからなる様子が示されている。図
5(C)では、楽譜表示のため、Sa〜Scの各区間毎
に音長が均一に示されているが、実際には図5(B)の
a〜cの各区間のように音長が不均一となっている。図
5(B)の楽音T11,T12,N23〜N27は、図
5(C)の音符N11,N12,N23〜N にそれ
ぞれ対応する。図5(A)のトリル演奏区間の長さが図
5(B)のa〜cの合計区間長より長い場合、図5
(B)のトリル本体区間bの演奏データをコピーして接
続することによりトリル本体区間bより長いトリル本体
区間Sbを実現可能である。この場合、トリル本体区間
Sbには、トリル本体区間aの楽音T 13〜T22にそ
れぞれ対応する音符より多くの音符N13〜Nが含ま
れることになる。
FIG. 5C shows the created performance data of fluctuation.
Data is displayed as a musical score.
The data is a front hitting section Sa, a trill main section Sb and a rear hitting section.
A state composed of performance data in the section Sc is shown. Figure
5 (C), for displaying the score, for each section of Sa to Sc
FIG. 5 (B) shows the uniform pitch of the sound.
The sound lengths are non-uniform as in the sections a to c. Figure
5 (B) music tone T11, T12, N23~ N27The figure
5 (C) note N11, N12, N23~ N2 7Into it
Each corresponds. The length of the trill performance section in FIG.
5B is longer than the total section length of a to c in FIG.
The performance data of the trill body section b of (B) is copied and connected.
The trill body longer than the trill body section b by continuing
Section Sb can be realized. In this case, the trill body section
Sb contains the tone T of the trill body section a. 13~ T22Niso
More notes N than each corresponding note13~ NmContains
Will be.

【0039】図6は、表情付与処理のルーチンを示すも
のである。音楽情報編集・再生用のプログラムにあって
は、マウス及びキーボード30における選択操作により
データベース(ROM14又は記憶装置22)から所望
の楽曲演奏データを選択して記憶部MAに読出し、記憶
部MAのデータをディスプレイ32に表示して編集した
り、記憶部MAのデータに基づいて楽曲の自動演奏を行
なったりすることができる。編集処理においては、記憶
部MAのデータに基づいてディスプレイ32の画面上に
図5(A)に示すような楽譜を表示することができる。
FIG. 6 shows a routine of the expression providing process. In the music information editing / playback program, desired music performance data is selected from a database (the ROM 14 or the storage device 22) by a selection operation on the mouse and the keyboard 30, read out to the storage unit MA, and read from the storage unit MA. Can be displayed on the display 32 for editing, or the music can be automatically performed based on the data in the storage unit MA. In the editing process, a musical score as shown in FIG. 5A can be displayed on the screen of the display 32 based on the data in the storage unit MA.

【0040】ユーザは、図5(A)のトリル演奏区間に
対して表情付与を望むときは、マウス及びキーボード3
0における選択操作により表情付与処理を選択する。こ
のときの選択操作に応じて図6のルーチンがスタートす
る。ステップ40では、マウス及びキーボード30にお
いてトリル記号の指定操作ありか判定する。このときの
指定操作は、図5(A)に示すように音符Ntに付加さ
れたトリル記号を指定する操作でもよいし、音符Ntに
トリル記号が付加されていないときにトリル記号を付加
する操作でもよいし、音符Ntにトリル記号が付加され
ているときにそのトリル記号を他のトリル記号に変更す
る操作でもよい。所定時間内にいずれかの指定操作もな
されなければステップ40の判定結果が否定的(N)と
なり、編集処理にリターンする。
When the user wants to give an expression to the trill performance section shown in FIG.
The expression providing process is selected by the selection operation at 0. The routine in FIG. 6 starts according to the selection operation at this time. In step 40, it is determined whether or not there is a designation operation of a trill symbol on the mouse and keyboard 30. The designation operation at this time may be an operation of designating a trill symbol added to the note Nt as shown in FIG. 5A, or an operation of adding a trill symbol when the trill symbol is not added to the note Nt. Alternatively, the operation may be such that when a trill symbol is added to the note Nt, the trill symbol is changed to another trill symbol. If any designation operation is not performed within the predetermined time, the determination result of step 40 is negative (N), and the process returns to the editing process.

【0041】ステップ40の判定結果が肯定的(Y)で
あったときは、ステップ42で図7の準備処理を実行す
る。この準備処理では、記憶部MAの楽曲演奏データ
(選択曲)に対応するトリル演奏速さを有する基準演奏
データ(図4に示したようなフォーマットを有するデー
タ)がデータベースから記憶部RAに読出される。
If the result of the determination in step 40 is affirmative (Y), the preparation processing of FIG. 7 is executed in step 42. In this preparation process, reference performance data (data having a format as shown in FIG. 4) having a trill performance speed corresponding to the music performance data (selected music) in the storage unit MA is read from the database to the storage unit RA. You.

【0042】次に、ステップ44では、記憶部RAの区
間データSB4を参照して基準演奏データに前打音区間
aありか判定する。この判定の結果が肯定的(Y)であ
れば、ステップ46で図8の前打音区間処理を実行す
る。この前打音区間処理では、基準演奏データに基づい
て図5(C)の前打音区間Saの演奏データが作成さ
れ、記憶部RBに書込まれる。
Next, in step 44, it is determined whether or not the reference performance data includes the preceding hit section a with reference to the section data SB4 in the storage unit RA. If the result of this determination is affirmative (Y), then in step 46 the pre-hit sound section processing of FIG. 8 is executed. In the pre-hit sound section processing, performance data of the pre-hit sound section Sa in FIG. 5C is created based on the reference performance data, and written into the storage unit RB.

【0043】ステップ44の判定結果が否定的(N)で
あったとき又はステップ46の処理が終わったときは、
ステップ48で図10のトリル本体区間処理を実行す
る。このトリル本体区間処理では、基準演奏データに基
づいて図5(C)のトリル本体区間Sbの演奏データが
作成され、記憶部RBに書込まれる。
When the result of the determination in step 44 is negative (N) or when the processing in step 46 is completed,
In step 48, the trill main section processing shown in FIG. 10 is executed. In the trill main section processing, the performance data of the trill main section Sb in FIG. 5C is created based on the reference performance data, and written into the storage unit RB.

【0044】次に、ステップ50では、記憶部RAの区
間データSB4を参照して基準演奏データに後打音区間
cありか判定する。この判定の結果が肯定的(Y)であ
れば、ステップ52で図11の後打音区間処理を実行す
る。この後打音区間処理では、基準演奏データに基づい
て図5(C)の後打音区間Scの演奏データが作成させ
れ、記憶部RBに書込まれる。
Next, in step 50, it is determined whether or not the reference performance data has a later-hitting sound section c with reference to the section data SB4 of the storage unit RA. If the result of this determination is affirmative (Y), the post-hit sound section processing of FIG. 11 is executed in step 52. In the post-hitting sound section processing, the performance data of the rear hitting sound section Sc in FIG. 5C is created based on the reference performance data, and written into the storage unit RB.

【0045】ステップ50の判定結果が否定的(N)で
あったとき又はステップ52の処理が終わったときは、
ステップ54に移る。ステップ46、48、52で作成
されたゆらぎ性の演奏データは、記憶部RBにストアさ
れており、ステップ54では、記憶部RBの演奏データ
中のベロシティ値(音量情報)を修正する。すなわち、
生演奏に基づく演奏データ中のベロシティ値は、自動演
奏で求められるベロシティ値と必ずしも一致しないの
で、トリル演奏区間の先頭音のベロシティ値(図3のV
11に対応)に従って記憶部RBの演奏データ中のベ
ロシティ値を修正する。トリル演奏区間の先頭音のベロ
シティ値は、図5(A)の音符Ntに関して表示され
る。
When the result of the determination in step 50 is negative (N) or when the processing in step 52 is completed,
Move to step 54. The fluctuation performance data created in steps 46, 48, and 52 is stored in the storage unit RB. In step 54, the velocity value (volume information) in the performance data in the storage unit RB is corrected. That is,
Since the velocity value in the performance data based on the live performance does not always match the velocity value obtained in the automatic performance, the velocity value of the first sound in the trill performance section (V in FIG. 3)
Modifies the velocity values in the performance data in the storage unit RB according to the correspondence) to L 11. The velocity value of the leading sound in the trill performance section is displayed for the note Nt in FIG.

【0046】ベロシティ値修正処理では、音符Ntに関
して表示されたベロシティ値(図3のVL11に対応)
と記憶部RBの演奏データ中の先頭音のベロシティ値と
の差を求めた後、記憶部RBの演奏データ中の先頭音の
ベロシティ値を音符Ntに関して表示されたベロシティ
値に修正する。そして、記憶部RBの演奏データ中の2
番目以降の各音のベロシティ値を先に求めたベロシティ
値の差に応じて加減算処理により修正する。この結果、
記憶部RBの演奏データ中の先頭音の音量がベロシティ
値にして「20」増大(又は減少)したのであれば、該
先頭音に続く2番目以降の各音の音量もベロシティ値に
して「20」増大(又は減少)することになり、しかも
記憶部RBの演奏データにあっては生演奏時のトリル演
奏音の音量のばらつき状態が維持される。
[0046] In the velocity value correction process, the displayed velocity value with respect to the note Nt (corresponding to VL 11 in FIG. 3)
Then, the velocity value of the head sound in the performance data of the storage unit RB is corrected to the velocity value displayed for the note Nt. Then, 2 in the performance data of the storage unit RB
The velocity value of each of the subsequent tones is corrected by addition and subtraction processing according to the difference between the velocity values obtained earlier. As a result,
If the volume of the first sound in the performance data of the storage unit RB increases (or decreases) by “20” as a velocity value, the volume of each of the second and subsequent sounds following the first sound also becomes “20” as a velocity value. ”Increases (or decreases), and in the performance data of the storage unit RB, the variation state of the volume of the trill performance sound during the live performance is maintained.

【0047】次に、ステップ56では、記憶部RBのゆ
らぎ性の演奏データに従って記憶部MAのトリル演奏区
間の演奏データ(図3のTN1〜TNMのデータに対
応)を書換える。この書換処理については図14を参照
して後述する。ステップ56の後、編集処理にリターン
する。
Next, in step 56, rewrites the performance data of the trill playing section of the storage unit MA accordance fluctuation of performance data storage unit RB (corresponding to the data of T N1 through T NM in Figure 3). This rewriting process will be described later with reference to FIG. After step 56, the process returns to the editing process.

【0048】図7は、準備処理のサブルーチンを示すも
のである。ステップ60では、記憶部MAの楽曲演奏デ
ータ(選択曲)中の速さデータ(図3のTSに対応)と
基準演奏データ中のトリル速さデータ(図4のSB6に
対応)とを比較することにより選択曲に対応するトリル
演奏速さを有する基準演奏データをデータベースから選
択して記憶部RAに読出す。この場合、ユーザが調、テ
ンポ、トリル演奏区間の区間構成及び区間長等の条件を
指示し、その条件に適合した基準演奏データを選択して
読出すようにしてもよい。また、ユーザがトリル演奏速
さを指示したときは、指示に係るトリル演奏速さの基準
演奏データを選択して読出すようにしてもよい。さら
に、選択可能ないくつかの基準データをディスプレイ3
2の画面に表示し、表示データ中からユーザが選択した
基準演奏データを読出すようにしてもよい。
FIG. 7 shows a subroutine of the preparation process. In step 60, the speed data (corresponding to TS in FIG. 3) in the music performance data (selected music) in the storage unit MA is compared with the trill speed data (corresponding to SB6 in FIG. 4) in the reference performance data. Thereby, the reference performance data having the trill performance speed corresponding to the selected music piece is selected from the database and read out to the storage unit RA. In this case, the user may instruct conditions such as key, tempo, section configuration and section length of the trill performance section, and select and read out reference performance data that meets the conditions. Further, when the user instructs the trill performance speed, reference performance data of the trill performance speed according to the instruction may be selected and read. Further, some selectable reference data are displayed on the display 3.
2 and the reference performance data selected by the user from the display data may be read.

【0049】次に、ステップ62では、記憶部MAの調
データSA2が示す調と記憶部RAの調データSB2が
示す調とが一致し且つ記憶部MAの音高データTPが示
す音高(図5(A)の音符Ntの音高に対応)と記憶部
RAの音高データSB5が示す中心音CTの音高とが一
致するか判定する。この判定の結果が否定的(N)であ
れば、ステップ64で調データSA2及び音高データT
Pに応じて記憶部RAの演奏データ中のノートナンバ
(音高情報)を修正する。
Next, at step 62, the key indicated by the key data SA2 of the memory MA matches the key indicated by the key data SB2 of the memory RA, and the pitch indicated by the pitch data TP of the memory MA (FIG. 5 (A) corresponding to the pitch of the note Nt) and the pitch of the central tone CT indicated by the pitch data SB5 in the storage unit RA. If the result of this determination is negative (N), at step 64 the key data SA2 and the pitch data T
The note number (pitch information) in the performance data in the storage unit RA is corrected according to P.

【0050】一例として、調データSA2がハ長調を示
すと共に音高データTPが図5(A)の音符Ntの音高
4を示し、調データSB2がハ長調を示すものとす
る。ノートナンバ修正処理では、記憶部RAの演奏デー
タにおいて中心音CTの音高を音符Ntに従ってC
修正すると共に上音UT及び下音LTの音高をそれぞれ
及びBに修正する。このときの音高修正は、図5
(B)に示す音高状態を図5(C)に示す音高状態に変
更したものに相当する。
[0050] As an example, pitch data TP with indicating the tone data SA2 Gaha major indicates the pitch C 4 note Nt of FIG. 5 (A), denote the tone data SB2 Gaha major. Notes number modification process modifies storage unit RA of the performance data of the center sound CT pitches according note Nt with modifying the C 4 overtone UT and Shitaon LT pitch to D 4 and B 3, respectively. The pitch correction at this time is shown in FIG.
The pitch state shown in FIG. 5B is changed to the pitch state shown in FIG.

【0051】他の例として、図15(A)に示すように
トリル記号Mtが付された音符Ntの音高がAであっ
たときは、記憶部RAの演奏データにおいて中心音CT
の音高はAに修正され、上音UT及び下音LTの音高
はそれぞれB及びGに修正される。更に他の例とし
て、図15(B)に示すようにトリル記号に臨時記号と
してフラットが付されたときは、上音UTの音高を半音
下げてB とすればよい。
[0051] As another example, when the pitch of the note Nt, labeled tolyl symbol Mt as shown in FIG. 15 (A) is a A 3 are center tones CT in the performance data in the storage unit RA
Pitch is corrected to A 3, the pitch of the overtones UT and Shitaon LT is modified respectively B 3 and G 3. As yet another example, when the flat is attached as temporary symbol tolyl symbol as shown in FIG. 15 (B), it may be a B b 3 is lowered semitone the pitch of overtone UT.

【0052】図15(A)の場合において、音符Ntに
臨時記号としてフラットが付されることがあり、音高は
となる。この場合、中心音CTの音高はA
修正され、上音UT及び下音LTの音高はそれぞれB
及びGに修正される。また、音符NtをAからG
に変更すると共にGの音符に臨時記号としてシャープ
を付した場合、音高はG となる。この場合、中心音
CTの音高はG に修正され、上音UT及び下音LT
の音高はそれぞれA及びFに修正される。A
とは、中心音CTとしては同一音高であるが、上
音UT及び下音LTのいずれについても異なる音高を生
ずる(UTについてはBとAであり、LTについて
はGとFである)。従って、音高修正の際には、ト
リル記号に付された臨時記号のみならず、トリル対象音
符に付された臨時記号も考慮して音高を決定する必要が
ある。
[0052] In the case of FIG. 15 (A), sometimes flat is subjected to the note Nt as accidentals pitch becomes A b 3. In this case, the pitch of the central tone CT is corrected to A b 3 , and the pitches of the upper tone UT and the lower tone LT are respectively B 3
And it is modified to G 3. Also, G 3 notes Nt from A 3
When subjected sharp as accidental to note G 3 while changing the tone pitch becomes G # 3. In this case, the pitch of the central tone CT is corrected to G # 3 , and the upper tone UT and the lower tone LT
The pitch is corrected to A 3 and F 3, respectively. The A b 3 and G # 3, but as a center sound CT is the same pitch, resulting in different pitches for any of overtones UT and Shitaon LT (for UT is B 3 and A 3, a G 3 and F 3 for LT). Therefore, at the time of pitch correction, it is necessary to determine the pitch in consideration of not only the accidental symbol attached to the trill symbol but also the accidental symbol attached to the note to be trilled.

【0053】上記した例では、調データSA2、SB2
がいずれもハ長調で同一であるため、比較的簡単に音高
修正を行なうことができる。しかし、調によっては簡単
に音高修正を行なえないこともある。そこで、基準演奏
データをすべてハ長調のデータとしてデータベースに記
憶しておくと共に調毎にハ長調からの音高変換テーブル
をROM14等の記憶手段に記憶しておき、例えばト長
調の楽曲演奏データについてはハ長調からト長調への音
高変換テーブルを参照して音高修正を行なうようにして
もよい。このようにすると、基準演奏データの記憶量を
低減することができる。別の方策としては、調毎に基準
演奏データを記憶しておき、調データSA2の示す調と
同一の調の基準演奏データを読出すようにしてもよい。
この場合、音高変換テーブルを省略することができる。
In the above example, the key data SA2, SB2
However, the pitches can be corrected relatively easily because they are the same in C major. However, depending on the key, it may not be possible to easily adjust the pitch. Therefore, all the reference performance data is stored in the database as C major data, and a pitch conversion table from C major is stored in a storage means such as the ROM 14 for each key. The pitch may be corrected with reference to a pitch conversion table from C major to G major. By doing so, the storage amount of the reference performance data can be reduced. As another measure, reference performance data may be stored for each key, and reference performance data of the same key as the key indicated by the key data SA2 may be read.
In this case, the pitch conversion table can be omitted.

【0054】ステップ62の判定結果が肯定的(Y)で
あったとき又はステップ64の処理が終わったときは、
ステップ66で記憶部RAの区間データSB4を参照し
て基準演奏データに前打音区間aありか判定する。この
判定の結果が肯定的(Y)であれば、ステップ68で記
憶部MAの音長データTLと記憶部RAの区間データS
B4とに応じて前打音区間Saの区間長を決定し、記憶
部LMの記憶領域Laにセットする。
When the determination result of step 62 is affirmative (Y) or when the process of step 64 is completed,
At step 66, it is determined with reference to the section data SB4 of the storage unit RA whether or not the reference performance data includes the preceding hit section a. If the result of this determination is affirmative (Y), then in step 68 the duration data TL of the storage section MA and the section data S of the storage section RA
The section length of the preceding hit section Sa is determined according to B4, and is set in the storage area La of the storage section LM.

【0055】一例として、音長データTLが図5(A)
に示すように全音符の長さを表わすと共に区間データS
B4が図5(B)に示すように前打音区間a、トリル本
体区間b及び後打音区間cを表わすものとする。a〜c
の合計区間長Sに占める区間aの長さQaの割合は、Q
a/Sとなり、S及びQaは、区間データSB4から求
められる。全音符の長さをKとすると、前打音区間Sa
の区間長は、K×Qa/Sとなる。このようにして求め
た前打音区間Saの区間長を記憶領域Laにセットす
る。
As an example, FIG.
As shown in FIG.
It is assumed that B4 represents a front strike section a, a trill main section b, and a rear strike section c as shown in FIG. 5B. a to c
Is the ratio of the length Qa of the section a to the total section length S of
a / S, and S and Qa are obtained from the section data SB4. Assuming that the length of a whole note is K, the preceding hit section Sa
Is K × Qa / S. The section length of the preceding hit section Sa obtained in this way is set in the storage area La.

【0056】ステップ66の判定結果が否定的(N)で
あったとき又はステップ68の処理が終わったときは、
ステップ70で記憶部MAの音長データTLと記憶部R
Aの区間データSB4とに応じてトリル本体区間Sbの
区間長を決定し、記憶部LMの記憶領域Lbにセットす
る。ステップ68に関して前述した例では、トリル本体
区間bの長さをQbとすると、トリル本体区間Sbの区
間長は、K×Qb/Sとなる。
When the determination result of step 66 is negative (N) or when the processing of step 68 is completed,
At step 70, the sound length data TL of the storage unit MA and the storage unit R
The section length of the trill main section Sb is determined according to the section data SB4 of A, and is set in the storage area Lb of the storage section LM. In the example described above regarding step 68, assuming that the length of the tolyl main section b is Qb, the section length of the tolyl main section Sb is K × Qb / S.

【0057】次に、ステップ72では、記憶部RAの区
間データSB4を参照して基準演奏データに後打音区間
cありか判定する。この判定の結果が肯定的(Y)であ
れば、ステップ74で記憶部MAの音長データTLと記
憶部RAの区間データSB4とに応じて後打音区間Sc
の区間長を決定し、記憶部LMの記憶領域Lcにセット
する。ステップ68に関して前述した例では、後打音区
間cの長さをQcとすると、後打音区間Scの区間長
は、K×Qc/Sとなる。
Next, at step 72, it is determined whether or not the reference performance data has a later-hitting sound section c with reference to the section data SB4 of the storage unit RA. If the result of this determination is affirmative (Y), then in step 74, the subsequent hitting section Sc according to the duration data TL of the storage section MA and the section data SB4 of the storage section RA.
Is determined and set in the storage area Lc of the storage unit LM. In the example described above with respect to step 68, assuming that the length of the post-hitting sound section c is Qc, the section length of the post-hitting sound section Sc is K × Qc / S.

【0058】ステップ72の判定結果が否定的(N)で
あったとき又はステップ74の処理が終わったときは、
ステップ76に移り、記憶部RAの前打音区間a、トリ
ル本体区間b及び後打音区間cの演奏データを読出して
記憶部LMの記憶領域La、Lb及びLcにそれぞれ書
込む。この後、図6のルーチンにリターンする。
When the result of the determination at step 72 is negative (N) or when the processing at step 74 is completed,
In step 76, the performance data of the pre-hitting section a, the trill main section b, and the post-hitting section c of the storage section RA are read and written into the storage areas La, Lb, and Lc of the storage section LM. Thereafter, the process returns to the routine of FIG.

【0059】図12は、ステップ76により記憶部LM
に演奏データを書込んだ状態を図1(C)と同様にして
示すものである。記憶部LMにおいて、記憶領域Laに
は、前打音区間aの楽音T11、T12の演奏データが
書込まれ、記憶領域Lbには、トリル本体区間bの楽音
13、T14〜T22の演奏データが書込まれ、記憶
領域Lcには、後打音区間cの楽音T23〜T27の演
奏データが書込まれる。図7のステップ64で音高を修
正したので、図12に示される楽音T11〜T 27の音
高は、図5(B)に示したものとは異なり、図5(C)
に示したものとなっている。
FIG. 12 shows that the storage unit LM is
The state in which the performance data is written in the same manner as in FIG.
It is shown. In the storage unit LM, the storage area La
Is the musical tone T of the previous hit section a.11, T12Performance data
The tone of the trill body section b is written in the storage area Lb.
T13, T14~ T22Performance data is written and stored
In the area Lc, the musical tone T of the subsequent hit section c is provided.23~ T27Performance
Performance data is written. The pitch is corrected in step 64 of FIG.
Since the tone T shown in FIG.11~ T 27sound of
The height is different from that shown in FIG.
It is shown in the above.

【0060】図8は、前打音区間処理のサブルーチンを
示すものである。ステップ80では、記憶領域Laの演
奏データ中のタイミング値に基づいて区間長を求め、求
めた区間長が先に記憶領域Laにセットされている前打
音区間Saの区間長と一致するか判定する。この判定の
結果が否定的(N)であれば、ステップ82に移り、一
致が得られるように記憶領域Laの演奏データのタイミ
ング値を修正する。例えば、求めた区間長が前打音区間
Saの区間長より短い(又は長い)場合には、両者が一
致するようにタイミング値を大きく(又は小さく)修正
する。この修正の例を図13(A)に示す。楽音
n1、Tn2は、それぞれT11,T12に対応し、
Kは、図5(A)の全音符Ntの長さ(トリル演奏区間
長)を表わす。
FIG. 8 shows a subroutine of the pre-hit sound section processing. In step 80, the section length is determined based on the timing value in the performance data of the storage area La, and it is determined whether or not the determined section length matches the section length of the previous hit section Sa previously set in the storage area La. I do. If the result of this determination is negative (N), the routine proceeds to step 82, where the timing value of the performance data in the storage area La is corrected so that a match is obtained. For example, when the obtained section length is shorter (or longer) than the section length of the preceding beating section Sa, the timing value is corrected to be larger (or smaller) so that they match. An example of this correction is shown in FIG. The musical sounds T n1 and T n2 respectively correspond to T 11 and T 12 ,
K represents the length (trill playing section length) of the whole note Nt in FIG.

【0061】ステップ80の判定結果が肯定的(Y)で
あったとき又はステップ82の処理が終わったときは、
ステップ84に移り、記憶領域Laの演奏データを記憶
部RBに転送する。この後、図6のルーチンにリターン
する。
When the determination result of step 80 is affirmative (Y) or when the process of step 82 is completed,
In step 84, the performance data in the storage area La is transferred to the storage unit RB. Thereafter, the process returns to the routine of FIG.

【0062】ステップ82の処理においては、図9に示
すように前打音区間Saの最後のデータとして、楽音T
12のオフイベントデータNF12の次のタイミングデ
ータFTa及び終端マークデータFMaを付加してもよ
い。タイミングデータFTaは、楽音T12の消音タイ
ミングからの無音時間を表わすもので、トリル本体区間
Sbの最初の楽音T13のオンイベントデータにおいて
タイミングデータTMb(発音タイミングを表わすも
の)として用いることができる。このようにすると、楽
音T12の消音タイミングの後タイミングデータFTa
(TMb)の示す無音時間を経て楽音T13が発音開始
されることになる。なお、終端マークデータFMaは、
終端確認用であり、記憶部RBにおいてタイミングデー
タFTaをタイミングデータTMbの代りとして楽音T
12のオフイベントデータNF12に楽音T13のオン
イベントデータを接続した後で削除される。
In the process of step 82, as shown in FIG. 9, the tone T
12 next timing data FTa and end mark data FMa off event data NF 12 of may be added. Timing data FTa is intended to represent a silence from silencing timings of tone T 12, it can be used as the timing data TMb (represents the tone generation timing) in the on-event data of the first musical tone T 13 tolyl body section Sb . In this manner, the timing data after a mute timing of the tone T 12 FTa
So that the musical tone T 13 via a silent time indicated by (TMb) is started sound. Note that the end mark data FMa is
The timing data FTa is used in the storage unit RB instead of the timing data TMb to confirm the end of the musical tone T.
12 off event data NF 12 of being removed after connecting the on-event data of the tone T 13.

【0063】図10は、トリル本体区間処理のサブルー
チンを示すものである。ステップ90では、記憶部RA
の区間データSB4を参照して基準演奏データに前打音
区間aありか判定する。この判定の結果が肯定的(Y)
であれば、ステップ92に移る。
FIG. 10 shows a subroutine of the trill main section processing. In step 90, the storage unit RA
With reference to the section data SB4, it is determined whether or not the reference performance data includes the preceding hit section a. The result of this determination is positive (Y)
If so, proceed to step 92.

【0064】ステップ92では、記憶領域Laの演奏デ
ータ中の最後のノートナンバと記憶領域Lbの演奏デー
タ中の最初のノートナンバとを比較し、一致していれば
異なるようにLaの最初のノートナンバを決定する。こ
れは、前打音区間Saの最後の音とトリル本体区間Sb
の最初の音とで音高を異ならせるためである。具体的に
は、Laの最後のノートナンバとLbの最初のノートナ
ンバとを比較して一致したときは、Lbの最初の音に対
応するオンイベントデータ及びオフイベントデータを削
除し、2番目の音に対応する演奏データをLbの最初の
演奏データとすればよい。図12に示した例のようにL
aの最後の音の音高(C)とLbの最初の音の音高
(D)とが異なるときは、音高決定処理が不要であ
る。
In step 92, the last note number in the performance data in the storage area La is compared with the first note number in the performance data in the storage area Lb. Determine the number. This is because the last sound of the previous hit section Sa and the trill body section Sb
This is to make the pitch different from the first sound. Specifically, when the last note number of La and the first note number of Lb are compared and matched, the on-event data and off-event data corresponding to the first note of Lb are deleted, and the second note number is deleted. The performance data corresponding to the sound may be the first performance data of Lb. As in the example shown in FIG.
When the pitch (C 4 ) of the last sound of a and the pitch (D 4 ) of the first sound of Lb are different, the pitch determination processing is unnecessary.

【0065】ステップ92の音高決定処理としては、例
えば図16(A)に示すようなトリル記号Mt及び音符
Ntに関して図16(B)に示すような下からトリル方
式の演奏データ及び図16(C)に示すような上からト
リル方式の演奏データ(トリル演奏の速さが同じで向き
のみ異なる2つの演奏データ)を1対のデータとして扱
い、一方の演奏データについてLaの最後のノートイベ
ントと一致するLbの最初のノートイベントが検出され
たときは、一方の演奏データの代りに他方の演奏データ
を用いるようにしてもよい。
The pitch determination process in step 92 includes, for example, the performance data of the trill system from below as shown in FIG. 16B with respect to the trill symbol Mt and the note Nt as shown in FIG. As shown in C), the performance data of the trill system (two performance data having the same trill performance speed but different directions) is treated as a pair of data from the top, and one of the performance data is compared with the last note event of La. When the first note event of the matching Lb is detected, one performance data may be used instead of one performance data.

【0066】ステップ90の判定結果が否定的(N)で
あったときは又はステップ92の処理が終わったとき
は、ステップ94に移り、記憶領域Lbの演奏データ中
のタイミング値に基づいて区間長を求め、求めた区間長
が先に記憶領域Lbにセットされているトリル本体区間
Sbの区間長と一致するか判定する。この判定結果が否
定的(N)であれば、ステップ96に移る。
When the result of the determination in step 90 is negative (N) or when the processing in step 92 is completed, the process proceeds to step 94, where the section length is determined based on the timing value in the performance data in the storage area Lb. Is determined, and it is determined whether or not the obtained section length matches the section length of the trill main section Sb set in the storage area Lb first. If the result of this determination is negative (N), the flow proceeds to step 96.

【0067】ステップ96では、トリル本体区間Sbに
対応して記憶領域Lbの演奏データを一部削除するか又
はコピーし、接続する。Lbの演奏データの一部を削除
するのは、トリル本体区間Sbの区間長に比べてLbの
演奏データから求めた区間長が長い場合である。また、
Lbの演奏データをコピーして接続するのは、トリル本
体区間Sbの区間長に比べてLbの演奏データから求め
た区間長が短い場合であり、この場合の処理結果を図1
3(B)に示す。図13(B)において、RPがコピー
して接続した区間を示し、図12に示す記憶領域Lbに
おいて楽音T 〜T22の演奏データをコピーしてT
22の演奏データに接続し、更にT13から4分音の演
奏データをコピーして先にコピーしたT22の演奏デー
タに接続した例が示されている。楽音Tn3、Tn4
は、それぞれT13、T14…に対応する。
In step 96, the performance data in the storage area Lb is partially deleted or copied and connected to the trill main section Sb. Part of the performance data of Lb is deleted when the section length obtained from the performance data of Lb is longer than the section length of the trill main section Sb. Also,
The performance data of Lb is copied and connected when the section length obtained from the performance data of Lb is shorter than the section length of the trill main section Sb.
3 (B). In FIG. 13 (B), RP indicates the section connected to copy, copy the musical data of the musical tone T 1 3 through T 22 in the storage area Lb shown in FIG. 12 T
Connect to 22 performance data are further example of connecting the performance data of T 22 copied earlier to copy the music data from the T 13 4 minutes sound indicated. Musical sounds T n3 , T n4 ...
Correspond to T 13 , T 14 , respectively.

【0068】ステップ96の処理では、記憶領域Lcを
参照して最初の音T23の音高を求め、求めた音高と異
なる音高の音がトリル本体区間Sbの最後の音となるよ
うに処理を行なう。このようにした場合、図13(B)
に示す楽音Tのようにトリル本体区間Sbから後打音
区間Scに跨る音が生ずることがある。
[0068] In the process of step 96, with reference to the storage area Lc determined the pitch of the first note T 23, as the sound of the determined pitch different from the pitch is the last sound tolyl body section Sb in Perform processing. In this case, FIG.
Sometimes it occurs sound across the hitting sound section Sc after tolyl body section Sb as tone T m shown.

【0069】次に、ステップ98では、後打音区間Sc
に跨る音ありか判定する。この判定の結果が肯定的
(Y)であれば、ステップ100でLbの演奏データに
基づく区間長がトリル本体区間Sbの区間長に一致する
ようにLbの演奏データ中のタイミング値を修正する。
この修正の例を図13(C)に示す。図13(C)に
は、楽音Tの消音タイミングがトリル本体区間Sb内
に入っている様子(時間が圧縮された様子)が示されて
いる。なお、ステップ100の処理では、図9に関して
前述したと同様に無音時間に対応するタイミングデータ
及び終端マークデータを付加してもよい。
Next, at step 98, the subsequent hitting section Sc
It is determined whether there is a sound straddling. If the result of this determination is affirmative (Y), the timing value in the Lb performance data is corrected in step 100 so that the section length based on the Lb performance data matches the section length of the trill main section Sb.
An example of this correction is shown in FIG. In FIG. 13 (C) are shown mute timing of the tone T m a state contained in the tolyl body section Sb (how time compressed) is. In the process of step 100, timing data and end mark data corresponding to the silence period may be added in the same manner as described above with reference to FIG.

【0070】ステップ100の処理によると、トリル演
奏の速さは、時間圧縮の結果として図12のLbの演奏
データに比べてわずかに速くなる。トリル演奏の速さを
所望のものからわずかに速くした場合と、わずかに遅く
した場合とを比較すると、速くした場合の方が聴感上全
く気にならないことが判明しているので、ステップ10
0の処理でトリル演奏の速さをわずかに速くしても実際
上不都合は生じない。
According to the processing of step 100, the speed of the trill performance is slightly faster than the performance data of Lb in FIG. 12 as a result of the time compression. Comparing the case where the speed of the trill performance is slightly increased from the desired speed and the case where the speed is slightly decreased, it has been found that the higher the speed is, the less the auditory perception is.
Even if the speed of the trill performance is slightly increased by the processing of 0, practically no inconvenience occurs.

【0071】ステップ94の判定結果が肯定的(Y)で
あったとき、ステップ98の判定結果が否定的(N)で
あったとき又はステップ100の処理が終わったとき
は、ステップ102に移り、記憶領域Lbの演奏データ
を記憶部RBに転送する。このとき、図9に関して前述
したように前打音区間Saの演奏データにトリル本体区
間Sbの演奏データを接続する。この後、図6のルーチ
ンにリターンする。
When the result of the determination at step 94 is affirmative (Y), when the result of the determination at step 98 is negative (N), or when the process at step 100 is completed, the process proceeds to step 102, The performance data in the storage area Lb is transferred to the storage unit RB. At this time, the performance data of the trill main section Sb is connected to the performance data of the preceding hit section Sa as described above with reference to FIG. Thereafter, the process returns to the routine of FIG.

【0072】図11は、後打音区間処理のサブルーチン
を示すものである。ステップ110では、記憶領域Lc
の演奏データ中のタイミング値に基づいて区間長を求
め、求めた区間長が先に記憶領域Lcにセットされてい
る後打音区間Scの区間長と一致するか判定する。この
判定の結果が否定的(N)であれば、ステップ112に
移り、一致が得られるように記憶領域Lcのタイミング
値をステップ82で述べたと同様にして修正する。この
修正の例を図13(C)に示す。楽音Tnc〜T
nmは、それぞれT23〜T27に対応する。
FIG. 11 is a subroutine of the post-hit sound section processing.
It shows. In step 110, the storage area Lc
Section length based on the timing value in the performance data
Therefore, the determined section length is set in the storage area Lc first.
Then, it is determined whether or not it matches the section length of the after-hitting section Sc. this
If the result of the determination is negative (N), go to step 112
Shift and the timing of the storage area Lc so that a match is obtained.
Modify the value as described in step 82. this
An example of the correction is shown in FIG. Music Tnc~ T
nmIs T23~ T27Corresponding to

【0073】ステップ110の判定結果が肯定的(Y)
であったとき又はステップ112の処理が終わったとき
は、ステップ114に移り、記憶領域Lcの演奏データ
を記憶部RBに転送する。このとき、後打音区間Scの
演奏データは、トリル本体区間Sbの演奏データに接続
される。
The determination result of step 110 is positive (Y)
When the processing in step 112 has been completed or the processing in step 112 has been completed, the processing moves to step 114, and the performance data in the storage area Lc is transferred to the storage unit RB. At this time, the performance data of the after-hitting section Sc is connected to the performance data of the trill main section Sb.

【0074】上記した図7〜11の処理によれば、記憶
部RBには、図14に示すように楽音Tn1〜Tnm
対応した演奏データが書込まれる。図5(C)は、図1
4のTn1〜Tnmの演奏データを楽譜表示したもの
で、N11,N12はTn1,Tn2に、N13,N
14〜NはTn3,Tn4〜に、N23〜N27
はTnc〜Tnmにそれぞれ対応する。図4で述べたよ
うに基準演奏データにタイミングデータFTc及び終端
マークデータFMcを付加した場合には、これらのデー
タも記憶部RBに書込まれる。
According to the processing of FIGS. 7 to 11, the performance data corresponding to the musical tones T n1 to T nm is written in the storage unit RB as shown in FIG. FIG. 5 (C) shows FIG.
4 is a musical score display of the performance data of T n1 to T nm of N 4, wherein N 11 and N 12 are T n1 and T n2 , and N 13 and N
14 to N m is the T n3, T n4~ T m, N 23 ~N 27
Corresponds to T nc to T nm , respectively. As described in FIG. 4, when the timing data FTc and the end mark data FMc are added to the reference performance data, these data are also written in the storage unit RB.

【0075】図6のステップ56では、記憶部MAの楽
曲演奏データのうちトリル演奏区間の演奏データが図1
4に示すようにして書換えられる。すなわち、楽音T
N1のタイミングデータTM11は、直前の楽音の消音
タイミングから拍頭までの時間を表わし、楽音Tn1
タイミングデータTMaは、拍頭からの時間を表わすも
のとすると、TM11のタイミング値にTMaのタイミ
ング値を加算したものを、TM11の新たなタイミング
値とする。また、TN1のノートオンイベントデータか
ら楽音TNMのノートオフイベントデータまでのデータ
をTn1のノートオンイベントデータから楽音Tnm
ノートオフイベントデータまでのデータに従って書換え
る。さらに、TNMの次の楽音TNNのタイミングデー
タをタイミングデータFTcに従って書換える。このよ
うにすると、トリル演奏区間最後の無音時間を自動演奏
に反映させることができる。終端マークデータFMc
は、記憶部MAに書込まず、削除する。
In step 56 of FIG. 6, the performance data of the trill performance section in the music performance data
It is rewritten as shown in FIG. That is, the musical tone T
N1 of the timing data TM 11 represents the time from mute timing immediately before the musical tone to beat head timing data TMa tone T n1, when denote the time from beat head TMa the timing value of TM 11 a material obtained by adding the timing value as a new timing values TM 11. The data from the note-on event data of T N1 to the note-off event data of the musical tone T NM is rewritten according to the data from the note-on event data of T n1 to the note-off event data of the musical tone T nm . Furthermore, it is rewritten in accordance with the timing data FTc timing data of the next musical T NN of T NM. In this way, the silent time at the end of the trill performance section can be reflected in the automatic performance. End mark data FMc
Is deleted first without writing to the storage unit MA.

【0076】上記した実施形態では、記憶部MAの楽曲
演奏データ中のテンポデータSA3と記憶部RAの基準
演奏データ中のテンポデータSB3とを考慮しなかっ
た。これは、テンポの違いはトリル演奏の回数で吸収す
る方が自然であるとの考えに基づくものである。しか
し、テンポデータSA3、SB3を考慮するようにして
もよい。例えば図7の処理において、ステップ76の次
のステップ(図示せず)で図12のLa〜Lcの演奏デ
ータ中のタイミング値をテンポの違いを反映するように
修正する。すなわち、テンポデータSA3、SB3の指
示するテンポ値をそれぞれTa、Tbとした場合、テン
ポデータSA3、SB3を比較し、SA3の方が速けれ
ばテンポ値の比Tb/Taに従ってLa〜Lcのタイミ
ング値を小さくするように修正し、SA3の方が遅けれ
ばテンポ値の比Tb/Taに従ってLa〜Lcのタイミ
ング値を大きくするように修正する。例えば、Tb/T
a=120/160=3/4であれば、La〜Lcの各
タイミング値に3/4を乗算して時間を圧縮し、逆にT
b/Ta=4/3であれば時間を伸長する。このような
タイミング値修正処理は、Lbの演奏データ(トリル本
体区間bの演奏データ)だけに施すようにしてもよい。
In the above-described embodiment, the tempo data SA3 in the music performance data of the storage unit MA and the tempo data SB3 in the reference performance data of the storage unit RA are not considered. This is based on the idea that it is more natural to absorb the difference in tempo by the number of trill performances. However, the tempo data SA3 and SB3 may be considered. For example, in the process of FIG. 7, in a step (not shown) subsequent to the step 76, the timing values in the performance data La to Lc in FIG. 12 are modified so as to reflect the difference in tempo. That is, when the tempo values indicated by the tempo data SA3 and SB3 are Ta and Tb, respectively, the tempo data SA3 and SB3 are compared. If SA3 is faster, the timing values of La to Lc are determined according to the tempo value ratio Tb / Ta. Is corrected to be smaller, and if SA3 is later, the timing values of La to Lc are corrected to be larger in accordance with the tempo ratio Tb / Ta. For example, Tb / T
If a = 120/160 = 3/4, the timing values of La to Lc are multiplied by 3/4 to compress the time, and conversely, T
If b / Ta = 4/3, the time is extended. Such a timing value correction process may be performed only on the performance data of Lb (performance data of the trill body section b).

【0077】上記した実施形態では、基準演奏データに
前打音区間や後打音区間を設けておかなかったときは、
トリル本体区間のみの処理となる(図6参照)。たとえ
ば、マウス及びキーボード30から前打音区間や後打音
区間の情報を入力することにより前打音区間処理や後打
音区間処理を可能としてもよい。また、中心音CTの音
高を指示する音高データSB5が基準演奏データにない
場合は、最も出現頻度の高い音高を中心音の音高として
決定するようにしてもよい。この場合、出現する音高の
中で中心音の音高より1つ上の音高を上音とすると共
に、中心音の音高より1つ下の音高を下音とする。
In the above-described embodiment, if the reference performance data does not include a pre-hit sound section or a post-hit sound section,
The processing is performed only for the trill main section (see FIG. 6). For example, by inputting information on the pre-hitting sound section and the post-hitting sound section from the mouse and the keyboard 30, the pre-hitting sound section processing and the post-hitting sound section processing may be enabled. If the pitch data SB5 indicating the pitch of the central tone CT is not present in the reference performance data, the pitch having the highest frequency of appearance may be determined as the pitch of the central tone. In this case, among the appearing pitches, a pitch one level higher than the pitch of the central tone is set as an upper tone, and a pitch one level lower than the pitch of the central tone is set as a lower tone.

【0078】図10のステップ96の処理において、S
bの区間長に対応してLbの演奏データを一部削除した
結果、トリル演奏が1度も入らないことになったとき
は、1往復のトリル演奏を時間圧縮して加入すればよ
い。
In the process of step 96 in FIG.
As a result of partially deleting the performance data of Lb corresponding to the section length of b, when it is determined that no trill performance is included, one round trip trill performance may be compressed and added.

【0079】図6のステップ40に関しては、図17に
例示するようにトリル記号にシャープ、フラット等の臨
時記号をマウス及びキーボード30での操作により付す
ことができる。ユーザの便宜のためには、図17に例示
したような種々の臨時記号付きのトリル記号をディスプ
レイ32の画面に一覧表示し、ユーザが任意の臨時記号
付きトリル記号を選択して所望の音符に付加するように
してもよい。
With respect to step 40 in FIG. 6, a temporary symbol such as sharp or flat can be added to the trill symbol by operating the mouse and keyboard 30 as shown in FIG. For convenience of the user, various accidental trill symbols as illustrated in FIG. 17 are listed on the screen of the display 32, and the user selects an arbitrary accidental trill symbol to select a desired musical note. It may be added.

【0080】次に、図18を参照してプラルトリラー
(上方回音)に関するゆらぎ性演奏データ作成処理を説
明する。図18(A)に示すようなプラルトリラー記号
Mpを有する音符Npについてゆらぎ性の演奏データを
作成する場合、図18(B)に示すようなプラルトリラ
ーの生演奏に基づいて基準演奏データを用意する。図1
8(B)は、図1(C)と同様にして生演奏状況を示す
もので、この例では、中心音CTとしての音T31を演
奏した後上音UTとしての音T32を演奏し、更に中心
音CTとしての音T33(音T31と同一音高の音)を
伸ばして演奏している。
Next, with reference to FIG. 18, a description will be given of the fluctuation performance data creation processing relating to the prill trailer (upward sound). When generating fluctuation performance data for a musical note Np having a prill trigger symbol Mp as shown in FIG. 18 (A), reference performance data is prepared based on the live performance of the prill trigger as shown in FIG. 18 (B). FIG.
8 (B) is intended to indicate a live situation in the same manner as in FIG. 1 (C), the in this example, playing a sound T 32 as overtones UT after playing the sound T 31 of about sound CT In addition, the performance is performed with the sound T 33 (sound having the same pitch as the sound T 31 ) as the central sound CT extended.

【0081】用意した基準演奏データについて音符Np
に従って音高、区間長等を修正することにより音符Np
に対応し且つ修正された基準演奏データからなるゆらぎ
性の演奏データを作成する。図18(C)は、作成され
た演奏データを楽譜として表示したものである。音符N
31、N32、N33にそれぞれ対応する楽音は、音T
31、T32,T33にそれぞれ対応する生々しさを有
する。音符Npに従って音高、区間長等を修正する処理
としては、トリル演奏に関して前述した処理のうちから
適当なものを採用することができる。区間長修正処理と
しては、図10のステップ96ではなくステップ100
のようなタイミング値修正処理を用いるとよい。
For the prepared reference performance data, note Np
Note Np by correcting pitch, section length, etc.
And performance data composed of corrected reference performance data is created. FIG. 18C shows the created performance data as a musical score. Note N
The musical tones corresponding to N 31 , N 32 and N 33 are the sound T
31 , T 32 , and T 33 , respectively. As the processing for correcting the pitch, the section length, and the like according to the note Np, an appropriate one of the processing described above for the trill performance can be adopted. As the section length correction processing, instead of step 96 in FIG.
It is preferable to use a timing value correction process as described below.

【0082】モルデント(下方回音)は、図18(B)
において、上音UTの代りに下音LTを演奏する点がプ
ラルリトラーと異なるだけであるから、図18に関して
上記したと同様にモルデントに関するゆらぎ性の演奏デ
ータを作成することができる。
The mordent (downward sound) is shown in FIG.
In this case, the only difference is that the lower tone LT is played in place of the upper tone UT, unlike the pralritler, so that the performance data of the fluent characteristic relating to the mordent can be created in the same manner as described above with reference to FIG.

【0083】この発明は、上記した実施形態に限定され
るものではなく、種々の改変形態で実施可能なものであ
る。例えば次のような変更が可能である。
The present invention is not limited to the above embodiment, but can be implemented in various modified forms. For example, the following changes are possible.

【0084】(1)基準演奏データに設ける区間の数は
3つに限らず、2つでも、3つ以上でもよい。また、本
体区間を複数に分けて処理するようにしてもよい。
(1) The number of sections provided in the reference performance data is not limited to three, but may be two or three or more. Further, the processing may be performed by dividing the main body section into a plurality of sections.

【0085】(2)演奏データは、複数パートからなる
構成にしてもよい。また、基準演奏データとしても、複
数パートにそれぞれ対応するものを用意してもよい。例
えば、メロディパートのほかに和音等の伴奏パートを設
け、伴奏パートの基準演奏データとしては、本体区間に
前打音区間や後打音区間を付加したものを用意してもよ
い。
(2) The performance data may be composed of a plurality of parts. As the reference performance data, data corresponding to a plurality of parts may be prepared. For example, an accompaniment part such as a chord may be provided in addition to the melody part, and reference performance data of the accompaniment part may be prepared by adding a pre-hit sound section or a post-hit sound section to the main body section.

【0086】(3)基準演奏データとしては、予めファ
クトリセットで用意したものに限らず、ユーザが作成し
たもの、通信ネットワークから取得したものなどを利用
してもよい。
(3) The reference performance data is not limited to data prepared in advance in a factory set, but may be data created by a user or obtained from a communication network.

【0087】(4)基準演奏データとしては、種々の臨
時記号を有するトリル演奏区間にそれぞれ対応したもの
を用意しておき、臨時記号付きのトリル記号の指定操作
に応答して該臨時記号付きトリル記号に対応したトリル
演奏区間の基準演奏データを自動的に選択するようにし
てもよい。
(4) As the reference performance data, data corresponding to the trill performance sections having various accidental symbols are prepared, and the trill with the accidental symbol is responded in response to the designation operation of the trill symbol with the accidental symbol. The reference performance data of the trill performance section corresponding to the symbol may be automatically selected.

【0088】(5)基準演奏データにおける音高指定
は、例えば中心音等の基準音からの音程を指示すること
で行なうようにしてもよい。
(5) The pitch designation in the reference performance data may be performed by designating a pitch from a reference sound such as a center sound.

【0089】(6)前打音区間や後打音区間については
基準演奏データの前打音区間や後打音区間の演奏タイミ
ング情報を修正せずにそのまま用い、トリル本体区間に
ついてだけ基準演奏データのトリル本体区間の長さを調
整するようにしてもよい。
(6) For the pre-hit sound section and the post-hit sound section, the performance timing information of the pre-hit sound section and the post-hit sound section of the reference performance data is used without modification, and the reference performance data is used only for the trill main section. May be adjusted.

【0090】(7)表情付与処理は、楽曲演奏データ中
からトリル演奏区間等の被処理区間を自動検出して行な
うようにしてもよい。
(7) The expression providing process may be performed by automatically detecting a section to be processed such as a trill performance section from the music piece performance data.

【0091】(8)この発明は、トリル、プラルトリラ
ー、モルデントに限らず、装飾音符、アルペジオ、シェ
イク、ターン、ベンド、グリッサンド等の装飾音につい
て自然感のある演奏データを作成する際に利用可能であ
る。
(8) The present invention can be used to create performance data having a natural feeling for grace notes such as grace notes, arpeggios, shakes, turns, bends, and glissandos, as well as torils, prills, and mordents. is there.

【0092】(9)音量設定のための演算処理として
は、加減算処理に限らず、乗除算処理を用いるようにし
てもよい。但し、1箇所の処理において、加減算処理と
乗除算処理とを併用しない方がよい。
(9) The arithmetic processing for setting the volume is not limited to the addition / subtraction processing, but may be a multiplication / division processing. However, it is better not to use the addition and subtraction processing and the multiplication / division processing in one processing.

【0093】(10)記憶部MAの演奏データは、記憶
装置22の記憶媒体に転送し、他の機会に本演奏装置又
は他の演奏装置で該記憶媒体の演奏データに基づいて自
動演奏を行うようにしてもよい。
(10) The performance data of the storage unit MA is transferred to the storage medium of the storage device 22, and at another occasion, the present performance device or another performance device performs an automatic performance based on the performance data of the storage medium. You may do so.

【0094】(11)演奏データのフォーマットは、イ
ベントの発生時刻を1つ前のイベントからの相対時間で
表わす「イベント+相対時間」方式に限らず、イベント
の発生時刻を曲や小節内の絶対時間で表わす「イベント
+絶対時間」方式、音符の音高と音符長及び休符と休符
長で曲の内容を表わす「音高(休符)+符長」方式、イ
ベント発生の最小時間単位毎に記憶領域を確保し、イベ
ントの発生時刻に対応する記憶領域にイベントを記憶す
る方式等の任意の方式を用いることができる。
(11) The format of the performance data is not limited to the “event + relative time” system in which the event occurrence time is represented by a relative time from the immediately preceding event. "Event + Absolute time" method expressed by time, "Pitch (rest) + note length" method expressing the contents of music by pitch and note length and rest and rest length, minimum time unit of event occurrence An arbitrary method such as a method of securing a storage area for each event and storing the event in a storage area corresponding to the event occurrence time can be used.

【0095】(12)この発明は、パーソナルコンピュ
ータにアプリケーションソフトウェアをインストールす
る形態に限らず、処理装置、記憶装置、音源装置等を別
体装置として備え、これらの装置をMIDIインターフ
ェース又は通信ネットワーク等の通信手段で接続する形
態、あるいは音源装置、自動演奏装置等を内蔵した電子
楽器の形態でも実施可能である。
(12) The present invention is not limited to a form in which application software is installed in a personal computer, but includes a processing device, a storage device, a sound source device, and the like as separate devices, and these devices are provided with a MIDI interface or a communication network. The present invention can also be implemented in the form of connection by communication means, or in the form of an electronic musical instrument incorporating a sound source device, an automatic performance device, and the like.

【0096】[0096]

【発明の効果】以上のように、この発明によれば、奏法
が指示された演奏区間を表情付与情報の複数の演奏区間
にそれぞれ対応して複数の部分演奏区間に分割すると共
に各部分演奏区間毎に対応する演奏区間の表情付与情報
に基づいて演奏データを作成し、複数の部分演奏区間の
演奏データを接続することにより奏法が指示された演奏
区間の演奏データを作成するようにしたので、本体区間
に前打音区間や後打音区間を付加するなどして変化に富
んだ表情性豊かな演奏データを簡単に作成できる効果が
得られる。
As described above, according to the present invention, the performance section in which the playing style is instructed is divided into a plurality of partial performance sections corresponding to the plurality of performance sections of the facial expression imparting information. Since the performance data is created based on the expression providing information of the corresponding performance section for each performance section, the performance data of the performance section in which the playing style is instructed by connecting the performance data of a plurality of partial performance sections is created. By adding a pre-hitting section or a post-hitting section to the main section, it is possible to easily create performance data with a variety of expressions and rich expressiveness.

【0097】また、奏法に係る演奏の異なる速さのうち
所望の速さを指示すると共に指示された速さに対応する
表情付与情報を複数の表情付与情報のうちから選択し、
選択に係る表情付与情報に基づいて、奏法が指示された
演奏区間の演奏データを作成するようにしたので、演奏
テンポとは別に奏法に係る所望の演奏速さを反映した表
情性豊かな演奏データを簡単に作成できる効果も得られ
る。
[0097] Further, a desired speed among different speeds of the performance related to the playing style is designated, and expression providing information corresponding to the designated speed is selected from a plurality of expression providing information.
Since the performance data of the performance section in which the playing style is instructed is created based on the expression providing information related to the selection, the expressive performance data reflecting the desired playing speed of the playing style separately from the performance tempo. Can be easily created.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 トリル記号付き音符に基づく楽譜通りの演奏
及び生演奏を示す図である。
FIG. 1 is a diagram showing a musical performance and a live performance based on a musical score based on a note with a trill symbol.

【図2】 この発明の一実施形態に係る表情付与装置を
備えた自動演奏装置を示すブロック図である。
FIG. 2 is a block diagram showing an automatic performance device provided with an expression providing device according to an embodiment of the present invention.

【図3】 楽曲演奏データのフォーマットを示す図であ
る。
FIG. 3 is a diagram showing a format of music performance data.

【図4】 基準演奏データのフォーマットを示す図であ
る。
FIG. 4 is a diagram showing a format of reference performance data.

【図5】 表情付与処理の概要を説明するための図であ
る。
FIG. 5 is a diagram for explaining an outline of a facial expression providing process.

【図6】 表情付与処理を示すフローチャートである。FIG. 6 is a flowchart showing an expression providing process.

【図7】 準備処理のサブルーチンを示すフローチャー
トである。
FIG. 7 is a flowchart showing a subroutine of a preparation process.

【図8】 前打音区間処理のサブルーチンを示すフロー
チャートである。
FIG. 8 is a flowchart showing a subroutine of a pre-hit sound section process.

【図9】 前打音区間及びトリル本体区間の演奏データ
接続状況を示す図である。
FIG. 9 is a diagram showing a connection state of performance data in a preceding hit section and a trill main section.

【図10】 トリル本体区間処理のサブルーチンを示す
フローチャートである。
FIG. 10 is a flowchart showing a subroutine of a trill body section process.

【図11】 後打音区間処理のサブルーチンを示すフロ
ーチャートである。
FIG. 11 is a flowchart showing a subroutine of post-hit sound section processing.

【図12】 記憶部LMにおける記憶状況を示す図であ
る。
FIG. 12 is a diagram illustrating a storage state in a storage unit LM.

【図13】 前打音区間、トリル本体区間及び後打音区
間の演奏データ作成状況を示す図である。
FIG. 13 is a diagram showing a performance data creation situation of a pre-hit sound section, a trill main body section, and a post-hit sound section.

【図14】 記憶部RBの演奏データに従って記憶部M
Aの演奏データ中のトリル演奏区間の演奏データを書換
える様子を示す図である。
FIG. 14 shows a storage unit M according to performance data in the storage unit RB.
FIG. 7 is a diagram showing a state in which performance data of a trill performance section in the performance data of A is rewritten.

【図15】 トリル記号付き音符を例示する図である。FIG. 15 is a diagram illustrating a note with a trill symbol.

【図16】 トリル記号付き音符に基づく2通りのトリ
ル演奏を示す図である。
FIG. 16 is a diagram showing two types of trill performances based on notes with a trill symbol.

【図17】 臨時記号付きトリル記号を例示する図であ
る。
FIG. 17 is a diagram illustrating a trill symbol with an accidental symbol.

【図18】 プラルトリラーに関する演奏データ作成処
理を説明するための図である。
FIG. 18 is a diagram for explaining performance data creation processing relating to a prill trailer.

【符号の説明】[Explanation of symbols]

10:バス、12:CPU、14:ROM、16:RA
M、18:検出回路、20:表示回路、22:外部記憶
装置、24:タイマ、26:MIDIインターフェイ
ス、28:通信インターフェイス、30:マウス及びキ
ーボード、32:ディスプレイ、34:音源装置、3
6:サウンドシステム、38:通信ネットワーク。
10: bus, 12: CPU, 14: ROM, 16: RA
M, 18: detection circuit, 20: display circuit, 22: external storage device, 24: timer, 26: MIDI interface, 28: communication interface, 30: mouse and keyboard, 32: display, 34: sound source device, 3
6: sound system, 38: communication network.

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】所定の奏法が指示された演奏区間の演奏に
表情を付与するための表情付与情報を連続する複数の演
奏区間分用意するステップと、 前記奏法が指示された演奏区間を前記複数の演奏区間に
それぞれ対応して複数の部分演奏区間に分割するステッ
プと、 前記複数の部分演奏区間のうちの各部分演奏区間毎に前
記複数の演奏区間のうちの対応する演奏区間の表情付与
情報に基づいて演奏データを作成するステップと、 前記複数の部分演奏区間の演奏データを前記複数の演奏
区間に対応する順序で接続して前記奏法が指示された演
奏区間の演奏データを作成するステップとを含む演奏デ
ータ作成方法。
A step of preparing expression providing information for giving a facial expression to a performance of a performance section in which a predetermined playing style is instructed for a plurality of continuous performance sections; Dividing each of the plurality of partial performance sections into a plurality of partial performance sections corresponding to each of the plurality of performance sections; and providing expression information of a corresponding one of the plurality of performance sections for each of the plurality of partial performance sections. Generating the performance data based on the performance data; and connecting the performance data of the plurality of partial performance sections in an order corresponding to the plurality of performance sections to generate performance data of the performance section in which the playing style is instructed. Performance data creation method including
【請求項2】 前記複数の部分演奏区間のうちの各部分
演奏区間毎に演奏データを作成するステップでは、前記
複数の部分演奏区間における演奏のつながりを考慮して
演奏データを作成することを特徴とする請求項1記載の
演奏データ作成方法。
2. In the step of creating performance data for each of the plurality of partial performance sections, performance data is created in consideration of the connection of performances in the plurality of partial performance sections. 2. The performance data creating method according to claim 1, wherein
【請求項3】 前記複数の部分演奏区間のうちの各部分
演奏区間毎に演奏データを作成するステップでは、ある
部分演奏区間の演奏データ作成処理と他の部分演奏区間
の演奏データ処理とが互いに異なることを特徴とする請
求項1記載の演奏データ作成方法。
3. The step of creating performance data for each partial performance section of the plurality of partial performance sections includes performing performance data creation processing for a certain partial performance section and performance data processing for another partial performance section. 2. The performance data creation method according to claim 1, wherein the performance data is different.
【請求項4】 前記ある部分演奏区間の演奏データ作成
処理と、前記他の部分演奏区間の演奏データ作成処理と
では、部分演奏区間の長さに適合した演奏データが得ら
れるように表情付与情報を加工する加工方法が異なるこ
とを特徴とする請求項3記載の演奏データ作成方法。
4. A process for creating performance data for a certain partial performance section and a process for creating performance data for another partial performance section so that performance data suitable for the length of the partial performance section is obtained. 4. The performance data creating method according to claim 3, wherein a processing method for processing the music data is different.
【請求項5】所定の奏法が指示された演奏区間の演奏に
表情を付与するための表情付与情報を連続する複数の演
奏区間分記憶する記憶手段と、 前記奏法が指示された演奏区間を前記複数の演奏区間に
それぞれ対応して複数の部分演奏区間に分割する分割手
段と、 前記複数の部分演奏区間のうちの各部分演奏区間毎に前
記複数の演奏区間のうちの対応する演奏区間の表情付与
情報に基づいて演奏データを作成する第1の作成手段
と、 前記複数の部分演奏区間の演奏データを前記複数の演奏
区間に対応する順序で接続して前記奏法が指示された演
奏区間の演奏データを作成する第2の作成手段とを備え
た演奏データ作成装置。
5. A storage means for storing expression providing information for giving a facial expression to a performance in a performance section in which a predetermined performance style is instructed for a plurality of continuous performance sections, and storing said performance section in which said performance style is instructed. Dividing means for dividing into a plurality of partial performance sections respectively corresponding to the plurality of performance sections; and an expression of a corresponding one of the plurality of performance sections for each of the plurality of partial performance sections. First creating means for creating performance data based on the additional information; and performance data of the performance section in which the playing style is instructed by connecting the performance data of the plurality of partial performance sections in an order corresponding to the plurality of performance sections. A performance data creation device comprising: a second creation means for creating data.
【請求項6】所定の奏法が指示された演奏区間の演奏に
表情を付与するための表情付与情報を連続する複数の演
奏区間分記憶する記憶手段を備えた演奏データ作成装置
において使用される記録媒体であって、 前記奏法が指示された演奏区間を前記複数の演奏区間に
それぞれ対応して複数の部分演奏区間に分割するステッ
プと、 前記複数の部分演奏区間のうちの各部分演奏区間毎に前
記複数の演奏区間のうちの対応する演奏区間の表情付与
情報に基づいて演奏データを作成するステップと、 前記複数の部分演奏区間の演奏データを前記複数の演奏
区間に対応する順序で接続して前記奏法が指示された演
奏区間の演奏データを作成するステップとを含むプログ
ラムを記録した記録媒体。
6. A recording device used in a performance data creating apparatus having storage means for storing expression providing information for providing a facial expression to a performance in a performance section in which a predetermined playing style is instructed for a plurality of continuous performance sections. A medium, wherein the performance section in which the playing style is instructed is divided into a plurality of partial performance sections respectively corresponding to the plurality of performance sections; and for each of the plurality of partial performance sections, Creating performance data based on the expression providing information of the corresponding performance section of the plurality of performance sections; and connecting the performance data of the plurality of partial performance sections in an order corresponding to the plurality of performance sections. Creating performance data for a performance section in which the playing style is instructed.
【請求項7】所定の奏法が指示された演奏区間の演奏に
表情を付与するための表情付与情報を複数用意するステ
ップであって、前記複数の表情付与情報は前記奏法に係
る演奏の異なる速さにそれぞれ対応しているものと、 前記奏法に係る演奏の異なる速さのうち所望の速さを指
示するステップと、 このステップで指示された速さに対応する表情付与情報
を前記複数の表情付与情報のうちから選択するステップ
と、 このステップで選択された表情付与情報に基づいて、前
記奏法が指示された演奏区間の演奏データを作成するス
テップとを含む演奏データ作成方法。
7. A step of preparing a plurality of pieces of facial expression providing information for providing facial expressions to a performance in a performance section in which a predetermined playing style is instructed, wherein said plurality of facial expression providing information includes different speeds of performances related to said playing style. And a step of designating a desired speed among different speeds of the performance according to the playing style; and providing the expression providing information corresponding to the speed designated in this step with the plurality of facial expressions. A performance data creating method, comprising: selecting from among the added information; and creating performance data of a performance section in which the playing style is designated based on the expression added information selected in this step.
JP2000085192A 2000-03-24 2000-03-24 Performance data creation device and performance data creation method Expired - Fee Related JP3632551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000085192A JP3632551B2 (en) 2000-03-24 2000-03-24 Performance data creation device and performance data creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000085192A JP3632551B2 (en) 2000-03-24 2000-03-24 Performance data creation device and performance data creation method

Publications (2)

Publication Number Publication Date
JP2001272979A true JP2001272979A (en) 2001-10-05
JP3632551B2 JP3632551B2 (en) 2005-03-23

Family

ID=18601568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000085192A Expired - Fee Related JP3632551B2 (en) 2000-03-24 2000-03-24 Performance data creation device and performance data creation method

Country Status (1)

Country Link
JP (1) JP3632551B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009216873A (en) * 2008-03-10 2009-09-24 Yamaha Corp Performance data creation apparatus, and program for implementing performance data creation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009216873A (en) * 2008-03-10 2009-09-24 Yamaha Corp Performance data creation apparatus, and program for implementing performance data creation method

Also Published As

Publication number Publication date
JP3632551B2 (en) 2005-03-23

Similar Documents

Publication Publication Date Title
JPH10214083A (en) Musical sound generating method and storage medium
JP2004078095A (en) Playing style determining device and program
JP2006126710A (en) Playing style determining device and program
JP3632551B2 (en) Performance data creation device and performance data creation method
JP3353777B2 (en) Arpeggio sounding device and medium recording a program for controlling arpeggio sounding
JP3724347B2 (en) Automatic composition apparatus and method, and storage medium
JP3587133B2 (en) Method and apparatus for determining pronunciation length and recording medium
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP2003271142A (en) Device and method for displaying and editing way of playing
JP3296182B2 (en) Automatic accompaniment device
JP3637782B2 (en) Data generating apparatus and recording medium
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP3797180B2 (en) Music score display device and music score display program
JP2000155573A (en) Musical data generating device and recording medium for it
JP2000003175A (en) Musical tone forming method, musical tone data forming method, musical tone waveform data forming method, musical tone data forming method and memory medium
JP2947150B2 (en) Automatic performance device
JP4186802B2 (en) Automatic accompaniment generator and program
JP3407563B2 (en) Automatic performance device and automatic performance method
JP3755468B2 (en) Musical data expression device and program
JP4147407B2 (en) Computer program for musical expression and musical expression apparatus
JP3832422B2 (en) Musical sound generating apparatus and method
JP3797181B2 (en) Music score display device and music score display program
JPH11184464A (en) Parameter setting device for playing information and medium where parameter setting control program is recorded
JPH10288984A (en) Musical sound synthesizing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041213

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees