JP4241481B2 - Performance data editing program - Google Patents

Performance data editing program Download PDF

Info

Publication number
JP4241481B2
JP4241481B2 JP2004112705A JP2004112705A JP4241481B2 JP 4241481 B2 JP4241481 B2 JP 4241481B2 JP 2004112705 A JP2004112705 A JP 2004112705A JP 2004112705 A JP2004112705 A JP 2004112705A JP 4241481 B2 JP4241481 B2 JP 4241481B2
Authority
JP
Japan
Prior art keywords
expression
performance data
note
data
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004112705A
Other languages
Japanese (ja)
Other versions
JP2005300629A (en
Inventor
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004112705A priority Critical patent/JP4241481B2/en
Publication of JP2005300629A publication Critical patent/JP2005300629A/en
Application granted granted Critical
Publication of JP4241481B2 publication Critical patent/JP4241481B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

この発明は、複数パートから成る演奏データに表情付けを行う演奏データ編集システムに関する。   The present invention relates to a performance data editing system for adding facial expressions to performance data composed of a plurality of parts.

MIDIデータ等の演奏データを音符の情報のみで構成すると、機械的に無表情な演奏になってしまうので、より自然な演奏、美しい演奏、生々しい演奏などのために、様々な音楽的な表現や楽器らしさを制御データとして加えて演奏データを編集する必要がある。そのため、従来より、演奏データ上の音符列を解析して演奏データに対し自動的に表情付けをすることが行われている。例えば、特許文献1では、主に演奏データの音高の並びを解析して指定又は選択された奏法に相当する表情付けデータ(ピッチベンドデータなど)が付加される。
特開2002−341867号公報
If performance data such as MIDI data is composed only of note information, it becomes a mechanically expressionless performance, so various musical expressions for more natural performance, beautiful performance, live performance, etc. It is necessary to edit the performance data by adding the character of a musical instrument as control data. For this reason, conventionally, musical note sequences on performance data are analyzed to automatically express the performance data. For example, in Patent Document 1, expression data (pitch bend data or the like) corresponding to a performance style designated or selected mainly by analyzing the pitch sequence of performance data is added.
JP 2002-341867 A

この場合、表情付けには奏法に応じていくつかのパラメータがあり、パラメータ値によって表情付けの効果が変わる。例えば、特許文献2に示されるように、ビブラートでは音高の変化幅を表す「深さ」パラメータや周期を表す「速さ」パラメータなどがあり、「深さ」パラメータの値が大きいほど聴感上はっきりしたピッチ変化がわかるようになる。
特開2003−233374号公報
In this case, there are several parameters for facial expression depending on the playing style, and the effect of facial expression changes depending on the parameter value. For example, as shown in Patent Document 2, vibrato has a “depth” parameter indicating a pitch change range, a “speed” parameter indicating a cycle, and the like. You can see a clear pitch change.
JP 2003-233374 A

しかしながら、従来技術によるものでは、表情付けの対象としたパート内での演奏データに対して表情付けが行われているので、対象とされていない他のパートの演奏データ及び他のパートでの表情付けの状態についてはケアされていない。   However, according to the prior art, expression is performed on the performance data in the part targeted for expression, so performance data of other parts that are not targeted and expression in other parts There is no care about the condition.

この発明は、このような事情に鑑み、他のパートの状態も考慮して表情付けすることによって、演奏データ全体からみて効果的な表情付けを行うことができる演奏データ編集システムを提供することを目的とする。   In view of such circumstances, the present invention provides a performance data editing system that can perform an effective expression from the viewpoint of the entire performance data by giving an expression in consideration of the state of other parts. Objective.

この発明の主たる特徴に従うと、複数パート(PA,PB)から成る演奏データを供給するデータ供給ステップ(S1)と、供給された演奏データについて、表情付けの対象となる表情付け対象パートを決定するパート決定ステップ(S2)と、決定された表情付け対象パートの演奏データ及び当該表情付け対象パート以外の他パートの演奏データを基にして、表情付け対象パートの演奏データに表情付けを行う表情付けステップ(S3〜S13)とから成る手順をコンピュータに実行させるための演奏データ編集プログラムであって、表情付けステップ(S3〜S13)は、他パートの演奏データから、表情付け対象パートの演奏データにおいて表情付けが行われる表情付け範囲に対応する範囲の音符データを抽出するステップ(S7)と、当該音符データが抽出された場合は表情付け範囲における表情付けを控えめに制御し、当該音符データが抽出されなかった場合には表情付け範囲における表情付けを強調するように制御するステップ(S8〜S11)とを含む演奏データ編集プログラムが提供される。なお、括弧書きは、理解の便のために、対応する実施例の参照記号等を付記したものであり、以下においても同様である。   According to the main feature of the present invention, a data supply step (S1) for supplying performance data composed of a plurality of parts (PA, PB) and a facial expression target part to be subjected to facial expression are determined for the supplied performance data. A part determination step (S2), and a facial expression for performing facial expression on the performance data of the expression target part based on the determined performance data of the expression target part and performance data of other parts other than the expression target part A performance data editing program for causing a computer to execute the procedure consisting of steps (S3 to S13), wherein the expression adding step (S3 to S13) is performed on the performance data of the part to be expressed from the performance data of other parts. A step (S7) of extracting musical note data in a range corresponding to a facial expression range where facial expression is performed; Steps S8 to S11 are performed to control the expression in the expression range conservatively when the note data is extracted, and to emphasize the expression in the expression range when the note data is not extracted. ) Including a performance data editing program. Note that the parentheses are added with reference symbols and the like of the corresponding embodiments for the convenience of understanding, and the same applies to the following.

この発明による演奏データ編集システムにおいては、複数パート(PA,PB)から成る演奏データが供給され(S1)、供給された演奏データについて表情付けの対象となるパートが決定されると(S2)、表情付け対象のパートの演奏データと他のパートの演奏データを基にして表情付け対象のパートの演奏データに表情付けが行われる(S3〜S13)。従って、この発明によれば、他のパートの状態も考慮して表情付けするので、演奏データ全体でみて効果的な表情付けが可能となる。   In the performance data editing system according to the present invention, performance data composed of a plurality of parts (PA, PB) is supplied (S1), and when the part to be expressed is determined for the supplied performance data (S2), Expression is performed on the performance data of the part to be expressed based on the performance data of the part to be expressed and the performance data of other parts (S3 to S13). Therefore, according to the present invention, expression is made in consideration of the states of other parts, so that effective expression can be achieved in the entire performance data.

さらに、表情付け(S3〜S13)については、表情付けを行おうとする表情付け対象パート(PB)の演奏データにおける表情付け範囲(表情付けがなされる音符データの発音時間に相当する)に対して、他パート(PA)の演奏データに音符データが存在する場合は表情付けを控え目に制御し(S9)、また、表情付け範囲に対して他のパート(PA)の演奏データに音符データが存在しない場合には表情付けを強めに制御する(S10)というように、複数パートの演奏データ内の或るパートに表情付けを行う場合、他のパートの演奏データを調べて表情付けの強さを制御することによって、演奏データに対してトータルで効果的な表情付けを行うことができる。   Furthermore, with regard to facial expression (S3 to S13), with respect to the facial expression range (corresponding to the pronunciation time of the note data to which the facial expression is made) in the performance data of the facial expression target part (PB) to be facialized If the note data is present in the performance data of the other part (PA), the expression is conservatively controlled (S9), and the note data is present in the performance data of the other part (PA) with respect to the expression range. If not, the expression is strongly controlled (S10). When performing expression on a part in the performance data of a plurality of parts, the performance data of other parts is examined to determine the strength of expression. By controlling, it is possible to add a total and effective expression to the performance data.

〔システム構成〕
図1は、この発明の一実施例による演奏データ編集システムのハードウエア構成例を示す。この演奏データ編集システムの例では、演奏データ編集装置には、パーソナルコンピュータ等の汎用の情報処理装置(コンピュータ)が用いられ、演奏入力及び楽音生成機能が付設されているが、電子楽器のような音楽専用の情報処理装置(コンピュータ)を用いてもよい。この演奏データ編集装置は、中央処理装置(CPU)1、ランダムアクセスメモリ(RAM)2、読出専用メモリ(ROM)3、外部記憶装置4、入力操作部5、表示部6、音源部7、通信インターフェース(通信I/F)8等の要素を備え、これら要素1〜8はバス9を介して互いに接続される。
〔System configuration〕
FIG. 1 shows a hardware configuration example of a performance data editing system according to an embodiment of the present invention. In this example of the performance data editing system, a general-purpose information processing device (computer) such as a personal computer is used as the performance data editing device, and performance input and tone generation functions are provided. An information processing apparatus (computer) dedicated to music may be used. This performance data editing device includes a central processing unit (CPU) 1, a random access memory (RAM) 2, a read only memory (ROM) 3, an external storage device 4, an input operation unit 5, a display unit 6, a sound source unit 7, a communication Elements such as an interface (communication I / F) 8 are provided, and these elements 1 to 8 are connected to each other via a bus 9.

装置全体を制御するCPU1は各種制御プログラムに従って各種処理を実行し、制御プログラムに含まれる演奏データ編集プログラムに従って表情付け処理を実行する。RAM2は、これらの処理で利用される種々の情報を一時的に記憶するための処理バッファとして機能する。また、ROM3は、各種制御プログラムや必要な制御データ、演奏データ等の各種データを記憶している。   The CPU 1 that controls the entire apparatus executes various processes according to various control programs, and executes a facial expression process according to a performance data editing program included in the control program. The RAM 2 functions as a processing buffer for temporarily storing various information used in these processes. The ROM 3 stores various data such as various control programs, necessary control data, and performance data.

外部記憶装置4は、ハードディスク(HD)や、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)、フレキシブルディスク(FD)、光磁気(MO)ディスク、ディジタル多目的ディスク(DVD)、メモリカード等の記憶媒体を用いた記憶手段である。演奏データ編集プログラムや演奏データ等の各種プログラム及びデータは、ROM3だけでなく外部記憶装置4に記憶させることができる。   The external storage device 4 is a hard disk (HD), a compact disk read only memory (CD-ROM), a flexible disk (FD), a magneto-optical (MO) disk, a digital multipurpose disk (DVD), a memory card, etc. Storage means using a storage medium. Various programs and data such as a performance data editing program and performance data can be stored not only in the ROM 3 but also in the external storage device 4.

例えば、ROM3に演奏データ編集プログラム等の制御プログラムが記憶されていない場合、HDやCD−ROMなどの外部記憶装置4に制御プログラムを記憶させておきそれをRAM2に読み込むことで、ROM3に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができ、制御プログラムの追加やバージョンアップ等を容易に行うことができる。また、表情付け処理に用いられるプログラムや必要な制御パラメータ等をインストールすることによって所望の演奏データ編集装置を実現することができる。   For example, when a control program such as a performance data editing program is not stored in the ROM 3, the control program is stored in the external storage device 4 such as an HD or a CD-ROM and read into the RAM 2. It is possible to cause the CPU 1 to perform the same operation as in the case of storing the control program, and it is possible to easily add a control program, upgrade the version, and the like. In addition, a desired performance data editing apparatus can be realized by installing a program used for the facial expression processing, necessary control parameters, and the like.

入力操作部5は、電源のオンオフ、表情付け処理の開始及び停止などのスイッチ操作、各種設定、編集操作などを行うための種々のパネル操作子(キー/ボタン、マウス等)や、鍵盤などの演奏操作子を含む操作部と、操作検出回路とから成り、これら操作子を用いたユーザによる演奏操作やパネル操作の内容を操作検出回路で検出し、対応する入力情報をシステム本体内に導入する。   The input operation unit 5 includes various panel operators (keys / buttons, mouse, etc.) for performing switch operations such as turning on / off the power, starting and stopping the facial expression processing, various settings, editing operations, etc. It comprises an operation unit including a performance operator and an operation detection circuit. The operation detection circuit detects the contents of a performance operation and panel operation by a user using these operation elements, and introduces corresponding input information into the system main body. .

表示部6は、これに接続されるディスプレイ(CRT、LCD等の表示器)や各種ランプ・インジケータなどを含む表示装置10の表示内容や点灯状態をCPU1からの指令に従って制御し、入力操作部5の操作に対する表示援助を行う。   The display unit 6 controls the display content and lighting state of the display device 10 including a display (display such as CRT and LCD) connected thereto and various lamps and indicators in accordance with commands from the CPU 1, and the input operation unit 5. Provides display assistance for operations.

音源部7は、音源(ソフトウエアを含む)や効果付与DSPを含み、演奏操作子(5)の演奏操作に基づく実演奏情報や記憶手段3,4などの演奏データ中の演奏情報に対応する楽音信号を生成し、音源部7に接続されるサウンドシステム11は、D/A変換部やアンプ、スピーカを備え、音源部7からの楽音信号に基づく楽音を発生する。   The sound source unit 7 includes a sound source (including software) and an effect imparting DSP, and corresponds to actual performance information based on performance operation of the performance operator (5) and performance information in performance data such as the storage means 3 and 4. A sound system 11 that generates a musical sound signal and is connected to the sound source unit 7 includes a D / A conversion unit, an amplifier, and a speaker, and generates a musical sound based on the musical sound signal from the sound source unit 7.

また、図示の通信I/F8は、ローカルエリアネットワーク(LAN)や、インターネット、電話回線などの一般用通信ネットワーク、或いは、MIDI用ネットワークに接続される各種インターフェースを一括して表わしており、サーバ等の他のコンピュータやMIDI機器などの種々の外部機器12と各種情報を授受することができる。   The communication I / F 8 shown in the figure collectively represents various interfaces connected to a local area network (LAN), a general communication network such as the Internet and a telephone line, or a MIDI network. Various information can be exchanged with various external devices 12 such as other computers and MIDI devices.

例えば、この装置に制御プログラムやデータが記憶されていない場合、通信I/F8を介して他のコンピュータ12から制御プログラム等をダウンロードすることができる。また、外部機器12に、他の演奏情報入力装置(鍵盤楽器など)や演奏データ出力装置を含む各種MIDI機器を用いて、実演奏情報や各種演奏データを通信I/F8から取り込むこともできる。   For example, when no control program or data is stored in this apparatus, a control program or the like can be downloaded from another computer 12 via the communication I / F 8. In addition, actual performance information and various performance data can be captured from the communication I / F 8 using various MIDI devices including other performance information input devices (such as keyboard instruments) and performance data output devices.

〔演奏データ編集の概要〕
この発明の一実施例による演奏データ編集システムでは、演奏データ中の或るパートに自動的に表情付けを行う際、表情付けを行おうとしている対象パート以外の他のパートの様子に従ってその表情を調整する。つまり、他のパートの演奏状態を評価し、評価された状態に応じて当該対象パートの表情を調整することにより、演奏データに対してトータルで効果的に表情を付加することができる。
[Outline of performance data editing]
In the performance data editing system according to one embodiment of the present invention, when automatically applying a facial expression to a certain part in the performance data, the facial expression is expressed according to the state of the other parts other than the target part to be facialized. adjust. That is, by evaluating the performance state of other parts and adjusting the expression of the target part in accordance with the evaluated state, it is possible to add a facial expression to the performance data effectively in total.

この場合、例えば、次の(a)〜(c)のような演奏データ編集上のルールがある:
(a)他のパートの発音がない場合は、強調された特徴的な表情を付加する。
(b)他のパートの発音が多い場合は、おとなしい控えめな表情を付加する。
(c)他のパートに同じ音符の動きがある場合は、その表情を真似る。
In this case, for example, there are rules for editing performance data such as the following (a) to (c):
(A) When there is no pronunciation of other parts, an emphasized characteristic expression is added.
(B) When there are many pronunciations of other parts, add a gentle and discreet expression.
(C) If there are movements of the same note in other parts, the expression is imitated.

ここで付加される表情には、一般的には、音量、ビブラート、スタッカート、トリル、クレッシェンド、デクレッシェンドなどがあり、ギターなどの楽器パートの場合には、チョーキングやスライドなどもある。また、オクターブ等の異なる音高の音を足すなど、その他種々の奏法を適用することができる。そして、付与される表情については、その効果の程度を表わす表情付けパラメータ(「制御パラメータ」ともいう)が設定される。   Expressions added here generally include volume, vibrato, staccato, trill, crescendo, decrescendo, etc. In the case of an instrument part such as a guitar, there are also choking and slides. Also, various other playing methods such as adding sounds of different pitches such as octaves can be applied. Then, a facial expression parameter (also referred to as “control parameter”) indicating the degree of the effect is set for the facial expression to be given.

表1は、ビブラート及びスタッカートを含む表情付けパラメータ値の例を示す。表1において、「効果大の値Va」は、特徴的な表情を付加して表情を強調する場合のパラメータ値を表わし、「効果小の値Vb」は、控えめな表情を付加して表情を抑制する場合のパラメータ値を表わす。これに対して、「デフォルト値Vo」は、このような強弱を与えない場合の標準的なパラメータ値である。

Figure 0004241481
Table 1 shows examples of expression parameter values including vibrato and staccato. In Table 1, “effective effect value Va” represents a parameter value when emphasizing a facial expression by adding a characteristic facial expression, and “small effect value Vb” represents a facial expression by adding a conservative facial expression. Indicates the parameter value for suppression. On the other hand, the “default value Vo” is a standard parameter value when such strength is not given.
Figure 0004241481

例えば、ビブラートを付与する場合には、音高の変調範囲が、デフォルト値で50セント(Cent)=1/2半音であるのに対して、強調時には80セントに設定され、抑制時には10セントに設定される。スタッカートを付与する場合には、対象音符の長さに対する割合が、デフォルト値で60%であるのに対して、強調時には30%に設定され、抑制時には80%に設定される。また、他の表情付けパラメータについても適宜パラメータ値が設定され、例えば、トリルについては、デフォルト値に対して、強調時には細かく、抑制時にはゆっくりと、隣接音との交互演奏がなされるような値に設定される。   For example, when adding vibrato, the pitch modulation range is set to 80 cents for emphasis and 10 cents for suppression, whereas the default value is 50 cents (1/2) semitone. Is set. When staccato is given, the ratio to the length of the target note is 60% by default, but is set to 30% during emphasis and 80% during suppression. In addition, parameter values are also set as appropriate for other facial expression parameters. For example, for trills, the default values are finer when emphasized, and slower when suppressed, with values that allow alternate performance with adjacent sounds. Is set.

ここで、図2のような譜例を用いてこの発明の一実施例による演奏データ編集システムにおける演奏データの表情付けの要点を簡単に説明しておく。このシステムでは、複数パートPA,PBから成る演奏データに対して、表情付けの対象となる「表情付け対象パート」が決定されると、表情付け対象パートの演奏データと他のパートの演奏データを基にして表情付け対象のパートの演奏データに表情付けが行われる。例えば、パートPB(スタッカート無し)にスタッカートの表情付けを行おうとする場合、表情付け対象パートPBの「表情付け範囲」(表情付けを行おうとする第2,4拍)に対して、他のパートPAに音符データが存在する場合は表情付けを控え目に制御し(第2拍)、他のパートPAに音符データが存在しない場合には表情付けを強めに制御する(第4拍)。また、パートPAに表情付けを行う場合は、他パートPBの演奏データに「表情範囲」(スタッカートの表情付けがなされた第2拍及び第4拍)があり、各表情範囲に対応する表情付け対象パートPAの各該当範囲において他パートPBのタイミングや音高の動きで一致していれば、他パートPBの表情付けを真似る。   Here, the essential point of the expression of performance data in the performance data editing system according to one embodiment of the present invention will be briefly described with reference to a score example as shown in FIG. In this system, when the “expression target part” to be expressed is determined for the performance data composed of a plurality of parts PA and PB, the performance data of the expression target part and the performance data of other parts are determined. Expression is performed on the performance data of the part to be expressed based on the expression. For example, when trying to apply a staccato expression to a part PB (without staccato), other parts than the “expression range” (the second and fourth beats to be expressed) of the expression target part PB When note data exists in PA, expression is controlled conservatively (second beat), and when note data does not exist in other parts PA, expression is controlled more strongly (fourth beat). In addition, when performing expression on the part PA, the performance data of the other part PB has “expression range” (second beat and fourth beat with staccato expression), and expression corresponding to each expression range. If there is a match in the timing and pitch movement of the other part PB in each corresponding range of the target part PA, the expression of the other part PB is imitated.

図2について、この発明の一実施例による表情付けの例をより詳しく説明する。この例では、演奏データは、上段のパートPAと下段のパートPBから成り、表情付けパラメータとしてスタッカートを付加するものとして、以下のようなケース(1)〜(3)について述べる。   An example of facial expression according to one embodiment of the present invention will be described in more detail with reference to FIG. In this example, the performance data is composed of an upper part PA and a lower part PB, and the following cases (1) to (3) are described assuming that staccato is added as an expression parameter.

(1)ケース1:下段のパートPBを表情付けパート(図示のスタッカートは無いものとする)とし、音符列d〜g中の音符eに対して、図示のようにスタッカートを付与する場合
この場合は、表情付けパートPB(下段)において表情付けの対象となる表情付け範囲は図示の小節の2拍目先頭から2拍目末尾までであり、他パートPA(上段)から、この表情付け範囲に入る音符データを抽出する。この範囲で抽出される音符は音符bのみであり、表情付けがなされる音符eに対応して音符bが存在するので、当該音符eには、ルール(b)に従って、表1(2)の効果小の値でスタッカートが付けられる。
(1) Case 1: In the case where the lower part PB is a facial expression part (assuming that there is no staccato shown) and staccato is given to the notes e in the note strings d to g in this case. The expression range that is the target of expression in the expression part PB (lower part) is from the beginning of the second beat to the end of the second beat of the illustrated measure, and from this part PA (upper part) to this expression range. Extract note data to enter. The note extracted in this range is only the note b, and there is a note b corresponding to the note e to be expressed. Therefore, according to the rule (b), the note e has a note b in Table 1 (2). A staccato is attached with a small effect value.

(2)ケース2:同上の表情付けパートPBにおける音符列d〜g中の音符gに対して、図示のようにスタッカートを付与する場合
この場合は、表情付けパートPB(下段)の表情付け範囲はこの小節の4拍目先頭から4拍目末尾までであり、他パートPA(上段)から、この表情付け範囲に入る音符データを抽出する。この範囲で抽出される音符はないので、当該音符gには、ルール(a)に従って、表1(2)の効果大のスタッカートが付けられる。
(2) Case 2: When staccato is applied to the notes g in the note strings d to g in the expression part PB as above, in this case, the expression range of the expression part PB (lower) Is from the beginning of the 4th beat to the end of the 4th beat of this measure, and the note data that falls into this expression range is extracted from the other part PA (upper stage). Since there are no notes extracted in this range, the effect g of Table 1 (2) is attached to the note g according to the rule (a).

(3)ケース3:下段のパートPBの音符列d〜g中の音符e及び音符gに対して図示のようにスタッカートが付いた状態で、上段のパートPAに表情付けをする場合
この場合、他パートPB(下段)中で表情付けされた最初の音符eの表情範囲(2拍目の先頭から末尾)に対応する表情付けパートPA(上段)の該当範囲には、音符bがある。そして、これら2つの音符e,bはタイミングと音名(F=ファ)が一致するので、類似性が大きい。それ故、ルール(c)に従って他パートPBの表情を真似るものとし、その際、音符eに対応する音符bには効果大のスタッカートを付ける。なお、他パートPB中で表情付けされた次の音符gの範囲(4拍目の先頭から末尾)については、表情付けパートPAに対応する音符がない(表情付けは不可)。
(3) Case 3: When putting an expression on the upper part PA with the staccato attached to the notes e and g in the note strings d to g of the lower part PB as shown in this case, There is a note b in the corresponding range of the expression part PA (upper part) corresponding to the expression range of the first note e (expression from the beginning of the second beat) in the other part PB (lower part). Since these two musical notes e and b have the same timing and pitch name (F = Fa), the similarity is large. Therefore, the expression of the other part PB is imitated according to the rule (c), and at that time, the note b corresponding to the note e is given a highly effective staccato. Note that there is no note corresponding to the expression part PA (expression is not possible) in the range of the next note g (expression from the beginning of the fourth beat) in the other part PB.

ここで、もし他パートPB(下段)の音符fにスタッカートが付いていたとした場合には、当該音符fの表情範囲(3拍目の先頭から末尾)にある表情付けパートPA(上段)の音符は音符cであり、両音符f,cはタイミングが一致して類似性があるので、ルール(c)に従って他パートPBの表情を真似るものとする。しかし、両音符f,cは音名が違う(f:A=ラ、c:F=ファ)ので類似の程度が小さいため、音符fに対応する音符cには効果小のスタッカートを付ける。   Here, if the note f of the other part PB (lower part) has a staccato, the expression part PA (upper part) in the expression range of the note f (from the beginning to the end of the third beat) Is a note c, and both notes f and c have similar timings and similarities, so that the expression of the other part PB is imitated according to the rule (c). However, since both notes f and c have different note names (f: A = ra, c: F = fa), and the degree of similarity is small, a small staccato is attached to the note c corresponding to the note f.

〔演奏データ編集の動作フロー〕
この発明の一実施例による演奏データ編集システムでは、演奏データ編集プログラムに従って、上述のような表情付け処理を実行する。図3及び図4は、この発明の第1実施形態による表情付け処理の動作例〔表情付け例1〕を表わすフローチャートであり、この表情付け例1では、主としてルール(a),(b)に従った表情付けを行うことができる。
[Operation flow for editing performance data]
In the performance data editing system according to one embodiment of the present invention, the above-described facial expression processing is executed according to the performance data editing program. FIG. 3 and FIG. 4 are flowcharts showing an operation example [facial expression example 1] of the facial expression processing according to the first embodiment of the present invention. In this facial expression example 1, the rules (a) and (b) are mainly used. It is possible to make facial expressions according to the above.

図3及び図4の動作フローにおいて、まず、最初のステップS1(図3)で、入力操作部5のパネル操作子に対するユーザ操作により、ROM3又は外部記憶装置4に記憶されている演奏データから表情付けの編集をすべき演奏データを選択する入力があると、CPU1は、選択された演奏データをROM3又は外部記憶装置4からRAM2上の作業エリアに読み込む。ここで、RAM2に読み込まれる演奏データは複数のパートから成る。   3 and FIG. 4, in the first step S1 (FIG. 3), a facial expression is obtained from the performance data stored in the ROM 3 or the external storage device 4 by a user operation on the panel operator of the input operation unit 5. When there is an input for selecting performance data to be added, the CPU 1 reads the selected performance data from the ROM 3 or the external storage device 4 into the work area on the RAM 2. Here, the performance data read into the RAM 2 is composed of a plurality of parts.

続くステップS2では、さらに、ユーザ操作により、読み込まれた演奏データに含まれる複数のパートから表情付けの対象となるパートを指示する入力があると、CPU1は、指示されたパートを表情付けパートに設定する。次いで、ステップS3において表情付けを行うためのルールを設定する。このルールには、例えば、表情付けをする奏法の種類や、表情付け範囲の検出ルール、各奏法毎に適用される実際の表情付けのアルゴリズムなどが含まれる。なお、ステップS3では、各奏法毎に、演奏データの他パートを参照するか否かを設定することもできる。   In the subsequent step S2, when there is an input for instructing a part to be expressed from a plurality of parts included in the read performance data by the user operation, the CPU 1 sets the instructed part as the expression adding part. Set. Next, a rule for performing facial expression is set in step S3. This rule includes, for example, the type of rendition style to be used for expression, a detection rule for the expression range, and an actual expression expression algorithm applied to each performance style. In step S3, whether or not to refer to other parts of the performance data can be set for each performance style.

このようにして表情付け対象パートや表情付けルール等が設定されると、次のステップS4にて、ユーザ操作による処理進行指示に応じて、ステップS3で設定された表情付けの奏法種類のうち1つの奏法種類を表情付け処理の対象に指定し、ステップS5に進む。   When the expression target part, the expression rule, and the like are set in this way, in the next step S4, one of the expression methods of the expression method set in step S3 according to the processing progress instruction by the user operation. One performance method type is designated as the target of the facial expression processing, and the process proceeds to step S5.

ステップS5では、RAM2に読み込まれた演奏データの表情付けパートから、ステップS4で対象に指定された奏法(「対象奏法」という)の表情付けを行うことができる1乃至複数の時間的な範囲を抽出する。この表情付け可能な範囲は「表情付け範囲」と呼ばれ、例えば、第何小節第1拍の先頭から同小節第1拍の終わりまで、などのように、所定の時間単位で抽出される。なお、表情付け範囲の抽出は、自動で行ってもよいし、ユーザ操作により指示してもよい。   In step S5, one or a plurality of temporal ranges in which expression of the performance method designated as the target in step S4 (referred to as “target performance method”) can be performed from the expression part of the performance data read into the RAM 2. Extract. This expressionable range is called a “expression range”, and is extracted in predetermined time units, for example, from the beginning of the first beat of the first measure to the end of the first beat of the same measure. The expression range may be extracted automatically or may be instructed by a user operation.

次のステップS6では、抽出された表情付け範囲のうち1つに相当する範囲を処理対象に指定する。続いて、ステップS7にて、当該演奏データの他のパートについて、ステップS4で処理対象に指定された範囲(「対象範囲」という)内で発音状態になる音符データを抽出し、ステップS8にて、このような音符データが他パートから抽出されたか否かを判定する。   In the next step S6, a range corresponding to one of the extracted facial expression ranges is designated as a processing target. Subsequently, in step S7, for the other parts of the performance data, note data that is in a sounding state within the range designated as the processing target in step S4 (referred to as “target range”) is extracted, and in step S8. Then, it is determined whether or not such note data is extracted from other parts.

ここで、他パートから音符データが抽出されたときは(S8→YES)、ステップS9で奏法の効果小のパラメータ値Vbを取得し、その後、ステップS11に進む。一方、他パートから音符データが抽出されないときは(S8→NO)、ステップS10で奏法の効果大のパラメータ値Vaを取得し、その後、ステップS11に進む。   Here, when note data is extracted from another part (S8 → YES), a parameter value Vb with a small effect of the rendition style is acquired in step S9, and then the process proceeds to step S11. On the other hand, when note data is not extracted from other parts (S8 → NO), a parameter value Va with a large performance effect is obtained in step S10, and then the process proceeds to step S11.

ステップS11では、表情付けパートにおいて、対象範囲に含まれる音符データを抽出し、ステップS9,S10で取得された表情付けパラメータ値Vb,Vaに基づいた表情付けを行う。この後、ステップS12(図4)に進み、対象奏法の表情付け可能な他の範囲があるか否かを判定する。ここで、同じ対象奏法の表情付け範囲が他にあるときは(S12→YES)、ステップS6に戻って、当該他の表情付け範囲の1つに相当する範囲を新たな対象範囲に指定し、新たな対象範囲について上述したステップS6〜S12の処理を繰り返す。   In step S11, note data included in the target range is extracted from the expression part, and expression based on the expression parameter values Vb and Va acquired in steps S9 and S10 is performed. Thereafter, the process proceeds to step S12 (FIG. 4), and it is determined whether or not there is another range in which the subject rendition style can be expressed. Here, when there are other facial expression ranges of the same target playing method (S12 → YES), the process returns to step S6, and a range corresponding to one of the other facial expression ranges is designated as a new target range, The above-described steps S6 to S12 are repeated for the new target range.

なお、ステップS3にて、演奏データの他パートを参照することなく表情付けを行うように設定された奏法については、ステップS5〜S10の処理を省略し、ステップS11において、表情付けパートに対し、当該対象奏法に設定されているデフォルト値Voに基づいた表情付けを行うことができる。   It should be noted that the processing in steps S5 to S10 is omitted for the performance style set to perform facial expression without referring to other parts of the performance data in step S3, and the facial expression part is omitted in step S11. It is possible to perform facial expression based on the default value Vo set in the target performance method.

また、同一対象奏法の表情付け可能な対象範囲がなくなったときは(S12→NO)、ステップS13に進んで、表情付けすべき他の奏法があるか否かを判定する。ここで、表情付けすべき他の奏法種類が他にあるときは(S13→YES)、ステップS4に戻って、当該他の奏法種類の1つを新たな対象奏法に指定し、新たな対象奏法について上述したステップS4〜S13の処理を繰り返す。   When there is no more target range in which the same subject performance method can be applied (S12 → NO), the process proceeds to step S13 to determine whether there is another performance method to be expressed. Here, when there are other performance style types to be expressed (S13 → YES), the process returns to step S4, and designates one of the other performance style types as a new target performance style, and a new target performance style. Steps S4 to S13 described above are repeated.

そして、表情付けすべき全ての奏法についてステップS4〜S13の処理を実行し、対象奏法がなくなったときに(S13→NO)、この動作フローを終了する。   Then, the processing of steps S4 to S13 is executed for all performance styles to be expressed, and when there is no target performance style (S13 → NO), this operation flow is ended.

図5及び図6は、この発明の第2実施形態による表情付け処理の動作例〔表情付け例2〕を表わすフローチャートであり、この表情付け例2では、主としてルール(c)に従った表情付けを行うことができる。   FIG. 5 and FIG. 6 are flowcharts showing an operation example [facial expression example 2] of the facial expression processing according to the second embodiment of the present invention. In this facial expression example 2, the facial expression according to rule (c) is mainly used. It can be performed.

図5及び図6の動作フローにおいて、まず、最初のステップR1(図5)では、ステップS1と同様に、複数のパートから成る演奏データを表情付け編集の対象としてROM3又は外部記憶装置4から読み出し、RAM2上の作業エリアに読み込む。次のステップR2では、ステップS2と同様に、読み込まれた演奏データに含まれる複数のパートから表情付けの対象として指示されたパートを表情付けパートに設定する。   5 and 6, in the first step R1 (FIG. 5), as in step S1, performance data composed of a plurality of parts is read out from the ROM 3 or the external storage device 4 as an object for facial expression editing. , Read into the work area on the RAM 2. In the next step R2, as in step S2, the part instructed as an expression object from a plurality of parts included in the read performance data is set as the expression part.

次いで、ステップR3において、表情付けのためのルールを設定する。このルールには、ルール(c)を適用する際に類似判定に使用されるルールの詳細設定や、既に表情付けされている表情範囲の検出ルール、各奏法毎に適用される実際の表情付けのアルゴリズムなどが含まれる。なお、このステップR3では、各奏法毎に、他パートを単純に真似るか否かを設定することもできる。   Next, in step R3, a rule for expression is set. This rule includes detailed settings of rules used for similarity determination when applying rule (c), detection rules for facial expression ranges already applied with facial expressions, and actual facial expressions applied for each performance style. Includes algorithms. In this step R3, it is also possible to set for each performance style whether or not to simply imitate other parts.

このようにして表情付け対象パートや表情付けルール等が設定されると、次のステップR4では、当該演奏データにおいて表情付けパートに設定されていない他のパートを検索し、当該他パートから、表情付け情報のある1乃至複数の範囲を抽出する。このように表情付けがなされた範囲は「表情範囲」と呼ばれ、例えば、第何小節第1拍の先頭から同小節第1拍の終わりまでにビブラートらしいピッチベンドデータ(複数)が存在する、などのように、所定の時間単位で抽出される。   When the facial expression target part, the facial expression rule, and the like are set in this way, in the next step R4, other parts not set as the facial expression part are searched in the performance data, and the facial expression is searched from the other part. One or more ranges with attached information are extracted. The range in which expression is applied in this way is called “expression range”. For example, pitch bend data (plural) that seems to be vibrato exist from the beginning of the first beat of the first measure to the end of the first beat of the same measure, etc. As described above, the data is extracted in predetermined time units.

次のステップR5では、抽出された表情範囲のうち1つに相当する範囲を処理対象に指定する。まず、ステップR6で、当該演奏データの表情付けパートから、ステップR5で処理対象に指定された範囲(「対象範囲」という)内の音符データを抽出し、次いで、ステップR7(図6)にて、他パートからも対象範囲内の音符データを抽出する。   In the next step R5, a range corresponding to one of the extracted facial expression ranges is designated as a processing target. First, in step R6, note data in the range designated as the processing target in step R5 (referred to as “target range”) is extracted from the expression part of the performance data, and then in step R7 (FIG. 6). Also, note data within the target range is extracted from other parts.

そして、ステップR8において、表情付けパート内で抽出された音符データと他パート内で抽出された音符データの発音タイミングの類似を比較し、続くステップR9にて、両音符データの発音タイミングが類似しているか否かを判定する。ここで、両音符データの発音タイミングが類似していると判定されたときは(R9→YES)、さらに、ステップR10に進む。   In step R8, the note data extracted in the expression part and the note data extracted in the other part are compared in similar sound generation timing, and in step R9, the sound generation timing of both note data is similar. It is determined whether or not. Here, when it is determined that the sound generation timings of both note data are similar (R9 → YES), the process further proceeds to step R10.

ステップR10では、他パートから当該対象範囲内にある1乃至複数の表情付け情報(奏法)を抽出する。続いて、ステップR11で、ステップR6にて表情付けパート内で抽出された音符データとステップR7にて他パート内で抽出された音符データの音名を比較し、次のステップR12にて、両音符データの音名が一致しているか否かを判定する。   In step R10, one or more facial expression information (playing styles) within the target range are extracted from other parts. Subsequently, in step R11, the note data extracted in the expression part in step R6 is compared with the note names of the note data extracted in other parts in step R7. It is determined whether or not the note names of the note data match.

ここで、表情付けパート及び他パートから抽出された両音符データの音名が一致したときは(R12→YES)、ステップR13にて、奏法の効果大のパラメータ値Vaを取得し、その後、ステップR15に進む。一方、両音符データの音名が一致していないときは(R12→NO)、ステップR14で奏法の効果小のパラメータ値Vbを取得し、その後、ステップR15に進む。   Here, when the note names of both note data extracted from the expression part and the other parts match (R12 → YES), a parameter value Va with a large performance effect is obtained in step R13, and then the step Proceed to R15. On the other hand, when the note names of both note data do not match (R12 → NO), the parameter value Vb with a small effect of the rendition style is acquired in step R14, and then the process proceeds to step R15.

ステップR15では、表情付けパートにおいて、対象範囲に含まれる音符データに対して、ステップR10で抽出した種類の表情付けを、ステップR13,R14で取得された表情付けパラメータ値Va,Vbに基づいて行い、その後、ステップR16に進む。   In step R15, the facial expression part performs facial expression of the type extracted in step R10 on the note data included in the target range based on the facial expression parameter values Va and Vb acquired in steps R13 and R14. Thereafter, the process proceeds to Step R16.

なお、ステップR8〜R15の具体的な処理内容は、ステップR3で設定された類似判定ルールの内容によって変化する。例えば、ステップR3にて、他パートを単純に真似るように設定された奏法については、ステップR10〜R14の処理を省略し、ステップR15において、表情付けパートに対し、当該対象奏法に設定されているデフォルト値Voに基づいた表情付けを行うことができる。   Note that the specific processing content of steps R8 to R15 varies depending on the content of the similarity determination rule set in step R3. For example, for the rendition style set to simply imitate other parts in step R3, the processing in steps R10 to R14 is omitted, and in step R15, the target rendition style is set for the expression part. Expression can be performed based on the default value Vo.

ステップR16では、ステップR4で他パートから抽出された表情範囲が他にあるか否かを判定し、未だ他の表情範囲があるときは(R16→YES)、ステップR5に戻って、当該他の表情範囲の1つに相当する範囲を新たな対象範囲に指定し、新たな対象範囲について上述したステップR5〜R16の処理を繰り返す。   In step R16, it is determined whether or not there is another facial expression range extracted from the other part in step R4. If there is still another facial expression range (R16 → YES), the process returns to step R5 and the other A range corresponding to one of the facial expression ranges is designated as a new target range, and the processes in steps R5 to R16 described above are repeated for the new target range.

そして、他パートから抽出された全ての表情範囲についてステップR5〜R16の処理を実行し、抽出された表情範囲が他になくなったときに(R16→NO)、この動作フローを終了する。   Then, the processing of steps R5 to R16 is executed for all facial expression ranges extracted from other parts, and when there are no more facial expression ranges extracted (R16 → NO), this operation flow is ended.

〔種々の実施態様〕
以上、この発明の好適な一実施例について説明したが、これは単なる一例であって、この発明は、その精神を逸脱しない範囲で種々の変更が可能であり、種々の態様で実施することができる。例えば、表情付けのために供給される演奏データは、元々表情付け情報を含んでいてもよい。特に、第2実施形態のように他パートを真似るような場合には、演奏データの他パートに表情付け情報を含む必要がある。
[Various Embodiments]
Although a preferred embodiment of the present invention has been described above, this is merely an example, and the present invention can be variously modified without departing from the spirit thereof and can be implemented in various modes. it can. For example, performance data supplied for facial expression may originally include facial expression information. In particular, when imitating other parts as in the second embodiment, it is necessary to include facial expression information in the other parts of the performance data.

表情付けを行う手順としては、或るパートの演奏データを自動で分析して複数種類の表情付けを行う手順を採用してもよいし、例えば、楽譜を表示した画面上でマウスなどを使って、表情付けしたい音符を指定するような手順を採用してもよい。   As a procedure for performing facial expression, a procedure for automatically analyzing performance data of a certain part and performing multiple types of facial expression may be employed. For example, a mouse or the like may be used on a screen displaying a score. A procedure for designating a note to be expressed may be adopted.

表情付けは、音符に対して行われるものもあれば、例えば、小節などの範囲指定で行われるものもある。音符に対して行われる表情付けの例には、スタッカートやビブラートやチョーキングなどがあり、範囲指定で行われる表情付けの例には、クレッシェンド、デクレッシェンドなどがある。   The expression is applied to a note, and for example, the expression is performed by specifying a range such as a measure. Examples of facial expression performed on notes include staccato, vibrato, choking, and examples of facial expression performed by range designation include crescendo and decrescendo.

表情付けを強調する場合には、対象となる音符データ音量を大きくし、表情付けを抑え目にする場合には音量を小さくするようにしてもよい。また、表情付けの種類がスタッカートの場合は、演奏データが全体的に音長がスタッカート気味に短い場合には音長を長くし、逆に演奏データが全体的に音長が長い場合には音長を短くすれば強調した表情付けになる。ビブラートの場合は、深さを深くすれば効果が強調され、逆に浅くすれば効果が控えめになる。或いは、強調する場合には表情付けを行い、控えめにするには表情付けを行わないという制御を採用してもよい。   When emphasizing expression, the target note data volume may be increased, and the volume may be decreased when expression is suppressed. If the expression type is staccato, the length of the performance data will be longer if the overall length of the performance data is short, but conversely if the performance data is overall longer, the sound will be longer. If the length is shortened, the expression will be emphasized. In the case of vibrato, if the depth is deepened, the effect is emphasized, and conversely, if the depth is shallow, the effect becomes modest. Alternatively, it is possible to adopt a control in which expression is applied when emphasizing and expression is not performed when conservative.

パート間の音符データの類似判定は、例えば、音符データの発音タイミングよりリズムが同じかどうか、次の音符データの音高が現在の音符データの音高より高いか低いかのパターンが同じかどうか、或いは、同じタイミングでの音符データの音高が一致するかどうか、などの1つ又はそれらの組み合わせで行うことができる。また、タイミングの比較については、多少の誤差を許容するようにしてもよい。   The similarity determination of the note data between parts is, for example, whether the rhythm is the same as the note timing of the note data, and whether the pitch of the next note data is the same or lower than the current note data Alternatively, it can be performed by one or a combination thereof, such as whether or not the pitches of the note data at the same timing match. In addition, the timing comparison may allow some errors.

パート間の音符データが類似していると判定された場合には、単純に真似てもよいが、例えば、リズムだけが類似している場合と、更に音名乃至音高も一致している場合とでは、表情付けの制御を変えるようにしてもよい。例えば、第2実施形態では、音名の一致を判断に入れたが、音名に加えて或いは音名に代えて音高の一致を判断し、音高も一致している場合は効果が更に大きくなるように表情付けし(R13→R15に相当)、リズムだけが類似している場合は効果が小さくなるように表情付けする(R14→R15)ようにすることができる。   When it is determined that the note data between parts is similar, it may simply be imitated, but for example, when only the rhythm is similar, and when the note name or pitch also match Then, the expression control may be changed. For example, in the second embodiment, the match of the pitch name is taken into consideration, but if the pitch match is determined in addition to the pitch name or instead of the pitch name, and the pitch is also matched, the effect is further improved. It is possible to add a facial expression so as to increase (corresponding to R13 → R15), and to apply an expression so as to reduce the effect when only the rhythm is similar (R14 → R15).

実施例では、説明の簡単化のために、2パートから成る演奏データに説明したが、実際にはもっと多くのパートがあってもよい。多数のパートがある場合は、1つ1つのパートを順番に表情付けの対象にしていってもよい。   In the embodiment, the performance data consisting of two parts has been described for the sake of simplification, but actually there may be more parts. When there are a large number of parts, each part may be set as an expression target in order.

実際の表情付けの方法は、例えば、ピッチベンドデータやエクスプレッションデータを付与する、該当する奏法を表わす波形データをアサインする、などの従来の方法でよい。   The actual facial expression method may be a conventional method, for example, assigning pitch bend data or expression data, or assigning waveform data representing a corresponding playing style.

表情付けの制御については、実施例では、説明を簡単にするために、強調する場合、普通の場合、控えめに(抑制)する場合の奏法毎の制御パラメータ値(Va,Vo,Vb)を設定するものとしたが、更に何段階かにわたって設定されていてもよい。また、これらパラメータ値は、絶対値ではなくパーセントなどデフォルト値に対する割合で設定されていてもよいし、ユーザがデフォルト値も含めて設定変更可能であってもよい。   For the control of facial expression, in the embodiment, in order to simplify the description, control parameter values (Va, Vo, Vb) are set for each performance style when emphasizing, normal, and conservative (suppressing). However, it may be set over several stages. Further, these parameter values may be set not as absolute values but as a percentage of default values such as percentages, and the user may be able to change the settings including the default values.

類似判定の基準についても、項目の数や種類は、実施例に限らず、ユーザにより設定編集可能であってもよい。また、各基準の優先順位や組み合わせなどについても、同様に、実施例に限らず変更可能でよい。   Regarding the criteria for similarity determination, the number and types of items are not limited to those in the embodiment, and may be set and edited by the user. Similarly, the priority order and combinations of the standards may be changed without being limited to the embodiments.

この発明の一実施例による演奏データ編集システムのハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the performance data editing system by one Example of this invention. この発明の一実施例による表情付けを説明するための譜例である。It is a musical score for demonstrating facial expression by one Example of this invention. この発明の第1実施形態による表情付け処理の動作例〔表情付け例1〕を表わすフローチャートの一部である。It is a part of flowchart which shows the operation example [Expression example 1] of the expression process by 1st Embodiment of this invention. この発明の第1実施形態による表情付け処理の動作例〔表情付け例1〕を表わすフローチャートの他部でである。It is another part of the flowchart showing the operation example [Expression example 1] of the expression process according to the first embodiment of the present invention. この発明の第2実施形態による表情付け処理の動作例〔表情付け例2〕を表わすフローチャートの一部である。It is a part of flowchart which shows the operation example [Expression example 2] of the expression process by 2nd Embodiment of this invention. この発明の第2実施形態による表情付け処理の動作例〔表情付け例2〕を表わすフローチャートの他部である。It is the other part of the flowchart showing the operation example [Expression example 2] of the expression process according to the second embodiment of the present invention.

符号の説明Explanation of symbols

PA,PB パート、
Vo デフォルトの表情付け(制御)パラメータ値、
Va 効果大の場合(強調時)の表情付け(制御)パラメータ値、
Vb 効果小の場合(抑制時)の表情付け(制御)パラメータ値。
PA, PB part,
Vo default facial expression (control) parameter values,
Va parameter value when effect is large (when emphasizing),
Vb Value of expression (control) parameter when effect is small (when suppressed).

Claims (1)

複数パートから成る演奏データを供給するデータ供給ステップと、
供給された演奏データについて、表情付けの対象となる表情付け対象パートを決定するパート決定ステップと、
決定された表情付け対象パートの演奏データ及び当該表情付け対象パート以外の他パートの演奏データを基にして、表情付け対象パートの演奏データに表情付けを行う表情付けステップと
から成る手順をコンピュータに実行させるための演奏データ編集プログラムであって、
上記表情付けステップは、
他パートの演奏データから、表情付け対象パートの演奏データにおいて表情付けが行われる表情付け範囲に対応する範囲の音符データを抽出するステップと、
当該音符データが抽出された場合は上記表情付け範囲における表情付けを控えめに制御し、当該音符データが抽出されなかった場合には上記表情付け範囲における表情付けを強調するように制御するステップと
を含むことを特徴とする演奏データ編集プログラム。
A data supply step for supplying performance data comprising a plurality of parts;
A part determining step for determining a facial expression target part to be subjected to facial expression with respect to the supplied performance data;
Based on the determined performance data of the expression target part and performance data of other parts other than the expression target part, a procedure including an expression step for expressing the performance data of the expression target part is stored in the computer. A performance data editing program for execution,
The facial expression step
Extracting note data in a range corresponding to the expression range in which expression is performed in the performance data of the part to be expressed from the performance data of other parts;
A step of conservatively controlling the expression in the expression range when the note data is extracted, and a step of controlling to enhance the expression in the expression range when the note data is not extracted. A performance data editing program including:
JP2004112705A 2004-04-07 2004-04-07 Performance data editing program Expired - Fee Related JP4241481B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004112705A JP4241481B2 (en) 2004-04-07 2004-04-07 Performance data editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004112705A JP4241481B2 (en) 2004-04-07 2004-04-07 Performance data editing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008287291A Division JP4613996B2 (en) 2008-11-10 2008-11-10 Performance data editing program

Publications (2)

Publication Number Publication Date
JP2005300629A JP2005300629A (en) 2005-10-27
JP4241481B2 true JP4241481B2 (en) 2009-03-18

Family

ID=35332270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004112705A Expired - Fee Related JP4241481B2 (en) 2004-04-07 2004-04-07 Performance data editing program

Country Status (1)

Country Link
JP (1) JP4241481B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4757089B2 (en) * 2006-04-25 2011-08-24 任天堂株式会社 Music performance program and music performance apparatus

Also Published As

Publication number Publication date
JP2005300629A (en) 2005-10-27

Similar Documents

Publication Publication Date Title
JP3675287B2 (en) Performance data creation device
JPH07325583A (en) Method and device for analyzing and synthesizing sound
JP2006030414A (en) Timbre setting device and program
JP3900188B2 (en) Performance data creation device
JP6175812B2 (en) Musical sound information processing apparatus and program
JP3915807B2 (en) Automatic performance determination device and program
JP4561636B2 (en) Musical sound synthesizer and program
JP4241481B2 (en) Performance data editing program
JP5061926B2 (en) Electronic music apparatus and performance data editing display program
JP4613996B2 (en) Performance data editing program
JP4007418B2 (en) Performance data expression processing apparatus and recording medium therefor
JP2003177751A (en) Playing data processing device
JP3900187B2 (en) Performance data creation device
JP4123242B2 (en) Performance signal processing apparatus and program
JP4735221B2 (en) Performance data editing apparatus and program
JP3656519B2 (en) Performance data creation apparatus and recording medium with facial expressions
JP4595852B2 (en) Performance data processing apparatus and program
JP2002328673A (en) Electronic musical score display device and program
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP3948464B2 (en) Performance data generating apparatus and recording medium
JP2016057389A (en) Chord determination device and chord determination program
JP2008058796A (en) Playing style deciding device and program
JP4595851B2 (en) Performance data editing apparatus and program
JP5104415B2 (en) Automatic performance device and program
JP2005106989A (en) Musical score-corresponding data generating device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080909

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4241481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140109

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees