JP2007156181A - Musical performance data editing device and program - Google Patents

Musical performance data editing device and program Download PDF

Info

Publication number
JP2007156181A
JP2007156181A JP2005352465A JP2005352465A JP2007156181A JP 2007156181 A JP2007156181 A JP 2007156181A JP 2005352465 A JP2005352465 A JP 2005352465A JP 2005352465 A JP2005352465 A JP 2005352465A JP 2007156181 A JP2007156181 A JP 2007156181A
Authority
JP
Japan
Prior art keywords
performance data
expression
data
inflection
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005352465A
Other languages
Japanese (ja)
Other versions
JP4735221B2 (en
Inventor
Akira Yamauchi
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005352465A priority Critical patent/JP4735221B2/en
Publication of JP2007156181A publication Critical patent/JP2007156181A/en
Application granted granted Critical
Publication of JP4735221B2 publication Critical patent/JP4735221B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate musical performance data that enable even a beginner user who does not have much knowledge to naturally play like a real musical instrument with sufficient expression by taking variation in modulation into consideration. <P>SOLUTION: This musical performance data editing system is characterized in that when modulation data (1b) representing modulation of a musical performance changing with time are set for musical performance data (1a) including note information, a note group having temporal connections is set at a musical performance data part to be given expression and feature information representing features of modulation change such as a rise and a fall in modulation is extracted based upon temporal change of the modulation data (1b) set at each musical performance data part. Expression such as vibratos is imparted to each musical performance data part (1d) according to expression template (table) ((2a), (2b)) selected based upon the extracted feature information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、演奏データに付加する表情を抑揚の変化に応じて制御することができる演奏データ編集システムに関する。   The present invention relates to a performance data editing system capable of controlling a facial expression added to performance data in accordance with a change in inflection.

MIDIデータなどの演奏データを音符の情報のみで構成すると、機械的に無表情な演奏になってしまう。より自然な演奏、美しい演奏、生々しい演奏などを実現するためには、様々な音楽的な表現や、楽器らしさを制御データとして加える上、MIDIデータの編集方法を熟知している必要がある。しかし、このような演奏表現を加える作業について、曲のどの部分にどのような表現を加えるかをユーザに委ねるとしたら、ユーザは音楽や楽器の特性を熟知している必要が生じる。つまり、ユーザは、実際の楽器の演奏特性とコンピュータミュージックの両方に長けていないと良いと思われる演奏データを作り上げることができず、また、両方に長けていても面倒かつ困難な作業である。従って、幅の広いユーザに簡単に使えるシステムにするためには、機械が判断できる部分は自動的に行なった方がよい。   If performance data such as MIDI data is composed only of note information, the performance becomes mechanically expressionless. In order to realize more natural performances, beautiful performances, lively performances, etc., it is necessary to add various musical expressions and musical instrument characteristics as control data and to be familiar with MIDI data editing methods. However, if it is left to the user what kind of expression is added to which part of the music for the work of adding such performance expression, the user needs to be familiar with the characteristics of music and musical instruments. That is, the user cannot create performance data that should be good at both the performance characteristics of the actual musical instrument and the computer music, and is troublesome and difficult even if it is good at both. Therefore, in order to make the system easy to use for a wide range of users, it is better to automatically perform the parts that can be judged by the machine.

このため、例えば、特許文献1や特許文献2のように、演奏データに楽器らしさを出すための自動化の工夫を施したものが提案されている。
特開2002−244657号公報 特開2005−115073号公報
For this reason, for example, Patent Document 1 and Patent Document 2 have been proposed that have been devised for automation in order to bring out musicality like performance data.
JP 2002-244657 A JP-A-2005-115073

特許文献1の演奏情報処理装置では、曲全体に構成感のある表情付けを実施するため、曲を幾つかの部分に分割し、分割区間毎に抑揚データを適用して抑揚表情を付加するようになっており、抑揚表情を付加する具体的な手段としては音量を抑揚データによって制御している。また、特許文献2の音楽的表情付け装置では、表情付け制御データを用いて音量だけでなくビブラートなどによる音楽表現情報を演奏データに自動的に付加している。   In the performance information processing apparatus of Patent Document 1, in order to perform expression with a sense of composition on the entire song, the song is divided into several parts, and an inflection expression is applied by applying inflection data for each divided section. As a specific means for adding an inflection expression, the volume is controlled by inflection data. In addition, in the musical expression device of Patent Document 2, not only the volume but also music expression information such as vibrato is automatically added to the performance data using the expression control data.

しかしながら、従来技術では、ノートの時間的位置に相当する抑揚データや表情付け制御データの値が直接表情付けに関与しており、抑揚の変化が反映されていない。つまり、例えば、抑揚の度合が同じでも、抑揚が高まる場合と収まる場合では音楽表現の種類が異なると、より自然な演奏が得られることが多く、抑揚の変化は音楽表現にとっては重要であるにも拘わらず、このような抑揚の変化が考慮されていなかった。   However, in the prior art, the values of inflection data and expression control data corresponding to the temporal position of the note are directly related to expression, and changes in intonation are not reflected. In other words, for example, even if the degree of intonation is the same, if the type of music expression is different between when the inflection increases and when it falls, more natural performances are often obtained, and changes in intonation are important for music expression. Nevertheless, such changes of intonation were not taken into account.

この発明の主たる目的は、このような事情に鑑み、抑揚の変化を考慮することにより、知識の少ない初心者ユーザであっても、十分に表情付けされ、本物の楽器らしい自然な演奏が実現可能な演奏データを生成することができるようにした演奏データ編集システムを提供することにある。   In view of such circumstances, the main object of the present invention is to allow for even a novice user with little knowledge to realize a natural performance like a real musical instrument, even if it is a novice user with little knowledge. An object is to provide a performance data editing system capable of generating performance data.

この発明の主たる特徴に従うと、ノート情報を含む演奏データ〔図2(1a)〕を取得する演奏データ取得手段(E1)と、取得された演奏データについて、表情付けの対象となる演奏データ部分(対象音符群A,B,C,…)を設定する対象設定手段(E5)と、取得された演奏データに対して、演奏に従い時間的に変化する演奏の抑揚を表わす抑揚データ〔図2(1b)〕を設定する抑揚設定手段(E4)と、上記演奏データ部分(A,B,C,…)に設定された抑揚データ〔図3(2)〕の時間的な変化に基づいて、抑揚変化の特徴を表わす特徴情報を抽出する特徴抽出手段(E7)と、抽出された特徴情報に基づいて、上記演奏データ部分(A,B,C,…)に表情付けを施す表情付け手段(E8;図6)とを具備する演奏データ編集装置(電子音楽装置EM)〔請求項1〕、並びに、ノート情報を含む演奏データ〔図2(1a)〕を取得する演奏データ取得ステップ(E1)と、取得された演奏データについて、表情付けの対象となる演奏データ部分(対象音符群A,B,C,…)を設定する対象設定ステップ(E5)と、取得された演奏データに対して、演奏に従い時間的に変化する演奏の抑揚を表わす抑揚データ〔図2(1b)〕を設定する抑揚設定ステップ(E4)と、上記演奏データ部分(A,B,C,…)に設定された抑揚データ〔図3(2)〕の時間的な変化に基づいて、抑揚変化の特徴を表わす特徴情報を抽出する特徴抽出ステップ(E7)と、抽出された特徴情報に基づいて、上記演奏データ部分(A,B,C,…)に表情付けを施す表情付けステップ(E8;図6)とから成る手順をコンピュータ(電子音楽装置EM)に実行させる演奏データ編集プログラム〔請求項3〕が提供される。なお、括弧書きは、理解の便の為に付した実施例の参照記号、用語乃至箇所等である。   According to the main feature of the present invention, the performance data acquisition means (E1) for acquiring performance data including note information (FIG. 2 (1a)), and the performance data portion (to which a facial expression is applied to the acquired performance data) Target setting means (E5) for setting the target note group A, B, C,..., And inflection data representing the inflection of the performance that changes with time according to the performance with respect to the acquired performance data [FIG. )] And the inflection change based on the temporal change of the inflection data [FIG. 3 (2)] set in the performance data portion (A, B, C,...) Feature extraction means (E7) for extracting feature information representing the features of the expression, and expression adding means (E8; for applying expression to the performance data portion (A, B, C,...) Based on the extracted feature information. Figure 6) Apparatus (electronic music apparatus EM) [Claim 1], performance data acquisition step (E1) for acquiring performance data including note information [Fig. 2 (1a)], and expression of the acquired performance data A target setting step (E5) for setting a target performance data portion (target note group A, B, C,...), And a performance inflection that changes with time according to the performance of the acquired performance data. The inflection setting step (E4) for setting the inflection data [FIG. 2 (1b)] and the inflection data [FIG. 3 (2)] set in the performance data portion (A, B, C,...) Over time A feature extraction step (E7) for extracting feature information representing the feature of the inflection change based on the change, and expression of the performance data portion (A, B, C,...) Based on the extracted feature information. Applying facial expression step E8; performance data editing program for executing the steps consisting FIG. 6) and a computer (electronic music apparatus EM) [Claim 3] is provided. Note that the parentheses are reference symbols, terms, or parts of the examples given for convenience of understanding.

この発明による演奏データ編集装置において、対象設定手段(E5)は、演奏データ取得手段(E1)により取得された演奏データ〔図2(1a);図3(1)〕を構成するノート情報の時間的な繋がりに基づいて、表情付けの対象となる個々の演奏データ部分(対象音符群A,B,C,…)を順次設定する〔請求項2〕ように構成することができる。   In the performance data editing apparatus according to the present invention, the target setting means (E5) includes the time of note information constituting the performance data [FIG. 2 (1a); FIG. 3 (1)] acquired by the performance data acquisition means (E1). Each piece of performance data (target note group A, B, C,...) That is a target for expression is set sequentially based on the natural connection.

この発明の主たる特徴に従う演奏データ編集システム(請求項1,3)では、抑揚が高まる場合と収まる場合や、抑揚の山谷が複数ある場合とそうでない場合など、抑揚データ〔図2(1b)〕から抽出される変化の特徴に注目し、各場合に応じてビブラートやピッチベンド等の表情付けパラメータを制御して表情付け処理をするようにしている。従って、この発明によれば、知識の少ない初心者であっても、十分に表情付けされた本物の楽器らしい自然な演奏を実現する演奏データを作成することができる。   In the performance data editing system according to the main feature of the present invention (claims 1 and 3), inflection data [FIG. 2 (1b)], for example, when the inflection is increased or decreased, or when there are a plurality of inflection peaks and valleys. Focusing on the characteristics of the changes extracted from, the expression processing is performed by controlling expression parameters such as vibrato and pitch bend according to each case. Therefore, according to the present invention, even a beginner with little knowledge can create performance data that realizes a natural performance that seems to be a genuine musical instrument with a sufficient expression.

また、この発明の演奏データ編集装置では、演奏データ〔図2(1a);図3(1〕を構成するノート情報の時間的な繋がりに基づいて、表情付けの対象となる個々の演奏データ部分(対象音符群A,B,C,…)を順次設定するようにしているので(請求項3)、演奏データ中の表情付けすべき音符群に対して適切な表情付けを実現することができる。   In the performance data editing apparatus according to the present invention, the performance data [FIG. 2 (1a); individual performance data portions to be expressed based on the temporal connection of the note information constituting FIG. 3 (1). Since the target note groups A, B, C,... Are sequentially set (Claim 3), appropriate expression can be realized for the note group to be expressed in the performance data. .

〔システム構成〕
図1は、この発明の一実施例による演奏データ編集装置のハードウエア構成ブロック図を示す。この演奏データ編集装置EMには、音楽情報処理機能を有するパーソナルコンピュータ(PC)や電子楽器のような音楽情報処理装置(電子音楽装置)が用いられ、図示の例では更に演奏操作部乃至楽音信号発生部が設けられている。演奏データ編集装置EMは、中央処理装置(CPU)1、ランダムアクセスメモリ(RAM)2、読出専用メモリ(ROM)3、外部記憶装置4、演奏操作検出回路5、設定操作検出回路6、表示回路7、音源回路8、効果回路9、通信インターフェース(I/F)10、MIDIインターフェース(I/F)11等を備え、これら要素1〜11はバス12で互いに接続される。
〔System configuration〕
FIG. 1 is a block diagram showing the hardware configuration of a performance data editing apparatus according to an embodiment of the present invention. The performance data editing device EM uses a personal computer (PC) having a music information processing function or a music information processing device (electronic music device) such as an electronic musical instrument. A generator is provided. The performance data editing device EM includes a central processing unit (CPU) 1, a random access memory (RAM) 2, a read only memory (ROM) 3, an external storage device 4, a performance operation detection circuit 5, a setting operation detection circuit 6, and a display circuit. 7, a sound source circuit 8, an effect circuit 9, a communication interface (I / F) 10, a MIDI interface (I / F) 11, and the like, and these elements 1 to 11 are connected to each other by a bus 12.

CPU1は、RAM2及びROM3と共にデータ処理部を構成し、演奏データ編集プログラムを含む所定の制御プログラムに従い、タイマ13によるクロックを利用して演奏データ編集処理を含む種々の音楽情報処理を実行する。RAM2は、これらの処理に際して必要な各種データを一時的に記憶するためのワーク領域として用いられる。また、ROM3には、これらの処理を実行するために必要な各種制御プログラムや表情付けテンプレート(表情付けパラメータ制御テーブル)等の制御データなどが記憶される。   The CPU 1 constitutes a data processing unit together with the RAM 2 and the ROM 3 and executes various music information processing including performance data editing processing using a clock by the timer 13 in accordance with a predetermined control program including a performance data editing program. The RAM 2 is used as a work area for temporarily storing various data necessary for these processes. The ROM 3 stores various control programs necessary for executing these processes, control data such as a facial expression template (facial expression parameter control table), and the like.

外部記憶装置4は、ハードディスク(HD)等の内蔵記憶媒体の外に、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)、フレキシブルディスク(FD)、光磁気(MO)ディスク、ディジタル多目的ディスク(DVD)、スマートメディア(登録商標)等の小型メモリカード、等々、種々の可搬性の外部記録媒体を含み、上述した制御プログラムや制御データの外に、表情付け前乃至表情付け後の演奏データを含む任意のデータを任意の外部記憶装置(例えば、HDD)4に記憶することができる。   The external storage device 4 is not only a built-in storage medium such as a hard disk (HD) but also a compact disk read only memory (CD-ROM), a flexible disk (FD), a magneto-optical (MO) disk, a digital multipurpose disk ( DVD, SmartMedia (registered trademark) and other small memory cards, etc., including various portable external recording media, in addition to the control program and control data described above, performance data before or after expression. Arbitrary data can be stored in any external storage device (for example, HDD) 4.

演奏操作検出回路5は、鍵盤などの演奏操作子14と共に演奏操作部を構成し、演奏操作子14に対するユーザの演奏操作を検出し、演奏内容に対応する演奏データを生成してデータ処理部に導入する。設定操作検出回路6は、演奏データ編集装置EMの操作パネル等に設けられたキースイッチやマウス等の設定操作子15に対するユーザの設定操作(パネル設定)を検出し、設定内容に対応する設定データをデータ処理部に導入する。表示回路7は、操作パネル等に設けられた画面表示用LCD等のディスプレイ(表示器)16や各種インジケータ(図示せず)の表示/点灯内容をデータ処理部からの指令に従って制御し、操作子14,15の操作に対する表示援助を行う。   The performance operation detection circuit 5 constitutes a performance operation section together with a performance operation element 14 such as a keyboard, detects a user's performance operation on the performance operation element 14, generates performance data corresponding to the performance contents, and sends it to the data processing section. Introduce. The setting operation detection circuit 6 detects a user setting operation (panel setting) with respect to the setting operation element 15 such as a key switch or a mouse provided on the operation panel of the performance data editing apparatus EM, and setting data corresponding to the setting content. Is introduced into the data processing unit. The display circuit 7 controls display / lighting contents of a display (display device) 16 such as a screen display LCD provided on an operation panel or the like and various indicators (not shown) according to instructions from the data processing unit, Display assistance for operations 14 and 15 is performed.

音源回路8及び効果回路9は、楽音信号生成部として機能し、両回路8,9は、ソフトウエアを含ませることができる。音源回路8は、演奏操作検出回路5や記憶手段(3,4)等からの演奏データに応じて所定音色及び音高の楽音データを生成し、効果付与DSPを有する効果回路9は、同演奏データに応じて楽音データに所定の効果を付与した楽音信号を発生する。効果回路9に後続するサウンドシステム17は、D/A変換部やアンプ、スピーカを備え、効果回路9から出力される楽音信号に基づく楽音を発生する。   The tone generator circuit 8 and the effect circuit 9 function as a musical tone signal generation unit, and both the circuits 8 and 9 can include software. The tone generator circuit 8 generates musical tone data of a predetermined tone color and pitch according to the performance data from the performance operation detection circuit 5, the storage means (3, 4), etc., and the effect circuit 9 having the effect imparting DSP A tone signal in which a predetermined effect is added to the tone data is generated according to the data. The sound system 17 following the effect circuit 9 includes a D / A converter, an amplifier, and a speaker, and generates a musical sound based on a musical sound signal output from the effect circuit 9.

通信I/F10には、インターネットやローカルエリアネットワーク(LAN)などの通信ネットワークCNが接続され、外部のサーバコンピュータSV等から制御プログラムをダウンロードしたり演奏データを記憶装置4に保存してこの演奏データ編集装置EMで利用することができる。MIDII/F11は、この演奏データ編集装置EMと同様にMIDI形式で音楽情報を取り扱うことができる外部音源装置などの他の電子音楽装置(外部MIDI機器)MDが接続され、MIDII/F11を通じて両装置EM,MD間でMIDIデータを授受することができる。   A communication network CN such as the Internet or a local area network (LAN) is connected to the communication I / F 10, and a control program is downloaded from an external server computer SV or the like, and performance data is stored in the storage device 4. It can be used with the editing apparatus EM. The MIDII / F11 is connected to another electronic music device (external MIDI device) MD such as an external sound source device capable of handling music information in the MIDI format in the same manner as the performance data editing device EM, and both devices are connected through the MIDII / F11. MIDI data can be exchanged between EM and MD.

〔抑揚データと表情付け〕
この発明の一実施例による演奏データ編集システムでは、演奏データ編集プログラムに従い、抑揚データから抽出される抑揚変化の特徴に応じて表情付け処理をすることにより、十分に表情付けされた自然な演奏を実現する演奏データを作成することができる。図2は、この発明の一実施例による演奏データ編集システムにおける表情付けの概要を説明するための図であり、図3は、演奏データに対して一連の表情付けの対象となる対象音符群を決めるルールの例を表わす。
[Intonation data and expression]
In the performance data editing system according to one embodiment of the present invention, a natural performance with a sufficient expression can be obtained by performing expression processing according to the feature of the intonation change extracted from the intonation data in accordance with the performance data editing program. Performance data to be realized can be created. FIG. 2 is a diagram for explaining the outline of expression in the performance data editing system according to one embodiment of the present invention. FIG. 3 shows a group of target notes to be subjected to a series of expressions on performance data. An example of rules to be determined is shown.

ここで、演奏データ編集システムの主要な機能を極く概略的に説明しておく。この演奏データ編集システムでは、音符情報を含む演奏データ(1a)に対して、演奏に従い時間的に変化する演奏の抑揚を表わす抑揚データ(1b)が設定されると、表情付け対象となる演奏データ部分として、時間的に繋がりのある音符群A〜Cが設定され、各演奏データ部分A〜Cに設定された抑揚データ(1b)の時間的な変化に基づいて、抑揚が高まる場合(2a)と収まる場合(2b)などの抑揚変化の特徴を表わす特徴情報が抽出される。そして、抽出された特徴情報に基づいて選択された表情付けテンプレート(表情付けパラメータ制御テーブル)〔(2a),(2b)〕に従って、各演奏データ部分にビブラートなどの表情付けが施される(1d)。   Here, the main functions of the performance data editing system will be described very roughly. In this performance data editing system, when inflection data (1b) representing inflection of performance that changes with time according to performance is set for performance data (1a) including note information, performance data to be subjected to facial expression. When note groups A to C that are temporally connected are set as portions, and the inflection increases based on temporal changes of the intonation data (1b) set in each performance data portion A to C (2a) The feature information representing the feature of the intonation change such as (2b) is extracted. Then, according to the expression template (expression expression parameter control table) [(2a), (2b)] selected based on the extracted feature information, expression such as vibrato is applied to each performance data portion (1d). ).

以下、図2に従い具体的に説明する。図2(1)は、抑揚データによる演奏データの表情付け例(ビブラート速さ制御の場合)を表わし、(1a)は、「楽曲データ」と呼ばれる元の演奏データを示し、(1b)は、この楽曲データに適用される抑揚データを示す。   Hereinafter, a specific description will be given with reference to FIG. FIG. 2 (1) shows an example of expression of performance data by inflection data (in the case of vibrato speed control), (1a) shows original performance data called “music data”, and (1b) shows Intonation data applied to this music data is shown.

「抑揚データ」は、盛上りデータとも呼ばれ、楽曲演奏の抑揚の度合(盛上りの程度)を表わす抽象的なデータであり、抑揚データの値は、楽曲演奏に従って時間的に変化する(例えば、0.0〜1.0)。また、各楽曲データに対して適用される抑揚データは、予め記憶手段(3,4)に抑揚データの時間的変化パターンが異なる種々の抑揚テンプレートを用意しておき、これらの抑揚テンプレートから所望の抑揚テンプレート選択する方法や、ユーザが好みの抑揚パターンをグラフィックツールで作図し抑揚データに指定する方法などによって与えることができる。従って、抑揚(盛上り)を表わす抽象的な抑揚データは、特定の楽音制御パラメータ(例えば、ベロシティ)の変化をそのまま表現したものではない。   “Intonation data” is also called upsurge data, and is abstract data representing the degree of inflection of music performance (the degree of upsurge). The value of intonation data changes with time according to the music performance (for example, 0.0-1.0). Also, for the inflection data applied to each piece of music data, various inflection templates having different temporal change patterns of inflection data are prepared in advance in the storage means (3, 4), and desired inflection templates are obtained from these inflection templates. It can be given by a method of selecting an inflection template or a method in which a user draws a desired inflection pattern with a graphic tool and designates it as inflection data. Therefore, the abstract intonation data representing inflection (swelling) does not represent a change in a specific musical tone control parameter (for example, velocity) as it is.

例えば、図2(1)の(1a)に示されるノートイベント(NoteEvent)とベロシティ(velocity)を含む楽曲データに対して(1b)に示される抑揚データを与えることにより、ベロシティを抑揚データに従って編集し、(1c)に示されるようにベロシティが変化する結果が得られ、音量による表情付け処理を行うことができる。   For example, by giving the inflection data shown in (1b) to the music data including the note event (NoteEvent) and the velocity (velocity) shown in (1a) of FIG. 2 (1), the velocity is edited according to the inflection data. Then, as shown in (1c), the result of changing the velocity is obtained, and the expression processing based on the volume can be performed.

この段階では、抑揚データの静的な特性に注目しているだけであるが、抑揚データが同じ値でも、これから抑揚が高まる場合と抑揚がおさまる場合や、抑揚の変化が速い場合と遅い場合などでは、表現の種類も異なることが一般的であるので、抑揚データの変化に注目することも音楽的表現にとっては重要である。   At this stage, we are only paying attention to the static characteristics of the inflection data, but even if the inflection data is the same value, when the inflection increases or when the inflection subsides, or when the inflection changes quickly or slowly Then, since the types of expressions are generally different, it is also important for musical expressions to pay attention to changes in intonation data.

そこで、この演奏データ編集システムでは、抑揚データによって時間−抑揚値平面上に描かれる抑揚曲線の特徴的な変化状態を特徴情報として抽出し、抽出された特徴情報をパラメータとして表情付けテンプレートを選択することにより、抑揚の変化に応じてビブラートやピッチベンド等の表情付けパラメータを制御して十分な表情付け処理を行う。なお、この場合、(1c)のような、抑揚曲線をそのまま用いたベロシティなどの表情付けは、必要に応じて、適宜、採用又は不採用とすることができる。   Therefore, in this performance data editing system, a characteristic change state of an inflection curve drawn on the time-inflection value plane is extracted as feature information by using the intonation data, and a facial expression template is selected using the extracted feature information as a parameter. Thus, sufficient expression processing is performed by controlling expression parameters such as vibrato and pitch bend according to changes in inflection. In this case, the expression such as velocity using the inflection curve as it is as in (1c) can be appropriately adopted or not adopted as necessary.

図示の例では、ビブラート等の表情付けの度合を表わす2種の表情付けパラメータ制御テーブルが表情付けテンプレートとして用意され、抑揚曲線が増加傾向を示し抑揚が高まる場合と、抑揚曲線が減少傾向を示し抑揚が収まる場合が、抑揚データの特徴的な変化として捕らえられる。そして、この抑揚データの変化に対応する表情付けパラメータ制御テーブルが選択され、選択されたテーブルに従ってビブラート等の表情付けパラメータが制御され、抑揚の変化に応じた最適の表情付けが行われる。   In the example shown in the figure, two facial expression parameter control tables representing the degree of facial expression such as vibrato are prepared as facial expression templates. The inflection curve shows an increasing tendency and the inflection increases, and the inflection curve shows a decreasing tendency. The case where the intonation is settled is captured as a characteristic change of the intonation data. Then, the expression parameter control table corresponding to the change of the intonation data is selected, and the expression parameters such as vibrato are controlled according to the selected table, and the optimum expression according to the inflection change is performed.

すなわち、表情付けパラメータ制御テーブルは、抑揚データの増大及び減少時別に、抑揚データ値に対するビブラート等の速さ(周期の逆数)や深さ等による表情付けの度合を表わしたものであり、所定の記憶手段(3,4)に記憶されており、抑揚データが与えられた演奏データの部分に対して、表情付けパラメータ制御テーブルに従い、与えられた抑揚データの変化に応じてビブラート等の表情付けパラメータを制御する。図2(1)の(1d)は、(1b)の抑揚データの変化に従い、図2(2)に示されるビブラート速さの制御特性を用いてビブラートの速さを編集した場合の結果を示す。   In other words, the expression parameter control table represents the degree of expression according to the speed (reciprocal of the cycle) and the depth of vibrato for the intonation data value according to the increase and decrease of the inflection data. An expression parameter such as vibrato according to the change of the given inflection data according to the expression parameter control table for the portion of the performance data stored in the storage means (3, 4) to which the inflection data is given To control. (1d) of FIG. 2 (1) shows the result when the vibrato speed is edited using the control characteristics of the vibrato speed shown in FIG. 2 (2) according to the change of the inflection data of (1b). .

図2(2)は、抑揚データの値とビブラートの速さとの関係の例を表わし、この関係を有するビブラート速さ制御テーブルが表情付けパラメータ制御テーブルとして記憶手段3,4に記憶される。(2a)の表情付けパラメータ制御特性は、抑揚データが上昇する場合はビブラートの速さは抑揚データの変化の最初ほど変化が大きく、(2b)の表情付けパラメータ制御特性は、抑揚データが下降する場合にはビブラートの速さは抑揚データの変化の最初ほど変化が大きいことを意味している。すなわち、同じ抑揚データの値に対しても変化が上昇中の時と下降中の時では値が異なることを意味している。   FIG. 2 (2) shows an example of the relationship between the value of intonation data and the vibrato speed, and a vibrato speed control table having this relationship is stored in the storage means 3 and 4 as a facial expression parameter control table. In the expression parameter control characteristic of (2a), when the inflection data increases, the vibrato speed changes as the beginning of the change of the inflection data, and the expression parameter control characteristic of (2b) decreases in the inflection data. In some cases, the vibrato speed means that the change is greater at the beginning of the inflection data change. That is, it means that the value is different when the change is rising and when it is falling even for the same inflection data value.

表情付けパラメータ制御テーブルとしては、ビブラートの深さについて(2a),(2b)のビブラート速さと同様の関係を有するビブラート深さ制御テーブルが記憶手段3,4に記憶されている。また、ピッチベンドの速さ及び深さについても、抑揚データの山谷が複数ある場合とそうでない場合に、(2a),(2b)のビブラート速さと同様の関係を有するピッチベンド速さ制御テーブル及びピッチベンド深さ制御テーブルが、抑揚データの山谷数の範囲別に記憶手段3,4に記憶されている。そして、これらの表情付けパラメータも、対応する制御テーブルに従って制御される。   As the expression parameter control table, a vibrato depth control table having the same relationship as the vibrato speed of (2a) and (2b) with respect to the vibrato depth is stored in the storage means 3 and 4. In addition, regarding the pitch bend speed and depth, the pitch bend speed control table and the pitch bend depth having the same relationship as the vibrato speeds of (2a) and (2b) when there are a plurality of peaks and valleys of the inflection data. The control table is stored in the storage means 3 and 4 for each range of the number of peaks and valleys of intonation data. These facial expression parameters are also controlled according to the corresponding control table.

また、(2a)のように抑揚データ値が小さいほど表情付け度合の変化が大きい特性のパラメータ制御テーブルは「変化の大きい」テーブルと呼ばれ、(2b)のように抑揚データ値が小さいほど表情付け度合の変化が小さい特性のパラメータ制御テーブルは「変化の小さい」テーブルと呼ばれる。なお、図2(2)に示されるような制御特性は、あくまでも一例であり、楽器の種類や音楽ジャンルによっては逆の変化が好ましい場合もある。   A parameter control table having a characteristic that the change in the degree of expression is larger as the inflection data value is smaller as in (2a) is called a “larger change” table, and the expression is smaller as the inflection data value is smaller as in (2b). A parameter control table having a characteristic with a small change in attachment degree is called a “small change” table. Note that the control characteristics as shown in FIG. 2 (2) are merely examples, and the opposite change may be preferable depending on the type of musical instrument and the music genre.

なお、抑揚曲線の特徴的な変化状態には、上述のような増大及び減少や山谷の数の外に、上に凸、下に凸などがあり、夫々の特徴に応じて所定の表情付けテンプレートを選択することにより、対応する表情付けパラメータを制御することができる。   Note that the characteristic change state of the inflection curve includes an upward convexity and a downward convexity in addition to the increase and decrease as described above and the number of peaks and valleys, and a predetermined expression template according to each feature. By selecting, the corresponding expression parameter can be controlled.

図4は、演奏データや表情付けデータのデータ構造例を示す。表情付け前の元の演奏データは、例えば、図4(1)に示すように、楽曲のフォーマットに関する情報などで構成されるヘッダ情報に続いて、楽曲演奏の進行に従い順次配列された多数のイベント情報がSMF形式で記述される。各イベント情報は、図示のように、タイミング情報、ノートオンなどのイベントの種類を表すコード、ノート番号及びベロシティから成る。   FIG. 4 shows a data structure example of performance data and expression data. For example, as shown in FIG. 4 (1), the original performance data before the facial expression includes a number of events sequentially arranged in accordance with the progress of the music performance following the header information including information on the format of the music. Information is described in the SMF format. Each event information includes timing information, a code indicating the type of event such as note-on, a note number, and velocity as shown in the figure.

演奏データに対する表情付けは、まとまりのある一連の音符を対象にして行うのが好適であり、例えば、図3に示すようなルールに従って、表情付けの対象となる対象音符群を決める。対象音符群を決めるには、HDD等の外部記憶装置4から演奏データのノートイベントを読み出し、所定のルールに従い、先行するノートと後続するノートの時間を比較した結果に基づいて、時間的に繋がりのある音符を自動的に抽出する。図3(1)は、読み出されたノートイベントの時間的なパターンを説明するために、ディスプレイ16の画面にノートイベントがピアノロールで表示されるものとしてノートイベントの各種パターンの一例を示す。   Expression of performance data is preferably performed on a set of coherent notes. For example, a target note group to be expressed is determined according to a rule as shown in FIG. In order to determine the target note group, the note events of the performance data are read from the external storage device 4 such as an HDD, and the time is linked based on the result of comparing the time of the preceding note and the following note according to a predetermined rule. Automatically extract notes with a mark. FIG. 3A shows an example of various patterns of note events on the assumption that note events are displayed on the screen of the display 16 in a piano roll, in order to explain the temporal pattern of the read note events.

図3(1)において、例えば、Aのように、先行ノートのノートオフと後続ノートのノートオンが時間的に重なっているか或いは所定の近さにある音符群については、レガート演奏のような一連の音符であると判断され、これらの音符が発音期間Taにわたる1つの表情付け対象として読み出される。Bのように、先行ノートのノートオフと後続ノートのノートオンから離れた発音期間Tbの音符は、単独でも、1つの表情付け対象として読み出される。また、Cのように、ノートオンのタイミングが所定の近さにある複数のノートは、コード演奏のように発音期間Tcでほぼ同時に発音される音符であると判断され、これらの音符が1つの表情付け対象として読み出される。なお、これらのルールは、選択されたアルゴリズムによって異なっていてもよい。   In FIG. 3 (1), for example, a note group in which the note-off of the preceding note and the note-on of the succeeding note overlap with each other in time or close to a predetermined position, such as A, is a series like a legato performance. These notes are read out as one expression object over the pronunciation period Ta. As in B, the notes in the pronunciation period Tb apart from the note-off of the preceding note and the note-on of the succeeding note are read out as a single expression object even alone. Further, as in C, a plurality of notes whose note-on timings are close to a predetermined level are determined to be notes that are sounded almost simultaneously in the sound generation period Tc, such as chord performance, and these notes are regarded as one note. It is read out as an expression object. Note that these rules may differ depending on the selected algorithm.

また、演奏データに適用される抑揚データについては、前述した方法で適宜定めることができ、定められた抑揚データのパターンは、図3(2)に示すように、ディスプレイ16の画面に、図3(1)のノートイベントのピアノロール表示に対応して表示することによって確認することができる。   Further, the inflection data applied to the performance data can be appropriately determined by the above-described method, and the pattern of the determined intonation data is displayed on the screen of the display 16 as shown in FIG. This can be confirmed by displaying the note event corresponding to the piano roll display of (1).

図4(2)は、抑揚データに従って演奏データに順次与えられる表情付けの内容を表わす表情付けデータの構造例を示し、表情付けデータは、対象音符群に対応する複数の表情付け情報が楽曲演奏の進行順に配列されて構成される。各表情付け情報は、各対象音符群の発音期間(Ta,Tb,Tc,…)に対応し表情付けを施す対象となる区間(「対象区間」と呼ばれる)を始終点タイミングで指定する対象区間指定情報と、各対象音符群に対する表情付けの種類を表わす表情付け種類コードと、当該表情付けのパラメータ値を表わす表情付け種類依存パラメータ等から成る。   FIG. 4 (2) shows an example of the structure of facial expression data representing the content of facial expression that is sequentially given to performance data in accordance with intonation data. The facial expression data includes a plurality of facial expression information corresponding to the target note group. Arranged in the order of progression. Each facial expression information is a target section that specifies a section (referred to as a “target section”) to be subjected to facial expression corresponding to the sound generation period (Ta, Tb, Tc,...) Of each target note group at the start / end timing. It consists of designation information, a facial expression type code that represents the type of facial expression for each target note group, a facial expression type dependent parameter that represents the parameter value of the facial expression.

例えば、表情付け種類コードは、ビブラートやチョーキング(ピッチベンド)等を表わし、種類依存パラメータは、ビブラートの場合は深さや速さ(周期)を表わすパラメータであり、チョーキングの場合には深さや立上り速度(立上り時間の逆数であり、単に「速さ」ともいう)を表わすパラメータである。   For example, the expression type code represents vibrato, choking (pitch bend), etc., and the type-dependent parameter is a parameter representing depth or speed (cycle) in the case of vibrato, and depth or rising speed (in the case of choking). This parameter is a reciprocal of the rise time and is simply referred to as “speed”.

〔演奏データ編集処理のフロー例〕
図5は、この発明の一実施例による演奏データ編集処理(全体処理)の一例を表わすフローチャートであり、図6は、この演奏データ編集処理中の表情付け処理の一例を表わすフローチャートである。図5の演奏データ編集処理フローは、演奏データ編集装置EMにおいて、ユーザによる選曲操作に基づき、外部記憶装置4のHDDに用意された演奏データの中から所望の演奏データが選択されたところから実行される。
[Example of performance data editing process]
FIG. 5 is a flowchart showing an example of performance data editing processing (overall processing) according to one embodiment of the present invention, and FIG. 6 is a flowchart showing an example of expression adding processing during the performance data editing processing. The performance data editing process flow of FIG. 5 is executed when the desired performance data is selected from the performance data prepared in the HDD of the external storage device 4 based on the music selection operation by the user in the performance data editing apparatus EM. Is done.

まず、最初のステップE1では、CPU1は、選択された演奏データをHDD4からRAM2にロードし、当該演奏データからピアノロール或いは五線譜の画像データを生成し、表示回路7を通じてディスプレイ16のLCD画面に、生成された画像データに基づくノートイベント画像を表示する。   First, in the first step E1, the CPU 1 loads the selected performance data from the HDD 4 into the RAM 2, generates piano roll or stave image data from the performance data, and displays on the LCD screen of the display 16 through the display circuit 7. A note event image based on the generated image data is displayed.

続くステップE2では、例えば、同画面内のアルゴリズム選択ウインドウに楽器名で表わされた表情付けアルゴリズム名の一覧をユーザに提示し、ユーザ操作に基づいて、所望のアルゴリズム名を選択することにより、演奏データに付与される表情付けアルゴリズムを指定する。このようなアルゴリズム名には、例えば、「ストリングス・ポップ」、「ストリングス・クラシック」、「ギター・ホット」、「ギター・スムーズ」、「エレキベース・ノーマル」、「エレキベース・スラップ」などがある。   In the following step E2, for example, a list of expression algorithm names represented by instrument names is presented to the user in an algorithm selection window in the same screen, and a desired algorithm name is selected based on a user operation. Specify the expression algorithm to be added to the performance data. Examples of such algorithm names include “Strings Pop”, “Strings Classic”, “Guitar Hot”, “Guitar Smooth”, “Electric Bass Normal”, “Electric Bass Slap”, etc. .

次のステップE3では、演奏データに対する表情付けの時間範囲を決定する。この範囲の決定には、次の(1)〜(3)のような方法を用いることができる:
(1)画面に演奏データを表示し、演奏データ上をユーザにマウス操作で選択させる、
(2)特許文献1の自動分割のように、所定のルールに則ってフレーズ等に区分する、
(3)演奏データ(曲)の先頭から終端までとする。
In the next step E3, a time range for expression of the performance data is determined. In determining this range, the following methods (1) to (3) can be used:
(1) Display performance data on the screen and let the user select the performance data by operating the mouse.
(2) Like automatic division of patent document 1, it classify | categorizes into a phrase etc. according to a predetermined rule,
(3) The performance data (song) is from the beginning to the end.

次いで、ステップE4では、演奏データに対する抑揚データを決定する。この抑揚データ決定には、次の(a)〜(c)のような方法を用いることができ、決定された抑揚データは、表情付け時間範囲に合わせて伸縮される:
(a)システムに備えられた複数の抑揚データからユーザ操作に応じて一つを選択する、
(b)抑揚データ入力画面を表示し、この画面上でユーザに抑揚パターンを描かせる、
(c)抑揚データ入力画面を表示し、この画面上でユーザに複数の点を指定させ、各点の間を所定の曲線(直線を含む)で結ぶ。
Next, in step E4, intonation data for performance data is determined. For the determination of the intonation data, the following methods (a) to (c) can be used, and the determined intonation data is expanded or contracted according to the expression time range:
(A) selecting one from a plurality of intonation data provided in the system according to a user operation;
(B) Display an inflection data input screen and let the user draw an inflection pattern on this screen.
(C) An intonation data input screen is displayed. On this screen, the user designates a plurality of points and connects the points with a predetermined curve (including a straight line).

以上のようにして表情付けの条件が設定されると、ステップE5で、RAM2にロードされた演奏データについて、所定のルールに従い、互いに時間的な繋がりをもつ音符を、順次、表情付けの対象となる個々の対象音符群(図3:A〜C)に設定し、演奏データ内の表情付け時間範囲の先頭から順に、対象音符群単位で演奏イベントをRAM2の作業エリアに読み出し、読み出された演奏イベントに対してステップE6〜E8の処理を行う。なお、この例では対象音符群単位で処理するようにしているが、最も単純な対象音符群として一音一音ずつ処理することもある。   When the expression setting conditions are set as described above, in step E5, the musical data loaded in the RAM 2 in accordance with a predetermined rule are sequentially assigned to the expression objects in accordance with predetermined rules. Are set to individual target note groups (FIG. 3: A to C), and performance events are read into the work area of the RAM 2 in units of target note groups in order from the beginning of the expression time range in the performance data. Steps E6 to E8 are performed for the performance event. In this example, the processing is performed in units of target note groups. However, the simplest target note group may be processed one by one.

まず、ステップE6では、対象音符群の発音期間(図3:Ta〜Tc)即ち対象区間に相当する抑揚データから、対象区間内の抑揚データの平均値、最大値、最小値、或いは、これらの何れか1又は2の値を求める。次いで、ステップE7で、対象音符群の発音期間に相当する抑揚データから抑揚変化の特徴を求める。例えば、当該発音期間内の抑揚データの値について、変化がない(一定値)、直線的に増大している、直線的に減少いている、上に凸である、複数の山谷がある、などの条件に合致しているかどうかを調べる。また、当該発音期間内の抑揚データの値の変化幅を求め、複数の山谷がある場合は、山や谷の数、変化の時間割合を求める。   First, in step E6, the average value, maximum value, minimum value, or these of the inflection data in the target section are calculated from the pronunciation period of the target note group (FIG. 3: Ta to Tc), that is, the inflection data corresponding to the target section. The value of either 1 or 2 is obtained. Next, in step E7, the feature of the intonation change is obtained from the intonation data corresponding to the pronunciation period of the target note group. For example, there is no change (a constant value), the value of the intonation data in the pronunciation period is linearly increasing, linearly decreasing, upwardly convex, or having multiple peaks and valleys. Check whether the conditions are met. In addition, the change width of the intonation data value during the pronunciation period is obtained, and when there are a plurality of valleys, the number of peaks and valleys and the time ratio of the change are obtained.

そして、ステップE8において、ステップE6,E7で抑揚データから得られた値及び変化の特徴に基づいて、演奏データに表情付けデータを生成する表情付け処理を行う。なお、この表情付け処理の一例については、図6を用いてより詳しく説明する。ステップE8の表情付け処理の後は、ステップE9に進み、表情付け時間範囲の終端に達したか否かを判定し、終端に達していない間は(E9→NO)、ステップE5に戻り、次の対象音符群についてステップE5〜E8の処理を繰り返す。   Then, in step E8, expression processing for generating expression data in the performance data is performed based on the value obtained from the inflection data in steps E6 and E7 and the characteristics of the change. An example of this facial expression processing will be described in more detail with reference to FIG. After the facial expression processing in step E8, the process proceeds to step E9, where it is determined whether or not the end of the facial expression time range has been reached. If the end has not been reached (E9 → NO), the process returns to step E5, and the next Steps E5 to E8 are repeated for the target note group.

全ての対象音符群についてステップE5〜E8の処理を終えて表情付け範囲の終端に達したと判定されると(E9→YES)、ステップE10に進んで、演奏データ(曲)の他の部分も表情付けを行うか否かを判定する。他の部分も表情付けをするかどうかは、ユーザ操作によって決定してもよいし、特許文献1のように所定のルールに則ってもよい。ここで、他の部分の表情付けを行うときには(E9→NO)、ステップE3に戻り、改めて決定された表情付け時間範囲についてステップE3〜E10の処理を繰り返す。   When it is determined that the processing of steps E5 to E8 has been completed for all the target note groups and the end of the expression range has been reached (E9 → YES), the process proceeds to step E10, and other parts of the performance data (music) are also recorded. It is determined whether or not to perform facial expression. Whether or not other parts are to be given a facial expression may be determined by a user operation, or may be in accordance with a predetermined rule as in Patent Document 1. Here, when expressing other parts (E9 → NO), the process returns to step E3, and the processes in steps E3 to E10 are repeated for the newly determined expression time range.

演奏データ(曲)の他の部分の表情付けを行わないと判定されたとき、或いは、他の部分の表情付けを行って、もはや表情付けを行う他の部分がないと判定されたときには(E10→YES)、ステップE11に進み、元の演奏データ及び表情付けデータに基づいて、特許文献2と同様に、表情付けされた演奏データを生成し、続くステップE12で、表情付けされた演奏データをRAM2からHDD4に保存し、さらに、ステップE13で、表情付けされた演奏データを楽音信号生成部8,9に渡したり、或いは、MIDIインターフェイス11経由で外部音源装置MDに渡して、楽音信号を生成させることによって、表情付けされた演奏データを再生する。そして、演奏データの再生により、表情付けの付与状態を確認した後、この演奏データ編集処理を終了する。   When it is determined that expression of other parts of the performance data (music) is not performed or when it is determined that expression of other parts is performed and there is no other part to be expressed (E10) → YES), the process proceeds to step E11, and based on the original performance data and expression data, the performance data with expression is generated in the same manner as in Patent Document 2, and the performance data with expression in the subsequent step E12 is generated. From the RAM 2 to the HDD 4, and further at step E 13, the performance data with the expression is passed to the tone signal generators 8 and 9, or is passed to the external tone generator MD via the MIDI interface 11 to generate a tone signal. By doing so, the performance data with the expression is reproduced. Then, the performance data editing process ends after the performance data is reproduced to confirm the state of expression.

なお、この処理フロー例では、一連の処理として、表情付けされた演奏データを保存し再生するようにしているが、表情付けされた演奏データは、一旦HDD4等に保存した後、後日、再生するようにしてもよい。   In this example of the processing flow, the performance data with the expression is stored and reproduced as a series of processes, but the performance data with the expression is temporarily stored in the HDD 4 and then reproduced at a later date. You may do it.

〔表情付け処理のフロー例〕
次に、演奏データ編集処理(全体処理)のステップE8で実行される表情付け処理について、表情付けパラメータをビブラート及びピッチベンドとした場合の一例を図6により説明する。この表情付け処理フローが開始すると、まず、ステップS1において、ステップE2で指定されたアルゴリズムの処理プログラムをRAM2上にロードし、以降、この処理プログラムに従ったルールで表情付けの処理がなされる。
[Example flow of facial expression processing]
Next, an example of the facial expression processing executed in step E8 of the performance data editing processing (overall processing) when the facial expression parameters are vibrato and pitch bend will be described with reference to FIG. When this facial expression processing flow starts, first, in step S1, the processing program of the algorithm specified in step E2 is loaded onto the RAM 2, and thereafter the facial expression processing is performed according to the rules according to this processing program.

まず、ステップS2では、ビブラートを付与すべきか即ち対象区間長(ステップE5で読み出された処理対象の対象音符群の発音期間で示される対象区間の長さ)はビブラート付与に適した所定の長さ以上であるか否かを判定し、所定長さ以上であるときは(S2→YES)、ステップS3に進んで、対象区間の抑揚データの特徴が増大傾向にあるか否かを判定する。   First, in step S2, whether to add vibrato, that is, the target section length (the length of the target section indicated by the pronunciation period of the target note group to be processed read out in step E5) is a predetermined length suitable for vibrato provision. If it is equal to or longer than the predetermined length (S2 → YES), the process proceeds to step S3, and it is determined whether or not the feature of the inflection data in the target section tends to increase.

ここで、対象区間の抑揚データの特徴が全体として抑揚データ値の増大を示しているときは(S3→YES)、ステップS4に進み、変化の大きいビブラート速さテーブルを用いてビブラートの速さ(周期)を決定し、次のステップS5で、変化の大きいビブラート深さテーブルを用いてビブラートの深さを決定する。   Here, when the feature of the inflection data in the target section indicates an increase in the intonation data value as a whole (S3 → YES), the process proceeds to step S4, and the vibrato speed ( In the next step S5, the vibrato depth is determined using the vibrato depth table having a large change.

一方、対象区間の抑揚データの特徴が全体として抑揚データ値の増大を示していないときには(S3→NO)、ステップS6に進み、変化の小さいテーブルを用いてビブラートの速さ(周期)を決定し、次のステップS7で、変化の小さいテーブルを用いてビブラートの深さを決定する。   On the other hand, when the feature of the inflection data in the target section does not indicate an increase in the intonation data value as a whole (S3 → NO), the process proceeds to step S6, and the vibrato speed (cycle) is determined using a table with a small change. In the next step S7, the vibrato depth is determined using a table with a small change.

そして、ステップS5又はステップS7の処理の後はステップS8に進み、対象区間指定情報及び表情付け種類コードに続いて、ステップS4,S5又はステップS6,S7で決定された表情付けパラメータ値(表情付け種類依存パラメータ)を記述した当該対象区間の表情付け情報を、RAM2の表情付けデータ記憶領域に追記する。   Then, after the process of step S5 or step S7, the process proceeds to step S8, and the expression parameter value (expression expression) determined in step S4, S5 or steps S6, S7 is followed by the target section designation information and the expression type code. The expression information of the target section describing the type-dependent parameter) is added to the expression data storage area of the RAM 2.

ステップS2で対象区間長が所定長さ未満であると判定されたとき(S2→NO)或いはステップS8)で表情付け情報データの追記処理を行った後は、ステップS9に進んで、ピッチベンドを付与すべきか即ち対象区間長はピッチベンド付与に適した所定の長さ以上であるか否かを判定し、所定長さ以上であるときは(S9→YES)、ステップS10で、対象区間の抑揚データの特徴として山谷が複数あるか否かを判定する。   When it is determined in step S2 that the target section length is less than the predetermined length (S2 → NO) or in step S8), after adding the facial expression information data, the process proceeds to step S9 and pitch bend is applied. That is, it is determined whether or not the target section length is equal to or longer than a predetermined length suitable for pitch bend assignment. If it is equal to or longer than the predetermined length (S9 → YES), in step S10, the inflection data of the target section is determined. It is determined whether or not there are multiple valleys as features.

ここで、対象区間の抑揚データの山谷が複数あるときは(S10→YES)、ステップS11に進み、変化の大きいピッチベンド速さテーブルを用いてピッチベンドの速さを決定し、次のステップS12で、変化の大きいピッチベンド深さテーブルを用いてピッチベンドの深さを決定する。   Here, when there are a plurality of peaks and valleys of the inflection data in the target section (S10 → YES), the process proceeds to step S11, the pitch bend speed table is determined using the pitch bend speed table having a large change, and in the next step S12, The pitch bend depth is determined using a pitch bend depth table having a large change.

一方、対象区間の抑揚データの山谷数が複数でないときには(S10→NO)、ステップS13に進み、変化の小さいピッチベンド速さテーブルを用いてピッチベンドの速さを決定し、次のステップS14で、変化の小さいピッチベンド深さテーブルを用いてピッチベンドの深さを決定する。   On the other hand, when the number of peaks and valleys of the inflection data in the target section is not plural (S10 → NO), the process proceeds to step S13, where the pitch bend speed table is determined using the pitch bend speed table with a small change. The pitch bend depth is determined using a small pitch bend depth table.

そして、ステップS12又はステップS14の処理の後はステップS15に進み、対象区間指定情報及び表情付け種類コードに続いて、ステップS11,S12又はステップS13,S14で決定された表情付けパラメータ値(表情付け種類依存パラメータ)を記述した当該対象区間の表情付け情報を、RAM2の表情付けデータ記憶領域に追記し、その後、全体処理のステップE9にリターンしてこの表情付け処理を終了する。   Then, after the process of step S12 or step S14, the process proceeds to step S15, and the expression parameter value (expression expression) determined in step S11, S12 or steps S13, S14 follows the target section designation information and the expression type code. The expression information of the target section describing the type dependent parameter) is added to the expression data storage area of the RAM 2, and then the process returns to step E9 of the entire process to end the expression process.

〔種々の実施態様及び表情付けのまとめ〕
以上、図面を参照しつつこの発明の好適な実施例を詳述したが、この実施例は単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。例えば、実施例では、表示付けテンプレートとして、ビブラート速さ及び深さテーブルやピッチベンド速さ及び深さテーブルなどの表示付けパラメータ制御テーブルを用いたが、抑揚データの変化に対して種々の表示付けパラメータを制御する種々の表情付けテンプレートを用いることができる。
[Summary of various embodiments and expression]
The preferred embodiment of the present invention has been described in detail with reference to the drawings. However, this embodiment is merely an example, and various modifications can be made without departing from the spirit of the present invention. For example, in the embodiment, a display parameter control table such as a vibrato speed and depth table or a pitch bend speed and depth table is used as a display template. Various expression templates that control the image can be used.

要は、抑揚データの変化に関して次の点を考慮した種々の表示付けテンプレートを用意しておき、抑揚データの特徴的な変化に応じて最適なテンプレートを選択すればよい:
〔1〕抑揚データが増大したり、抑揚データの振れ幅が大きい場合は、そうでない場合に比べて表情付けを大げさにする。
〔2〕抑揚データが下に凸で増加の場合は、短い時間で大きな抑揚を付けるように、抑揚データの値が大きいときに、より大げさな表情付けがされるようにする。
〔3〕抑揚データの山谷の数が多いほど、変化のある表情付けが求めらるので、より表情付けを大げさにする。
In short, it is only necessary to prepare various display templates that take into account the following points regarding changes in intonation data, and select an optimal template according to the characteristic changes in intonation data:
[1] When the inflection data increases or the fluctuation width of the intonation data is large, the expression is exaggerated as compared to the case where the inflection data is not large.
[2] When the inflection data is convex downward and increases, a larger expression is added when the value of the inflection data is large so that a large inflection is added in a short time.
[3] The more the number of peaks and valleys in the intonation data is, the more demanding the expression is, and the expression is further exaggerated.

ここで、より大げさな表現とは、例えば、実施例のように、ビブラートをより深くする、ビブラートの速さを上げる(周期をより短くする)、ピッチベンドを深くする、ピッチベンドの速さを上げる(立ち上がり時間を短くする)、ギターのストロークに相当させて同時発音するノートのタイミングをばらつかせる、特殊奏法音や奏法ノイズの付与を多くする(ベロシティで発音波形を切り替える)などがあり、音量の変化をベロシティ(各音)やエクスプレッション(全体)等で大きくすることを含めてもよい。   Here, more exaggerated expression means, for example, as in the embodiment, the vibrato is deepened, the vibrato speed is increased (the cycle is shortened), the pitch bend is deepened, and the pitch bend speed is increased ( (Shortening the rise time), varying the timing of notes that sound simultaneously with the stroke of the guitar, adding more special performance sounds and performance noise (switching the sound waveform with velocity), etc. It may include increasing the change by velocity (each sound) or expression (whole).

また、抑揚データに基づく各音への表情付け〔例えば、ベロシティ制御:図2(1c)〕については詳しい説明を省略したが、個別の音符の表情は、その音符に対する抑揚データの値や変化などの状態に応じて決定することができる。   Further, although detailed description of the expression of each sound based on inflection data (for example, velocity control: FIG. 2 (1c)) is omitted, the expression of an individual note indicates the value or change of the intonation data for the note. It can be determined according to the state of.

この発明の一実施例による演奏データ編集システムのハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the performance data editing system by one Example of this invention. この発明の一実施例による演奏データ編集システムにおける表情付けの概要を説明するための図である。It is a figure for demonstrating the outline | summary of the facial expression in the performance data editing system by one Example of this invention. この発明の一実施例の演奏データ編集(表情付け)において対象音符群を決めるルールの例を表わす図である。It is a figure showing the example of the rule which determines a target note group in performance data editing (expression addition) of one Example of this invention. この発明の一実施例による演奏データ編集システムで用いられるデータ構造の例を表わす図である。It is a figure showing the example of the data structure used with the performance data editing system by one Example of this invention. この発明の一実施例による演奏データ編集処理の一例を表わすフローチャートである。It is a flowchart showing an example of the performance data edit process by one Example of this invention. この発明の一実施例による表情付け処理の一例を表わすフローチャートである。It is a flowchart showing an example of the facial expression process by one Example of this invention.

符号の説明Explanation of symbols

EM 演奏データ編集装置(パーソナルコンピュータ、電子楽器などの電子音楽装置)、
A,B,C 対象音符群、
Ta,Tb,Tc 対象音符群の発音期間。
EM performance data editing devices (electronic music devices such as personal computers and electronic musical instruments),
A, B, C Target note group,
Ta, Tb, Tc Sound generation period of the target note group.

Claims (3)

ノート情報を含む演奏データを取得する演奏データ取得手段と、
取得された演奏データについて、表情付けの対象となる演奏データ部分を設定する対象設定手段と、
取得された演奏データに対して、演奏に従い時間的に変化する演奏の抑揚を表わす抑揚データを設定する抑揚設定手段と、
上記演奏データ部分に設定された抑揚データの時間的な変化に基づいて、抑揚変化の特徴を表わす特徴情報を抽出する特徴抽出手段と、
抽出された特徴情報に基づいて、上記演奏データ部分に表情付けを施す表情付け手段と
を具備することを特徴とする演奏データ編集装置。
Performance data acquisition means for acquiring performance data including note information;
About the acquired performance data, target setting means for setting a performance data portion to be a facial expression,
Inflection setting means for setting inflection data representing the inflection of the performance that changes with time according to the performance with respect to the acquired performance data;
Feature extraction means for extracting feature information representing features of intonation changes based on temporal changes in intonation data set in the performance data portion;
An apparatus for editing performance data, comprising: expression means for applying an expression to the performance data portion based on the extracted feature information.
前記対象設定手段は、前記演奏データ取得手段により取得された演奏データを構成するノート情報の時間的な繋がりに基づいて、表情付けの対象となる個々の演奏データ部分を順次設定することを特徴とする演奏データ編集装置。   The target setting means sequentially sets individual performance data portions to be subjected to facial expression based on temporal connection of note information constituting the performance data acquired by the performance data acquisition means. A performance data editing device. ノート情報を含む演奏データを取得する演奏データ取得ステップと、
取得された演奏データについて、表情付けの対象となる演奏データ部分を設定する対象設定ステップと、
取得された演奏データに対して、演奏に従い時間的に変化する演奏の抑揚を表わす抑揚データを設定する抑揚設定ステップと、
上記演奏データ部分に設定された抑揚データの時間的な変化に基づいて、抑揚変化の特徴を表わす特徴情報を抽出する特徴抽出ステップと、
抽出された特徴情報に基づいて、上記演奏データ部分に表情付けを施す表情付けステップと
から成る手順をコンピュータに実行させる演奏データ編集プログラム。
A performance data acquisition step for acquiring performance data including note information;
A target setting step for setting a performance data portion to be a facial expression for the acquired performance data,
An inflection setting step for setting inflection data representing the inflection of the performance that changes with time according to the performance with respect to the acquired performance data;
A feature extraction step for extracting feature information representing features of intonation changes based on temporal changes in intonation data set in the performance data portion;
A performance data editing program for causing a computer to execute a procedure comprising a facial expression step for applying a facial expression to the performance data portion based on the extracted feature information.
JP2005352465A 2005-12-06 2005-12-06 Performance data editing apparatus and program Expired - Fee Related JP4735221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005352465A JP4735221B2 (en) 2005-12-06 2005-12-06 Performance data editing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005352465A JP4735221B2 (en) 2005-12-06 2005-12-06 Performance data editing apparatus and program

Publications (2)

Publication Number Publication Date
JP2007156181A true JP2007156181A (en) 2007-06-21
JP4735221B2 JP4735221B2 (en) 2011-07-27

Family

ID=38240619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005352465A Expired - Fee Related JP4735221B2 (en) 2005-12-06 2005-12-06 Performance data editing apparatus and program

Country Status (1)

Country Link
JP (1) JP4735221B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060121A (en) * 2016-10-07 2018-04-12 カシオ計算機株式会社 Musical tone reproducing apparatus, musical tone reproducing method, program, and electronic instrument

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04274297A (en) * 1991-02-28 1992-09-30 Kawai Musical Instr Mfg Co Ltd Automatic musical performance device
JPH10143151A (en) * 1996-01-30 1998-05-29 Pfu Ltd Conductor device
JP2001042868A (en) * 1999-05-26 2001-02-16 Yamaha Corp Performance data generation and generating device, and recording medium therefor
JP2001159892A (en) * 1999-08-09 2001-06-12 Yamaha Corp Performance data preparing device and recording medium
JP2002244657A (en) * 2000-12-14 2002-08-30 Yamaha Corp Playing signal processor, storage medium, and method and program for playing signal processing
JP2004109745A (en) * 2002-09-20 2004-04-08 Yamaha Corp Expression parameter editing device and program for realizing expression parameter editing method
JP2005249872A (en) * 2004-03-01 2005-09-15 Nec Corp Device and method for setting music reproduction parameter

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04274297A (en) * 1991-02-28 1992-09-30 Kawai Musical Instr Mfg Co Ltd Automatic musical performance device
JPH10143151A (en) * 1996-01-30 1998-05-29 Pfu Ltd Conductor device
JP2001042868A (en) * 1999-05-26 2001-02-16 Yamaha Corp Performance data generation and generating device, and recording medium therefor
JP2001159892A (en) * 1999-08-09 2001-06-12 Yamaha Corp Performance data preparing device and recording medium
JP2002244657A (en) * 2000-12-14 2002-08-30 Yamaha Corp Playing signal processor, storage medium, and method and program for playing signal processing
JP2004109745A (en) * 2002-09-20 2004-04-08 Yamaha Corp Expression parameter editing device and program for realizing expression parameter editing method
JP2005249872A (en) * 2004-03-01 2005-09-15 Nec Corp Device and method for setting music reproduction parameter

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060121A (en) * 2016-10-07 2018-04-12 カシオ計算機株式会社 Musical tone reproducing apparatus, musical tone reproducing method, program, and electronic instrument

Also Published As

Publication number Publication date
JP4735221B2 (en) 2011-07-27

Similar Documents

Publication Publication Date Title
CN112382257B (en) Audio processing method, device, equipment and medium
US20020007721A1 (en) Automatic music composing apparatus that composes melody reflecting motif
WO2019022118A1 (en) Information processing method
JP2008139426A (en) Data structure of data for evaluation, karaoke machine, and recording medium
JP2002032078A (en) Device and method for automatic music composition and recording medium
JP4735221B2 (en) Performance data editing apparatus and program
WO2021166745A1 (en) Arrangement generation method, arrangement generation device, and generation program
JP4123242B2 (en) Performance signal processing apparatus and program
JP2004258564A (en) Score data editing device, score data display device, and program
JP3752859B2 (en) Automatic composer and recording medium
JP3587133B2 (en) Method and apparatus for determining pronunciation length and recording medium
JP3641955B2 (en) Music data generator and recording medium therefor
WO2004025306A1 (en) Computer-generated expression in music production
JP4595852B2 (en) Performance data processing apparatus and program
JP2002244657A (en) Playing signal processor, storage medium, and method and program for playing signal processing
JP3620405B2 (en) Musical sound fluctuation information generating method, musical sound fluctuation information generating apparatus, and recording medium
JP4320941B2 (en) Music information editing apparatus, method, and recording medium
JP4147407B2 (en) Computer program for musical expression and musical expression apparatus
JP3752940B2 (en) Automatic composition method, automatic composition device and recording medium
JP2003302971A (en) Apparatus and program for video data processing
JP4241481B2 (en) Performance data editing program
JP5141013B2 (en) Arpeggio data generator and program
JP4613996B2 (en) Performance data editing program
JP3832422B2 (en) Musical sound generating apparatus and method
JP2002108373A (en) Method and device for analyzing singing compass of karaoke software and program recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101001

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees