JP2009058971A - 演奏データ編集プログラム - Google Patents

演奏データ編集プログラム Download PDF

Info

Publication number
JP2009058971A
JP2009058971A JP2008287291A JP2008287291A JP2009058971A JP 2009058971 A JP2009058971 A JP 2009058971A JP 2008287291 A JP2008287291 A JP 2008287291A JP 2008287291 A JP2008287291 A JP 2008287291A JP 2009058971 A JP2009058971 A JP 2009058971A
Authority
JP
Japan
Prior art keywords
expression
performance data
note
data
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008287291A
Other languages
English (en)
Other versions
JP4613996B2 (ja
Inventor
Akira Yamauchi
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008287291A priority Critical patent/JP4613996B2/ja
Publication of JP2009058971A publication Critical patent/JP2009058971A/ja
Application granted granted Critical
Publication of JP4613996B2 publication Critical patent/JP4613996B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】他のパートの状態も考慮して表情付けすることによって、演奏データ全体からみて効果的な表情付けを行うことができる演奏データ編集システムを提供すること。
【解決手段】この演奏データ編集システムでは、表情付け対象パートの演奏データと他のパートの演奏データを基にして表情付け対象のパートの演奏データに表情付けが行われる。例えば、パートPAに表情付けを行う場合、他パートPBの演奏データに「表情範囲」(スタッカートの表情付けがなされた第2拍及び第4拍)があり、各表情範囲に対応する表情付け対象パートPAの各該当範囲において他パートPBのタイミングや音高の動きで一致していれば、他パートPBの表情付けを真似るというように、他のパートPBの演奏データを調べて表情付けの強さを制御することによって、演奏データに対してトータルで効果的な表情付けを行う。
【選択図】図2

Description

この発明は、複数パートから成る演奏データに表情付けを行う演奏データ編集システムに関する。
MIDIデータ等の演奏データを音符の情報のみで構成すると、機械的に無表情な演奏になってしまうので、より自然な演奏、美しい演奏、生々しい演奏などのために、様々な音楽的な表現や楽器らしさを制御データとして加えて演奏データを編集する必要がある。そのため、従来より、演奏データ上の音符列を解析して演奏データに対し自動的に表情付けをすることが行われている。例えば、特許文献1では、主に演奏データの音高の並びを解析して指定又は選択された奏法に相当する表情付けデータ(ピッチベンドデータなど)が付加される。
特開2002−341867号公報
この場合、表情付けには奏法に応じていくつかのパラメータがあり、パラメータ値によって表情付けの効果が変わる。例えば、特許文献2に示されるように、ビブラートでは音高の変化幅を表す「深さ」パラメータや周期を表す「速さ」パラメータなどがあり、「深さ」パラメータの値が大きいほど聴感上はっきりしたピッチ変化がわかるようになる。
特開2003−233374号公報
しかしながら、従来技術によるものでは、表情付けの対象としたパート内での演奏データに対して表情付けが行われているので、対象とされていない他のパートの演奏データ及び他のパートでの表情付けの状態についてはケアされていない。
この発明は、このような事情に鑑み、他のパートの状態も考慮して表情付けすることによって、演奏データ全体からみて効果的な表情付けを行うことができる演奏データ編集システムを提供することを目的とする。
この発明の主たる特徴に従うと、複数パート(PA,PB)から成る演奏データを供給するデータ供給ステップ(R1)と、供給された演奏データについて、表情付けの対象となる表情付け対象パートを決定するパート決定ステップ(R2)と、決定された表情付け対象パートの演奏データ及び当該表情付け対象パート以外の他パートの演奏データを基にして、表情付け対象パートの演奏データに表情付けを行う表情付けステップ(R3〜R16)とから成る手順をコンピュータに実行させるための演奏データ編集プログラムであって、表情付けステップ(R3〜R16)は、他パートの演奏データから、表情付けがなされた表情範囲に含まれる音符データを抽出するステップ(R7)と、表情付け対象パートの演奏データから、表情範囲に対応する該当範囲に含まれる音符データを抽出するステップ(R6)と、両ステップで抽出された両音符データを比較し、類似しているかどうか判定するステップ(R8〜R9)と、両音符データが類似していると判定されたときに、表情範囲の表情付け情報を抽出し、抽出された表情付け情報を基にして、表情付け対象パートの演奏データの該当範囲に表情付けを行うステップ(R10〜R15)とを含む演奏データ編集プログラムが提供される。なお、括弧書きは、理解の便のために、対応する実施例の参照記号等を付記したものであり、以下においても同様である。
この発明による演奏データ編集システムにおいては、複数パート(PA,PB)から成る演奏データが供給され(R1)、供給された演奏データについて表情付けの対象となるパートが決定されると(R2)、表情付け対象のパートの演奏データと他のパートの演奏データを基にして表情付け対象のパートの演奏データに表情付けが行われる(R3〜R16)。従って、この発明によれば、他のパートの状態も考慮して表情付けするので、演奏データ全体でみて効果的な表情付けが可能となる。
さらに、表情付け(R3〜R16)については、表情付け対象パート(PA)の演奏データに対して他パート(PB)の演奏データに表情範囲(表情付けされた区間)があり、これに対応する表情付け対象パート(PA)の該当範囲において、他パート(PB)表情範囲のタイミングや音高の動きで一致していれば、他パート(PB)の表情付けを真似る(R10〜R15)というように、複数パートの演奏データ内の或るパートに表情付けを行う場合、他のパートの演奏データを調べて表情付けの強さを制御することによって、演奏データに対してトータルで効果的な表情付けを行うことができる。
〔システム構成〕
図1は、この発明の一実施例による演奏データ編集システムのハードウエア構成例を示す。この演奏データ編集システムの例では、演奏データ編集装置には、パーソナルコンピュータ等の汎用の情報処理装置(コンピュータ)が用いられ、演奏入力及び楽音生成機能が付設されているが、電子楽器のような音楽専用の情報処理装置(コンピュータ)を用いてもよい。この演奏データ編集装置は、中央処理装置(CPU)1、ランダムアクセスメモリ(RAM)2、読出専用メモリ(ROM)3、外部記憶装置4、入力操作部5、表示部6、音源部7、通信インターフェース(通信I/F)8等の要素を備え、これら要素1〜8はバス9を介して互いに接続される。
装置全体を制御するCPU1は各種制御プログラムに従って各種処理を実行し、制御プログラムに含まれる演奏データ編集プログラムに従って表情付け処理を実行する。RAM2は、これらの処理で利用される種々の情報を一時的に記憶するための処理バッファとして機能する。また、ROM3は、各種制御プログラムや必要な制御データ、演奏データ等の各種データを記憶している。
外部記憶装置4は、ハードディスク(HD)や、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)、フレキシブルディスク(FD)、光磁気(MO)ディスク、ディジタル多目的ディスク(DVD)、メモリカード等の記憶媒体を用いた記憶手段である。演奏データ編集プログラムや演奏データ等の各種プログラム及びデータは、ROM3だけでなく外部記憶装置4に記憶させることができる。
例えば、ROM3に演奏データ編集プログラム等の制御プログラムが記憶されていない場合、HDやCD−ROMなどの外部記憶装置4に制御プログラムを記憶させておきそれをRAM2に読み込むことで、ROM3に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができ、制御プログラムの追加やバージョンアップ等を容易に行うことができる。また、表情付け処理に用いられるプログラムや必要な制御パラメータ等をインストールすることによって所望の演奏データ編集装置を実現することができる。
入力操作部5は、電源のオンオフ、表情付け処理の開始及び停止などのスイッチ操作、各種設定、編集操作などを行うための種々のパネル操作子(キー/ボタン、マウス等)や、鍵盤などの演奏操作子を含む操作部と、操作検出回路とから成り、これら操作子を用いたユーザによる演奏操作やパネル操作の内容を操作検出回路で検出し、対応する入力情報をシステム本体内に導入する。
表示部6は、これに接続されるディスプレイ(CRT、LCD等の表示器)や各種ランプ・インジケータなどを含む表示装置10の表示内容や点灯状態をCPU1からの指令に従って制御し、入力操作部5の操作に対する表示援助を行う。
音源部7は、音源(ソフトウエアを含む)や効果付与DSPを含み、演奏操作子(5)の演奏操作に基づく実演奏情報や記憶手段3,4などの演奏データ中の演奏情報に対応する楽音信号を生成し、音源部7に接続されるサウンドシステム11は、D/A変換部やアンプ、スピーカを備え、音源部7からの楽音信号に基づく楽音を発生する。
また、図示の通信I/F8は、ローカルエリアネットワーク(LAN)や、インターネット、電話回線などの一般用通信ネットワーク、或いは、MIDI用ネットワークに接続される各種インターフェースを一括して表わしており、サーバ等の他のコンピュータやMIDI機器などの種々の外部機器12と各種情報を授受することができる。
例えば、この装置に制御プログラムやデータが記憶されていない場合、通信I/F8を介して他のコンピュータ12から制御プログラム等をダウンロードすることができる。また、外部機器12に、他の演奏情報入力装置(鍵盤楽器など)や演奏データ出力装置を含む各種MIDI機器を用いて、実演奏情報や各種演奏データを通信I/F8から取り込むこともできる。
〔演奏データ編集の概要〕
この発明の一実施例による演奏データ編集システムでは、演奏データ中の或るパートに自動的に表情付けを行う際、表情付けを行おうとしている対象パート以外の他のパートの様子に従ってその表情を調整する。つまり、他のパートの演奏状態を評価し、評価された状態に応じて当該対象パートの表情を調整することにより、演奏データに対してトータルで効果的に表情を付加することができる。
この場合、例えば、次の(a)〜(c)のような演奏データ編集上のルールがある:
(a)他のパートの発音がない場合は、強調された特徴的な表情を付加する。
(b)他のパートの発音が多い場合は、おとなしい控えめな表情を付加する。
(c)他のパートに同じ音符の動きがある場合は、その表情を真似る。
ここで付加される表情には、一般的には、音量、ビブラート、スタッカート、トリル、クレッシェンド、デクレッシェンドなどがあり、ギターなどの楽器パートの場合には、チョーキングやスライドなどもある。また、オクターブ等の異なる音高の音を足すなど、その他種々の奏法を適用することができる。そして、付与される表情については、その効果の程度を表わす表情付けパラメータ(「制御パラメータ」ともいう)が設定される。
表1は、ビブラート及びスタッカートを含む表情付けパラメータ値の例を示す。表1において、「効果大の値Va」は、特徴的な表情を付加して表情を強調する場合のパラメータ値を表わし、「効果小の値Vb」は、控えめな表情を付加して表情を抑制する場合のパラメータ値を表わす。これに対して、「デフォルト値Vo」は、このような強弱を与えない場合の標準的なパラメータ値である。
Figure 2009058971
例えば、ビブラートを付与する場合には、音高の変調範囲が、デフォルト値で50セント(Cent)=1/2半音であるのに対して、強調時には80セントに設定され、抑制時には10セントに設定される。スタッカートを付与する場合には、対象音符の長さに対する割合が、デフォルト値で60%であるのに対して、強調時には30%に設定され、抑制時には80%に設定される。また、他の表情付けパラメータについても適宜パラメータ値が設定され、例えば、トリルについては、デフォルト値に対して、強調時には細かく、抑制時にはゆっくりと、隣接音との交互演奏がなされるような値に設定される。
ここで、図2のような譜例を用いてこの発明の一実施例による演奏データ編集システムにおける演奏データの表情付けの要点を簡単に説明しておく。このシステムでは、複数パートPA,PBから成る演奏データに対して、表情付けの対象となる「表情付け対象パート」が決定されると、表情付け対象パートの演奏データと他のパートの演奏データを基にして表情付け対象のパートの演奏データに表情付けが行われる。例えば、パートPB(スタッカート無し)にスタッカートの表情付けを行おうとする場合、表情付け対象パートPBの「表情付け範囲」(表情付けを行おうとする第2,4拍)に対して、他のパートPAに音符データが存在する場合は表情付けを控え目に制御し(第2拍)、他のパートPAに音符データが存在しない場合には表情付けを強めに制御する(第4拍)。また、パートPAに表情付けを行う場合は、他パートPBの演奏データに「表情範囲」(スタッカートの表情付けがなされた第2拍及び第4拍)があり、各表情範囲に対応する表情付け対象パートPAの各該当範囲において他パートPBのタイミングや音高の動きで一致していれば、他パートPBの表情付けを真似る。
図2について、この発明の一実施例による表情付けの例をより詳しく説明する。この例では、演奏データは、上段のパートPAと下段のパートPBから成り、表情付けパラメータとしてスタッカートを付加するものとして、以下のようなケース(1)〜(3)について述べる。
(1)ケース1:下段のパートPBを表情付けパート(図示のスタッカートは無いものとする)とし、音符列d〜g中の音符eに対して、図示のようにスタッカートを付与する場合
この場合は、表情付けパートPB(下段)において表情付けの対象となる表情付け範囲は図示の小節の2拍目先頭から2拍目末尾までであり、他パートPA(上段)から、この表情付け範囲に入る音符データを抽出する。この範囲で抽出される音符は音符bのみであり、表情付けがなされる音符eに対応して音符bが存在するので、当該音符eには、ルール(b)に従って、表1(2)の効果小の値でスタッカートが付けられる。
(2)ケース2:同上の表情付けパートPBにおける音符列d〜g中の音符gに対して、図示のようにスタッカートを付与する場合
この場合は、表情付けパートPB(下段)の表情付け範囲はこの小節の4拍目先頭から4拍目末尾までであり、他パートPA(上段)から、この表情付け範囲に入る音符データを抽出する。この範囲で抽出される音符はないので、当該音符gには、ルール(a)に従って、表1(2)の効果大のスタッカートが付けられる。
(3)ケース3:下段のパートPBの音符列d〜g中の音符e及び音符gに対して図示のようにスタッカートが付いた状態で、上段のパートPAに表情付けをする場合
この場合、他パートPB(下段)中で表情付けされた最初の音符eの表情範囲(2拍目の先頭から末尾)に対応する表情付けパートPA(上段)の該当範囲には、音符bがある。そして、これら2つの音符e,bはタイミングと音名(F=ファ)が一致するので、類似性が大きい。それ故、ルール(c)に従って他パートPBの表情を真似るものとし、その際、音符eに対応する音符bには効果大のスタッカートを付ける。なお、他パートPB中で表情付けされた次の音符gの範囲(4拍目の先頭から末尾)については、表情付けパートPAに対応する音符がない(表情付けは不可)。
ここで、もし他パートPB(下段)の音符fにスタッカートが付いていたとした場合には、当該音符fの表情範囲(3拍目の先頭から末尾)にある表情付けパートPA(上段)の音符は音符cであり、両音符f,cはタイミングが一致して類似性があるので、ルール(c)に従って他パートPBの表情を真似るものとする。しかし、両音符f,cは音名が違う(f:A=ラ、c:F=ファ)ので類似の程度が小さいため、音符fに対応する音符cには効果小のスタッカートを付ける。
〔演奏データ編集の動作フロー〕
この発明の一実施例による演奏データ編集システムでは、演奏データ編集プログラムに従って、上述のような表情付け処理を実行する。図3及び図4は、この発明の第1実施形態による表情付け処理の動作例〔表情付け例1〕を表わすフローチャートであり、この表情付け例1では、主としてルール(a),(b)に従った表情付けを行うことができる。
図3及び図4の動作フローにおいて、まず、最初のステップS1(図3)で、入力操作部5のパネル操作子に対するユーザ操作により、ROM3又は外部記憶装置4に記憶されている演奏データから表情付けの編集をすべき演奏データを選択する入力があると、CPU1は、選択された演奏データをROM3又は外部記憶装置4からRAM2上の作業エリアに読み込む。ここで、RAM2に読み込まれる演奏データは複数のパートから成る。
続くステップS2では、さらに、ユーザ操作により、読み込まれた演奏データに含まれる複数のパートから表情付けの対象となるパートを指示する入力があると、CPU1は、指示されたパートを表情付けパートに設定する。次いで、ステップS3において表情付けを行うためのルールを設定する。このルールには、例えば、表情付けをする奏法の種類や、表情付け範囲の検出ルール、各奏法毎に適用される実際の表情付けのアルゴリズムなどが含まれる。なお、ステップS3では、各奏法毎に、演奏データの他パートを参照するか否かを設定することもできる。
このようにして表情付け対象パートや表情付けルール等が設定されると、次のステップS4にて、ユーザ操作による処理進行指示に応じて、ステップS3で設定された表情付けの奏法種類のうち1つの奏法種類を表情付け処理の対象に指定し、ステップS5に進む。
ステップS5では、RAM2に読み込まれた演奏データの表情付けパートから、ステップS4で対象に指定された奏法(「対象奏法」という)の表情付けを行うことができる1乃至複数の時間的な範囲を抽出する。この表情付け可能な範囲は「表情付け範囲」と呼ばれ、例えば、第何小節第1拍の先頭から同小節第1拍の終わりまで、などのように、所定の時間単位で抽出される。なお、表情付け範囲の抽出は、自動で行ってもよいし、ユーザ操作により指示してもよい。
次のステップS6では、抽出された表情付け範囲のうち1つに相当する範囲を処理対象に指定する。続いて、ステップS7にて、当該演奏データの他のパートについて、ステップS4で処理対象に指定された範囲(「対象範囲」という)内で発音状態になる音符データを抽出し、ステップS8にて、このような音符データが他パートから抽出されたか否かを判定する。
ここで、他パートから音符データが抽出されたときは(S8→YES)、ステップS9で奏法の効果小のパラメータ値Vbを取得し、その後、ステップS11に進む。一方、他パートから音符データが抽出されないときは(S8→NO)、ステップS10で奏法の効果大のパラメータ値Vaを取得し、その後、ステップS11に進む。
ステップS11では、表情付けパートにおいて、対象範囲に含まれる音符データを抽出し、ステップS9,S10で取得された表情付けパラメータ値Vb,Vaに基づいた表情付けを行う。この後、ステップS12(図4)に進み、対象奏法の表情付け可能な他の範囲があるか否かを判定する。ここで、同じ対象奏法の表情付け範囲が他にあるときは(S12→YES)、ステップS6に戻って、当該他の表情付け範囲の1つに相当する範囲を新たな対象範囲に指定し、新たな対象範囲について上述したステップS6〜S12の処理を繰り返す。
なお、ステップS3にて、演奏データの他パートを参照することなく表情付けを行うように設定された奏法については、ステップS5〜S10の処理を省略し、ステップS11において、表情付けパートに対し、当該対象奏法に設定されているデフォルト値Voに基づいた表情付けを行うことができる。
また、同一対象奏法の表情付け可能な対象範囲がなくなったときは(S12→NO)、ステップS13に進んで、表情付けすべき他の奏法があるか否かを判定する。ここで、表情付けすべき他の奏法種類が他にあるときは(S13→YES)、ステップS4に戻って、当該他の奏法種類の1つを新たな対象奏法に指定し、新たな対象奏法について上述したステップS4〜S13の処理を繰り返す。
そして、表情付けすべき全ての奏法についてステップS4〜S13の処理を実行し、対象奏法がなくなったときに(S13→NO)、この動作フローを終了する。
図5及び図6は、この発明の第2実施形態による表情付け処理の動作例〔表情付け例2〕を表わすフローチャートであり、この表情付け例2では、主としてルール(c)に従った表情付けを行うことができる。
図5及び図6の動作フローにおいて、まず、最初のステップR1(図5)では、ステップS1と同様に、複数のパートから成る演奏データを表情付け編集の対象としてROM3又は外部記憶装置4から読み出し、RAM2上の作業エリアに読み込む。次のステップR2では、ステップS2と同様に、読み込まれた演奏データに含まれる複数のパートから表情付けの対象として指示されたパートを表情付けパートに設定する。
次いで、ステップR3において、表情付けのためのルールを設定する。このルールには、ルール(c)を適用する際に類似判定に使用されるルールの詳細設定や、既に表情付けされている表情範囲の検出ルール、各奏法毎に適用される実際の表情付けのアルゴリズムなどが含まれる。なお、このステップR3では、各奏法毎に、他パートを単純に真似るか否かを設定することもできる。
このようにして表情付け対象パートや表情付けルール等が設定されると、次のステップR4では、当該演奏データにおいて表情付けパートに設定されていない他のパートを検索し、当該他パートから、表情付け情報のある1乃至複数の範囲を抽出する。このように表情付けがなされた範囲は「表情範囲」と呼ばれ、例えば、第何小節第1拍の先頭から同小節第1拍の終わりまでにビブラートらしいピッチベンドデータ(複数)が存在する、などのように、所定の時間単位で抽出される。
次のステップR5では、抽出された表情範囲のうち1つに相当する範囲を処理対象に指定する。まず、ステップR6で、当該演奏データの表情付けパートから、ステップR5で処理対象に指定された範囲(「対象範囲」という)内の音符データを抽出し、次いで、ステップR7(図6)にて、他パートからも対象範囲内の音符データを抽出する。
そして、ステップR8において、表情付けパート内で抽出された音符データと他パート内で抽出された音符データの発音タイミングの類似を比較し、続くステップR9にて、両音符データの発音タイミングが類似しているか否かを判定する。ここで、両音符データの発音タイミングが類似していると判定されたときは(R9→YES)、さらに、ステップR10に進む。
ステップR10では、他パートから当該対象範囲内にある1乃至複数の表情付け情報(奏法)を抽出する。続いて、ステップR11で、ステップR6にて表情付けパート内で抽出された音符データとステップR7にて他パート内で抽出された音符データの音名を比較し、次のステップR12にて、両音符データの音名が一致しているか否かを判定する。
ここで、表情付けパート及び他パートから抽出された両音符データの音名が一致したときは(R12→YES)、ステップR13にて、奏法の効果大のパラメータ値Vaを取得し、その後、ステップR15に進む。一方、両音符データの音名が一致していないときは(R12→NO)、ステップR14で奏法の効果小のパラメータ値Vbを取得し、その後、ステップR15に進む。
ステップR15では、表情付けパートにおいて、対象範囲に含まれる音符データに対して、ステップR10で抽出した種類の表情付けを、ステップR13,R14で取得された表情付けパラメータ値Va,Vbに基づいて行い、その後、ステップR16に進む。
なお、ステップR8〜R15の具体的な処理内容は、ステップR3で設定された類似判定ルールの内容によって変化する。例えば、ステップR3にて、他パートを単純に真似るように設定された奏法については、ステップR10〜R14の処理を省略し、ステップR15において、表情付けパートに対し、当該対象奏法に設定されているデフォルト値Voに基づいた表情付けを行うことができる。
ステップR16では、ステップR4で他パートから抽出された表情範囲が他にあるか否かを判定し、未だ他の表情範囲があるときは(R16→YES)、ステップR5に戻って、当該他の表情範囲の1つに相当する範囲を新たな対象範囲に指定し、新たな対象範囲について上述したステップR5〜R16の処理を繰り返す。
そして、他パートから抽出された全ての表情範囲についてステップR5〜R16の処理を実行し、抽出された表情範囲が他になくなったときに(R16→NO)、この動作フローを終了する。
〔種々の実施態様〕
以上、この発明の好適な一実施例について説明したが、これは単なる一例であって、この発明は、その精神を逸脱しない範囲で種々の変更が可能であり、種々の態様で実施することができる。例えば、表情付けのために供給される演奏データは、元々表情付け情報を含んでいてもよい。特に、第2実施形態のように他パートを真似るような場合には、演奏データの他パートに表情付け情報を含む必要がある。
表情付けを行う手順としては、或るパートの演奏データを自動で分析して複数種類の表情付けを行う手順を採用してもよいし、例えば、楽譜を表示した画面上でマウスなどを使って、表情付けしたい音符を指定するような手順を採用してもよい。
表情付けは、音符に対して行われるものもあれば、例えば、小節などの範囲指定で行われるものもある。音符に対して行われる表情付けの例には、スタッカートやビブラートやチョーキングなどがあり、範囲指定で行われる表情付けの例には、クレッシェンド、デクレッシェンドなどがある。
表情付けを強調する場合には、対象となる音符データ音量を大きくし、表情付けを抑え目にする場合には音量を小さくするようにしてもよい。また、表情付けの種類がスタッカートの場合は、演奏データが全体的に音長がスタッカート気味に短い場合には音長を長くし、逆に演奏データが全体的に音長が長い場合には音長を短くすれば強調した表情付けになる。ビブラートの場合は、深さを深くすれば効果が強調され、逆に浅くすれば効果が控えめになる。或いは、強調する場合には表情付けを行い、控えめにするには表情付けを行わないという制御を採用してもよい。
パート間の音符データの類似判定は、例えば、音符データの発音タイミングよりリズムが同じかどうか、次の音符データの音高が現在の音符データの音高より高いか低いかのパターンが同じかどうか、或いは、同じタイミングでの音符データの音高が一致するかどうか、などの1つ又はそれらの組み合わせで行うことができる。また、タイミングの比較については、多少の誤差を許容するようにしてもよい。
パート間の音符データが類似していると判定された場合には、単純に真似てもよいが、例えば、リズムだけが類似している場合と、更に音名乃至音高も一致している場合とでは、表情付けの制御を変えるようにしてもよい。例えば、第2実施形態では、音名の一致を判断に入れたが、音名に加えて或いは音名に代えて音高の一致を判断し、音高も一致している場合は効果が更に大きくなるように表情付けし(R13→R15に相当)、リズムだけが類似している場合は効果が小さくなるように表情付けする(R14→R15)ようにすることができる。
実施例では、説明の簡単化のために、2パートから成る演奏データに説明したが、実際にはもっと多くのパートがあってもよい。多数のパートがある場合は、1つ1つのパートを順番に表情付けの対象にしていってもよい。
実際の表情付けの方法は、例えば、ピッチベンドデータやエクスプレッションデータを付与する、該当する奏法を表わす波形データをアサインする、などの従来の方法でよい。
表情付けの制御については、実施例では、説明を簡単にするために、強調する場合、普通の場合、控えめに(抑制)する場合の奏法毎の制御パラメータ値(Va,Vo,Vb)を設定するものとしたが、更に何段階かにわたって設定されていてもよい。また、これらパラメータ値は、絶対値ではなくパーセントなどデフォルト値に対する割合で設定されていてもよいし、ユーザがデフォルト値も含めて設定変更可能であってもよい。
類似判定の基準についても、項目の数や種類は、実施例に限らず、ユーザにより設定編集可能であってもよい。また、各基準の優先順位や組み合わせなどについても、同様に、実施例に限らず変更可能でよい。
この発明の一実施例による演奏データ編集システムのハードウエア構成例を示すブロック図である。 この発明の一実施例による表情付けを説明するための譜例である。 この発明の第1実施形態による表情付け処理の動作例〔表情付け例1〕を表わすフローチャートの一部である。 この発明の第1実施形態による表情付け処理の動作例〔表情付け例1〕を表わすフローチャートの他部でである。 この発明の第2実施形態による表情付け処理の動作例〔表情付け例2〕を表わすフローチャートの一部である。 この発明の第2実施形態による表情付け処理の動作例〔表情付け例2〕を表わすフローチャートの他部である。
符号の説明
PA,PB パート、
Vo デフォルトの表情付け(制御)パラメータ値、
Va 効果大の場合(強調時)の表情付け(制御)パラメータ値、
Vb 効果小の場合(抑制時)の表情付け(制御)パラメータ値。

Claims (1)

  1. 複数パートから成る演奏データを供給するデータ供給ステップと、
    供給された演奏データについて、表情付けの対象となる表情付け対象パートを決定するパート決定ステップと、
    決定された表情付け対象パートの演奏データ及び当該表情付け対象パート以外の他パートの演奏データを基にして、表情付け対象パートの演奏データに表情付けを行う表情付けステップと
    から成る手順をコンピュータに実行させるための演奏データ編集プログラムであって、
    上記表情付けステップは、
    他パートの演奏データから、表情付けがなされた表情範囲に含まれる音符データを抽出するステップと、
    表情付け対象パートの演奏データから、上記表情範囲に対応する該当範囲に含まれる音符データを抽出するステップと、
    上記両ステップで抽出された両音符データを比較し、類似しているかどうか判定するステップと、
    両音符データが類似していると判定されたときに、上記表情範囲の表情付け情報を抽出し、抽出された表情付け情報を基にして、表情付け対象パートの演奏データの該当範囲に表情付けを行うステップと
    を含むことを特徴とする演奏データ編集プログラム。
JP2008287291A 2008-11-10 2008-11-10 演奏データ編集プログラム Expired - Fee Related JP4613996B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008287291A JP4613996B2 (ja) 2008-11-10 2008-11-10 演奏データ編集プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008287291A JP4613996B2 (ja) 2008-11-10 2008-11-10 演奏データ編集プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004112705A Division JP4241481B2 (ja) 2004-04-07 2004-04-07 演奏データ編集プログラム

Publications (2)

Publication Number Publication Date
JP2009058971A true JP2009058971A (ja) 2009-03-19
JP4613996B2 JP4613996B2 (ja) 2011-01-19

Family

ID=40554697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008287291A Expired - Fee Related JP4613996B2 (ja) 2008-11-10 2008-11-10 演奏データ編集プログラム

Country Status (1)

Country Link
JP (1) JP4613996B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001159892A (ja) * 1999-08-09 2001-06-12 Yamaha Corp 演奏データ作成装置及び記録媒体
JP2001350471A (ja) * 2000-06-05 2001-12-21 Yamaha Corp 演奏データの表情付け処理装置及びその記録媒体
JP2002311956A (ja) * 2001-04-12 2002-10-25 Yamaha Corp 再生制御装置、方法及びプログラム
JP2002366148A (ja) * 2001-06-07 2002-12-20 Yamaha Corp 演奏データ編集装置及び方法並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001159892A (ja) * 1999-08-09 2001-06-12 Yamaha Corp 演奏データ作成装置及び記録媒体
JP2001350471A (ja) * 2000-06-05 2001-12-21 Yamaha Corp 演奏データの表情付け処理装置及びその記録媒体
JP2002311956A (ja) * 2001-04-12 2002-10-25 Yamaha Corp 再生制御装置、方法及びプログラム
JP2002366148A (ja) * 2001-06-07 2002-12-20 Yamaha Corp 演奏データ編集装置及び方法並びにプログラム

Also Published As

Publication number Publication date
JP4613996B2 (ja) 2011-01-19

Similar Documents

Publication Publication Date Title
JP3675287B2 (ja) 演奏データ作成装置
JPH07325583A (ja) サウンドの分析及び合成方法並びに装置
JP2006030414A (ja) 音色設定装置及びプログラム
JP2006330532A (ja) 楽音合成装置
JP3900188B2 (ja) 演奏データ作成装置
JP6175812B2 (ja) 楽音情報処理装置及びプログラム
JP3915807B2 (ja) 奏法自動判定装置及びプログラム
JP4561636B2 (ja) 楽音合成装置及びプログラム
JP4241481B2 (ja) 演奏データ編集プログラム
JP4613996B2 (ja) 演奏データ編集プログラム
JP5061926B2 (ja) 電子音楽装置及び演奏データ編集表示プログラム
JP4007418B2 (ja) 演奏データの表情付け処理装置及びその記録媒体
JP2003177751A (ja) 演奏データ加工処理装置
JP3900187B2 (ja) 演奏データ作成装置
JP4123242B2 (ja) 演奏信号処理装置及びプログラム
JP4735221B2 (ja) 演奏データ編集装置及びプログラム
JP4595852B2 (ja) 演奏データ処理装置及びプログラム
JP3656519B2 (ja) 表情が付与された演奏データの作成装置及び記録媒体
JP2016057389A (ja) コード決定装置及びコード決定プログラム
JP3948464B2 (ja) 演奏データ生成装置及び記録媒体
JP2006350101A (ja) 楽音波形合成装置
JP4595851B2 (ja) 演奏データ編集装置及びプログラム
JP5223536B2 (ja) 電子音楽装置及び楽譜データ利用プログラム
EP1734508A1 (en) Musical sound waveform synthesizer
JP2006039326A (ja) 自動演奏データ特性変更装置及びそのプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101004

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees