JP4735221B2 - 演奏データ編集装置及びプログラム - Google Patents

演奏データ編集装置及びプログラム Download PDF

Info

Publication number
JP4735221B2
JP4735221B2 JP2005352465A JP2005352465A JP4735221B2 JP 4735221 B2 JP4735221 B2 JP 4735221B2 JP 2005352465 A JP2005352465 A JP 2005352465A JP 2005352465 A JP2005352465 A JP 2005352465A JP 4735221 B2 JP4735221 B2 JP 4735221B2
Authority
JP
Japan
Prior art keywords
performance data
data
inflection
expression
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005352465A
Other languages
English (en)
Other versions
JP2007156181A (ja
Inventor
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005352465A priority Critical patent/JP4735221B2/ja
Publication of JP2007156181A publication Critical patent/JP2007156181A/ja
Application granted granted Critical
Publication of JP4735221B2 publication Critical patent/JP4735221B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、演奏データに付加する表情を抑揚の変化に応じて制御することができる演奏データ編集システムに関する。
MIDIデータなどの演奏データを音符の情報のみで構成すると、機械的に無表情な演奏になってしまう。より自然な演奏、美しい演奏、生々しい演奏などを実現するためには、様々な音楽的な表現や、楽器らしさを制御データとして加える上、MIDIデータの編集方法を熟知している必要がある。しかし、このような演奏表現を加える作業について、曲のどの部分にどのような表現を加えるかをユーザに委ねるとしたら、ユーザは音楽や楽器の特性を熟知している必要が生じる。つまり、ユーザは、実際の楽器の演奏特性とコンピュータミュージックの両方に長けていないと良いと思われる演奏データを作り上げることができず、また、両方に長けていても面倒かつ困難な作業である。従って、幅の広いユーザに簡単に使えるシステムにするためには、機械が判断できる部分は自動的に行なった方がよい。
このため、例えば、特許文献1や特許文献2のように、演奏データに楽器らしさを出すための自動化の工夫を施したものが提案されている。
特開2002−244657号公報 特開2005−115073号公報
特許文献1の演奏情報処理装置では、曲全体に構成感のある表情付けを実施するため、曲を幾つかの部分に分割し、分割区間毎に抑揚データを適用して抑揚表情を付加するようになっており、抑揚表情を付加する具体的な手段としては音量を抑揚データによって制御している。また、特許文献2の音楽的表情付け装置では、表情付け制御データを用いて音量だけでなくビブラートなどによる音楽表現情報を演奏データに自動的に付加している。
しかしながら、従来技術では、ノートの時間的位置に相当する抑揚データや表情付け制御データの値が直接表情付けに関与しており、抑揚の変化が反映されていない。つまり、例えば、抑揚の度合が同じでも、抑揚が高まる場合と収まる場合では音楽表現の種類が異なると、より自然な演奏が得られることが多く、抑揚の変化は音楽表現にとっては重要であるにも拘わらず、このような抑揚の変化が考慮されていなかった。
この発明の主たる目的は、このような事情に鑑み、抑揚の変化を考慮することにより、知識の少ない初心者ユーザであっても、十分に表情付けされ、本物の楽器らしい自然な演奏が実現可能な演奏データを生成することができるようにした演奏データ編集システムを提供することにある。
この発明の主たる特徴に従うと、ノート情報を含む演奏データ〔図2(1a)〕を取得する演奏データ取得手段(E1)と、取得された演奏データ〔図2(1a)〕について、表情付けの対象となる演奏データ部分(対象音符群A,B,C,…)を設定する対象設定手段(E5)と、取得された演奏データ〔図2(1a)〕に対して、演奏に従い時間的に変化する演奏の抑揚を値で表わす抑揚データ〔図2(1b)〕を設定する抑揚設定手段(E4)と、上記演奏データ部分(A,B,C,…)に設定された抑揚データ〔図3(2)〕の時間的な変化が所定の条件の何れに合致するかを調べ、合致する条件に対応した抑揚変化の特徴を表わす特徴情報(各種テーブル)を抽出する特徴抽出手段(E7)と、抽出された特徴情報(各種テーブル)及び上記演奏データ部分(A,B,C,…)に設定された抑揚データの値に基づいて表情付けパラメータを制御し、該表情付けパラメータに基づいて上記演奏データ部分(A,B,C,…)に表情付けを施す表情付け手段(E8;図6)とを具備し、上記所定の条件には、各演奏データ部分(A,B,C,…)における抑揚データの値〔図3(2)の各期間Ta,Tb,Tcにおける抑揚データ値〕について、時間的な変化がないこと、直線的に増大或いは減少していること、上に凸或いは下に凸であること、複数の山谷があることが含まれる演奏データ編集装置(電子音楽装置EM)〔請求項1〕、並びに、ノート情報を含む演奏データ〔図2(1a)〕を取得する演奏データ取得ステップ(E1)と、取得された演奏データ〔図2(1a)〕について、表情付けの対象となる演奏データ部分(対象音符群A,B,C,…)を設定する対象設定ステップ(E5)と、取得された演奏データ〔図2(1a)〕に対して、演奏に従い時間的に変化する演奏の抑揚を値で表わす抑揚データ〔図2(1b)〕を設定する抑揚設定ステップ(E4)と、上記演奏データ部分(A,B,C,…)に設定された抑揚データ〔図3(2)〕の時間的な変化が所定の条件の何れに合致するかを調べ、合致する条件に対応した抑揚変化の特徴を表わす特徴情報(各種テーブル)を抽出する特徴抽出ステップ(E7)と、抽出された特徴情報(各種テーブル)及び上記演奏データ部分(A,B,C,…)に設定された抑揚データの値に基づいて表情付けパラメータを制御し、該表情付けパラメータに基づいて上記演奏データ部分(A,B,C,…)に表情付けを施す表情付けステップ(E8;図6)とから成り、上記所定の条件には、各演奏データ部分(A,B,C,…)における抑揚データの値〔図3(2)の各期間Ta,Tb,Tcにおける抑揚データ値〕について、時間的な変化がないこと、直線的に増大或いは減少していること、上に凸或いは下に凸であること、複数の山谷があることが含まれる手順をコンピュータ(電子音楽装置EM)に実行させる演奏データ編集プログラム〔請求項3〕が提供される。なお、括弧書きは、理解の便の為に付した実施例の参照記号、用語乃至箇所等である。
この発明による演奏データ編集装置において、対象設定手段(E5)は、演奏データ取得手段(E1)により取得された演奏データ〔図2(1a);図3(1)〕を構成するノート情報の時間的な繋がりに基づいて、表情付けの対象となる個々の演奏データ部分(対象音符群A,B,C,…)を順次設定する〔請求項2〕ように構成することができる。
この発明の主たる特徴に従う演奏データ編集システム(請求項1,3)では、演奏に従い時間的に変化する演奏の抑揚を値で表わす抑揚データ〔図2(1b)〕を設定し(E4)、表情付け対象に設定した各演奏データ部分(A,B,C,…)における抑揚データの値〔図3(2)の各期間Ta,Tb,Tcにおける抑揚データ値〕について、時間的な変化がない(一定値)、直線的に増大或いは減少している、上に凸或いは下に凸である、複数の山谷がある、といった所定の条件の何れに合致するかを調べ、合致する条件に対応した抑揚変化の特徴を表わす特徴情報(各種テーブル)を抽出し(E7)、抽出した特徴情報(各種テーブル)及び各演奏データ部分(A,B,C,…)に設定された抑揚データの値に基づいて表情付けパラメータを制御し、該表情付けパラメータに基づいて各演奏データ部分(A,B,C,…)に表情付けを施す(E8;図6)ようにしている。つまり、各演奏データ部分(A,B,C,…)において、抑揚が高まる場合と収まる場合や、抑揚の山谷が複数ある場合とそうでない場合など、抑揚データ〔図2(1b)〕から抽出される変化の特徴に注目し、各場合に応じてビブラートやピッチベンド等の表情付けパラメータを制御して表情付け処理をするようにしている。従って、この発明によれば、知識の少ない初心者であっても、十分に表情付けされた本物の楽器らしい自然な演奏を実現する演奏データを作成することができる。
また、この発明の演奏データ編集装置では、演奏データ〔図2(1a);図3(1)〕を構成するノート情報の時間的な繋がりに基づいて、表情付けの対象となる個々の演奏データ部分(対象音符群A,B,C,…)を順次設定するようにしている(請求項2)。従って、この発明によれば、演奏データ中の表情付けすべき音符群に対して適切な表情付けを実現することができる。
〔システム構成〕
図1は、この発明の一実施例による演奏データ編集装置のハードウエア構成ブロック図を示す。この演奏データ編集装置EMには、音楽情報処理機能を有するパーソナルコンピュータ(PC)や電子楽器のような音楽情報処理装置(電子音楽装置)が用いられ、図示の例では更に演奏操作部乃至楽音信号発生部が設けられている。演奏データ編集装置EMは、中央処理装置(CPU)1、ランダムアクセスメモリ(RAM)2、読出専用メモリ(ROM)3、外部記憶装置4、演奏操作検出回路5、設定操作検出回路6、表示回路7、音源回路8、効果回路9、通信インターフェース(I/F)10、MIDIインターフェース(I/F)11等を備え、これら要素1〜11はバス12で互いに接続される。
CPU1は、RAM2及びROM3と共にデータ処理部を構成し、演奏データ編集プログラムを含む所定の制御プログラムに従い、タイマ13によるクロックを利用して演奏データ編集処理を含む種々の音楽情報処理を実行する。RAM2は、これらの処理に際して必要な各種データを一時的に記憶するためのワーク領域として用いられる。また、ROM3には、これらの処理を実行するために必要な各種制御プログラムや表情付けテンプレート(表情付けパラメータ制御テーブル)等の制御データなどが記憶される。
外部記憶装置4は、ハードディスク(HD)等の内蔵記憶媒体の外に、コンパクトディスク・リード・オンリィ・メモリ(CD−ROM)、フレキシブルディスク(FD)、光磁気(MO)ディスク、ディジタル多目的ディスク(DVD)、スマートメディア(登録商標)等の小型メモリカード、等々、種々の可搬性の外部記録媒体を含み、上述した制御プログラムや制御データの外に、表情付け前乃至表情付け後の演奏データを含む任意のデータを任意の外部記憶装置(例えば、HDD)4に記憶することができる。
演奏操作検出回路5は、鍵盤などの演奏操作子14と共に演奏操作部を構成し、演奏操作子14に対するユーザの演奏操作を検出し、演奏内容に対応する演奏データを生成してデータ処理部に導入する。設定操作検出回路6は、演奏データ編集装置EMの操作パネル等に設けられたキースイッチやマウス等の設定操作子15に対するユーザの設定操作(パネル設定)を検出し、設定内容に対応する設定データをデータ処理部に導入する。表示回路7は、操作パネル等に設けられた画面表示用LCD等のディスプレイ(表示器)16や各種インジケータ(図示せず)の表示/点灯内容をデータ処理部からの指令に従って制御し、操作子14,15の操作に対する表示援助を行う。
音源回路8及び効果回路9は、楽音信号生成部として機能し、両回路8,9は、ソフトウエアを含ませることができる。音源回路8は、演奏操作検出回路5や記憶手段(3,4)等からの演奏データに応じて所定音色及び音高の楽音データを生成し、効果付与DSPを有する効果回路9は、同演奏データに応じて楽音データに所定の効果を付与した楽音信号を発生する。効果回路9に後続するサウンドシステム17は、D/A変換部やアンプ、スピーカを備え、効果回路9から出力される楽音信号に基づく楽音を発生する。
通信I/F10には、インターネットやローカルエリアネットワーク(LAN)などの通信ネットワークCNが接続され、外部のサーバコンピュータSV等から制御プログラムをダウンロードしたり演奏データを記憶装置4に保存してこの演奏データ編集装置EMで利用することができる。MIDII/F11は、この演奏データ編集装置EMと同様にMIDI形式で音楽情報を取り扱うことができる外部音源装置などの他の電子音楽装置(外部MIDI機器)MDが接続され、MIDII/F11を通じて両装置EM,MD間でMIDIデータを授受することができる。
〔抑揚データと表情付け〕
この発明の一実施例による演奏データ編集システムでは、演奏データ編集プログラムに従い、抑揚データから抽出される抑揚変化の特徴に応じて表情付け処理をすることにより、十分に表情付けされた自然な演奏を実現する演奏データを作成することができる。図2は、この発明の一実施例による演奏データ編集システムにおける表情付けの概要を説明するための図であり、図3は、演奏データに対して一連の表情付けの対象となる対象音符群を決めるルールの例を表わす。
ここで、演奏データ編集システムの主要な機能を極く概略的に説明しておく。この演奏データ編集システムでは、音符情報を含む演奏データ(1a)に対して、演奏に従い時間的に変化する演奏の抑揚を表わす抑揚データ(1b)が設定されると、表情付け対象となる演奏データ部分として、時間的に繋がりのある音符群A〜Cが設定され、各演奏データ部分A〜Cに設定された抑揚データ(1b)の時間的な変化に基づいて、抑揚が高まる場合(2a)と収まる場合(2b)などの抑揚変化の特徴を表わす特徴情報が抽出される。そして、抽出された特徴情報に基づいて選択された表情付けテンプレート(表情付けパラメータ制御テーブル)〔(2a),(2b)〕に従って、各演奏データ部分にビブラートなどの表情付けが施される(1d)。
以下、図2に従い具体的に説明する。図2(1)は、抑揚データによる演奏データの表情付け例(ビブラート速さ制御の場合)を表わし、(1a)は、「楽曲データ」と呼ばれる元の演奏データを示し、(1b)は、この楽曲データに適用される抑揚データを示す。
「抑揚データ」は、盛上りデータとも呼ばれ、楽曲演奏の抑揚の度合(盛上りの程度)を表わす抽象的なデータであり、抑揚データの値は、楽曲演奏に従って時間的に変化する(例えば、0.0〜1.0)。また、各楽曲データに対して適用される抑揚データは、予め記憶手段(3,4)に抑揚データの時間的変化パターンが異なる種々の抑揚テンプレートを用意しておき、これらの抑揚テンプレートから所望の抑揚テンプレート選択する方法や、ユーザが好みの抑揚パターンをグラフィックツールで作図し抑揚データに指定する方法などによって与えることができる。従って、抑揚(盛上り)を表わす抽象的な抑揚データは、特定の楽音制御パラメータ(例えば、ベロシティ)の変化をそのまま表現したものではない。
例えば、図2(1)の(1a)に示されるノートイベント(NoteEvent)とベロシティ(velocity)を含む楽曲データに対して(1b)に示される抑揚データを与えることにより、ベロシティを抑揚データに従って編集し、(1c)に示されるようにベロシティが変化する結果が得られ、音量による表情付け処理を行うことができる。
この段階では、抑揚データの静的な特性に注目しているだけであるが、抑揚データが同じ値でも、これから抑揚が高まる場合と抑揚がおさまる場合や、抑揚の変化が速い場合と遅い場合などでは、表現の種類も異なることが一般的であるので、抑揚データの変化に注目することも音楽的表現にとっては重要である。
そこで、この演奏データ編集システムでは、抑揚データによって時間−抑揚値平面上に描かれる抑揚曲線の特徴的な変化状態を特徴情報として抽出し、抽出された特徴情報をパラメータとして表情付けテンプレートを選択することにより、抑揚の変化に応じてビブラートやピッチベンド等の表情付けパラメータを制御して十分な表情付け処理を行う。なお、この場合、(1c)のような、抑揚曲線をそのまま用いたベロシティなどの表情付けは、必要に応じて、適宜、採用又は不採用とすることができる。
図示の例では、ビブラート等の表情付けの度合を表わす2種の表情付けパラメータ制御テーブルが表情付けテンプレートとして用意され、抑揚曲線が増加傾向を示し抑揚が高まる場合と、抑揚曲線が減少傾向を示し抑揚が収まる場合が、抑揚データの特徴的な変化として捕らえられる。そして、この抑揚データの変化に対応する表情付けパラメータ制御テーブルが選択され、選択されたテーブルに従ってビブラート等の表情付けパラメータが制御され、抑揚の変化に応じた最適の表情付けが行われる。
すなわち、表情付けパラメータ制御テーブルは、抑揚データの増大及び減少時別に、抑揚データ値に対するビブラート等の速さ(周期の逆数)や深さ等による表情付けの度合を表わしたものであり、所定の記憶手段(3,4)に記憶されており、抑揚データが与えられた演奏データの部分に対して、表情付けパラメータ制御テーブルに従い、与えられた抑揚データの変化に応じてビブラート等の表情付けパラメータを制御する。図2(1)の(1d)は、(1b)の抑揚データの変化に従い、図2(2)に示されるビブラート速さの制御特性を用いてビブラートの速さを編集した場合の結果を示す。
図2(2)は、抑揚データの値とビブラートの速さとの関係の例を表わし、この関係を有するビブラート速さ制御テーブルが表情付けパラメータ制御テーブルとして記憶手段3,4に記憶される。(2a)の表情付けパラメータ制御特性は、抑揚データが上昇する場合はビブラートの速さは抑揚データの変化の最初ほど変化が大きく、(2b)の表情付けパラメータ制御特性は、抑揚データが下降する場合にはビブラートの速さは抑揚データの変化の最初ほど変化が大きいことを意味している。すなわち、同じ抑揚データの値に対しても変化が上昇中の時と下降中の時では値が異なることを意味している。
表情付けパラメータ制御テーブルとしては、ビブラートの深さについて(2a),(2b)のビブラート速さと同様の関係を有するビブラート深さ制御テーブルが記憶手段3,4に記憶されている。また、ピッチベンドの速さ及び深さについても、抑揚データの山谷が複数ある場合とそうでない場合に、(2a),(2b)のビブラート速さと同様の関係を有するピッチベンド速さ制御テーブル及びピッチベンド深さ制御テーブルが、抑揚データの山谷数の範囲別に記憶手段3,4に記憶されている。そして、これらの表情付けパラメータも、対応する制御テーブルに従って制御される。
また、(2a)のように抑揚データ値が小さいほど表情付け度合の変化が大きい特性のパラメータ制御テーブルは「変化の大きい」テーブルと呼ばれ、(2b)のように抑揚データ値が小さいほど表情付け度合の変化が小さい特性のパラメータ制御テーブルは「変化の小さい」テーブルと呼ばれる。なお、図2(2)に示されるような制御特性は、あくまでも一例であり、楽器の種類や音楽ジャンルによっては逆の変化が好ましい場合もある。
なお、抑揚曲線の特徴的な変化状態には、上述のような増大及び減少や山谷の数の外に、上に凸、下に凸などがあり、夫々の特徴に応じて所定の表情付けテンプレートを選択することにより、対応する表情付けパラメータを制御することができる。
図4は、演奏データや表情付けデータのデータ構造例を示す。表情付け前の元の演奏データは、例えば、図4(1)に示すように、楽曲のフォーマットに関する情報などで構成されるヘッダ情報に続いて、楽曲演奏の進行に従い順次配列された多数のイベント情報がSMF形式で記述される。各イベント情報は、図示のように、タイミング情報、ノートオンなどのイベントの種類を表すコード、ノート番号及びベロシティから成る。
演奏データに対する表情付けは、まとまりのある一連の音符を対象にして行うのが好適であり、例えば、図3に示すようなルールに従って、表情付けの対象となる対象音符群を決める。対象音符群を決めるには、HDD等の外部記憶装置4から演奏データのノートイベントを読み出し、所定のルールに従い、先行するノートと後続するノートの時間を比較した結果に基づいて、時間的に繋がりのある音符を自動的に抽出する。図3(1)は、読み出されたノートイベントの時間的なパターンを説明するために、ディスプレイ16の画面にノートイベントがピアノロールで表示されるものとしてノートイベントの各種パターンの一例を示す。
図3(1)において、例えば、Aのように、先行ノートのノートオフと後続ノートのノートオンが時間的に重なっているか或いは所定の近さにある音符群については、レガート演奏のような一連の音符であると判断され、これらの音符が発音期間Taにわたる1つの表情付け対象として読み出される。Bのように、先行ノートのノートオフと後続ノートのノートオンから離れた発音期間Tbの音符は、単独でも、1つの表情付け対象として読み出される。また、Cのように、ノートオンのタイミングが所定の近さにある複数のノートは、コード演奏のように発音期間Tcでほぼ同時に発音される音符であると判断され、これらの音符が1つの表情付け対象として読み出される。なお、これらのルールは、選択されたアルゴリズムによって異なっていてもよい。
また、演奏データに適用される抑揚データについては、前述した方法で適宜定めることができ、定められた抑揚データのパターンは、図3(2)に示すように、ディスプレイ16の画面に、図3(1)のノートイベントのピアノロール表示に対応して表示することによって確認することができる。
図4(2)は、抑揚データに従って演奏データに順次与えられる表情付けの内容を表わす表情付けデータの構造例を示し、表情付けデータは、対象音符群に対応する複数の表情付け情報が楽曲演奏の進行順に配列されて構成される。各表情付け情報は、各対象音符群の発音期間(Ta,Tb,Tc,…)に対応し表情付けを施す対象となる区間(「対象区間」と呼ばれる)を始終点タイミングで指定する対象区間指定情報と、各対象音符群に対する表情付けの種類を表わす表情付け種類コードと、当該表情付けのパラメータ値を表わす表情付け種類依存パラメータ等から成る。
例えば、表情付け種類コードは、ビブラートやチョーキング(ピッチベンド)等を表わし、種類依存パラメータは、ビブラートの場合は深さや速さ(周期)を表わすパラメータであり、チョーキングの場合には深さや立上り速度(立上り時間の逆数であり、単に「速さ」ともいう)を表わすパラメータである。
〔演奏データ編集処理のフロー例〕
図5は、この発明の一実施例による演奏データ編集処理(全体処理)の一例を表わすフローチャートであり、図6は、この演奏データ編集処理中の表情付け処理の一例を表わすフローチャートである。図5の演奏データ編集処理フローは、演奏データ編集装置EMにおいて、ユーザによる選曲操作に基づき、外部記憶装置4のHDDに用意された演奏データの中から所望の演奏データが選択されたところから実行される。
まず、最初のステップE1では、CPU1は、選択された演奏データをHDD4からRAM2にロードし、当該演奏データからピアノロール或いは五線譜の画像データを生成し、表示回路7を通じてディスプレイ16のLCD画面に、生成された画像データに基づくノートイベント画像を表示する。
続くステップE2では、例えば、同画面内のアルゴリズム選択ウインドウに楽器名で表わされた表情付けアルゴリズム名の一覧をユーザに提示し、ユーザ操作に基づいて、所望のアルゴリズム名を選択することにより、演奏データに付与される表情付けアルゴリズムを指定する。このようなアルゴリズム名には、例えば、「ストリングス・ポップ」、「ストリングス・クラシック」、「ギター・ホット」、「ギター・スムーズ」、「エレキベース・ノーマル」、「エレキベース・スラップ」などがある。
次のステップE3では、演奏データに対する表情付けの時間範囲を決定する。この範囲の決定には、次の(1)〜(3)のような方法を用いることができる:
(1)画面に演奏データを表示し、演奏データ上をユーザにマウス操作で選択させる、
(2)特許文献1の自動分割のように、所定のルールに則ってフレーズ等に区分する、
(3)演奏データ(曲)の先頭から終端までとする。
次いで、ステップE4では、演奏データに対する抑揚データを決定する。この抑揚データ決定には、次の(a)〜(c)のような方法を用いることができ、決定された抑揚データは、表情付け時間範囲に合わせて伸縮される:
(a)システムに備えられた複数の抑揚データからユーザ操作に応じて一つを選択する、
(b)抑揚データ入力画面を表示し、この画面上でユーザに抑揚パターンを描かせる、
(c)抑揚データ入力画面を表示し、この画面上でユーザに複数の点を指定させ、各点の間を所定の曲線(直線を含む)で結ぶ。
以上のようにして表情付けの条件が設定されると、ステップE5で、RAM2にロードされた演奏データについて、所定のルールに従い、互いに時間的な繋がりをもつ音符を、順次、表情付けの対象となる個々の対象音符群(図3:A〜C)に設定し、演奏データ内の表情付け時間範囲の先頭から順に、対象音符群単位で演奏イベントをRAM2の作業エリアに読み出し、読み出された演奏イベントに対してステップE6〜E8の処理を行う。なお、この例では対象音符群単位で処理するようにしているが、最も単純な対象音符群として一音一音ずつ処理することもある。
まず、ステップE6では、対象音符群の発音期間(図3:Ta〜Tc)即ち対象区間に相当する抑揚データから、対象区間内の抑揚データの平均値、最大値、最小値、或いは、これらの何れか1又は2の値を求める。次いで、ステップE7で、対象音符群の発音期間に相当する抑揚データから抑揚変化の特徴を求める。例えば、当該発音期間内の抑揚データの値について、変化がない(一定値)、直線的に増大している、直線的に減少いている、上に凸である、複数の山谷がある、などの条件に合致しているかどうかを調べる。また、当該発音期間内の抑揚データの値の変化幅を求め、複数の山谷がある場合は、山や谷の数、変化の時間割合を求める。
そして、ステップE8において、ステップE6,E7で抑揚データから得られた値及び変化の特徴に基づいて、演奏データに表情付けデータを生成する表情付け処理を行う。なお、この表情付け処理の一例については、図6を用いてより詳しく説明する。ステップE8の表情付け処理の後は、ステップE9に進み、表情付け時間範囲の終端に達したか否かを判定し、終端に達していない間は(E9→NO)、ステップE5に戻り、次の対象音符群についてステップE5〜E8の処理を繰り返す。
全ての対象音符群についてステップE5〜E8の処理を終えて表情付け範囲の終端に達したと判定されると(E9→YES)、ステップE10に進んで、演奏データ(曲)の他の部分も表情付けを行うか否かを判定する。他の部分も表情付けをするかどうかは、ユーザ操作によって決定してもよいし、特許文献1のように所定のルールに則ってもよい。ここで、他の部分の表情付けを行うときには(E9→NO)、ステップE3に戻り、改めて決定された表情付け時間範囲についてステップE3〜E10の処理を繰り返す。
演奏データ(曲)の他の部分の表情付けを行わないと判定されたとき、或いは、他の部分の表情付けを行って、もはや表情付けを行う他の部分がないと判定されたときには(E10→YES)、ステップE11に進み、元の演奏データ及び表情付けデータに基づいて、特許文献2と同様に、表情付けされた演奏データを生成し、続くステップE12で、表情付けされた演奏データをRAM2からHDD4に保存し、さらに、ステップE13で、表情付けされた演奏データを楽音信号生成部8,9に渡したり、或いは、MIDIインターフェイス11経由で外部音源装置MDに渡して、楽音信号を生成させることによって、表情付けされた演奏データを再生する。そして、演奏データの再生により、表情付けの付与状態を確認した後、この演奏データ編集処理を終了する。
なお、この処理フロー例では、一連の処理として、表情付けされた演奏データを保存し再生するようにしているが、表情付けされた演奏データは、一旦HDD4等に保存した後、後日、再生するようにしてもよい。
〔表情付け処理のフロー例〕
次に、演奏データ編集処理(全体処理)のステップE8で実行される表情付け処理について、表情付けパラメータをビブラート及びピッチベンドとした場合の一例を図6により説明する。この表情付け処理フローが開始すると、まず、ステップS1において、ステップE2で指定されたアルゴリズムの処理プログラムをRAM2上にロードし、以降、この処理プログラムに従ったルールで表情付けの処理がなされる。
まず、ステップS2では、ビブラートを付与すべきか即ち対象区間長(ステップE5で読み出された処理対象の対象音符群の発音期間で示される対象区間の長さ)はビブラート付与に適した所定の長さ以上であるか否かを判定し、所定長さ以上であるときは(S2→YES)、ステップS3に進んで、対象区間の抑揚データの特徴が増大傾向にあるか否かを判定する。
ここで、対象区間の抑揚データの特徴が全体として抑揚データ値の増大を示しているときは(S3→YES)、ステップS4に進み、変化の大きいビブラート速さテーブルを用いてビブラートの速さ(周期)を決定し、次のステップS5で、変化の大きいビブラート深さテーブルを用いてビブラートの深さを決定する。
一方、対象区間の抑揚データの特徴が全体として抑揚データ値の増大を示していないときには(S3→NO)、ステップS6に進み、変化の小さいテーブルを用いてビブラートの速さ(周期)を決定し、次のステップS7で、変化の小さいテーブルを用いてビブラートの深さを決定する。
そして、ステップS5又はステップS7の処理の後はステップS8に進み、対象区間指定情報及び表情付け種類コードに続いて、ステップS4,S5又はステップS6,S7で決定された表情付けパラメータ値(表情付け種類依存パラメータ)を記述した当該対象区間の表情付け情報を、RAM2の表情付けデータ記憶領域に追記する。
ステップS2で対象区間長が所定長さ未満であると判定されたとき(S2→NO)或いはステップS8)で表情付け情報データの追記処理を行った後は、ステップS9に進んで、ピッチベンドを付与すべきか即ち対象区間長はピッチベンド付与に適した所定の長さ以上であるか否かを判定し、所定長さ以上であるときは(S9→YES)、ステップS10で、対象区間の抑揚データの特徴として山谷が複数あるか否かを判定する。
ここで、対象区間の抑揚データの山谷が複数あるときは(S10→YES)、ステップS11に進み、変化の大きいピッチベンド速さテーブルを用いてピッチベンドの速さを決定し、次のステップS12で、変化の大きいピッチベンド深さテーブルを用いてピッチベンドの深さを決定する。
一方、対象区間の抑揚データの山谷数が複数でないときには(S10→NO)、ステップS13に進み、変化の小さいピッチベンド速さテーブルを用いてピッチベンドの速さを決定し、次のステップS14で、変化の小さいピッチベンド深さテーブルを用いてピッチベンドの深さを決定する。
そして、ステップS12又はステップS14の処理の後はステップS15に進み、対象区間指定情報及び表情付け種類コードに続いて、ステップS11,S12又はステップS13,S14で決定された表情付けパラメータ値(表情付け種類依存パラメータ)を記述した当該対象区間の表情付け情報を、RAM2の表情付けデータ記憶領域に追記し、その後、全体処理のステップE9にリターンしてこの表情付け処理を終了する。
〔種々の実施態様及び表情付けのまとめ〕
以上、図面を参照しつつこの発明の好適な実施例を詳述したが、この実施例は単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。例えば、実施例では、表示付けテンプレートとして、ビブラート速さ及び深さテーブルやピッチベンド速さ及び深さテーブルなどの表示付けパラメータ制御テーブルを用いたが、抑揚データの変化に対して種々の表示付けパラメータを制御する種々の表情付けテンプレートを用いることができる。
要は、抑揚データの変化に関して次の点を考慮した種々の表示付けテンプレートを用意しておき、抑揚データの特徴的な変化に応じて最適なテンプレートを選択すればよい:
〔1〕抑揚データが増大したり、抑揚データの振れ幅が大きい場合は、そうでない場合に比べて表情付けを大げさにする。
〔2〕抑揚データが下に凸で増加の場合は、短い時間で大きな抑揚を付けるように、抑揚データの値が大きいときに、より大げさな表情付けがされるようにする。
〔3〕抑揚データの山谷の数が多いほど、変化のある表情付けが求めらるので、より表情付けを大げさにする。
ここで、より大げさな表現とは、例えば、実施例のように、ビブラートをより深くする、ビブラートの速さを上げる(周期をより短くする)、ピッチベンドを深くする、ピッチベンドの速さを上げる(立ち上がり時間を短くする)、ギターのストロークに相当させて同時発音するノートのタイミングをばらつかせる、特殊奏法音や奏法ノイズの付与を多くする(ベロシティで発音波形を切り替える)などがあり、音量の変化をベロシティ(各音)やエクスプレッション(全体)等で大きくすることを含めてもよい。
また、抑揚データに基づく各音への表情付け〔例えば、ベロシティ制御:図2(1c)〕については詳しい説明を省略したが、個別の音符の表情は、その音符に対する抑揚データの値や変化などの状態に応じて決定することができる。
この発明の一実施例による演奏データ編集システムのハードウエア構成を示すブロック図である。 この発明の一実施例による演奏データ編集システムにおける表情付けの概要を説明するための図である。 この発明の一実施例の演奏データ編集(表情付け)において対象音符群を決めるルールの例を表わす図である。 この発明の一実施例による演奏データ編集システムで用いられるデータ構造の例を表わす図である。 この発明の一実施例による演奏データ編集処理の一例を表わすフローチャートである。 この発明の一実施例による表情付け処理の一例を表わすフローチャートである。
符号の説明
EM 演奏データ編集装置(パーソナルコンピュータ、電子楽器などの電子音楽装置)、
A,B,C 対象音符群、
Ta,Tb,Tc 対象音符群の発音期間。

Claims (3)

  1. ノート情報を含む演奏データを取得する演奏データ取得手段と、
    取得された演奏データについて、表情付けの対象となる演奏データ部分を設定する対象設定手段と、
    取得された演奏データに対して、演奏に従い時間的に変化する演奏の抑揚を値で表わす抑揚データを設定する抑揚設定手段と、
    上記演奏データ部分に設定された抑揚データの時間的な変化が所定の条件の何れに合致するかを調べ、合致する条件に対応した抑揚変化の特徴を表わす特徴情報を抽出する特徴抽出手段と、
    抽出された特徴情報及び上記演奏データ部分に設定された抑揚データの値に基づいて表情付けパラメータを制御し、該表情付けパラメータに基づいて上記演奏データ部分に表情付けを施す表情付け手段と
    を具備し、
    上記所定の条件には、各演奏データ部分における抑揚データの値について、時間的な変化がないこと、直線的に増大或いは減少していること、上に凸或いは下に凸であること、複数の山谷があることが含まれる
    ことを特徴とする演奏データ編集装置。
  2. 前記対象設定手段は、前記演奏データ取得手段により取得された演奏データを構成するノート情報の時間的な繋がりに基づいて、表情付けの対象となる個々の演奏データ部分を順次設定することを特徴とする演奏データ編集装置。
  3. ノート情報を含む演奏データを取得する演奏データ取得ステップと、
    取得された演奏データについて、表情付けの対象となる演奏データ部分を設定する対象設定ステップと、
    取得された演奏データに対して、演奏に従い時間的に変化する演奏の抑揚を値で表わす抑揚データを設定する抑揚設定ステップと、
    上記演奏データ部分に設定された抑揚データの時間的な変化が所定の条件の何れに合致するかを調べ、合致する条件に対応した抑揚変化の特徴を表わす特徴情報を抽出する特徴抽出ステップと、
    抽出された特徴情報及び上記演奏データ部分に設定された抑揚データの値に基づいて表情付けパラメータを制御し、該表情付けパラメータに基づいて上記演奏データ部分に表情付けを施す表情付けステップと
    から成り、
    上記所定の条件には、各演奏データ部分における抑揚データの値について、時間的な変化がないこと、直線的に増大或いは減少していること、上に凸或いは下に凸であること、複数の山谷があることが含まれる
    手順をコンピュータに実行させる演奏データ編集プログラム。
JP2005352465A 2005-12-06 2005-12-06 演奏データ編集装置及びプログラム Expired - Fee Related JP4735221B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005352465A JP4735221B2 (ja) 2005-12-06 2005-12-06 演奏データ編集装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005352465A JP4735221B2 (ja) 2005-12-06 2005-12-06 演奏データ編集装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2007156181A JP2007156181A (ja) 2007-06-21
JP4735221B2 true JP4735221B2 (ja) 2011-07-27

Family

ID=38240619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005352465A Expired - Fee Related JP4735221B2 (ja) 2005-12-06 2005-12-06 演奏データ編集装置及びプログラム

Country Status (1)

Country Link
JP (1) JP4735221B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6528752B2 (ja) * 2016-10-07 2019-06-12 カシオ計算機株式会社 楽音再生装置、楽音再生方法、プログラムおよび電子楽器

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04274297A (ja) * 1991-02-28 1992-09-30 Kawai Musical Instr Mfg Co Ltd 自動演奏装置
JPH10143151A (ja) * 1996-01-30 1998-05-29 Pfu Ltd 指揮装置
JP2001042868A (ja) * 1999-05-26 2001-02-16 Yamaha Corp 演奏データ作成及び生成装置並びに記録媒体
JP2001159892A (ja) * 1999-08-09 2001-06-12 Yamaha Corp 演奏データ作成装置及び記録媒体
JP2002244657A (ja) * 2000-12-14 2002-08-30 Yamaha Corp 演奏信号処理装置、記憶媒体、演奏信号処理方法及びプログラム
JP2004109745A (ja) * 2002-09-20 2004-04-08 Yamaha Corp 表情付けパラメータ編集装置および表情付けパラメータ編集方法を実現するためのプログラム
JP2005249872A (ja) * 2004-03-01 2005-09-15 Nec Corp 音楽再生パラメータ設定装置および音楽再生パラメータ設定方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04274297A (ja) * 1991-02-28 1992-09-30 Kawai Musical Instr Mfg Co Ltd 自動演奏装置
JPH10143151A (ja) * 1996-01-30 1998-05-29 Pfu Ltd 指揮装置
JP2001042868A (ja) * 1999-05-26 2001-02-16 Yamaha Corp 演奏データ作成及び生成装置並びに記録媒体
JP2001159892A (ja) * 1999-08-09 2001-06-12 Yamaha Corp 演奏データ作成装置及び記録媒体
JP2002244657A (ja) * 2000-12-14 2002-08-30 Yamaha Corp 演奏信号処理装置、記憶媒体、演奏信号処理方法及びプログラム
JP2004109745A (ja) * 2002-09-20 2004-04-08 Yamaha Corp 表情付けパラメータ編集装置および表情付けパラメータ編集方法を実現するためのプログラム
JP2005249872A (ja) * 2004-03-01 2005-09-15 Nec Corp 音楽再生パラメータ設定装置および音楽再生パラメータ設定方法

Also Published As

Publication number Publication date
JP2007156181A (ja) 2007-06-21

Similar Documents

Publication Publication Date Title
US6395970B2 (en) Automatic music composing apparatus that composes melody reflecting motif
CN112382257B (zh) 一种音频处理方法、装置、设备及介质
WO2019022118A1 (ja) 情報処理方法
JP2008139426A (ja) 評価用データのデータ構造、カラオケ装置及び記録媒体
JP6175812B2 (ja) 楽音情報処理装置及びプログラム
JP4735221B2 (ja) 演奏データ編集装置及びプログラム
WO2021166745A1 (ja) アレンジ生成方法、アレンジ生成装置、及び生成プログラム
JP4853054B2 (ja) 演奏データ編集装置及びプログラム
JP4123242B2 (ja) 演奏信号処理装置及びプログラム
JP3531507B2 (ja) 楽曲生成装置および楽曲生成プログラムを記録したコンピュータで読み取り可能な記録媒体
JP2003177751A (ja) 演奏データ加工処理装置
JP2004258564A (ja) スコアデータ編集装置、スコアデータ表示装置およびプログラム
JP3752859B2 (ja) 自動作曲装置と記録媒体
JP4595852B2 (ja) 演奏データ処理装置及びプログラム
JP3587133B2 (ja) 発音長決定方法と装置及び記録媒体
JP7260312B2 (ja) 音楽データ表示プログラム及び音楽データ表示装置
JP4534966B2 (ja) 音色設定装置及びプログラム
WO2004025306A1 (en) Computer-generated expression in music production
JP3620405B2 (ja) 楽音変動情報生成方法、楽音変動情報生成装置および記録媒体
JP4147407B2 (ja) 音楽的表情付け用コンピュータプログラムおよび音楽的表情付け装置
JP4241481B2 (ja) 演奏データ編集プログラム
JP2005106989A (ja) 楽譜対応データ生成装置及びプログラム
JP4760348B2 (ja) 楽曲選択装置および楽曲選択用コンピュータプログラム
JP2003302971A (ja) 映像データ処理装置及び映像データ処理プログラム
JP4613996B2 (ja) 演奏データ編集プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101001

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees