JP3722035B2 - Performance signal processing apparatus, method and program, and storage medium - Google Patents

Performance signal processing apparatus, method and program, and storage medium Download PDF

Info

Publication number
JP3722035B2
JP3722035B2 JP2001292943A JP2001292943A JP3722035B2 JP 3722035 B2 JP3722035 B2 JP 3722035B2 JP 2001292943 A JP2001292943 A JP 2001292943A JP 2001292943 A JP2001292943 A JP 2001292943A JP 3722035 B2 JP3722035 B2 JP 3722035B2
Authority
JP
Japan
Prior art keywords
data
intonation
inflection
section
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001292943A
Other languages
Japanese (ja)
Other versions
JP2002244657A (en
Inventor
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001292943A priority Critical patent/JP3722035B2/en
Publication of JP2002244657A publication Critical patent/JP2002244657A/en
Application granted granted Critical
Publication of JP3722035B2 publication Critical patent/JP3722035B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術の分野】
本発明は、曲データの編集が可能な演奏信号処理装置、方法及びプログラム、並びに記憶媒体に関する。
【0002】
【従来の技術】
従来、MIDI(Musical Instrument Digital Interface)データや歌詞データ等を含む自動演奏データ(以下、「曲データ」と称する)は、音符の情報のみで構成される場合やベロシティ等の楽音特性データが一律である場合は、機械的で無表情であるため、感情を込め楽曲らしさを出すべく、これに表情付けを行うようにした演奏信号処理装置が知られている。この装置では、既成の曲データを記憶媒体から読み出したり、DTM(デスクトップミュージック)でユーザが創作、入力したりして、当該曲データの楽音特性(ベロシティ、エクスプレッション等)の変更を行うようにして、より自然な演奏、美しい演奏、生々しい演奏を実現することができる。
【0003】
ここで、楽曲の構成は一般に起承転結を有し、例えば、イントロ、Aメロ(メロディA)、Aメロ’(メロディAに類似のメロディA’)、Bメロ、Cメロ、エンディング、というように、特定の規則の下でいくつかの区分に分けて構成されていると認識できるものである。楽曲の楽音特性の最適な設定は、このような楽曲の構成自体による影響を受ける。例えば、起承転結における「転」の部分と「結」の部分では、音量、音色のニュアンスや表情を微妙に異ならせたい場合がある。また、「このようなメロディパターンの楽曲では、楽曲進行によるベロシティの変動をこのように設定するのが適している」等のように、楽曲の構成に応じて最適な楽音特性に共通的特徴が現れることも少なくない。
【0004】
従来、楽曲に表現力豊かに表情付けを行うには、ユーザは曲データの一音一音に楽音特性を設定する必要があり、その作業は音楽や楽器の特性の熟知を要するだけでなく、繁雑で時間を要するものであった。
【0005】
一方、知識や経験が少なくても表情付けを行うための手法として、予め作成した制御データテンプレートを選択してこれを曲データ中に入力し、その後制御データテンプレートの形状や時間方向の長さを修正するようにした制御データ入力方法も知られている(特開平9−6346号公報)。
【0006】
【発明が解決しようとする課題】
しかしながら、上記制御データ入力方法では、曲データの個々の部分毎に最適な制御データテンプレートをユーザが選択して入力しなければならず、その操作は容易でない。また、個々の部分ではともかく、楽曲全体としてみた場合は、上記従来の手法は自然な表情を付けるのには必ずしも適していなかった。
【0008】
幅広いユーザが簡単に使用できるようにするためには、装置側で判断できる部分は極力自動的に行えた方が好都合である。このように、従来の技術では、自然な表情付けを簡単な操作で行う上で、改善の余地があった。
【0009】
本発明は上記従来技術の問題を解決するためになされたものであり、その目的は、曲データの区分分割を自動的に行ってユーザの負担を軽減すると共に、簡単な操作にて曲データに自然な表情付けを行うことができる演奏信号処理装置、方法及びプログラム、並びに記憶媒体を提供することにある。
【0019】
上記目的を達成するために本発明の請求項の演奏信号処理装置は、曲データの編集が可能な演奏信号処理装置において、曲データを複数の区分に分割する曲データ分割手段と、パラメータの時間的変化を規定する抑揚データのうちいずれかの抑揚データを特定する抑揚データ特定手段と、前記曲データ分割手段により分割された少なくとも1つの区分に合わせて前記抑揚データ特定手段により特定された抑揚データを時間的に伸縮する抑揚データ伸縮手段と、前記抑揚データ伸縮手段により伸縮された抑揚データで規定されるパラメータの時間的変化に基づいて前記曲データの前記少なくとも1つの区分の楽音特性を制御する楽音特性制御手段とを備え、前記抑揚データは複数の区分で構成され、前記曲データ分割手段による前記曲データの分割及び前記抑揚データ特定手段による前記抑揚データの特定は、前記曲データを構成する区分の数が前記抑揚データを構成する区分の数と一致するようになされ、且つ、前記抑揚データ伸縮手段による前記抑揚データの伸縮は、前記曲データの各区分に対応する前記抑揚データの各区分毎に行われると共に、前記楽音特性制御手段による前記楽音特性の制御は、前記抑揚データの各区分に対応する前記曲データの各区分毎に行われることを特徴とする。
本発明の請求項の演奏信号処理装置は、上記請求項記載の構成において、前記曲データ分割手段による前記曲データの分割は、分割すべき曲データ及びユーザの指定の少なくとも一方に基づいてなされることを特徴とする。
この構成により、曲データの分割が分割すべき曲データに基づいてなされれば、半自動的に分割を行え、ユーザの負担が減少する一方、曲データの分割がユーザの指定に基づいてなされれば、より適切な分割を行える。よって、より簡単な表情付け、またはユーザの意思に忠実な表情付けを行うことができると共に、使い勝手を向上することができる。
本発明の請求項の演奏信号処理装置は、上記請求項1または2記載の構成において、前記抑揚データ特定手段による前記抑揚データの特定は、前記曲データ分割手段により分割された曲データに基づいてなされることを特徴とする。
【0020】
この構成により、分割された曲データの区分構成や区分数に合致した抑揚データを特定することができる。なお、抑揚データの特定は、例えば、曲データの分割方法、曲データの区分数に基づくほか、これらに加えて、変更する楽音特性に基づいて行うようにしてもよい。
【0021】
記目的を達成するために本発明の請求項の演奏信号処理方法は、曲データを複数の区分に分割する曲データ分割工程と、パラメータの時間的変化を規定する抑揚データのうちいずれかの抑揚データを特定する抑揚データ特定工程と、前記曲データ分割工程により分割された少なくとも1つの区分に合わせて前記抑揚データ特定工程により特定された抑揚データを時間的に伸縮する抑揚データ伸縮工程と、前記抑揚データ伸縮工程により伸縮された抑揚データで規定されるパラメータの時間的変化に基づいて前記曲データの前記少なくとも1つの区分の楽音特性を制御する楽音特性制御工程とを有し、前記抑揚データは複数の区分で構成され、前記曲データ分割工程による前記曲データの分割及び前記抑揚データ特定工程による前記抑揚データの特定は、前記曲データを構成する区分の数が前記抑揚データを構成する区分の数と一致するようになされ、且つ、前記抑揚データ伸縮工程による前記抑揚データの伸縮は、前記曲データの各区分に対応する前記抑揚データの各区分毎に行われると共に、前記楽音特性制御工程による前記楽音特性の制御は、前記抑揚データの各区分に対応する前記曲データの各区分毎に行われることを特徴とする
記目的を達成するために本発明の請求項の演奏信号処理プログラムは、コンピュータに実行させる演奏信号処理プログラムであって、曲データを複数の区分に分割する曲データ分割モジュールと、パラメータの時間的変化を規定する抑揚データのうちいずれかの抑揚データを特定する抑揚データ特定モジュールと、前記曲データ分割モジュールにより分割された少なくとも1つの区分に合わせて前記抑揚データ特定モジュールにより特定された抑揚データを時間的に伸縮する抑揚データ伸縮モジュールと、前記抑揚データ伸縮モジュールにより伸縮された抑揚データで規定されるパラメータの時間的変化に基づいて前記曲データの前記少なくとも1つの区分の楽音特性を制御する楽音特性制御モジュールとを有し、前記抑揚データは複数の区分で構成され、前記曲データ分割モジュールによる前記曲データの分割及び前記抑揚データ特定モジュールによる前記抑揚データの特定は、前記曲データを構成する区分の数が前記抑揚データを構成する区分の数と一致するようになされ、且つ、前記抑揚データ伸縮モジュールによる前記抑揚データの伸縮は、前記曲データの各区分に対応する前記抑揚データの各区分毎に行われると共に、前記楽音特性制御モジュールによる前記楽音特性の制御は、前記抑揚データの各区分に対応する前記曲データの各区分毎に行われることを特徴とする。
上記目的を達成するために本発明の請求項の記憶媒体は、請求項に記載の演奏信号処理プログラムをコンピュータ読み取り可能に格納したことを特徴とする。
ここで、曲データの分割方法には、「マニュアル分割」、「自動分割」、「均等分割」等がある。また、「抑揚データ」は楽曲に抑揚を付与するためのデータであり、パラメータの時間的変化を規定し、このパラメータの時間的変化が曲データの区分の楽音特性の制御に用いられる。「楽音特性」としては、例えば、ベロシティ、エクスプレッション、発音のタイミングのほか、各種コントロールチェンジ(ビブラート、エフェクト(リバーブ、コーラス、ディレイ等)、音色の変化等)の値を対象とすることができる。
なお、曲データを構成する区分の数が抑揚データを構成する区分の数と一致するようにする手法として、曲データの分割後、曲データを構成する区分の数に合致するような抑揚データの特定を行う手法のほか、特定された抑揚データの区分数に合致するように曲データの分割を行うまたはやり直すという手法が考えられる。
【0042】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
【0043】
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る演奏信号処理装置の全体構成を示すブロック図である。本演奏信号処理装置は、例えば、DTM(デスクトップミュージック)を行えるパーソナルコンピュータとして構成される。
【0044】
本演奏信号処理装置は、押鍵検出回路3、スイッチ検出回路4、ROM6、RAM7、タイマ8、表示制御回路9、フロッピディスクドライブ(FDD)10、ハードディスクドライブ(HDD)11、CD−ROM(コンパクトディスク−リード・オンリ・メモリ)ドライブ12、MIDIインターフェイス(MIDII/F)13、通信インターフェイス(通信I/F)14、音源回路15、効果回路16及びマウス情報検出回路20が、バス18を介してCPU5(曲データ分割手段、抑揚データ特定手段、抑揚データ伸縮手段、楽音特性制御手段、パターン形成手段、音量特性設定手段)にそれぞれ接続されて構成される。
【0045】
さらに、押鍵検出回路3には鍵盤1が接続され、スイッチ検出回路4にはパネルスイッチ2が接続されている。マウス情報検出回路20にはスイッチを有する平面移動自在のマウス21(位置指定手段)が接続され、表示制御回路9には例えばLCD若しくはCRTで構成される表示装置19が接続されている。CPU5にはタイマ8が接続され、MIDII/F13には他のMIDI機器100が接続されている。通信I/F14には通信ネットワーク101を介してサーバコンピュータ102が接続され、音源回路15には効果回路16及びサウンドシステム17が直列に接続されている。
【0046】
押鍵検出回路3は鍵盤1の各鍵(不図示)の押鍵状態を検出する。パネルスイッチ2は、各種情報を入力するための複数のスイッチ(不図示)を備える。スイッチ検出回路4は、パネルスイッチ2の各スイッチの押下状態を検出する。CPU5は、本装置全体の制御を司る。ROM6は、CPU5が実行する制御プログラムやテーブルデータ等を記憶する。RAM7は、自動演奏データ、楽譜表示用画像データ、テキストデータ等の各種入力情報及び演算結果等を一時的に記憶する。タイマ8は、タイマ割り込み処理における割り込み時間や各種時間を計時する。表示制御回路9は、表示装置19に楽譜等の各種情報を表示させる。
【0047】
FDD10は、記憶媒体であるフロッピディスク(FD)24をドライブする。FD24には、上記制御プログラム、各種アプリケーションプログラム、及び各種データ等が格納される。外部記憶装置であるHDD11は、上記制御プログラムを含む各種アプリケーションプログラムや各種データ等を記憶する。CD−ROMドライブ12は、上記制御プログラムを含む各種アプリケーションプログラムや各種データ等が格納されているCD−ROM(不図示)をドライブする。
【0048】
MIDII/F13は、他のMIDI機器100等の外部装置からのMIDI(Musical Instrument Digital Interface)信号を入力したり、MIDI信号を外部装置に出力したりする。通信I/F14は、通信ネットワーク101を介して、例えばサーバコンピュータ102とデータの送受信を行う。音源回路15は、FDD10、CD−ROMドライブ12またはMIDII/F13等から入力された自動演奏データ等の曲データを楽音信号に変換する。効果回路16は、音源回路15から入力される楽音信号に各種効果を付与し、DAC(Digital-to-Analog Converter)やアンプ、スピーカ等のサウンドシステム17は、効果回路16から入力される楽音信号等を音響に変換する。マウス情報検出回路20は、マウス21の移動情報やスイッチオン/オフ等の操作情報を検出する。
【0049】
なお、本実施の形態では、音源回路15は、その名称の通り、すべてハードウェアで構成したが、これに限らず、一部ソフトウェアで構成し、残りの部分をハードウェアで構成してもよいし、また、すべてソフトウェアで構成するようにしてもよい。
【0050】
HDD11には、前述のようにCPU5が実行する制御プログラムを記憶することができる。ROM6に制御プログラムが記憶されていない場合には、このHDD11内のハードディスクに制御プログラムを記憶させておき、それをRAM7に読み込むことにより、ROM6に制御プログラムを記憶している場合と同様の動作をCPU5にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等を容易に行うことができる。
【0051】
CD−ROMドライブ12によりCD−ROMから読み出された制御プログラムや各種データは、HDD11内のハードディスクにストアされる。これにより、制御プログラムの新規インストールやバージョンアップ等を容易に行うことができる。なお、このCD−ROMドライブ12以外にも、外部記憶装置として、光磁気ディスク(MO)装置等、様々な形態のメディアを利用するための他の装置を設けるようにしてもよい。
【0052】
なお、MIDII/F13は、専用のものに限らず、RS−232CやUSB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェースより構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信してもよい。
【0053】
通信I/F14は、上述のように、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク101に接続されており、該通信ネットワーク101を介して、サーバコンピュータ102と接続される。HDD11内のハードディスクに上記各プログラムや各種パラメータが記憶されていない場合には、通信I/F14は、サーバコンピュータ102からプログラムやパラメータをダウンロードするために用いられる。クライアントとなるコンピュータ(本実施の形態では演奏信号処理装置)は、通信I/F14及び通信ネットワーク101を介してサーバコンピュータ102へとプログラムやパラメータのダウンロードを要求するコマンドを送信する。サーバコンピュータ102は、このコマンドを受け、要求されたプログラムやパラメータを、通信ネットワーク101を介してコンピュータへと配信し、コンピュータが通信I/F101を介して、これらプログラムやパラメータを受信してHDD11内のハードディスクに蓄積することにより、ダウンロードが完了する。
【0054】
この他、外部コンピュータ等との間でデータのやりとりを直接行うためのインターフェイスを備えるようにしてもよい。
【0055】
本実施の形態では、曲データはMIDIデータや歌詞データ等を含む自動演奏データであり、既成の曲データは、上述したように、FDD10、CD−ROMドライブ12、MIDII/F13、通信I/F14を介して読み出し乃至入力される。また、曲データはユーザが創作して鍵盤1やマウス21等で入力することもできる。読み出しあるいは入力された曲データは、RAM7に格納されると共に表示装置19に表示され、後述する楽音発生処理(再生等)、表情付け処理、各種編集処理の対象となる。
【0056】
図2は、本実施の形態におけるメインルーチンのフローチャートを示す図である。本処理は電源のオン時に開始される。
【0057】
まず、初期化を実行、すなわち所定プログラムの実行を開始し、RAM7等、各種レジスタをクリアして初期設定を行う(ステップS201)。次いで、後述する図3、図4のパネル処理、すなわちパネルスイッチ2やマウス21の操作を受け付け、機器の設定や曲データの編集等の指示を実行する(ステップS202)。次いで、楽音処理を実行する(ステップS203)。例えば、再生処理を実行している場合は、曲データを読み出し、設定された効果処理を付加し、増幅して出力する。その後、前記ステップS202に戻る。
【0058】
図3及び図4は、図2のステップS202で実行されるパネル処理のフローチャートを示す図である。
【0059】
まず、パネル入力があったか否か、すなわちパネルスイッチ2やマウス21による何らかの操作があったか否かを判別する(ステップS301)。その判別の結果、パネル入力がなかった場合は直ちに本処理を終了する一方、パネル入力があった場合は、それが表情付け処理の指示であるか否かを判別する(ステップS302)。なお、本処理の実行に際し(本装置またはソフトウェアの立ち上げ時に)、初期設定で前回に終了した時点における設定が読み出されるので、処理対象とする曲データは新たな設定を特にしなくとも準備されている。
【0060】
前記ステップS302の判別の結果、パネル入力が表情付け処理の指示でない場合は、それが演奏関連指示であるか否かを判別する(図4のステップS303)。その判別の結果、パネル入力が演奏関連指示でない場合は、パネル入力が曲の変更指定であるか否かを判別する(ステップS304)。
【0061】
前記ステップS303の判別の結果、パネル入力が演奏関連指示である場合は、それが再生指示であるか否かを判別する(ステップS305)。その判別の結果、演奏関連指示が再生指示である場合は、現在表示されている曲データの再生を開始して(ステップS306)、本処理を終了する一方、演奏関連指示が再生指示でない場合は、ステップS307に進む。
【0062】
ステップS307では、演奏関連指示が停止指示であるか否かを判別する。その判別の結果、演奏関連指示が停止指示である場合は、演奏再生を停止して(ステップS308)、本処理を終了する一方、演奏関連指示が停止指示でない場合は、その他の指示の処理を実行、例えば、進み処理(再生ポイントを徐々に進める(早送り))、戻し処理(再生ポイントを徐々に戻す(早戻し))、先頭処理(曲の先頭に再生ポイントを戻す)を実行して(ステップS309)、本処理を終了する。
【0063】
前記ステップS304の判別の結果、パネル入力が曲の変更指定である場合は、再生や編集の処理対象としたい曲の指定を受け付けて変更を行い(ステップS310)、変更後の曲データを読み出し、入力して、種々の情報を表示し(ステップS311)、本処理を終了する。一方、前記ステップS304の判別の結果、パネル入力が曲の変更指定でない場合は、その他の指示の処理を実行、例えば、曲データの表情付け処理以外のエディットや各種編集処理を行って(ステップS312)、本処理を終了する。
【0064】
前記ステップS302の判別の結果、パネル入力が表情付け処理の指示である場合は、ステップS313〜S325で表情付け処理を実行する。すなわち、まず、曲データの分割方法を表示し(ステップS313)、分割方法の選択を受け付け(ステップS314)、受け付けた方法にて曲データの分割処理を実行する(ステップS315)(曲データ分割手段に対応)。ここで、曲データの分割方法には、大別して「マニュアル分割」、「自動分割」、「均等分割」がある。
【0065】
「マニュアル分割」は、ユーザが曲データの表示をみて、または曲の再生を聞いて、分割位置を手作業で指定する手法である。例えば、曲データがユーザ自身が創作したものである場合は、起承転結等、曲の構成もわかっており、どこで分割するのが最も適当かはユーザにとって判断が容易であるから、「マニュアル分割」を選択するのが適当である。
【0066】
「自動分割」は、装置側(CPU5)が判断して分割位置を自動的に指定する手法である。例えば、フレーズの区切りと判断できる位置を分割位置とする。フレーズの区切りの判断手法には、次のようなものがある。
【0067】
a:所定以上の休符長を発見したら、その休符直後を新たな分割区分とし、休符を分割位置とする。
【0068】
b:音程の跳躍やリズムの変化、拍子の変化、テンポの変化、音数の変化、音調平均の変化等、音符の規則性を評価基準としてフレーズの区切りを認識する。
【0069】
c:同じメロディが繰り返される場合は同じメロディが再び現れたところで新たな分割区分とし、従って、各メロディ間を分割位置とする。
【0070】
これらの手法と一部重複するが、「コンピュータと音楽の世界:共立出版:長嶋洋一、橋本周司、平賀譲、平田圭二偏」で紹介されるGTTM(a Generative Theory of Tonal Music)(第4章第6節:竹内好宏)による構造解析を用いて分割位置を自動的に判断する手法もある。このGTTMは、人間の音楽知覚・認知過程をもとに音楽を階層的な構造に解析するものであり、音楽の知覚・認知に必要な、グループ構造、拍子構造、タイムスパン還元、延長的還元の4つの構成要素によって解析される。
【0071】
これらの「自動分割」の手法は単独で適用してもよいし、併用してもよい。また、曲データに歌詞データが含まれている場合は、例えば、歌詞の切れ目を基準にする等、歌詞を解析することにより分割位置を指定してもよい。
【0072】
「均等分割」は、曲データを等分割に分割する手法である。「均等分割」では、曲データ全体を一律に複数に等分割する手法のほか、イントロとエンディング等の特定の区分だけは指定した小節数とし、他の部分は等分割するという手法もある。また、「均等分割」は小節数で行ってもよいし、音符数で行ってもよい。
【0073】
ユーザは、これらの各種分割方法の中から適用したい分割方法を具体的に選択、指定する。分割処理により、曲データは複数(例えば、数区分〜10数区分程度)に分割される。
【0074】
分割処理の実行後は、分割やり直しの指示があればそれを受け付ける。そして、ステップS316では、分割やり直しの指示があったか否かを判別する。その判別の結果、分割やり直しの指示があった場合は、前記ステップS313に戻って、分割方法の選択及び分割処理を再度実行する一方、分割やり直しの指示がない場合は、ステップS317に進む。なお、前記ステップS315で分割された結果、一部の分割位置のみがユーザの意にそぐわない場合は、その位置を特定してマニュアル操作にて分割位置を変更するようにしてもよい。
【0075】
ステップS317では、変更する楽音特性のリストを表示する。楽音特性としては、例えば、ベロシティ、エクスプレッション、発音のタイミングのほか、各種コントロールチェンジ(ビブラート、エフェクト(リバーブ、コーラス、ディレイ等)、音色の変化等)の値を対象とすることができる。次に、変更対象とする楽音特性の選択を受け付け(ステップS318)、楽音特性の選択のやり直しの指示があったか否かを判別する(ステップS319)。その判別の結果、楽音特性の選択のやり直しの指示があった場合は、前記ステップS317に戻って楽音特性の表示及び選択受け付けを再度実行する一方、楽音特性の選択のやり直しの指示がない場合は、ステップS320に進む。
【0076】
ステップS320では、上記分割された曲データの各区分に適応する抑揚データの候補を抽出して表示する。ここで、抑揚データについて説明する。
【0077】
図5は、曲データの分割態様及び抑揚データの一例を示す図である。同図(a)は分割処理前の曲データ、同図(b)は分割処理後の曲データ、同図(c)は複数の区分で成る抑揚データをそれぞれ示す。同図では、曲データが6区分に分割された場合を例示している。
【0078】
抑揚データは、楽曲に抑揚を付与するためのデータで、同図(c)に示すように、各区分毎にパラメータの時間的変化を規定するものである。このパラメータは、前記ステップS318で受け付け、指定された楽音特性の時間的変化を規定するものであり、後述する楽音特性変更処理(ステップS324)で楽音特性を制御するのに用いられるものである。複数の区分(同図(c)では6個の区分を例示)で成る抑揚データは、複数パターンが予めROM6等に格納されている。なお、抑揚データはHDD11に格納するようにしてもよいし、FDD10、CD−ROM12、あるいは通信I/F14を介して抑揚データを追加、更新できるようにしてもよい。なお、抑揚データは、区分数が6個のパターンに限らず、種々の区分数のパターンが存在する。
【0079】
前記ステップS320では、上記それぞれ指定された曲データの分割方法、曲データの分割区分の数、及び変更する楽音特性に基づいて、ROM6に格納された複数の抑揚データの中から最適な抑揚データが少なくとも1つ抽出され、候補として表示装置19に表示される。
【0080】
すなわち、曲データに適応する抑揚データは、まず曲データの分割方法及び分割区分の数によって異なる。例えば、ユーザによる「マニュアル分割」または「自動分割」により、同図(b)に示すように、イントロ、Aメロ、Aメロ’、Bメロ、Aメロ’’エンディングというように曲データが分割された場合は、このようなメロディ構成に合致する区分パターンの抑揚データが抽出されることになる。これらの場合は、区分数が曲データの区分数(6個)に合致した抑揚データのみが抽出の対象となる。これにより、抑揚データに基づく後述する楽音特性の制御が適切且つ容易になる。また、「均等分割」の場合は、「均等分割」により分割された曲データに適するものとして区分数及び区分パターンが予め設定された抑揚データが抽出対象とされる。
【0081】
これに加えて、曲データに適応する抑揚データは、変更する楽音特性によっても異なる。従って、分割方法及び分割区分数が同じでも、変更する楽音特性が例えばベロシティであるか、エクスプレッションであるか等によって、適応する抑揚データが異なることになる。なお、より簡単な構成とする場合は、楽音特性を考慮せず、曲データの分割方法及び曲データの分割区分数のみに基づいて抑揚データを抽出するようにしてもよい。
【0082】
次に、ステップS321では、抑揚データの特定を受け付ける(抑揚データ特定手段に対応)。すなわち、上記のようにして抽出された抑揚データは複数の場合もあり、その場合は、ユーザは、抑揚データの候補の中から1つの抑揚データを特定する。なお、候補が1つしかない場合は、確認メッセージ等を表示して確認の受け付けを行うようにしてもよい。
【0083】
次に、ステップS322では、抑揚データ特定のやり直しの指示があったか否かを判別する。その判別の結果、抑揚データ特定のやり直しの指示があった場合は、前記ステップS320に戻って、抑揚データの候補の表示及び特定の受け付けを再度実行する一方、抑揚データ特定のやり直しの指示がない場合は、ステップS323に進む。なお、前記ステップS321で特定された抑揚データの区分のうち、一部の区分のみがユーザの意にそぐわない場合は、その一部の区分を特定してマニュアル操作にてその区分のみを他の区分と入れ替えるようにしてもよい。この場合、「他の区分」は他のパターン中の区分を流用できるようにしてもよい。また、入れ替え専用に用意したものでもよいが、その場合は、「他の区分」のバリエーションは多数容易しておくのが好ましい。また、前記ステップS320では全ての候補を表示するようにしたが、とりあえず1つの候補のみを表示しておいて、区分毎にマニュアル操作にて他の区分と入れ替える作業を行うようにしてもよい。
【0084】
続くステップS323では、楽音特性変更処理の開始指示があったか否かを判別する。その判別の結果、楽音特性変更処理の開始指示がない場合は、前記ステップS313に戻る。なお、ステップS323で楽音特性変更処理の開始指示がない場合において、ステップS313、S317、S320のいずれに戻るかをユーザが指定できるようにしてもよい。ステップS323の判別の結果、楽音特性変更処理の開始指示があった場合は、ステップS324に進む。
【0085】
ステップS324では、楽音特性変更処理、すなわち曲データに抑揚データを適用して曲データの楽音データの特性を個別的に変更する処理を実行する。この楽音特性変更処理には、曲データと抑揚データとの区分毎の対応付けと抑揚データの伸張とを行う処理ステップ(抑揚データ伸縮手段に対応)と、伸張された抑揚データに基づく曲データの楽音特性変更の処理ステップ(楽音特性制御手段に対応)とがある。
【0086】
まず、区分毎の対応付けでは、例えば図5に示すように、分割された曲データの6個の区分(同図(b))と抽出特定された抑揚データの6個の区分(同図(c))とを順番に従って対応付ける。例えば、同図(b)のイントロには同図(c)のイントロが対応することになる。次に抑揚データの伸張では、抑揚データの各区分毎に、それに対応する曲データの区分に合うように、時間的に抑揚データが伸張される。
【0087】
図6、図7は、互いに対応する曲データの区分と抑揚データの区分の1組を例示した図である。図6は抑揚データの伸張前を示し、図7は伸張後を示す。図6(a)は曲データにおける1つの区分内のノートイベントデータを示し、同図(b)は曲データにおいて事前に設定されているベロシティを示す。このベロシティの設定は、曲データにおいて元々なされている場合だけでなく、前回の楽音特性変更処理でなされている場合もある。同図(b)の例では、各ノートイベントデータ共、ベロシティが一律である。同図(c)は、抑揚データの1つの区分内でのパラメータの時間的変化を示している。これらは図7(a)、(b)、(c)でも同様である。
【0088】
区分毎の対応付け処理がなされただけでは、図6に示すように、曲データの区分と抑揚データの区分との時間的長さが必ずしも一致しない。そこで、抑揚データの伸張処理では、曲データの区分と抑揚データの区分との開始及び終了の両タイミングが合うように抑揚データの区分を伸張する。その結果、図7に示すように、抑揚データの時間方向の長さが曲データのものと一致する。
【0089】
なお、本実施の形態では抑揚データの区分が曲データの区分よりも常に短いことを前提として抑揚データの伸張処理を行うことを述べたが、両者の時間的長さが逆転する場合は、抑揚データを時間的に短縮すればよい。
【0090】
残る楽音特性変更の処理では、前記ステップS318で特定した曲データの楽音特性を変更する。上述したように、楽音特性にはベロシティ、エクスプレッション、発音のタイミング等があるが、図6、図7で例示したのに倣い、楽音特性としてベロシティを例にとって説明する。
【0091】
図8は、互いに対応する曲データの区分と抑揚データの区分の1組を例示した図である。同図(a)、(b)、(c)は、図7(a)、(b)、(c)に対応しており、伸張処理後の抑揚データに基づいて曲データのベロシティを変更した場合を示している。本例では、ノートイベントのノートオン時点における抑揚データが示すパラメータの値に応じて各ノートイベントのベロシティが変更される。例えば、図8(a)に示す2番目のノートイベントNE2のベロシティは、そのノートオン時点t2(同図(c))における抑揚データが示すパラメータの値V2に応じて設定され、その結果、図8(b)に示すように、ノートイベントNE2のベロシティが元のベロシティ(図7(b))から変移する。このように、各ノートイベントNE毎にベロシティの設定、変更がなされる。
【0092】
なお、楽音特性変更の処理の手法は、ノートオン時点におけるパラメータ値に応じて変更する手法に限られない。例えば、ノートオフ時点におけるパラメータ値を採用してもよいし、ノートオン時点とノートオフ時点の両パラメータ値の平均値を採用してもよい。あるいは、ノートオン時点からノートオフ時点までの最大値、最小値または中央値等を採用してもよい。また、ノートオン時点の値を初期値とし、ノートオフ時点の値を目標値としたLPF処理を施した結果としてのノートオフ時点での値等、特定の演算処理を施した後の値を採用してもよい。
【0093】
また、ベロシティに代えて、各種コントロールチェンジの値を楽音特性変更処理の対象にできるのは上述の通りであるが、コントロールチェンジの値に適用する場合は、抑揚データのパラメータの時間的変化が図6〜図8に示すような折れ線状では好ましくない。そこで、この場合は、適当なカーブとなるように、LPFをかける等の適当な演算処理を施した上で適用するのが望ましい。なお、抑揚データが示すパラメータは、アナログデータ、デジタルデータのいずれであってもよい。
【0094】
これらが図3のステップS324における楽音特性変更処理であるが、この処理は曲データの全区分について同様になされる。これにより、曲データに表情付けがなされる。なお、同処理は、ユーザが欲する区分についてのみ行えるようにしてもよい。また、曲データには通常、複数の楽音特性が付随するが、変更処理を欲する全ての楽音特性について前記ステップS313〜S325の処理を行えばよい。
【0095】
続くステップS325では、前記ステップS324で楽音特性が変更された後の曲データを表情付け処理済み曲データとして登録する。この登録は、RAM7に格納されることでなされる。その際、表情付け処理済み曲データを元の曲データに上書きするようにしてもよいし、元の曲データとは別個に格納するようにしてもよいが、これらはユーザが任意に選択できるようにするのが好ましい。その後、本処理を終了する。
【0096】
本実施の形態によれば、分割された曲データに適応する抑揚データが抽出、特定され、曲データの各区分に合うように抑揚データの各区分が時間的にそれぞれ伸張され、伸張された抑揚データで規定されるパラメータの時間的変化に基づいて曲データの各区分の楽音特性が変更制御されることで、曲データに感情を込め楽曲らしさを出す「表情付け」がなされる。従って、楽音特性が半自動的に適当に制御されるので、ユーザは一音一音に楽音特性を設定する必要がなくなり、音楽や楽器の特性の熟知を必要とせず、繁雑な作業から解放され、幅広いユーザが簡単に表情付けを行うことが可能となる。特に、「自動分割」、「均等分割」では、分割処理が半自動的に行われるので、ユーザの負担が減少するだけでなく、「自動分割」では、曲データのメロディ構成等に適した態様で分割されることから、一層適切な楽音特性の制御がなされる。また、「マニュアル分割」では、ユーザの意思に忠実でより高度の表情付けを望む場合に応えることができる。よって、簡単な操作にて曲データに自然な表情付けを行うことができる。また、分割方法を状況に応じて選択できるので、使い勝手を向上することができる。
【0097】
しかも、楽音特性の制御は、抑揚データの各区分に対応する曲データの各区分毎に行われるので、各区分毎に、最適な表情付けが行われる。よって、曲データの各区分に適した表情付けを曲データ全体について簡単な操作にて適切に行うことができる。
【0098】
なお、本実施の形態では、曲データの分割処理で分割された区分数に完全に合致する抑揚データのみが抽出の対象となるようにしたが、これに限るものではない。例えば、抑揚データにおいて、メロディ構成が近似しているが区分数が曲データとは僅かに異なる場合があり得る。その場合は、区分数の合致条件を緩和し、1〜2個程度の相違であれば抽出の対象に含めるようにしてもよい。ただし、最終的には曲データと抑揚データとの区分数の対応はとる必要がある。
【0099】
この状況では、分割方法を複数併用してもよい。例えば「自動分割」で分割していた場合は、「マニュアル分割」をさらに併用してユーザによりマニュアルで区分数を変更すればよい。しかし、操作を簡単にするため「マニュアル分割」を避けたい場合もある。そこで、曲データの区分数が抑揚データのそれよりも少ないときは、「自動分割」に「均等分割」を併用し、「自動分割」で分割された区分のうち最も長い区分についてはさらに「均等分割」を行えばよい。逆に曲データの区分数が抑揚データのそれよりも多いときは、上述したフレーズの区切りと判断するための条件を厳しく設定して「自動分割」をやり直せばよい。例えば、指定する休符長を長くする等である。
【0100】
(第2の実施の形態)
本発明の第2の実施の形態では、パネル処理が第1の実施の形態と異なり、その他は第1の実施の形態と同様である。従って、図1、図2、図9〜図16を用いて本第2の実施の形態を説明する。
【0101】
図9、図10は、第2の実施の形態において図2のステップS202で実行されるパネル処理のフローチャートを示す図である。
【0102】
まず、ステップS901〜S912では、図3、図4のステップS301〜S312と同様の処理を実行する。前記ステップS902の判別の結果、パネル入力が表情付け処理の指示である場合は、ステップS913〜S922で表情付け処理を実行する。
【0103】
すなわち、まず、ステップS913で、表情付けメニューを表示装置19に表示させる。表情付けメニューでは、表情付けの種類、及び曲データにおける表情付けを施すべき時間的区間(以下、「指定区間」と称する)を指定することができる。表情付けの種類を示す項目には、少なくとも音量の変化処理が含まれる。指定区間は、曲データの一部であっても全体であってもよい。通常は、小節単位で指定される。
【0104】
次に、表情付け区間、すなわち指定区間と、表情付けの種類の選択、指定を受け付け(ステップS914)、表情付けの種類として「音量の変化処理」が選択されたか否かを判別する(ステップS915)。その判別の結果、「音量の変化処理」が選択された場合は、ステップS916に進み、音量変化パターンの選択メニューを表示装置19に表示させ、次に、表示した選択メニューにて、音量変化パターンの形状の受け付けを行う(ステップS917)。
【0105】
図11は、表示装置19に表示される音量変化パターンの選択メニューの一例を示す図である。音量変化パターンは、周期的に変化する波形状のパターンであり、後述するように、このパターンに応じて曲データの指定区間の音量が変更、設定される。
【0106】
同図に示すように、上記選択メニューには、大項目として「変化パターンの選択」、「組み合わせ波形の設定」及び「スタート位置」がある。「変化パターンの選択」では、周期、レベル変化量、変化カーブ種及びスタートの方向(上/下)の設定が可能である。
【0107】
図12は、設定される音量変化パターンの一例を示す図である。図13は、変化カーブ種の例を示す図である。
【0108】
「変化パターンの選択」において、周期の設定では、1周期の小節数Nを設定する。例えば図11では「4」に設定されている。レベル変化量の設定では、基準レベルPを100%とした場合における最低値MIN及び最高値MAXを設定する(図12参照)。例えば図11では80〜140%に設定されている。変化カーブ種の設定では、直線または各種曲線が設定される。図13(a)、(b)、(c)に示すように、変化カーブ種としては線SA、SB、SCが設けられており、これらの中から所望の変化カーブ種を選択する。例えば図11では線SA(直線)が設定されている。スタートの方向(上/下)の設定では、音量変化パターンの始点からレベルが上方に移行するのか下方に移行するのかを設定する。例えば図11では「上がる」に設定され、上方に移行することが設定されている。
【0109】
次の大項目の「組み合わせ波形の設定」では、図11に示すように、組み合わせ波形の有無のほか、組み合わせ波形が「有」の場合は、組み合わせ波形についての周期、レベル変化量、変化カーブ種及びスタートの方向(上/下)の設定が可能である。なお「組み合わせ波形」の音量変化パターンは、「変化パターンの選択」において最初に設定された元の音量変化パターンに対して組み合わされる音量変化パターンのことであり、複数設定することも可能である。
【0110】
「組み合わせ波形の設定」において、組み合わせ波形の有無では「有」または「無」が設定される。例えば図11では「有」が設定されている。なお、「無」である場合は、上記「変化パターンの選択」で設定した元の音量変化パターンがそのまま最終的な音量変化パターンとされる。その他、周期、レベル変化量、変化カーブ種及びスタートの方向(上/下)の設定は上記元の音量変化パターンの場合と同様であり、例えば図11では、周期=小節数1、レベル変化量=100〜120%、変化カーブ種=線SA、スタートの方向=「上がる」にそれぞれ設定されている。
【0111】
次の大項目の「スタート位置」では、図11に示すように、時間的にずらす位置が「+」または「−」と音符種類とによって選択可能である。なお、後述するように、音量変化パターンの始点の指定区間に対する時間的位置は、指定区間における小節線を基準に設定され、「スタート位置」によるずらし量の設定がない「0」の場合は、音量変化パターンの始点が小節線に一致する。
【0112】
時間的位置の指定は、図14に示すようなボックス30を表示装置19に表示させて行う。例えば、ボックス30をマウスポインタでクリックすると、「+」または「−」と2分音符や8分音符等の音符種類とを組み合わせたものが複数表示される。ユーザは、これらの中から所望のものをクリックで選択する。例えば図11に示すように、「+」と8分音符との組み合わせが選択されると、8分音符分の長さだけ音量変化パターンの始点を遅い方向にずらすことができる。
【0113】
図9に戻り、続くステップS918では、前記ステップS917で受け付けた設定値に沿った音量変化パターンを生成する。
【0114】
図15は、生成された音量変化パターン及び組み合わせによる複合的な音量変化パターンの一例を示す図である。図11のような「変化パターンの選択」及び「組み合わせ波形の設定」を行った場合、「元の音量変化パターン」は図15(a)に示すようになり、「組み合わせ波形」の音量変化パターンは同図(b)示すようになる。そして、「元の音量変化パターン」と「組み合わせ波形」の音量変化パターンとを合成すると、同図(c)に示すように、複合的な音量変化パターンが最終的な音量変化パターンとして生成される。これにより、自然なうねりのような変化を表現することができる。なお、自然なうねりを実現する観点からは、組み合わせる音量変化パターンは、周期が互いに異なっているのが望ましい。
【0115】
次に、指定区間における小節線を基準に音量変化パターンの位置調整を行って、音量変化パターンを指定区間に対応させる(ステップS919)。
【0116】
図16は、楽譜と音量変化パターンの対応の一例を示す図である。
【0117】
同図(a)は、フレーズが小節の先頭から始まる強起の楽譜例を示し、同図(c)は、フレーズが小節の途中から始まる弱起の楽譜例を示す。例えば、同図(b)に示すような音量変化パターンの始点をSTとすると、同図(a)の楽譜に対し、始点STが1小節目の先頭の小節線に設定される。
【0118】
一方、「スタート位置」のずらしの設定があった場合でも、まずは同図(d)に示すように、音量変化パターンの始点STは、同図(c)の楽譜に対し、小節線に設定される。しかし、「スタート位置」の設定が、例えば「−」及び「付点4分音符」の組み合わせであった場合は、同図(e)に示すように、8分音符3個分だけ早い方向へずらせた位置に始点STが設定される。これにより、弱起の場合にも容易に対応することができる。
【0119】
なお、弱起の曲の場合でもフレーズの切れ目より小節線の方が表情付けにとって重要である場合もあるので、その場合は、弱起の曲であってもスタート位置のずらしを設定しないようにすればよい。
【0120】
次に、ステップS920で、対応させて設定された音量変化パターンに合わせて、指定区間の音符の音量値(ベロシティ)を修正設定する。そして、修正設定した値によって、曲データを更新、記録して(ステップS921)、本処理を終了する。
【0121】
なお、音量値の修正設定では、音量変化パターンに対して完全にベロシティ値の高さを合わせてしまうようにするが、既に設定されているベロシティ値を、音量変化パターンで規定される値に応じた割合で修正するようにしてもよい。
【0122】
一方、前記ステップS915の判別の結果、「音量の変化処理」が選択されなかった場合は、その他の種類の表情付けを行い(ステップS922)、本処理を終了する。
【0123】
本実施の形態によれば、周期的に変化する波形状の音量変化パターンが形成され、形成された音量変化パターンに基づいて、曲データの音量特性を修正するようにしたので、簡単な操作で音量に周期的変化を与え、クレシェンドやデクレシェンドほど明確ではない音量の微妙な変化を付加することができ、曲データに自然な表情付けを行うことができる。また、2種類以上の音量変化パターンを組み合わせた複合的な音量変化パターンを形成するようにしたので、自然なうねりのような変化を表現でき、より自然な表情付けを行うことができる。
【0124】
また、指定区間に対する音量変化パターンの時間的位置は、小節線を基準に設定することで、複雑な作業をすることなく強起の場合に容易に対応することができると共に、時間的位置を任意にシフト可能にしたので、例えば、弱起の場合にも容易に対応でき、フレーズの進行に適した表情付けを可能として実用性を高めることができる。
【0125】
また、音量変化パターンの変化カーブ種として直線だけでなく曲線も設けたので、より生々しい自然な変化を与えることができる。
【0126】
なお、音量変化パターンの周期は、小節数で設定し、小節長の倍数に関係する長さに形成されるようにして、音楽的に自然な音量変化を容易に付すことができるようにしたが、これに限るものではない。例えば、1小節の半分の長さに設定できるようにしてもよい。
【0127】
なお、音量変化パターンは各種値を設定して演算により生成するようにしたが、予め音量変化パターンテーブルを設けておき、該テーブルから所望の音量変化パターンを読み出すようにしてもよい。
【0128】
なお、本実施の形態では、楽譜記号には現れないような微妙な抑揚の再現について考えたが、楽譜記号に現れるような明確な抑揚も同時に再現するようにしてもよい。その場合には、楽譜記号から求められるクレッシェンドやデクレッシェンドの方を、音量変化パターンによる周期的な抑揚よりも強調して再現するようにすれば、全体として楽譜上のクレッシェンド等による抑揚が聞き取れるが、それでもなお、一定感のない自然な変化を与えることができるようになる。
【0129】
なお、音楽には楽譜に記載されていない必然的な抑揚がある。例えば、音階進行に従った抑揚とか、フレーズ終止では音量を弱めにする、等である。そのような様々な音量変化を音量変化パターンによる音量変化と併用することで、より自然な表情の再現が可能になる。
【0130】
なお、上述した各実施の形態の機能を実現するためのソフトウェアのプログラムを記録した記憶媒体を、本演奏信号処理装置に供給し、コンピュータ(CPU5やMPU)が記憶媒体に格納されたプログラムを読み出し実行することによっても、本発明の目的が達成されることはいうまでもない。
【0131】
この場合、記憶媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記憶媒体は本発明を構成することになる。
【0132】
プログラムを供給するための記憶媒体としては、たとえば、前記HDD11のハードディスク、CD−ROM12のディスク、MO、MD、FD24、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどの可搬型の記憶媒体を用いることができる。プログラムは、上記各実施の形態のように可搬型の記憶媒体からRAM7に直接転送されるようにするほか、上記記憶媒体からHDD11内のハードディスクに転送されるようにするようにしてもよい。また、他のMIDI機器100や通信ネットワーク101を介してサーバコンピュータ102からプログラムが供給されるようにしてもよい。
【0133】
また、コンピュータが読み出したプログラムを実行することにより、上述した各実施の形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した各実施の形態の機能が実現されるようにしてもよい。
【0134】
さらに、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU5などが実際の処理の一部または全部を行い、その処理によって上述した各実施の形態の機能が実現されるようにしてもよい。
【0135】
【発明の効果】
以上説明したように、本発明の請求項1、4、5、6によれば、曲データの区分分割を自動的に行ってユーザの負担を軽減すると共に、簡単な操作にて曲データに自然な表情付けを行うことができる。また、曲データの各区分に適した表情付けを曲データ全体について簡単な操作にて適切に行うことができる
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態に係る演奏信号処理装置の全体構成を示すブロック図である。
【図2】 同形態におけるメインルーチンのフローチャートを示す図である。
【図3】 図2のステップS202で実行されるパネル処理のフローチャートを示す図である。
【図4】 図2のステップS202で実行されるパネル処理の図3の続きのフローチャートを示す図である。
【図5】 曲データの分割態様及び抑揚データの一例を示す図である。
【図6】 互いに対応する曲データの区分と抑揚データの区分の1組を例示した図である(抑揚データの伸張前)。
【図7】 互いに対応する曲データの区分と抑揚データの区分の1組を例示した図である(抑揚データの伸張後)。
【図8】 互いに対応する曲データの区分と抑揚データの区分の1組を例示した図である(ベロシティ変更後)。
【図9】 本発明の第2の実施の形態において図2のステップS202で実行されるパネル処理のフローチャートを示す図である。
【図10】 図2のステップS202で実行される図9の続きのパネル処理のフローチャートを示す図である。
【図11】 表示装置に表示される音量変化パターンの選択メニューの一例を示す図である。
【図12】 設定される音量変化パターンの一例を示す図である。
【図13】 変化カーブ種の例を示す図である。
【図14】 時間的位置の指定の手法を示す図である。
【図15】 生成された音量変化パターン及び組み合わせによる複合的な音量変化パターンの一例を示す図である。
【図16】 楽譜と音量変化パターンの対応の一例を示す図である。
【符号の説明】
2 パネルスイッチ、 3 押鍵検出回路、 5 CPU(曲データ分割手段、抑揚データ特定手段、抑揚データ伸縮手段、楽音特性制御手段、パターン形成手段、音量特性設定手段)、 7 RAM、 9 表示制御回路、 11 ハードディスクドライブ(HDD)、 15 音源回路、 16 効果回路、 17サウンドシステム、 19 表示装置、 20 マウス情報検出回路、 21マウス(位置指定手段)
[0001]
[Field of the Invention]
  The present invention relates to a performance signal processing apparatus capable of editing music data., Method and program, and storage mediumAbout.
[0002]
[Prior art]
Conventionally, automatic performance data (hereinafter referred to as “song data”) including MIDI (Musical Instrument Digital Interface) data, lyrics data, etc. is composed of only musical note information or musical tone characteristic data such as velocity is uniform. In some cases, since it is mechanical and has no facial expression, a performance signal processing apparatus is known in which expression is added to the emotional expression so as to express the music. In this apparatus, the music characteristics (velocity, expression, etc.) of the song data are changed by reading out the existing song data from the storage medium or by the user creating and inputting it with DTM (desktop music). , More natural performance, beautiful performance, lively performance can be realized.
[0003]
Here, the composition of the music generally has a consequent change, for example, intro, A melody (Melody A), A melody A (melody A 'similar to melody A), B melody, C melody, ending, etc. It can be recognized that it is divided into several categories under specific rules. The optimal setting of the musical tone characteristics of the music is influenced by the composition of the music itself. For example, there is a case where it is desired to slightly vary the volume, tone nuance and expression between the “roll” portion and the “cross” portion in the initial roll. In addition, there is a common feature in the optimal musical sound characteristics according to the composition of the music, such as “It is suitable to set the fluctuation of velocity due to music progression in this way for music with such a melody pattern”. It often appears.
[0004]
Conventionally, in order to express a song with rich expressiveness, the user has to set a musical tone characteristic for each note of the song data, which requires not only familiarity with the characteristics of music and instruments, It was complicated and time consuming.
[0005]
On the other hand, as a technique for performing facial expression even if there is little knowledge or experience, a control data template created in advance is selected and input into the song data, and then the shape of the control data template and the length in the time direction are selected. There is also known a control data input method to be corrected (Japanese Patent Laid-Open No. 9-6346).
[0006]
[Problems to be solved by the invention]
However, in the control data input method, the user must select and input an optimal control data template for each individual piece of music data, and the operation is not easy. In addition, when viewed as a whole piece of music, regardless of individual parts, the above-described conventional method is not necessarily suitable for giving a natural expression.
[0008]
In order to make it easy for a wide range of users to use, it is advantageous that the part that can be judged on the apparatus side can be automatically performed as much as possible. As described above, the conventional technique has room for improvement in performing natural expression with a simple operation.
[0009]
  The present invention has been made to solve the above-mentioned problems of the prior art, and its purpose is as follows.The division of song data is automatically performed to reduce the burden on the user,A performance signal processing device that can add natural expressions to song data with simple operations, Method and program, and storage mediumIs to provide.
[0019]
  To achieve the above object, the claims of the present invention are described.1In the performance signal processing apparatus capable of editing music data, any one of music data dividing means for dividing music data into a plurality of sections and inflection data defining temporal changes in parameters Intonation data specifying means for specifying intonation data, and intonation data expansion / contraction means for temporally expanding / contracting intonation data specified by the intonation data specifying means in accordance with at least one section divided by the music data dividing means, A musical tone characteristic control means for controlling a musical tone characteristic of the at least one section of the music data based on a temporal change of a parameter defined by intonation data expanded / contracted by the intonation data expansion / contraction means; The song data is divided into pieces by the song data dividing means and the inflection data specifying means The inflection data is specified such that the number of sections constituting the music data matches the number of sections constituting the intonation data, and the expansion / contraction of the intonation data by the intonation data expansion / contraction means is performed by the music data. Is performed for each section of the intonation data corresponding to each section, and the control of the tone characteristics by the tone characteristic control means is performed for each section of the song data corresponding to each section of the intonation data. It is characterized by that.
  Claims of the invention2The performance signal processing apparatus according to claim 11In the configuration described above, the music data is divided by the music data dividing unit based on at least one of music data to be divided and user designation.
  With this configuration, if the song data is divided based on the song data to be divided, the division can be performed semi-automatically and the burden on the user is reduced. On the other hand, if the song data is divided based on the user's designation. , More appropriate division can be performed. Therefore, it is possible to perform simpler facial expression or facial expression faithful to the user's intention and improve usability.
  Claims of the invention3The performance signal processing apparatus according to claim 11 or 2In the configuration described above, the intonation data is specified by the inflection data specifying unit based on the song data divided by the song data dividing unit.
[0020]
  With this configuration, it is possible to specify intonation data that matches the division configuration and the number of divisions of the divided music data. The inflection data is specified based on, for example, the music data division method and the number of pieces of music data, or in addition to these, the music characteristics to be changed.Yes.
[0021]
  UpTo achieve the object, the claims of the present invention4The musical performance signal processing method includes a song data dividing step for dividing song data into a plurality of sections, an inflection data specifying step for specifying any intonation data among inflection data for defining temporal changes in parameters, and the song Specified by an inflection data expansion / contraction step that temporally expands / contracts intonation data specified by the inflection data identification step according to at least one division divided by the data division step, and inflection data expanded / contracted by the inflection data expansion / contraction step A musical tone characteristic control step of controlling a musical tone characteristic of the at least one section of the music piece data based on a temporal change of a parameter to be performed, wherein the intonation data is composed of a plurality of sections, and the music piece data dividing step The division of the song data by the step and the specification of the intonation data by the intonation data specifying step are the categories constituting the song data. The number is made to coincide with the number of sections constituting the intonation data, and the expansion / contraction of the intonation data by the intonation data expansion / contraction step is performed for each section of the intonation data corresponding to each section of the music data. And the control of the musical sound characteristics by the musical sound characteristic control step is performed for each section of the music data corresponding to each section of the intonation data..
  UpTo achieve the object, the claims of the present invention5The performance signal processing program is a performance signal processing program to be executed by a computer, and includes any one of a music data division module that divides music data into a plurality of sections and an inflection data that defines temporal changes in parameters. An inflection data identification module for identifying data, an inflection data expansion / contraction module that temporally expands / contracts intonation data identified by the intonation data identification module in accordance with at least one section divided by the song data division module, A musical tone characteristic control module that controls a musical tone characteristic of the at least one section of the song data based on a temporal change of a parameter defined by intonation data expanded and contracted by an inflection data expansion and contraction module, The music data division module is composed of a plurality of sections. The song data is divided by the inflection data and the intonation data is identified by the inflection data identification module such that the number of sections constituting the song data matches the number of sections constituting the intonation data, and The expansion / contraction of the intonation data by the inflection data expansion / contraction module is performed for each section of the intonation data corresponding to each section of the music data, and the control of the musical sound characteristic by the musical sound characteristic control module is performed on the inflection data. It is performed for each section of the music data corresponding to each section.
  To achieve the above object, the claims of the present invention are described.6The storage medium of claim5The performance signal processing program described in 1) is stored in a computer-readable manner.
  Here, the music data division methods include “manual division”, “automatic division”, “equal division”, and the like. Further, “inflection data” is data for giving inflection to music, and defines temporal changes in parameters, and these temporal changes in parameters are used to control musical sound characteristics of music data classification. As the “musical sound characteristics”, for example, values of various control changes (vibrato, effect (reverb, chorus, delay, etc.), timbre change, etc.) as well as velocity, expression, and sounding timing can be targeted.
  As a technique for matching the number of sections constituting music data with the number of sections constituting inflection data, after dividing the music data, inflection data that matches the number of sections constituting the music data is used. In addition to the identification method, a method of dividing or redoing music data so as to match the specified number of intonation data categories can be considered.
[0042]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0043]
(First embodiment)
FIG. 1 is a block diagram showing the overall configuration of the performance signal processing apparatus according to the first embodiment of the present invention. The performance signal processing apparatus is configured as a personal computer capable of performing DTM (desktop music), for example.
[0044]
The performance signal processing apparatus includes a key depression detection circuit 3, a switch detection circuit 4, a ROM 6, a RAM 7, a timer 8, a display control circuit 9, a floppy disk drive (FDD) 10, a hard disk drive (HDD) 11, a CD-ROM (compact). A disk-read only memory) drive 12, a MIDI interface (MIDII / F) 13, a communication interface (communication I / F) 14, a sound source circuit 15, an effect circuit 16, and a mouse information detection circuit 20 are connected via a bus 18. Each is connected to a CPU 5 (music data dividing means, intonation data specifying means, intonation data expansion / contraction means, musical tone characteristic control means, pattern forming means, volume characteristic setting means).
[0045]
Further, the keyboard 1 is connected to the key press detection circuit 3, and the panel switch 2 is connected to the switch detection circuit 4. The mouse information detecting circuit 20 is connected to a mouse 21 (position specifying means) having a switch and having a switch, and the display control circuit 9 is connected to a display device 19 composed of, for example, an LCD or a CRT. A timer 8 is connected to the CPU 5, and another MIDI device 100 is connected to the MID II / F 13. A server computer 102 is connected to the communication I / F 14 via the communication network 101, and an effect circuit 16 and a sound system 17 are connected to the sound source circuit 15 in series.
[0046]
The key press detection circuit 3 detects the key press state of each key (not shown) of the keyboard 1. The panel switch 2 includes a plurality of switches (not shown) for inputting various information. The switch detection circuit 4 detects the pressed state of each switch of the panel switch 2. The CPU 5 controls the entire apparatus. The ROM 6 stores a control program executed by the CPU 5, table data, and the like. The RAM 7 temporarily stores various input information such as automatic performance data, musical score display image data, text data, and calculation results. The timer 8 measures the interrupt time and various times in the timer interrupt process. The display control circuit 9 displays various information such as a score on the display device 19.
[0047]
The FDD 10 drives a floppy disk (FD) 24 that is a storage medium. The FD 24 stores the control program, various application programs, various data, and the like. The HDD 11 as an external storage device stores various application programs including the control program, various data, and the like. The CD-ROM drive 12 drives a CD-ROM (not shown) in which various application programs including the control program and various data are stored.
[0048]
The MIDII / F 13 inputs a MIDI (Musical Instrument Digital Interface) signal from an external device such as another MIDI device 100 or outputs a MIDI signal to the external device. The communication I / F 14 transmits / receives data to / from the server computer 102 via the communication network 101, for example. The tone generator circuit 15 converts music data such as automatic performance data input from the FDD 10, the CD-ROM drive 12 or the MIDII / F13 into a musical sound signal. The effect circuit 16 gives various effects to the musical sound signal input from the sound source circuit 15, and the sound system 17 such as a DAC (Digital-to-Analog Converter), an amplifier, and a speaker performs the musical sound signal input from the effect circuit 16. To sound. The mouse information detection circuit 20 detects movement information of the mouse 21 and operation information such as switch on / off.
[0049]
In the present embodiment, the sound source circuit 15 is entirely configured by hardware as the name suggests, but is not limited thereto, and may be configured by a part of software and the remaining part may be configured by hardware. Alternatively, all may be configured by software.
[0050]
The HDD 11 can store a control program executed by the CPU 5 as described above. When the control program is not stored in the ROM 6, the control program is stored in the hard disk in the HDD 11, and by reading it into the RAM 7, the same operation as when the control program is stored in the ROM 6 is performed. It can be made to CPU5. In this way, it is possible to easily add a control program or upgrade a version.
[0051]
The control program and various data read from the CD-ROM by the CD-ROM drive 12 are stored in the hard disk in the HDD 11. As a result, a new installation or version upgrade of the control program can be easily performed. In addition to the CD-ROM drive 12, other devices for using various types of media such as a magneto-optical disk (MO) device may be provided as an external storage device.
[0052]
The MIDII / F 13 is not limited to a dedicated one, and may be configured by a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (Eye Triple E 1394). In this case, data other than MIDI messages may be transmitted and received simultaneously.
[0053]
As described above, the communication I / F 14 is connected to the communication network 101 such as a LAN (local area network), the Internet, or a telephone line, and is connected to the server computer 102 via the communication network 101. When the above programs and various parameters are not stored in the hard disk in the HDD 11, the communication I / F 14 is used to download programs and parameters from the server computer 102. A computer serving as a client (a performance signal processing apparatus in the present embodiment) transmits a command for requesting downloading of a program and parameters to the server computer 102 via the communication I / F 14 and the communication network 101. Upon receiving this command, the server computer 102 distributes the requested program and parameters to the computer via the communication network 101, and the computer receives these programs and parameters via the communication I / F 101 and stores them in the HDD 11. Downloading is completed by accumulating on the hard disk.
[0054]
In addition, an interface for directly exchanging data with an external computer or the like may be provided.
[0055]
In the present embodiment, the song data is automatic performance data including MIDI data, lyrics data, etc., and the existing song data includes the FDD 10, the CD-ROM drive 12, the MIDII / F13, and the communication I / F14 as described above. Is read out or input via The music data can also be created by the user and input with the keyboard 1 or the mouse 21. The read or input music data is stored in the RAM 7 and displayed on the display device 19 and is subjected to musical tone generation processing (playback, etc.), facial expression processing, and various editing processing described later.
[0056]
FIG. 2 shows a flowchart of the main routine in the present embodiment. This process is started when the power is turned on.
[0057]
First, initialization is executed, that is, execution of a predetermined program is started, and various registers such as the RAM 7 are cleared and initialization is performed (step S201). Next, panel processing shown in FIGS. 3 and 4 described later, that is, operations of the panel switch 2 and the mouse 21 are accepted, and instructions such as device setting and song data editing are executed (step S202). Next, musical tone processing is executed (step S203). For example, when the reproduction process is being executed, the music data is read, the set effect process is added, amplified and output. Thereafter, the process returns to step S202.
[0058]
3 and 4 are flowcharts of the panel process executed in step S202 of FIG.
[0059]
First, it is determined whether or not there is a panel input, that is, whether or not there is any operation with the panel switch 2 or the mouse 21 (step S301). As a result of the determination, if there is no panel input, the present process is immediately terminated. On the other hand, if there is a panel input, it is determined whether or not it is an instruction for expression processing (step S302). Note that when this process is executed (when the device or software is started up), the settings at the time of the previous completion of the initial settings are read, so the song data to be processed is prepared without any special settings. ing.
[0060]
If the result of determination in step S302 is that the panel input is not a facial expression processing instruction, it is determined whether or not it is a performance-related instruction (step S303 in FIG. 4). If the panel input is not a performance-related instruction as a result of the determination, it is determined whether or not the panel input is a song change designation (step S304).
[0061]
If the result of determination in step S303 is that the panel input is a performance-related instruction, it is determined whether or not it is a reproduction instruction (step S305). As a result of the determination, if the performance-related instruction is a reproduction instruction, reproduction of the currently displayed song data is started (step S306), and the present process ends. On the other hand, if the performance-related instruction is not a reproduction instruction, The process proceeds to step S307.
[0062]
In step S307, it is determined whether or not the performance-related instruction is a stop instruction. As a result of the determination, if the performance-related instruction is a stop instruction, the performance reproduction is stopped (step S308), and this process is terminated. On the other hand, if the performance-related instruction is not a stop instruction, other instruction processing is performed. Execute, for example, advance processing (slowly advance playback points (fast forward)), return processing (slowly return playback points (fast reverse)), and start processing (return playback points to the beginning of the song) ( Step S309), the process ends.
[0063]
If the result of determination in step S304 is that the panel input is a song change designation, the designation of the song to be processed for playback or editing is accepted and changed (step S310), and the changed song data is read out. Various information is input and displayed (step S311), and the process is terminated. On the other hand, if the result of determination in step S304 is that the panel input is not a song change designation, other instruction processing is executed, for example, editing other than song data expression processing and various editing processing are performed (step S312). ), This process is terminated.
[0064]
If the result of determination in step S302 is that the panel input is a facial expression processing instruction, the facial expression processing is executed in steps S313 to S325. That is, first, a music data division method is displayed (step S313), selection of a division method is accepted (step S314), and music data division processing is executed by the accepted method (step S315) (music data division means). Corresponding). Here, the music data division methods are roughly classified into “manual division”, “automatic division”, and “equal division”.
[0065]
The “manual division” is a method in which the user manually designates the division position while viewing the music data display or listening to the reproduction of the music. For example, if the song data is created by the user himself, the composition of the song is known, such as starting and falling, and it is easy for the user to determine where the division is most appropriate. It is appropriate to select.
[0066]
“Automatic division” is a method in which the apparatus side (CPU 5) determines and automatically designates a division position. For example, a position where it can be determined that the phrase is separated is set as a division position. There are the following methods for determining the separation of phrases.
[0067]
a: When a rest length longer than a predetermined length is found, a section immediately after the rest is set as a new division section, and a rest is set as a division position.
[0068]
b: Recognize phrase breaks based on the regularity of notes, such as pitch jumps, rhythm changes, time signature changes, tempo changes, changes in the number of notes, and tone average changes.
[0069]
c: When the same melody is repeated, when the same melody appears again, it is set as a new division section, and accordingly, the division positions are set between the respective melody.
[0070]
Although partially overlapping with these methods, GTTM (a General Theory of Tonal Music) (Chapter 4) introduced in “The World of Computers and Music: Kyoritsu Publishing: Yoichi Nagashima, Shuji Hashimoto, Joe Hiraga, Junji Hirata” There is also a method of automatically determining the division position using structural analysis by Section 6: Yoshihiro Takeuchi). This GTTM analyzes music into a hierarchical structure based on human music perception and cognition processes. The group structure, time structure, time span reduction, and extended reduction necessary for music perception and recognition. The four components are analyzed.
[0071]
These “automatic division” methods may be applied alone or in combination. Further, when the song data includes lyrics data, the division position may be specified by analyzing the lyrics, for example, based on a break between lyrics.
[0072]
“Equal division” is a method of dividing music data into equal divisions. In “equal division”, there is a technique in which the entire music data is equally divided into a plurality of equal parts, and there is a technique in which only a specific division such as an intro and an ending is set to a specified number of bars and other parts are equally divided. “Equal division” may be performed by the number of bars or by the number of notes.
[0073]
The user specifically selects and designates a division method to be applied from among these various division methods. The music data is divided into a plurality of pieces (for example, several sections to about 10 sections) by the dividing process.
[0074]
After the division process is executed, if there is an instruction to redo the division, it is accepted. In step S316, it is determined whether or not there is an instruction to redo the division. As a result of the determination, if there is an instruction to redo the division, the process returns to step S313, and the selection of the division method and the division process are performed again. Note that, as a result of the division in step S315, if only some of the division positions do not match the user's will, the positions may be specified and the division positions may be changed manually.
[0075]
In step S317, a list of tone characteristics to be changed is displayed. As the tone characteristics, for example, values of various control changes (vibrato, effects (reverb, chorus, delay, etc.), timbre changes, etc.) as well as velocity, expression, and sounding timing can be targeted. Next, selection of a musical sound characteristic to be changed is accepted (step S318), and it is determined whether or not there is an instruction to redo the selection of musical sound characteristics (step S319). As a result of the determination, if there is an instruction to redo the selection of the musical sound characteristics, the process returns to the step S317 to display the musical sound characteristics and accept the selection again. The process proceeds to step S320.
[0076]
In step S320, inflection data candidates adapted to each segment of the divided music data are extracted and displayed. Here, the intonation data will be described.
[0077]
FIG. 5 is a diagram illustrating an example of the division of music data and inflection data. FIG. 4A shows music data before division processing, FIG. 5B shows music data after division processing, and FIG. 4C shows inflection data composed of a plurality of sections. In the same figure, the case where music data is divided into 6 sections is illustrated.
[0078]
Inflection data is data for giving inflection to music, and as shown in FIG. 5C, defines temporal changes in parameters for each section. This parameter is received in step S318 and defines the temporal change of the specified musical tone characteristic, and is used to control the musical tone characteristic in the musical tone characteristic changing process (step S324) described later. A plurality of patterns of inflection data composed of a plurality of sections (six sections are illustrated in FIG. 5C) are stored in the ROM 6 or the like in advance. The inflection data may be stored in the HDD 11, or the inflection data may be added or updated via the FDD 10, the CD-ROM 12, or the communication I / F 14. Note that the intonation data is not limited to a pattern with six sections, but there are patterns with various sections.
[0079]
In step S320, the optimum inflection data is selected from among the plurality of inflection data stored in the ROM 6, based on the above-specified music data division method, the number of music data division categories, and the tone characteristics to be changed. At least one is extracted and displayed on the display device 19 as a candidate.
[0080]
In other words, the inflection data adapted to the music data differs depending on the music data dividing method and the number of divisions. For example, by “manual division” or “automatic division” by the user, music data is divided into intro, A melody, A melody ', B melody, and A melody ending as shown in FIG. In such a case, the inflection data of the segment pattern that matches such a melody configuration is extracted. In these cases, only the inflection data whose number of divisions matches the number of divisions (six) of the music data is targeted for extraction. This makes it possible to appropriately and easily control the tone characteristics described later based on the intonation data. In the case of “equal division”, inflection data in which the number of divisions and the division pattern are set in advance as being suitable for music data divided by “equal division” is selected.
[0081]
In addition to this, the intonation data adapted to the music data also varies depending on the tone characteristics to be changed. Therefore, even if the division method and the number of division sections are the same, the applied inflection data differs depending on whether the tone characteristic to be changed is, for example, velocity or expression. In the case of a simpler configuration, intonation data may be extracted based only on the music data division method and the number of divisions of music data without considering the musical sound characteristics.
[0082]
Next, in step S321, specification of intonation data is accepted (corresponding to intonation data specifying means). That is, there may be a plurality of inflection data extracted as described above. In this case, the user specifies one inflection data from among the candidates for the inflection data. If there is only one candidate, a confirmation message or the like may be displayed to accept confirmation.
[0083]
Next, in step S322, it is determined whether or not there is an instruction to redo specifying inflection data. As a result of the determination, if there is an instruction to redo the inflection data specification, the process returns to step S320, and the display of the intonation data candidate and the specific reception are executed again, while there is no instruction to redo the inflection data specification. In the case, the process proceeds to step S323. If only some of the inflection data classifications specified in step S321 are not suitable for the user, the classification is specified by manual operation and only the other classification is selected. You may make it replace. In this case, the “other section” may be a section in another pattern. In addition, in this case, it is preferable to facilitate a large number of variations of “other sections”. Further, although all the candidates are displayed in the step S320, only one candidate may be displayed for the time being, and an operation of replacing each category by another manual operation may be performed.
[0084]
In a succeeding step S323, it is determined whether or not an instruction to start the musical sound characteristic changing process is given. As a result of the determination, if there is no instruction to start the musical tone characteristic changing process, the process returns to step S313. Note that when there is no instruction to start the tone characteristic changing process in step S323, the user may be able to specify which one of steps S313, S317, and S320 is returned to. As a result of the determination in step S323, if there is an instruction to start the tone characteristic change process, the process proceeds to step S324.
[0085]
In step S324, musical tone characteristic changing processing, that is, processing for individually changing the musical tone data characteristics of the musical piece data by applying inflection data to the musical piece data is executed. The musical sound characteristic changing process includes a processing step (corresponding to intonation data expansion / contraction means) for associating song data and intonation data for each section and decompressing inflection data, and for music data based on the decompressed intonation data. There is a processing step (corresponding to the musical tone characteristic control means) for changing the musical tone characteristic.
[0086]
First, in association for each section, as shown in FIG. 5, for example, six sections of the divided music data (FIG. 5B) and six sections of the extracted inflection data (FIG. c)) are matched in order. For example, the intro shown in FIG. 10B corresponds to the intro shown in FIG. Next, in the expansion of intonation data, the inflection data is expanded in time so that each section of intonation data matches the section of music data corresponding thereto.
[0087]
FIG. 6 and FIG. 7 are diagrams illustrating one set of song data division and intonation data division corresponding to each other. FIG. 6 shows before expansion of the intonation data, and FIG. 7 shows after expansion. FIG. 6A shows the note event data in one section in the music data, and FIG. 6B shows the velocity set in advance in the music data. This velocity setting is not only performed originally in the music data, but may also be performed in the previous musical sound characteristic changing process. In the example of FIG. 5B, the velocity is uniform for each note event data. FIG. 4C shows the temporal change of the parameter within one section of intonation data. These are the same in FIGS. 7A, 7B, and 7C.
[0088]
As shown in FIG. 6, the time lengths of the song data section and the inflection data section do not necessarily match only by performing the association processing for each section. Therefore, in the intonation data decompression process, the inflection data segment is decompressed so that both the start timing and end timing of the song data segment and the intonation data segment match. As a result, as shown in FIG. 7, the length of the inflection data in the time direction matches that of the song data.
[0089]
In the present embodiment, it has been described that the inflection data is decompressed on the assumption that the inflection data section is always shorter than the song data section. Data can be shortened in time.
[0090]
In the remaining musical tone characteristic changing process, the musical tone characteristic of the music data specified in step S318 is changed. As described above, the musical sound characteristics include velocity, expression, timing of sound generation, and the like. As described with reference to FIG. 6 and FIG.
[0091]
FIG. 8 is a diagram exemplifying one set of a song data category and intonation data category corresponding to each other. FIGS. 7A, 7B, and 7C correspond to FIGS. 7A, 7B, and 7C, and the velocity of the music data is changed based on the intonation data after the decompression process. Shows the case. In this example, the velocity of each note event is changed according to the value of the parameter indicated by the intonation data at the time of note-on of the note event. For example, the velocity of the second note event NE2 shown in FIG. 8A is set according to the parameter value V2 indicated by the inflection data at the note-on time t2 (FIG. 8C). As shown in FIG. 8B, the velocity of the note event NE2 is changed from the original velocity (FIG. 7B). In this manner, the velocity is set and changed for each note event NE.
[0092]
Note that the musical sound characteristic change processing method is not limited to the method of changing according to the parameter value at the time of note-on. For example, a parameter value at the note-off time may be adopted, or an average value of both parameter values at the note-on time and the note-off time may be adopted. Alternatively, a maximum value, a minimum value, a median value, or the like from the note-on point to the note-off point may be employed. In addition, the value after applying specific arithmetic processing such as the value at the note-off time as a result of LPF processing with the value at the note-on time as the initial value and the value at the note-off time as the target value is adopted. May be.
[0093]
In addition, as described above, the value of various control changes can be the target of the musical tone characteristic change process instead of velocity, but when applied to the value of control change, the temporal change of the parameter of the inflection data A broken line shape as shown in FIGS. Therefore, in this case, it is desirable to apply after performing appropriate arithmetic processing such as applying an LPF so as to obtain an appropriate curve. The parameter indicated by the intonation data may be either analog data or digital data.
[0094]
These are the musical sound characteristic changing processes in step S324 of FIG. 3, but this process is similarly performed for all the divisions of the music data. As a result, expression is given to the music data. Note that this processing may be performed only for the category desired by the user. The music data usually includes a plurality of musical sound characteristics. However, the processing in steps S313 to S325 may be performed for all musical sound characteristics that are desired to be changed.
[0095]
In the subsequent step S325, the music data after the musical sound characteristic has been changed in the step S324 is registered as expression-finished music data. This registration is performed by being stored in the RAM 7. At that time, the song data that has been subjected to the facial expression processing may be overwritten on the original song data, or may be stored separately from the original song data, but these can be arbitrarily selected by the user. Is preferable. Thereafter, this process is terminated.
[0096]
According to the present embodiment, inflection data adapted to the divided music data is extracted and specified, and each section of the inflection data is temporally expanded to match each section of the music data, and the expanded inflection is performed. By changing and controlling the musical tone characteristics of each segment of the song data based on the temporal change of the parameters defined by the data, “facial expression” is performed to add emotion to the song data and to make it appear like a song. Therefore, since the musical tone characteristics are appropriately controlled semi-automatically, the user does not need to set the musical tone characteristics for each note, and does not need to know the characteristics of music and musical instruments. A wide range of users can easily apply facial expressions. In particular, with “automatic division” and “equal division”, the division process is performed semi-automatically, which not only reduces the burden on the user, but “automatic division” is a mode suitable for the composition of melody of music data. Since it is divided, more appropriate control of the musical tone characteristics is performed. In addition, “manual division” can respond to a case where higher expression is desired faithfully to the user's intention. Therefore, it is possible to perform natural expression on the song data with a simple operation. In addition, since the division method can be selected according to the situation, usability can be improved.
[0097]
In addition, the control of the musical sound characteristics is performed for each section of the music data corresponding to each section of the intonation data, so that an optimal expression is performed for each section. Therefore, expression suitable for each section of the music data can be appropriately performed with a simple operation for the entire music data.
[0098]
In the present embodiment, only intonation data that completely matches the number of divisions divided by the music data division processing is extracted, but the present invention is not limited to this. For example, in the intonation data, the melody structure is approximate, but the number of sections may be slightly different from the song data. In that case, the condition for matching the number of sections may be relaxed, and if there are about 1 to 2 differences, they may be included in the extraction target. However, it is necessary to finally correspond to the number of divisions between music data and intonation data.
[0099]
In this situation, a plurality of division methods may be used in combination. For example, in the case of dividing by “automatic division”, the number of divisions may be changed manually by the user by further using “manual division”. However, there are cases where it is desirable to avoid “manual division” in order to simplify the operation. Therefore, when the number of song data divisions is less than that of inflection data, “Equal division” is used in combination with “Automatic division”, and the longest division divided by “Automatic division” is further set to “Equal division”. “Division” may be performed. On the contrary, when the number of pieces of music data is larger than that of inflection data, the conditions for determining the phrase delimitation described above may be set strictly and “automatic division” may be performed again. For example, the rest length to be specified is increased.
[0100]
(Second Embodiment)
In the second embodiment of the present invention, the panel processing is different from that of the first embodiment, and the others are the same as those of the first embodiment. Therefore, the second embodiment will be described with reference to FIGS. 1, 2, and 9 to 16.
[0101]
9 and 10 are flowcharts of the panel process executed in step S202 of FIG. 2 in the second embodiment.
[0102]
First, in steps S901 to S912, processing similar to that in steps S301 to S312 of FIGS. 3 and 4 is executed. If the result of determination in step S902 is that the panel input is an instruction for facial expression processing, facial expression processing is executed in steps S913 to S922.
[0103]
That is, first, the expression menu is displayed on the display device 19 in step S913. In the facial expression menu, it is possible to specify the type of facial expression and the time interval (hereinafter referred to as “designated section”) to which facial expression should be applied in the music data. The item indicating the type of facial expression includes at least volume change processing. The designated section may be a part or the whole of the song data. Usually specified in bars.
[0104]
Next, selection and designation of a facial expression section, that is, a designated section and a facial expression type are accepted (step S914), and it is determined whether or not “volume change processing” is selected as the facial expression type (step S915). ). As a result of the determination, if “volume change processing” is selected, the process proceeds to step S916, where a selection menu of volume change patterns is displayed on the display device 19, and then the volume change pattern is displayed on the displayed selection menu. Is accepted (step S917).
[0105]
FIG. 11 is a diagram illustrating an example of a selection menu of volume change patterns displayed on the display device 19. The volume change pattern is a waveform pattern that changes periodically. As will be described later, the volume of the designated section of the music data is changed and set according to this pattern.
[0106]
As shown in the figure, the selection menu includes “change pattern selection”, “combination waveform setting”, and “start position” as major items. In “selection of change pattern”, it is possible to set the period, level change amount, change curve type, and start direction (up / down).
[0107]
FIG. 12 is a diagram illustrating an example of a set sound volume change pattern. FIG. 13 is a diagram illustrating examples of change curve types.
[0108]
In “selection of change pattern”, in the cycle setting, the number of bars N in one cycle is set. For example, in FIG. 11, “4” is set. In the level change amount setting, the minimum value MIN and the maximum value MAX are set when the reference level P is 100% (see FIG. 12). For example, in FIG. 11, it is set to 80 to 140%. In setting the change curve type, a straight line or various curves are set. As shown in FIGS. 13A, 13B, and 13C, lines SA, SB, and SC are provided as change curve types, and a desired change curve type is selected from these lines. For example, in FIG. 11, a line SA (straight line) is set. In the setting of the start direction (up / down), it is set whether the level shifts upward or downward from the start point of the volume change pattern. For example, in FIG. 11, “up” is set and moving upward is set.
[0109]
In the next major item “setting of combination waveform”, as shown in FIG. 11, in addition to the presence or absence of the combination waveform, when the combination waveform is “present”, the period, level change amount, and change curve type for the combination waveform The start direction (up / down) can be set. The volume change pattern of the “combination waveform” is a volume change pattern combined with the original volume change pattern initially set in “select change pattern”, and a plurality of volume change patterns can be set.
[0110]
In “combination waveform setting”, “present” or “absent” is set depending on the presence or absence of the combination waveform. For example, “present” is set in FIG. In the case of “None”, the original volume change pattern set in “Selection of change pattern” is directly used as the final volume change pattern. In addition, the setting of the period, level change amount, change curve type, and start direction (up / down) is the same as in the original volume change pattern. For example, in FIG. 11, cycle = number of bars 1, level change amount = 100 to 120%, change curve type = line SA, start direction = “up”.
[0111]
In the next major item “start position”, as shown in FIG. 11, the position to be shifted in time can be selected by “+” or “−” and the note type. As will be described later, the temporal position of the start point of the volume change pattern with respect to the specified section is set with reference to the bar line in the specified section, and when the shift amount is not set by the “start position” is “0”, The starting point of the volume change pattern matches the bar line.
[0112]
The temporal position is specified by displaying a box 30 as shown in FIG. For example, when the box 30 is clicked with the mouse pointer, a plurality of combinations of “+” or “−” and note types such as half notes and eighth notes are displayed. The user selects a desired one from these by clicking. For example, as shown in FIG. 11, when a combination of “+” and an eighth note is selected, the start point of the volume change pattern can be shifted in the slow direction by the length of the eighth note.
[0113]
Returning to FIG. 9, in the subsequent step S918, a volume change pattern is generated in accordance with the set value received in step S917.
[0114]
FIG. 15 is a diagram illustrating an example of a composite volume change pattern by a generated volume change pattern and a combination. When “change pattern selection” and “combination waveform setting” as shown in FIG. 11 are performed, the “original volume change pattern” becomes as shown in FIG. 15A, and the volume change pattern of the “combination waveform” Is as shown in FIG. Then, when the “original volume change pattern” and the “combination waveform” volume change pattern are synthesized, a composite volume change pattern is generated as the final volume change pattern, as shown in FIG. . As a result, changes such as natural undulation can be expressed. From the viewpoint of realizing natural undulation, it is desirable that the volume change patterns to be combined have different periods.
[0115]
Next, the position of the volume change pattern is adjusted based on the bar line in the designated section, and the volume change pattern is made to correspond to the designated section (step S919).
[0116]
FIG. 16 is a diagram illustrating an example of correspondence between a score and a volume change pattern.
[0117]
FIG. 5A shows an example of a strong score that starts from the beginning of a measure, and FIG. 9C shows an example of a weak score that starts from the middle of a measure. For example, when the start point of the volume change pattern as shown in FIG. 5B is ST, the start point ST is set to the first bar line of the first bar with respect to the score of FIG.
[0118]
On the other hand, even when the “start position” has been set, first, as shown in FIG. 4D, the start point ST of the volume change pattern is set to a bar line with respect to the score of FIG. The However, when the “start position” is set to a combination of “−” and “dotted quarter note”, for example, as shown in FIG. A start point ST is set at the shifted position. As a result, it is possible to easily cope with a weak occurrence.
[0119]
Even in the case of a weak song, the bar line may be more important for expression than the break of the phrase, so in that case, do not set the start position shift even for a weak song. do it.
[0120]
Next, in step S920, the volume value (velocity) of the notes in the designated section is corrected and set in accordance with the volume change pattern set correspondingly. Then, the music data is updated and recorded with the corrected setting value (step S921), and this process is terminated.
[0121]
Note that in the volume value correction setting, the height of the velocity value is completely matched to the volume change pattern, but the already set velocity value depends on the value specified by the volume change pattern. You may make it correct in the ratio.
[0122]
On the other hand, as a result of the determination in step S915, if “volume change processing” is not selected, other types of facial expression are applied (step S922), and this processing ends.
[0123]
According to the present embodiment, the volume change pattern having a waveform that changes periodically is formed, and the volume characteristic of the song data is corrected based on the formed volume change pattern. Periodic changes in volume can be added, and subtle changes in volume that are not as clear as crescendo and decrescendo can be added, giving natural expression to song data. In addition, since a composite volume change pattern is formed by combining two or more types of volume change patterns, changes such as natural undulation can be expressed, and more natural expression can be achieved.
[0124]
In addition, by setting the temporal position of the volume change pattern with respect to the specified section based on the bar line, it is possible to easily cope with a strong occurrence without complicated work, and the temporal position can be arbitrarily set. Therefore, for example, it is possible to easily cope with a case of weakness, and it is possible to apply a facial expression suitable for the progression of the phrase, thereby enhancing the practicality.
[0125]
Further, since not only a straight line but also a curve is provided as a change curve type of the volume change pattern, a more vivid natural change can be given.
[0126]
Note that the period of the volume change pattern is set by the number of bars and is formed to a length related to a multiple of the bar length so that a musically natural volume change can be easily attached. However, this is not a limitation. For example, the length may be set to half the length of one measure.
[0127]
The volume change pattern is generated by calculation with various values set, but a volume change pattern table may be provided in advance, and a desired volume change pattern may be read from the table.
[0128]
In the present embodiment, the subtle inflection that does not appear in the musical notation symbol is considered. However, the clear inflection that appears in the musical notation symbol may be reproduced at the same time. In that case, if the crescendo or decrescendo obtained from the musical notation symbol is reproduced with emphasis rather than the periodic inflection due to the volume change pattern, the overall inflection due to the crescendo on the musical score can be heard. Still, it will be able to give a natural change without a certain sense.
[0129]
Music has inevitable inflections that are not described in the score. For example, inflection according to musical scale progression, or lowering the volume at the end of a phrase. By using such various volume changes in combination with the volume change by the volume change pattern, a more natural expression can be reproduced.
[0130]
Note that a storage medium in which a software program for realizing the functions of the above-described embodiments is recorded is supplied to the performance signal processing apparatus, and a computer (CPU 5 or MPU) reads out the program stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by executing.
[0131]
In this case, the program itself read from the storage medium realizes the novel function of the present invention, and the storage medium storing the program constitutes the present invention.
[0132]
As a storage medium for supplying the program, for example, a portable storage such as the hard disk of the HDD 11, the disk of the CD-ROM 12, the MO, MD, FD 24, CD-R, magnetic tape, nonvolatile memory card, ROM, etc. Media can be used. The program may be transferred directly from the portable storage medium to the RAM 7 as in the above embodiments, or may be transferred from the storage medium to the hard disk in the HDD 11. The program may be supplied from the server computer 102 via another MIDI device 100 or the communication network 101.
[0133]
Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but the OS running on the computer based on the instructions of the program performs the actual processing. The functions of the above-described embodiments may be realized by performing part or all of the processing.
[0134]
Furthermore, after the program read from the storage medium is written in the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program. Alternatively, the CPU 5 or the like provided in the function expansion unit may perform part or all of the actual processing, and the functions of the above-described embodiments may be realized by the processing.
[0135]
【The invention's effect】
  As described above, the claims of the present invention1, 4, 5, 6According to this, it is possible to automatically divide and divide music data to reduce the burden on the user and to add natural expressions to music data with a simple operation. In addition, expression suitable for each segment of song data can be appropriately performed with simple operations on the entire song data..
[Brief description of the drawings]
FIG. 1 is a block diagram showing an overall configuration of a performance signal processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a view showing a flowchart of a main routine in the same form.
FIG. 3 is a diagram showing a flowchart of panel processing executed in step S202 of FIG.
FIG. 4 is a view illustrating a flowchart continued from FIG. 3 of the panel processing executed in step S202 of FIG.
FIG. 5 is a diagram illustrating an example of song data division and inflection data.
FIG. 6 is a diagram exemplifying a pair of music data and inflection data corresponding to each other (before decompression of inflection data);
FIG. 7 is a diagram exemplifying a pair of music data and inflection data corresponding to each other (after expansion of inflection data);
FIG. 8 is a diagram exemplifying a pair of song data and inflection data corresponding to each other (after velocity change);
FIG. 9 is a diagram showing a flowchart of panel processing executed in step S202 of FIG. 2 in the second embodiment of the present invention.
10 is a diagram showing a flowchart of panel processing continued from FIG. 9 executed in step S202 of FIG.
FIG. 11 is a diagram showing an example of a selection menu of volume change patterns displayed on the display device.
FIG. 12 is a diagram illustrating an example of a volume change pattern to be set.
FIG. 13 is a diagram illustrating an example of a change curve type.
FIG. 14 is a diagram illustrating a method for specifying a temporal position.
FIG. 15 is a diagram illustrating an example of a composite volume change pattern by a generated volume change pattern and a combination.
FIG. 16 is a diagram illustrating an example of a correspondence between a score and a volume change pattern.
[Explanation of symbols]
2 panel switch, 3 key press detection circuit, 5 CPU (music data dividing means, inflection data specifying means, inflection data expansion / contraction means, musical sound characteristic control means, pattern forming means, volume characteristic setting means), 7 RAM, 9 display control circuit 11 hard disk drive (HDD) 15 sound source circuit 16 effect circuit 17 sound system 19 display device 20 mouse information detection circuit 21 mouse (position specifying means)

Claims (6)

曲データの編集が可能な演奏信号処理装置において、
曲データを複数の区分に分割する曲データ分割手段と、
パラメータの時間的変化を規定する抑揚データのうちいずれかの抑揚データを特定する抑揚データ特定手段と、
前記曲データ分割手段により分割された少なくとも1つの区分に合わせて前記抑揚データ特定手段により特定された抑揚データを時間的に伸縮する抑揚データ伸縮手段と、
前記抑揚データ伸縮手段により伸縮された抑揚データで規定されるパラメータの時間的変化に基づいて前記曲データの前記少なくとも1つの区分の楽音特性を制御する楽音特性制御手段とを備え、
前記抑揚データは複数の区分で構成され、前記曲データ分割手段による前記曲データの分割及び前記抑揚データ特定手段による前記抑揚データの特定は、前記曲データを構成する区分の数が前記抑揚データを構成する区分の数と一致するようになされ、且つ、前記抑揚データ伸縮手段による前記抑揚データの伸縮は、前記曲データの各区分に対応する前記抑揚データの各区分毎に行われると共に、前記楽音特性制御手段による前記楽音特性の制御は、前記抑揚データの各区分に対応する前記曲データの各区分毎に行われることを特徴とする演奏信号処理装置。
In a performance signal processing apparatus capable of editing song data,
Song data dividing means for dividing the song data into a plurality of sections;
Intonation data specifying means for specifying any intonation data among inflection data that defines temporal changes in parameters;
Intonation data expansion / contraction means for temporally expanding / contracting intonation data specified by the intonation data specifying means in accordance with at least one section divided by the music data dividing means;
A tone characteristic control means for controlling a tone characteristic of the at least one section of the music data based on a temporal change of a parameter defined by intonation data expanded / contracted by the inflection data expansion / contraction means,
The intonation data is composed of a plurality of sections, and the composition of the composition data by the composition data dividing means and the specification of the inflection data by the intonation data specifying means are performed by the number of sections constituting the composition data being the inflection data. And the expansion / contraction of the intonation data by the intonation data expansion / contraction means is performed for each section of the intonation data corresponding to each section of the music data, and The performance signal processing apparatus according to claim 1, wherein the tone characteristic control by the characteristic control means is performed for each section of the music data corresponding to each section of the intonation data.
前記曲データ分割手段による前記曲データの分割は、分割すべき曲データ及びユーザの指定の少なくとも一方に基づいてなされることを特徴とする請求項記載の演奏信号処理装置。The division of the music data by the music data dividing means, performance signal processing apparatus according to claim 1, wherein the done on the basis of at least one of the specified music data and user to be divided. 前記抑揚データ特定手段による前記抑揚データの特定は、前記曲データ分割手段により分割された曲データに基づいてなされることを特徴とする請求項1または2記載の演奏信号処理装置。 3. The performance signal processing apparatus according to claim 1, wherein the intonation data is specified by the intonation data specifying means based on the song data divided by the song data dividing means. 曲データを複数の区分に分割する曲データ分割工程と、
パラメータの時間的変化を規定する抑揚データのうちいずれかの抑揚データを特定する抑揚データ特定工程と、
前記曲データ分割工程により分割された少なくとも1つの区分に合わせて前記抑揚データ特定工程により特定された抑揚データを時間的に伸縮する抑揚データ伸縮工程と、
前記抑揚データ伸縮工程により伸縮された抑揚データで規定されるパラメータの時間的変化に基づいて前記曲データの前記少なくとも1つの区分の楽音特性を制御する楽音特性制御工程とを有し、
前記抑揚データは複数の区分で構成され、前記曲データ分割工程による前記曲データの分割及び前記抑揚データ特定工程による前記抑揚データの特定は、前記曲データを構成する区分の数が前記抑揚データを構成する区分の数と一致するようになされ、且つ、前記抑揚データ伸縮工程による前記抑揚データの伸縮は、前記曲データの各区分に対応する前記抑揚データの各区分毎に行われると共に、前記楽音特性制御工程による前記楽音特性の制御は、前記抑揚データの各区分に対応する前記曲データの各区分毎に行われることを特徴とする演奏信号処理方法。
A song data dividing step for dividing the song data into a plurality of sections;
An inflection data specifying step for specifying any intonation data among inflection data that defines temporal changes in parameters;
An inflection data expansion / contraction step that temporally expands / contracts the inflection data identified by the inflection data identification step according to at least one section divided by the music data division step;
A musical sound characteristic control step for controlling a musical sound characteristic of the at least one section of the music data based on a temporal change of a parameter defined by the intonation data expanded / contracted by the inflection data expansion / contraction step,
The intonation data is composed of a plurality of sections, and the composition of the composition data by the composition data division step and the specification of the intonation data by the intonation data specifying step are the number of the sections constituting the composition data is the inflection data. And the expansion / contraction of the intonation data by the inflection data expansion / contraction step is performed for each section of the intonation data corresponding to each section of the music data, and the musical sound The performance signal processing method according to claim 1, wherein the control of the musical tone characteristic by the characteristic control step is performed for each section of the song data corresponding to each section of the intonation data.
コンピュータに実行させる演奏信号処理プログラムであって、
曲データを複数の区分に分割する曲データ分割モジュールと、
パラメータの時間的変化を規定する抑揚データのうちいずれかの抑揚データを特定する抑揚データ特定モジュールと、
前記曲データ分割モジュールにより分割された少なくとも1つの区分に合わせて前記抑揚データ特定モジュールにより特定された抑揚データを時間的に伸縮する抑揚データ伸縮モジュールと、
前記抑揚データ伸縮モジュールにより伸縮された抑揚データで規定されるパラメータの時間的変化に基づいて前記曲データの前記少なくとも1つの区分の楽音特性を制御する楽音特性制御モジュールとを有し、
前記抑揚データは複数の区分で構成され、前記曲データ分割モジュールによる前記曲データの分割及び前記抑揚データ特定モジュールによる前記抑揚データの特定は、前記曲データを構成する区分の数が前記抑揚データを構成する区分の数と一致するようになされ、且つ、前記抑揚データ伸縮モジュールによる前記抑揚データの伸縮は、前記曲データの各区分に対応する前記抑揚データの各区分毎に行われると共に、前記楽音特性制御モジュールによる前記楽音特性の制御は、前記抑揚データの各区分に対応する前記曲データの各区分毎に行われることを特徴とする演奏信号処理プログラム。
A performance signal processing program to be executed by a computer,
A song data division module for dividing the song data into a plurality of sections;
An inflection data identification module that identifies any intonation data among inflection data that defines temporal changes in parameters;
An inflection data expansion / contraction module that temporally expands / contracts inflection data identified by the inflection data identification module in accordance with at least one segment divided by the song data division module;
A musical sound characteristic control module for controlling a musical sound characteristic of the at least one section of the music data based on a temporal change of a parameter defined by intonation data expanded / contracted by the inflection data expansion / contraction module;
The intonation data is composed of a plurality of sections, and the composition of the composition data by the composition data division module and the specification of the inflection data by the inflection data identification module are the number of sections constituting the composition data. And the expansion / contraction of the intonation data by the intonation data expansion / contraction module is performed for each section of the intonation data corresponding to each section of the music data, and The performance signal processing program, wherein the control of the musical tone characteristics by the characteristic control module is performed for each section of the song data corresponding to each section of the intonation data.
請求項に記載の演奏信号処理プログラムをコンピュータ読み取り可能に格納したことを特徴とする記憶媒体。A storage medium storing the performance signal processing program according to claim 5 in a computer-readable manner.
JP2001292943A 2000-12-14 2001-09-26 Performance signal processing apparatus, method and program, and storage medium Expired - Fee Related JP3722035B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001292943A JP3722035B2 (en) 2000-12-14 2001-09-26 Performance signal processing apparatus, method and program, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-380371 2000-12-14
JP2000380371 2000-12-14
JP2001292943A JP3722035B2 (en) 2000-12-14 2001-09-26 Performance signal processing apparatus, method and program, and storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005075309A Division JP4123242B2 (en) 2000-12-14 2005-03-16 Performance signal processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2002244657A JP2002244657A (en) 2002-08-30
JP3722035B2 true JP3722035B2 (en) 2005-11-30

Family

ID=26605831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001292943A Expired - Fee Related JP3722035B2 (en) 2000-12-14 2001-09-26 Performance signal processing apparatus, method and program, and storage medium

Country Status (1)

Country Link
JP (1) JP3722035B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4735221B2 (en) * 2005-12-06 2011-07-27 ヤマハ株式会社 Performance data editing apparatus and program
JP4983012B2 (en) * 2005-12-08 2012-07-25 ヤマハ株式会社 Apparatus and program for adding stereophonic effect in music reproduction
JP2007280485A (en) 2006-04-05 2007-10-25 Sony Corp Recording device, reproducing device, recording and reproducing device, recording method, reproducing method, recording and reproducing method, and recording medium
JP5259212B2 (en) * 2008-02-26 2013-08-07 Kddi株式会社 Music-linked advertisement distribution method, apparatus and system
JP5509961B2 (en) * 2010-03-19 2014-06-04 ヤマハ株式会社 Phrase data extraction device and program

Also Published As

Publication number Publication date
JP2002244657A (en) 2002-08-30

Similar Documents

Publication Publication Date Title
JP3812328B2 (en) Automatic accompaniment pattern generation apparatus and method
KR100455752B1 (en) Method for analyzing digital-sounds using sounds of instruments, or sounds and information of music notes
US7094962B2 (en) Score data display/editing apparatus and program
JP3915807B2 (en) Automatic performance determination device and program
JP4561636B2 (en) Musical sound synthesizer and program
JP3722035B2 (en) Performance signal processing apparatus, method and program, and storage medium
JP3239897B1 (en) Songwriting device and program
JP4123242B2 (en) Performance signal processing apparatus and program
JP4670686B2 (en) Code display device and program
JP2006126710A (en) Playing style determining device and program
JP3664126B2 (en) Automatic composer
JP3752859B2 (en) Automatic composer and recording medium
JP7425558B2 (en) Code detection device and code detection program
JP3627675B2 (en) Performance data editing apparatus and method, and program
JP3835131B2 (en) Automatic composition apparatus and method, and storage medium
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP4735221B2 (en) Performance data editing apparatus and program
JP3624850B2 (en) Performance processing apparatus, control method therefor, and program
JP3885803B2 (en) Performance data conversion processing apparatus and performance data conversion processing program
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP3960242B2 (en) Automatic accompaniment device and automatic accompaniment program
JP3797180B2 (en) Music score display device and music score display program
JP2001255873A (en) Device and method for guiding performance, recording medium with recorded performance guide program, and recording medium with recorded guide performance data
JP2003099053A (en) Playing data processor and program
CN117877459A (en) Recording medium, sound processing method, and sound processing system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050613

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050905

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090922

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110922

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120922

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130922

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees