JP3680776B2 - Performance information processing apparatus, method and program - Google Patents
Performance information processing apparatus, method and program Download PDFInfo
- Publication number
- JP3680776B2 JP3680776B2 JP2001277668A JP2001277668A JP3680776B2 JP 3680776 B2 JP3680776 B2 JP 3680776B2 JP 2001277668 A JP2001277668 A JP 2001277668A JP 2001277668 A JP2001277668 A JP 2001277668A JP 3680776 B2 JP3680776 B2 JP 3680776B2
- Authority
- JP
- Japan
- Prior art keywords
- note data
- data
- voice part
- classification
- note
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、演奏情報処理装置に関し、より詳しくは、演奏情報の音量バランスを適切に編集する演奏情報処理装置に関する。
【0002】
【従来の技術】
自動演奏装置等で、音符の情報のみのMIDIデータ等の楽曲データを演奏すると機械的で無表情な演奏になってしまう。これを、より自然な演奏にする為には、様々な音楽的表現や、演奏表現を制御データとして楽曲データに付け加えてやる必要がある。
【0003】
例えば、複音で演奏されたピアノ音色のMIDIデータなどに対して、メロディ音とハーモニー音を区別して、メロディ音は大きめに、ハーモニー音は小さめに音量バランスを制御することで演奏表現を付加することが効果的である。
【0004】
【発明が解決しようとする課題】
人間が、楽譜を見て演奏する際は、それが複音の楽譜であれば、自分の演奏を聞きながら音量のバランスをとることができる。しかし、コンピュータ等の自動演奏装置に自然な音量バランスで演奏させるためには、予め音量バランスを考慮して楽曲データに演奏表現を加えてやる必要が有る。
【0005】
音量バランスをMIDIデータ等の楽曲データに付加するためには、楽曲の特性や、楽曲データの取り扱いを熟知している必要がある。また、このようなことを熟知しているものにとっても、手作業で、音量バランスを変更するのは、煩雑であり、時間を要する。
【0006】
本発明の目的は、楽曲データに対して自動で簡単に演奏表現を付加することができる演奏情報処理装置を提供することである。
【0007】
【課題を解決するための手段】
本発明の一観点によれば、演奏情報処理装置は、同時又はほぼ同時に発音開始の指定がされている複数の音符データと、同時又はほぼ同時に発音開始の指定がされている他の音符データがない単音の音符データとを楽曲データから抽出する抽出手段と、前記抽出した複数の音符データの音高を比較し、該複数の音符データのそれぞれを最高声部、最低声部及びその他の声部のいずれかに分類する第1の分類手段と、前記抽出した単音の音符データと前記第1の分類手段により分類された前記複数の音符データとを比較し、前記抽出した単音の音符データを最高声部、最低声部及びその他の声部のいずれかに分類する第2の分類手段と、前記第1及び第2の分類手段による分類に応じて、前記複数の音符データ及び単音の音符データの発音音量を制御する制御手段とを有する。
【0008】
【発明の実施の形態】
図1は、本発明の実施例による演奏情報処理装置1を構成するコンピュータ又は電子楽器のハードウェア構成を示すブロック図である。
【0009】
演奏情報処理装置1はバス2、ROM3、RAM4、CPU5、タイマ6、外部記憶装置7、検出回路8、設定操作子9、演奏操作子10、表示回路11、ディスプレイ12、音源回路13、効果回路(DSP)14、サウンドシステム15、MIDIインターフェイス16、通信インターフェイス18を含んで構成される。
【0010】
バス2には、ROM3、RAM4、CPU5、タイマ6、外部記憶装置7、検出回路8、表示回路11、音源回路13、DSP14、MIDIインターフェイス16、MIDI機器17、通信インターフェイス18が接続される。
【0011】
ROM3には、各種パラメータ及び制御プログラム、楽曲データ又は本実施例を実現するためのプログラム等を記憶することができる。この場合、プログラム等を重ねて、外部記憶装置7に記憶する必要は無い。
【0012】
RAM4は、フラグ、レジスタ又はバッファ、各種パラメータ等を記憶するCPU5のワーキングエリアを有する。
【0013】
CPU5は、ROM3又は、外部記憶装置7に記憶されている制御プログラム等に従い、演算又は制御を行う。タイマ6は、基本クロック信号、割り込み処理タイミング等をCPU5に供給する。
【0014】
外部記憶装置7は、外部記憶装置用のインターフェイスを含み、そのインターフェイスを介してバス2に接続される。外部記憶装置7は、例えばフロッピー(登録商標)ディスクドライブ(FDD)、ハードディスクドライブ(HDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ、DVD(Digital Versatile Disc)ドライブ、半導体メモリ等である。
【0015】
外部記憶装置7には、楽曲データ、各種パラメータ、各種データ、及び本実施例を実現するためのプログラム等を記憶することができる。
【0016】
楽曲データは、例えばSMF(Standard MIDI File)フォーマットに準拠した、自動楽曲データであり、先頭に記録される初期設定情報と、発音タイミングを表すタイミングデータと、各タイミング毎のイベントを表すイベントデータとを含んで構成されている。また、楽曲データMDは複数のトラックで構成することも出来る。
【0017】
外部記憶装置7として、ハードディスクドライブ(HDD)が接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等は、外部記憶装置7内のハードディスク(HDD)に記憶させることもできる。ハードディスクからRAM4に制御プログラム等を読み出すことにより、ROM3に制御プログラム等を記憶させている場合と同様の動作をCPU5にさせることができる。このようにすると、制御プログラム等の追加やバージョンアップ等が容易に行える。
【0018】
また、ハードディスクドライブに加えて、CD−ROMドライブが接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等をCD−ROMに記憶させることもできる。CD−ROMからハードディスクに制御プログラムや本実施例を実現するためのプログラム等をコピーすることができる。制御プログラム等の新規インストールやバージョンアップを容易に行うことができる。
【0019】
設定操作子9は、検出回路8に接続され、例えば、文字入力用キーボード、マウス、ロータリーエンコーダ、スイッチ、パッド、フェーダ、スライダ、演奏用の鍵盤、ジョイスティック、ジョグシャトル等であり、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。
【0020】
また、設定操作子9は、マウス等の他の操作子を用いて操作するディスプレイ12上に表示されるソフトスイッチ等でもよい。
【0021】
演奏操作子10は、検出回路8に接続され、ユーザの演奏動作に従い、演奏信号を供給する。演奏操作子10として、演奏用の鍵盤、パッド等を用いることができる。なお、演奏操作子10はこれらに限らず、ユーザが演奏情報を入力できるものであればどのようなものでもよい。例えば、文字入力用のキーボードや、マウス、ジョイスティック等を演奏操作子10として用いることも出来る。
【0022】
表示回路11は、ディスプレイ12に接続され、各種情報をディスプレイ12に表示することができる。ユーザは、このディスプレイ12に表示される情報を参照して、各種情報の入力及び各種設定を行う。ディスプレイ12には、楽曲データに関する情報や、楽譜等を表示することが出来る。また、ディスプレイ12は、外部の表示装置を接続することにより構成してもよい。
【0023】
また、ディスプレイ12に、タッチパネルを用いることができる。この場合は、ディスプレイ12上に表示されるスイッチ等をユーザが押すことによりユーザの指示を入力することが出来るので、設定操作子9の機能を兼ねることが出来る。
【0024】
音源回路13は、外部記憶装置7、ROM3又はRAM4等に記録された楽曲データ若しくはMIDIインターフェイス16に接続されたMIDI機器17等から供給される演奏信号、MIDI信号等に応じて楽音信号を生成し、DSP14を介して、サウンドシステム15に供給する。
【0025】
DSP14は、音源回路13から供給される楽音信号に対して、各種音楽的効果を付与する。
【0026】
サウンドシステム15は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。
【0027】
なお、音源回路13は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO(Voltage Controlled Oscillator)+VCF(Voltage Controlled Filter)+VCA(Voltage Controlled Amplifier)のアナログシンセサイザ方式等、どのような方式であってもよい。
【0028】
また、音源回路13は、専用のハードウェアを用いて構成するものに限らず、DSP(Digital Signal Processor)+マイクロプログラムを用いて構成してもよいし、CPU+ソフトウェアのプログラムで構成するようにしてもよいし、サウンドカードのようなものでもよい。
【0029】
さらに、1つの音源回路を時分割で使用することにより複数の発音チャンネルを形成するようにしてもよいし、複数の音源回路を用い、1つの発音チャンネルにつき1つの音源回路で複数の発音チャンネルを構成するようにしてもよい。
【0030】
MIDIインターフェイス(MIDI I/F)16は、MIDI機器17、その他の楽器、音響機器、コンピュータ等に接続できるものであり、少なくともMIDI信号を送受信できるものである。MIDIインターフェイス16は、専用のMIDIインターフェイスに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェイスを用いて構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0031】
MIDI機器17は、MIDIインターフェイス16に接続される音響機器及び楽器等である。MIDI機器17の形態は鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信工程を用いて各装置を接続するものであってもよい。ユーザは、このMIDI機器17を演奏(操作)することにより演奏情報の入力を行うこともできる。
【0032】
また、MIDI機器17は、演奏情報以外の各種データ及び各種設定を入力するための操作子としても用いることが出来る。
【0033】
通信インターフェイス18は、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク19に接続可能であり、該通信ネットワーク19を介して、サーバコンピュータと接続し、HDD等外部記憶装置7、又はRAM4等内に、サーバコンピュータから楽曲データ、制御プログラムや本実施例を実現するためのプログラム等をダウンロードすることができる。
【0034】
なお、通信インターフェイス18及び通信ネットワーク19は、有線のものに限らず無線でもよい。また双方を備えていてもよい。
【0035】
図2は、演奏情報処理装置1で行うメイン処理を表すフローチャートである。
【0036】
ステップSA1ではメイン処理をスタートして、次のステップSA2に進む。
【0037】
ステップSA2では、RAM4内の各種フラグやバッファをクリアして、初期設定を行う。その後、次のステップSA3に進む。
【0038】
ステップSA3では、本実施例による楽曲データ加工処理を行う楽曲データの選択をする。楽曲データの選択は、例えば、外部記憶装置7等に保存されている楽曲データをディスプレイ12等にリスト表示し、ユーザがそれを参照して、設定操作子9等により選択する。選択された楽曲データは、RAM4に読み込まれる。その後、次のステップSA4に進む。
【0039】
ステップSA4では、設定操作子9の操作状況を受付け、機器の設定や、本実施例による楽曲データ加工処理の設定、自動演奏等の指示、その他の設定を実行する。例えば、後述する楽曲データ加工処理を行う楽曲データの対象トラックを選択する。対象トラックは単一でもよいし、複数でもよい。また、対象トラック中の加工処理を行う範囲(加工範囲)を設定する。加工範囲は、対象トラックの全部でもよいし、一部でもよい。その後、次のステップSA5に進む。
【0040】
ステップSA5では、ステップSA3で選択され読み込まれた楽曲データに対して、後に図3を参照して説明する楽曲データ加工処理を行う。その後、ステップSA6に進む。
【0041】
ステップSA6では、ステップSA5で加工された楽曲データ、その他の楽曲データ又は演奏者が演奏操作子10を介して入力する演奏情報に基づき演奏信号を生成する。その後、次のステップSA7に進む。
【0042】
ステップSA7では、ステップSA6で、生成した演奏信号を、例えば、音源回路13等に送り、楽音信号を生成させ、DSP14で効果を付加して、サウンドシステム15より発音させる。その後、次のステップSA8に進みメイン処理を終了する。
【0043】
なお、楽曲データの再生が設定されていない場合は、ステップSA5の楽曲データ加工処理の後、ステップSA8に進んで、メイン処理を終了する。
【0044】
図3は、図2のステップSA5で行う楽曲データ加工処理を表すフローチャートである。
【0045】
この楽曲データ加工処理は、複音の楽曲データから強調すべき音(音符データ)とそうでない音を分離抽出し、音量バランスを適切に制御するための処理である。
【0046】
具体的には、同時刻に発音中となる音符データ群を検索し、その最高音を最高声部(メロディライン)、最低音を最低声部(ベースライン)とし、音量を強めに設定する。単に、同時又はほぼ同時に発音開始する音符データ群を検索することもできるが、そのようにすると、上声部と下声部でリズムが違う場合に不都合が生じてしまう。
【0047】
なお、本明細書において、「ほぼ同時に発音される」(又は「ほぼ同時刻に発音中となる」)音符データ群とは、音楽的に又は聴感上同時に発音していると考えられる程度の時間差で発音される(又は発音中となる)複数の音符データである。また、音楽的に和音としてみなされる一連の音符群も「ほぼ同時に発音される」音符データ群として考えられる。
【0048】
また、単音の場合は、前後の状況により最高声部、最低声部又はその他の声部のいずれかに決定して、音量を設定する。その他の声部のうち、同時に発音している音(音符データ)に対して、音長が比較的短いものは、メロディ(又は装飾的な音)であるとみなして、音量を強めに設定する。それ以外のものは音量を弱めに設定する。
【0049】
ステップSB1では、楽曲データ加工処理を開始して、次のステップSB2に進む。
【0050】
ステップSB2では、図2のステップSA4で選択された対象トラックが単一トラックであるか、複数トラックであるかを判断する。単一トラックに対する加工処理である場合は、YESの矢印で示すステップSB3に進む。複数トラックにまたがる加工処理である場合は、NOの矢印で示すステップSB20に進む。
【0051】
ステップSB3では、加工処理対象トラックから、一定時間分の音符データ群を対象音符データとして抽出する。対象音符データの抽出は、加工範囲の先頭タイミングから順次行われる。その後、次のステップSB4に進む。
【0052】
ステップSB4では、ステップSB3で抽出した音符データ群の中に同時刻若しくはほぼ同時刻に発音する複数の音符データがあるか否かを検出する。ここで、検出する音符データは、同時(又はほぼ同時)に発音開始するものだけでなく、同時刻に(又はほぼ同時刻に)発音中となる複数の音符データを含む。ほぼ同時刻に発音する複数の音符データがある場合は、YESの矢印で示すステップSB5に進み、ない場合は、NOの矢印で示すステップSB15に進む。
【0053】
ステップSB5では、ステップSB4で検出した同時刻若しくはほぼ同時刻に発音する複数の音符データの平均音長を算出する。その後、次のステップSB6に進む。
【0054】
ステップSB6では、ステップSB4で検出した同時刻若しくはほぼ同時刻に発音する複数の音符データの中から、加工特定されていない音符データを1つ抽出する。その後、次のステップSB7に進む。
【0055】
ステップSB7では、ステップSB6で抽出した音符データの音長がステップSB5で算出した平均音長の半分以下であるか否かを判断する。音長が平均音長の半分以下である場合、すなわち、周囲の音符データに対して比較的音長が短い場合は、YESの矢印で示すステップSB8に進む。音長が平均音長の半分以下でない場合、すなわち、比較的に音長が長い場合は、NOの矢印で示すステップSB9に進む。
【0056】
ステップSB8では、音長が平均音長の半分以下である音符データを音量の強調対象(メロディライン)として加工特定する。音長が平均音長の半分以下である音符データを音量の強調対象とするのは、それらがメロディの動きと推定されるからである。なお、メロディの動きと判断できればよいので、平均音長の半分以下に限らず、3分の1、4分の1以下などその他の基準で判断するようにしてもよい。その後、ステップSB14に進む。
【0057】
ステップSB9では、ステップSB6で抽出した音符データの音高が、該音符データの発音開始時刻に発音中となる複数の音符データ中の最高音であるか否かを判断する。すなわち、ステップSB4で検出した複数の音符データの内の最高音であるか否かを検出する。最高音であれば、YESの矢印で示すステップSB10に進む。最高音でなければ、NOの矢印で示すステップSB11に進む。
【0058】
ステップSB10では、ステップSB9で発音開始時刻に発音中となる複数の音符データ中の最高音であると判断された音符データをメロディライン(最高声部)として加工特定する。なお、本実施例では、メロディラインは音量の強調対象である。その後、ステップSB14に進む。
【0059】
ステップSB11では、ステップSB6で抽出した音符データの音高が、該音符データの発音開始時刻に発音中となる複数の音符データ中の最低音であるか否かを判断する。すなわち、ステップSB4で検出した複数の音符データの内の最低音であるか否かを検出する。最低音であれば、YESの矢印で示すステップSB12に進む。最低音でなければ、NOの矢印で示すステップSB13に進む。
【0060】
ステップSB12では、ステップSB11で発音開始時刻に発音中となる複数の音符データ中の最低音であると判断された音符データをベースライン(最低声部)として加工特定する。なお、本実施例では、ベースラインは音量の強調対象である。その後、ステップSB14に進む。
【0061】
ステップSB13では、ステップSB6で抽出した音符データをその他のパート(声部)として加工特定する。その他の声部は音量の強調対象ではないので、後に音量を弱めに設定する。その後、次のステップSB14に進む。
【0062】
ステップSB14では、ステップSB4で検出した複数の音符データの全てについて加工特定が終了したか否かを判断する。加工特定が終了したらYESの矢印で示すステップSB19に進む。加工特定が終了していなければ、NOの矢印で示すステップSB6に戻る。
【0063】
ステップSB15からステップSB18までは、ステップSB3で抽出した音符データ群の中に同時刻若しくはほぼ同時刻に発音する複数の音符データがないと、前述のステップSB4で判断された場合、すなわち、今回抽出した対象音符データが単音である場合の処理である。
【0064】
ステップSB15では、対象音符データの周囲の音符データで既に最低声部及び最高声部として加工特定されているものがあるか否かを検出する。加工特定されている音符データがある場合は、YESの矢印で示すステップSB17に進む。加工特定されている音符データがない場合は、NOの矢印で示すステップSB16に進む。
【0065】
ステップSB16では、対象音符データの加工特定を保留して、ステップSB19に進む。単音の場合は、対照音符データの周囲で最低声部及び最高声部として加工特定されている複数の音符データに応じて、加工特定するため、他の音符データが加工特定されるまでは、加工特定することができない。よって、ここでは一旦、対象音符データの加工特定を保留する。
【0066】
ステップSB17では、対象音符データを既に最低声部及び最高声部として加工特定した周囲のタイミングの音符データと比較する。その後、次のステップSB18に進む。
【0067】
比較の方法は、例えば、対象音符データの前後方向の最低声部、最高声部及びその他の声部として加工特定した複数の音符データについて重み付け演算を行い、どの音符が一番近いかを求め、一番近い音符と同じ声部に加工特定する。
【0068】
重み付け演算の方法としては、例えば、以下の式(A)で求められる評価指数の値が最も低い音符データを同一声部の音符データとする。
【0069】
評価指数=2^(時間的近さ÷1小節の長さ×音高差)…(A)
なお、時間的近さは、前方の音符データと比較する場合は、比較音符データの発音終了時間と対象音符データの発音開始時間の差であり、後方の音符データと比較する場合は、対象音符データの発音終了時間と比較音符データの発音開始時間の差である。
【0070】
ステップSB18では、ステップSB17での比較結果に応じて、対象音符データを加工特定する。その後、ステップSB19に進む。
【0071】
ステップSB19では、加工範囲内の全ての音符データにつき加工特定が終了したか否かを判断する。加工特定が終了した場合は、YESの矢印で示すステップSB22に進む。加工特定が終了していない場合は、NOの矢印で示すステップSB3に戻る。
【0072】
ステップSB20からステップSB21は、図2のステップSA4で選択された対象トラックが複数トラックである場合の処理である。複数トラックが選択された場合は、トラックごとにパート(声部)を判断する。
【0073】
ステップSB20では、各トラックの同時刻若しくはほぼ同時刻に発音する複数の音符データを取得する。その後、次のステップSB21に進む。
【0074】
ステップSB21では、ステップSB20で取得した音符データを比較して、各トラックのパート(声部)を決定する。その後、ステップSB22に進む。
【0075】
ステップSB22では、加工特定の結果に従い音符データ(又はトラック)の音量を変更する。音量の変更は、例えば、最高声部(メロディライン)のベロシティ値を+24、最低声部(ベースライン)のベロシティ値を+8、それ以外の声部のベロシティ値を−8とすることにより行われる。その後、次のステップSB23に進む。
【0076】
ステップSB23では、ステップSB22で音量を変更した楽曲データの記録処理を行う。記録処理は、一時的に加工処理を施した楽曲データをRAM等に記録するだけでもよいし、外部記憶装置に記憶してもよい。また、加工処理前の楽曲データ上に上書きするようにしてもよいし、別のファイルとして保存してもよい。その後、次のステップSB24に進み、楽曲データ加工処理を終了する。
【0077】
以上、本実施例によれば、楽曲データの複音(和音)部分の音符データをそれぞれの音高値に従い、適切なパート(声部)に指定することができる。また、楽曲データの単音部分も周囲の音符データと比較することにより、適切なパートに指定することができる。
【0078】
また、本実施例によれば、楽曲データ中の音符データの音量を、該音符データのパートに従い、調節することができる。パートに従い楽曲データを適切な音量に設定することができるので、より自然な音量バランスで自動演奏を行うことができる。
【0079】
また、本実施例によれば、対象音符データと同時又はほぼ同時に発音する音符データの平均音長を算出し、該対象音符データの音長と比較することにより、比較的音長の短い音符データを抽出することができる。また、比較的音長の短い音符データをメロディラインとして、音量を強調することにより、自然な音量バランスでの自動演奏をすることができる。
【0080】
また、本実施例によれば、複数のトラックを有する楽曲データの各トラックを適切なパートに指定することができる。また、各パートごとに適切な音量の設定を行うことができるので、より自然な音量バランスで自動演奏を行うことができる。
【0081】
なお、本実施例では、特定の条件に合致した音符データの音量を強調するのみであったが、強調だけをすると、ハーモニーのバランスをとるという結果に加えて、ハーモニーの音量が増大してしまう虞がある。よって、特定の条件に合致しなかった音符データについては、音量を弱くすることにより、ハーモニー全体の音量を編集前後で一定に保つことが出来る。また、このようにするとハーモニー部分と、それ以外の部分での音量差が生じなくなる。
【0082】
なお、楽曲データ(演奏情報)のフォーマットは、演奏イベントの発生時刻を1つ前のイベントからの時間で表した「イベント+相対時間」、演奏イベントの発生時刻を曲や小節内における絶対時間で表した「イベント+絶対時間」、音符の音高と符長あるいは休符と休符長で楽曲情報を表した「音高(休符)+符長」、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域に演奏イベントを記憶した「ベタ方式」等、どのような形式でもよい。
【0083】
さらに、複数チャンネル分の楽曲データの記憶方法としては、複数のチャンネルのデータが混在記憶された形式でもよいし、各チャンネルのデータがトラック毎に分かれて記憶されている形式でもよい。
【0084】
さらに、またメモリ上において、時系列の楽曲情報が連続するアドレス領域に記憶されていてもよいし、飛び飛びのアドレス領域に散在して記憶されているデータを、連続するデータとして別途管理するようにしてもよい。すなわち、時系列的に連続するデータとして管理することができればよく、メモリ上で連続して記憶されているか否かは問題ではない。
【0085】
なお、本実施例の演奏情報処理装置1は電子楽器、パソコン+アプリケーションソフトウェアの形態、携帯電話等の携帯型通信端末の形態の他、カラオケ装置や、ゲーム装置、自動演奏ピアノなどどのような形態をとってもよい。
【0086】
演奏情報処理装置1が、電子楽器である場合、その形態は鍵盤楽器に限らず、管楽器タイプ、弦楽器タイプ、打楽器タイプ等、どのような形態でもよい。
【0087】
また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信工程を用いて各装置を接続するものであってもよい。
【0088】
なお、本実施例は、本実施例に対応するコンピュータプログラム等をインストールした市販のコンピュータ等によって、実施させるようにしてもよい。
【0089】
その場合には、本実施例に対応するコンピュータプログラム等を、CD−ROMやフロッピーディスク等の、コンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。
【0090】
そのコンピュータ等が、LAN、インターネット、電話回線等の通信ネットワークに接続されている場合には、通信ネットワークを介して、コンピュータプログラムや各種データ等をコンピュータ等に提供してもよい。
【0091】
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。
【0092】
【発明の効果】
以上説明したように、本発明によれば、楽曲データに対して自動で簡単に演奏表現を付加することができる。
【図面の簡単な説明】
【図1】 本発明の実施例による演奏情報処理装置1を構成するコンピュータ又は電子楽器のハードウェア構成を示すブロック図である。
【図2】 演奏情報処理装置1で行うメイン処理を表すフローチャートである。
【図3】 図2のステップSA5で行う楽曲データ加工処理を表すフローチャートである。
【符号の説明】
1…演奏情報処理装置、2…バス、3…ROM、4…RAM、5…CPU、6…タイマ、7…外部記憶装置、8…検出回路、9…設定操作子、10…演奏操作子、11…表示回路、12…ディスプレイ、13…音源回路、14…DSP、15…サウンドシステム、16…MIDI I/F、17…電子機器、18…通信I/F、19…通信ネットワーク[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a performance information processing apparatus, and more particularly to a performance information processing apparatus that appropriately edits a volume balance of performance information.
[0002]
[Prior art]
If music data such as MIDI data containing only note information is played by an automatic performance device or the like, the performance becomes mechanical and expressionless. In order to make this a more natural performance, it is necessary to add various musical expressions and performance expressions to the music data as control data.
[0003]
For example, for a piano tone MIDI data played with multiple sounds, distinguishing the melody sound from the harmony sound, and adding a performance expression by controlling the volume balance so that the melody sound is larger and the harmony sound is smaller. Is effective.
[0004]
[Problems to be solved by the invention]
When human beings look at a score and perform it, if it is a multi-score score, they can balance the volume while listening to their performance. However, in order for an automatic performance device such as a computer to perform with a natural volume balance, it is necessary to add a performance expression to the music data in advance in consideration of the volume balance.
[0005]
In order to add volume balance to music data such as MIDI data, it is necessary to be familiar with the characteristics of music and the handling of music data. Further, even for those who are familiar with such things, it is complicated and time-consuming to manually change the volume balance.
[0006]
An object of the present invention is to provide a performance information processing apparatus capable of automatically and easily adding performance expressions to music data.
[0007]
[Means for Solving the Problems]
According to one aspect of the present invention, the performance information processing apparatus includes a plurality of note data for which start of sound generation is specified simultaneously or substantially simultaneously and other note data for which start of sound generation is specified simultaneously or substantially simultaneously. Extracting the note data of a single note from the music data, and comparing the pitches of the plurality of extracted note data, the highest note part, the lowest voice part and other voice parts of each of the plurality of note data Comparing the extracted single note data with the plurality of note data classified by the first classification means, and extracting the extracted single note data to the highest A second classifying unit that classifies the voice part, the lowest voice part, and the other voice part, and the plurality of note data and single note data according to the classification by the first and second classifying units. Pronunciation volume And a control means for controlling.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a hardware configuration of a computer or an electronic musical instrument constituting a performance
[0009]
The performance
[0010]
Connected to the bus 2 are
[0011]
The
[0012]
The
[0013]
The
[0014]
The
[0015]
The
[0016]
The music data is, for example, automatic music data compliant with the SMF (Standard MIDI File) format, initial setting information recorded at the beginning, timing data representing the sound generation timing, event data representing an event at each timing, It is comprised including. The music data MD can also be composed of a plurality of tracks.
[0017]
When a hard disk drive (HDD) is connected as the
[0018]
When a CD-ROM drive is connected in addition to the hard disk drive, a control program or a program for realizing the present embodiment can be stored in the CD-ROM. A control program, a program for realizing the present embodiment, and the like can be copied from the CD-ROM to the hard disk. New installation and version upgrade of control programs and the like can be easily performed.
[0019]
The
[0020]
The
[0021]
The
[0022]
The
[0023]
Further, a touch panel can be used for the
[0024]
The
[0025]
The
[0026]
The
[0027]
The
[0028]
Further, the
[0029]
Further, a plurality of tone generation channels may be formed by using one tone generator circuit in a time-sharing manner, or a plurality of tone generation circuits may be formed by using one tone generator circuit for each tone generation channel. You may make it comprise.
[0030]
The MIDI interface (MIDI I / F) 16 can be connected to a
[0031]
The
[0032]
The
[0033]
The
[0034]
The
[0035]
FIG. 2 is a flowchart showing a main process performed by the performance
[0036]
In step SA1, the main process is started, and the process proceeds to the next step SA2.
[0037]
In step SA2, various flags and buffers in the
[0038]
In step SA3, music data for performing music data processing according to this embodiment is selected. The music data is selected, for example, by displaying a list of music data stored in the
[0039]
In step SA4, the operation status of the
[0040]
In step SA5, the music data processing which will be described later with reference to FIG. 3 is performed on the music data selected and read in step SA3. Thereafter, the process proceeds to Step SA6.
[0041]
In step SA6, a performance signal is generated based on the music data processed in step SA5, other music data, or performance information input by the performer via the
[0042]
In step SA7, the performance signal generated in step SA6 is sent to, for example, the
[0043]
If the reproduction of the music data is not set, after the music data processing process in step SA5, the process proceeds to step SA8 and the main process is terminated.
[0044]
FIG. 3 is a flowchart showing the music data processing performed in step SA5 of FIG.
[0045]
This music data processing is a process for separating and extracting the sound to be emphasized (note data) and the sound that is not so from the music data of multiple sounds, and appropriately controlling the volume balance.
[0046]
Specifically, a note data group that is sounding at the same time is searched, the highest sound is set as the highest voice part (melody line), the lowest sound is set as the lowest voice part (baseline), and the volume is set higher. It is also possible to search for a note data group that starts sounding at the same time or almost at the same time. However, if this is done, inconvenience occurs when the rhythm differs between the upper voice part and the lower voice part.
[0047]
In this specification, the note data group “sounded almost simultaneously” (or “sounding at almost the same time”) is a time difference that is considered to be pronounced musically or audibly simultaneously. A plurality of note data that are sounded by (or become sounding). Also, a series of note groups that are considered musically as chords can be considered as note data groups that are “sounded almost simultaneously”.
[0048]
In the case of a single tone, the volume is determined by determining the highest voice part, the lowest voice part, or another voice part depending on the situation before and after. Of the other voices, the sound that is pronounced at the same time (note data) is considered to be a melody (or decorative sound) with a relatively short length, and the volume is set to a high level. . Otherwise, set the volume to a lower level.
[0049]
In step SB1, music data processing is started, and the process proceeds to next step SB2.
[0050]
In step SB2, it is determined whether the target track selected in step SA4 in FIG. 2 is a single track or a plurality of tracks. In the case of processing for a single track, the process proceeds to step SB3 indicated by a YES arrow. In the case of the processing process over a plurality of tracks, the process proceeds to step SB20 indicated by a NO arrow.
[0051]
In step SB3, a note data group for a predetermined time is extracted as target note data from the processing target track. The extraction of the target note data is sequentially performed from the start timing of the processing range. Thereafter, the process proceeds to the next step SB4.
[0052]
In step SB4, it is detected whether or not there are a plurality of note data to be pronounced at the same time or substantially the same time in the note data group extracted in step SB3. Here, the note data to be detected includes not only data that starts sounding simultaneously (or almost simultaneously) but also a plurality of note data that are sounding at the same time (or almost at the same time). If there is a plurality of note data to be sounded at substantially the same time, the process proceeds to step SB5 indicated by an arrow of YES, and if not, the process proceeds to step SB15 indicated by an arrow of NO.
[0053]
In step SB5, an average sound length of a plurality of note data to be generated at the same time or substantially the same time detected in step SB4 is calculated. Thereafter, the process proceeds to next Step SB6.
[0054]
In step SB6, one piece of note data that has not been specified for processing is extracted from a plurality of note data that are generated at the same time or substantially the same time detected in step SB4. Thereafter, the process proceeds to the next step SB7.
[0055]
In step SB7, it is determined whether or not the tone length of the note data extracted in step SB6 is less than or equal to half the average tone length calculated in step SB5. If the sound length is less than or equal to half of the average sound length, that is, if the sound length is relatively short relative to the surrounding note data, the process proceeds to step SB8 indicated by a YES arrow. If the sound length is not less than half of the average sound length, that is, if the sound length is relatively long, the process proceeds to step SB9 indicated by a NO arrow.
[0056]
In step SB8, note data whose tone length is half or less than the average tone length is processed and specified as a volume enhancement target (melody line). The reason why the note data whose tone length is less than half the average tone length is the volume enhancement target is that they are estimated as the movement of the melody. Note that since it can be determined that the movement is a melody, the determination is not limited to half or less of the average sound length, but may be determined based on other criteria such as one-third, one-fourth or less. Thereafter, the process proceeds to step SB14.
[0057]
In step SB9, it is determined whether or not the pitch of the note data extracted in step SB6 is the highest note in the plurality of note data that are being sounded at the sounding start time of the note data. That is, it is detected whether or not it is the highest note among the plurality of note data detected in step SB4. If it is the highest sound, the process proceeds to step SB10 indicated by a YES arrow. If it is not the highest sound, the process proceeds to step SB11 indicated by a NO arrow.
[0058]
In step SB10, the note data determined to be the highest sound among the plurality of note data being sounded at the sound generation start time in step SB9 is processed and specified as a melody line (highest voice part). In this embodiment, the melody line is a volume enhancement target. Thereafter, the process proceeds to step SB14.
[0059]
In step SB11, it is determined whether or not the pitch of the note data extracted in step SB6 is the lowest note in the plurality of note data that are being sounded at the sounding start time of the note data. That is, it is detected whether or not it is the lowest note among the plurality of note data detected in step SB4. If it is the lowest tone, the process proceeds to step SB12 indicated by a YES arrow. If it is not the lowest tone, the process proceeds to step SB13 indicated by a NO arrow.
[0060]
In step SB12, the note data determined to be the lowest sound among the plurality of note data being sounded at the sound generation start time in step SB11 is processed and specified as a baseline (lowest voice part). In this embodiment, the baseline is a volume enhancement target. Thereafter, the process proceeds to step SB14.
[0061]
In step SB13, the note data extracted in step SB6 is processed and specified as another part (voice part). Since the other voice parts are not targeted for volume enhancement, the volume is set to be weak later. Thereafter, the process proceeds to next Step SB14.
[0062]
In step SB14, it is determined whether or not the processing specification has been completed for all of the plurality of note data detected in step SB4. When the processing specification is completed, the process proceeds to step SB19 indicated by an arrow of YES. If the process identification has not been completed, the process returns to step SB6 indicated by the NO arrow.
[0063]
From Step SB15 to Step SB18, if it is determined in Step SB4 described above that there is no plural note data to be pronounced at the same time or almost the same time in the note data group extracted at Step SB3, that is, this time extraction. This is a process when the target note data is a single note.
[0064]
In step SB15, it is detected whether or not there is any musical note data around the target musical note data already processed and specified as the lowest voice part and the highest voice part. If there is note data that has been processed and specified, the process proceeds to step SB17 indicated by a YES arrow. If there is no note data that has been specified for processing, the process proceeds to step SB16 indicated by an arrow of NO.
[0065]
In step SB16, the processing specification of the target note data is suspended, and the process proceeds to step SB19. In the case of a single note, processing is specified according to multiple note data processed and specified as the lowest voice part and highest voice part around the reference note data, so that processing is performed until other note data is processed and specified. It cannot be specified. Therefore, the processing specification of the target note data is temporarily suspended here.
[0066]
In step SB17, the target note data is compared with the note data of surrounding timing that has already been processed and specified as the lowest voice portion and the highest voice portion. Thereafter, the process proceeds to next Step SB18.
[0067]
The method of comparison is, for example, performing a weighting operation on a plurality of note data processed and specified as the lowest voice part in the front and rear direction of the target note data, the highest voice part and other voice parts, to determine which note is closest, Specify the same voice as the closest note.
[0068]
As a weighting calculation method, for example, note data having the lowest evaluation index value obtained by the following equation (A) is used as note data of the same voice part.
[0069]
Evaluation index = 2 ^ (closeness in time / length of one bar x pitch difference) ... (A)
The time proximity is the difference between the pronunciation end time of the comparison note data and the pronunciation start time of the target note data when compared with the preceding note data, and the target note when compared with the rear note data. This is the difference between the pronunciation end time of the data and the pronunciation start time of the comparative note data.
[0070]
In step SB18, the target note data is processed and specified according to the comparison result in step SB17. Thereafter, the process proceeds to Step SB19.
[0071]
In step SB19, it is determined whether or not the processing specification has been completed for all the note data within the processing range. When the process specification is completed, the process proceeds to step SB22 indicated by an arrow of YES. If the process identification has not been completed, the process returns to step SB3 indicated by the NO arrow.
[0072]
Steps SB20 to SB21 are processes when the target track selected in step SA4 in FIG. 2 is a plurality of tracks. When multiple tracks are selected, the part (voice part) is determined for each track.
[0073]
In step SB20, a plurality of note data to be generated at the same time or almost the same time for each track is acquired. Thereafter, the process proceeds to next Step SB21.
[0074]
In step SB21, the note data acquired in step SB20 are compared to determine the part (voice part) of each track. Thereafter, the process proceeds to Step SB22.
[0075]
In step SB22, the volume of the note data (or track) is changed according to the processing specific result. The volume is changed, for example, by setting the velocity value of the highest voice part (melody line) to +24, the velocity value of the lowest voice part (baseline) to +8, and the velocity values of the other voice parts to -8. . Thereafter, the process proceeds to the next step SB23.
[0076]
In step SB23, the music data whose volume is changed in step SB22 is recorded. In the recording process, the music data temporarily processed may be recorded in a RAM or the like, or may be stored in an external storage device. Further, it may be overwritten on the music data before processing, or may be saved as a separate file. Thereafter, the process proceeds to the next step SB24, and the music data processing process is terminated.
[0077]
As described above, according to the present embodiment, it is possible to designate the note data of the complex (chord) portion of the music data as an appropriate part (voice part) according to each pitch value. In addition, a single sound portion of music data can be designated as an appropriate part by comparing it with surrounding note data.
[0078]
Further, according to the present embodiment, the volume of the note data in the music data can be adjusted according to the part of the note data. Since music data can be set to an appropriate volume according to the part, automatic performance can be performed with a more natural volume balance.
[0079]
Further, according to the present embodiment, the average note length of the note data that is pronounced simultaneously or almost simultaneously with the target note data is calculated and compared with the note length of the target note data, so that the note data having a relatively short length is obtained. Can be extracted. In addition, it is possible to perform an automatic performance with a natural volume balance by emphasizing the volume using note data having a relatively short length as a melody line.
[0080]
Further, according to this embodiment, each track of music data having a plurality of tracks can be designated as an appropriate part. In addition, since an appropriate volume can be set for each part, automatic performance can be performed with a more natural volume balance.
[0081]
In the present embodiment, only the volume of the note data that meets a specific condition is emphasized. However, if only the enhancement is performed, the volume of the harmony increases in addition to the result of balancing the harmony. There is a fear. Therefore, for note data that does not match a specific condition, the volume of the entire harmony can be kept constant before and after editing by reducing the volume. In addition, if this is done, there will be no difference in volume between the harmony part and the other parts.
[0082]
The format of the music data (performance information) is “event + relative time” that shows the time of occurrence of the performance event as the time from the previous event, and the time of occurrence of the performance event is the absolute time in the song or measure. "Event + absolute time" expressed, "pitch (rest) + note length" representing music information by note pitch and note length or rest and rest length, memory area for each minimum performance resolution Can be used in any format such as a “solid method” in which a performance event is stored in a memory area corresponding to the time at which the performance event occurs.
[0083]
Further, as a method of storing music data for a plurality of channels, a format in which data of a plurality of channels is mixed and stored, or a format in which data of each channel is stored separately for each track may be used.
[0084]
Further, in the memory, time-series music information may be stored in a continuous address area, or data stored in a scattered address area is separately managed as continuous data. May be. That is, it only needs to be managed as time-sequential data, and it does not matter whether the data is continuously stored in the memory.
[0085]
The performance
[0086]
When the performance
[0087]
In addition, the sound source device, the automatic performance device, etc. are not limited to those built in one electronic musical instrument body, but each is a separate device, and each device is connected using a communication process such as MIDI or various networks. There may be.
[0088]
In addition, you may make it implement a present Example by the commercially available computer etc. which installed the computer program etc. corresponding to a present Example.
[0089]
In that case, the computer program or the like corresponding to the present embodiment may be provided to the user while being stored in a storage medium that can be read by the computer, such as a CD-ROM or a floppy disk.
[0090]
When the computer or the like is connected to a communication network such as a LAN, the Internet, or a telephone line, a computer program or various data may be provided to the computer or the like via the communication network.
[0091]
Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0092]
【The invention's effect】
As described above, according to the present invention, performance expressions can be automatically and easily added to music data.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a computer or an electronic musical instrument constituting a performance
FIG. 2 is a flowchart showing main processing performed by the performance
FIG. 3 is a flowchart showing music data processing performed in step SA5 of FIG.
[Explanation of symbols]
DESCRIPTION OF
Claims (5)
前記抽出した複数の音符データの音高を比較し、該複数の音符データのそれぞれを最高声部、最低声部及びその他の声部のいずれかに分類する第1の分類手段と、
前記抽出した単音の音符データと前記第1の分類手段により分類された前記複数の音符データとを比較し、前記抽出した単音の音符データを最高声部、最低声部及びその他の声部のいずれかに分類する第2の分類手段と、
前記第1及び第2の分類手段による分類に応じて、前記複数の音符データ及び単音の音符データの発音音量を制御する制御手段と
を有する演奏情報処理装置。Extracting means for extracting from the music data a plurality of note data for which the start of sound generation is specified simultaneously or substantially simultaneously and the single note data for which there is no other note data for which start of sound generation is specified simultaneously or substantially simultaneously ,
A first classification means for comparing pitches of the plurality of extracted note data and classifying each of the plurality of note data into one of a highest voice part, a lowest voice part, and another voice part;
The extracted single note data is compared with the plurality of note data classified by the first classification means, and the extracted single note data is selected from the highest voice part, the lowest voice part, and other voice parts. A second classification means for classifying
A performance information processing apparatus comprising: control means for controlling the sound volume of the plurality of note data and single note data in accordance with the classification by the first and second classification means.
前記抽出した複数の音符データの音高を比較し、該複数の音符データのそれぞれを最高声部、最低声部及びその他の声部のいずれかに分類する第1の分類工程と、
前記抽出した単音の音符データと前記第1の分類工程により分類された前記複数の音符データとを比較し、前記抽出した単音の音符データを最高声部、最低声部及びその他の声部のいずれかに分類する第2の分類工程と、
前記第1及び第2の分類工程による分類に応じて、前記複数の音符データ及び単音の音符データの発音音量を制御する制御工程と
を有する演奏情報処理方法。An extraction step of extracting from the music data a plurality of note data for which the start of sound generation is specified simultaneously or substantially simultaneously, and single note data for which there is no other note data for which start of sound generation is specified simultaneously or substantially simultaneously; ,
A first classification step of comparing the pitches of the plurality of extracted note data and classifying each of the plurality of note data into one of the highest voice part, the lowest voice part, and other voice parts;
The extracted single note data is compared with the plurality of note data classified in the first classification step, and the extracted single note data is selected from the highest voice part, the lowest voice part, and other voice parts. A second classification step for classifying
A performance information processing method comprising: a control step of controlling a sound volume of the plurality of note data and single note data in accordance with the classification by the first and second classification steps.
前記抽出した複数の音符データの音高を比較し、該複数の音符データのそれぞれを最高声部、最低声部及びその他の声部のいずれかに分類する第1の分類手順と、
前記抽出した単音の音符データと前記第1の分類手順により分類された前記複数の音符データとを比較し、前記抽出した単音の音符データを最高声部、最低声部及びその他の声部のいずれかに分類する第2の分類手順と、
前記第1及び第2の分類手順による分類に応じて、前記複数の音符データ及び単音の音符データの発音音量を制御する制御手順と
を有する演奏情報処理手順をコンピュータに実行させるためのプログラム。An extraction procedure for extracting from the music data a plurality of note data for which the start of sound generation is specified at the same time or at the same time and a single note data for which there is no other note data for which the start of sound generation is specified at the same time or at the same time; ,
A first classification procedure for comparing pitches of the plurality of extracted note data and classifying each of the plurality of note data into one of a highest voice part, a lowest voice part, and another voice part;
The extracted single note data is compared with the plurality of note data classified by the first classification procedure, and the extracted single note data is selected from the highest voice part, the lowest voice part, and other voice parts. A second classification procedure for classifying
A program for causing a computer to execute a performance information processing procedure including a control procedure for controlling the sound volume of the plurality of note data and single note data according to the classification by the first and second classification procedures.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001277668A JP3680776B2 (en) | 2001-09-13 | 2001-09-13 | Performance information processing apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001277668A JP3680776B2 (en) | 2001-09-13 | 2001-09-13 | Performance information processing apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003084769A JP2003084769A (en) | 2003-03-19 |
JP3680776B2 true JP3680776B2 (en) | 2005-08-10 |
Family
ID=19102157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001277668A Expired - Fee Related JP3680776B2 (en) | 2001-09-13 | 2001-09-13 | Performance information processing apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3680776B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3177991B2 (en) * | 1990-12-31 | 2001-06-18 | カシオ計算機株式会社 | Score interpreter |
JPH06308956A (en) * | 1993-04-20 | 1994-11-04 | Kawai Musical Instr Mfg Co Ltd | Automatic musical performance device |
JP3704842B2 (en) * | 1996-09-30 | 2005-10-12 | ヤマハ株式会社 | Performance data converter |
JPH10288989A (en) * | 1997-04-15 | 1998-10-27 | Roland Corp | Electronic musical instrument |
JP3675287B2 (en) * | 1999-08-09 | 2005-07-27 | ヤマハ株式会社 | Performance data creation device |
-
2001
- 2001-09-13 JP JP2001277668A patent/JP3680776B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003084769A (en) | 2003-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2921428B2 (en) | Karaoke equipment | |
JP3718919B2 (en) | Karaoke equipment | |
JP3528654B2 (en) | Melody generator, rhythm generator, and recording medium | |
JP3637775B2 (en) | Melody generator and recording medium | |
JP3915807B2 (en) | Automatic performance determination device and program | |
JP4407473B2 (en) | Performance method determining device and program | |
JP2002073064A (en) | Voice processor, voice processing method and information recording medium | |
JP3680776B2 (en) | Performance information processing apparatus, method and program | |
JPH06230783A (en) | Electronic musical instrument | |
JP4534967B2 (en) | Tone and / or effect setting device and program | |
JP3656584B2 (en) | Performance data processing apparatus and program | |
JP3654227B2 (en) | Music data editing apparatus and program | |
JP4123242B2 (en) | Performance signal processing apparatus and program | |
JP3752859B2 (en) | Automatic composer and recording medium | |
JP3680756B2 (en) | Music data editing apparatus, method, and program | |
US6476305B2 (en) | Method and apparatus for modifying musical performance data | |
JP2002268637A (en) | Meter deciding apparatus and program | |
JP4186802B2 (en) | Automatic accompaniment generator and program | |
JP4182889B2 (en) | Chord composition pitch determination device and program | |
JP3777976B2 (en) | Performance information analyzing apparatus and recording medium | |
JP3173310B2 (en) | Harmony generator | |
JP3960242B2 (en) | Automatic accompaniment device and automatic accompaniment program | |
JP4148755B2 (en) | Audio data processing apparatus and medium on which data processing program is recorded | |
JPH08234772A (en) | Karaoke device | |
JP2016057389A (en) | Chord determination device and chord determination program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041102 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050201 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050509 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3680776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090527 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100527 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110527 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130527 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140527 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |